Acteurs Locaux Les deux Savoie – Intelligence artificielle : comprendre pour ne plus craindre


Acteurs Locaux Les deux Savoie – Intelligence artificielle : comprendre pour ne plus craindre

Article
Accueil Les 2 Savoie
 
| Les 2 Savoie | Divers | Divers  Vu 1659 fois
Article N°29171

Acteurs Locaux Les deux Savoie – Intelligence artificielle : comprendre pour ne plus craindre

Comment l’intelligence artificielle transforme déjà notre manière de travailler, d’apprendre et de créer, et pourquoi comprendre son fonctionnement est devenu essentiel pour distinguer les promesses réelles des idées reçues.
 


Une révolution technologique… ou quelque chose de plus profond ?
Il arrive qu’une technologie surgisse presque sans prévenir et s’impose soudain dans toutes les conversations. C’est exactement ce qui s’est produit avec l’intelligence artificielle.
En l’espace de quelques mois, des outils comme ChatGPT, Copilot ou Gemini ont fait irruption dans notre quotidien. On les voit apparaître dans les entreprises, dans les universités, dans les médias et même dans les discussions familiales.
Certains y voient une révolution comparable à l’arrivée d’Internet. D’autres redoutent une technologie capable de remplacer les humains dans de nombreux métiers. Entre fascination et inquiétude, il devient parfois difficile de distinguer ce qui relève de la réalité… des idées reçues.
Pour comprendre ce qui se joue réellement, il faut prendre un peu de recul.

Une nouvelle étape dans une longue histoire
S’il y a bien un fil conducteur dans mon parcours, c’est celui du changement technologique.
Quand j’ai commencé mes études à l’université, j’utilisais une machine à écrire. Pour dessiner des molécules en chimie organique, je me servais d’un pochoir. Les bibliothèques étaient remplies de livres physiques et trouver un article scientifique demandait souvent du temps et de la patience. Aujourd’hui, ces mêmes articles sont accessibles instantanément depuis n’importe quel ordinateur. Les logiciels dessinent des molécules en quelques secondes. Les bases de données scientifiques sont consultables en ligne.
En l’espace de quelques décennies, notre rapport à l’information a profondément changé.
Cette évolution n’est pas unique. L’histoire des technologies est jalonnée de ruptures similaires.
L’imprimerie de Gutenberg a bouleversé la diffusion du savoir. L’électricité a transformé l’industrie. Internet a révolutionné l’accès à l’information.
L’intelligence artificielle pourrait bien représenter la prochaine étape de cette transformation.

Mais au fait, qu’est-ce que l’intelligence artificielle ?
Le terme peut être trompeur.
Lorsqu’on parle d’intelligence artificielle aujourd’hui, on pense souvent à des systèmes capables d’écrire des textes, de générer des images ou de répondre à des questions.
Cela peut donner l’impression qu’une machine pense comme un être humain.
En réalité, le fonctionnement est très différent.
Un modèle d’intelligence artificielle ne possède pas de connaissances au sens humain. Il ne comprend pas le monde au sens humain du terme et ne sait pas si une information est vraie ou fausse.
Il fonctionne en identifiant des relations statistiques entre les mots et les concepts.
Pour simplifier, un modèle de langage analyse des milliards de phrases et apprend quelles associations de mots apparaissent fréquemment ensemble.
Par exemple, il observe que dans un très grand nombre de textes, le mot « ciel » est souvent suivi du mot « bleu ». Il n’en déduit pas une vérité physique sur la couleur du ciel. Il apprend simplement que cette association est très probable.
Lorsqu’un utilisateur pose une question, le modèle génère une réponse en prédisant le mot le plus probable à chaque étape de la phrase.
Le résultat peut être impressionnant, car les probabilités calculées reposent sur d’immenses volumes de données. Mais il reste fondamentalement probabiliste.
C’est la raison pour laquelle une IA peut parfois produire des réponses très convaincantes… mais incorrectes. Ces erreurs sont souvent appelées hallucinations.

L’IA expliquée comme un chef en cuisine



Pour mieux comprendre ce mécanisme, une analogie peut être utile.
Imaginons la préparation d’un plat.
La première étape consiste à réunir les ingrédients : légumes, fruits, épices ou céréales. Dans l’intelligence artificielle, ces ingrédients correspondent aux données utilisées pour entraîner le modèle, comme les livres, les articles ou les pages web.
La deuxième étape correspond à l’apprentissage. Un chef ne mémorise pas toutes les recettes mot à mot. Avec l’expérience, il apprend plutôt les principes de la cuisine : quelles saveurs se marient bien, quelles techniques fonctionnent et quelles combinaisons donnent de bons résultats. Un modèle d’IA apprend d’une manière comparable. En analysant de très nombreux textes, il identifie progressivement des régularités dans le langage et les relations statistiques entre les mots et les idées.
La troisième étape est la préparation du plat. Lorsque quelqu’un passe commande, le chef utilise ce qu’il a appris pour créer une recette adaptée. De la même manière, lorsqu’un utilisateur pose une question, le modèle d’IA combine les schémas qu’il a appris pour générer une réponse nouvelle.
L’IA ne reproduit donc pas simplement un texte existant. Elle assemble des éléments appris pour produire une réponse, un peu comme un chef qui compose un plat à partir de son expérience et des ingrédients disponibles.

Comment fonctionne réellement un modèle d’IA moderne
Derrière l’apparente simplicité d’un chatbot se cache une architecture technique extrêmement complexe. Un modèle d’intelligence artificielle est un système mathématique entraîné sur de grandes quantités de données pour apprendre des régularités dans les données, notamment dans le langage. Il en existe différents types, adaptés à des usages variés, mais leur principe de fonctionnement reste similaire. Le cœur du système est un réseau neuronal composé de milliards de paramètres mathématiques capables de modéliser la structure du langage.
Le fonctionnement peut être résumé en plusieurs étapes.
L’architecture
Les modèles modernes utilisent une architecture appelée Transformer, capable d’analyser les relations entre les mots dans une phrase.
Le pré-entraînement
Le modèle est entraîné sur d’immenses volumes de données : livres, articles scientifiques et pages web.
Au cours de cette phase, il apprend la syntaxe du langage, les relations entre les concepts et les structures argumentatives.
La génération
Lorsqu’une question est posée, les mots sont transformés en nombres appelés tokens. Le modèle calcule ensuite la probabilité des mots suivants et génère le texte mot par mot.
La spécialisation
Un modèle généraliste peut ensuite être spécialisé dans certains domaines : médecine, finance, recherche scientifique ou service client. Cette étape s’appelle le fine-tuning.
Le retour humain
Les réponses sont ensuite évaluées par des humains afin d’améliorer leur qualité et leur sécurité. Cette technique est appelée RLHF (Reinforcement Learning with Human Feedback).
L’ajout de connaissances externes



Plutôt que de modifier le modèle lui-même, il est aussi possible de lui fournir des informations au moment de la requête. Cette approche, appelée RAG (Retrieval-Augmented Generation), consiste à interroger des documents externes pour enrichir la réponse et réduire les erreurs factuelles.
Le RAG, c’est une IA qui va chercher de l’information avant de répondre.
Au lieu de s’appuyer uniquement sur ce qu’elle a appris, elle consulte des données externes, puis construit sa réponse à partir de ces informations.
Cela peut rendre l’IA plus fiable, à condition que les données utilisées soient pertinentes et à jour.

Ce que l’intelligence artificielle change déjà
Pour beaucoup de personnes, l’intelligence artificielle reste une notion abstraite. Pourtant, elle est déjà utilisée dans de nombreux domaines.
La recherche scientifique
Dans certains laboratoires, l’intelligence artificielle aide déjà les chercheurs à analyser d’immenses bases de données chimiques. Dans la recherche de nouveaux médicaments, les scientifiques doivent souvent tester des milliers de molécules avant d’en trouver une prometteuse. En langage humain, des milliards de mots offrent une grande diversité d’exemples, permettant à l’IA d’apprendre efficacement et de générer du texte. En chimie, la découverte de médicaments repose sur un nombre limité de molécules actives par cible, avec des données souvent rares et inégales. Ce manque d’exemples rend l’apprentissage plus difficile et limite la capacité de l’IA à proposer de nouveaux candidats. Les systèmes d’IA peuvent néanmoins analyser ces données et identifier plus rapidement les candidats potentiels.
La médecine
Dans le domaine médical, certains systèmes sont capables d’analyser des images comme des IRM ou des radiographies. Ces outils peuvent signaler des anomalies ou attirer l’attention du radiologue sur certaines zones suspectes.
L’IA agit alors comme un assistant capable d’aider à détecter certains signaux faibles.
Le travail intellectuel
C’est probablement dans ce domaine que l’impact est le plus visible aujourd’hui. Des outils comme ChatGPT ou Copilot permettent de résumer des documents, rédiger des textes, traduire des informations ou explorer rapidement un sujet. Dans de nombreuses organisations, ces outils commencent à être utilisés pour accélérer certaines tâches répétitives. À titre personnel, j’ai également un coup de cœur pour NotebookLM, un outil développé par Google et basé sur les documents que l’on fournit soi-même. En lui donnant par exemple mon CV comme source, l’outil a généré un podcast d’environ onze minutes présentant mon parcours professionnel.
Ce type d’usage illustre la manière dont ces systèmes peuvent analyser et synthétiser rapidement l’information à partir de sources sélectionnées.
La question des données
Il est important de noter que l’utilisation des données que nous fournissons, comme les questions posées ou les documents partagés, peut varier selon les services. Certaines plateformes utilisent les interactions pour améliorer leurs modèles, tandis que d’autres proposent des options de confidentialité renforcées, parfois associées à des offres payantes ou professionnelles.
Les acteurs et les solutions européennes
Des acteurs européens alignés avec les exigences européennes en matière de confidentialité émergent également dans ce domaine. Mistral AI, une entreprise française, développe par exemple des modèles de langage avancés, conçus pour être déployés sur des infrastructures locales, ce qui permet aux organisations de mieux maîtriser l’usage et le traitement de leurs données. On voit aussi apparaître des assistants d’intelligence artificielle comme Euria, développé par Infomaniak en Suisse, et intégrés à des suites collaboratives et hébergés localement, avec une attention particulière portée à la protection des données. Ces solutions mettent également en avant des infrastructures optimisées sur le plan énergétique, notamment grâce à l’utilisation d’énergies renouvelables et à la récupération de chaleur pour chauffer des bâtiments.

Les limites de l’intelligence artificielle
Malgré ses performances impressionnantes, l’intelligence artificielle reste loin d’être parfaite.
Le premier problème est celui des hallucinations. Parce que les modèles fonctionnent sur des probabilités et non sur une connaissance vérifiée du monde, ils peuvent générer des informations incorrectes tout en donnant l’impression d’être très convaincants.
Les biais constituent une autre limite importante. Les modèles apprennent à partir de données produites par les humains. Si ces données contiennent des biais culturels ou sociaux, ces biais peuvent être reproduits par l’IA.
Enfin, les modèles les plus puissants restent difficiles à interpréter. Il est parfois compliqué de comprendre précisément pourquoi un système a produit une réponse particulière. Cette opacité est souvent décrite comme un problème de « boîte noire », ce qui peut rendre certaines décisions difficiles à expliquer ou à justifier.
On peut comparer cela à l’utilisation d’un GPS. La plupart du temps, il vous conduit correctement à destination. Mais il peut aussi vous envoyer dans une rue barrée, vous faire passer par un détour inutile ou vous indiquer une route qui n’existe plus si la carte n’est pas à jour. L’intelligence artificielle fonctionne d’une manière assez similaire : elle propose la réponse la plus probable à partir des informations dont elle dispose, mais cela ne signifie pas que cette réponse est toujours correcte.  Comme avec un GPS, il vaut donc mieux garder les mains sur le volant.

Les enjeux juridiques et éthiques
L’essor rapide de l’intelligence artificielle soulève également de nombreuses questions juridiques et éthiques. Dans la plupart des juridictions, une œuvre créée uniquement par une IA ne peut pas être protégée par le droit d’auteur, car la notion de création repose sur l’intervention humaine. Cette situation reste toutefois en évolution et peut varier selon les pays.
Aux États-Unis, le droit d’auteur prévoit toutefois une exception appelée Fair Use, qui autorise dans certains cas l’utilisation d’œuvres protégées sans permission, notamment pour la recherche, la critique ou l’enseignement. Cette exception n’est toutefois pas automatique : elle est appréciée par les tribunaux, qui évaluent notamment le caractère transformateur de l’usage, la quantité utilisée, la nature de l’œuvre et son impact économique.
Dans le contexte de l’intelligence artificielle, cette question fait aujourd’hui l’objet de débats majeurs. Par exemple, le New York Times a engagé une action en justice contre OpenAI et Microsoft, les accusant d’avoir utilisé des articles protégés pour entraîner leurs modèles sans autorisation. Les entreprises invoquent le Fair Use, en soutenant que cet entraînement constitue un usage transformateur.
L’issue de ces procédures reste incertaine, mais elles pourraient jouer un rôle déterminant dans l’évolution du cadre juridique. Elles posent notamment la question de savoir si l’entraînement des modèles d’IA peut s’appuyer librement sur des contenus protégés ou s’il devra, à terme, être encadré par des licences ou des autorisations spécifiques.
Des plateformes comme Spotify ont également dû adapter leurs règles face à l’arrivée de contenus générés par intelligence artificielle. L’entreprise a notamment supprimé un grand nombre de morceaux jugés frauduleux ou générés de manière automatisée, dont certains imitaient des artistes sans autorisation. Ces évolutions soulèvent des questions importantes en matière de droits d’auteur, d’identité artistique et de transparence, notamment face au développement des technologies de génération vocale.
La question des données personnelles est également centrale. Les systèmes d’IA utilisent souvent d’immenses volumes de données, dont certaines peuvent contenir des informations sensibles.
Pour cette raison, plusieurs régions du monde travaillent actuellement à encadrer ces technologies. L’Union européenne développe par exemple un cadre réglementaire appelé AI Act, qui classe les systèmes d’intelligence artificielle selon leur niveau de risque.
Au-delà des questions juridiques, les usages possibles de ces technologies soulèvent également des débats éthiques. Les modèles d’intelligence artificielle sont en effet des technologies dites à usage dual : ils peuvent servir à des applications civiles utiles, mais aussi être utilisés dans des contextes plus sensibles, par exemple en matière de surveillance, de désinformation ou d’usages militaires.

Une technologie d’augmentation plutôt que de remplacement
L’un des débats les plus fréquents concerne la question suivante : l’intelligence artificielle va-t-elle remplacer les humains ?
La réalité est probablement plus nuancée.
Dans de nombreux cas, l’IA agit plutôt comme un outil d’augmentation. Elle peut également automatiser certaines tâches, ce qui peut avoir un impact réel sur certains métiers ou activités.
Mais elle ne possède ni intuition, ni jugement ni responsabilité.
Dans les domaines critiques comme la médecine, la recherche scientifique ou le droit, la décision finale reste en principe humaine, même si certains systèmes peuvent automatiser une partie des analyses ou des décisions.

Conclusion : Comprendre pour mieux utiliser 
Au début de cet article, je mentionnais le fait que l’intelligence artificielle s’était invitée en très peu de temps dans toutes nos conversations. Entre fascination et inquiétude, il devient parfois difficile de distinguer ce qui relève de la réalité… des idées reçues.
Comme souvent avec les grandes innovations, la vérité se situe probablement entre les deux.
Comme l’imprimerie, l’électricité ou Internet avant elle, l’intelligence artificielle va transformer en profondeur notre rapport à l’information, au travail et à la création.
Mais contrairement à certaines visions spectaculaires, elle ne constitue ni une intelligence autonome ni une entité destinée à se substituer aux humains.
L’intelligence artificielle reste avant tout un outil. Un outil puissant, capable d’accélérer certaines analyses, d’explorer de nouvelles pistes ou d’assister la prise de décision. Mais un outil qui dépend entièrement des données sur lesquelles il est entraîné et de la manière dont nous choisissons de l’utiliser.
Car au fond, utiliser l’intelligence artificielle ressemble un peu à conduire avec un GPS. Il peut nous aider à trouver plus rapidement notre destination, éviter certains détours et gagner du temps. Mais il ne dispense jamais de regarder la route.
Comprendre cette technologie est probablement la meilleure manière d’en tirer parti… sans jamais lâcher le volant.

A propos de l'auteur : Diplômé de l'Université de Genève, Philippe Kamalaprija est Directeur de Projets. Il accompagne les entreprises dans l'adoption de solutions innovantes et durables. (lien).  


Nathalie ROC MAWET

Lien :Philippe KAMALAPRIJA

  • 0
    • j'aime
    • Qui aime ça ? »
  • 0
    • je n'aime pas
    • Qui n'aime pas ça ? »
  •  
 

Réagissez, commentez !

  • Aucun commentaire pour l'instant
rechercher un article, une vidéo...