Comprendre le fonctionnement de l’IA (en termes simples)

|  Laissez vos commentaires

Fonctionnement IA

Cet article fait partie d’un livre blanc consacré à l’éducation à l’ère de l’intelligence artificielle. Chaque semaine, un nouveau chapitre de celui-ci sera publié sur Sydologie. Pour les plus curieux, il est disponible en téléchargement ici.
 
 
 
 
« ChatGPT, c’est juste un perroquet statistique »

« L’IA ne comprend rien, elle prédit des mots »

« C’est impressionnant mais c’est bête ».
 
Vous avez forcément entendu ces phrases, peut-être même les avez-vous déjà prononcées. Je les ai moi-même utilisées en formation, avant de réaliser qu’elles posaient un problème : elles sont à la fois vraies et profondément trompeuses.
 
Pourquoi est-ce important ? Parce que la façon dont nous comprenons l’IA détermine la façon dont nous l’utilisons ; et la manière dont nous l’enseignons.
 
Un formateur convaincu que ChatGPT (ou un autre LLM) « ne fait que recracher du texte » ne posera pas les mêmes exigences à ses apprenants, ni n’en fera le même usage qu’un formateur qui saisit la complexité réelle de ces systèmes.
 
Et, malheureusement, nos étudiants et/ou apprenants, eux, utilisent déjà ces outils massivement, souvent avec des représentations fausses de ce qu’ils font vraiment du fait de raccourci intellectuel.
 
Ce chapitre vise donc à démystifier l’IA en rendant son fonctionnement (plus) accessible, tout en évitant les simplifications trompeuses (et il y en a beaucoup qui circulent).
 
Pas besoin de maîtriser les mathématiques ou la programmation ; l’essentiel est de saisir les principes fondamentaux, les capacités réelles et les limites de ces systèmes.
 

Les principes de base : comment l’IA apprend

 
Commençons par le commencement. Contrairement à la programmation traditionnelle, où l’on écrit des règles pour chaque situation, l’IA moderne repose sur le machine learning, ou apprentissage automatique.
 
Au lieu de programmer des instructions, on entraîne la machine à partir d’exemples, afin qu’elle apprenne elle-même à reconnaître des régularités dans les données. C’est ce mécanisme qui alimente la majorité des systèmes d’IA que nous utilisons aujourd’hui.
 
Imaginons l’apprentissage d’un enfant : il n’apprend pas à reconnaître un chat en mémorisant une liste de critères (« quatre pattes, moustaches, oreilles pointues… »), mais en voyant de nombreux chats différents. Ici, l’IA fait la même chose, mais à une échelle bien plus grande.
 
On distingue généralement trois grandes familles d’apprentissage par l’IA :
 
L’apprentissage supervisé : l’IA apprend à partir d’exemples étiquetés, comme un élève avec un professeur lui indiquant les bonnes réponses.
 
L’apprentissage non supervisé : le système cherche des motifs dans les données sans qu’on lui indique ce qu’il doit trouver.
 
Et l’apprentissage par renforcement : le système apprend par essai et erreur en recevant des récompenses ou des pénalités (un signal numérique : un nombre positif ou un nombre négatif).
 
Ces techniques ont donné naissance à différents types de systèmes, qu’il est utile de distinguer pour ne pas tout mélanger.
 

Fonctionnement de l’IA : de l’IA faible à l’IA générative

 
L’IA faible désigne des systèmes conçus pour exceller dans une tâche précise. Imaginez un champion d’échecs capable de battre n’importe quel humain, mais incapable de reconnaître une photo d’un pion.
 
C’est la logique de nos IA du quotidien : filtres anti-spam, recommandations de séries, traduction automatique, etc. Chacune maîtrise sa partition à la perfection, mais reste sourde à tout ce qui sort de son champ.
 
L’IA forte (ou AGI) désigne un horizon encore théorique : un système capable d’accomplir n’importe quelle tâche intellectuelle humaine. À ce jour, il n’en existe pas, même les modèles les plus impressionnants restent limités, malgré leurs performances parfois stupéfiantes.
 
L’IA générative appartient à l’IA faible, mais elle a changé la donne. Ces modèles génèrent des textes, des images, de la musique, en apprenant les patterns statistiques présents dans des milliards de données. Techniquement, ils prédisent la suite la plus probable d’une séquence selon le contexte donné.
 
Et c’est précisément cette description technique : « prédire la suite la plus probable », qui a alimenté un malentendu persistant (de plus, ce n’est plus tout à fait exactement le cas si on veut être rigoureux).
 

Fonctionnement de l’IA : au-delà du « perroquet stochastique »

 
C’est ici que les choses se compliquent (et deviennent passionnantes, en tout cas selon moi). En 2021, des chercheurs ont qualifié les grands modèles de langage de « perroquets stochastiques », c’est-à-dire des systèmes qui assembleraient des mots sans rien comprendre.
 
Cette hypothèse était légitime à l’époque. Mais la recherche a considérablement avancé depuis, et le tableau est bien plus nuancé qu’on ne le présente généralement sur LinkedIn.
 
Le piège du réductionnisme
 
Dire qu’un LLM « ne fait que prédire le mot suivant » pour conclure qu’il ne comprend rien est comme dire qu’un cerveau « ne fait qu’activer des neurones » pour conclure qu’il ne pense pas. Le mécanisme de bas niveau ne détermine pas les propriétés émergentes (de haut niveau) du système.
 
Geoffrey Hinton, lauréat du prix Nobel de physique 2024 pour ses travaux sur les réseaux de neurones, l’explique ainsi : « Pour prédire le mot suivant avec précision, il faut comprendre la phrase ».
 
Prédire le mot suivant n’est pas une alternative à la compréhension, c’est une propriété émergente nécessaire pour accomplir cette tâche efficacement.
 
Mais peut-on aller au-delà de l’intuition ? Peut-on observer ce qui se passe réellement à l’intérieur de ces systèmes ?
 
Des représentations internes surprenantes
 
Les travaux en interprétabilité mécaniste (approche qui vise à comprendre, de l’intérieur, comment un modèle d’IA transforme des calculs élémentaires en comportements complexes) ont produit des résultats surprenants.
 
Des chercheurs ont entraîné un modèle GPT uniquement sur des séquences de coups du jeu Othello, sans aucune connaissance du plateau ou des règles.
 
Résultat ? En analysant ses activations internes, ils ont découvert qu’il avait spontanément développé une représentation de l’état du plateau.
 
Plus remarquable encore : en modifiant ces représentations (l’état du plateau d’Othello), ils pouvaient contrôler son comportement. Si vous changez artificiellement sa « croyance » sur la position d’un pion, ses prédictions changent en conséquence.
 
Autrement dit, même si on ne lui avait jamais demandé de « représenter le plateau », il avait fini par le faire, parce que c’était la seule manière efficace de bien prédire les coups suivants. Ce n’est pas de la mémorisation. C’est de la représentation structurée qui émerge de la prédiction : précisément ce que le terme « perroquet stochastique » était censé exclure.
 
Ces découvertes sur les représentations internes ouvrent une question encore plus vertigineuse : ces systèmes peuvent-ils modéliser non seulement le monde, mais aussi… nous ?
 
Une « théorie de l’esprit » algorithmique ?
 
Une étude publiée dans Nature Human Behaviour en 2025 a testé GPT-4 sur des tâches de théorie de l’esprit — la capacité à attribuer des états mentaux à autrui : croyances, intentions, désirs.
 
Résultat : le modèle performe au niveau ou au-dessus des humains sur l’identification des fausses croyances et des requêtes indirectes. Sur certaines tâches, comme l’inférence de croyances récursives (des croyances imbriquées les unes dans les autres, où l’on raisonne sur ce quelqu’un pense… à propos de ce que pense un autre : « Je pense que tu crois qu’elle sait que… »), GPT-4 surpasse même les adultes humains.
 
Nuançons toutefois : des travaux récents (Hu, Sosa & Ullman, 2025) distinguent la théorie de l’esprit littérale (prédire ce que quelqu’un va faire), de la théorie de l’esprit fonctionnelle (s’adapter dynamiquement à un interlocuteur en contexte réel).
 
Les LLM excellent sur la première, mais montrent encore des faiblesses sur la seconde. La capacité à « lire » une situation figée n’est pas la même que celle d’ajuster son comportement en temps réel face à un partenaire imprévisible.
 
Ces systèmes ne ressentent rien. Mais ils modélisent nos intentions avec une efficacité telle que l’illusion devient parfois troublante. C’est ce paradoxe qui nous oblige à abandonner les jugements binaires.
 
 
 
Arrêtons-nous là aujourd’hui sur le fonctionnement de l’IA. La semaine prochaine nous nous poserons notamment la question suivante : est-ce que finalement l’IA comprend ?
 
 
 
 
 
Illustration réalisée via Gemini


 , , , ,

Anthony Basille

  • Docteur en Sciences cognitives

Passionné par le comportement humain depuis toujours, mon parcours m’a conduit de l’univers du sport aux frontières des sciences cognitives, en passant par le monde fascinant de l’interaction Homme-machine.

Mon objectif ? Partager avec vous ma passion et mes connaissances, et rendre la science non seulement accessible, mais aussi captivante pour tous.
 

Articles similaires

Révolution cognitive et IA

Cet article est le premier d’une série consacrée à l’éducation à l’ère de l’intelligence artificielle. Régulièrement, un nouveau chapitre sera…


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.