ActualitéLes IA

Apprentissage IA : humains et machines alliés ?

L’apprentissage IA fascine autant qu’il interroge. Une étude récente publiée dans Nature Human Behavior révèle quelque chose de surprenant. Les humains et les petits réseaux de neurones artificiels développent des stratégies d’apprentissage similaires. Tout dépend de la distribution statistique des données utilisées pour les entraîner. Ce constat ouvre une nouvelle ère dans la psychologie comparée entre humains et machines. Il invite à repenser ce que signifie vraiment apprendre.

Apprentissage IA

Deux façons d’apprendre, une seule question

Depuis toujours, psychologues et éthologue cherchent à comprendre comment nous apprenons. Deux grandes dimensions de l’intelligence ont été identifiées. L’intelligence cristallisée regroupe les connaissances stables, mémorisées par association. L’intelligence fluide recouvre les capacités de raisonnement et d’inférence. Ces deux dimensions ont leur équivalent en IA.

On parle d’apprentissage in-weight pour désigner la mémorisation d’une association directe — comme retenir que 2 x 4 = 8. On parle d’apprentissage in-context pour désigner la capacité à appliquer une règle de raisonnement — comme calculer 6 x 13 étape par étape. Dans un cas, on mémorise. Dans l’autre, on raisonne. Les humains font les deux. Les machines aussi. C’est là que tout devient intéressant.

Ce que révèle la distribution statistique des données

Jacques Pesnot Lerousseau, chercheur en sciences cognitives à l’université d’Aix-Marseille, a mené une expérience ingénieuse. Il a soumis des humains et de petits réseaux de type Transformer à la même tâche : associer des images à des nombres. La variable clé était la distribution statistique des données d’entraînement.

Résultat ? Lorsque les données sont très redondantes, humains et machines privilégient la stratégie in-weight. Ils mémorisent par association. Lorsque les données sont très variées, les deux adoptent la stratégie in-context. Ils raisonnent à partir de règles. Le point de bascule est identique chez l’humain et le Transformer. Il se situe à α = 1 sur l’indice d’asymétrie de la distribution.

Ce parallèle est remarquable. Il suggère que nos mécanismes cognitifs ne sont peut-être pas si éloignés de ceux des machines que nous avons créées. L’environnement façonne la stratégie. Chez l’humain comme chez l’IA.

L’architecture Transformer : clé de voûte du rapprochement

Pour comprendre ce parallèle, il faut saisir le fonctionnement de l’architecture Transformer. Ces réseaux sont entraînés à prédire le token le plus probable dans une séquence textuelle. Chaque couche du réseau affine la représentation de chaque élément. Les tokens s’influencent mutuellement selon le contexte.

Prenons un exemple simple. Le mot « chaîne » peut désigner une chaîne hi-fi, une chaîne en métal ou une chaîne de télévision. Seul, il est ambigu. Mais dans la phrase « j’écoute de la musique sur une chaîne… », le mot « musique » oriente la représentation. Le réseau lève l’ambiguïté. C’est exactement ce que fait notre cerveau. Cette capacité de contextualisation est au cœur du rapprochement entre IA et cognition humaine.

Compétences IA : quand humains et machines apprennent ensemble

Apprentissage IA

Cette recherche soulève des enjeux concrets pour le développement des compétences IA. Si les humains et les machines partagent des mécanismes d’apprentissage en IA, cela transforme la manière dont nous pouvons former et évaluer les deux. Les systèmes d’IA peuvent devenir des outils pédagogiques puissants — à condition d’en comprendre les limites.

Car les limites existent. Et elles sont importantes. Dans le domaine du journalisme, par exemple, l’IA peut générer des résumés, des synthèses, des pistes de recherche. Mais elle peut aussi produire des hallucinations : des citations inventées, des faits erronés présentés avec une confiance déconcertante. Le site business-ia.com a documenté ce phénomène à travers l’affaire Vandermeersch, du nom d’un journaliste suspendu pour avoir publié des citations fabriquées par l’IA sans vérification. Cette affaire illustre une vérité fondamentale : les compétences IA ne remplacent pas le jugement humain. Elles le complètent — quand elles sont bien utilisées.

La flexibilité : ce qui différencie encore l’humain

L’étude met en lumière une différence cruciale. Les humains font preuve d’une flexibilité cognitive que les petits réseaux de neurones n’ont pas encore. Lorsqu’on commence par entraîner un humain sur des données variées, puis qu’on passe à des données redondantes, il conserve la stratégie de raisonnement acquise. Il mémorise simplement les nouveaux items en plus.

Les petits Transformers, eux, « oublient ». Ce phénomène s’appelle l’interférence catastrophique. Quand la distribution change radicalement, le réseau modifie ses paramètres pour s’adapter. Ce faisant, il efface ce qu’il avait appris. L’ordre d’apprentissage est décisif. Commencer par le divers aide à développer une règle robuste. Commencer par le redondant enferme dans la mémorisation associative.

Cette asymétrie est précieuse. Elle rappelle que l’ordre dans lequel on expose un apprenant — humain ou machine — à des données n’est pas anodin. Il structure profondément les stratégies cognitives qui en émergent.

Un mécanisme d’induction partagé

Pour aller encore plus loin, les chercheurs ont analysé comment humains et Transformers résolvent les tâches in-context. Grâce aux méthodes d’interprétabilité (les neurosciences des machines) et au mouse tracking (le suivi des mouvements de souris en psychologie cognitive), ils ont identifié un mécanisme d’induction commun.

Ce mécanisme se déroule en deux étapes. D’abord, relier l’élément central à son homologue dans l’environnement de test. Ensuite, chercher la solution trois places plus loin. Humains et machines suivent le même cheminement. Ce résultat est novateur. Il montre que le processus de résolution — et pas seulement le résultat — peut être partagé entre biologie et algorithme.

Des résultats à interpréter avec prudence

Il faut rester humble face à ces découvertes. Le cadre de l’étude est volontairement réductionniste. Les concepts utilisés — intelligence fluide, intelligence cristallisée — sont simplifiés à l’extrême. Les réseaux de neurones utilisés sont minuscules comparés aux grands modèles de langage actuels comme GPT ou Claude.

Jacques Pesnot Lerousseau le reconnaît lui-même : on a joué dans un « bac à sable » avec des modèles très simplifiés. Les grands modèles actuels résistent peut-être à l’interférence catastrophique. Ils apprennent probablement d’une manière plus complexe. La recherche devra remonter progressivement vers cette complexité.

Vers une alliance cognitive durable

Apprentissage IA

L’apprentissage IA n’est plus une métaphore. C’est une réalité qui interroge nos représentations de l’intelligence, de la mémoire et du raisonnement. Humains et machines ne s’opposent pas. Ils se ressemblent, dans leurs forces comme dans leurs limites.

Cette convergence est une invitation. Une invitation à collaborer intelligemment, à former les humains à maîtriser les outils IA, et à concevoir des systèmes qui s’adaptent à la manière dont nous apprenons. La prochaine frontière n’est pas l’IA contre l’humain. C’est l’IA avec l’humain — au service d’un apprentissage plus riche, plus robuste, plus humain.

Leave a Reply

Your email address will not be published. Required fields are marked *