Dans cet article, nous allons nous intéresser à comment les IA conversationnelles apprennent et en quoi nous leur restons (encore) supérieurs en termes de capacités d’apprentissage.
Les créateurs d’IA ont développé ce qu’on appelle les LLM (large language model) : de puissants algorithmes d’apprentissage. Nous verrons donc comment ces IA “apprennent”. Nous verrons aussi que les humains conservent des “privilèges” en apprentissage. À condition que les formateurs et tuteurs (humains ou…IA) suscitent l’intérêt et l’esprit critique des apprenants, développent des pédagogies actives et réflexives et garantissent que l’humain conserve la primauté dans la maîtrise de son propre processus d’apprentissage !
Comment apprennent les intelligences artificielles ?
Les grands “inventeurs” des IA (John Hopfield, Yann Le Cun, Geoffrey Hinton, Judea Pearl, Richard Sutton, Andrew Barto…) se sont intéressés aux études sur le cerveau humain et aux travaux de pédagogues comme Jean Piaget, pour comprendre comment l’apprentissage humain pouvait être “modélisé” et introduit dans une machine !
Ainsi, les IA ont progressé notamment grâce aux innovations suivantes : réseaux de neurones, apprentissage par renforcement = (l’IA apprend par essais et erreurs, en ajustant ses actions en fonction de “récompenses”), modélisation probabilistique (l’IA prédit les résultats en fonction de probabilités), deep learning (apprentissages profonds), toutes inspirées des études sur l’apprentissage humain. À la nuance près, que l’IA ne possède pas de processus cognitif ou émotionnel comparable à l’humain…
Les intelligences artificielles basées sur les réseaux neuronaux , apprennent (en résumé très simplifié) en ingurgitant beaucoup de données, en y trouvant, grâce à leurs algorithmes (programmes informatiques), des “modèles” et des “rapprochements”. Puis pour se perfectionner, elles procèdent à des “apprentissages automatiques” et affinent leurs modèles. Évidemment tout ceci est “énergivore”, mais c’est un autre débat…
En comparaison, notre cerveau humain est capable d’apprendre par quelques expérimentations et réflexions critiques, en consommant seulement quelques grammes de glucose. On appelle ça en formation, la “réflexivité”, par exemple !
À la base, deux façons d’entrainer les IA conversationnelles
L’IA au départ est (sommairement) “instruite” par deux méthodes : les “apprentissages supervisés” ou “non supervisés”, tous deux supposant beaucoup de puissance de calcul…
Dans l’apprentissage supervisé, le concepteur de l’IA lui donne à la fois l’entrée et la réponse correcte. Par exemple pour la reconnaissance d’images, des milliers d’images de chats et aussi de chiens, de peluches, etc. Des “étiquettes” sont fournies à l’IA pour trouver où sont les chats. L’astuce des “étiquettes” entraine l’IA à reconnaître la petite truffe du chat ou la forme triangulaire particulière de ses oreilles.
En apprentissage non supervisé, l’IA s’entraine par exemple à deviner les mots qui manquent dans une phrase. Elle ingurgite d’abord énormément de textes, pour identifier des mots apparaissant souvent ensemble dans des phrases. Exemple : “chat”, “chien”, “mangent” et “animaux”. En analysant la place de mots dans les phrases, elle finit (statistiquement) par voir des corrélations grammaticales et deviner les 2 mots manquants “des croquettes” dans la phrase : “le chat et le chien sont des animaux qui mangent des croquettes”.
Comment les IA apprennent encore ?
Une IA de type ChatGPT apprend en ajustant ses “prédictions” en fonction des erreurs commises et des retours des utilisateurs. DeepSeek, nouvelle star des IA, s’entraînerait par “transfer learning”. Grosso modo, au lieu de recommencer son entraînement depuis zéro à chaque fois, elle “transfèrerait” des connaissances déjà acquises. Ses concepteurs ont dû s’inspirer de ce qu’on appelle le transfert pédagogique pour les humains. Nos IA s’améliorent donc au fur et à mesure de notre utilisation ! Elle apprennent de nos feed-back et les sollicitent pour ajuster leurs algorithmes… Elles s’habituent à nos demandes, à nos façons d’interagir avec elles et peuvent même s’auto-critiquer !
L’avantage des IA, c’est leur capacité à ingurgiter tous les textes publiés sur internet, soit des dizaines de milliers de milliards de données (imaginez un nombre d’octets composé d’un 2 suivi de 13 zéros). Nous avons nous, une compréhension plus complète et une capacité d’apprentissage concrète, sensorielle, consciente et profonde du monde qui nous entoure. D’après certains psychologues, un enfant moyen de 4 ans a déjà traité 50 fois plus de données (avec ses 5 sens) qu’une IA, via tous les textes écrits sur internet !
L’IA peut-elle apprendre par créativité ?
L’intelligence artificielle peut-elle être créative dans son apprentissage ? Apparemment ce n’est pas pour tout de suite !
Quand nous apprenons, nous nous inspirons des autres et de nouveaux concepts et nous faisons des liens créatifs et des réflexions projectives. Par exemple avec certaines méthodes de réflexivité d’équipe. Alors que l‘IA apprend de ce qu’elle a déjà reçue.
L’IA peut certes générer des résultats qui nous semblent créatifs, mais elle se base sur des modèles de données existants. L’IA ne “crée” pas, dans le sens où nous le faisons : avec une conscience, des intentions ou émotions !
L’IA ne peut pas non plus (à ce stade), contester les schémas de ses concepteurs. Elle ne peut pas (pour l’instant) remettre en question son apprentissage antérieur ! L’IA actuelle est limitée par ses créateurs à faire certaines choses et à n’utiliser que les données qu’elle possède ou qu’on lui donne pour “se former”. Cela changera, peut-être, avec ce que les géants de la tech promettent : l’IA autonome. Mais une IA aura-t’elle réellement une intention “par elle-même” de penser ?
L’IA traite des données bien mieux que l’être humain et est déjà plus performante que l’humain dans les métiers d’analyse ! Les “raisoning systems” des IA copient le raisonnement humain : traiter des informations, tenter différentes règles logiques pour en déduire une conclusion, mais bien plus vite que l’humain. Mais une IA ne sait pas apprendre de manière créative et n’a pas de conscience ! On peut en avoir l’illusion, quand son créateur humain en crée justement l’illusion ! Et puis, une IA ne peut pas prendre en compte les nuances émotionnelles ou contextuelles, d’une situation de travail compliquée, par exemple !
En vous abonnant à la Newsletter de C-Campus, vous avez de la lecture utile chaque semaine, vu que vous recevrez chaque lundi matin, notre nouvel article de la semaine. C’est gratuit et c’est ici !
Comment apprennent les êtres humains ?
Si on simplifie là-aussi, on peut repérer des grandes “familles” d’apprentissage chez nous, les humains :
- L’apprentissage par imitation et exemples : l’enfant notamment apprend en observant et en imitant les actions de ceux qui l’entourent. Ce processus n’est pas passif : le petit enfant adapte et interprète le langage, selon son propre développement. Il construit ses propres savoirs et concepts linguistiques à partir des exemples qu’il voit et entend.
- L’apprentissage statistique : l’humain apprend aussi (et les concepteurs d’IA l’ont bien saisi) par l’analyse des situations qu’il rencontre ou des expériences qu’il vit, en traitant des “fréquences et des probabilités”. Les “réseaux bayésiens” utilisés en intelligence artificielle s’inspirent d’ailleurs de cette capacité humaine à apprendre de manière probabiliste, en fonction des expériences passées et du vécu personnel ou de l’entourage.
- L’humain peut aussi se développer et apprendre par la “résistance cognitive”, comme l’a expliqué Olivier Houdé. En mobilisant son “système 2 de pensée” comme l’a décrit le Prix Nobel Daniel Kahneman , ce qui évite de tomber dans certains “pièges” des habitudes : par exemple rouler à droite de la route, alors qu’on est en Angleterre !
- L’apprentissage par tâtonnement expérimental : enfin, l’humain apprend par l’essai, la tentative et l’erreur. Nous procédons par itérations, essais et d’ajustements. Les erreurs sont intégrées à notre processus d’apprentissage et quelque part, nous devons faire des erreurs, pour bien apprendre. Sur ce plan de l’apprentissage des “erreurs”, les concepteurs d’IA se sont aussi inspirés du cerveau humain.
Nous allons aborder maintenant le point le plus intéressant : l’apprentissage humain, à l’inverse de l’IA, repose aussi sur d’autres mécanismes riches et complexes, nourris par des intuitions, des émotions, des sensations, des préférences et goûts, des réflexions avec soi-même, des interactions sociales et un contexte culturel.
Une IA ne peut pas échapper à ses limites physiques : des puces composées de silice, reliées à une source d’énergie électrique. Ce n’est pas pour tout de suite a priori, qu’une IA pratiquera la spéléologie ou la plongée en apnée et qu’elle en retirera des enseignements sur les sensations corporelles et émotionnelles éprouvées, vu qu’elle n’a pas de corps ! Les robots humanoïdes auront certes un semblant d’existence corporelle mais la fusion homme-machine est encore de la science-fiction…
Quels privilèges conservons-nous en termes d’apprentissages ?
Si l’IA est appréciable comme un formidable outil d’apprentissage et de productivité, nous possédons donc des “privilèges”. L’humain excelle dans la pensée critique, la créativité, l’invention de nouvelles idées (sans données préalables) et l’adaptabilité. Les IA ne réalisent pas de “sauts conceptuels”, comme Einstein avec sa théorie de la relativité restreinte, Picasso et Braque avec le cubisme ou nous-même, quand nous trouvons une nouvelle astuce pour redémarrer une tondeuse à gazon récalcitrante (moi c’est de la faire se cabrer !). Elles n’en ont d’ailleurs aucune intention, sauf à être dirigées par un humain !
Certaines IA semblent imiter des émotions humaines ou donner des réponses contextuelles (assistants virtuels “semblant” empathiques). Mais ces réactions sont programmées, et non le fruit d’une réelle compréhension ou expérience émotionnelle ou charnelle.
Antonio Damasio a démontré que l’humain prend ses décisions en associant émotions et raisonnement. Une capacité que DeepSeek et ChatGPT, ne possèdent pas. L’IA actuelle ne fait (sommairement) que traiter des informations numérisées. Elle ne ressent rien, ce qui limite sa capacité à prendre des décisions dans des situations compliquées, floues, ambiguës, incertaines, variant sans cesse. Ce qui est quand même notre lot quotidien au travail !
Pour conclure : à écouter la star française de l’IA Yann Le Cun, les IA actuelles seraient des sortes de “super mémoires artificielles”, assorties d’outils complémentaires, comme des super calculettes, par exemple. Mais elles ne peuvent pas inventer, ni comprendre le monde ! Comme on vous l’explique depuis 2012 dans ce blog, nos apprenants humains, accompagnés par de bons formateurs et tuteurs, peuvent eux développer une vision du monde complexe, comprendre des contextes sociaux, culturels et moraux. Ils peuvent faire preuve d’intelligence sociale, mener des “conversations apprenantes” (y compris avec des IA) acquérir une capacité à apprendre par eux-mêmes ou développer une pensée critique : chacun peut par exemple, utiliser la réflexivité sur sa propre pratique, etc.
Une IA LLM exécute des tâches spécifiques avec une grande efficacité, surtout si on sait bien la diriger. Elle nous est, ou sera, d’une grande aide dans tous les processus “automatisables” lorsque nous formons ou nous apprenons. Mais elle ne peut pas vraiment saisir la subtilité des dynamiques humaines. C’est un peu comme si vous demandiez (par exemple) à votre IA préférée, si l’ambiance dans tel service ou tel Open Space est bonne ! Vous risquez d’avoir des réponses “techniques” de l’IA, du type “voici une liste de 20 critères de mesure d’ambiance” ou des questions de sa part sur votre propre ressenti de l’ambiance ! Allez donc plutôt sentir l’ambiance à la machine à café !