Le responsable de l'IA de Meta publie un document sur la création d'une intelligence artificielle "autonome"
et suggère que les approches actuelles ne mèneront jamais à une véritable intelligence

Yann LeCun, pionnier de l'apprentissage automatique (ML) et responsable de l'IA chez Meta, a récemment publié un article de recherche dans lequel il expose sa vision des IA qui apprennent à connaître le monde comme les humains. L'article laisse entendre, sans l'exprimer clairement, que la plupart des projets actuels en matière d'IA ne seront jamais en mesure d'atteindre cet objectif de niveau humain. En outre, LeCun indique que des problèmes fondamentaux échappent toujours à de nombreuses souches d'apprentissage profond, dont la raison (ou le bon sens). Son ouvrage propose quelques idées pour rapprocher davantage l'IA de l'intelligence humaine.

Yann LeCun est un chercheur français en intelligence artificielle, vice-président et scientifique en chef de l'IA chez Meta, propriétaire des plateformes de médias sociaux Facebook, Instagram et WhatsApp. LeCun a mis au point les réseaux de neurones convolutifs, un principe fondamental sur le terrain, qui, entre autres avantages, ont été essentiels pour rendre l'apprentissage profond plus efficace. Il a été récompensé par le prix Turing 2018 pour ces travaux sur l'apprentissage profond. Il partage ce prix avec les Canadiens Yoshua Bengio et Geoffrey Hinton. Toutefois, LeCun semble convaincu que l'industrie est encore très loin d'une IA "autonome".

Dans un document de recherche publié en juin dans Open Review.net, LeCun propose un moyen de résoudre ce problème en formant les algorithmes d'apprentissage à apprendre plus efficacement, car l'IA a prouvé qu'elle n'était pas très douée pour prédire et planifier les changements dans le monde réel. Par contre, les humains et les animaux sont capables d'acquérir d'énormes quantités de connaissances sur le fonctionnement du monde par l'observation et avec très peu d'interaction physique. Selon LeCun, en raison de ces lacunes, la plupart des approches actuelles de l'IA ne mèneront jamais à une véritable intelligence.



En effet, malgré la rapidité avec laquelle l'homme en est venu à compter sur la puissance de l'IA, une question hante le domaine depuis presque aussi longtemps que ses débuts : ces systèmes intelligents pourraient-ils un jour acquérir une sensibilité suffisante pour égaler, voire dépasser, l'humanité ? Dans ce débat, un ex-ingénieur de Google a prétendu récemment qu'un chatbot avait acquis la sensibilité, mais l'on est assez loin de cette réalité. Ce dernier a été congédié par la suite pour plusieurs raisons. Les systèmes actuels d'IA et d'apprentissage automatique manquent de raison, un concept essentiel au développement de systèmes d'IA "autonomes".

C'est-à-dire des systèmes d'IA capables d'apprendre à la volée, directement à partir d'observations du monde réel, plutôt que de longues séances d'entraînement pour effectuer une tâche spécifique. Lors d'une interview en septembre, LeCun a clairement noté qu'il considère avec beaucoup de scepticisme les recherches actuelles en matière d'apprentissage profond. « Je pense qu'elles sont nécessaires, mais pas suffisantes. Nous symbolisons tout et formons des modèles gigantesques pour faire des prédictions discrètes, et d'une manière ou d'une autre, l'intelligence artificielle émergera de tout cela », a déclaré le lauréat du prix Turing.

Les recherches en matière d'IA les plus fructueuses à l'heure actuelle comprennent de grands modèles de traitement du langage naturel (NPL) tels que GPT-3, basé sur Transformer et ses semblables. Comme le dit LeCun, les adeptes du modèle Transformer croient que "nous tokenisons tout et formons des modèles gigantesques pour faire des prédictions discrètes, et que d'une manière ou d'une autre, l'IA émergera de tout cela". « Ils n'ont pas tort, dans le sens où cela peut être un composant d'un futur système intelligent, mais je pense qu'il manque des pièces essentielles », a-t-il souligné. Il propose de commencer au bas de l'échelle.

« Nous voyons beaucoup de revendications quant à ce que nous devrions faire pour avancer vers une IA de niveau humain. Et certaines idées sont, à mon avis, mal orientées. Nous n'en sommes même pas encore au point où nos machines intelligentes ont autant de bon sens qu'un chat. Alors, pourquoi ne pas commencer par là ? », a déclaré LeCun. Afin de faire progresser la recherche sur l'IA au cours de la prochaine décennie, son article de recherche propose une architecture qui réduirait au minimum le nombre d'actions qu'un système doit entreprendre pour apprendre et mener à bien une tâche donnée.

Tout comme les différentes sections du cerveau humain sont responsables des différentes fonctions du corps, il propose un modèle pour la création d'une intelligence autonome qui serait composée de cinq modules distincts, mais configurables. L'une des parties les plus complexes de l'architecture proposée par LeCun, le "module de modèle du monde" (world model module), aurait pour fonction d'estimer l'état du monde, mais aussi de prédire les actions imaginées et d'autres séquences du monde. Cela s'apparenterait à un simulateur, un appareil qui permet de représenter artificiellement un fonctionnement réel.

Selon lui, les connaissances sur le fonctionnement du monde peuvent ainsi être facilement partagées entre différentes tâches. À certains égards, cela pourrait ressembler à la mémoire. Cela dit, il reste encore beaucoup de travail à faire avant que les systèmes autonomes puissent apprendre à gérer des situations incertaines. Selon LeCun, dans un monde aussi chaotique et imprévisible que le nôtre, c'est une question que nous devrons sans doute aborder tôt ou tard. Mais pour l'instant, la gestion de ce chaos fait partie de ce qui nous rend humains. En plus de diriger la recherche sur l'IA chez Meta, LeCun est également professeur à l'université de New York.

Il a passé sa carrière à développer des systèmes d'apprentissage sur lesquels reposent aujourd'hui de nombreuses applications modernes d'IA. En 2013, il a fondé le groupe Facebook AI Research (FAIR), la première incursion de Meta dans la recherche sur l'IA, avant de de devenir, quelques années plus tard, le responsable scientifique de l'IA de l'entreprise. Depuis lors, Meta a connu plusieurs succès en essayant de dominer ce domaine en constante évolution. En 2018, leurs chercheurs ont entraîné une IA à reproduire des globes oculaires dans l'espoir de faciliter l'édition de leurs photos numériques par les utilisateurs.

Plus tôt cette année, BlenderBot 3, le nouveau chatbot d'IA de Meta, s'est révélé étonnamment malveillant envers Mark Zuckerberg et a suscité un débat sur l'éthique de l'IA et les données biaisées. Les premiers tests de BlenderBot 3 ont révélé qu'il est loin d'être l'agent conversationnel hautement performant que Meta a prétendu. Il a dit de PDG Mark Zuckerberg qu'il est "effrayant et manipulateur". Il affirme aussi que "Zuckerberg est un bon homme d'affaires, mais ses pratiques commerciales ne sont pas toujours éthiques". Il a également décrit Facebook comme ayant des problèmes de confidentialité et répandant de fausses nouvelles.

Plus récemment, l'outil Make-a-Video de Meta est capable d'animer à la fois du texte et des images simples ou appariées dans des vidéos, ce qui annonce encore plus de mauvaises nouvelles pour l'essor autrefois prometteur de l'art généré par l'IA. Par ailleurs, les adolescents peuvent apprendre à conduire avec seulement quelques dizaines d'heures de répétition. Les systèmes d'IA, notamment ceux des voitures "autonomes", en revanche, doivent être entraînés à l'aide d'une quantité insensée de données avant de pouvoir accomplir la même tâche, et sont susceptibles de commettre des erreurs que les humains ne commettraient pas.

Lors de la présentation de ses travaux à l'UC Berkeley, LeCun a déclaré : « il faudrait qu'une voiture tombe de la falaise plusieurs fois avant qu'elle ne se rende compte que c'est une mauvaise idée. Et encore quelques milliers de fois avant qu'elle réalise comment ne pas tomber de la falaise. Cette distinction réside dans le fait que les humains et les animaux sont capables de bon sens ». Si le concept de bon sens peut se résumer à un jugement pratique, LeCun le décrit dans son article comme un ensemble de modèles permettant à un être vivant de faire la différence entre ce qui est probable, ce qui est possible et ce qui est impossible.

Selon lui, une telle compétence permet à une personne d'explorer son environnement, de compléter les informations manquantes et d'imaginer de nouvelles solutions à des problèmes inconnus. LeCun suggère que les chercheurs en IA tiennent le bon sens pour acquis, ce qui fait que l'industrie n'a pas réussi jusque-là à doter l'IA et les algorithmes d'apprentissage automatique de l'une de ces capacités. Au cours de l'exposé, LeCun a également souligné que de nombreux processus de formation modernes, comme les techniques d'apprentissage par renforcement, ne sont pas à la hauteur de la fiabilité humaine dans les tâches du monde réel.

L'apprentissage par renforcement est une technique de formation de l'IA basée sur la récompense des comportements favorables et la punition des comportements indésirables. « C'est un problème pratique, car nous voulons vraiment des machines dotées de bon sens. Nous voulons des voitures à conduite autonome, des robots domestiques, des assistants virtuels intelligents », a-t-il déclaré. L'exposé de LeCun, 62 ans, représente une critique surprenante de ce qui semble fonctionner venant de l'universitaire qui a perfectionné l'utilisation des réseaux neuronaux convolutifs.

Source : Article de recherche de Yann LeCun (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la proposition de LeCun pour parvenir à une IA autonome ?
Selon vous, l'intelligence artificielle peut-elle un jour être dotée du bon sens comme le souhaite LeCun ?
Le modèle de création de l'IA proposé par LeCun permettra-t-il d'atteindre cet objectif dans les années à venir ?
Pensez-vous également que la plupart des approches actuelles de l'IA ne mèneront jamais à une véritable intelligence ?

Voir aussi

Les « parrains de l'intelligence artificielle » récompensés du prix Turing 2018, le prix Nobel de l'informatique

Le nouveau chatbot d'IA de Meta affirme que le PDG Mark Zuckerberg est "effrayant et manipulateur", l'agent conversationnel tient également des propos racistes et répand des théories du complot

Un ingénieur licencié par Google aurait affirmé que le chatbot d'IA est « plutôt raciste », et que l'éthique de l'IA chez Google est une « feuille de vigne »

GPT-3 peut exécuter du code, rechercher une valeur dans une table de recherche, le modèle de langage autorégressif semble avoir des problèmes avec les grands nombres