« La conscience artificielle reste impossible », les programmes informatiques seraient des manipulateurs de symboles, qui n’ont pas d’associations conscientes,
d'après David Hsing
David Hsing, ingénieur concepteur, qui travaille dans l'industrie de la fabrication de semi-conducteurs, défends l’idée que l’esprit humain possède deux caractéristiques essentielles qui le distinguent des machines : l’intentionnalité et les qualia. L’intentionnalité est la capacité de se référer à des objets, des propriétés et des états de choses qui existent dans le monde ou dans l’imagination. Les qualia sont les aspects subjectifs de l’expérience, comme les couleurs, les sons et les émotions.
L’ingénieur, concepteur de masques d'implantation de circuits de microprocesseurs, montre dans un billet de blog que sans intentionnalité, le langage n’aurait pas de sens, car les mots ne renverraient à rien. Sans qualia, il n’y aurait pas de sensation, car rien ne serait ressenti. Il définit le sens comme une connexion mentale avec une expérience consciente, et soutient que les machines ne peuvent pas avoir de sens, parce qu'elles ne font que manipuler des symboles sans les comprendre.
La conscience de l'IA est un concept complexe et fascinant qui a suscité l'intérêt des chercheurs, des scientifiques, des philosophes et du public. Alors que l'IA continue d'évoluer, la question se pose inévitablement : Les machines peuvent-elles atteindre un niveau de conscience comparable à celui des êtres humains ? De l’avis de certains observateurs, avec l'émergence des grands modèles de langage (LLM) et de l'IA générative, la voie vers la reproduction de la conscience humaine devient également possible.
La conscience de l’IA, une question fascinante et complexe
Un ancien ingénieur en IA de Google, Blake Lemoine, a récemment propagé la théorie selon laquelle le modèle de langage LaMDA de Google est sensible, c'est-à-dire qu'il fait preuve d'une conscience semblable à celle de l'homme pendant les conversations. Depuis, il a été licencié et Google a qualifié ses affirmations de « totalement infondées ».
Compte tenu de la rapidité avec laquelle la technologie évolue, il se peut que nous ne soyons qu'à quelques décennies de parvenir à la conscience de l'IA. Des cadres théoriques tels que la théorie de l'information intégrée (IIT), la théorie de l'espace de travail global (GWT) et l'intelligence générale artificielle (AGI) fournissent un cadre de référence sur la manière dont la conscience de l'IA peut être atteinte.
Pour Hsing, si les programmes informatiques fonctionnent réellement, il n’en reste pas moins vrai que ce sont des manipulateurs de symboles qui n’ont pas d’associations conscientes avec ce qu’ils manipulent. Ils ne font que suivre des règles formelles sans les comprendre. Par conséquent, ils ne peuvent pas avoir de sens, car le sens implique une connexion mentale avec une expérience consciente.
Si nous pouvons être d’accord sur le fait que, les programmes informatiques ne peuvent pas opérer au-delà de la syntaxe, qui est la structure formelle du langage, l’analyse de Hsing soulève tout de même plusieurs critiques possibles.
La première est que, Hsing ne fait-il pas un plaidoyer spécial en attribuant à l’esprit humain quelque chose que les machines ne peuvent pas faire ? David Hsing réfute cette critique en disant qu’il ne confond pas l’intelligence avec la conscience. Pour lui, l’intelligence est la capacité de résoudre des problèmes, et les machines peuvent être intelligentes. La conscience est la capacité d’avoir une expérience subjective, et les machines ne peuvent pas être conscientes.
La seconde critique serait que son argument est circulaire, car il suppose ce qu’il veut prouver. Dans son billet de blog, David Hsing réfute également cet autre critique en affirmant que sa définition du sens n’est pas dérivée de sa conclusion, mais d’une observation indépendante de la réalité de l’esprit.
Les chercheurs de plusieurs universités, donc l’Université de Toulouse, l’Université d'Oxford, l’Université de Montréal, l’Université du Sussex, examinent plusieurs théories scientifiques importantes de la conscience, notamment la théorie du traitement récurrent, la théorie de l'espace de travail global, les théories d'ordre supérieur, le traitement prédictif et la théorie des schémas d'attention.
De ces théories, les chercheurs tirent des « propriétés indicatrices » de la conscience, élucidées en termes informatiques qui permettent d'évaluer les systèmes d'intelligence artificielle en fonction de ces propriétés. Nous utilisons ces propriétés indicatives pour évaluer plusieurs systèmes d'IA récents, et nous discutons de la manière dont les systèmes futurs pourraient les mettre en œuvre. L’analyse suggère qu'aucun système d'IA actuel n'est conscient, mais aussi qu'il n'y a pas d'obstacles techniques évidents à la construction de systèmes d'IA qui satisfont à ces indicateurs.
La conscience innée des êtres vivants, un prérequis pour donner du sens au langage
David Hsing défend l’idée que les machines ne peuvent pas comprendre le langage, car elles ne possèdent pas la conscience innée des êtres vivants. Selon lui, la conscience est la capacité d’avoir une expérience subjective, qui est nécessaire pour donner du sens au langage. Il affirme que les ordinateurs ne peuvent pas avoir cette expérience, puisqu'elles sont basées sur le code de programmation, qui est un système syntaxique qui ne fait que manipuler des symboles sans se référer à rien. Hsing répond à trois types d’objections qui sont souvent formulées contre sa thèse :
La première objection est que la cybernétique et le clonage pourraient créer des machines conscientes, en utilisant des entités vivantes comme substrat. Pour Hsing, ces techniques ne relèvent pas de la conscience artificielle, mais de la manipulation de la conscience naturelle. Il s’agirait de modifier ou de reproduire des entités vivantes qui ont déjà une conscience innée, et non de créer une conscience à partir de rien. Il soutient que le sujet n’est plus celui de la conscience artificielle, mais celui de l’éthique et de la biologie.
La deuxième objection est que le futur ou le substrat utilisé pour construire les ordinateurs n’affecte pas la possibilité qu’elles soient conscientes. Pour Hsing, le substrat est sans importance, car ce qui compte, c’est le code de programmation qui anime les ordinateurs. Toutes les machines intelligentes nécessitent des algorithmes et des codes qui sont basés sur la syntaxe, c’est-à-dire sur la structure formelle du langage.
Hsing défie quiconque de citer un projet d’intelligence artificielle qui n’implique aucun code, ou un moyen par lequel un ordinateur pourrait violer le principe de non-contradiction et avoir une programmation sans programmation. Le code machine est fondamentalement différent du langage naturel, car il n’a pas de signification intrinsèque, mais seulement une signification dérivée des intentions des programmeurs.
Les réseaux de neurones artificiels sont des systèmes dont la conception est à l’origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite se sont rapprochés des méthodes statistiques. Ils sont généralement optimisés par des méthodes d’apprentissage de type probabiliste, en particulier bayésien.
Les réseaux de neurones artificiels sont placés d’une part dans la famille des applications statistiques, qu’ils enrichissent avec un ensemble de paradigmes permettant de créer des classifications rapides, et d’autre part dans la famille des méthodes de l’intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres de l’implémenteur, et des informations d’entrée au raisonnement logique formel.
La conscience artificielle, la prochaine frontière de la robotique ?
Des scientifiques de l'université de Columbia travailleraient à la création de robots dotés de conscience, capables d'apprendre et de s'adapter aux situations en temps réel. Cela signifie également qu'ils seraient en mesure de diagnostiquer eux-mêmes les problèmes et corriger leurs erreurs. Les chercheurs pensent en outre que les robots dotés d'une conscience pourraient à l'avenir aider l'humanité à guérir le cancer et d'autres maladies difficiles à traiter. Ainsi, la conscience artificielle pourrait être la prochaine frontière de la robotique, mais elle s'accompagne d'une foule de questions difficiles et de nombreux défis.
Dans une interview accordée au New York Times (NYT), Hod Lipson, ingénieur en mécanique qui dirige le Creative Machines Lab de l'université de Columbia, a déclaré qu'il s'y consacre depuis une vingtaine d'années. Il a fait remarquer que le sujet était auparavant tabou, mais que de plus en plus de personnes acceptent aujourd'hui d'en discuter publiquement. « Ce sujet était tabou. On nous interdisait presque d'en parler - "ne parlez pas du mot C, vous ne serez pas titularisé" - alors au début, je devais le déguiser, comme si c'était autre chose », dit-il. En employant le mot "C", le professeur Lipson fait sans doute référence au mot « conscience ».
La question de la conscience se pose dans de nombreux cercles au-delà de la robotique, notamment en psychologie, en neurosciences et en philosophie, de sorte que la construction de robots conscients ne sera pas une tâche simple. Si, pour certains, la perspective d'avoir des machines dotées d'une conscience artificielle est digne d'une science-fiction - et c'est d'ailleurs la trame d'innombrables livres, bandes dessinées et films de science-fiction - pour d'autres, comme Lipson, c'est un objectif, qui changerait sans doute définitivement la vie humaine telle que nous la connaissons. Il donne l'exemple le niveau d'intégration des robots dans nos vies.
Selon Lipson, un robot consciencieux deviendrait de plus en plus important à mesure que nous deviendrions plus dépendants des machines. Aujourd'hui, les robots sont utilisés pour les interventions chirurgicales (comme les robots chirurgiens Da Vinci), la fabrication de produits alimentaires, les transports et toute sorte d'usines. Les applications des machines semblent pratiquement illimitées, et toute erreur dans leur fonctionnement, à mesure qu'elles s'intègrent à nos vies, pourrait être catastrophique. « Nous allons littéralement abandonner notre vie à un robot. Ne voudriez-vous pas que ces machines soient résilientes ? », a déclaré Lipson.
Il est intéressant de noter que certains chercheurs ont développé un système nerveux artificiel capable de simuler une réponse consciente à des stimuli externes. Cependant, il est difficile de répondre à la question de savoir si les réseaux neuronaux artificiels peuvent être conscients et avoir des expériences réelles.
Source : Blog post by David Hsing, design engineer
Et vous ?
L'analyse de David Hsing est-elle pertinente ? Partagez-vous son avis ?
L'IA peut-elle vraiment être consciente, ou est-ce simplement une illusion ?
Selon vous, la conscience artificielle soulève-t-elle des questions éthiques et morales ?
Voir aussi :
Dans une expérience, l'IA réussit à se faire passer pour un célèbre philosophe, l'IA peut être consciente ou mériter un jour un statut moral ?
La conscience dans l'intelligence artificielle : aperçu de la science de la conscience, une étude interdisciplinaire menée par des universitaires de Toulouse et d'ailleurs
Des scientifiques affirment qu'ils essaient maintenant activement de construire des robots dotés d'une conscience, mais cela introduit de nouveaux défis et soulève de nombreux problèmes éthiques
Le plus grand risque de l'IA n'est pas la « conscience », mais les entreprises qui la contrôlent, selon la chercheuse Meredith Whittaker
Partager