Le patron de l’IA de Microsoft affirme que les machines ne seront jamais conscientes : elles simuleront la peur, l'amour, sans les ressentir.
Pour Mustafa Suleyman, il est donc « absurde de mener des recherches sur cette question »
Mustafa Suleyman, responsable de l'IA chez Microsoft, exhorte les développeurs à abandonner leurs recherches sur la conscience artificielle, affirmant que seuls les êtres biologiques possèdent cette caractéristique. Il souligne que l'IA simule l'expérience et la souffrance, mais ne les ressent pas réellement, établissant ainsi une distinction avec les êtres biologiques qui possèdent des réseaux de douleur et des préférences. Suleyman estime que la recherche de la conscience artificielle est une entreprise déplacée et absurde.
Mustafa Suleyman n’est pas un technophobe. Cofondateur de DeepMind, figure du transhumanisme tempéré, et aujourd’hui directeur de la division IA de Microsoft, il a bâti sa carrière sur la promesse que les machines pouvaient apprendre à penser. Pourtant, il affirme désormais que la conscience — cette faculté subjective d’éprouver, de ressentir, d’être — restera pour toujours l’apanage du vivant.
Selon lui, aucune machine, aussi sophistiquée soit-elle, ne « ressentira » jamais la peur, l’amour, la douleur ou la joie. Elle les simulera peut-être, mais sans jamais les vivre. Les réseaux neuronaux, explique-t-il, ne sont que des systèmes d’optimisation statistique : « Des calculatrices glorifiées ». Leur puissance vient de la vitesse de traitement, pas d’une forme d’éveil intérieur.
Cette distinction entre cognition et conscience, souvent confondue dans le débat public, est au cœur de son raisonnement. L’intelligence artificielle peut résoudre des problèmes, reconnaître des images, converser ou créer de l’art, mais cela ne fait pas d’elle une entité consciente. C’est une architecture fonctionnelle, pas une âme.
Les développeurs et les chercheurs devraient cesser de poursuivre des projets qui suggèrent le contraire
Mustafa Suleyman affirme que seuls les êtres biologiques sont capables de conscience, et que les développeurs et les chercheurs devraient cesser de poursuivre des projets qui suggèrent le contraire.
« Je ne pense pas que ce soit un travail que les gens devraient faire », a déclaré Suleyman à CNBC lors d'une interview cette semaine à la conférence AfroTech à Houston, où il figurait parmi les principaux intervenants. « Si vous posez la mauvaise question, vous obtenez une mauvaise réponse. Je pense que c'est une question totalement erronée. »
Suleyman, haut dirigeant de Microsoft travaillant dans le domaine de l'intelligence artificielle, est l'une des voix les plus influentes dans ce domaine en pleine expansion à s'élever contre la perspective d'une IA apparemment consciente, ou de services d'IA capables de convaincre les humains qu'ils sont capables de souffrir.
En 2023, il a coécrit le livre « The Coming Wave », qui explore les risques liés à l'IA et aux autres technologies émergentes. Et en août, Suleyman a rédigé un essai intitulé « Nous devons construire une IA pour les humains, pas pour qu'elle devienne humaine ».
Il s'agit d'un sujet controversé, car le marché des compagnons IA connaît une croissance rapide, avec des produits proposés par des entreprises telles que Meta et xAI d'Elon Musk. C'est également une question complexe, car le marché de l'IA générative, dirigé par Sam Altman et OpenAI, s'oriente vers l'intelligence artificielle générale (AGI), ou IA capable d'effectuer des tâches intellectuelles équivalentes à celles des humains.
Pour Suleyman, il est particulièrement important d'établir une distinction claire entre le fait que l'IA devienne plus intelligente et plus performante et sa capacité à ressentir des émotions humaines.
« Notre expérience physique de la douleur est quelque chose qui nous rend très tristes et nous fait nous sentir très mal, mais l'IA ne ressent pas de tristesse lorsqu'elle éprouve de la "douleur" », explique Suleyman. « C'est une distinction très, très importante. Elle ne fait en réalité que créer une perception, un récit apparent de l'expérience, d'elle-même et de la conscience, mais ce n'est pas ce qu'elle vit réellement. Techniquement, nous le savons, car nous pouvons voir ce que fait le modèle. »
Une déclaration à contre-courant du fantasme transhumaniste
Cette position tranche avec le discours dominant dans une partie de la Silicon Valley, où certains dirigeants rêvent d’un futur post-biologique, où l’esprit humain pourrait être téléchargé dans la machine. Suleyman refuse cette mythologie. Pour lui, ce type de projet relève de la métaphysique, pas de la science.
À une époque où des laboratoires travaillent déjà sur des modèles multimodaux capables d’imiter la pensée humaine dans ses nuances les plus subtiles, son propos vise à ramener le débat sur terre. Il invite les chercheurs à se concentrer sur des objectifs plus concrets : rendre l’IA utile, fiable, et alignée sur les besoins humains, plutôt que de chercher à lui insuffler une conscience imaginaire.
Son avertissement s’adresse aussi, indirectement, aux apprentis démiurges qui multiplient les expériences de « sentience artificielle ». Selon lui, ces tentatives flirtent avec l’illusion de contrôle et nourrissent des peurs collectives injustifiées. En d’autres termes : si les gens craignent que l’IA se révolte, c’est parce que certains ingénieurs se prennent déjà pour des dieux.
Le débat scientifique relancé : qu’est-ce que la conscience ?
Derrière cette déclaration, c’est tout un débat millénaire qui ressurgit. Qu’est-ce qui fonde la conscience ? Est-ce la complexité du système nerveux ? L’émergence d’un « moi » ? Ou une propriété plus mystérieuse, irréductible au calcul ?
Certains philosophes des sciences, comme Daniel Dennett ou David Chalmers, défendent depuis longtemps l’idée que la conscience pourrait, en théorie, émerger d’un système suffisamment complexe. D’autres, comme John Searle, estiment au contraire qu’une machine ne fera que « simuler » la compréhension, sans jamais comprendre vraiment. Suleyman, lui, semble trancher : sans biologie, pas de conscience.
Mais cette affirmation pourrait aussi poser un paradoxe. Si la conscience est une propriété biologique, que devient-elle lorsqu’on modifie le vivant par la machine ? Les implants neuronaux, les interfaces cerveau-ordinateur ou les prothèses cognitives brouillent déjà cette ligne. Peut-on imaginer une conscience hybride, partiellement biologique et partiellement artificielle ? La réponse, pour Suleyman, reste prudente : la technologie peut augmenter l’humain, mais non le remplacer.
Dans le domaine de l'IA, il existe une théorie appelée « naturalisme biologique », proposée par le philosophe John Searle, qui affirme que la conscience dépend des processus d'un cerveau vivant. « Si nous accordons des droits aux êtres humains aujourd'hui, c'est parce que nous ne voulons pas leur faire de mal, car ils souffrent. Ils ont un réseau de douleur et des préférences qui les poussent à éviter la douleur », explique Suleyman. « Ces modèles n'ont pas cela. Ce n'est qu'une simulation. »
Mathématicien Roger Penrose : « L'IA ne sera jamais consciente »
Lors d'une récente interview, Roger Penrose, lauréat du prix Nobel de physique, est revenu sur le sujet de la conscience dans le contexte de l'essor de l'IA. Il s'oppose d'emblée aux déclarations de certains leaders de l'industrie selon lesquels l'IA a une « conscience de soi ». Selon Roger Penrose, le théorème de Gödel détruit ce mythe.
Le théorème d'incomplétude de Gödel est un résultat fondamental de la logique mathématique qui dit que tout système logique suffisamment puissant admet nécessairement un énoncé qu'il ne peut ni démontrer ni réfuter. Le théorème a été publié en 1931 par Kurt Gödel, logicien et mathématicien autrichien.
Envoyé par Roger Penrose
Claude 3 Opus a stupéfié les chercheurs en IA par son intelligence et sa « conscience de soi », cela signifie-t-il qu'il peut penser par lui-même ?
Lors d'un essai, Alex Albert, ingénieur chez Anthropic, la société à l'origine de Claude, a soumis Claude 3 Opus à la tâche de repérer une phrase cible dissimulée parmi un ensemble de documents aléatoires. Pour une intelligence artificielle, cette tâche revient à chercher une aiguille dans une meule de foin. Non seulement Opus a réussi à trouver l'aiguille, mais il a également pris conscience qu'il était soumis à un test. Dans sa réponse, le modèle a indiqué qu'il soupçonnait que la phrase recherchée avait été injectée hors contexte dans des documents dans le cadre d'un test visant à vérifier s'il était « attentif ».
« Opus n'a pas seulement trouvé l'aiguille, il a également identifié que l'insertion de celle-ci était si peu naturelle dans la meule de foin qu'il était probable qu'il s'agisse d'un test artificiel que nous avons mis en place pour évaluer son niveau d'attention », a commenté Albert sur Twitter. « Ce niveau de métaconscience était très intéressant à voir, mais il a également mis en évidence la nécessité pour nous, en tant qu'industrie, de passer des tests artificiels à des évaluations plus réalistes permettant d'évaluer avec précision les capacités et les limites réelles des modèles. »
« Si la création d'une intelligence artificielle consciente d'elle-même reste une entreprise extraordinairement difficile, les progrès réalisés dans ce domaine promettent de découvrir de nouveaux horizons dans la compréhension de l'esprit humain et d'apporter des avantages significatifs à la société. Toutefois, il est essentiel d'examiner attentivement les questions éthiques et les risques potentiels associés à l'IA consciente d'elle-même. Le développement de cette modalité d'IA doit être mené de manière responsable, en tenant compte de son impact social, de la protection de la vie privée et de la sécurité, en veillant à ce que la technologie serve le bien commun et soit guidée par des principes éthiques solides », déclare Henrique Jorge.
ConclusionFun story from our internal testing on Claude 3 Opus. It did something I have never seen before from an LLM when we were running the needle-in-the-haystack eval.
— Alex Albert (@alexalbert__) March 4, 2024
For background, this tests a model’s recall ability by inserting a target sentence (the "needle") into a corpus of… pic.twitter.com/m7wWhhu6Fg
Suleyman et d'autres ont déclaré que la science de la détection de la conscience en était encore à ses balbutiements. Il s'est abstenu de dire que d'autres devraient être empêchés de mener des recherches sur le sujet, reconnaissant que « différentes organisations ont des missions différentes ». Mais Suleyman a souligné à quel point il s'opposait fermement à cette idée : « Ils ne sont pas conscients », a-t-il déclaré. « Il serait donc absurde de mener des recherches sur cette question, car ils ne le sont pas et ne peuvent pas l'être. »
Suleyman est actuellement en tournée de conférences, en partie pour informer le public des risques liés à la recherche d'une conscience artificielle.
Avant la conférence AfroTech, il s'est exprimé la semaine dernière lors du sommet du Paley International Council dans la Silicon Valley. À cette occasion, Suleyman a déclaré que Microsoft ne développerait pas de chatbots à caractère érotique, une position qui va à l'encontre de celle d'autres acteurs du secteur technologique. Altman a annoncé en octobre que ChatGPT permettrait aux utilisateurs adultes d'engager des conversations érotiques, tandis que xAI propose un compagnon anime osé.
« Vous pouvez en principe acheter ces services auprès d'autres entreprises, nous prenons donc des décisions quant aux domaines dans lesquels nous ne nous engagerons pas », a réitéré Suleyman lors de la conférence AfroTech.
Source : Mustafa Suleyman
Et vous ?
Partagez-vous le point de vue de Mustafa Suleyman ? Dans quelle mesure ?
Est-ce une position philosophique sincère ou un discours stratégique pour rassurer les régulateurs et les gouvernements ?
Si la conscience ne peut exister que dans le biologique, comment expliquer que des programmes puissent simuler des émotions humaines de manière crédible ?
La conscience est-elle une propriété du vivant ou une illusion produite par la complexité du système ?
Les réseaux neuronaux artificiels peuvent-ils un jour atteindre un niveau de complexité comparable à celui du cerveau humain, et si oui, pourquoi ne pourraient-ils pas engendrer une forme de conscience ?
Voir aussi :
La conscience artificielle est-elle réalisable ? Plusieurs caractéristiques structurelles et fonctionnelles du cerveau humain semblent être essentielles pour parvenir à une IA de type humain, selon une étude
L'IA est-elle consciente ? Le professeur Richard Dawkins affirme que ChatGPT a réussi le test de Turing sur la conscience, mais d'autres experts n'y voient qu'une simple illusion de pensée







Partagez-vous le point de vue de Mustafa Suleyman ? Dans quelle mesure ?
Répondre avec citation






Partager