Les IA inamicales constituent-elles le plus grand risque pour l’humanité ? Oui, d’après le créateur d’Ethereum qui s’attend à une future catastrophe
causée par l’intelligence artificielle générale

On a récemment vu un véhicule autonome feindre une tentative de fuite après une interpellation par la police sur une route de San Francisco aux USA. Après analyse, il s’agissait d’une manœuvre effectuée dans le but de respecter le code de la route. C’est dire les progrès actuels en matière de robotique et d’intelligence artificielle. Vitalik Buterin – créateur d’Ethereum – vient raviver sur le débat sur la question de savoir si les robots finiront par surpasser les humains en intelligence. Sans détour, il exprime son inquiétude de voir l’intelligence artificielle dite générale se montrer inamicale envers l’humanité au point de l’éradiquer.

Nom : 1.png
Affichages : 1140
Taille : 28,7 Ko

La sortie du créateur d’Ethereum s’appuie sur un article du théoricien de l'IA et écrivain Eliezer Yudkowsky. Ce dernier explique pourquoi la communauté des chercheurs ne fait pas assez pour prévenir une éventuelle catastrophe future causée par une intelligence artificielle. « La troisième guerre mondiale peut tuer 1 à 2 milliards de personnes (principalement en raison de la perturbation de la chaîne d'approvisionnement alimentaire) si elle est vraiment grave, mais elle ne tuera pas l'humanité. Une mauvaise IA pourrait vraiment tuer l'humanité pour de bon », a-t-il déclaré à ce propos.

Ces propos sont une espèce de redite de ceux d’Elon Musk. De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

Les machines seraient alors dotées de « bon sens ». Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Celles-ci sont en principe prêtes depuis la mi-parcours de l’année 2019 pour des tests sur les humains. L’entreprise continue de jouer la carte de la sûreté en menant des tests sur des animaux. Le dernier portait sur un singe qui a reçu un implant cérébral. Grâce à ce dernier, il peut jouer aux jeux vidéo en faisant usage de son esprit. La société californienne Synchron a déjà effectué des essais d’implants cérébraux de la taille de trombones sur des patients humains. Ces derniers ont ainsi pu effectuer des clics et des saisies sur ordinateur sans lever le doigt.

En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.

La question de savoir si les dérives ne pourraient pas être pires avec une intelligence artificielle générale fait alors surface. La pire d’entre toutes serait que la machine finisse par se retourner contre son créateur. Chaque année, le Saint-Père demande aux catholiques du monde entier de dédier une intention de prière spécifique pour chaque mois. Pour le mois de novembre 2020, le Pape François a demandé de prier pour que les progrès de la robotique et de l’intelligence artificielle soient toujours au service de l’humanité. Son appel redonne un coup de neuf aux questionnements sur la possibilité que la situation inverse se produise : une humanité dominée par la machine comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.

Et vous ?

Les craintes de voir les robots surpasser les humains en intelligence sont-elles plus sensationnalistes qu’autre chose ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il ces prédictions ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu