« L’IA pourrait bientôt avoir des sentiments et des émotions semblables à ceux des humains », selon le CEO de Deepmind
Car « tout ce que le cerveau fait est reproductible par un calculateur »

Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne surpasse les humains et donc ne devienne une menace pour la race humaine. Ce débat prend un coup de neuf avec une sortie du CEO de Deepmind selon laquelle « il est possible que l’intelligence artificielle devienne consciente d’elle-même à l’avenir. » En d’autres termes, l’IA pourrait bientôt avoir des sentiments et des émotions semblables à ceux des humains. C’est la raison pour laquelle des sociétés comme Neuralink travaillent sur des interfaces cerveau-machine à insérer dans le crâne. Objectif : augmenter les capacités des humains pour qu’ils soient capables de faire face aux machines.

« Tout ce que le cerveau fait est en théorie reproductible par une machine de Turing ou un ordinateur classique », souligne-t-il pour arriver à la conclusion « qu’il ne voit pas pour quelles raisons on n’atteindrait pas le stade où l’intelligence artificielle affiche des émotions et des sentiments semblables à ceux des humains. »

Les développements en cours sont d’autant plus intéressants qu’ils surviennent au moment où des experts investiguent quant à savoir si l’univers est une simulation. En d’autres termes, si nous vivons tous dans un programme informatique et donc que tous les humains seraient des êtres animés par de l’intelligence artificielle.


Elon Musk pour sa part tient à prévenir que l’intelligence artificielle finira par surpasser les capacités cognitives de l’Homme : « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent. »

De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

Ray Kurzweil est même d’avis que l’IA a déjà commencé à surpasser l’intelligence humaine dans des tâches spécifiques. Il précise qu’il s’agit là d’une caractéristique commune de cette technique lorsqu’on s’attarde sur son évolution au cours des deux dernières décennies. Dans le cas de AphaGo, par exemple, l’objectif était de parvenir à vaincre les meilleurs joueurs humains de Go au monde et de montrer la supériorité de l’IA dans ce cadre restreint. Et ce n’est qu’un exemple parmi tant d’autres (AlphaZero avec divers jeux, Watson dans la santé et la cybersécurité…).

Kurzweil est persuadé que l’IA surpassera tôt ou tard l’intelligence humaine dans son ensemble et qu’à l’avenir, nos craintes d’un avenir dystopique où l’IA se pervertit s’estomperont. Il fait valoir cet argument en s’appuyant sur ceci qu’il n’y a pas d’IA singulière qui soit contrôlée par des entreprises ou des personnes puissantes et singulières. D’après lui, des millions d’IA différentes sont, à l’heure actuelle, contrôlées par quiconque possède un smartphone.




Le point de vue optimiste de Kurzweil ne cadre, cependant, pas avec ce qui est observé aujourd’hui : un profond déséquilibre entre, d’un côté, des entreprises centralisées qui tentent de tout contrôler et de l’autre une population décentralisée en manque de solutions de protection et de transparence. Les scandales à répétition notés du côté des leadeurs de l’industrie technologique tels que Facebook, Amazon ou Google illustrent une négligence flagrante qui justifie probablement le scepticisme d’une grande partie du public.

Source : Video entretien CBS

Et vous ?

Quelle pertinence trouvez-vous aux différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il ces prédictions ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine et sa colonisation de Mars comme un plan de secours
PDG de Softbank : les robots auront un QI de 10 000 dans 30 ans, l'intelligence artificielle va-t-elle vraiment surpasser les humains ?
Le champion aux échecs, Garry Kasparov, pense que l'avenir de l'humanité se trouve aux côtés de l'IA, même après sa défaite contre un superordinateur