Eric Schmidt pense que l'IA est aussi puissante que les bombes nucléaires
et suggère une sorte de traité de dissuasion similaire à celui appliqué pour l’utilisation des armes nucléaires
L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a demandé la mise en place d'une administration d'alerte semblable à l'abolition mutuellement garantie qui empêche les pays les plus puissants du monde de s’entre-tuer. Eric Schmidt a évoqué les dangers de l'IA lors d’un forum sur la sécurité, alors qu'il répondait à une question sur le degré de neutralité dans le domaine de la technologie. Schmidt a expliqué qu'il avait lui-même été préoccupé par la capacité de l'intelligence artificielle dans les premières années de Google. Il a encore demandé que la technologie soit davantage en phase avec les croyances et le comportement des personnes qu'elle sert et a fait une allégorie de l'IA et des armes nucléaires.
L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a appelé à un régime de dissuasion similaire à la destruction mutuellement assurée qui empêche les pays les plus puissants du monde de se détruire mutuellement. Schmidt a évoqué les dangers de l'IA lors du Forum sur la sécurité d'Aspen, lors d'une table ronde sur la sécurité nationale et l'intelligence artificielle, le 22 juillet. En répondant à une question sur la valeur de la moralité dans la technologie, Schmidt a expliqué qu'il avait lui-même été naïf quant au pouvoir de l'information dans les premiers jours de Google. Il a ensuite demandé que la technologie soit plus conforme à l'éthique et à la morale des personnes qu'elle sert et a fait une comparaison curieuse entre l'IA et les armes nucléaires.
Eric Schmidt a imaginé un avenir proche où la Chine et les États-Unis doivent cimenter un traité sur l'IA. « Dans les années 50 et 60, nous avons fini par élaborer un monde où il y avait une règle 'sans surprise' sur les essais nucléaires et finalement ils ont été interdits. C'est un exemple d'équilibre de confiance, ou de manque de confiance, c'est une règle 'sans surprise'. Je suis très préoccupé par le fait que la vision américaine de la Chine comme étant corrompue ou communiste ou quoi que ce soit d'autre, et la vision chinoise de l'Amérique comme étant défaillante... permettront aux gens de dire 'Oh mon dieu, ils préparent quelque chose', et de commencer alors une sorte d'énigme. Commencer une sorte de chose où, parce que vous vous armez ou vous vous préparez, vous déclenchez alors l'autre côté. Nous n'avons personne qui travaille sur ce sujet et pourtant l'IA est si puissante », a déclaré Schmidt.
L'IA et l'apprentissage automatique sont des technologies impressionnantes et souvent mal comprises. Elle n'est, en grande partie, pas aussi intelligente que les gens le pensent. Elle peut produire des chefs-d'œuvre, battre des humains à Starcraft II et passer des appels téléphoniques rudimentaires pour les utilisateurs. En revanche, les tentatives visant à lui faire accomplir des tâches plus compliquées, comme conduire une voiture dans une grande ville, ne se sont pas déroulées aussi bien.
Schmidt a imaginé un avenir proche où la Chine et les États-Unis auraient des préoccupations en matière de sécurité qui les obligeraient à conclure entre eux une sorte de traité de dissuasion autour de l'IA. Il évoque les années 1950 et 1960, lorsque la diplomatie a mis en place une série de contrôles autour des armes les plus meurtrières de la planète. Mais pour que le monde en arrive à instituer le traité d'interdiction des essais nucléaires, SALT II et d'autres textes législatifs historiques, il a fallu des décennies d'explosions nucléaires et, surtout, la destruction d'Hiroshima et de Nagasaki. Le 18 juin 1979 à Vienne, Jimmy Carter pour les Américains et Léonid Brejnev pour les Soviétiques signent le traité Salt II. Celui-ci apporte des limitations supplémentaires par rapport à Salt I et définit un plafond précis de bombardiers et de lance-missiles tolérés, ce qui implique la destruction du surnombre.
Hiroshima et de Nagasaki, les deux villes japonaises détruites par les Américains à la fin de la Seconde Guerre mondiale ont tué des dizaines de milliers de personnes et ont prouvé au monde entier l'horreur éternelle des armes nucléaires. Les gouvernements de Russie et de Chine se sont alors précipités pour acquérir ces armes. La façon dont nous vivons avec la possibilité que ces armes soient utilisées est ce que l'on appelle la destruction mutuelle assurée, une théorie de la dissuasion qui garantit que si un pays lance une arme nucléaire, il est possible que tous les autres pays fassent de même. Nous n'utilisons pas l'arme la plus destructrice de la planète parce qu'il est possible que cela détruise, à tout le moins, la civilisation du monde entier.
Malgré les commentaires de Schmidt, nous ne voulons pas ou n'avons pas besoin de la destruction mutuelle assurée pour l'IA. D'abord, l'IA n'a pas prouvé qu'elle était aussi destructrice que les armes nucléaires. Mais les personnes en position de pouvoir craignent cette nouvelle technologie et, généralement, pour toutes les mauvaises raisons. Certains ont même suggéré de confier le contrôle des armes nucléaires à l'IA, estimant qu'elle serait un meilleur arbitre de leur utilisation que les humains.
Le problème de l'IA n'est pas qu'elle ait la force potentiellement destructrice d'une arme nucléaire. C'est que l'IA est aussi bonne que les personnes qui l'ont conçue et qu'elle reflète les valeurs de ses créateurs. L'IA souffre du problème classique du "garbage in, garbage out" (GIGO). En informatique, GIGO est le concept selon lequel des données d'entrée défectueuses ou absurdes produisent des sorties absurdes ou "déchets". Les algorithmes racistes font des robots racistes, toute IA porte les préjugés de ses créateurs.
Demis Hassabis (le PDG de DeepMind, qui a formé l'IA qui bat les joueurs de Starcraft II) semble comprendre ce problème mieux que Schmidt. Dans un entretien accordé en juillet au podcast de Lex Fridman, ce dernier a demandé à Hassabis comment une technologie aussi puissante que l'IA pouvait être contrôlée et comment Hassabis lui-même pouvait éviter d'être corrompu par ce pouvoir. La réponse d'Hassabis porte sur lui-même. « L'IA est une idée trop grande. Ce qui compte, c'est de savoir qui construit l'IA, de quelles cultures ils sont issus et quelles valeurs ils ont, les constructeurs de systèmes d'IA. Les systèmes d'IA apprendront d'eux-mêmes ... mais il restera dans le système un résidu de la culture et des valeurs des créateurs de ce système », a-t-il déclaré. L'IA est le reflet de son créateur. Elle ne peut pas raser une ville avec une explosion de 1,2 mégatonne. A moins qu'un humain ne lui apprenne à le faire.
Source : Twitter
Et vous ?
Que pensez-vous des points de vue exprimés dans cet article ? La comparaison de l'IA avec l'arme atomique vous parait-elle judicieuse ? Pourquoi ?
Diriez-vous que le point de vue de Eric Schimdt est plutôt alarmiste ou réaliste ?
« Certains suggèrent de confier le contrôle des armes nucléaires à l'IA, estimant qu'elle serait un meilleur arbitre de leur utilisation que les humains », que pensez-vous de cette assertion ?
Voir aussi :
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
L'intelligence artificielle, la nouvelle arme de la gendarmerie contre les Gilets jaunes
Un véhicule Tesla dont la fonctionnalité « Smart Summon » était activé, s'écrase contre un jet privé, de 3,5 millions de dollars
Partager