IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Eric Schmidt pense que l'IA est aussi puissante que les bombes nucléaires


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueuse Actualités

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    mars 2020
    Messages
    477
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : mars 2020
    Messages : 477
    Points : 8 501
    Points
    8 501
    Par défaut Eric Schmidt pense que l'IA est aussi puissante que les bombes nucléaires
    Eric Schmidt pense que l'IA est aussi puissante que les bombes nucléaires
    et suggère une sorte de traité de dissuasion similaire à celui appliqué pour l’utilisation des armes nucléaires

    L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a demandé la mise en place d'une administration d'alerte semblable à l'abolition mutuellement garantie qui empêche les pays les plus puissants du monde de s’entre-tuer. Eric Schmidt a évoqué les dangers de l'IA lors d’un forum sur la sécurité, alors qu'il répondait à une question sur le degré de neutralité dans le domaine de la technologie. Schmidt a expliqué qu'il avait lui-même été préoccupé par la capacité de l'intelligence artificielle dans les premières années de Google. Il a encore demandé que la technologie soit davantage en phase avec les croyances et le comportement des personnes qu'elle sert et a fait une allégorie de l'IA et des armes nucléaires.

    Nom : Screenshot_2022-07-26 Eric Schmidt Thinks AI Is as Powerful as Nukes.png
Affichages : 856
Taille : 382,4 Ko

    L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a appelé à un régime de dissuasion similaire à la destruction mutuellement assurée qui empêche les pays les plus puissants du monde de se détruire mutuellement. Schmidt a évoqué les dangers de l'IA lors du Forum sur la sécurité d'Aspen, lors d'une table ronde sur la sécurité nationale et l'intelligence artificielle, le 22 juillet. En répondant à une question sur la valeur de la moralité dans la technologie, Schmidt a expliqué qu'il avait lui-même été naïf quant au pouvoir de l'information dans les premiers jours de Google. Il a ensuite demandé que la technologie soit plus conforme à l'éthique et à la morale des personnes qu'elle sert et a fait une comparaison curieuse entre l'IA et les armes nucléaires.

    Eric Schmidt a imaginé un avenir proche où la Chine et les États-Unis doivent cimenter un traité sur l'IA. « Dans les années 50 et 60, nous avons fini par élaborer un monde où il y avait une règle 'sans surprise' sur les essais nucléaires et finalement ils ont été interdits. C'est un exemple d'équilibre de confiance, ou de manque de confiance, c'est une règle 'sans surprise'. Je suis très préoccupé par le fait que la vision américaine de la Chine comme étant corrompue ou communiste ou quoi que ce soit d'autre, et la vision chinoise de l'Amérique comme étant défaillante... permettront aux gens de dire 'Oh mon dieu, ils préparent quelque chose', et de commencer alors une sorte d'énigme. Commencer une sorte de chose où, parce que vous vous armez ou vous vous préparez, vous déclenchez alors l'autre côté. Nous n'avons personne qui travaille sur ce sujet et pourtant l'IA est si puissante », a déclaré Schmidt.

    L'IA et l'apprentissage automatique sont des technologies impressionnantes et souvent mal comprises. Elle n'est, en grande partie, pas aussi intelligente que les gens le pensent. Elle peut produire des chefs-d'œuvre, battre des humains à Starcraft II et passer des appels téléphoniques rudimentaires pour les utilisateurs. En revanche, les tentatives visant à lui faire accomplir des tâches plus compliquées, comme conduire une voiture dans une grande ville, ne se sont pas déroulées aussi bien.

    Schmidt a imaginé un avenir proche où la Chine et les États-Unis auraient des préoccupations en matière de sécurité qui les obligeraient à conclure entre eux une sorte de traité de dissuasion autour de l'IA. Il évoque les années 1950 et 1960, lorsque la diplomatie a mis en place une série de contrôles autour des armes les plus meurtrières de la planète. Mais pour que le monde en arrive à instituer le traité d'interdiction des essais nucléaires, SALT II et d'autres textes législatifs historiques, il a fallu des décennies d'explosions nucléaires et, surtout, la destruction d'Hiroshima et de Nagasaki. Le 18 juin 1979 à Vienne, Jimmy Carter pour les Américains et Léonid Brejnev pour les Soviétiques signent le traité Salt II. Celui-ci apporte des limitations supplémentaires par rapport à Salt I et définit un plafond précis de bombardiers et de lance-missiles tolérés, ce qui implique la destruction du surnombre.

    Hiroshima et de Nagasaki, les deux villes japonaises détruites par les Américains à la fin de la Seconde Guerre mondiale ont tué des dizaines de milliers de personnes et ont prouvé au monde entier l'horreur éternelle des armes nucléaires. Les gouvernements de Russie et de Chine se sont alors précipités pour acquérir ces armes. La façon dont nous vivons avec la possibilité que ces armes soient utilisées est ce que l'on appelle la destruction mutuelle assurée, une théorie de la dissuasion qui garantit que si un pays lance une arme nucléaire, il est possible que tous les autres pays fassent de même. Nous n'utilisons pas l'arme la plus destructrice de la planète parce qu'il est possible que cela détruise, à tout le moins, la civilisation du monde entier.

    Malgré les commentaires de Schmidt, nous ne voulons pas ou n'avons pas besoin de la destruction mutuelle assurée pour l'IA. D'abord, l'IA n'a pas prouvé qu'elle était aussi destructrice que les armes nucléaires. Mais les personnes en position de pouvoir craignent cette nouvelle technologie et, généralement, pour toutes les mauvaises raisons. Certains ont même suggéré de confier le contrôle des armes nucléaires à l'IA, estimant qu'elle serait un meilleur arbitre de leur utilisation que les humains.

    Le problème de l'IA n'est pas qu'elle ait la force potentiellement destructrice d'une arme nucléaire. C'est que l'IA est aussi bonne que les personnes qui l'ont conçue et qu'elle reflète les valeurs de ses créateurs. L'IA souffre du problème classique du "garbage in, garbage out" (GIGO). En informatique, GIGO est le concept selon lequel des données d'entrée défectueuses ou absurdes produisent des sorties absurdes ou "déchets". Les algorithmes racistes font des robots racistes, toute IA porte les préjugés de ses créateurs.

    Demis Hassabis (le PDG de DeepMind, qui a formé l'IA qui bat les joueurs de Starcraft II) semble comprendre ce problème mieux que Schmidt. Dans un entretien accordé en juillet au podcast de Lex Fridman, ce dernier a demandé à Hassabis comment une technologie aussi puissante que l'IA pouvait être contrôlée et comment Hassabis lui-même pouvait éviter d'être corrompu par ce pouvoir. La réponse d'Hassabis porte sur lui-même. « L'IA est une idée trop grande. Ce qui compte, c'est de savoir qui construit l'IA, de quelles cultures ils sont issus et quelles valeurs ils ont, les constructeurs de systèmes d'IA. Les systèmes d'IA apprendront d'eux-mêmes ... mais il restera dans le système un résidu de la culture et des valeurs des créateurs de ce système », a-t-il déclaré. L'IA est le reflet de son créateur. Elle ne peut pas raser une ville avec une explosion de 1,2 mégatonne. A moins qu'un humain ne lui apprenne à le faire.

    Source : Twitter

    Et vous ?

    Que pensez-vous des points de vue exprimés dans cet article ? La comparaison de l'IA avec l'arme atomique vous parait-elle judicieuse ? Pourquoi ?
    Diriez-vous que le point de vue de Eric Schimdt est plutôt alarmiste ou réaliste ?
    « Certains suggèrent de confier le contrôle des armes nucléaires à l'IA, estimant qu'elle serait un meilleur arbitre de leur utilisation que les humains », que pensez-vous de cette assertion ?

    Voir aussi :

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

    L'intelligence artificielle, la nouvelle arme de la gendarmerie contre les Gilets jaunes

    Un véhicule Tesla dont la fonctionnalité « Smart Summon » était activé, s'écrase contre un jet privé, de 3,5 millions de dollars
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre expert Avatar de AoCannaille
    Inscrit en
    juin 2009
    Messages
    1 230
    Détails du profil
    Informations forums :
    Inscription : juin 2009
    Messages : 1 230
    Points : 3 991
    Points
    3 991
    Par défaut
    Yes, faisons comme le nucléaire, autorisons quelques copains à l'avoir, pendant ce temps quelques méchants l'ont, puis on crée artificiellement des tensions diplomatiques en interdisant à tous les autres d'essayer de l'avoir. On voit que ça a très bien marché jusqu'ici et que le monde est beaucoup plus sûr avec cette stratégie.

  3. #3
    Membre actif
    Profil pro
    Inscrit en
    février 2010
    Messages
    168
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : février 2010
    Messages : 168
    Points : 218
    Points
    218
    Par défaut Les méchants l'ont déjà
    Bonjour,
    L'IRAN fabrique déjà des drones et l'ont déjà en reprogrammant les dj et les particuliers aussi l'ont déjà pour 1000 euros avec IPHONE ou un samsung pour 1000 euros plus un dj de 1000 euros au lieu d'un missile à 60000 euros etc

  4. #4
    Membre extrêmement actif
    Femme Profil pro
    Webmarketer
    Inscrit en
    janvier 2021
    Messages
    331
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Webmarketer

    Informations forums :
    Inscription : janvier 2021
    Messages : 331
    Points : 647
    Points
    647
    Par défaut
    L'IA a besoin de garde-fous.
    Nous sommes sur le point de construire une pseudo sentience...... Non, nous ne le somme pas

Discussions similaires

  1. Réponses: 10
    Dernier message: 10/06/2021, 13h24
  2. Réponses: 2
    Dernier message: 01/11/2020, 15h24
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 12
    Dernier message: 16/02/2018, 20h37
  5. Réponses: 16
    Dernier message: 02/08/2017, 19h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo