2 pièce(s) jointe(s)
« Le développement de l’IA sans réglementation induit une menace existentielle pour l’humanité », d’après Musk
« Le développement de l’IA sans réglementation induit une menace existentielle pour l’humanité », d’après Elon Musk
Dont une société développe des puces à insérer dans le cerveau pour contrer l’IA
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Elon Musk fait partie de la seconde faction. Le milliardaire de la Tech. déclare : « le développement de l’IA sans régulation constitue une menace existentielle pour l’humanité. »
« Je pense que nous devons réglementer la sécurité de l'intelligence artificielle. Pensez à toute technologie qui est potentiellement un risque pour les gens, comme Si c'est des avions ou des voitures ou la médecine, nous avons des organismes de réglementation qui supervisent la sécurité publique des voitures et des avions et de la médecine. Je pense que nous devrions avoir un ensemble similaire de surveillance réglementaire pour l'intelligence artificielle, parce que je pense que c'est en fait un plus grand risque pour la société », déclare-t-il los d’une récente sortie.
Celle-ci fait suite à une précédente dans laquelle il déclare que l’intelligence artificielle va surpasser les humains dans 5ans, soit à partir de l’année 2026. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.
Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.
En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes
Microsoft a annoncé la disponibilité de nouvelles moutures de Bing et Microsoft Edge animées par une mise à jour de ChatGPT – le chatbot annoncé comme remplaçant de Google – il y a peu. Les premiers retours d’expérience sont disponibles : Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population sur la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.
Le tableau fait suite à une récente mise en garde de Steve Wozniak – cofondateur d’Apple : « Le problème est qu'il fait de bonnes choses pour nous, mais il peut faire d'horribles erreurs en ne sachant pas ce qu'est l'humanité. »
En effet, c’est une redite de l’avis de certains enseignants. Ethan Mollick en fait partie et a décidé d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT. La raison : l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Arvind Narayanan de l’université de Princeton est pour sa part d’avis que ChatGPT n’a rien de révolutionnaire :
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non. »
En début de semaine dernière, Google a annoncé son chatbot AI Bard. Mais le bot n'a pas pris un bon départ, les experts notant que Bard a fait une erreur factuelle dans sa toute première démo.
Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »
Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.
L’intelligence artificielle : de la poudre de perlimpinpin ?
Les développements en cours soulèvent des questions que l’on décide de faire de faire usage du moteur de recherche qu’il soit de Google ou de Microsoft : faut-il vraiment s’appuyer sur un chatbot pour rechercher des informations sur Internet ? L’approche est-elle meilleure que l’ancienne qui consiste à laisser l’humain aller lui-même à la recherche des informations pour en faire la synthèse ?
En effet, des chatbots comme ChatGPT ont une tendance bien documentée à présenter de fausses informations comme des faits. Les chercheurs mettent en garde contre ce problème depuis des années. C’est d’ailleurs la raison pour laquelle certains enseignants ont adopté des politiques ouvertes d’utilisation de ChatGPT en précisant à leurs étudiants que « l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. »
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA
:fleche: Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine
:fleche: Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %
:fleche: Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
Elon Musk se dit un fervent défenseur de la réglementation de l'IA, mais ses solutions n'impressionnent pas
Elon Musk se dit un fervent défenseur de la réglementation de l'IA, mais ses solutions vagues n'impressionnent pas
Elon Musk est un partisan de longue date de la réglementation de l'IA depuis le jour où nous avons vu le ChatGPT d'OpenAI faire son chemin vers les masses. Aujourd'hui, nous entendons dire que le milliardaire de la technologie stresse indéfiniment sur les risques importants que comporte l'IA générative et que c'est la raison pour laquelle une plus grande modération est nécessaire avant qu'il ne soit trop tard.
Une catastrophe majeure s'en est suivie, mais le propriétaire de Tesla et de SpaceX n'a pas réussi à impressionner avec ses mots. Non seulement il était vague en termes de descriptions, mais il était également difficile de comprendre ce qu'il essayait de dire exactement et pourquoi. A-t-il déjà été mentionné à quel point il était léger en termes de détails ?
Tout cela s'est passé lors de son projet Twitter Spaces, récemment mis en ligne et intitulé Viva Technology. C'est là que la deuxième personne la plus riche du monde a fait de son mieux pour éviter les questions concernant les réglementations particulières pour la technologie de l'IA.
Au lieu de cela, le chef de Twitter a semblé donner la priorité à l'importance de l'IA dans le monde de l'entreprise ainsi qu'à la célèbre technologie Tesla qui permet de conduire soi-même son véhicule.
Un tel système de pilotage automatique dépend entièrement du monde de l'IA et Elon Musk affirme que son évaluation d'un tel engouement est littéralement nulle et que, par conséquent, lorsque de tels plans ne finissent pas par aboutir, cela pourrait entraîner les résultats les plus désastreux qui soient.
Pour l'instant, il considère que l'IA est une solution extrêmement positive, mais il doit y avoir un minimum de risques que les choses tournent mal grâce à l'aide de l'intelligence du monde numérique.
Musk estime qu'il est dans l'intérêt du public de modérer davantage l'IA, car ce type de technologie représente une menace pour tous.
Mais en ce qui concerne ses propres idées sur la solution possible pour une telle entreprise, il n'a parlé que d'une plus grande réglementation pour les grands modèles de langage, y compris le ChatGPT.
Nous avons vu comment l'Union européenne est devenue le premier organisme gouvernemental à aller de l'avant avec des réglementations complexes pour l'IA après avoir approuvé la loi sur l'IA. Ce dernier est le nom d'un processus de réglementation qui permet d'examiner ces systèmes et d'écarter ceux qui mettent le public en danger.
Mais cela ne semble être que la première étape d'un long processus et, le Congrès étant actuellement divisé, nous ne sommes pas près d'assister à une action significative.
Musk parle de l'IA sous un angle négatif et explique qu'elle est, à son avis, extrêmement perturbatrice. Il dit qu'il aimerait être en vie pour voir l'apocalypse de l'IA se produire, mais qu'il ne serait certainement pas celui qui en serait à l'origine.
Au début de l'année, Elon Musk a mis un terme aux avancées dans le domaine de l'IA. Certains grands noms de la technologie ont signé une lettre appelant à une pause temporaire dans les développements de l'IA tels que ChatGPT.
Ils souhaitaient prendre plus de temps pour se familiariser avec la technologie et évaluer les risques. Mais à peine 30 jours plus tard, il a annoncé publiquement la création d'un nouveau chatbot d'IA qui concurrencerait fortement ChatGPT. Il a même dévoilé le nom de TruthGPT.
Musk ajoute qu'il n'était pas certain que quelqu'un d'autre que lui, bien sûr, accepterait les pauses. Mais pour le bien des archives, il estime qu'une pause est nécessaire. Entre-temps, en mai 2023, nous avons même vu le PDG d'OpenAI se retrouver devant le Congrès pour demander plus de régulation de l'IA avant qu'il ne soit trop tard.
Source : Intervention d'Elon Musk lors de l'évènement Viva Technology (https://twitter.com/VivaTech/status/1669721739993948162)
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de l'intervention de M. Musk lors de l'évènement Viva Technology ?
:fleche: Trouvez-vous ces informations utiles et pertinentes ?
:fleche: Êtes-vous d'accord avec Elon Musk pour dire que l'IA présente des risques importants et pourrait avoir des conséquences désastreuses en l'absence d'une réglementation appropriée ?
Voir aussi
:fleche: « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
:fleche: Elon Musk annonce qu'il travaille sur un concurrent à ChatGPT appelé TruthGPT et ajoute que son "IA recherche la vérité au maximum" et essaie de comprendre la nature de l'univers
:fleche: Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
:fleche: « L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver
:fleche: Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse