1 pièce(s) jointe(s)
Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d’Elon Musk sur l’IA
Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d’Elon Musk sur l’IA
Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025
Les paris se multiplient contre les prédictions d’Elon Musk sur l’intelligence artificielle. Gary Marcus, PDG de Geometric Intelligence, et Damion Hankejh, PDG d'ingk.com, parient jusqu’à 10 millions de dollars que sa récente prédiction sur l’intelligence artificielle ne se réalisera pas. Elon Musk prédit que l'IA dépassera l'intelligence humaine d'ici la fin de l'année 2025. Le milliardaire de la Tech. prendra-t-il le pari dans un contexte où des experts de renommée mondiale sont d’avis que l’intelligence artificielle bénéficie plus de battage médiatique qu’elle n’a de réelle substance ?
De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), sa position sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Et à ce sujet, il se veut précis dans une récente entrevue en indiquant que « l’intelligence artificielle va surpasser l’humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l’intelligence artificielle vont dépasser celles de l’ensemble des humains dans les 5 prochaines années. »
Gary Marcus, fondateur et PDG de Geometric Intelligence, une startup d'apprentissage automatique rachetée par Uber en 2016, n'est pas d'accord avec les prédictions de Musk en matière d'IA. Il parie jusqu’à 10 millions de dollars contre sa récente prédication. Damion Hankejh, investisseur et PDG d'ingk.com, se tient en sus prêt à miser la somme de 10 millions de dollars
Un pari qui intervient dans un contexte où certains chercheurs de renom en intelligence artificielle sont d’avis que l’IA est à peine plus intelligente qu’un chien
Yann LeCun, responsable de l'IA chez Meta, a déclaré dans une récente interview que les systèmes d'IA actuels tels que ChatGPT et Bard n'ont pas une intelligence de niveau humain et sont à peine plus intelligents qu'un chien. Le chercheur français en IA affirme que les systèmes d'IA actuels sont très limités, mais n'ont également aucune compréhension de la réalité sous-jacente du monde réel.
« Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.
La perspective de l’atteinte d’une IA plus intelligente qu’un humain divise néanmoins dans le milieu académique
La perspective de l’atteinte d’une IA plus intelligente qu’un humain trouve divise néanmoins dans les cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.
Il ne s'agit pas seulement de gagner un pari pour le CEO de Geometric Intelligence. Il est en sus question d'avoir une discussion publique avec Musk sur le statut réel de l'intelligence artificielle.
« Depuis des années, de nombreux acteurs de l'industrie technologique font des déclarations qui me semblent invraisemblables d'un point de vue scientifique. Et il y a eu beaucoup de promesses non tenues, mais pratiquement aucune responsabilité. », déclare-t-il.
À titre d'exemple, il cite des technologies telles que les voitures sans conducteur, affirmant qu'il était facile d'élaborer des démonstrations, mais qu'il était beaucoup plus difficile de créer un dispositif fiable. Le CEO de Geometric Intelligence est d’avis que les gens doivent comprendre ce qui est réaliste et que les grands modèles de langage ne seront pas plus intelligents que les humains dans les cinq prochaines années. Il faudra encore des décennies avant que les machines soient aussi dignes de confiance et fiables dans leur raisonnement que les humains.
Le CEO de Geometric Intelligence affirme que si les grands modèles de langage constituent la meilleure technologie d'IA à l'heure actuelle, ils ne sont pas vraiment bons. Il pointe notamment du doigt les hallucinations, les fuites de données et les problèmes de fiabilité. Il déclare en sus que la technologie est utilisée pour la désinformation et qu'elle utilise des données protégées par des droits d'auteur. « Nous devrions souhaiter que le monde trouve de meilleurs moyens, plus fiables, de construire l'IA », lance-t-il.
Source : Billet CEO de Geometric Intelligence
Et vous ?
:fleche: Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
:fleche: ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
:fleche: Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
Voir aussi :
:fleche: Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain
:fleche: Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas
:fleche: Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA
J'affirme que ChatGPT ne montre pas de prémisses d'intelligence
ChatGPT-4 sur Copilot,
Le terme Intelligence même affublé de l'adjectif artificielle est trompeur.
Il y a des aficionados qui y croient, mais ont-ils fait des tests pour s'en persuader ou ont-ils simplement écouté des journalistes ?
Quand on a bien compris qu'il s'agit d'autocomplétion statistique, on comprend aussi qu'il tiendrait du miracle que de l'intelligence en émerge.
Depuis mi décembre 2022, j'effectue des tests, des centaines. Les refaisant à chaque sortie d'une nouvelle version.
Je pose à ChatGPT des énigmes classiques, qu'il résout, victoire !
Mais non et cela pour 3 raisons :
1/ Si je change quelques mots et données de l'énigme, ce qui ne change pas la nature de l'énigme pour un humain, alors il donne le résultat de l'énigme classique qu'il a appris. Un peu comme un mauvais élève qui a appris une leçon par cœur sans en comprendre le sens. Et pour cause ChatGPT ne connait pas la sémantique des mots qu'il assemble.
2/ Il développe un "raisonnement" très souvent stupide, ce qui me fait douter sur sa capacité à coder de manière pertinente des problèmes nouveaux non appris.
3/ Il n'a jamais découvert d'astuces me faisant dire : Waouh !
Oui ChatGPT résume et liste bien, mais quel degré de confiance peut-on lui accorder ?
J'affirme que ChatGPT ne montre pas de prémisses d'intelligence, en fait pas plus qu'une calculatrice scientifique.
Pour les curieux je peux fournir les prompts et réponses qui attestent mon propos.