Discussion :
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Les vibrations sont toujours mais nettement moins fortes.
--------------------------------------------------------------------
Bah, on aura vite fait de se pendre soi même sans leurs interventions quand ça arrivera à ce niveau ==> http://laboulette.fr/11002/un-jour-u...aint-a-son-ami , ils (les machines) ne feront que nous apprendre froidement de saintes horreurs.
Mais que dis je ? C'est déjà presque possible.
______________________________________________________________
anonyme Il (NVCfrm) a un sacré coin à champignons![]()
J'ai juste lu le titre. Pas l'article ni les commentaires. Au commencement étaient les sophistes. Puis sont arrivés les philosophes (Thalès, Pythagore...)
Bref. Les philosophes d'aujourd'hui, c'est les scientifiques. La singularité technologique, comme toute singularité, signifie "On ne peut pas savoir". Comme dirait Socrate "Je sais que je ne sais pas". End of line.![]()
En voilà un autre :
http://www.lemonde.fr/pixels/article...#xtor=RSS-3208
Maintenant j'aimerai qu'on me dise : a-t-on seulement des intellectuels (humains) qui sont connus pour avoir lancer des guerres ? Ou plus généralement des dominations massives ? Si non, alors je vois pas pourquoi un intellectuel artificiel devrait le faire. Ou considérerions-nous que les barbares qui se lancent ce genre d'objectifs sont particulièrement intelligents ?
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
A mon humble avis, Non! l'IA ne sera jamais égale ou supérieure à celle de l'homme n'en déplaise aux utopistes avant-gardistes . Notre intelligence est la quintessence d'un ensemble génial de toutes nos cellules intrinsèquement liées, dotées d'intelligences spécifiques et qui évoluent harmonieusement dans une symbiose chimique équilibrée. Toutes les machines crées par notre volonté ne resteront que des automates plus ou moins élaborés.
L’illusion du risque existentiel de l’IA : pourquoi faut-il arrêter de craindre une IA surpuissante et malveillante,
selon Google Research et des experts en IA
Le texte analyse le risque que l’humanité soit anéantie par une IA superintelligente. Il montre que ce risque est très faible et qu’il se base sur des suppositions incertaines. Il critique le fait de se focaliser sur ce risque, qui peut occulter les problèmes plus réels et immédiats que crée l’IA, comme la surveillance, la désinformation, la manipulation, l’utilisation militaire et l’inadaptation économique. Il recommande de s’occuper de ces problèmes actuels, qui peuvent aussi aider à prévenir les risques existentiels à long terme. Il cite des exemples d’études et de solutions possibles pour réduire les dommages causés par l’IA.
Le 30 mai, le Center for AI Safety, un groupe de recherche de San Francisco, a diffusé un bref communiqué signé par quelques-uns des meilleurs spécialistes du domaine, déclarant que « réduire le risque d’extinction par l’IA devrait être une priorité mondiale au même niveau que d’autres risques pour la société, comme les pandémies et les guerres nucléaires ».
L'intelligence artificielle pourrait conduire à l'extinction de l'humanité
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire. L'intelligence artificielle pourrait conduire à l'extinction de l'humanité, ont averti des experts, dont les dirigeants d'OpenAI et de Google Deepmind. Des dizaines de personnes ont soutenu une déclaration publiée sur la page web du Centre for AI Safety. « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires », peut-on y lire.
Sam Altman, directeur général d'OpenAI, fabricant de ChatGPT, Demis Hassabis, directeur général de Google DeepMind, et Dario Amodei, d'Anthropic, ont tous apporté leur soutien à cette idée. Mais d'autres estiment que les craintes sont exagérées. Le site web du Centre for AI Safety (Centre pour la sécurité de l'IA) propose un certain nombre de scénarios catastrophes possibles :
- les IA pourraient être militarisées - par exemple, les outils de découverte de médicaments pourraient être utilisés pour fabriquer des armes chimiques ;
- La désinformation générée par l'IA pourrait déstabiliser la société et « saper la prise de décision collective » ;
- Le pouvoir de l'IA pourrait être de plus en plus concentré dans un nombre de plus en plus restreint de mains, ce qui permettrait aux « régimes d'imposer des valeurs étroites par une surveillance omniprésente et une censure oppressive » ;
- L'enchevêtrement, où les humains deviennent dépendants de l'IA, « semblable au scénario dépeint dans le film Wall-E ».
Le Dr Geoffrey Hinton, qui avait déjà mis en garde contre les risques liés à l'IA superintelligente, a également soutenu l'appel du Centre pour la sécurité de l'IA. Yoshua Bengio, professeur d'informatique à l'Université de Montréal, l'a également signé. Hinton, Bengio et Yann LeCun, professeur à l'université de New York, sont souvent décrits comme les « parrains de l'IA » pour leurs travaux novateurs dans ce domaine, qui leur ont valu de remporter conjointement le prix Turing 2018, qui récompense les contributions exceptionnelles dans le domaine de l'informatique.
Mais le professeur LeCun, qui travaille également chez Meta, a déclaré que ces avertissements apocalyptiques étaient exagérés, tweetant que « la réaction la plus courante des chercheurs en IA à ces prophéties de malheur est de faire la grimace ».This is absolutely correct.
— Yann LeCun (@ylecun) May 4, 2023
The most common reaction by AI researchers to these prophecies of doom is face palming. https://t.co/2561GwUvmh
Pourquoi faut-il se préoccuper davantage de l’IA imparfaite que de l’IA surpuissante
Se concentrer sur la possibilité qu’une superintelligence malintentionnée extermine l’humanité peut être nuisible. Elle pourrait distraire les régulateurs, le public et les autres chercheurs en IA des travaux visant à diminuer des risques plus urgents, comme la surveillance massive, la désinformation et la manipulation, l’utilisation militaire abusive de l’IA et l’incompatibilité de notre paradigme économique actuel avec un monde où l’IA a de plus en plus d’importance.
En se focalisant sur ces problèmes actuels, il est possible de concilier les objectifs de multiples parties prenantes et de contrer les risques existentiels à long terme. Il y a toutes sortes de manières dont les systèmes d’IA pourraient accidentellement provoquer ou être impliqués dans la mort de nombreuses personnes, voire de millions. Par exemple, si l’IA était intégrée dans une technologie de frappe nucléaire autonome, un comportement imprévu de la part de l’IA pourrait avoir des conséquences dramatiques.
Cependant, ces scénarios ne doivent pas forcément impliquer une IA superintelligente ; en fait, ils sont plus probables avec des systèmes d’IA défectueux et pas si intelligents que cela. (Par exemple, la machine du Jugement dernier dans Dr. Strangelove était aussi simple que possible : un ensemble de circonstances clairement définies, dans lesquelles les bombes doivent exploser, est programmé dans une banque de mémoire à bande). Réduire les problèmes causés par une IA défectueuse fait déjà l’objet d’un grand nombre de recherches sur l’IA.
Se concentrer sur les risques réels et actuels de l’IA plutôt que sur l’IA superintelligente malveillante est nécessaire
Cependant, une discussion sur l’IA superintelligente malintentionnée pourrait avoir au moins un avantage : elle sensibilise les décideurs politiques et le grand public à la sécurité de l’IA - même si l’on peut redouter que l’utilisation d’une question aussi émotionnelle de cette manière leur soit préjudiciable. En effet, l’extinction causée par une IA malveillante est un scénario très peu probable qui se base sur des hypothèses douteuses concernant l’évolution à long terme de la vie, de l’intelligence, de la technologie et de la société.
C’est aussi un scénario peu probable en raison des nombreuses limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi. Il y a de nombreux points de contrôle naturels où les chercheurs peuvent aider à réduire le risque existentiel de l’IA en s’occupant de défis concrets et urgents sans faire du risque existentiel une priorité mondiale explicite.
Notre première préoccupation devrait être d’éviter les souffrances massives et inutiles que nous savons possibles avec les technologies actuelles et celles qui arriveront bientôt. Des études rigoureuses sur les dommages réels et actuels causés par l’IA ont été publiées et des solutions potentielles ont été suggérées. Par exemple, la technologie de reconnaissance faciale peut être utilisée pour pister les individus et restreindre les libertés fondamentales, et la technologie de génération d’images peut être utilisée pour créer de fausses images ou vidéos d’événements qui n’ont jamais eu lieu.
Pour résoudre ces problèmes, des appels à l’action ont été lancés, comme la déclaration de Montréal sur l’IA responsable et les recommandations des Sentinelles du Forum économique mondial sur l’IA générative responsable. Nous pouvons et devons anticiper les développements de l’IA à court terme et penser à leurs effets nuisibles potentiels. Mais plus nous nous projetons dans le futur de ce domaine qui avance rapidement, plus les inconnues se multiplient de manière exponentielle, ce qui rend la planification autour de ces prévisions impraticables.
Il est plus constructif de mettre en avant les défis réels et de discuter des solutions proposées plutôt que d’orienter le discours public vers des risques existentiels hypothétiques.
Quelles seraient les conditions pour que la perspective d’une extinction par une IA malveillante passe de la menace purement hypothétique à la menace réaliste qui mérite d’être une priorité mondiale ? Les dommages et même les morts massives dus à un mauvais usage de l’IA (non superintelligente) sont une possibilité réelle et l’extinction par une IA superintelligente rebelle n’est pas une impossibilité. Nous pensons cependant que cette dernière éventualité est peu probable, pour des raisons qui deviendront évidentes lors de l’examen des voies potentielles d’extinction par une IA superintelligente malveillante.
Pour cela, nous devons d’abord admettre que la superintelligence est possible, même si ce point de vue est loin de faire consensus au sein de la communauté de l’IA. La définition même de la “superintelligence” est un exercice difficile, car l’idée que l’intelligence humaine puisse être entièrement mesurée en termes de performances sur une série de tâches semble trop simpliste ; après tout, il existe de nombreuses formes différentes d’intelligence.
On peut dire sans se tromper que l’IA actuelle n’est pas superintelligente, bien qu’elle ait déjà surpassé les performances humaines dans de nombreuses tâches et qu’elle soit susceptible de le faire dans de nombreuses autres dans un avenir proche. Les modèles d’IA actuels sont très impressionnants et on peut dire qu’ils possèdent une forme d’intelligence et de compréhension du monde. Ils sont aussi facilement dupés, “hallucinent” des faussetés et ne réussissent pas toujours à faire des déductions logiques essentielles, comme les déductions causales.
Néanmoins, pour les besoins de l’argumentation, supposons que la vitesse impressionnante à laquelle l’IA progresse permette de combler ces lacunes et conduise, à un moment donné dans le futur, à l’apparition d’une superintelligence générale, c’est-à-dire d’une IA généralement meilleure que les humains dans presque toutes les tâches cognitives. Même dans ce cas, nous soulignons un certain nombre de points de contrôle qui existent le long de tout chemin potentiel vers l’extinction par une IA malveillante. Ces points de contrôle sont des signaux d’alerte qui permettraient d’identifier le moment où le risque hypothétique devient plus urgent et où il peut être nécessaire d’en faire une priorité.
Comment l’intelligence supérieure n’entraîne-t-elle pas l’extinction des espèces moins intelligentes
Les discussions sur le risque existentiel de l’IA laissent souvent penser qu’une IA superintelligente provoquerait notre extinction, car les espèces plus intelligentes provoquent « naturellement » l’extinction des espèces moins intelligentes. Il est vrai que dans l’histoire de la Terre, il existe des exemples où une espèce a provoqué l’extinction d’une autre espèce moins intelligente ; les extinctions causées par l’homme sont le plus souvent mentionnées. (Nous ne connaissons d’ailleurs aucun exemple non humain).
Cependant, l’intelligence supérieure n’est pas le facteur déterminant dans de tels événements ; il y a eu de nombreux cas où des espèces moins intelligentes ont provoqué l’extinction d’espèces plus intelligentes. Par exemple, à la fin du Dévonien, la diversification rapide des plantes et les modifications de l’atmosphère qu’elle a entraînées seraient à l’origine de l’une des extinctions massives de la Terre, qui a entraîné la disparition des trois quarts des espèces, dont beaucoup étaient probablement plus intelligentes que les plantes. Plus généralement, l’extinction inter-espèces n’est pas le résultat d’une lutte concurrentielle pour la domination entre deux espèces.
L’idée que les espèces forment une hiérarchie ou une « grande chaîne de l’être » est inexacte ; en réalité, les relations entre les espèces sont complexes et forment une toile ou un graphique d’interdépendance mutuelle sans « haut » ni « bas ». Lorsque les biologistes parlent de « dominance » dans les interactions animales, ils appliquent généralement des définitions qui se concentrent sur les relations entre individus de la même espèce. L’IA n’est pas en concurrence avec les êtres humains pour les ressources.
Comment l’IA dépend-elle de l’homme et pourquoi ne chercherait-elle pas à nous éliminer
Au contraire, nous fournissons aux systèmes d’IA leurs ressources, depuis l’énergie et les matières premières jusqu’aux puces électroniques et à l’infrastructure de réseau. Sans l’apport de l’homme, les systèmes d’IA sont incapables de se maintenir en bon état. Si l’extraction minière, le transport maritime mondial et le commerce des métaux précieux, la construction et l’entretien des centrales électriques, les usines de fabrication de puces, la construction de centres de données et la pose de câbles Internet étaient tous entièrement automatisés - y compris toute la logistique et les chaînes d’approvisionnement impliquées - alors peut-être qu’une IA superintelligente pourrait décider que les êtres humains sont superflus ou qu’ils épuisent les ressources, et décider de nous tuer.
Pour l’instant, l’IA dépend de nous, et une superintelligence admettrait vraisemblablement ce fait et chercherait à protéger l’humanité puisque nous sommes aussi vitaux à l’existence de l’IA que les plantes productrices d’oxygène le sont à la nôtre. L’évolution du mutualisme entre l’IA et l’homme est donc beaucoup plus probable que la concurrence.
En outre, le chemin vers une économie entièrement automatisée - si tel est l’objectif - sera long, chaque étape majeure servant de point de contrôle naturel pour l’intervention humaine. Une telle automatisation nécessiterait des avancées majeures dans le domaine du matériel et des logiciels. Or, la robotique ne se développe pas à un rythme proche de celui de l’IA - et il est peu probable qu’elle le fasse, puisque les progrès accélérés de l’IA sont liés au monde numérique, où la puissance de calcul croît de manière exponentielle, où la copie est presque instantanée et où l’optimisation est automatisée. »
Pourquoi s’alarmer du risque existentiel de l’IA superintelligente serait contre-productif
La plupart des chercheurs qui s’inquiètent du risque existentiel de l’IA sont probablement animés par de réelles préoccupations et un désir sincère de réduire les risques liés à l’IA en général. Ils n’ont simplement pas pris en compte les conséquences imprévues de leurs déclarations publiques. Il est naïf de penser qu’il est possible de s’alarmer publiquement au sujet d’une IA superintelligente malveillante qui pourrait exterminer l’espèce humaine sans détourner les chercheurs et les politiciens d’autres questions plus pressantes en matière d’éthique et de sécurité de l’IA.
La nature du risque existentiel de l’IA superintelligente en tant que préoccupation est qu’il est si grave en théorie qu’il pourrait avoir des effets de distorsion sur la perception du public, le financement de la recherche sur l’IA, les priorités des entreprises et la réglementation gouvernementale. Dans l’état actuel des choses, l’IA autonome superintelligente ne représente pas de risque existentiel manifeste et immédiat pour l’homme.
L’IA pourrait causer de réels dommages, mais la superintelligence n’est ni nécessaire ni suffisante pour que ce soit le cas. Il existe des voies hypothétiques par lesquelles une IA superintelligente pourrait provoquer l’extinction de l’humanité à l’avenir, mais elles sont spéculatives et vont bien au-delà de l’état actuel de la science, de la technologie ou de l’économie physique de notre planète.
Source : Noema
Et vous ?
À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?
Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?
Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?
Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?
Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?
Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?
Voir aussi :
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
L'IA représente-t-elle une menace pour l'humanité ? Non, pour un philosophe, qui estime que l'IA n'est qu'une pseudo-intelligence
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Les questions de Noema sont bêtes et dommageables, car elles nous éloignent du cœur du problème: Il n'y a que des enfants (et James Cameron) pour penser à Terminator quand on parle d'IA générative.
Les questions de fond sont plutôt:
- À qui appartiennent et profitent ces IA?
- Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?
Et une fois ces questions répondues, il faut légiférer.
Rajoute
Comment se protéger des IA en prouvant que ce n'est pas toi ?
En gros, JDG vient de découvrir 1 chaîne YouTube qui le fait chanter des chansons (avec Antoine Daniel) en utilisant 1 IA.
Mais l'IA permet *simplement* d'imiter/ remplacer (des voix, des visages, …) que les arnaques/ phrases hors contexte/ … peuvent devenir légion.
Imagine les attaques de "spoofing" ? (comme Terminator avec la mère de John)
Et je crois que c'est 1 peu le but de la grève des scénaristes à Hollywood actuellement : protéger leur métier contre les IA.
L'automatisme va oui écraser un certain nombre d'entre nous sur la terre puisque l'on nous amène à désigner l'automatisation signifiante pour interpeller l'intelligence( mammifère) encore pleine de nouveaux horizons
Il y a 5 % de chances que l’IA super intelligente provoque l’extinction de l’homme, d’après certains scientifiques
En opposition à d’autres d’avis que cette perspective relève de l’illusion
De nombreux chercheurs en intelligence artificielle considèrent que le développement futur d'une IA super intelligence a un risque non négligeable de provoquer l'extinction de l'humanité. Dans les chiffres, près de 58 % des chercheurs sont d’avis qu’il y a 5 % de chances que cette perspective se réalise. Néanmoins, les mêmes données soulignent le fait qu’une bonne partie des intervenants de cette filière est en désaccord avec la perspective que l’IA provoque l’extinction de l’homme.
Ces résultats proviennent d'une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié des travaux dans le cadre de six des principales conférences sur l'IA. Le sondage demandait aux participants de faire part de leurs réflexions sur les échéances possibles des futures étapes technologiques de l'IA, ainsi que sur les conséquences sociétales, bonnes ou mauvaises, de ces réalisations.
Par rapport aux réponses de la version 2022 de la même enquête, de nombreux chercheurs en intelligence artificielle ont prédit que l'IA atteindrait certaines étapes plus tôt que prévu. Les chercheurs interrogés prédisent qu'au cours de la prochaine décennie, les systèmes d'IA auront au moins 50 % de chances de réussir la plupart des 39 échantillons de tâches listés dans l’enquête : écriture de nouvelles chansons, codage d'un site complet de traitement des paiements à partir de zéro, etc. D'autres tâches, telles que l'installation physique du câblage électrique dans une nouvelle maison ou la résolution de mystères mathématiques de longue date, devraient prendre plus de temps.
Le développement possible d'une intelligence artificielle capable de surpasser les humains dans toutes les tâches a 50 % de chances de se produire d'ici 2047, tandis que la possibilité que tous les emplois humains deviennent entièrement automatisables a 50 % de chances de se produire d'ici 2116. Ces estimations sont en avance de 13 ans et de 48 ans par rapport à celles de l'enquête de l'année dernière.
Il existe en sus des inquiétudes plus immédiates non liées à l’éventualité de l’atteinte du stade d'IA super intelligente. Une grande majorité de chercheurs en IA - 70 % ou plus - ont qualifié de très préoccupants ou d'extrêmement préoccupants les scénarios alimentés par l'IA impliquant des deepfakes, la manipulation de l'opinion publique, des armes artificielles, le contrôle autoritaire des populations et l'aggravation de l'inégalité économique. L’enquête met en sus en avant les dangers de l'IA qui contribue à la désinformation sur des questions existentielles telles que le changement climatique ou la détérioration de la gouvernance démocratique.
Le responsable de l’intelligence artificielle de Meta rejette l’idée que l’intelligence artificielle va s’emparer du monde
Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.
En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.
« Les développements en cours montrent qu’il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en intelligence artificielle n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'intelligence artificielle n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.
Yann Lecun rejette en sus l'idée que les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », souligne LeCun.
Source : enquête
Et vous ?
Quel est votre avis sur le débat sur les dangers potentiels de l'IA ?
Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?
Voir aussi :
« L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir
« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale
Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?
![]()








L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard, car les systèmes pouvant s'auto-améliorer peuvent présenter des risques
Eric Schmidt, ancien PDG de Google, a tiré la sonnette d'alarme concernant les progrès rapides de l'intelligence artificielle (IA), avertissant que les systèmes capables de s'améliorer par eux-mêmes pourraient présenter des risques imprévus. M. Schmidt a laissé entendre qu'à mesure que l'IA évolue, il pourrait arriver un moment où l'humanité devrait envisager de « débrancher » ces systèmes avant qu'ils ne deviennent incontrôlables. Ses commentaires interviennent alors que la course à l'IA s'accélère, les entreprises repoussant les limites de l'innovation en dépit d'une surveillance réglementaire limitée.
Ces préoccupations de l'ancien PDG de Google sont partagées par de nombreux chercheurs en IA qui considèrent qu'il y a 5 % de chance que l'IA super intelligente provoque l'extinction de l'humanité. En effet, d'après une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié leurs travaux dans six des principales conférences sur l'IA, près de 58 % sont d'avis que cette perspective risque de se réaliser.
Dans une récente interview accordée au réseau ABC, Eric Schmidt a souligné à la fois le potentiel impressionnant et les dangers périlleux du développement de l'IA. Tout en célébrant les réalisations dans ce domaine, il a mis en avant les risques que les ordinateurs atteignent un stade où ils fonctionnent de manière autonome et prennent des décisions sans intervention humaine.
La montée de l'IA autonome
Eric Schmidt a prévenu que la capacité des systèmes d'IA à s'améliorer eux-mêmes pourrait être plus proche que beaucoup ne le pensent, et qu'elle pourrait arriver dans les prochaines années. Il a décrit un avenir où ces systèmes ne se contenteront pas de mener leurs propres recherches, mais posséderont également l'intelligence d'êtres humains très instruits.
Les implications de telles avancées sont vastes, M. Schmidt comparant l'impact à la présence d'un polymathe dans la poche de chaque individu. Toutefois, il se demande si la société est prête à gérer les conséquences de l'octroi d'un tel pouvoir à tout le monde.
En théorie, a suggéré Eric Schmidt, quelqu'un doit toujours avoir la possibilité de débrancher ces systèmes. Toutefois, il a également reconnu que l'IA pouvait contrer les efforts déployés pour l'arrêter, soulignant ainsi la nécessité de mettre en place des mesures de protection au fur et à mesure que la technologie évolue.
Concurrence mondiale et lacunes réglementaires
La course à la domination de l'IA s'intensifie, Eric Schmidt notant que la Chine a fait des progrès remarquables ces derniers mois, rattrapant les capacités américaines d'une manière qu'il juge surprenante. M. Schmidt a souligné l'importance pour les États-Unis de conserver une position de leader dans le développement de l'IA, en plaidant pour une augmentation du financement, du matériel et de l'expertise afin de garantir que les nations occidentales restent en tête.
Au niveau national, cependant, la réglementation reste en retrait par rapport à l'innovation. Les efforts visant à établir des lignes directrices ont échoué, laissant les entreprises technologiques foncer sans un cadre cohérent. Eric Schmidt a prévenu qu'en l'absence d'une surveillance adéquate, les risques associés à l'IA pourraient s'intensifier, en particulier à mesure que les systèmes d'IA générative deviennent plus avancés.
Un appel pour une police de l'IA
Pour atténuer les risques potentiels, Eric Schmidt a proposé une approche à deux systèmes. Il a suggéré de créer un système d'IA secondaire conçu spécifiquement pour surveiller et réguler les actions du premier. Selon lui, les humains ne peuvent à eux seuls contrôler efficacement l'IA, mais les systèmes d'IA pourraient être capables de se surveiller mutuellement.
Si Eric Schmidt reste optimiste quant au pouvoir de transformation de l'IA, ses avertissements soulignent l'urgence de relever les défis éthiques et réglementaires posés par cette technologie en évolution rapide. Alors que la course se poursuit, l'équilibre entre l'innovation et la prudence pourrait déterminer l'avenir du rôle de l'IA dans la société.
En novembre dernier, l'ex-dirigeant de Google a notamment mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Eric Schmidt a prévenu que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes, soulignant que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que la position de M. Eric Schmidt est cohérente ou pertinente ?
Voir aussi :
Eric Schmidt estime qu'on devrait développer l'IA aussi rapidement que possible, car son potentiel est très important, par exemple un médecin IA ou un tuteur IA
L'ancien PDG de Google, Eric Schmidt, s'exprime sur l'IA : "elle est sous-estimée et les entreprises vont changer grâce à elle"
L'ancien PDG de Google, Eric Schmidt, estime que nous devrions nous lancer à fond dans la construction de centres de données d'IA, car « de toute façon, nous n'atteindrons jamais nos objectifs climatiques »
L'ancien PDG de Google estime qu'il n'y a pas de mal à ce que les entreprises spécialisées dans l'IA volent des contenus : « vous pourrez nettoyer le gâchis plus tard avec de l'argent et une armée d'avocats »
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Déjà à l'époque...
https://www.developpez.net/forums/d1...e/#post7820383
A quand les IA borderlines et / ou schizophrènes ?
L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt ignorer le contrôle humain : "Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter"
L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.
Fin 2024, Eric Schmidt, ancien PDG de Google, a tiré la sonnette d'alarme concernant les progrès rapides de l'intelligence artificielle (IA), avertissant que les systèmes capables de s'améliorer par eux-mêmes pourraient présenter des risques imprévus. Il avait alors laissé entendre qu'à mesure que l'IA évolue, il pourrait arriver un moment où l'humanité devrait envisager de "débrancher" ces systèmes avant qu'ils ne deviennent incontrôlables.
Eric Emerson Schmidt est un homme d'affaires américain, ancien ingénieur informaticien, PDG de Google de 2001 à 2011 et président exécutif de la société de 2011 à 2015, président exécutif de la société mère Alphabet Inc. de 2015 à 2017, et conseiller technique d'Alphabet de 2017 à 2020. Depuis 2025, il est PDG de Relativity Space, une entreprise de fabrication aérospatiale. En 2025, il est la 54e personne la plus riche du monde selon l'indice Bloomberg Billionaires Index, avec une valeur nette estimée à 32,4 milliards de dollars.
Plus récemment, l'ancien PDG de Google a affirmé ces propos et prévenu que l'IA progressait si rapidement qu'elle pourrait bientôt ne plus avoir besoin de l'aide de l'homme pour évoluer. S'exprimant lors d'un événement organisé par le Special Competitive Studies Project, un groupe de réflexion qu'il a fondé, Schmidt a décrit la manière dont les systèmes d'intelligence artificielle (IA) commençaient à fonctionner de manière autonome, à apprendre, à s'améliorer et même à planifier sans l'aide de l'homme.
"Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter", a-t-il déclaré. Schmidt a qualifié ce processus d'"auto-amélioration récursive" : l'IA génère des hypothèses, les teste dans des laboratoires robotisés et utilise les résultats pour s'améliorer, le tout sans intervention humaine.
Eric Schmidt a également prédit un changement majeur sur le marché de l'emploi. Il a déclaré que d'ici un an, l'IA remplacerait probablement "la grande majorité des programmeurs" et surpasserait les meilleurs talents humains dans des domaines tels que les mathématiques. "Nous pensions que l'IA était sous-estimée et non surestimée", a-t-il ajouté, soulignant que des outils tels que ChatGPT, Claude, Gemini et Deepseek sont déjà largement utilisés pour des tâches telles que le codage, bien qu'ils n'aient pas été formés à ces fins.
Schmidt a également témoigné devant la commission de l'énergie et du commerce de la Chambre des représentants des États-Unis, où il a fait part de ses inquiétudes concernant l'infrastructure énergétique du pays. Il a prévenu que l'ampleur de la puissance nécessaire à l'IA dépasserait bientôt ce que le réseau actuel peut supporter. "Les gens prévoyaient des centres de données de 10 gigawatts", a-t-il déclaré. "La centrale nucléaire moyenne aux États-Unis n'est que d'un gigawatt".
Selon lui, les États-Unis doivent repenser leur politique énergétique et investir rapidement dans les sources d'énergie renouvelables et non renouvelables pour éviter de se laisser distancer par des rivaux comme la Chine. Eric Schmidt a également plaidé en faveur d'une surveillance gouvernementale plus stricte de l'IA, en particulier des modèles à source ouverte, qui, selon lui, pourraient constituer des menaces pour la sécurité nationale s'ils n'étaient pas contrôlés.
Il a souligné que si l'IA s'améliorait rapidement, elle nécessitait toujours des données de haute qualité et une gouvernance humaine. "Les scientifiques sont aux commandes et l'IA les aide - c'est le bon ordre", a-t-il déclaré.
Cette prise de parole est la dernière en date de l'ancien PDG de Google, qui est habitué à partager son avis sur l'IA. En novembre, il avait, par exemple, mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Lors d’une conférence, Eric Schmidt a souligné que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes.
Et vous ?
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?
Voir aussi :
Eric Schmidt, ancien PDG de Google, déclare au Congrès que 99 % de toute l'électricité sera utilisée pour l'IA superintelligente : "Nous avons besoin d'énergie sous toutes ses formes, renouvelable ou non"
Faut-il adopter ou boycotter l'IA ? Un critique appelle à boycotter l'IA, car elle n'est ni bonne pour la créativité ni bonne pour les compétences, et a été créée pour escroquer les utilisateurs
L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard, car les systèmes pouvant s'auto-améliorer peuvent présenter des risques
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Il "n'avertit" de rien du tout; il veut faire monter la hype auprès des actionnaires de ses entreprises de drones kamikazes.
Partager