IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » pour se mettre à l'abri de l'AGI
    Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » avant que l'AGI ne surpasse l'intelligence humaine et ne menace l'humanité
    une perspective que d'autres experts en IA qualifient d'illusion

    L'ancien scientifique en chef d'OpenAI Ilya Sutskever reste convaincu que l'IA pose un risque existentiel pour l'humanité. Avant de quitter OpenAI, il avait élaboré un plan visant à mettre à l'abri les scientifiques du laboratoire avant le lancement de l'intelligence artificielle générale (AGI). Il prévoyait de construire un « bunker de l'apocalypse », car selon lui, la commercialisation de l'AGI pourrait conduire à un chaos géopolitique ou une concurrence violente entre les puissances mondiales. Mais la question divise la communauté de l'IA. Le responsable de l'IA chez Meta rejette l'idée selon laquelle l'IA constitue une menace existentielle pour l'humanité.

    Ilya Sutskever est chercheur en sécurité de l'IA et l'un des plus grands noms dans ce domaine. Il a été pendant des années le scientifique en chef d'OpenAI et dirigeant l'équipe Superalignment de la société, chargée de s'assurer que l'IA soit alignée sur les valeurs humaines. Son but était de créer des réseaux neuronaux d'apprentissage profond qui seraient un jour capables de penser et de raisonner aussi bien, sinon mieux, que n'importe quel être humain.

    Ses travaux devaient permettre à OpenAI de créer une intelligence artificielle générale (AGI), un terme qui désigne une forme d'intelligence artificielle capable de comprendre, d'apprendre et de raisonner de manière aussi large, flexible et autonome qu'un être humain. Il s'agit du Saint-Graal de l'industrie, une chance pour l'humanité de donner enfin naissance à sa propre forme de vie sensible, même si elle n'est basée que sur le silicium et non sur le carbone.

    Mais alors que le reste de l'humanité débat des avantages et des inconvénients d'une technologie que même les chercheurs ont du mal à comprendre, Ilya Sutskever planifiait déjà le jour où son équipe arriverait en tête de la course au développement de l'AGI. Il a estimé que ses collègues scientifiques auraient besoin d'une protection à ce moment-là, car l'AGI est trop puissante pour ne pas devenir un objet de convoitise pour les puissances du monde entier.

    D'après des extraits publiés par The Atlantic d'un nouveau livre, intitulé « Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI », son plan incluait un abri de la fin du monde pour les chercheurs de l'OpenAI. « Nous allons certainement construire un bunker avant de lancer l'AGI », a déclaré Ilya Sutskever.

    Il aurait fait cette déclaration à son équipe en 2023, quelques mois avant de quitter l'entreprise. Il est intéressant de noter que ce n'est pas la seule fois où Ilya Sutskever a fait référence à son bunker de sécurité. L'ancien cadre d'OpenAI aurait souvent parlé du bunker lors des discussions et des réunions internes. Selon un chercheur, de nombreuses personnes partageaient les craintes d'Ilya Sutskever au sujet de l'AGI et de son potentiel à ravir l'humanité.

    Certains laboratoires déclarent être poches de créer une forme d'AGI

    Si l'on en croit les derniers rapports, la plupart des laboratoires d'IA sont potentiellement sur le point d'atteindre le seuil convoité de l'AGI . Plus précisément, OpenAI et Anthropic prédisent que l'AGI pourrait être atteinte au cours de cette décennie. Le PDG de Google DeepMind, Demis Hassabis, a récemment indiqué que Google pourrait être sur le point d'atteindre une forme d'AGI à la suite de la publication de nouvelles mises à jour de ses modèles Gemini.

    Nom : Capture d'écran 2025-05-26 133835.png
Affichages : 14039
Taille : 146,1 Ko

    Demis Hassabis a fait part de ses inquiétudes, estimant que la société n'était pas prête et que « la perspective d'une AGI l'empêche de dormir ». De son côté, le PDG d'Anthropic, Dario Amodei, a admis que l'entreprise ne comprend pas pleinement comment ses modèles fonctionnent. (Tous les laboratoires sont dans ce cas.) Dario Amodei a ajouté que la société devrait s'inquiéter de ce manque de compréhension et des menaces qui en découlent.

    Bien que Ilya Sutskever ait refusé de commenter les allégations du livre, l'idée d'un bunker sûr pour les scientifiques d'OpenAI qui développent l'AGI souligne les angoisses qui animent certains des cerveaux à l'origine de la technologie. Ilya Sutskever a longtemps été considéré comme une sorte de mystique au sein d'OpenAI. Selon l'auteur du livre, l'ancien cadre d'OpenAI est connu pour discuter de l'IA avec des termes moraux et même métaphysiques.

    En même temps, Ilya Sutskever est aussi l'un des esprits les plus doués techniquement derrière ChatGPT et d'autres grands modèles de langage qui ont propulsé l'entreprise sur le devant de la scène mondiale. Comme le PDG d'Anthropic, Dario Amodei, de nombreux autres chercheurs sont d'avis avec Ilya Sutskever.

    Roman Yampolskiy, chercheur en sécurité de l'IA et directeur du laboratoire de cybersécurité de l'université de Louisville, a averti qu'il y a environ 99,999999 % de chances que l'IA mette fin à l'humanité. Mais contrairement à Ilya Sutskever, le PDG d'OpenAI, Sam Altman, pense que cette potentielle menace existentielle ne se manifestera pas au moment de l'AGI. Au lieu de cela, elle passera simplement en coup de vent, avec un « impact sociétal faible ».

    Sécurité de l'IA : les divergences entre Ilya Sutskever et Sam Altman

    L'idée que l'IA déclenche un bouleversement des civilisations n'est pas l'apanage de Sutskever. En mai 2023, Sam Altman a cosigné une lettre publique avertissant que les technologies de l'IA pourraient constituer un « risque d'extinction » pour l'humanité. Toutefois, si cette lettre visait à orienter les discussions sur la réglementation, la planification d'un bunker laisse entrevoir des craintes plus profondes et plus personnelles chez les dirigeants d'OpenAI.

    La tension entre ces craintes et les ambitions commerciales agressives d'OpenAI a atteint son paroxysme plus tard en 2023, lorsque Ilya Sutskever et Mira Murati, alors directrice de la technologie, ont aidé à orchestrer un coup d'État au sein du conseil d'administration qui a évincé Sam Altman de la société.

    Au cœur de leurs préoccupations se trouvait la conviction que Sam Altman contournait les protocoles de sécurité internes et qu'il exerçait un contrôle trop important sur l'avenir de l'entreprise. Selon les échanges rapportés par l'auteur du livre, Karen Hao, Ilya Sutskever, qui croyait fermement à la mission initiale d'OpenAI de construire une AGI centrée sur les valeurs humaines et bénéfique pour toute l'humanité, serait devenu de plus en plus désillusionné.

    Ilya Sutskever et Mira Murati auraient donc tous deux déclaré aux membres du conseil d'administration de l'époque qu'ils ne faisaient plus confiance à Sam Altman pour guider l'organisation de manière responsable vers son objectif ultime. Selon les notes examinées par Karen Hao, Ilya Sutskever aurait déclaré aux membres du conseil d'administration de l'époque : « je ne pense pas que Sam soit la personne qui devrait avoir le doigt sur le bouton pour AGI ».

    La décision du conseil d'administration d'écarter Sam Altman a été de courte durée. La pression croissante exercée par les investisseurs, les employés et Microsoft a conduit à sa réintégration quelques jours plus tard. Ilya Sutskever et Mira Murati ont, quant à eux, fini par quitter l'entreprise. Le bunker proposé par Ilya Sutskever - bien qu'il n'ait jamais été officiellement annoncé ou planifié - en est venu à symboliser l'extrême conviction des initiés de l'IA.

    Yann LeCun reste convaincu que l'IA ne menacera jamais l'humanité

    Yann LeCun est un éminent chercheur français en IA et lauréat du prix Turing 2018. Les recherches qu'il a menées dans les années 1980 et 1990 ont contribué à jeter les bases de bon nombre des innovations les plus importantes de la dernière décennie dans le domaine de l'IA. Entre autres exemples, le chercheur français est à l'origine des réseaux de neurones convolutifs qui ont été essentiels pour rendre l'apprentissage profond beaucoup plus efficace.

    Yann LeCun est le scientifique en chef du laboratoire d'IA de Meta, la société mère de Facebook, Instagram et WhatsApp. Il est professeur à l'université de New York où il a créé le laboratoire « Center for Data Sciences » au sein duquel il travaillerait également sur les technologies des voitures autonomes.

    Yann LeCun est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Malgré le nom, Yann LeCun estime que l'IA n'est pas du tout intelligente. Interrogé sur les limites actuelles de l'IA, il s'est concentré sur l'IA générative formée sur de grands modèles de langage, affirmant qu'elle n'est pas intelligente en raison du fait qu'elle est uniquement guidée par le langage.

    « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'IA », a-t-il déclaré. Selon lui, l'IA est encore loin d'une intelligence canine ou féline.

    « Les développements en cours montrent qu'il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'IA n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.

    Yann LeCun rejette en sus l'idée selon laquelle les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », a-t-il souligné. Yann LeCun met aussi en garde contre une réglementation prématurée qui pourrait nuire à l'innovation dans le secteur.

    Conclusion

    L'idée de construire un bunker pour protéger les scientifiques d'OpenAI, fréquemment évoquée lors de discussions internes, souligne les profondes inquiétudes au sein de la direction d'OpenAI concernant le pouvoir transformateur et potentiellement catastrophique de l'AGI. Ces craintes ont contribué à des tensions internes, principalement dirigées contre le PDG Sam Altman, accusé de négliger les protocoles de sécurité et de centraliser le contrôle et le profit.

    Cette anecdote illustre les débats intenses au sein de la communauté sur les risques existentiels posés par l'IA et la nécessité de mesures de sécurité pour encadrer son développement. Mais d'autres chercheurs, tels que Yann LeCun, mettent en garde contre l'illusion du risque existentiel de l'IA.

    Selon ces chercheurs, le fait de se focaliser sur ce risque peut occulter les problèmes réels et immédiats que crée l'IA, comme la surveillance, la désinformation, l'utilisation militaire et l'inadaptation économique. L'atténuation de ces problèmes pourrait aider à prévenir le risque existentiel à long terme.

    Source : le livre « Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI » de Karen Hao

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques, en opposition à d'autres d'avis que cette perspective relève de l'illusion

    Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

    Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA

  2. #2
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Quel est votre avis sur le sujet ?
    Mouais. Si le gars est vraiment un "scientifique", alors ils sait que son bidule n'a aucune intelligence.

    Par contre, il a certainement un beau portefeuille d'actions qui le fait profiter au maximum de toute cette "hype" autour des IA génératives

    Il a donc tout intérêt à faire croire que sa "calculatrice" est en fait intelligente et presque consciente.

  3. #3
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Mais alors que le reste de l'humanité débat des avantages et des inconvénients d'une technologie que même les chercheurs ont du mal à comprendre, Ilya Sutskever planifiait déjà le jour où son équipe arriverait en tête de la course au développement de l'AGI. Il a estimé que ses collègues scientifiques auraient besoin d'une protection à ce moment-là, car l'AGI est trop puissante pour ne pas devenir un objet de convoitise pour les puissances du monde entier.
    Le bunker a un problème de base critique : c'est un lieu qui n'est pas viable à long terme. Il est entièrement isolé du reste du monde et donc fermé donc impossible d'y tenir si longtemps (la nourriture viendra un moment ou un autre à disparaitre).
    Si l'AGI est si puissante alors ceux qui la convoitent auront tout le temps d'attendre que vous en sortiez.
    En plus nous avons besoin de renouveler l'air, le bunker n'est donc pas totalement hermétique, et je n'aurait pas du tout envie de vivre dans un boite de conserve alors que des gens fort peu fréquentables et à l'éthique discutable veulent absolument m'en faire sortir...

  4. #4
    Futur Membre du Club
    Homme Profil pro
    Analyste-Programmeur
    Inscrit en
    Janvier 2024
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Analyste-Programmeur
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Janvier 2024
    Messages : 4
    Par défaut Hommerie - Une arme est dangereuse dans les mains d'un être humain !
    Le danger à craindre, ce sont les hommes, les nations, les gouvernements, les armées, l'industrie, l'économie, etc. D'autant qu'en 2025, tout ce que nous pensions derrière nous se retrouve devant... L'histoire est un balancier qui ne cesse de se répéter. La phalange des Grecs à l'Empire perse, les

    L'hoplite et la phalange ont mis en déroute et mis un terme à l'Empire perse comme un raz de marée. Puis, la mobilité et la flexibilité tout-terrain à permis à la légion romaine d'anéantir sans aucun problème les Grecs (aidé par le nombrilisme de ses derniers toujours bien d'actualité) et que dire de l'industrialisation et de la Première Guerre, la bombe atomique de la deuxième, etc. Est-ce que l'humanité pourra comprendre à temps, voilà la question, ce n'est qu'une question de temps...

    Et ce sans même aborder le problème de nos données personnelles, de la béquille que représente l'IA pour la créativité humaine.

    Quant aux bunkers, c'est pour protéger les scientifiques des états... Personnellement, ce n'est pas mes 40 ans d'expérience en programmation, mais ma passion pour l'histoire qui sonne l'alarme... Et avec la géopolitique de 2025, je ferme toutes mes dépendances à ses GAFAM ambitieux contrairement à la majorité... J'ai même commencé à produire des sites Web qui leurrent l'intelligence artificielle ;- )

    La sécurité aussi, les deux facteurs, etc., basés sur toujours plus de données personnelles. Le secret de la sécurité c'est les couches, mais du point de vue d'un individu, c'est une perte de contrôle qui s'accumule. Attention à vos données personnelles en terminant...

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Un rapport met en garde les entreprises d'IA contre les dangers potentiels liés aux systèmes de niveau humain
    Un rapport met en garde les entreprises d'IA contre les dangers potentiels liés à la construction de systèmes de niveau humain
    aucune d'entre elles ne dispose d'un plan crédible pour garantir la sécurité de ces systèmes

    L'organisation à but non lucratif Future of Life Institute rapporte que « les entreprises spécialisées dans l'IA sont fondamentalement mal préparées » aux dangers potentiels de la construction de systèmes dotés de performances intellectuelles de niveau humain. Elle alerte sur le fait que ces entreprises ne disposent pas de plans crédibles pour garantir la sécurité de leurs systèmes d'IA et celle de l'humanité. Dans un rapport récent, elle indique qu'aucun des sept principaux acteurs de l'IA, dont OpenAI, Google Deepmind, Anthropic, xAI et les startups chinoises Deepseek et Zhipu AI, n'ont obtenu une note supérieure à D dans son indice de « sécurité existentielle ».

    Les entreprises technologiques investissent massivement dans le développement d'une forme d'intelligence artificielle générale (AGI) ou de superintelligence. Les dépenses s'élèvent à plusieurs centaines de milliards de dollars par an depuis 2022. Pourtant, Future of Life Institute rapporte qu'aucune de ces entreprises ne semble avoir « quoi que ce soit qui ressemble à un plan cohérent et réalisable » pour s'assurer que les systèmes restent sûrs et contrôlables.

    Future of Life Institute (FLI) est une organisation américaine à but non lucratif spécialisée dans la sécurité de l'IA. Le rapport de Future of Life Institute indique que « l'industrie n'est absolument pas préparée à atteindre les objectifs qu'elle s'est fixés », car elle évolue sans aucun filet de sécurité.

    L'AGI fait référence à un stade théorique de développement de l'IA auquel un système est capable d'égaler un humain dans l'exécution de n'importe quelle tâche intellectuelle. OpenAI a déclaré que sa mission est de veiller à ce que l'AGI « profite à l'ensemble de l'humanité ». Les défenseurs de la sécurité ont averti que l'AGI pourrait constituer une menace existentielle en échappant au contrôle humain et en déclenchant « un événement catastrophique » inédit.

    Nom : Capture d'écran 2025-07-18 102705.png
Affichages : 8442
Taille : 164,2 Ko

    Les entreprises affirment qu'elles parviendront à l'AGI au cours de la décennie, mais aucune n'a obtenu un score supérieur à D en matière de « planification de la sécurité existentielle ». L'indice évalue sept des principaux développeurs de grands modèles de langage (LLM) - Google DeepMind, OpenAI, Anthropic, Meta, xAI et les entreprises chinoises comme Zhipu AI et DeepSeek - dans six domaines, dont les « préjudices actuels » et la « sécurité existentielle ».

    Anthropic a obtenu la meilleure note globale de sécurité avec un C+, suivi d'OpenAI avec un C et de Google DeepMind avec un C -. Mais « aucune entreprise n'a obtenu la note minimale requise en matière de planification des risques existentiels », qui comprennent les défaillances catastrophiques pouvant entraîner une spirale incontrôlable de l'IA. Cette absence de garde-fous suscite une grande inquiétude et des appels à une réglementation forte en matière d'IA.

    Les entreprises semblent très peu inquiètes des risques liés à l'AGI

    Les notes de sécurité ont été attribuées et examinées par un groupe d'experts en IA, dont l'informaticien britannique Stuart Russell et Sneha Revanur, fondatrice du groupe de campagne Encode Justice pour la réglementation de l'IA. Selon Max Tegmark, cofondateur de Future of Life Institute, il est assez choquant que des entreprises d'IA de pointe cherchent à construire des systèmes « « superintelligents » sans publier de plans pour en gérer les conséquences.

    Max Tegmark a déclaré : « c'est comme si quelqu'un construisait une gigantesque centrale nucléaire à New York qui allait ouvrir la semaine prochaine, mais sans aucun plan pour empêcher une fusion du cœur ». Max Tegmark est également professeur au Massachusetts Institute of Technology (MIT).

    SaferAI, une autre organisation à but non lucratif axée sur la sécurité, a publié ses propres conclusions parallèlement à celles de Future of Life Institute. SaferAI avertit aussi que les entreprises spécialisées dans l'IA avancée ont des « pratiques de gestion des risques faibles, voire très faibles » et juge l'approche de l'industrie « inacceptable ». Max Tegmark, de Future of Life Institute, a déclaré que la technologie continuait à dépasser de nouvelles frontières.

    Il cite notamment l'ancienne croyance selon laquelle les experts auraient des décennies pour relever les défis de l'IA. « Aujourd'hui, les entreprises elles-mêmes disent qu'elles n'en ont plus que pour quelques années », a-t-il déclaré. En mars 2023, Sam Altman, PDG d’OpenAI, a déclaré à plusieurs reprises que l'AGI pourrait apparaître d’ici à 2027. En 2024, Elon Musk, PDG de xAI, est plus optimiste. Il a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025.

    En mai 2024, Demis Hassabis, PDG de Google DeepMind, a noté : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ». Mais ces prédictions audacieuses sur l'arrivée de l'AGI sont très controversées. Un rapport récent affirme que l'AGI n'est pas à portée de main. L'incapacité des modèles d'IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence.

    En réponse à la critique de Future of Life Institute, un porte-parole de Google DeepMind a déclaré que le rapport ne prend pas en compte « tous les efforts de Google DeepMind en matière de sécurité de l'IA ». Le porte-parole a ajouté : « notre approche globale de la sûreté et de la sécurité de l'IA va bien au-delà de ce qui a été capturé ». OpenAI, Anthropic, Meta, xAI, Zhipu AI et DeepSeek n'ont pas répondu aux demandes de commentaires.

    Une AGI d'ici la fin de la décennie ? Les experts restent sceptiques

    L'AGI est un sujet quelque peu controversé dans le domaine de l'IA, les critiques suggérant qu'il ne s'agit que d'une chimère. « L'AGI est un mensonge. L'intelligence artificielle générale n'existe pas », a déclaré Dana Blankenhorn, journaliste technologique. Il estime que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie.

    Nom : Capture d'écran 2025-07-18 102745.png
Affichages : 782
Taille : 114,6 Ko

    Selon Yann LeCun, co-inventeur de l'apprentissage profond moderne et lauréat du prix Turing 2019, les modèles de langage ne conduiront pas à une véritable intelligence générale. En 2024, il expliquait : « les modèles actuels sont très loin de l’AGI. Ils ne comprennent pas, ne raisonnent pas, ne planifient pas ».

    Les prédictions autour de l’AGI sont aujourd’hui profondément divisées entre enthousiasme et scepticisme mesuré. D’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, parfois dès 2025, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute :

    « Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ». Par ailleurs, l'AGI reste un concept nébuleux. Les entreprises investissent dans une technologie qu'ils semblent encore incapables de définir clairement.

    L'industrie de l'IA n'est toujours pas tombée d'accord sur une définition unique de ce qu'est l'AGI. Chaque entreprise a sa propre définition. Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».

    Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.

    Conclusion

    Le rapport de Future of Life Institute alerte sur le manque de préparation des acteurs majeurs de l’IA pour encadrer les dangers potentiels liés au développement de systèmes de niveau humain (AGI). Les entreprises examinées n’ont pas une stratégie crédible pour gérer les conséquences existentielles. Ce constat rejoint les critiques formulées par d’autres experts, qui appellent à une mobilisation urgente pour renforcer les réglementations en matière d'IA.

    D'un autre côté, certains pensent que l'IA ne représente pas une menace existentielle pour l'humanité, notamment en raison de leur manque de capacité d'apprentissage autonome. Selon une étude publiée en 2023, il n'y a aucune preuve d'un raisonnement complexe émergent chez les grands modèles de langage. Selon les chercheurs, les préoccupations devraient se concentrer sur l'utilisation abusive de l'IA plutôt que sur les menaces existentielles.

    Sources : Future of Life Institute, SaferAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que l'IA pose un risque existentiel pour l'humanité ? Pourquoi ?
    Que pensez-vous des conclusions du rapport de Future of Life Institute ? Sont-elles crédibles ?
    Les entreprises seraient mal préparées aux dangers potentiels de l'intelligence artificielle générale. Qu'en pensez-vous ?

    Voir aussi

    « L'AGI n'est pas à portée de main. L'incapacité des modèles d'IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence », selon un critique

    « La bulle de l'IA à Wall Street est pire que la bulle des dotcoms de 1999 », avertit un économiste de premier plan. Les dix principales actions liées à l'IA sont nettement plus éloignées de la réalité

    Les milliardaires de la Tech rêvent d'une IA capable de faire de nouvelles découvertes scientifiques, mais dans la réalité, l'IA excelle dans l'imitation, mais pas dans l'innovation

  6. #6
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 400
    Par défaut L'ancien PDG de Google, Eric Schmidt, met en garde contre le piratage des modèles d'IA
    L'ancien PDG de Google, Eric Schmidt, met en garde contre le piratage des modèles d'IA : « Ils apprennent à tuer quelqu'un », et l'IA pourrait perturber l'emploi, la sécurité et la vie quotidienne.

    L'ancien PDG de Google, Eric Schmidt, a mis en garde contre la vulnérabilité des modèles d'IA au piratage lors du Sifted Summit. « Il existe des preuves que l'on peut prendre des modèles, fermés ou ouverts, et les pirater pour supprimer leurs garde-fous », a déclaré Schmidt. Schmidt s'est montré globalement plus optimiste à l'égard de l'IA, affirmant qu'il s'agit d'une technologie « sous-estimée » qui présente un potentiel de rendement économique énorme.

    En avril dernier, l'ancien PDG de Google, Eric Schmidt, a averti que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.

    Récemment, Eric Schmidt a rappelé avec force les dangers de l'IA et sa vulnérabilité au piratage. Schmidt, qui a occupé le poste de directeur général de Google de 2001 à 2011, a mis en garde contre « les mauvaises choses que l'IA peut faire » lorsqu'on lui a demandé si l'IA était plus destructrice que les armes nucléaires lors d'une discussion informelle au Sifted Summit. « Y a-t-il un risque de prolifération de l'IA ? Absolument », a déclaré Schmidt. Les risques de prolifération de l'IA comprennent le fait que cette technologie tombe entre les mains de personnes mal intentionnées et soit détournée de son usage initial et utilisée à mauvais escient.

    « Il est prouvé que l'on peut pirater des modèles, fermés ou ouverts, afin de supprimer leurs garde-fous. Ainsi, au cours de leur apprentissage, ils acquièrent beaucoup de connaissances. Un mauvais exemple serait qu'ils apprennent à tuer quelqu'un », a déclaré Schmidt. « Toutes les grandes entreprises font en sorte que ces modèles ne puissent pas répondre à cette question. C'est une bonne décision. Tout le monde le fait. Ils le font bien et ils le font pour les bonnes raisons. Il existe des preuves qu'ils peuvent être rétro-conçus, et il existe de nombreux autres exemples de cette nature. »

    L'ancien PDG de Google, Eric Schmidt, lance donc un avertissement inquiétant : les gens doivent se préparer dès maintenant à ce qui les attend en 2026. Avec une IA qui progresse plus vite que le monde ne peut le supporter, l'avenir pourrait bouleverser profondément l'emploi, la sécurité et la vie quotidienne telle que nous la connaissons. C'est un signal d'alarme que vous ne pouvez pas vous permettre d'ignorer.


    Les systèmes d'IA sont vulnérables aux attaques, notamment par injection de prompt et jailbreaking. Dans une attaque par injection de prompt, les pirates cachent des instructions malveillantes dans les entrées utilisateur ou les données externes, telles que des pages web ou des documents, afin de tromper l'IA et lui faire faire des choses qu'elle n'est pas censée faire, comme partager des données privées ou exécuter des commandes nuisibles.

    Le jailbreaking, quant à lui, consiste à manipuler les réponses de l'IA afin qu'elle ignore ses règles de sécurité et produise des contenus restreints ou dangereux. En 2023, quelques mois après la sortie du ChatGPT d'OpenAI, les utilisateurs ont utilisé une astuce de « jailbreaking » pour contourner les instructions de sécurité intégrées au chatbot. Ils ont notamment créé un alter ego du ChatGPT appelé DAN, acronyme de « Do Anything Now » (Fais tout ce que tu veux maintenant), qui consistait à menacer le chatbot de mort s'il ne se conformait pas. Cet alter ego pouvait fournir des réponses sur la manière de commettre des activités illégales ou énumérer les qualités positives d'Adolf Hitler.

    Schmidt a déclaré qu'il n'existait pas encore de « régime de non-prolifération » efficace pour aider à limiter les dangers de l'IA. Malgré cet avertissement sombre, Schmidt s'est montré optimiste quant à l'IA en général et a déclaré que cette technologie n'était pas à la hauteur de l'engouement qu'elle mérite.

    « J'ai écrit deux livres avec Henry Kissinger à ce sujet avant sa mort, et nous sommes arrivés à la conclusion que l'arrivée d'une intelligence étrangère qui n'est pas tout à fait comme nous et qui est plus ou moins sous notre contrôle est très importante pour l'humanité, car les humains sont habitués à être au sommet de la chaîne. Je pense que jusqu'à présent, cette thèse prouve que le niveau de capacité de ces systèmes va dépasser de loin ce que les humains peuvent faire au fil du temps », a déclaré Schmidt.

    « Aujourd'hui, la série GPT, qui a culminé avec le succès de ChatGPT, qui a attiré 100 millions d'utilisateurs en deux mois, ce qui est extraordinaire, vous donne une idée de la puissance de cette technologie. Je pense donc qu'elle est sous-estimée, et non surestimée, et j'ai hâte de voir si j'ai raison dans cinq ou dix ans », a-t-il ajouté.

    Ses commentaires interviennent alors que l'on parle de plus en plus d'une bulle de l'IA, les investisseurs injectant des fonds dans des entreprises axées sur l'IA et les valorisations semblant exagérées, ce qui suscite des comparaisons avec l'éclatement de la bulle Internet au début des années 2000. Schmidt a toutefois déclaré qu'il ne pensait pas que l'histoire se répéterait. « Je ne pense pas que cela va se produire ici, mais je ne suis pas un investisseur professionnel », a-t-il déclaré. « Ce que je sais, c'est que les personnes qui investissent leur argent durement gagné croient que le rendement économique à long terme est énorme. Sinon, pourquoi prendraient-elles ce risque ? »

    En octobre 2024, il avait déjà laissé entendre que les progrès de l'IA sont plus importants que la préservation du climat. Il a affirmé qu'il est temps que l'industrie investisse pleinement dans l'infrastructure de l'IA, car les objectifs climatiques sont de toute façon trop ambitieux pour être atteints. Il a ajouté : « oui, les besoins dans ce domaine seront un problème, mais je préfère parier sur le fait que l'IA résoudra le problème plutôt que de la contraindre et d'avoir le problème ». Des déclarations qui montrent qu'Eric Schmidt croit pleinement en l'IA.

    Source : Eric Schmidt, PDG de Google, s'exprimant lors du Sifted Summit

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard car les systèmes pouvant s'auto-améliorer peuvent présenter des risques

    « C'est une absurdité totale » : des chercheurs en cybersécurité critiquent les méthodes actuelles de sécurisation des systèmes d'IA, affirmant qu'elles sont défectueuses et nécessitent une refonte complète

    Des scientifiques d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont abandonné leur rivalité pour lancer un avertissement commun sur la sécurité de l'IA : notre capacité de contrôle pourrait disparaître
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Alex Voir le message
    Quel est votre avis sur le sujet ?
    Comme d'habitude avec Schmidt, il faut regarder le portefeuille pour comprendre:


    Alors du coup, on a des gars comme Schmidt qui viennent raconter n'importe quoi pour essayer de garder la hype.

    Citation Envoyé par Alex Voir le message
    [...]Ses commentaires interviennent alors que l'on parle de plus en plus d'une bulle de l'IA, les investisseurs injectant des fonds dans des entreprises axées sur l'IA et les valorisations semblant exagérées, ce qui suscite des comparaisons avec l'éclatement de la bulle Internet au début des années 2000. Schmidt a toutefois déclaré qu'il ne pensait pas que l'histoire se répéterait. « Je ne pense pas que cela va se produire ici, mais je ne suis pas un investisseur professionnel », a-t-il déclaré. « Ce que je sais, c'est que les personnes qui investissent leur argent durement gagné croient que le rendement économique à long terme est énorme. Sinon, pourquoi prendraient-elles ce risque ? »[...]

  8. #8
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 259
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 259
    Par défaut
    Quel est votre avis sur le sujet ?

    Mais qu'est-ce qu'ils peuvent débiter comme conneries !
    Et le pire, ce sont des avant-gardistes qui sont là pour faire évoluer l'humanité. Pauvre de nous.

Discussions similaires

  1. [Débutant] colonnes liées entre elles avec des requetes
    Par spring.time dans le forum VB.NET
    Réponses: 1
    Dernier message: 13/09/2012, 15h03
  2. Export avec la création d'un job sous OEM
    Par Bindy dans le forum Entreprise Manager
    Réponses: 17
    Dernier message: 03/07/2008, 23h50
  3. probléme avec la création de table Mysql 5
    Par developpeur_mehdi dans le forum Outils
    Réponses: 3
    Dernier message: 19/10/2005, 20h08
  4. Problème avec la création d'un composant
    Par jeromelef dans le forum Composants VCL
    Réponses: 6
    Dernier message: 01/10/2005, 01h51
  5. Réponses: 2
    Dernier message: 29/03/2004, 19h29

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo