Les modèles d'IA pourraient être bientôt capables de « se répliquer et de survivre dans la nature »
D'ici l'année prochaine, les modèles d'IA pourraient être capables de « se répliquer et de survivre dans la nature », une affirmation pour le moins surprenante du PDG d'Anthropic
Dario Amodei, PDG d'Anthropic affirme que d'ici l'année prochaine, les modèles d'intelligence artificielle pourraient être capable de "se répliquer et de survivre dans la nature". Il ajoute, "je peux me tromper, mais je pense que cela pourrait se faire à court terme.
Dario Amodei est un chercheur et entrepreneur italo-américain spécialisé dans l'intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de la grande série de modèles de langage Claude AI. Il a été vice-président de la recherche chez OpenAI.
Alors que l'IA semble devenir chaque jour plus puissante, l'une des principales personnes investies pour la rendre plus intelligente affirme que bientôt, elle pourrait même devenir autonome et se répliquer elle-même. Lors d'un entretien avec Ezra Klein du New York Times, le PDG d'Anthropic, Dario Amodei, a évoqué la "mise à l'échelle responsable" de la technologie et expliqué qu'en l'absence de gouvernance, elle pourrait commencer à se reproduire.
Comme M. Amodei l'a expliqué à M. Klein, Anthropic utilise les niveaux de biosécurité des laboratoires de virologie comme analogie pour l'IA. Selon lui, le monde en est actuellement à l'ASL 2, et l'ASL 4, qui inclurait l'"autonomie" et la "persuasion", est peut-être à nos portes.
"L'ASL 4 concernera davantage, du point de vue de l'utilisation abusive, le fait de permettre à des acteurs étatiques d'accroître considérablement leurs capacités, ce qui est beaucoup plus difficile que de permettre à des personnes au hasard", a déclaré M. Amodei. "Nous craignons donc que la Corée du Nord, la Chine ou la Russie puissent renforcer considérablement leurs capacités offensives dans divers domaines militaires grâce à l'IA, ce qui leur donnerait un avantage substantiel sur le plan géopolitique."
En ce qui concerne l'autonomie, ses prédictions sont encore plus audacieuses. "Diverses mesures de ces modèles, poursuit-il, sont assez proches d'être capables de se reproduire et de survivre dans la nature.
Lorsque Klein lui a demandé combien de temps il faudrait pour atteindre ces différents niveaux de menace, Amodei, qui a déclaré avoir l'habitude de penser "en exponentielles", a déclaré qu'il pensait que le niveau "répliquer et survivre dans la nature" pourrait être atteint "n'importe où entre 2025 et 2028". "Je parle vraiment d'un avenir proche. Je ne parle pas de 50 ans", a déclaré le PDG d'Anthropic. "Dieu m'accorde la chasteté, mais pas maintenant. Mais 'pas maintenant' ne veut pas dire quand je serai vieux et grisonnant. Je pense que cela pourrait être à court terme".
M. Amodei est une personnalité sérieuse dans ce domaine. En 2021, lui et sa sœur Daniela ont quitté OpenAI en raison de divergences d'orientation suite à la création de GPT-3, que le PDG et cofondateur a aidé à construire, et au partenariat de l'entreprise avec Microsoft. Peu après, la fratrie a fondé Anthropic avec d'autres expatriés d'OpenAI pour poursuivre leurs efforts de mise à l'échelle responsable.
"Je ne sais pas", a-t-il poursuivi lors de l'interview de Klein. "Je peux me tromper. Mais je pense qu'il pourrait s'agir d'un projet à court terme".
Alors que les discours alarmistes sur l'IA sont monnaie courante de nos jours, le point de vue d'Amodei ajoute beaucoup de poids à son argumentation et rend la mission d'Anthropic "d'assurer que l'IA transformatrice aide les gens et la société à s'épanouir" d'autant plus digne d'intérêt.
Source : Entretien avec Ezra Klein du New York Times dans un podcast
Et vous ?
:fleche: Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
:fleche: Pensez-vous que ses élucubrations soient réalistes ? ou alors plutôt une façon d'attirer l'attention sur lui ? ou alors il ferait mieux d'écrire des livres de science fiction ?
Voir aussi :
:fleche: Quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA. Découvrez toutes les prédictions de 2,778 chercheurs
:fleche: Elon Musk prédit que l'IA va surpasser l'humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l'IA vont dépasser celles de l'ensemble des humains dans les 5 prochaines années
:fleche: Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées
Les grands modèles d'IA engendrent désormais des modèles plus petits, selon le PDG d'Anthropic
Selon le PDG d'Anthropic, les grands modèles d'IA engendrent désormais des modèles plus petits, qui accomplissent des tâches et en rendent compte, réduisant le besoin d'intervention humaine.
Selon le PDG d'Anthropic, les grands modèles d'IA engendrent désormais des modèles plus petits, qui accomplissent des tâches et en rendent compte, créant ainsi une intelligence en essaim qui réduit le besoin d'intervention humaine.
Dario Amodei est un chercheur et entrepreneur italo-américain spécialisé dans l'intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de la grande série de modèles de langage Claude AI. Il a été vice-président de la recherche chez OpenAI. Il avait affirmé que d'ici l'année prochaine, les modèles d'intelligence artificielle pourraient être capable de "se répliquer et de survivre dans la nature". Il a ajouté : "je peux me tromper, mais je pense que cela pourrait se faire à court terme."
Dans la lignée de ces propos, Dario Amodei affirme que les grands modèles d'IA engendrent désormais des modèles plus petits, qui accomplissent des tâches et en rendent compte, créant ainsi une intelligence en essaim qui réduit le besoin d'intervention humaine.
Voici sa déclaration :
Citation:
Nous avons également vu le modèle, comme de grands modèles orchestrant de petits modèles. Il s'agit donc de quelque chose de très différent de l'idée que l'on se fait du modèle comme d'une personne unique, même si, je ne sais pas, il y a peut-être une analogie avec une personne. Nous avons des modèles plus grands et plus puissants et des modèles plus rapides, moins chers et moins intelligents.
Ainsi, un modèle que nous avons découvert chez certains clients est que le grand modèle a en tête une tâche importante et qu'il distribue ensuite une copie de 100 petits modèles qui, à l'aide de cette copie, s'acquittent de la tâche et rendent compte au grand modèle. Ainsi, au lieu d'une personne, c'est un essaim qui accomplit la tâche d'une manière tout à fait non humaine. C'est presque comme si une colonie d'abeilles accomplissait la tâche.
Tout cela pour dire que nous n'avons pas encore trouvé la meilleure façon d'utiliser les modèles et qu'il y a beaucoup de façons différentes de les utiliser. Mais je pense aussi qu'au fur et à mesure que les modèles deviennent plus intelligents, ils s'améliorent pour résoudre ces problèmes. Ainsi, à mesure qu'ils deviennent plus intelligents, nous pourrons mieux les transformer en agents, qui seront plus à même de mener à bien une tâche de bout en bout. L'élément humain, la quantité de travail que les humains devront effectuer, va diminuer.
Et vous ?
:fleche: Pensez-vous que cette déclaration est crédible ou pertinente ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: D'ici l'année prochaine, les modèles d'IA pourraient être capables de « se répliquer et de survivre dans la nature », une affirmation pour le moins surprenante du PDG d'Anthropic
:fleche: Des scientifiques créent des modèles d'IA capables de dialoguer entre eux et de transmettre des compétences avec une intervention humaine limitée
:fleche: Les chatbots IA Jailbreakés peuvent Jailbreaker d'autres chatbots. Les chatbots IA peuvent par exemple convaincre d'autres chatbots d'enseigner aux utilisateurs comment fabriquer des bombes