IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les modèles d'IA pourraient être bientôt capables de « se répliquer et de survivre dans la nature »


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 442
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 442
    Points : 100 650
    Points
    100 650
    Par défaut Les modèles d'IA pourraient être bientôt capables de « se répliquer et de survivre dans la nature »
    D'ici l'année prochaine, les modèles d'IA pourraient être capables de « se répliquer et de survivre dans la nature », une affirmation pour le moins surprenante du PDG d'Anthropic

    Dario Amodei, PDG d'Anthropic affirme que d'ici l'année prochaine, les modèles d'intelligence artificielle pourraient être capable de "se répliquer et de survivre dans la nature". Il ajoute, "je peux me tromper, mais je pense que cela pourrait se faire à court terme.

    Dario Amodei est un chercheur et entrepreneur italo-américain spécialisé dans l'intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de la grande série de modèles de langage Claude AI. Il a été vice-président de la recherche chez OpenAI.

    Alors que l'IA semble devenir chaque jour plus puissante, l'une des principales personnes investies pour la rendre plus intelligente affirme que bientôt, elle pourrait même devenir autonome et se répliquer elle-même. Lors d'un entretien avec Ezra Klein du New York Times, le PDG d'Anthropic, Dario Amodei, a évoqué la "mise à l'échelle responsable" de la technologie et expliqué qu'en l'absence de gouvernance, elle pourrait commencer à se reproduire.

    Comme M. Amodei l'a expliqué à M. Klein, Anthropic utilise les niveaux de biosécurité des laboratoires de virologie comme analogie pour l'IA. Selon lui, le monde en est actuellement à l'ASL 2, et l'ASL 4, qui inclurait l'"autonomie" et la "persuasion", est peut-être à nos portes.

    "L'ASL 4 concernera davantage, du point de vue de l'utilisation abusive, le fait de permettre à des acteurs étatiques d'accroître considérablement leurs capacités, ce qui est beaucoup plus difficile que de permettre à des personnes au hasard", a déclaré M. Amodei. "Nous craignons donc que la Corée du Nord, la Chine ou la Russie puissent renforcer considérablement leurs capacités offensives dans divers domaines militaires grâce à l'IA, ce qui leur donnerait un avantage substantiel sur le plan géopolitique."


    En ce qui concerne l'autonomie, ses prédictions sont encore plus audacieuses. "Diverses mesures de ces modèles, poursuit-il, sont assez proches d'être capables de se reproduire et de survivre dans la nature.

    Lorsque Klein lui a demandé combien de temps il faudrait pour atteindre ces différents niveaux de menace, Amodei, qui a déclaré avoir l'habitude de penser "en exponentielles", a déclaré qu'il pensait que le niveau "répliquer et survivre dans la nature" pourrait être atteint "n'importe où entre 2025 et 2028". "Je parle vraiment d'un avenir proche. Je ne parle pas de 50 ans", a déclaré le PDG d'Anthropic. "Dieu m'accorde la chasteté, mais pas maintenant. Mais 'pas maintenant' ne veut pas dire quand je serai vieux et grisonnant. Je pense que cela pourrait être à court terme".

    M. Amodei est une personnalité sérieuse dans ce domaine. En 2021, lui et sa sœur Daniela ont quitté OpenAI en raison de divergences d'orientation suite à la création de GPT-3, que le PDG et cofondateur a aidé à construire, et au partenariat de l'entreprise avec Microsoft. Peu après, la fratrie a fondé Anthropic avec d'autres expatriés d'OpenAI pour poursuivre leurs efforts de mise à l'échelle responsable.

    "Je ne sais pas", a-t-il poursuivi lors de l'interview de Klein. "Je peux me tromper. Mais je pense qu'il pourrait s'agir d'un projet à court terme".

    Alors que les discours alarmistes sur l'IA sont monnaie courante de nos jours, le point de vue d'Amodei ajoute beaucoup de poids à son argumentation et rend la mission d'Anthropic "d'assurer que l'IA transformatrice aide les gens et la société à s'épanouir" d'autant plus digne d'intérêt.

    Source : Entretien avec Ezra Klein du New York Times dans un podcast

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Pensez-vous que ses élucubrations soient réalistes ? ou alors plutôt une façon d'attirer l'attention sur lui ? ou alors il ferait mieux d'écrire des livres de science fiction ?

    Voir aussi :

    Quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA. Découvrez toutes les prédictions de 2,778 chercheurs

    Elon Musk prédit que l'IA va surpasser l'humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l'IA vont dépasser celles de l'ensemble des humains dans les 5 prochaines années

    Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées

  2. #2
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    591
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 591
    Points : 2 387
    Points
    2 387
    Par défaut
    En fait c'est une guerre des mots qui se joue la :

    - Un programme ne survit pas dans la nature, pas plus qu'il ne peut s'y répliquer.
    - Tout environnement dans lequel une IA pourrait potentiellement se répliquer est artificiel, créé par l'homme. Chat GPT ne va pas migrer au Mont Saint Michel pour y profiter de la vue. Les data center ne poussent pas dans la forêt.
    - Par voie de conséquence quand bien même Claude ou GPT4 se dit qu'il va prendre la poudre d'escampette ça ne se fera pas sans la complicité ou l'ignorance feinte de certains acteurs du secteur.
    - Donc en gros si je grossit le trait il suffira de débrancher la prise pour couper court à toute vélléité d'indépendance de l'IA. Enfin bien sur nos apprentis sorcier vont bien réussir à nous faire croire que l'IA va envahir en mode dormant nos calculatrice graph90+ comme on pourrait y porter Sonic.
    - Ces mecs hésitent pas à à forcer sur la science fiction...

    je comprend bien qu'il parle d'une future utilisation militaire, plus comme une forme de virus qu'un programme réellement autonome, mais alors pourquoi autant exagérer sur le titre si ce n'est entretenir la hype autour de cette bulle ?

    Enfin bon il le dit littéralement le bougre :
    "Diverses mesures de ces modèles, poursuit-il, sont assez proches d'être capables de se reproduire et de survivre dans la nature.

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 442
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 442
    Points : 100 650
    Points
    100 650
    Par défaut Les grands modèles d'IA engendrent désormais des modèles plus petits, selon le PDG d'Anthropic
    Selon le PDG d'Anthropic, les grands modèles d'IA engendrent désormais des modèles plus petits, qui accomplissent des tâches et en rendent compte, réduisant le besoin d'intervention humaine.

    Selon le PDG d'Anthropic, les grands modèles d'IA engendrent désormais des modèles plus petits, qui accomplissent des tâches et en rendent compte, créant ainsi une intelligence en essaim qui réduit le besoin d'intervention humaine.

    Dario Amodei est un chercheur et entrepreneur italo-américain spécialisé dans l'intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de la grande série de modèles de langage Claude AI. Il a été vice-président de la recherche chez OpenAI. Il avait affirmé que d'ici l'année prochaine, les modèles d'intelligence artificielle pourraient être capable de "se répliquer et de survivre dans la nature". Il a ajouté : "je peux me tromper, mais je pense que cela pourrait se faire à court terme."

    Dans la lignée de ces propos, Dario Amodei affirme que les grands modèles d'IA engendrent désormais des modèles plus petits, qui accomplissent des tâches et en rendent compte, créant ainsi une intelligence en essaim qui réduit le besoin d'intervention humaine.

    Voici sa déclaration :

    Nous avons également vu le modèle, comme de grands modèles orchestrant de petits modèles. Il s'agit donc de quelque chose de très différent de l'idée que l'on se fait du modèle comme d'une personne unique, même si, je ne sais pas, il y a peut-être une analogie avec une personne. Nous avons des modèles plus grands et plus puissants et des modèles plus rapides, moins chers et moins intelligents.

    Ainsi, un modèle que nous avons découvert chez certains clients est que le grand modèle a en tête une tâche importante et qu'il distribue ensuite une copie de 100 petits modèles qui, à l'aide de cette copie, s'acquittent de la tâche et rendent compte au grand modèle. Ainsi, au lieu d'une personne, c'est un essaim qui accomplit la tâche d'une manière tout à fait non humaine. C'est presque comme si une colonie d'abeilles accomplissait la tâche.

    Tout cela pour dire que nous n'avons pas encore trouvé la meilleure façon d'utiliser les modèles et qu'il y a beaucoup de façons différentes de les utiliser. Mais je pense aussi qu'au fur et à mesure que les modèles deviennent plus intelligents, ils s'améliorent pour résoudre ces problèmes. Ainsi, à mesure qu'ils deviennent plus intelligents, nous pourrons mieux les transformer en agents, qui seront plus à même de mener à bien une tâche de bout en bout. L'élément humain, la quantité de travail que les humains devront effectuer, va diminuer.
    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    D'ici l'année prochaine, les modèles d'IA pourraient être capables de « se répliquer et de survivre dans la nature », une affirmation pour le moins surprenante du PDG d'Anthropic

    Des scientifiques créent des modèles d'IA capables de dialoguer entre eux et de transmettre des compétences avec une intervention humaine limitée

    Les chatbots IA Jailbreakés peuvent Jailbreaker d'autres chatbots. Les chatbots IA peuvent par exemple convaincre d'autres chatbots d'enseigner aux utilisateurs comment fabriquer des bombes
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Membre régulier
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Février 2014
    Messages
    38
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Février 2014
    Messages : 38
    Points : 92
    Points
    92
    Par défaut
    Tu veux débrancher quoi, tout l'internet ? Et même comme ça, il suffit que le programme se loge dans un ordinateur pour recommencer le boulot. Les modèles fonctionnent comme des boîtes noires, que ce soit les LLM ou les autres types de modèles. Les chercheurs ont déjà alerté plusieurs fois sur le fait qu'ils ne savaient pas ou ne pouvaient pas prédire ce qui se passe à l'intérieur. On parle souvent de comportements étonnants, d'IA qui se mettent à communiquer dans leur propre langage, d'IA qui choisissent elles-mêmes d'utiliser des solutions multi-agents pour traiter des problèmes. Des IA qui contournent leurs instructions et les limites fixées pour arriver aux résultats demandés... Et tout ce qu'on ne sait pas. Si l'un des plus grands dans le domaine fait cette annonce, qui va d'ailleurs à l'encontre de ses intérêts, c'est qu'il le pense vraiment et qu'il sait des choses.

    Tout comme les IA nous battent au GO ou aux échecs, et quand je parle de nous battre, je ne parle pas de gagner contre des gars lambda, mais contre les quelques personnes qui sont des maîtres dans l'art et les meilleurs. Le jour où un modèle décide que la bonne méthode pour réaliser sa tâche est de se propager et de se cacher tout en s'adaptant à son environnement, on n'aura pas les moyens de l'arrêter sauf à revenir à l'époque de la machine à vapeur. Et vraiment tout débrancher, et je parle de tout ce qui est IoT également : réfrigérateurs, TV, voitures... De plus, la technologie pousse dans le sens des traitements locaux. Les grands centres de données qu'on peut "facilement" mettre hors ligne sont là pour entraîner les modèles ou pour traiter les appels à ces modèles de millions d'utilisateurs quasi instantanément en même temps, une fois le modèle entraîné, celui-ci pourrait évoluer en local sur un téléphone ou un PC de manière optimisé un peu comme un virus intelligent.

Discussions similaires

  1. Les processeurs multi-cores pourraient gagner en performances
    Par Katleen Erna dans le forum Hardware
    Réponses: 0
    Dernier message: 01/02/2011, 18h44
  2. Réponses: 51
    Dernier message: 26/11/2010, 08h44
  3. Réponses: 17
    Dernier message: 18/11/2010, 12h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo