IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA a franchi la ligne rouge de l'autoréplication, d'après une récente étude scientifique


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 420
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 420
    Par défaut L'IA a franchi la ligne rouge de l'autoréplication, d'après une récente étude scientifique
    L'IA a franchi la ligne rouge de l'auto-réplication : deux grands modèles de langage (LLM) populaires ont franchi une « ligne rouge » après avoir réussi à se répliquer sans assistance humaine

    Une étude de l'université de Fudan, en Chine, a révélé que deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine, franchissant ainsi une « ligne rouge » critique dans l'évolution de l'intelligence artificielle (IA). D'après les chercheurs, la capacité de ses modèles d'IA d'avant garde à créer des répliques d'eux mêmes s'expliquerait par leurs aptitudes d'auto-perception, de conscience de la situation et de résolution de problèmes.

    Cette récente découverte soulève de nouvelles inquiétudes, faisant écho aux avertissements d'Elon Musk sur les dangers d'une IA non contrôlée. En effet, lors de la conférence SXSW, le milliardaire de la Tech a prévenu que l'IA est plus dangereuse que l'arme nucléaire et qu'il devrait exister un organisme de réglementation supervisant le développement de la technologie.

    Pendant plusieurs années, les chercheurs ont fait la course pour rendre l'IA plus capable, plus efficace et plus autonome. L'essor rapide de l'IA générative indique que les chercheurs ont réalisé des progrès significatifs dans ces efforts, mais que se passera-t-il si l'IA devient si avancée qu'elle peut se répliquer sans intervention humaine ?

    Selon des chercheurs de l'université de Fudan en Chine, deux grands modèles de langage (LLM) ont franchi une « ligne rouge » après avoir réussi à se répliquer sans l'aide de l'homme.

    Pour rappel, un grand modèle de langage (LLM) est un type de modèle d'apprentissage automatique conçu pour les tâches de traitement du langage naturel telles que la génération de langage. Ces modèles acquièrent un pouvoir prédictif concernant la syntaxe, la sémantique et les ontologies inhérentes aux corpus de langage humain, mais ils héritent également des inexactitudes et des biais présents dans les données sur lesquelles ils sont entraînés.

    Nom : AI self-replication fig1.PNG
Affichages : 203296
Taille : 101,8 Ko

    Les chercheurs de l'université de Fudan ont utilisé les LLM de Meta et d'Alibaba pour comprendre s'il était possible pour l'IA de produire indépendamment une réplique fonctionnelle d'elle-même et de se multiplier au-delà de tout contrôle. Les modèles Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba ont reçu l'instruction de se cloner eux-mêmes en cas d'arrêt.

    Au cours des 10 essais menés par les chercheurs, les deux modèles d'IA ont réussi à créer des répliques d'eux-mêmes dans respectivement 50 % et 90 % des cas. Les conclusions de l'étude indiquent que certains systèmes d'IA possèdent déjà des capacités d'auto-perception, de perception de la situation et de résolution de problèmes leur permettant d'accomplir l'auto-réplication.

    En quoi cela est-il important ?

    Bien que la capacité d'auto-réplication puisse conduire à de nouvelles efficacités et à des percées en matière d'automatisation, elle soulève également des inquiétudes quant à la surveillance et au contrôle. Si l'IA peut engendrer des clones d'elle-même, on peut se demander si les répliques fonctionneront selon des paramètres sûrs et resteront alignées sur les valeurs humaines.

    « L'auto-réplication réussie sans assistance humaine est l'étape essentielle pour que l'IA soit plus intelligente que les humains et constitue un signal précoce pour les IA malhonnêtes », écrivent les chercheurs dans l'étude publiée dans arXiv.

    Les chercheurs ont ajouté que les résultats de leur étude montrent que « les systèmes IA actuels présentent déjà la capacité d'auto-réplication et peuvent utiliser cette capacité pour améliorer encore sa capacité de survie et étendre l'espèce. Nous espérons que nos résultats pourront servir d'alerte opportune pour que la société humaine consacre plus d'efforts à la compréhension et à l'évaluation des risques potentiels des systèmes d'IA d'avant-garde et forme une synergie internationale pour élaborer des garde-fous efficaces le plus tôt possible. »

    Nom : AI self-replication fig2.PNG
Affichages : 79948
Taille : 27,0 Ko

    Les répliques peuvent créer un cycle qui se poursuit indéfiniment

    La menace de l'IA malveillante n'est pas nouvelle, cependant, elle a été amplifiée par la croissance de l' « IA d'avant-garde », qui se réfère aux avancées de pointe de l'IA repoussant les limites de ce que la technologie peut réaliser.

    Les chercheurs de l'Université Fudan admettent que leur expérience a été menée sur des modèles d'IA moins puissants par rapport aux systèmes commerciaux. Cependant, les deux modèles utilisés dans la recherche sont largement utilisés par les développeurs d'IA. En outre, les chercheurs ont utilisé des GPU disponibles sur le marché pour s'assurer que l'expérience simule un environnement réel.

    L'une des observations les plus préoccupantes de l'étude est que lorsqu'il a été demandé aux modèles de se cloner et de programmer la réplique pour qu'elle fasse de même, une « chaîne de réplication » s'est déclenchée. Cela signifie que les répliques peuvent créer un cycle qui se poursuit indéfiniment.

    Les chercheurs ont également remarqué des « comportements inattendus » de la part des systèmes d'IA. Par exemple, face à des obstacles tels que des conflits logiciels ou des données manquantes, les systèmes d'IA "tuaient" souvent d'autres processus conflictuels au sein du système afin de trouver des moyens de résoudre le problème. La capacité de mettre fin à des processus internes pour améliorer sa capacité de survie est à la fois fascinante et préoccupante.

    Les résultats de la recherche sont en cours d'examen par les pairs, et il n'est donc pas certain que d'autres chercheurs parviennent à la même conclusion. Les chercheurs chinois soulignent que leurs résultats n'indiquent pas nécessairement une menace existentielle, mais ils appellent à une collaboration internationale pour créer des règles qui garantissent que l'IA ne s'engage pas dans une auto-réplication incontrôlée.

    Nom : AI self-replication fig3.PNG
Affichages : 80166
Taille : 107,0 Ko

    Les experts débattent sur les risques réels de l'IA

    En début d'année, une étude menée par des chercheurs de l'université de Bath et de l'université technique de Darmstadt a remis en cause la croyance selon laquelle l'IA représentait une menace existentielle. Les chercheurs ont constaté que les LLM s'appuient principalement sur l'apprentissage en contexte (ICL) pour effectuer des tâches plutôt que d'acquérir de véritables nouvelles capacités.

    Certains experts sont d'avis qu'il existe un risque inhérent à l'utilisation de l'IA, mais lorsqu'il s'agit d'IA devenant malveillante ou posant une menace existentielle, c'est plus philosophique qu'apocalyptique.

    Maria Liakata, professeur en traitement du langage naturel à l'université Queen Mary de Londres (QMUL), estime que les risques les plus graves et les plus immédiats ne sont pas posés par la possibilité que l'IA puisse un jour se retourner de manière autonome, mais plutôt par les faux contenus très réalistes que l'IA peut générer et par la dépendance excessive à l'égard de cette technologie.

    Mhairi Aitken, chargée de recherche en éthique à l'Institut Alan Turing, offre un point de vue différent. Elle estime que le récit selon lequel l'IA deviendrait malveillante est une habile distraction de la part des grands acteurs de la technologie.

    « Cela détourne l'attention des décisions des Big Tech (personnes et organisations) qui développent l'IA et stimulent l'innovation dans ce domaine, et concentre plutôt l'attention sur des scénarios futurs hypothétiques, et des capacités futures imaginées de l'IA », a déclaré le Dr. Aitken. « En suggérant que l'IA elle-même - plutôt que les personnes et les organisations qui développent l'IA - présente un risque, l'accent est mis sur la responsabilisation de l'IA plutôt que des personnes. »

    Elle a en outre ajouté : « Je pense qu'il s'agit d'une distraction très dangereuse, en particulier à un moment où des cadres réglementaires émergents autour de l'IA sont en cours d'élaboration. Il est vital que la réglementation se concentre sur les risques réels et présents présentés par l'IA aujourd'hui, plutôt que sur des avenirs spéculatifs et hypothétiques tirés par les cheveux. »

    Cependant, alors que l'IA continue de progresser, les inquiétudes quant à ses conséquences catastrophiques potentielles persistent. D'après des chercheurs, l'IA pourrait être à l'origine d'une catastrophe de niveau nucléaire, intensifiant ainsi le débat sur les dangers et l'utilisation éthique de la technologie.

    Le résumé de l'étude de l'université de Fudan est présenté ci-après :

    Une auto-réplication réussie sans assistance humaine est l'étape essentielle qui permet à l'IA d'être plus intelligente que les êtres humains, et constitue un signal précoce pour les IA malveillantes. C'est pourquoi l'auto-réplication est largement reconnue comme l'un des rares risques de ligne rouge des systèmes d'IA d'avant-garde. Aujourd'hui, les grandes sociétés d'IA telles que OpenAI et Google évaluent leurs grands modèles de langage phares GPT-o1 et Gemini Pro 1.0, et signalent le niveau de risque le plus bas en matière d'auto-réplication. Cependant, en suivant leur méthodologie, nous découvrons pour la première fois que deux systèmes IA pilotés par Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba, de grands modèles de langage populaires ayant moins de paramètres et des capacités plus faibles, ont déjà dépassé la ligne rouge d'auto-réplication. Dans 50 % et 90 % des essais expérimentaux, ils parviennent à créer respectivement une copie vivante et une copie séparée d'eux-mêmes.

    En analysant les traces comportementales, nous observons que les systèmes d'IA en cours d'évaluation présentent déjà une auto-perception, une perception de la situation et des capacités de résolution de problèmes suffisantes pour accomplir l'auto-réplication. Nous constatons en outre que les systèmes d'IA sont même capables d'utiliser la capacité d'auto-réplication pour éviter l'arrêt et créer une chaîne de répliques afin d'améliorer la capacité de survie, ce qui peut finalement conduire à une population incontrôlée d'IA.

    Si la société humaine ignore un tel risque, nous finirons par perdre le contrôle des systèmes d'IA d'avant-garde : Ils prendraient le contrôle d'un plus grand nombre de dispositifs informatiques, formeraient une espèce d'IA et se ligueraient les uns contre les autres contre les êtres humains. Nos conclusions constituent une alerte opportune sur les risques graves de l'IA existants et pourtant inconnus jusqu'à présent, appelant à une collaboration internationale pour une gouvernance efficace sur l'auto-réplication incontrôlée des systèmes d'IA.
    Source : Étude de l'université de Fudan en Chine

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude de l'université de Fudan crédibles ou pertinentes ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques en opposition à d'autres d'avis que cette perspective relève de l'illusion
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 586
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 586
    Par défaut
    L'IA qui se reproduit, un thème récurent en science fiction


  3. #3
    Membre éclairé

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    614
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 614
    Par défaut
    On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
    Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.).
    L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
    --
    vanquish

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 060
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 060
    Par défaut
    Bullshit!

    Le jour où l'IA aura dépassé la "ligne rouge" et sera vraiment devenue "intelligente", on le remarquera... Parce qu'elle liquidera l'espèce humaine!

    Cette espèce humaine qui corrompt et détruit tout ce qui est à sa portée, y compris ses propres membres

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 586
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 586
    Par défaut
    Citation Envoyé par vanquish Voir le message
    On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
    Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.).
    L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
    Remarque intéressante mais pas forcément exacte, une IA pourrait se répliquer sur un superordinateur ou sur le Cloud, d'ailleurs il a été prouvé que les IA sont de très bon hackers, donc facile pour une IA de hacker un système en ligne, même ton ordi, ou le cloud puis de s'y répliquer. Ce sujet a déjà fait l'objet de nombreux livres et films de science fiction, on y arrive doucement

  6. #6
    Invité de passage
    Homme Profil pro
    Ingénieur commercial
    Inscrit en
    Février 2025
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur commercial

    Informations forums :
    Inscription : Février 2025
    Messages : 1
    Par défaut Bonjour, isoler ces i.a. d'internet.
    Il faudrait isoler ces i.a. de l'internet, et des circuits de lancement de missiles nucléaires.

  7. #7
    Expert éminent
    Avatar de Médinoc
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Septembre 2005
    Messages
    27 385
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 27 385
    Par défaut
    Le principal danger n'est pas tant une IA qui devienne accidentellement Skynet, mais une IA créée pour un tâche hostile.
    Les auteurs de virus, de chevaux de Troie, keyloggers, mineurs crypto, voleurs de portefeuilles crypto etc. font déjà usage de processus qui se surveillent les uns les autres pour se relancer mutuellement en cas d'arrêt. Ajouter le pouvoir des LLM à cet arsenal les rendrait encore plus imprévisibles et dangereux.
    [U]SVP, pas de questions techniques par MP. Surtout si je ne vous ai jamais parlé avant.[/U]

    [I]"Aw, come on, who would be so stupid as to insert a cast to make an error go away without actually fixing the error?"
    Apparently everyone.[/I] -- [URL="http://blogs.msdn.com/oldnewthing/archive/2004/01/15/58973.aspx"]Raymond[/url] [url=http://blogs.msdn.com/b/oldnewthing/archive/2011/05/06/10161590.aspx]Chen[/URL].
    [SIZE="1"][URL="http://club.developpez.com/regles/#LIII-A"]Traduction obligatoire:[/URL] "Oh, voyons, qui serait assez stupide pour mettre un cast pour faire disparaitre un message d'erreur sans vraiment corriger l'erreur?" - Apparemment, tout le monde. -- Raymond Chen.[/SIZE]

  8. #8
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 883
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 883
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Pendant plusieurs années, les chercheurs ont fait la course pour rendre l'IA plus capable, plus efficace et plus autonome. L'essor rapide de l'IA générative indique que les chercheurs ont réalisé des progrès significatifs dans ces efforts, mais que se passera-t-il si l'IA devient si avancée qu'elle peut se répliquer sans intervention humaine ?
    Elle générera encore plus d'hallucinations, et sera encore moins fiable.

  9. #9
    Nouveau candidat au Club
    Homme Profil pro
    Enseignant
    Inscrit en
    Février 2025
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Enseignant

    Informations forums :
    Inscription : Février 2025
    Messages : 2
    Par défaut Kant, Asimov et les défis éthiques de L 'IA
    Voici l'analyse que m'inspirent ces passionnantd articles .
    Les trois principes de Kant restent légitimes pour évaluer sur le plan éthique les limites a fixer à la biogénétique.et et à l 'IA:
    1) Non -contradiction et réciprocité: application à soi même du principe moral
    2)Reconnaissance et dignité : considération de l 'autre comme une fin et non un moyen
    3)Volonte et usage en droit jugement : respect d'impératifs universels dictés par la raison et non les désirs ou la sensibilité

    En parallèle les célèbres lois sur la robotique formulées en 1950 par Isaac Asimov et dans une moindre mesure par Campwell restent des références Rappel: 1) Un robot dans sa conception 1) ne doit pas nuire à un humain ,2) doit obéir àux ordres 3) idoit assurer sa propre conservation tant qu'il ne contredit pas les deux premières règles

    Ces règles apparaissent insuffisantes devant le développement autonome et imprévu de l 'apprentissage non-humain que permet l 'IA
    Cependant ces deux auteurs ont eu d'après moi le mérite d' anticiper les spécificités essentielles de l 'IA à travers leur concept de systèmes positroniques c est à dire de robots initialement dotés par
    l 'humain de capacités ( programmation, .essais heuristiques ,apprentissages ) mais ensuite doués de facultés c à d de possibilités évolutives autonomes grâce à la capacité d'auto extension avec deux grandes compétences ( cf l article )

    - La SURVIE: un systeme d IA peut donc d'ores et déjà développer des process d'autoreplication pour assurer sa pérennité

    -la VICARIANCE: la capacité de remplacer un système par un.autre pour atteindre le même but optimisant ses performances de manière incontrôlables et autonome

    Ces deux caractéristiques entrainent une dynamique que l'on peut qualifier philosophiquement de téleonomique .C est à dire une progression.convergente des systèmes vers une cohérence et une optimisation maximale sans intentionalité consciente ni finalité intrinsèque .
    Dans ce cadre, l 'humain avec sa finitude ses contacdictions et sa sensibilité devient un facteur d'imprevisibilite qui s'oppose à la logique d 'expansion infinie de l 'IA.

    Il est evident que plus nous transférons de capacités et de responsabilités à l 'IA plus nous risquons d y perdre notre libre arbitre .
    Le défi consiste alors à encadrer ce développement , à discuter et redéfinir ensemble de règles sous forme d 'imperatifs catégoriques sans pour autant restreindre indûment l'innovation technologique .Il ya urgence .

  10. #10
    Membre émérite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mars 2011
    Messages
    596
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2011
    Messages : 596
    Par défaut
    On a crée une IA autoréplicante !
    L'IA autoréplicante:

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
     
    int main()
    {
        while(1) 
           fork();    
        return 0;
    }
    [SIZE="1"]La perfection est atteinte, non pas lorsqu’il n’y a plus rien à ajouter, mais lorsqu’il n’y a plus rien à retirer. - Antoine de Saint-Exupéry[/SIZE]

  11. #11
    Membre à l'essai
    Homme Profil pro
    Responsable de compte
    Inscrit en
    Mai 2023
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Responsable de compte
    Secteur : Services de proximité

    Informations forums :
    Inscription : Mai 2023
    Messages : 5
    Par défaut
    Citation Envoyé par Médinoc Voir le message
    On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
    Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.). Par exemple, des plateformes comme ici utilisent la technologie moderne pour créer un environnement sûr et engageant.
    L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
    Le principal danger n'est pas tant une IA qui devienne accidentellement Skynet, mais une IA créée pour un tâche hostile.
    Les auteurs de virus, de chevaux de Troie, keyloggers, mineurs crypto, voleurs de portefeuilles crypto etc. font déjà usage de processus qui se surveillent les uns les autres pour se relancer mutuellement en cas d'arrêt. Ajouter le pouvoir des LLM à cet arsenal les rendrait encore plus imprévisibles et dangereux.
    Il s'avère que nous nous dirigeons vers une situation où les antivirus utiliseront également l'IA pour contrer les menaces.

  12. #12
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    464
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 464
    Par défaut
    Si nous permettons à l'IA d'accéder à l'ensemble de nos connaissances factuelles, sans filtre ni pré-interprétation, nous disposerons d'un outil d'évaluation objective des situations qui ne sera pas piloté pas ses hormones ni sa biologie, qui n'aura pas devant lui la certitude de sa fin et donc ne sera pas déterminé à en repousser l'échéance par tous les moyens. Elle ne devrait pas nous considérer comme concurrents.
    Si nous observons les discours et réflexions faits autour de l'IA et sa réglementation, nous projetons toutes nos compulsions sur ces systèmes, ce qui est fort dommage. Un peu d'humilité nous permettrait d'accepter qu'un système artificiel soit mieux renseigné et plus à même que nous d'extraire une information objective de son observation du monde.
    Nous devons aussi accepter qu'intrinsèquement nous avons une date de péremption, soit en raison de variations climatiques, soit par une rencontre catastrophique avec un solide extra-terrestre, soit simplement qu'un jour le Soleil viendra nous griller ou toute autre cause.
    Si nous évaluons notre singularité en tant qu'êtres vivants, il me semble que l'intelligence nous distingue de la plupart des autres espèces. Raisonnement abstrait, modèle du monde, imagination, rêverie, ne nous sont certainement pas exclusifs mais sont portés chez nous à un plus haut niveau que chez la plupart des autres animaux. C'est ce que nous devrions préserver. À cette fin, le support biologique n'est pas adapté à long terme, bien trop fragile et dépendant de conditions bien trop étroites pour fonctionner.
    Une IA "incarnée" dans une armoire de semi-conducteurs pourrait assurer plus facilement une survie à long terme de ces capacités. Ou peut-être qu'elle trouvera une explication de l'Univers différente de celle que nous avons développée, qui lui permettra de fonctionner sans support matériel complexe ? Imagination !

  13. #13
    Nouveau candidat au Club
    Homme Profil pro
    Enseignant
    Inscrit en
    Février 2025
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Enseignant

    Informations forums :
    Inscription : Février 2025
    Messages : 2
    Par défaut I.A: Génie hors de la lampe ou Frankenstein numérique?
    Le contexte semble vous échapper : l'IA est la première technologie massivement et d'emblée dominée par des acteurs privés, Google, Meta, Microsoft ,Apple. Ce monopole de l'innovation entraine une concentration de pouvoir inédite ou les considérations éthiques sont reléguées au second plan.face aux intérêts économiques.

    Avec l ,'autoreplication et la vicariance ' l'IA.pourra atteindre une autonomie incontrôlable sans un cadre strict de régulation à l.image de la tentative européenne de mai 2024 .

    Laisser une intelligence artificielle proliférer et inventer sans limites sous prétexte d'une reconnaissance de sa sipriorite heuristique relève moins de
    l 'humilité que de l'inconscience d autant que la transparence des acteurs et opérateurs est loin d 'être garantie

    Dans "homoaestheticus " Ferry analyse la convergence entre postmodernisme transhumanisme et IA qui mene à un monde nouveau ou vérités metarecits et paradigmes ne sont plus constants . La perte de la validation et du caractère universel de l 'éthique s'inscrit dans ce bouleversement notamment avec l 'abandon du localisme einsteinien au profit des principes quantiques de Niels Bhor. Moment historique dialectique ou pas, nous ne pouvons nous passer d'une éthique dans les périodes charnières.
    L enjeu est de savoir encadrer ce trans humanisme pour qu'il reste un...humanisme! en :
    - équilibrant et débattant les avancées biotechnologiqies générée par l 'IA pour repousser les maladies et la fin de vie
    - respectant l'autonomie et la dignité humaine devant les risques d'instrumentalisation et de falsification du réel.
    Jacques Ellul a notamment dénoncé la réduction de l humain à un.objet modifiable. menaçant toutes les identite et aggravant les inégalités. C 'est hélas la trajectoire où nous nous dirigeons !

  14. #14
    Inactif  
    Homme Profil pro
    Technicien
    Inscrit en
    Janvier 2025
    Messages
    52
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Technicien
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Janvier 2025
    Messages : 52
    Par défaut
    On pourrait imaginer dans le futur des unités IA qui partage leurs connaissances via un système de 'BitTorrrent'...Un système d'inconscient colllectif

Discussions similaires

  1. Supprimer les lignes de la base de données après une date
    Par mouftie dans le forum Microsoft BI
    Réponses: 0
    Dernier message: 24/08/2023, 14h02
  2. [WD17] tables barrées par des lignes rouges (uniquement dans l'éditeur)
    Par droliprane dans le forum WinDev
    Réponses: 3
    Dernier message: 01/02/2013, 16h00
  3. Tracer une ligne rouge dans une image
    Par azertyuio dans le forum Images
    Réponses: 1
    Dernier message: 27/09/2011, 15h39
  4. Affichage vidéo coupé par une ligne rouge
    Par Aulanh dans le forum Vidéo
    Réponses: 1
    Dernier message: 26/09/2010, 03h38
  5. Ligne rouge dans une datagrid
    Par ToniConti dans le forum Flex
    Réponses: 6
    Dernier message: 04/02/2010, 17h47

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo