IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #141
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 117
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 117
    Par défaut L’illusion du risque existentiel de l’IA : pourquoi faut-il arrêter de craindre une IA surpuissante
    L’illusion du risque existentiel de l’IA : pourquoi faut-il arrêter de craindre une IA surpuissante et malveillante,
    selon Google Research et des experts en IA

    Le texte analyse le risque que l’humanité soit anéantie par une IA superintelligente. Il montre que ce risque est très faible et qu’il se base sur des suppositions incertaines. Il critique le fait de se focaliser sur ce risque, qui peut occulter les problèmes plus réels et immédiats que crée l’IA, comme la surveillance, la désinformation, la manipulation, l’utilisation militaire et l’inadaptation économique. Il recommande de s’occuper de ces problèmes actuels, qui peuvent aussi aider à prévenir les risques existentiels à long terme. Il cite des exemples d’études et de solutions possibles pour réduire les dommages causés par l’IA.

    Le 30 mai, le Center for AI Safety, un groupe de recherche de San Francisco, a diffusé un bref communiqué signé par quelques-uns des meilleurs spécialistes du domaine, déclarant que « réduire le risque d’extinction par l’IA devrait être une priorité mondiale au même niveau que d’autres risques pour la société, comme les pandémies et les guerres nucléaires ».

    Nom : risk.jpg
Affichages : 5706
Taille : 49,3 Ko

    L'intelligence artificielle pourrait conduire à l'extinction de l'humanité

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire. L'intelligence artificielle pourrait conduire à l'extinction de l'humanité, ont averti des experts, dont les dirigeants d'OpenAI et de Google Deepmind. Des dizaines de personnes ont soutenu une déclaration publiée sur la page web du Centre for AI Safety. « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires », peut-on y lire.

    Sam Altman, directeur général d'OpenAI, fabricant de ChatGPT, Demis Hassabis, directeur général de Google DeepMind, et Dario Amodei, d'Anthropic, ont tous apporté leur soutien à cette idée. Mais d'autres estiment que les craintes sont exagérées. Le site web du Centre for AI Safety (Centre pour la sécurité de l'IA) propose un certain nombre de scénarios catastrophes possibles :

    • les IA pourraient être militarisées - par exemple, les outils de découverte de médicaments pourraient être utilisés pour fabriquer des armes chimiques ;
    • La désinformation générée par l'IA pourrait déstabiliser la société et « saper la prise de décision collective » ;
    • Le pouvoir de l'IA pourrait être de plus en plus concentré dans un nombre de plus en plus restreint de mains, ce qui permettrait aux « régimes d'imposer des valeurs étroites par une surveillance omniprésente et une censure oppressive » ;
    • L'enchevêtrement, où les humains deviennent dépendants de l'IA, « semblable au scénario dépeint dans le film Wall-E ».

    Le Dr Geoffrey Hinton, qui avait déjà mis en garde contre les risques liés à l'IA superintelligente, a également soutenu l'appel du Centre pour la sécurité de l'IA. Yoshua Bengio, professeur d'informatique à l'Université de Montréal, l'a également signé. Hinton, Bengio et Yann LeCun, professeur à l'université de New York, sont souvent décrits comme les « parrains de l'IA » pour leurs travaux novateurs dans ce domaine, qui leur ont valu de remporter conjointement le prix Turing 2018, qui récompense les contributions exceptionnelles dans le domaine de l'informatique.

    Mais le professeur LeCun, qui travaille également chez Meta, a déclaré que ces avertissements apocalyptiques étaient exagérés, tweetant que « la réaction la plus courante des chercheurs en IA à ces prophéties de malheur est de faire la grimace ».

    Pourquoi faut-il se préoccuper davantage de l’IA imparfaite que de l’IA surpuissante

    Se concentrer sur la possibilité qu’une superintelligence malintentionnée extermine l’humanité peut être nuisible. Elle pourrait distraire les régulateurs, le public et les autres chercheurs en IA des travaux visant à diminuer des risques plus urgents, comme la surveillance massive, la désinformation et la manipulation, l’utilisation militaire abusive de l’IA et l’incompatibilité de notre paradigme économique actuel avec un monde où l’IA a de plus en plus d’importance.

    En se focalisant sur ces problèmes actuels, il est possible de concilier les objectifs de multiples parties prenantes et de contrer les risques existentiels à long terme. Il y a toutes sortes de manières dont les systèmes d’IA pourraient accidentellement provoquer ou être impliqués dans la mort de nombreuses personnes, voire de millions. Par exemple, si l’IA était intégrée dans une technologie de frappe nucléaire autonome, un comportement imprévu de la part de l’IA pourrait avoir des conséquences dramatiques.

    Cependant, ces scénarios ne doivent pas forcément impliquer une IA superintelligente ; en fait, ils sont plus probables avec des systèmes d’IA défectueux et pas si intelligents que cela. (Par exemple, la machine du Jugement dernier dans Dr. Strangelove était aussi simple que possible : un ensemble de circonstances clairement définies, dans lesquelles les bombes doivent exploser, est programmé dans une banque de mémoire à bande). Réduire les problèmes causés par une IA défectueuse fait déjà l’objet d’un grand nombre de recherches sur l’IA.

    Se concentrer sur les risques réels et actuels de l’IA plutôt que sur l’IA superintelligente malveillante est nécessaire

    Cependant, une discussion sur l’IA superintelligente malintentionnée pourrait avoir au moins un avantage : elle sensibilise les décideurs politiques et le grand public à la sécurité de l’IA - même si l’on peut redouter que l’utilisation d’une question aussi émotionnelle de cette manière leur soit préjudiciable. En effet, l’extinction causée par une IA malveillante est un scénario très peu probable qui se base sur des hypothèses douteuses concernant l’évolution à long terme de la vie, de l’intelligence, de la technologie et de la société.

    C’est aussi un scénario peu probable en raison des nombreuses limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi. Il y a de nombreux points de contrôle naturels où les chercheurs peuvent aider à réduire le risque existentiel de l’IA en s’occupant de défis concrets et urgents sans faire du risque existentiel une priorité mondiale explicite.

    Notre première préoccupation devrait être d’éviter les souffrances massives et inutiles que nous savons possibles avec les technologies actuelles et celles qui arriveront bientôt. Des études rigoureuses sur les dommages réels et actuels causés par l’IA ont été publiées et des solutions potentielles ont été suggérées. Par exemple, la technologie de reconnaissance faciale peut être utilisée pour pister les individus et restreindre les libertés fondamentales, et la technologie de génération d’images peut être utilisée pour créer de fausses images ou vidéos d’événements qui n’ont jamais eu lieu.

    Pour résoudre ces problèmes, des appels à l’action ont été lancés, comme la déclaration de Montréal sur l’IA responsable et les recommandations des Sentinelles du Forum économique mondial sur l’IA générative responsable. Nous pouvons et devons anticiper les développements de l’IA à court terme et penser à leurs effets nuisibles potentiels. Mais plus nous nous projetons dans le futur de ce domaine qui avance rapidement, plus les inconnues se multiplient de manière exponentielle, ce qui rend la planification autour de ces prévisions impraticables.

    Il est plus constructif de mettre en avant les défis réels et de discuter des solutions proposées plutôt que d’orienter le discours public vers des risques existentiels hypothétiques.

    Quelles seraient les conditions pour que la perspective d’une extinction par une IA malveillante passe de la menace purement hypothétique à la menace réaliste qui mérite d’être une priorité mondiale ? Les dommages et même les morts massives dus à un mauvais usage de l’IA (non superintelligente) sont une possibilité réelle et l’extinction par une IA superintelligente rebelle n’est pas une impossibilité. Nous pensons cependant que cette dernière éventualité est peu probable, pour des raisons qui deviendront évidentes lors de l’examen des voies potentielles d’extinction par une IA superintelligente malveillante.

    Pour cela, nous devons d’abord admettre que la superintelligence est possible, même si ce point de vue est loin de faire consensus au sein de la communauté de l’IA. La définition même de la “superintelligence” est un exercice difficile, car l’idée que l’intelligence humaine puisse être entièrement mesurée en termes de performances sur une série de tâches semble trop simpliste ; après tout, il existe de nombreuses formes différentes d’intelligence.

    On peut dire sans se tromper que l’IA actuelle n’est pas superintelligente, bien qu’elle ait déjà surpassé les performances humaines dans de nombreuses tâches et qu’elle soit susceptible de le faire dans de nombreuses autres dans un avenir proche. Les modèles d’IA actuels sont très impressionnants et on peut dire qu’ils possèdent une forme d’intelligence et de compréhension du monde. Ils sont aussi facilement dupés, “hallucinent” des faussetés et ne réussissent pas toujours à faire des déductions logiques essentielles, comme les déductions causales.

    Néanmoins, pour les besoins de l’argumentation, supposons que la vitesse impressionnante à laquelle l’IA progresse permette de combler ces lacunes et conduise, à un moment donné dans le futur, à l’apparition d’une superintelligence générale, c’est-à-dire d’une IA généralement meilleure que les humains dans presque toutes les tâches cognitives. Même dans ce cas, nous soulignons un certain nombre de points de contrôle qui existent le long de tout chemin potentiel vers l’extinction par une IA malveillante. Ces points de contrôle sont des signaux d’alerte qui permettraient d’identifier le moment où le risque hypothétique devient plus urgent et où il peut être nécessaire d’en faire une priorité.

    Comment l’intelligence supérieure n’entraîne-t-elle pas l’extinction des espèces moins intelligentes

    Les discussions sur le risque existentiel de l’IA laissent souvent penser qu’une IA superintelligente provoquerait notre extinction, car les espèces plus intelligentes provoquent « naturellement » l’extinction des espèces moins intelligentes. Il est vrai que dans l’histoire de la Terre, il existe des exemples où une espèce a provoqué l’extinction d’une autre espèce moins intelligente ; les extinctions causées par l’homme sont le plus souvent mentionnées. (Nous ne connaissons d’ailleurs aucun exemple non humain).

    Cependant, l’intelligence supérieure n’est pas le facteur déterminant dans de tels événements ; il y a eu de nombreux cas où des espèces moins intelligentes ont provoqué l’extinction d’espèces plus intelligentes. Par exemple, à la fin du Dévonien, la diversification rapide des plantes et les modifications de l’atmosphère qu’elle a entraînées seraient à l’origine de l’une des extinctions massives de la Terre, qui a entraîné la disparition des trois quarts des espèces, dont beaucoup étaient probablement plus intelligentes que les plantes. Plus généralement, l’extinction inter-espèces n’est pas le résultat d’une lutte concurrentielle pour la domination entre deux espèces.

    L’idée que les espèces forment une hiérarchie ou une « grande chaîne de l’être » est inexacte ; en réalité, les relations entre les espèces sont complexes et forment une toile ou un graphique d’interdépendance mutuelle sans « haut » ni « bas ». Lorsque les biologistes parlent de « dominance » dans les interactions animales, ils appliquent généralement des définitions qui se concentrent sur les relations entre individus de la même espèce. L’IA n’est pas en concurrence avec les êtres humains pour les ressources.

    Comment l’IA dépend-elle de l’homme et pourquoi ne chercherait-elle pas à nous éliminer

    Au contraire, nous fournissons aux systèmes d’IA leurs ressources, depuis l’énergie et les matières premières jusqu’aux puces électroniques et à l’infrastructure de réseau. Sans l’apport de l’homme, les systèmes d’IA sont incapables de se maintenir en bon état. Si l’extraction minière, le transport maritime mondial et le commerce des métaux précieux, la construction et l’entretien des centrales électriques, les usines de fabrication de puces, la construction de centres de données et la pose de câbles Internet étaient tous entièrement automatisés - y compris toute la logistique et les chaînes d’approvisionnement impliquées - alors peut-être qu’une IA superintelligente pourrait décider que les êtres humains sont superflus ou qu’ils épuisent les ressources, et décider de nous tuer.

    Pour l’instant, l’IA dépend de nous, et une superintelligence admettrait vraisemblablement ce fait et chercherait à protéger l’humanité puisque nous sommes aussi vitaux à l’existence de l’IA que les plantes productrices d’oxygène le sont à la nôtre. L’évolution du mutualisme entre l’IA et l’homme est donc beaucoup plus probable que la concurrence.

    En outre, le chemin vers une économie entièrement automatisée - si tel est l’objectif - sera long, chaque étape majeure servant de point de contrôle naturel pour l’intervention humaine. Une telle automatisation nécessiterait des avancées majeures dans le domaine du matériel et des logiciels. Or, la robotique ne se développe pas à un rythme proche de celui de l’IA - et il est peu probable qu’elle le fasse, puisque les progrès accélérés de l’IA sont liés au monde numérique, où la puissance de calcul croît de manière exponentielle, où la copie est presque instantanée et où l’optimisation est automatisée. »

    Pourquoi s’alarmer du risque existentiel de l’IA superintelligente serait contre-productif

    La plupart des chercheurs qui s’inquiètent du risque existentiel de l’IA sont probablement animés par de réelles préoccupations et un désir sincère de réduire les risques liés à l’IA en général. Ils n’ont simplement pas pris en compte les conséquences imprévues de leurs déclarations publiques. Il est naïf de penser qu’il est possible de s’alarmer publiquement au sujet d’une IA superintelligente malveillante qui pourrait exterminer l’espèce humaine sans détourner les chercheurs et les politiciens d’autres questions plus pressantes en matière d’éthique et de sécurité de l’IA.

    La nature du risque existentiel de l’IA superintelligente en tant que préoccupation est qu’il est si grave en théorie qu’il pourrait avoir des effets de distorsion sur la perception du public, le financement de la recherche sur l’IA, les priorités des entreprises et la réglementation gouvernementale. Dans l’état actuel des choses, l’IA autonome superintelligente ne représente pas de risque existentiel manifeste et immédiat pour l’homme.

    L’IA pourrait causer de réels dommages, mais la superintelligence n’est ni nécessaire ni suffisante pour que ce soit le cas. Il existe des voies hypothétiques par lesquelles une IA superintelligente pourrait provoquer l’extinction de l’humanité à l’avenir, mais elles sont spéculatives et vont bien au-delà de l’état actuel de la science, de la technologie ou de l’économie physique de notre planète.

    Source : Noema

    Et vous ?

    À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?

    Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?

    Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?

    Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?

    Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?

    Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?

    Voir aussi :

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

    L'IA représente-t-elle une menace pour l'humanité ? Non, pour un philosophe, qui estime que l'IA n'est qu'une pseudo-intelligence
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #142
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 830
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 830
    Par défaut
    Citation Envoyé par Bruno Voir le message
    À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?

    Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?

    Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?

    Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?

    Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?

    Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?
    Les questions de Noema sont bêtes et dommageables, car elles nous éloignent du cœur du problème: Il n'y a que des enfants (et James Cameron) pour penser à Terminator quand on parle d'IA générative.

    Les questions de fond sont plutôt:
    • À qui appartiennent et profitent ces IA?
    • Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?



    Et une fois ces questions répondues, il faut légiférer.

  3. #143
    Expert confirmé
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 759
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 759
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Les questions de fond sont plutôt:
    • À qui appartiennent et profitent ces IA?
    • Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?
    Rajoute
    Comment se protéger des IA en prouvant que ce n'est pas toi ?

    En gros, JDG vient de découvrir 1 chaîne YouTube qui le fait chanter des chansons (avec Antoine Daniel) en utilisant 1 IA.
    Mais l'IA permet *simplement* d'imiter/ remplacer (des voix, des visages, …) que les arnaques/ phrases hors contexte/ … peuvent devenir légion.

    Imagine les attaques de "spoofing" ? (comme Terminator avec la mère de John )

    Et je crois que c'est 1 peu le but de la grève des scénaristes à Hollywood actuellement : protéger leur métier contre les IA.

  4. #144
    Invité de passage
    Homme Profil pro
    Étudiant
    Inscrit en
    Avril 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Avril 2023
    Messages : 1
    Par défaut Intelligence ou automatisme
    L'automatisme va oui écraser un certain nombre d'entre nous sur la terre puisque l'on nous amène à désigner l'automatisation signifiante pour interpeller l'intelligence( mammifère) encore pleine de nouveaux horizons

  5. #145
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 203
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 203
    Par défaut Il y a 5 % de chances que l’IA super intelligente provoque l’extinction de l’homme, d’après une enquête
    Il y a 5 % de chances que l’IA super intelligente provoque l’extinction de l’homme, d’après certains scientifiques
    En opposition à d’autres d’avis que cette perspective relève de l’illusion

    De nombreux chercheurs en intelligence artificielle considèrent que le développement futur d'une IA super intelligence a un risque non négligeable de provoquer l'extinction de l'humanité. Dans les chiffres, près de 58 % des chercheurs sont d’avis qu’il y a 5 % de chances que cette perspective se réalise. Néanmoins, les mêmes données soulignent le fait qu’une bonne partie des intervenants de cette filière est en désaccord avec la perspective que l’IA provoque l’extinction de l’homme.

    Ces résultats proviennent d'une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié des travaux dans le cadre de six des principales conférences sur l'IA. Le sondage demandait aux participants de faire part de leurs réflexions sur les échéances possibles des futures étapes technologiques de l'IA, ainsi que sur les conséquences sociétales, bonnes ou mauvaises, de ces réalisations.

    Nom : 1.png
Affichages : 4856
Taille : 119,2 Ko

    Par rapport aux réponses de la version 2022 de la même enquête, de nombreux chercheurs en intelligence artificielle ont prédit que l'IA atteindrait certaines étapes plus tôt que prévu. Les chercheurs interrogés prédisent qu'au cours de la prochaine décennie, les systèmes d'IA auront au moins 50 % de chances de réussir la plupart des 39 échantillons de tâches listés dans l’enquête : écriture de nouvelles chansons, codage d'un site complet de traitement des paiements à partir de zéro, etc. D'autres tâches, telles que l'installation physique du câblage électrique dans une nouvelle maison ou la résolution de mystères mathématiques de longue date, devraient prendre plus de temps.

    Le développement possible d'une intelligence artificielle capable de surpasser les humains dans toutes les tâches a 50 % de chances de se produire d'ici 2047, tandis que la possibilité que tous les emplois humains deviennent entièrement automatisables a 50 % de chances de se produire d'ici 2116. Ces estimations sont en avance de 13 ans et de 48 ans par rapport à celles de l'enquête de l'année dernière.

    Il existe en sus des inquiétudes plus immédiates non liées à l’éventualité de l’atteinte du stade d'IA super intelligente. Une grande majorité de chercheurs en IA - 70 % ou plus - ont qualifié de très préoccupants ou d'extrêmement préoccupants les scénarios alimentés par l'IA impliquant des deepfakes, la manipulation de l'opinion publique, des armes artificielles, le contrôle autoritaire des populations et l'aggravation de l'inégalité économique. L’enquête met en sus en avant les dangers de l'IA qui contribue à la désinformation sur des questions existentielles telles que le changement climatique ou la détérioration de la gouvernance démocratique.


    Le responsable de l’intelligence artificielle de Meta rejette l’idée que l’intelligence artificielle va s’emparer du monde

    Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.

    En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.


    « Les développements en cours montrent qu’il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en intelligence artificielle n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'intelligence artificielle n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.

    Yann Lecun rejette en sus l'idée que les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », souligne LeCun.

    Source : enquête

    Et vous ?

    Quel est votre avis sur le débat sur les dangers potentiels de l'IA ?

    Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #146
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Bretagne
    Inscrit en
    Septembre 2005
    Messages
    1 042
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Bretagne
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 042
    Par défaut
    Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?


  7. #147
    Membre éclairé
    Inscrit en
    Mai 2006
    Messages
    376
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 376
    Par défaut
    Citation Envoyé par der§en Voir le message
    Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?

    Oui l'IA a énormément fait baisser la probabilité que ça arrive quand même avant elle était bien plus élevée.

  8. #148
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 651
    Par défaut L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA
    L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard, car les systèmes pouvant s'auto-améliorer peuvent présenter des risques

    Eric Schmidt, ancien PDG de Google, a tiré la sonnette d'alarme concernant les progrès rapides de l'intelligence artificielle (IA), avertissant que les systèmes capables de s'améliorer par eux-mêmes pourraient présenter des risques imprévus. M. Schmidt a laissé entendre qu'à mesure que l'IA évolue, il pourrait arriver un moment où l'humanité devrait envisager de « débrancher » ces systèmes avant qu'ils ne deviennent incontrôlables. Ses commentaires interviennent alors que la course à l'IA s'accélère, les entreprises repoussant les limites de l'innovation en dépit d'une surveillance réglementaire limitée.

    Ces préoccupations de l'ancien PDG de Google sont partagées par de nombreux chercheurs en IA qui considèrent qu'il y a 5 % de chance que l'IA super intelligente provoque l'extinction de l'humanité. En effet, d'après une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié leurs travaux dans six des principales conférences sur l'IA, près de 58 % sont d'avis que cette perspective risque de se réaliser.

    Dans une récente interview accordée au réseau ABC, Eric Schmidt a souligné à la fois le potentiel impressionnant et les dangers périlleux du développement de l'IA. Tout en célébrant les réalisations dans ce domaine, il a mis en avant les risques que les ordinateurs atteignent un stade où ils fonctionnent de manière autonome et prennent des décisions sans intervention humaine.


    La montée de l'IA autonome

    Eric Schmidt a prévenu que la capacité des systèmes d'IA à s'améliorer eux-mêmes pourrait être plus proche que beaucoup ne le pensent, et qu'elle pourrait arriver dans les prochaines années. Il a décrit un avenir où ces systèmes ne se contenteront pas de mener leurs propres recherches, mais posséderont également l'intelligence d'êtres humains très instruits.

    Les implications de telles avancées sont vastes, M. Schmidt comparant l'impact à la présence d'un polymathe dans la poche de chaque individu. Toutefois, il se demande si la société est prête à gérer les conséquences de l'octroi d'un tel pouvoir à tout le monde.

    En théorie, a suggéré Eric Schmidt, quelqu'un doit toujours avoir la possibilité de débrancher ces systèmes. Toutefois, il a également reconnu que l'IA pouvait contrer les efforts déployés pour l'arrêter, soulignant ainsi la nécessité de mettre en place des mesures de protection au fur et à mesure que la technologie évolue.

    Concurrence mondiale et lacunes réglementaires

    La course à la domination de l'IA s'intensifie, Eric Schmidt notant que la Chine a fait des progrès remarquables ces derniers mois, rattrapant les capacités américaines d'une manière qu'il juge surprenante. M. Schmidt a souligné l'importance pour les États-Unis de conserver une position de leader dans le développement de l'IA, en plaidant pour une augmentation du financement, du matériel et de l'expertise afin de garantir que les nations occidentales restent en tête.

    Au niveau national, cependant, la réglementation reste en retrait par rapport à l'innovation. Les efforts visant à établir des lignes directrices ont échoué, laissant les entreprises technologiques foncer sans un cadre cohérent. Eric Schmidt a prévenu qu'en l'absence d'une surveillance adéquate, les risques associés à l'IA pourraient s'intensifier, en particulier à mesure que les systèmes d'IA générative deviennent plus avancés.

    Un appel pour une police de l'IA

    Pour atténuer les risques potentiels, Eric Schmidt a proposé une approche à deux systèmes. Il a suggéré de créer un système d'IA secondaire conçu spécifiquement pour surveiller et réguler les actions du premier. Selon lui, les humains ne peuvent à eux seuls contrôler efficacement l'IA, mais les systèmes d'IA pourraient être capables de se surveiller mutuellement.

    Si Eric Schmidt reste optimiste quant au pouvoir de transformation de l'IA, ses avertissements soulignent l'urgence de relever les défis éthiques et réglementaires posés par cette technologie en évolution rapide. Alors que la course se poursuit, l'équilibre entre l'innovation et la prudence pourrait déterminer l'avenir du rôle de l'IA dans la société.

    En novembre dernier, l'ex-dirigeant de Google a notamment mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Eric Schmidt a prévenu que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes, soulignant que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que la position de M. Eric Schmidt est cohérente ou pertinente ?

    Voir aussi :

    Eric Schmidt estime qu'on devrait développer l'IA aussi rapidement que possible, car son potentiel est très important, par exemple un médecin IA ou un tuteur IA

    L'ancien PDG de Google, Eric Schmidt, s'exprime sur l'IA : "elle est sous-estimée et les entreprises vont changer grâce à elle"

    L'ancien PDG de Google, Eric Schmidt, estime que nous devrions nous lancer à fond dans la construction de centres de données d'IA, car « de toute façon, nous n'atteindrons jamais nos objectifs climatiques »

    L'ancien PDG de Google estime qu'il n'y a pas de mal à ce que les entreprises spécialisées dans l'IA volent des contenus : « vous pourrez nettoyer le gâchis plus tard avec de l'argent et une armée d'avocats »
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #149
    Membre confirmé

    Homme Profil pro
    Mâle reproducteur chez Amazon
    Inscrit en
    Mars 2006
    Messages
    208
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Mâle reproducteur chez Amazon

    Informations forums :
    Inscription : Mars 2006
    Messages : 208

  10. #150
    Membre très actif
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    415
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 56
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 415
    Par défaut
    A quand les IA borderlines et / ou schizophrènes ?

  11. #151
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 303
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 303
    Par défaut L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt ignorer le contrôle humain
    L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt ignorer le contrôle humain : "Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter"

    L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.

    Fin 2024, Eric Schmidt, ancien PDG de Google, a tiré la sonnette d'alarme concernant les progrès rapides de l'intelligence artificielle (IA), avertissant que les systèmes capables de s'améliorer par eux-mêmes pourraient présenter des risques imprévus. Il avait alors laissé entendre qu'à mesure que l'IA évolue, il pourrait arriver un moment où l'humanité devrait envisager de "débrancher" ces systèmes avant qu'ils ne deviennent incontrôlables.

    Eric Emerson Schmidt est un homme d'affaires américain, ancien ingénieur informaticien, PDG de Google de 2001 à 2011 et président exécutif de la société de 2011 à 2015, président exécutif de la société mère Alphabet Inc. de 2015 à 2017, et conseiller technique d'Alphabet de 2017 à 2020. Depuis 2025, il est PDG de Relativity Space, une entreprise de fabrication aérospatiale. En 2025, il est la 54e personne la plus riche du monde selon l'indice Bloomberg Billionaires Index, avec une valeur nette estimée à 32,4 milliards de dollars.

    Plus récemment, l'ancien PDG de Google a affirmé ces propos et prévenu que l'IA progressait si rapidement qu'elle pourrait bientôt ne plus avoir besoin de l'aide de l'homme pour évoluer. S'exprimant lors d'un événement organisé par le Special Competitive Studies Project, un groupe de réflexion qu'il a fondé, Schmidt a décrit la manière dont les systèmes d'intelligence artificielle (IA) commençaient à fonctionner de manière autonome, à apprendre, à s'améliorer et même à planifier sans l'aide de l'homme.

    "Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter", a-t-il déclaré. Schmidt a qualifié ce processus d'"auto-amélioration récursive" : l'IA génère des hypothèses, les teste dans des laboratoires robotisés et utilise les résultats pour s'améliorer, le tout sans intervention humaine.


    Eric Schmidt a également prédit un changement majeur sur le marché de l'emploi. Il a déclaré que d'ici un an, l'IA remplacerait probablement "la grande majorité des programmeurs" et surpasserait les meilleurs talents humains dans des domaines tels que les mathématiques. "Nous pensions que l'IA était sous-estimée et non surestimée", a-t-il ajouté, soulignant que des outils tels que ChatGPT, Claude, Gemini et Deepseek sont déjà largement utilisés pour des tâches telles que le codage, bien qu'ils n'aient pas été formés à ces fins.

    Schmidt a également témoigné devant la commission de l'énergie et du commerce de la Chambre des représentants des États-Unis, où il a fait part de ses inquiétudes concernant l'infrastructure énergétique du pays. Il a prévenu que l'ampleur de la puissance nécessaire à l'IA dépasserait bientôt ce que le réseau actuel peut supporter. "Les gens prévoyaient des centres de données de 10 gigawatts", a-t-il déclaré. "La centrale nucléaire moyenne aux États-Unis n'est que d'un gigawatt".

    Selon lui, les États-Unis doivent repenser leur politique énergétique et investir rapidement dans les sources d'énergie renouvelables et non renouvelables pour éviter de se laisser distancer par des rivaux comme la Chine. Eric Schmidt a également plaidé en faveur d'une surveillance gouvernementale plus stricte de l'IA, en particulier des modèles à source ouverte, qui, selon lui, pourraient constituer des menaces pour la sécurité nationale s'ils n'étaient pas contrôlés.

    Il a souligné que si l'IA s'améliorait rapidement, elle nécessitait toujours des données de haute qualité et une gouvernance humaine. "Les scientifiques sont aux commandes et l'IA les aide - c'est le bon ordre", a-t-il déclaré.

    Cette prise de parole est la dernière en date de l'ancien PDG de Google, qui est habitué à partager son avis sur l'IA. En novembre, il avait, par exemple, mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Lors d’une conférence, Eric Schmidt a souligné que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes.

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Eric Schmidt, ancien PDG de Google, déclare au Congrès que 99 % de toute l'électricité sera utilisée pour l'IA superintelligente : "Nous avons besoin d'énergie sous toutes ses formes, renouvelable ou non"

    Faut-il adopter ou boycotter l'IA ? Un critique appelle à boycotter l'IA, car elle n'est ni bonne pour la créativité ni bonne pour les compétences, et a été créée pour escroquer les utilisateurs

    L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard, car les systèmes pouvant s'auto-améliorer peuvent présenter des risques
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #152
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 830
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 830
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.
    Il "n'avertit" de rien du tout; il veut faire monter la hype auprès des actionnaires de ses entreprises de drones kamikazes.

  13. #153
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 357
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 357
    Par défaut Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » pour se mettre à l'abri de l'AGI
    Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » avant que l'AGI ne surpasse l'intelligence humaine et ne menace l'humanité
    une perspective que d'autres experts en IA qualifient d'illusion

    L'ancien scientifique en chef d'OpenAI Ilya Sutskever reste convaincu que l'IA pose un risque existentiel pour l'humanité. Avant de quitter OpenAI, il avait élaboré un plan visant à mettre à l'abri les scientifiques du laboratoire avant le lancement de l'intelligence artificielle générale (AGI). Il prévoyait de construire un « bunker de l'apocalypse », car selon lui, la commercialisation de l'AGI pourrait conduire à un chaos géopolitique ou une concurrence violente entre les puissances mondiales. Mais la question divise la communauté de l'IA. Le responsable de l'IA chez Meta rejette l'idée selon laquelle l'IA constitue une menace existentielle pour l'humanité.

    Ilya Sutskever est chercheur en sécurité de l'IA et l'un des plus grands noms dans ce domaine. Il a été pendant des années le scientifique en chef d'OpenAI et dirigeant l'équipe Superalignment de la société, chargée de s'assurer que l'IA soit alignée sur les valeurs humaines. Son but était de créer des réseaux neuronaux d'apprentissage profond qui seraient un jour capables de penser et de raisonner aussi bien, sinon mieux, que n'importe quel être humain.

    Ses travaux devaient permettre à OpenAI de créer une intelligence artificielle générale (AGI), un terme qui désigne une forme d'intelligence artificielle capable de comprendre, d'apprendre et de raisonner de manière aussi large, flexible et autonome qu'un être humain. Il s'agit du Saint-Graal de l'industrie, une chance pour l'humanité de donner enfin naissance à sa propre forme de vie sensible, même si elle n'est basée que sur le silicium et non sur le carbone.

    Mais alors que le reste de l'humanité débat des avantages et des inconvénients d'une technologie que même les chercheurs ont du mal à comprendre, Ilya Sutskever planifiait déjà le jour où son équipe arriverait en tête de la course au développement de l'AGI. Il a estimé que ses collègues scientifiques auraient besoin d'une protection à ce moment-là, car l'AGI est trop puissante pour ne pas devenir un objet de convoitise pour les puissances du monde entier.

    D'après des extraits publiés par The Atlantic d'un nouveau livre, intitulé « Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI », son plan incluait un abri de la fin du monde pour les chercheurs de l'OpenAI. « Nous allons certainement construire un bunker avant de lancer l'AGI », a déclaré Ilya Sutskever.

    Il aurait fait cette déclaration à son équipe en 2023, quelques mois avant de quitter l'entreprise. Il est intéressant de noter que ce n'est pas la seule fois où Ilya Sutskever a fait référence à son bunker de sécurité. L'ancien cadre d'OpenAI aurait souvent parlé du bunker lors des discussions et des réunions internes. Selon un chercheur, de nombreuses personnes partageaient les craintes d'Ilya Sutskever au sujet de l'AGI et de son potentiel à ravir l'humanité.

    Certains laboratoires déclarent être poches de créer une forme d'AGI

    Si l'on en croit les derniers rapports, la plupart des laboratoires d'IA sont potentiellement sur le point d'atteindre le seuil convoité de l'AGI . Plus précisément, OpenAI et Anthropic prédisent que l'AGI pourrait être atteinte au cours de cette décennie. Le PDG de Google DeepMind, Demis Hassabis, a récemment indiqué que Google pourrait être sur le point d'atteindre une forme d'AGI à la suite de la publication de nouvelles mises à jour de ses modèles Gemini.

    Nom : Capture d'écran 2025-05-26 133835.png
Affichages : 12426
Taille : 146,1 Ko

    Demis Hassabis a fait part de ses inquiétudes, estimant que la société n'était pas prête et que « la perspective d'une AGI l'empêche de dormir ». De son côté, le PDG d'Anthropic, Dario Amodei, a admis que l'entreprise ne comprend pas pleinement comment ses modèles fonctionnent. (Tous les laboratoires sont dans ce cas.) Dario Amodei a ajouté que la société devrait s'inquiéter de ce manque de compréhension et des menaces qui en découlent.

    Bien que Ilya Sutskever ait refusé de commenter les allégations du livre, l'idée d'un bunker sûr pour les scientifiques d'OpenAI qui développent l'AGI souligne les angoisses qui animent certains des cerveaux à l'origine de la technologie. Ilya Sutskever a longtemps été considéré comme une sorte de mystique au sein d'OpenAI. Selon l'auteur du livre, l'ancien cadre d'OpenAI est connu pour discuter de l'IA avec des termes moraux et même métaphysiques.

    En même temps, Ilya Sutskever est aussi l'un des esprits les plus doués techniquement derrière ChatGPT et d'autres grands modèles de langage qui ont propulsé l'entreprise sur le devant de la scène mondiale. Comme le PDG d'Anthropic, Dario Amodei, de nombreux autres chercheurs sont d'avis avec Ilya Sutskever.

    Roman Yampolskiy, chercheur en sécurité de l'IA et directeur du laboratoire de cybersécurité de l'université de Louisville, a averti qu'il y a environ 99,999999 % de chances que l'IA mette fin à l'humanité. Mais contrairement à Ilya Sutskever, le PDG d'OpenAI, Sam Altman, pense que cette potentielle menace existentielle ne se manifestera pas au moment de l'AGI. Au lieu de cela, elle passera simplement en coup de vent, avec un « impact sociétal faible ».

    Sécurité de l'IA : les divergences entre Ilya Sutskever et Sam Altman

    L'idée que l'IA déclenche un bouleversement des civilisations n'est pas l'apanage de Sutskever. En mai 2023, Sam Altman a cosigné une lettre publique avertissant que les technologies de l'IA pourraient constituer un « risque d'extinction » pour l'humanité. Toutefois, si cette lettre visait à orienter les discussions sur la réglementation, la planification d'un bunker laisse entrevoir des craintes plus profondes et plus personnelles chez les dirigeants d'OpenAI.

    La tension entre ces craintes et les ambitions commerciales agressives d'OpenAI a atteint son paroxysme plus tard en 2023, lorsque Ilya Sutskever et Mira Murati, alors directrice de la technologie, ont aidé à orchestrer un coup d'État au sein du conseil d'administration qui a évincé Sam Altman de la société.

    Au cœur de leurs préoccupations se trouvait la conviction que Sam Altman contournait les protocoles de sécurité internes et qu'il exerçait un contrôle trop important sur l'avenir de l'entreprise. Selon les échanges rapportés par l'auteur du livre, Karen Hao, Ilya Sutskever, qui croyait fermement à la mission initiale d'OpenAI de construire une AGI centrée sur les valeurs humaines et bénéfique pour toute l'humanité, serait devenu de plus en plus désillusionné.

    Ilya Sutskever et Mira Murati auraient donc tous deux déclaré aux membres du conseil d'administration de l'époque qu'ils ne faisaient plus confiance à Sam Altman pour guider l'organisation de manière responsable vers son objectif ultime. Selon les notes examinées par Karen Hao, Ilya Sutskever aurait déclaré aux membres du conseil d'administration de l'époque : « je ne pense pas que Sam soit la personne qui devrait avoir le doigt sur le bouton pour AGI ».

    La décision du conseil d'administration d'écarter Sam Altman a été de courte durée. La pression croissante exercée par les investisseurs, les employés et Microsoft a conduit à sa réintégration quelques jours plus tard. Ilya Sutskever et Mira Murati ont, quant à eux, fini par quitter l'entreprise. Le bunker proposé par Ilya Sutskever - bien qu'il n'ait jamais été officiellement annoncé ou planifié - en est venu à symboliser l'extrême conviction des initiés de l'IA.

    Yann LeCun reste convaincu que l'IA ne menacera jamais l'humanité

    Yann LeCun est un éminent chercheur français en IA et lauréat du prix Turing 2018. Les recherches qu'il a menées dans les années 1980 et 1990 ont contribué à jeter les bases de bon nombre des innovations les plus importantes de la dernière décennie dans le domaine de l'IA. Entre autres exemples, le chercheur français est à l'origine des réseaux de neurones convolutifs qui ont été essentiels pour rendre l'apprentissage profond beaucoup plus efficace.

    Yann LeCun est le scientifique en chef du laboratoire d'IA de Meta, la société mère de Facebook, Instagram et WhatsApp. Il est professeur à l'université de New York où il a créé le laboratoire « Center for Data Sciences » au sein duquel il travaillerait également sur les technologies des voitures autonomes.

    Yann LeCun est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Malgré le nom, Yann LeCun estime que l'IA n'est pas du tout intelligente. Interrogé sur les limites actuelles de l'IA, il s'est concentré sur l'IA générative formée sur de grands modèles de langage, affirmant qu'elle n'est pas intelligente en raison du fait qu'elle est uniquement guidée par le langage.

    « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'IA », a-t-il déclaré. Selon lui, l'IA est encore loin d'une intelligence canine ou féline.

    « Les développements en cours montrent qu'il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'IA n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.

    Yann LeCun rejette en sus l'idée selon laquelle les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », a-t-il souligné. Yann LeCun met aussi en garde contre une réglementation prématurée qui pourrait nuire à l'innovation dans le secteur.

    Conclusion

    L'idée de construire un bunker pour protéger les scientifiques d'OpenAI, fréquemment évoquée lors de discussions internes, souligne les profondes inquiétudes au sein de la direction d'OpenAI concernant le pouvoir transformateur et potentiellement catastrophique de l'AGI. Ces craintes ont contribué à des tensions internes, principalement dirigées contre le PDG Sam Altman, accusé de négliger les protocoles de sécurité et de centraliser le contrôle et le profit.

    Cette anecdote illustre les débats intenses au sein de la communauté sur les risques existentiels posés par l'IA et la nécessité de mesures de sécurité pour encadrer son développement. Mais d'autres chercheurs, tels que Yann LeCun, mettent en garde contre l'illusion du risque existentiel de l'IA.

    Selon ces chercheurs, le fait de se focaliser sur ce risque peut occulter les problèmes réels et immédiats que crée l'IA, comme la surveillance, la désinformation, l'utilisation militaire et l'inadaptation économique. L'atténuation de ces problèmes pourrait aider à prévenir le risque existentiel à long terme.

    Source : le livre « Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI » de Karen Hao

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques, en opposition à d'autres d'avis que cette perspective relève de l'illusion

    Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

    Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA

  14. #154
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 830
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 830
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Quel est votre avis sur le sujet ?
    Mouais. Si le gars est vraiment un "scientifique", alors ils sait que son bidule n'a aucune intelligence.

    Par contre, il a certainement un beau portefeuille d'actions qui le fait profiter au maximum de toute cette "hype" autour des IA génératives

    Il a donc tout intérêt à faire croire que sa "calculatrice" est en fait intelligente et presque consciente.

  15. #155
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 494
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 494
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Mais alors que le reste de l'humanité débat des avantages et des inconvénients d'une technologie que même les chercheurs ont du mal à comprendre, Ilya Sutskever planifiait déjà le jour où son équipe arriverait en tête de la course au développement de l'AGI. Il a estimé que ses collègues scientifiques auraient besoin d'une protection à ce moment-là, car l'AGI est trop puissante pour ne pas devenir un objet de convoitise pour les puissances du monde entier.
    Le bunker a un problème de base critique : c'est un lieu qui n'est pas viable à long terme. Il est entièrement isolé du reste du monde et donc fermé donc impossible d'y tenir si longtemps (la nourriture viendra un moment ou un autre à disparaitre).
    Si l'AGI est si puissante alors ceux qui la convoitent auront tout le temps d'attendre que vous en sortiez.
    En plus nous avons besoin de renouveler l'air, le bunker n'est donc pas totalement hermétique, et je n'aurait pas du tout envie de vivre dans un boite de conserve alors que des gens fort peu fréquentables et à l'éthique discutable veulent absolument m'en faire sortir...

  16. #156
    Futur Membre du Club
    Homme Profil pro
    Analyste-Programmeur
    Inscrit en
    Janvier 2024
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Analyste-Programmeur
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Janvier 2024
    Messages : 4
    Par défaut Hommerie - Une arme est dangereuse dans les mains d'un être humain !
    Le danger à craindre, ce sont les hommes, les nations, les gouvernements, les armées, l'industrie, l'économie, etc. D'autant qu'en 2025, tout ce que nous pensions derrière nous se retrouve devant... L'histoire est un balancier qui ne cesse de se répéter. La phalange des Grecs à l'Empire perse, les

    L'hoplite et la phalange ont mis en déroute et mis un terme à l'Empire perse comme un raz de marée. Puis, la mobilité et la flexibilité tout-terrain à permis à la légion romaine d'anéantir sans aucun problème les Grecs (aidé par le nombrilisme de ses derniers toujours bien d'actualité) et que dire de l'industrialisation et de la Première Guerre, la bombe atomique de la deuxième, etc. Est-ce que l'humanité pourra comprendre à temps, voilà la question, ce n'est qu'une question de temps...

    Et ce sans même aborder le problème de nos données personnelles, de la béquille que représente l'IA pour la créativité humaine.

    Quant aux bunkers, c'est pour protéger les scientifiques des états... Personnellement, ce n'est pas mes 40 ans d'expérience en programmation, mais ma passion pour l'histoire qui sonne l'alarme... Et avec la géopolitique de 2025, je ferme toutes mes dépendances à ses GAFAM ambitieux contrairement à la majorité... J'ai même commencé à produire des sites Web qui leurrent l'intelligence artificielle ;- )

    La sécurité aussi, les deux facteurs, etc., basés sur toujours plus de données personnelles. Le secret de la sécurité c'est les couches, mais du point de vue d'un individu, c'est une perte de contrôle qui s'accumule. Attention à vos données personnelles en terminant...

Discussions similaires

  1. [Débutant] colonnes liées entre elles avec des requetes
    Par spring.time dans le forum VB.NET
    Réponses: 1
    Dernier message: 13/09/2012, 14h03
  2. Export avec la création d'un job sous OEM
    Par Bindy dans le forum Entreprise Manager
    Réponses: 17
    Dernier message: 03/07/2008, 22h50
  3. probléme avec la création de table Mysql 5
    Par developpeur_mehdi dans le forum Outils
    Réponses: 3
    Dernier message: 19/10/2005, 19h08
  4. Problème avec la création d'un composant
    Par jeromelef dans le forum Composants VCL
    Réponses: 6
    Dernier message: 01/10/2005, 00h51
  5. Réponses: 2
    Dernier message: 29/03/2004, 18h29

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo