IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #141
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut L’illusion du risque existentiel de l’IA : pourquoi faut-il arrêter de craindre une IA surpuissante
    L’illusion du risque existentiel de l’IA : pourquoi faut-il arrêter de craindre une IA surpuissante et malveillante,
    selon Google Research et des experts en IA

    Le texte analyse le risque que l’humanité soit anéantie par une IA superintelligente. Il montre que ce risque est très faible et qu’il se base sur des suppositions incertaines. Il critique le fait de se focaliser sur ce risque, qui peut occulter les problèmes plus réels et immédiats que crée l’IA, comme la surveillance, la désinformation, la manipulation, l’utilisation militaire et l’inadaptation économique. Il recommande de s’occuper de ces problèmes actuels, qui peuvent aussi aider à prévenir les risques existentiels à long terme. Il cite des exemples d’études et de solutions possibles pour réduire les dommages causés par l’IA.

    Le 30 mai, le Center for AI Safety, un groupe de recherche de San Francisco, a diffusé un bref communiqué signé par quelques-uns des meilleurs spécialistes du domaine, déclarant que « réduire le risque d’extinction par l’IA devrait être une priorité mondiale au même niveau que d’autres risques pour la société, comme les pandémies et les guerres nucléaires ».

    Nom : risk.jpg
Affichages : 3633
Taille : 49,3 Ko

    L'intelligence artificielle pourrait conduire à l'extinction de l'humanité

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire. L'intelligence artificielle pourrait conduire à l'extinction de l'humanité, ont averti des experts, dont les dirigeants d'OpenAI et de Google Deepmind. Des dizaines de personnes ont soutenu une déclaration publiée sur la page web du Centre for AI Safety. « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires », peut-on y lire.

    Sam Altman, directeur général d'OpenAI, fabricant de ChatGPT, Demis Hassabis, directeur général de Google DeepMind, et Dario Amodei, d'Anthropic, ont tous apporté leur soutien à cette idée. Mais d'autres estiment que les craintes sont exagérées. Le site web du Centre for AI Safety (Centre pour la sécurité de l'IA) propose un certain nombre de scénarios catastrophes possibles :

    • les IA pourraient être militarisées - par exemple, les outils de découverte de médicaments pourraient être utilisés pour fabriquer des armes chimiques ;
    • La désinformation générée par l'IA pourrait déstabiliser la société et « saper la prise de décision collective » ;
    • Le pouvoir de l'IA pourrait être de plus en plus concentré dans un nombre de plus en plus restreint de mains, ce qui permettrait aux « régimes d'imposer des valeurs étroites par une surveillance omniprésente et une censure oppressive » ;
    • L'enchevêtrement, où les humains deviennent dépendants de l'IA, « semblable au scénario dépeint dans le film Wall-E ».

    Le Dr Geoffrey Hinton, qui avait déjà mis en garde contre les risques liés à l'IA superintelligente, a également soutenu l'appel du Centre pour la sécurité de l'IA. Yoshua Bengio, professeur d'informatique à l'Université de Montréal, l'a également signé. Hinton, Bengio et Yann LeCun, professeur à l'université de New York, sont souvent décrits comme les « parrains de l'IA » pour leurs travaux novateurs dans ce domaine, qui leur ont valu de remporter conjointement le prix Turing 2018, qui récompense les contributions exceptionnelles dans le domaine de l'informatique.

    Mais le professeur LeCun, qui travaille également chez Meta, a déclaré que ces avertissements apocalyptiques étaient exagérés, tweetant que « la réaction la plus courante des chercheurs en IA à ces prophéties de malheur est de faire la grimace ».

    Pourquoi faut-il se préoccuper davantage de l’IA imparfaite que de l’IA surpuissante

    Se concentrer sur la possibilité qu’une superintelligence malintentionnée extermine l’humanité peut être nuisible. Elle pourrait distraire les régulateurs, le public et les autres chercheurs en IA des travaux visant à diminuer des risques plus urgents, comme la surveillance massive, la désinformation et la manipulation, l’utilisation militaire abusive de l’IA et l’incompatibilité de notre paradigme économique actuel avec un monde où l’IA a de plus en plus d’importance.

    En se focalisant sur ces problèmes actuels, il est possible de concilier les objectifs de multiples parties prenantes et de contrer les risques existentiels à long terme. Il y a toutes sortes de manières dont les systèmes d’IA pourraient accidentellement provoquer ou être impliqués dans la mort de nombreuses personnes, voire de millions. Par exemple, si l’IA était intégrée dans une technologie de frappe nucléaire autonome, un comportement imprévu de la part de l’IA pourrait avoir des conséquences dramatiques.

    Cependant, ces scénarios ne doivent pas forcément impliquer une IA superintelligente ; en fait, ils sont plus probables avec des systèmes d’IA défectueux et pas si intelligents que cela. (Par exemple, la machine du Jugement dernier dans Dr. Strangelove était aussi simple que possible : un ensemble de circonstances clairement définies, dans lesquelles les bombes doivent exploser, est programmé dans une banque de mémoire à bande). Réduire les problèmes causés par une IA défectueuse fait déjà l’objet d’un grand nombre de recherches sur l’IA.

    Se concentrer sur les risques réels et actuels de l’IA plutôt que sur l’IA superintelligente malveillante est nécessaire

    Cependant, une discussion sur l’IA superintelligente malintentionnée pourrait avoir au moins un avantage : elle sensibilise les décideurs politiques et le grand public à la sécurité de l’IA - même si l’on peut redouter que l’utilisation d’une question aussi émotionnelle de cette manière leur soit préjudiciable. En effet, l’extinction causée par une IA malveillante est un scénario très peu probable qui se base sur des hypothèses douteuses concernant l’évolution à long terme de la vie, de l’intelligence, de la technologie et de la société.

    C’est aussi un scénario peu probable en raison des nombreuses limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi. Il y a de nombreux points de contrôle naturels où les chercheurs peuvent aider à réduire le risque existentiel de l’IA en s’occupant de défis concrets et urgents sans faire du risque existentiel une priorité mondiale explicite.

    Notre première préoccupation devrait être d’éviter les souffrances massives et inutiles que nous savons possibles avec les technologies actuelles et celles qui arriveront bientôt. Des études rigoureuses sur les dommages réels et actuels causés par l’IA ont été publiées et des solutions potentielles ont été suggérées. Par exemple, la technologie de reconnaissance faciale peut être utilisée pour pister les individus et restreindre les libertés fondamentales, et la technologie de génération d’images peut être utilisée pour créer de fausses images ou vidéos d’événements qui n’ont jamais eu lieu.

    Pour résoudre ces problèmes, des appels à l’action ont été lancés, comme la déclaration de Montréal sur l’IA responsable et les recommandations des Sentinelles du Forum économique mondial sur l’IA générative responsable. Nous pouvons et devons anticiper les développements de l’IA à court terme et penser à leurs effets nuisibles potentiels. Mais plus nous nous projetons dans le futur de ce domaine qui avance rapidement, plus les inconnues se multiplient de manière exponentielle, ce qui rend la planification autour de ces prévisions impraticables.

    Il est plus constructif de mettre en avant les défis réels et de discuter des solutions proposées plutôt que d’orienter le discours public vers des risques existentiels hypothétiques.

    Quelles seraient les conditions pour que la perspective d’une extinction par une IA malveillante passe de la menace purement hypothétique à la menace réaliste qui mérite d’être une priorité mondiale ? Les dommages et même les morts massives dus à un mauvais usage de l’IA (non superintelligente) sont une possibilité réelle et l’extinction par une IA superintelligente rebelle n’est pas une impossibilité. Nous pensons cependant que cette dernière éventualité est peu probable, pour des raisons qui deviendront évidentes lors de l’examen des voies potentielles d’extinction par une IA superintelligente malveillante.

    Pour cela, nous devons d’abord admettre que la superintelligence est possible, même si ce point de vue est loin de faire consensus au sein de la communauté de l’IA. La définition même de la “superintelligence” est un exercice difficile, car l’idée que l’intelligence humaine puisse être entièrement mesurée en termes de performances sur une série de tâches semble trop simpliste ; après tout, il existe de nombreuses formes différentes d’intelligence.

    On peut dire sans se tromper que l’IA actuelle n’est pas superintelligente, bien qu’elle ait déjà surpassé les performances humaines dans de nombreuses tâches et qu’elle soit susceptible de le faire dans de nombreuses autres dans un avenir proche. Les modèles d’IA actuels sont très impressionnants et on peut dire qu’ils possèdent une forme d’intelligence et de compréhension du monde. Ils sont aussi facilement dupés, “hallucinent” des faussetés et ne réussissent pas toujours à faire des déductions logiques essentielles, comme les déductions causales.

    Néanmoins, pour les besoins de l’argumentation, supposons que la vitesse impressionnante à laquelle l’IA progresse permette de combler ces lacunes et conduise, à un moment donné dans le futur, à l’apparition d’une superintelligence générale, c’est-à-dire d’une IA généralement meilleure que les humains dans presque toutes les tâches cognitives. Même dans ce cas, nous soulignons un certain nombre de points de contrôle qui existent le long de tout chemin potentiel vers l’extinction par une IA malveillante. Ces points de contrôle sont des signaux d’alerte qui permettraient d’identifier le moment où le risque hypothétique devient plus urgent et où il peut être nécessaire d’en faire une priorité.

    Comment l’intelligence supérieure n’entraîne-t-elle pas l’extinction des espèces moins intelligentes

    Les discussions sur le risque existentiel de l’IA laissent souvent penser qu’une IA superintelligente provoquerait notre extinction, car les espèces plus intelligentes provoquent « naturellement » l’extinction des espèces moins intelligentes. Il est vrai que dans l’histoire de la Terre, il existe des exemples où une espèce a provoqué l’extinction d’une autre espèce moins intelligente ; les extinctions causées par l’homme sont le plus souvent mentionnées. (Nous ne connaissons d’ailleurs aucun exemple non humain).

    Cependant, l’intelligence supérieure n’est pas le facteur déterminant dans de tels événements ; il y a eu de nombreux cas où des espèces moins intelligentes ont provoqué l’extinction d’espèces plus intelligentes. Par exemple, à la fin du Dévonien, la diversification rapide des plantes et les modifications de l’atmosphère qu’elle a entraînées seraient à l’origine de l’une des extinctions massives de la Terre, qui a entraîné la disparition des trois quarts des espèces, dont beaucoup étaient probablement plus intelligentes que les plantes. Plus généralement, l’extinction inter-espèces n’est pas le résultat d’une lutte concurrentielle pour la domination entre deux espèces.

    L’idée que les espèces forment une hiérarchie ou une « grande chaîne de l’être » est inexacte ; en réalité, les relations entre les espèces sont complexes et forment une toile ou un graphique d’interdépendance mutuelle sans « haut » ni « bas ». Lorsque les biologistes parlent de « dominance » dans les interactions animales, ils appliquent généralement des définitions qui se concentrent sur les relations entre individus de la même espèce. L’IA n’est pas en concurrence avec les êtres humains pour les ressources.

    Comment l’IA dépend-elle de l’homme et pourquoi ne chercherait-elle pas à nous éliminer

    Au contraire, nous fournissons aux systèmes d’IA leurs ressources, depuis l’énergie et les matières premières jusqu’aux puces électroniques et à l’infrastructure de réseau. Sans l’apport de l’homme, les systèmes d’IA sont incapables de se maintenir en bon état. Si l’extraction minière, le transport maritime mondial et le commerce des métaux précieux, la construction et l’entretien des centrales électriques, les usines de fabrication de puces, la construction de centres de données et la pose de câbles Internet étaient tous entièrement automatisés - y compris toute la logistique et les chaînes d’approvisionnement impliquées - alors peut-être qu’une IA superintelligente pourrait décider que les êtres humains sont superflus ou qu’ils épuisent les ressources, et décider de nous tuer.

    Pour l’instant, l’IA dépend de nous, et une superintelligence admettrait vraisemblablement ce fait et chercherait à protéger l’humanité puisque nous sommes aussi vitaux à l’existence de l’IA que les plantes productrices d’oxygène le sont à la nôtre. L’évolution du mutualisme entre l’IA et l’homme est donc beaucoup plus probable que la concurrence.

    En outre, le chemin vers une économie entièrement automatisée - si tel est l’objectif - sera long, chaque étape majeure servant de point de contrôle naturel pour l’intervention humaine. Une telle automatisation nécessiterait des avancées majeures dans le domaine du matériel et des logiciels. Or, la robotique ne se développe pas à un rythme proche de celui de l’IA - et il est peu probable qu’elle le fasse, puisque les progrès accélérés de l’IA sont liés au monde numérique, où la puissance de calcul croît de manière exponentielle, où la copie est presque instantanée et où l’optimisation est automatisée. »

    Pourquoi s’alarmer du risque existentiel de l’IA superintelligente serait contre-productif

    La plupart des chercheurs qui s’inquiètent du risque existentiel de l’IA sont probablement animés par de réelles préoccupations et un désir sincère de réduire les risques liés à l’IA en général. Ils n’ont simplement pas pris en compte les conséquences imprévues de leurs déclarations publiques. Il est naïf de penser qu’il est possible de s’alarmer publiquement au sujet d’une IA superintelligente malveillante qui pourrait exterminer l’espèce humaine sans détourner les chercheurs et les politiciens d’autres questions plus pressantes en matière d’éthique et de sécurité de l’IA.

    La nature du risque existentiel de l’IA superintelligente en tant que préoccupation est qu’il est si grave en théorie qu’il pourrait avoir des effets de distorsion sur la perception du public, le financement de la recherche sur l’IA, les priorités des entreprises et la réglementation gouvernementale. Dans l’état actuel des choses, l’IA autonome superintelligente ne représente pas de risque existentiel manifeste et immédiat pour l’homme.

    L’IA pourrait causer de réels dommages, mais la superintelligence n’est ni nécessaire ni suffisante pour que ce soit le cas. Il existe des voies hypothétiques par lesquelles une IA superintelligente pourrait provoquer l’extinction de l’humanité à l’avenir, mais elles sont spéculatives et vont bien au-delà de l’état actuel de la science, de la technologie ou de l’économie physique de notre planète.

    Source : Noema

    Et vous ?

    À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?

    Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?

    Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?

    Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?

    Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?

    Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?

    Voir aussi :

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

    L'IA représente-t-elle une menace pour l'humanité ? Non, pour un philosophe, qui estime que l'IA n'est qu'une pseudo-intelligence
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #142
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 564
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 564
    Points : 7 289
    Points
    7 289
    Par défaut
    Citation Envoyé par Bruno Voir le message
    À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?

    Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?

    Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?

    Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?

    Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?

    Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?
    Les questions de Noema sont bêtes et dommageables, car elles nous éloignent du cœur du problème: Il n'y a que des enfants (et James Cameron) pour penser à Terminator quand on parle d'IA générative.

    Les questions de fond sont plutôt:
    • À qui appartiennent et profitent ces IA?
    • Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?



    Et une fois ces questions répondues, il faut légiférer.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  3. #143
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 631
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 631
    Points : 10 558
    Points
    10 558
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Les questions de fond sont plutôt:
    • À qui appartiennent et profitent ces IA?
    • Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?
    Rajoute
    Comment se protéger des IA en prouvant que ce n'est pas toi ?

    En gros, JDG vient de découvrir 1 chaîne YouTube qui le fait chanter des chansons (avec Antoine Daniel) en utilisant 1 IA.
    Mais l'IA permet *simplement* d'imiter/ remplacer (des voix, des visages, …) que les arnaques/ phrases hors contexte/ … peuvent devenir légion.

    Imagine les attaques de "spoofing" ? (comme Terminator avec la mère de John )

    Et je crois que c'est 1 peu le but de la grève des scénaristes à Hollywood actuellement : protéger leur métier contre les IA.

  4. #144
    Nouveau Candidat au Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Avril 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Avril 2023
    Messages : 1
    Points : 1
    Points
    1
    Par défaut Intelligence ou automatisme
    L'automatisme va oui écraser un certain nombre d'entre nous sur la terre puisque l'on nous amène à désigner l'automatisation signifiante pour interpeller l'intelligence( mammifère) encore pleine de nouveaux horizons

  5. #145
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 843
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 843
    Points : 51 507
    Points
    51 507
    Par défaut Il y a 5 % de chances que l’IA super intelligente provoque l’extinction de l’homme, d’après une enquête
    Il y a 5 % de chances que l’IA super intelligente provoque l’extinction de l’homme, d’après certains scientifiques
    En opposition à d’autres d’avis que cette perspective relève de l’illusion

    De nombreux chercheurs en intelligence artificielle considèrent que le développement futur d'une IA super intelligence a un risque non négligeable de provoquer l'extinction de l'humanité. Dans les chiffres, près de 58 % des chercheurs sont d’avis qu’il y a 5 % de chances que cette perspective se réalise. Néanmoins, les mêmes données soulignent le fait qu’une bonne partie des intervenants de cette filière est en désaccord avec la perspective que l’IA provoque l’extinction de l’homme.

    Ces résultats proviennent d'une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié des travaux dans le cadre de six des principales conférences sur l'IA. Le sondage demandait aux participants de faire part de leurs réflexions sur les échéances possibles des futures étapes technologiques de l'IA, ainsi que sur les conséquences sociétales, bonnes ou mauvaises, de ces réalisations.

    Nom : 1.png
Affichages : 1317
Taille : 119,2 Ko

    Par rapport aux réponses de la version 2022 de la même enquête, de nombreux chercheurs en intelligence artificielle ont prédit que l'IA atteindrait certaines étapes plus tôt que prévu. Les chercheurs interrogés prédisent qu'au cours de la prochaine décennie, les systèmes d'IA auront au moins 50 % de chances de réussir la plupart des 39 échantillons de tâches listés dans l’enquête : écriture de nouvelles chansons, codage d'un site complet de traitement des paiements à partir de zéro, etc. D'autres tâches, telles que l'installation physique du câblage électrique dans une nouvelle maison ou la résolution de mystères mathématiques de longue date, devraient prendre plus de temps.

    Le développement possible d'une intelligence artificielle capable de surpasser les humains dans toutes les tâches a 50 % de chances de se produire d'ici 2047, tandis que la possibilité que tous les emplois humains deviennent entièrement automatisables a 50 % de chances de se produire d'ici 2116. Ces estimations sont en avance de 13 ans et de 48 ans par rapport à celles de l'enquête de l'année dernière.

    Il existe en sus des inquiétudes plus immédiates non liées à l’éventualité de l’atteinte du stade d'IA super intelligente. Une grande majorité de chercheurs en IA - 70 % ou plus - ont qualifié de très préoccupants ou d'extrêmement préoccupants les scénarios alimentés par l'IA impliquant des deepfakes, la manipulation de l'opinion publique, des armes artificielles, le contrôle autoritaire des populations et l'aggravation de l'inégalité économique. L’enquête met en sus en avant les dangers de l'IA qui contribue à la désinformation sur des questions existentielles telles que le changement climatique ou la détérioration de la gouvernance démocratique.


    Le responsable de l’intelligence artificielle de Meta rejette l’idée que l’intelligence artificielle va s’emparer du monde

    Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.

    En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.


    « Les développements en cours montrent qu’il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en intelligence artificielle n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'intelligence artificielle n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.

    Yann Lecun rejette en sus l'idée que les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », souligne LeCun.

    Source : enquête

    Et vous ?

    Quel est votre avis sur le débat sur les dangers potentiels de l'IA ?

    Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #146
    Membre éprouvé Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    765
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : Transports

    Informations forums :
    Inscription : Septembre 2005
    Messages : 765
    Points : 960
    Points
    960
    Par défaut
    Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?


  7. #147
    Membre expérimenté
    Inscrit en
    Mai 2006
    Messages
    351
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 351
    Points : 1 452
    Points
    1 452
    Par défaut
    Citation Envoyé par der§en Voir le message
    Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?

    Oui l'IA a énormément fait baisser la probabilité que ça arrive quand même avant elle était bien plus élevée.

Discussions similaires

  1. [Débutant] colonnes liées entre elles avec des requetes
    Par spring.time dans le forum VB.NET
    Réponses: 1
    Dernier message: 13/09/2012, 14h03
  2. Export avec la création d'un job sous OEM
    Par Bindy dans le forum Entreprise Manager
    Réponses: 17
    Dernier message: 03/07/2008, 22h50
  3. probléme avec la création de table Mysql 5
    Par developpeur_mehdi dans le forum Outils
    Réponses: 3
    Dernier message: 19/10/2005, 19h08
  4. Problème avec la création d'un composant
    Par jeromelef dans le forum Composants VCL
    Réponses: 6
    Dernier message: 01/10/2005, 00h51
  5. Réponses: 2
    Dernier message: 29/03/2004, 18h29

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo