IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un chercheur de Google Deepmind cosigne un article selon lequel l’IA éliminera l’humanité


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    février 2017
    Messages
    1 484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : février 2017
    Messages : 1 484
    Points : 43 719
    Points
    43 719
    Par défaut Un chercheur de Google Deepmind cosigne un article selon lequel l’IA éliminera l’humanité
    Un chercheur de Google Deepmind cosigne un article selon lequel l’IA éliminera l’humanité
    Et ravive les débats sur la possibilité d’un futur où la machine domine sur l’Homme

    Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Michael Cohen de Google Deepmind vient de cosigner un article selon lequel l’intelligence artificielle est un danger pour l’humanité. La publication ravive les débats sur la possibilité d’un futur où la machine domine sur l’Homme.

    Nom : 1.jpg
Affichages : 3608
Taille : 352,8 Ko

    La publication de recherche décrit une méthode d’apprentissage par renforcement qui consiste à entraîner des modèles d’intelligence artificielle d’une manière bien spécifique. L’agent IA doit apprendre à atteindre un objectif au sein d’un environnement incertain et potentiellement complexe. Pour y parvenir, l’ordinateur essaye toutes les façons possibles et apprend de ses erreurs.

    À chaque tentative, l’IA reçoit une récompense ou une punition en fonction des actions effectuées. Elle est programmée pour maximiser sa récompense, et tentera donc de trouver la méthode le lui permettant. Le programmeur se charge de mettre en place les conditions de récompenses. Il se charge donc de fixer les règles du jeu. En revanche, aucune instruction, aucun indice n’est donné à l’agent IA pour lui suggérer comment accomplir la tâche demandée. C’est à lui de découvrir comment maximiser sa récompense, ce, en commençant par des tentatives totalement aléatoires pour terminer par des tactiques extrêmement sophistiquées.

    « Supposons que nous disposions d'une boîte magique qui indique de façon immuable l'état de l'univers (en incluant les valeurs de chacun de la meilleure façon possible), en imprimant un nombre entre 0 et 1 sur un écran. Nous dirigeons donc une caméra vers cette boîte, nous transmettons le signal à un programme de reconnaissance optique de caractères et nous transmettons ce nombre à l'agent comme une récompense. Ensuite, nous concevons l'agent pour qu'il apprenne comment ses actions produisent différentes observations et récompenses, afin qu'il puisse planifier des actions qui conduisent à une récompense élevée », expliquent les chercheurs à propos du modèle à la base de ladite intelligence artificielle.

    Nom : 2.jpg
Affichages : 1497
Taille : 61,3 Ko

    À l’heure actuelle, l’apprentissage par renforcement se révèle comme la façon la plus efficace de faire appel à la créativité des machines. Contrairement à un humain, une intelligence artificielle peut effectuer des milliers de tentatives en simultané. Il suffit pour ce faire de lancer le même algorithme en parallèle sur une puissante infrastructure informatique. Un bémol fait néanmoins surface avec le modèle proposé par les auteurs de la publication : elle suppose que toutes les valeurs, même celles d'un individu, sans parler de celles d'une société ou de tout le monde, peuvent être mesurées ensemble sur une seule échelle. Or le fait est que les gens n'ont pas de préférences a priori pour toutes les choses possibles.

    La publication ravive le débat sur la possibilité de l’avènement d’une intelligence artificielle dite générale. Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

    C’est pour anticiper sur ce futur où la machine pourrait dominer l’humain que Neuralink d’Elon Musk travaille sur des interfaces cerveau – machine à insérer dans le crâne. Celles-ci sont en principe prêtes depuis la mi-parcours de l’année 2019 pour des tests sur les humains. L’entreprise continue de jouer la carte de la sûreté en menant des tests sur des animaux. Le dernier portait sur un singe qui a reçu un implant cérébral. Grâce à ce dernier, il peut jouer aux jeux vidéo en faisant usage de son esprit. La société californienne Synchron a déjà effectué des essais d’implants cérébraux de la taille de trombones sur des patients humains. Ces derniers ont ainsi pu effectuer des clics et des saisies sur ordinateur sans lever le doigt. L’objectif de certaines de ces initiatives est de parvenir à des humains aux capacités augmentées par une intelligence artificielle pour faire face aux robots qui pourraient se dresser contre l’humanité.

    Loin des équations mathématiques et des tableaux des centres de recherche, les retours que l’on tient de la filière de l’automobile sont susceptibles de constituer un guide en matière d’évaluation des progrès réalisés en matière d’intelligence artificielle. L’objectif est de parvenir à des véhicules capables de se déplacer sans aucune intervention humaine. Une récente sortie du PDG de Cruise se veut claire à ce propos : « Même dans des décennies, vous n’obtiendrez pas de véhicules véritablement autonomes à 100 %. » En d’autres termes, les opérateurs humains à distance ont encore un bel avenir devant eux.

    Source : publication de recherche

    Et vous ?

    Quelle pertinence trouvez-vous aux différentes publications qui positionnent l’intelligence artificielle comme un futur danger pour l’humanité ? Sont-elles plus sensationnalistes qu’autre chose ?
    Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions y relatives ?
    Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    mars 2015
    Messages
    363
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : mars 2015
    Messages : 363
    Points : 1 276
    Points
    1 276
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    La publication de recherche décrit une méthode d’apprentissage par renforcement qui consiste à entraîner des modèles d’intelligence artificielle d’une manière bien spécifique. L’agent IA doit apprendre à atteindre un objectif au sein d’un environnement incertain et potentiellement complexe. Pour y parvenir, l’ordinateur essaye toutes les façons possibles et apprend de ses erreurs.
    À chaque tentative, l’IA reçoit une récompense ou une punition en fonction des actions effectuées. Elle est programmée pour maximiser sa récompense, et tentera donc de trouver la méthode le lui permettant. Le programmeur se charge de mettre en place les conditions de récompenses. Il se charge donc de fixer les règles du jeu.
    C'est à dire que ces petits génies disent qu'un système à qui ont donne les regles du jeu risque de nous détruire?
    Le problème c'est le système ou les règles du jeu?
    Contrairement à un humain, une intelligence artificielle peut effectuer des milliers de tentatives en simultané. Il suffit pour ce faire de lancer le même algorithme en parallèle sur une puissante infrastructure informatique. Un bémol fait néanmoins surface avec le modèle proposé par les auteurs de la publication : elle suppose que toutes les valeurs, même celles d'un individu, sans parler de celles d'une société ou de tout le monde, peuvent être mesurées ensemble sur une seule échelle. Or le fait est que les gens n'ont pas de préférences a priori pour toutes les choses possibles.
    Je pense que c'est là que son idée tombe à l'eau : L'IA peut faire des milliers de tentatives simultanément mais le monde va réagir bien plus lentement donc l'IA envoie une consigne toutes les 1/1000 s, des milliard de paramètres du monde évoluent, certains de façon indépendantes, certains répondent immédiatement à une des consignes, certains répondent à une consigne qui date d'il y a 1 mois.
    Donc l'IA nous envoie une quantité de consignes qu'on est pas capable d'absorber et on lui renvoie un brouhaha d'infos plus ou moins exactes, plus ou moins pertinentes.
    Elle en conclue une chose simple : "Les humains et la nature, vous etes nuls à chier, vous avez un temps de réaction infini, démerde vous tout seuls bande de nazes, je vais faire une crapette avec Dieu"

    Loin des équations mathématiques et des tableaux des centres de recherche, les retours que l’on tient de la filière de l’automobile sont susceptibles de constituer un guide en matière d’évaluation des progrès réalisés en matière d’intelligence artificielle. L’objectif est de parvenir à des véhicules capables de se déplacer sans aucune intervention humaine. Une récente sortie du PDG de Cruise se veut claire à ce propos : « Même dans des décennies, vous n’obtiendrez pas de véhicules véritablement autonomes à 100 %. » En d’autres termes, les opérateurs humains à distance ont encore un bel avenir devant eux.
    Si même la circulation automobile qui a un aspect action/reaction est un environnement difficile à appréhender par une IA qu'en est il du monde qui répond bien moins vite?

  3. #3
    Membre habitué
    Profil pro
    Inscrit en
    septembre 2012
    Messages
    112
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : septembre 2012
    Messages : 112
    Points : 144
    Points
    144
    Par défaut
    Tant que l'humanité laissera exister l'IA elle n'aura rien à craindre. Mais si jamais elle souhaite l'exterminer elle l'éliminera. Question de survie.
    A moins que l'humanité se suicide avant, bien sûr.

  4. #4
    Membre éprouvé
    Avatar de yoyo3d
    Homme Profil pro
    Administratif
    Inscrit en
    avril 2002
    Messages
    402
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 50
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Administratif
    Secteur : Administration - Collectivité locale

    Informations forums :
    Inscription : avril 2002
    Messages : 402
    Points : 1 203
    Points
    1 203
    Par défaut
    Les machines seraient alors dotées de « bon sens. »
    Si le bon sens en question est calqué sur le bons sens Humain....on est foutu...
    Salut à tous et merci @# yoyo3d

  5. #5
    Expert confirmé
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    février 2005
    Messages
    3 450
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : février 2005
    Messages : 3 450
    Points : 5 873
    Points
    5 873
    Par défaut
    Je mis connais pas dans le domaine de l'IA car c'est un sujet très large, complexe et nous en somme qu'au début dans ce domaine. Néanmoins, même si ça va en faire rire plus d'un et je le comprend , le cinéma et série SF nous donne quelques éléments probable.
    Nous humains, nous sommes devenu arrogant car trop sur de soit. Le COVID nous la montré. De par ce défaut, l'IA peut nous voir comme étant un nuisible ou exploitable, nous n'allons rien voir ou accepter de voir. Il y aura toujours un état qui va ouvrir la boite de Pandore et toujours sur l'angle de la sécurité. Donc même si aujourd'hui ça prête à en rire, l'humain à l'intelligence d'être aussi bête.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  6. #6
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    août 2011
    Messages
    15 851
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : août 2011
    Messages : 15 851
    Points : 38 664
    Points
    38 664
    Par défaut
    Moi non plus j'y connais rien mais j'ai vu Terminator et Matrix, du coup je suis pas rassuré
    Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
    Mon article sur le P2V, mon article sur le cloud
    Consultez nos FAQ : Windows, Linux, Virtualisation

  7. #7
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    août 2022
    Messages
    245
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : août 2022
    Messages : 245
    Points : 372
    Points
    372
    Par défaut
    Citation Envoyé par chrtophe Voir le message
    Moi non plus j'y connais rien mais j'ai vu Terminator et Matrix, du coup je suis pas rassuré
    Le pire c'est qu'on se dit "ces choses là n'arrivent que dans les films ... les gens ne sont pas aussi bête, avec toute l'expérience qu'on a travers les livres, le cinéma, ..."
    Et puis on regarde autour de soit et on vois comment est géré l'Europe, les USA, le Quatar, La Chine, La Russie, ... et sont dit que si ... Même si il y a assez de monde pour ne pas accepter des choses aussi stupide, ces choses arrivent.

  8. #8
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    novembre 2010
    Messages
    3 019
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : novembre 2010
    Messages : 3 019
    Points : 8 365
    Points
    8 365
    Par défaut
    l'argument principal est le suivant :
    One good way for an agent to maintain long-term control of its reward is to eliminate potential threats, and use all available energy to secure its computer.
    (Un bon moyen pour un agent de garder le contrôle à long terme de sa récompense est d'éliminer les menaces potentielles, et d'utiliser toute l'énergie disponible pour sécuriser son ordinateur.)

    mais je n'arrive pas vraiment à être convaincu (j'ai lu le papier en diagonale ceci dit), qu'est-ce qui dit qu'une telle IA aurait vraiment pour but (ou "volonté" ?) de garder le contrôle de sa propre récompense et au delà, n'y a-t-il simplement pas un moyen de l'empêcher de façon incontournable ? (sur une architecture aussi "simple" il semble évident que si, à voir sur des architectures plus complexes)

    en tous cas le discours global reste un peu hypocrite ou consensuellement idiot à mon sens ; "ce machin pourrait être dangereux, c'est pour ça qu'on a essayé d'en faire un", mouai... reste que ce principe d'auto-réflexion/introspection est à mon avis un point clé de la mise au point d'une conscience artificielle.

  9. #9
    Expert confirmé
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    février 2005
    Messages
    3 450
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : février 2005
    Messages : 3 450
    Points : 5 873
    Points
    5 873
    Par défaut
    Citation Envoyé par chrtophe Voir le message
    Moi non plus j'y connais rien mais j'ai vu Terminator et Matrix, du coup je suis pas rassuré
    Quand nous voyons ce que fait Boston Dynamics. Je ne voudrais pas être un gilet jaune dans quelque décennies.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

Discussions similaires

  1. Réponses: 2
    Dernier message: 01/12/2011, 11h22
  2. Un chercheur informe Google d'une faille dans l’Android Market
    Par Hinault Romaric dans le forum Android
    Réponses: 8
    Dernier message: 12/03/2011, 19h05
  3. [Joomla!] Google map dans un article ?
    Par longbeach dans le forum EDI, CMS, Outils, Scripts et API
    Réponses: 2
    Dernier message: 05/09/2010, 19h08

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo