IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Robotique Discussion :

Des chercheurs corrigent les erreurs d'une IA rien qu'avec la pensée


Sujet :

Robotique

  1. #1
    Expert éminent sénior
    Avatar de Coriolan
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mai 2016
    Messages
    701
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Sarthe (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mai 2016
    Messages : 701
    Points : 51 808
    Points
    51 808
    Par défaut Des chercheurs corrigent les erreurs d'une IA rien qu'avec la pensée
    Des chercheurs corrigent les erreurs d'une IA rien qu'avec la pensée
    Leur système permet de contrôler un robot avec le cerveau seulement

    Le cerveau constitue une unité de traitement complexe qui contient plus de 200 milliards de neurones qui émettent des milliers de signaux électriques par seconde. Malgré cette complexité, les humains n’ont jamais pu faire bouger les choses par télépathie, du moins avant que les scientifiques ne commencent à réfléchir comment contrôler des robots avec la pensée seule.

    On vous informait en juillet dernier que des chercheurs travaillent sur un nouveau système de pilotage cérébral qui permet de piloter simultanément quatre drones. Le projet est financé par l’armée américaine et a pour but d’améliorer la technologie afin de faciliter le pilotage de groupes de machines rien qu’avec la pensée. Une autre équipe du MIT et de l’Université de Boston veut résoudre le même problème, ils sont en train de développer un système qui permet à des humains de corriger les erreurs d’un robot rien qu’avec la pensée.

    Il faut savoir qu’avec les avancées récentes de l’intelligence artificielle et l’apprentissage machine, de nombreuses machines sont venues remplacer l’Homme dans une panoplie de domaines. De la finance à la cybersécurité en passant par l'industrie manufacturière, l’IA est devenue incontournable et certains se demandent déjà quel futur est réservé à l’humanité avec une IA de plus en plus dominante et sophistiquée. Toutefois, si l’IA cherche à mettre au point des systèmes capables de réaliser de façon plus satisfaisante des tâches qui sont pour l’instant accomplies par des humains, autrement dit, on cherche à créer des machines capables d’imiter les différents aspects humains comme le raisonnement, la compréhension des langages naturels, la perception visuelle ou auditive, etc. Il reste encore une marge de manœuvre puisque ces systèmes conçus pour imiter les humains peuvent toujours se tromper et faire des erreurs.

    Et c’est le but du système de feedback créé par l’équipe de chercheurs du Computer Science and Artificial Intelligence Laboratory (CSAIL), son but est de permettre à des opérateurs humains d’intervenir quand une IA choisit une mauvaise décision. Rien qu’avec la pensée, la machine est alertée en temps réel qu’elle a commis une erreur. Ce système ne s’appuie que sur le cerveau grâce à un moniteur d’électroencéphalographie qui capture l’activité du cerveau.

    Avec cet outil, le système peut détecter si une personne a remarqué l’erreur du robot qui est en train de ranger des objets. Les algorithmes d’apprentissage machine de l‘équipe permettent au système de classifier les ondes du cerveau en quelques millisecondes (entre 10 et 30 millisecondes).

    Pour le moment, le système prend en charge des tâches simples de choix binaire. Mais l’auteur principal de l’étude a informé que cette expérience montre qu’on pourrait contrôler un jour des robots avec des façons beaucoup plus intuitives.

    « Imaginez être capable d’informer instantanément un robot de faire une certaine action, sans que vous ayez à taper une commande, appuyer sur un bouton ou même dire un mot, » a dit Daniel Rus, directrice du CSAIL. « Une approche simplifiée qui améliorerait nos capacités à superviser les robots d’une usine, les voitures autonomes et les autres technologies que nous n’avons même pas encore inventées. »


    Pour cette étude, l’équipe a utilisé un robot nommé “Baxter”, les chercheurs ont voulu faire en sorte que l’expérience soit menée de façon naturelle, alors ils se sont concentrés sur les signaux de type (ErrP : error-related potentials) qui sont générés par le cerveau à chaque fois qu’il observe une erreur. De cette façon, au fur et à mesure que le robot indique quelle décision il va prendre, le système utilise les ErrPs pour déterminer si l’humain est d’accord avec son choix.

    « Au fur et à mesure que vous observez le robot, tout ce que vous avez à faire est d'être d’accord ou de ne pas être d’accord avec ce qu’il fait, » a dit Rus. « Vous n’avez pas à vous entrainer pour penser d’une certaine manière, la machine s’adapte à vous et non pas le contraire. »

    Source : MIT News

    Et vous ?

    Qu'en pensez-vous ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 537
    Points : 3 909
    Points
    3 909
    Par défaut
    j’ignorais que le cerveau émettait un type particulier d’onde quand on était d'accord ou non.

  3. #3
    Membre averti

    Homme Profil pro
    Serial Entrepreneur
    Inscrit en
    Mai 2006
    Messages
    68
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : Belgique

    Informations professionnelles :
    Activité : Serial Entrepreneur

    Informations forums :
    Inscription : Mai 2006
    Messages : 68
    Points : 316
    Points
    316
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    j’ignorais que le cerveau émettait un type particulier d’onde quand on était d'accord ou non.
    Pour avoir un peu joué avec cette techno, l'activité de chaque électrode varie si tu penses consciemment à quelque chose.
    Vu que les intentions sont opposées ("oui, c'est bon" vs "non, c'est pas bon"), les ondes émises doivent suffisamment varier pour pouvoir les dissocier.
    Du coup, il suffit de créer des tâches "largement correctes" et "largement incorrectes" pour entraîner l'algorithme à reconnaître ton pattern (qui varie énormément d'une personne à l'autre).

    J'avais déjà testé une POC de ce type : il fallait déplacer une boule dans un environnement 3D "par la pensée". C'était assez peu réactif, mais dans l'ensemble ça fonctionnait plutôt bien. Je crois même que techniquement, reconnaître un "oui" d'un "non" sur un échantillon de quelques secondes doit être assez facile.

    Je me demande par contre comment le système réagit quand l'utilisateur ne sait pas si c'est bon ou pas...

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 537
    Points : 3 909
    Points
    3 909
    Par défaut
    Mode sexiste : On

    Comment le système fait avec les femmes ? Vu que chez elle un "non" peu être un "peu-être" et un "peu-être" est un oui.
    Donc comme un "non" peu etre un "oui", ca va etre compliqué non ?

    Mode sexiste : Off

  5. #5
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 412
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 412
    Points : 4 729
    Points
    4 729
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    Mode sexiste : On

    Comment le système fait avec les femmes ? Vu que chez elle un "non" peu être un "peu-être" et un "peu-être" est un oui.
    Donc comme un "non" peu etre un "oui", ca va etre compliqué non ?

    Mode sexiste : Off
    Heureusement que tu as attendu aujourd'hui pour ce genre de blague, hier, c'était interdit

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 537
    Points : 3 909
    Points
    3 909
    Par défaut
    oui c'est voulu

Discussions similaires

  1. Réponses: 6
    Dernier message: 26/12/2016, 12h04
  2. corriger les erreurs d'espace commises dans une phrase
    Par johnny3 dans le forum Débuter avec Java
    Réponses: 22
    Dernier message: 07/05/2008, 00h58
  3. Rediriger les erreurs d'une commande
    Par GLDavid dans le forum Langage
    Réponses: 9
    Dernier message: 10/11/2005, 22h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo