1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    juin 2016
    Messages
    142
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 142
    Points : 4 736
    Points
    4 736

    Par défaut IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique

    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    a été mis au point par des chercheurs d'IBM et du MIT

    Depuis quelques années, les recherches et expériences en intelligence artificielle sont de plus en plus poussées. L’Homme essaie de concevoir des machines qui se comporteraient exactement comme lui, qui pourraient analyser les situations de la vie et y apporter des réponses contextuelles et qui disposeraient d’une faculté d’adaptation comparable à celle des humains. Cet objectif semble de plus en plus proche étant donné les récentes avancées observées. Après les agents intelligents qui battent les humains à des jeux vidéo, des algorithmes qui réussissent à s’intégrer à une équipe et à collaborer, un robot aérospatial doté d'intelligence artificielle envoyé dans l’espace pour prêter main-forte aux astronautes, voici maintenant une intelligence artificielle qui serait capable de suivre des normes éthiques.

    En effet, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui ne se contenterait pas de suggérer les meilleurs résultats à l’utilisateur, mais qui prendrait également en compte d’autres contraintes telles que les règles éthiques et comportementales. Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.

    Nom : AI.jpg
Affichages : 1960
Taille : 18,9 Ko

    Mais, au fil des années et au fur et à mesure que les tentatives se faisaient, Internet a montré qu’il n’était pas le genre d’endroits où les règles pouvaient être posées et laissées statiques. « Dans beaucoup de choses sur Internet, dans les zones avec de grandes quantités de données, on ne peut pas toujours établir exactement toutes les règles que vous voulez que la machine suive », nous apprend Nicholas Mattei, un chercheur d’IBM Research et un membre du collectif qui a développé cette approche.

    Les chercheurs se sont servis de la recommandation de films pour tester leur algorithme, puisque c’est un domaine où la différence entre les préférences des utilisateurs et les normes éthiques est clairement visible. Ils ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants. Par exemple, les parents voudraient empêcher des services de vidéos en streaming de diffuser de contenu inapproprié à leurs enfants, et ce, même si ces derniers montraient une réaction positive à ce type de contenu. L’entraînement de l’intelligence artificielle à la technique de recommandation s’est articulé autour de deux grandes phases :

    • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
    • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.

    Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.

    Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.

    Source : News Vire

    Et vous ?

    Que pensez-vous de cette avancée dans le domaine de l’intelligence artificielle ?
    Selon vous, quelles applications pourraient être faites de cette nouvelle méthode ?

    Voir aussi

    Un robot aérospatial doté d'intelligence artificielle sur la Station spatiale internationale (ISS) pour assister les astronautes dans leurs missions

    Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué

    IA : des agents intelligents de DeepMind battent le record des humains au Quake III, un jeu de tir en vue subjective

    IA : des chercheurs de Google développent un algorithme capable de créer des scènes 3D à partir d'images bidimensionnelles
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    612
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 612
    Points : 841
    Points
    841

    Par défaut

    J'imagine les résultats, Les chercheurs ont probablement été embauché selon leur genre et race: Un noir au genre fluide et une blanche lesbienne handicapé.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  3. #3
    Nouveau Candidat au Club
    Homme Profil pro
    Technicien maintenance
    Inscrit en
    mars 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Technicien maintenance
    Secteur : Industrie

    Informations forums :
    Inscription : mars 2013
    Messages : 1
    Points : 1
    Points
    1

    Par défaut Pire que 1984

    Pire que 1984... Dans la dystopie c'était des hommes qui surveillaient des hommes... avec l'IA la pensée sera sévèrement réglementée

  4. #4
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 931
    Points : 6 147
    Points
    6 147
    Billets dans le blog
    2

    Par défaut

    Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

    Citation Envoyé par Bill Fassinou Voir le message
    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    Citation Envoyé par Bill Fassinou Voir le message
    • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
    • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.
    Encore une fois, beaucoup de bruit pour pas grand chose.
    NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
    On se contente de définir 2 systèmes de recommandations :
    - le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
    - le second identifie les œuvres à recommander sur la base de l'utilisateur final

    Si l'arbitre est biaisé, par exemple un parent chrétien hyper-croyant qui estime que la science -ou une autre religion- est l’œuvre du diable car contre la bible, et bien l'enfant n'aura droit à aucune recommandation d’œuvre scientifique. Ce n'est pas une question d'éthique, c'est de l'arbitraire contre l'arbitraire, avec l'un des deux prioritaire sur l'autre (même pondéré, car pondéré par le même arbitre).

    Citation Envoyé par Bill Fassinou Voir le message
    Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.
    Qu'on passe par des règles précises ou un système de recommandation, la problématique du conflit reste la même. La solution est alors de définir une priorité. Avec une règle précise, il s'agit de dire qui est prioritaire sur l'autre. Si des calculs sont faits pour plus de flexibilité, on peut se baser sur un score. Dans le cas de recommandations, on a aussi la flexibilité d'un score, mais par contre on perd toute la clarté d'une règle : on sait qu'en étant plus restrictif, la recommandation de l'arbitre sera davantage respectée, mais on n'a aucune idée de l'impact concret que ça aura sur les résultats (si j'augmente la priorité de autant, quelles/combien d'œuvres ne seront plus recommandées ?).

    Citation Envoyé par Bill Fassinou Voir le message
    Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.
    Là on apprend de quoi est composé la catégorie en question. C'est mieux, mais ça n'est pas plus éthique. Il s'agit de généraliser à partir d'exemples arbitrairement choisis plutôt que d'utiliser des critères précis. C'est plus facile, mais plus vague. Les soi-disant "règles" disparaissent, eut-elles été éthiques ou pas.

    Si au moins il avait été question de demander à des gens d'associer des œuvres à des règles d'éthique, de façon à apprendre les filtres sur des règles concrètes pour n'avoir à proposer aux parents qu'une liste de filtres éthiques à choisir. Là on aurait été dans le sujet. Il n'aurait pas été question de protéger qui que ce soit en particulier (une source de biais énorme), ni de limiter l'apprentissage à un arbitre particulier (autre source de biais énorme), mais de faire des associations d'ordre statistique à des règles générales.

    En bref, nulle question d'éthique ici. On botte en touche : c'est l'arbitre qui décide. On propose juste aux parents de leur éviter de devoir être derrière leurs enfants 24/7 en entraînant un agent de pré-filtrage à la place.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #5
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    612
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 612
    Points : 841
    Points
    841

    Par défaut

    Citation Envoyé par Matthieu Vergne Voir le message
    Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.



    Encore une fois, beaucoup de bruit pour pas grand chose.
    NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
    On se contente de définir 2 systèmes de recommandations :
    - le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
    - le second identifie les œuvres à recommander sur la base de l'utilisateur final
    J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel. l'UE (en particulier l'Allemagne) demande beaucoup de truc aux réseaux sociaux qui sont assez coûteux. L'utilisation d'un IA serait un argument en or pour expliquer certaine censures. Il n'y a que les idiots qui investissement sans avoir un débouché commercial pour le produit.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  6. #6
    Membre à l'essai
    Profil pro
    Inscrit en
    février 2010
    Messages
    15
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : février 2010
    Messages : 15
    Points : 10
    Points
    10

    Par défaut WECHAT le fait déjà

    Wechat le fait déjà avec les mots interdits dans le cadre de la Grande muraille en CHine

  7. #7
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 931
    Points : 6 147
    Points
    6 147
    Billets dans le blog
    2

    Par défaut

    Citation Envoyé par Madmac Voir le message
    J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel.
    Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  8. #8
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    612
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 612
    Points : 841
    Points
    841

    Par défaut

    Citation Envoyé par Matthieu Vergne Voir le message
    Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.

    Quel sont les débouchés potentiels selon toi? La confession par une IA ? Pas de chance, le Vatican a des problèmes de finance. J'imagine les conséquences sur un robot militaire: Faite l'amour, pas la guerre !

    Sérieusement, je vois pas beaucoup de débouchés pour ce type d'application.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  9. #9
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 931
    Points : 6 147
    Points
    6 147
    Billets dans le blog
    2

    Par défaut

    Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.

    Par ailleurs, si la question des débouchés t'intéresse, une recherche rapide sur ton navigateur préféré t'aurait pourtant donné des tas de ressources à lire sur le sujet. L'intérêt premier d'avoir une machine capable de prendre des décisions éthiques est de pouvoir lui faire confiance : on s'appuie sur des tas d'outils basés sur l'apprentissage machine pour prendre des décisions, or tout informaticien un tant soit peu renseigné sur ces outils sait qu'ils fournissent des résultats biaisés. Qu'ils nous enferment dans notre bulle en se focalisant sur nos intérêts principaux, ou qu'ils reproduisent les discriminations de la société actuelle, ces outils ont des défauts d'ordre éthique. En termes de solution, on peut identifier différents procédés, dont celui de rendre la machine plus éthique. C'est ce dont il est question ici. Ce n'est pas le seul, mais c'en est un.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. L'agence des services frontaliers du Canada teste une intelligence artificielle
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 6
    Dernier message: 10/01/2017, 09h22
  2. Une intelligence artificielle bat des experts de l'armée de l'air américaine
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 15
    Dernier message: 07/07/2016, 12h10
  3. Créer une intelligence artificielle qui joue a un jeu sur internet..
    Par pinkfloyd234 dans le forum Langages de programmation
    Réponses: 0
    Dernier message: 10/01/2013, 01h41
  4. [Flash Pascal] Architecture d'un jeu incluant une intelligence artificielle
    Par Roland Chastain dans le forum Flash Pascal
    Réponses: 26
    Dernier message: 28/12/2012, 18h09
  5. [Debutant] Apprendre à créer une Intelligence Artificielle (IA)
    Par Aspic dans le forum Intelligence artificielle
    Réponses: 46
    Dernier message: 21/12/2010, 18h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo