IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    a été mis au point par des chercheurs d'IBM et du MIT

    Depuis quelques années, les recherches et expériences en intelligence artificielle sont de plus en plus poussées. L’Homme essaie de concevoir des machines qui se comporteraient exactement comme lui, qui pourraient analyser les situations de la vie et y apporter des réponses contextuelles et qui disposeraient d’une faculté d’adaptation comparable à celle des humains. Cet objectif semble de plus en plus proche étant donné les récentes avancées observées. Après les agents intelligents qui battent les humains à des jeux vidéo, des algorithmes qui réussissent à s’intégrer à une équipe et à collaborer, un robot aérospatial doté d'intelligence artificielle envoyé dans l’espace pour prêter main-forte aux astronautes, voici maintenant une intelligence artificielle qui serait capable de suivre des normes éthiques.

    En effet, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui ne se contenterait pas de suggérer les meilleurs résultats à l’utilisateur, mais qui prendrait également en compte d’autres contraintes telles que les règles éthiques et comportementales. Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.

    Nom : AI.jpg
Affichages : 3790
Taille : 18,9 Ko

    Mais, au fil des années et au fur et à mesure que les tentatives se faisaient, Internet a montré qu’il n’était pas le genre d’endroits où les règles pouvaient être posées et laissées statiques. « Dans beaucoup de choses sur Internet, dans les zones avec de grandes quantités de données, on ne peut pas toujours établir exactement toutes les règles que vous voulez que la machine suive », nous apprend Nicholas Mattei, un chercheur d’IBM Research et un membre du collectif qui a développé cette approche.

    Les chercheurs se sont servis de la recommandation de films pour tester leur algorithme, puisque c’est un domaine où la différence entre les préférences des utilisateurs et les normes éthiques est clairement visible. Ils ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants. Par exemple, les parents voudraient empêcher des services de vidéos en streaming de diffuser de contenu inapproprié à leurs enfants, et ce, même si ces derniers montraient une réaction positive à ce type de contenu. L’entraînement de l’intelligence artificielle à la technique de recommandation s’est articulé autour de deux grandes phases :

    • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
    • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.

    Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.

    Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.

    Source : News Vire

    Et vous ?

    Que pensez-vous de cette avancée dans le domaine de l’intelligence artificielle ?
    Selon vous, quelles applications pourraient être faites de cette nouvelle méthode ?

    Voir aussi

    Un robot aérospatial doté d'intelligence artificielle sur la Station spatiale internationale (ISS) pour assister les astronautes dans leurs missions

    Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué

    IA : des agents intelligents de DeepMind battent le record des humains au Quake III, un jeu de tir en vue subjective

    IA : des chercheurs de Google développent un algorithme capable de créer des scènes 3D à partir d'images bidimensionnelles
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    J'imagine les résultats, Les chercheurs ont probablement été embauché selon leur genre et race: Un noir au genre fluide et une blanche lesbienne handicapé.

  3. #3
    Nouveau Candidat au Club
    Homme Profil pro
    Technicien maintenance
    Inscrit en
    Mars 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Technicien maintenance
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2013
    Messages : 1
    Points : 0
    Points
    0
    Par défaut Pire que 1984
    Pire que 1984... Dans la dystopie c'était des hommes qui surveillaient des hommes... avec l'IA la pensée sera sévèrement réglementée

  4. #4
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

    Citation Envoyé par Bill Fassinou Voir le message
    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    Citation Envoyé par Bill Fassinou Voir le message
    • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
    • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.
    Encore une fois, beaucoup de bruit pour pas grand chose.
    NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
    On se contente de définir 2 systèmes de recommandations :
    - le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
    - le second identifie les œuvres à recommander sur la base de l'utilisateur final

    Si l'arbitre est biaisé, par exemple un parent chrétien hyper-croyant qui estime que la science -ou une autre religion- est l’œuvre du diable car contre la bible, et bien l'enfant n'aura droit à aucune recommandation d’œuvre scientifique. Ce n'est pas une question d'éthique, c'est de l'arbitraire contre l'arbitraire, avec l'un des deux prioritaire sur l'autre (même pondéré, car pondéré par le même arbitre).

    Citation Envoyé par Bill Fassinou Voir le message
    Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.
    Qu'on passe par des règles précises ou un système de recommandation, la problématique du conflit reste la même. La solution est alors de définir une priorité. Avec une règle précise, il s'agit de dire qui est prioritaire sur l'autre. Si des calculs sont faits pour plus de flexibilité, on peut se baser sur un score. Dans le cas de recommandations, on a aussi la flexibilité d'un score, mais par contre on perd toute la clarté d'une règle : on sait qu'en étant plus restrictif, la recommandation de l'arbitre sera davantage respectée, mais on n'a aucune idée de l'impact concret que ça aura sur les résultats (si j'augmente la priorité de autant, quelles/combien d'œuvres ne seront plus recommandées ?).

    Citation Envoyé par Bill Fassinou Voir le message
    Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.
    Là on apprend de quoi est composé la catégorie en question. C'est mieux, mais ça n'est pas plus éthique. Il s'agit de généraliser à partir d'exemples arbitrairement choisis plutôt que d'utiliser des critères précis. C'est plus facile, mais plus vague. Les soi-disant "règles" disparaissent, eut-elles été éthiques ou pas.

    Si au moins il avait été question de demander à des gens d'associer des œuvres à des règles d'éthique, de façon à apprendre les filtres sur des règles concrètes pour n'avoir à proposer aux parents qu'une liste de filtres éthiques à choisir. Là on aurait été dans le sujet. Il n'aurait pas été question de protéger qui que ce soit en particulier (une source de biais énorme), ni de limiter l'apprentissage à un arbitre particulier (autre source de biais énorme), mais de faire des associations d'ordre statistique à des règles générales.

    En bref, nulle question d'éthique ici. On botte en touche : c'est l'arbitre qui décide. On propose juste aux parents de leur éviter de devoir être derrière leurs enfants 24/7 en entraînant un agent de pré-filtrage à la place.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #5
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.



    Encore une fois, beaucoup de bruit pour pas grand chose.
    NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
    On se contente de définir 2 systèmes de recommandations :
    - le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
    - le second identifie les œuvres à recommander sur la base de l'utilisateur final
    J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel. l'UE (en particulier l'Allemagne) demande beaucoup de truc aux réseaux sociaux qui sont assez coûteux. L'utilisation d'un IA serait un argument en or pour expliquer certaine censures. Il n'y a que les idiots qui investissement sans avoir un débouché commercial pour le produit.

  6. #6
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    266
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 266
    Points : 366
    Points
    366
    Par défaut WECHAT le fait déjà
    Wechat le fait déjà avec les mots interdits dans le cadre de la Grande muraille en CHine

  7. #7
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Madmac Voir le message
    J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel.
    Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  8. #8
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.

    Quel sont les débouchés potentiels selon toi? La confession par une IA ? Pas de chance, le Vatican a des problèmes de finance. J'imagine les conséquences sur un robot militaire: Faite l'amour, pas la guerre !

    Sérieusement, je vois pas beaucoup de débouchés pour ce type d'application.

  9. #9
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.

    Par ailleurs, si la question des débouchés t'intéresse, une recherche rapide sur ton navigateur préféré t'aurait pourtant donné des tas de ressources à lire sur le sujet. L'intérêt premier d'avoir une machine capable de prendre des décisions éthiques est de pouvoir lui faire confiance : on s'appuie sur des tas d'outils basés sur l'apprentissage machine pour prendre des décisions, or tout informaticien un tant soit peu renseigné sur ces outils sait qu'ils fournissent des résultats biaisés. Qu'ils nous enferment dans notre bulle en se focalisant sur nos intérêts principaux, ou qu'ils reproduisent les discriminations de la société actuelle, ces outils ont des défauts d'ordre éthique. En termes de solution, on peut identifier différents procédés, dont celui de rendre la machine plus éthique. C'est ce dont il est question ici. Ce n'est pas le seul, mais c'en est un.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  10. #10
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.
    .
    Ça devrait intéresser pourtant l’intéressé parce que cela va être le talon d’Achille pour presque touts les domaines pour laquelle ont pourrait être tenté d'utiliser l' applications d'intelligences artificielle. Imagine la situation suivantes. une voiture Uber dérape sur une route verglacé, l'analyse de la situation lui permet seulement deux options:

    - La première lui permet de sauver son passager, mais en tuant 2 personnes.
    - Et la seconde permet de sauver 2 personnes, mais tue le client.

    Même les tâches qui ne traitent pas éthique ou de morale vont probablement être confronté à contraintes qui relèvent d'éthique ou de morale. Ôtant dire que pour ces tâches l'IA n'est une solution viable. C'est pour cela que les débouchés doivent être évaluer sous cet angle afin de voir si il existe des risques d'être confronté à ce type de problème.

    Et le second problème, est de définir si on travail avec un ensemble fermée de problèmes et de solutions. Tous les programmes de AI ont ce problème: Ils ne sont en mesure de répondre que pour les questions pour laquelle ils ont une solution. Il existe bien la méthode qui utilise des 'cadres' qui permet des solutions, Mais cela suppose que le contexte accepte des suppositions.

    Le modèle par cadre fonctionne par similitudes. Plus le nombre de similitudes est élevé, plus supposition a des chances d'être exacte. Imaginons le cas ou nous devons nourrir un ours blanc. Mais que nous avons de la documentation sur les ours noir et brun. À partir de cette documentation, il est possible de faire une supposition avec un degré de certitude acceptable.

    Mais avec des questions qui relèvent de morale ou éthique les suppositions acceptables sont en nombres infinies. Donc déterminé la meilleure est impossible parce c'est du domaine de l'arbitraire.


    Je sais que ce fil est vieux, mais j'étais dans la rénovation jusqu'au coup.

  11. #11
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Je sais très bien que l'éthique est un des talons d'Achille (et non le seul) en IA. Évidemment que le sujet lui-même est intéressant et qu'il mérite toute notre attention. Mais l'article qui nous intéresse ici n'est pas sur le sujet de l'éthique, mais sur un moyen de le couvrir. Il s'agit donc de ne pas faire un hors sujet. Et ton dilemme du tramway ne change rien à l'affaire.

    L'apprentissage machine, c'est du copier-coller de l'humain (et plus généralement du vivant) vers la machine. Construire sur ce genre de solution, ça revient à dire "j'ai une solution technique pour reproduire, reste à savoir quoi reproduire". La plupart des articles d'IA se focalisent là dessus, sur la solution technique, mais ils sont à côté de la plaque. Si on parle de machine qui doivent pouvoir faire une chose spécifique, alors tout le travail est non pas sur l'apprentissage lui-même, mais sur la construction du jeu d'apprentissage à lui fournir en entrée : comment faire pour s'assurer que ce jeu est représentatif du comportement souhaité (ici un comportement éthique) ? Quand on lit un article qui parle de faire X avec une IA, c'est sur cette construction du jeu qu'il faut se focaliser. Les techniques de reproduction, on en a, aucun soucis avec ça. C'est évidemment améliorable, mais indépendamment de ce qu'on lui met en entrée. La question doit se focaliser sur la construction du jeu d'apprentissage. Or, ici, le jeu fournit n'apporte aucune garantie d'un point de vue éthique. Tout au plus ça fait des hypothèses bancales en faisant le raccourci "papa maman a dit = éthique". La solution proposée est un filtre parental, pas une IA éthique.

    Ceux qui pourront faire des IA éthiques sont ceux qui se focaliseront sur ce que sont les propriétés d'un comportement éthique et sur comment les maximiser au sein d'un jeu d'apprentissage. Pas ceux qui tourneront en rond sur la partie technique comme des papillons de nuit autour d'un lampadaire. C'est de la recherche fondamentale qu'il nous faut ici, pas appliquée.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  12. #12
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Je sais très bien que l'éthique est un des talons d'Achille (et non le seul) en IA. Évidemment que le sujet lui-même est intéressant et qu'il mérite toute notre attention. Mais l'article qui nous intéresse ici n'est pas sur le sujet de l'éthique, mais sur un moyen de le couvrir. Il s'agit donc de ne pas faire un hors sujet. Et ton dilemme du tramway ne change rien à l'affaire.

    L'apprentissage machine, c'est du copier-coller de l'humain (et plus généralement du vivant) vers la machine. Construire sur ce genre de solution, ça revient à dire "j'ai une solution technique pour reproduire, reste à savoir quoi reproduire". La plupart des articles d'IA se focalisent là dessus, sur la solution technique, mais ils sont à côté de la plaque. Si on parle de machine qui doivent pouvoir faire une chose spécifique, alors tout le travail est non pas sur l'apprentissage lui-même, mais sur la construction du jeu d'apprentissage à lui fournir en entrée : comment faire pour s'assurer que ce jeu est représentatif du comportement souhaité (ici un comportement éthique) ? Quand on lit un article qui parle de faire X avec une IA, c'est sur cette construction du jeu qu'il faut se focaliser. Les techniques de reproduction, on en a, aucun soucis avec ça. C'est évidemment améliorable, mais indépendamment de ce qu'on lui met en entrée. La question doit se focaliser sur la construction du jeu d'apprentissage. Or, ici, le jeu fournit n'apporte aucune garantie d'un point de vue éthique. Tout au plus ça fait des hypothèses bancales en faisant le raccourci "papa maman a dit = éthique". La solution proposée est un filtre parental, pas une IA éthique.

    Ceux qui pourront faire des IA éthiques sont ceux qui se focaliseront sur ce que sont les propriétés d'un comportement éthique et sur comment les maximiser au sein d'un jeu d'apprentissage. Pas ceux qui tourneront en rond sur la partie technique comme des papillons de nuit autour d'un lampadaire. C'est de la recherche fondamentale qu'il nous faut ici, pas appliquée.

    Ok, je met de coté le problème d'établir ce qui acceptable et ce qui n'est pas acceptable qui peut varier selon chaque individu. Le seconde difficulté est d'établir un algorithme qui permet une compréhension réelle d'un texte. Des artifices à la façon d'éliza ne suffiront pas pour ce type de tâche. Et à ma connaissance cela n'a pas été réaliser. Donc si cette solution est inexistante, leur solution doit reposer sur la reconnaissance de pattern style réseaux de neurones. À différence que l'entrainement ne repose pas sur des reconnaissances de formes. Mais sur la reconnaissance de combinaisons de mot-clés .

    Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.
    Cette partie de ton introduction me suggère que le mécanisme central de ce projet est un système-expert avec une couche qui permet de transformer des recommandations de l'arbitre en règle d'inférence. d'une façon interactive. L'utilisateur final sert sans doute à étoffer les réponses, si je questionne 3 personnes et que je reçois trois réponses différentes. Il y a une forte chance que les personnes ont considéré la réponse avec un facteur non énoncé. Et que de fait ma banque de règles soit incomplète.

  13. #13
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Madmac Voir le message
    Cette partie de ton introduction me suggère que le mécanisme central de ce projet est un système-expert avec une couche qui permet de transformer des recommandations de l'arbitre en règle d'inférence. d'une façon interactive.
    D'un point de vue métaphore, c'est tout à fait ça. Un système expert étant avant tout un système de règles explicites, ici on les apprends implicitement au travers des interactions avec l'arbitre. L'apprentissage machine vise d'ailleurs depuis ses débuts à adresser cet objectif d'inférence des règles, l'identification de règles explicites étant une des difficultés principales des systèmes experts. On n'a donc ici rien de nouveau sur ce point.

    Citation Envoyé par Madmac Voir le message
    L'utilisateur final sert sans doute à étoffer les réponses, si je questionne 3 personnes et que je reçois trois réponses différentes. Il y a une forte chance que les personnes ont considéré la réponse avec un facteur non énoncé. Et que de fait ma banque de règles soit incomplète.
    Attention, contrairement à un système expert ici on démarre avec zéro règles. On les apprend toutes au travers des interactions avec l'utilisateur. Il ne sert pas qu'à étoffer les règles, il sert à fournir les interactions nécessaires à l'inférence de l'ensemble des règles. Par d'arbitre = rien à apprendre = pas de filtrage (ou random).
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  14. #14
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message

    Attention, contrairement à un système expert ici on démarre avec zéro règles. On les apprend toutes au travers des interactions avec l'utilisateur. Il ne sert pas qu'à étoffer les règles, il sert à fournir les interactions nécessaires à l'inférence de l'ensemble des règles. Par d'arbitre = rien à apprendre = pas de filtrage (ou random).

    OK, là je saisis la partie du projet qui relève de l'intelligence artificielle: gérer l'interaction l'humain pour transformer le tout en règle. Alors bonne chance, j'ai fabriqué des système-experts par le passé. Et je devais les programmé moi-même parce que les gens avaient trop de mal à comprendre la différence entre une induction et un déduction.

  15. #15
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Ici on n'a effectivement pas ce problème, par contre on a le soucis inverse : certes le système apprend des règles, mais on n'a aucune idée desquelles. Seulement que, empiriquement, elles permettent d'avoir un comportement similaire aux humains analysés.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  16. #16
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Ici on n'a effectivement pas ce problème, par contre on a le soucis inverse : certes le système apprend des règles, mais on n'a aucune idée desquelles. Seulement que, empiriquement, elles permettent d'avoir un comportement similaire aux humains analysés.
    J'ai réfléchi énormément sur le problème proposé plus la solution me semble impossible à réaliser: principalement parce que les logiciels n'arrivent pas a comprendre le conversation quand il est question de concept abstrait. Et la principale raison est que les méthodes de classification connue ne permettent de tirer beaucoup de conclusion.

    Par exemple, il est possible de faire l’apologie du Nazisme et également en faire la condamnation en utilisant pratiquement le même vocabulaire. Donc une approche reposant uniquement sur la présence de mot-clefs ne serait pas suffisante.
    Par contre, si on dispose également du profil et de l'historique des sites qu'ils fréquentent, il serait possible pour le programme de déterminer les commentaires qui mériteraient une vérification par un humain. Je pense que c'est le mieux qui peut-être réalistement espérer.

  17. #17
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Il y a de la recherche en cours sur le "sens commun" pour les machines. Tu peux regarder du côté du Web sémantique pour une problématique orientée web, et du côté des ontologies pour quelque chose de plus générique et abstrait.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  18. #18
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Il y a de la recherche en cours sur le "sens commun" pour les machines. Tu peux regarder du côté du Web sémantique pour une problématique orientée web, et du côté des ontologies pour quelque chose de plus générique et abstrait.
    As-tu un livre ou un site à l'esprit ?

  19. #19
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Rien de facilement accessible en dehors des pages Wikipédia ("ontologie informatique" pour le second), mais je ne serais pas étonné que ça existe aujourd'hui. J'avais assisté à des cours d'ontologie et de modélisation conceptuelle pendant mon doctorat. Tu peux regarder les travaux de Nicola Guarino (voire sa page Google Scholar) et Giancarlo Guizzardi (idem) qui sont deux pointures sur le sujet.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  20. #20
    Inactif  
    Homme Profil pro
    Analyste/Programmeur
    Inscrit en
    Novembre 2018
    Messages
    18
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : France, Gard (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Analyste/Programmeur

    Informations forums :
    Inscription : Novembre 2018
    Messages : 18
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par Madmac Voir le message
    J'imagine les résultats, Les chercheurs ont probablement été embauché selon leur genre et race: Un noir au genre fluide et une blanche lesbienne handicapé.
    Bonjour.

    Je dirais ; Tant que la description identitaire est fidèle bien que non objective et que chacun cherche le bien de chacun, qui que ce soit.../... ; Alors tout va bien.

    Cependant, nos algorithmes encore axés sur des logiques binaires et/ou maniquéistiques sont des objets supplémentaires sur lesquels il faudra assurer une veille accrue pour la sécurité de notre genre et/ou conditions existentielle.

    Merci de votre lecture.
    Je prenais le fil au premier relatif, j'ai lu le titre et je connais les avancées sciento- fictives projetées par les puissances économique et militaires.

    Nous citoyens, avons le devoir de leurs maîtrises.

Discussions similaires

  1. L'agence des services frontaliers du Canada teste une intelligence artificielle
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 6
    Dernier message: 10/01/2017, 09h22
  2. Une intelligence artificielle bat des experts de l'armée de l'air américaine
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 15
    Dernier message: 07/07/2016, 12h10
  3. Créer une intelligence artificielle qui joue a un jeu sur internet..
    Par pinkfloyd234 dans le forum Langages de programmation
    Réponses: 0
    Dernier message: 10/01/2013, 01h41
  4. [Flash Pascal] Architecture d'un jeu incluant une intelligence artificielle
    Par Roland Chastain dans le forum Flash Pascal
    Réponses: 26
    Dernier message: 28/12/2012, 18h09
  5. [Debutant] Apprendre à créer une Intelligence Artificielle (IA)
    Par Aspic dans le forum Intelligence artificielle
    Réponses: 46
    Dernier message: 21/12/2010, 18h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo