+ Répondre à la discussion Actualité déjà publiée
  1. #1
    Community Manager

    Avatar de Malick SECK
    Homme Profil pro
    Auditeur
    Inscrit en
    juillet 2012
    Messages
    3 866
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Sénégal

    Informations professionnelles :
    Activité : Auditeur
    Secteur : Conseil

    Informations forums :
    Inscription : juillet 2012
    Messages : 3 866
    Points : 43 897
    Points
    43 897
    Billets dans le blog
    15

    Par défaut Conférence Beneficial AI 2017 : les « 23 principes d’Asilomar » adoptés par les spécialistes du domaine

    Conférence Beneficial AI 2017 : les « 23 principes d’Asilomar » adoptés par les spécialistes,
    pour encadrer le développement éthique de l’intelligence artificielle

    Depuis quelque temps, les initiatives et les collectifs œuvrant pour le développement éthique de l'intelligence artificielle (IA) ne cessent de se multiplier. Parmi ces derniers nous pouvons citer l'exemple du collectif dénommé « Partnership on AI » formé par Google, Microsoft, Facebook, IBM et Amazon afin de promouvoir et faire avancer les discussions sur l'IA. Apple a récemment rejoint ladite alliance en tant que membre fondateur. L'objectif de cette alliance est d'étudier et formuler les meilleures pratiques sur les technologies d'IA, pour faire avancer la compréhension de l'IA par le public, et servir de plateforme ouverte pour la discussion et l'engagement autour de l'intelligence artificielle et de son impact sur les personnes et la société. Rappelons également que Microsoft a annoncé en septembre dernier la création d'une nouvelle division pour le développement de l'intelligence artificielle.

    Toutefois, force est de constater qu'à ce jour, il n'existe aucun guide commun encadrant le domaine de l'intelligence artificielle notamment en édictant les bonnes pratiques en la matière. C'est donc dans l'optique de mettre en place ce guide que plusieurs spécialistes de l'IA et de la robotique se sont réunis lors de la conférence dénommée Beneficial AI 2017 organisée par le Future of Life Institute (FLI, institut pour l'avenir de la vie). La conférence s'est tenue à Asilomar, en Californie au mois de janvier dernier.

    Pour rappel, le Future of Life Institute (FLI) est une association de volontaires basée dans la région de Boston, cherchant à diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’intelligence artificielle (IA).

    Aux termes de la rencontre, les spécialistes ont procédé à l'adoption de vingt-trois (23) principes baptisés « 23 principes d’Asilomar » et dont l'objectif est d'encadrer le développement de l'intelligence artificielle. D'après les informations recueillies, les principes ont été signés par 846 chercheurs spécialisés dans l'IA et la Robotique et par 1 270 autres spécialistes dans divers domaines. Les « 23 principes d’Asilomar » se présentent comme suit :
    1. Objectif des recherches : le but visé par les recherches en IA devrait être la création d'une intelligence artificielle bénéfique, et non une intelligence artificielle incontrôlable ;
    2. Investissements : les investissements dans l'IA devraient être accompagnés par un financement des recherches afin de garantir son usage bénéfique. Cela prend en compte les questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales telles que :
      • comment pouvons-nous rendre les futures IA suffisamment robustes afin qu'elles puissent exécuter les ordres qui leur sont donnés sans dysfonctionnement ou sans risque d’être piratées ?
      • comment pouvons-nous accroître notre prospérité grâce à l'automatisation tout en conservant les ressources humaines ?
      • comment pouvons-nous mettre à jour nos systèmes juridiques pour les rendre plus équitables et plus efficaces dans la gestion des risques associés à l'IA ?
    3. Relations entre les scientifiques et les juridictions : il devrait y avoir un échange constructif et sain entre les chercheurs et les décideurs de l'intelligence articificielle ;
    4. Culture ou esprit de recherche : une culture de la coopération, la confiance et la transparence devrait être encouragée entre les chercheurs et les développeurs de l'IA ;
    5. Prévention : les équipes de développement des systèmes d'IA doivent coopérer activement pour éviter d'être en porte à faux avec les normes de sécurité ;
    6. Sécurité : les IA devraient être sécurisées durant tout le long de leur durée de vie opérationnelle grâce à des caractéristiques vérifiables et applicables.
    7. Transparence s'il y a des dommages : lorsqu'un système d'IA cause des dommages, il devrait être possible de déterminer la cause ;
    8. Transparence judiciaire : l'implication d'un système autonome dans une quelconque prise de décision judiciaire doit être corroborée par des explications satisfaisantes et susceptibles d'être auditées par une autorité humaine compétente ;
    9. Responsabilité : les concepteurs et les constructeurs de systèmes d'IA avancés sont responsables des conséquences morales découlant de leurs utilisations abusives et de leurs agissements. ;
    10. Concordance de valeurs : les systèmes d'IA autonomes devraient être conçus de manière à ce que leurs objectifs et les comportements soient conformes aux valeurs humaines ;
    11. Valeurs humaines : les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de la dignité humaine, les droits, les libertés et la diversité culturelle ;
    12. Données personnelles : chaque personne devrait avoir le droit d'accéder, de gérer et de contrôler ses données personnelles, compte tenu de la puissance des systèmes d'IA à analyser et utiliser ces données ;
    13. Liberté et vie privée : l'application de l'IA aux données personnelles ne doit pas restreindre indûment la liberté réelle ou perçue des personnes ;
    14. Bénéfice partagé : les technologies basées sur l'IA devraient bénéficier à autant de personnes que possible. La valorisation de ces dernières devrait également s'ensuivre ;
    15. Prospérité partagée : la prospérité économique créée par l'IA devrait être largement partagée, cela au bénéfice de toute l'humanité ;
    16. Contrôle humain : les humains devraient être en mesure de choisir s'ils veulent oui ou non déléguer des tâches aux systèmes IA pour atteindre les objectifs qu'ils se sont fixés ;
    17. Anti-renversement : les pouvoirs qui sont conférés à quelqu'un du fait qu'il contrôle des systèmes d'IA très avancés devraient respecter et améliorer les processus sociaux et civiques sur lesquelles le bien-être de la société repose
    18. Course aux IA d’armement : une course armements dans les armes autonomes mortelles basées sur l'IA devrait être évitée ;
    19. Alerte sur les capacités : s'il n'y a pas de consensus, il est vivement conseillé d'éviter de faire des hypothèses fortes concernant les limites supérieures des capacités des futures IA ;
    20. Importance : les systèmes d'IA avancés pourraient favoriser un important changement dans l’histoire de la vie sur Terre ; en cela ils devraient donc être gérés avec soin et avec de gros moyens ;
    21. Risques : les risques susceptibles d'être causés par les IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet de prévision afin d'atténuer leur impact ;
    22. Auto-développement : les systèmes d'IA conçus pour s’autoaméliorer ou s’autorépliquer, au risque de devenir très nombreux ou très avancés, doivent faire l’objet d’un contrôle de sécurité rigoureux ;
    23. Bien commun : les IA super intelligentes ne doivent être développées que pour participer à des idéaux éthiques largement partagés, et pour le bien-être de l'humanité. Par conséquent, elles ne devraient pas être destinées à un État ou à une entreprise.



    Toutefois, en marge de ses « 23 principes d’Asilomar », il est important de rappeler les trois (3) lois de la robotique qui ont été créées dans les années 1940 par l'écrivain russe Isaac Asimov. Il s'agit de :
    • un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
    • un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    • un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

    « L'intelligence artificielle a déjà fourni des outils utiles qui sont utilisés tous les jours par des gens du monde entier. Son développement continu, guidé par les principes ci-dessus, offrira des opportunités incroyables pour aider et responsabiliser les gens dans les décennies et les siècles à venir. », a rapporté le Future of Life Institute (FLI).

    Source : Le Future of Life Institute (FLI)

    Et vous ?

    Que pensez-vous de ces principes ?

    Pensez-vous que tous les acteurs de l'IA vont s'y conformer ?
    Vous avez envie de contribuer au sein du Club Developpez.com ? Contactez-nous maintenant !
    Vous êtes passionné, vous souhaitez partager vos connaissances en informatique, vous souhaitez faire partie de la rédaction.
    Il suffit de vous porter volontaire et de nous faire part de vos envies de contributions :
    Rédaction d'articles/cours/tutoriels, Traduction, Contribution dans la FAQ, Rédaction de news, interviews et témoignages, Organisation de défis, de débats et de sondages, Relecture technique, Modération, Correction orthographique, etc.
    Vous avez d'autres propositions de contributions à nous faire ? Vous souhaitez en savoir davantage ? N'hésitez pas à nous approcher.

  2. #2
    Expert confirmé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    novembre 2011
    Messages
    1 698
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 698
    Points : 5 245
    Points
    5 245
    Billets dans le blog
    2

    Par défaut

    Citation Envoyé par Malick SECK Voir le message
    Toutefois, en marge de ses « 23 principes d’Asilomar », il est important de rappeler les trois (3) lois de la robotique qui ont été créées dans les années 1940 par l'écrivain russe Isaac Asimov.
    Je n'en vois pas l'intérêt, non. Ces lois viennent de l'imaginaire d'un écrivain et ont déjà montré leurs limites depuis longtemps, y compris par l'écrivain lui-même si je ne m'abuse. Comparer cela à une initiative scientifique me semble inadapté. Quoi que vu les principes, on reste dans le même genre. Plus de détails au point suivant.

    Citation Envoyé par Malick SECK Voir le message
    Que pensez-vous de ces principes ?
    Que c'est une bonne initiative mais encore trop préliminaire. Les interprétations peuvent aller dans tous les sens. En l'occurrence, dès le premier point ça tombe à l'eau : on parle de faire de la "beneficial intelligence", or beneficial veut simplement dire de produire quelque chose qui nous apporte un bénéfice. Question : qui produit une chose pour laquelle il ne tire aucun bénéfice ? Personne. Même si on est forcé de faire quelque chose, on le fait car c'est dans notre intérêt de le faire (pour éviter un pire traitement par exemple). D'ailleurs, qui irait critiquer quelqu'un d'avoir fait une IA malveillante car il était séquestré dans un bunker avec sa famille prise en otage ? Qui lui jettera la première pierre en affirmant qu'il aurait du choisir la mort de lui et sa famille plutôt que de développer une telle IA ? Ces principes sont déjà friables dès le départ. Ceux qui signent ça le font parce qu'ils peuvent en tirer une interprétation qui leur va, en sachant que ça n'engage à rien (je développe plus loin).

    Ensuite, les principes c'est bien joli, mais rien n'empêchera quelqu'un de mal intentionné de faire une IA malveillante. Or le second point espère faire des "AI systems highly robust, so that they do what we want without malfunctioning or getting hacked". En mettant de côté l'utopisme d'une IA parfaite (à moins qu'elle soit intégralement formulable de manière formelle, et encore avec un formalisme assez restreint pour que ça reste prouvable, autrement dit une IA finalement assez réduite en fonctionnalités et donc pas si utile), on n'envisage ici que les usages positifs, ce qui ne me semble pas souhaitable. Si c'est quelqu'un de mal intentionné qui l'utilise, voudra-t-on vraiment que l'IA soit inattaquable ? Pour éviter cela, il faudrait que l'IA soit suffisamment autonome avec un biais envers des bénéfices supérieurs (je laisse à chacun le soin de mettre ce qu'ils veulent derrière ces termes), ce qui revient à dire que finalement cette IA ne devrait pas faire ce qu'on veut d'elle... à moins que ce ne soit un "nous" d'ordre général, après tout le point 10 demande à ce que l'autonomie d'une IA soit alignée sur les valeurs humaines... sauf que des valeurs humaines, il y en a des tonnes et toutes ne sont pas partagées. On pourrait parler des droits de l'Homme (si au moins c’était dit explicitement), mais avant de garantir que l'IA les respectent il faudrait arriver à formaliser ces droits. Bref, je pense qu'il va encore falloir compter sur l'éthique de l'utilisateur pendant un bon moment, et perso je doute que ça change. Surtout qu'on parle ici de principes, et non d'engagements.

    Parlons d'engagement justement : par exemple les points 5 et 18, qui parlent du manque de respect des normes de sécurité et de la course aux armements qui devraient être évités (should be avoided), et non pas qui doivent être condamnés, amenant les signataires à refuser d'en produire. Donc si on s'autorise à le faire quand même, après tout ça peut tout à fait être considéré comme "beneficial" en fonction des valeurs humaines qu'on place en haut de liste, finalement ces principes n'ont pas grand chose à dire. Est-ce que la charte de Munich dit qu'un journaliste devrait éviter de déformer la vérité ou éviter de révéler ses sources ? Non, il doit "Respecter la vérité, quelles qu’en puissent être les conséquences pour lui-même". Est-ce que le serment d’Archimède parle d'éviter d'utiliser ses connaissances à des fins destructrices ? Non, il l'interdit. Quid du serment d'Hippocrate pour les médecins ?

    Bref, je ne vais pas critiquer chaque point : cette liste s'est construite en rassemblant des tas de propositions, puis en ne gardant que celles qui obtenaient 90% de pour (quid des abstentions ? j'en sais rien). Du coup, il n'y a pas vraiment de fil rouge dans ces principes, qui permettrait de garantir une certaine vision avec une certaine cohérence. C'est juste un fourre-tout fait via un sondage de popularité. En politique on parlerait d'un programme populiste, où on met ce qui plaît sans vraiment chercher à savoir ce que ça implique. Donc je salue l'initiative, mais pour moi il y a encore beaucoup de boulot.

    Citation Envoyé par Malick SECK Voir le message
    Pensez-vous que tous les acteurs de l'IA vont s'y conformer ?
    Non, et cela pour une raison simple : je suis postdoc en IA, on m'a proposé de le signer et j'ai refusé. Le pourquoi devrait être clair à la vue du point précédent. Je signerais le jour où ça stipulera des engagements en lesquels je crois. D'ici là, pour moi ça reste de la pub pour les collectifs concernés.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  3. #3
    Nouveau Candidat au Club
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    novembre 2015
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : novembre 2015
    Messages : 48
    Points : 0
    Points
    0

    Par défaut

    On as un exemple typique de conférence inutile. On paye des "chercheurs" pour faire du bullshit et une conclusion vague qui n'apporte rien de concret, reste floue, manque de rigueur (un comble pour des chercheurs).

    J'ai lu le résumé de leurs blabla en VO et franchement a part y voir des humanistes en PLS y'a rien d’intéressant à en retirer.

    Je remet en doute ce genre d'initiative, car il s'agit que de paroles : pas d'algo, pas de code et encore moins de lois.
    C'est l'équivalent d'un discours Miss France.

Discussions similaires

  1. Réponses: 0
    Dernier message: 08/12/2009, 20h05
  2. Réponses: 11
    Dernier message: 17/07/2009, 14h59
  3. Quels sont les formats graphiques supportés nativement par les navigateurs
    Par Plopcool dans le forum Balisage (X)HTML et validation W3C
    Réponses: 1
    Dernier message: 08/03/2009, 20h17
  4. Réponses: 3
    Dernier message: 28/09/2007, 12h44
  5. Réponses: 7
    Dernier message: 24/01/2007, 17h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo