Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    600
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 600
    Points : 17 923
    Points
    17 923
    Par défaut USA : un nouveau projet de loi va sonder la partialité des algorithmes des entreprises
    USA : un nouveau projet de loi va sonder la partialité des algorithmes des entreprises
    L’IA étant de plus en plus impliquée dans la prise de décision

    Les champs d’études de l’intelligence artificielle dont l’apprentissage machine et la vision par ordinateur sont de plus en plus à l'origine d'un large éventail de processus et d'outils cruciaux comme la reconnaissance faciale, les voitures autonomes, le ciblage publicitaire, le service à la clientèle, la modération de contenu, les services de police et l'embauche, pour ne citer que ceux-là. Il convient donc de vérifier si les algorithmes utilisés par les entreprises dans l’élaboration de ces outils décisionnels sont exempts de tous préjugés raciaux, sexistes et autres. C’est pour appliquer cette logique que les législateurs américains ont présenté un projet de loi qui, lorsqu’il sera adopté, obligerait les entreprises de technologie à mettre à l'essai des prototypes de leurs algorithmes afin de déceler d’éventuels biais.

    Les entreprises concernées devraient évaluer un large éventail d'algorithmes, y compris tout ce qui affecte les droits légaux des consommateurs, prédit et analyse leur comportement, implique de grandes quantités de données sensibles, ou « surveille systématiquement de grands espaces physiques accessibles au public ». Théoriquement, la future loi viserait essentiellement, les entreprises de la technologie, vu qu’elle implique les algorithmes. Et dès lors qu’un risque important de discrimination, de problèmes de protection de la vie privée ou d'autres problèmes est détecté, l'entreprise concernée est censée les régler dans les meilleurs délais afin d’assurer la transparence et la responsabilité technologique.

    Nom : Senator Cory Booker.jpg
Affichages : 973
Taille : 29,9 Ko
    Sénateur Cory Booker


    L'Algorithmic Accountability Act a été rédigée par deux sénateurs démocrates – Cory Booker, sénateur pour le New Jersey et Ron Wyden, sénateur de l'Oregon. La députée démocrate Yvette Clarke a présenté un projet de loi équivalent à la Chambre des représentants. Si le projet de loi est adopté, il demanderait à la Commission fédérale du commerce de créer des règles pour évaluer les systèmes automatisés « très sensibles » des grandes entreprises.

    Sont concernées par la loi algorithmique sur la responsabilité, les grandes entreprises qui ont accès à une grande quantité d'information. Elle s'appliquerait aux entreprises qui gagnent plus de 50 millions de dollars par année, qui détiennent des renseignements sur au moins un million de personnes ou d'appareils, ou dont l’activité principale consiste à acheter et vendent des données de consommateurs.

    Une loi similaire a été adoptée pour la première fois aux Etats-Unis par le conseil municipal de New York en 2017. En effet, vu des grandes et importantes décisions relatives à la vie des Américains que les algorithmes prennent quotidiennement depuis ces dernières années, le conseil municipal de New York a adopté une loi qui devrait permettre de créer un groupe de travail pour vérifier que les algorithmes utilisés par la police de New York, les tribunaux et une dizaine d’autres institutions ne sont pas biaisés. Le groupe de travail a été chargé de faire des essais sur ces algorithmes, mais aussi de trouver un moyen pour que les citoyens puissent comprendre les décisions de ces algorithmes quand elles ne leur conviennent pas.

    Les sénateurs veulent faire adopter cette loi par le gouvernement fédéral des Etats-Unis afin d’obliger les entreprises à effectuer des « évaluations d'impact » des systèmes décisionnels automatisés ainsi que les données de formation « pour déterminer leurs répercussions sur l'exactitude, l'équité, la partialité, la discrimination, la confidentialité et la sécurité ».

    M. Wyden, l’un des sénateurs qui parrainent le projet de loi, a déclaré lors d’une entrevue accordée à la presse : « Les ordinateurs participent de plus en plus à un grand nombre des décisions importantes que prennent les Américains dans leur vie quotidienne, qu'il s'agisse d'acheter une maison, d'obtenir un emploi ou même d'aller en prison ».

    « Mais au lieu d'éliminer les préjugés, ces algorithmes dépendent trop souvent de suppositions ou de données biaisées qui peuvent en fait renforcer la discrimination à l'égard des femmes et des personnes de couleur », a-t-il ajouté.

    Nom : Algo.jpg
Affichages : 818
Taille : 29,6 Ko

    Les sénateurs ont présenté ce projet de loi de contrôle des algorithmes environ deux semaines après que Facebook ait été accusé d'avoir procédé à une discrimination dans la diffusion d'annonces de logements, en violation de la Fair Housing Act. La poursuite du ministère du Logement et du Développement urbain allègue que le système de ciblage publicitaire du réseau social limite injustement le nombre de personnes qui voient des annonces de logement en fonction de la race, de la religion ou de la nationalité.

    Une situation similaire de discrimination s’est produite l’an dernier avec l’un des systèmes informatiques d’Amazon. Le géant américain de la technologie, l'un des leaders mondiaux de l'intelligence artificielle, s'est servi de l’intelligence artificielle pour décider des candidats qu'il devait interviewer pour des emplois. Le système expérimental basé sur l’IA attribuait aux postulants un score situé entre une et cinq étoiles. Il avait commencé à pénaliser les candidatures contenant les mots clés « pour femmes », selon Reuters.

    Des personnes proches du dossier ont même déclaré que l’intelligence artificielle en est même venue à déclasser deux diplômées d’écoles exclusivement « pour femmes ». Après deux ans de conception, Amazon a constaté que tout candidat féminin était automatiquement éjecté de la liste et a décidé de suspendre son système de recrutement.

    La députée démocrate Yvette Clarke, à propos du projet de loi qu’elle a présenté à la Chambre des représentants, a déclaré :

    « En exigeant des grandes entreprises qu'elles ne ferment pas les yeux sur les impacts involontaires de leurs systèmes automatisés, l'Algorithmic Accountability Act garantit que les technologies du XXIe siècle sont des outils d'autonomisation plutôt que de marginalisation, tout en renforçant la sécurité et la confidentialité de tous les consommateurs ».

    Toutefois, le projet de loi ne fait pas l’unanimité. Daniel Castro, porte-parole du groupe industriel de la Fondation de la technologie de l'information et de l'innovation a déclaré que la loi ne ferait que « stigmatiser » l'IA et décourager son utilisation. Dans un communiqué, il a déclaré :

    « Tenir les algorithmes à un niveau plus élevé que les décisions humaines implique que les décisions automatisées sont intrinsèquement moins fiables ou plus dangereuses que les décisions humaines, ce qui n'est pas le cas ».

    Le dépôt de ce projet de loi Algorithmic Accountability Act a suscité des débats sur les médias sociaux sur les biais dans les systèmes décisionnels. Selon un utilisateur, la solution qui consiste à essayer de réparer les systèmes biaisés à l'aide des algorithmes d'apprentissage n’améliorera pas ces systèmes. Les données introduites dans une stratégie d'apprentissage automatique vont tout simplement essayer d'imiter le système sur lequel elles sont alimentées. En général, nous manquons de moyens simples pour «ajuster» de tels algorithmes, a-t-il écrit.

    Source : Algorithmic Accountability Act, BBC News

    Et vous ?

    Que pensez-vous de ce nouveau projet de loi ? Voyez-vous cette loi comme un outil de transparence ?
    Ne va-t-elle décourager les initiatives IA ?
    Peut-on réparer des biais avec des données de formation existantes ?

    Lire aussi

    Facebook accusé d'avoir procédé à une discrimination dans la diffusion d'annonces de logements, en violation de la Fair Housing Act
    Amazon révèle que son outil automatique de recrutement exerce une discrimination contre les femmes, et décide de le suspendre
    La proposition de San Francisco interdirait l'utilisation de la reconnaissance faciale par le gouvernement dans la ville, créant un précédent aux USA
    La reconnaissance faciale comme méthode de sécurité est inutile pour 4 smartphones sur 10, d'après une étude
    Amazon annonce qu'il continuera de vendre sa technologie de reconnaissance faciale aux forces de l'ordre, malgré les protestations
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    2 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 2 014
    Points : 6 488
    Points
    6 488
    Billets dans le blog
    3
    Par défaut
    Plutôt que de faire des lois spécifiques aux IAs, des doublons de lois déjà existantes pour les humains, il suffit de rendre l'utilisateur de l'IA responsable de son utilisation (e.g. le recruteur responsable de l'utilisation de l'IA dans son processus de recrutement). De là, les lois qui s'appliquent aux humains s'appliquent d'office à l'usage de l'IA. C'est alors à l'humain de se rendre compte des limitations de son outil et de l'utiliser de manière raisonnée, l'excuse de la délégation à l'IA ne lui enlevant pas sa responsabilité.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 16
    Dernier message: 25/07/2019, 12h58
  2. Réponses: 3
    Dernier message: 02/08/2018, 14h09
  3. Réponses: 2
    Dernier message: 12/01/2018, 22h47
  4. Réponses: 6
    Dernier message: 15/12/2017, 16h43
  5. USA : le sénat présente son projet de loi « Patent Abuse Reduction Act »
    Par Stéphane le calme dans le forum Actualités
    Réponses: 7
    Dernier message: 09/06/2013, 10h52

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo