IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    mai 2019
    Messages
    431
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : mai 2019
    Messages : 431
    Points : 7 970
    Points
    7 970
    Par défaut Facebook s'excuse après que son IA ait mal étiqueté une vidéo d'hommes noirs en les qualifiant de « primates »
    Facebook s'excuse après que son IA ait mal étiqueté une vidéo d'hommes noirs en les qualifiant de « primates »,
    la FTC averti que les outils impliquant des IA qui affichent des préjugés sexistes peuvent être en violation des lois

    Les progrès de l'intelligence artificielle (IA) promettent de révolutionner notre approche de la médecine, de la finance, des opérations commerciales, des médias, etc. Mais la recherche a mis en évidence la façon dont une technologie apparemment "neutre" peut produire des résultats troublants y compris la discrimination fondée sur la race ou d'autres classes légalement protégées. Les utilisateurs de Facebook qui ont regardé cette vidéo datée du 27 juin 2020 montrant des hommes noirs en altercation avec des civils et des policiers blancs se sont vus demander s'ils voulaient « continuer à voir des vidéos sur les primates ».

    Facebook a désactivé ses recommandations de sujets et présente ses excuses après que la fonctionnalité alimentée par l'intelligence artificielle (IA) a qualifié à tort une vidéo d'hommes noirs de « primates ». La compagnie a qualifié cette bavure d'erreur inacceptable qu'elle examinait pour éviter que cela ne se reproduise. « C'était clairement une erreur inacceptable. L'entreprise est en train d'enquêter sur la cause pour éviter que ce comportement ne se reproduise », a déclaré Dani Lever, porte-parole de Facebook. « Comme nous l'avons dit, bien que nous ayons apporté des améliorations à notre IA, nous savons que ce n'est pas parfait et que nous avons encore des progrès à faire. Nous présentons nos excuses à tous ceux qui ont pu voir ces recommandations offensantes ».

    L'année dernière, Facebook avait formé de nouvelles équipes internes dédiées à l'étude de son principal réseau social Facebook et Instagram pour les préjugés raciaux, en particulier pour savoir si ses algorithmes formés à l'aide de l'intelligence artificielle affectent négativement les Noirs, les Hispaniques et d'autres groupes sous-représentés. L'équipe sera « chargée de veiller à ce que l'équité et le développement de produits équitables soient présents dans tout ce que nous faisons », avait expliqué un porte-parole de Facebook. « Nous continuerons à travailler en étroite collaboration avec l'équipe responsable de l'IA de Facebook pour nous assurer que nous examinons les biais potentiels sur nos plateformes respectives ».

    Une fois de plus, le problème n'a pas été détecté par Facebook lui-même, mais par une ancienne responsable de la conception du contenu de l'entreprise, qui a obtenu une capture d'écran d'un ami et l'a publiée sur un forum destiné aux employés actuels et anciens, rapporte le New York Times. Elle l'a également publiée sur Twitter.

    Nom : VideoB.png
Affichages : 1731
Taille : 86,7 Ko

    Facebook n’est pas la seule entreprise concernée par des controverses impliquant des intelligences artificielles qui avaient affiché des préjugés sexistes ou raciaux. En 2015, par exemple, Google Photos a qualifié les photos de personnes noires de « gorilles ». Google a ensuite déclaré qu'il était « sincèrement désolé ». En 2016, Microsoft a fermé son chatbot Tay après qu'il ait commencé à utiliser des insultes raciales. Au sein de Facebook, il y a également eu des controverses concernant les questions raciales. Il y a quelques années, le PDG Mark Zuckerberg a demandé aux employés du siège de l'entreprise à Menlo Park, en Californie, d'arrêter d’écrire « Black Lives Matter » et d'écrire « All Lives Matter » dans un espace public de l'entreprise.

    En avril, la Federal Trade Commission (FTC) a averti que les outils impliquant des intelligences artificielles qui affichent des préjugés sexistes ou peuvent être en violation des lois de protection des consommateurs s'ils sont utilisés pour la prise de décision en matière de crédit, de logement ou d'emploi. « Tenez-vous pour responsable ou préparez-vous à ce que la Commission fédérale du commerce des États-Unis le fasse pour vous », a écrit Elisa Jillson, responsable de la protection de la vie privée à la Commission fédérale du commerce des États-Unis, dans un message publié sur le site Web de l'agence.

    « Le mouvement pour la justice raciale est un moment d'une réelle importance pour notre entreprise. Tout préjugé dans nos systèmes et nos politiques va à l'encontre de la fourniture d'une plateforme permettant à chacun de s'exprimer, a déclaré Vishal Shah, le vice-président du produit Instagram. Alors que nous travaillons toujours à créer une expérience plus équitable, nous mettons en place des efforts supplémentaires pour poursuivre ces progrès. De la création de l'équipe d'équité d'Instagram au conseil de produit inclusif de Facebook. »

    Les modèles de prédiction du COVID-19 peuvent aider les systèmes de santé à combattre le virus par une allocation efficace des lits de soins intensifs, des ventilateurs et d'autres ressources. Mais comme le suggère une étude récente parue dans le Journal of the American Medical Informatics Association, si ces modèles utilisent des données qui reflètent les préjugés raciaux existants dans la prestation des soins de santé, l'IA censée bénéficier à tous les patients peut aggraver les disparités en matière de soins de santé pour les personnes de couleur. La Commission fédérale du commerce des États-Unis a des décennies d'expérience dans l'application de trois lois importantes pour les développeurs et les utilisateurs de l'IA :

    • la loi de la FTC interdit les pratiques déloyales ou trompeuses : cela comprendrait la vente ou l'utilisation par exemple d'algorithmes à préjugés raciaux ;
    • la loi sur les rapports de crédit équitables : la FCRA entre en jeu dans certaines circonstances où un algorithme est utilisé pour refuser à des personnes un emploi, un logement, un crédit, une assurance ou d'autres avantages ;
    • la loi sur l'égalité des chances en matière de crédit : l'ECOA interdit à une entreprise d'utiliser un algorithme biaisé qui entraîne une discrimination en matière de crédit fondée sur la race, la couleur, la religion, l'origine nationale, le sexe, l'état-civil, l'âge ou le fait qu'une personne bénéficie d'une aide publique.

    La FTC a notamment utilisé son expertise de ces lois pour faire un rapport sur l'analyse des big data et l'apprentissage automatique, pour organiser une audience sur les algorithmes, l'IA et l'analyse prédictive, et pour publier des conseils aux entreprises sur l'IA et les algorithmes. Ce travail - associé aux actions d'application de la FTC offre des leçons importantes sur l'utilisation de l'IA de manière véridique, juste et équitable.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Selon vous, comment peut on exploiter les avantages de l'IA sans introduire par inadvertance des préjugés ou d'autres résultats injustes ?

    Voir aussi :

    Clearview AI utilise vos photos en ligne pour vous identifier instantanément. C'est un problème, d'après un procès intenté par des militants des libertés civiles

    Les assistants vocaux boostés à l'intelligence artificielle renforceraient les stéréotypes sexistes, d'après un rapport de l'ONU

    La technologie de reconnaissance faciale peut-elle révéler une orientation politique ? Elle peut prédire la tendance politique d'une personne avec une précision de 72 %, selon une étude de Stanford

    Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs, les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre à l'essai
    Homme Profil pro
    Enseignant
    Inscrit en
    avril 2012
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme

    Informations professionnelles :
    Activité : Enseignant
    Secteur : Enseignement

    Informations forums :
    Inscription : avril 2012
    Messages : 1
    Points : 14
    Points
    14
    Par défaut verre à moitié vide ou à moitié plein
    "vidéo datée du 27 juin 2020 montrant des hommes noirs en altercation avec des civils et des policiers blancs se sont vus demander s'ils voulaient « continuer à voir des vidéos sur les primates »"

    1. remarque générale : "On divise aujourd'hui les primates en deux clades : celui des strepsirrhiniens, auquel appartiennent les lémurs, et celui des haplorrhiniens, auquel appartiennent les tarsiiformes et les simiiformes, qui comprennent, entre autres, les hominidés1,2 dont fait partie l'être humain." cf https://fr.wikipedia.org/wiki/Primates

    2. on trouve sur cette vidéo des primates de 3 catégories :
    A - des hommes noirs
    B - des civils (sans doute noirs et blancs)
    C - des policiers (blancs)

    Q1 : quels sont les primates visés par « continuer à voir des vidéos sur les primates »" ?...TOUS ?
    Q2 : s'agit-il d'une 'erreur' de l'IA ou juste d'un manque... de finesse
    Q3 : Pourquoi l'homme voit-il quelquechose de dégradant ou péjoratif dans le fait d'être un primate ?

    Moi cela ne m'inspire qu'un haussement d'épaules quand on compare ça à tout ce que fait Facebook par ailleurs...

    Salut les primates !

  3. #3
    Membre chevronné
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    octobre 2019
    Messages
    497
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Conseil

    Informations forums :
    Inscription : octobre 2019
    Messages : 497
    Points : 1 998
    Points
    1 998
    Par défaut
    Citation Envoyé par apicus Voir le message
    "vidéo datée du 27 juin 2020 montrant des hommes noirs en altercation avec des civils et des policiers blancs se sont vus demander s'ils voulaient « continuer à voir des vidéos sur les primates »"

    1. remarque générale : "On divise aujourd'hui les primates en deux clades : celui des strepsirrhiniens, auquel appartiennent les lémurs, et celui des haplorrhiniens, auquel appartiennent les tarsiiformes et les simiiformes, qui comprennent, entre autres, les hominidés1,2 dont fait partie l'être humain." cf https://fr.wikipedia.org/wiki/Primates

    2. on trouve sur cette vidéo des primates de 3 catégories :
    A - des hommes noirs
    B - des civils (sans doute noirs et blancs)
    C - des policiers (blancs)

    Q1 : quels sont les primates visés par « continuer à voir des vidéos sur les primates »" ?...TOUS ?
    Q2 : s'agit-il d'une 'erreur' de l'IA ou juste d'un manque... de finesse
    Q3 : Pourquoi l'homme voit-il quelquechose de dégradant ou péjoratif dans le fait d'être un primate ?

    Moi cela ne m'inspire qu'un haussement d'épaules quand on compare ça à tout ce que fait Facebook par ailleurs...

    Salut les primates !
    comme dit le proverbe il n'y a que la vérité qui blesse

  4. #4
    Futur Membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    avril 2012
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Transports

    Informations forums :
    Inscription : avril 2012
    Messages : 2
    Points : 5
    Points
    5
    Par défaut
    Comment osons-nous appeler ces applications "intelligentes"? Si elles l'étaient vraiment, elles seraient capables de s'excuser par elles-mêmes. Si je fais une bétise, c'est pas mon Créateur qui doit se sentir coupable

  5. #5
    Membre régulier
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    mars 2015
    Messages
    36
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : mars 2015
    Messages : 36
    Points : 119
    Points
    119
    Par défaut
    Citation Envoyé par apicus Voir le message
    [...]
    je ne suis pas vraiment d'accord avec ce raisonnement.
    Argumentation éditée parce que peu pertinente

    Citation Envoyé par apicus Voir le message
    Moi cela ne m'inspire qu'un haussement d'épaules quand on compare ça à tout ce que fait Facebook par ailleurs...

    Salut les primates !
    Je suis assez d'accord avec ça.

Discussions similaires

  1. Réponses: 0
    Dernier message: 29/10/2019, 16h26
  2. Réponses: 2
    Dernier message: 22/05/2019, 11h40
  3. [Débutant] télécharger un fichier à partir d'un dossier que son nom se trouve dans une cellule du datagride
    Par mira199191 dans le forum Développement Web avec .NET
    Réponses: 1
    Dernier message: 05/03/2015, 16h37
  4. Réponses: 1
    Dernier message: 13/07/2011, 14h09
  5. Réponses: 1
    Dernier message: 03/09/2010, 16h37

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo