Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    IA : l’API Cloud Vision de Google n’associe plus d’étiquettes de genre aux images de personnes
    IA : l’API Cloud Vision de Google n’associe plus d’étiquettes de genre aux images de personnes
    Car on ne peut déduire le sexe d’un tiers de son apparence, d’après l’entreprise

    Après une phase de préversion limitée lancée au début du mois de décembre 2015, l’API Cloud Vision de Google est passée en version bêta en février 2016 et s’est ouverte à un public plus large. « Maintenant, tout le monde peut soumettre des images à l'API Cloud Vision pour comprendre le contenu de ces images - de la détection d'objets de tous les jours à la lecture de texte à l’intérieur de l'image ou l'identification de logos de produits », expliquait Google dans un billet de blog.

    En effet, l’API Cloud Vision permet aux développeurs d’intégrer la reconnaissance d’images dans leurs applications. Via cette dernière, il est par exemple possible de détecter des entités ou étiquettes dominantes dans des images, extraire du texte dans une image et en détecter la langue, détecter des images inappropriées dans le cadre de la modération de contenus imagés. Entre autres fonctionnalités, l’API Cloud Vision de Google permet encore de détecter l’apparition d’un visage sur des photos, avec les traits du visage associés tels que le placement des yeux, du nez et de la bouche, mais aussi avec les attributs comme la joie et la tristesse. Dans les derniers développements à son sujet, c’est sa capacité à poser des étiquettes de genres aux images d’individus qui fait parler…

    Dans un récent courriel à l’intention des développeurs, Google fait savoir qu’il n’utilisera plus d’étiquettes de genre sur les images des individus qui apparaissent sur les contenus soumis à l’analyse de ce logiciel. L’entreprise annonce qu’au lieu de faire apparaître « homme » ou « femme », elle va simplement adosser l’étiquette « personne » aux images d’individus sur une photo. D’après Business Insider, les changements sont bel et bien effectifs…


    D’après Google, la manœuvre se justifie par l’impossibilité de déduire le sexe d’un individu uniquement à partir de son apparence. Dans la même lancée, l’entreprise a cité ses règles d’éthique en matière d’intelligence artificielle qui stipulent que l’ajout d’étiquettes de genre est de nature à exacerber les préjugés injustes.

    « Les algorithmes utilisés en intelligence artificielle et les jeux de données peuvent mettre en avant, renforcer ou réduire les préjugés injustes. Nous reconnaissons qu'il n'est pas toujours simple de distinguer les préjugés équitables des préjugés injustes et que cette distinction diffère selon les cultures et les sociétés. Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les croyances politiques ou religieuses », lit-on dans les règles d’éthique de l’entreprise en matière d’IA.

    Avec la note d’information de Google c’est tout le débat sur la question de biais en matière d’intelligence artificielle qui est relancé. D’après un expert de Mozilla sur la question, la décision de Google est une très bonne chose.

    « Chaque fois que vous procédez à la classification automatique des personnes, qu'il s'agisse de leur sexe ou de leur orientation sexuelle, vous devez décider des catégories que vous utilisez en premier lieu et cela vient avec son lot d'hypothèses. Le fait de classer les gens comme hommes ou femmes suppose que le sexe est binaire. Toute personne qui ne correspond pas à cette catégorie sera automatiquement mal classée. Il s’agit donc de plus que des préjugés car le sexe d'une personne ne peut pas être déduit de son apparence. Tout système d'IA qui adopte une telle approche se trompe de façon inévitable sur le sexe des personnes », souligne Frederike Kaltheuner de Mozilla.


    D’après les retours de Business Insider, les premières réactions des développeurs commencent à tomber et ne vont pas toujours dans le sens d’applaudir la décision de Google.

    « Je ne pense pas que le politiquement correct ait sa place dans les API. Si je peux identifier dans 99% des cas si quelqu'un est un homme ou une femme, alors un algorithme le peut aussi. Vous ne voulez pas le faire ? Les entreprises iront donc vers d'autres services », lit-on.

    Source : BI

    Et vous ?

    Que pensez-vous du positionnement de Google ?
    Est-ce la meilleure approche pour se défaire du problème de biais lié au genre en matière d’intelligence artificielle ?
    Est-ce une approche que l’industrie de l’intelligence artificielle devrait reproduire ?

    Voir aussi :

    Google lance l'API Cloud Vision pour permettre aux développeurs d'intégrer la reconnaissance d'images dans leurs applications
    TensorFlow Serving : un outil open source de Google pour faciliter la mise en production des modèles de machine learning
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    "Personne" ? de quel droit Google se permet-il de me cataloguer en tant que tel alors que je peux être absolument tout ce que je veux ? Je me sens terriblement offensé.
    (ceci est de l'humour absurde, merci)

  3. #3
    Expert confirmé
    Citation Envoyé par Patrick Ruiz Voir le message

    Que pensez-vous du positionnement de Google ?
    Donc on peut laisser des ordinateurs conduirent des engins de plus d'une tonne aux milieux des rues, par contre on est pas capable de faire ce qu'un enfant de 2 ans sait faire :différencier un homme d'une femme.
    C'est même plus du politiquement correcte, ca devient de l'inquisition. Pathétique.

  4. #4
    Membre habitué
    les humains le font
    Pour un humain l'attribution d'un genre binaire à une personne est automatique et systématique. Peut importe si il peut se tromper. Quand on regarde quelqu'un on ne le considère pas comme une personne indéfinie mais comme un homme ou une femme. C'est même une information qui a souvent un très grande importance.

  5. #5
    Membre actif
    On en revient au même débat que sur les voitures autonomes. Quand un humain catalogue une personne, et qu'il le fait correctement a 96%, il considère qu'il le fait de manière infaillible et n'en a, en général, rien à faire de se tromper (quand bien même il est déjà prêt à admettre s'être trompé). Quand c'est un algorithme qui le fait, à la moindre erreur, cela fait le tour de la toile.

    Bien sûr que Google sait le faire a 96%, voire plus, de manière juste, mais quand on s'appelle Google et qu'on fait du traitement automatique de millions d'images, et que ce traitement peut avoir des conséquences insoupçonnées, peut on vraiment se permettre de n'en avoir rien à faire des conséquences ?

    Ca gêne peut être certains développeurs/entreprises qui voulaient baser leurs programmes sur le genre, mais en soi, je pense que c'est plutôt une décision responsable (même si on sait tous que Google n'est pas forcément un ange à tous les niveaux...).

  6. #6
    Membre habitué
    Si on envoi une photo de pénis à Google Cloud Vision ça retourne "appareil génital masculin" ou "appareil génital d'une personne" ?