IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Cloud Computing Discussion :

IA : l’API Cloud Vision de Google n’associe plus d’étiquettes de genre aux images de personnes


Sujet :

Cloud Computing

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 814
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 814
    Points : 50 873
    Points
    50 873
    Par défaut IA : l’API Cloud Vision de Google n’associe plus d’étiquettes de genre aux images de personnes
    IA : l’API Cloud Vision de Google n’associe plus d’étiquettes de genre aux images de personnes
    Car on ne peut déduire le sexe d’un tiers de son apparence, d’après l’entreprise

    Après une phase de préversion limitée lancée au début du mois de décembre 2015, l’API Cloud Vision de Google est passée en version bêta en février 2016 et s’est ouverte à un public plus large. « Maintenant, tout le monde peut soumettre des images à l'API Cloud Vision pour comprendre le contenu de ces images - de la détection d'objets de tous les jours à la lecture de texte à l’intérieur de l'image ou l'identification de logos de produits », expliquait Google dans un billet de blog.

    En effet, l’API Cloud Vision permet aux développeurs d’intégrer la reconnaissance d’images dans leurs applications. Via cette dernière, il est par exemple possible de détecter des entités ou étiquettes dominantes dans des images, extraire du texte dans une image et en détecter la langue, détecter des images inappropriées dans le cadre de la modération de contenus imagés. Entre autres fonctionnalités, l’API Cloud Vision de Google permet encore de détecter l’apparition d’un visage sur des photos, avec les traits du visage associés tels que le placement des yeux, du nez et de la bouche, mais aussi avec les attributs comme la joie et la tristesse. Dans les derniers développements à son sujet, c’est sa capacité à poser des étiquettes de genres aux images d’individus qui fait parler…

    Dans un récent courriel à l’intention des développeurs, Google fait savoir qu’il n’utilisera plus d’étiquettes de genre sur les images des individus qui apparaissent sur les contenus soumis à l’analyse de ce logiciel. L’entreprise annonce qu’au lieu de faire apparaître « homme » ou « femme », elle va simplement adosser l’étiquette « personne » aux images d’individus sur une photo. D’après Business Insider, les changements sont bel et bien effectifs…

    Nom : 3.png
Affichages : 3792
Taille : 243,0 Ko

    D’après Google, la manœuvre se justifie par l’impossibilité de déduire le sexe d’un individu uniquement à partir de son apparence. Dans la même lancée, l’entreprise a cité ses règles d’éthique en matière d’intelligence artificielle qui stipulent que l’ajout d’étiquettes de genre est de nature à exacerber les préjugés injustes.

    « Les algorithmes utilisés en intelligence artificielle et les jeux de données peuvent mettre en avant, renforcer ou réduire les préjugés injustes. Nous reconnaissons qu'il n'est pas toujours simple de distinguer les préjugés équitables des préjugés injustes et que cette distinction diffère selon les cultures et les sociétés. Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les croyances politiques ou religieuses », lit-on dans les règles d’éthique de l’entreprise en matière d’IA.

    Avec la note d’information de Google c’est tout le débat sur la question de biais en matière d’intelligence artificielle qui est relancé. D’après un expert de Mozilla sur la question, la décision de Google est une très bonne chose.

    « Chaque fois que vous procédez à la classification automatique des personnes, qu'il s'agisse de leur sexe ou de leur orientation sexuelle, vous devez décider des catégories que vous utilisez en premier lieu et cela vient avec son lot d'hypothèses. Le fait de classer les gens comme hommes ou femmes suppose que le sexe est binaire. Toute personne qui ne correspond pas à cette catégorie sera automatiquement mal classée. Il s’agit donc de plus que des préjugés car le sexe d'une personne ne peut pas être déduit de son apparence. Tout système d'IA qui adopte une telle approche se trompe de façon inévitable sur le sexe des personnes », souligne Frederike Kaltheuner de Mozilla.


    D’après les retours de Business Insider, les premières réactions des développeurs commencent à tomber et ne vont pas toujours dans le sens d’applaudir la décision de Google.

    « Je ne pense pas que le politiquement correct ait sa place dans les API. Si je peux identifier dans 99% des cas si quelqu'un est un homme ou une femme, alors un algorithme le peut aussi. Vous ne voulez pas le faire ? Les entreprises iront donc vers d'autres services », lit-on.

    Source : BI

    Et vous ?

    Que pensez-vous du positionnement de Google ?
    Est-ce la meilleure approche pour se défaire du problème de biais lié au genre en matière d’intelligence artificielle ?
    Est-ce une approche que l’industrie de l’intelligence artificielle devrait reproduire ?

    Voir aussi :

    Google lance l'API Cloud Vision pour permettre aux développeurs d'intégrer la reconnaissance d'images dans leurs applications
    TensorFlow Serving : un outil open source de Google pour faciliter la mise en production des modèles de machine learning
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut
    "Personne" ? de quel droit Google se permet-il de me cataloguer en tant que tel alors que je peux être absolument tout ce que je veux ? Je me sens terriblement offensé.
    (ceci est de l'humour absurde, merci)

  3. #3
    Expert confirmé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Novembre 2009
    Messages
    2 004
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Novembre 2009
    Messages : 2 004
    Points : 5 423
    Points
    5 423
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Que pensez-vous du positionnement de Google ?
    Donc on peut laisser des ordinateurs conduirent des engins de plus d'une tonne aux milieux des rues, par contre on est pas capable de faire ce qu'un enfant de 2 ans sait faire :différencier un homme d'une femme.
    C'est même plus du politiquement correcte, ca devient de l'inquisition. Pathétique.

  4. #4
    Inactif  
    Homme Profil pro
    Lycéen
    Inscrit en
    Septembre 2019
    Messages
    67
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 20
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Lycéen
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2019
    Messages : 67
    Points : 239
    Points
    239
    Par défaut les humains le font
    Pour un humain l'attribution d'un genre binaire à une personne est automatique et systématique. Peut importe si il peut se tromper. Quand on regarde quelqu'un on ne le considère pas comme une personne indéfinie mais comme un homme ou une femme. C'est même une information qui a souvent un très grande importance.

  5. #5
    Membre averti
    Profil pro
    Développeur Full Stack
    Inscrit en
    Janvier 2012
    Messages
    69
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Full Stack

    Informations forums :
    Inscription : Janvier 2012
    Messages : 69
    Points : 300
    Points
    300
    Par défaut
    On en revient au même débat que sur les voitures autonomes. Quand un humain catalogue une personne, et qu'il le fait correctement a 96%, il considère qu'il le fait de manière infaillible et n'en a, en général, rien à faire de se tromper (quand bien même il est déjà prêt à admettre s'être trompé). Quand c'est un algorithme qui le fait, à la moindre erreur, cela fait le tour de la toile.

    Bien sûr que Google sait le faire a 96%, voire plus, de manière juste, mais quand on s'appelle Google et qu'on fait du traitement automatique de millions d'images, et que ce traitement peut avoir des conséquences insoupçonnées, peut on vraiment se permettre de n'en avoir rien à faire des conséquences ?

    Ca gêne peut être certains développeurs/entreprises qui voulaient baser leurs programmes sur le genre, mais en soi, je pense que c'est plutôt une décision responsable (même si on sait tous que Google n'est pas forcément un ange à tous les niveaux...).

  6. #6
    Membre éclairé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    204
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 204
    Points : 712
    Points
    712
    Par défaut
    Si on envoi une photo de pénis à Google Cloud Vision ça retourne "appareil génital masculin" ou "appareil génital d'une personne" ?

Discussions similaires

  1. Réponses: 10
    Dernier message: 08/06/2019, 22h26
  2. [WD20] API Google Cloud Vision
    Par alaclef dans le forum WinDev
    Réponses: 4
    Dernier message: 29/03/2018, 16h48
  3. Réponses: 4
    Dernier message: 26/02/2016, 09h05
  4. Réponses: 0
    Dernier message: 19/11/2010, 12h37
  5. Google a plus de 90% de parts de marché sur la France (61% aux USA)
    Par Marc Lussac dans le forum Référencement
    Réponses: 11
    Dernier message: 13/06/2008, 08h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo