IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

98 % des gens estiment que l'IA a hérité des biais humains en raison des données qui l'alimentent, selon Tidio


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 126
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 126
    Points : 18 623
    Points
    18 623
    Par défaut 98 % des gens estiment que l'IA a hérité des biais humains en raison des données qui l'alimentent, selon Tidio
    98 % des gens estiment que l'IA a hérité des biais humains en raison des données qui l'alimentent, et 45 % pensent que c'est le plus gros problème de l'IA, selon une enquête de Tidio

    Beaucoup semblent avoir l'impression que l'IA peut nous aider à prendre de meilleures décisions. Après tout, qu'est-ce qui peut être plus objectif qu'une machine ? Eh bien, des études ont montré que l'IA peut être sujette à des préjugés, tout comme les êtres humains. Ce sont les humains qui entrent les données pour alimenter son algorithme d'apprentissage automatique en premier lieu, il est donc logique qu'elle commence à apprendre beaucoup des préjugés sous lesquels nous fonctionnons.

    Une enquête menée par Tidio a révélé que 98 % des gens pensent que l'IA est biaisée. 45 % des personnes qui ont répondu à cette enquête ont déclaré qu'il s'agissait en fait du plus gros problème de l'IA, et 40 % ont ajouté que ce sont les développeurs qui sont responsables de ces préjugés, même si tout a été considéré et pris en compte.

    Les ensembles de données utilisés pour former l'IA sont en partie responsables. Ils contiennent tous nos biais, et ils allaient certainement se manifester lorsque l'IA a commencé à les utiliser.

    Malgré cela, les itérations les plus récentes de l'IA, développées par Open AI, sont prometteuses. Lorsqu'on lui a demandé de montrer un PDG ambitieux, par exemple, l'IA a fini par représenter un homme noir ainsi qu'une femme portant des vêtements professionnels. Ceci est très probablement dû à un effort conscient d'Open AI pour réduire les biais dans DALL-E.

    Cependant, Stable Diffusion a manifestement beaucoup de travail à faire, puisqu'elle n'a représenté que des hommes blancs d'âge moyen lorsqu'elle a reçu cette demande. Lorsqu'on lui demande de représenter une infirmière, elle ne montre que des femmes. C'est un signe évident de partialité, et cela suggère que les personnes derrière Stable Diffusion ne font pas assez d'efforts pour y remédier.

    Des changements doivent être apportés si l'IA doit passer au niveau supérieur. Sinon, elle ne sera qu'une représentation avancée des mêmes vieux préjugés avec lesquels nous vivons depuis des milliers d'années.

    Nom : ai-biases-1.jpg
Affichages : 1154
Taille : 33,9 Ko

    Source : Tidio

    Et vous ?

    Selon vous, cette enquête de Tidio est-elle pertinente ?
    Pensez-vous qu'il soit possible d'améliorer les systèmes d'IA pour qu'ils n'intègrent pas de préjugés ? Si oui, quels peuvent en être les risques ?

    Voir aussi :

    L'IA peut-elle éliminer les biais dans le processus de recrutement ? Non, d'après une étude qui estime que le logiciel de recrutement d'IA est une « pseudoscience automatisée »
    L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert
    Des chercheurs en IA améliorent la méthode permettant de supprimer les préjugés sexistes dans les systèmes conçus pour comprendre et répondre aux données textuelles ou vocales, selon une étude

  2. #2
    Nouveau membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Avril 2015
    Messages
    12
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Avril 2015
    Messages : 12
    Points : 32
    Points
    32
    Par défaut
    Pour moi, quand on parle d'ia réelle et non fantasmé, il doit y avoir une supervisation des données qui lui sont apporté sinon se serait un euphémisme de dire que l'ia serait sous-performante (ex: l'ia qui est devenue raciste en allant sur twitter). Et donc comme ces données qui sont fourni en entré sont forcément sousmis à la vision de ce que le concepteur veut que l'ia s'appuie sur ces dites données pour recracher une réponse, et donc pour moi elle comporteront forcément une composante de subjectivité.

    Lorsqu'on lui demande par exemple de nous représenter un PDG, veut - on voir un PDG aux hasard ? un PDG émergeant, mis en avant pour promouvoir ce type de représentation de PDG (discrimination positive) ? ou un PDG imaginaire (moyenne de tout les PDG) ? un PDG médiant ?

    Pour moi il s'agit de question philosophique et que de toute facon il y aura une part de choix (subjectivité) dans les réponses apporté.

  3. #3
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    192
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 192
    Points : 312
    Points
    312
    Par défaut
    Citation Envoyé par faradiel Voir le message
    Lorsqu'on lui demande par exemple de nous représenter un PDG, veut - on voir un PDG aux hasard ? un PDG émergeant, mis en avant pour promouvoir ce type de représentation de PDG (discrimination positive) ? ou un PDG imaginaire (moyenne de tout les PDG) ? un PDG médiant ?
    Je dirai qu'un PDG femme, naine, en fauteuil roulant, inuit ayant la peau rouge et habillée en haillons, parlant un dialecte de la forêt équatorienne est biaisé.
    Mais faire la moyenne n'est pas évident. Si l'on demande à ChatGPT la couleur du ciel, il répondra bleu. Les bretons diront que c'est biaisé. Pour eux le ciel est gris. D'autres diront qu'il bleu et gris le plus souvent. Alors que le ciel est noir majoritairement.

  4. #4
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    945
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 945
    Points : 2 891
    Points
    2 891
    Par défaut
    Citation Envoyé par eric44000 Voir le message
    Je dirai qu'un PDG femme, naine, en fauteuil roulant, inuit ayant la peau rouge et habillée en haillons, parlant un dialecte de la forêt équatorienne est biaisé.
    Mais faire la moyenne n'est pas évident. Si l'on demande à ChatGPT la couleur du ciel, il répondra bleu. Les bretons diront que c'est biaisé. Pour eux le ciel est gris. D'autres diront qu'il bleu et gris le plus souvent. Alors que le ciel est noir majoritairement.
    Le breton, il dit que le ciel est en nuance de bleu/blanc/gris

    Le problème ne s'arrête pas aux données d'entrée. Par exemple supposons une application qui permet de déterminer si tu peux prendre un prêt. Elle prend en compte des données comme financières, le parcours scolaire, l'emploi que tu as, et tes charges (voiture, loyers, enfants). En revanche, elle ne prend pas ton nom/prénom, ta nationalité, ta couleur de peau etc etc.

    Et bien tu arriveras quand même à une IA qui est plus sévère avec "certain profils", pourquoi ? Parce que le "parcours scolaire", "l'emploi que tu occupes", "tes charges" arriveront dans certains cas à trahir tes origines de quartier pauvres/immigrés. Tu pourrais essayer d'enlever certains éléments mais curieusement ton IA perd en précision, ce qui à le don d'agacer les gens qui veulent te commander un truc fiable. Mais tout cela n'est au final même plus vraiment dû à l'IA ou son concepteur mais aux limite du systèmes de l'apprentissage qui ne peut que apprendre sur des données existantes, données existantes qui montre la difficulté de certaines populations, parfois dû à eux même (il faut le dire) parfois dû au système qui réduisent sévèrement leur marge de manœuvre selon leur origines (évolution de carrière donc de salaire ?).

  5. #5
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    192
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 192
    Points : 312
    Points
    312
    Par défaut
    Citation Envoyé par walfrat Voir le message
    Le breton, il dit que le ciel est en nuance de bleu/blanc/gris
    C'est vrai que dire que le ciel est gris anthracite en Bretagne est un préjugé. Il est gris foncé. C'est simple, il ne pleut qu'une fois par mois. Quand il y a un crachin, il faut beau.

    Citation Envoyé par walfrat Voir le message
    Et bien tu arriveras quand même à une IA qui est plus sévère avec "certain profils", pourquoi ? Parce que le "parcours scolaire", "l'emploi que tu occupes", "tes charges" arriveront dans certains cas à trahir tes origines de quartier pauvres/immigrés.
    Les datas qui vont entrainer ton modèle sera capable de cibler ceux qui seront susceptibles de faire un défaut de paiement (enfin s'il est bon). Si un seul critère suffisait à prédire, cela ne servirait à rien que des data-scientistes se fatiguent. En fait, les organismes de crédit ont fait le choix d'élaborer des modèles pour éviter le biais (préjugés) des conseillers.
    Après dire pourquoi le modèle accepte ou refuse la demande de crédit, cela reste un mystère. On sait comment le modèle fonctionne mais pas pourquoi. De la complexité émerge un je ne sais quoi. On ne peut pas vraiment parler de forme d'intelligence mais y a quelque chose de plus que de simples statistiques.

    Par contre avec ChatGPT on peut parler d'une forme d'intelligence.

Discussions similaires

  1. Réponses: 8
    Dernier message: 23/09/2008, 11h20
  2. Réponses: 1
    Dernier message: 28/02/2008, 14h26
  3. Filtrage des données, qui s'en occupe ?
    Par bbmt dans le forum MVC
    Réponses: 36
    Dernier message: 24/12/2007, 16h18
  4. Réponses: 1
    Dernier message: 25/09/2006, 18h09
  5. Travailler sur des données qui doivent être triées
    Par haypo dans le forum XML/XSL et SOAP
    Réponses: 2
    Dernier message: 19/07/2003, 17h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo