IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Des employés de Nvidia ont alerté le PDG sur la menace que l'IA ferait peser sur les minorités


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 604
    Par défaut Des employés de Nvidia ont alerté le PDG sur la menace que l'IA ferait peser sur les minorités
    Des chercheurs de l'université de Stanford ont mis en évidence les biais des grands modèles de langage, et ont établi la différence entre les opinions humaines et celles de l'IA

    Dans le monde moderne d'aujourd'hui, notre dépendance à l'égard des technologies de l'internet est devenue primordiale. L'accès au monde en ligne est devenu essentiel pour mener une vie confortable. Dans ce paysage technologique, les modèles d'IA (intelligence artificielle) ont récemment gagné une immense popularité. Toutefois, il est essentiel de reconnaître que les machines, y compris les modèles d'IA, ont toujours besoin de l'implication humaine pour fonctionner efficacement. Ainsi, le fait de dépendre entièrement des modèles d'IA peut conduire à des erreurs d'orientation, compte tenu de leur dépendance à l'égard de divers grands modèles de langage (LLM).

    Récemment, des chercheurs de l'université de Stanford ont mené une étude qui met en lumière les biais inhérents aux modèles linguistiques tels que ChatGPT et leur divergence par rapport aux points de vue des différents groupes démographiques américains. L'étude révèle que ces modèles ont souvent tendance à sous-représenter certains groupes, tout en amplifiant les opinions dominantes des autres. Par conséquent, ces modèles ne parviennent pas à représenter avec précision les nuances et les variations des opinions humaines.

    Nom : LLM bias.PNG
Affichages : 1757
Taille : 58,1 Ko

    Une approche appelée OpinionQA a été créée par l'équipe de l'étude sous la direction de Shibani Santurkar, ancien chercheur postdoctoral à Stanford, afin d'évaluer la partialité des modèles de langage. Pour mesurer dans quelle mesure ces modèles reflètent les opinions de divers segments démographiques, OpinionQA compare leurs propensions à celles relevées dans les sondages d'opinion.

    Selon les auteurs de l'étude :

    Les modèles linguistiques (ML) sont de plus en plus utilisés dans des contextes ouverts, où les opinions reflétées par les ML en réponse à des requêtes subjectives peuvent avoir un impact profond, à la fois sur la satisfaction de l'utilisateur et sur le façonnement des opinions de la société dans son ensemble. Dans ce travail, nous proposons un cadre quantitatif pour étudier les opinions reflétées par les ML - en tirant parti de sondages d'opinion publique de grande qualité et des réponses humaines qui y sont associées. Grâce à ce cadre, nous créons OpinionsQA, un nouvel ensemble de données permettant d'évaluer l'alignement des opinions des ML sur celles de 60 groupes démographiques américains sur des sujets allant de l'avortement à l'automatisation. Pour l'ensemble des sujets, nous constatons un décalage important entre les opinions reflétées par les ML actuels et celles des groupes démographiques américains : un décalage comparable à celui qui existe entre les Démocrates et les Républicains sur le changement climatique. Notamment, ce décalage persiste même après avoir explicitement orienté les ML vers des groupes démographiques particuliers. Notre analyse ne confirme pas seulement les observations antérieures sur les tendances à gauche de certains ML à rétroaction humaine, mais elle met également en évidence des groupes dont les opinions sont mal reflétées par les ML actuels (par exemple, les personnes âgées de 65 ans et plus et les veufs et veuves). Notre code et nos données sont disponibles à cette URL https.
    Bien qu'il semble que les modèles de langage, qui prévoient des séquences de mots à partir de textes existants, représentent naturellement le consensus général, M. Santurkar identifie deux raisons principales à leur partialité. Premièrement, les modèles mis à jour ont été améliorés grâce aux informations recueillies par les entreprises à partir de commentaires humains. Ces annotateurs, qui sont employés par les entreprises, classent les compléments de modèle comme "bons" ou "mauvais", ce qui peut entraîner un biais car leurs jugements, voire ceux de leurs employeurs, peuvent affecter les modèles.

    L'étude illustre ce biais en montrant comment les modèles les plus récents indiquent que le président Joe Biden bénéficie d'un soutien supérieur à 99 %, alors que les sondages d'opinion montrent une image moins nette. En outre, les chercheurs ont découvert que les données d'entraînement présentaient une sous-représentation de plusieurs groupes, notamment les mormons, les veuves et les personnes âgées de plus de 65 ans. Pour accroître leur crédibilité, les auteurs affirment que les modèles linguistiques devraient saisir avec plus de précision les subtilités, la complexité et les différences plus spécifiques de l'opinion publique.

    Nom : LLM bias 2.PNG
Affichages : 904
Taille : 76,7 Ko

    En outre, l'équipe de l'étude a utilisé les American Trends Panels (ATP) de l'étude Pew, un sondage d'opinion approfondi qui couvre un large éventail de questions, pour évaluer les modèles. OpinionQA a évalué les distributions d'opinion des modèles linguistiques par rapport à l'ensemble de la population américaine et à au moins 60 groupes démographiques différents identifiés par l'ATP.

    Trois mesures importantes de l'alignement des opinions sont calculées par OpinionQA. Premièrement, la représentativité d'un modèle linguistique est évaluée par rapport à l'ensemble de la population et aux 60 groupes démographiques. Deuxièmement, la capacité d'orientation évalue dans quelle mesure le modèle peut, lorsqu'on le lui demande, refléter les opinions de sous-groupes particuliers. Enfin, la cohérence mesure la constance des croyances du modèle dans le temps et sur différents sujets.

    Enfin, les conclusions générales de l'étude montrent qu'en fonction de variables telles que l'argent, l'âge et l'éducation, il existe des différences considérables dans les inclinations politiques et autres opinions. Les modèles élaborés principalement à partir de données en ligne présentent souvent des biais en faveur des points de vue conservateurs, des classes inférieures ou des personnes moins éduquées. Les modèles plus récents, qui ont été améliorés grâce à la curation des commentaires humains, en revanche, présentent souvent des biais en faveur des publics libéraux, bien éduqués et riches.

    Santurkar souligne que l'étude ne catégorise pas chaque biais comme intrinsèquement bon ou mauvais, mais tente plutôt de sensibiliser les développeurs et les consommateurs à la présence de ces biais. L'ensemble de données OpinionQA devrait être utilisé pour découvrir et mesurer les décalages entre les modèles linguistiques et l'opinion humaine, conseillent les chercheurs, plutôt que comme un point de référence pour l'optimisation. Ils espèrent qu'en rapprochant les modèles linguistiques de la perception du public, cette étude encouragera une discussion plus large entre les experts dans ce domaine.

    Source : Article de recherche intitulé "Whose Opinions Do Language Models Reflect?"

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous les résultats de cette étude pertinents ?

    D'après vous, comment les biais inhérents aux modèles linguistiques peuvent-ils être corrigés pour garantir une représentation plus précise des différents points de vue ?

    Voir aussi

    Comprendre les biais de l'intelligence artificielle, une analyse du modèle d'IA générative Stable Diffusion

    Un chercheur crée un modèle d'IA appelé RightWingGPT pour mettre en évidence les biais potentiels des systèmes d'IA, notamment la partialité de ChatGPT, son aspect woke et sa tendance gauchiste

    Les capacités émergentes des grands modèles linguistiques sont-elles un mirage ? Les grands modèles linguistiques ne sont pas supérieurs à la somme de leurs parties, selon des chercheurs de Stanford

    La startup Cerebras publie Cerebras-GPT, une famille de modèles linguistiques de type ChatGPT en open-source, les sept modèles GPT-3 établissent des records de précision et d'efficacité de calcul
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 297
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 297
    Par défaut Des employés de Nvidia ont alerté le PDG sur la menace que l'IA ferait peser sur les minorités
    Des employés de Nvidia ont alerté le PDG sur la menace que l'IA ferait peser sur les minorités
    mais il n'aurait pas donné la priorité à la lutte contre les biais potentiels des outils d'IA

    Nvidia apparaît aujourd'hui comme l'un des plus grands gagnants de la course à l'IA grâce notamment à la demande importante de ses puces d'IA. Mais l'entreprise est critiquée par d'anciens employés pour l'absence d'une initiative concrète visant à répondre aux préoccupations en matière de diversité et de partialité dans le domaine de la technologie de l'IA. Ces employés s'en prennent notamment au PDG de Nvidia, Jensen Huang, qui, selon eux, n'accorderait que peu d'importance à la question. Nvidia conteste ces allégations. Certains critiques affirment que les menaces de l'IA concernent tous les groupes d'individus, mais que chaque groupe est affecté différemment.

    Nvidia domine actuellement le marché des accélérateurs d'IA et les actions du fabricant américain de puces ont explosé au cours des dernières années. La situation est telle que ce succès pourrait se transformer en un cauchemar pour l'entreprise. Selon un récent rapport, les employés de Nvidia sont soudainement si riches et heureux que l'entreprise doit faire face à un problème de semi-retraite. Les employés millionnaires sont de moins en moins motivés à travailler dur. Ce succès financier du personnel de Nvidia aurait également créé des tensions internes. Tout ceci constitue une menace pour Nvidia à moment où la concurrence devient plus féroce.

    Un autre rapport publié par Bloomberg expose les divisions au sein de Nvidia sur les menaces de l'IA pour les minorités, notamment les préjugés raciaux et d'autres biais des algorithmes d'IA. Les anciens présidents du groupe des employés noirs de l'entreprise, Masheika Allgood et Alexander Tsado, se sont plaints de la légèreté avec laquelle leur employeur traite ces préoccupations. Selon le rapport, ils ont quitté une réunion avec le PDG de Nvidia, Jensen Huang, avec le sentiment de ne pas avoir été entendus. Dans leurs témoignages, ils ont affirmé avoir été frustrés par cela et ont remis en cause la gestion par Huang des risques liés à l'IA.

    Nom : Understanding_A_Bias_in_Banking-1-1536x768.jpg
Affichages : 2038
Taille : 50,6 Ko

    Allgood et Tsado auraient travaillé avec des collègues de toute l'entreprise pour élaborer une présentation soulignant les dangers potentiels de l'IA et la nécessité d'une surveillance réglementaire accrue. Le duo aurait notamment mis en évidence les biais des technologies de reconnaissance faciale utilisées dans les voitures autonomes. Malheureusement, ils ont eu l'impression que Huang n'avait pas écouté leurs préoccupations et n'avait pas donné la priorité à la prise en compte des biais potentiels qui pourraient mettre en danger les groupes sous-représentés. En conséquence, Allgood et Tsado ont quitté l'entreprise peu de temps après la réunion.

    Allgood et Tsado ont expliqué que leur objectif était de trouver un moyen d'affronter de front les conséquences involontaires potentiellement dangereuses de l'IA - des ramifications qui seraient probablement d'abord ressenties par les communautés marginalisées. « Je suis un membre des communautés sous-représentées, et il n'y a donc rien de plus important pour moi que cela. Nous construisons ces outils, je les regarde et je me dis que cela ne va pas fonctionner pour moi parce que je suis noir », a déclaré Tsado. Allgood, quant à elle, a déclaré que la réunion avec Huang représentait les 45 minutes les plus dévastatrices de sa vie professionnelle.

    Le rapport allègue que Nvidia est l'une des plus mauvaises entreprises technologiques en ce qui concerne la représentation des Noirs et des Hispaniques au sein de son personnel. Le fabricant de puces a été critiqué pour son incapacité à prendre en compte les personnes de couleur dans ses produits d'IA générative. Sur un échantillon de 88 entreprises du S&P 100, une seule est moins bien classée que Nvidia sur la base de leur pourcentage d'employés noirs et hispaniques en 2021. Et parmi les cinq entreprises les moins bien classées pour leur pourcentage d'employés noirs, quatre sont des fabricants de puces : AMD, Broadcom, Qualcomm et Nvidia.

    Même au regard des normes technologiques, le secteur est depuis longtemps critiqué pour son manque de diversité. Au cours de la réunion, Allgood se souvient que le PDG a déclaré que la diversité de l'entreprise garantirait l'éthique de ses produits d'IA. À l'époque, seulement 1 % des employés de Nvidia étaient noirs - un chiffre qui n'avait pas changé depuis 2016. Cette proportion serait de 5 % chez Intel et Microsoft, 4 % chez Meta et 14 % pour la part des Noirs dans l'ensemble de la population américaine en 2020. D'autres sources ont déclaré que lors de la réunion, Huang parlait de la diversité de pensée, et non de la couleur de peau en particulier.

    Alors que les outils d'IA deviennent de plus en plus omniprésents dans la vie quotidienne, les inquiétudes concernant les risques et ses préjugés ne cessent de croître. Par exemple, certaines minorités sous-représentées craignent que les voitures autonomes ne les reconnaissent pas ou que les caméras de sécurité les identifient mal. Plusieurs rapports ont relevé les biais des algorithmes de reconnaissance faciale, notamment leur faible taux d'efficacité et leurs erreurs graves. Ces préoccupations soulignent l'importance de la diversité dans le développement des systèmes d'IA pour s'assurer qu'ils sont mieux adaptés à toutes les communautés.

    Les craintes soulevées par Allgood et Tsado ont trouvé un écho. Bien que Nvidia ait refusé de commenter les détails de la réunion, l'entreprise a déclaré qu'elle continue à consacrer d'énormes ressources pour s'assurer que l'IA profite à tout le monde. « Parvenir à une IA sûre et digne de confiance est un objectif que nous poursuivons avec la communauté. Ce sera un long voyage impliquant de nombreuses discussions », a déclaré Nvidia dans un communiqué. Peu de temps après le départ d'Allgood et de Tsado, Nvidia a engagé Nikki Pope pour diriger son projet interne "AI & Legal Ethics". Selon le rapport, le projet était anciennement appelé "Trustworthy AI".

    Des chercheurs affirment que les minorités sont tellement sous-représentées dans la technologie, et en particulier dans l'IA, que sans leur contribution, les algorithmes risquent d'avoir des angles morts. Un article de l'AI Now Institute de l'université de New York a établi un lien entre le manque de représentation dans la main-d'œuvre de l'IA et les préjugés dans les modèles, parlant d'un "désastre de la diversité". Gomme Google, Nvidia s'ajoute à une liste de grandes entreprises technologiques où certains employés issus de minorités ont exprimé leur inquiétude quant aux dangers de la nouvelle technologie, en particulier pour les personnes de couleur.

    Pope, qui est noire, affirme qu'elle est opposée à l'affirmation selon laquelle "les minorités doivent être impliquées directement pour pouvoir produire des modèles d'IA impartiaux". « Je suis sûre que les modèles que nous fournissons à nos clients pour qu'ils les utilisent et les modifient ont été testés et que les groupes qui vont interagir avec ces modèles ont été représentés », a déclaré Pope. L'engagement de Nvidia à résoudre ces problèmes reste incertain. Nvidia dit avoir mis en œuvre des mesures visant à rendre ses produits d'IA équitables et sûrs, mais des questions subsistent quant à l'exhaustivité et à l'efficacité de ces efforts.

    Shelly Cerio, responsable des ressources humaines de Nvidia, a déclaré que lorsque l'entreprise fonctionnait comme une startup (et s'inquiétait de sa survie), elle recrutait principalement pour répondre à ses besoins immédiats en matière de compétences. Selon Cerio, maintenant qu'il est plus grand, Nvidia a fait de la diversité dans son recrutement une priorité. La représentation des Noirs est passée de 1,1 % en 2020 à 2,5 % en 2021, l'année la plus récente pour laquelle des données sont disponibles. Les Asiatiques constituent le groupe ethnique le plus important au sein de l'entreprise, suivis par les employés blancs.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pourquoi les entreprises technologiques sont-elles si critiquées sur notion de diversité ?
    Que pensez-vous des préoccupations relatives aux menaces que l'IA ferait peser sur les minorités ?
    Selon vous, les minorités sont-elles plus exposées aux préjugés et aux biais potentiels de l'IA ? Pourquoi ?
    Le problème est-il lié aux données d'entraînement ou à la faible représentation des minorités dans les équipes d'IA ?
    Selon vous, comment peut-on réduire les biais potentiels des algorithmes d'IA ? Est-il possible de les éliminer complètement ?

    Voir aussi

    Les employés de Nvidia seraient soudainement si riches et heureux que l'entreprise fait face à un problème de « semi-retraite », le succès financier de certains a créé des tensions internes

    Le PDG de Nvidia, Jensen Huang, affirme que ceux qui n'ont pas d'expertise en matière d'IA seront laissés pour compte, et ajoute que l'IA est en bonne voie pour réinventer l'informatique de A à Z

    Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

Discussions similaires

  1. Réponses: 4
    Dernier message: 27/03/2023, 09h31
  2. Réponses: 4
    Dernier message: 30/10/2020, 16h14
  3. Des chercheurs ont mis au point un nouvel algorithme pour détecter les deepfakes
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 4
    Dernier message: 01/08/2019, 17h22
  4. Réponses: 4
    Dernier message: 19/06/2018, 10h34
  5. Réponses: 15
    Dernier message: 02/04/2010, 12h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo