2 pièce(s) jointe(s)
Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place
Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir
Sur le bien-être des groupes marginalisés
Google a annoncé l'année dernière un ensemble de principes sur la façon de construire des outils d'intelligence artificielle suite à une lettre ouverte des employés qui protestait contre la participation de l’entreprise dans des projets d’intelligence artificielle avec le Département de la Défense. « Nous reconnaissons qu'une technologie aussi puissante soulève des questions tout aussi importantes quant à son utilisation. La façon dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années à venir. En tant que chef de file dans le domaine de l'IA, nous nous sentons profondément responsables de bien faire les choses. C'est pourquoi nous annonçons aujourd'hui sept principes qui guideront notre travail à l'avenir. Il ne s'agit pas de concepts théoriques, mais de normes concrètes qui régiront activement nos activités de recherche et de développement de produits et auront une incidence sur nos décisions commerciales. »
La semaine dernière, pour passer à une autre phase dans la mise en œuvre de ses principes sur la façon de construire des outils d'intelligence artificielle, Google a annoncé sa décision de création d'un comité consultatif externe pour les projets d'IA, lors de EmTech Digital, l'événement du MIT Technology Review à San Francisco. Dans un article de blog publié le 26 mars, la firme a qualifié cette décision comme un pas en avant en matière de responsabilité.
« Ce groupe se penchera sur certains des défis les plus complexes de Google qui se posent dans le cadre de nos principes d'intelligence artificielle, comme la reconnaissance faciale et l'équité dans l'apprentissage automatique, en offrant diverses perspectives pour éclairer notre travail », a déclaré le géant de la Silicon Valley dans son article de blog, qui a également publié la biographie des membres du comité ATEAC (Conseil consultatif externe sur les technologies de pointe). Parmi les huit membres, il y a des économistes, des philosophes, des décideurs et des technologues spécialisés dans des questions comme le biais algorithmique.
Cependant, certains membres de ce nouveau conseil ne font pas l’unanimité chez les googlers, des chercheurs universitaires et d'autres personnalités de l'industrie de la technologie qui ont signé une lettre protestant contre la constitution d'un conseil indépendant pour guider l'éthique des projets d'IA avec ces membres.
Selon MIT Technology Review, deux membres du ATEAC posent problème : L'un d’eux est Dyan Gibbens, PDG de Trumbull, une société qui développe des systèmes autonomes pour l'industrie de la défense. Ce choix est controversé par les signataires de la lettre étant donné que des milliers d'employés de Google ont protesté contre la décision de la société de fournir à l'US Air Force de l'IA pour l'imagerie de drone. Cependant, le plus grand scandale a été l'inclusion de Kay Coles James, présidente de la Heritage Foundation, un groupe de réflexion qui s'oppose à la réglementation des émissions de carbone, adopte une position ferme sur l'immigration et s'oppose à la protection des droits des LGBTQ.
Selon les employés, en choisissant James, Google indique clairement que sa version de « l'éthique » privilégie la proximité du pouvoir sur le bien-être des transgenres, des autres personnes LGBTQ et des immigrants. Une telle position va directement à l'encontre des valeurs affichées par Google. Beaucoup de signataires ont souligné cette position publiquement. En effet, dans les Principes d'IA de Google publiés en juin dernier, Google s’est engagé à construire une IA socialement bénéfique.
Un membre du conseil a même déjà démissionné à la suite de la controverse. Alessandro Acquisti, professeur à l'Université Carnegie Mellon, spécialisé dans les questions de confidentialité numérique, a annoncé le 30 mars qu'il n'assumerait pas ce rôle. « Bien que je me consacre à la recherche sur les questions éthiques clés de l'équité, des droits et de l'inclusion dans l'IA, je ne crois pas que ce soit le bon forum pour moi pour m'engager dans ce travail important », a-t-il ajouté dans un tweet.
Plusieurs employés de Google qui ont critiqué la décision de Google, sur la plateforme de messagerie interne, ont décrit James comme étant « intolérante » et la Heritage Foundation comme étant « étonnamment mauvaise » dans leurs politiques sur des sujets comme les changements climatiques, l'immigration et, en particulier, les questions d'égalité LGBTQ. Selon eux, une personne avec des points de vue de James « ne mérite pas une plateforme légitimée par Google, et n'a certainement pas sa place dans une conversation sur la façon dont la technologie Google devrait être appliquée au monde ».
Selon MIT Technology Review, une source anonyme a confié que les conversations ont été animées et intensément critiques, tant à l'égard de James qu'à l'égard du leadership de Google. Selon les employés, la décision de l’inclusion par Google de James comme membre du ATEAC est « horriblement négligent ou carrément malveillant ». Ils ont même cité un récent tweet de James sur la façon dont les « nations puissantes » poussaient « la redéfinition radicale du sexe ».
Selon MIT Technology Review, l'inclusion de Gibbens et James aurait peut-être pour but d’apaiser les critiques de droite de Google. À peu près au même moment où le conseil a été annoncé, Sundar Pichai, PDG de Google, a rencontré le président Donald Trump, qui a plus tard tweeté : « Il a déclaré avec force qu'il est totalement dévoué à l'armée américaine, et non à l'armée chinoise. Nous avons également discuté de l'équité politique et de diverses choses que Google peut faire pour notre pays. La réunion s'est très bien terminée ! »
Toutefois, selon un employé de Google qui a participé à la rédaction de la lettre de protestation et qui s’est exprimé sous couvert d’anonymat, James est plus qu'une simple voix conservatrice au sein du conseil. « C'est une réactionnaire qui nie l'existence des transsexuels, qui soutient des positions radicalement anti-immigrées, et qui soutient des positions anti-changement climatique, anti-science. »
L’employé craint que certains algorithmes d'IA puissent renforcer les préjugés déjà observés dans la société ; il a été démontré que certains d'entre eux identifient mal les personnes transgenres, par exemple. Dans ce contexte, « le fait que James ait été inclus est assez choquant », a déclaré l'employé. « Ces technologies façonnent nos institutions sociales, notre vie et notre accès aux ressources. Quand l'IA échoue, elle n'échoue pas pour les hommes blancs riches qui travaillent dans les entreprises de technologie. Elle échoue pour les populations que les politiques de la Heritage Foundation visent déjà à atteindre. », a-t-il déclaré.
Les préoccupations des employés portaient sur le type de contribution que le conseil d'administration aurait à apporter à la technologie Google. Ils se demandent déjà comment la technologie de l'IA pourrait avoir un effet négatif disparate sur les groupes historiquement marginalisés, y compris la communauté LGBTQ, et les employés craignent que la décision ne fasse avancer ces problèmes. « Ils pensent que certains de nos collègues n'existent pas ou ne devraient pas exister », a écrit un employé.
Toutefois, le débat à Google n'a pas été entièrement unilatéral. Certains employés sont intervenus pour soutenir la nomination, soit comme un moyen d'apporter plus de points de vue dans la discussion sur les outils d'IA ou au moins comme une manœuvre politique avisée. Ceux qui ont bien accueilli la décision de la nomination de James pensent que c’est un moyen de devancer la conversation et d'apaiser les craintes au sujet de l'entreprise, soutenant que le conseil d'administration était probablement « une création politique » et, par nécessité, exigeait une participation conservatrice. Mais, les détracteurs de la nomination au conseil de James ont rejeté l'idée comme étant du proxénétisme inutile.
Dans une pétition ouverte, les organisateurs ont appelé James « vocalement anti-trans, anti-LGBTQ, et anti-immigrant. » Les détracteurs ont écrit également que « les préjudices potentiels de l'IA ne sont pas répartis de manière égale et suivent les schémas historiques de discrimination et d'exclusion ». La lettre publique, postée sur Medium, a été signée par 1 721 Googlers depuis hier, d’après Medium. Les mises à jour sont régulièrement ajoutées à l’article, selon Medium.
Source : MIT Technology Review, Medium
Et vous ?
:fleche: Que pensez-vous du conseil consultatif externe sur l’IA de Google ?
:fleche: Quelle est votre opinion sur le rejet de certains membre par les employés de l’entreprise ?
:fleche: Pensez-vous que Google à l’intention de construire une IA exclusivement éthique comme indiqué dans ses principes ?
Lire aussi
:fleche: Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA, dont l'usage est militaire
:fleche: Google aurait-il simulé une avancée dans le domaine de l'IA avec Google Duplex ? Un quotidien relève quelques incohérences
:fleche: Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ? Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?
:fleche: Google développe une IA capable de reconnaître et isoler une voix dans une foule, une aptitude réservée auparavant aux humains
:fleche: Google lance le support d'AMP pour les courriels, avec l'annonce d'un programme bêta, qui introduit le courriel dynamique (AMPHTML Email) sur Gmail
1 pièce(s) jointe(s)
Google dissout le comité d'éthique de l'IA une semaine à peine après sa mise en place
Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place
suite à un mouvement collectif d’indignation
Le comité d’éthique de l’IA de Google mis en place il y à peine une semaine vient d’être dissout après les nombreuses controverses à son encontre. Plusieurs membres du conseil faisaient l’objet de critiques de la part de communauté, de certains employés de la société elle-même et d’autres personnalités influentes. Des milliers d’employés de Google ont signé une pétition appelant à la destitution d’un membre du conseil d’administration, la présidente de la Heritage Foundation, Kay Coles James, pour ses commentaires sur les personnes transgenres et le scepticisme de son organisation à l’égard des changements climatiques. Google n’a donc pas eu d’autres choix que de dissoudre le conseil le jeudi passé.
Google avait annoncé l'année dernière un ensemble de principes sur la façon de construire des outils d'intelligence artificielle suite à une lettre ouverte des employés qui protestait contre la participation de l’entreprise dans des projets d’intelligence artificielle avec le Département de la Défense. « Nous reconnaissons qu'une technologie aussi puissante soulève des questions tout aussi importantes quant à son utilisation. La façon dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années à venir. En tant que chef de file dans le domaine de l'IA, nous nous sentons profondément responsables de bien faire les choses. C'est pourquoi nous annonçons aujourd'hui sept principes qui guideront notre travail à l'avenir. Il ne s'agit pas de concepts théoriques, mais de normes concrètes qui régiront activement nos activités de recherche et de développement de produits et auront une incidence sur nos décisions commerciales ».
La semaine dernière, pour passer à une autre phase dans la mise en œuvre de ses principes sur la façon de construire des outils d'intelligence artificielle, Google a annoncé sa décision de création d'un comité consultatif externe pour les projets d'IA, lors de EmTech Digital, l'événement du MIT Technology Review à San Francisco. Dans un article de blog publié le 26 mars, la firme avait qualifié cette décision comme un pas en avant en matière de responsabilité. « Ce groupe se penchera sur certains des défis les plus complexes de Google qui se posent dans le cadre de nos principes d'intelligence artificielle, comme la reconnaissance faciale et l'équité dans l'apprentissage automatique, en offrant diverses perspectives pour éclairer notre travail », a déclaré le géant de la Silicon Valley dans son article de blog, qui a également publié la biographie des membres du comité ATEAC (Conseil consultatif externe sur les technologies de pointe). Parmi les huit membres, il y a des économistes, des philosophes, des décideurs et des technologues spécialisés dans des questions comme le biais algorithmique.
Cependant, certains membres de ce nouveau conseil ne font pas l’unanimité chez les googlers, des chercheurs universitaires et d'autres personnalités de l'industrie de la technologie ont signé une lettre protestant contre la constitution d'un conseil indépendant pour guider l'éthique des projets d'IA avec ces membres. Selon MIT Technology Review, deux membres de l'ATEAC posent problème : l'un d’eux est Dyan Gibbens, PDG de Trumbull, une société qui développe des systèmes autonomes pour l'industrie de la défense. Ce choix est controversé par les signataires de la lettre étant donné que des milliers d'employés de Google ont protesté contre la décision de la société de fournir à l'US Air Force de l'IA pour l'imagerie de drone. Cependant, le plus grand scandale a été l'inclusion de Kay Coles James, présidente de la Heritage Foundation, un groupe de réflexion qui s'oppose à la réglementation des émissions de carbone, adopte une position ferme sur l'immigration et s'oppose à la protection des droits des LGBTQ.
Selon les indications de Vox, un des membres du conseil, Alessandro Acquisti, chercheur en matière de protection de la vie privée a démissionné et les autres membres s’étaient retrouvés submergés de demandes de démission. Dans une déclaration sur sa page Twitter, Alessandro a laissé paraître que le conseil semblait devenir un handicap pour Google. « Bien que je sois consacré à la recherche sur des questions importantes liées à l’éthique, au droit et à l'inclusion, je ne crois pas que ce soit le bon forum pour moi de participer à cet important travail », a-t-il déclaré. De plus, d’autres débats auxquels les membres du conseil ont participé n’ont été dans leurs avantages.
Sur Facebook, Luciano Floridi, membre du conseil d’administration, philosophe en éthique à Oxford avait écrit que « demander l'avis de Kay Coles James était une grave erreur et envoie un message erroné sur la nature et les objectifs de l'ensemble du projet ATEAC. D'un point de vue éthique, Google a mal jugé ce que signifie avoir des opinions représentatives dans un contexte plus large. Si Coles James ne démissionne pas, comme je l'espère, et si Google ne l'écarte pas, comme je l'ai personnellement recommandée, la question devient : quelle est la bonne attitude morale à adopter face à cette grave erreur ? ». D’autres de ces propos faisaient savoir que le comité de Google n’était pas prêt pour gérer ou traiter ni même faire avancer, des questions difficiles concernant les progrès de l'éthique de l'IA. Ainsi, les personnes choisies pour ajouter des perspectives extérieures liées à l’éthique aux idées de la firme sur l’IA ne font pas l'unanimité et cela, même aux yeux des employés de Google. La société a donc fait savoir jeudi dans un communiqué qu’il dissolvait le conseil.
« Il est devenu évident que dans l'environnement actuel, ATEAC ne peut pas fonctionner comme nous le souhaitions. Nous dissolvons donc le conseil et retournons à la case départ. Nous continuerons d'être responsables de notre travail sur les questions importantes soulevées par l'intelligence artificielle et trouverons différents moyens d'obtenir des avis extérieurs sur ces sujets », a déclaré la société dans son communiqué. Cela dit, après cette dissolution, beaucoup commencent à s’inquiéter face à l’idée que Google pourrait abandonner son intérêt à vouloir que ses technologies d’IA soient soumises à une analyse venant de l’extérieur sur les questions d’éthique. C’est une des choses sur lesquelles ce premier comité externe était censé statuer, mais très vite, il a été jugé incompétent pour assurer cette tâche.
Les technologies dans le domaine de l’IA avancent très rapidement et les machines dotées de capacités d’intelligence artificielle se comptent par milliers. Selon certaines personnes, si de telles mesures n’existent pas pour accompagner les diverses créations des sociétés comme Google, la menace des armes intelligentes, les robots tueurs, etc. va continuer à grandir. D’autres qualifient cela d’une situation honteuse. Ils estiment que Google aurait fait des choix plus éclairés et plus appropriés. « Ce conseil aurait pu être non partisan, rempli de penseurs éminents du monde universitaire et de l'industrie, et bénéficié d'un accès et d'une autorité significatifs. La direction de Google a décidé d'indiquer clairement qu'il s'agissait d'un simulacre en invitant quelqu'un qui n'était absolument pas qualifié », a déclaré l’un d’eux.
Source : Vox
Et vous ?
:fleche: Qu'en pensez-vous ?
:fleche: Google a-t-il raison de dissoudre ce comité, selon vous ? Pourquoi ?
Voir aussi
:fleche: Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir, sur le bien-être des groupes marginalisés
:fleche: Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA, dont l'usage est militaire
:fleche: Google aurait-il simulé une avancée dans le domaine de l'IA avec Google Duplex ? Un quotidien relève quelques incohérences
:fleche: Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ? Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?