Le groupe qui milite en faveur de l'obligation de vérification de l'âge pour l'IA s'avère être discrètement soutenu par OpenAI, qui est à l'origine de la coalition « Parents & Kids Safe AI »
OpenAI, le créateur de ChatGPT, ferait l'objet de critiques de la part de parents et d'associations de défense de la sécurité des enfants après que des membres ont découvert que l'entreprise d'IA finançait une coalition avec laquelle ils travaillaient. Certains dirigeants ont exprimé leur inquiétude quant à la manière dont la coalition était présentée, l'un d'entre eux déclarant : « Je ne veux pas dire qu'ils mentent ouvertement, mais ils envoient des e-mails qui sont assez trompeurs. » Cette affaire a soulevé des questions sur la transparence alors qu'OpenAI milite en faveur de règles de sécurité pour les enfants concernant l'IA.
OpenAI est un organisme américain de recherche en intelligence artificielle (IA) comprenant à la fois une fondation à but non lucratif et une société d'intérêt public (PBC) à but lucratif, dont le siège se trouve à San Francisco. Son objectif est de développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes surpassant les humains dans la plupart des tâches à forte valeur économique ». Le lancement de ChatGPT en novembre 2022 est considéré comme ayant suscité un intérêt généralisé pour l'IA générative.
En janvier, OpenAI a introduit une nouvelle fonctionnalité de prédiction de l’âge pour les comptes ChatGPT, afin de renforcer la protection des utilisateurs âgés de moins de 18 ans. Le modèle de prédiction analyse les données d’usage et les informations du compte afin d’estimer l’âge probable de l’utilisateur et, le cas échéant, d'appliquer des mesures de protection adaptées aux mineurs. Ces mesures visent à restreindre l’accès à des contenus jugés sensibles, tout en permettant aux adultes qui se verraient à tort soumis à ces restrictions de les lever via une vérification d’identité sécurisée.
Récemment, OpenAI, le créateur de ChatGPT, ferait l'objet de critiques de la part de parents et d'associations de défense de la sécurité des enfants après que des membres ont découvert que l'entreprise d'IA finançait une coalition avec laquelle ils travaillaient. Selon un article du San Francisco Standard, plusieurs groupes ont découvert qu'OpenAI était à l'origine de la Parents & Kids Safe AI Coalition. Certains dirigeants ont exprimé leur inquiétude quant à la manière dont la coalition était présentée, l'un d'entre eux déclarant : « Je ne veux pas dire qu'ils mentent ouvertement, mais ils envoient des e-mails qui sont assez trompeurs. » Cette affaire a soulevé des questions sur la transparence alors qu'OpenAI milite en faveur de règles de sécurité pour les enfants concernant l'IA.
Selon l’article, la coalition a contacté diverses organisations de protection de l’enfance en mars, leur demandant de soutenir des propositions politiques telles que la vérification de l’âge et la limitation des publicités ciblant les enfants. Cependant, de nombreux e-mails n’indiquaient pas clairement qu’OpenAI finançait l’initiative. Certains responsables de groupes ont déclaré n’avoir découvert l’implication d’OpenAI qu’après l’annonce publique de la coalition. Au moins deux membres ont ensuite quitté le groupe.
Le dirigeant d'une organisation à but non lucratif a déclaré au journal : « C'est un sentiment très désagréable », ajoutant ses inquiétudes quant à la manière dont cette campagne de sensibilisation a été menée. Le rapport indique que les propositions de la coalition sont similaires à un projet de loi sur la sécurité des enfants soutenu par OpenAI en Californie. L’entreprise s’efforce d’obtenir un soutien pour ces règles alors que de plus en plus d’États cherchent à réglementer l’utilisation de l’IA par les enfants. Dans une déclaration transmise au San Francisco Standard, les membres de la coalition et un dirigeant d’OpenAI ont déclaré qu’ils « se battaient pour la loi la plus stricte du pays en matière de sécurité des enfants face à l’IA ».
Certains groupes de défense ont choisi de ne pas rejoindre la coalition en raison de l’implication d’OpenAI. Josh Golin, de FairPlay, a déclaré : « Je veux qu’ils se retirent et laissent les défenseurs et les parents… faire adopter la législation qu’ils jugent la meilleure pour les enfants. » Le rapport note également qu’OpenAI a fait face à des pressions juridiques et politiques concernant l’utilisation de ses produits par les jeunes utilisateurs, alors que les débats sur la réglementation de l’IA se poursuivent aux États-Unis.
Ce rapport intervient alors que le conseil consultatif sur le bien-être de l'entreprise a voté à l'unanimité contre le lancement d'un mode érotique dans ChatGPT, allant jusqu'à brandir le spectre d'un « coach suicidaire sexy ». L'entreprise a quand même décidé d'aller de l'avant. Entre pression financière, défaillances techniques et dépendances émotionnelles documentées, l'affaire illustre de façon saisissante les tensions qui fracturent le secteur de l'IA à mesure que ses acteurs cherchent de nouveaux relais de croissance.
Source : San Francisco Standard
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
OpenAI annonce la mise en place d'un contrôle parental pour ChatGPT après le suicide d'un adolescent, qui permettra aux parents de recevoir des notifications si ChatGPT détecte une « détresse aiguë »
Les parents d'adolescents qui se sont suicidés après avoir interagi avec des chatbots dotés d'IA ont témoigné devant le Congrès américain sur les dangers de la technologie IA
Mark Zuckerberg, Larry Ellison et Jensen Huang ont été nommés au Comité présidentiel des conseillers en science et technologie de Donald Trump, afin de le conseiller sur la réglementation en matière d'IA








Pensez-vous que ce rapport est crédible ou pertinent ?
Répondre avec citation



Partager