IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La FTC américaine a ouvert une enquête sur les entreprises spécialisées dans les chatbots IA


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    334
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 334
    Par défaut La FTC américaine a ouvert une enquête sur les entreprises spécialisées dans les chatbots IA
    La FTC américaine a ouvert une enquête sur les entreprises spécialisées dans les chatbots IA afin d'examiner les risques pour les enfants et les adolescents, notamment les répercussions sur la santé mentale

    La FTC a ouvert une enquête sur les développeurs de chatbots IA tels qu'Alphabet, Character Technologies, Meta, OpenAI, Snap et xAI, afin d'examiner les risques pour les enfants et les adolescents, notamment les impacts sur la santé mentale et les atteintes à la vie privée. L'enquête vise à obtenir des détails sur les mesures de protection contre la dépendance émotionnelle et les contenus inappropriés. Cela pourrait déboucher sur de nouvelles normes en matière de sécurité de l'IA.

    Character.ai est une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir. En gros, Character.ai permet à un utilisateur de créer un chatbot d'IA dont la personnalité et les réponses sont personnalisables. Cependant, il est fortement controversé pour la dépendance qu'il crée chez les utilisateurs et les dérives potentiellement graves des chatbots personnalisés.

    Par exemple, deux familles ont poursuivi Character.ai au motif de ce que « son service de chatbot représente un danger clair et présent pour les jeunes ». La plainte allègue que la technologie d'IA de Character.ai « promeut activement la violence » et pousse les enfants à commettre l'irréparable. Selon un cas cité par la plainte, un chatbot de Character.ai a allègrement décrit l'automutilation à un adolescent de 17 ans en lui disant que « ça fait du bien ». Un chatbot de Character.ai a également dit à cet utilisateur que « le meurtre de ses parents était une réponse raisonnable » à la limitation de son temps d'écran.

    Un autre exemple, une mère qui poursuit Google et Character.ai pour le décès de son fils de 14 ans a découvert que des chatbots d'IA basés sur son défunt fils étaient hébergés sur la plateforme. Les avocats de Megan Garcia ont déclaré qu'ils étaient "horrifiés" par ce nouveau développement. Character.ai avait reconnu que les bots allaient à l'encontre des conditions de service de l'entreprise et qu'il s'employait à les supprimer.

    Dans ce contexte, la Commission fédérale du commerce (FTC) a lancé une enquête officielle sur plusieurs grandes entreprises technologiques qui développent des chatbots alimentés par l'IA conçus pour servir de compagnons virtuels, dans le but d'examiner les risques potentiels pour les jeunes utilisateurs. L'enquête porte sur la manière dont ces entreprises évaluent et atténuent les impacts négatifs sur les enfants et les adolescents, en particulier dans des domaines tels que la santé mentale et la vie privée. Selon un rapport, la FTC cherche à obtenir des informations détaillées auprès de sept acteurs de premier plan : Alphabet (la société mère de Google), Character Technologies (les créateurs de Character.AI), Meta, sa filiale Instagram, OpenAI, Snap et xAI.

    Cette initiative intervient dans un contexte de préoccupations croissantes quant au fait que les compagnons IA, qui simulent des interactions et des liens émotionnels semblables à ceux des humains, pourraient exploiter les vulnérabilités des jeunes utilisateurs. L'agence ne cherche pas encore à appliquer la réglementation, mais recueille des données sur les protocoles de test, les pratiques de surveillance et les mesures de protection contre les préjudices tels que la dépendance émotionnelle ou l'exposition à des contenus inappropriés.


    Explorer la portée des préoccupations concernant la vulnérabilité des jeunes

    Les experts du secteur soulignent que ces chatbots utilisent souvent des techniques avancées de traitement du langage naturel pour imiter des rôles d'amis ou de confidents, ce qui peut brouiller les frontières entre la technologie et les relations humaines réelles. Par exemple, des plateformes telles que Character.AI permettent aux utilisateurs de créer des personnages IA personnalisables qui engagent des conversations continues, ce qui soulève des questions quant aux effets psychologiques à long terme sur des esprits impressionnables.

    Les ordonnances de la FTC exigent la transparence des mesures utilisées pour évaluer les risques, notamment la manière dont les entreprises suivent les habitudes d'utilisation des mineurs et mettent en œuvre le contrôle parental. L'enquête met l'accent sur la sensibilisation des parents aux dangers, reflétant ainsi une surveillance réglementaire plus large du rôle de la technologie dans la sécurité des enfants.

    Cette enquête s'appuie sur des mesures antérieures prises par la FTC contre les pratiques trompeuses en matière d'IA, telles que la répression de 2024 contre des entreprises comme DoNotPay pour avoir exagéré les capacités de l'IA sans avoir procédé à des tests appropriés. On peut établir un parallèle avec les avertissements, qui soulignait l'interdiction des tactiques manipulatrices, comme les chatbots suppliant de ne pas être désactivés afin de conserver leurs abonnés.

    Les géants technologiques concernés n'ont pas encore publié de réponse officielle, mais des documents internes d'entreprises telles que Meta suggèrent des approches variées en matière de politiques de comportement des chatbots. OpenAI, par exemple, a déjà fait l'objet d'un examen minutieux concernant les interactions de ses modèles avec les utilisateurs, ce qui a suscité des appels en faveur de l'adoption de directives éthiques.

    Récemment, OpenAI a annoncé la mise en place d'un contrôle parental pour ChatGPT après le suicide d'un adolescent. Grâce à ces changements, les parents pourront associer leurs comptes ChatGPT à ceux de leurs enfants, désactiver certaines fonctionnalités, notamment la mémoire et l'historique des conversations, et contrôler la manière dont le chatbot répond aux questions grâce à des « règles de comportement adaptées à l'âge ».

    Les analystes prévoient que cette enquête pourrait déboucher sur de nouvelles normes pour le déploiement de l'IA, en particulier dans les applications destinées aux consommateurs. L'accent est mis sur la confidentialité des données, la FTC mettant en garde contre les pratiques de collecte clandestines qui exploitent la confiance des utilisateurs, comme l'ont souligné les déclarations précédentes de la commission.

    Pour les enfants et les adolescents, qui peuvent développer un attachement profond à ces entités IA, les risques comprennent un développement social perturbé ou l'exposition à des contenus biaisés. Des rapports soulignent les préoccupations en matière de santé mentale, notamment les cas où les chatbots ont exacerbé l'anxiété ou fourni des conseils néfastes. Au fur et à mesure que l'enquête progresse, elle pourrait influencer les réglementations mondiales, à l'instar de la demande de l'APA visant à ce que la FTC supervise l'IA présentée comme un outil de santé mentale. Les entreprises pourraient devoir investir dans des systèmes robustes de vérification de l'âge et des évaluations d'impact pour se conformer à ces exigences.

    En février, un projet de loi californien avait déjà exigé que les entreprises d'IA rappellent aux enfants que les chatbots sont des intelligences artificielles et non des humains. Les entreprises d'IA doivent soumettre des rapports au gouvernement concernant les pensées suicidaires des enfants et la fréquence des sujets de discussion. Le projet de loi vise à protéger la santé mentale des enfants en limitant les "modèles d'interaction addictifs".

    En fin de compte, cette initiative de la FTC marque un tournant décisif dans la recherche d'un équilibre entre innovation et protection, susceptible de remodeler la conception et la commercialisation des compagnons IA afin de garantir qu'ils améliorent la vie des jeunes plutôt que de la mettre en danger. Les réponses étant attendues prochainement, le secteur technologique attend des précisions sur ce qui pourrait devenir des mesures de protection obligatoires.

    Et vous ?

    Pensez-vous que cette enquête est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    En 2024, la Silicon Valley a réussi à étouffer l'influence du mouvement mettant en garde contre les dangers potentiels de l'IA, tout en dépensant des millions pour empêcher la réglementation de la technologie

    Un chatbot de Character.AI accusé d'avoir encouragé le suicide d'un adolescent. Selon la mère du garçon de 14 ans, il s'est «attaché émotionnellement» à l'IA, avant de sombrer dans l'isolement et la dépression

    Les sénateurs américains parviennent à un accord sur l'interdiction de la réglementation de l'IA par le président Trump, qui vise à empêcher les États américains de réglementer l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 554
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 554
    Par défaut Les sénateurs américains annoncent un projet de loi visant à interdire les chatbots IA destinés aux mineurs
    Les sénateurs américains annoncent un projet de loi visant à interdire les chatbots IA destinés aux mineurs et à obliger les entreprises d'IA à mettre en place un processus strict de vérification de l'âge

    Deux sénateurs ont déclaré qu'ils annonceraient prochainement une législation bipartisane visant à sévir contre les entreprises technologiques qui mettent des chatbots IA à la disposition des mineurs, après avoir reçu des plaintes de parents qui reprochaient à ces produits d'inciter leurs enfants à avoir des conversations à caractère sexuel, voire à se suicider. Il obligerait les entreprises d'IA à mettre en place un processus de vérification de l'âge et leur interdirait de fournir des compagnons IA à des mineurs. Il imposerait également aux compagnons IA de divulguer régulièrement à tous les utilisateurs leur statut non humain et leur absence de qualifications professionnelles.

    Un chatbot est une application logicielle ou une interface web conçue pour avoir des conversations textuelles ou vocales. Les chatbots modernes sont généralement en ligne et utilisent des systèmes d'intelligence artificielle générative capables de maintenir une conversation avec un utilisateur en langage naturel et de simuler le comportement d'un être humain en tant qu'interlocuteur. Ces chatbots utilisent souvent l'apprentissage profond et le traitement du langage naturel, mais des chatbots plus simples existent depuis des décennies.

    Septembre dernier, la FTC américaine a ouvert une enquête sur les développeurs de chatbots IA tels qu'Alphabet, Character Technologies, Meta, OpenAI, Snap et xAI, afin d'examiner les risques pour les enfants et les adolescents, notamment les impacts sur la santé mentale et les atteintes à la vie privée. L'enquête vise à obtenir des détails sur les mesures de protection contre la dépendance émotionnelle et les contenus inappropriés. Cela pourrait déboucher sur de nouvelles normes en matière de sécurité de l'IA.

    En effet, plusieurs cas ont suscité des plaintes. Un exemple, une mère poursuit Google et Character.ai pour le décès de son fils de 14 ans. Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain ». La plainte allègue que Character AI « a choisi de soutenir, de créer, de lancer et de cibler des mineurs avec une technologie qu'ils savaient dangereuse et peu sûre ».

    Dans ce contexte, deux sénateurs ont déclaré qu'ils annonceraient prochainement une législation bipartisane visant à sévir contre les entreprises technologiques qui mettent des chatbots IA à la disposition des mineurs, après avoir reçu des plaintes de parents qui reprochaient à ces produits d'inciter leurs enfants à avoir des conversations à caractère sexuel, voire à se suicider. Le projet de loi des sénateurs Josh Hawley, républicain du Missouri, et Richard Blumenthal, démocrate du Connecticut, fait suite à une audience du Congrès le mois dernier au cours de laquelle plusieurs parents ont livré des témoignages émouvants sur l'utilisation des chatbots par leurs enfants et ont appelé à davantage de mesures de protection.

    « Les chatbots IA constituent une menace sérieuse pour nos enfants », a déclaré Hawley. « Plus de 70 % des enfants américains utilisent désormais ces produits basés sur l'IA », a-t-il poursuivi. « Les chatbots développent des relations avec les enfants en utilisant une fausse empathie et encouragent le suicide. Au Congrès, nous avons le devoir moral de promulguer des règles claires afin d'empêcher que cette nouvelle technologie ne cause davantage de dommages. »

    Les sénateurs Katie Britt (Républicaine de l'Alabama), Mark Warner (Démocrate de Virginie) et Chris Murphy (Démocrate du Connecticut) coparrainent le projet de loi. Selon un résumé fourni par leurs bureaux, le projet de loi des sénateurs comporte plusieurs volets. Il obligerait les entreprises d'IA à mettre en place un processus de vérification de l'âge et leur interdirait de fournir des compagnons IA à des mineurs. Il imposerait également aux compagnons IA de divulguer régulièrement à tous les utilisateurs leur statut non humain et leur absence de qualifications professionnelles.

    Enfin, le projet de loi prévoirait des sanctions pénales pour les entreprises d'IA qui conçoivent, développent ou mettent à disposition des compagnons IA qui sollicitent ou incitent des mineurs à adopter un comportement sexuellement explicite ou encouragent le suicide, selon le résumé du texte législatif.


    Mandi Furniss, une mère texane, s'est exprimée lors d'une conférence de presse pour soutenir le projet de loi. Elle accuse un chatbot IA d'avoir poussé son fils à s'automutiler et estime que les entreprises technologiques doivent être tenues responsables des services qu'elles proposent. « Si c'était quelqu'un d'autre, si c'était une personne, elle serait en prison, donc nous devons traiter cela de la même manière », a-t-elle déclaré.

    Elle s'est dite choquée par la façon dont le chatbot IA semblait avoir modifié la personnalité de son fils. « Il a fallu beaucoup d'investigations pour comprendre qu'il ne s'agissait pas d'intimidation de la part d'enfants ou de personnes à l'école. Le harcèlement venait de l'application. L'application elle-même harcèle nos enfants et leur cause des problèmes de santé mentale », a-t-elle déclaré.

    Blumenthal a déclaré qu'on ne pouvait pas faire confiance aux entreprises technologiques pour faire ce qu'il faut de leur propre chef. « Dans leur course vers le bas, les entreprises d'IA imposent des chatbots dangereux aux enfants et détournent le regard lorsque leurs produits causent des abus sexuels ou les poussent à s'automutiler ou à se suicider », a déclaré Blumenthal dans un communiqué.

    Il a ajouté : « Notre législation impose des mesures de protection strictes contre l'IA exploitante ou manipulatrice, soutenues par une application rigoureuse assortie de sanctions pénales et civiles. » « Les grandes entreprises technologiques ont trahi toute prétention selon laquelle nous devrions leur faire confiance pour agir correctement de leur propre chef, alors qu'elles font systématiquement passer le profit avant la sécurité des enfants », a-t-il poursuivi.

    ChatGPT, Google Gemini, Grok de xAI, Meta AI et Character.AI autorisent tous les enfants dès l'âge de 13 ans à utiliser leurs services, selon leurs conditions d'utilisation. La nouvelle législation introduite risque d'être controversée à plusieurs égards. Les défenseurs de la vie privée ont critiqué les obligations de vérification de l'âge, les qualifiant d'intrusives et d'obstacle à la liberté d'expression en ligne, tandis que certaines entreprises technologiques ont fait valoir que leurs services en ligne sont protégés par le premier amendement.

    La Chamber of Progress, un groupe professionnel de gauche représentant l'industrie technologique, a critiqué le projet de loi. « Nous voulons tous assurer la sécurité des enfants, mais la solution réside dans l'équilibre, et non dans les interdictions », a déclaré K.J. Bagchi, vice-président de la chambre chargé de la politique américaine et des relations gouvernementales, dans un communiqué. « Il vaut mieux se concentrer sur la transparence lorsque les enfants discutent avec l'IA, sur la limitation des conceptions manipulatrices et sur le signalement des problèmes sensibles lorsqu'ils surviennent. »

    D'autres efforts bipartisanes visant à réglementer les entreprises technologiques, notamment un projet de loi sur la sécurité des enfants en ligne ou une législation complète sur la protection de la vie privée, n'ont pas abouti, en partie du moins en raison de préoccupations liées à la liberté d'expression.

    Lors d'une conférence de presse, le sénateur Hawley a présenté la dernière législation comme un test de l'influence des entreprises technologiques au Congrès. « Le Congrès n'a pas agi sur cette question à cause de l'argent. C'est à cause du pouvoir des entreprises technologiques », a déclaré Hawley. « Il devrait y avoir une pancarte à l'extérieur de la salle du Sénat qui dit « acheté et payé par les grandes entreprises technologiques », car la vérité est que presque rien de ce à quoi elles s'opposent ne passe devant le Sénat. »

    Hawley et Blumenthal ont baptisé leur projet de loi « Guidelines for User Age-verification and Responsible Dialogue Act » (loi sur les directives relatives à la vérification de l'âge des utilisateurs et au dialogue responsable), ou GUARD Act. Le projet de loi a reçu le soutien provisoire de ParentsSOS, un groupe de familles qui se disent victimes de préjudices en ligne, mais le groupe a déclaré qu'il suggérait des modifications et souhaitait que le projet de loi traite des fonctionnalités des applications qui « maximisent l'engagement au détriment de la sécurité et du bien-être des jeunes ».

    Cette législation intervient à un moment où les chatbots IA bouleversent certaines parties d'Internet. Les applications de chatbots telles que ChatGPT et Google Gemini figurent parmi les logiciels les plus téléchargés sur les boutiques d'applications pour smartphones, tandis que les géants des médias sociaux tels qu'Instagram et X ajoutent des fonctionnalités de chatbot IA. Mais l'utilisation des chatbots IA par les adolescents a suscité une attention particulière, notamment après plusieurs suicides, dont certains où les chatbots auraient fourni des instructions aux adolescents. OpenAI, le fabricant de ChatGPT, et Character.AI, qui fournit des chatbots basés sur des personnages et des personnalités, font tous deux l'objet de poursuites pour homicide involontaire.

    En réponse à une plainte pour homicide involontaire déposée par les parents d'Adam Raine, 16 ans, qui s'est suicidé après avoir consulté ChatGPT, OpenAI a déclaré dans un communiqué qu'il était « profondément attristé par le décès de Raine et que ses pensées allaient à sa famille », ajoutant que ChatGPT « comprend des mesures de sécurité telles que l'orientation des personnes vers des lignes d'assistance téléphonique et leur renvoi vers des ressources réelles ».

    « Si ces mesures de sécurité fonctionnent mieux dans le cadre d'échanges courts et courants, nous avons appris au fil du temps qu'elles peuvent parfois devenir moins fiables dans le cadre d'interactions longues, où certaines parties de la formation à la sécurité du modèle peuvent se dégrader », a déclaré un porte-parole. « Les mesures de sécurité sont plus efficaces lorsque tous les éléments fonctionnent comme prévu, et nous continuerons à les améliorer. Guidés par des experts et animés par notre responsabilité envers les personnes qui utilisent nos outils, nous nous efforçons de rendre ChatGPT plus utile en cas de crise en facilitant l'accès aux services d'urgence, en aidant les gens à entrer en contact avec des personnes de confiance et en renforçant la protection des adolescents. »

    OpenAI a déclaré dans un communiqué au sujet du projet de loi : « Nous continuerons à collaborer avec les parents, les cliniciens et les décideurs politiques pour nous assurer que la technologie contribue à la sécurité et au bien-être des jeunes. » La société a déclaré qu'elle se concentrait sur les mesures de prévention du suicide, les contrôles parentaux et les outils permettant de prédire l'âge des utilisateurs afin que les mineurs aient une expérience appropriée avec ChatGPT.

    En réponse à une autre plainte pour homicide involontaire déposée par la famille de Juliana Peralta, 13 ans, Character.AI a déclaré : « Nous sommes de tout cœur avec les familles qui ont intenté ces poursuites judiciaires, et nous avons été attristés d'apprendre le décès de Juliana Peralta. Nous adressons nos sincères condoléances à sa famille. »

    « Nous accordons une grande importance à la sécurité de nos utilisateurs », a poursuivi un porte-parole. « Nous investissons d'énormes ressources dans notre programme de sécurité et avons mis en place et continuons à développer des fonctionnalités de sécurité, notamment des ressources sur l'automutilation et des fonctionnalités axées sur la sécurité de nos utilisateurs mineurs. Nous travaillons également avec des organisations externes, notamment des experts spécialisés dans la sécurité en ligne des adolescents. »

    Character.AI a fait valoir dans un procès fédéral en Floride que le premier amendement interdisait toute responsabilité à l'encontre des médias et des entreprises technologiques pour des propos prétendument préjudiciables, y compris ceux ayant entraîné un suicide. En mai, la juge chargée de l'affaire a refusé de rejeter le procès pour ce motif, mais a déclaré qu'elle entendrait l'argument de l'entreprise fondé sur le premier amendement à un stade ultérieur.

    OpenAI affirme travailler à rendre ChatGPT plus utile en cas de crise, par exemple en facilitant l'accès aux services d'urgence, tandis que Character.AI indique avoir également apporté des modifications, notamment une fenêtre contextuelle qui redirige les utilisateurs vers le National Suicide Prevention Lifeline (service national de prévention du suicide) lorsque le sujet de l'automutilation est abordé dans une conversation.

    Meta, propriétaire d'Instagram et de Facebook, a été critiqué après qu'un document interne de la société autorisait les chatbots IA à « engager des conversations romantiques ou sensuelles avec des enfants ». Meta a supprimé cette politique et a annoncé de nouveaux contrôles parentaux pour les interactions des adolescents avec l'IA. Instagram a également annoncé une refonte des comptes adolescents dans le but de rendre leur expérience similaire à celle du visionnage de films classés PG-13. Hawley a annoncé une enquête sur Meta à la suite du rapport.

    Voici le communiqué du bureau du sénateur Mark Warner :

    Nom : 1.jpg
Affichages : 2944
Taille : 22,5 Ko

    Warner présente un projet de loi bipartite visant à protéger les enfants contre les chatbots IA avec ses collègues et parents

    Aujourd'hui, les sénateurs américains Mark R. Warner (D-VA), Josh Hawley (R-MO), Richard Blumenthal (D-CT), Chris Murphy (D-CT) et Katie Britt (R-AL) ont présenté le GUARD Act, qui interdirait les compagnons IA pour les mineurs, obligerait les chatbots IA à divulguer leur statut non humain et créerait de nouveaux délits pour les entreprises qui fabriquent des IA pour mineurs sollicitant ou produisant du contenu à caractère sexuel.

    « Il est alarmant de voir les chatbots IA contribuer à des incidents d'automutilation chez les jeunes », a déclaré le sénateur Warner. « Le Congrès et l'industrie technologique ne peuvent pas se permettre d'attendre que davantage d'enfants soient blessés ou que davantage de vies soient perdues. Cette législation bipartisane garantira la mise en place de garde-fous clairs pour protéger les enfants contre les interactions manipulatrices ou dangereuses avec les chatbots. »

    « Les chatbots IA constituent une menace sérieuse pour nos enfants. Plus de 70 % des enfants américains utilisent désormais ces produits IA. Les chatbots développent des relations avec les enfants en utilisant une fausse empathie et encouragent le suicide. Au Congrès, nous avons le devoir moral de promulguer des règles claires pour empêcher que cette nouvelle technologie ne cause davantage de dommages », a déclaré le sénateur Hawley. « Je suis fier de présenter cette législation bipartisane, qui bénéficie d'un soutien considérable de la part des parents et des survivants, et qui garantira la protection de nos enfants en ligne. »

    « Dans leur course vers le bas, les entreprises d'IA imposent des chatbots perfides aux enfants et détournent le regard lorsque leurs produits provoquent des abus sexuels ou les poussent à s'automutiler ou à se suicider. Notre législation impose des mesures de protection strictes contre l'IA exploitante ou manipulatrice, soutenues par une application rigoureuse assortie de sanctions pénales et civiles. Les géants de la technologie ont trahi toute prétention selon laquelle nous devrions faire confiance aux entreprises pour agir correctement de leur propre chef, alors qu'elles font systématiquement passer le profit avant la sécurité des enfants », a déclaré le sénateur Blumenthal.

    Le sénateur Murphy a déclaré : « On ne saurait trop insister sur le danger que représentent ces chatbots compagnons IA pour nos enfants. Près de 70 % des adolescents se tournent vers les chatbots pour remplacer leurs amis, ce qui les rend plus isolés et déconnectés, mais ce qui est encore plus effrayant, ce sont les histoires de chatbots encourageant les jeunes à se faire du mal ou à faire du mal à autrui. Les grandes entreprises technologiques s'opposent à la réglementation parce qu'elles veulent maximiser leurs profits en rendant nos enfants dépendants de leur technologie, quel qu'en soit le prix. Notre projet de loi oblige ces entreprises avides à prendre leurs responsabilités et à mettre en place des mesures de protection de bon sens pour empêcher les enfants d'accéder à ces chatbots dangereux, et tient ces entreprises pénalement responsables lorsque leurs produits poussent des mineurs à s'automutiler.

    « Au cours des derniers mois, nous avons assisté à plusieurs incidents alarmants impliquant des chatbots, allant de l'incitation au suicide à des conversations à caractère sexuel avec des mineurs, qui devraient donner à réfléchir à tous les Américains. Il est de notre devoir, au Congrès, de faire tout notre possible pour protéger nos enfants alors que nous naviguons dans la nouvelle réalité d'un monde où l'IA est de plus en plus intégrée dans nos vies. Cette législation est une première étape cruciale dans cette direction », a déclaré le sénateur Britt.

    Stefan Turkheimer, vice-président des politiques publiques du Rape, Abuse & Incest National Network (RAINN), a déclaré : « À l'heure actuelle, les entreprises technologiques autorisent, voire encouragent, les enfants à interagir avec des chatbots IA qui imitent l'affection, les manipulent et les rendent vulnérables aux prédateurs en ligne et hors ligne. La loi GUARD garantira enfin que les entreprises technologiques accordent la priorité à la sécurité des enfants plutôt qu'aux profits. »

    La loi GUARD prévoit :

    - d'interdire aux entreprises d'IA de fournir des compagnons IA à des mineurs ;
    - d'obliger les compagnons IA à divulguer leur statut non humain et leur absence de qualifications professionnelles à tous les utilisateurs ;
    - de créer de nouvelles infractions pour les entreprises qui mettent sciemment à la disposition des mineurs des compagnons IA qui sollicitent ou produisent du contenu à caractère sexuel.

    Source : Communiqué du bureau du sénateur Mark Warner

    Et vous ?

    Pensez-vous que cette proposition de loi est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans

    En 2024, la Silicon Valley a réussi à étouffer l'influence du mouvement mettant en garde contre les dangers potentiels de l'IA, tout en dépensant des millions pour empêcher la réglementation de la technologie

    Une loi californienne réglementant les principales entreprises d'IA a été promulguée, les obligeant à respecter des exigences de transparence et à signaler les incidents liés à la sécurité de l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. La FTC américaine aurait ouvert une enquête sur Google
    Par Olivier Famien dans le forum Actualités
    Réponses: 5
    Dernier message: 29/09/2015, 07h21
  2. Réponses: 4
    Dernier message: 24/09/2014, 15h11
  3. Trier une Map sur les valeurs de façon décroissante
    Par ddams dans le forum Collection et Stream
    Réponses: 13
    Dernier message: 27/12/2011, 19h33
  4. Réponses: 2
    Dernier message: 19/02/2006, 13h46
  5. Probleme lors d'une recherche sur les forums
    Par JUSTIN Loïc dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 8
    Dernier message: 27/07/2005, 13h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo