IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Qui doit être tenu pour responsable lorsqu’une IA diffuse des informations erronnées au sujet d'une personne ?


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 380
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 380
    Par défaut Qui doit être tenu pour responsable lorsqu’une IA diffuse des informations erronnées au sujet d'une personne ?
    Qui doit être tenu pour responsable lorsqu’une intelligence artificielle diffuse des informations erronnées au sujet d’une personne ?
    Des contenus de nature à nuire à sa réputation ?

    Nous avons tous déjà été témoins d'hallucinations de l'intelligence artificielle. OpenAI l’avoue d’ailleurs : génération de contre-vérités, de citations fictives ou de faits inexacts, les hallucinations de ChatGPT ne disparaîtront jamais. Mais que se passe-t-il lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ? Des informations susceptibles de nuire à sa réputation ? Qui doit être tenu pour responsable ?

    Les commerciaux de Wolf River Electric, une entreprise spécialisée dans l'énergie solaire basée dans le Minnesota, ont remarqué une augmentation inhabituelle du nombre de contrats annulés à la fin de l'année dernière. Lorsqu'ils ont demandé des explications à leurs anciens clients, les réponses les ont laissés bouche bée.

    Les clients ont déclaré avoir renoncé à leur contrat après avoir appris, grâce à des recherches sur Google, que l'entreprise avait conclu un accord avec le procureur général de l'État dans le cadre d'un procès pour pratiques commerciales trompeuses. Mais l'entreprise n'avait jamais été poursuivie par le gouvernement, et encore moins conclu un accord dans le cadre d'une affaire impliquant de telles allégations.

    Les dirigeants de Wolf River ont donc vérifié par eux-mêmes. Les résultats de recherche affichés en haut de la page par l’IA Gemini de Google contenaient des informations erronées. Et lorsque les dirigeants tapaient « Wolf River Electric » dans le champ de recherche, des mentions d'un règlement judiciaire apparaissaient automatiquement.

    Face à l'accumulation des annulations et à l'inefficacité de leurs tentatives d'utiliser les outils de Google pour corriger le problème, les dirigeants de Wolf River ont décidé qu'ils n'avaient d'autre choix que de poursuivre le géant technologique pour diffamation.

    Wolf Electric : Une redite de plusieurs autres cas de diffamation par l’intelligence artificielle

    Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    L’avocat, Steven A. Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a répondu par l’affirmative.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    En juillet 2023, Jeffery Battle, basé dans le Maryland, a poursuivi Microsoft, affirmant qu'il avait perdu des millions et que sa réputation avait été ruinée après avoir découvert que les moteurs de recherche Bing et Bing Chat le qualifiaient à tort de terroriste condamné. Le même mois, Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.

    Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

    Contrairement à Hood, Walters n'a pas tenté de faire supprimer les allégations prétendument diffamatoires de ChatGPT à son sujet avant d'intenter son action en justice. Selon Walters, les lois sur la diffamation n'obligent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra que si OpenAI sait que son produit génère des réponses diffamatoires, elle devrait être tenue pour responsable de la publication de déclarations diffamatoires.

    Les législateurs et experts en intelligence artificielle sont donc divisés sur la question de savoir s’il faut accorder aux robots un statut juridique

    « La création, à terme, d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers », propose le Parlement de l’UE.

    Traduction, cette recommandation suggère de tenir pour responsables les robots autonomes, notamment au cas où ces machines portent atteinte à la sécurité des gens ou bien endommagent des biens.

    Les parties derrière cette proposition, notamment des constructeurs, prétendent que ce changement relève du bon sens. Un statut juridique ne va pas octroyer aux robots le droit de se marier ou bien de bénéficier des mêmes droits que des humains. Loin de là, elle va mettre à pied d’égalité l’IA avec les sociétés, qui elles bénéficient déjà du statut de « personne morale », et sont traitées comme tel dans les tribunaux du monde entier.

    Mais ces arguments ne convainquent pas. Des experts en intelligence artificielle sont d’avis qu’attribuer un statut juridique aux robots serait « inapproprié » et pose des problèmes « légaux et éthiques ».

    « En adoptant le statut juridique, nous allons supprimer la responsabilité des constructeurs, » s’alerte Nathalie Navejans, professeure de droit à l'Université d'Artois, à Arras, à l'initiative de la tribune.

    Noel Sharkey, professeur d’intelligence artificielle et de robotique à l’université de Sheffield est lui aussi d’accord que pour les constructeurs, cette proposition constitue un moyen de se dédouaner de la responsabilité des actions de leurs machines et des dommages qu’elles pourraient causer.

    Des robots qui seraient dotés d’une intelligence similaire à celles des humains et capable de prendre des décisions sont encore loin d’exister. Aujourd’hui, les robots font mieux que les humains dans certaines tâches spécifiques, voire des applications restreintes, comme la reconnaissance d’images, ou encore jouer au jeu de Go.

    Mais ces applications bien qu’elles soient avancées restent limitées à un seul domaine. Jouer à Go, ou bien catégoriser des images constituent tout ce que peuvent faire ces machines, contrairement aux humains qui peuvent à la fois comprendre le langage, apprendre à jouer à une variété de jeux et reconnaître des images.

    En dépit de cette réalité, les rapports exagérés des médias sur les avancées dans la robotique ont infiltré le débat public. En conséquence, les législateurs pourraient être poussés à adopter des régulations prématurées.

    Et vous ?

    Qui, selon vous, doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées sur des personnes ?

    Selon vous, les hallucinations des intelligences artificielles peuvent-elles ruiner une réputation ?

    Quelles sont les mesures préventives ou correctives que les éditeurs d’intelligence artificielle ou leurs utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?

    Voir aussi :

    Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent, d'une organisation à but non lucratif

    Comment ChatGPT crée de fausses histoires de toutes pièces pour diffamer lourdement des innocents, cela donne-t-il raison aux détracteurs des chatbots ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    168
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 168
    Par défaut
    C'est un peu comme s'interroger sur la culpabilité du clavier que l'on a utilisé pour écrire un tweet.
    C'est digne d'un épisode de South Park mais ce qui est moins drôle c'est qu'on est en plein dedans.

  3. #3
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    18 504
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 18 504
    Par défaut
    Qui, selon vous, doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées sur des personnes ?
    Juridiquement, pour moi c'est l'utilisateur de l'IA, à sa charge de prouver l'exception de bonne foi ou de vérité.

    Quelles sont les mesures préventives ou correctives que les éditeurs d’intelligence artificielle ou leurs utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?
    Difficile à dire, mais un début est l'obligation de citer les sources.
    Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
    Mon article sur le P2V, mon article sur le cloud
    Consultez nos FAQ : Windows, Linux, Virtualisation

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 650
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 650
    Par défaut
    Pas besoin de faire de grands discours philosophiques, la justice et la législation sont lentes, mais ces cas vont finir par être clarifiés et les premières décisions de justice feront jurisprudence!

    A remarquer que le droit suit l'évolution de la société mais ne la précède pas: La justice tranche actuellement les cas de violation de la propriété intellectuelle et du vol de données de la part des IA, la suite viendra...

  5. #5
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 119
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 119
    Par défaut
    Les IA sont fait de telle sorte qu'elles affirment haut et fort que leur hallucinations sont des faits avérés.
    Cela est dû à la manière dont elles ont été conçues à la base.

    Sauf qu'auparavant, pour obtenir une réponse d'une IA, il fallait le faire volontairement.
    Avec Gemini inclus dans Google, un utilisateur non averti peut facilement penser qu'il n'a pas fait usage de l'IA.
    Et il n'y a pas grand choses pour le mettre en garde.
    Ou alors, ces mises en garde sont loin d'être mises en évidence.


    Donc pour moi, telle que la question est posée, ce sont les concepteurs qui doivent porter la responsabilité, notamment lorsque leur IA inventent des faits diffamatoires sur une personne ou sur une entreprise.
    Car, je pense en effet que ces IA détruisent des réputations.

    Mais, dans le cas de l'avocat, cela faisait partie de son métier, et il était de sa responsabilité de vérifier l'information.

    Je suis d'avis que l'IA devrait systématiquement citer ces sources et afficher clairement (et surtout de manière à évidente et immanquable) lorsqu'elle "extrapole".

  6. #6
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Les LLM dans leur manière de fonctionner sont incapable de citer leurs sources (je parle de ce qui est purement généré, pas des outils utilisant la recherche web, auquel cas citer est facile et n'a rien à voir avec la techno LLM), ni même de déterminer si ce qu'ils disent est faux. Attendre cela de cette techno n'a aucun sens.

    Le premier responsable de ce que produit un LLM est celui qui contrôle la publication de cette production. L'avocat qui génère sa plaidoirie via LLM est responsable de ce que produit le LLM. Le développeur qui demande une revue d'un LLM et publie ça sur GitHub est responsable de la revue qu'il fournit. S'il ne peut que générer une requête mais subit ensuite la production automatique sans pouvoir la supprimer par la suite, c'est le responsable de la plateforme qui contrôle la production, et devient donc responsable. La personne lambda qui génère un contenu automatique et le publie sur les réseaux est responsable de ce contenu.

    Pourquoi le controleur de la production ? Parce que les LLM sont intrinsèquements incapables de garantir la qualité de leurs propos. Tout au plus on peut avoir des attentes statistiques, donc sur un ensemble de productions, mais pas vis à vis d'une production unique. À partir du moment où on sait ça, on n'a aucune raison de générer du contenu et de le croire sur parole. Il faut toujours vérifier. Quelqu'un qui publie sans vérifier devrait engager sa responsabilité.

    Là où la responsabilité du fournisseur du modèle peut être engagée, c'est s'il cache cette aspect statistique. Auquel cas l'utilisateur est mal informé sur les propriétés de ce qu'il utilise à cause du fournisseur, et devrait donc pouvoir se retourner contre lui.

    Admettre une responsabilité juridique aux robots est au mieux prématuré car on est très loin d'avoir des entités artificielles capables d'assurer une telle responsabilité, au pire complètement idiot car on n'en aura jamais si elles restent au statut d'outil.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 9
    Dernier message: 29/08/2018, 11h13
  2. Réponses: 0
    Dernier message: 03/02/2018, 17h13
  3. Réponses: 12
    Dernier message: 29/05/2017, 16h59
  4. Réponses: 20
    Dernier message: 09/12/2015, 12h11

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo