IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Qui doit être tenu pour responsable lorsqu’une IA diffuse des informations erronnées au sujet d'une personne ?


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 325
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 325
    Par défaut Qui doit être tenu pour responsable lorsqu’une IA diffuse des informations erronnées au sujet d'une personne ?
    Qui doit être tenu pour responsable lorsqu’une intelligence artificielle diffuse des informations erronnées au sujet d’une personne ?
    Des contenus de nature à nuire à sa réputation ?

    Nous avons tous déjà été témoins d'hallucinations de l'intelligence artificielle. OpenAI l’avoue d’ailleurs : génération de contre-vérités, de citations fictives ou de faits inexacts, les hallucinations de ChatGPT ne disparaîtront jamais. Mais que se passe-t-il lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ? Des informations susceptibles de nuire à sa réputation ? Qui doit être tenu pour responsable ?

    Les commerciaux de Wolf River Electric, une entreprise spécialisée dans l'énergie solaire basée dans le Minnesota, ont remarqué une augmentation inhabituelle du nombre de contrats annulés à la fin de l'année dernière. Lorsqu'ils ont demandé des explications à leurs anciens clients, les réponses les ont laissés bouche bée.

    Les clients ont déclaré avoir renoncé à leur contrat après avoir appris, grâce à des recherches sur Google, que l'entreprise avait conclu un accord avec le procureur général de l'État dans le cadre d'un procès pour pratiques commerciales trompeuses. Mais l'entreprise n'avait jamais été poursuivie par le gouvernement, et encore moins conclu un accord dans le cadre d'une affaire impliquant de telles allégations.

    Les dirigeants de Wolf River ont donc vérifié par eux-mêmes. Les résultats de recherche affichés en haut de la page par l’IA Gemini de Google contenaient des informations erronées. Et lorsque les dirigeants tapaient « Wolf River Electric » dans le champ de recherche, des mentions d'un règlement judiciaire apparaissaient automatiquement.

    Face à l'accumulation des annulations et à l'inefficacité de leurs tentatives d'utiliser les outils de Google pour corriger le problème, les dirigeants de Wolf River ont décidé qu'ils n'avaient d'autre choix que de poursuivre le géant technologique pour diffamation.

    Wolf Electric : Une redite de plusieurs autres cas de diffamation par l’intelligence artificielle

    Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    L’avocat, Steven A. Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a répondu par l’affirmative.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    En juillet 2023, Jeffery Battle, basé dans le Maryland, a poursuivi Microsoft, affirmant qu'il avait perdu des millions et que sa réputation avait été ruinée après avoir découvert que les moteurs de recherche Bing et Bing Chat le qualifiaient à tort de terroriste condamné. Le même mois, Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.

    Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

    Contrairement à Hood, Walters n'a pas tenté de faire supprimer les allégations prétendument diffamatoires de ChatGPT à son sujet avant d'intenter son action en justice. Selon Walters, les lois sur la diffamation n'obligent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra que si OpenAI sait que son produit génère des réponses diffamatoires, elle devrait être tenue pour responsable de la publication de déclarations diffamatoires.

    Les législateurs et experts en intelligence artificielle sont donc divisés sur la question de savoir s’il faut accorder aux robots un statut juridique

    « La création, à terme, d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers », propose le Parlement de l’UE.

    Traduction, cette recommandation suggère de tenir pour responsables les robots autonomes, notamment au cas où ces machines portent atteinte à la sécurité des gens ou bien endommagent des biens.

    Les parties derrière cette proposition, notamment des constructeurs, prétendent que ce changement relève du bon sens. Un statut juridique ne va pas octroyer aux robots le droit de se marier ou bien de bénéficier des mêmes droits que des humains. Loin de là, elle va mettre à pied d’égalité l’IA avec les sociétés, qui elles bénéficient déjà du statut de « personne morale », et sont traitées comme tel dans les tribunaux du monde entier.

    Mais ces arguments ne convainquent pas. Des experts en intelligence artificielle sont d’avis qu’attribuer un statut juridique aux robots serait « inapproprié » et pose des problèmes « légaux et éthiques ».

    « En adoptant le statut juridique, nous allons supprimer la responsabilité des constructeurs, » s’alerte Nathalie Navejans, professeure de droit à l'Université d'Artois, à Arras, à l'initiative de la tribune.

    Noel Sharkey, professeur d’intelligence artificielle et de robotique à l’université de Sheffield est lui aussi d’accord que pour les constructeurs, cette proposition constitue un moyen de se dédouaner de la responsabilité des actions de leurs machines et des dommages qu’elles pourraient causer.

    Des robots qui seraient dotés d’une intelligence similaire à celles des humains et capable de prendre des décisions sont encore loin d’exister. Aujourd’hui, les robots font mieux que les humains dans certaines tâches spécifiques, voire des applications restreintes, comme la reconnaissance d’images, ou encore jouer au jeu de Go.

    Mais ces applications bien qu’elles soient avancées restent limitées à un seul domaine. Jouer à Go, ou bien catégoriser des images constituent tout ce que peuvent faire ces machines, contrairement aux humains qui peuvent à la fois comprendre le langage, apprendre à jouer à une variété de jeux et reconnaître des images.

    En dépit de cette réalité, les rapports exagérés des médias sur les avancées dans la robotique ont infiltré le débat public. En conséquence, les législateurs pourraient être poussés à adopter des régulations prématurées.

    Et vous ?

    Qui, selon vous, doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées sur des personnes ?

    Selon vous, les hallucinations des intelligences artificielles peuvent-elles ruiner une réputation ?

    Quelles sont les mesures préventives ou correctives que les éditeurs d’intelligence artificielle ou leurs utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?

    Voir aussi :

    Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent, d'une organisation à but non lucratif

    Comment ChatGPT crée de fausses histoires de toutes pièces pour diffamer lourdement des innocents, cela donne-t-il raison aux détracteurs des chatbots ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    159
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 159
    Par défaut
    C'est un peu comme s'interroger sur la culpabilité du clavier que l'on a utilisé pour écrire un tweet.
    C'est digne d'un épisode de South Park mais ce qui est moins drôle c'est qu'on est en plein dedans.

  3. #3
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    18 413
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 18 413
    Par défaut
    Qui, selon vous, doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées sur des personnes ?
    Juridiquement, pour moi c'est l'utilisateur de l'IA, à sa charge de prouver l'exception de bonne foi ou de vérité.

    Quelles sont les mesures préventives ou correctives que les éditeurs d’intelligence artificielle ou leurs utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?
    Difficile à dire, mais un début est l'obligation de citer les sources.
    Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
    Mon article sur le P2V, mon article sur le cloud
    Consultez nos FAQ : Windows, Linux, Virtualisation

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 481
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 481
    Par défaut
    Pas besoin de faire de grands discours philosophiques, la justice et la législation sont lentes, mais ces cas vont finir par être clarifiés et les premières décisions de justice feront jurisprudence!

    A remarquer que le droit suit l'évolution de la société mais ne la précède pas: La justice tranche actuellement les cas de violation de la propriété intellectuelle et du vol de données de la part des IA, la suite viendra...

  5. #5
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 045
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 045
    Par défaut
    Les IA sont fait de telle sorte qu'elles affirment haut et fort que leur hallucinations sont des faits avérés.
    Cela est dû à la manière dont elles ont été conçues à la base.

    Sauf qu'auparavant, pour obtenir une réponse d'une IA, il fallait le faire volontairement.
    Avec Gemini inclus dans Google, un utilisateur non averti peut facilement penser qu'il n'a pas fait usage de l'IA.
    Et il n'y a pas grand choses pour le mettre en garde.
    Ou alors, ces mises en garde sont loin d'être mises en évidence.


    Donc pour moi, telle que la question est posée, ce sont les concepteurs qui doivent porter la responsabilité, notamment lorsque leur IA inventent des faits diffamatoires sur une personne ou sur une entreprise.
    Car, je pense en effet que ces IA détruisent des réputations.

    Mais, dans le cas de l'avocat, cela faisait partie de son métier, et il était de sa responsabilité de vérifier l'information.

    Je suis d'avis que l'IA devrait systématiquement citer ces sources et afficher clairement (et surtout de manière à évidente et immanquable) lorsqu'elle "extrapole".

  6. #6
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 398
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 398
    Billets dans le blog
    3
    Par défaut
    Les LLM dans leur manière de fonctionner sont incapable de citer leurs sources (je parle de ce qui est purement généré, pas des outils utilisant la recherche web, auquel cas citer est facile et n'a rien à voir avec la techno LLM), ni même de déterminer si ce qu'ils disent est faux. Attendre cela de cette techno n'a aucun sens.

    Le premier responsable de ce que produit un LLM est celui qui contrôle la publication de cette production. L'avocat qui génère sa plaidoirie via LLM est responsable de ce que produit le LLM. Le développeur qui demande une revue d'un LLM et publie ça sur GitHub est responsable de la revue qu'il fournit. S'il ne peut que générer une requête mais subit ensuite la production automatique sans pouvoir la supprimer par la suite, c'est le responsable de la plateforme qui contrôle la production, et devient donc responsable. La personne lambda qui génère un contenu automatique et le publie sur les réseaux est responsable de ce contenu.

    Pourquoi le controleur de la production ? Parce que les LLM sont intrinsèquements incapables de garantir la qualité de leurs propos. Tout au plus on peut avoir des attentes statistiques, donc sur un ensemble de productions, mais pas vis à vis d'une production unique. À partir du moment où on sait ça, on n'a aucune raison de générer du contenu et de le croire sur parole. Il faut toujours vérifier. Quelqu'un qui publie sans vérifier devrait engager sa responsabilité.

    Là où la responsabilité du fournisseur du modèle peut être engagée, c'est s'il cache cette aspect statistique. Auquel cas l'utilisateur est mal informé sur les propriétés de ce qu'il utilise à cause du fournisseur, et devrait donc pouvoir se retourner contre lui.

    Admettre une responsabilité juridique aux robots est au mieux prématuré car on est très loin d'avoir des entités artificielles capables d'assurer une telle responsabilité, au pire complètement idiot car on n'en aura jamais si elles restent au statut d'outil.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  7. #7
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 045
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 045
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Les LLM dans leur manière de fonctionner sont incapable de citer leurs sources (je parle de ce qui est purement généré, pas des outils utilisant la recherche web, auquel cas citer est facile et n'a rien à voir avec la techno LLM), ni même de déterminer si ce qu'ils disent est faux. Attendre cela de cette techno n'a aucun sens.
    Et pourtant, Perplexity qui se déclare lui même basé sur des LLM lorsqu'on lui pose la question, cite ces sources.
    Nom : Perplexity.png
Affichages : 150
Taille : 42,8 Ko

    Et lorsqu'on clique sur le bouton :
    Nom : PerplexitySource.png
Affichages : 146
Taille : 41,7 Ko

  8. #8
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 060
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 060
    Par défaut
    Citation Envoyé par popo Voir le message
    Et pourtant, Perplexity qui se déclare lui même basé sur des LLM lorsqu'on lui pose la question, cite ces sources.
    [...]
    Bonjour,
    Sur ce cas trival ça paraît crédible, mais sur des cas compliqués, il est facile de constater que les LLM ne citent pas vraiment leurs sources (en dehors d'une tâche de demande de résumé de recherche web). Ils simulent les sources en trouvant dans les résultats d'un moteur de recherche des liens qui ont l'air d'avoir un rapport avec la question, mais qui souvent ne contiennent pas les informations sources.
    D'ailleurs, les citations des sources ne comportent pas d'ouvrages spécialisés ou de documents à accès restreint, même quand manifestement ceux-ci ont été intégrés...

  9. #9
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 398
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 398
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par popo Voir le message
    Et pourtant, Perplexity qui se déclare lui même basé sur des LLM lorsqu'on lui pose la question, cite ces sources.
    Je m'attendais à ce qu'on me reprenne là-dessus, car la notion est subtile. Fagus met le doigt dessus, et c'est pour ça que je parle de ce qui est "purement généré" et non pas "basé" sur du LLM.

    Être basé sur du LLM veut dire qu'on lui ajoute d'autres trucs, typiquement ce qu'on appelle les "outils" (standardisés via MCP) et à ce moment là il est trivial de rajouter les sources : dès qu'une demande de recherche web est faite (qui sont fait sur de vrais moteurs de recherche), tu prends les liens retournés et ça te fait des sources. Eventuellement tu appliques un ordonnancement et un filtre avec quelques critères bien choisis pour essayer de lister les sources les plus pertinentes. Mais le contenu de ces pages a t'il vraiment été utilisé pour générer la réponse ? Pas forcément, et ceux qui utilisent un modèle local le savent bien : j'utilise un modèle local + serveur MCP pour la recherche web, le modèle utilise la fonction de recherche, mais pas celle de lecture du contenu associé à un lien. Il se contente en gros de lancer la recherche sur DuckDuckGo et de voir les liens et résumés retournés, sans récupérer le détail des pages de chaque lien. Sa réponse est alors générée sur la base de ce qu'il a appris + une influence des résumés retournés, mais principalement basé sur ce qu'il a appris, sans savoir d'où ça vient. Du coup c'est facile de générer une liste de sources, mais sa correspondance avec la réponse générée n'est que probable, pas garantie.

    Quand je dis "purement généré" ça veut dire que tu ne donnes pas accès à ce genre d'outil, et tu laisses le modèle générer le contenu. Tu peux lui demander des sources. Il va t'en générer. Mais la plupart des liens seront des liens morts qui viennent de nulle part. Juste du contenu qui ressemble à des liens. PArce qu'un LLM sert à générer du texte plausible, pas véridique.

    Alors oui Perplexity et autres "services" fournit par ces grosses boîtes qui ajoutent au LLM des outils fignolés par leurs soins et formattent la réponse de manière crédible, ils vont te fournir des sources, et la majeure partie du temps elles seront crédibles, mais c'est encore et toujours une illusion bien ficelée qui convainc par ses apparences. Tant qu'en général ça marche et les sources sont utiles, l'utilisateur est content. Si tu cherches quelque chose de rigoureux par contre, passe ton chemin.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 9
    Dernier message: 29/08/2018, 11h13
  2. Réponses: 0
    Dernier message: 03/02/2018, 17h13
  3. Réponses: 12
    Dernier message: 29/05/2017, 16h59
  4. Réponses: 20
    Dernier message: 09/12/2015, 12h11

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo