IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Droit Discussion :

Un juge met en garde contre un risque pour la justice concernant les faux cas générés par l'IA


Sujet :

Droit

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 39
    Par défaut Un juge met en garde contre un risque pour la justice concernant les faux cas générés par l'IA
    Un juge met en garde contre un risque pour la justice après que des avocats ont cité de faux cas générés par l'IA devant les tribunaux, avertissant que les avocats pourraient être poursuivis dans ces cas

    Un juge met en garde contre un risque pour la justice après que des avocats ont cité de faux cas générés par l'IA devant les tribunaux, avertissant que les avocats pourraient être poursuivis s'ils ne vérifient pas l'exactitude de leurs recherches. "L'intelligence artificielle est un outil qui comporte à la fois des risques et des opportunités", a déclaré la juge.

    En 2023, dans le cadre d'un procès contre une compagnie aérienne aux États-Unis, l'avocat Steven Schwartz a cité six affaires fictives générées par ChatGPT. Il a fait référence à d'anciennes affaires judiciaires qu'il croyait réelles, mais qui avaient en effet été inventées par le chatbot d'IA. Il a reconnu avoir utilisé ChatGPT pour rechercher des jurisprudences pour les utiliser dans le cadre du procès intenté. Le juge a qualifié cette affaire d'inédite et de trompeuse, mais a également ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.

    Ce genre de cas était nouveau à l'époque, mais en 2025, l'utilisation de l'intelligence artificielle (IA) par des avocats est devenue courante. Cependant, ils ne sont pas à l'abri des "hallucinations", comme l'avocat Steven Schwartz. Dans le dernier exemple en date illustrant la manière dont les systèmes judiciaires du monde entier sont confrontés à la présence croissante de l'intelligence artificielle dans les tribunaux, la juge de la Haute Cour Victoria Sharp et son collègue Jeremy Johnson ont réprimandé des avocats dans deux affaires récentes.

    Les avocats ont cité de faux cas générés par l'IA dans des procédures judiciaires en Angleterre, a déclaré la juge, avertissant que les avocats pourraient être poursuivis s'ils ne vérifiaient pas l'exactitude de leurs recherches. La juge a déclaré que l'utilisation abusive de l'IA avait "de graves implications pour l'administration de la justice et la confiance du public dans le système judiciaire".


    La juge Victoria Sharp et son collègue Jeremy Johnson ont été invités à se prononcer après que des juges de première instance ont fait part de leurs inquiétudes concernant "l'utilisation présumée par des avocats d'outils d'intelligence artificielle générative pour produire des arguments juridiques écrits ou des déclarations de témoins qui ne sont ensuite pas vérifiés", ce qui conduit à la présentation d'informations erronées devant le tribunal.

    Dans une décision rédigée par Sharp, les juges ont déclaré que dans un procès de 120 millions de dollars concernant une violation présumée d'un accord de financement impliquant la Banque nationale du Qatar, un avocat avait cité 18 affaires qui n'existaient pas. Le client dans cette affaire, Hamad Al-Haroun, s'est excusé d'avoir involontairement induit le tribunal en erreur avec de fausses informations produites par des outils d'IA accessibles au public, et a déclaré qu'il était responsable, plutôt que son avocat Abid Hussain. Mais la juge Sharp a déclaré qu'il était "extraordinaire que l'avocat se fie à son client pour l'exactitude de ses recherches juridiques, plutôt que l'inverse."

    Dans l'autre affaire, un avocat a cité cinq fausses affaires dans le cadre d'une plainte déposée par un locataire contre le borough londonien de Haringey. L'avocate Sarah Forey a nié avoir utilisé l'IA, mais le juge Sharp a déclaré qu'elle n'avait "pas fourni au tribunal une explication cohérente de ce qui s'était passé."

    Les juges ont renvoyé les avocats des deux affaires devant leurs organismes de réglementation professionnels, mais n'ont pas pris de mesures plus sévères. La juge Sharp a déclaré que le fait de fournir des documents faux en les faisant passer pour authentiques pouvait être considéré comme un outrage au tribunal ou, dans les « cas les plus graves », comme une entrave à la justice, passible d'une peine maximale d'emprisonnement à perpétuité.

    Elle a déclaré dans son jugement que l'IA est une "technologie puissante" et un "outil utile" pour le droit. "L'intelligence artificielle est un outil qui comporte à la fois des risques et des opportunités", a déclaré la juge. "Son utilisation doit donc s'accompagner d'un niveau de surveillance approprié et s'inscrire dans un cadre réglementaire garantissant le respect de normes professionnelles et éthiques bien établies si l'on veut maintenir la confiance du public dans l'administration de la justice."

    Cependant, tout le monde n'est pas aussi clément que la juge Sharp. En mai 2025, un jeune diplômé d’une école de droit a perdu son emploi après avoir utilisé ChatGPT pour l'aider à rédiger un dossier judiciaire qui s'est avéré truffé d'erreurs : de nombreuses citations erronées ainsi qu’au moins une affaire inexistante dans les bases de données juridiques. C’est une situation qui vient étendre une longue liste de cas similaires et qui soulève la question de la pertinence de la mise à contribution de tels outils dans la justice.

    Source : La juge de la Haute Cour Victoria Sharp

    Et vous ?

    Pensez-vous que cette décision est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    ChatGPT : un avocat Canadien réprimandé pour avoir cité des cas de jurisprudences inventés par le chatbot IA d'OpenAI, dans un litige de garde d'enfants

    Près de trois quarts des juristes prévoient d'utiliser l'IA pour leur travail, ce qui est effrayant. Les modèles d'IA juridique hallucinent une fois sur six (ou plus) dans les évaluations comparatives

    L'IA a secrètement contribué à la rédaction de l'examen du barreau de Californie, suscitant un tollé. Un entrepreneur a utilisé l'IA pour créer 23 des 171 questions à choix multiples
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 287
    Billets dans le blog
    3
    Par défaut
    De toute évidence, le fait que les IA hallucinent n'a pas encore été bien intégré par ces avocats. Cela concerne toutes les utilisations et tous les modèles. Autant il est possible de le combiner à d'autres outils plus fiables, mais tant que c'est le LLM qui génère la réponse finale le risque d'hallucination n'est pas zéro. La réponse devrait donc toujours être mise en doute.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 0
    Dernier message: 10/10/2023, 08h10
  2. Microsoft met en garde contre ChapCrack
    Par Hinault Romaric dans le forum Sécurité
    Réponses: 11
    Dernier message: 29/08/2012, 15h04
  3. Réponses: 20
    Dernier message: 12/09/2011, 20h52
  4. Réponses: 0
    Dernier message: 08/09/2011, 22h39
  5. Réponses: 1
    Dernier message: 03/01/2011, 13h41

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo