IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 540
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 540
    Points : 199 402
    Points
    199 402
    Par défaut ChatGPT : un avocat Canadien réprimandé pour avoir cité des cas de jurisprudences inventés par le chatbot IA
    Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles.
    ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

    Un avocat a utilisé ChatGPT pour générer et citer des affaires fictives dans un mémoire juridique, provoquant la fureur du juge et des sanctions potentielles. Lorsqu’on lui a demandé de fournir des copies des affaires citées, l’avocat s’est tourné à nouveau vers ChatGPT, qui a produit des détails complets sur les affaires inexistantes.

    L’avocat en question, Steven A. Schwartz, représentait un homme qui poursuivait la compagnie aérienne Avianca après qu’un chariot de service lui ait heurté le genou lors d’un vol vers l’aéroport Kennedy de New York en 2019. Schwartz a déclaré qu’il n’avait jamais utilisé ChatGPT auparavant et qu’il ne savait pas qu’il inventerait simplement des affaires. En fait, Schwartz a dit qu’il avait même demandé à ChatGPT si les affaires étaient réelles. Le chatbot a insisté sur le fait qu’elles l’étaient.


    Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.

    Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et « l'effet de péage de la suspension automatique d'un délai de prescription ».

    Il y avait juste un hic : personne (ni les avocats de la compagnie aérienne ni le juge lui-même) n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.

    C'était parce que ChatGPT avait tout inventé.

    En fait, ce n’est qu’après que les avocats de la compagnie aérienne ont souligné dans un nouveau mémoire que les affaires n’existaient pas que Schwartz a découvert son erreur (ou, l’erreur de l’ordinateur, selon le point de vue).

    L'avocat qui a créé le dossier, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, s'est exposé au courroux du tribunal jeudi, affirmant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour faire ses recherches juridiques, une source qui s'est révélée peu fiable. Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT et « ignorait donc la possibilité que son contenu puisse être faux ».

    Il avait, dit-il au juge Castel, demandé au programme de « vérifier que les cas étaient réels ». Et ChatGPT lui a répondu qu'ils l'étaient.

    Schwartz a déclaré qu'il « regrette profondément » de s'être appuyé sur ChatGPT « et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité ».

    Le juge Castel a déclaré dans une ordonnance qu'il avait été confronté à « une circonstance sans précédent », une soumission légale remplie de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Il a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions.

    Une technologie qui invente souvent des faits et des sources

    ChatGPT a été lancé à la fin de 2022 et est devenu immédiatement un succès. Le chatbot fait partie d’une famille de nouvelles technologies appelées IA générative qui peuvent tenir des conversations qui sont si organiques et normales que parfois ChatGPT semble avoir une volonté propre. Mais la technologie est notoirement imprécise et invente souvent des faits et des sources pour des faits qui sont complètement faux. Le produit concurrent de Google, Bard, a des problèmes similaires.

    Mais rien de tout cela n’a empêché les gens d’utiliser cette technologie expérimentale comme si elle était une source d’information fiable.

    Stephen Gillers, professeur d’éthique juridique à la faculté de droit de l’université de New York, a déclaré que le problème était particulièrement aigu chez les avocats, qui débattent de la valeur et des dangers des logiciels d’IA comme ChatGPT, ainsi que de la nécessité de vérifier toute information qu’ils fournissent. Il a ajouté que les avocats devraient être conscients que l’utilisation de ChatGPT pourrait constituer une violation du code de déontologie professionnelle, qui exige que les avocats agissent avec diligence et compétence dans la représentation de leurs clients.

    « Si vous utilisez ChatGPT sans vérifier ce qu’il dit, vous êtes irresponsable », a-t-il déclaré. « Et si vous vérifiez ce qu’il dit et que vous découvrez qu’il est faux, vous êtes malhonnête ».

    « La discussion actuellement au sein du barreau est de savoir comment éviter exactement ce que cette affaire décrit », a déclaré Gillers. « Vous ne pouvez pas simplement prendre la sortie et la couper et la coller dans vos documents judiciaires ».

    Le cas de Roberto Mata c. Avianca Inc. suggère qu'il reste du temps aux professionnels en cols blancs avant que les bots ne soient en mesure de les remplacer.

    Comment la supercherie a été découverte

    Tout a commencé quand Mata était passager du vol Avianca 670 d'El Salvador à New York le 27 août 2019, lorsqu'un employé de la compagnie aérienne l'a frappé avec le chariot de service, selon la plainte. Après que Mata a intenté une action en justice, la compagnie aérienne a déposé des documents demandant que l'affaire soit rejetée, car le délai de prescription avait expiré.

    Dans un mémoire déposé en mars, les avocats de Mata ont déclaré que le procès devrait se poursuivre, renforçant leur argumentation avec des références et des citations des nombreuses décisions de justice qui ont depuis été démystifiées.

    Puis, les avocats d'Avianca ont écrit au juge Castel, disant qu'ils étaient incapables de trouver les cas cités dans le mémoire. En ce qui concerne Varghese c. China Southern Airlines, ils ont déclaré qu'ils n'avaient « pas été en mesure de localiser cette affaire par légende ou citation, ni aucune affaire ressemblant à celle-ci ». Ils ont souligné une longue citation de la prétendue décision Varghese contenue dans le mémoire. « Le soussigné n'a pas été en mesure de localiser cette citation, ni quoi que ce soit de semblable en tout cas », ont écrit les avocats d'Avianca. En effet, ont ajouté les avocats, la citation, qui provenait de Varghese lui-même, citait quelque chose appelé Zicherman c. Korean Air Lines Co. Ltd., une opinion prétendument rendue par la Cour d'appel des États-Unis pour le 11e circuit en 2008. Ils ont dit qu'il n'a pas pu le trouver non plus.

    Le juge Castel a ordonné aux avocats de Mata de fournir des copies des opinions mentionnées dans leur mémoire. Les avocats ont soumis un recueil de huit ; dans la plupart des cas, ils mentionnaient le tribunal et les juges qui les avaient délivrés, les numéros de rôle et les dates.

    La copie de la prétendue décision Varghese, par exemple, fait six pages et indique qu'elle a été écrite par un membre d'un panel de trois juges du 11e circuit. Mais les avocats d'Avianca ont déclaré au juge qu'ils ne pouvaient pas trouver cette opinion ni les autres, dans les registres des tribunaux ou les bases de données juridiques.

    Bart Banino, avocat d'Avianca, a déclaré que son cabinet, Condon & Forsyth, était spécialisé dans le droit de l'aviation et que ses avocats pouvaient dire que les cas mentionnés dans le mémoire n'étaient pas réels. Il a ajouté qu'ils avaient une idée qu'un chatbot aurait pu être impliqué.

    Nom : gpt.png
Affichages : 41519
Taille : 433,9 Ko

    Conclusion

    Cet incident soulève des questions sur les limites éthiques et légales de l’utilisation de l’IA générative dans le domaine juridique. Certains experts affirment que ChatGPT peut être un outil utile pour stimuler la créativité et la productivité des avocats, à condition qu’ils vérifient soigneusement les informations qu’il fournit. D’autres mettent en garde contre les risques de manipulation, de désinformation et de fraude que ChatGPT peut engendrer.

    « ChatGPT est une technologie fascinante, mais aussi dangereuse », a déclaré David Ryan Polgar, fondateur du Digital Citizenship Institute, une organisation qui promeut une utilisation responsable de la technologie. « Il faut être très prudent lorsqu’on utilise ChatGPT, car il peut facilement nous induire en erreur ou nous faire dire des choses que nous ne voulons pas dire ».

    Polgar a ajouté que les utilisateurs de ChatGPT devraient être transparents sur le fait qu’ils utilisent le programme et qu’ils devraient toujours citer leurs sources. Il a également suggéré que les tribunaux et les universités établissent des règles claires sur l’utilisation acceptable de ChatGPT dans le domaine juridique. « ChatGPT n’est pas un substitut à la pensée critique et à la recherche rigoureuse », a-t-il dit. « C’est un outil qui doit être utilisé avec discernement et éthique ».

    Et de conclure en disant que « ChatGPT est une technologie qui a le potentiel de transformer le monde, mais c’est aussi une technologie qui a le potentiel de le détruire. C’est à nous de décider comment nous voulons l’utiliser ».

    Sources : Roberto Mata contre Avianca, Times

    Et vous ?

    Avez-vous déjà utilisé ChatGPT ou une autre IA générative ? Si oui, pour quelles raisons et avec quels résultats ?
    Que pensez-vous des avantages et des risques de ChatGPT dans le domaine juridique ? Trouvez-vous que ChatGPT est un outil utile ou dangereux pour les avocats ?
    Comment vérifiez-vous la fiabilité et l’authenticité des informations que vous trouvez en ligne ? Quels sont les signes qui vous alertent sur la possibilité qu’une information soit fausse ou inventée par ChatGPT ?
    Que pensez-vous des sanctions possibles contre l’avocat qui a utilisé ChatGPT pour citer des affaires fictives ? Trouvez-vous qu’il a agi de manière irresponsable ou malhonnête ?
    Comment pensez-vous que ChatGPT va évoluer à l’avenir ? Quelles sont les opportunités et les menaces que ChatGPT représente pour la société ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 557
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 557
    Points : 3 978
    Points
    3 978
    Par défaut
    c'est pas l'IA qui est en cause mais bien la betise humaine de faire aveuglement confiance a une IA. toutjours avoir des moyens de verifications..

  3. #3
    Membre averti
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    82
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 82
    Points : 429
    Points
    429
    Par défaut
    Ce n’est pas étonnant une fois de plus. Chatgpt ne répondra jamais «*je ne sais pas*» quitte à inventer des réponses rédigées de façon très convaincantes.

  4. #4
    Expert éminent sénior
    Homme Profil pro
    Responsable Données
    Inscrit en
    Janvier 2009
    Messages
    5 209
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 50
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Responsable Données

    Informations forums :
    Inscription : Janvier 2009
    Messages : 5 209
    Points : 12 794
    Points
    12 794
    Par défaut
    Citation Envoyé par Nym4x Voir le message
    Ce n’est pas étonnant une fois de plus. Chatgpt ne répondra jamais «*je ne sais pas*» quitte à inventer des réponses rédigées de façon très convaincantes.
    Du coup il/elle/ça* peut se lancer dans la politique.

    Tatayo.

    * Rayer les mentions inutiles

  5. #5
    Membre habitué
    Homme Profil pro
    auteur de livres
    Inscrit en
    Septembre 2013
    Messages
    35
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Deux Sèvres (Poitou Charente)

    Informations professionnelles :
    Activité : auteur de livres

    Informations forums :
    Inscription : Septembre 2013
    Messages : 35
    Points : 126
    Points
    126
    Par défaut Faire appel...
    Faire appel à un IA, c'est parfois un bon moyen de commencer une recherche, mais s'en contenter, c'est souvent aller dans le mur. La paresse est toujours punie.

  6. #6
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 450
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 450
    Points : 5 699
    Points
    5 699
    Par défaut
    c'est le 1er d'une longue série et ca ne va pas s'arrêter.

    aujourd'hui les entreprises veulent de la quantité au détriment de la qualité.
    ca va être la foire à la saucisse en informatique aussi quand on aura des logiciels buggé avec pleins de failles car c'est michu comptable qui gère désormais la dsi avec chatgpt. et c'est myriam rh qui gere la compta avec chatgpt et enfin micheline la femme de ménage qui fait la rh avec chatgpt.
    Moi ancien dev je serais désormais devenue chirurgien ou ingénieur nucléaire grâce a chatgpt.

  7. #7
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 113
    Points
    113
    Par défaut Bien fait ! Les naïfs sont piégés
    Ah Ah Ah, je me marre.
    La naïveté d'un avocat qui n'a pas compris comment fonctionne ChatGPT et n'a pas fait de tests pour valider l'outil.
    ChatGPT affabule sans le savoir puisque, sans conscience, il ne sait rien, ce n'est plus un scoop.

    Expliquez-moi par quel mystère il pourrait en être autrement avec la prédiction statistique qui ne comprend pas la sémantique des mots qu'elle assemble ?

  8. #8
    Membre régulier
    Homme Profil pro
    Ressources humaines
    Inscrit en
    Juin 2023
    Messages
    37
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Alpes Maritimes (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Ressources humaines

    Informations forums :
    Inscription : Juin 2023
    Messages : 37
    Points : 78
    Points
    78
    Par défaut
    pathétique
    je suis juriste (ancien avocat doct en droit public) je croise mes sources (qui sont toujours sérieuses : dalloz lexis nexis lamy)
    surement pas chatgpt
    lamentable le mec et en plus il va plaider en se fondant sur une IA en test
    a quand une brillante plaidoirie sur la base des émissions de youtubers/annonceurs/what else ?
    même quand on se reporte à des sources sérieuses lesquelles ne donnent que des syntheses on va chercher LA décision in integrum histoire même quand elle existe de ne pas faire un contresens

    L'avocat qui a créé le dossier, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, s'est exposé au courroux du tribunal jeudi, affirmant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour faire ses recherches juridiques, une source qui s'est révélée peu fiable. Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT et « ignorait donc la possibilité que son contenu puisse être faux »
    en plus y a son nom apparemment pas associé bon ben
    la grosse honte au niveau mondial en plus
    je le plains (ou pas)

  9. #9
    Futur Membre du Club
    Homme Profil pro
    Multi casquettes
    Inscrit en
    Avril 2018
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Multi casquettes
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 15
    Points : 6
    Points
    6
    Par défaut Avocat sincèrement malhonnête
    On peut tout à fait croire que cet avocat est de bonne foi quand il jure qu'il ne pensait pas que Chat GPT inventerait des faits.

    Mais ca n'empêche pas une malhonnêteté de fond considérable :
    - il a certainement facturé à son client le même prix que les affaires traitées sans ChatGPT, sur lesquelles il passe beaucoup plus de temps : il a donc facturé un temps fictif à son client (sinon le client se serait méfié : 10 x moins cher que les autres ??)
    - il a donc tenté d'extorquer de l'argent à son client sur la base d'un travail non réalisé
    - Même si ChatGPT lui avait dit la vérité, son principal boulot est de VERIFIER les infos dont il dispose. Si les avocats d'en face l'ont fait, qu'est-ce qui l'empêchait de le faire, lui ? Une paresse totale ??
    - Tenter une expérience avec l'IA est une très bonne idée... mais pas en condition réelles pour un procès réel.

    Cet avocat a donc été d'une négligence sans nom et a clairement tenté d'arnaquer son client, il mérite clairement d'être radié, même s'il ignorait que ChatGPT pouvait lui mentir

    Je suis convaincu que l'IA révolutionnera un jour le droit et permettra de traiter les affaires judiciaires plus rapidement

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 540
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 540
    Points : 199 402
    Points
    199 402
    Par défaut Un juge inflige une amende de 5 000 $ à des avocats pour des affaires inventées par ChatGPT
    Un juge a infligé une amende de 5 000 $ à un cabinet d'avocats qui s'est appuyé sur des affaires juridiques fictives générées par ChatGPT
    ChatGPT avait assuré que ces affaires étaient réelles

    Un juge de district de Manhattan a ordonné à Steven Schwartz, Peter LoDuca et leur cabinet d'avocats Levidow, Levidow & Oberman de payer l'amende après que des recherches juridiques fictives aient été utilisées dans une réclamation pour blessure à l'aviation. Schwartz avait admis que ChatGPT, un chatbot qui produit des réponses textuelles plausibles aux invites humaines, avait inventé six cas auxquels il faisait référence dans un mémoire juridique dans une affaire contre la compagnie aérienne colombienne Avianca.

    Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.

    Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et « l'effet de péage de la suspension automatique d'un délai de prescription ».

    Il y avait juste un hic : personne (ni les avocats de la compagnie aérienne ni le juge lui-même) n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.

    C'était parce que ChatGPT avait tout inventé.

    En effet, les avocats d'Avianca ont écrit au juge Castel, disant qu'ils étaient incapables de trouver les cas cités dans le mémoire. En ce qui concerne Varghese c. China Southern Airlines, ils ont déclaré qu'ils n'avaient « pas été en mesure de localiser cette affaire par légende ou citation, ni aucune affaire ressemblant à celle-ci ». Ils ont souligné une longue citation de la prétendue décision Varghese contenue dans le mémoire. « Le soussigné n'a pas été en mesure de localiser cette citation, ni quoi que ce soit de semblable en tout cas », ont écrit les avocats d'Avianca. En effet, ont ajouté les avocats, la citation, qui provenait de Varghese lui-même, citait quelque chose appelé Zicherman c. Korean Air Lines Co. Ltd., une opinion prétendument rendue par la Cour d'appel des États-Unis pour le 11e circuit en 2008. Ils ont dit qu'il n'a pas pu le trouver non plus.

    Ce n’est donc qu’après que les avocats de la compagnie aérienne ont souligné dans un nouveau mémoire que les affaires n’existaient pas que Schwartz a découvert son erreur (ou, l’erreur de l’ordinateur, selon le point de vue).

    L'avocat qui a créé le dossier, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, s'est exposé au courroux du tribunal jeudi, affirmant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour faire ses recherches juridiques, une source qui s'est révélée peu fiable. Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT et « ignorait donc la possibilité que son contenu puisse être faux ».

    Il avait, dit-il au juge Castel, demandé au programme de « vérifier que les cas étaient réels ». Et ChatGPT lui a répondu qu'ils l'étaient.

    Schwartz a déclaré qu'il « regrette profondément » de s'être appuyé sur ChatGPT « et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité ».

    Le juge Castel a déclaré dans une ordonnance qu'il avait été confronté à « une circonstance sans précédent », une soumission légale remplie de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Il a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions.

    Nom : chat.png
Affichages : 1462
Taille : 432,1 Ko

    5 000 dollars d'amende et des lettres à envoyer aux juges cités par ChatGPT

    Le juge P Kevin Castel a déclaré dans une opinion écrite qu'il n'y avait rien « d'intrinsèquement inapproprié » à utiliser l'intelligence artificielle pour aider au travail juridique, mais les avocats devaient s'assurer que leurs documents étaient exacts.

    « Les progrès technologiques sont monnaie courante et il n'y a rien de fondamentalement inapproprié à utiliser un outil d'intelligence artificielle fiable pour l'assistance », a écrit Castel. « Mais les règles existantes imposent un rôle de contrôle aux avocats pour garantir l'exactitude de leurs documents ».

    Le juge a déclaré que les avocats et leur cabinet « ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations et citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à s'en tenir aux faux avis après que des ordonnances judiciaires ont remis leur existence en question ».

    Les chatbots sont formés sur une vaste mine de données extraites d'Internet, bien que les sources ne soient pas disponibles dans de nombreux cas. Fonctionnant comme un outil de texte prédictif, ils construisent un modèle pour prédire le mot ou la phrase le plus susceptible de venir après l'invite d'un utilisateur. Cela signifie que des erreurs factuelles sont possibles, mais la réponse d'apparence humaine peut parfois convaincre les utilisateurs que la réponse est correcte.

    Le juge a déclaré que l'une des fausses décisions générées par le chatbot avait « certains traits qui sont superficiellement cohérents avec les décisions judiciaires réelles » mais que d'autres parties contenaient du « charabia » et étaient « absurdes ».

    Castel a condamné Levidow, Levidow & Oberman à une amende de 5 000 $ et a ordonné au cabinet d'avocats d'envoyer des lettres à chaque juge faussement identifié comme l'auteur de l'une des fausses opinions.

    Levidow, Levidow & Oberman ont déclaré jeudi dans un communiqué que ses avocats étaient « respectueusement » en désaccord avec le tribunal lorsqu'il a estimé qu'ils avaient agi de mauvaise foi : « Nous avons fait une erreur de bonne foi en ne croyant pas qu'une technologie pourrait fabriquer des cas à partir de tissu entier », a-t-il déclaré.

    Une technologie qui invente souvent des faits et des sources

    ChatGPT a été lancé à la fin de 2022 et est devenu immédiatement un succès. Le chatbot fait partie d’une famille de nouvelles technologies appelées IA générative qui peuvent tenir des conversations qui sont si organiques et normales que parfois ChatGPT semble avoir une volonté propre. Mais la technologie est notoirement imprécise et invente souvent des faits et des sources pour des faits qui sont complètement faux. Le produit concurrent de Google, Bard, a des problèmes similaires.

    Mais rien de tout cela n’a empêché les gens d’utiliser cette technologie expérimentale comme si elle était une source d’information fiable.

    Stephen Gillers, professeur d’éthique juridique à la faculté de droit de l’université de New York, a déclaré que le problème était particulièrement aigu chez les avocats, qui débattent de la valeur et des dangers des logiciels d’IA comme ChatGPT, ainsi que de la nécessité de vérifier toute information qu’ils fournissent. Il a ajouté que les avocats devraient être conscients que l’utilisation de ChatGPT pourrait constituer une violation du code de déontologie professionnelle, qui exige que les avocats agissent avec diligence et compétence dans la représentation de leurs clients.

    « Si vous utilisez ChatGPT sans vérifier ce qu’il dit, vous êtes irresponsable », a-t-il déclaré. « Et si vous vérifiez ce qu’il dit et que vous découvrez qu’il est faux, vous êtes malhonnête ».

    « La discussion actuellement au sein du barreau est de savoir comment éviter exactement ce que cette affaire décrit », a déclaré Gillers. « Vous ne pouvez pas simplement prendre la sortie et la couper et la coller dans vos documents judiciaires ».

    Le cas de Roberto Mata c. Avianca Inc. suggère qu'il reste du temps aux professionnels en cols blancs avant que les bots ne soient en mesure de les remplacer.

    Source : Reuters

    Et vous ?

    Que pensez-vous de la sanction infligée à l’avocat qui a utilisé ChatGPT pour citer des affaires fictives et à son cabinet ? Trouvez-vous qu’il [l'avocat] a agi de manière irresponsable ou malhonnête ?
    Avez-vous déjà utilisé ChatGPT ou une autre IA générative ? Si oui, pour quelles raisons et avec quels résultats ?
    Que pensez-vous des avantages et des risques de ChatGPT dans le domaine juridique ? Trouvez-vous que ChatGPT est un outil utile ou dangereux pour les avocats ?
    Comment vérifiez-vous la fiabilité et l’authenticité des informations que vous trouvez en ligne ? Quels sont les signes qui vous alertent sur la possibilité qu’une information soit fausse ou inventée par ChatGPT ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 578
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 578
    Points : 7 356
    Points
    7 356
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Que pensez-vous de la sanction infligée à l’avocat qui a utilisé ChatGPT pour citer des affaires fictives et à son cabinet ?
    C'est très bien. J'espère qu'il y aura plus de cas, jusqu'à ce que l'on arrête de nous bassiner sur "l'IA" à toutes les sauces.

    Citation Envoyé par Stéphane le calme Voir le message
    Trouvez-vous qu’il [l'avocat] a agi de manière irresponsable ou malhonnête ?
    Oui. Vérifier ses sources fait aussi partie de son boulot. S'il veut s'appuyer sur cette daube pour se prémâcher le travail, ça le regarde, mais s'il ne fait pas d'effort pour vérifier ses résultats, il mérite ce qui lui arrive.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  12. #12
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 162
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 162
    Points : 3 577
    Points
    3 577
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Que pensez-vous de la sanction infligée à l’avocat qui a utilisé ChatGPT pour citer des affaires fictives et à son cabinet ? Trouvez-vous qu’il [l'avocat] a agi de manière irresponsable ou malhonnête ?
    Tout dépend de la taille du cabinet mais 5000$ peut être faible, non?
    Après je ne suis pas sur que faire très mal la première fois soit vraiment nécessaire, c'est un signal pour tout le monde de faire son boulot sérieusement.
    Est il irresponsable d'utiliser ChatGPT sans vérifier? Clairement.
    Est ce que c'est malhonnête? C'est plus compliqué à dire, l'avocat a pu ne pas faire ces contrôles pour des raisons honnêtes (il pensait que ChatGPT ne se trompe jamais, il est surchargé et n'a même pas pensé à vérifier etc...)
    Citation Envoyé par Stéphane le calme Voir le message
    Que pensez-vous des avantages et des risques de ChatGPT dans le domaine juridique ? Trouvez-vous que ChatGPT est un outil utile ou dangereux pour les avocats ?
    ChatGPT est un outil utile mais dangereux pour tous les métiers de bureau utiles et qui impactent les gens, avocats, assistant de direction, responsable d'atelier, directeur, etc.
    Citation Envoyé par Stéphane le calme Voir le message
    Comment vérifiez-vous la fiabilité et l’authenticité des informations que vous trouvez en ligne ? Quels sont les signes qui vous alertent sur la possibilité qu’une information soit fausse ou inventée par ChatGPT ?
    Je n'utilise jamais ChatGPT dans mon travail mais s'il me donnait une information je ferais juste une recherche via moteurs de recherche

  13. #13
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 958
    Points
    36 958
    Par défaut Deux avocats condamnés à une amende pour avoir soumis de fausses références judiciaires provenant de ChatGPT
    Deux avocats condamnés à une amende pour avoir soumis de fausses références judiciaires provenant de ChatGPT
    des avocats condamnés à une amende de 5 000 dollars

    Deux avocats américains ont été sanctionnés par un juge fédéral pour avoir cité dans leurs mémoires six affaires fictives inventées par ChatGPT, l’outil d’intelligence artificielle développé par OpenAI. Les avocats ont utilisé ChatGPT pour faire des recherches juridiques sans vérifier l’exactitude des opinions fournies par le chatbot. Le juge a qualifié l’analyse juridique d’une des affaires fictives de « charabia ». Il a rejeté le procès et infligé une amende de 5 000 dollars aux avocats et à leur cabinet.

    Le juge leur a également ordonné d’envoyer des lettres aux six vrais juges qui ont été faussement identifiés comme les auteurs des fausses opinions. Le juge a estimé que soumettre des opinions erronées à un tribunal nuisait au client, au tribunal, à la partie adverse et à la réputation des juges et des tribunaux dont les noms ont été invoqués à tort.

    Les avocats Steven Schwartz et Peter LoDuca du cabinet Levidow, Levidow, & Oberman « ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à soutenir les faux avis après que des ordonnances judiciaires ont remis en question leur existence », a écrit le juge du district américain Kevin Castel dans une ordonnance.

    Nom : ChatGPTJugeB.png
Affichages : 1102
Taille : 416,0 Ko

    Les deux avocats américains et leur cabinet ont été condamnés à une amende de 5 000 dollars (4 586 euros). Le juge P Kevin Castel, du district de Manhattan, a exigé à Steven Schwartz, Peter LoDuca et au cabinet Levidow & Oberman de payer l’amende après que des recherches juridiques fictives ont été utilisées dans une plainte contre la compagnie aérienne colombienne Avianca. Schwartz avait admis que ChatGPT avait inventé six affaires auxquelles il avait fait référence dans un mémoire juridique dans le cadre de l’affaire contre Avianca.

    ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

    L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.

    Les chatbots comme ChatGPT, développés par la société américaine OpenAI, peuvent être sujets à des « hallucinations » ou des inexactitudes. Dans un exemple, ChatGPT a faussement accusé un professeur de droit américain de harcèlement sexuel et cité un rapport inexistant du Washington Post dans le processus. En février, une vidéo promotionnelle du rival de ChatGPT, Bard, développé par Google, a donné une réponse inexacte à une question sur le télescope spatial James Webb, suscitant des inquiétudes sur le fait que le géant de la recherche avait été trop hâtif dans le lancement d’une riposte à la percée d’OpenAI.

    Dans une affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »

    L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »

    Le juge Castel a déclaré qu’il n’y avait rien « d’intrinsèquement inapproprié » à utiliser l’intelligence artificielle pour aider au travail juridique, mais que les avocats devaient s’assurer de l’exactitude de leurs dépôts. « Les progrès technologiques sont monnaie courante et il n’y a rien d’intrinsèquement inapproprié à utiliser un outil d’intelligence artificielle fiable pour obtenir de l’aide », a écrit Castel. « Mais les règles existantes imposent aux avocats un rôle de gardien pour garantir l’exactitude de leurs dépôts. »

    Castel a ajouté que les avocats et leur cabinet « ont abandonné leurs responsabilités lorsqu’ils ont soumis des opinions judiciaires inexistantes avec de fausses citations et références créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à soutenir les fausses opinions après que des ordonnances judiciaires ont remis en question leur existence ».

    Un peu plus tôt en juin, un juge fédéral du Texas, Brantley Starr, a ordonné que tout contenu généré par une intelligence artificielle (IA) soit déclaré et vérifié par un être humain avant d’être utilisé dans un dépôt judiciaire. Brantley Starr a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte.

    Le magistrat fédéral du Texas a instauré une règle selon laquelle tout avocat qui comparaît devant lui doit certifier qu’« aucune partie du mémoire n’a été écrite par une intelligence artificielle générative » ou, si c’est le cas, qu’elle a été contrôlée « par un être humain ».

    Pour sa part, le cabinet Levidow & Oberman a déclaré dans un communiqué que ses avocats étaient « respectueusement » en désaccord avec le tribunal sur le fait qu’ils avaient agi de mauvaise foi. « Nous avons commis une erreur de bonne foi en ne croyant pas qu’un morceau de technologie puisse inventer des affaires de toutes pièces », ont-ils déclaré.

    Source : Kevin Castel, juge du district américain

    Et vous ?

    Quel est votre avis sur le sujet ?

    Avez-vous déjà utilisé ChatGPT ou une autre IA générative ? Pour quels résultats ?

    Que pensez-vous des avantages et des risques de ChatGPT dans le domaine juridique ? Trouvez-vous que ChatGPT est un outil utile ou dangereux pour les avocats ?

    Quels sont les signes qui vous alertent sur la possibilité qu’une information soit fausse ou inventée par ChatGPT ?

    Que pensez-vous de la décision du juge de sanctionner les avocats ?

    Voir aussi :

    Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

    Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés, après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

    Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 443
    Points
    2 443
    Par défaut
    Citation Envoyé par totozor Voir le message
    Tout dépend de la taille du cabinet mais 5000$ peut être faible, non?
    Ouais c'est ce que je pensais aussi mais de ce que j'ai lu c'est plus symbolique qu'autre chose.
    En dehors de ça ça va beaucoup plus loin. Ils ont du présenter des excuses écrites à toutes les personnes cités dans l'affaire, le procès a été très médiatisé ce qui a fait une très mauvaise pub aux avocats et au cabinet, ils risquent de se faire radier et ont définitivement perdu le procès.

    De plus leurs clients peuvent les poursuivre pour faute professionnelle. Bref ils sont vraiment pas sorti d'affaire.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  15. #15
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 416
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 416
    Points : 4 748
    Points
    4 748
    Par défaut
    Je vois bien l'intérêt à demander à ChatGPT de faire un topo à sa place. Mais s'ils avaient un minimum de conscience professionnelle ils se serviraient du temps gagné pour vérifier le boulot...

  16. #16
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    913
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 913
    Points : 2 826
    Points
    2 826
    Par défaut
    Citation Envoyé par onilink_ Voir le message
    Ouais c'est ce que je pensais aussi mais de ce que j'ai lu c'est plus symbolique qu'autre chose.
    En dehors de ça ça va beaucoup plus loin. Ils ont du présenter des excuses écrites à toutes les personnes cités dans l'affaire, le procès a été très médiatisé ce qui a fait une très mauvaise pub aux avocats et au cabinet, ils risquent de se faire radier et ont définitivement perdu le procès.

    De plus leurs clients peuvent les poursuivre pour faute professionnelle. Bref ils sont vraiment pas sorti d'affaire.
    Ou la prose de ChatGPT est tellement bien tourné que tu en oublie de douter

  17. #17
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 072
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 072
    Points : 75 082
    Points
    75 082
    Par défaut L'IA générative crée toujours de fausses nouvelles selon cette étude de NewsGuard
    L'IA générative crée toujours de fausses nouvelles selon cette étude de NewsGuard.

    L'IA générative a le potentiel de changer complètement la vie telle que nous la connaissons, mais malgré cela, elle est également coupable de créer des montagnes de fausses nouvelles. À mesure que le ChatGPT a pris de l'importance et que des concurrents comme Bard de Google ont commencé à apparaître, le niveau d'attention plus élevé aurait dû rendre ces événements moins fréquents qu'ils ne l'auraient été autrement. Toutefois, une étude récente a montré que les choses ne s'améliorent pas.

    Dans le cas de ChatGPT, 100 % des fausses narrations trouvées lors du test initial d'avril provenaient de lui. Quant à Bard, 76 % des faux récits lui ont été attribués. Au cours des derniers mois, ChatGPT n'a guère progressé, les tests les plus récents révélant un taux de 98 % de fausses narrations.

    Ceci étant dit, il est important de noter que Bard a évolué dans la direction opposée. Il est passé de 76% à 80%, ce qui suggère qu'il crée plus de fausses informations qu'il ne l'aurait fait autrement. Bard utilise même parfois des sources attribuées à des théories du complot telles que Q Anon. Cela pourrait entraîner une augmentation considérable de la proportion de fausses informations, et un manque d'esprit critique pourrait rendre cette situation incontrôlable.

    Nom : 1.png
Affichages : 894
Taille : 217,4 Ko

    Ces données proviennent d'une analyse réalisée par NewsGuard. Il sera intéressant de voir les résultats futurs, car cela pourrait potentiellement finir par déterminer la nature de la vérité en ligne. La combinaison de chatbots d'IA défectueux et de plateformes de médias sociaux capables de les diffuser à un public suffisamment large crée un effet d'entraînement qui pourrait ne pas disparaître de sitôt.

    À l'approche de l'élection présidentielle américaine de 2024, tous les regards se tourneront vers les chatbots d'IA pour voir le type d'impact qu'ils auront. Il y a fort à parier qu'ils changeront la donne et que les candidats devront les garder à l'esprit.

    Source : NewsGuard

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA. Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #18
    Modérateur

    Homme Profil pro
    Ingénieur électricien
    Inscrit en
    Septembre 2008
    Messages
    1 267
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Suisse

    Informations professionnelles :
    Activité : Ingénieur électricien

    Informations forums :
    Inscription : Septembre 2008
    Messages : 1 267
    Points : 4 827
    Points
    4 827
    Par défaut
    ChatGPT et ses conseurs ne font qu'aligner les mots (voir des parties de mots) de la manière la plus probable qu'il soit. Ce sont un outils statistique à grande échelle.
    En concéquence il y a zéro réfléxion, logique ou esprit critique dans ce qu'ils écrivent, sauf de parraître le plus plausible qu'il soit car l'ordre des mots est quasi parfaite.

    Et les IA ferront comment quand il n'y aura plus de données d'entrainement générée par des humains?

    Il est grand temps que cette bulle spéculative crève

  19. #19
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 540
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 540
    Points : 199 402
    Points
    199 402
    Par défaut Le juge en chef de la Cour suprême met en garde contre les dangers de l'IA dans le travail judiciaire
    Le juge en chef de la Cour suprême met en garde contre les dangers de l'IA dans le travail judiciaire
    et note que c'est « toujours une mauvaise idée » de citer des affaires judiciaires inexistantes, parlant des hallucinations des chatbots

    L'intelligence artificielle représente une bénédiction mitigée pour le domaine juridique, a déclaré le juge en chef de la Cour suprême des États-Unis, John Roberts, dans un rapport de fin d'année publié dimanche, appelant à « la prudence et l'humilité » alors que l'évolution de la technologie transforme la façon dont les juges et les avocats accomplissent leur travail. Roberts a adopté un ton ambivalent dans son rapport de 13 pages. Il a déclaré que l'IA avait le potentiel d'améliorer l'accès à la justice pour les justiciables indigents, de révolutionner la recherche juridique et d'aider les tribunaux à résoudre les affaires plus rapidement et à moindre coût, tout en soulignant les problèmes de confidentialité et l'incapacité de la technologie actuelle à reproduire la discrétion humaine.

    Le juge en chef de la Cour suprême, John Roberts, a discuté de l'IA et de son impact possible sur le système judiciaire dans un rapport de fin d'année publié ce week-end.

    Roberts a reconnu que la technologie émergente allait probablement jouer un rôle accru dans le travail des avocats et des juges, mais il ne s’attendait pas à ce que les humains soient complètement remplacée de si tôt :

    Les machines ne peuvent pas remplacer entièrement les acteurs clés du tribunal. Les juges, par exemple, mesurent la sincérité des déclarations d’un accusé lors de la détermination de la peine. La nuance compte*: beaucoup de choses peuvent dépendre d'une main tremblante, d'une voix tremblante, d'un changement d'inflexion, d'une goutte de sueur, d'un instant d'hésitation, d'une interruption fugace du contact visuel. Et la plupart des gens font encore plus confiance aux humains qu’aux machines pour percevoir et tirer les bonnes conclusions de ces indices.
    Et de continuer en disant :

    Je prédis que les juges humains existeront pendant un certain temps. Mais je prédis avec la même confiance que le travail judiciaire, en particulier au niveau des procès, sera considérablement affecté par l’IA. Ces changements concerneront non seulement la manière dont les juges effectuent leur travail, mais également la manière dont ils comprennent le rôle que joue l’IA dans les affaires dont ils sont saisis.
    Le commentaire du juge en chef constitue son débat le plus significatif à ce jour sur l'influence de l'IA sur le droit, et coïncide avec un certain nombre de tribunaux inférieurs qui se débattent sur la meilleure façon de s'adapter à une nouvelle technologie capable de réussir l'examen du barreau mais également encline à générer des des fausses informations, un phénomène connu sous le nom « d'hallucinations » plutôt qu'erreur.

    Nom : arizona.png
Affichages : 1255
Taille : 504,6 Ko

    Le juge en chef a souligné que les avantages de l’IA ne seraient pas sans certains risques et inconvénients

    « L’IA a évidemment un grand potentiel pour améliorer considérablement l’accès aux informations clés pour les avocats et les non-avocats. Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi », a-t-il déclaré.

    En plus de ces risques, les chatbots LLM populaires comme ChatGPT et Bard de Google peuvent produire de fausses informations, ce qui revient à dire que les utilisateurs s'en remettent à la chance chaque fois qu'ils font confiance aux robots sans vérifier leur travail au préalable.

    Roberts a souligné que « toute utilisation de l’IA nécessite prudence et humilité ». Il a mentionné un cas où les hallucinations de l'IA ont conduit des avocats à citer des cas inexistants dans des documents judiciaires, ce qui, selon le juge en chef, est « toujours une mauvaise idée ». Roberts n'a pas donné plus de détails en dehors d'indiquer que le phénomène « a fait la une des journaux cette année ».

    La semaine dernière, par exemple, Michael Cohen, ancien conseiller et avocat de Donald Trump, a déclaré dans des documents judiciaires qu'il avait donné par erreur à son avocat de fausses citations générées par un programme d'IA qui ont été citées dans un dossier officiel du tribunal. D’autres cas d’avocats incluant des cas inventés par l’IA dans des mémoires juridiques ont également été documentés.

    Nom : chatgpt.png
Affichages : 767
Taille : 410,7 Ko

    Une évolution technologique qui influence l'écosystème judiciaire

    Ci-dessous un extrait du rapport.

    Les nouvelles technologies sont également entrées dans les cabinets d’avocats et les salles d’audience. La numérisation et l’examen assisté par la technologie (TAR) aident les avocats à faire face à l’explosion des documents électroniques d’enquête créés et conservés à l’ère numérique. Au lieu de fouiller dans des boîtes de papiers dans des entrepôts poussiéreux, les avocats examinent désormais les documents depuis leur bureau, voire leur table de salle à manger.

    Les procès sont également très différents aujourd’hui de ce qu’ils étaient il y a dix ans. Les logiciels de présentation des procès, les comptes rendus judiciaires en temps réel, les aménagements pour les jurés, les plaideurs et les spectateurs handicapés, ainsi que de nombreuses autres applications, ont radicalement changé la façon dont les avocats présentent et les jurés reçoivent les preuves au tribunal.

    La pandémie de COVID-19 a déclenché une nouvelle vague d’innovation technologique rapide. Les tribunaux à tous les niveaux du pouvoir judiciaire sont immédiatement passés des audiences en personne aux audiences à distance dans les affaires civiles. Avec l’adoption de la loi CARES, de nombreuses procédures pénales ont également été transférées en ligne. Les innovations clés initialement adoptées comme temporaires sont désormais devenues des éléments permanents du paysage juridique, permettant aux justiciables, aux avocats et aux tribunaux de réaliser des gains d’efficacité qui ne portent pas atteinte à d’autres droits juridiques ou constitutionnels importants.

    Et maintenant, nous sommes confrontés à la dernière frontière technologique : l’intelligence artificielle (IA). À la base, l’IA combine des algorithmes et d’énormes ensembles de données pour résoudre des problèmes. Ses nombreuses formes et applications incluent la reconnaissance faciale que nous utilisons pour déverrouiller nos téléphones intelligents et la reconnaissance vocale que nous utilisons pour diriger nos téléviseurs intelligents. Les professeurs de droit rapportent avec crainte et angoisse que l’IA peut apparemment gagner des B lors de ses travaux en faculté de droit et même réussir l’examen du barreau. La recherche juridique pourrait bientôt devenir inimaginable sans elle. L’IA a évidemment un grand potentiel pour améliorer considérablement l’accès aux informations clés pour les avocats et les non-avocats. Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi.

    Les partisans de l’IA vantent son potentiel à accroître l’accès à la justice, en particulier pour les justiciables aux ressources limitées. Notre système judiciaire a le monopole de nombreuses formes de réparation. Si vous souhaitez une libération en cas de faillite, par exemple, vous devez consulter un juge fédéral. Pour ceux qui n’ont pas les moyens de payer les services d’un avocat, AI peut les aider. Il pilote de nouveaux outils hautement accessibles qui fournissent des réponses à des questions de base, notamment où trouver des modèles et des formulaires judiciaires, comment les remplir et où les apporter pour les présenter au juge, le tout sans quitter la maison. Ces outils ont le potentiel bienvenu de combler toute inadéquation entre les ressources disponibles et les besoins urgents de notre système judiciaire.

    Mais toute utilisation de l’IA requiert prudence et humilité. L’une des applications les plus importantes d’AI a fait la une des journaux cette année en raison d’un défaut connu sous le nom d’« hallucination », qui a amené les avocats utilisant l’application à soumettre des mémoires avec des citations sur des cas inexistants. (C'est toujours une mauvaise idée.) Certains juristes se sont demandés si la saisie d'informations confidentielles dans un outil d'IA pourrait compromettre les tentatives ultérieures d'invoquer les privilèges juridiques. Dans les affaires pénales, l’utilisation de l’IA pour évaluer le risque de fuite, la récidive et d’autres décisions largement discrétionnaires impliquant des prédictions a suscité des inquiétudes quant à la régularité de la procédure, à la fiabilité et aux biais potentiels. Au moins à l’heure actuelle, des études montrent une perception publique persistante d’un « écart d’équité entre l’homme et l’IA », reflétant l’opinion selon laquelle les jugements humains, malgré tous leurs défauts, sont plus justes que tout ce que la machine crache.

    L'approche prudente recommandée par le juge en chef de la Cour suprême est déjà adoptée par une Cour d'appel

    La 5e Cour d'appel américaine de la Nouvelle-Orléans semble être d'accord avec le point de vue de Roberts selon lequel l'assistance juridique assistée par l'IA peut produire un travail moins que satisfaisant. Le tribunal a proposé une règle qui obligerait les avocats à certifier qu'ils ne s'appuient pas sur un logiciel d'IA pour rédiger des mémoires, ou qu'un humain a vérifié et édité tout texte généré par un chatbot.

    Les avocats qui déclarent faussement qu'ils respectent la règle pourraient être confrontés à la possibilité que leurs dossiers soient radiés et sanctionnés, selon la règle proposée. Le 5e Circuit accepte les commentaires du public sur la proposition jusqu'au 4 janvier.

    Sources : Rapport de fin d'année 2023 sur la magistrature fédérale, cinquième circuit

    Et vous ?

    Quelle est votre opinion sur l’utilisation de l’IA dans le domaine du droit ? Pensez-vous qu’elle soit bénéfique ou nuisible pour la justice ?
    Quelles sont les limites que vous voyez à l’application de l’IA au travail judiciaire ? Comment les définir et les respecter ?
    Que pensez-vous du cas de l’avocat qui a cité une affaire judiciaire fictive que lui a communiqué ChatGPT ? Quelles sanctions devrait-il encourir ?
    Comment vérifier la fiabilité et la validité des sources juridiques générées par l’IA ? Quels sont les critères et les outils à utiliser ?
    Comment préserver les valeurs et les principes qui fondent le droit, face à l’évolution rapide de la technologie ? Quel est le rôle et la responsabilité des juges et des avocats dans ce contexte ?

    Voir aussi :

    Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 540
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 540
    Points : 199 402
    Points
    199 402
    Par défaut ChatGPT : un avocat Canadien réprimandé pour avoir cité des cas de jurisprudences inventés par le chatbot IA
    ChatGPT : un avocat Canadien réprimandé pour avoir cité des cas de jurisprudences inventés par le chatbot IA d'OpenAI,
    dans un litige de garde d'enfants

    Un avocat de Vancouver, Chong Ke, a été condamné à payer les frais de la partie adverse après avoir cité deux affaires inexistantes générées par l’outil d’intelligence artificielle ChatGPT dans un litige de garde d’enfants. Cet incident marque l’un des premiers cas signalés d’utilisation de précédents créés par l’IA dans un tribunal canadien. Le juge Masuhara a réprimandé Ke pour avoir inclus deux « hallucinations » de l’IA dans sa demande et l’a condamnée à payer les frais engagés par les avocats de Zhang pour vérifier l’existence des affaires. Il a estimé que Ke n’avait pas l’intention de tromper le tribunal, mais qu’elle avait fait preuve d’une « négligence professionnelle ». « Comme ce cas l’a malheureusement démontré, l’IA générative n’est toujours pas un substitut à l’expertise professionnelle que le système de justice exige des avocats », a écrit le juge Masuhara.

    La plupart des lecteurs connaissent maintenant l'avocat qui s'est tourné vers ChatGPT pour effectuer des recherches juridiques. Steven Schwartz, qui exerçait le droit à New York, a admis avoir utilisé l'outil d'IA qui crée des textes réalistes à partir des données fournies par l'utilisateur pour l'aider dans ses recherches juridiques. Il n'a pas vérifié les cas fournis par ChatGPT et a cité sans le savoir plusieurs cas inexistants dans son mémoire.

    Les fausses citations ont été portées à l'attention de Schwartz par l'avocat de la partie adverse et par le tribunal, qui a découvert la supercherie. Au lieu de vérifier les cas par exemple à l'aide d'une base de données de recherche juridique, Schwartz s'est rendu sur ChatGPT et a demandé à l'outil de confirmer la véracité des cas. ChatGPT, qui est incapable de comprendre ce qui est vrai ou faux, a répondu par l'affirmative. Schwartz a depuis été sanctionné pour mauvaise conduite.

    Après la mise en garde de Schwartz, on pourrait penser que les avocats seraient plus prudents quant à l'utilisation d'outils tels que ChatGPT et vérifieraient sûrement la véracité de leur travail. Pourtant, les avocats continuent de commettre cette erreur.

    Nom : intelligence.png
Affichages : 22125
Taille : 373,3 Ko

    Une autre affaire au Canada

    Ces affaires auraient constitué un précédent convaincant pour un père divorcé d'emmener ses enfants en Chine - si elles avaient été réelles. Mais au lieu de savourer sa victoire au tribunal, l'avocate vancouvéroise d'un millionnaire impliqué dans une séparation acrimonieuse a été sommée de dédommager personnellement les avocats de l'ex-femme de son client pour le temps qu'il leur a fallu pour apprendre que les affaires qu'elle espérait citer avaient été inventées par ChatGPT.

    Chong Ke représente Wei Chen, un homme d’affaires dont la valeur nette — selon les procédures de divorce en Chine — serait comprise entre 70 et 90 millions de dollars. L’ex-femme de Chen, Nina Zhang, vit avec leurs trois enfants dans une maison de 8,4 millions de dollars à West Vancouver.

    En décembre dernier, le tribunal a ordonné à Chen de verser à Zhang une pension alimentaire de 16 062 dollars par mois, après avoir calculé que son revenu annuel s'élevait à un million de dollars.

    Ke a alors déposé une demande au nom de Chen pour obtenir une ordonnance autorisant ses enfants à se rendre en Chine. L'avis de demande citait deux affaires : l'une dans laquelle une mère avait emmené son « enfant, âgé de 7 ans, en Inde pendant six semaines » et l'autre dans laquelle il avait été fait droit à la « demande d'une mère de voyager avec son enfant, âgé de 9 ans, en Chine pendant quatre semaines pour rendre visite à ses parents et à ses amis ».

    « Ces affaires sont au cœur de la controverse qui m’oppose, car elles se sont révélées inexistantes », a écrit le juge David Masuhara de la Cour suprême de la Colombie-Britannique dans une décision.

    Le problème a été découvert lorsque les avocats de Zhang ont demandé à Ke de leur fournir des copies des affaires pour préparer une réponse et qu’ils n’ont pas pu les localiser par leurs identifiants de citation. Ke a ensuite appris que les affaires avaient été créées par ChatGPT, un outil d’IA capable de générer du texte à partir d’un mot-clé ou d’une phrase. Il s’agit d’une version améliorée de GPT-3, le modèle de langage naturel le plus avancé au monde, développé par OpenAI.

    Ke a retiré les affaires de la demande et présenté une lettre d’excuses ainsi qu’une admission que les affaires étaient fausses à un associé qui devait comparaître à une audience à sa place, mais l’affaire n’a pas été entendue ce jour-là et l’associé n’a pas remis une copie aux avocats de Zhang. Masuhara a déclaré que l'avocate avait ensuite fait une déclaration sous serment soulignant son « manque de connaissance » des risques liés à l'utilisation de ChatGPT et « sa découverte que les cas étaient fictifs, ce qu'elle décrit comme étant "mortifiant" ».

    « Je n'avais pas l'intention de générer ou de faire référence à des cas fictifs dans cette affaire. C'est clairement une erreur et ce n'est pas quelque chose que je ferais en toute connaissance de cause », a écrit Ke dans sa déposition. « Je n'ai jamais eu l'intention de m'appuyer sur des autorités fictives ou d'induire le tribunal en erreur ».


    La sanction

    Malgré la popularité des chatbots, qui sont formés à partir d'un grand nombre de données, les programmes sont également sujets à des erreurs, connues sous le nom « d'hallucinations ».

    Les avocats représentant la mère ont qualifié la conduite de Ke de « répréhensible et méritant d'être réprimandée » parce qu'elle a entraîné « un temps et des dépenses considérables » pour déterminer si les cas qu'elle avait cités étaient réels. Ils ont demandé que des frais spéciaux soient accordés, mais le juge chargé de l'affaire a rejeté cette demande, estimant qu'une telle « mesure extraordinaire » nécessiterait « une conclusion de conduite répréhensible ou un abus de procédure » de la part de l'avocate.

    « Citer de fausses affaires dans les dossiers et autres documents remis au tribunal constitue un abus de procédure et équivaut à faire une fausse déclaration au tribunal », a écrit le juge David Masuhara. « Si l'on n'y prend garde, cela peut conduire à une erreur judiciaire ». La compétence dans la sélection et l’utilisation de tout outil technologique, y compris ceux alimentés par l’IA, est essentielle.

    Il a constaté que l'avocat de la partie adverse disposait de « beaucoup de ressources » et avait déjà produit des « volumes » de documents dans l'affaire. « Il n'y avait aucune chance que les deux fausses affaires soient passées entre les mailles du filet », selon lui. Masuhara a déclaré que les actions de Ke avaient produit « une publicité négative importante » et qu'elle était « naïve quant aux risques liés à l'utilisation de ChatGPT », mais il a estimé qu'elle avait pris des mesures pour corriger ses erreurs.

    « Je ne pense pas qu'elle ait eu l'intention de tromper ou d'induire en erreur. J'accepte la sincérité des excuses présentées par Ke à son avocat et au tribunal. Ses regrets ont été clairement exprimés lors de sa comparution et de ses observations orales devant le tribunal ».

    Malgré le refus de Masuhara d'accorder des dépens spéciaux, l'ordre des avocats de la Colombie-Britannique enquête maintenant sur la conduite de Ke : « Tout en reconnaissant les avantages potentiels de l'utilisation de l'IA dans la prestation de services juridiques, la Law Society a également publié des conseils aux avocats sur l'utilisation appropriée de l'IA, et s'attend à ce que les avocats se conforment aux normes de conduite attendues d'un avocat compétent s'ils utilisent l'IA pour servir leurs clients », a déclaré une porte-parole, Christine Tam, dans un communiqué.

    Nom : loi.png
Affichages : 3967
Taille : 629,3 Ko

    Les réactions

    L’incident a suscité des réactions mitigées dans la communauté juridique canadienne. Certains ont exprimé leur inquiétude face à la possibilité que l’IA soit utilisée pour fabriquer de fausses preuves ou induire le tribunal en erreur. D’autres ont souligné les avantages potentiels de l’IA pour améliorer l’efficacité, la qualité et l’accessibilité des services juridiques.

    Les systèmes d'IA peuvent être programmés pour analyser de grandes quantités de données, reconnaître des tendances et faire des prédictions ou des décisions basées sur cette analyse. Les technologies d'IA comprennent l'apprentissage automatique, les réseaux neuronaux, le traitement du langage naturel et la robotique. L'objectif de l'IA est de créer des machines intelligentes capables d'effectuer des tâches de manière plus efficace, précise et autonome que les humains.

    Dans le domaine juridique, ses applications sont multiples :
    • Recherche juridique améliorée : L'IA peut parcourir et analyser rapidement d'énormes volumes de textes légaux.
    • Analyses approfondies : Elle détecte des tendances et des modèles dans la jurisprudence.
    • Services clients de base : Automatisation des réponses aux questions fréquentes.
    • Assistance à la recherche : Comparable à celle d'un assistant humain, mais avec une plus grande précision et rapidité.

    Si ChatGPT est conçu pour une utilisation générale, il existe des outils prévus pour des cas plus particuliers. Dans le cadre de la profession d'avocat, un outil comme Case Law Analytics utilise l'IA et la modélisation mathématique pour quantifier le risque judiciaire. Cette méthode ne vise pas à donner une réponse unique mais à présenter toutes les décisions possibles avec leur probabilité d'occurrence. En collaboration étroite entre juristes et mathématiciens, jusqu'à 100 critères clés influençant les décisions judiciaires sont analysés, reproduisant le raisonnement des magistrats.

    De plus, Monica Goyal de Canadian Lawyer pense que les outils d'IA sont progressivement moins sujet à des hallucinations :

    J'ai rencontré de nombreux avocats qui se méfient des solutions d'IA générative en raison de cas comme celui de Schwartz et de la nature problématique des hallucinations. Toutefois, des progrès dans la technologie de l'IA apparaissent rapidement pour résoudre ce problème. La génération augmentée par récupération (RAG) est l'une de ces solutions. La RAG est une technique qui améliore les résultats des grands modèles de langage (LLM), comme le GPT, en récupérant des informations pertinentes à partir de sources externes. Le RAG vise à surmonter les limites des hallucinations en fournissant aux LLM un contexte et des faits supplémentaires qui améliorent la précision, la fiabilité et la crédibilité de leurs réponses. Il s'agit d'un assistant pour les gestionnaires du droit d'auteur, qui récupère la jurisprudence et les précédents pertinents. Les systèmes qui utilisent RAG citeront des sources sur lesquelles les utilisateurs peuvent facilement cliquer et confirmer que le texte généré est correct, réduisant ainsi les inexactitudes et améliorant la confiance dans les technologies d'IA générative.

    Il existe déjà plusieurs solutions technologiques juridiques qui intègrent l'utilisation des RAG et ne présentent pas le problème des hallucinations. Cette technologie aura probablement un impact significatif sur la recherche juridique et la rédaction de documents, qui peuvent être des tâches très chronophages. Imaginez plutôt la rédaction d'un mémo de recherche juridique qui reprend vos éléments de preuve et la jurisprudence avec les citations appropriées.
    Sources : décision de justice, avis de Monica Goyal

    Et vous ?

    Que pensez-vous de l’utilisation de l’IA pour générer des affaires juridiques ? Est-ce une pratique acceptable ou condamnable ?
    Quels sont les avantages et les inconvénients de l’IA pour le domaine juridique ? Comment l’IA peut-elle améliorer ou nuire à la qualité et à l’accessibilité des services juridiques ?
    Quelles sont les mesures à prendre pour prévenir et détecter les abus ou les erreurs liés à l’IA dans le domaine juridique ? Quelles sont les responsabilités des avocats, des juges, des régulateurs et des développeurs d’IA ?
    Quelles sont les compétences et les connaissances nécessaires pour les avocats qui utilisent l’IA dans leur pratique ? Comment les avocats peuvent-ils se former et se tenir au courant des évolutions technologiques ?
    Quels sont les principes éthiques et déontologiques à respecter pour l’utilisation de l’IA dans le domaine juridique ? Comment assurer la transparence, la sécurité, la confidentialité, la fiabilité et l’équité de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 12
    Dernier message: 07/01/2016, 09h31
  2. [2008] Requête qui duplique des lignes en fonction d'une valeur dans un champ
    Par Fredo67 dans le forum Développement
    Réponses: 6
    Dernier message: 27/01/2015, 12h03
  3. Réponses: 5
    Dernier message: 27/02/2013, 11h47
  4. Réponses: 0
    Dernier message: 25/07/2010, 17h22
  5. [MySQL] Récupérer des données de MySQL et les envoyer dans un PDF
    Par cdevl32 dans le forum PHP & Base de données
    Réponses: 12
    Dernier message: 16/03/2009, 20h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo