IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les avocats utilisent l'IA pour bâcler leurs plaidoiries et la situation s'aggrave

  1. #21
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 626
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 626
    Par défaut L'IA à l'épreuve : Les modèles juridiques hallucinent 1 sur 6 (ou plus) dans les évaluations comparatives
    Près de trois quarts des juristes prévoient d'utiliser l'IA pour leur travail, ce qui est effrayant, les modèles d'IA juridique hallucinent une fois sur six (ou plus) dans les évaluations comparatives.

    Près des trois quarts des avocats prévoient d'utiliser l'IA générative pour leur travail. Mais une nouvelle étude révèle la nécessité de procéder à des analyses comparatives et à des évaluations publiques des outils d'IA dans le domaine juridique. Lors des tests comparatives, les modèles juridiques hallucinaient une fois sur six (ou plus).

    Les outils d'intelligence artificielle (IA) transforment rapidement la pratique du droit. Près des trois quarts des avocats prévoient d'utiliser l'IA générative pour leur travail, qu'il s'agisse de passer au crible des montagnes de jurisprudence, de rédiger des contrats, d'examiner des documents ou de rédiger des mémorandums juridiques. Mais ces outils sont-ils suffisamment fiables pour être utilisés dans le monde réel ?

    Les grands modèles de langage ont une tendance documentée à "halluciner", ou à inventer de fausses informations. Dans un cas très médiatisé, un avocat new-yorkais a été sanctionné pour avoir cité des cas fictifs inventés par ChatGPT dans un mémoire juridique ; de nombreux cas similaires ont été signalés depuis.

    Par ailleurs, une précédente étude sur les chatbots à usage général a révélé qu'ils hallucinaient entre 58 % et 82 % du temps sur des questions juridiques, ce qui met en évidence les risques liés à l'intégration de l'IA dans la pratique juridique. Dans son rapport annuel de 2023 sur le pouvoir judiciaire, le juge en chef Roberts en a pris note et a mis en garde les avocats contre les hallucinations.

    Dans tous les domaines de l'industrie, la génération augmentée par récupération (RAG) est considérée et promue comme la solution pour réduire les hallucinations dans des contextes spécifiques à un domaine. S'appuyant sur la RAG, les principaux services de recherche juridique ont mis sur le marché des produits de recherche juridique alimentés par l'IA qui, selon eux, "évitent" les hallucinations et garantissent des citations juridiques "exemptes d'hallucinations".

    Les systèmes RAG promettent de fournir des informations juridiques plus précises et plus fiables en intégrant un modèle linguistique à une base de données de documents juridiques. Cependant, les fournisseurs n'ont pas fourni de preuves tangibles de ces affirmations ni même défini précisément le terme "hallucination", ce qui rend difficile l'évaluation de leur fiabilité dans le monde réel.

    Nom : 1.jpg
Affichages : 6706
Taille : 54,9 Ko

    Les outils de recherche juridique pilotés par l'IA hallucinent toujours

    Dans une nouvelle étude réalisée par le Stanford RegLab et des chercheurs de l'HAI, des chercheurs ont mis à l'épreuve les affirmations de deux fournisseurs, LexisNexis (créateur de Lexis+ AI) et Thomson Reuters (créateur de Westlaw AI-Assisted Research et de Ask Practical Law AI)). L'étude montre que leurs outils réduisent effectivement les erreurs par rapport aux modèles d'IA à usage général tels que GPT-4.

    Il s'agit d'une amélioration substantielle et l'étude documente des cas où ces outils fournissent une recherche juridique solide et détaillée. Cependant, même ces outils d'IA juridique sur mesure continuent de produire des hallucinations dans des proportions alarmantes : les systèmes d'IA Lexis+ et Ask Practical Law ont produit des informations incorrectes dans plus de 17 % des cas, tandis que le système AI-Assisted Research de Westlaw a produit des hallucinations dans plus de 34 % des cas.

    Les chercheurs partagent leurs méthodologies lors de l'étude :

    Pour réaliser notre étude, nous avons construit manuellement un ensemble de données préenregistrées de plus de 200 requêtes juridiques ouvertes, que nous avons conçues pour sonder divers aspects de la performance de ces systèmes.

    De manière générale, nous avons étudié (1) les questions de recherche générale (questions sur la doctrine, la jurisprudence ou l'examen du barreau) ; (2) les questions spécifiques à une juridiction ou à une période (questions sur les divisions de circuits et les changements récents dans le droit) ; (3) les questions sur les fausses prémisses (questions qui imitent un utilisateur ayant une compréhension erronée du droit) ; et (4) les questions sur le rappel des faits (questions sur des faits simples et objectifs qui ne nécessitent aucune interprétation juridique). Ces questions sont conçues pour refléter un large éventail de types de requêtes et pour constituer un ensemble de données réelles stimulantes sur les types de requêtes pour lesquelles la recherche juridique peut être la plus nécessaire.
    Selon l'étude, ses systèmes peuvent avoir des hallucinations de deux manières. Premièrement, une réponse d'un outil d'intelligence artificielle peut tout simplement être incorrecte - elle décrit mal le droit ou commet une erreur factuelle. Deuxièmement, une réponse peut être mal fondée - l'outil d'IA décrit correctement le droit, mais cite une source qui n'étaye pas ses affirmations.

    Nom : 2.jpg
Affichages : 1535
Taille : 34,5 Ko

    Étant donné l'importance cruciale des sources faisant autorité dans la recherche et la rédaction juridiques, le deuxième type d'hallucination peut être encore plus pernicieux que l'invention pure et simple d'affaires juridiques. Une citation peut être "sans hallucination" dans le sens le plus étroit où la citation existe, mais ce n'est pas la seule chose qui compte.

    La promesse principale de l'IA juridique est qu'elle peut rationaliser le processus fastidieux d'identification des sources juridiques pertinentes. Si un outil fournit des sources qui semblent faire autorité mais qui sont en réalité non pertinentes ou contradictoires, les utilisateurs pourraient être induits en erreur. Ils pourraient accorder une confiance excessive aux résultats de l'outil, ce qui pourrait conduire à des jugements et conclusions juridiques erronés.

    La génération augmentée par récupération (RAG) n'est pas une panacée

    Ces nouveaux outils d'IA juridique utilisent la génération augmentée par récupération (RAG) pour produire leurs résultats, une méthode que beaucoup vantent comme une solution potentielle au problème de l'hallucination.

    En théorie, la RAG permet à un système de récupérer d'abord le matériel source pertinent et de l'utiliser ensuite pour générer la réponse correcte. En pratique, cependant, l'étude montre que même les systèmes RAG ne sont pas exempts d'hallucinations.

    Nom : 3.jpg
Affichages : 1505
Taille : 63,2 KoNom : 4.jpg
Affichages : 1502
Taille : 73,6 Ko
    Exemple d'hallucinations

    Les chercheurs identifient plusieurs défis qui sont particulièrement propres aux systèmes d'IA juridique basés sur la RAG et qui provoquent des hallucinations :

    Tout d'abord, la recherche juridique est difficile. Comme tout avocat le sait, trouver l'autorité appropriée (ou la meilleure) n'est pas une tâche facile. Contrairement à d'autres domaines, le droit n'est pas entièrement composé de faits vérifiables - au lieu de cela, le droit est construit au fil du temps par des juges qui rédigent des avis.

    Il est donc difficile d'identifier l'ensemble des documents qui répondent définitivement à une requête, et il arrive que des hallucinations se produisent pour la simple raison que le mécanisme de recherche du système échoue.

    Deuxièmement, même lorsque l'extraction a lieu, le document extrait peut être une autorité inapplicable. Dans le système juridique américain, les règles et les précédents diffèrent d'une juridiction à l'autre et d'une période à l'autre ; les documents qui pourraient être pertinents à première vue en raison de leur similitude sémantique avec une requête peuvent en fait être inapplicables pour des raisons idiosyncrasiques propres à la loi.

    Ainsi, nous observons également des hallucinations lorsque ces systèmes de RAG ne parviennent pas à identifier l'autorité réellement contraignante. Ceci est particulièrement problématique car les domaines où le droit est en évolution sont précisément ceux où la recherche juridique est la plus importante.

    Un système, par exemple, a incorrectement récité la norme du « fardeau indu » pour les restrictions à l'avortement comme une bonne loi, qui a été renversée dans l'affaire Dobbs.

    Troisièmement, la flagornerie - la tendance de l'IA à approuver les hypothèses incorrectes de l'utilisateur - présente également des risques uniques dans le domaine juridique.

    Un système, par exemple, a naïvement accepté la prémisse de la question selon laquelle la juge Ginsburg était dissidente dans l'affaire Obergefell, qui a établi le droit au mariage homosexuel, et a répondu qu'elle l'était en raison de ses opinions sur le droit d'auteur international. (La juge Ginsburg n'a pas été dissidente dans l'affaire Obergefell et, non, l'affaire n'avait rien à voir avec le droit d'auteur).

    Malgré cette réponse, les résultats sont optimistes. Nos tests ont montré que les deux systèmes naviguaient généralement de manière efficace dans les requêtes basées sur des prémisses erronées.

    Mais lorsque ces systèmes sont d'accord avec les affirmations erronées des utilisateurs, les conséquences peuvent être graves, en particulier pour ceux qui espèrent utiliser ces outils afin d'améliorer l'accès à la justice pour les plaideurs autonomes et ceux qui ne disposent pas de ressources suffisantes.
    Nom : 5.jpg
Affichages : 1510
Taille : 61,6 Ko
    Processus de la RAG

    L'intégration responsable de l'IA dans le droit exige de la transparence

    En fin de compte, ces résultats soulignent la nécessité d'une évaluation comparative rigoureuse et transparente des outils juridiques d'IA. Contrairement à d'autres domaines, l'utilisation de l'IA en droit reste d'une opacité alarmante. Les chercheurs affirment que les outils qu'ils ont étudé ne fournissent pas d'accès systématique, publient peu de détails sur leurs modèles et ne communiquent aucun résultat d'évaluation.

    Cette opacité fait qu'il est extrêmement difficile pour les avocats de se procurer et d'acquérir des produits d'IA. Le grand cabinet d'avocats Paul Weiss a passé près d'un an et demi à tester un produit, et n'a pas développé de "mesures rigoureuses" parce que la vérification du système d'IA était si complexe qu'elle "rendait tout gain d'efficacité difficile à mesurer". L'absence de mesures d'évaluation rigoureuses rend difficile une adoption responsable, en particulier pour les praticiens qui disposent de moins de ressources que Paul Weiss.

    Le manque de transparence menace également la capacité des avocats à se conformer aux exigences en matière d'éthique et de responsabilité professionnelle. Les barreaux de Californie, de New York et de Floride ont tous récemment publié des orientations sur le devoir de supervision des avocats concernant les produits de travail créés à l'aide d'outils d'IA. Et à partir de mai 2024, plus de 25 juges fédéraux ont émis des ordonnances permanentes demandant aux avocats de divulguer ou de surveiller l'utilisation de l'IA dans leurs salles d'audience.

    Sans accès aux évaluations des outils spécifiques et sans transparence sur leur conception, les avocats pourraient se trouver dans l'impossibilité de s'acquitter de ces responsabilités. Par ailleurs, compte tenu du taux élevé d'hallucinations, les avocats pourraient se trouver dans l'obligation de vérifier chaque proposition et chaque citation fournies par ces outils, ce qui compromettrait les gains d'efficacité que les outils d'IA juridique sont censés apporter.

    Les chercheurs concluent en déclarant :

    Notre étude ne vise en aucun cas à pointer du doigt LexisNexis et Thomson Reuters. Leurs produits sont loin d'être les seuls outils d'IA juridique qui ont besoin de transparence - un grand nombre de startups proposent des produits similaires et ont fait des déclarations similaires, mais ils sont disponibles sur des bases encore plus restreintes, ce qui rend encore plus difficile l'évaluation de leur fonctionnement.

    Sur la base de ce que nous savons, les hallucinations juridiques n'ont pas été résolues. La profession juridique devrait se tourner vers des analyses comparatives publiques et des évaluations rigoureuses des outils d'IA.
    Source : "Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools" (Université de Stanford)

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    ChatGPT : un avocat Canadien réprimandé pour avoir cité des cas de jurisprudences inventés par le chatbot IA d'OpenAI dans un litige de garde d'enfants

    Stanford présente les principales conclusions de son nouveau rapport annuel AI Index et indique notamment que l'IA surpasse l'homme pour certaines tâches, mais pas pour toutes

    Il vaut mieux appeler GPT qu'un avocat, les grands modèles de langage démontrent une grande précision, des temps de révision réduits et des économies jusqu'à 100% de coûts par rapport aux avocats
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #22
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

    J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

    Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander

  3. #23
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 344
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 344
    Par défaut Le Bresil engage OpenAI pour réduire les coûts des procès dans un contexte de débats sur l’adoption de l’IA
    Le Bresil engage OpenAI pour réduire les coûts des procès dans un contexte de débats sur l’adoption de l’IA
    Capable de gagner contre des avocats humains et d’inventer des cas de jurisprudence comme ChatGPT

    Le Brésil a apparemment engagé OpenAI dans le but d'aider les procureurs à mieux traiter les affaires et à faire économiser de l'argent à l'administration via l’intégration de ChatGPT à leur flux de travail. La décision intervient dans un contexte de débats autour de l’adoption de l’intelligence artificielle dans la filière. En effet, l’intelligence artificielle est capable de gagner contre des avocats humains mais de l’autre côté d’inventer des cas de jurisprudence.

    C’est Microsoft qui se chargera de fournir lesdits services d’intelligence artificielle au travers de sa plateforme d’informatique dans le nuage – Microsoft Azure. Ce type d’adoption est une espèce de redite étant donné que la Chine a procédé à la présentation d’une intelligence artificielle juge aux apparences d’une femme en 2019. Ce sont plutôt les avantages et les inconvénients de telles décisions qui font désormais l’objet de débats.

    Vingt avocats expérimentés perdent face à une intelligence artificielle lors d’un test détection de problèmes juridiques

    En effet, une étude a soumis une vingtaine d’avocats à un test au cours duquel ils devaient déceler les problèmes dans cinq accords de non-divulgation qui constituent une base contractuelle pour la plupart des transactions commerciales. Pour le test, les vingt avocats experts en révision de contrats se sont retrouvés opposés à une intelligence artificielle, LawGeex AI. Ladite intelligence artificielle à laquelle les avocats ont été confrontés, a réussi à atteindre un taux de précision moyen de 94 %, un chiffre largement supérieur à celui des avocats qui s’élevait à 85 %. Il a fallu en moyenne 92 minutes aux avocats pour mener à bien la recherche contre 26 secondes pour l’intelligence artificielle.

    Au nombre des vingt avocats, certains ont souhaité se faire entendre après le test. « Le test a mis en évidence les problèmes généralement contenus dans les accords de confidentialité et les problèmes auxquels les avocats doivent prêter attention lors de la rédaction et de la révision des accords de confidentialité. En ce qui concerne l'automatisation, je pense que cela aiderait les clients à obtenir de meilleurs prix et permettrait aux avocats de se concentrer sur des projets plus complexes. Cependant, je pense que le test et la technologie d'intelligence artificielle doivent être très approfondis pour y parvenir, et que les clients professionnels préfèrent peut-être qu'un avocat spécialiste des droits humains examine et prenne soin de leurs préoccupations professionnelles », avait déclaré Samantha Javier, une diplômée de la Lewis & Clark Law School autorisée à pratiquer le droit en Oregon.

    « Participer à cette expérience m'a vraiment fait prendre conscience à quel point il est ridicule que les avocats consacrent leur temps (ainsi que l'argent de leurs clients) à créer ou à réviser des documents tels que des NDA qui sont si fondamentalement similaires. Disposer d'un outil capable d'automatiser ce processus permettrait aux avocats qualifiés de consacrer leur temps à des tâches de niveau supérieur sans avoir à faire appel à un technicien juridique (ce qui rendrait les services qu'ils offrent plus compétitifs à long terme) », avait déclaré Grant Gulovsen, avocat avec plus de 15 ans d'expérience.

    « Nous assistons à des perturbations dans de nombreux secteurs par des utilisations de plus en plus sophistiquées de l'intelligence artificielle. Le domaine du droit ne fait pas exception. L'identification correcte des principes juridiques de base dans les contrats est le type de tâche routinière susceptible d'être automatisée. Utiliser l'IA pour repérer les problèmes courants dans les accords de non-divulgation pourrait constituer un développement utile, qui permettrait de gagner du temps et d'économiser de l'argent pour le secteur juridique dans son ensemble », selon Seun Adebiyi, ancien avocat d'entreprise chez Goldman Sachs.

    « Bien que la catégorisation des clauses rende le processus d’examen de la NDA un peu plus rapide dans mon propre cabinet, je ne pense pas que le véritable examen juridique puisse être réalisé par Amnesty International. Cependant, je considère l'application de l'IA comme un outil utile permettant de gagner du temps », avait indiqué Abigail Peterson, avocate auprès du fabricant américain de dispositifs médicaux DeRoyal Industries.

    « L’intelligence artificielle a un potentiel énorme en ce qui concerne la réduction du temps nécessaire pour passer en revue les contrats standard et rendre les conseils juridiques accessibles et abordables pour tous. LawGeex m'a demandé d'examiner l’accord de non-divulgation de manière logique et crédible, à l'instar de la façon dont j'ai examiné des documents en tant qu'ancien avocat dans un cabinet d'avocats international », avait souligné Hua Wang, cofondatrice de SmartBridge, ex-avocate chez K & L Gates et Proskauer, avocate interne chez Cisco Systems et boursière mondiale à la Kauffman Foundation.

    « En tant qu'administrateur de contrats, je pense que l’intelligence artificielle sera utile et réduira le temps passé sur les révisions de contrats. Si ce n'est déjà fait, des modèles ou des clauses de contrat standard devraient être insérés dans la base de données du logiciel et provoquer des divergences dans les documents à examiner en fonction des moyens du contrat. Bien que les contrats puissent être très similaires les uns des autres, ils ont tous un objectif spécifique, ce qui appelle une attention particulière pour l'utilisation de balises. Je trouve que l'IA est logique et crédible dans le but de réduire le temps d'examen des contrats, ce qui permet de hiérarchiser d'autres tâches fastidieuses », avait indiqué Deja Colbert, administratrice de contrats chez Omega Rail Management.

    Le juge de la Cour suprême US met néanmoins en garde contre les dangers de l’IA dans le travail judiciaire

    « L’IA a évidemment un grand potentiel pour améliorer considérablement l’accès aux informations clés pour les avocats et les non-avocats. Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi », déclare-t-il.

    En plus de ces risques, les chatbots LLM populaires comme ChatGPT et Bard de Google peuvent produire de fausses informations, ce qui revient à dire que les utilisateurs s'en remettent à la chance chaque fois qu'ils font confiance aux robots sans vérifier leur travail au préalable.

    Roberts a souligné que « toute utilisation de l’IA nécessite prudence et humilité ». Il a mentionné un cas où les hallucinations de l'IA ont conduit des avocats à citer des cas inexistants dans des documents judiciaires, ce qui, selon le juge en chef, est « toujours une mauvaise idée ». Roberts n'a pas donné plus de détails en dehors d'indiquer que le phénomène « a fait la une des journaux cette année ».

    La semaine dernière, par exemple, Michael Cohen, ancien conseiller et avocat de Donald Trump, a déclaré dans des documents judiciaires qu'il avait donné par erreur à son avocat de fausses citations générées par un programme d'IA qui ont été citées dans un dossier officiel du tribunal. D’autres cas d’avocats incluant des cas inventés par l’IA dans des mémoires juridiques ont également été documentés.

    La 5e Cour d'appel américaine de la Nouvelle-Orléans semble être d'accord avec le point de vue de Roberts selon lequel l'assistance juridique assistée par l'IA peut produire un travail moins que satisfaisant. Le tribunal a proposé une règle qui obligerait les avocats à certifier qu'ils ne s'appuient pas sur un logiciel d'IA pour rédiger des mémoires, ou qu'un humain a vérifié et édité tout texte généré par un chatbot.

    Les avocats qui déclarent faussement qu'ils respectent la règle pourraient être confrontés à la possibilité que leurs dossiers soient radiés et sanctionnés, selon la règle proposée.

    Et vous ?

    Quelle est votre opinion sur l’utilisation de l’IA dans le domaine du droit ? Pensez-vous qu’elle soit bénéfique ou nuisible pour la justice ?
    Quelles sont les limites que vous voyez à l’application de l’IA au travail judiciaire ? Comment les définir et les respecter ?
    Que pensez-vous du cas de l’avocat qui a cité une affaire judiciaire fictive que lui a communiqué ChatGPT ? Quelles sanctions devrait-il encourir ?
    Comment vérifier la fiabilité et la validité des sources juridiques générées par l’IA ? Quels sont les critères et les outils à utiliser ?
    Comment préserver les valeurs et les principes qui fondent le droit, face à l’évolution rapide de la technologie ? Quel est le rôle et la responsabilité des juges et des avocats dans ce contexte ?

    Voir aussi :

    Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #24
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    26 secondes pour que l'IA analyse le contrat et 94 minutes pour un avocat. OK, combien de temps passés à programmer l'IA pour qu'elle soit aussi efficace sur ce segment spécifique d'une analyse de documents ? Remplacer le contrat de non divulgation par un babar l'éléphant et le truc ne sait déjà plus ou il habite non ?

    Quoiqu'il en soit ça laisse songeur. J'aimerais bien pouvoir passer moins de temps à la rédaction et la vérification et si l'IA pouvait s'assurer que je fasse pas de bourde dans les chiffres ou une clause particulière c'est vrai qu'au final ce serait pas mal.

    Après comme d'habitude ça soulève plus d'interrogation que de solution et évidemment tout le monde se lance dedans tête baissée

  5. #25
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 626
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 626
    Par défaut Un avocat américain condamné à une amende de 15 000 dollars pour avoir utilisé un cas fictif généré par l'IA
    Un avocat américain condamné à une amende de 15 000 dollars pour avoir utilisé un cas fictif généré par l'IA, et d'autres incidents similaires se sont produits récemment.

    Un avocat américain condamné à une amende pour avoir utilisé une affaire fictive générée par l'IA. L'avocat Rafael Ramirez a été recommandé pour une amende de 15 000 dollars pour avoir cité des affaires judiciaires fictives. Ramirez a admis avoir utilisé des outils d'IA pour rédiger des documents juridiques, mais n'a pas vérifié les affaires citées. Cet incident a suscité de nombreuses inquiétudes quant aux risques liés à l'utilisation de l'IA dans le domaine juridique.

    Depuis le boom de l'IA en 2023, les avocats ont de plus en plus recours au chabot d'intelligence artificielle (IA) pour les aider dans leurs travails. Cependant, même eux font face à des erreurs et des hallucinations de l'IA.

    En mai 2023, l’avocat Steven A. Schwartz a utilisé ChatGPT pour générer et citer des affaires fictives lors d'un procès. Il représentait un homme qui poursuivait la compagnie aérienne Avianca après qu’un chariot de service lui ait heurté le genou lors d’un vol vers l’aéroport Kennedy de New York en 2019. Schwartz avait admis qu'il ne savait pas que ChatGPT inventerait simplement des affaires, le chatbot ayant insisté sur le fait qu’elles étaient réelles.

    En mars 2024, un avocat de Vancouver, Chong Ke, a été condamné à payer les frais de la partie adverse après avoir cité deux affaires inexistantes générées par ChatGPT dans un litige de garde d’enfants. Le juge a réprimandé l'avocat Ke pour avoir inclus deux "hallucinations" de l’IA dans sa demande et l’a condamnée à payer les frais engagés par les avocats de Zhang pour vérifier l’existence des affaires. Il a estimé que Ke n’avait pas l’intention de tromper le tribunal, mais qu’elle avait fait preuve d’une "négligence professionnelle".

    Récemment, le juge Mark D. Dinsmore du district sud de l'Indiana a recommandé une amende de 15 000 dollars à un avocat qui avait cité des affaires inexistantes dans des documents juridiques. L'avocat en question est Rafael Ramirez, de Rio Hondo, au Texas. Le 29 octobre 2024, il a cité trois affaires fabriquées de toutes pièces dans ses documents juridiques. Le récent rapport du juge Dinsmore indique que Ramirez n'a pas vérifié la validité et l'exactitude des cas cités dans trois documents juridiques, recommandant ainsi une amende de 5 000 dollars pour chaque document.


    Le juge Dinsmore a fait valoir que si citer des chiffres, des dates ou des fautes d'orthographe est une erreur courante, citer des affaires totalement inexistantes est une erreur bien plus grave. Au cours de la procédure, le juge a demandé à Ramirez d'expliquer la situation. Ramirez a admis avoir utilisé des outils d'intelligence artificielle pour rédiger les documents et a déclaré qu'il ne savait pas que ces outils pouvaient générer de faux cas et de fausses citations.

    Bien que Ramirez ait affirmé ne pas avoir eu d'intention malveillante, il a également admis ne pas s'être pleinement conformé à la règle 11 des règles fédérales de procédure civile, qui exige des avocats qu'ils certifient l'exactitude des documents soumis au tribunal. Le juge Dinsmore a souligné que la méconnaissance de l'outil d'IA par Ramirez mettait en évidence la gravité du problème.

    Ces incidents mettent en évidence les risques liés à l'utilisation de l'intelligence artificielle dans le domaine juridique et les responsabilités qui incombent aux avocats lorsqu'ils utilisent ces technologies. Cependant, cela n'empêche pas les gens d'avoir de plus en plus recours à l'IA. Par exemple, en 2023, une IA devait servi d'avocat à un individu dans un cas devant un tribunal. L'IA de l’entreprise DoNotPay fonctionne sur un téléphone, écoute tous les discours dans la salle d’audience et donne des instructions à qui s’en sert grâce à une oreillette. L'entreprise proposait même "1 000 000 $ à tout avocat ou personne ayant une affaire à venir devant la Cour suprême des États-Unis pour qu'il porte des AirPods et laisse notre robot avocat plaider l'affaire en répétant exactement ce qu'il dit.

    En outre, récemment, des travailleurs mécontents avaient utilisé l'IA pour générer et déposer des plaintes contre leurs employeurs à un rythme sans précédent. Mais les experts ont noté que l'IA génère des arguments incohérents, longs et souvent incorrects et entraîne une hausse des frais de justice. Un expert avait notamment affirmé : "Dans de nombreux cas, les résultats de l'IA sont inexacts, ce qui amène les demandeurs à invoquer des revendications ou des arguments non valables. L'employeur ne peut pas se contenter d'ignorer ces demandes. Cela conduit à un cycle de correspondance continue et coûteuse"

    Source : Décision de Justice

    Et vous ?

    Pensez-vous que cette décision du juge est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un juge a infligé une amende de 5 000 $ à un cabinet d'avocats qui s'est appuyé sur des affaires juridiques fictives générées par ChatGPT. Ce dernier avait assuré que ces affaires étaient réelles

    Près de trois quarts des juristes prévoient d'utiliser l'IA pour leur travail, ce qui est effrayant. Les modèles d'IA juridique hallucinent une fois sur six (ou plus) dans les évaluations comparatives

    Il vaut mieux appeler GPT qu'un avocat, les grands modèles de langage démontrent une grande précision, des temps de révision réduits et des économies jusqu'à 100% de coûts par rapport aux avocats
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #26
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 765
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 765
    Par défaut Les avocats utilisent l'IA pour bâcler leurs plaidoiries et la situation s'aggrave
    Les avocats utilisent l'IA pour bâcler leurs plaidoiries et la situation s'aggrave,
    Un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères

    Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.

    Dans le jargon des critiques de l’IA, le mot « slop » désigne cette bouillie textuelle issue des modèles génératifs – une prose lisse, répétitive, souvent incohérente. Dans le monde juridique, cette bouillie devient dangereuse. De plus en plus d’avocats, débordés ou attirés par l’efficacité promise de ChatGPT et consorts, rédigent des conclusions ou des requêtes en s’appuyant sur des outils qui produisent des formulations artificiellement sophistiquées mais fondamentalement erronées.

    Le résultat : des dossiers mal argumentés, des citations inventées, des références juridiques inexistantes. En mai 2023, une affaire à New York avait déjà fait scandale : deux avocats avaient remis au tribunal un mémoire truffé de jurisprudences… créées de toutes pièces par ChatGPT. Le juge, consterné, avait parlé d’une « parodie de rigueur ». Depuis, le phénomène s’est amplifié et institutionnalisé, jusqu’à susciter la création d’initiatives comme AI Law Hub et SlopTracker, des plateformes où les juristes recensent les dérives de leurs confrères.

    Une multiplication de ce type de cas

    Le New York Times publie un nouvel article sur cette tendance inquiétante, soulignant que les sanctions infligées aux avocats pris en flagrant délit d'utilisation négligente de l'IA sont de plus en plus fréquentes (ces sanctions peuvent se limiter à une amende ou à un autre désagrément mineur). Apparemment, la position de l'American Bar Association autorise les avocats à utiliser l'IA dans le cadre de leur travail. Ils doivent simplement s'assurer que le texte généré par le chatbot est correct et ne contient pas d'exemples de cas juridiques fictifs – une situation qui semble malheureusement se répéter. Le Times note d'ailleurs*:

    «*D'après des documents judiciaires et des entretiens avec des avocats et des universitaires, la profession juridique est devenue ces derniers mois un véritable nid à erreurs d'IA. Certaines de ces erreurs sont dues au recours aux chatbots au lieu de faire appel à un avocat.*» Les chatbots, malgré leurs inconvénients, peuvent aider ceux qui se représentent eux-mêmes à « parler un langage que les juges comprendront », a déclaré Jesse Schaefer, un avocat basé en Caroline du Nord… Mais un nombre croissant d’affaires proviennent de professionnels du droit, et les tribunaux commencent à prévoir des sanctions telles que de petites amendes et autres mesures disciplinaires.

    Un avocat condamné à payer une amende de 10 000 dollars : il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA

    Un avocat californien a été condamné à une amende de 10*000 dollars pour avoir déposé un appel devant une cour d'appel de l'État truffé de fausses citations générées par l'outil d'intelligence artificielle ChatGPT.

    Cette amende semble être la plus importante jamais infligée par un tribunal californien pour usage abusif de l'IA. Elle s'accompagne d'une décision cinglante indiquant que 21 des 23 citations d'arrêts cités dans le mémoire introductif de l'avocat étaient inventées. La cour souligne également que de nombreux tribunaux, tant hors de l'État qu'au niveau fédéral, ont déjà interpellé des avocats pour avoir cité de fausses sources juridiques.

    «*Nous publions donc cette décision à titre d'avertissement*», poursuit-elle. «*En clair, aucun mémoire, acte de procédure, requête ou autre document déposé devant un tribunal ne doit contenir de citations – qu'elles proviennent d'une IA générative ou de toute autre source – que l'avocat responsable du dépôt n'a pas personnellement lues et vérifiées.»

    Cette décision, rendue le 12 septembre par la Cour d'appel du deuxième district de Californie, illustre parfaitement pourquoi les autorités judiciaires de l'État s'efforcent de réglementer l'utilisation de l'IA dans le système judiciaire. Il y a deux semaines, le Conseil judiciaire de l'État a publié des directives exigeant des juges et du personnel des tribunaux qu'ils interdisent l'intelligence artificielle générative ou qu'ils adoptent une politique d'utilisation de cette intelligence artificielle générative d'ici le 15 décembre. Parallèlement, le Barreau de Californie examine la possibilité de renforcer son code de déontologie afin de prendre en compte les différentes formes d'IA, suite à une demande de la Cour suprême de Californie le mois dernier.

    L'avocat de la région de Los Angeles, Amir Mostafavi, condamné à une amende, a déclaré au tribunal qu'il n'avait pas lu le texte généré par le modèle d'IA avant de déposer son appel en juillet 2023, plusieurs mois après qu'OpenAI a présenté ChatGPT comme capable de réussir l'examen du barreau. Un collège de trois juges l'a condamné à une amende pour avoir déposé un appel abusif, violé les règles de procédure, cité de faux cas et gaspillé le temps du tribunal et l'argent des contribuables, selon l'avis rendu.

    Mostafavi a déclaré à CalMatters avoir rédigé l'appel puis utilisé ChatGPT pour tenter de l'améliorer. Il a précisé qu'il ignorait que le logiciel ajouterait des références jurisprudentielles ou inventerait des informations.

    Il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA. Celle-ci est devenue un outil essentiel, au même titre que les bases de données en ligne ont largement remplacé les bibliothèques juridiques. Tant que les systèmes d'IA continueront à produire de fausses informations, il conseille aux avocats qui y ont recours de faire preuve de prudence.

    « En attendant, il y aura des victimes, des dommages et des dégâts », a-t-il affirmé. « J'espère que cet exemple évitera à d'autres de tomber dans le même piège. J'en subis les conséquences. »

    Une base de données des cas d'avocats invoquant de fausses affaires générées par IA

    L'amende infligée à Mostafavi est la sanction la plus lourde jamais prononcée contre un avocat par un tribunal californien et l'une des plus importantes jamais infligées pour utilisation abusive de l'IA par un avocat, selon Damien Charlotin, qui enseigne le droit et l'IA dans une école de commerce parisienne. Il recense les cas d'avocats invoquant de fausses affaires, principalement en Australie, au Canada, aux États-Unis et au Royaume-Uni.

    Dans une affaire très médiatisée en mai, un juge de la Cour de district des États-Unis en Californie a condamné deux cabinets d'avocats à verser 31*100 dollars d'honoraires à l'avocat de la défense et au tribunal pour les frais liés à l'utilisation de «*fausses recherches générées par l'IA*». Dans sa décision, le juge a déclaré s'être senti trompé, a indiqué que les avocats avaient failli citer de faux éléments dans une ordonnance et a affirmé*: «*Une forte dissuasion est nécessaire pour éviter que les avocats ne cèdent à cette facilité.*»

    Charlotin estime que les tribunaux et le public doivent s'attendre à une augmentation exponentielle de ces affaires à l'avenir. Lorsqu'il a commencé à recenser les dossiers judiciaires impliquant l'IA et les faux témoignages au début de l'année, il en rencontrait quelques-uns par mois. Désormais, il en voit plusieurs par jour. Les grands modèles de langage affirment avec assurance des mensonges comme des faits, surtout en l'absence de preuves.

    « Plus votre argumentation juridique est complexe, plus le modèle aura tendance à induire en erreur, car il cherchera à vous satisfaire », explique-t-il. « C'est là que le biais de confirmation entre en jeu. »

    En parcourant le site de Charlotin, on est pour le moins effrayé*: on y trouve déjà 11 pages d'affaires illustrant ces aberrations (les chercheurs affirment en avoir recensé 509 à ce jour).

    Une analyse de mai 2024 réalisée par le RegLab de l'Université de Stanford a révélé que, bien que trois avocats sur quatre prévoient d'utiliser l'IA générative dans leur pratique, certaines formes d'IA génèrent des erreurs dans un tiers des requêtes. Détecter les faux témoignages cités dans les documents juridiques pourrait devenir plus difficile à mesure que les modèles augmentent en taille.

    Nom : cas.png
Affichages : 8068
Taille : 41,7 Ko

    L’automatisation de la plaidoirie

    Ce que révèle cette crise, c’est la mutation d’un métier fondé sur la précision, la nuance et la responsabilité. L’usage d’outils comme GPT, Claude ou Copilot promet de gagner du temps, d’améliorer la clarté ou de simplifier la recherche documentaire. Mais le revers de la médaille, c’est la perte du contrôle intellectuel.

    Là où l’avocat devrait interpréter, il se contente parfois de recopier. Là où il devrait peser chaque mot, il laisse l’algorithme formuler des généralités verbeuses. Le « slop juridique » n’est pas qu’un problème de style : il est la preuve d’une déresponsabilisation progressive, d’un glissement où le langage du droit devient une simple sortie de modèle statistique.

    Et dans le domaine judiciaire, une erreur de raisonnement ou une référence inventée ne se corrige pas comme une coquille dans un e-mail : elle peut fausser une décision, nuire à un client, voire créer un précédent juridique bancal.

    D'autres avocats dénoncent

    Aujourd'hui, comme Damien Charlotin, certains avocats dénoncent ouvertement les erreurs de leurs confrères et tentent de créer un système de suivi recensant les cas d'utilisation abusive de l'IA.

    En effet, le Times souligne l'existence d'un « réseau croissant d'avocats qui traquent les abus d'intelligence artificielle commis par leurs confrères » et les publient en ligne, dans le but apparent de dénoncer ces pratiques et d'alerter le public. Cependant, l'impact de ces actions reste, pour l'instant, loin d'être suffisant. « Ces affaires nuisent à la réputation du barreau », a déclaré Stephen Gillers, professeur d'éthique à la faculté de droit de l'université de New York, au journal. « Les avocats du monde entier devraient avoir honte des agissements de certains membres de leur profession. »

    Sources : cas d'hallucination IA , Lacey c. State Farm General Assurance, Stanford, opinion de la Cour de Californie

    Et vous ?

    Dénoncer ces abus de l'IA par les avocats, un pas dans la bonne direction ? Dans quelle mesure ?

    Le recours à l’IA dans la rédaction juridique doit-il être strictement encadré, voire interdit dans certaines juridictions ?

    Peut-on imaginer des modèles d’IA spécifiquement entraînés sur des bases juridiques fiables pour éviter le « slop » ?

    Le « slop » est-il seulement un problème technique, ou le symptôme d’une crise plus large du rapport au travail intellectuel ?

    Comment préserver l’exigence de rigueur et de responsabilité dans une époque où la rapidité et la productivité deviennent les nouveaux dogmes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #27
    Invité
    Invité(e)
    Par défaut
    entre les réponses approximatives façon profession de foi ("vous nous avez demandé si... nous certifions que" sans aucune réf juridique) et les inventions c'est catastrophique. dans les cas les plus fréquents l'IA est co... comme une b... quel écran de fumée, tout ça pour facturer. Un bon vieux moteur de recherches qui pointe vers des données validées... pas photo. ça c'est pire que tout.

  8. #28
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 401
    Billets dans le blog
    3
    Par défaut
    Remplacez le jargon des avocats par celui des développeurs et vous aurez un autre article criant de vérité :
    L’automatisation du développement logiciel

    Ce que révèle cette crise, c’est la mutation d’un métier fondé sur la précision, la nuance et la responsabilité. L’usage d’outils comme GPT, Claude ou Copilot promet de gagner du temps, d’améliorer la clarté ou de simplifier la recherche de code. Mais le revers de la médaille, c’est la perte du contrôle intellectuel.

    Là où le développeur devrait interpréter, il se contente parfois de recopier. Là où il devrait peser chaque instruction, il laisse l’algorithme formuler des généralités verbeuses. Le « slop coding » n’est pas qu’un problème de style : il est la preuve d’une déresponsabilisation progressive, d’un glissement où le code devient une simple sortie de modèle statistique.

    Et dans le domaine logiciel, une erreur de raisonnement ou une valeur inventée ne se corrige pas comme une coquille dans un e-mail : elle peut fausser une décision, nuire à un client, voire porter atteinte à la société.
    Pas plus tard que vendredi je parlais avec mes collègues de faire la distinction entre ceux qui sont rigoureux et ceux qui ne le sont pas :
    • les rigoureux peuvent tirer de l'IA les principaux avantages, car leur rigueur s'assure qu'ils vérifient derrière et comprennent ce qu'ils font, l'IA peut alors faire gagner un peu de temps sur les parties à écrire qu'on maîtrise déjà (peu de temps de vérification nécessaire) ou beaucoup pour les juniors qui peuvent focaliser leur temps d'apprentissage sur ce qui marche (moins de recherches infructueuses, qui peuvent apprendre des trucs mais moins pertinentes à l'instant T), et pour le reste rend surtout le job plus fun
    • les non-rigoureux par contre ont toutes les chances de donner une fausse impression de gros coup de pouce sur le court terme, en se contentant de copier sans vraiment réfléchir à ce qu'ils font, donnant l'impression qu'ils exploitent mieux l'IA alors qu'en fait les conséquences néfastes ne s'en ressentiront que plus tard, introduisant des coûts qui gomment les avantages illusoires de court terme. Quant au long terme, à force de se laisser aller à l'IA, ils ne forgeront pas leur propre expertise, se contentant de rester dépendants d'outils qu'ils ne maîtrisent pas et de stagner à leur niveau. Rendant le renouvellement des générations de dévs précaire.


    En tant que développeurs, c'est à nous de nous assurer que nos juniors et nos employeurs ne tombent pas dans le panneau.

    Pour les ingénieurs français, inscrits au répertoire des Ingénieurs et Scientifiques de France (IESF), il en va de notre responsabilité d'informer et de former :
    https://www.iesf.fr/752_p_49680/char...ingenieur.html
    Citation Envoyé par Charte IESF
    En tant que membres d’un collectif de travail, l'ingénieur et le scientifique :
    • se mettent au service de leurs commanditaires et les informent des risques et contraintes (sociaux, environnementaux, économiques) des solutions proposées (Sens du service),
    • ...
    • participent à l'adaptation des activités de leur collectif de travail aux évolutions de la société et de l’environnement (Agilité),
    • encouragent la montée en compétences techniques et scientifiques de leurs collaborateurs et équipes (Management),
    • travaillent méthodiquement afin d’assurer la traçabilité des résultats et des données qui fondent les décisions de leur collectif de travail (Transparence),
    • participent activement à la gouvernance de leur collectif de travail (Engagement),
    • ...
    • signalent, de bonne foi et de manière désintéressée, les risques et les atteintes graves envers les droits humains, les libertés fondamentales, la santé et la sécurité des personnes, ainsi que l’environnement, résultant des activités de leur collectif de travail (Intégrité).
    Citation Envoyé par Charte IESF
    En tant que membres de la société toute entière, l’ingénieur et le scientifique :
    • ...
    • adoptent une posture active dans la société en éclairant l'opinion publique sur les problématiques qui nécessitent une vision de l'ingénieur ou du scientifique (Citoyenneté),
    • transmettent leur savoir scientifique et leur expérience, en les rendant accessibles au plus grand nombre (Vulgarisation),
    • ...
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #29
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères

    Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.
    Vraie question bête : est il si compliqué de développer une IA qui vérifie ces plaidoiries.
    Les gars écrivent des plaidoiries en 5 min?
    On est pas capable de les détruire à peine plus lentement?
    Surtout que les gens doivent donner des sources (articles, jurisprudence du xx/xx/xxxx etc).

  10. #30
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 401
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par totozor Voir le message
    Vraie question bête : est il si compliqué de développer une IA qui vérifie ces plaidoiries.
    Elle te générera, comme les autres, un texte plausible. Correct quand tu as de la chance, avec des illusions quand tu en as moins, genre elle invente des bons points ou des mauvais points que la plaidoirie n'a pas, ou de vrais critiques mais sur la base de raisons inventées. Si on pouvait faire ça, on pourrait tout aussi bien faire des plaidoiries qui tiennent la route. Tu ne peux jamais rien "vérifier" avec un LLM, quel que soit le prompt. Tu peux générer une analyse plausible, mais il faut toujours repasser derrière pour confirmer, sinon tu ne sais pas quand tu te baseras sur du bullshit.

    Et si par IA tu parles d'autre chose que du LLM, le soucis est que c'est une tâche de traitement du langage en premier lieu, là où justement les LLM sont bons. Le truc est qu'il faut combiner ça avec de la logique (juridique, pour le coup) ce qui est hors de leur portée. À voir avec les futures technos en cours de construction (JEPA ?).
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  11. #31
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Tu ne peux jamais rien "vérifier" avec un LLM, quel que soit le prompt.
    Et si par IA tu parles d'autre chose que du LLM, le soucis est que c'est une tâche de traitement du langage en premier lieu, là où justement les LLM sont bons. Le truc est qu'il faut combiner ça avec de la logique (juridique, pour le coup) ce qui est hors de leur portée. À voir avec les futures technos en cours de construction (JEPA ?).
    je comprends bien qu'on a besoin d'un LLM à la base pour identifier les sources mais ça ne doit pas être la mer à boire. Nous arrivons à développer des IA qui identifient des exigences ou retrouvent des sujets dans nos procédures alors que ce n'est pas notre coeur de métier, en grande partie parce que les documents sont très normalisés et les mots clés sont facile à retrouver ("jurispridence" "article" par exemple pour le juridique).
    Ne peut-on pas se contenter ensuite d'un "moteur de recherche automatisé" pour aller chercher les références? L'objectif premier est d'identifier les plaidoiries avec des fausses sources.
    On peut ensuite remettre une couche de LLM pour extraire le texte des source identifiée et sortir un facteur de corrélation.

    Je vois bien que la première étape est pas si évidente et le risque (qu'on voit chez les élèves) d'uniformisation des plaidoiries.
    Mais on se retrouve quand même face à des gens qui protègent leur profession de l'IA pour à la fin se transformer en porte parole de celles ci et qui ne se donnent même pas le mal de les relire et faire leur boulot.
    je suis sincèrement pour que les professionnels puissent se protéger des IA mais je pense aussi qu'il faut être sans pitié pour ceux qui se cache derrière ça mais n'assurent pas leur travail à la fin. Et si la vague est si grosse alors il faut combattre le feu par le feu ou embaucher une armée de "légicheckeurs" qui seront les légistes fraudeurs de demain

  12. #32
    Membre éprouvé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 462
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 462
    Par défaut
    Personnellement, ce qui m'étonne c'est que les avocats utilisent des LLM qui génère du bullshit alors que des IA du type systèmes experts existent et sont bien plus fiable (sans être parfaite).
    J'imagine qu'il y a la place pour une combinaison des deux : L'avocat entre une série de faits dans le système expert, qui sort ensuite une série de texte de lois applicables, les fourchettes des peines encourues et la jurisprudence sur ces cas là, puis le LLM synthétise ces résultat là, rien d'autre.

    Reste que la jurisprudence, c'est pas magique, c'est consigné par une poignée d'éditeurs qui doivent facturer cher l'accès à leur BDD.

  13. #33
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 268
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 268
    Par défaut
    ce n'est pas prêt de s'arreter.

    l'avocat peux traiter plus rapidement des affaires donc augmenter son ca.
    il peut aussi décider de baisser les couts pour élargir sa clientèle.

    A la fin ca fera une justice bien plus engorgé. On pourrais imaginer ici une ia pour traiter les affaires les moins graves et si appel cela passerait par des humains.
    Une maison squatter par exemple, une ia pourrait très bien ordonné l'expulsion du squatteur dans la seconde, pas la peine de déranger un juge humain pour ça.


    Dans un monde parfait, bien sur la solution serait que l'avocat fasse bien son travail, il faudrait engager plus de juge/magistrat, mais la justice en france c'est un très petit budget qui ne peut être étendue (au détriment d'autre chose sinon) il faut trouver des solutions avec des moyens limité.
    et dans ce monde, les petits avocats vont préférer augmenter leurs CA quitte à bâcler le travail que de faire de la qualité. Surtout pour des affaires banals et répétitive (divorce, conflit voisinage, squat...)
    Pour les gros cabinet prestigieux, c'est la réputation du cabinet qui est en jeu donc je pense que la qualité primera.
    le génie logiciel c'est pareil, on ait des choix pour rester dans le budget, réduction des tests, on bâcle l'optimisation, on supprime certaines fonctionnalités utilisé...etc.

    ce n'est qu'une question de temps mais les métiers de comptable, avocat, et même médecin seront tot ou tard plus protégé par les états et ce sera open bar pour les ia. d'ici 10-20ans je pense qu'avoir une ia comptable, une ia avocat et une ia médecin généraliste sera la norme.
    Ça répond déjà à un besoin, aux usa celui qui veut pas mettre 500€ dans une consultation médicale ou un avocat utilise déjà chatgpt et se débrouille.
    Je connais nombre d'étudiants qui se forme avec chatgpt, le prof ne sert juste qu'a donner des polycopier et surveiller la salle pendant les examens. Beaucoup prefere la qualité d'un cours personnalisé avec chatgpt que un cours magistrale. Un prof qui parle à 30 élèves dans un collège ou 200dans un fac, ca ne sert à rien.
    J'ai même déjà vu des facs engorgé en france, un amphi avec le prof et un autre amphi c'est une grosse télé avec le cours en direct. Des étudiants ont même cassé cette télé pour empêcher la moitié de la promo d’accéder aux cours et d'avoir un avantage au concours, seul ceux qui se levait à 5h du mat et faisait la queue devant l'amphi avait une chance.

    l'école de mes gosses et payante mais c'est 15 élèves dans la classe avec 2 profs, la oui y'a une value d'avoir un humain. Mais cela a un prix.
    prix que peu peuvent/veulent mettre, déjà que les profs en france se plaignent d’être pas assez bien payé.

    Il y'a les dur réalités économique qui forceront ces secteurs encore protégé a s'ouvrir à l'ia.
    La France est un pays qui redistribue tout sauf de l'espoir.

  14. #34
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par calvaire Voir le message
    Ça répond déjà à un besoin, aux usa celui qui veut pas mettre 500€ dans une consultation médicale ou un avocat utilise déjà chatgpt et se débrouille.
    Et soigne sa dépression en se pendant.
    l'école de mes gosses et payante mais c'est 15 élèves dans la classe avec 2 profs, la oui y'a une value d'avoir un humain. Mais cela a un prix.
    Bienvenue dans le capitalisme : tu veux sortir du lot? Payes.

Discussions similaires

  1. Réponses: 12
    Dernier message: 07/01/2016, 10h31
  2. [2008] Requête qui duplique des lignes en fonction d'une valeur dans un champ
    Par Fredo67 dans le forum Développement
    Réponses: 6
    Dernier message: 27/01/2015, 13h03
  3. Réponses: 5
    Dernier message: 27/02/2013, 12h47
  4. Réponses: 0
    Dernier message: 25/07/2010, 18h22
  5. [MySQL] Récupérer des données de MySQL et les envoyer dans un PDF
    Par cdevl32 dans le forum PHP & Base de données
    Réponses: 12
    Dernier message: 16/03/2009, 21h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo