IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #561
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    juillet 2010
    Messages
    591
    Détails du profil
    Informations personnelles :
    Âge : 31
    Localisation : France

    Informations forums :
    Inscription : juillet 2010
    Messages : 591
    Points : 2 412
    Points
    2 412
    Par défaut
    Je ne pense pas que ce soit une mauvaise chose au final.

    La revue par les pairs repose beaucoup trop sur la confiance.
    Il va falloir faire évoluer le système et le rendre plus résilient.

    Les éditeurs vont forcement tirer la gueule, car si j'ai bien compris comment le système de publication actuel fonctionne, la revue par les paires se fait de manière non rémunérée et est soumises à plusieurs biais. Améliorer cela va forcement demander plus de moyens, et donc leur coûter de l'argent.

    Peut être aussi revoir le système de validation. Qu'on me corrige si je me trompe mais de ce que j'ai compris seuls les résultats positifs sont publiés. Ce qui me semble assez aberrant, mais je ne suis pas du domaine...
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  2. #562
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    octobre 2019
    Messages
    1 188
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : octobre 2019
    Messages : 1 188
    Points : 4 859
    Points
    4 859
    Par défaut
    n'est il pas possible de développer une ia pour vérifier les études ? de donner un score de confiance a chaque paragraphe par exemple
    je tiens une idée de startup la
    l'ia de fake checking

  3. #563
    Expert confirmé
    Avatar de GLDavid
    Homme Profil pro
    Service Delivery Manager
    Inscrit en
    janvier 2003
    Messages
    2 843
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 46
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Service Delivery Manager
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : janvier 2003
    Messages : 2 843
    Points : 4 688
    Points
    4 688
    Par défaut
    Bonjour
    Je vois de mon côté les limites du
    Publish or Perish
    .
    La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
    Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
    • Générer des données aléatoires ou fausses
    • Générer du texte truqué et un raisonnement/méthode bidon
    • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

    J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
    Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
    C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

    @++
    GLDavid
    Consultez la FAQ Perl ainsi que mes cours de Perl.
    N'oubliez pas les balises code ni le tag

    Je ne répond à aucune question technique par MP.

  4. #564
    Membre confirmé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    juin 2022
    Messages
    191
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : juin 2022
    Messages : 191
    Points : 632
    Points
    632
    Par défaut
    C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?

  5. #565
    Expert confirmé
    Avatar de GLDavid
    Homme Profil pro
    Service Delivery Manager
    Inscrit en
    janvier 2003
    Messages
    2 843
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 46
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Service Delivery Manager
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : janvier 2003
    Messages : 2 843
    Points : 4 688
    Points
    4 688
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?
    C'est en effet le sel de la recherche: te baser sur les travaux des autres pour mener les tiens. Ce que Newton avait décrit par
    Si j'ai pû voir si loin, c'est parce que je suis monté sur les épaules des géants
    .
    Les articles en ce moment, c'est plus du sensationnalisme ou de la production de papiers alimentaires. Encore une fois, c'est le système Publish Or Perish qui mène à une telle corruption de la Science.

    @++
    GLDavid
    Consultez la FAQ Perl ainsi que mes cours de Perl.
    N'oubliez pas les balises code ni le tag

    Je ne répond à aucune question technique par MP.

  6. #566
    Membre actif
    Homme Profil pro
    amateur
    Inscrit en
    juillet 2015
    Messages
    78
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : juillet 2015
    Messages : 78
    Points : 299
    Points
    299
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Un chercheur français repère l'utilisation illégitime de ChatGPT dans des articles
    [...]
    De nombreux éditeurs, dont Elsevier et Springer Nature, ont déclaré que les auteurs pouvaient utiliser ChatGPT et d'autres grands modèles de langage (LLM) pour les aider à rédiger leurs manuscrits, à condition qu'ils le déclarent. Toutefois, Springer Nature a annoncé en début d’année que ChatGPT, ou tout système similaire de génération de texte, ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. [...]
    Pour toutes choses il faut raison garder.
    • Je ne vois aucune raison de se priver de l'usage d'un outil s'il apporte des bénéfices (et sous réserve de contreparties acceptables)
    • Comme tout outil, il faut apprendre à s'en servir.


    Je vous laisse décliner ces deux affirmations sur les exemples cités.
    Si les articles scientifiques sont de la daube (non originales, erronées etc) il n'y a pas lieu d'en incomber la responsabilité à l'outil. De nombreux articles sont pourris sans l'aide de l'IA.


    Une anecdote au sujet du volet "triche": Durant ma scolarité j'ai eu l'occasion de faire des antisèches. J'en préconise la pratique: préparer de façon concise de tels aide-mémoire est un moteur puissant pour comprendre le cours, en capter l'essentiel, et retenir ces informations.
    Pour autant que je m'en souvienne, je ne les ai jamais exploitées.

  7. #567
    Membre du Club
    Homme Profil pro
    Chef
    Inscrit en
    décembre 2009
    Messages
    17
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 72
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Chef

    Informations forums :
    Inscription : décembre 2009
    Messages : 17
    Points : 41
    Points
    41
    Par défaut ChatGPT contre ChatGPT
    Finalement, cela pourrait être simple : utiliser ChatGPT pour savoir si un article a été écrit par/avec ChatGPT !

  8. #568
    Membre à l'essai
    Profil pro
    Inscrit en
    décembre 2006
    Messages
    21
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2006
    Messages : 21
    Points : 20
    Points
    20
    Par défaut
    C'est comme pas mal de choses : il y a des bons et des mauvais cotés !
    Je me limite ici au domaine que je connais : celui des articles scientifiques.

    D'une part, la génération de texte pour un chatGPT-like pourrait permettre d'améliorer la syntaxe en anglais de pas mal d'articles et donc de les rendre plus facile à lire et à "référer", voire même d'éviter les auto-plagiats, en demandant de reformuler tel ou tel paragraphe d'introduction ou d'exposition de la méthode, qu'on a déjà écrit pas mal de fois ! Cela permettrait de faciliter la publication pour les non-anglophones natifs.

    D'autre part, il va falloir que les éditeurs investissent un peu pour détecter l'utilisation de l'IA : par exemple un script qui va prendre les références une à une, chercher leur DOI et le suivre pour s'assurer que l'article existe bien (ce qui existe d'ailleurs déjà chez certains éditeurs qui nous disent lors des proofs qu'on a un bug dans telle ou telle référence, ce qui pourrait être fait avant le processus de refereeing plutôt qu'après !)
    Ceci dit, pour avoir référé pas mal de papiers en y passant le plus souvent un temps non négligeable, je sais que j'ai pu parfois trouver de vraies erreurs, mais que je serais très étonné d'apprendre que je n'en ai jamais laissé passer ! ;-)
    Dans le domaine scientifique, les éditeurs pourraient peut-être aussi regarder du coté du couplage entre une techno style Wolfram alpha et celle de chatGPT, pour s'assurer ne serait-ce que du fait qu'on a bien toutes les formules et données pour retrouver une application numérique dans les articles expérimentaux, voire s'assurer qu'un enchainements de formules est bien exact dans des articles plus théoriques. Je vois même un partenariat possible avec certains éditeurs de logiciels de calculs symboliques qui pourraient ainsi repérer des cas où leur logiciel ne sait pas répondre et avoir ainsi des idées de nouvelles fonctionnalités leur permettant de continuer à justifier les changements de version qu'ils nous font payer ! ;-)

    => une IA pour détecter l'IA ?! ;-)

  9. #569
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    7 968
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 7 968
    Points : 188 136
    Points
    188 136
    Par défaut Un juge britannique estime que ChatGPT est « très utile » après l'avoir utilisé pour rédiger une décision
    Un juge britannique estime que ChatGPT est « très utile » après l'avoir utilisé pour rédiger une décision,
    et a déclaré que la technologie a un « réel potentiel »

    Un juge de la Cour d’appel britannique a révélé qu’il avait utilisé ChatGPT, un chatbot basé sur l’intelligence artificielle, pour l’aider à rédiger une partie d’une décision de justice. Le juge Birss, spécialiste du droit de la propriété intellectuelle, a qualifié l’outil de génération de texte de « très utile » et a déclaré que la technologie a un « réel potentiel ».

    Lord Justice Birss, spécialisé dans le droit de la propriété intellectuelle, a déclaré qu'il avait demandé à l'outil d'IA de fournir un résumé d'un domaine du droit et qu'il avait reçu un paragraphe qu'il jugeait acceptable comme réponse. Lors d’une conférence organisée par le Barreau, il a déclaré que les grands modèles linguistiques génératifs avaient un « réel potentiel ».

    « Je pense que ce qui est le plus intéressant, c'est que vous pouvez demander à ces grands modèles linguistiques de résumer des informations. C’est utile et ce sera utilisé, d'ailleurs je peux vous dire que je l’ai utilisé », a-t-il déclaré. « J’assume l’entière responsabilité personnelle de ce que j’ai mis dans mon jugement, je n’essaie pas de confier la responsabilité à quelqu’un d’autre. Tout ce que cela faisait, c’était une tâche que j’étais sur le point d’accomplir et dont je connaissais la réponse et que je pouvais reconnaître comme acceptable ».

    Il s’agit du premier cas connu d’utilisation de ChatGPT par un juge britannique pour écrire une partie d’un jugement. Cette pratique est controversée, car ChatGPT peut commettre de nombreuses erreurs.

    Les scientifiques, les écrivains et d’autres professionnels ont déjà trouvé l’exactitude de ChatGPT peu fiable depuis son lancement l’année dernière, et il est devenu connu pour avoir un « problème d’hallucination » dans lequel de fausses informations sont générées.

    Plus tôt cette année, ChatGPT a faussement accusé un professeur de droit américain en l'incluant dans une liste générée de juristes qui avaient harcelé sexuellement quelqu'un, citant un rapport inexistant du Washington Post.

    ChatGPT a déjà induit en erreur des professionnels du droit

    Il y a quelques mois, un avocat a utilisé ChatGPT pour générer et citer des affaires fictives dans un mémoire juridique, provoquant la fureur du juge et des sanctions potentielles. Lorsqu’on lui a demandé de fournir des copies des affaires citées, l’avocat s’est tourné à nouveau vers ChatGPT, qui a produit des détails complets sur les affaires inexistantes.

    Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.

    Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et « l'effet de péage de la suspension automatique d'un délai de prescription ».

    Il y avait juste un hic : personne (ni les avocats de la compagnie aérienne ni le juge lui-même) n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.

    C'était parce que ChatGPT avait tout inventé, tout en assurant à l'avocat que ces affaires étaient réelles.

    En fait, ce n’est qu’après que les avocats de la compagnie aérienne ont souligné dans un nouveau mémoire que les affaires n’existaient pas que Schwartz a découvert son erreur (ou, l’erreur de l’ordinateur, selon le point de vue).

    Les avocats ont été condamnés à payer une amende de 5 000 dollars.

    Nom : juge.png
Affichages : 624
Taille : 376,2 Ko

    Les régulateurs et les tribunaux doivent contrôler l'utilisation de ChatGPT dans les litiges

    Les régulateurs juridiques et les tribunaux devront peut-être contrôler « si, dans quelles circonstances et à quelles fins » les avocats peuvent utiliser des systèmes d’intelligence artificielle (IA) comme ChatGPT dans les litiges, a déclaré le Master of the Rolls. Il s'agit du troisième plus important juge du Royaume-Uni, après le Président de la Cour Suprême du Royaume-Uni et le Lord Chief Justice. À ce titre, il préside la section civile de la Cour d'appel.

    Sir Geoffrey Vos (puisqu'il s'agit de lui) a déclaré qu'il faudrait des mécanismes pour gérer l'utilisation de l'IA générative au sein du système juridique.

    « Nous pourrions même, espérons-le, en faire profiter l’accès à la justice, ainsi que des conseils juridiques et une résolution des litiges efficaces et économiques. »

    S'adressant à la conférence sur le droit et la technologie de la Law Society of Scotland en juin, Sir Geoffrey a souligné le cas de l'avocat new-yorkais Steven Schwartz, qui a utilisé ChatGPT pour préparer ses arguments dans une affaire de préjudice corporel. Six des cas cités étaient, selon les termes du juge, « de fausses décisions avec de fausses citations ». Et ce malgré le fait que Schwartz ait demandé au système de confirmer leur exactitude.

    « M. Schwartz n'a pas été découvert en raison du langage utilisé dans son mémoire, mais parce que le juge chargé de cette affaire a pris la peine de rechercher les cas cités. Sans doute que cela n’arrive pas toujours », a déclaré le Sir Geoffrey Vos. « Les risques que courent les justiciables utilisant ChatGPT en personne pour créer des soumissions plausibles doivent être encore plus palpables. Et en effet, un tel événement aurait eu lieu à Manchester il y a seulement quelques jours ».

    L’affaire a montré que les avocats ne pouvaient pas utiliser l’IA générative pour rogner sur les coûts. « Je soupçonne que les outils d’IA non spécialisés n’aideront pas les avocats professionnels autant qu’ils le pensent, même si je suis convaincu que les IA juridiques spécialisées seront une autre histoire. »

    Il a déclaré que Spellbook affirmait déjà avoir adapté « GPT-4 pour réviser et suggérer le langage de vos contrats et documents juridiques ».

    « Il est peu probable que les clients paient pour des choses qu'ils peuvent obtenir gratuitement », a déclaré Sir Geoffrey, faisant écho aux commentaires qu'il avait faits en avril. « M. Schwartz aurait bien fait de lire l’article d’Enyo Law, qui souligne que le grand modèle linguistique est là pour "aider" les avocats et doit être soigneusement vérifié ». « Néanmoins, si les mémoires peuvent être rédigés par ChatGPT et Spellbook, vérifiés par des avocats, les clients feront probablement pression pour que cela se produise si cela est moins cher et permet d'économiser du temps aux salariés coûteux ».

    Dans les litiges du moins, a poursuivi Sir Geoffrey, « le facteur limitant peut être la cour ou le tribunal qui statue sur le différend ».


    Un juge en Colombie a également utilisé ChatGPT

    En Colombie, un juge a admis avoir utilisé ChatGPT pour décider si l’assurance d’un enfant autiste devait couvrir tous les frais de son traitement médical.

    Le juge de la ville caribéenne de Carthagène, Juan Manuel Padilla, a conclu que les frais médicaux et les frais de transport de l’enfant devaient être pris en charge par son assurance maladie, car ses parents ne pouvaient pas les payer.

    Padilla pose à l'outil d'IA des questions spécifiques sur la question juridique, telles que : « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ?

    La réponse de ChatGPT était en accord avec la décision finale du juge.

    Conclusion

    ChatGPT est un outil basé sur un modèle de langage artificiel qui peut générer du texte à partir d’une entrée donnée. Il peut être utilisé pour diverses applications, telles que la rédaction de résumés, de poèmes, de dialogues, etc. Il peut également répondre à des questions spécifiques sur un sujet donné 5.

    ChatGPT n’est pas le seul outil d’intelligence artificielle utilisé dans le domaine juridique. D’autres logiciels peuvent aider les avocats à analyser des documents, à rechercher des précédents, à prédire des résultats ou à automatiser des tâches administratives. L’utilisation de l’intelligence artificielle dans le système judiciaire soulève toutefois des questions éthiques et juridiques,

    Pour un professionnel de l'informatique : « ChatGPT n'est pas une source vraiment fiable. Il est indéniable qu’il s’agit de l’un des meilleurs outils de génération de contenu d’intelligence artificielle, mais la précision sur de nombreux sujets n’est toujours pas aussi bonne qu’on le souhaiterait ».

    Rosie Burbidge, associée en propriété intellectuelle chez Gunnercooke LLP, a déclaré : « L'IA, y compris les chatbots, représente une énorme opportunité pour la profession juridique, y compris les juges. Cependant, les avocats doivent être conscients des nombreux risques, notamment le partage d’informations confidentielles, la renonciation à des privilèges et le risque de perte de propriété d’actifs de propriété intellectuelle clés tels que les précédents standards. »

    Source : Law Society Gazette

    Et vous ?

    Quel pourrait être l’impact de l’utilisation de ChatGPT sur la confiance du public dans le système judiciaire ?
    Quels sont les avantages et les inconvénients de l’utilisation de ChatGPT par les juges pour rédiger des décisions de justice ?
    Quels sont les risques liés à l’utilisation de ChatGPT dans ce milieu ?
    Peut-on définir des critères de qualité et de fiabilité que ChatGPT pour une utilisation dans le domaine juridique ? Si oui, lesquels ?
    Quelles sont les garanties de transparence et de responsabilité que les juges doivent offrir lorsqu’ils utilisent ChatGPT ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 29
    Dernier message: 26/04/2023, 20h15
  2. Réponses: 49
    Dernier message: 13/12/2015, 14h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo