IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La France bannit les IA de prédiction des comportements des juges


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Michael Guilloux
    Homme Profil pro
    Data Consultant
    Inscrit en
    Juillet 2013
    Messages
    2 889
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Data Consultant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2013
    Messages : 2 889
    Points : 87 226
    Points
    87 226
    Billets dans le blog
    2
    Par défaut La France bannit les IA de prédiction des comportements des juges
    La France bannit les IA de prédiction des comportements des juges
    les technologies de justice prédictive sont-elles une menace pour la société ?

    L'intelligence artificielle et l'analytics touchent un nombre croissant de secteurs et le domaine juridique n'en est pas épargné. Outre les tentatives de remplacer les juges par des algorithmes ou de laisser à ces derniers le soin de décider du sort de certains criminels, l'IA est également utilisée en justice prédictive.

    En effet, dans certains pays, y compris en France, des cabinets d'avocats font appel à des entreprises qui vantent des technologies juridiques capables d'analyser des millions de décisions de justice à la seconde, ce qui permet par exemple d'évaluer la probabilité de succès d'une action contentieuse. Mais ces entreprises technologiques du secteur juridique construisent également des modèles de comportement des juges sur certaines questions ou face à différents arguments juridiques. Avec de telles informations, les cabinets d'avocats peuvent optimiser leurs stratégies devant les tribunaux.


    Aux États-Unis et au Royaume-Uni, les juges semblent avoir accepté le fait que des entreprises technologiques analysent leurs décisions de manière extrêmement détaillée et créent ensuite des modèles de leurs comportements. Mais en France, les juges n'acceptent pas ces pratiques. Dans une mesure qui vise à limiter le secteur émergent de l’analyse et de la prédiction de l'issue des contentieux, le gouvernement français a en effet interdit la publication d’informations statistiques sur les décisions des juges. C'est ce que stipule un passage de l'article 33 de la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice :

    « Les données d'identité des magistrats et des membres du greffe ne peuvent faire l'objet d'une réutilisation ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. » Toute personne qui enfreint la nouvelle règle peut encourir jusqu'à cinq ans de prison, ce qui semble être en ce moment le plus dur exemple de réglementation de technologie juridique dans le monde.

    Cette nouvelle loi vise à empêcher quiconque de révéler le comportement des juges dans les décisions de justice, mais ce sont visiblement les sociétés de technologie juridique spécialisées dans l’analyse et la prédiction de l'issue des litiges qui sont le plus ciblées.

    La nouvelle loi résulte directement d'un effort antérieur visant à rendre les décisions de justice facilement accessibles au grand public, pour plus de transparence dans le secteur. Mais cet effort a connu des oppositions à cause du besoin général d'anonymat ou encore de la crainte parmi les juges que leurs décisions révèlent un écart trop important par rapport aux normes attendues du droit civil. Cette loi serait donc un compromis avec le gouvernement : « les noms des juges ne devraient pas être retirés (à quelques exceptions près) des décisions de justice rendues publiques, mais ils ne pourront pas non plus être utilisés à des fins statistiques », explique un expert français de technologie juridique.

    Il est clair qu'il doit y avoir des limites aux données que les sociétés de technologie de l'information peuvent être autorisées à collecter sur des particuliers. Mais pour les critiques de cette nouvelle loi, les décisions des juges rendues publiques sont des « données publiques » et leur utilisation ne devrait pas être restreinte de cette manière. Ce serait en effet comme donner à quelqu'un l’accès à une bibliothèque publique, mais lui interdire de lire certains livres qui se trouvent juste sur l’étagère, à la vue de tous. Pour eux, si une affaire juridique relève déjà du domaine public, toute personne qui le souhaite devrait avoir le droit de procéder à une analyse statistique des données qui en découlent afin de répondre à des questions qu'elle se pose. Après tout, comment une société peut-elle dicter comment les citoyens sont autorisés à utiliser des données et à les interpréter si ces données ont déjà été rendues disponibles au public par un organisme public tel qu'un tribunal ?

    Source : Legifrance

    Que pensez-vous de cette loi ?
    Selon vous, faut-il pénaliser l'analyse des décisions de justice à des fins de prédiction des comportements des juges ou de l'issue des contentieux ?
    Ces technologies de justice prédictive constituent-elles une menace pour la société ?

    Voir aussi :

    Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort
    L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert
    Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
    Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui
    La technologie de reconnaissance faciale d'Amazon identifie à tort 28 membres du Congrès US comme des criminels, quels dangers pour les Américains ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 503
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 503
    Points : 5 708
    Points
    5 708
    Par défaut
    C'est dommage cet obscurantisme de la part du gouvernement, parce que ce genre d'études aurait peut être pu révéler des dysfonctionnements ou des points à améliorer du coup.

    Donc la on doit s'obliger à se bander les yeux, donc si on fait de la merde on en saura rien et on va continuer à faire de la merde. Technique typique de fonctionnaire.
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  3. #3
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 764
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 764
    Points : 7 187
    Points
    7 187
    Par défaut
    L'IA se trompe aussi donc il y a match nul entre l'humain et la machine. Je pense qu'il y a une question d'éthique à respecter.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 503
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 503
    Points : 5 708
    Points
    5 708
    Par défaut
    Pourquoi un "match" ? Tu veux remplacer un juge par une IA ?
    Déjà pouvoir analyser les résultats ça serait bien dans un premier temps.
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  5. #5
    Membre confirmé

    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    786
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2008
    Messages : 786
    Points : 602
    Points
    602
    Par défaut
    Je pense que cela aurait révélé la vraie nature de l'Homme. (car entre autre basé sur le deep learning et apprise sur des cas humains: l'histoire).
    Pour pas voir sa vraie médiocrité/cruauté/responsabilité le bourreau ne préfère pas que ca se sache.

  6. #6
    Membre confirmé
    Homme Profil pro
    Technicien réseau
    Inscrit en
    Septembre 2013
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Technicien réseau
    Secteur : Service public

    Informations forums :
    Inscription : Septembre 2013
    Messages : 133
    Points : 458
    Points
    458
    Par défaut
    Le fait est que il est a peu près sur que les grandes entreprises et autres personnes qui en ont les moyens utiliserais très certainement ces données à leurs avantages pour influer sur une décision de jugement ce qui ne devrais pas être possible et rendrais la justice plus inégalitaire encore, la fracturant plus encore notamment entre les riches et les pauvres. Je ne suis pas tout a fait contre une utilisation pour "améliorer" la justice et peut être la rendre moins biaisé, mais les algorithme ont tendance aussi a se biaisé même sans volontés préalable aussi je suis assez, disons septique. Sur un sujet aussi important que la justice il faudrait vraiment des études très approfondis pour définir le rôle de l'IA (même si c'est un abus de langage) et du deep learning dans les apports qu'ils peuvent avoir.

  7. #7
    Membre chevronné
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Juillet 2007
    Messages
    884
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juillet 2007
    Messages : 884
    Points : 2 018
    Points
    2 018
    Par défaut
    C'est plus que ridicule car rien n'interdit une entreprise Suisse ou américaine de lire et analyser ces données et rien n'empêche les français de la consulter. Je suis pour l'Open Source, l'Open data afin de combattre la corruption, d'améliorer le système par une remise en cause permanente. L'IA peut se tromper mais elle peut aussi nous ouvrir les yeux. Un peu comme un enfant dit la vérité que personne ne voit même s'il dit beaucoup de stupidité.
    Tout ce que j'écris est libre de droits (Licence CC0) et je vous incite à faire de même.

  8. #8
    Membre éprouvé
    Homme Profil pro
    -
    Inscrit en
    Octobre 2011
    Messages
    344
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : -

    Informations forums :
    Inscription : Octobre 2011
    Messages : 344
    Points : 1 235
    Points
    1 235
    Par défaut
    Mmh... Google translate a un problème d'auto-feedback : google translate crawle des sites traduit dans différentes langues pour apprendre à traduire, puis les gens utilisent google translate pour traduire leur site que google translate crawle par ensuite pour apprendre à traduire à partir de ses propres traductions foireuses… Et au final c'est l'IA qui a un certain degré décide d'elle-même des traductions correctes…

    Je me méfierais d'un problème similaire avec les juges… Je n'ai pas la naïveté de croire qu'il est impossible d'influencer l'impartialité d'un cours par réaction ou contre-réaction, ce sont des êtres humains, après tout. Je crois pas que ce soit un trop gros problème avec l'opinion publique plus émotionnelle qu'autre chose. Mais est-ce qu'il y a des psychologues qui se sont penchés si et comment des modèles « rationnels » peuvent influencer les juges, par auto-correction inconsciente de savoir qu'on a un score trop « hors-norme » ou trop « conforme » ? Et si c'est le cas a-t-on envisagé quel poids l'IA peu prendre dans les décision de justice par ce système d'auto-feedback ?

  9. #9
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 503
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 503
    Points : 5 708
    Points
    5 708
    Par défaut
    Ça intéresse surtout les sociétés d'avocats, pouvoir estimer les chances de gagner ou de perdre et combien, donc de savoir combien investir dans une affaire.
    Certains avocats ne demandent rien à leur client ils se paient avec un pourcentage sur la "recette".
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  10. #10
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Il ne s'agit pas de bannir les IA de prédiction des comportements des juges, mais de bannir les IA de prédiction et les statistiques relatives à un juge donné et identifié.


    L'objectif est donc d'éviter que les juges subissent une pression sous prétexte qu'ils ne "feraient pas comme leur collègues"/n'obtiendrait pas les mêmes chiffres. Ce qui pourrait alors biaisé les jugements rendus et compromettre l'impartialité et l'équité du juge.

    Il n'y a en revanche, a priori aucun problème si les données sont pseudomysée.
    Mais il faudrait tout de même que les instances de contrôles de la Justice puisse tout de même avoir accès à certains chiffres, ne serait-ce que pour détecter les cas qu'il faudrait suivre de plus près.

  11. #11
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 086
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 086
    Points : 5 606
    Points
    5 606
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    C'est dommage cet obscurantisme de la part du gouvernement, parce que ce genre d'études aurait peut être pu révéler des dysfonctionnements ou des points à améliorer du coup.
    Pour ce qui est des points à améliorer :
    • En finir avec l'empilement législatif
    • Supprimer les textes obsolètes et ceux qui se contredisent
    • Rédiger la loi dans un français clair et compréhensible ne donnant pas lieu à diverses interprétations
    • Simplifier les procédures et les rendre plus rapides
    • Arrêter de tout judiciariser (le droit opposable à ci et à ça)


    Tenter d'analyser le comportement d'un juge c'est lorsque l'on sait que l'on pas des arguments légaux assez solides, on va donc essayer de jouer sur la psychologie, cherchant des biais et/ou des sensibilités particulières pour essayer d'échapper à la sanction. De toute façon c'est pas pour les vulgaires péquins en délicatesse avec la police ou les mauvais payeurs de pensions alimentaires ça : c'est pour les gros poissons qui peuvent avoir les moyens de s'offrir ce genre de services "haut-de-gamme" (je pense à Monsanto par exemple) pour échapper à leur responsabilités...

    C'est très bien que la loi y mette un frein !

  12. #12
    Membre chevronné
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Avril 2009
    Messages
    1 048
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : Suisse

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2009
    Messages : 1 048
    Points : 2 201
    Points
    2 201
    Par défaut
    Je pense que l'adaptation d'un avocat en fonction du juge est quelque chose qui n'a pas attendu le Big Data pour se faire.

    Dans le circuit, ils doivent se connaître (le cercle n'est pas si grand que ça) et je doute pas un instant que le juge à une certaine partialité (de part son humanité) qu'il est possible d'exploité. La question se pose surtout sur "l'industrialisation" de ce processus d'apprentissage et le risque d'abus systématique.

    Un arrogant aura certainement une peine plus lourde que celui qui baisse la tête et ferme sa bouche quand le juge lui fait la morale pour un même délit. Ça c'est l'exemple évident du concept.

  13. #13
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Si j'ai bien compris, il ne s'agit pas d'interdire l'analyse statistique/la prédiction des décisions juridiques de manière générale. Il s'agit d'interdire que celles-ci se fassent avec une granularité de l'ordre de l'individuel. On évite donc l'optimisation juridique, qui vise à faire face aux juges les plus avantageux, mais on permet par exemple de faire une prédiction sur les chances de succès en général, et donc de savoir si ça vaut le coup d'aller en justice ou non. Pour faire une métaphore : les soldes existent toujours, mais on évite que certains arrivent à les avoir tous les jours.

    Je suis moi aussi dubitatif sur l'efficacité d'une telle mesure : les données sont de toutes façon disponibles. Si les statistiques ne sont plus compilées de manière officielle, cela engendrera juste un marché parallèle de compilation de ces données. Du reste : pas vu, pas pris.

    Mais au delà de l'efficacité de la mesure, autant je comprends l'idée de vouloir éviter les optimisations juridiques, autant pour moi c'est encore une fois viser à côté, comme toutes ces lois liées à l'"IA". Ce genre d'analyse permettrait par exemple d'identifier les corruptions potentielles des juges, tel un juge plus généreux que ses confrères sur certains types d'affaires. On me dit dans l'oreillette que ça forcerait psychologiquement les juges à aller toujours dans le même sens, et donc favoriserait un jugement biaisé par des normes de jugement pas forcément justifiées. Moi je pense que ces postes sont ceux d'intellectuels et de personnes autonomes, et que ça favoriserait donc plutôt les échanges de visions et réflexions entre juges, permettant d'améliorer les compétences de chacun.

    Il s'agit donc encore une fois d'un outil, qui peut bien sûr être utilisé à de bonnes comme de mauvaises fin. Ce qu'il faut interdire ce sont les mauvais usages, et non l'outil lui-même. On interdit de tuer, pas d'utiliser un couteau. On interdit d'électrocuter des gens, pas d'avoir son éolienne dans son jardin. On interdit de voler les gens, pas de crocheter sa propre serrure parce qu'on a paumé la clé. De la même manière, il ne s'agit pas d'interdire ce genre d'analyse et de prédiction, mais d'interdire leurs mauvais usages, tels que l'optimisation juridique.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 14
    Dernier message: 01/04/2019, 16h32
  2. Changer les points de montages des partitions
    Par Thrystan dans le forum Administration système
    Réponses: 6
    Dernier message: 13/08/2004, 16h46
  3. Réponses: 3
    Dernier message: 27/07/2004, 12h01
  4. Réponses: 3
    Dernier message: 24/10/2003, 21h46
  5. Créer les get et set des classes
    Par cameleon2002 dans le forum JBuilder
    Réponses: 3
    Dernier message: 17/09/2003, 21h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo