Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    juin 2016
    Messages
    504
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 504
    Points : 17 639
    Points
    17 639

    Par défaut L'intelligence artificielle peut-elle aider à rendre les décisions de justices moins biaisées ?

    L'intelligence artificielle peut-elle aider à rendre les décisions de justices moins biaisées ?
    Oui, selon un expert

    Alors que des spéculations font état de ce dont l’intelligence artificielle serait en train de menacer la démocratie telle que nous la connaissons, des études sur les possibilités d’user de l'intelligence artificielle et/ou de l’apprentissage automatique pour rendre la justice font surface. Un récent b de Paul Nemitz présentait, ce qu’il pense être les raisons pour lesquelles l’IA avance vers un niveau dangereux pour la démocratie. Il ne fait aucun doute, l’intelligence artificielle atteint des proportions grandissantes au sein de notre société et cela dans beaucoup de domaines. Cependant, le cadre juridique autour des TIC et notamment cette technologie semble très en retard pour contrôler leur ingérence dans nos vies.

    La santé, l’éducation, la médecine, la mobilité, la communication, le commerce, etc. ; tous ses domaines sont couverts par l’IA d’aujourd’hui. À l’horizon, selon Daniel Chen, Chercheur et Professeur à l'Université Toulouse Capitole, on pourrait bientôt inclure dans cette longue liste le droit dans l’objectif d’avoir plus de crédibilité dans certaines décisions rendues par les juges de tribunaux. On pourrait penser à ce stade que l’IA viendra combler les "lacunes" du droit. Jugez-vous cela possible ? Les idées de Chen sont publiées dans un document intitulé “Apprentissage automatique et État de droit”. Chen préconise donc d’utiliser l’apprentissage automatique pour réduire les décisions parfois biaisées des juges. L’apprentissage automatique va apprendre des décisions déjà rendues dans les cours et tribunaux, faire des analyses et apporter des améliorations sur celles contenant des biais humains.

    Encore une fois, le big data, l’apprentissage automatique et l’intelligence artificielle tenteront peut-être de voler la vedette aux juges. Une invention de l’homme pour le juger lui-même ? « L’analyse judiciaire prédictive promet d’accroître l’équité du droit. De nombreux travaux empiriques observent des incohérences dans le comportement des juges. En prédisant les décisions judiciaires avec plus ou moins de précision, en fonction d'attributs judiciaires ou de caractéristiques de procédure. L'application automatique permet de détecter les cas où les juges sont le plus susceptibles de laisser des préjugés juridiques supplémentaires influencer leur prise de décision.

    Nom : index.jpeg
Affichages : 1123
Taille : 93,4 Ko

    En particulier, une faible précision prédictive peut identifier des cas d'indifférence judiciaire, lorsque les caractéristiques de l'affaire (interaction avec les attributs judiciaires) ne disposent pas d'un juge en faveur d'un résultat ou d'une autre. Dans de tels cas, les préjugés peuvent avoir une plus grande influence, impliquant l'équité du système juridique », écrit-il comme résumé au sein de son document. Pour expliquer ses paroles, il parle du fait que de plus en plus de juges s'aventurent dans le vaste monde de la politique et d’autres domaines qui pourraient influencer sur leurs décisions de justice. Il cite également d’autres éléments qui seraient aussi des causes des nombreux biais judiciaires.

    Il conte notamment l’influence de l'ancrage ou encore le biais égocentrique. « L'avènement des outils d'apprentissage automatique et leur intégration avec les données juridiques offre un mécanisme pour détecter les biais juridiques en temps réel temps, et ainsi remédier au comportement judiciaire qui porte atteinte à la règle de loi. Ce commentaire présente un cadre conceptuel pour comprendre le vaste ensemble de conclusions comportementales sur la prise de décision judiciaire et puis, prendre des mesures pour assurer un traitement plus juste des sujets de droit par le système légal », explique-t-il. D’après lui donc, les biais comportementaux sont plus susceptibles de se manifester dans des situations où les juges sont plus proches des sujets de droit.

    Si les algorithmes peuvent identifier les contextes susceptibles de générer des biais, ils peuvent également réduire ces biais en donnant des coups de pouce comportementaux et autres mécanismes tels que l’éducation judiciaire. Le moins que l'on puisse dire, c'est que les progrès de l'IA dans ce sens sont en de bonnes voies. En effet, une étude effectuée en octobre 2018 a soumis une vingtaine d’avocats à un test au cours duquel ils devaient déceler les problèmes dans cinq accords de non-divulgation qui constituent une base contractuelle pour la plupart des transactions commerciales.

    Pour le test, les vingt avocats experts en révision de contrats se sont retrouvés opposés à une intelligence artificielle, LawGeex AI. Ladite intelligence artificielle à laquelle les avocats ont été confrontés, a réussi à atteindre un taux de précision moyen de 94 %, un chiffre largement supérieur à celui des avocats qui s’élevait à 85 %. Il a fallu en moyenne 92 minutes aux avocats pour mener à bien la recherche contre 26 secondes pour l’intelligence artificielle.

    Rappelons qu’en 2016, le journal Le Monde écrivait par rapport à l’échec des logiciels de préventions des risques de récidive aux USA. « Une enquête de ProPublica montre que ces logiciels, très utilisés outre-Atlantique, donnent des résultats erronés et défavorisent les Noirs. Aux États-Unis, de nombreuses juridictions locales utilisent des logiciels prédictifs pour tenter d’évaluer les risques de récidive des prévenus. Conçus comme des programmes d’aide à la décision pour les juges, lorsqu’ils doivent décider d’une mise en liberté sous caution ou d’une condamnation, ces programmes notent le plus souvent les prévenus sur une échelle de 1 à 10, 10 représentant un risque exceptionnellement fort de récidive », avait écrit le journal. Un exemple de ces algorithmes est le logiciel COMPAS utilisé aux Etats-Unis.

    Source : SSRN, Le Monde

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

    Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques

    Google absorbe l'unité de santé de DeepMind pour transformer son application mobile Streams en assistant boosté à l'IA pour infirmières et médecins

    70 % des projets d'IA dans le commerce numérique sont couronnés de succès d'après un sondage réalisé par Gartner

    Des chercheurs du MIT créent la première intelligence artificielle psychopathe pour illustrer le problème de biais des données nourries aux IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé

    Homme Profil pro
    Écrivain public
    Inscrit en
    août 2005
    Messages
    125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Écrivain public
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : août 2005
    Messages : 125
    Points : 1 076
    Points
    1 076
    Billets dans le blog
    33

    Par défaut Philosophe-t-on ?

    Pour que l'IA soit utilisée pour jugement, il faudrait que les juges comprennent non seulement ce qu'est un ordinateur, mais aussi la programmation.

    En effet, l'IA ne fonctionne qu'avec du triage. Or quelqu'un qui réfléchit scientifiquement grâce à son intelligence inter-personnelle pourrait faire mieux, encore faudrait-il qu'on apprenne à philosopher scientifiquement à l'école, ce qu'ont fait les enfants pour apprendre à parler et à marcher.

    Un cours de philosophie ça n'est pas philosopher. Lorsque j'ai demandé à quelqu'un qui apprenait le droit ce sur quoi il devait philosopher, il ne savait pas. Un autre ne voulait aucunement réfléchir, ce qui est encore plus problématique. Or juger consiste à philosopher autour de la phrase "la liberté des uns s'arrête là où commence celle des autres." Le livre Le droit des gens a été construit sur cette base :
    https://archive.org/details/Liberlog

    Voici le parcours de quelqu'un qui a réussi à philosopher, parmi notre élite :

    https://rutube.ru/video/b2f473ad903c...0aea302a71dee/
    Matthieu Giroux - Rennes - 13 Rue François Tanguy Prigent A 15
    Livres : editions.liberlog.org/
    Contact : matthius@framasphere.org
    Tous les liens : www.agoravox.tv/auteur/matthius

  3. #3
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    octobre 2013
    Messages
    589
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : octobre 2013
    Messages : 589
    Points : 1 548
    Points
    1 548

    Par défaut

    La justice est aveugle et doit l'être.
    Et une machine peut l'être

    Pour ne pas défavoriser le prévenu qui se défend mal, qui ne présente pas bien.
    Ou l'inverse celui trop parfait qui agace les jurées, par sa perfection ou son assurance.
    Et encore qui va touché par son histoire, car parfois ça va bien au delà des circonstances atténuantes.
    Il est dur pour les victimes de s'entendre dire qu'elles sont victimes des victimes de la société.
    C'est dur pour un humain de ne pas être influencé.
    Juger les faits et rien que les fait.

    Mais le danger est que cette machine judiciaire soit impitoyable, qu'elle se détraque, comme dans le film Brazil.
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  4. #4
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 957
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 957
    Points : 6 272
    Points
    6 272
    Billets dans le blog
    3

    Par défaut

    Citation Envoyé par Bill Fassinou Voir le message
    L'intelligence artificielle peut-elle aider à rendre les décisions de justices moins biaisées ?
    Oui, selon un expert
    Bien sûr, à condition qu'on l'utilise dans ce sens.

    La tendance actuelle est d'utiliser et sur-utiliser les systèmes à apprentissage basés sur des jeux de données (supervisés). Or, ceux-ci ne font que "répéter" les comportements observés dans les données. C'est bien pour gagner du temps, mais ça conserve la plupart des biais, utiles comme préjudiciables. Ce n'est donc pas vers cela qu'il faut se tourner si l'on souhaite éviter les biais existants. Il reste cependant intéressant d'en faire pour gagner du temps, un besoin réel mais tout à fait différent.

    Les systèmes sans jeu de données (non supervisés) apparaissent comme les moins sujets aux biais, mais manquent hélas de la dimension humaine nécessaire pour juger. En effet, juger ne se limite pas à appliquer des règles strictes, exprimables de manière mathématique. Il s'agit d'interpréter des lois en ayant conscience de pratiques et situations, actuelles ou historiques.

    Les systèmes experts, je n'en parle même pas, ceux-là dépendent encore plus de ces règles qu'on aurait tant de mal à exprimer mathématiquement.

    Bref, il ne fait aucun doute qu'il y a de la matière à travailler pour améliorer l'application du droit, mais il ne s'agit pas de se lancer bêtement dans des techniques populaires en se disant qu'on va révolutionner la justice.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Arbre Map utilisé comme clé dans un arbre map
    Par da_latifa dans le forum Débuter
    Réponses: 5
    Dernier message: 14/07/2015, 15h15
  2. Réponses: 27
    Dernier message: 27/03/2015, 11h40
  3. Graal : le compilateur dynamique Java pourrait être utilisé dans les JVM
    Par Hinault Romaric dans le forum Général Java
    Réponses: 40
    Dernier message: 05/04/2012, 00h59
  4. Réponses: 2
    Dernier message: 08/01/2012, 03h16

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo