Affichage des résultats du sondage: Qui est responsable si une IA fait un mauvais diagnostic induisant un médecin en erreur ?

Votants
15. Vous ne pouvez pas participer à ce sondage.
  • Les développeurs de l'IA

    1 6,67%
  • Le centre de santé qui a eu confiance en l'IA

    0 0%
  • Le médecin, car l'IA n'est qu'un assistant

    9 60,00%
  • Personne, il faut prévoit une assurance pour couvrir ce genre d'incident

    2 13,33%
  • Autre (à préciser)

    3 20,00%
  • Pas d'avis

    0 0%
+ Répondre à la discussion Actualité déjà publiée
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    mars 2017
    Messages
    332
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : mars 2017
    Messages : 332
    Points : 8 358
    Points
    8 358

    Par défaut Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic

    Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic
    induisant un médecin en erreur ?

    L’établissement d’un diagnostic médical repose sur la collecte et le traitement hiérarchisés de diverses informations plus ou moins fidèles, précises et exploitables. Cette tâche étant parfois complexe, il arrive que les médecins puissent commettre des erreurs de diagnostic. Les conséquences : prescrire un mauvais traitement, ce qui pourrait aggraver l’état de santé des patients. Aux États-Unis, l’erreur médicale est la troisième cause de décès et au Royaume-Uni, jusqu’à un patient sur six dans le système de la santé publique reçoit un mauvais diagnostic. C’est donc un problème auquel certaines organisations s’intéressent, et l’intelligence artificielle a été trouvée comme une piste de solution.

    En tant qu’outil d’assistance, l’IA peut aider à réduire les erreurs de diagnostic médical et même découvrir très tôt certaines pathologies qui échappent aux médecins. Ce fut le cas par exemple pour IBM Watson qui en août dernier a découvert chez une patiente une leucémie rare, qui n'avait pas pu être détectée par les médecins. Google, pour sa part, utilise l'intelligence artificielle pour détecter la rétinopathie diabétique, une maladie qui expose près de 415 millions de diabétiques à la cécité.

    L’IA renferme donc le potentiel nécessaire pour révolutionner la pratique médicale telle qu’on la connait aujourd’hui. Pour de nombreux spécialistes, elle représente l’avenir du métier. À ce propos, Andrew McAfee, chercheur du MIT et coauteur du livre The Second Machine Age, a déclaré dans une interview accordée au journal Smart Planet : « si ce n’est pas encore le meilleur spécialiste du diagnostic au monde, ça (NDLR l’IA) le sera bientôt. »

    Nom : robotbaby.jpg
Affichages : 1872
Taille : 71,1 Ko

    Cela dit, l’IA peut donc être très utile dans la médecine, mais cela ne l'épargne pas complètement de commettre des erreurs. Si un médecin fait un mauvais diagnostic avec des conséquences graves, on peut qualifier cela de faute professionnelle et le tenir pour responsable, mais qu’en est-il de l’intelligence artificielle ? Si un problème affecte le patient à cause d’une erreur de diagnostic de l’IA, qui doit en endosser la responsabilité ?

    On pourrait se dire ici que c’est le médecin qui reste le fautif, si l’IA n’est qu’un assistant au diagnostic médical. Dans l’usage courant, on s’attend en effet à ce que l’IA fasse des suggestions pour orienter les choix du clinicien. Ainsi, ce dernier peut rester l’unique maître à bord et l’unique responsable des évènements qui découlent de ses choix. Mais pourquoi pas l’IA elle-même si c’est elle qui a orienté le clinicien vers un mauvais diagnostic, ou encore l’entreprise qui l'a conçue ?

    Source : Quartz

    Et vous ?

    Qu'en pensez-vous ?

    Voir Aussi

    Google utilise l'intelligence artificielle pour détecter la rétinopathie diabétique qui expose près de 415 millions de diabétiques à la cécité

    Watson, l'Intelligence artificielle d'IBM découvre chez une patiente une leucémie rare qui n'avait pas pu être détectée par les médecins
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre émérite
    Femme Profil pro
    Traductrice
    Inscrit en
    octobre 2015
    Messages
    465
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Traductrice
    Secteur : Communication - Médias

    Informations forums :
    Inscription : octobre 2015
    Messages : 465
    Points : 2 493
    Points
    2 493

    Par défaut

    Je dirais qu'à partir du moment où l'entreprise refuse de communiquer le code source pour examen, elle accepte d'en prendre l'entière responsabilité.
    Après, je suppose que ça dépend des procédures mises en place en collaboration entre l'entreprise qui a fourni l'IA et l'organisme médical, notamment quant à la place de l'IA et du médecin dans le processus de diagnostic.

  3. #3
    Membre régulier
    Homme Profil pro
    Inscrit en
    septembre 2007
    Messages
    34
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France

    Informations forums :
    Inscription : septembre 2007
    Messages : 34
    Points : 84
    Points
    84

    Par défaut

    En l'espèce, cela me parait assez simple. Le médecin est responsable envers son patient et c'est à lui d'assumer l'éventuelle erreur. A lui ensuite de se retourner vers le constructeur pour démontrer le degré d'implication de l'IA

  4. #4
    Membre averti Avatar de Vulcania
    Homme Profil pro
    Alternant Dev C++
    Inscrit en
    juillet 2011
    Messages
    58
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 22
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Alternant Dev C++
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : juillet 2011
    Messages : 58
    Points : 345
    Points
    345

    Par défaut

    Personnellement, si le médecin aurait pu éviter une erreur avec une vérification de sa part, alors il est responsable. Si le cas était trop complexe, et que l'IA s'est plantée, alors de toutes façon le médecin n'aurait pas pu faire mieux, niveau responsabilité, je dirais que c'est de la faute à "pas de chance".

  5. #5
    Expert éminent sénior
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    4 781
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : décembre 2007
    Messages : 4 781
    Points : 20 242
    Points
    20 242

    Par défaut

    C'est marrant, parce que nous on collabore avec des boites qui font ça. Résultats d'une expérimentation qui a déjà deux ans d'âge : sur certains cancers, le spécialiste à 60% de chance de le détecter avec la radio. l'IA plus de 98%. Ces médecins ne sont pas embêtes, la plupart du temps, malgré leur fort taux d'erreur. Pourquoi l'IA devrait-elle l'être?

    NB : il s'agit de certaines pathologies bien spécifiques, avec des IA dédiées. Dans bien des cas, l'IA est actuellement sans solutions. D'ou l'utilité de garder des médecins pour tout le reste, 60%, c'est beaucoup mieux que 0%.
    Les 4 règles d'airain du développement informatique sont, d'après Michael C. Kasten :
    1)on ne peut pas établir un chiffrage tant qu'on a pas finalisé la conception
    2)on ne peut pas finaliser la conception tant qu'on a pas complètement compris toutes les exigences
    3)le temps de comprendre toutes les exigences, le projet est terminé
    4)le temps de terminer le projet, les exigences ont changé
    Et le serment de non-allégiance :
    Je promets de n’exclure aucune idée sur la base de sa source mais de donner toute la considération nécessaire aux idées de toutes les écoles ou lignes de pensées afin de trouver celle qui est la mieux adaptée à une situation donnée.

  6. #6
    Membre émérite
    Femme Profil pro
    Traductrice
    Inscrit en
    octobre 2015
    Messages
    465
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Traductrice
    Secteur : Communication - Médias

    Informations forums :
    Inscription : octobre 2015
    Messages : 465
    Points : 2 493
    Points
    2 493

    Par défaut

    Citation Envoyé par el_slapper Voir le message
    C'est marrant, parce que nous on collabore avec des boites qui font ça. Résultats d'une expérimentation qui a déjà deux ans d'âge : sur certains cancers, le spécialiste à 60% de chance de le détecter avec la radio. l'IA plus de 98%. Ces médecins ne sont pas embêtes, la plupart du temps, malgré leur fort taux d'erreur. Pourquoi l'IA devrait-elle l'être?
    Tout dépend si l'erreur est "normale" ou due à une négligence. À la fois dans le cas du médecin et de l'IA, il est normal qu'ils ne soient pas embêtés pour des erreurs qui sont commises en toute logique. Dans le cas d'une négligence, il faut bien attribuer les responsabilités (pas forcément les punition hein :p) pour y remédier.

  7. #7
    En attente de confirmation mail
    Femme Profil pro
    pape n'aimant pas les censeurs
    Inscrit en
    janvier 2010
    Messages
    803
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Vatican

    Informations professionnelles :
    Activité : pape n'aimant pas les censeurs

    Informations forums :
    Inscription : janvier 2010
    Messages : 803
    Points : 1 357
    Points
    1 357

    Par défaut

    "Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic induisant un médecin en erreur ?"

    Question inutile et idiote parce qu'il se passera exactement ce qui se passe aujourd'hui: Les erreurs médicales sont de loin pas rares et pourtant il n'y a pratiquement jamais aucun tribunal pour condamner un médecin qui s'est trompé!!! Les experts, eux-mêmes médecins, trouvent toujours leur collègue innocent!!!

    Il en ira de même dans le cas de l'IA...

  8. #8
    Membre confirmé
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    266
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2007
    Messages : 266
    Points : 485
    Points
    485

    Par défaut

    De mon point de vue, l'IA n'a jamais été le garant d'un diagnostic parfait de toute façon et rien ne l'empêchera de demander un second avis en cas de doute. Je suppose que ça va être testé dans un premier temps sous contrôle d'un medecin pour pouvoir chiffrer la marge d'erreur des machines. De cette marge le constructeur devra garantir un nombre minimum de diagnostic correcte pour des cas précis car les assureurs vont le demander. Quand à l’hôpital il sera soumit à des obligations de maintenances régulière, de mise à jour et mise en conformité sans quoi l'entreprise pourra dégager toute responsabilité. Donc dans l'ordre je dirais d'abord l'entreprise qui va ensuite vérifier que l’hôpital est en ordre avant de raquer qui va lui même vérifier que le patient à bien suivit ce qui était demandé pour l'examen. Après l'entreprise peut toujours imposer une maintenance de malade presque impossible qui ferra que l’hôpital l'aura dans l'os à chaque fois.

  9. #9
    Membre habitué
    Homme Profil pro
    Sysadmin Linux
    Inscrit en
    mars 2017
    Messages
    76
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Sysadmin Linux

    Informations forums :
    Inscription : mars 2017
    Messages : 76
    Points : 191
    Points
    191

    Par défaut

    Si une erreur se produit, ca sera surement de la faute des russes
    </troll>

    Plus serieusement, je pense que le medecin devrait verifier a chaque fois les diagnotics d'une intelligence artificielle / aglo... Car les erreurs/bugs existeront toujours.

  10. #10
    Membre actif
    Homme Profil pro
    Ingénieur systèmes et réseaux
    Inscrit en
    mars 2013
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Finistère (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur systèmes et réseaux

    Informations forums :
    Inscription : mars 2013
    Messages : 57
    Points : 246
    Points
    246

    Par défaut La question bisounours du jour...

    Qui devra être tenu pour responsable
    C'est une fausse bonne question dans le secteur médical, la réponse est toujours : la compagnie d'assurance.
    Puis : personne (dans le cas où Windows 10 plante un hôpital, par exemple - pareil avec IA).

  11. #11
    Membre éclairé

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    juin 2002
    Messages
    395
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : juin 2002
    Messages : 395
    Points : 876
    Points
    876

    Par défaut

    Travaillant dans la sécurité médicale, je peux vous assurer que c'est la responsabilité du médecin.
    De la même façon qu'un automobiliste ne peux se réfugier derrière ce que lui a dicté son GPS quand il prend un sens interdit.

    La sécurité médicale, tient en grande part à la "vérification" et à la façon de le faire - et donc à vérifier si ce qu' a sorti l'IA est réellement pertinent.

    Ce qui peut être de la responsabilité du système informatique, c'est de restituer correctement la donnée qui lui a été fourni.
    En gros, si on a entré que le patient et AB négatif, il ne faut pas que le logiciel ressorte un autre chose quand on lui redemande l'info.
    Et même dans ce cas, le médecin aura du mal à totalement se dégager. C'est dire ....

    L'autre responsabilité tient à l'exploitation (sauvegarde, disponibilité).

    Dans les faits, je n'ai jamais entendu parlé d'un directeur informatique ou d'un éditeur mis réellement en cause (cad condamné).

    La sécurité médicale c'est parfois des choses aussi bête que de demander au patient que l'on va opérer "Comment vous appelez-vous ?" et bien comprendre que cette question est très différente de "Etes vous bien M. Untel ?". Dans le stress ou à moitié dans le coltar, le patient risque de répondre OUI à la seconde, même si ce n'est pas son nom qui a été prononcé, alors que s'il énonce lui même son nom, il ne donnera pas celui de quelqu'un d'autre. On est loin d'IA défaillantes ....

    Citation Envoyé par NSKis Voir le message
    il n'y a pratiquement jamais aucun tribunal pour condamner un médecin qui s'est trompé!!! Les experts, eux-mêmes médecins, trouvent toujours leur collègue innocent!!!
    On se demande pourquoi les assurances de certaines spécialités sont si chères, s'ils ne sont jamais condamnés.
    Bien sur que des médecins sont condamnés chaque année.
    Un médecin peut même l'être alors qu'il est à la retraite depuis de nombreuses années et donc plus couvert par aucune assurance.
    On en arrive même a des aberrations à cause de cela. Je vous invite à googleliser "france trop de césairienne".
    La réponse est oui et à cause des risques de procès et de condamnations.
    Mais on comprend que pour les familles touchées il est difficile d'accepter que, parfois "les choses tournent mal" et que quand le médecin est innocenté ils ont l'impression que les médecins se sert les coudes.
    --
    vanquish

  12. #12
    Nouveau membre du Club
    Homme Profil pro
    Ingénieur systèmes embarqués
    Inscrit en
    mai 2010
    Messages
    25
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Ingénieur systèmes embarqués
    Secteur : Industrie

    Informations forums :
    Inscription : mai 2010
    Messages : 25
    Points : 36
    Points
    36

    Par défaut

    Quand on a un GPS dans sa voiture, et qu'on se trompe (vitesse, sens interdit ...) on ne peut pas se retourner contre le fabriquant.
    C'est normal, le seul maitre à bord et est et doit rester le conducteur. C'est donc lui qui est responsable.
    Pareil pour ce cas médical. L'IA est un outil, seul le médecin prend les décisions.
    La réponse est donc très simple: c'est toujours le médecin le responsable.
    Il ne peut pas se retourner contre l'IA, ou son scalpel ou autre.

  13. #13
    Expert éminent sénior
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    4 781
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : décembre 2007
    Messages : 4 781
    Points : 20 242
    Points
    20 242

    Par défaut

    Citation Envoyé par vanquish Voir le message
    (.../...)Dans les faits, je n'ai jamais entendu parlé d'un directeur informatique ou d'un éditeur mis réellement en cause (cad condamné).
    (.../...)
    On s'est pris un procès, mais on a pu prouver que c'est la défaillance massive des serveurs de l'hôpital qui avait provoqué le décès du patient, pas notre logiciel. Bon, on y a quand même perdu un excellent chef de projet, qui a fait un burnout dont il ne sortira que pour partir à la retraite.
    Les 4 règles d'airain du développement informatique sont, d'après Michael C. Kasten :
    1)on ne peut pas établir un chiffrage tant qu'on a pas finalisé la conception
    2)on ne peut pas finaliser la conception tant qu'on a pas complètement compris toutes les exigences
    3)le temps de comprendre toutes les exigences, le projet est terminé
    4)le temps de terminer le projet, les exigences ont changé
    Et le serment de non-allégiance :
    Je promets de n’exclure aucune idée sur la base de sa source mais de donner toute la considération nécessaire aux idées de toutes les écoles ou lignes de pensées afin de trouver celle qui est la mieux adaptée à une situation donnée.

Discussions similaires

  1. Réponses: 2
    Dernier message: 03/03/2017, 11h01
  2. Réponses: 20
    Dernier message: 09/12/2015, 12h11

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo