L'IA s'invite au bloc opératoire et les premières victimes portent plainte :
la FDA, chargée d'autoriser les dispositifs médicaux intégrant de l'IA, s'est retrouvée vidée de ses effectifs par le DOGE d'Elon Musk
Une enquête au long cours révèle un paradoxe troublant : alors que la FDA autorise à marche forcée des dispositifs médicaux intégrant de l'intelligence artificielle (leur nombre a doublé depuis 2022 pour atteindre 1 357), les signalements d'accidents graves se multiplient dans les blocs opératoires. Artères sectionnées, crânes perforés, AVC post-opératoires : des patients paient le prix fort d'une course à l'innovation que personne ne semble vraiment contrôler. Et la situation ne devrait pas s'arranger — DOGE est passé par là.
En 2021, la filiale Acclarent de Johnson & Johnson annonçait en grande pompe une « avancée majeure » : l'intégration d'un algorithme de machine learning dans son système de navigation chirurgicale TruDi, destiné aux opérations ORL des sinus. La promesse était séduisante — guider le chirurgien en temps réel, identifier les structures anatomiques avec une précision surhumaine, réduire le risque d'erreur à presque zéro. Cinq ans plus tard, le bilan est autrement moins glorieux.
Quand l'algorithme induit potentiellement le chirurgien en erreur
Depuis l'ajout de l'IA au dispositif TruDi, la FDA a reçu pas moins de 100 signalements non confirmés de dysfonctionnements et d'événements indésirables, contre seulement sept avant cette mise à jour (les sept signalements ont été fait en trois ans, tandis que les 100 signalements post-IA ont été fait entre 2021 et 2025). Parmi les cas documentés, les faits sont édifiants : du liquide céphalorachidien s'est écoulé par le nez d'un patient ; dans un autre cas, un chirurgien a perforé accidentellement la base du crâne ; dans deux autres cas, des patients ont subi des AVC après qu'une artère majeure a été accidentellement lésée.
Le cas de Kimberly Ralph est devenu emblématique. Opérée des sinus, elle ressort de l'hôpital pour finalement être réhospitalisée, victime d'un AVC. Selon les documents judiciaires, son avocat a soutenu que les propres archives du chirurgien montraient qu'il « n'avait aucune idée qu'il se trouvait à proximité de la carotide » — l'artère qui irrigue le cerveau, le visage et le cou. Une partie de son crâne a dû être retirée pour laisser le cerveau gonfler. Elle se bat encore en rééducation.
Acclarent a contesté ces allégations, et Integra LifeSciences — qui a racheté la société en 2024 pour plus de 550 millions de dollars — affirme qu'il n'existe « aucune preuve crédible d'un lien causal entre le système TruDi, la technologie IA et les blessures alléguées ». Une défense classique dans ces dossiers, qui soulève néanmoins une question fondamentale : si l'IA n'est pas responsable, pourquoi les signalements d'incidents ont-ils été multipliés par dix après son intégration ? Il est également à noter que l'un des chirurgiens mis en cause a perçu plus de 550 000 dollars en honoraires de consultant d'Acclarent entre 2014 et 2024, dont au moins 135 000 dollars directement liés au système TruDi.
Les rapports de la FDA sur les dispositifs médicaux peuvent être incomplets et ne visent pas à déterminer les causes des incidents médicaux. Il est donc difficile de déterminer le rôle que l'IA a pu jouer dans ces événements. Les deux victimes d'AVC ont chacune intenté un procès au Texas, alléguant que l'IA du système TruDi avait contribué à leurs blessures. « Le produit était sans doute plus sûr avant l'intégration des modifications apportées au logiciel pour y incorporer l'intelligence artificielle qu'après la mise en œuvre de ces modifications », affirme l'une des plaintes.
Une faille systémique : des appareils dopés à l'IA sans essais cliniques obligatoires
Le cas TruDi ne serait qu'un symptôme parmi d'autres. Les dispositifs médicaux utilisant l'IA ne sont pas tenus d'être testés dans des essais cliniques avant d'être approuvés par la FDA. À la place, de nombreux fabricants se contentent de pointer vers des dispositifs préalablement autorisés avant d'y greffer de l'IA. Autrement dit, il suffit d'avoir un appareil homologué, d'y coller une couche d'algorithme, et la FDA peut valider sans validation clinique spécifique à la nouvelle version.
La faille est architecturale. Une étude récente publiée dans la National Library of Medicine a établi que deux tiers des 12 000 patients identifiés comme insuffisants cardiaques par un stéthoscope augmenté par IA ne souffraient en réalité pas d'insuffisance cardiaque. Dans la même veine, des recherches publiées dans le JAMA Health Forum ont révélé que 43 % des dispositifs médicaux à IA ont eu des problèmes graves au point d'être retirés du marché moins d'un an après leur commercialisation
La FDA a reçu des signalements impliquant des dizaines d'autres dispositifs à IA, dont un moniteur cardiaque accusé d'avoir ignoré des battements anormaux et un appareil échographique ayant prétendument mal identifié des parties du corps d'un fœtus. Ce dernier appareil est le Sonio Detect de Samsung, dont la firme coréenne conteste tout problème de sécurité. Chez Medtronic, l'IA de monitoring cardiaque aurait manqué des arythmies dans 16 cas, bien que l'entreprise conteste la majorité de ces rapports.
La photographie d'ensemble est celle d'une industrie en surchauffe. Pas moins de 1 357 dispositifs médicaux intégrant de l'IA sont désormais autorisés par la FDA — soit le double du nombre approuvé jusqu'en 2022. Et la cadence s'accélère. Des chercheurs de Johns Hopkins, Georgetown et Yale ont récemment établi que 60 dispositifs médicaux autorisés par la FDA utilisant l'IA étaient liés à 182 rappels de produits, selon une lettre de recherche publiée dans le JAMA Health Forum.
« Le caractère déséquilibré de ces rappels devrait donner à réfléchir à tous les défenseurs de l'IA médicale », a déclaré Tinglong Dai, auteur correspondant et professeur de commerce à la Johns Hopkins Carey Business School. « Les sociétés cotées en bourse, les gros poissons dans cet étang encore modeste, ont fabriqué un peu plus de la moitié des appareils, mais sont responsables de la quasi-totalité des unités rappelées. »
« Nous avons été stupéfaits de constater que près de la moitié des rappels d'appareils d'IA ont eu lieu dès la première année suivant leur approbation », a déclaré Dai. « Et la plus grande surprise ? Ces rappels concernaient principalement des outils n'ayant fait l'objet d'aucune validation clinique. On s'est dit : "Si l'IA n'a pas été testée sur des humains, alors les humains deviennent les cobayes." »
Pour pallier ces risques, les chercheurs proposent plusieurs solutions, notamment l'obligation de réaliser des tests sur l'humain ou des essais cliniques avant l'approbation d'un appareil, l'incitation des entreprises à mener des études continues après le lancement et la collecte de données de performance en conditions réelles afin de garantir la sécurité et l'efficacité continues. Ils suggèrent également que les approbations soient conditionnelles et expirent si aucune preuve ne démontre que l'appareil fonctionne comme prévu.
« Si ces outils doivent se généraliser, nous devons les tester sur de vraies personnes », a insisté Dai. « Il faut soit exiger des études cliniques approfondies en amont, soit accorder des approbations qui expirent si aucune preuve ne démontre leur efficacité. »
Le talon d'Achille réglementaire
Le problème ne tient pas seulement à la technologie elle-même mais aux conditions dans lesquelles elle est validée et surveillée. Plusieurs chirurgiens interrogés par Reuters ont indiqué que les supports marketing et les présentations commerciales encourageaient explicitement la confiance dans les capacités de l'IA, tout en minimisant ses limites — une accusation que les fabricants réfutent en arguant d'un usage hors spécifications ou d'une trop grande dépendance des chirurgiens envers l'algorithme.
La régulation apparaît structurellement en retard. Plusieurs scientifiques actuels et anciens de la FDA ont confié à Reuters que les effectifs et les ressources de l'agence n'ont pas suivi la complexité croissante des dossiers de soumission liés à l'IA. Le système de remontée des incidents — la base MAUDE — reste non vérifié et incomplet, créant un angle mort dans la sécurité des dispositifs médicaux à IA. Les signalements ne prouvent pas la causalité et manquent souvent de détails cruciaux, admet la FDA elle-même.
On retrouve ici, appliqué à la médecine, le vieux mantra de la Silicon Valley : move fast and break things. Sauf qu'en salle d'opération, les choses que l'on « casse » ont un nom, une famille, et un pronostic vital.
DOGE achève la FDA
Si l'agence peinait déjà à tenir la cadence avant 2025, la suite est plus préoccupante encore. Dans le cadre de la campagne de réduction des coûts menée par Elon Musk via le DOGE, environ 15 des 40 scientifiques spécialisés en IA au sein de l'unité DIDSR de la FDA ont été licenciés ou poussés à partir. Le Digital Health Center of Excellence, l'unité en charge de la politique sur les dispositifs à IA, a pour sa part perdu un tiers de son effectif d'une trentaine de personnes.
La machine « bien huilée » qui était dirigée par Elon Musk a connu de nombreux dysfonctionnements, avec des rapports selon lesquels certains membres du personnel essentiels ont été licenciés, avant d'être réembauchés lorsqu'il a été établi que leur emploi était essentiel. Par exemple, environ 180 employés de la FDA travaillant sur les dispositifs médicaux auraient été licenciés en février 2025 par le DOGE. Certains employés auraient été réembauchés dans la foulée.
Ces experts faisaient un travail précis et peu médiatisé : tester les algorithmes dans des situations cliniques variées, vérifier leur dégradation dans le temps, traquer les hallucinations. Un ancien évaluateur de la FDA résume sobrement la situation : « Si vous n'avez pas les ressources, les choses risquent davantage de passer entre les mailles. » Entre-temps, l'administration Trump a choisi d'aller dans la direction inverse : début janvier 2026, la FDA a assoupli la réglementation des produits numériques en santé, dans la droite ligne des promesses de dérégulation de l'IA formulées par l'administration Trump. Et, cerise sur le gâteau, la FDA a externalisé une partie de ses missions de supervision à des LLM pour « stimuler l'innovation » et accélérer les approbations de médicaments.
La question de la responsabilité, talon d'Achille juridique
Sur le plan légal, la situation est un véritable casse-tête. Qui est responsable quand un algorithme induit un chirurgien en erreur ? Le fabricant du dispositif ? Le distributeur ? Le chirurgien qui a fait confiance à la machine ? Les procès en cours au Texas illustrent cette complexité : Integra LifeSciences défend ses positions devant les tribunaux pendant que ses analystes financiers — notamment chez BTIG — s'interrogent sur l'impact potentiel sur les performances financières de la division Acclarent et les ventes futures du système TruDi.
Le sujet dépasse largement le cadre médical. Il pose, en des termes on ne peut plus concrets, la question de la gouvernance de l'IA dans les systèmes critiques et de la responsabilité légale d'un algorithme dont les décisions affectent directement la vie humaine. Une problématique que les législateurs européens, en plein chantier autour de l'AI Act, feraient bien de regarder de très près.
Sources : Acclarent, National Library of Medicine, Johns Hopkins University
Et vous ?
Peut-on sérieusement parler de « dispositif médical amélioré » quand une mise à jour logicielle multiplie par 14 les signalements d'accidents ? Où commence la refonte substantielle qui devrait imposer une nouvelle homologation ?
La FDA et ses homologues mondiaux (dont l'ANSM en France) ont-ils les moyens humains et techniques réels pour évaluer correctement des algorithmes de deep learning embarqués dans des dispositifs médicaux ? Ou valident-ils dans le vide ?
Peut-on reprocher au chirurgien d'avoir « trop fait confiance » à l'IA, alors que les fabricants ont précisément vendu leurs outils comme des assistants ultra-fiables capables de surpasser l'œil humain ?
L'explosion du nombre de dispositifs IA médicaux autorisés est-elle le signe d'un progrès réel ou d'une bulle réglementaire ? Et comment distinguer l'innovation validée du marketing technologique habillé en solution clinique ?









Peut-on sérieusement parler de « dispositif médical amélioré » quand une mise à jour logicielle multiplie par 14 les signalements d'accidents ? Où commence la refonte substantielle qui devrait imposer une nouvelle homologation ?
Répondre avec citation
Partager