IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google lance AMIE, un modèle d'IA qui surpasse les médecins humains dans les diagnostics


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 277
    Points
    66 277
    Par défaut Google lance AMIE, un modèle d'IA qui surpasse les médecins humains dans les diagnostics
    Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %
    les médecins eux-mêmes ont obtenu un score de 92,9 %

    Des chercheurs de Google et de DeepMind dévoilent un grand modèle de langage (Large Language Model) pour répondre à des questions d'ordre médicales non spécialisées. Le modèle, appelé Med-PaLM, génère des réponses jugées conformes au consensus scientifique. Un groupe de médecins a déterminé que 92,6 % des réponses de Med-PaLM étaient conformes aux réponses générées par les cliniciens (92,9 %). L'équipe de recherche s'appuie sur PaLM, le grand modèle de langage de Google, qui compte 540 milliards de paramètres, soit environ trois fois plus que GPT-3 du laboratoire de recherche en intelligence artificielle (IA) OpenAI.

    Google Med-PaLM : une IA entraînée pour répondre aux questions d'ordre médicales

    PaLM est l'acronyme de "Pathways Language Model". Google affirme que PaLM surpasse GPT-3 dans les tâches difficiles liées au langage et au code, et constitue la partie linguistique de la vision Pathways de l'entreprise. Pour la variante médicale du modèle de langage PaLM, l'équipe de recherche affirme avoir développé une nouvelle méthode d'invite pour adapter une variante de Flan-PaLM au domaine médical. Flan-PaLM est lui-même une variante du grand modèle PaLM affinée avec des instructions pour des tâches (telles que des dialogues, des FAQ, des raisonnements), que Google Brain a introduite en octobre de l'année dernière.

    Au lieu d'affiner PaLM avec des données médicales, ce qui serait plus complexe, l'équipe a utilisé une combinaison d'invites souples apprises lors du réglage des invites avec une petite quantité de données médicales et des invites écrites par des humains pour des réponses médicales spécifiques. Pour ces derniers messages, l'équipe a collaboré avec quatre cliniciens des États-Unis et du Royaume-Uni. Les chercheurs d'Alphabet, propriétaire de Google et de DeepMind, ont baptisé cette combinaison de messages appris et programmés "Instruction Prompt Tuning". « La nouvelle méthode est efficace en termes de données et de paramètres », écrit l'équipe.

    Nom : 1.png
Affichages : 5099
Taille : 310,1 Ko

    L'équipe affirme que le modèle Med-PaLM résultant de l'Instruction Prompt Tuning surpasse de manière significative un modèle Flan-PaLM non ajusté sur les réponses médicales et obtient des "résultats encourageants", mais reste en deçà des performances des cliniciens. Au vu des résultats, cette conclusion est correcte, mais elle semble également être un euphémisme : Med-PaLM obtient d'aussi bons résultats que les professionnels dans presque tous les tests. L'évaluation de la qualité des réponses a également été réalisée par des cliniciens. La précision dans les réponses de Med-PaLM est évaluée à 92,6 % par les experts humains.

    Seulement 61,9 % des réponses longues de Flan-PaLM ont été jugées conformes à l'accord scientifique. Med-PaLM a également fourni beaucoup moins de réponses potentiellement dangereuses. Dans Flan-PaLM, 29,7 % des réponses auraient pu nuire à la santé. Pour Med-PaLM, ce pourcentage n'était que de 5,9 %, contre 5,7 % pour les experts humains. Une fois de plus, le modèle de langage médical fonctionne à égalité avec les humains. Lors de l'évaluation par les profanes, les réponses des experts humains ont été jugées plus utiles, mais là encore, Med-PaLM a obtenu des résultats nettement supérieurs à ceux de Flan-PaLM.

    Alors que ChatGPT semble être un peu partout, sans véritable cas d'utilisation, Med-PaLM est destiné à des fins médicales. Il est évalué sur MultiMedQA, un nouveau benchmark open source de questions-réponses médicales. Il combine HealthSearchQA, un nouveau jeu de données de réponses à des questions médicales posées en ligne, avec six jeux de données de réponses à des questions ouvertes existantes couvrant les examens médicaux professionnels, la recherche et les demandes des consommateurs. Le référentiel intègre également une méthodologie d'évaluation des réponses des modèles humains selon plusieurs axes.

    Nom : 2.png
Affichages : 4116
Taille : 133,2 Ko

    Med-PaLM fournit des ensembles de données pour des questions à choix multiples et pour des réponses plus longues à des questions posées par des professionnels de la santé et des non-professionnels. Il s'agit des ensembles de données sur les sujets cliniques pour MedQA, MedMCQA, PubMedQA, LiveQA, MedicationQA et MMLU. En outre, l'équipe a ajouté HealthSearchQA, un nouveau jeu de données de requêtes médicales fréquemment recherchées pour améliorer MultiMedQA. HealthsearchQA, composé de 3 375 questions fréquemment posées par les consommateurs, a été créé à partir de diagnostics médicaux et de symptômes associés.

    Les modèles de langage pourraient-ils aider les professionnels de la santé ?

    Le rapport d'étude indique que les bonnes performances de Med-PaLM sur les questions médicales pourraient être une capacité émergente des modèles de langage. En effet, les performances du modèle ont été mises à l'échelle en fonction du nombre de paramètres des différents modèles PaLM (de huit à 540 milliards). Cependant, l'équipe affirme que la mise à l'échelle seule ne suffit pas pour obtenir une fiabilité élevée des réponses, comme le montre la performance comparativement faible du modèle Flan-PaLM (seulement 61,9 % des réponses de Flan-PaLM étaient fiables). C'est là qu'entre en jeu l'Instruction Prompt Tuning nouvellement introduite.

    Lors de l'événement "Google for India 2022", Google a annoncé une collaboration avec Apollo Hospitals en Inde pour améliorer l'utilisation des modèles d'apprentissage profond dans les radiographies et autres diagnostics. Parmi les autres partenariats annoncés par Google dans le domaine de la santé figurent Aravind Eye Care System, Ascension, Mayo Clinic, Rajavithi Hospital, Northwestern Medicine, Sankara Nethralaya et Stanford Medicine, etc. Selon l'équipe, l'essor des modèles d'IA fondamentaux est une "occasion importante" de repenser la manière dont l'IA médicale est développée et de la rendre "plus facile, plus sûre et plus équitable" à utiliser.

    Nom : 3.png
Affichages : 4101
Taille : 102,3 Ko

    « Les résultats de Med-PaLM démontrent qu'avec un réglage rapide des instructions, nous disposons d'une technique d'alignement efficace au niveau des données et des paramètres, utiles pour améliorer les facteurs liés à l'exactitude, à la factualité, à la cohérence, à la sécurité, au préjudice et au biais, ce qui permet de combler le fossé avec les experts cliniques et de rapprocher ces modèles des applications cliniques du monde réel », a écrit l'équipe. Par ailleurs, Google n'est pas le premier géant de la technologie à s'aventurer dans le domaine des soins de santé basés sur l'IA. Microsoft, IBM et d'autres entreprises l'ont précédé.

    Microsoft travaille en étroite collaboration avec l'équipe d'OpenAI afin d'employer GPT-3 pour faciliter la collaboration entre les employés et les cliniciens et améliorer l'efficacité des équipes de soins de santé. IBM a longtemps creusé le domaine avec sa division Watson Health. Mais alors qu'elle était censée révolutionner les soins de santé grâce à l'IA, IBM a cédé certaines parties de Watson Heath en janvier 2022. L'annonce a suscité beaucoup de bruits dans l'industrie. Des critiques notent qu'il est difficile de ne pas considérer cette vente comme un échec du pari d'IBM sur Watson pour faire entrer les soins de santé dans l'ère de l'IA.

    Cependant, l’IA est-elle réellement en mesure de diagnostiquer ou de conseiller les patients comme le ferait un médecin humain ? Selon les experts, cela pourrait être possible, à condition que l’IA acquière la compréhension la plus juste possible du langage naturel. Par exemple, en octobre 2020, Nabla, une startup française, a conçu un chatbot médical basé sur GPT-3 - qui était à l'époque le plus gros modèle de langage jamais entraîné, avec environ 175 milliards de paramètres - pour fournir des conseils aux patients. Mais lors des tests, Nabla a pu observer quelques limites de GPT-3 et le chabot a même conseillé à un patient simulé de se suicider.

    Nom : 4.png
Affichages : 4055
Taille : 169,0 Ko

    En novembre 2022, Meta a présenté Galactica, un système d'IA qui prétendait aider les chercheurs universitaires en générant des analyses documentaires complètes et des entrées Wiki sur n'importe quel sujet . Mais il a échoué en raison de résultats peu fiables. À peu près à la même époque, Meta a lancé Cicero en fusionnant le traitement du langage naturel et le raisonnement stratégique. Il s'agit du premier agent d'IA à réaliser des performances de niveau humain dans le jeu complexe en langage naturel "Diplomacy". En jouant contre des humains, Cicero s'est classé parmi les 10 % des meilleurs joueurs ayant participé à plusieurs parties.

    Source : Rapport de l'étude (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du modèle de langage Med-PaLM de Google ?
    Selon vous, quels pourraient être les apports de ce modèle dans le domaine des soins de santé ?
    Serait-il prudent de laisser Med-PaLM conseiller les patients sans soumettre ses réponses à une évaluation humaine ?
    Pensez-vous également que les réponses aux questions médicales est une capacité émergente des modèles de langage ?

    Voir aussi

    Watson Health, la division d'IBM destinée à la recherche médicale, est vendue, alors qu'elle était censée révolutionner les soins de santé grâce à l'IA

    Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine

    GPT-4 : la nouvelle version de l'IA de traitement du langage naturel d'OpenAI pourrait arriver cet été, il devrait être moins volumineux que GPT-3, mais beaucoup plus performant

    ChatGPT réussit l'édition 2022 de l'examen d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US : que sait-on de cette IA qui secoue Internet comme une tempête ?

  2. #2
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 319
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 319
    Points : 4 270
    Points
    4 270
    Par défaut
    Très prometteur mais je me méfie de ce qui appartient aux GAFAM.

    Avec des assistants de ce genre, la profession de médecin va être à repenser :
    - d'un côté ça allège leur travail/charge : le travail de questionnement du patient pourra être fait par des infirmiers, étudiants en médecine ou autre personnel médical qui ne demande pas autant d'années d'études que pour être médecin. J'ai déjà eu quelque chose similaire chez l'ophtalmo.
    - de l'autre côté, il faudra quand même vérifier

    Vu la charge des hôpitaux et des médecins de campagne (et probablement d'autres), développer les systèmes avec des assistants (IA et humain pour des actes médicaux +/- simples) bénéficierait probablement à tout le monde :
    - prise en charge de patients plus nombreux et plus rapidement
    - meilleur équilibre vie pro/perso pour le médical via des horaires +/- standard (je connais un médecin qui fait 7h-22h+ toute la semaine avec 1h grand max de pause le midi)
    - création d'emplois, certains veulent être dans le médical pour aider/soigner les gens mais ils n'ont pas la motivation/l'envie/les moyens de faire de très longues études

    Ca reste à expérimenter sur une échelle importante

  3. #3
    Membre actif
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2021
    Messages
    86
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2021
    Messages : 86
    Points : 268
    Points
    268
    Par défaut
    Très intéressant, mais l'utilisation de ce type de technologie doit vraiment être réglementé et surtout suivi de près.
    A quand un équivalent pour le domaine juridique ? "Better call Bot"

  4. #4
    Membre actif
    Homme Profil pro
    retraité depuis juin 2019
    Inscrit en
    Février 2018
    Messages
    62
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : Belgique

    Informations professionnelles :
    Activité : retraité depuis juin 2019
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Février 2018
    Messages : 62
    Points : 214
    Points
    214
    Par défaut il faut lire Prescription Mortelle de Robin Cook écrit en 2016
    https://www.livredepoche.com/livre/p...-9782253112068

    Ce livre explique comment les mutuelles aux USA ont imposé un petit appareil (comme un smartphone) qui assiste les patients et répond à toutes leurs questions médicales.
    Comme dans tout roman de Robin Cook, il y a toujours une partie qui dérape et malheureusement c'est l'IA.

    C'est le second livre de Robin Cook que je préfère et dont j'attends avec impatience l'avènement technique.
    Le premier c'est Toxine.

    Bonne lecture

  5. #5
    Membre régulier
    Profil pro
    Inscrit en
    Août 2007
    Messages
    26
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2007
    Messages : 26
    Points : 74
    Points
    74
    Par défaut Consternant
    Ce logiciel n'apporte rien. Il recrache le Vidal. L'humain est beaucoup trop complexe pour confier notre santé à une machine. Si ces systèmes étaient mis en service, ils seraient immédiatement trafiqués par les labo pharmaceutiques pour prescrire leurs poisons.

  6. #6
    Membre habitué
    Homme Profil pro
    retraité
    Inscrit en
    Mai 2014
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Mai 2014
    Messages : 48
    Points : 152
    Points
    152
    Par défaut Que sont devenus les "systèmes-experts" ?
    J'ai personnellement aidé des médecins en Afrique, il y a quelque trente ans, en programmant un système-expert basé sur l'enchaînement de clauses de Horn, nourri du savoir médical basique, afin de permettre aux personnels des dispensaires de brousse d'établir des pré-diagnostics. Mais il était entendu que le pré-diagnostic devait, dans les cas graves, être validé ou invalidé par un vrai toubib. Cela n'avait rien de nouveau, il existait déjà (dans les années 80-90) de tels systèmes-experts.

    En fait, cela demandait des mises à jour assez fréquentes de la base de connaissances, et il était impossible de les faire fonctionner en psychiatrie pour des raisons qu'on imagine facilement. Mais en médecine générale, cela fonctionnait assez bien.

    Important : le logiciel était renseigné par un infirmier qui était évidemment au contact des malades et savait examiner les symptômes. Il y avait donc au départ une relation contractuelle patient-soignant purement humaine. Je ne suis pas sûr du tout qu'un autre type de relation (par exemple patient-machine) puisse réellement fonctionner en diagnostic et prescription. La "médecine 2.0" a déjà fait preuve de certains aspects nocifs. Personnellement, je n'aurais pas recours à ce genre de médecine, au risque de passer pour un vieux schnock antédiluvien.

  7. #7
    Expert confirmé
    Avatar de anapurna
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mai 2002
    Messages
    3 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Mai 2002
    Messages : 3 434
    Points : 5 846
    Points
    5 846
    Par défaut
    salut

    effectivement tout ceci ressemble fortement a un systeme expert
    Pour ce faire il est constitué de :
    - Moteur d'inference
    - Base de Fait
    - Base de regle

    peut etre on il fait quelque amelioration par exemple quand celui-ci ne trouve pas de solution reel
    il font appelle a un reseau de neurone mais ceci n'est qu'un outils d'aide a la decision
    et si les fait ne sont pas correctement rentré il en sortira inevitablement une erreur de diagnostiqe comme le ferais
    n'importe qu'elle humain
    la machine c'est bien mais ce n'est qu'un outils l'homme doit toujours avoir l'acte decisionnel final

  8. #8
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 915
    Points : 37 422
    Points
    37 422
    Par défaut Google lance AMIE, un modèle d'IA qui surpasse les médecins humains dans les diagnostics
    AMIE, l'IA de Google, serait plus à l'aise au chevet des patients que les médecins humains et pose de meilleurs diagnostics,
    offrant une amélioration potentielle des soins médicaux

    Une intelligence artificielle (IA) élaborée par Google, baptisée Articulate Medical Intelligence Explorer (AMIE), a démontré des performances comparables, voire supérieures, à celles des médecins humains dans le diagnostic des affections respiratoires et cardiovasculaires. Ce chatbot, fondé sur un grand modèle de langage, a été évalué au cours d'entretiens médicaux simulés avec des acteurs formés, surpassant les médecins en termes de précision diagnostique et d'empathie.

    Bien que l'IA ne soit pas encore prête pour une utilisation clinique, les chercheurs estiment qu'elle pourrait contribuer à rendre les soins de santé plus accessibles. Toutefois, des précautions sont nécessaires, notamment pour évaluer les éventuels biais et garantir l'équité entre différentes populations. La protection de la vie privée des utilisateurs de chatbots est également soulignée comme une considération cruciale.


    Au cœur de la médecine réside le dialogue entre le médecin et le patient, où une anamnèse habile ouvre la voie à un diagnostic précis, une gestion efficace et une confiance durable. Les systèmes d'intelligence artificielle (IA) capables de dialoguer pour un diagnostic pourraient améliorer l'accessibilité, la cohérence et la qualité des soins. Cependant, imiter l'expertise des cliniciens reste un défi majeur.

    Nom : image4.gif
Affichages : 8852
Taille : 136,0 Ko

    AMIE, un système d'intelligence artificielle basé sur un grand modèle de langage (LLM) optimisé pour le dialogue diagnostique, utilise un environnement simulé basé sur l'auto-jeu avec des mécanismes de retour d'information automatisés pour étendre l'apprentissage à diverses maladies, spécialités et contextes. L'outil d'IA a démontré une précision supérieure à celle des médecins de premier recours certifiés dans le diagnostic des affections respiratoires et cardiovasculaires, entre autres.

    L'évolution des grands modeles de langage : au-dela des mots, vers des dialogues diagnostiques en sante

    Un grand modèle de langage (LLM) est un algorithme d'apprentissage profond qui peut effectuer une variété de tâches de traitement du langage naturel (NLP). Les grands modèles de langage utilisent des modèles de transformation et sont formés à l'aide d'ensembles de données massifs - d'où le terme « grand ». Cela leur permet de reconnaître, traduire, prédire ou générer du texte ou d'autres contenus.

    Les grands modèles linguistiques sont également appelés réseaux neuronaux (RN), qui sont des systèmes informatiques inspirés du cerveau humain. Ces réseaux neuronaux fonctionnent à l'aide d'un réseau de nœuds en couches, à l'instar des neurones. Outre l'apprentissage des langues humaines pour les applications d'intelligence artificielle, les grands modèles de langage peuvent également être entraînés à effectuer diverses tâches telles que la compréhension des structures protéiques, l'écriture de codes logiciels, etc.

    À l'instar du cerveau humain, les grands modèles de langage doivent être pré-entraînés puis affinés afin de pouvoir résoudre des problèmes de classification de textes et de réponse à des questions. Leurs capacités de résolution de problèmes peuvent être appliquées à des domaines tels que la santé. Les grands modèles de langage ont également un grand nombre de paramètres, qui sont comme des mémoires que le modèle recueille au fur et à mesure qu'il apprend lors de la formation. Ces paramètres constituent la banque de connaissances du modèle.

    Les progrès récents des grands modèles de langage (LLM) en dehors du domaine médical ont montré qu'ils peuvent planifier, raisonner et utiliser un contexte pertinent pour tenir des conversations riches. Cependant, de nombreux aspects d'un bon dialogue diagnostique sont propres au domaine médical. Un clinicien efficace établit un « historique clinique » complet et pose des questions intelligentes qui aident à établir un diagnostic différentiel.

    Il dispose de compétences considérables pour établir une relation efficace, fournir des informations claires, prendre des décisions conjointes et éclairées avec le patient, réagir avec empathie à ses émotions et le soutenir dans les étapes suivantes des soins. Bien que les LLM puissent effectuer avec précision des tâches telles que la synthèse médicale ou la réponse à des questions médicales, peu de travaux ont été consacrés au développement de ce type de capacités de diagnostic conversationnel.

    En début d'année dernière, des chercheurs de Google et de DeepMind ont présenté un grand modèle de langage, appelé Med-PaLM, destiné à répondre à des questions médicales non spécialisées. Med-PaLM, basé sur le modèle de langage PaLM de Google avec 540 milliards de paramètres, a montré des performances équivalentes, voire supérieures, à celles des médecins humains dans le diagnostic des affections respiratoires et cardiovasculaires.

    L'équipe a utilisé une nouvelle méthode appelée "Instruction Prompt Tuning", combinant des invites souples, des données médicales limitées et des invites rédigées par des humains. Med-PaLM a obtenu des résultats comparables aux professionnels dans la plupart des tests, surpassant notamment Flan-PaLM. Les performances du modèle ont été évaluées sur MultiMedQA, un benchmark de questions-réponses médicales, et ont montré des résultats encourageants, bien que l'IA ne soit pas encore prête pour une utilisation clinique.

    Le modèle a également présenté moins de réponses potentiellement dangereuses par rapport à Flan-PaLM. Le rapport suggère que les modèles de langage, tels que Med-PaLM, pourraient jouer un rôle émergent dans le domaine médical, mais souligne l'importance d'une approche prudente pour garantir la fiabilité et la sécurité des réponses fournies par l'IA.

    Par rapport aux médecins humains, AMIE a réussi à acquérir une quantité similaire d'informations au cours des entretiens médicaux et a obtenu un meilleur classement en matière d'empathie. Alan Karthikesalingam, chercheur clinique chez Google Health à Londres et coauteur de l'étude, souligne qu'il s'agit de la première conception optimale d'un système d'IA conversationnel dédié au dialogue diagnostique et à la prise en compte des antécédents cliniques.

    Bien que le chatbot soit encore à un stade expérimental et n'ait pas été testé sur des personnes présentant de réels problèmes de santé, les auteurs estiment qu'il pourrait éventuellement contribuer à la démocratisation des soins de santé. Cependant, ils insistent sur le fait qu'il ne devrait pas remplacer les interactions avec les médecins, car la médecine va au-delà de la collecte d'informations, impliquant des relations humaines, comme le souligne le Dr Adam Rodman de la Harvard Medical School.

    ChatGPT vs. Médecins : une étude révèle des préférences surprenantes

    Une autre étude, publiée dans la revue JAMA Internal Medicine, met en avant que dans 79 % des cas, un panel de professionnels de la santé a préféré les réponses de ChatGPT à des questions médicales par rapport à celles d'un médecin. Ces résultats suggèrent que les assistants d'intelligence artificielle, tels que ChatGPT, pourraient jouer un rôle dans la rédaction des communications entre médecins et patients. Cependant, des mises en garde ont été émises concernant la délégation de la responsabilité clinique, car le chatbot a tendance à produire des informations incorrectes. Des recherches futures se concentreront sur l'évaluation des biais potentiels et la garantie de l'équité pour différentes populations, ainsi que sur les exigences éthiques pour tester le système avec des humains ayant de réels problèmes médicaux.

    Selon les auteurs de l'étude, ces résultats mettent en évidence le rôle que pourraient jouer les assistants d'intelligence artificielle dans la médecine, en suggérant que ces agents pourraient aider à rédiger les communications des médecins avec les patients. « Les possibilités d'améliorer les soins de santé grâce à l'IA sont énormes », a déclaré le Dr John Ayers, de l'université de Californie à San Diego.

    D'autres ont toutefois fait remarquer que les résultats ne signifiaient pas que ChatGPT était un meilleur médecin et ont mis en garde contre la délégation de la responsabilité clinique, étant donné que le chatbot a tendance à produire des « faits » qui ne sont pas vrais. Les questions originales ont été posées au modèle de langage d'IA, ChatGPT, auquel il a été demandé de répondre. Un panel de trois professionnels de la santé agréés, qui ne savaient pas si la réponse provenait d'un médecin humain ou de ChatGPT, a évalué les réponses en fonction de leur qualité et de leur empathie.

    Dans l'ensemble, le panel a préféré les réponses de ChatGPT à celles d'un médecin humain dans 79 % des cas. Les réponses du ChatGPT ont également été jugées de bonne ou de très bonne qualité dans 79 % des cas, contre 22 % des réponses des médecins, et 45 % des réponses du ChatGPT ont été jugées empathiques ou très empathiques, contre seulement 5 % des réponses des médecins.

    Le Dr Christopher Longhurst, de l'UC San Diego Health, a déclaré : « Ces résultats suggèrent que des outils tels que ChatGPT peuvent efficacement rédiger des conseils médicaux personnalisés de haute qualité qui seront examinés par les cliniciens, et nous commençons ce processus à l'UCSD Health. » Certains ont fait remarquer qu'étant donné que le ChatGPT a été spécifiquement optimisé pour être sympathique, il n'est pas surprenant qu'il écrive des textes qui donnent l'impression d'être empathiques. Il a également eu tendance à donner des réponses plus longues et plus bavardes que les médecins humains, ce qui pourrait avoir joué un rôle dans ses notes plus élevées.

    Le professeur Anthony Cohn, de l'université de Leeds, a déclaré que l'utilisation des modèles de langage comme outil de rédaction des réponses était un « cas d'utilisation raisonnable pour une adoption rapide », mais que même dans un rôle de soutien, ils devraient être utilisés avec prudence. « Il a été démontré que les humains font trop confiance aux réponses des machines, en particulier lorsqu'elles sont souvent justes, et un humain n'est pas toujours suffisamment vigilant pour vérifier correctement la réponse d'un chatbot », a-t-il déclaré. « Il faudrait se prémunir contre cela, peut-être en utilisant des réponses synthétiques erronées aléatoires pour tester la vigilance. »

    A la recherche d'un chatbot impartial

    Les chercheurs de Google envisagent comme prochaine étape cruciale de mener des études approfondies pour évaluer les possibles biais et garantir l'équité du système pour diverses populations. L'équipe de Google se penche également sur les exigences éthiques en vue de tester le système avec des individus confrontés à de véritables problèmes médicaux. Daniel Ting, clinicien spécialiste de l'IA à l'école de médecine Duke-NUS de Singapour, souligne l'importance d'examiner le système pour détecter les biais, assurant ainsi que l'algorithme n'impacte pas négativement les groupes raciaux sous-représentés dans les ensembles de données d'apprentissage.

    La protection de la vie privée des utilisateurs de chatbots est également une considération cruciale, selon Ting. Il souligne le manque de transparence quant au stockage et à l'analyse des données pour de nombreuses plateformes commerciales de modèles de langage.

    L'essor rapide des soins de santé virtuels a engendré une hausse du nombre de messages de patients, entraînant une charge de travail accrue et un épuisement professionnel chez les professionnels de la santé. Les assistants d'intelligence artificielle pourraient potentiellement contribuer à répondre aux questions des patients en rédigeant des réponses examinables par les cliniciens.

    L'étude présente plusieurs limites et doit être interprétée avec prudence. Les cliniciens étaient limités à un chat textuel synchrone, peu familier et permettant des interactions LLM-patient à grande échelle, mais non représentatif de la pratique clinique habituelle. Des recherches supplémentaires sont nécessaires avant qu'AMIE puisse être appliqué dans le monde réel.

    L'intégration d'assistants d'intelligence artificielle dans le domaine de la santé sucite plusieurs préoccupations éthiques et pratiques. Tout d'abord, il est crucial de garantir la précision des informations fournies par ces assistants. Les erreurs médicales peuvent avoir des conséquences graves, et la confiance accordée aux systèmes d'IA doit reposer sur des résultats rigoureusement validés et continuellement évalués.

    Par ailleurs, la confidentialité des données de santé des patients est une préoccupation majeure. Les utilisateurs doivent avoir l'assurance que leurs informations médicales sont traitées de manière sécurisée et conforme aux normes de confidentialité. Les concepteurs d'assistants d'IA doivent mettre en place des mécanismes robustes pour protéger la vie privée des utilisateurs.

    Un autre défi concerne la diversité des patients et des conditions médicales. Les modèles d'IA doivent être formés sur des ensembles de données variés et représentatifs pour éviter les biais et assurer des résultats équitables pour tous les groupes démographiques. Il est également essentiel que les assistants d'IA soient considérés comme des outils complémentaires plutôt que des substituts aux professionnels de la santé. Rien ne peut remplacer l'expérience humaine, l'intuition clinique et la relation patient-médecin. Les utilisateurs doivent être conscients des limites de ces systèmes et être encouragés à consulter un professionnel de la santé pour des problèmes complexes ou des situations d'urgence.

    Technologies d'IA en sante : un équilibre essentiel entre promesses et précautions

    Les résultats des recherches menées par les chercheurs de Google sur Articulate Medical Intelligence Explorer ainsi que l'étude publiée dans la revue JAMA Internal Medicine sur ChatGPT suscitent un mélange de fascination et de préoccupations légitimes.

    Concernant AMIE, les performances notables de cette intelligence artificielle dans le diagnostic des affections respiratoires et cardiovasculaires, dépassant même la précision diagnostique et l'empathie des médecins humains dans certains aspects, sont indéniablement impressionnantes. Cependant, il est impératif de rester prudent quant à l'application réelle de ces résultats dans des situations cliniques. Les limites actuelles, telles que le fait qu'AMIE n'ait pas été testé sur des patients réels et qu'il ait été évalué dans un contexte simulé, pourraient soulever des questions quant à la généralisabilité de ces performances. Il est essentiel de poursuivre les recherches pour s'assurer de la fiabilité d'AMIE dans des environnements de soins réels et de son adaptation à diverses populations.


    En ce qui concerne l'étude sur ChatGPT, les résultats indiquant que dans 79 % des cas, un panel de professionnels de la santé a préféré les réponses du modèle de langage à celles d'un médecin soulèvent des points intéressants. Toutefois, il est crucial de noter que la préférence du panel ne doit pas être interprétée comme une supériorité globale de ChatGPT par rapport aux médecins humains. L'évaluation de la qualité et de l'empathie des réponses est une dimension spécifique qui peut être biaisée par des critères particuliers du panel et les caractéristiques propres à ChatGPT, telles que sa tendance à produire des réponses plus longues et bavardes. Ces résultats ne doivent pas conduire à une délégation aveugle de responsabilités cliniques à des modèles d'IA, car les décisions médicales impliquent souvent des nuances et une compréhension approfondie des contextes individuels.

    Bien que ces études démontrent le potentiel fascinant des technologies d'IA dans le domaine médical, il est crucial de maintenir une approche critique. Des recherches supplémentaires, des tests cliniques approfondis, et une évaluation continue sont nécessaires pour garantir la fiabilité, la sécurité et l'éthique des applications médicales basées sur l'IA. L'humain doit rester au cœur des décisions médicales, avec les systèmes d'IA agissant en tant qu'outils complémentaires, mais jamais en remplacement complet des professionnels de la santé.

    Sources : Google, JAMA Internal Medicine

    Et vous ?

    Quel est votre avis sur le sujet ?

    Accorderiez-vous votre confiance à un diagnostic établi par une intelligence artificielle ?

    Quelle est votre position concernant l'application de l'intelligence artificielle dans le secteur de la santé ?

    En quoi les résultats prometteurs d'AMIE pourraient-ils être compromis lors de l'utilisation dans des situations cliniques réelles ?

    Voir aussi :

    Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %

    Google crée une IA de détection du cancer du poumon qui surpasse celle de six radiologistes humains, après examen de 45 856 scanners thoraciques

    Google lance Gemini, un modèle d'IA puissant qui, selon lui, peut surpasser GPT-4 et dispose de « capacités de raisonnement » avancées pour « réfléchir plus attentivement »

Discussions similaires

  1. Réponses: 1
    Dernier message: 10/03/2014, 12h02
  2. Google bientôt capable de répondre aux questions ?
    Par Hinault Romaric dans le forum Webmarketing
    Réponses: 13
    Dernier message: 04/07/2012, 13h24
  3. Réponses: 0
    Dernier message: 03/04/2012, 20h03
  4. Réponses: 4
    Dernier message: 02/09/2008, 17h55

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo