ChatGPT montre une précision « impressionnante » dans la prise de décision clinique

ChatGPT montre une précision « impressionnante » dans la prise de décision clinique

Accueil » Parents » Étapes » Enfant » ChatGPT montre une précision « impressionnante » dans la prise de décision clinique

Une nouvelle étude menée par des enquêteurs du Mass General Brigham a révélé que ChatGPT était précis à environ 72 % dans la prise de décision clinique globale, depuis l’élaboration de diagnostics possibles jusqu’à la prise de diagnostics finaux et de décisions de gestion des soins.

Le chatbot d’intelligence artificielle modèle grand langage (LLM) a fonctionné aussi bien dans les contextes de soins primaires que dans les contextes d’urgence dans toutes les spécialités médicales. Les résultats de l’équipe de recherche sont publiés dans le Journal de recherche sur Internet médical.

“Notre article évalue de manière exhaustive l’aide à la décision via ChatGPT depuis le tout début du travail avec un patient tout au long du scénario de soins, du diagnostic différentiel jusqu’aux tests, au diagnostic et à la gestion”, a déclaré l’auteur correspondant Marc Succi, MD, président associé de leader de l’innovation, de la commercialisation et de l’innovation stratégique chez Mass General Brigham et directeur exécutif de l’incubateur MESH.

“Il n’existe pas de véritables critères de référence, mais nous estimons que cette performance se situe au niveau d’une personne qui vient d’obtenir son diplôme de médecine, comme un interne ou un résident. Cela nous indique que les LLM en général ont le potentiel d’être un outil d’augmentation pour le pratique de la médecine et soutenir la prise de décision clinique avec une précision impressionnante.

Les changements dans la technologie de l’intelligence artificielle se produisent à un rythme rapide et transforment de nombreux secteurs, y compris les soins de santé. Mais la capacité des LLM à contribuer à l’ensemble des soins cliniques n’a pas encore été étudiée.

Dans cette étude complète et interspécialités sur la manière dont les LLM pourraient être utilisés dans le conseil clinique et la prise de décision, Succi et son équipe ont testé l’hypothèse selon laquelle ChatGPT serait capable de travailler sur l’intégralité d’une rencontre clinique avec un patient et de recommander un bilan diagnostique, de décider le cours de gestion clinique et, finalement, poser le diagnostic final.

L’étude a été réalisée en collant des parties successives de 36 vignettes cliniques standardisées et publiées dans ChatGPT. Il a d’abord été demandé à l’outil de proposer un ensemble de diagnostics possibles, ou différentiels, basés sur les informations initiales du patient, qui comprenaient l’âge, le sexe, les symptômes et s’il s’agissait d’une urgence.

ChatGPT a ensuite reçu des informations supplémentaires et a été invité à prendre des décisions de gestion ainsi qu’à donner un diagnostic final, simulant l’ensemble du processus de consultation d’un vrai patient.

L’équipe a comparé l’exactitude de ChatGPT sur le diagnostic différentiel, les tests de diagnostic, le diagnostic final et la gestion dans un processus structuré en aveugle, en attribuant des points pour les réponses correctes et en utilisant des régressions linéaires pour évaluer la relation entre les performances de ChatGPT et les informations démographiques de la vignette.

Les chercheurs ont constaté que dans l’ensemble, ChatGPT était précis à environ 72 % et qu’il était le meilleur pour établir un diagnostic final, où il était précis à 77 %. Il était le moins performant en matière de diagnostic différentiel, où il n’était précis qu’à 60 %. Il n’était précis qu’à 68 % dans les décisions de gestion clinique, comme déterminer avec quels médicaments traiter le patient après avoir posé le bon diagnostic.

Parmi les autres conclusions notables de l’étude, citons le fait que les réponses de ChatGPT ne montraient pas de préjugés sexistes et que ses performances globales étaient stables dans les soins primaires et d’urgence.

“ChatGPT a eu du mal avec le diagnostic différentiel, qui est la viande et les pommes de terre de la médecine lorsqu’un médecin doit déterminer quoi faire”, a déclaré Succi. “C’est important car cela nous indique où les médecins sont véritablement experts et apportent le plus de valeur : dans les premiers stades des soins aux patients avec peu d’informations présentées, lorsqu’une liste de diagnostics possibles est nécessaire.”

Les auteurs notent qu’avant que des outils comme ChatGPT puissent être envisagés pour l’intégration dans les soins cliniques, davantage de recherches de référence et d’orientations réglementaires sont nécessaires. Ensuite, l’équipe de Succi examine si les outils d’IA peuvent améliorer les soins et les résultats des patients dans les zones aux ressources limitées des hôpitaux.

L’émergence d’outils d’intelligence artificielle dans le domaine de la santé a été révolutionnaire et pourrait potentiellement remodeler positivement le continuum de soins. Mass General Brigham, en tant que l’un des meilleurs systèmes de santé universitaires intégrés et des plus grandes entreprises d’innovation du pays, ouvre la voie en menant des recherches rigoureuses sur les technologies nouvelles et émergentes pour éclairer l’incorporation responsable de l’IA dans la prestation des soins, le soutien de la main-d’œuvre et les processus administratifs.

« Mass General Brigham voit une grande promesse pour les LLM pour aider à améliorer la prestation des soins et l’expérience des cliniciens », a déclaré le co-auteur Adam Landman, MD, MS, MIS, MHS, directeur de l’information et vice-président senior du numérique chez Mass General Brigham.

« Nous évaluons actuellement les solutions LLM qui facilitent la documentation clinique et rédigent les réponses aux messages des patients en mettant l’accent sur la compréhension de leur exactitude, de leur fiabilité, de leur sécurité et de leur équité. Des études rigoureuses comme celle-ci sont nécessaires avant d’intégrer les outils LLM dans les soins cliniques.

★★★★★

A lire également