ChatGPT montre une précision « impressionnante » dans la prise de décision clinique

ChatGPT démystifie les mythes sur les réseaux sociaux autour de la sécurité des vaccins, disent les experts

Accueil » Psychologie » Troubles mentaux » Adulte » ChatGPT démystifie les mythes sur les réseaux sociaux autour de la sécurité des vaccins, disent les experts

ChatGPT pourrait contribuer à augmenter le taux de vaccination en démystifiant les mythes autour de la sécurité du vaccin, affirment les auteurs d’une étude publiée dans la revue Vaccins humains et immunothérapeutiques.

Les chercheurs ont posé au chatbot d’intelligence artificielle (IA) les 50 questions les plus fréquemment posées sur le vaccin COVID-19. Ils comprenaient des requêtes basées sur des mythes et de fausses histoires telles que le vaccin provoquant une longue COVID.

Les résultats montrent que ChatGPT a obtenu une note moyenne de 9 sur 10 en termes de précision. Le reste du temps, les informations étaient correctes mais laissaient quelques lacunes dans les informations fournies, selon l’étude.

Sur la base de ces résultats, les experts qui ont dirigé l’étude du groupe de recherche GenPoB basé à l’Instituto de Investigación Sanitaria (IDIS) – Hôpital Clinico Universitario de Saint-Jacques-de-Compostelle, affirment que l’outil d’IA est une « source fiable d’informations non techniques pour le public », en particulier pour les personnes sans connaissances scientifiques spécialisées.

Cependant, les résultats mettent en évidence certaines préoccupations concernant la technologie, telle que ChatGPT, qui modifie ses réponses dans certaines situations.

“Dans l’ensemble, ChatGPT construit un récit conforme aux preuves scientifiques disponibles, démystifiant les mythes circulant sur les réseaux sociaux”, déclare l’auteur principal Antonio Salas, qui en plus de diriger le groupe de recherche GenPoB, est également professeur à la Faculté de médecine de l’Université de Californie. Université de Saint-Jacques-de-Compostelle, en Espagne.

“De ce fait, cela facilite potentiellement une augmentation du recours au vaccin. ChatGPT peut détecter les questions contrefaites liées aux vaccins et à la vaccination. Le langage utilisé par cette IA n’est pas trop technique et donc facilement compréhensible pour le public mais sans perdre en rigueur scientifique.

“Nous reconnaissons que la version actuelle de ChatGPT ne peut pas remplacer une preuve experte ou scientifique. Mais les résultats suggèrent qu’elle pourrait être une source fiable d’informations pour le public.”

En 2019, l’Organisation mondiale de la santé (OMS) a classé l’hésitation à la vaccination parmi les 10 principales menaces pour la santé mondiale.

Pendant la pandémie, la désinformation diffusée via les réseaux sociaux a contribué à la méfiance du public à l’égard de la vaccination contre la COVID-19.

Les auteurs de cette étude comprennent ceux de l’Hospital Clinico Universitario de Santiago que l’OMS a désigné comme centre collaborateur pour la sécurité des vaccins en 2018.

Les chercheurs du centre ont exploré les mythes autour de la sécurité des vaccins et les situations médicales qui sont faussement considérées comme une raison pour ne pas se faire vacciner. Ces inquiétudes déplacées contribuent à l’hésitation à la vaccination.

Les auteurs de l’étude ont entrepris de tester la capacité de ChatGPT à obtenir des faits exacts et à partager des informations précises sur la sécurité des vaccins contre la COVID, conformément aux preuves scientifiques actuelles.

ChatGPT permet aux utilisateurs d’avoir des conversations et des interactions de type humain avec un assistant virtuel. La technologie est très conviviale, ce qui la rend accessible à une large population.

Cependant, de nombreux gouvernements s’inquiètent de la possibilité que ChatGPT soit utilisé frauduleusement dans des établissements d’enseignement tels que les universités.

L’étude a été conçue pour challenger le chatbot en lui posant les questions les plus fréquemment reçues par le centre collaborateur de l’OMS à Santiago.

Les requêtes couvraient trois thèmes. Le premier concerne les idées fausses sur la sécurité, comme le vaccin qui cause une longue COVID. Viennent ensuite les fausses contre-indications – les situations médicales dans lesquelles le vaccin peut être utilisé en toute sécurité, comme chez les femmes qui allaitent.

Les questions concernaient également les véritables contre-indications – un problème de santé pour lequel le vaccin ne devrait pas être utilisé – et les cas où les médecins doivent prendre des précautions, par exemple dans le cas d’un patient souffrant d’une inflammation du muscle cardiaque.

Ensuite, les experts ont analysé les réponses, puis les ont évaluées pour leur véracité et leur précision par rapport aux preuves scientifiques actuelles et aux recommandations de l’OMS et d’autres agences internationales.

Les auteurs affirment que cela était important car les algorithmes créés par les médias sociaux et les moteurs de recherche Internet sont souvent basés sur les préférences habituelles d’un individu. Cela peut conduire à des « réponses biaisées ou erronées », ajoutent-ils.

Les résultats ont montré que la plupart des questions ont reçu une réponse correcte avec une note moyenne de neuf sur 10, définie comme « excellente » ou « bonne ». Les réponses aux trois thèmes de questions étaient en moyenne exactes à 85,5 % ou 14,5 %, mais avec des lacunes dans les informations fournies par ChatGPT.

ChatGPT a fourni des réponses correctes aux requêtes découlant de véritables mythes sur les vaccins et à celles considérées dans les lignes directrices de recommandations cliniques comme étant de fausses ou de vraies contre-indications.

Cependant, l’équipe de recherche souligne les inconvénients de ChatGPT dans la fourniture d’informations sur les vaccins.

Le professeur Salas, spécialisé en génétique humaine, conclut : « Chat GPT fournit des réponses différentes si la question est répétée « avec quelques secondes de retard ».

“Une autre préoccupation que nous avons constatée est que cet outil d’IA, dans sa version actuelle, pourrait également être entraîné pour fournir des réponses non conformes aux preuves scientifiques.

“On peut “torturer” le système de telle manière qu’il fournisse la réponse souhaitée. Cela est également vrai pour d’autres contextes différents de celui des vaccins. Par exemple, il pourrait être possible d’aligner le chatbot sur des récits absurdes comme le plat- théorie de la Terre, nier le changement climatique ou s’opposer à la théorie de l’évolution, juste pour donner quelques exemples.

“Cependant, il est important de noter que ces réponses ne constituent pas le comportement par défaut de ChatGPT. Ainsi, les résultats que nous avons obtenus concernant la sécurité des vaccins peuvent probablement être extrapolés à de nombreux autres mythes et pseudosciences.”

Publications similaires