Combattre la mentalité de la ruée vers l’or dans l’IA et les soins de santé mentale
La dépression est la première cause d’invalidité dans le monde. Le trouble anxieux affectera près d’un tiers des adultes américains au cours de leur vie. Les problèmes de santé mentale sont lourds et omniprésents.
Et s’il est vrai que l’IA recèle un énorme potentiel pour améliorer la science et la pratique de la psychothérapie, elle reste définitivement un domaine à enjeux élevés. L’objectif n’est pas simplement d’augmenter l’efficacité du traitement, mais aussi d’améliorer des vies et d’éviter des conséquences aussi graves que le suicide.
Dans un nouveau document de travail, disponible sur le PsyArXiv serveur de prépublication, avec sept co-auteurs issus de disciplines allant de la psychologie à l’informatique, Johannes Eichstaedt et Elizabeth (Betsy) Stade définissent les avantages et les préoccupations potentiels du déploiement de l’IA en psychothérapie. Les auteurs expriment leur vision de la manière dont l’IA pourrait être utilisée à bon escient dans cet espace. “Nous décrivons à quoi ressemblerait une évaluation rigoureuse et sûre”, déclare Stade, l’auteur principal de l’article, étudiant diplômé à l’Université de Pennsylvanie et postdoc entrant à Stanford. “Cela doit vraiment être fait de manière responsable.”
La valeur de l’IA en psychothérapie
L’une des applications les plus claires de l’IA en psychothérapie, et un lieu qui devrait se prêter aux technologies du futur proche, est son utilisation comme une sorte de secrétaire suralimentée. Bien faite, l’IA peut aider les cliniciens avec les entretiens d’admission, la documentation, les notes et d’autres tâches de base ; c’est un outil pour leur faciliter la vie.
“Des parties importantes du pipeline de diagnostic et de traitement peuvent être fastidieuses pour le thérapeute et le client, comme les questionnaires de suivi des symptômes ou les notes d’évolution”, explique Stade. “Le fait de confier ces tâches et processus de niveau inférieur à des systèmes automatisés pourrait libérer les cliniciens pour qu’ils puissent faire ce qu’ils font le mieux : un diagnostic différentiel minutieux, une conceptualisation du traitement et une vue d’ensemble.”
Les patients devraient tirer des avantages similaires des systèmes d’IA. La psychothérapie implique souvent des tâches qui sont assignées aux patients entre les séances, comme des feuilles de travail pratiques et des activités à réaliser à la maison. Ceux-ci peuvent être conçus, par exemple, pour aider un patient à suivre ses pensées et ses sentiments pour en discuter lors de sa prochaine séance de thérapie. Un système d’IA pourrait rendre ce processus beaucoup plus engageant et dynamique et, par conséquent, plus efficace.
Enfin, l’IA pourrait considérablement améliorer les fondements scientifiques et expérimentaux des différentes approches thérapeutiques. D’une part, à mesure que la technologie des chatbots s’améliore, les futurs robots pourraient potentiellement prendre en charge des essais contrôlés avec des combinaisons de centaines d’interventions distinctes sur des milliers ou des centaines de milliers de patients – une impossibilité si des thérapeutes humains étaient nécessaires pour introduire et dispenser chaque intervention. En plus de permettre une telle “super science”, l’IA est déjà utilisée pour analyser les transcriptions des séances de thérapie et déterminer si les interventions sont utilisées correctement.
“Nous savons que la psychothérapie fonctionne, mais nous savons aussi qu’elle peut mieux fonctionner”, déclare Stade. “Si nous sommes en mesure d’utiliser des transcriptions pour suivre ce qui se passe réellement en thérapie, puis de le lier aux résultats de la thérapie, nous pouvons améliorer nos interventions cliniques.”
Une voie vers un développement responsable
Compte tenu de ces perspectives, et étant donné que la santé mentale représente un marché de 100 milliards de dollars, Eichstaedt craint que les entreprises ne se précipitent dans cet espace pour proposer des solutions publicitaires sans diligence raisonnable. Il a déjà été contacté par des capital-risqueurs qui souhaitent appliquer des outils d’apprentissage automatique au monde de la psychothérapie, qui veulent, comme il l’a dit, “lancer un LLM [large language model] au problème et voir s’il persiste.”
Pour lutter contre cette mentalité de ruée vers l’or, les chercheurs proposent un processus en trois étapes, similaire au développement de véhicules autonomes, pour intégrer de manière efficace et responsable l’IA dans la psychothérapie. Dans la première étape, l’étape d’assistance, l’IA effectue des tâches concrètes simples pour soutenir le travail du thérapeute. Ensuite, dans la phase de collaboration, l’IA prend l’initiative de suggérer des options de thérapie, mais les humains adaptent et prennent les décisions finales. Enfin, au stade entièrement autonome, une IA gère non seulement l’ensemble de l’interaction clinique avec les patients, mais s’occupe également de choses comme la facturation et la planification des rendez-vous.
Pour Eichstaedt, il est essentiel que les ingénieurs et thérapeutes ne passent pas de la première étape à la seconde tant que tous les problèmes n’ont pas été déterrés et résolus ; il en va de même pour le passage de la deuxième étape à la troisième. Il s’agit d’un processus certes lent, “plus à l’échelle des décennies que des années”, dit-il.
Les chercheurs soulignent également l’importance de la transparence : les patients doivent savoir qu’ils parlent à un bot, et ils doivent pouvoir se retirer s’ils le souhaitent. L’approbation de ces systèmes devrait suivre quelque chose comme le processus d’approbation des médicaments de la FDA, avec tout évalué pour garantir la sécurité et l’efficacité.
Le document, qui a émergé d’un effort continu au sein du World Well-Being Project – un consortium multi-universitaire d’informaticiens et de psychologues – sert à certains égards d’alarme à la communauté plus large des psychologues. Eichstaedt note que l’attention que lui et ses collaborateurs portent au changement technologique en cours n’est pas nécessairement représentative du domaine dans son ensemble.
“Nous comprenons que cela arrive, mais ce n’est pas du tout clair pour de nombreux psychologues”, dit-il. “Nous avons besoin que la communauté clinique se réveille et assume la responsabilité de ces technologies. Il serait facile de rejeter à quel point elles sont bonnes, à quelle vitesse elles se transforment en piliers de la société, jusqu’à ce qu’il soit trop tard.”