Une application pour smartphone utilise l'IA pour détecter la dépression à partir de signaux faciaux

Une application pour smartphone utilise l'IA pour détecter la dépression à partir de signaux faciaux

Accueil » Parents » Infertilité » Une application pour smartphone utilise l'IA pour détecter la dépression à partir de signaux faciaux

Des chercheurs de Dartmouth rapportent avoir développé la première application pour smartphone qui utilise l’intelligence artificielle associée à un logiciel de traitement d’images faciales pour détecter de manière fiable l’apparition de la dépression avant même que l’utilisateur ne sache que quelque chose ne va pas.

Appelée MoodCapture, l'application utilise la caméra frontale d'un téléphone pour capturer les expressions faciales et l'environnement d'une personne lors d'une utilisation régulière, puis évalue les images à la recherche d'indices cliniques associés à la dépression. Dans une étude portant sur 177 personnes diagnostiquées avec un trouble dépressif majeur, l’application a correctement identifié les premiers symptômes de la dépression avec une précision de 75 %.

Ces résultats suggèrent que la technologie pourrait être rendue publique au cours des cinq prochaines années avec un développement ultérieur, ont déclaré les chercheurs, basés au département d'informatique de Dartmouth et à la Geisel School of Medicine.

L'équipe a publié son article sur le arXiv base de données pré-imprimée avant de la présenter à la conférence CHI 2024 de l'Association of Computing Machinery en mai. Les articles présentés au CHI sont évalués par des pairs avant d'être acceptés et seront publiés dans les actes de la conférence.

“C'est la première fois que des images naturelles 'dans la nature' sont utilisées pour prédire la dépression”, a déclaré Andrew Campbell, l'auteur correspondant de l'article et professeur d'informatique du troisième siècle Albert Bradley 1915 à Dartmouth.

“Il y a eu un mouvement en faveur de la technologie numérique de la santé mentale pour finalement proposer un outil capable de prédire l'humeur des personnes diagnostiquées avec une dépression majeure de manière fiable et non intrusive.”

“Les gens utilisent un logiciel de reconnaissance faciale pour déverrouiller leur téléphone des centaines de fois par jour”, a déclaré Campbell, dont le téléphone a récemment montré qu'il l'avait fait plus de 800 fois en une semaine.

“MoodCapture utilise un pipeline technologique similaire de technologie de reconnaissance faciale avec du matériel d'apprentissage profond et d'IA, il existe donc un formidable potentiel pour faire évoluer cette technologie sans aucune contribution ni charge supplémentaire pour l'utilisateur”, a-t-il déclaré. “Une personne déverrouille simplement son téléphone et MoodCapture connaît la dynamique de sa dépression et peut lui suggérer de demander de l'aide.”

Pour l’étude, l’application a capturé 125 000 images de participants sur une période de 90 jours. Les personnes participant à l'étude ont consenti à ce que leurs photos soient prises via la caméra frontale de leur téléphone, mais ne savaient pas quand cela se produisait.

Un premier groupe de participants a été utilisé pour programmer MoodCapture afin de reconnaître la dépression. Ils ont été photographiés en rafales aléatoires à l'aide de la caméra frontale du téléphone alors qu'ils répondaient à la question : « Je me suis senti déprimé, déprimé ou désespéré. » La question provient du questionnaire en huit points sur la santé du patient ou PHQ-8, utilisé par les cliniciens pour détecter et surveiller la dépression majeure.

Les chercheurs ont utilisé l'IA d'analyse d'image sur ces photos afin que le modèle prédictif de MoodCapture puisse apprendre à corréler les auto-évaluations de sentiment de dépression avec des expressions faciales spécifiques, telles que le regard, les mouvements des yeux, la position de la tête et la rigidité musculaire, et des caractéristiques environnementales telles que comme les couleurs dominantes, l'éclairage, les emplacements des photos et le nombre de personnes dans l'image.

Le concept est qu'à chaque fois qu'un utilisateur déverrouille son téléphone, MoodCapture analyse une séquence d'images en temps réel. Le modèle d'IA établit des liens entre les expressions et les détails de fond jugés importants pour prédire la gravité de la dépression, tels que le regard, les changements dans l'expression du visage et l'environnement d'une personne.

Au fil du temps, MoodCapture identifie les caractéristiques de l'image spécifiques à l'utilisateur. Par exemple, si une personne apparaît systématiquement avec une expression plate dans une pièce faiblement éclairée pendant une période prolongée, le modèle d’IA pourrait en déduire que cette personne souffre d’un début de dépression.

Les chercheurs ont testé le modèle prédictif en demandant à un groupe distinct de participants de répondre à la même question PHQ-8 pendant que MoodCapture les photographiait et analysait leurs photos à la recherche d'indicateurs de dépression sur la base des données collectées auprès du premier groupe. C’est ce deuxième groupe que MoodCapture AI a correctement déterminé s’il était déprimé ou non avec une précision de 75 %.

“Cela démontre une voie vers un outil puissant pour évaluer l'humeur d'une personne de manière passive et utiliser les données comme base d'une intervention thérapeutique”, a déclaré Campbell, notant qu'une précision de 90 % serait le seuil d'un capteur viable. “Mon sentiment est qu'une technologie comme celle-ci pourrait être accessible au public d'ici cinq ans. Nous avons montré que c'est faisable.”

MoodCapture rencontre une dépression majeure sur une échelle de temps irrégulière au cours de laquelle elle se produit, a déclaré Nicholas Jacobson, co-auteur de l'étude et professeur adjoint de science des données biomédicales et de psychiatrie au Centre de technologie et de santé comportementale de Dartmouth.

“Beaucoup de nos interventions thérapeutiques contre la dépression sont centrées sur des périodes plus longues, mais ces personnes connaissent des flux et reflux dans leur état. Les évaluations traditionnelles passent à côté de l'essentiel de ce qu'est la dépression”, a déclaré Jacobson, qui dirige l'IA et la santé mentale : Innovation en Laboratoire de soins de santé guidés par la technologie (AIM HIGH).

“Notre objectif est de capturer les changements dans les symptômes que les personnes souffrant de dépression ressentent dans leur vie quotidienne”, a déclaré Jacobson. “Si nous pouvons utiliser cela pour prédire et comprendre les changements rapides dans les symptômes de la dépression, nous pourrons finalement les prévenir et les traiter. Plus nous pouvons être dans le moment présent, moins l'impact de la dépression sera profond.”

Jacobson prévoit que des technologies telles que MoodCapture pourraient contribuer à combler l’écart important entre le moment où les personnes souffrant de dépression ont besoin d’une intervention et l’accès dont elles disposent aux ressources de santé mentale. En moyenne, moins de 1 % de la vie d'une personne est passée avec un clinicien tel qu'un psychiatre, a-t-il déclaré. “L'objectif de ces technologies est de fournir davantage de support en temps réel sans ajouter de pression supplémentaire sur le système de soins”, a déclaré Jacobson.

Une application d'IA comme MoodCapture suggérerait idéalement des mesures préventives telles que sortir ou s'enregistrer avec un ami au lieu d'informer explicitement une personne qu'elle pourrait entrer dans un état de dépression, a déclaré Jacobson.

“Dire à quelqu'un que quelque chose de grave lui arrive peut potentiellement aggraver les choses”, a-t-il déclaré. “Nous pensons que MoodCapture ouvre la porte à des outils d'évaluation qui aideraient à détecter la dépression juste avant qu'elle ne s'aggrave. Ces applications devraient être associées à des interventions qui tentent activement de perturber la dépression avant qu'elle ne s'étende et n'évolue. Il y a un peu plus de dix ans, ce type de travail aurait été inimaginable.

L'étude découle d'une subvention des National Institutes of Mental Health dirigée par Jacobson qui étudie l'utilisation de l'apprentissage en profondeur et de la collecte de données passives pour détecter les symptômes de la dépression en temps réel. Il s'appuie également sur une étude de 2012 menée par le laboratoire de Campbell qui a collecté des données passives et automatiques à partir des téléphones des participants à Dartmouth pour évaluer leur santé mentale.

Mais depuis lors, les progrès des appareils photo des smartphones ont permis aux chercheurs de capturer clairement le type de photos “passives” qui seraient prises lors d'une utilisation normale du téléphone, a déclaré Campbell. Campbell est directeur des technologies émergentes et de l'analyse des données au Centre de technologie et de santé comportementale, où il dirige l'équipe développant des capteurs mobiles capables de suivre des mesures telles que l'état émotionnel et le rendement au travail sur la base de données passives.

La nouvelle étude montre que les photos passives sont la clé du succès des outils thérapeutiques mobiles, a déclaré Campbell. Ils capturent l’ambiance avec plus de précision et de fréquence que les photographies (ou selfies) générées par les utilisateurs et ne dissuadent pas les utilisateurs en exigeant un engagement actif.

“Ces photos neutres ressemblent beaucoup à voir quelqu'un dans l'instant où il ne met pas de facette, ce qui améliore les performances de notre modèle prédictif d'expression faciale”, a déclaré Campbell.

Subigya Népal, une école Guarini d'études supérieures et avancées. candidat du groupe de recherche de Campbell qui, avec son doctorat. L'étudiant Arvind Pillai, Guarini, est co-auteur principal de l'étude, a déclaré que les prochaines étapes de MoodCapture incluent la formation de l'IA sur une plus grande diversité de participants, l'amélioration de sa capacité de diagnostic et le renforcement des mesures de confidentialité.

Les chercheurs envisagent une itération de MoodCapture pour laquelle les photos ne quittent jamais le téléphone d'une personne, a déclaré le Népal. Les images seraient plutôt traitées sur l'appareil d'un utilisateur pour extraire les expressions faciales associées à la dépression et les convertir en code pour le modèle d'IA. “Même si les données quittent l'appareil, il n'y aura aucun moyen de les reconstituer dans une image identifiant l'utilisateur”, a-t-il déclaré.

Parallèlement, la précision de l'application pourrait être améliorée du côté du consommateur si l'IA est conçue pour élargir ses connaissances sur la base des expressions faciales de la personne qui l'utilise, a déclaré le Népal.

“Vous n'auriez pas besoin de repartir de zéro : nous savons que le modèle général est précis à 75 %, donc les données d'une personne spécifique pourraient être utilisées pour affiner le modèle. Les appareils des prochaines années devraient facilement être capables de gérer cela, “, a déclaré le Népal.

“Nous savons que les expressions faciales sont révélatrices de l'état émotionnel. Notre étude est une preuve de concept selon laquelle lorsqu'il s'agit d'utiliser la technologie pour évaluer la santé mentale, elles constituent l'un des signaux les plus importants que nous puissions obtenir.”

★★★★★

A lire également