Des scientifiques traduisent en mots les ondes cérébrales d'un homme paralysé

Des scientifiques traduisent en mots les ondes cérébrales d’un homme paralysé

Accueil » Santé » Des scientifiques traduisent en mots les ondes cérébrales d’un homme paralysé
  • L’anarthrie, qui est la perte de la capacité de parler, peut avoir diverses causes, comme un accident vasculaire cérébral ou la sclérose latérale amyotrophique.
  • Les personnes atteintes d’anarthrie conservent souvent leurs capacités linguistiques, mais la paralysie peut les empêcher d’utiliser des aides technologiques pour communiquer.
  • Les neuroscientifiques ont utilisé l’apprentissage automatique pour traduire en mots et en phrases activité électrique dans la partie du cerveau responsable de la parole.

Pour la première fois, des scientifiques ont réussi à traduire en texte l’activité cérébrale d’une personne paralysée incapable de parler.

Des neuroscientifiques ont implanté un réseau d’électrodes de la taille d’une carte de crédit dans le cortex sensorimoteur de l’homme de 36 ans, la partie du cerveau qui contrôle l’articulation de la parole.

Les scientifiques, dirigés par l’Université de Californie à San Francisco (UCSF), ont ensuite utilisé des «algorithmes d’apprentissage en profondeur» pour entraîner des modèles informatiques à reconnaître et à classer les mots à partir de modèles d’activité cérébrale du participant.

Ils ont demandé à l’homme de penser à dire des mots qu’ils lui ont présentés sur un écran.

En plus des modèles d’apprentissage en profondeur, ils ont utilisé un « modèle de langage naturel », qui est un programme qui prédit le mot suivant dans une phrase en fonction des mots précédents.

“Ce résultat est vraiment une étape importante vers la restauration de la parole pour les personnes incapables de communiquer en raison d’une paralysie”, a déclaré David Moses, ingénieur postdoctoral à l’UCSF et auteur principal de l’étude, dans une interview avec le San Francisco Chronicle.

“Il y a eu d’autres approches existantes, mais c’est la première preuve que quelqu’un peut essayer de parler et que nous pouvons traduire ce qu’il essayait de dire à partir de cette activité cérébrale.”

Perte de la parole intelligible

Le participant, qui avait 36 ​​ans au début de l’étude, a eu un accident vasculaire cérébral dans le tronc cérébral à l’âge de 20 ans qui a entraîné une paralysie sévère et une perte de la parole intelligible, connue sous le nom d’anarthrie.

D’autres causes d’anarthrie incluent la sclérose latérale amyotrophique, une maladie neurologique rare qui affecte principalement les nerfs responsables du mouvement volontaire.

L’homme de l’étude pouvait émettre des grognements et des gémissements, mais était incapable d’articuler des mots, malgré des fonctions cognitives saines.

En utilisant de légers mouvements de la tête, il peut contrôler un appareil de saisie informatique pour communiquer. Cependant, sa vitesse de frappe avec cet appareil n’est que d’environ cinq mots corrects par minute.

Après 48 sessions de formation avec la nouvelle technologie de « lecture mentale » pendant 81 semaines, il a pu générer environ 15 mots par minute, avec un taux d’erreur de 26 %.

Les scientifiques, qui rapportent leurs découvertes dans le New England Journal of Medicine, affirment que les technologies de décodage de la parole sont généralement considérées comme utilisables si elles ont un taux d’erreur de mots inférieur à 30 %.

“Cette étude représente une percée transformationnelle dans le domaine des interfaces cerveau-ordinateur”, a déclaré le Dr Lee H. Schwamm, qui préside le comité consultatif de l’American Stroke Association et n’a pas été impliqué dans la nouvelle recherche.

“Bien que l’intervention soit assez invasive, nécessitant une intervention chirurgicale cérébrale pour implanter une bande d’enregistrement à la surface du cerveau, et que la précision de la conversion” pensée-parole “était modeste, le paradigme est révolutionnaire”, a déclaré le Dr Schwamm à Medical News Today .

Le Dr Schwamm est vice-président des soins virtuels à Mass General Brigham et professeur de neurologie à la Harvard Medical School de Boston, MA.

Il a déclaré que bien que des recherches antérieures aient utilisé une interface similaire pour traduire les pensées sur le mouvement en contrôle d’un bras robotique, le déchiffrement des mots est encore plus grand.

“Ce qui est le plus étonnant, c’est que la zone du cerveau pour l’implantation du capteur, le cortex sensori-moteur, ne joue pas un rôle important dans la compréhension du langage ou la génération de mots”, a-t-il ajouté.

La zone est impliquée dans le mouvement des lèvres et de la gorge pour produire des sons de la parole, donc la prochaine étape peut être de voir si elle peut également aider les personnes atteintes d’aphasie, qui est une cause plus fréquente de troubles du langage invalidants après un AVC, a déclaré le Dr. Schwamm.

Données sur l’activité cérébrale

En 48 sessions de formation, le participant a tenté de produire des mots particuliers à partir d’un ensemble de 50 mots.

Dans chaque procès, il a été présenté avec un de ces mots sur un écran. Lorsque le mot est devenu vert après un délai de 2 secondes, il a tenté de prononcer le mot.

Au cours de ces sessions, les chercheurs ont collecté 22 heures de données sur l’activité cérébrale, qu’ils ont alimentées à l’algorithme d’apprentissage en profondeur.

Au cours des deux dernières séances supplémentaires, l’homme a tenté d’utiliser les mots précédemment formés pour générer des phrases telles que « J’ai soif » et « J’ai besoin de mes lunettes ».

Dans chaque essai, le participant s’est vu présenter la phrase et a tenté de générer les mots le plus rapidement possible en pensant à les prononcer.

L’algorithme d’apprentissage en profondeur et le modèle de langage ont permis à ses pensées d’être décodées sans erreur dans plus de la moitié des essais de phrases.

Synchronisation précise des mots

Une étude précédente du même groupe impliquait des volontaires sains.

Cependant, l’un des plus grands défis pour les chercheurs qui tentent de créer un programme d’apprentissage en profondeur capable de traduire l’activité cérébrale d’une personne paralysée est le moment précis de ses paroles.

C’est parce que l’algorithme n’a pas de moyen évident de distinguer l’activité électrique qui résulte de la tentative d’articuler des mots, de l’activité cérébrale de fond.

Après la formation, cependant, le nouvel algorithme a réussi à identifier correctement 98% des tentatives du participant pour produire des mots individuels.

Un autre défi consiste à traiter les modèles d’activité cérébrale suffisamment rapidement pour être traduits en temps réel.

Une étude publiée en 2019 par le Cognitive Systems Lab de l’Université de Brême en Allemagne a également utilisé l’apprentissage en profondeur pour décoder l’activité cérébrale mais pas en temps réel.

“La nouvelle étude décode effectivement l’activité cérébrale en temps réel, mais je pense que ce n’est pas la plus grande réussite”, a déclaré l’un de ses auteurs, le professeur Christian Herff, qui n’était pas impliqué dans la nouvelle recherche.

Il a déclaré à MNT que quelques équipes avaient par la suite réalisé une traduction en temps réel, y compris le Brain-Computer Interface Group de l’Université de Maastricht en 2020, où il travaille maintenant.

« Le grand pas de [the new study] c’est qu’ils présentent leurs résultats chez un patient qui n’est en fait plus capable de parler. Avant, toutes les études étaient menées avec des volontaires qui étaient encore capables de parler », a déclaré le professeur Herff.

Publications similaires