Une étude révèle des similitudes entre la voie auditive et les modèles d'apprentissage profond pour le traitement de la parole

Une étude révèle des similitudes entre la voie auditive et les modèles d’apprentissage profond pour le traitement de la parole

Accueil » Psychologie » Troubles mentaux » Enfant » Une étude révèle des similitudes entre la voie auditive et les modèles d’apprentissage profond pour le traitement de la parole

La voie auditive humaine est un système biologique très sophistiqué qui comprend à la fois des structures physiques et des régions cérébrales spécialisées dans la perception et le traitement des sons. Les sons que les humains captent par leurs oreilles sont traités dans diverses régions du cerveau, notamment les noyaux cochléaire et olivaire supérieur, le lemnisque latéral, le colliculus inférieur et le cortex auditif.

Au cours des dernières décennies, les informaticiens ont développé des modèles informatiques de plus en plus avancés capables de traiter les sons et la parole, reproduisant ainsi artificiellement la fonction de la voie auditive humaine. Certains de ces modèles ont obtenu des résultats remarquables et sont désormais largement utilisés dans le monde entier, permettant par exemple aux assistants vocaux (Alexa, Siri, etc.) de comprendre les demandes des utilisateurs.

Des chercheurs de l’Université de Californie à San Francisco ont récemment entrepris de comparer ces modèles avec la voie auditive humaine. Leur article, publié dans Neurosciences naturellesa révélé des similitudes frappantes entre la profondeur des réseaux neuronaux et la manière dont les voies auditives biologiques traitent la parole.

“Les modèles vocaux d’IA sont devenus très performants ces dernières années grâce à l’apprentissage profond dans les ordinateurs”, a déclaré Edward F. Chang, l’un des auteurs de l’article, à Medical Xpress. “Nous voulions voir si ce que les modèles apprennent est similaire à la façon dont le cerveau humain traite la parole.”

Pour comparer les réseaux neuronaux profonds à la voie auditive humaine, les chercheurs ont d’abord examiné les représentations vocales produites par les modèles. Il s’agit essentiellement de la manière dont ces modèles codent la parole dans leurs différentes couches.

Par la suite, Chang et ses collègues ont comparé ces représentations à l’activité qui se déroule dans les différentes parties du cerveau associée au traitement des sons. Remarquablement, ils ont trouvé une corrélation entre les deux, dévoilant de possibles similitudes entre le traitement artificiel et biologique de la parole.

“Nous avons utilisé plusieurs modèles commerciaux d’apprentissage profond de la parole et comparé les neurones artificiels de ces modèles aux vrais neurones du cerveau”, a expliqué Chang. “Nous avons comparé la façon dont les signaux vocaux sont traités à travers les différentes couches, ou stations de traitement, du réseau neuronal, et les avons directement comparés au traitement dans différentes zones du cerveau.”

Fait intéressant, les chercheurs ont également découvert que des modèles entraînés à traiter la parole en anglais ou en mandarin pouvaient prédire les réponses cérébrales des locuteurs natifs de la langue correspondante. Cela suggère que les techniques d’apprentissage profond traitent la parole de la même manière que le cerveau humain, codant également des informations spécifiques à la langue.

“Les modèles d’IA qui capturent le contexte et apprennent les propriétés statistiques importantes des sons de la parole réussissent bien à prédire les réponses cérébrales”, a déclaré Chang. “En fait, ils sont meilleurs que les modèles linguistiques traditionnels. Cela implique qu’il existe un énorme potentiel pour exploiter l’IA pour comprendre le cerveau humain dans les années à venir.”

Les travaux récents de Chang et de ses collaborateurs améliorent la compréhension générale des réseaux neuronaux profonds conçus pour décoder la parole humaine, montrant qu’ils pourraient ressembler davantage au système auditif biologique que les chercheurs ne l’avaient prévu. À l’avenir, cela pourrait guider le développement d’autres techniques informatiques conçues pour reproduire artificiellement les fondements neuronaux de l’audition.

“Nous essayons maintenant de comprendre quels modèles d’IA peuvent être repensés pour mieux comprendre le cerveau. Pour l’instant, nous ne faisons que commencer et il y a tellement de choses à apprendre”, a déclaré Chang.

★★★★★

A lire également