This photo provided by researchers at UCSF and UC Berkeley shows Ann, a participant in a study on speech neuroprostheses, in California in 2023.

Jean Delaunay

Un implant expérimental-ordinateur aide un accident vasculaire cérébral à parler à nouveau

Les scientifiques ont formé un modèle d’IA qui traduit l’activité cérébrale en son pour aider un survivant d’un AVC à retrouver la parole.

PUBLICITÉ

Les scientifiques ont développé un appareil qui peut traduire les pensées sur la parole en mots prononcés en temps réel.

Bien que ce soit toujours expérimental, ils espèrent que l’interface cérébrale pourrait un jour aider à donner la parole à ceux qui ne peuvent pas parler.

Une nouvelle étude a décrit le test de l’appareil sur une femme de 47 ans atteinte de quadriplégie qui n’a pas pu parler pendant 18 ans après un accident vasculaire cérébral. Les médecins l’ont implanté dans son cerveau pendant la chirurgie dans le cadre d’un essai clinique.

Il « convertit son intention de parler en phrases courantes », a déclaré Gopala Anuchianchipalli, co-auteur de l’étude, qui a été publiée dans la revue Nature Neuroscience.

D’autres interfaces cérébrales (BCIS) pour la parole ont généralement un léger retard entre les pensées de phrases et la verbalisation informatisée. De tels retards peuvent perturber le flux naturel de la conversation, entraînant potentiellement une mauvaise communication et la frustration, ont déclaré les chercheurs.

Il s’agit «d’une assez grande avance dans notre domaine», a déclaré Jonathan Brumberg du Laborat de discours et des neurosciences appliquée à l’Université du Kansas aux États-Unis. Il ne faisait pas partie de l’étude.

Comment fonctionne l’implantation

Une équipe en Californie a enregistré l’activité cérébrale de la femme en utilisant des électrodes pendant qu’elle parlait en silence des phrases dans son cerveau.

Les scientifiques ont utilisé un synthétiseur qu’ils avaient construit en utilisant sa voix avant sa blessure pour créer un son de la parole qu’elle aurait parlé. Ensuite, ils ont formé un modèle d’intelligence artificielle (IA) qui traduit l’activité neuronale en unités de son.

Il fonctionne de manière similaire aux systèmes existants utilisés pour transcrire des réunions ou des appels téléphoniques en temps réel, a déclaré Anuchianchipalli, de l’Université de Californie à Berkeley, aux États-Unis.

L’implant lui-même se trouve sur le centre de la parole du cerveau afin qu’il écoute, et ces signaux sont traduits en morceaux de discours qui composent des phrases.

Il s’agit d’une «approche de streaming», a déclaré Anuchianchipalli, avec chaque morceau de discours de 80 millisecondes – environ une demi-syllabe – envoyé dans un enregistreur.

« Il n’attend pas une phrase pour terminer », a déclaré Anuchianchipalli. «Il le traite à la volée».

Discours de décodage qui a rapidement le potentiel de suivre le rythme rapide du discours naturel, a déclaré Brumberg. L’utilisation d’échantillons de voix, a-t-il ajouté, «serait une progression significative dans le naturel de la parole».

Bien que les travaux aient été partiellement financés par les États-Unis National Institutes of Health (NIH), Anuchianchipalli a déclaré qu’il n’était pas affecté par les récentes coupes de recherche du NIH.

Des recherches supplémentaires sont nécessaires avant que la technologie ne soit prête pour une utilisation large, mais avec des «investissements soutenus», il pourrait être disponible pour les patients dans une décennie, a-t-il déclaré.

Laisser un commentaire

dix + deux =