https://frosthead.com

Des neuroscientifiques ont converti les ondes cérébrales en discours verbal

La même technologie que celle utilisée par votre assistant mobile bavard pourrait éventuellement permettre aux personnes qui ont perdu la capacité de parler de s'exprimer. Comme le rapporte Renae Reints pour Fortune, des neuroscientifiques de l’Université de Columbia ont récemment réalisé une avancée majeure vers cet objectif futuriste, traduisant pour la première fois les ondes cérébrales en discours intelligible.

Les recherches de l'équipe, publiées dans Scientific Reports, impliquent une approche quelque peu non conventionnelle. Plutôt que de suivre directement les pensées pour produire la parole, les chercheurs ont enregistré les schémas neurologiques générés par les sujets-tests écoutant les autres parler. Ces ondes cérébrales ont été introduites dans un vocodeur, un algorithme d'intelligence artificielle synthétisant la parole, puis converties en paroles compréhensibles, bien que de type robotique, reflétant les phrases entendues par les participants.

«Nos voix nous aident à nous connecter à nos amis, à notre famille et au monde qui nous entoure. C’est pourquoi perdre le pouvoir de sa voix à cause d’une blessure ou d’une maladie est si dévastateur», déclare l’auteur de l’étude Nima Mesgarani, ingénieur du programme de neurobiologie de Columbia. une déclaration. «Avec l'étude d'aujourd'hui, nous avons un moyen potentiel de restaurer ce pouvoir. Nous avons montré qu'avec une technologie appropriée, les auditeurs pourraient déchiffrer et comprendre les pensées de ces personnes. »

Selon George Dvorsky de Gizmodo, il convient de noter que les scientifiques n’ont pas encore trouvé le moyen de traduire directement en mots les pensées internes, également appelées discours imaginé. Dans ce scénario idéal, les personnes utilisant la technologie de la parole imagineraient simplement ce qu’elles voulaient dire, puis attendraient qu’un système de voix artificielle exprime ces pensées.

Le physicien britannique décédé Stephen Hawking a utilisé une version rudimentaire de la technologie de synthèse de la parole pour communiquer avec d'autres. Comme Nina Godlewski écrit pour Newsweek, Hawking a été diagnostiquée à l'âge de 21 ans avec la sclérose latérale amyotrophique (SLA). La motoneurone a finalement réclamé ses capacités de parole, l'obligeant à utiliser un clicker manuel pour déclencher la parole.

Lorsque Hawking a perdu l'usage de ses mains, il est passé à un système basé sur les mouvements du visage. Dvorsky de Gizmodo explique en outre que le scientifique a utilisé un commutateur de joue relié à ses lunettes pour choisir les mots prononcés par un synthétiseur vocal.

Une itération avancée de cette technologie omettrait l'homme du milieu, ce qui permettrait aux utilisateurs de produire de la parole sans l'aide d'un ordinateur ou d'un système sensible au mouvement.

En comparaison, Avery Thompson note pour Popular Mechanics, que l’étude de l’équipe Columbia porte sur la traduction de «paroles entendues». Les chercheurs ont recruté cinq patients atteints d’épilepsie sur le point de subir une opération du cerveau et leur ont demandé d’écouter une série de mots parlés, par exemple un enregistrement de en comptant de zéro à neuf, tout en étant connecté à des dispositifs de surveillance neuronale.

Les ondes cérébrales capturées par ces outils ont été intégrées au vocodeur, qui synthétisait la parole à l’aide d’un réseau de neurones formé, comme l’a dit Kristin Houser du Futurisme, à «nettoyer» la sortie et à rendre les sons intelligibles.

Ensuite, les scientifiques ont demandé à 11 autres participants d’écouter le discours activé par l’IA. De manière significative, souligne le coauteur de l'étude, Mesgarani, dans la déclaration de Columbia, ces personnes ont été en mesure de "comprendre et de répéter" les sons environ 75% du temps, "bien au-delà" des taux observés dans les expériences précédentes. (Vous pouvez juger des enregistrements par vous-même ici.)

Dans une interview avec Dvorsky de Gizmodo, Mesgarani a déclaré que ses collègues et lui-même espéraient pouvoir synthétiser des phrases plus complexes dans un proche avenir. Les chercheurs veulent également enregistrer les signaux cérébraux générés par des sujets de test qui pensent ou imaginent l'acte de parler plutôt que d'écouter simplement les autres parler. Enfin, ajoute Mesgarani, l’équipe a pour objectif de transformer un jour la technologie en un implant capable de traduire les pensées du porteur directement en mots.

Les limites potentielles de la nouvelle recherche incluent la taille réduite de son échantillon et, selon le neuroscientifique Andrew Jackson de la Newcastle, qui n'a pas participé à l'étude, le fait que les réseaux de neurones devraient être introduits dans un grand nombre de signaux du cerveau émis par chaque nouveau participant. afin de synthétiser la parole au-delà des chiffres zéro à neuf.

"Il sera intéressant à l'avenir de voir à quel point les décodeurs formés pour une personne sont généralement généralisés à d'autres", a déclaré Jackson à Gizmodo . «Cela ressemble un peu aux systèmes de reconnaissance vocale précoce qui devaient être formés individuellement par l'utilisateur, contrairement aux technologies actuelles, telles que Siri et Alexa, qui peuvent donner un sens à la voix de n'importe qui, encore une fois en utilisant des réseaux de neurones. Seul le temps nous dira si ces technologies pourraient un jour faire la même chose pour les signaux cérébraux ».

Des neuroscientifiques ont converti les ondes cérébrales en discours verbal