Os científicos conseguiron reproducir o discurso mental mediante un implante no cerebro

As persoas que perderon a capacidade de falar coa súa propia voz adoitan utilizar varios sintetizadores de voz. As tecnoloxías modernas ofrecen moitas solucións a este problema: desde a simple entrada de teclado ata a entrada de texto mediante unha ollada e unha pantalla especial. Non obstante, todas as solucións existentes son bastante lentas e canto máis grave sexa a condición dunha persoa, máis tempo tarda en escribir. É posible que este problema se solucione en breve mediante unha interface neuronal, que se implementa en forma de implante especial de electrodos instalados directamente no cerebro, que dá a máxima precisión na lectura da súa actividade, que o sistema pode interpretar despois na fala. que podemos entender.

Os científicos conseguiron reproducir o discurso mental mediante un implante no cerebro

Investigadores da Universidade de California, San Francisco, no seu artigo para a revista Nature o 25 de abril, describiron como conseguiron expresar o discurso mental dunha persoa mediante un implante. Segundo se informa, o son era inexacto nalgúns lugares, pero as frases puideron ser completamente reproducidas e, o máis importante, entendidas por oíntes externos. Isto requiriu anos de análise e comparación dos sinais cerebrais rexistrados, e a tecnoloxía aínda non está lista para o seu uso fóra do laboratorio. Non obstante, o experimento demostrou que "usando só o cerebro, pódese descifrar e reproducir a fala", di Gopala Anumanchipalli, un científico do cerebro e da fala.

"A tecnoloxía descrita no novo estudo promete finalmente restaurar a capacidade das persoas para falar libremente", explica Frank Guenther, neurocientífico da Universidade de Boston. "É difícil exagerar a importancia disto para toda esta xente... É incriblemente illante e un pesadelo non poder comunicar as túas necesidades e simplemente interactuar coa comunidade".

Como xa se mencionou, as ferramentas de fala existentes que dependen de escribir palabras mediante un método ou outro son tediosas e adoitan producir non máis de 10 palabras por minuto. En estudos anteriores, os científicos xa utilizaran sinais cerebrais para decodificar pequenos anacos de fala, como vogais ou palabras individuais, pero cun vocabulario máis limitado que no novo traballo.

Anumanchipalli, xunto co neurocirurxián Edward Chang e o bioenxeñeiro Josh Chartier, estudaron a cinco persoas ás que se lles implantaron temporalmente reixas de electrodos no cerebro como parte dun tratamento para a epilepsia. Debido a que estas persoas podían falar por si mesmas, os investigadores puideron rexistrar a actividade cerebral mentres os suxeitos pronunciaban frases. Despois, o equipo correlacionou os sinais cerebrais que controlan os beizos, a lingua, a mandíbula e a larinxe cos movementos reais do tracto vocal. Isto permitiu aos científicos crear un aparello de voz virtual único para cada persoa.

A continuación, os investigadores traduciron os movementos da caixa de voz virtual en sons. Usar este método "mellorou o discurso e fíxoo máis natural", di Chartier. Cerca do 70 por cento das palabras reconstruídas eran comprensibles para os oíntes aos que se lles pediu que interpretasen o discurso sintetizado. Por exemplo, cando un suxeito tentaba dicir: "Consigue un gato calico para afastar os roedores", o oínte escoitou: "O gato calico para afastar os coellos". En xeral, algúns sons soaban ben, como "sh (sh)". Outros, como "buh" e "puh", soaban máis suaves.

Esta tecnoloxía depende de saber como unha persoa utiliza o tracto vocal. Pero moitas persoas simplemente non terán esta información e actividade cerebral, xa que, en principio, non poden falar debido a un derrame cerebral, un dano no tracto vocal ou a enfermidade de Lou Gehrig (que padecía Stephen Hawking).

"De lonxe, o maior obstáculo é a forma de construír un decodificador cando non tes un exemplo do discurso para o que se vai construír", di Mark Slutsky, neurocientífico e neuroenxeñeiro da Johns School of Medicine. Feinberg da Northwestern University en Chicago.

Non obstante, nalgunhas probas, os investigadores descubriron que os algoritmos utilizados para traducir os movementos das vías vocais virtuais en sons eran o suficientemente similares de persoa a persoa como para que se puidesen reutilizar en diferentes persoas, quizais ata aqueles que non o son en absoluto.

Pero polo momento, compilar un mapa universal da actividade dos sinais cerebrais de acordo co traballo do aparello vocal parece unha tarefa o suficientemente difícil para usalo para persoas cuxo aparello de fala non estivo activo durante moito tempo.



Fonte: 3dnews.ru

Engadir un comentario