Cientistas conseguiram reproduzir a fala mental usando um implante no cérebro

Pessoas que perderam a capacidade de falar com sua própria voz tendem a usar vários sintetizadores de fala. As tecnologias modernas oferecem muitas soluções para este problema: desde a simples entrada no teclado até a entrada de texto usando um olhar e uma tela especial. No entanto, todas as soluções existentes são bastante lentas e, quanto mais grave a condição de uma pessoa, mais tempo ela leva para digitar. É possível que este problema seja resolvido em breve por meio de uma interface neural, que é implementada na forma de um implante especial de eletrodos instalados diretamente no cérebro, o que dá a máxima precisão na leitura de sua atividade, que o sistema pode então interpretar em fala. que podemos entender.

Cientistas conseguiram reproduzir a fala mental usando um implante no cérebro

Pesquisadores da Universidade da Califórnia, em São Francisco, em seu artigo para a revista Nature em 25 de abril, eles descreveram como conseguiram dar voz à fala mental de uma pessoa usando um implante. Alegadamente, o som era impreciso em alguns lugares, mas as frases puderam ser totalmente reproduzidas e, o mais importante, compreendidas por ouvintes externos. Isto exigiu anos de análise e comparação de sinais cerebrais gravados, e a tecnologia ainda não está pronta para uso fora do laboratório. No entanto, a experiência mostrou que “usando apenas o cérebro, é possível decifrar e reproduzir a fala”, diz Gopala Anumanchipalli, cientista do cérebro e da fala.

“A tecnologia descrita no novo estudo promete eventualmente restaurar a capacidade das pessoas de falar livremente”, explica Frank Guenther, neurocientista da Universidade de Boston. “É difícil exagerar a importância disso para todas essas pessoas... É incrivelmente isolador e um pesadelo não ser capaz de comunicar suas necessidades e apenas interagir com a comunidade”.

Como já mencionado, as ferramentas de fala existentes que dependem da digitação de palavras usando um método ou outro são entediantes e muitas vezes não produzem mais do que 10 palavras por minuto. Em estudos anteriores, os cientistas já tinham utilizado sinais cerebrais para descodificar pequenos pedaços de fala, como vogais ou palavras individuais, mas com um vocabulário mais limitado do que no novo trabalho.

Anumanchipalli, juntamente com o neurocirurgião Edward Chang e o bioengenheiro Josh Chartier, estudaram cinco pessoas que tiveram redes de eletrodos implantadas temporariamente em seus cérebros como parte de um tratamento para epilepsia. Como essas pessoas conseguiam falar sozinhas, os pesquisadores conseguiram registrar a atividade cerebral enquanto os sujeitos falavam frases. A equipe então correlacionou os sinais cerebrais que controlam os lábios, a língua, a mandíbula e a laringe com os movimentos reais do trato vocal. Isso permitiu que os cientistas criassem um aparelho de voz virtual exclusivo para cada pessoa.

Os pesquisadores então traduziram os movimentos da caixa de voz virtual em sons. Usar esse método “melhorou a fala e a tornou mais natural”, diz Chartier. Cerca de 70 por cento das palavras reconstruídas eram compreensíveis para os ouvintes que foram solicitados a interpretar a fala sintetizada. Por exemplo, quando um sujeito tentou dizer: “Pegue um gato malhado para manter os roedores afastados”, o ouvinte ouviu: “O gato malhado para manter os coelhos afastados”. No geral, alguns sons soaram bem, como "sh (sh)". Outros, como “buh” e “puh”, soavam mais suaves.

Essa tecnologia depende de saber como a pessoa utiliza o trato vocal. Mas muitas pessoas simplesmente não terão essa informação e atividade cerebral, pois, em princípio, não conseguem falar devido a um derrame cerebral, danos ao trato vocal ou doença de Lou Gehrig (da qual Stephen Hawking sofreu).

“De longe, o maior obstáculo é como construir um decodificador quando não temos um exemplo da fala para a qual ele será construído”, diz Mark Slutsky, neurocientista e neuroengenheiro da Johns School of Medicine. Feinberg, da Northwestern University, em Chicago.

No entanto, em alguns testes, os pesquisadores descobriram que os algoritmos usados ​​para traduzir os movimentos virtuais do trato vocal em sons eram semelhantes o suficiente de pessoa para pessoa para que pudessem ser reutilizados em pessoas diferentes, talvez até mesmo aqueles que não conseguem falar.

Mas, no momento, compilar um mapa universal da atividade dos sinais cerebrais de acordo com o funcionamento do aparelho vocal parece uma tarefa bastante difícil para ser usado por pessoas cujo aparelho de fala não está ativo há muito tempo.



Fonte: 3dnews.ru

Adicionar um comentário