Els científics han aconseguit reproduir la parla mental mitjançant un implant al cervell

Les persones que han perdut la capacitat de parlar amb la seva pròpia veu solen utilitzar diversos sintetitzadors de veu. Les tecnologies modernes ofereixen moltes solucions a aquest problema: des de l'entrada senzilla del teclat fins a l'entrada de text amb un cop d'ull i una pantalla especial. No obstant això, totes les solucions existents són bastant lentes i com més greu sigui la condició d'una persona, més temps trigarà a escriure. És possible que aquest problema es resolgui aviat mitjançant una interfície neuronal, que s'implementa en forma d'implant especial d'elèctrodes instal·lats directament al cervell, que dóna la màxima precisió en la lectura de la seva activitat, que després el sistema pot interpretar en veu. que podem entendre.

Els científics han aconseguit reproduir la parla mental mitjançant un implant al cervell

Investigadors de la Universitat de Califòrnia a San Francisco al seu article per a la revista Nature el 25 d'abril, van descriure com van aconseguir expressar el discurs mental d'una persona mitjançant un implant. Segons s'informa, el so era inexacte en alguns llocs, però les frases es van poder reproduir completament i, el més important, enteses pels oients externs. Això va requerir anys d'anàlisi i comparació dels senyals cerebrals enregistrats, i la tecnologia encara no està preparada per al seu ús fora del laboratori. Tanmateix, l'experiment va demostrar que "utilitzant només el cervell, podeu desxifrar i reproduir la parla", diu Gopala Anumanchipalli, un científic del cervell i de la parla.

"La tecnologia descrita en el nou estudi promet restaurar finalment la capacitat de parlar lliurement de les persones", explica Frank Guenther, neurocientífic de la Universitat de Boston. "És difícil exagerar la importància d'això per a tota aquesta gent... És increïblement aïllant i un malson no poder comunicar les vostres necessitats i només interactuar amb la comunitat".

Com ja s'ha esmentat, les eines de parla existents que es basen en escriure paraules amb un mètode o un altre són tedioses i sovint no produeixen més de 10 paraules per minut. En estudis anteriors, els científics ja havien utilitzat senyals cerebrals per descodificar petits fragments de la parla, com ara vocals o paraules individuals, però amb un vocabulari més limitat que en el nou treball.

Anumanchipalli, juntament amb el neurocirurgià Edward Chang i el bioenginyer Josh Chartier, van estudiar cinc persones que tenien reixetes d'elèctrodes implantades temporalment al cervell com a part d'un tractament per a l'epilèpsia. Com que aquestes persones podien parlar per si soles, els investigadors van poder registrar l'activitat cerebral mentre els subjectes pronunciaven frases. Després, l'equip va correlacionar els senyals cerebrals que controlen els llavis, la llengua, la mandíbula i la laringe amb els moviments reals del tracte vocal. Això va permetre als científics crear un aparell de veu virtual únic per a cada persona.

Aleshores, els investigadors van traduir els moviments de la caixa de veu virtual en sons. L'ús d'aquest mètode "va millorar el discurs i el va fer més natural", diu Chartier. Al voltant del 70 per cent de les paraules reconstruïdes eren comprensibles per als oients als quals se'ls va demanar que interpretessin el discurs sintetitzat. Per exemple, quan un subjecte intentava dir: "Agafa un gat calicó per allunyar els rosegadors", l'oient va sentir: "El gat calicó per allunyar els conills". En general, alguns sons sonaven bé, com ara "sh (sh)". Altres, com "buh" i "puh", sonaven més suaus.

Aquesta tecnologia depèn de saber com una persona utilitza el tracte vocal. Però moltes persones simplement no tindran aquesta informació i activitat cerebral, ja que, en principi, no poden parlar a causa d'un ictus cerebral, danys al tracte vocal o la malaltia de Lou Gehrig (que patia Stephen Hawking).

"De lluny, l'obstacle més gran és com es construeix un descodificador quan no tens un exemple del discurs per al qual es construirà", diu Mark Slutsky, neurocientífic i enginyer neurològic de la Johns School of Medicine. Feinberg de la Northwestern University de Chicago.

Tanmateix, en algunes proves, els investigadors van trobar que els algorismes utilitzats per traduir els moviments de les vies vocals virtuals en sons eren prou semblants d'una persona a una altra que es podien reutilitzar entre diferents persones, potser fins i tot aquells que no ho són gens poden parlar.

Però, de moment, compilar un mapa universal de l'activitat dels senyals cerebrals d'acord amb el treball de l'aparell vocal sembla una tasca prou difícil d'utilitzar-lo per a persones l'aparell de la parla no ha estat actiu durant molt de temps.



Font: 3dnews.ru

Afegeix comentari