Nagawa ng mga siyentipiko na magparami ng mental speech gamit ang isang implant sa utak

Ang mga taong nawalan ng kakayahang magsalita sa kanilang sariling boses ay may posibilidad na gumamit ng iba't ibang mga speech synthesizer. Nag-aalok ang mga modernong teknolohiya ng maraming solusyon sa problemang ito: mula sa simpleng pag-input ng keyboard hanggang sa pag-input ng text gamit ang isang sulyap at isang espesyal na display. Gayunpaman, ang lahat ng umiiral na mga solusyon ay medyo mabagal, at kung mas malala ang kondisyon ng isang tao, mas tumatagal para sa kanya upang mag-type. Posible na ang problemang ito ay malapit nang malutas gamit ang isang neural interface, na ipinatupad sa anyo ng isang espesyal na implant ng mga electrodes na naka-install nang direkta sa utak, na nagbibigay ng maximum na katumpakan sa pagbabasa ng aktibidad nito, na kung saan ang system ay maaaring bigyang-kahulugan sa pagsasalita. na mauunawaan natin.

Nagawa ng mga siyentipiko na magparami ng mental speech gamit ang isang implant sa utak

Ang mga mananaliksik mula sa Unibersidad ng California sa San Francisco sa kanilang artikulo para sa magazine ng Kalikasan noong Abril 25, inilarawan nila kung paano nila naipahayag ang pananalita ng isip ng isang tao gamit ang isang implant. Iniulat, ang tunog ay hindi tumpak sa ilang mga lugar, ngunit ang mga pangungusap ay ganap na nagawang kopyahin, at higit sa lahat, naiintindihan ng mga tagapakinig sa labas. Nangangailangan ito ng mga taon ng pagsusuri at paghahambing ng mga naitalang signal ng utak, at ang teknolohiya ay hindi pa handang gamitin sa labas ng laboratoryo. Gayunpaman, ipinakita ng eksperimento na "gamit lamang ang utak, maaari mong tukuyin at i-reproduce ang pagsasalita," sabi ni Gopala Anumanchipalli, isang brain and speech scientist.

"Ang teknolohiyang inilarawan sa bagong pag-aaral ay nangangako na sa kalaunan ay maibabalik ang kakayahan ng mga tao na malayang magsalita," paliwanag ni Frank Guenther, isang neuroscientist sa Boston University. "Mahirap na labis na ipahayag ang kahalagahan nito para sa lahat ng mga taong ito... Ito ay hindi kapani-paniwalang paghihiwalay at isang bangungot na hindi maipahayag ang iyong mga pangangailangan at makipag-ugnayan lamang sa komunidad."

Tulad ng nabanggit na, ang mga umiiral na tool sa pagsasalita na umaasa sa pag-type ng mga salita gamit ang isang paraan o iba pa ay nakakapagod at kadalasang gumagawa ng hindi hihigit sa 10 salita kada minuto. Sa mga naunang pag-aaral, ginamit na ng mga siyentipiko ang mga signal ng utak upang i-decode ang maliliit na tipak ng pananalita, tulad ng mga patinig o indibidwal na salita, ngunit may mas limitadong bokabularyo kaysa sa bagong gawain.

Si Anumanchipalli, kasama ang neurosurgeon na si Edward Chang at bioengineer na si Josh Chartier, ay nag-aral ng limang tao na pansamantalang nakatanim sa kanilang mga utak bilang bahagi ng paggamot para sa epilepsy. Dahil ang mga taong ito ay nakapagsalita sa kanilang sarili, ang mga mananaliksik ay nakapagtala ng aktibidad ng utak habang ang mga paksa ay nagsasalita ng mga pangungusap. Pagkatapos ay iniugnay ng koponan ang mga signal ng utak na kumokontrol sa mga labi, dila, panga at larynx sa aktwal na paggalaw ng vocal tract. Pinahintulutan nito ang mga siyentipiko na lumikha ng isang natatanging virtual voice apparatus para sa bawat tao.

Pagkatapos ay isinalin ng mga mananaliksik ang mga paggalaw ng virtual voice box sa mga tunog. Ang paggamit ng pamamaraang ito ay "pinahusay ang pagsasalita at ginawa itong mas natural," sabi ni Chartier. Humigit-kumulang 70 porsiyento ng mga muling itinayong salita ay naiintindihan ng mga tagapakinig na hiniling na bigyang-kahulugan ang synthesized na pananalita. Halimbawa, kapag sinubukan ng isang paksa na sabihin, "Kumuha ng calico cat upang ilayo ang mga daga," narinig ng nakikinig, "Ang calico cat upang ilayo ang mga kuneho." Sa pangkalahatan, maganda ang tunog ng ilang tunog, tulad ng "sh (sh)." Ang iba, gaya ng "buh" at "puh", ay mas mahina ang tunog.

Ang teknolohiyang ito ay nakasalalay sa pag-alam kung paano ginagamit ng isang tao ang vocal tract. Ngunit maraming tao ang hindi magkakaroon ng impormasyong ito at aktibidad ng utak, dahil sila, sa prinsipyo, ay hindi makapagsalita dahil sa stroke sa utak, pinsala sa vocal tract, o sakit ni Lou Gehrig (na dinanas ni Stephen Hawking).

"Sa ngayon ang pinakamalaking hadlang ay kung paano mo gagawin ang pagbuo ng isang decoder kapag wala kang isang halimbawa ng pagsasalita na itatayo nito," sabi ni Mark Slutsky, isang neuroscientist at neuro-engineer sa Johns School of Medicine. Feinberg ng Northwestern University sa Chicago.

Gayunpaman, sa ilang mga pagsubok, nalaman ng mga mananaliksik na ang mga algorithm na ginamit upang isalin ang mga virtual na paggalaw ng vocal tract sa mga tunog ay sapat na magkapareho mula sa tao patungo sa tao na maaari itong magamit muli sa iba't ibang tao, marahil kahit na ang mga hindi naman ay maaaring magsalita.

Ngunit sa ngayon, ang pag-compile ng isang unibersal na mapa ng aktibidad ng mga signal ng utak alinsunod sa gawain ng vocal apparatus ay mukhang isang sapat na mahirap na gawain upang magamit ito para sa mga taong ang speech apparatus ay hindi naging aktibo sa mahabang panahon.



Pinagmulan: 3dnews.ru

Magdagdag ng komento