A tudósoknak sikerült reprodukálniuk a mentális beszédet egy agyi implantátum segítségével

Azok az emberek, akik elvesztették a saját hangjukon való beszéd képességét, hajlamosak különféle beszédszintetizátorokat használni. A modern technológiák számos megoldást kínálnak erre a problémára: az egyszerű billentyűzettől a szövegbevitelig egy pillantással és egy speciális kijelzővel. Azonban minden létező megoldás meglehetősen lassú, és minél súlyosabb az ember állapota, annál tovább tart a gépelés. Lehetséges, hogy ezt a problémát hamarosan megoldják egy neurális interfész segítségével, amelyet közvetlenül az agyra telepített speciális elektródaimplantátum formájában valósítanak meg, amely maximális pontosságot biztosít az aktivitás leolvasásában, amit a rendszer beszéddé tud értelmezni. hogy meg tudjuk érteni.

A tudósoknak sikerült reprodukálniuk a mentális beszédet egy agyi implantátum segítségével

A San Francisco-i Kaliforniai Egyetem kutatói a maguk cikk a Nature magazinban április 25-én leírták, hogyan sikerült egy személy mentális beszédét megszólaltatni egy implantátum segítségével. Állítólag helyenként pontatlan volt a hangzás, de a mondatokat teljes mértékben vissza tudták reprodukálni, és ami a legfontosabb, a külső hallgatók is megértették. Ez évekig tartó elemzést és a rögzített agyi jelek összehasonlítását igényelte, és a technológia még nem áll készen a laboratóriumon kívüli használatra. A kísérlet azonban azt mutatta, hogy „csak az agy használatával megfejtheti és reprodukálhatja a beszédet” – mondja Gopala Anumanchipalli, agy- és beszédtudós.

"Az új tanulmányban leírt technológia azt ígéri, hogy végül helyreállítja az emberek szabad beszédkészségét" - magyarázza Frank Guenther, a Bostoni Egyetem idegkutatója. "Nehéz túlbecsülni ennek a fontosságát ezeknek az embereknek... Hihetetlenül elszigetelő és rémálom, hogy nem tudod kommunikálni az igényeidet, és egyszerűen nem kommunikálhatsz a közösséggel."

Amint már említettük, a létező beszédeszközök, amelyek a szavak egyik vagy másik módszerrel történő gépelésére támaszkodnak, fárasztóak, és gyakran legfeljebb 10 szót produkálnak percenként. Korábbi tanulmányaik során a tudósok már használták az agyi jeleket a beszéd kisebb darabjainak, például magánhangzók vagy egyes szavak dekódolására, de korlátozottabb szókinccsel, mint az új munkában.

Anumanchipalli Edward Chang idegsebésszel és Josh Chartier biomérnökkel együtt öt olyan embert tanulmányozott, akiknek az epilepszia kezelésének részeként ideiglenesen elektródrácsokat ültettek be az agyukba. Mivel ezek az emberek képesek voltak önállóan beszélni, a kutatók rögzíteni tudták az agyi aktivitást, ahogy az alanyok mondatokat beszéltek. A csapat ezután az ajkakat, a nyelvet, az állkapcsot és a gégét irányító agyi jeleket korrelálta a hangcsatorna tényleges mozgásaival. Ez lehetővé tette a tudósok számára, hogy minden egyes személy számára egyedi virtuális hangberendezést hozzanak létre.

A kutatók ezután a virtuális hangdoboz mozgását hangokká fordították. Ez a módszer „javította a beszédet és természetesebbé tette” – mondja Chartier. A rekonstruált szavak mintegy 70 százaléka érthető volt a hallgatók számára, akiket a szintetizált beszéd értelmezésére kértek fel. Például, amikor egy alany azt akarta mondani, hogy „Vegyél egy kalikon macskát, hogy távol tartsd a rágcsálókat”, a hallgató ezt hallotta: „A kalikómacska, hogy távol tartsd a nyulakat.” Összességében néhány hang jól hangzott, például a „sh (sh).” Mások, mint például a „buh” és a „puh”, lágyabban szóltak.

Ez a technológia attól függ, hogy egy személy hogyan használja a hangpályát. De sokan egyszerűen nem rendelkeznek ezzel az információval és agyi tevékenységgel, mivel elvileg nem tudnak beszélni agyvérzés, hangcsatorna károsodás vagy Lou Gehrig-betegség miatt (amelyben Stephen Hawking szenvedett).

„Messze a legnagyobb akadály az, hogy hogyan építsünk egy dekódert, ha nincs példa arra, hogy milyen beszédre készül” – mondja Mark Slutsky, a Johns School of Medicine idegtudósa és idegmérnöke. Feinberg, a chicagói Northwestern Egyetem munkatársa.

Egyes tesztek során azonban a kutatók azt találták, hogy a virtuális vokális mozgások hangokká való fordítására használt algoritmusok személyenként elég hasonlóak ahhoz, hogy különböző embereknél újra felhasználhatóak legyenek, talán még azok is tudnak beszélni, akik egyáltalán nem tudnak.

Jelenleg azonban az agyi jelek aktivitásának univerzális térképének összeállítása a vokális apparátus munkájával összhangban elég nehéz feladatnak tűnik ahhoz, hogy azt olyan emberek számára használják, akiknek a beszédkészüléke hosszú ideig nem volt aktív.



Forrás: 3dnews.ru

Hozzászólás