Wetenschappers zijn erin geslaagd mentale spraak te reproduceren met behulp van een implantaat in de hersenen

Mensen die het vermogen om met hun eigen stem te spreken hebben verloren, hebben de neiging verschillende spraaksynthesizers te gebruiken. Moderne technologieën bieden vele oplossingen voor dit probleem: van eenvoudige toetsenbordinvoer tot tekstinvoer met één oogopslag en een speciaal display. Alle bestaande oplossingen zijn echter vrij traag, en hoe ernstiger de toestand van een persoon, hoe langer het duurt voordat hij typt. Het is mogelijk dat dit probleem binnenkort zal worden opgelost met behulp van een neurale interface, die wordt geïmplementeerd in de vorm van een speciaal implantaat van elektroden die rechtstreeks op de hersenen worden geïnstalleerd, wat maximale nauwkeurigheid geeft bij het lezen van de activiteit ervan, die het systeem vervolgens in spraak kan interpreteren. dat wij kunnen begrijpen.

Wetenschappers zijn erin geslaagd mentale spraak te reproduceren met behulp van een implantaat in de hersenen

Onderzoekers van de Universiteit van Californië, San Francisco, in hun artikel voor het tijdschrift Nature op 25 april beschreven ze hoe ze erin slaagden de mentale spraak van een persoon te uiten met behulp van een implantaat. Naar verluidt was het geluid op sommige plaatsen onnauwkeurig, maar de zinnen konden volledig worden gereproduceerd en, belangrijker nog, begrepen door externe luisteraars. Dit vergde jaren van analyse en vergelijking van opgenomen hersensignalen, en de technologie is nog niet klaar voor gebruik buiten het laboratorium. Uit het experiment bleek echter dat je ‘door alleen maar de hersenen te gebruiken, spraak kunt ontcijferen en reproduceren’, zegt Gopala Anumanchipalli, een hersen- en spraakwetenschapper.

"De technologie die in de nieuwe studie wordt beschreven, belooft uiteindelijk het vermogen van mensen om vrijuit te spreken te herstellen", legt Frank Guenther, een neurowetenschapper aan de Boston University, uit. "Het is moeilijk om het belang hiervan voor al deze mensen te overschatten... Het is ongelooflijk isolerend en een nachtmerrie om niet in staat te zijn je behoeften te communiceren en gewoon met de gemeenschap te communiceren."

Zoals eerder vermeld, zijn bestaande spraakhulpmiddelen die afhankelijk zijn van het typen van woorden met behulp van een of andere methode vervelend en produceren ze vaak niet meer dan 10 woorden per minuut. In eerdere onderzoeken hadden wetenschappers al hersensignalen gebruikt om kleine stukjes spraak te decoderen, zoals klinkers of individuele woorden, maar met een beperktere woordenschat dan in het nieuwe werk.

Anumanchipalli bestudeerde samen met neurochirurg Edward Chang en bio-ingenieur Josh Chartier vijf mensen bij wie tijdelijk elektrodenroosters in hun hersenen werden geïmplanteerd als onderdeel van een behandeling voor epilepsie. Omdat deze mensen zelfstandig konden praten, konden de onderzoekers de hersenactiviteit registreren terwijl de proefpersonen zinnen spraken. Het team correleerde vervolgens hersensignalen die de lippen, tong, kaak en strottenhoofd controleren met daadwerkelijke bewegingen van het stemkanaal. Hierdoor konden wetenschappers voor elke persoon een uniek virtueel stemapparaat creëren.

Vervolgens vertaalden de onderzoekers de bewegingen van de virtuele stembox naar geluiden. Door deze methode te gebruiken ‘verbeterde de spraak en werd deze natuurlijker’, zegt Chartier. Ongeveer 70 procent van de gereconstrueerde woorden was begrijpelijk voor luisteraars die werd gevraagd de gesynthetiseerde spraak te interpreteren. Toen een proefpersoon bijvoorbeeld probeerde te zeggen: ‘Koop een lapjeskat om de knaagdieren op afstand te houden’, hoorde de luisteraar: ‘De lapjeskat om de konijnen op afstand te houden.’ Over het algemeen klonken sommige geluiden goed, zoals 'sh (sh)'. Anderen, zoals "buh" en "puh", klonken zachter.

Deze technologie is afhankelijk van het weten hoe iemand het stemkanaal gebruikt. Maar veel mensen zullen eenvoudigweg niet over deze informatie en hersenactiviteit beschikken, omdat ze in principe niet kunnen praten vanwege een herseninfarct, schade aan het stemkanaal of de ziekte van Lou Gehrig (waar Stephen Hawking aan leed).

"Veruit de grootste hindernis is hoe je een decoder gaat bouwen als je geen voorbeeld hebt van de toespraak waarvoor hij gebouwd gaat worden", zegt Mark Slutsky, een neurowetenschapper en neuro-ingenieur aan de Johns School of Medicine. Feinberg van de Northwestern Universiteit in Chicago.

In sommige tests ontdekten de onderzoekers echter dat de algoritmen die werden gebruikt om virtuele bewegingen van het stemkanaal in geluiden te vertalen, van persoon tot persoon voldoende vergelijkbaar waren, zodat ze door verschillende mensen konden worden hergebruikt. Misschien kunnen zelfs degenen die dat helemaal niet zijn, praten.

Maar op dit moment lijkt het samenstellen van een universele kaart van de activiteit van hersensignalen in overeenstemming met het werk van het vocale apparaat een voldoende moeilijke taak om deze te gebruiken voor mensen wier spraakapparaat al lange tijd niet actief is.



Bron: 3dnews.ru

Voeg een reactie