Wissenschaftlern ist es gelungen, mentale Sprache mithilfe eines Implantats im Gehirn zu reproduzieren

Menschen, die die Fähigkeit verloren haben, mit ihrer eigenen Stimme zu sprechen, neigen dazu, verschiedene Sprachsynthesizer zu verwenden. Moderne Technologien bieten viele Lösungen für dieses Problem: von der einfachen Tastatureingabe bis zur Texteingabe per Blick und einem speziellen Display. Allerdings sind alle vorhandenen Lösungen recht langsam, und je schwerwiegender der Zustand einer Person ist, desto länger dauert das Tippen. Es ist möglich, dass dieses Problem bald mithilfe einer neuronalen Schnittstelle gelöst wird, die in Form eines speziellen Elektrodenimplantats implementiert wird, das direkt im Gehirn installiert wird und eine maximale Genauigkeit beim Lesen seiner Aktivität ermöglicht, die das System dann in Sprache interpretieren kann dass wir es verstehen können.

Wissenschaftlern ist es gelungen, mentale Sprache mithilfe eines Implantats im Gehirn zu reproduzieren

Forscher der University of California in San Francisco in ihrem Artikel für das Nature-Magazin Am 25. April beschrieben sie, wie es ihnen gelang, mithilfe eines Implantats die mentale Sprache einer Person auszudrücken. Berichten zufolge war der Ton an einigen Stellen ungenau, aber die Sätze konnten vollständig wiedergegeben und, was am wichtigsten war, von externen Zuhörern verstanden werden. Dies erforderte jahrelange Analyse und Vergleich der aufgezeichneten Gehirnsignale, und die Technologie ist noch nicht für den Einsatz außerhalb des Labors bereit. Das Experiment zeigte jedoch, dass „man allein mit dem Gehirn Sprache entziffern und reproduzieren kann“, sagt Gopala Anumanchipalli, ein Gehirn- und Sprachwissenschaftler.

„Die in der neuen Studie beschriebene Technologie verspricht, die Fähigkeit der Menschen, frei zu sprechen, irgendwann wiederherzustellen“, erklärt Frank Guenther, Neurowissenschaftler an der Boston University. „Man kann die Bedeutung, die das für all diese Menschen hat, kaum genug betonen … Es ist unglaublich isolierend und ein Albtraum, nicht in der Lage zu sein, seine Bedürfnisse zu kommunizieren und einfach mit der Community zu interagieren.“

Wie bereits erwähnt, sind bestehende Sprachtools, die auf der Eingabe von Wörtern mit der einen oder anderen Methode basieren, mühsam und produzieren oft nicht mehr als 10 Wörter pro Minute. In früheren Studien hatten Wissenschaftler bereits Gehirnsignale verwendet, um kleine Sprachblöcke wie Vokale oder einzelne Wörter zu entschlüsseln, allerdings mit einem eingeschränkteren Wortschatz als in der neuen Arbeit.

Anumanchipalli untersuchte zusammen mit dem Neurochirurgen Edward Chang und dem Bioingenieur Josh Chartier fünf Menschen, denen im Rahmen einer Epilepsiebehandlung vorübergehend Elektrodengitter ins Gehirn implantiert wurden. Da diese Menschen selbstständig sprechen konnten, konnten die Forscher die Gehirnaktivität aufzeichnen, während die Probanden Sätze sprachen. Anschließend korrelierte das Team Gehirnsignale, die Lippen, Zunge, Kiefer und Kehlkopf steuern, mit tatsächlichen Bewegungen des Stimmapparats. Dies ermöglichte es Wissenschaftlern, für jede Person einen einzigartigen virtuellen Stimmapparat zu erstellen.

Anschließend übersetzten die Forscher die Bewegungen des virtuellen Sprachkastens in Geräusche. Die Verwendung dieser Methode „verbesserte die Sprache und machte sie natürlicher“, sagt Chartier. Etwa 70 Prozent der rekonstruierten Wörter waren für Zuhörer verständlich, die gebeten wurden, die synthetisierte Sprache zu interpretieren. Wenn eine Versuchsperson beispielsweise sagen wollte: „Holen Sie sich eine Kattunkatze, um die Nagetiere fernzuhalten“, hörte der Zuhörer: „Die Kattunkatze, um die Kaninchen fernzuhalten.“ Insgesamt klangen einige Geräusche gut, wie zum Beispiel „sh (sh).“ Andere, wie „buh“ und „puh“, klangen leiser.

Diese Technologie hängt davon ab, zu wissen, wie eine Person den Stimmapparat nutzt. Aber viele Menschen werden diese Informationen und Gehirnaktivität einfach nicht haben, da sie aufgrund eines Hirnschlags, einer Schädigung des Stimmapparats oder der Lou-Gehrig-Krankheit (an der Stephen Hawking litt) grundsätzlich nicht sprechen können.

„Die mit Abstand größte Hürde besteht darin, wie man einen Decoder baut, wenn man kein Beispiel für die Sprache hat, für die er gebaut werden soll“, sagt Mark Slutsky, Neurowissenschaftler und Neuroingenieur an der Johns School of Medicine. Feinberg von der Northwestern University in Chicago.

In einigen Tests stellten die Forscher jedoch fest, dass die Algorithmen, die zur Übersetzung virtueller Stimmbewegungen in Geräusche verwendet werden, von Person zu Person so ähnlich waren, dass sie bei verschiedenen Personen wiederverwendet werden konnten, vielleicht sogar bei solchen, die überhaupt nicht sprechen können.

Aber im Moment scheint die Erstellung einer universellen Karte der Aktivität von Gehirnsignalen in Übereinstimmung mit der Arbeit des Stimmapparats eine ausreichend schwierige Aufgabe zu sein, um sie für Menschen anzuwenden, deren Sprachapparat schon lange nicht mehr aktiv ist.



Source: 3dnews.ru

Kommentar hinzufügen