失去用自己的聲音說話的能力的人傾向於使用各種語音合成器。 現代技術為這個問題提供了許多解決方案:從簡單的鍵盤輸入到使用掃視和特殊顯示器的文字輸入。 然而,所有現有的解決方案都相當緩慢,而且一個人的情況越嚴重,他打字所需的時間就越長。 這個問題可能很快就會透過神經介面得到解決,神經介面是以直接安裝在大腦上的特殊電極植入物的形式實現的,這可以最大程度地準確讀取其活動,然後系統可以將其解釋為語音我們可以理解。
加州大學舊金山分校的研究人員在他們的研究中
波士頓大學神經科學家 Frank Guenther 解釋說:“新研究中描述的技術有望最終恢復人們自由說話的能力。” 「對於所有這些人來說,這一點的重要性怎麼強調都不為過……無法傳達自己的需求並與社區互動,這是令人難以置信的孤立和噩夢。”
如前所述,依賴使用一種或另一種方法輸入單字的現有語音工具非常乏味,並且通常每分鐘產生的單字不超過 10 個。 在早期的研究中,科學家已經使用大腦訊號來解碼小塊語音,例如元音或單字,但詞彙量比新研究中的要有限。
阿努曼奇帕利(Anumanchipalli)與神經外科醫生愛德華·張(Edward Chang)和生物工程師喬什·查蒂爾(Josh Chartier)一起研究了五個人的大腦,這些人的大腦中暫時植入了電極網格,作為癲癇治療的一部分。 由於這些人能夠自己說話,研究人員能夠記錄受試者說出句子時的大腦活動。 然後,研究小組將控制嘴唇、舌頭、下巴和喉嚨的大腦訊號與聲道的實際運動聯繫起來。 這使得科學家能夠為每個人創建一個獨特的虛擬語音裝置。
然後研究人員將虛擬語音盒的動作轉化為聲音。 查蒂爾說,使用這種方法「改善了演講並使其更加自然」。 大約 70% 的重建單字對於被要求解釋合成語音的聽眾來說是可以理解的。 例如,當受試者試圖說「買一隻三色貓來趕走囓齒動物」時,聽者聽到的是「三色貓來趕走兔子」。 總體而言,有些聲音聽起來不錯,例如“sh(sh)”。 其他聲音,例如“buh”和“puh”,聽起來更柔和。
這項技術取決於了解一個人如何使用聲道。 但許多人根本不具備這些資訊和大腦活動,因為原則上他們由於腦中風、聲道損傷或盧伽雷氏病(史蒂芬·霍金就患有這種病)而無法說話。
約翰醫學院的神經科學家和神經工程師馬克·斯盧茨基 (Mark Slutsky) 表示:“到目前為止,最大的障礙是,當你沒有要構建解碼器的演講示例時,如何構建解碼器。” 芝加哥西北大學的范伯格。
然而,在一些測試中,研究人員發現,用於將虛擬聲道運動轉化為聲音的演算法在人與人之間非常相似,可以在不同的人身上重複使用,甚至可能那些根本不會說話的人。
但目前,根據發聲器官的工作來編制大腦訊號活動的通用圖譜,對於那些言語器官長期不活動的人來說,似乎是一項非常困難的任務。
來源: 3dnews.ru