サンフランシスコ大学の研究者は、単語を使用せずに患者がデバイスを介して「話す」ことができる神経インターフェースを開発しました。
これは神経人工装具の分野におけるマイルストーンです。システムは脳の活動を監視し、それを人工音声 (いわば Google や Amazon の音声アシスタントなど) を使用して言葉に変換します。 このソフトウェアは非常に高度で、喉頭、舌、唇、顎の正確な仮想再構築が含まれています。
なぜ私たちは言葉を失うのですか?
患者は、変性疾患、事故、脳損傷など、さまざまな理由で話す能力を失います。 すでに使用されている技術により、小さな顔の動きを「翻訳」するか、いずれにしてもコミュニケーションを非常に長く面倒にする他のメカニズムを使用して、いくつかの単語を発音することができます。
サンフランシスコで研究された神経インターフェースは、言語中枢が声道の動きを調整する方法を「模倣」するインフラストラクチャを使用して、脳の活動を自然に聞こえる言語に直接変換します。

「声道の動きと言葉の響きの関係は実に複雑です」 サイコロ ゴパラアヌマンチパリ、プロジェクトに関与した研究者の一人。 「これらの言語センターが動きをコード化し、何らかの方法で翻訳すれば、脳の信号からこの操作を行うこともできると考えました」.
それは何で構成されていますか?
このためにチームは、機械学習を使用して徐々に正確な音を生成する「仮想」声道を作成しました。 ボランティアのグループは、脳の活動が監視されている間、特定のフレーズを発します。使用されている人工知能がこれらの信号をスキャンし、声道の動きと比較して、特定の音にどのように変換されるかを正確に理解します。
「私たちは話し言葉を完璧にまねる能力を持っています」 サイコロ ジョシュチャーター、別の研究者。 「私たちは、「sh」や「z」などのゆっくりとした柔らかい音についてはすでに非常に進んでいますが、「b」や「p」などの短縮された音には苦労しています。 しかし、機械学習を利用することで、驚くべき速さで精度が向上します」。
「腕や脚を動かすことができない人は、脳でロボット義肢を制御することを学びました。」 シャルティエは続けます。 「いつの日か、発話障害を持つ人々が、この音声プロテーゼを通して再び話すことを学ぶようになると確信しています。」
Natureで公開