サンフランシスコ大学の研究者は、単語を使用せずに患者がデバイスを介して「話す」ことができる神経インターフェースを開発しました。
これは神経補綴の分野におけるマイルストーンです。システムは神経補綴の活動を監視します。 脳を変換して 人工音声 (Google や Amazon の音声アシスタントなど) を使用した言葉。ソフトウェアは非常に高度で、正確な結果を提供します。 仮想再構築 喉頭、舌、唇、顎。
なぜ私たちは言葉を失うのですか?
患者は能力を失います たくさん話してください 理由としては、変性疾患、事故、脳損傷などがあります。すでに使用されている技術では、いくつかの単語を「翻訳」することで発音することができます。 小さな動き 対面で、または他のメカニズムを使用して、いずれにしてもコミュニケーションが非常に長くて面倒なものになります。
サンフランシスコで研究されたニューラルインターフェイス 直訳します 言語中枢が声道の動きを調整する方法を「模倣」するインフラストラクチャを使用して、脳の活動を自然な音声に変換します。
それは何で構成されていますか?
これが、チームが機械学習を使用して徐々に正確なサウンドを徐々に生成する「仮想」声道を作成した理由です。 ボランティアのグループが宣言する 特定のフレーズをしながら 彼らの脳活動は監視されます。使用される人工知能はこれらの信号をスキャンし、動きと比較します。 声道の理解 それらがどのようにその特定のサウンドに変換されるのかを正確に説明します。
「私たちは話し言葉を完全に模倣する能力を持っています」 サイコロ ジョシュチャーター、別の研究者。 「「sh」や「z」などの遅い音や柔らかい音についてはすでに非常に進んだ段階にありますが、「b」や「p」などの切り詰められた音については困難を抱えています。の しかし、その精度は驚異的なスピードで向上します。 機械学習」。
「腕と脚を動かすことができない人々は、脳でロボット補綴物を制御することを学んだ」 シャルティエは続けます。 「いつの日か、音声障害のある人がこの音声補綴物を使って話すことを学ぶようになると確信しています。」
Natureで公開