スタンフォード大学の研究者は、 ブレイン・コンピューター・インターフェース(BCI). 毎分最大 62 語の速度で話し言葉を解読できる技術を開発することで、チームは以前の記録を 3 倍近く改善しました。
これらのシステムを自然な会話のリズムに少し近づけ、実質的に瞬時の音声変換に近づける開発。
言葉言葉言葉
イーロン・マスクと共にNeuralinkの共同創設者、 マックスホダック、スタンフォードの研究を「脳コンピューターインプラントの有用性における重要な変化」と呼んだ. しかし、それは正確には何で構成されていますか?
すべての作業の核心は、 ここにリンクしている論文で詳しく説明されています、機械学習アルゴリズムを使用して、脳信号を首尾一貫した音声に「変換」する可能性があります。 そして、皮質の比較的小さな領域での脳活動を分析することによってそれを行います.
L'obiettivo? ALSなどの病気で声を出せなくなった方の声を取り戻すお手伝いをします。 真の飛躍的進歩: このタイプの音声インターフェイスは、脳信号の解読を大幅に高速化する可能性があります。

テスト
ある実験では、チームは、口を動かすことはできるが言葉を作ることが困難な ALS 患者の神経活動を (脳の XNUMX つの小さな領域から) 記録しました。
テキストを予測できる再帰型ニューラル ネットワーク デコーダーを使用して、研究者はこれらの手がかりを単語に変換しました。 かつてない速さで進む言葉。
顔の動きと関連する神経活動の分析は、麻痺と大脳皮質の限られた拡張にもかかわらず、脳とコンピューターのインターフェースシステムをサポートするのに十分強力であることがわかっています.
直面する課題
現在、システムは高速ですが、まだ不完全です: 研究者が使用する再帰型ニューラル ネットワーク (RNN) デコーダーのエラー率 まだ20%です。
研究者たちはこのことをよく知っています。「私たちの実証は、まだ完全で臨床的に実行可能なシステムではありませんが、皮質内記録から試みられた発話運動を解読することが有望なアプローチであるという証拠です。」
エラー率を改善し、アルゴリズムを最適化するために、研究は現在、脳のより多くの領域を調査することを目指しています.
そのようなテクノロジーと人工知能を組み合わせたものを想像してみてください。 などの声を完全に複製できるアルゴリズム マイクロソフトが最近発表したもの わずか 3 秒の音声です。
将来、誰も黙っていることはありません。