研究チームは、脳波を読み取ってデコードするだけで、人が見ているものをリアルタイムで描画する人工知能を作成しました。
最も重要なことは、それが非侵襲的な手法であり、脳波(EEG)に接続されたイヤホンで脳波に関するすべての情報を収集およびコーディングできることです。
「研究者たちは、脳波を介して脳のプロセスを研究することは、タバコの煙を分析して人の形を推測しようとするようなものだと考えていました」 研究者は言います グリゴリー・ラシュコフ リリースで。 「人間が観察した画像を部分的にでも再構築するのに十分な情報が含まれているとは思っていませんでした。 しかし、それは完全に可能であることが判明しました。 "
検索
モスクワ物理工科大学とロシアの企業ニューロボティクスのメンバーで構成される混合チームは、脳波を記録できる電極付きの特別なヘッドギアを配置することから研究を開始しました。
20番目のフェーズでは、各参加者が、それぞれ10秒間続く5分のビデオフラグメントをXNUMXつのカテゴリに分けて観察しました。 最初の数回のセッションの後、研究者たちは、彼らの脳波データを見ただけで、ボランティアが見ているビデオのカテゴリーを知ることができることにすでに気づいていました。
第XNUMX段階では、科学者はXNUMXつのニューラルネットワークを開発しました。 XNUMX つはビデオ カテゴリの XNUMX つの画像を生成するようにトレーニングされ、もう XNUMX つは EEG データを同等のノイズに変換するようにトレーニングされました。 XNUMX つの GAN ネットワークは互いに対立し、驚くべき画像を生み出しました。
「今日の技術では、侵襲的な神経インターフェース Elon Muskの会社であるNeuralinkが開発中のものなど、複雑な手術と自然のプロセスによる急速な劣化の課題に直面しています。 インプラントは数ヶ月で酸化して失敗する可能性があります」、 サイコロ ラシュコフ.
「この研究により、インプラントを必要としない、より費用対効果の高い神経インターフェースを設計することを目指しています。」