思考がもはや頭の中にある一時的なイメージではなく、HQ ビデオになる可能性がある未来があるようです。 そして、それはますます現実に近づいているように見えます。 熟練した研究者のグループが、神経科学の分野でパンドラの箱を開けたところです。 彼を助けるために、大量の AI が必要です。
「プロジェクター」脳
Jiaxin Qing、Zijiao Chen e ホアン・ヘレン・チョウシンガポール国立大学と香港中文大学の研究者らは、かなり興味深い研究成果を発表した。 チームは、機能的磁気共鳴画像法 (fMRI) データと安定拡散生成 AI を組み合わせて、 MinD-ビデオ、脳の読み取り値から直接 HQ ビデオを生成できるモデル。
サイエンス フィクションのもの、とあなたは言うかもしれません: しかし、いいえ、すべては arXiv に厳密に文書化されています。 これはリンクです.
MinD-Video は正確にどのように機能しますか?
MinD-Video は単純なビデオジェネレーターではなく、AI によって作成された画像と脳内対話によって作成された画像をデコードするように設計されたシステム全体です。 しかし、そのようなシステムをどのように訓練するのでしょうか?
研究者らは、ビデオと、それを視聴した被験者の関連する fMRI 測定値を含む公開データセットを使用しました。 そしてどうやらその仕事は見事にうまくいったようだ。
思考を参照してください、私たちはそこに到達しました

科学者たちが公開したビデオには、実に興味深い結果が示されています。 たとえば、野原に馬がいるオリジナルのビデオを考えてみましょう。 MinD-Video は、馬のより活気に満ちたバージョンに「再構築」しました。 別のケースでは、車が森林地帯を走行し、再構成されたビデオには曲がりくねった道に沿った一人称視点の移動が表示されます。
研究者らによると、再構成されたビデオは「高品質」で、動きやシーンのダイナミクスが明確に定義されているという。 そして精度は? 85%に比べて大幅な改善が見られます。 以前の試み.
読心術と HQ ビデオ、次は何ですか?
「未来は明るく、応用できる可能性は計り知れません。神経科学から科学まで、 ブレインコンピューターインターフェース「私たちの研究は重要な影響を与えると信じています。」と著者らは述べています。そして、研究結果はこれを超えています:彼らの研究は、視覚における視覚皮質の支配的な役割と、ますます洗練された情報を学習するモデルの能力を強調しました。トレーニング中に。

この新しい研究で使用される安定拡散モデルにより、視覚化がより正確になります。 「le などの他の生成モデルと比較した、私たちのモデルの主な利点は、 GAN、より高品質のビデオを作成する機能です。 fMRI エンコーダから学習した表現を活用し、独自の拡散プロセスを使用して、元の神経活動とよりよく一致する HQ ビデオを生成します」と研究者は説明しました。
要するに、本格的に の時代に入ってきたようです。 読心術 人工知能を通じて。 無限の可能性に開かれたフィールドであり、その限界は想像力だけであるように思えます。