思考がもはや頭の中にある一時的なイメージではなく、HQ ビデオになる可能性がある未来があるようです。そしてそれはますます現実に近づいているように思えます。熟練した研究者のグループが、神経科学の分野でパンドラの箱を開けたところです。彼を助けるために、大量の AI が必要です。
「プロジェクター」脳
Jiaxin Qing、Zijiao Chen e ホアン・ヘレン・チョウシンガポール国立大学と香港中文大学の研究者らは、かなり興味深い研究成果を発表しました。研究チームは、機能的磁気共鳴画像法 (fMRI) から得られたデータと安定拡散生成人工知能を組み合わせて、 MinD-ビデオ、脳の読み取り値から直接 HQ ビデオを生成できるモデル。
サイエンス フィクションのもの、とあなたは言うかもしれません: しかし、いいえ、すべては arXiv に厳密に文書化されています。 これはリンクです.
MinD-Video は正確にどのように機能しますか?
MinD-Video は単純なビデオ ジェネレーターではなく、AI によって行われる画像のデコードと脳によって行われる画像のデコードを通信するように設計されたシステム全体です。しかし、そのようなシステムをどのように訓練するのでしょうか?
研究者らは、ビデオと、それを視聴した被験者の関連する fMRI 測定値を含む公開データセットを使用しました。 そしてどうやらその仕事は見事にうまくいったようだ。
思考を参照してください、私たちはそこに到達しました
科学者たちが公開したビデオには、実に興味深い結果が示されています。たとえば、野原の馬をフィーチャーしたオリジナルのビデオを考えてみましょう。 MinD-Video は、馬のより鮮やかなバージョンを作成することで、それを「再構築」しました。別のケースでは、車が森林地帯を走行し、再構成されたビデオには曲がりくねった道に沿った一人称視点の移動が表示されます。
研究者らによると、再構成されたビデオは「高品質」で、動きやシーンのダイナミクスが明確に定義されているという。 そして精度は? 85%に比べて大幅な改善が見られます。 以前の試み.
読心術と HQ ビデオ、次は何ですか?
「未来は明るく、潜在的なアプリケーションは計り知れません。神経科学から ブレインコンピューターインターフェース私たちは、私たちの仕事が重要な影響を与えることができると信じています」と著者は宣言しました。そして、発見はそこで止まりません。彼らの研究は、視覚における視覚皮質の主要な役割と、トレーニング中にますます高度な情報を学習するモデルの能力を強調しました。
この新しい研究で使用される安定拡散モデルにより、視覚化がより正確になります。 「le などの他の生成モデルと比較した、私たちのモデルの主な利点は、 GAN、より高品質のビデオを制作する能力です。 fMRIエンコーダから学習した表現を利用し、独自の拡散プロセスを使用して、元の神経活動とよりよく一致するHQビデオを生成します」と研究者らは説明した。
つまり、本格的に の時代に突入したようです。 読心術 人工知能を通じて。無限の可能性に開かれたフィールドであり、その限界は想像力だけであるように思えます。