ロイターのメディアエージェンシーは、 Synthesia 今日、彼らはコラボレーションした新しいプロジェクトを発表しました。ディープフェイクス技術を使用して、リアルタイムで自動ニュースを生成します。
概念実証として設計されたこのシステムは、サッカーの試合スコアデータをリアルタイムで取得し、写真とビデオを含むディープフェイクニュースレポートを生成します。
Synthesia and Reutersは、ネットワークからのニュースと事前に記録された要素を組み合わせたニューラルネットワークを使用して、結果とニュースの最新情報を提供する超現実的なアンカーマンを開発しています。
各自のTGに
ここでのすばらしいアイデアは、たとえば、フットボールリーグチームごとにリアルタイムのスコア更新をアナウンスする同じ「人」を示す20の異なる「ライブ」ストリーミングビデオを持つことができるということです。
ロイターは、ディープフェイクニュースのプロトタイプは単なるプロトタイプであり、必ずしも実装を計画している機能ではないことを指摘しました。
同社の中核的な情報製品およびサービスのグローバルマネージャー ニック・コーエン、メモで言った: 「ロイターは長年にわたり、ニュースや情報を配信するための新しいテクノロジーの可能性を探求する最前線に立ってきました。このタイプのプロトタイピングは、AI や合成メディアをリアルタイムの写真やレポート フィードと組み合わせて、新しいタイプの製品やサービスを作成する方法を理解するのに役立ちます。」
Deepfakeニュース:その影響
アプリケーション このテクノロジーの (肉や血の人と区別がつかない「人」によって行われるニュースレターを作成すると仮定すると)、多くの可能性があります。
メディアの報道を除けば、さまざまな航空会社からのフライトの更新、または要求に応じてさまざまなトピックの更新で同じ顔を見せているモニターでいっぱいの空港を想像するのは簡単です。
何が真で、何が偽ですか?
一方、人工知能の大量使用と人々が信頼できる顔が、国民が偽物かどうかを判断する主な決定要因となるディストピアに向かう可能性があります。 かつて「本当だった、新聞で読んだ」、後に「本当だった、テレビで聞いた」のは「本当だとAIジャーナリストが言った」かもしれない。 人類とAIが区別できない未来に生きるという見通しに恐怖を感じる。
とはいえ、ロイターはディープフェイク技術を使用する前向きなユースケースになる可能性があります。 適切な翻訳サービスと組み合わせることで、このツールは、口頭および書面の両方のコミュニケーションにおける言語の壁がそうでなければ情報の迅速な普及を複雑にする可能性がある場所で緊急レポートを生成するために使用できます。