OpenAIは昨年XNUMX月、完全にもっともらしいスパムと偽のニュースメッセージを書き込むことができるアルゴリズムを開発したと発表しました。
当時、チームは危険すぎると判断したため、リリースすることはしませんでした。 このOpenAIのために、偽のニュースを書いてその影響を評価するためにアルゴリズムの一部のみを広めることにより、慎重な調査プログラムを開始することを決定しました。
今日、グループはそのリスク推定値を見直し、過度の実行可能な障害を検出していないと主張しています。 このために彼は一般に公開することにしました 「嘘つき」アルゴリズムの完全なコード。
GPT-2と呼ばれる人工知能は、最初は質問への回答、テキストの翻訳、コンテンツの並べ替えを行うために設計されました。 その後、研究者たちは、システムが膨大な量の偽情報をネット上に載せるのにも役立つことを(少しの驚きもなく)理解しました。
誤警報? 多分。
幸い、監視期間中に行われた使用ははるかに穏やかでした。 このアルゴリズムは、物語の構造やテキストビデオゲームに使用されました。
OpenAIは、メカニズムの一般への普及を発表した公式の投稿で、これが 人工知能 ネット上の偽のニュースを見つけることができるテキスト認識モデルの開発に使用できます。 「私たちはこのモデルを展開して、研究が合成テキストを見つけるのを支援します」 サイトで読んでください。
否定するのが容易ではない偽のニュースの巨大な大量を生成することができるAIがあるという考えは苛立たしいですが、歴史は、私たちがそれを望んでいるかどうかにかかわらず、そのようなテクノロジーが到着することを指摘しています。
まあOpenAIは彼の仕事をすぐに共有し、戦うことのできるツールを特定するためのより多くの時間と方法を研究者に与えるか、少なくとも人工的に作成されたテキストを認識するようにしたでしょう。 とにかく、遅くならない方がましです。