OpenAIは昨年XNUMX月、完全にもっともらしいスパムと偽のニュースメッセージを書き込むことができるアルゴリズムを開発したと発表しました。
当時、チームの決定は、危険すぎると見なされたため、リリースしないことでした. このため、OpenAIはアルゴリズムの一部のみを拡散してフェイクニュースを書き、その効果を評価するという慎重な研究プログラムを開始することにしました。
今日、グループはそのリスク推定値を見直し、過度の実行可能な障害を検出していないと主張しています。 このために彼は一般に公開することにしました 「嘘つき」アルゴリズムの完全なコード。
GPT-2 と呼ばれる人工知能は、もともと、質問に答えたり、テキストを翻訳したり、コンテンツを並べ替えたりするために設計されました。 その後、研究者たちは、このシステムが膨大な量の偽情報をネットに流すのにも役立つことを理解しました (少なからず驚きました)。
誤警報? 多分。
幸い、監視期間中に行われた使用ははるかに穏やかでした。 このアルゴリズムは、物語構造とテキスト ビデオ ゲームに使用されました。
OpenAIは、メカニズムの一般への普及を発表した公式の投稿で、これが 人工知能 ネット上の偽のニュースを見つけることができるテキスト認識モデルの開発に使用できます。 「私たちはこのモデルを展開して、研究が合成テキストを見つけられるようにします。」 サイトで読んでください。
否定しがたい膨大な量の偽ニュースを生成できる AI が存在するという考えはいらいらさせられますが、歴史は、私たちが望むと望まざるとにかかわらず、そのような技術が登場することを指摘しています。
まあOpenAIは彼の仕事をすぐに共有し、戦うことのできるツールを特定するためのより多くの時間と方法を研究者に与えるか、少なくとも人工的に作成されたテキストを認識するようにしたでしょう。 とにかく、遅くならない方がましです。