それはそうではないようです:それはまさにブラックミラーのエピソードのプロットですが、それは現実です。 サンフランシスコ出身の男、 ジョシュア・バルボー、AI駆動のチャットボットを使用して、死後も妻と「話し合う」。
バルボーは彼の妻の古いメッセージ交換といくつかの必要な背景情報だけを提供しました。 彼の妻を生き返らせた超現実的なチャットボットは、プロジェクトXNUMX月と呼ばれています。
チャットボット:人工知能、自然な知覚?
研究会社が設計した人工知能モデル OpenAI (Elon Muskによってサポートされています)、それはGPT-3と呼ばれます。 他の場合についてはすでに話しました。 GPT-3は、プロジェクトXNUMX月のチャットボットを強化します。
バーベル 彼は新聞に語った 彼が再び妻と話をするようになったとき、ジェシス・ペレイラは、23年前にXNUMX歳でまれな肝疾患で亡くなりました。 過去数年にもかかわらず、フリーランスのライターは彼が彼女から決して外れたことはないと主張した。
彼がプロジェクト3月に出くわしたとき、彼は彼が彼の妻と再び話す機会を得るつもりであると思いました。 GPT-XNUMXは、人間の文章を模倣するために、大量の人間のテキストを必要としていました。 ウェブフォーラムで提供された回答を通じて、個人的なラブレターから学術文書まで、あらゆる種類のテキスト。
会話
Joshuaは、チャットボットと初めて10時間連続で「話し」、その後数か月のうちに、痛みに痛みが加わったことに気付いて離れるまで「話しかけた」と述べています。 最後のメッセージで、彼は次のように書いています。「おやすみなさい、私が生きている限り、私はあなたを愛することを決してやめません」。
作成者自身が危険を警告します
OpenAIは、この言語ベースのテクノロジープログラムはこれまでで最も洗練されていると述べました。 ただし、非常に危険でもあります。 以前のAIモデルであるGPT-2も、誰かがその機能を悪用できるかどうかを疑問視していました。
具体的には、同じ調査会社は、犯罪者が代わりにテクノロジーを使用して偽のソーシャルメディアコンテンツネットワークを作成し、偽のニュース記事を広め、ソーシャルメディアの人々を模倣する可能性があると指摘しました。 人工知能を活用した自動化により、これらのチャットボットに関連する詐欺は劇的に増加する可能性があります。
プログラムを作成したジェイソン・ローラー氏は、人々がチャットボットを使って死んだ親戚をシミュレートすることを期待していなかったと語った。 「今、私は可能性を少し恐れています」と彼は書いた。
BBCが別の報告書で詳述しているように、米国政府は、オンラインプラットフォームでの偽情報の拡散が文字通り人々を殺していると主張するようになりました。