人工知能システムの指数関数的な成長に対する懸念は急速に熱狂的になりつつあり、業界の専門家の XNUMX 人は、それを止める唯一の方法はデータセンターを爆撃することだと考えています。 の衝撃提案です エリーザー・ユドコウスキー、機械学習分野の研究者、 社説で タイムマガジン用。
エリエゼル・ユドコウスキーとは?

Yudkowsky は XNUMX 年以上にわたって汎用人工知能 (AGI) を研究し、起こり得る悲惨な結果について警告してきました。 これが、次のようなキャラクターによって引き起こされる警告をはるかに超える理由です。 イーロン・マスク、スティーブ・ウォズニアック e アンドリューヤン Future of Life Instituteの公開書簡で、AI 開発の XNUMX か月の中断を求めています。 Yudkowsky は、それだけでは十分ではないと主張します。
専門家は、大惨事を回避する唯一の方法は、AI を徹底的にブロックすることだと言います。 彼の考え? 「すべての大規模な GPU クラスター (コンピューター ファーム) をシャットダウンします。 人工知能 AI トレーニングに使用できるコンピューティング能力に制限を課し、時間の経過とともに減少させます。 政府や軍事組織であっても、例外はありません。」
誰かがこれらのルールを破るとどうなりますか? Yudkowsky 氏は、「空爆で反乱軍のデータ センターを破壊する準備を整えておきましょう」と、疑いの余地はありません。

十分に根拠のある恐怖または精神病?
Yudkowsky の懸念の口調には当惑します。これらの技術に取り組むには倫理と注意が必要であることに同意しますが、ヒステリックだと思います。
専門家の Yudkowsky は、よりインテリジェントな AI が開発され続けた場合、娘の Nina が大人になるまで生き残れないことを恐れていると述べています。
したがって、これらの懸念を共有するすべての人々に、確固たる立場を採用するよう勧めています。
「みんな死ぬ」
「超人的な人工知能を構築することの最も可能性の高い結果は、現在の状況のようなものではなく、文字通り地球上のすべての人が死ぬということです。」
私は彼をカタストロフィストと呼んでも問題ありません。 もちろん、AI のディストピア的な未来の危険性を研究することに真に人生を捧げてきた人が、彼らが警告したことに近づいていると言うなら、彼らの意見は聞く価値があるかもしれません.
しかし、拒絶に甘んじてはなりません。 先に述べたように、倫理と注意によって進歩をサポートする必要があります。 恐れはなく、何よりも曖昧さはありません。