AI システムの急激な成長に対する懸念は急速に最高潮に達しており、ある業界専門家は、それを阻止する唯一の方法はデータセンターを爆破することだと信じているほどです。からの衝撃のプロポーズです エリーザー・ユドコウスキー、機械学習分野の研究者、 社説で タイムマガジン用。
エリエゼル・ユドコウスキーとは?
ユドコウスキー氏は 20 年以上かけて汎用人工知能 (AGI) を研究し、その起こり得る悲惨な結果について警告してきました。だからこそ、この問題は、次のような人々が提起した警告をはるかに超えています。 イーロン・マスク、スティーブ・ウォズニアック e アンドリューヤン Future of Life Instituteの公開書簡で、AI開発の6か月の一時停止が求められます。ユドコウスキー氏は、それだけでは不十分だと主張する。
専門家は、大惨事を回避する唯一の方法はAIを根本的にブロックすることだと言う。あなたの案? 「すべての大規模な GPU クラスター (コンピューター ファーム) をシャットダウンします。 人工知能 より強力)、AI のトレーニングに使用できるコンピューティング能力に制限を課し、時間の経過とともに減少します。政府や軍事組織であっても例外はありません。」
誰かがこれらのルールを破ったらどうなるでしょうか?ユドコウスキー氏は何の疑問も抱いていない。「反政府勢力のデータセンターを空爆で破壊する用意をしなさい。」
十分に根拠のある恐怖または精神病?
ユドコウスキー氏の懸念の論調は私を困惑させます。これらのテクノロジーの方向性には倫理と注意が必要であるということには同意しますが、私はそれらがヒステリックであると感じます。
専門家のユドコウスキー氏は、AIの知能がますます発達し続ければ、娘のニーナが成人まで生きられなくなるのではないかと懸念していると述べた。
したがって、これらの懸念を共有するすべての人々に、確固たる立場を採用するよう勧めています。
「我々は皆死ぬだろう」
「現在の状況とほぼ同様の状況下で超人的な人工知能を構築した場合、最も可能性の高い結果は、文字通り地球上の全員が死ぬことです。」
私は彼を大災害主義者と定義することに何の困難もありません。もちろん、AI のディストピア的な未来の危険性の研究に真に人生を捧げた人が、彼らが警告していたものに私たちは近づいていると言うのであれば、その意見は耳を傾ける価値があるかもしれません。
しかし、拒絶に甘んじてはなりません。 先に述べたように、倫理と注意によって進歩をサポートする必要があります。 恐れはなく、何よりも曖昧さはありません。