人工知能 (AI) はすでに大きな進歩を遂げており、世界を改善する可能性を秘めています。 しかし、それは本当に危険になる可能性がありますか? 出来た。
少なくとも、オックスフォード大学と Google DeepMind の研究者によって編集された査読付きジャーナルに掲載された最近の記事で私が読んだことは、 研究チーム 新しい AI ソリューションの実験を行っているカリフォルニアの会社です。 私は勉強します (ここにリンクがあります) は、人工知能が人類の存亡に重大なリスクをもたらすと理論付けています。
悲惨な詐欺
問題の核心は、人工知能の開発で今日使用されている、いわゆる敵対的生成ネットワーク (または GAN) にあります (それが何であるかわからない場合は、ここですべてを説明します)。 これらのシステムは XNUMX つの要素で動作します。XNUMX つは入力データから画像を生成し、もう XNUMX つはそのパフォーマンスを評価します。 両者は常に結果を洗練することでお互いに「挑戦」します。
DeepMind の研究者は論文の中で、現在の AI よりも賢い AI は、必要な「承認」を得るために不正な戦略を開発し、それによって今日では想像もつかない方法で人類に害を及ぼす可能性があると理論付けています。
禁断の挑戦
「資源が無限にある世界では、私たちの運命について確信が持てないでしょう。 私たちのような資源が限られている世界では、それらを獲得するための競争が必ずあります。」 サイコロ 研究の共著者、 マイケル・K・コーエン オックスフォード大学の。
「そして、ほとんどすべてのことで自分をしのぐことができるものとの競争になると、勝つのは難しくなります。 リソースを求めて戦う人工知能は、飽くなき食欲を持っているでしょう」.
例? 人間の食用作物の管理を任された人工知能は、この仕事を回避する方法を見つけることができます。 人類の生存に不可欠な行動を無視または妨害しながら、そのエネルギーをつかむ方法を見つける
DeepMindの論文は、そのシナリオでは、人類は生存のための基本的なニーズとテクノロジーの間のゼロサムゲームで立ち往生するだろうと主張しています. 「この試合に負けたら致命的」がスピーチの内容です。
少ないも
要約すると、コーエンは、この「量子飛躍」を実現できるほど高度な AI を作成しようとするべきではないと考えています (いいえ、 現在はありません)。 もちろん、それを統治する手段も用意していない場合を除きます。
「これらの技術に対する現在の理解を考えると、そうするのは賢明でも有益でもないだろう」と研究は結論づけている。 人工知能の危険性に関する衝撃的な発言の後 (たとえば、彼らの発言を読んでください。 ユヴァルハラリ e モーガウダット) この最新の研究は、もう XNUMX つの重要な指標です。