人工知能 (AI) は世界に革命を起こす可能性を秘めています。そして明らかに、この約束には重大なリスクが伴います。
そうですね、少なくとも私の認知的視野では、議論の悲観的な部分が明らかに優勢であることがわかります。理由はわかりませんが、AI開発者自身さえもお互いを追いかける傾向があります 「我々は皆死ぬだろう」と、彼らのプラットフォームで大金を稼ぐためだけです。
対照的に、人工知能のブームの見通しが救いになっていると信じている少数の人々もいる。
言い換えれば、人類には人工知能へのアプローチにおいて 2 つの選択肢しかないように思えます。
- 私たちは高度な AI がもたらす潜在的な悪影響を恐れ、その開発を止めようとします。
- 私たちは高度な AI の利点を高く評価しており、リスクがあるにもかかわらず、これらの利点をできるだけ早く達成するよう努めています。
私のナポリでは、効果的な総合とは、有名な言葉で言えば「1 か 90 のどちらか」です。この全体的なバランスの欠如は何によるものでしょうか?中間点はあるのでしょうか?
責任の道
私たちの「二元的」ビジョンは、ソーシャルメディアと、 センセーショナルな発言 または終末論的、道を無視する。これは非常に残念なことです。なぜならそれが最善の道であり、高度な AI の望ましい利点、つまり責任ある開発を達成するのに役立つ唯一の道だからです。
たとえてみましょう。ある種の黄金の谷への旅を想像してみましょう。そこで、この谷の前に一種の不確かな沼地があり、おそらくその影に隠れている飢えた捕食者が住んでいると想像してください。
私たちにはその中を歩くか逃げるかの選択しかないのでしょうか?恐怖(そして逃避)と無謀(予防策なしで進む)の間でしょうか?それとも、状況をよりよく理解し、バランスを保ちながら川を渡る最も安全な方法を探すという第三の道はあるのでしょうか?あなたはすでに答えを知っています。あなたが最も怖がっている人でさえ、彼女のことを知っています。そして、「実存的リスク」のみに注目し、「実存的機会」も存在するという事実には注目しない人には、私がお勧めします。 この反省 哲学者であり、新興テクノロジーの専門家であり、 マックスモア。
リスク評価は均衡を通過する
比喩はさておき、この旅は「持続可能な超豊かさ」に向けたものであり、私たちが知恵とバランスを持って行動すれば、高度なAIの助けを借りて達成できる可能性があります。
そして、どうすれば賢明に行動できるでしょうか?まず第一に、伝統的な規制の基礎を築くことです。一部の哲学者や新興テクノロジーの専門家によると、人工知能を「バイナリ」にすると、その学習能力と潜在的な利点が減少します。 ディペンデ。
近い将来、私たちはますます多くの「ローカル」で特定の人工知能(さらには 完全にパーソナルアシスタント)、潜在的な障害の程度に敏感である可能性があり、敏感でなければなりません。障害が局所的なものである場合、これらの障害の発生を許容することにメリットがあります。しかし、世界的な結果につながるリスクがある場合には、責任ある開発という別の考え方が必要になります。
一言で言えば、人工知能を止めるのは賢明ではないし、人工知能を自由奔放にさせるのも賢明ではない、ということです。前述したように、現在の 2 つの経路 (停止または実行) のどちらも、私たちを何も良い方向に導きません。
立ち止まってはいけない、走ってはいけない
緊急に必要なのは、AI の障害が壊滅的な結果をもたらす可能性があるさまざまなシナリオについて、より深く思慮深い調査を行うことです。私たちはどのセクターが最もリスクにさらされているか、どのような損害を受ける可能性があるかを評価し、新しい「ルール」を導入する必要があります(おそらく回避不可能) アシモフのような)オーバーフローしないように。
この方法によってのみ、私たちと技術的特異点の間に横たわる不確実性の沼を越える安全な方法を見つける確率を大幅に高めることができます。