前世紀以来、人工知能の登場、敵対的なAI、および人類に対するその支配は、議論の中心的なトピックでした。
EMフォースターの著書「The machine stops」(1909年) 「ターミネーター」の物語を通過する最近のテレビシリーズ「ウエストワールド」に対して、私たちの集合的想像力はすでにこの仮説を検討しています。 そして彼は敵対的なAIの出現は大虐殺になるだろうと感じました。
さらに、これは短期的には仮説に留まる可能性のある問題です。 科学者とエンジニアは、人間と人工知能の間のこの「追い越し」(トランスヒューマニストが恐れる技術的な特異性に道を譲るべきである)が最大のヒューマンエラーであることを真剣に心配しています。
現在の傾向は、この技術を得るための真の「武器競争」を示しており、これは大きな競争上の優位性をもたらします。 本当の問題は、詳しく調べてみると、これになります。 「倫理」と安全パラメーターを尊重するAIのより調和のとれた開発をどのように許可するか?
スーパー人工知能の開発にはXNUMXつの課題が伴い、敵対的なAIにならないようにします。
最初の課題:目的の統一。 このAIには、人類と同じ目標(心?)が必要です。 それがなければ、AIはそれを役に立たない見掛け倒し、または除去する障害として評価することによって、「ぼんやりと」人類を破壊する可能性があります。
XNUMX番目の課題:相互性。 それは政治的な問題であり、AIのメリットが小さなエリートに渡らないようにし、恐ろしい社会的不平等を引き起こさないようにすることです。
現在の「武装競争」モデルでは、AI開発はこれらXNUMXつの課題を無視してより早くそれを実行する傾向があります。 これにより、敵対的なAIの出現の危険性が本当に具体的になります。
可能な解決策
無制限の競争を防ぎ、AIを開発し、競争したい人々にセキュリティのポストを課す企業やエンティティの混乱を減らす国家政策が必要です。 戦闘が減り、ルールが増えると、プレッシャーが減り、安全への注意力が高まります。
敵対的なAIの出現を回避するための実践的な取り組みを提案することは 調査 研究者WimNaudéとNicola Dimitriによる。 現在の状況は正確に記述されており、すぐに否認から始まります。奇妙なことに、競合他社はすでに少なく、安全性は保証されていません。
米国、中国、ヨーロッパのグループやエンティティは、AIの莫大な開発コストのために数は少ないですが、依然として非常に競争力があります。
このため、他の戦略は国民国家に役立つでしょう
国家は、可能な限り多くの対象に彼らを拘束する命令を提供することによって、戦いを「落ち着かせる」義務があります。 より多くのお金、さらにはAI開発のためのより多くのことですが、特定の安全条件下では。
また、最もインテリジェントで敵意のある人でも弱点があり、完全に無傷ではないと想定して、AIを開発するための「封じ込め」テクノロジーを開発したい人に支援を提供することもできます。
さらに、協力することを決定した人のために税とインセンティブを変更することにより、協力を促進することができます。
共通善
これらの解決策(研究により詳細に説明されています)のほかに、この分野を個人から奪うという最高の解決策があります。 原子力やその他の技術やリソースは誰にとっても有利で危険だと考えられていますが、AIも共通の利益であると考えられ、間違った経路をたどらないように保護されている必要があります。
現時点では誰も何も確信していません。 AIの非常に可能な敵対的な性質は議論中です。 一部の科学者にとって、創造者に対する創造の「反乱」は決してありません。 他の多くの人にとっては、男性とAIの融合があり、私たちは絶滅するのではなく、改善されます。
いずれにせよ、私たちの惑星と人類はAIから多大な恩恵を受けるでしょう。 そして標識は今日すでに見えています。