2番目の 最新のレポート リビア内戦に関する国連の報告書によると、終結を迎えた今年、初めて自律型兵器システム、殺人ロボットが人を殺害した。将来、私たちはそれを、私たちに非常に大きな損害を与える可能性のある新たな軍拡競争の出発点として思い出すかもしれません。
最近(13月17日からXNUMX日まで)La 特定通常兵器使用禁止条約 1983年ごとに起こるように、主題について会った。 XNUMX年以来、この議会は対人地雷などの残酷な兵器を制限することを選択しました。 今回、彼はこれらの自律型兵器の禁止の可能性について話し合った。 そして、それらを制限することはコンセンサスに達していない。
それは壊滅的な間違いだったのかもしれません。
自律型兵器システムは殺人ロボットです。この投稿を通して、私が彼らを「キラーロボット」と呼んでいるのが聞こえてくるでしょう。これが私なのだから。単独で機能する兵器を備えたシステム。戦争のために、人を殺すために作られたシステム。世界各国政府はこの傾向に多額の投資を行っています。
一方、もちろん、人道支援組織(そのうちのXNUMXつ、Stop The Killer Robots、 あなたがここで見つけること)これらの兵器の開発に関する規則と禁止事項を求めるために費やされています。 そして、彼らはうまくやっています。 自律型兵器の使用を制限しないと、非常にひどく終わります。 この分野の破壊的技術は、すべての軍事戦略を不安定にし、先制攻撃のリスクを高める可能性があります。 化学的、生物学的、核的なものを含みます。
キラーロボットの開発のペースを考えると、ちょうど終わったばかりの国連会議は 最後の機会のXNUMXつ 新しい軍拡競争を避けるために。 または最後のもの。
キラーロボットシステムに関しては、誰にでも明らかなXNUMXつの危険があります。
キラーロボットの最初の問題: 身元。
自律型兵器は常に敵対的な兵士とおもちゃの銃を持った子供を区別することができますか? 単一の人為的エラー(これも可能です)と間違ったアルゴリズム設定の違いは、信じられないほどの規模で問題を引き起こす可能性があります。 自律型兵器の専門家と呼ばれる ポール・シャーレ メタファーを使用します。トリガーから指を離しても発砲し続ける、故障した機関銃のメタファーです。 そして、それはただの機械なので、弾薬がなくなるまで撃ちます。 彼は自分が間違いを犯していることを知りません。
人々が何と言おうと、人工知能はまだそれ自身の道徳を備えていません(そして彼はおそらくそれを決して持っていないでしょう、彼はそれを学ぶことが決してできないでしょう).
問題はそれだけではありません AIでさえ間違っているたとえば、喘息を要因として認識する場合 肺炎のリスクを軽減します、またはそれが色の人々を識別するとき ゴリラのように。 それは、それが間違っているとき、それを作成した人は誰でもそれが間違っていた理由を知らず、それを修正する方法も知らないということです。 これが、キラーロボットがあらゆる種類の「道徳的」基準で開発できることは不可能だと私が信じる理由です。
キラーロボットのXNUMX番目の問題:ローエンドの増殖。
自律型兵器を開発している軍隊は、自律型兵器を封じ込めて制御できると想定しています。 これよりも馬鹿げた考えを聞いたことがありますか? 兵器技術の歴史が教えてくれることが一つあるとすれば、それは兵器が広がるということです。 この場合も それは非常に予測可能でした。
過去にカラシンコフで起こったことは、誰の手にも届くほどアクセスしやすくなったアサルトライフルであり、キラーロボットでも繰り返すことができます。 市場の圧力は、効果的で、安価で、事実上停止することが不可能な自律型兵器の作成につながる可能性があります。 何よりも:広く行き渡っている。 政府、狂った馬、組織犯罪またはテロリストグループの手に。
それはすでに起こっているかもしれません。 ザ カルグ-2、トルコの防衛請負業者によって作られた、ドローンと爆弾の間のクロスです。 ターゲットを見つけて追跡するための人工知能があります。 彼はキラーロボットであり、すでにリビア内戦劇場で自律的に行動して人々を攻撃しています。
キラーロボットのXNUMX番目の問題:ハイエンドの増殖。
次に「ハイエンド」のリスクについて考えると、ゼニトに行き着きます。 各国は、自律型兵器の破壊的なバージョンを開発するために競争する可能性があります。 化学兵器、生物兵器、放射線兵器、核兵器を搭載する 。 武器の致死率を高めることの道徳的危険性は、武器の使用を増やすことによって拡大されるでしょう。
確かに、これらのキラーロボットには高価なものが付属する可能性があります 倫理的コントローラー 「サージカル」攻撃の神話に従って、巻き添え被害を最小限に抑えるように設計されています。 要するに、世論のためだけに良いものです。 真実は、自律型兵器は、戦争を計画する前に行う最もありふれた費用便益分析でさえも変えるだろうということです。 彼らは致命的なリスクのサイコロになり、心配することなく転がされます。
競合する技術を欠いている国々によって地上で行われる非対称戦争は、より一般的になるでしょう。 非常に広範囲にわたる不安定性。
XNUMX番目で最後の問題:戦争の法則
キラーロボット(増殖するのは確かなことです)は、戦争犯罪や残虐行為に対する人類の最後の緩和ケアである国際戦争法を弱体化させます。 これらの法律は、最初から始まる条約で成文化されています ジュネーブ諸条約、それらは私が想像することのできないさらに悪いものから戦争を分離する細い線です。
戦時国際法は、戦争をしている人々にも責任を課すため、基本的なものです。 スロボダン・ミロシェビッチは国の大統領であり、彼の行動に答えなければなりませんでした。 彼は旧ユーゴスラビア連邦国際刑事裁判所で裁判にかけられ、 彼は自分のしたことに答えなければなりませんでした。
そして今? 戦争犯罪を犯したキラーロボットのせいですか? 誰が試されますか? 武器? 兵士? 兵士の指揮官? 武器を作った会社は? NGOや国際法の専門家は、自律型兵器が墓につながることを恐れています 負債ギャップ .
兵士は、自己完結型の武器を使用して犯罪を犯したことを示さなければなりません。 これを行うには、兵士が有罪を犯し、またそうする特定の意図を持っていたことを証明する必要があります。 キラーロボットの世界ではかなり複雑なダイナミクス。
キラーロボットの世界は、彼らが課すルールのない世界です 重要な人間の制御 武器について。 それは戦争犯罪が責任を問われることなく戦争犯罪が行われる世界です。 戦時国際法の構造は、その抑止力とともに、かなり弱体化するでしょう。
新しい世界的な軍拡競争
誰もが好きなときに好きな力をすべて使えると想像してみてください。 誰にとっても影響が少ない。 国内および国際的な軍事、反乱グループ、テロリストが、理論的に無制限の致命的な力を、選択した時間と場所で理論的にゼロのリスクで展開でき、結果として法的責任を負わない惑星を想像してみてください。