Il 戦争の未来 状況を評価して敵を攻撃する能力と権限を備えた高度な人工知能 (AI) アルゴリズムが関与する可能性があります。 人間の制御なしで。
ターミネーターやマトリックスのようなSF映画のようなシナリオのように見えます。 武力紛争中に戦争ロボットを解き放つことで問題を解決するまでの高度な技術。

映画では、AI は必ず人間を攻撃します。 実生活では、AI は、人間の制御が任務を遅らせる作戦で軍を助けることができます。 明らかな欠点は、敵が同様に高度な技術を使用する可能性があることです。
そして最終的に戦争用ロボットで AI を攻撃するのは誰でしょうか? いつも人間。
自分で決める戦争ロボットの未来
ペンタゴンは、事前に設定されたニーズに基づいてAIが独自のイニシアチブで行動できるようにする戦闘シナリオを研究しています。
そのような演習の XNUMX つが、昨年 XNUMX 月にシアトル近郊で行われました。

数十の軍用ドローンと戦争ロボット タンクに似ています 彼らは単純な使命を持って配備されました:異なる建物の間に隠れている疑いのあるテロリストを見つけること。
関与する戦争ロボットの数は、人間のオペレーターが制御することは不可能でした。 このため、彼らは必要に応じて敵の戦闘機を見つけて排除するための予備的な指示を受けました。 そして彼らは去った。
自動戦の技術試験
国防高等研究計画局 (DARPA) が実施したこのシミュレーション演習には、実際の兵器は含まれていませんでした。 その代わりに、無人機やロボットが敵対的なエンティティとの相互作用をシミュレートするために使用した無線送信機。
ドローンと戦争ロボットは、大きなバックパックほどの大きさでした。 それらは、攻撃計画を考案した人工知能アルゴリズムによって調整されました。
いくつかの戦争ロボットは建物を取り囲み、他のロボットは監視を実行しました。 敵を特定した人もいれば、シミュレートされた爆発物によって破壊された人もいます。
これは、人間が判断するにはあまりにも複雑で速すぎる状況で、軍事システムの自動化をシミュレートするために実施された人工知能訓練の XNUMX つにすぎません。
国防総省は戦争ロボットに決定を求めています

レポート Wired の説明によると、国防総省は自律型兵器に命令の実行にある程度の自由を与えることへの関心が高まっていると説明しています。
人間は依然として高レベルの決定を下しますが、AI は人間よりも優れた方法で現場の状況に迅速に適応できます。
別のレポート 人工知能に関する国家安全保障委員会(NSCAI)の委員会は、米国が自律型兵器の開発に対する国際的な禁止の要求に抵抗することを今年XNUMX月に勧告した。

それは実行可能な慣行ではありません。 それは形も実体も非人間的です。 核兵器と同様に、米国がドローンや戦争ロボットの群れに動力を供給するために採用できるのと同じアルゴリズムを他の軍隊が使用することができます。
ロボットの黙示録
「テロリストが入手できる致命的な自律型兵器は、国家安全保障の利益にはなりません」と MIT 教授は述べています。 マックスTegmark、の共同創設者 フューチャーオブライフ研究所、自律型兵器に反対する非営利団体。

彼にとって、戦争用ロボットと AI 兵器は「生物兵器のように汚名を着せられ、禁止される」べきです。