Il 戦争の未来 状況を評価して敵を攻撃する能力と権限を備えた高度な人工知能(AI)アルゴリズムが含まれる可能性があります 人間の制御なしで。
ターミネーターやマトリックスのようなSF映画のようなシナリオのように見えます。 武力紛争中に戦争ロボットを解き放つことで問題を解決するまでの高度な技術。
映画では、AIは常に人間を攻撃することになります。 実生活では、AIは、人間の制御によって任務が遅くなるような作戦で軍隊を支援する可能性があります。 明らかな欠点は、敵が同様に高度な技術を採用する可能性があることです。
そして、誰が最終的にその戦争ロボットでAIを攻撃するでしょうか? 常に人間。
自分で決める戦争ロボットの未来
ペンタゴンは、AIが事前に設定されたニーズに基づいて独自のイニシアチブで行動することを許可される戦闘シナリオを研究しています。
そのような演習のXNUMXつは、昨年XNUMX月にシアトル近郊で行われました。
数十の軍用ドローンと戦争ロボット タンクに似ています 彼らは単純な使命を持って配備されました:異なる建物の間に隠れている疑いのあるテロリストを見つけること。
関与する戦争ロボットの数は、人間のオペレーターが制御することは不可能でした。 このため、彼らは必要に応じて敵の戦闘機を見つけて排除するための予備的な指示を受けました。 そして彼らは去った。
自動戦の技術試験
国防高等研究計画局(DARPA)によって運営されているシミュレーション演習には、実際の兵器は含まれていませんでした。 その代わりに、ドローンやロボットが敵対的なエンティティとの相互作用をシミュレートするために使用した無線送信機。
ドローンと戦争ロボットは、ほぼ大きなバックパックのサイズでした。 それらは、攻撃計画を考案した人工知能アルゴリズムによって調整されました。
いくつかの戦争ロボットは建物を取り囲み、他のロボットは監視を実行しました。 敵を特定した人もいれば、シミュレートされた爆発物によって破壊された人もいます。
これは、人間が決定するには複雑すぎて高速な状況で軍事システムの自動化をシミュレートするために実施された人工知能ドリルのXNUMXつにすぎませんでした。
国防総省は戦争ロボットに決定を求めています
レポート of Wiredは、命令の実行において自律型兵器にある程度の自由を与えるという国防総省への関心が高まっていると説明しています。
人間は依然として高レベルの決定を下しますが、AIは人間よりも地上の状況により良くそしてより速く適応することができます。
別のレポート 人工知能に関する国家安全保障委員会(NSCAI)の委員会は、米国が自律型兵器の開発に対する国際的な禁止の要求に抵抗することを今年XNUMX月に勧告した。
それは実行可能な慣行ではありません。 それは形も実体も非人間的です。 核兵器と同様に、米国がドローンや戦争ロボットの群れに動力を供給するために採用できるのと同じアルゴリズムを他の軍隊が使用することができます。
ロボットの黙示録
「テロリストが入手できる自律型致死兵器は、国家安全保障の利益にはなりません」とMIT教授は言います。 マックスTegmark、の共同創設者 フューチャーオブライフ研究所、自律型兵器に反対する非営利団体。
彼にとって、戦争ロボットとAI兵器は、「生物兵器のように非難され、禁止されるべきである」。