AI には本当の「スーパーパワー」がある可能性が非常に高い人間の将来にとって危険です(そして複数の専門家が私たちに警告しようとしています).
人工知能システムは現在、その戦略的能力で知られており、実際の状況でますます使用されています。 彼らは、人間が意図的に立っているところまで到達範囲を広げました 虐待、彼らを虐待し、虐待します。 現在の AI 技術は、社会インフラに組み込まれるにつれて潜在的な可能性が拡大しています。これは、その制御を失うことの結果が悲惨であることを示すもう XNUMX つの兆候です。
AI の危険性や、予測および管理が必要な AI の将来の影響について議論する必要がある状況は数多くあります。 ここに、私たちに非常に悪い影響を与える可能性のある 10 の超大国があります。
失業

これは、人工知能に慎重なすべての人 (不必要にパニックになる人も含む) の主要な主張です。 この問題は人工知能に関するものではありません 特定の職業を習得するかどうか、しかし、それは人間の職業にどの程度影響しますか。
ジョブの自動化により、本質的にハイテクではない失業専門家が多数発生することが予想されます。 AI ロボットがよりスマートになるにつれて、同じタスクに必要な人間の労働者は少なくなります。 どうすればそれを避けることができますか? AIにモラルを与える? できるかどうかわかりません。 人間の仕事を再構成するには? 創造的で人道的な職業に重点を置くことから、普遍的所得のような公式に至るまで、非常に多くの方法があります。
社会経済的不平等の拡大

説明されている最初の「超大国」の直接的な結果は、AI によって誘発された失業によって引き起こされた経済格差の拡大です。 今のところ、人工知能による取得の影響を受けやすいのは予測的および反復的な活動のみですが、研究や調査では、基準が将来拡大する可能性があると予測されています。 その結果、スキルの低い労働者は再訓練の機会がますます少なくなり、 他の人はそれで逃げるべきです。 大きな危険。
プライバシーの侵害

AI が非常に多くの主要なテクノロジー サービスに統合されるにつれて、個人の活動をオンラインおよびオフラインで簡単に監視、比較、分析できるようになりました。 カメラとビッグデータは、常に「対話」するような関係になろうとしています。 最新の洗練された顔認識技術を追加すると、トラッカーが私たちがどこにいて何をしているのかを、実質的にリアルタイムで正確に把握できることが理解できます。 超大国以上のものについて話します オムニセンス.
自律型兵器

I キラーロボット、 自律兵器または「キラーボット」とも呼ばれるこれらは、事前にプログラムされた指示に従って、ターゲットを個別に探して破壊できる軍用ロボットです。 地球上のほぼすべての技術先進国は、人間の兵士に取って代わる自律的な戦争機械を開発しています。 これらのマシンの使用に関連するいくつかの大きな問題があることは言うまでもありません。 最も重大な問題は、これらの人工知能ロボットが暴走し、生命の損失につながる恐ろしい行為を犯した場合、誰が責任を問われるのかということです。
ディープフェイク

ディープフェイクは、悪意のある人物や犯罪者が混乱、恐怖、または嫌悪感を与えるために使用するのに最適です。 それらは、誤った情報を広めたり、個人に関する虚偽の物語を構築したり、身体的および心理的に誰かを傷つける可能性のある主題固有の公共イメージを生成するのに役立ちます. それらは最近、戦争劇場で初めて使用されました(そうです、武器のように)。
AIテロ

AIの超大国(シーザーにシーザーとは何かを与えましょう)は、さまざまな方法で国の国家安全保障を助けることができますが、悪者がテロ攻撃を実行するのを助けることもできます。 ドローンは、さまざまなテロ組織によって攻撃を実行し、国境を越えた軍事活動を監視するために使用されます。 そのような手段が採用されているのを見てきました すでに行動中、そして私たちが一発で何千ものキラードローンが配備されるのを見る日はそう遠くはありません。
ソーシャルメディア操作

ソーシャル メディアの操作はマーケティングにおいて非常に効率的であり、自律的なアルゴリズムの影響を受けることは常に容易です。 AI は、プロパガンダがアルゴリズムと個人データを通じて対象となる人々のグループと共有されている限り、ユーザーからの入力やフィルターなしで、送信したい情報に対処して配布できます。
AIスーパーヒューマン:スーパーパワーの王

仮説の論理に入る (しかし抜け出す方法も知っている)。 前述のように、「敵」を殺すようにプログラムされたロボットが数年以内に普及し、ハッキングされるか、人間を超えた制御を引き継ぐ可能性はありますか?
ここで:これは絶対に最悪のシナリオです。 現在、超人的なAIシステムは神話のようなものですが、いつまで神話のままでしょうか?
AIの偏見

宗教、性別、国籍はすべて、XNUMX世紀の今日でも人々が戦い、戦争を続けているものです. それは恐ろしいことです、私たちは毎日それを見ています。 このバイアスは、人々が提供する誤ったデータの結果として、AI システムにも反映される可能性があります。 この問題を解決するために、コンピューター科学者は無関係な情報を手動で削除する必要があります。 特に、人工知能がすでに人間をサルと間違えていることを考えると、それは容易なことではありません。
株式市場を不安定化させる

近年、専門家は、アルゴリズム取引の出現が金融破局につながる可能性があるという懸念を表明しています。 アルゴリズム取引は、市場の大幅な変動を引き起こす可能性のある高頻度で高価値の取引で構成されています。 この種の取引は人間の論理や感情を無視していますが、依然として金融市場の重要な構成要素です。 繰り返しになりますが、人工知能が 29 年の新たな危機を引き起こした場合、誰が責任を問われるのでしょうか?