急速に進化するテクノロジーの状況の中で、欧州連合は、革命的な AI 法の導入という歴史的な動きで進出しています (本文にリンクさせていただきます)。 2024 年に投票される予定のこの新しい規制枠組みは、OpenAI などを含む AI 開発者向けのセキュリティと透明性に関する新しい世界標準を確立することを目的としています。イノベーションと基本的権利のバランスをとることを目的とした AI 法は、世界中の AI 規制における重要な転換点となる可能性があります。
AI法は何を意味するのでしょうか?
前述したように、AI 法は、人工知能の安全性と透明性のための完全な枠組みを導入するものであるため、EU テクノロジー政策の転換点となります。
36時間(実時間)を超える熱心な議論を経て、EU当局者らは現在世界で最も厳格な一連のガイドラインを最終決定した。この法律は、欧州を AI 規制の分野における他の国の模範とするものです。
新しいAI法のポイントは何ですか?
AI法の中核はAIツールとアプリケーションの分類です 3つの「リスクカテゴリー」に分類されます。 最も高いレベルのリスクを持つ AI は、厳しい規制の監視にさらされます。 これらには、自動運転車、重要なインフラストラクチャ ツール、医療機器、生体認証システムが含まれます。
これらの「高リスク」システムには、基本的権利の影響評価、厳格な透明性要件が必要であり、EU の公開データベースに登録する必要があります。
禁止と制裁
AI 法では、リスク カテゴリの定義に加えて、人工知能の特定の使用が断固として禁止されています。このうち、リアルタイム顔認識(しばらく追求してきた目標)、感情認識および「社会信用」システムは禁止されています。
米国の大手テクノロジー企業( OpenAI 「汎用 AI システム」を運用する企業は、EU によって課された新しい基準に準拠する必要があります。これには、モデルのトレーニング方法に関する EU 当局の最新情報や、EU 著作権法を遵守するためのポリシーの作成などが含まれます。
これらの規則に違反したテクノロジー企業は、金額はさまざまですが、多額の罰金を科される可能性があります。 総売上高の 1,5% ~ 7% です。 多くの? 少し? 思いとどまらせるのに十分かどうか? 今のところ、答えは出ないままになるはずの疑問。
そしてここで疑問が生じます
AI法は広く支持されているにもかかわらず、欧州のプライバシー専門家の間で懸念を引き起こしている。この枠組みは、GDPRなどの以前のアプローチとは対照的に、基本的人権をほとんど重視していない、と考える人もいる。繰り返しになりますが、リスクベースのアプローチでは、一見低リスクに見える AI ツールの将来の影響を完全に把握できない可能性があるという懸念があります。
2024 年の最終投票まで (そしておそらくいくつかの変更も)、この規制が AI 環境に与える影響は依然として憶測の対象です。 AI の急速な進化は、その応用と長期的な有効性に大きな課題をもたらしています。
それにもかかわらず、AI 法は、技術革新と基本的権利の保護の間の複雑なバランスをうまく乗り切るための欧州連合による野心的で賞賛に値する試みを表しています。その道筋はまだ不透明だが、AI法は人工知能の世界的な規制のモデルとなり、テクノロジーと社会の将来に大きな影響を与える可能性がある。