先週、私たちはパニックの問題に取り組みました 人工知能に関するメディアによって誘導された。私が言いたかったのは、他の方法と同じように、私たちの社会を完全に変える可能性があるこのテクノロジーの機会とリスクについての健全な議論を否定することです。明らかに、コインの裏返しもあります。非常に多くの科学者グループが、起こり得る危険についてまったく懸念していません。正しいか間違っているか?
見て見ぬふりをする人がいるから
「人工知能が人類の滅亡を引き起こす可能性があると考えたことがありますか?」ホワイトハウスでの最近の記者会見で報道官は、 カリーヌジーンピエール 彼が笑いました この疑問に直面しました。残念ながら、答えは深刻な「ノー」です。などの AI の先駆者にもかかわらず、 アラン·チューリング すでに「機械が乗っ取る」リスクについて警告していましたが、現在の研究者の多くは全く気にしていないようです。しかし、AIは信じられないほどの速度で進歩しています。 なぜ彼らはそれについてもっと議論しないのですか?
デビッド・クルーガー、ケンブリッジ大学工学部教授は、その理由は何よりも文化的、歴史的であると主張しています。これらのテクノロジー (ユートピアまたはディストピア) に対して過剰で理想主義的な期待が寄せられるさまざまな段階を経て、研究者たちは実践に移ることを決定しました。このため、彼らは自動運転などの特定の分野に焦点を当て、長期的な影響について質問するために立ち止まりました。
彼らの成績は良かったですか、悪かったですか? リスクが現実のものだったら?
「心配している人」(念のため言っておきますが、「大災害主義者」とはまったく異なるカテゴリーです)の基本的な議論は、AI と人間の類似点です。人間が資源を奪い合うために他の種を絶滅させてきたのと同じように、人工知能も私たちに同じことをする可能性があります。言い換えれば、それは私たちに取って代わる可能性があります。経済的にも政治的にも。物理的に。
これらは壮大で、ほとんど SF のように聞こえるテーマです。そして実際、AI のリスクはまさに「非科学的」であるという理由で無視されることがよくあります。しかし、これは注意力の欠如を正当化するものではありません。むしろ、他の複雑な社会問題と同じように、これらの問題に取り組む必要があります。そしてここで、資金調達という重要な要素が登場します。ほとんどの AI 研究者はハイテク大手から資金提供を受けており、利益相反が生じる可能性があり、それが専門家による AI 問題への取り組み方に影響を及ぼし、リスクの客観的な評価ではなくリスクの否定につながる可能性があります。
このため、世論は、金融とメディアを指導する人々が最も好む演習(分割統治)において、両極のいずれかに「傾く」のではなく、前方、むしろ内向きに目を向けるべきである。物事の内側で、テーマを深く探求することを要求します。
真剣になる時が来た
AI の実存リスクは、偏見やフェイクニュースなどの差し迫った問題と比較すると、現実のものというよりも推測的なものかもしれませんが、基本的な解決策は同じであり、規制です。しっかりとした公開討論を開始し、AI に関連する倫理的問題に取り組む時期が来ています。それ以外はすべて退屈、あるいは退屈です。
なぜなら、人工知能が人類にもたらす潜在的なリスクを無視するわけにはいかない、ということを私たちは知っているからです。利益相反と倫理的責任を考慮した、オープンで正直な公開討論が不可欠です。この方法でのみ、ホワイトハウスの報道官の笑いが本当に適切なものなのか、それとも逆に危険な(これが)集合的無意識の兆候なのかを理解することができるだろう。