近年、人工知能は技術の大空に突入しました。 AIは、法律、医療、教育、さまざまなビジネスモデルに革命をもたらしています。
ビッグデータと機械学習の進歩は、人工知能へのアプローチ方法を変えています。 リシ・ボンマサニ、パーシー・リャン スタンフォード大学の同僚は、このパラダイムシフトにより、人工知能は、SiriやAlexaなどのチャットボットで使用される自然言語処理(NLP)や画像分類など、本来の目的を超えた幅広いアプリケーションに対応できるようになったと述べています。 。 しかし、これはすぐに私たちを危機に導きます。
AIモデルには大きな可能性があり、場合によっては優れている可能性がありますが、重大なリスクも伴います。 「これらのモデルの差し迫った普及にもかかわらず、私たちは現在、それらがどのように機能するか、いつ失敗するか、そしてそれらの機能が何であるかについて明確な理解を持っていません」とBommasaniと同僚は言います。
これが、チームが将来の危機を防ぐために基礎となるモデルの性質を調査することを決定した理由です。、およびその結論 本当に面白いです。
新たな行動、(予測できない)予測可能な危機?
これらのモデルの問題のXNUMXつは、それらの動作が設計ではなく創発的であるということです。 したがって、これらのシステムが何をするのか、いつ危機に陥るのかを知ることが常に可能であるとは限りません。 「これは、科学的な興奮と予期せぬ結果に対する不安の両方の原因です」と研究者たちは言います。
もうXNUMXつの問題は、これらのモデルが他の多くのモデルの基礎になっていることです。 これは、それらが幅広い状況に適用できることを意味しますが、問題が残っていることも意味します。それらはすべての子孫に継承されます。 また、新興企業や大企業の利益志向の環境は、AIの潜在的な問題を調査するのに必ずしも最適な場所ではありません。
商業的インセンティブにより、企業は将来の危機の社会的影響を無視する可能性があります。 私は、仕事の技術的シフト、民主主義に必要な情報エコシステムの健全性、情報資源の環境コスト、そして非民主主義体制への技術の販売について考えています。
リシ・ボンマサニスタンフォード大学
ゴールドラッシュ
新製品を開発するとき、最初にすべきドライブは他のすべての考慮事項を無効にし、正当化するのが難しい道をチームに導きます。 チームは、使用について異議を唱えることにより、この動作の例を示します。 クリアビューAI 顔認識ソフトウェアの開発のためのインターネットからの写真の。 これは、所有者または画像ホスティング会社の同意なしに行われます。 その後、Clearviewは、警察などの組織にソフトウェアを販売しました。
危機と陰湿な結果
モデルの広範な使用による危機の結果 人工知能 彼らはさらに陰湿になる可能性があります。 「初期の技術として、基礎となるモデルの責任ある開発と実装のルールはまだ十分に確立されていません」と研究者は言います。
これらすべてを迅速に変更する必要があります。 Bommasaniと共同研究者は、学界は将来のAIアイデンティティの危機に挑戦する準備が整っていると述べています。 それは利益主導ではない幅広い分野の学者を集めるので準備ができています。 「学界は、社会的利益を促進し、それらの導入によって起こりうる害を軽減するAIモデルの開発において重要な役割を果たしています。 大学はまた、倫理審査委員会を設置し、独自の高潔なモデルを開発することにより、基準の定義に貢献することができます。
それは重要な仕事になります
AIの公正かつ公平な使用を確保することは、現代の民主主義にとって優先事項でなければなりません。 人工知能は、世界人口のかなりの部分の生活を脅かす可能性があります。 XNUMX番目の産業革命が急速に迫っているため、どのジョブが自動化から安全であるかを知ることは困難です。 将来、自動化された意思決定の影響を受けない職務はほとんどない可能性があります。前述のように、危機は防止する必要があります。