エンリコ・ルッジェリは、未来は仮説にすぎないと歌った。そして、この仮説には、チェスや囲碁で人間に勝つだけでなく、文章を書くこともできる人工知能も存在します。 小説、交響曲を作曲します。する 科学的発見、感情さえ感じます。これは汎用人工知能 (AGI) の幻影です。AGI とは、人間と同等かそれよりも優れた一般的な認知能力を備えたシステムのことです。次のような高度な言語モデルのおかげで、目標は近づいているように見えます。 GPT-4 そして今はolでもあります。しかし、解決すべき理論的および実践的な問題はまだ数多くあります。
AGIの夢
何十年もの間、一般的な人工知能 (AGI) は、人工知能研究者の約束の地、エルドラドです。あらゆる分野で人間の認知能力と同等、あるいはそれを超える機械を作るというアイデア(より) 抽象的推論 A 創造性、から プランニング A 一般化 スキルの)魅力的であると同時に恐怖を与えます。
実際、AGI システムは、次のような非常に複雑な問題を自律的に解決できます。 気候変動、未来のもの 世界的流行病、次のような壊滅的な病気の治療法を見つける 癌 そして、l 'アルツハイマー病。それは前例のないペースで科学技術を進歩させ、宇宙探査、クリーンエネルギー、輸送、教育などの分野に革命をもたらす可能性がある。
一方で、超汎用的な人工知能は、人間の価値観と適切に連携していなければ、巨大で制御不能な力を発揮する可能性があります。 「私たちがAIを誤用したり、制御を失ったりしたために、恐ろしいことが起こる可能性があります」と彼は警告する ヨシュア・ベンジオ、深層学習の父の 1 人であり、AGI 研究の先駆者です。世界のレベルの科学者が想像したものを反映した黙示録的なシナリオ スティーヴン·ホーキング そして、次のような先見の明のある起業家 イーロン·マスク.
AlphaGo と現在の AI システムの限界
数年前まで、AGI は遠い蜃気楼のように思えました。 「狭い」AI の進歩は目覚ましいものでしたが、特定のタスクに限定されていました。たとえば次のように考えてください アルファゴーが開発したAIシステム。 Google DeepMind ボードゲームの囲碁の世界チャンピオンに勝つことができるという歴史的な結果だが、一般的な意味でAlphaGoをインテリジェントにするわけではない。アルファ碁は囲碁の打ち方を知っているだけで、作家、作曲家、科学者として即興で演奏することはできない。
これは、最新の AI システムであっても、現在の AI システムの限界です。 彼らは「知っている愚か者」だ、狭い領域(チェスのプレイ、画像の認識、テキストの生成など)には非常に優れていますが、それらのスキルを別の領域に移すことはできません。彼らにはその能力が欠けています 一般化する e 抽象的な、それは人間の知性の姿です。
言語モデルの革命
最近の革命は、 言語モデル GPT-3のような OpenAI、LaMDAによる グーグル、DALL-E (これも OpenAI による)、安定した拡散による スタビリティAI最も有名な言葉を引用すると、テーブル上のカードが変わりました。というか、それは私たちが最近まで考えていたよりも、一般的な人工知能がどのようなものであるかをより正確に表現したものであることを私たちに示してくれました。
これらのモデルを非常に有望なものにする機能は、 多機能性: 「制限付き」AI システムとは異なり、テキストの作成から画像の生成、会話から問題解決まで、非常に異なるタスクに取り組むことができ、多くの場合、印象的な結果が得られます。
ある意味でそれを思い出させる多機能性 人の心 そして一部の研究者に「汎用人工知能はすでに実現されている」と語らせた。特に、最近発表された ol という最新の OpenAI モデルは、(場合によっては正直言ってほとんどありませんが) 能力 推理 と ラーニング 前作よりもはるかに人間らしくなったことが議論を再燃させている。
人工知能全般に向けた解決すべき課題
強調したように フランソワ・ショレコンピューター科学者であり、Keras AI フレームワークの作成者である彼は、現在の大規模言語モデルには依然として大きな制限があり、「AGI を達成するには不十分」です。
主な問題の 1 つは、 一般化: これらのシステムは、膨大な量のデータ (テラバイトのテキストと画像) でトレーニングされていますが、学習した内容を、トレーニングされた状況とはわずかでも異なる状況に適用するのに苦労しています。 「言語モデルは、新しい状況に適応するためにその場で知識を再結合する能力がないため、実際には新規性に適応することができません」と Chollet 氏は説明します。
一般化に関連するのは次の概念です。 「いくつかの例から学ぶ」 (数回学習)、人間の知能の重要な特性の 1 つ。現在まで、言語モデルは新しいタスクを「学習」するために膨大な量のデータと高価な再トレーニングを必要としますが、私たち人間は 多くの場合、1 つまたはごく少数の例から概念を把握できます。
一般的な人工知能への不可能な道
いくつかの実験が示すように、 「内部表現」 現実を構成する言語モデルは表面的で一貫性がないことがよくあります。たとえば、次の研究者チームは、 ハーバード大学 ニューヨーク市のタクシー ルートでモデルをトレーニングし、出発地から目的地を非常に正確に予測できるようにしました。しかし、このシステムが開発した「メンタルマップ」を研究者らは調べたところ、「物理的に不可能な方向の道路や、他の道路を跨ぐ高架が存在する」など、まったく意味のない地図であることが判明した。
最後に、現行モデルにはまだメカニズムが欠けています フィードバック 人間の脳に存在するものと同様に、情報はニューロンの異なる層間を双方向に流れます。 知覚、推論、行動を統合できるようになります。 感覚情報は上向きに上昇して世界の抽象的な表現を構築しますが、それらの同じ表現は知覚に影響を与え、新しい関連情報の取得を導くことができます。次のような主要な機能を有効にするダイナミクス 想像力、計画、仮説を立ててテストする。 現行モデル?彼らにはそのようなものは何もありません。近い将来どこかで出現する可能性のある汎用人工知能 (AGI) でしょうか?多分。多分。
現時点ではそうではありません。これらの関数の一部は現在、出力を評価して修正するモデルに「ベリファイア」と呼ばれるアドホック モジュールを「外部から追加」するという初歩的な方法でのみ取得可能です。しかし、これは拡張性があまり高くなく、人間の精神の効率性からは程遠いアプローチです。
一般的な人工知能、目標に向けた次のステップ
これらの制限にもかかわらず、今日の真に汎用的な人工知能への道はより明確で、より現実的であるように見えます。理論的な観点から見ると、克服できない障害はないようです。「人間と一部の動物は、そこに到達することが可能であるという生きた証拠です」と彼は強調します。 メラニー・ミッチェル、サンタフェ研究所の教授およびAGIの専門家。課題は概念的なものではなく、エンジニアリングと実装です。
研究者たちはすでに、現在の AI システムの限界を克服し、次のような人間の知能の主要な機能を組み込んだ次世代 AI システムの開発に取り組んでいます。
- 世界のモデル より洗練され、一貫性があり、高レベルの推論、計画、一般化をサポートするために適応可能です。私たちが意思決定を行うために仮説的なシナリオを想像する「メンタル シミュレーション」に似た表現。
- 内部フィードバック これにより、双方向かつ再帰的な情報の流れが可能になり、抽象的な表現により、さらに関連するデータの取得や仮説を検証するための実験の定式化が可能になります。
- 以上 効率 学習において、無差別に大量のデータに依存するのではなく、モデルを改良するためにどの情報を「味わう」かを積極的に選択する能力を開発します。興味深い刺激を求めて周囲を積極的に探索する子供のようなものです。
- の形式 「メタメモリー」つまり、新しい知識の探索と的を絞った取得を導くために、何が既知であり、何が未知であるかを認識します。
- 別施設 短期記憶と長期記憶 生物学的記憶システムで行われるように、以前の知識や経験を迅速に保存、呼び出し、再結合します。
- 何らかの形で 意識 目標指向の行動と、環境および人工または人間の他のエージェントとの効果的な相互作用を導くための自己モデル。
これらの点の多くについて興味深い進歩が見られます
たとえば、Yoshua Bengio 氏は、彼が次のように呼ぶ新しいニューラル ネットワーク アーキテクチャに取り組んでいます。 「生成流ネットワーク」、世界のモデルと、それらを推論と計画に使用するモジュールの構築を同時に学習できます。このアプローチは、ある意味で人間の脳の機能に似ています。
他の研究者、例えば ジェフホーキンス Numenta の研究チームは、短期記憶と長期記憶、情報の統合と検索のプロセスを別々の構造にして、生物学的記憶の原理を AI システムに実装しようとしています。この仮説は、一般化や抽象的な推論の課題に役立つ可能性があるというものです。
それから、理論神経科学者のような人たちもいます。 カール・フリストン ロンドン大学ユニバーシティ・カレッジの教授は、AGI にアプローチする鍵は、トレーニング データを単に受動的に「取り込む」のではなく、目的を達成するためにどのくらいの量のどの情報をサンプリングするかを能動的に決定するシステムを構築することであると提案しています。生物における「アクティブサンプリング」と同様の原理。
AGI の倫理的およびセキュリティ上の課題
一般的な人工知能の構築が理論的に可能であれば、 これは、リスクや重大な問題がないことを意味するものではありません。 前述したように、制御不能になったり、人間の価値観と一致しない超知性は、私たちの種にとって存続の脅威となる可能性があります。経済、仕事、不平等、プライバシー、情報操作への影響の可能性は言うまでもありません。
このため、研究者は次のように考えています。 スチュアート・ラッセル バークレー大学の教授は、最初から技術を開発することの重要性を強調しています 「価値観の一致」 (価値の調整)AGI システムが倫理と人間の幸福に適合する目的と動作を持っていることを保証します。
この方向で有望なアプローチは、倫理的な行動や価値観を外部から押し付けることなく、システム自体の学習ダイナミクスから引き出すことを目的としたものです。興味深い提案は、「協調逆強化学習」 (サークル)。 CIRL では、AI エージェントは人間の好みを満たすことで報酬を受け取りますが、これらの好み自体はエージェントの行動から部分的に推測され、時間の経過とともに洗練されます。
他の研究者は、AGI の発達が徐々に起こることが不可欠であると考えています。言い換えます: 「レイヤード」、自律性とスキルのレベルが向上し、あらゆる段階でシステムのセキュリティをテストおよび検証できるようになります。基本的な運動能力や知覚能力から言語やより高度な認知能力に至るまで、高度化の段階を経る人間の脳の発達で起こることと似ています。
そして明らかに次の問題があります 規制 e ガバナンス: AGI などの強力なテクノロジーの開発を誰がどのように管理する必要がありますか?民間企業や研究所だけでしょうか、それとも政府や国際機関でしょうか?多くの人は、現在の規制や制度の枠組みが維持できるかどうか懐疑的であり、AI の「グローバル ガバナンス」を求めていますが、この未来的なガバナンスの輪郭はまだ定義されていません。
汎用人工知能、魅力的かつ不確実な未来
ひもを引くと、人間の知能と同等またはそれを超える一般的な人工知能の目標に私たちはどの程度近づいているでしょうか?専門家の推定はさまざまなので、確実に言うのは難しい 数年間 数十年まで。確かなことは、近年の進歩により、AGI がより具体的な目標となり、この分野に目覚ましい加速をもたらしたことです。
道には障害物がたくさんありますが、ゴールがこれほど手の届くところにあるように思えたことはありません。 そして、いつか、願わくばそう遠くない日に、人工知能が私たちに質問し、仮説を検証し、経験から学び、さらには感情を感じることができるようになったら...その時、私たちは到着したことを知るでしょう。そして、良くも悪くも、世界は二度と元には戻らないのです。