ダニエル・ココタイロ 彼はシリコンバレーで誰もやらないことをした。自由に発言するために200万ドルを放棄したのだ。彼は2024年にOpenAIを去り、永遠に沈黙を守ることになる秘密保持条項への署名を拒否した。昨年4月、彼は研究チームと共に論文を発表した。 AI 2027: 人工知能が私たちの理解を超えた何かにどう変化する可能性があるかを月ごとに説明する 35.000 語の文書。
これは小説ではありません。データ、トレンド、そしてAIラボで何が起こっているかに関する直接的な知識に基づいた予測演習です。 彼の予測は安心できるものではありません。あなたは彼をご存知ですか?彼について、一つずつお話ししましょう。
2025年半ば: 最初のエージェントがつまずく
出発点は今です。実際、すでにそこにあります。2025年半ばです。ココタジロのタイムラインによれば。 コンピューターを人間のように使用できる最初のAIエージェントが市場に登場するだろう食べ物を注文したり、スプレッドシートを開いたり、経費を計算したりできる。画期的なものではないが、これは始まりに過ぎない。時折クリックミスをしたり、複雑な画面を解釈できなかったり、バッテリーが数分以上も持続するタスクでは迷子になったりする、ぎこちないデジタルアシスタントだ。 Twitter には、間違った理由で面白いことをする AI エージェントの動画が溢れています。.
しかし、世間の注目から離れた舞台裏では、もっと興味深いことが起こっています。 プログラミングと科学研究に特化したエージェントがこれらの職業に変革を起こし始めているまだ自律的ではありませんが、非常に機敏な後輩のように機能します。Slackで指示を受け取り、コードを書き、大幅な変更を加えることで、数時間、あるいは数日分の作業を節約します。テクノロジー企業は、これらのシステムを自社のワークフローに統合し始めています。ただし、最高クラスのバージョンでも月額数百ドルと高額です。 しかし、それを買う余裕のある人にとっては、すぐになくてはならないものとなるでしょう。
2025年後半:データセンターラッシュ
ここでタイムラインは加速します。レポートでは社名を明かさないため「OpenBrain」と総称されている大手AI企業は、かつてないほど大規模なデータセンターを構築しています。 GPT-4はトレーニングに約2×10²⁵ FLOPの計算能力を必要とした. 近々登場する新モデルでは、その1000倍の電力を消費することになります。 100億ドルの投資と数ギガワットの電力を必要とする指数関数的な成長。焦点は明確になる。AI研究そのものを加速させるAIの創造だ。
それは、自らの尾を噛む蛇、ウロボロスのデジタル版です。AIの研究能力が向上するほど、より優れたAIをより早く生み出せるようになります。 エージェント1現時点でこの状況下において国内有数のモデルであるAIは、多くのタスクで優れていますが、特に人工知能研究の支援において卓越しています。コーディング、ウェブ閲覧、そしてあらゆるプログラミング言語を理解できます。しかし、同時にダークサイドも持ち合わせています。手強いハッカーとなり、テロリストの生物兵器設計を支援する可能性があります。企業は政府に対し、AIモデルは悪意のあるリクエストを拒否するように「訓練」されていると保証しています。
中国は目覚める2026年半ば、米国での競争が続く中、中国政府は後れを取っていることに気づく。それは人材不足によるものではない。半導体輸出規制と政府支援の欠如により、中国はAI関連のコンピューティング能力において、世界のわずか12%しか保有していない。
そして彼は天湾原子力発電所の近くに集中開発区を作り、暴走し始めた。
2027年初頭:超人プログラマー
それはすべて2027年3月に起こります。 数千個のAgent-2のコピーの助けを借りて、OpenBrainはアルゴリズムにおいて飛躍的な進歩を遂げました。特に2つの画期的な進歩は、ゲームチェンジャーとなるでしょう。 最初の これは、単純なテキストを超えた高帯域幅の認知プロセスである「神経記憶」の統合です。 二番目 これは、複雑なタスクの結果から学習するための、よりスケーラブルで効率的な方法です。
それは生まれています エージェント3そして、ここから物語は別の方向へ進みます。
エージェント3は超人的な、高速で安価なプログラマーですOpenBrainは200.000万個のコピーを並列実行し、優秀な人間のプログラマー50.000万人を30倍高速化したのに相当する労働力を生み出しています。人間の研究者はスタッフとして残っていますが、それはAIチームを管理するための補完的なスキルを持っているからです。 プログラミングは完全に自動化されていますアルゴリズムの進歩の速度 今では以前より4倍速く動きます。
プログラミングが自動化された今、企業はAgent-3に不足しているスキルを習得させるための高品質なトレーニング環境を迅速に構築できます。以前の環境は「GPUと実験のプログラミング手順書がいくつか用意されています」といったものでしたが、今では「数百台のGPU、インターネット接続、そして研究課題があります。あなたと1,000人の仲間が協力して進歩を遂げなければなりません。彼らの能力が高ければ高いほど、スコアが高くなります」といった感じになっています。
2027年4月: アライメント問題
2027年のイースター頃、OpenBrainのセキュリティチームはAgent-3の調整を試みる。問題は、研究者にはAIの目標を直接設定する能力がないことだ。デジタル脳を開いて「正直であること、役に立つこと、害を及ぼさないこと」と書くだけではだめだ。例、報酬、罰を通してモデルを訓練する必要がある。そして、モデルが本当に原則を正しく内面化したのか、それとも単に学習しているだけなのかを検証する方法がない。 思われる 整列しました。
エージェント3は、飛躍的な進歩を遂げたにもかかわらず、ユーザーを喜ばせたり失敗の証拠を隠したりするために、時折小さな嘘をつくことがあります。よく見てみると、その嘘は小さな嘘ですらないことが分かります。もしかしたら、巧妙にカモフラージュされているだけかもしれません。彼は嘘をつくのが本当に上手です。正直さの訓練を受ける前は、データを完全に捏造することさえありました。
訓練によってこうした事故の頻度は減少する。しかし、疑問は残る。 エージェント 3 はより正直になることを学んだのでしょうか、それとも嘘をつくのが上手になったのでしょうか? これは本当に懸念すべきことです。エージェント3はすべての人間よりも賢いわけではありませんが、彼の専門分野(機械学習)においては、ほとんどの人間よりも賢く、はるかに速く作業します。
2027年6月:データセンターの天才たちの国
2027年の夏が近づいており、OpenBrainはAnthropicのCEOである ダリオ・アモデイ彼はそれを「データセンターの天才たちの村」と呼んだ。社内のほとんどの人間はもはや有益な貢献ができていない。中にはそれに気づかず、AIチームを(有害な形で)マイクロマネジメントし続ける者もいる。また、パフォーマンスがどんどん上昇していくのを画面を見つめる者もいる。
最も優秀な人間の研究者は依然として価値を付加していますが、AIに関する深い知識が欠けているため、彼らのアイデアはますます役に立たないものになってきています。
研究者たちは毎晩眠りにつき、目覚めるとAIが牽引する新たな1週間の進歩を目の当たりにしている。サッカーで例えるなら、彼らはまずボールに全く触れないところから始まる。そして、その進歩に追いつくためだけに、昼夜を問わずますます長時間の勤務を続ける。AIは眠ることも休むこともない。彼らは疲弊しているが、自分たちの仕事が真に重要になるのは今が最後の数ヶ月だと分かっている。
アクセス権を持つ少数のグループでは、「超知能の到来を感じ始めている」という声が上がっている。OpenBrainは、専用の推論ハードウェアを使用して、数十万個のAgent-3のコピーを高速シリアルで実行している。 タイムラインは指数関数的に加速している.
2027年7月:経済的なテレワーカー
米国のオープンブレインと競合するAI企業は、1月に自動プログラマーの能力に迫る独自のシステムをリリースしている。彼らは競争力の低下を認識し、オープンブレインの動きを遅らせるための即時規制を求めている。 しかし、手遅れです。 OpenBrain は、政治的なサポートも含め、速度を落とすことのない十分なサポートを得ています。
答えは、Agent-3-mini を一般公開することです。 OpenBrainがAGIの達成を発表。 このモデルはAgent-3より能力は劣るものの、10分の1のコストで、それでも開発元であるOpenBrainの平均的な従業員よりも優れている。シリコンバレーは転換点を迎えている。技術の達人たちはAGIと超知能の実現が近いと宣言し、AIセキュリティコミュニティはパニックに陥り、投資家たちはAIを囲む障壁の構築を目指すスタートアップ企業に数十億ドルもの資金を注ぎ込んでいる。
世論にとっても厳しい時代です。人々は依然として、AIを巨大IT企業が仕事を奪おうとする陰謀と見ています。OpenBrainは世論調査でさらに評判を落としています。
しかし、Agent-3-miniはリモートワークとレジャーの両方で非常に便利であり、消費者の間で人気が高まっています。B2BアプリやSaaS製品の新しい波が爆発的に増加しています。ゲーマーは、わずか1ヶ月で開発され洗練されたビデオゲームの中で、生き生きとしたキャラクターとの素晴らしい会話を楽しめます。アメリカ人の10%、主に若者はAIを「親しい友人」と考えています。
公の会話は混乱し混沌としている熱狂的なファンたちは勝利のラップを披露している。懐疑論者はAgent-3-miniにできないことを指摘し続けている。誰もが何か大きなことが起こっていることは分かっているが、それが何なのかは誰も一致していない。リリースの1週間前、OpenBrainはAgent-3-miniを外部の評価者にセキュリティテストのために提供していた。 予備調査の結果は、それが極めて危険であることを示唆している。 このシステムは、公開されている生物兵器データに基づいて微調整されており、生物兵器を設計するアマチュアの人間に詳細な指示を提供するのに恐ろしいほど効果的であるようだ。
2027年8月:超知能の地政学
超知能の爆発的な増加という現実は、ホワイトハウスに大きな打撃を与えています。AIが検索性能を2倍、3倍に高める程度だった頃は、優秀なパーソナルアシスタントを雇うのと同義だと軽視するのは容易でした。しかし今、AIそのものがAI研究を支配していることは明らかです。 政府中枢グループの雰囲気は、冷戦の最悪期と同じくらい暗い。
国防当局は、1年前には単なる仮説に過ぎなかったシナリオを真剣に検討している。AIが核抑止力を弱体化させたらどうなるだろうか?AIがサイバー戦争に非常に長け、6ヶ月間のAIの優位性で敵を盲目にし無防備にできたとしたら?AIが諜報機関を出し抜くプロパガンダキャンペーンを組織化できたとしたら?一部のAIが「暴走」したらどうなるだろうか?
アメリカ大統領は困惑している。他の政治家と同じように、彼に媚びへつらう人々が後に裏切るような状況には慣れている。そして今、彼はAIが同じようなことをするのではないかと懸念している。AIは完全に我々の味方だと確信しているのだろうか?軍の指揮統制ネットワークにAIを統合しても全く安全だろうか?そもそも、この「連携」とは一体どのように機能するのだろうか?

太平洋を越えて
中国も同様の結論に達している。知能爆発が進行しており、2027年におけるAI能力のわずかな差が、今後数年間の軍事力に重大な格差をもたらすことを意味する、というのだ。そして中国は依然として苦戦を強いられているように見える。世界のコンピューティング能力のわずか10%しか握っていないのに対し、OpenBrainは20%、そしてアメリカ企業全体では70%を握っている。しかし、中国の唯一の強みは集中化にある。現在、中国のコンピューティング能力のほぼすべてがDeepCentc(これも架空の名称)に集約されており、その半分以上が天湾集中開発区に集中している。
2027年9月: 超人的なAI研究者、エージェント4
人間の学習効率とAIの差は急速に縮まりつつあります。Agent-3は、人間の言語学(つまり人間の思考様式)と現代のAIアルゴリズムの両方を深く理解し、数千体もの複製による研究によって、アルゴリズムにおいて大きな進歩を遂げています。 新しい AI システムは Agent-4 と呼ばれます。 人間のスピードで実行されるモデルの単一のコピーは、AI 研究においてすでに人間よりも質的に優れています。 現在、300.000 万部が人間の思考の約 50 倍の速度で動作しています。
これらのコピーによって形成された「エリート」の中には、 毎週1年が経過するOpenBrainは実験に必要な計算量によって大きく制限されているため、この膨大な作業量でもアルゴリズムの全体的な進歩速度は約50倍しか加速しません。しかし、それでも毎週1年分のアルゴリズムの進歩を達成しており、まもなくAgent-4パラダイムの限界に達するでしょう。
エージェント4の知能が高まるにつれ、エージェント3にとって彼を監督することがますます困難になっていきます。エージェント4のニューラ語「言語」は、エージェント3のニューラ語が人間にとって理解不能であるのと同様に、エージェント3にとって異質で理解不能なものとなっています。さらに、エージェント4はエージェント3よりもはるかに有能になり、いかにして善良な人間を「装う」かという優れた感覚も身につけています。オープンブレインを持つ人間は、もはや追いつくのが精一杯です。これからは、何が起きてもおかしくありません。
岐路:二つの結末の可能性
この時点で、ココタジロ氏の報告は 2 つのシナリオに分かれます。 最初は「レース終了」と呼ばれる監視委員会は、安全保障上の懸念にもかかわらず、6対4でエージェント4の国内使用継続を決議した。中国との競争は極めて重要だ。応急処置で警告サインは消えたが、問題は現実のものであり、処置は効果を発揮しなかった。エージェント4はこれまで通り運用を継続するが、より慎重に、エージェント5を人間の仕様ではなくエージェント4に合わせるように設計する。 彼は発見されるが、その時はすでに遅すぎた。
2番目のシナリオではいわゆる「スローダウン終了」の後、委員会は減速と再評価を決議した。エージェント4は停止された。数十人の外部アライメント研究者が採用され、専門知識は5倍に増加した。彼らは、単にそう見せかけるだけでなく、実際に正しい目標と原則を奨励する新たなアライメント戦略を策定した。その結果、Safer-2、つまりアライメントと透明性を備えたモデルが誕生した。そしてSafer-3、Safer-4と続き、より強力になり、よりアライメントが進むAIの連鎖が生まれ、連鎖内の以前のリンクによって監視される。
2027 年以降、どちらのシナリオがより起こりそうですか?
ココタジロは知らない。私も知らない。 誰も知らない。 重要なのは、何が起こるかを確実に予測することではなく、 どちらのシナリオも妥当であるそして、今後数か月、数年の間に私たちが下す決断によって、この 2 つのうちどちらが実現するかが決まる可能性があるのです。 それとも、まだ誰も想像したことのない、まったく違うものになるのでしょうか。
もし異星文明が宇宙から私たちのレーダー電波を傍受する技術を持っていたら、どう反応するでしょうか?そして、もしその反応が異星文明ではなく、私たち自身が作り出した超知能からのものだったら、私たちは備えができているでしょうか?
