長らく単一のヒューリスティックによって定義されてきた「コンピューティングを追加するだけ」の時代は、今や確実に利益逓減の壁に突き当たっている、とイリヤ・サツケヴァー氏は考えています。
2020 年から 2025 年まで、人工知能業界はべき乗則によって信頼性の高い歩留まりが決まるという前提に基づいて運営されていました。
より多くのデータとコンピューティングをモデルに入力すると、よりスマートな結果が自動的に生成されると期待されていました。現在「スケーリングの時代」と定義されているその時代は終わったと、ドワルケシュ・パテル氏の最近のインタビューで同氏は述べた。
OpenAI の共同創設者で元主席科学者であるサツケヴァー氏は、現在自身のベンチャー企業 Safe Superintelligence Inc. (SSI) を推進中ですが、深層学習革命の主要なアーキテクトであり、間違いなく耳を傾ける価値があります。
パテル氏とのインタビューで、彼は業界のタイムラインを 2 つの異なる時代に明確に区別しました。彼は、単純に事前トレーニングをスケーリングするという戦略は、簡単に実現できる成果を使い果たしたと主張しました。
「2012 年から 2020 年までは、2020 年までは研究の時代でした。現在、2020 年から 2025 年はスケーリングの時代でした…人々は『これはすごいですね。もっとスケールしなければなりません。スケールし続けてください。』と言うからです。その一言は、スケーリングです。しかし、今はスケールです。」確かに、それは違うでしょう。しかし、スケールを 100 倍にすればすべてが変わるという考えは真実ではないと思います。では、大型コンピューターだけで再び研究の時代が戻ってきたのです。」
スツケヴァー氏によれば、過去 5 年間を支配してきたヒューリスティックは、すべての主要な研究室で戦略の均質化を引き起こしました。同氏によれば、「誰もが同じことを始めた」。
OpenAI から Google まで、すべての主要企業が、100 倍のコンピューティングが 100 倍のインテリジェンスを生み出すと仮定して、同じ曲線を追い求めていたことは明らかである。
Sutskever 氏によると、新しい「研究の時代」では、力任せではなくアーキテクチャの革新への回帰が求められている。
Yann LeCun 氏、依然としてチーフ AI Meta の科学者ですが、間もなく退職する予定ですが、この見解を共有し、現在の軌道は超知能ではなく、漸近的に天井に近づいていると主張しています。
彼は、「LLM をスケールアップするだけでは人間レベルの AI に到達することはできない。そんなことは起こらない」と主張しています。
有限データの問題: なぜ「より多く」が「より良い」ではなくなるのか
スケーリングから研究への移行の根本は、Nvidia GPU をいくら使っても解決できないボトルネックです。それは、高品質の事前トレーニング データの有限性です。 Sutskever 氏は、「データは明らかに有限である」と指摘し、研究室は「強化された事前トレーニング」か、まったく新しいパラダイムのどちらかを選択する必要に迫られています。
また、LeCun 氏は、現在の最先端技術に対する痛烈な批判でさらに踏み込んで、大規模言語モデル (LLM) をインテリジェントなエージェントではなく洗練された検索エンジンとして説明しています。
「私たちが手に入れることになるのは、おそらくトレーニングされたシステムでしょう。」十分な量のデータを扱うため、理性のある人ならどんな質問をしても、それらのシステムを通じて答えが見つかります。そして、自分の隣に博士号を持っているような気分になるでしょう。しかし、それは博士号を持っているということではなく、新しい問題に対する解決策を発明できるシステムではなく、巨大なメモリを備えているということです。」
このような区別は、業界の要点を理解する上で重要です。 「巨大な記憶力」はパターンを検索することで試験に合格することは間違いありませんが、新しい問題の解決策を発明することはできません。
また、幻覚を起こさずに複雑な複数ステップのタスクを推論することもできません。
停滞の説明として、この欠陥により、モデルがトレーニング分布の外で一般化することができなくなり、これは単純なスケーリングではもはや隠すことができなくなります。
そして、方法論の変更がなければ、業界は構築に数十億ドルを費やす危険があります。
出典: S&P、Sparkline。 2015 年第 1 四半期から 2025 年第 2 四半期まで
「研究の時代」の到来: 推論、RL、および価値関数
「研究の時代」を定義するサツケヴァー氏は、次のトークン予測から「システム 2」推論への移行です。彼は、新たなフロンティアとして「価値関数」と強化学習 (RL) を挙げています。
広範な静的データセットを必要とする事前トレーニングとは異なり、RL を使用すると、モデルが独自の推論トレースから学習し、試行錯誤を通じて独自のデータを効果的に生成できます。
彼は DeepSeek-R1 を挙げました。この変化の代表的な例として、 論文があります。このモデルは、純粋な RL を利用して、教師付き微調整を行わずに推論能力を促進することで、アーキテクチャの変更により、生のスケールでは得られない利益を生み出すことができることを実証しました。
Gemini 3 アップデートの Google の「Deep Think」エンジンも、同様に、「テスト時コンピューティング」へのこの動きを表しています。エンジニアは、より困難な問題を解決するために、より長く「考える」ことができるモデルを作成することを目指しています。
モデルが応答する前に複数の解決策を探索できるようにすることで、研究室は、現在の LLM パフォーマンスを制限している推論の上限を突破したいと考えています。
[埋め込みコンテンツ]
Google の対応: 1,000 倍の「推論の時代」義務
AI 科学者が今後の最善の道を議論する一方で、 Google はすでに、この新しい現実に合わせて物理インフラ全体の再構築を行っています。 11 月 6 日の社内プレゼンテーションでは、6 か月ごとに AI の処理能力を 2 倍にするという「戦時」の義務が明らかになりました。
1,000 倍の成長義務によると、長期目標は 2030 年までに能力を驚異的な 1,000 倍に増やすことです。
インフラストラクチャ担当副社長の Amin Vahdat 氏は、インフラストラクチャが「社会の中で最も重要であり、最も高価な部分でもある」と述べ、これを存続の必要性と位置づけています。 AIレース。」この拡張を推進するのはトレーニング (古いボトルネック) ではなく、「推論の時代」です。
ChatGPT-5.1 や Gemini 3 Pro のような最先端の推論モデルでは、実行時に解決策の道筋を探索するために飛躍的に多くのコンピューティングが必要になります。
数セント単位のコストがかかる標準的な検索クエリとは異なり、将来の「Deep Think」クエリは実行に数分、場合によっては数時間もかかり、かなりの推論を消費する可能性があります。
しかし、標準のハードウェアを使用して容量を 1,000 倍に拡張することは経済的に不可能です。効率性が唯一の生存メカニズムです。したがって、Google の戦略は、新しい「Ironwood」 TPU を使用してソフトウェアのニーズをカスタム シリコンに直接統合する「共同設計」に依存しています。
同時に、汎用ワークロードは Arm ベースの「Axion」 CPU にオフロードされ、電力を大量に消費する TPU の電力バジェットを解放しています。
ただし、ジェボンズのパラドックスが大きく迫っています。この経済原則は、効率を高めると、節約ではなく総消費量が増加することを示しています。推論コストが低下するにつれて、複雑な「Deep Think」推論の需要が爆発的に増加します。
その結果、ユニットあたりの効率が向上しても、総エネルギー消費量と資本支出は増加する可能性があります。
[埋め込みコンテンツ]
OpenAI のファーストであることのコスト
純粋なスケーリングからの移行は、既存の OpenAI に最も大きな打撃を与えています。 2025 年の DevDay での勝利の後、同社は心理的なリセットを経験しており、既定の勝者の考え方から規律ある戦時中の足場へと移行しています。
この変化は、従業員に「荒れた雰囲気」と重大な「経済的逆風」について明確に警告していた CEO のサム アルトマンから流出した内部メモで具体化されました。
このメモは、容赦ない楽観主義で知られるリーダーにとって、まれに見る脆弱な瞬間を示しています。これは、同社が無敵であるという公の見通しとはまったく対照的である。最も憂慮すべきは、成長軌道に関する内部予測の修正である。
「弱気の場合」のシナリオでは、2026 年までに収益成長率はわずか 1 桁、具体的には 5 ~ 10% にまで急落する可能性がある。これは、ChatGPT ブームの特徴である 3 桁の拡大からの壊滅的な減速を意味する。
収益の不安をさらに悪化させているのが、同社の驚異的なバーンレートである。予測によると、同社は2028年までに740億ドルの営業損失に見舞われる可能性がある。これまで経営陣は収益性を二の次の懸念として無視してきたが、突然財政規律に焦点を当てたことは、インフラコストが増大するにつれて投資家が無期限の損失に対する忍耐力を弱めている可能性を示唆している。
このメモには、競争環境に関する率直な譲歩も含まれていた。アルトマン氏は、技術的なギャップが縮まったことを認め、同社が現在「急速に追いつく」立場にあることを従業員に認めた。
「Google は最近、あらゆる面で素晴らしい仕事をしている」と同氏は認めた。
運営面でのこの不安は、即時の是正措置として現れた。採用凍結の噂が広まり始め、より規律ある段階への警告が重みを増している。
同時に、エンジニアリング チームはコードネーム「シャロットピート」という新しいモデルの導入を急いでいる。このモデルは、事前トレーニング プロセス中に発生したバグを修正することを明確に目的としており、会社の技術基盤を安定させるための重要な試みを表しています。
製品戦争: 「喜び」対「無敵」
Google の Gemini 3 アップデートは、物語を「追いつき」から「製品の喜び」に変えることに成功しました。 Salesforce CEO マーク・ベニオフ氏の ChatGPT からの公の離反は先駆的な出来事です。「もう後戻りはしません。その飛躍は常軌を逸しており、推論、スピード、画像、ビデオ…すべてがより鮮明になり、より速くなりました」と彼は最近述べました。
しかし、「懐疑論者のレンズ」が明らかにするのは、新たな独占ではなく、断片化された戦場です。 Anthropic の Claude Opus 4.5 の発売は、競争がまだ終わっていないことを証明しています。このモデルは、SWE ベンチ検証で 80.9% のスコアを獲得し、Gemini 3 Pro と GPT-5.1 の両方を上回りました。
OpenAI、Google、Anthropic 間のこの 3 方向のデッドロックは、単一のラボに永久的な「堀」がないことを証明しています。生のインテリジェンスはもはや唯一の差別化要因ではなく、統合と実用性です。
ハードウェア ショック: Nvidia の防御的しゃがみ
そして、これらのプレーヤーによって実装された高価な垂直スタックは、Nvidia にとって存続の脅威となっています。 Meta が Google TPU の使用について交渉しているとの報道により、記録的な収益にもかかわらず、ここ数日 Nvidia 株は下落しました。
Meta や Google のようなハイパースケーラーが「推論の時代」に向けて自社のシリコンに頼ることができれば、Nvidia は最大の顧客を失う可能性があります。
Nvidia は、いつもの沈黙を破り、「業界の 1 世代先を行っている」と主張する擁護的な記事を発行する必要性を感じ、自社はそう主張しました。 「すべての AI モデルを実行し、コンピューティングが行われるあらゆる場所で実行できる唯一のプラットフォームです。」
このような公的反論は、AI ハードウェアのコモディティ化に対する真の不安を示唆しています。
クラウド経由で TPU を提供する Google の能力は、Nvidia のマージンに対する重大な攻撃を引き起こし、同社の GPU が最先端の AI への唯一の実行可能な道であるという仮定に疑問を投げかけます。
Google TPU v7 Ironwood プロセッサ (画像: Google)
市場の現実: バブルか変態か?
「AI バブル」の懸念と多額の設備投資の併置が現在の状況を定義している中、サンダー ピチャイ氏は市場の「不合理な要素」を認めながら、同時に 1,000 倍の成長を義務付けています。
これは矛盾というよりむしろ、は計算を表しています。「スケーリングの時代」バブルは崩壊しつつありますが、「推論の時代」経済はまだ始まったばかりです。
次のフェーズの勝者は、AI における次の「研究の時代」の多額の研究開発コストを維持できる企業になります。
既製のハードウェアと公開データ (2020 年の戦略) のみに依存している企業は消滅の危機に瀕しています。未来は、チップからオペレーティング システムに至るまで、スタック全体を構築できる人のものになります。