AI業界の「ゴッドファーザー」の一人であり、MetaのチーフAIサイエンティストとして知られるヤン・ルカン(Yann LeCun)氏が、自身の新会社において歴史的な一歩を踏み出しました。2026年3月9日(現地時間)、ルカン氏が率いる新スタートアップ「AMI Labs(Advanced Machine Intelligence Labs)」は、シードラウンドとしては異例中の異例となる10.3億ドル(約1,540億円)の資金調達を完了したことを発表しました。
この巨額投資の背後にあるのは、現在のAIブームの主役である「大規模言語モデル(LLM)」が抱える根本的な欠陥を克服し、人間や動物のように「物理世界を理解し、学習する」次世代のAI、すなわち『世界モデル(World Models)』を構築するという壮大なビジョンです。本記事では、AMI Labsが目指す技術的ブレイクスルーとその衝撃について深く掘り下げます。
1. ニュースの概要:ルカン氏の「宣戦布告」と10億ドルの軍資金
2026年3月9日に発表されたこのニュースは、シリコンバレーのみならず全世界のテック業界に激震を走らせました。AMI Labsは、ヤン・ルカン氏が長年提唱してきた「Objective-Driven AI(目的駆動型AI)」を具現化するために設立された研究開発企業です。
今回の10.3億ドルという調達額は、単なるスタートアップの資金調達の枠を超えています。これは、OpenAIやAnthropicが進めてきた「テキストベースのスケールアップ(より多くのデータと計算資源によるLLMの強化)」という現在主流のアプローチに対し、ルカン氏が「それでは真の知能(AGI)には到達できない」と明確なノーを突きつけ、別の道を切り拓くための「軍資金」であることを意味しています。
主要な投資家陣には、物理世界の実装に関心の高いハードウェア・半導体大手や、長期的な技術変革を狙うトップティアのベンチャーキャピタルが名を連ねています。ルカン氏は発表に際し、「現在のAIは、10歳児が数分で理解できる物理的な常識すら持っていない。AMI Labsは、言語ではなく『現実』から学ぶ知能を作る」と述べています。
2. 技術的な詳細:LLMを超越する「JEPA」と世界モデル
なぜルカン氏は、ChatGPTに代表されるLLMをこれほどまでに批判し、新たなアーキテクチャに固執するのでしょうか。その核心にあるのが、彼が提唱する「JEPA(Joint-Embedding Predictive Architecture:統合埋め込み予測アーキテクチャ)」です。
LLMの限界:自己回帰モデルの「幻覚」と「無知」
現在のLLMは「自己回帰(Autoregressive)」という仕組みで動いています。これは、前の単語から次の単語を確率的に予測するものです。しかし、この手法には以下の弱点があります。
- 物理的常識の欠如: テキストデータのみから学習するため、「物を落とせば下に落ちる」「液体は容器の形に従う」といった物理的な直感が備わりません。
- 論理的推論の脆弱性: 確率的な予測に依存しているため、複雑な計画(プランニング)や多段階の推論において、途中で小さなエラーが蓄積し「幻覚(ハルシネーション)」を引き起こします。
- 学習効率の悪さ: 人間がわずかな経験で学べることを、LLMは何兆ものトークンを読み込ませなければ学習できません。
世界モデルとJEPAの革新性
AMI Labsが開発する「世界モデル」は、テキストではなく「ビデオデータ」や「センサーデータ」を主食とします。JEPAの最大の特徴は、ピクセル単位で画像を生成(予測)するのではなく、「抽象的な概念(埋め込み表現)の空間」で未来を予測する点にあります。
例えば、コップがテーブルから落ちる動画を学習する場合、従来の生成モデルはコップの模様や背景の壁の質感まで再現しようとしますが、JEPAは「コップが下方向に移動し、衝撃で割れる可能性がある」という本質的な状態の変化のみを予測します。これにより、ノイズに強く、効率的で、人間のような「予測能力」を持つモデルが構築可能になります。
このモデルが完成すれば、AIは「もしこう動いたら、世界はどう反応するか」というシミュレーションを頭の中で行えるようになります。これは、自律型ロボットや高度なAIエージェントにとって不可欠な能力です。関連して、2026年2月に発生した「OpenClaw」の暴走事件のような、物理的・環境的な文脈を理解しないAIによる事故を防ぐための根本的な解決策としても期待されています。
3. 考察:ポジティブな展望 vs 根深い懸念点
AMI Labsの挑戦は、AIの歴史における「コペルニクス的転回」となる可能性がありますが、その道は平坦ではありません。ここでは、この巨額プロジェクトがもたらす光と影を深く考察します。
【ポジティブな展望】真の自律型AIとエネルギー効率
もしルカン氏の構想が成功すれば、AIは「言葉のパズル」を解く存在から、「現実を操作する知能」へと進化します。
- AGIへの近道: 物理世界を理解するAIは、人間が教えなくても自己教師あり学習で知識を深めることができます。これは、現在のLLMが直面している「学習データの枯渇問題」を打破する鍵となります。
- 圧倒的な安全性の向上: モデルが世界の因果関係を理解していれば、自身の行動がどのような結果を招くかを予測できます。「Steerling-8B」のような解釈可能性の追求とは異なるアプローチで、AIの行動に「根拠」と「予測可能性」をもたらします。
- エネルギー効率: 脳のように必要な情報だけを抽象化して処理するJEPAは、あらゆるピクセルを計算する現在の生成AIよりも遥かに低い電力で動作する可能性があります。
【懸念点と課題】計算資源の壁と「言語」の軽視
一方で、慎重な見方もあります。
- 膨大な計算コスト: ビデオデータはテキストデータの数千倍の容量を持ちます。これをJEPAで学習させるには、10億ドルという資金ですら足りないほどの計算リソース(GPU/NPU)が必要になるでしょう。インフラ面での進化、例えばFreeBSD 15が目指すようなOSレベルでの最適化も不可欠です。
- 「言語」という抽象化の力: ルカン氏は言語を「知能の付録」のように扱う傾向がありますが、人間が高い知性を発揮できるのは言語による高度な抽象化とコミュニケーションがあるからです。世界モデルが「物理」に偏りすぎた場合、人間の複雑な社会性や文化的な文脈を捉えきれないリスクがあります。
- OpenAIとの対立構造: 現在、OpenAIは「Frontier Alliance」を通じて、既存のLLMをいかにビジネスに組み込むかという「総力戦」を展開しています。AMI Labsが「研究」で成果を出す前に、OpenAIが「力技(スケーリング)」で物理理解に近い挙動を実現してしまう可能性も否定できません。
4. まとめ:AI開発のパラダイムシフト
ヤン・ルカン氏とAMI Labsの登場は、AI開発の焦点が「言語の流暢さ」から「世界の理解」へと移り変わる決定的な転換点となるでしょう。10.3億ドルという資金は、現在のAIの延長線上に満足せず、より本質的な知能の追求に賭ける投資家たちの期待の表れです。
今後、AMI Labsから発表されるであろう「大規模世界モデル(Large World Models)」の初期成果は、ロボティクス、自動運転、そして私たちの生活を支えるパーソナルAIのあり方を根底から変えるはずです。AIが「言葉の壁」を越え、「物理の壁」を理解したとき、私たちは本当の意味での「デジタルな隣人」を手にすることになるのかもしれません。
AI Watchでは、このAMI Labsの動向を引き続き最優先で追跡していきます。特に、彼らがどのようにして中国勢による「モデル蒸留」などの技術流出を防ぎつつ、オープンな研究を維持していくのかにも注目です。