2025年8月、テクノロジー業界に激震が走った。イーロン・マスク率いるTeslaが、長年にわたり巨額の投資を行ってきた自社製スーパーコンピュータ「Dojo」の開発チームを解散したというニュースだ。「Dojo 2は進化の袋小路だった」——マスクのその言葉は、多くの投資家やエンジニアに衝撃を与えた。
しかし、その沈黙はわずか5ヶ月で破られることになる。2026年1月19日、マスクはDojo 3プロジェクトの再始動を発表。しかも今度は、単なる「自動運転のためのサーバー」ではない。宇宙空間でのAI計算を視野に入れた、人類史上最も野心的なコンピューティングプロジェクトとして生まれ変わったのだ。
本記事では、Dojoプロジェクトの歴史から最新のAI5/AI6チップの技術仕様、そしてDojo 3が描く壮大な未来像まで、どこよりも深く、どこよりも熱く解説する。これは単なる技術記事ではない。人類の進化の物語である。
2026年という時代は、AI史において特異点(シンギュラリティ)への助走期間として記憶されることになるだろう。ChatGPTの登場から3年、AIは「便利なツール」から「社会インフラ」へと急速に変貌を遂げている。そしてその進化を支えているのが、膨大な計算能力を持つスーパーコンピュータ群だ。
世界のAI計算需要は、毎年約4倍のペースで増加している。これは「ムーアの法則」を遥かに上回るスピードだ。GPT-4の学習には推定1兆パラメータが必要とされたが、2026年時点の最新モデルは10兆パラメータを超えると言われている。
この爆発的な需要に対し、NVIDIAのGPUだけでは供給が追いつかない。世界中のテック企業が自社チップの開発に乗り出しているのは、そのためだ。Google(TPU)、Amazon(Trainium)、Meta(MTIA)、そしてTesla(Dojo)。巨人たちの軍拡競争が始まっている。
Teslaがこの戦場に戻ってきた理由は明白だ。自動運転とヒューマノイドロボットという二つの巨大な夢を実現するためには、他社のインフラに依存していては間に合わないのである。
マスクは2024年のインタビューで「NVIDIAのGPUを買い続けることは、競合他社に弾薬を供給しているようなものだ」と語っている。TeslaがNVIDIAに支払う金額は、間接的にNVIDIAの他の顧客(=Teslaの競合)の開発資金にもなる。この構造的なジレンマを断ち切るためには、自社でシリコンを制する必要があったのだ。
Dojo 3を理解するためには、まずその前身であるD1チップとDojo 1の歴史を紐解く必要がある。それは、半導体業界の常識を覆そうとした野心的な挑戦の記録だ。
Tesla AI Dayにて、マスクが初めてDojoの存在を公表。「世界最速のAIトレーニングコンピュータを作る」と宣言。当時、多くの専門家は懐疑的だった。自動車メーカーが半導体を設計する? 正気の沙汰ではないと。
Tesla AI Day 2021にて、D1チップの詳細が明らかに。7nmプロセス、500億トランジスタ、362 TFLOPSのBF16性能。しかし最大の革新は「ウェハースケール」設計だった。通常、ウェハーは小さなチップに切り分けて使用するが、D1は25個のチップを切り離さずに一枚の「タイル」として結合。これにより、チップ間通信のボトルネックを解消した。
D1タイルを120枚搭載した「ExaPOD」構想が発表される。理論上、1.1 EXAFLOPSという途方もない計算能力を実現する予定だった。これはNVIDIAのDGX SuperPODを遥かに凌駕する数値であり、業界に衝撃を与えた。
D1の成功を受け、次世代のDojo 2開発が本格化。しかしここで問題が顕在化する。ウェハースケール設計は革新的だったが、歩留まり(製造成功率)が極めて低く、コストが想定を大幅に上回った。また、AIモデルの進化速度がハードウェア設計を追い越し始め、アーキテクチャの柔軟性不足が課題となった。
マスクが「Dojo 2は進化の袋小路」と宣言し、開発チームを解散。リソースはAI5/AI6チップ開発に集中されることになる。多くのメディアは「Dojoの終焉」と報じた。しかし、それは早計な判断だった。
成功の反対は失敗ではない。何もしないことだ。Teslaにおける「失敗」は、常に次の成功への燃料に過ぎない。2025年夏のDojoプロジェクト解散劇は、多くの投資家やエンジニアを不安にさせた。しかし今振り返れば、それは必要な「脱皮」だったことがわかる。
マスクが使った「evolutionary dead end(進化の袋小路)」という表現は、生物学からの借用だ。これは、ある進化の方向性が一時的には成功しても、長期的には行き詰まりに達することを意味する。
Dojo 2の場合、以下の3つの要因が「袋小路」を形成していた:
ウェハースケール設計は理論上は美しい。チップ間の通信遅延を最小化し、帯域幅を最大化できる。しかし現実には、一枚のウェハー上で発生する微細な欠陥が、タイル全体を使用不能にしてしまうリスクがある。歩留まりの問題は想像以上に深刻で、製造コストは当初見積もりの数倍に膨らんだ。
2021年にD1を設計した時点では、Transformerアーキテクチャが主流だった。しかしAIの世界は驚異的なスピードで進化する。マルチモーダルモデル、Mixture of Experts(MoE)、State Space Models——新しいアーキテクチャが次々と登場する中、Dojo 2の固定的な設計は柔軟性を欠いていた。
Teslaは同時に、車載用FSDチップ(Hardware 4.0/5.0)の開発も進めていた。Dojoチームと車載チップチームは別々のアーキテクチャを追求しており、エンジニアリングリソースが分散していた。マスクはこの非効率性に苛立っていたという。
“All paths converge to AI6. We need a unified architecture that works everywhere — in cars, in robots, in data centers, and eventually in space. Dojo 2 was a detour. It’s time to take the highway.”
「すべての道はAI6に通ず。車にも、ロボットにも、データセンターにも、そしていずれは宇宙にも使える統一アーキテクチャが必要だ。Dojo 2は回り道だった。ハイウェイに乗る時が来た」
Dojo 3を理解するためには、まずその基盤となるAI5チップを理解する必要がある。AI5は、Teslaの次世代車載コンピュータ「Hardware 5.0」の心臓部であり、同時にDojo 3の構成要素ともなる革命的なSoCだ。
TSMC 3nm & Samsung 2nm デュアルソーシング
2026年Q1時点で開発ほぼ完了
単体でNVIDIA H100相当の推論性能(推定)
1. ユニファイド・アーキテクチャ:AI5は、推論(Inference)と学習(Training)の両方を高効率にこなせるよう設計されている。従来は別々のチップが必要だった二つの機能を、一つのアーキテクチャで統合。これにより、Tesla車は駐車中にOTA(Over-The-Air)で学習プロセスに参加することも理論上可能になる。
2. 電力効率の飛躍的向上:車載チップにとって電力効率は生命線だ。バッテリー容量の制約がある電気自動車において、計算能力のために航続距離を犠牲にするわけにはいかない。AI5は、Performance per Watt(電力あたり性能)において、Hardware 4.0の3〜5倍の効率を目指しているとされる。
3. スケーラブル設計:AI5は「レゴブロック」のように組み合わせることを前提に設計されている。1個で車載用、複数個でロボット用、大量に並べてデータセンター用。この設計思想が、Dojo 3への道を開いた。
AI5が「完成間近の現在形」だとすれば、AI6は「設計中の未来形」だ。そしてこのAI6こそが、Dojo 3の真の心臓部となる可能性が高い。
2025年、TeslaとSamsungが165億ドル(約2.5兆円)規模のAI6チップ製造契約を締結したという報道は、業界に大きな衝撃を与えた。これはSamsungのファウンドリ事業にとって過去最大規模の単一契約であり、Teslaの本気度を如実に示している。
なぜTSMCではなくSamsungなのか? いくつかの理由が考えられる:
- 供給の分散:TSMCへの過度な依存は地政学的リスクを伴う。台湾海峡の緊張が高まる中、サプライチェーンの多元化は必須だ。
- 価格交渉力:Samsungは2nm世代でTSMCに追いつこうと必死であり、大口顧客獲得のために積極的な価格提示をした可能性がある。
- GAA技術への期待:Samsungの次世代GAA(Gate-All-Around)トランジスタ技術は、電力効率において優位性を発揮する可能性がある。AI6のような低消費電力設計には最適かもしれない。
- カスタマイズの柔軟性:TSMCに比べ、Samsungは設計の自由度が高いという評価もある。Teslaのような独自要件の多い顧客には有利だ。
公式発表はまだないが、業界アナリストやリーク情報から以下のような仕様が推測されている:
| 項目 | AI6(推定) | 比較:NVIDIA H100 |
|---|---|---|
| プロセス | Samsung 2nm GAA | TSMC 4nm |
| 推論性能 | 〜4 PFLOPS (INT8) | 3.96 PFLOPS (INT8) |
| 学習性能 | 〜1.5 PFLOPS (BF16) | 1.98 PFLOPS (BF16) |
| TDP | 〜300W(推定) | 700W |
| 電力効率 | 〜2倍 | 基準 |
※上記は業界分析に基づく推定値であり、Tesla社の公式発表ではありません。
ここからが本題だ。2026年1月に発表されたDojo 3プロジェクトの最も衝撃的な側面——それは「Space-based AI compute(宇宙ベースのAI計算)」というキーワードだった。
一見すると突飛に思えるこの構想だが、マスクの頭の中では完璧に論理的なつながりを持っている。彼が率いるSpaceX、Starlink、Tesla、Neuralink——これらすべてが一つの壮大なビジョンに向かって収束しているのだ。
現在、Starlinkは6,000機以上の衛星で構成される世界最大の衛星インターネット網だ。しかしこれらの衛星は今のところ「パイプ」に過ぎない——データを中継するだけで、処理はしない。
Dojo 3の宇宙展開が実現すれば、各衛星、あるいは衛星クラスターが分散型のAIサーバーとして機能するようになる。これにより:
- 超低遅延AI推論:地上のデータセンターを経由せず、宇宙空間でリアルタイムにデータを処理。自動運転車への指示が光速に近づく。
- グローバルカバレッジ:地球上のどこにいても、同一品質のAIサービスにアクセス可能。発展途上国でも最先端のAIが利用できるようになる。
- 耐障害性:地上のデータセンターが自然災害や攻撃で機能停止しても、宇宙のAI網は稼働し続ける。
マスクの究極の目標は、人類をマルチプラネタリー種族にすることだ。SpaceXのStarshipは、その夢を現実にするための乗り物である。しかし、火星に到達することは始まりに過ぎない。そこで文明を築くためには、地球に依存しない自律的なインテリジェンスが必要だ。
火星と地球の間の通信遅延は、最短でも3分、最長で22分にも及ぶ。火星で活動するロボットやシステムが、地球からの指示を待っていては何もできない。彼らは自律的に判断し、行動しなければならない。
従来のDojo(D1/D2)は、ウェハーを切り分けずに巨大なチップとして使用する「ウェハースケール」アプローチを採用していた。革新的だったが、宇宙での展開には不向きだった。理由は単純——大きすぎて、重すぎるのだ。
Dojo 3では、より汎用的な小型チップ(AI6/AI7)を大量に、高密度に結合する「モジュラー」アプローチに転換したと見られている。これは「レゴブロック」のようなものだ:
同じアーキテクチャで、規模だけを変える。これにより、開発リソースの分散を防ぎ、あらゆる環境に適応できる「ユニバーサル・コンピューティング」を実現しようとしているのだ。
現在、AIハードウェアの王座に君臨しているのは間違いなくNVIDIAだ。H100、そしてBlackwellアーキテクチャは世界中のデータセンターを席巻している。時価総額は一時3兆ドルを超え、Appleを抜いて世界最大の企業となった。
Teslaもまた、NVIDIAの最大顧客の一つだ。Dojoプロジェクトが停滞していた2024年、Teslaは数十億ドル相当のNVIDIA GPUを購入したと報じられている。しかしマスクは「依存」を嫌う。
| 観点 | NVIDIA | Tesla |
|---|---|---|
| ビジネスモデル | 汎用GPU販売 | 垂直統合(自社利用) |
| ターゲット用途 | LLM、画像生成、科学計算 | 自動運転、ロボット、映像処理 |
| 強み | CUDAエコシステム、市場シェア | データ量、垂直統合、電力効率 |
| 弱点 | 消費電力、発熱 | ソフトウェアエコシステム、経験 |
NVIDIAのGPUは「汎用」だ。ChatGPTの学習にも、映画のCGレンダリングにも、科学シミュレーションにも使える。この汎用性こそがNVIDIAの強みであり、CUDAエコシステムという巨大な堀(moat)を築いてきた理由だ。
しかしTeslaが解こうとしている問題は、NVIDIAの得意分野とは微妙にずれている。自動運転とヒューマノイドロボット——これらは「現実世界の物理法則を理解し、リアルタイムで対応する」という問題だ。言語モデルのような「テキスト→テキスト」の変換とは本質的に異なる。
Teslaの賭け:「映像処理と物理シミュレーション」に特化したチップは、汎用GPUよりも圧倒的に高い電力効率を達成できる。電力こそがAI時代の最も希少な資源だ。Dojo 3が、NVIDIAの半分の電力で同等のビデオ学習効果を出せれば、それは革命だ。
しかしTeslaには、NVIDIAが持っていない決定的な武器がある。データだ。
世界中を走る数百万台のTesla車は、毎日膨大な量の映像データを収集している。実際の道路、実際の交通状況、実際の事故寸前の状況——これらは合成データでは絶対に代替できない。そしてこのデータでモデルを学習できるのは、Teslaだけだ。
最高のハードウェア × 最高のデータ × 垂直統合。この三位一体こそが、Teslaの真の競争力であり、Dojo 3はその中核を担うことになる。
半導体の設計と製造は、全く別のビジネスだ。Teslaがいかに優れたチップを設計しても、それを実際のシリコンに落とし込むためには、世界最先端のファウンドリ(受託製造企業)の協力が不可欠だ。
AI6チップの主要製造パートナー。165億ドル規模の契約は、Samsung ファウンドリ事業史上最大。2nm世代のGAA(Gate-All-Around)技術で、TSMCへの対抗馬となることを狙う。
リスク:歩留まりの不確実性、TSMCとの技術差
AI5チップの製造パートナー(一部)。世界最高の歩留まりと技術力を誇るが、需要過多による納期リスクと台湾海峡の地政学リスクを抱える。
リスク:地政学的緊張、価格、キャパシティ争奪
Teslaのデュアルソーシング戦略(SamsungとTSMCの両方を使う)は、リスク分散として合理的だ。特に米中関係の緊張が続く中、台湾一極集中は危険すぎる。マスクは、サプライチェーンの脆弱性を身をもって学んでいる——かつてのバッテリーセル不足がそうだったように。
Dojo 3は抽象的なスーパーコンピュータではない。その計算能力は、私たちが毎日目にする(あるいはまもなく目にする)具体的な製品に直結している。
Teslaの自動運転システム「FSD」は、すでに100万人以上のユーザーが利用している。しかし、真の「レベル5」自動運転(完全無人運転)にはまだ到達していない。その最大のボトルネックは何か? 学習データの処理速度だ。
Teslaの車両は、毎日数十億フレームの映像データを生成している。しかし、その膨大なデータを学習に使うためには、途方もない計算能力が必要だ。現在のNVIDIA GPUクラスターでは、データの増加速度に処理能力が追いついていないという。
Dojo 3が稼働すれば:
- 学習サイクルの高速化(週単位 → 日単位)
- エッジケース(稀な状況)への対応能力向上
- 地域ごとのローカライズ学習の実現
- リアルタイムに近いOTAアップデートの可能性
Teslaが開発中のヒューマノイドロボット「Optimus」は、自動運転と同じAIスタック(ニューラルネットワーク、学習パイプライン、推論エンジン)を共有している。つまり、FSDの進化は自動的にOptimusの進化につながる。
しかしロボットには、車にはない追加の複雑さがある:
これらすべてを学習するためには、自動運転の数倍のデータと計算能力が必要だと言われている。Dojo 3は、Optimusを「デモ用のおもちゃ」から「実用的な労働力」へと進化させるための必須インフラなのだ。
Dojo 3が完成し、軌道に乗ったとき、私たちの世界はどのように変わるのだろうか。ここでは、2030年までに実現する可能性のあるシナリオを描いてみたい。
主要都市での規制承認を経て、Tesla車が「睡眠中に目的地へ運んでくれる」サービスが開始。運転免許不要の移動手段として、高齢者や障がい者の行動範囲が劇的に拡大する。
工場や倉庫でのOptimus稼働が本格化。危険作業や単純反復作業をロボットが担い、人間はより創造的な仕事にシフト。「ロボットに仕事を奪われる」のではなく「ロボットと協働する」時代が始まる。
Starlink衛星へのDojo 3チップ搭載が始まり、軌道上での分散AI計算が実現。地球上のどこにいても、超低遅延でAIサービスにアクセス可能に。デジタルデバイドの解消へ大きな一歩。
SpaceXの火星有人ミッションに、Dojo 3ベースのAIシステムが搭載される。地球からの指示なしに自律判断できるAIが、人類初の惑星間移住を支援する。
Tesla Dojo 3の話を聞いて、「たかが企業のサーバーの話だろう」と思うかもしれない。しかし、蒸気機関が産業革命を起こし、インターネットが情報革命を起こしたように、Dojo 3は「知能革命」のエンジンそのものだ。
2026年、イーロン・マスクの新たな賭けが始まる。それは成功するかもしれないし、また新たな「袋小路」にぶつかるかもしれない。だが一つだけ確かなことがある。彼らは、止まらない。
私たちは今、人類が自らの手で
「自分たちを超える知性」を生み出そうとしている、
その胎動の瞬間に立ち会っているのだ。
※本記事は2026年1月時点の公開情報およびリーク情報に基づいた解説記事であり、Tesla社の公式発表ではありません。
投資判断は自己責任でお願いいたします。

コメント