AMDが2026年2月、テキストや画像から自由に歩き回れる3Dワールドを作れるAIモデル「Micro-World」をオープンソースで公開しました。
NVIDIAが独占してきたAI向けGPU市場に、AMDが本格的に切り込む戦略の一手として注目を集めています。
この記事でわかること
- AMD Micro-Worldの仕組みと特徴
- テキストや画像から3Dワールドを作る方法
- 既存のワールドモデル(OasisやNVIDIA Cosmos)との違い
- AMDのAI戦略とNVIDIA対抗の全体像
- オープンソース公開が業界に与える影響
Micro-Worldとは?ひとことで言うと
Micro-Worldは、AMDが開発した「ワールドモデル」と呼ばれるタイプのAIです。
ワールドモデルとは、テキストや画像をもとに、まるでゲームの中のような3D空間を自動で作り出すAIのこと。しかもただの静止画ではなく、キーボードやマウスで自由に動き回れる映像を生成してくれます。
たとえば「森の中の小屋」と入力すると、木々に囲まれた小屋が現れ、自分で歩き回って探索できる映像が作られる、というイメージです。
Micro-Worldは、AMDのAI専用GPU「Instinct MI325X」で学習されました。つまり、NVIDIAのGPUを使わずに作られたAIモデルという点でも画期的です。
2つのモード:テキストからも画像からも作れる
Micro-Worldには2つのバリエーションがあります。
Micro-World-T2W(テキストから3Dワールド)
文章で「こんな世界を作って」と指示すると、そのとおりの3D空間を生成します。パラメータ数は13億で、ControlNetという技術を使って精度の高い世界を作ります。
Micro-World-I2W(画像から3Dワールド)
1枚の画像をもとに、その世界観を広げた3D空間を作ります。こちらはパラメータ数140億の大型モデルで、adaLN(適応型レイヤー正規化)という軽量な仕組みで効率よく動きます。
どちらのモードでも、WASDキー(前後左右の移動)やマウス(視点の回転)で自由に動き回れる映像が生成されます。まるでゲームを操作しているような感覚です。
どうやって学習したの?マイクラ動画6,000本で訓練
Micro-Worldの学習には、人気ゲーム「マインクラフト」のプレイ動画が使われました。
具体的には、約6,000本のゲームプレイ動画を用意し、それぞれ81フレーム(約3秒分)の映像と、そのときのキーボード・マウスの操作を紐づけて学習させています。
学習は2段階で進みます。
- 第1段階:動画生成AI「Wan 2.1」をベースに、ゲームの見た目を学ぶ
- 第2段階:操作(キーボードやマウス)に応じて映像が変わる仕組みを学ぶ
この2段階に分けるのがポイントです。操作の仕組みをゲーム以外にも応用できるように、あえて「見た目の学習」と「操作の学習」を切り離しています。おかげで、マイクラだけでなく現実世界の風景でも操作できる3D映像を作れるようになりました。
ライバルとの比較:Oasisを大きく上回る性能
ワールドモデルの分野には、すでに「Oasis」という先行モデルがあります。Micro-Worldは、GameWorldベンチマーク(ゲーム世界の品質を測るテスト)でOasisを大きく上回る結果を出しました。
- 映像品質(PSNR):Micro-World 15.88 vs Oasis 14.90(高いほど良い)
- 見た目の自然さ(LPIPS):Micro-World 0.41 vs Oasis 0.56(低いほど良い)
- 動きの滑らかさ(FVD):Micro-World 175 vs Oasis 597(低いほど良い)
- 操作の正確さ:キーボード 72% vs 65%、カメラ 51% vs 38%
特に「動きの滑らかさ」では約3.4倍もの差がついています。つまり、Micro-Worldのほうがずっと自然で、ゲームらしい映像を作れるということです。
ちなみに、NVIDIAも「Cosmos」というワールドモデルを公開していますが、こちらはロボットや自動運転向けが中心。Micro-Worldのように「ユーザーが自分で操作できる3D世界」とはコンセプトが異なります。
AMDの狙い:NVIDIAの独占に風穴を開ける
Micro-Worldの公開には、技術的な貢献だけでなく、AMDの大きなビジネス戦略が隠されています。
現在のAI業界は、NVIDIAのGPU「H100」「H200」やプログラミング環境「CUDA」にほぼ依存している状態です。開発者の多くがCUDAに慣れているため、他のGPUに乗り換えにくいという「ロックイン」が起きています。
AMDはこれに対抗するため、いくつかの手を打っています。
- オープンソースのAIモデルを公開:Micro-WorldをAMD GPUで動かせる実績を見せる
- ROCmの強化:NVIDIAのCUDAに対抗するソフトウェア環境を整備
- 大手との提携:OpenAIがAMD製チップの大量導入を発表
- 毎年の新GPU投入:MI325X → MI350(2025年)→ MI400(2026年)と年次更新
Micro-Worldは「AMDのGPUでもこれだけ高品質なAIが作れる」というショーケースでもあるのです。
無料で試せる!オープンソースの中身
Micro-Worldはすべてオープンソースで公開されています。誰でも無料で使えます。
- モデルの重み:Hugging Faceで公開(amd/Micro-World-T2WとMicro-World-I2W)
- 学習データ:マインクラフトのデータセット(amd/Micro-World-MC-Dataset)
- ソースコード:GitHubで公開(AMD-AGI/Micro-World)
ただし、動かすにはそれなりのGPUが必要です。AMD Instinct MI325Xのような高性能GPUが前提となっているため、個人のパソコンで気軽に試すのは現時点では難しいかもしれません。
今後は、より長い映像の生成や、リアルタイムでのストリーミング対応も計画されているとのことです。
まとめ:AIが3D世界を自動で作る時代へ
AMD Micro-Worldは、テキストや画像から操作可能な3D世界を生成する、新しいタイプのAIです。最後に要点をまとめます。
- AMDが開発したオープンソースのワールドモデルAI
- テキストまたは画像から、自由に歩き回れる3D映像を生成
- マインクラフト6,000本の動画で学習し、ゲーム以外にも応用可能
- 先行モデル「Oasis」を大きく上回る性能(動きの滑らかさ3.4倍)
- AMD Instinct MI325Xで学習。NVIDIA依存からの脱却を目指す
- モデル・データ・コードすべてが無料で公開中
ゲーム、建築、教育、シミュレーションなど、「3D空間を自動で作りたい」というニーズは今後ますます増えていくでしょう。Micro-Worldの登場は、その未来を一歩近づけてくれる出来事です。

