- CanIRun.aiは「自分のPCでどのAIモデルが動くか」をブラウザだけで判定する無料ツール。インストール不要・登録不要
- WebGPU APIでGPU・VRAM・CPU・RAMを自動検出。データは一切外部に送信されずブラウザ内で完結
- Meta、Google、Alibaba、NVIDIA、OpenAIなど12以上のプロバイダーのLLMに対応。S〜Fの6段階で互換性を評価
- 量子化(Q2_K〜F16)ごとのVRAM使用量・ファイルサイズ・品質維持率を一覧表示。最適な設定を一目で把握
- GPU買い替え検討にも最適。現在のGPUと候補GPUの性能差を、具体的なモデルごとに比較可能
「このAIモデル、自分のPCで動くのかな?」——ローカルAIに興味を持った人が最初にぶつかる壁です。
VRAMは足りる? 量子化は必要? そもそも自分のGPUは何GB? CanIRun.aiは、こうした疑問をブラウザを開くだけで即座に解決する無料ツール。
インストール不要、ユーザー登録不要、データ送信なし。
数秒でハードウェアを自動検出し、数百のAIモデルとの互換性をS〜Fの6段階で評価します。
CanIRun.aiとは?|ブラウザだけでAI互換性を判定
CanIRun.aiは、スペインの著名エンジニアmidudev(Miguel Angel Duran Garcia)が開発したブラウザベースのAIハードウェア互換性チェッカーです。
- WebGPU API検出 — ブラウザのWebGPU APIを使い、GPU・VRAM・CPU・RAMを自動検出。ソフトウェアのインストール不要
- 完全クライアントサイド — ハードウェア情報はブラウザ内で処理され、外部に一切送信されない。プライバシーを完全に保護
- 6段階評価 — 各モデルに対してS(快適に動作)〜F(重すぎる)のグレードを表示
- 無料・登録不要 — サイトにアクセスするだけで即座に判定開始
たとえるなら、CanIRun.aiは「AIモデル版の体力測定」。
自分のPCの「体力」を測定し、どのAIモデルという「スポーツ」ができるかを教えてくれます。
ゲーマーにおなじみの「Can You Run It?」のAI版と言えるでしょう。
主要機能の詳細
1. ハードウェア自動検出
- WebGPU APIでGPUモデル名、VRAM容量を自動取得
- CPU、RAM、ストレージ容量もブラウザ標準APIで推定
- NVIDIA、AMD、Apple Silicon(M1〜M4)など主要チップに対応
- 統合GPU(内蔵GPU)の場合は共有VRAMの制約を明示して注意喚起
2. モデルライブラリ&互換性スコア
- 12以上のプロバイダーのLLMをカバー:Meta(Llama)、Alibaba(Qwen)、Google(Gemma)、Microsoft(Phi)、Mistral、DeepSeek、OpenAI(GPT-OSS)、NVIDIAなど
- 各モデルに0〜100のスコアと6段階のグレードを付与:
- S:快適に動作 / A:十分動作 / B:まあまあ
- C:ギリギリ / D:かろうじて動く / F:重すぎる
- 推定推論速度(トークン/秒)も表示
3. 量子化オプションの詳細表示
- 各モデルについてQ2_K、Q3_K_M、Q4_K_M、Q5_K_M、Q6_K、Q8_0、F16の量子化フォーマット別に情報を表示
- VRAM使用量:量子化レベルごとに必要なVRAMを明示
- ファイルサイズ:ダウンロードに必要な容量を表示
- 品質維持率:量子化による精度低下の目安を表示
たとえるなら、量子化オプションは「画像の解像度設定」に似ています。
F16が「4K画質」(最高品質だが重い)、Q4_K_Mが「フルHD」(十分きれいで実用的)、Q2_Kが「SD画質」(軽いが画質は落ちる)。
自分のGPUに合った「画質」を選ぶ感覚です。
使い方|3ステップで判定完了
- ステップ1 — canirun.aiにアクセス。ブラウザが自動的にハードウェアを検出
- ステップ2 — 検出されたGPU・VRAMを確認。手動でGPUモデルを選択することも可能
- ステップ3 — モデル一覧から興味のあるAIモデルを選択。互換性スコアと推奨設定が表示
GPU買い替え検討への活用
- 現在のGPUと購入候補のGPUを並べて比較可能
- 「RTX 3060(12GB)→RTX 4070 Ti(16GB)に変えたら、Llama 3.1 70Bが動くようになるか?」を即座に確認
- Apple Silicon(M1〜M4)の統合メモリとのVRAM換算も表示
- コスパの良いGPU選びの判断材料として最適
競合ツールとの比較
- Can I Use LLM? — 類似の互換性チェッカー。モデル数は少ないが操作がシンプル
- Ollama公式 — ローカルLLM実行ツール。互換性チェック機能はインストール後にしか確認できない
- Onyx AI LLM Checker — GPU/VRAMベースのモデルチェッカー。量子化オプション比較は限定的
- CanIRun.ai — インストール不要・最多モデル対応・量子化詳細表示の三拍子。プライバシー保護も万全
よくある質問(FAQ)
Q. スマートフォンでも使えますか?
WebGPU APIに対応したブラウザであれば技術的には動作可能です。ただし、スマートフォンのGPUでLLMを実行することは現実的ではないため、主にPC向けのツールです。
Q. 判定結果はどのくらい正確ですか?
WebGPU APIベースの検出のため、推定値です。
特に統合GPU(内蔵GPU)でVRAMがシステムRAMと共有されるケースでは、実際の動作と差が出る場合があります。
サイト上にも免責事項が明示されています。
Q. 画像生成AI(Stable Diffusionなど)にも対応していますか?
主にLLM(大規模言語モデル)がメインですが、一部の画像生成モデルにも対応しています。対応モデルは順次拡大中です。
Q. VRAMが足りない場合はどうすればいいですか?
量子化レベルを下げる(例:F16→Q4_K_M)ことでVRAM使用量を大幅に削減できます。CanIRun.aiの量子化比較表で、品質とVRAMのバランスが最適な設定を確認してください。
まとめ
この記事のポイントを振り返りましょう。
- CanIRun.aiはブラウザだけでAIモデルの互換性を判定する無料ツール。インストール・登録不要
- WebGPU APIでGPU・VRAMを自動検出。データは外部に送信されない
- 12以上のプロバイダー、数百モデルに対応。S〜Fの6段階で互換性を評価
- 量子化オプション(Q2_K〜F16)ごとのVRAM・ファイルサイズ・品質維持率を一覧表示
- GPU買い替え検討にも最適。「このGPUにしたら何が動く?」を即座に確認
CanIRun.aiが解決するのは、ローカルAI導入の「最初の一歩」の不安です。
「自分のPCで動くかわからない」という理由でローカルAIを試さない人は多い。
CanIRun.aiはその不安を数秒で解消します。
ブラウザを開くだけ。
それが、あなたのAI体験の入口になるかもしれません。
参考文献
- CanIRun.ai. (2026). CanIRun.ai – Check which AI models your hardware can run. CanIRun.ai
- Agent Wars. (2026). CanIRun.ai: Browser-Based Hardware Compatibility Checker for Local LLMs. Agent Wars
- AI:PRODUCTIVITY. (2026). CanIRun.ai Checks Whether Your PC Can Handle Local AI Models. AI:PRODUCTIVITY
- Tech2Geek. (2026). CanIRun.ai: Check If Your PC Can Run Local AI Models (Free & No Install). Tech2Geek
- Techno360. (2026). CanIRun.ai: Check Which Local AI Models Your PC Can Run. Techno360


