CanIRun.ai完全解説|ブラウザだけで「自分のPCでどのAIが動くか」を即判定、インストール不要の無料互換性チェッカー

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube
  • CanIRun.aiは「自分のPCでどのAIモデルが動くか」をブラウザだけで判定する無料ツール。インストール不要・登録不要
  • WebGPU APIでGPU・VRAM・CPU・RAMを自動検出。データは一切外部に送信されずブラウザ内で完結
  • Meta、Google、Alibaba、NVIDIA、OpenAIなど12以上のプロバイダーのLLMに対応。S〜Fの6段階で互換性を評価
  • 量子化(Q2_K〜F16)ごとのVRAM使用量・ファイルサイズ・品質維持率を一覧表示。最適な設定を一目で把握
  • GPU買い替え検討にも最適。現在のGPUと候補GPUの性能差を、具体的なモデルごとに比較可能

「このAIモデル、自分のPCで動くのかな?」——ローカルAIに興味を持った人が最初にぶつかる壁です。

VRAMは足りる? 量子化は必要? そもそも自分のGPUは何GB? CanIRun.aiは、こうした疑問をブラウザを開くだけで即座に解決する無料ツール。

インストール不要、ユーザー登録不要、データ送信なし。

数秒でハードウェアを自動検出し、数百のAIモデルとの互換性をS〜Fの6段階で評価します。

CanIRun.aiとは?|ブラウザだけでAI互換性を判定

CanIRun.aiは、スペインの著名エンジニアmidudev(Miguel Angel Duran Garcia)が開発したブラウザベースのAIハードウェア互換性チェッカーです。

  • WebGPU API検出 — ブラウザのWebGPU APIを使い、GPU・VRAM・CPU・RAMを自動検出。ソフトウェアのインストール不要
  • 完全クライアントサイド — ハードウェア情報はブラウザ内で処理され、外部に一切送信されない。プライバシーを完全に保護
  • 6段階評価 — 各モデルに対してS(快適に動作)〜F(重すぎる)のグレードを表示
  • 無料・登録不要 — サイトにアクセスするだけで即座に判定開始

たとえるなら、CanIRun.aiは「AIモデル版の体力測定」。

自分のPCの「体力」を測定し、どのAIモデルという「スポーツ」ができるかを教えてくれます。

ゲーマーにおなじみの「Can You Run It?」のAI版と言えるでしょう。

主要機能の詳細

1. ハードウェア自動検出

  • WebGPU APIでGPUモデル名、VRAM容量を自動取得
  • CPU、RAM、ストレージ容量もブラウザ標準APIで推定
  • NVIDIA、AMD、Apple Silicon(M1〜M4)など主要チップに対応
  • 統合GPU(内蔵GPU)の場合は共有VRAMの制約を明示して注意喚起

2. モデルライブラリ&互換性スコア

  • 12以上のプロバイダーのLLMをカバー:Meta(Llama)、Alibaba(Qwen)、Google(Gemma)、Microsoft(Phi)、Mistral、DeepSeek、OpenAI(GPT-OSS)、NVIDIAなど
  • 各モデルに0〜100のスコアと6段階のグレードを付与:
    • S:快適に動作 / A:十分動作 / B:まあまあ
    • C:ギリギリ / D:かろうじて動く / F:重すぎる
  • 推定推論速度(トークン/秒)も表示

3. 量子化オプションの詳細表示

  • 各モデルについてQ2_K、Q3_K_M、Q4_K_M、Q5_K_M、Q6_K、Q8_0、F16の量子化フォーマット別に情報を表示
  • VRAM使用量:量子化レベルごとに必要なVRAMを明示
  • ファイルサイズ:ダウンロードに必要な容量を表示
  • 品質維持率:量子化による精度低下の目安を表示

たとえるなら、量子化オプションは「画像の解像度設定」に似ています。

F16が「4K画質」(最高品質だが重い)、Q4_K_Mが「フルHD」(十分きれいで実用的)、Q2_Kが「SD画質」(軽いが画質は落ちる)。

自分のGPUに合った「画質」を選ぶ感覚です。

使い方|3ステップで判定完了

  • ステップ1 — canirun.aiにアクセス。ブラウザが自動的にハードウェアを検出
  • ステップ2 — 検出されたGPU・VRAMを確認。手動でGPUモデルを選択することも可能
  • ステップ3 — モデル一覧から興味のあるAIモデルを選択。互換性スコアと推奨設定が表示

GPU買い替え検討への活用

  • 現在のGPUと購入候補のGPUを並べて比較可能
  • 「RTX 3060(12GB)→RTX 4070 Ti(16GB)に変えたら、Llama 3.1 70Bが動くようになるか?」を即座に確認
  • Apple Silicon(M1〜M4)の統合メモリとのVRAM換算も表示
  • コスパの良いGPU選びの判断材料として最適

競合ツールとの比較

  • Can I Use LLM? — 類似の互換性チェッカー。モデル数は少ないが操作がシンプル
  • Ollama公式 — ローカルLLM実行ツール。互換性チェック機能はインストール後にしか確認できない
  • Onyx AI LLM Checker — GPU/VRAMベースのモデルチェッカー。量子化オプション比較は限定的
  • CanIRun.ai — インストール不要・最多モデル対応・量子化詳細表示の三拍子。プライバシー保護も万全

よくある質問(FAQ)

Q. スマートフォンでも使えますか?

WebGPU APIに対応したブラウザであれば技術的には動作可能です。ただし、スマートフォンのGPUでLLMを実行することは現実的ではないため、主にPC向けのツールです。

Q. 判定結果はどのくらい正確ですか?

WebGPU APIベースの検出のため、推定値です。

特に統合GPU(内蔵GPU)でVRAMがシステムRAMと共有されるケースでは、実際の動作と差が出る場合があります。

サイト上にも免責事項が明示されています。

Q. 画像生成AI(Stable Diffusionなど)にも対応していますか?

主にLLM(大規模言語モデル)がメインですが、一部の画像生成モデルにも対応しています。対応モデルは順次拡大中です。

Q. VRAMが足りない場合はどうすればいいですか?

量子化レベルを下げる(例:F16→Q4_K_M)ことでVRAM使用量を大幅に削減できます。CanIRun.aiの量子化比較表で、品質とVRAMのバランスが最適な設定を確認してください。

まとめ

この記事のポイントを振り返りましょう。

  • CanIRun.aiはブラウザだけでAIモデルの互換性を判定する無料ツール。インストール・登録不要
  • WebGPU APIでGPU・VRAMを自動検出。データは外部に送信されない
  • 12以上のプロバイダー、数百モデルに対応。S〜Fの6段階で互換性を評価
  • 量子化オプション(Q2_K〜F16)ごとのVRAM・ファイルサイズ・品質維持率を一覧表示
  • GPU買い替え検討にも最適。「このGPUにしたら何が動く?」を即座に確認

CanIRun.aiが解決するのは、ローカルAI導入の「最初の一歩」の不安です。

「自分のPCで動くかわからない」という理由でローカルAIを試さない人は多い。

CanIRun.aiはその不安を数秒で解消します。

ブラウザを開くだけ。

それが、あなたのAI体験の入口になるかもしれません。

参考文献

  • CanIRun.ai. (2026). CanIRun.ai – Check which AI models your hardware can run. CanIRun.ai
  • Agent Wars. (2026). CanIRun.ai: Browser-Based Hardware Compatibility Checker for Local LLMs. Agent Wars
  • AI:PRODUCTIVITY. (2026). CanIRun.ai Checks Whether Your PC Can Handle Local AI Models. AI:PRODUCTIVITY
  • Tech2Geek. (2026). CanIRun.ai: Check If Your PC Can Run Local AI Models (Free & No Install). Tech2Geek
  • Techno360. (2026). CanIRun.ai: Check Which Local AI Models Your PC Can Run. Techno360

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です