Qwen 3.5 Small完全解説|9Bモデルが120Bを超えた衝撃、RTX 3080で動くGPT-5級AI

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube
  • AlibabaがQwen 3.5 Smallシリーズ(0.8B/2B/4B/9B)を公開。Apache 2.0ライセンスの完全オープンモデル
  • 9Bモデルが13倍大きいGPT-OSS-120Bを複数ベンチマークで上回る衝撃。GPT-5 Nanoにも大差で勝利
  • RTX 3080/RTX 4070で動作可能。0.8Bモデルはわずか2GB VRAMで稼働
  • 「考えるモード」と「考えないモード」の切り替えに対応。エージェントコーディング、視覚、長文脈タスクに強み
  • ハイブリッドアーキテクチャ(Gated Delta Networks + Sparse MoE)で効率と性能を両立

「9Bパラメータのモデルが、120Bパラメータのモデルを上回る」——AIの常識を覆す結果が出ました。AlibabaのQwen(通義千問)チームが発表したQwen 3.5 Smallシリーズは、わずか90億パラメータのモデルで、OpenAIの1,200億パラメータモデル(GPT-OSS-120B)を複数のベンチマークで凌駕しました。しかも一般的なゲーミングPC(RTX 3080)で動作する。「大きいモデルが強い」という時代は、終わりつつあります。

Qwen 3.5 Smallシリーズとは

Qwen 3.5 Smallシリーズは、Alibaba Cloudが2026年3月2日に発表した4種類の軽量LLMです。

  • Qwen3.5-0.8B — 8億パラメータ。必要VRAM わずか2GB。スマートフォンやIoTでも動作
  • Qwen3.5-2B — 20億パラメータ。エッジデバイスや低コストサーバー向け
  • Qwen3.5-4B — 40億パラメータ。バランス型。多くのタスクで実用的
  • Qwen3.5-9B — 90億パラメータ。RTX 3080/4070で動作しながら120Bモデル級の性能
  • ライセンスApache 2.0。商用利用・改変・再配布が完全に自由

たとえるなら、Qwen 3.5 Smallシリーズは「軽自動車なのにスポーツカーの速さを出すエンジン」。少ない燃料(計算資源)で、大型車(大規模モデル)に匹敵するパフォーマンスを発揮します。

9Bが120Bを超えた|ベンチマーク結果の衝撃

Qwen3.5-9Bの性能は、AI業界に衝撃を与えました。

  • GPQA Diamond(大学院レベルの科学問題) — Qwen3.5-9B: 81.7 vs GPT-OSS-120B: 71.5(13倍大きいモデルを10ポイント以上上回る)
  • HMMT Feb 2025(数学コンペティション) — Qwen3.5-9B: 83.2 vs GPT-OSS-120B: 76.7
  • MMMU-Pro(マルチモーダル理解) — Qwen3.5-9B: 70.1 vs GPT-OSS-120B: 59.7
  • vs GPT-5 Nano — MMMU-Proで13ポイント差、MathVisionで17ポイント差、文書理解で30ポイント差で圧勝

9Bパラメータ(90億)が120Bパラメータ(1,200億)を上回るということは、「13分の1のサイズで上位の性能」を実現したことを意味します。これはモデルのアーキテクチャが根本的に進化したことの証明です。

なぜ小さいのに強い?|ハイブリッドアーキテクチャ

Qwen 3.5 Smallシリーズの驚異的な効率の秘密は、ハイブリッドアーキテクチャにあります。

  • Gated Delta Networks — 従来のTransformerアテンション機構の効率を大幅に向上させる新技術
  • Sparse MoE(Mixture of Experts) — パラメータの一部だけを活性化して推論。全パラメータを使わないため、効率的
  • Thinking/Non-Thinking モード — タスクに応じて「深く考える」モードと「即座に回答する」モードを切り替え

たとえるなら、「必要な部署だけが対応する大企業」。全社員(パラメータ)が同時に動くのではなく、タスクに応じて最適な専門チーム(Expert)だけが活性化する。だから少ない人数でも、大企業並みのアウトプットが出せます。

動作環境|RTX 3080で120B級の性能

  • Qwen3.5-0.8B — VRAM 2GB。スマートフォン、Raspberry Pi、ウェアラブルで動作
  • Qwen3.5-2B — VRAM 4GB。ノートPC内蔵GPUでも動作可能
  • Qwen3.5-4B — VRAM 6GB。ミドルレンジGPU(GTX 1660等)で動作
  • Qwen3.5-9B — VRAM 12GB。RTX 3080/RTX 4070で快適に動作。120B級の性能

競合との比較

  • GPT-5 Nano(OpenAI) — OpenAIの最小モデル。Qwen3.5-9Bに複数ベンチマークで大差をつけられる
  • GPT-5 mini(OpenAI) — 中型モデル。Qwen3.5-27B(denseモデル)がSWE-benchで互角
  • Llama 3.3-8B(Meta) — 同サイズ帯のオープンモデル。Qwen3.5-9Bが多くのベンチマークで優位
  • Gemma 3-9B(Google) — Google DeepMindのコンパクトモデル。Qwen3.5-9Bと直接競合

よくある質問(FAQ)

Q. 無料で商用利用できますか?

はい。Apache 2.0ライセンスで公開されており、商用利用・改変・再配布がすべて自由です。利用申請やロイヤリティは不要です。

Q. 日本語は使えますか?

Qwen 3.5は多言語対応で、日本語にも対応しています。中国語と英語が最も得意ですが、日本語のテキスト生成・理解にも実用的な性能を示します。

Q. GPUなしでも使えますか?

0.8BモデルはCPUのみでも動作可能ですが、速度は遅くなります。実用的な速度にはGPU(最低2GB VRAM)の使用を推奨します。量子化(モデル圧縮)を使えば、さらに低いスペックでも動作可能です。

Q. どうやって使い始めればいいですか?

Hugging Faceやモデルカードからダウンロード可能です。Ollama、vLLM、llama.cppなど主要な推論フレームワークに対応しており、数コマンドで起動できます。

まとめ

この記事のポイントを振り返りましょう。

  • Qwen 3.5 Smallシリーズは0.8B〜9Bの4種類。Apache 2.0で完全オープン
  • 9Bモデルが120Bモデルを複数ベンチマークで上回る衝撃。「大きい=強い」の常識が崩壊
  • Gated Delta Networks + Sparse MoEのハイブリッドアーキテクチャで効率を実現
  • RTX 3080で動作する9B、わずか2GBで動く0.8B——あらゆるデバイスにAIを搭載可能
  • GPT-5 NanoやLlama 3.3-8Bに対してベンチマーク優位。オープンモデルの新標準

「大きなモデルが強い」というAIの常識が、Qwen 3.5 Smallシリーズによって書き換えられました。ゲーミングPCでGPT-5 mini級の性能が手に入る時代。これはAIの民主化における決定的な転換点です。クラウドAPIに月額料金を払わなくても、自分のPCで最先端のAIを動かせる——その未来が、もう目の前にあります。

参考文献

  • VentureBeat. (2026). Alibaba’s small, open source Qwen3.5-9B beats OpenAI’s gpt-oss-120B. VentureBeat
  • Awesome Agents. (2026). Qwen 3.5 Small Series Ships Four Models From 0.8B to 9B. Awesome Agents
  • Artificial Analysis. (2026). Qwen3.5 small models: Everything you need to know. Artificial Analysis
  • ComputerTech. (2026). Qwen 3.5 Small Series Review: 120B Performance on 16GB RAM. ComputerTech
  • Apatero Blog. (2026). Qwen 3.5 Small Models Review: Benchmarks and Real Testing. Apatero Blog

10 COMMENTS

gbet com

Gbet com… Okay, haven’t played there myself, so can’t speak from experience. Maybe search for other players’ experiences online, and see what they say! Check it out here: gbet com

返信する
h2 poker

H2 poker, alright poker Heads up, remember to play responsibly. No poker face will save you from losing your shirt if you get carried away. Check it out here: h2 poker

返信する

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です