- 2026年4月24日:DeepSeekが『V4』プレビューを公開、開発期間は約1年
- 2モデル構成:V4-Pro(1.6兆パラメータ/49B活性)とV4-Flash(284B/13B活性)のMoE設計
- GPT-5.5 Pro比98%オフ:V4-Proは100万トークンあたり入力1.74ドル・出力3.48ドル、Claude Opus 4.7の約20分の1
- 100万トークン文脈&MITライセンス:長文処理と商用利用が両方OKの異例オープン度
- Huawei Ascendで完全稼働:NVIDIA抜きで動く“中国AI自立”の実物証明、ベンチマークでGPT-5.4を上回る項目も
『中国のAIがまた世界の価格表を書き換えた』——2026年4月24日、DeepSeek(ディープシーク)がV4を発表しました。1年前のV3衝撃を覚えていますか?あの“中国発・激安AI”が、今度は1.6兆パラメータ・100万トークン文脈というモンスター級スペックで帰ってきました。しかも米国製NVIDIAに頼らず、Huawei Ascend(ファーウェイ・アセンド)チップだけで稼働する自立構成。『GPT-5.5 Proより98%安いのに性能互角?本当に?』という疑問を、最新ベンチマーク・価格表・日本への影響まで含めて、中学生でもわかる言葉でほぐしていきます。
何が発表された?|V4プレビューの骨格
まず発表内容を5分で整理しましょう。
2026年4月24日の衝撃|V3から約1年ぶりの新世代
DeepSeekは2026年4月24日、公式サイトと技術論文で次世代大規模モデル『V4』のプレビュー版を公開しました。前モデルV3が世界のAI業界を震撼させたのが2025年1月だったので、『ちょうど1年ぶりの新世代』。『料理で言えば、去年世界を驚かせた若手シェフが“続編メニュー”を堂々発表した』ような立ち位置です。論文に加え、HuggingFaceに重み(学習済みファイル)もアップロードされ、誰でも中身を覗ける『MITライセンスのオープンウェイト(商用利用OKの公開AI)』として提供されました。4月24日はCNBC、Bloomberg、Fortuneなど主要経済メディアが一斉報道する大型発表となり、AI業界の話題を独占しました。
2モデル構成|V4-ProとV4-Flashの役割分担
V4は用途別に2モデルが同時提供されるのが特徴。『V4-Pro』は総パラメータ1.6兆(1,600B)・1回の推論で49B(490億)を活性化する超大型モデル、『V4-Flash』は総284B・活性13Bの軽量モデルです。『V4-Proがフルコースのフランス料理、V4-Flashが早くて旨いラーメン』のような住み分け。両方ともMoE(Mixture of Experts=専門家の寄せ集め)という“必要なときだけ一部の脳を起こす”省エネ設計で、『1.6兆の巨大モデルなのに、実際に動くのは49B分だけなので電気代と速度が現実的になる』のが肝です。ファイルサイズはV4-Pro 865GB、V4-Flash 160GBで、V4-Proは現時点で『世界最大のオープンウェイトモデル』とも言われています。
100万トークン文脈|本1冊を丸ごと読み込める
V4-Pro・V4-Flashはどちらも最大100万トークン(日本語でおよそ60〜80万文字)の文脈に対応。出力も最大384Kトークンと、“長大な分析レポートを一気に出力する”使い方が可能です。『A4換算で300〜400ページ、文庫本2〜3冊ぶんを丸呑みして答える』イメージ。会議の議事録1年ぶん、裁判資料、数百ページの契約書、社内Slackの過去ログ全文、ソースコード全体——従来は分割して読ませる必要があった素材が“そのまま投入できる”領域に入ります。100万トークンはGPT-5.5 Proクラスと並ぶ業界最高水準で、“巨大資料を一気に食わせて要約・抽出させる用途”では決定的に強い立ち位置になりました。
性能はどのくらい?|主要ベンチマークの実力
スペックだけでなく“実際に賢いのか”を数字で確認します。
コーディングではGPT-5.4超え|Codeforces 3206の実力
プログラミング競技サイト『Codeforces(コードフォーシズ)』でのレーティングはV4-Proが3206、GPT-5.4が3168、Gemini-3.1-Proが3052。『世界トップクラスのプログラマー同士の道場で、中国製新入生が米国代表を上回った』スコアです。LiveCodeBench(実際のプログラミング課題)でもV4-Proが93.5、Geminiが91.7、Claudeが88.8。SWE-Verified(実務ソフトウェア修正タスク)でも80.6とClaude(80.8)と互角。『コーディング分野は、もう“中国製=ちょっと劣る”の常識が完全に崩れた』と見て差し支えない結果です。
数学・推論も強い|IMO級問題で89.8点
数学オリンピック級の難問を集めた『IMOAnswerBench』でV4-Proは89.8点。Claude Opus 4.6が75.3、Gemini-3.1-Proが81.0、GPT-5.4が91.4という中で、『Claude・Geminiを大きく抜き、GPTにわずかに届かない2位』という高水準。『中学生でもわかる言葉で言うと、東大理III合格ラインの数学を安定して解けるAIが、しかも激安で登場した』インパクトです。総合知識テスト『MMLU-Pro』では87.5でGPT-5.4と同点、Gemini(91.0)・Claude(89.1)にはやや劣るものの、“実用的な賢さではもう差が極端に小さくなっている”段階に入ったと言えます。
弱点も正直に|事実確認はGeminiに及ばず
一方、事実の正確性を測る『SimpleQA-Verified』ではV4-Proが57.9%、Geminiが75.6%。『“知識量”で見ると、Googleの持つ膨大な検索データに裏打ちされたGeminiに明確な差をつけられている』状況です。『超優秀だが、ときどき自信満々に嘘をつく秀才』というのが現時点のV4の正直な姿。事実確認が命の医療・法務・金融の最終判断には、人間レビューや外部検索との併用が不可欠という前提は、他の生成AIと同じく当てはまります。『安いからこそ、浮いた予算でチェック体制を作るべき』という使い方が現実的です。
価格破壊の衝撃|GPT-5.5の98%オフという現実
V4の真の爆弾はスペックではなく価格表です。
V4-Pro|100万トークン1.74ドルの破格
V4-ProのAPI価格は100万トークンあたり入力1.74ドル(約260円)・出力3.48ドル(約520円)。比較対象のGPT-5.5 Proは入力30ドル・出力180ドルなので、『出力で約52分の1、入力で約17分の1』。Claude Opus 4.7と比較しても約20分の1と言われています。『スターバックスのラテ1杯分で、本来なら1ヶ月ぶんのAI利用料が賄える』ような破格。『高級牛肉と同じ品質の肉が、業務用スーパーで5%の値段で売られている』ような衝撃度です。開発者・企業にとって、これまで“API代が怖くて試せなかった用途”が一気に開放される価格設定です。
V4-Flash|100万トークン0.14ドルの“使い倒し価格”
軽量版V4-Flashは入力0.14ドル(約21円)・出力0.28ドル(約42円)。さらに『キャッシュヒット時は入力が0.028ドル(約4円)』まで下がる設計で、『同じプロンプトを繰り返すと実質ほぼ無料』になります。『社内チャットボット、ECの問い合わせ自動応答、社内文書Q&Aなど“大量に回す”用途が現実的なコスト感で組める』レベル。『水道料金で動くAI』と言っても大げさではない水準です。2025年にはAPI価格が1桁高かった用途が、V4-Flashで一気に黒字化する企業も増えると予想されます。
開発コストの内訳|“FLOPs27%・KV 10%”の省エネ設計
DeepSeek公式論文によれば、V4-Proは前世代V3.2比で『1トークンあたりの計算量(FLOPs)が27%、KVキャッシュ使用量が10%』まで抑えられたそうです。『同じ勉強量でも、教科書を10分の1のメモで済ませ、計算も4分の1で終わる天才学生』のような効率性。“モデルを大きくしながら動かすお金は減らす”という矛盾した目標を、アーキテクチャ工夫で実現しています。『安さの理由は、値段を安売りしたのではなく、そもそも運営コストが低いから』という点が、2025年のDeepSeek V3時代と同じく業界の注目を集めています。
Huawei Ascendで完全稼働|“中国AI自立”の実物証明
V4のもう1つの衝撃は“チップ”にあります。
NVIDIAなしで稼働|Ascend NPUの登場
V4は『Huawei Ascend(ファーウェイ・アセンド)NPU』だけで推論・訓練が成立する設計。Huawei自身が4月24日に『最新Ascend AI計算クラスターでDeepSeek V4がサポートされる』と発表し、『NVIDIAのH100やBlackwell抜きで、フロンティア級AIを動かせた』ことを公式に示しました。『米国が輸出規制をかけている最先端GPUを使わずに、世界トップクラスAIを中国国内でフルで回せる』実績ができたことで、米中ハイテク競争における最大級の節目になったと評されています。
Alibaba・ByteDance・Tencentが大量発注
中国の主要テック大手Alibaba・ByteDance・Tencentは、V4公開を見越してHuawei製チップを大量発注したと複数の英語メディアが報道。『米国のNVIDIA依存から、中国はついに“自給自足のAI経済圏”を形にしようとしている』動きが目に見える形で加速しました。『家のコメはよその国から輸入、という時代を脱して、全部自国の田んぼで作ろうとする国産シフト』のイメージ。米国側は「Blackwellチップを第三国経由で密輸して訓練したのでは?」との疑念も報道されており、技術的自立の“真偽”は引き続き論点となっています。
性能パリティ主張|Ascend=NVIDIA互角の波紋
DeepSeekとHuaweiは『V4はAscend NPUとNVIDIA GPUで同等の性能を発揮した』と共同発表。『中国製チップは数世代遅れ』という従来の業界認識に、公式の反証が乗った格好です。『プロ野球で無名だった若手投手が、メジャーリーグ先発と同等の球速を出した』ようなインパクト。仮にこの主張が第三者検証でも裏付けられれば、米国のAIチップ輸出規制の戦略効果に根本的な疑問符が付くことになり、世界のサプライチェーン・地政学に数年単位で影響を与える発表となりました。
競合比較|GPT-5.5・Claude・Geminiとの棲み分け
V4は誰に勝ち、誰に負けているのか整理します。
vs GPT-5.5 Pro|価格で圧倒、知識で半歩負け
GPT-5.5 ProはOpenAIの最新フラッグシップで、知識量・対話品質・マルチモーダル対応で世界最高水準。V4-Proは価格で圧倒(98%オフ)・コーディングで勝ち・数学でほぼ互角・汎用知識でやや劣るという構図です。『GPTは万能の家庭教師、V4は専門課目が得意な激安予備校』と覚えると分かりやすいでしょう。社内開発やAPI大量利用では“V4で賄う”判断、チャットの一般対話は“GPT”という使い分けが現実解。“1社で1ヶ月数百万円〜数千万円のAPI費用”を払う企業ほど、V4導入の経済インパクトが大きい計算になります。
vs Claude Opus 4.7|コーディングと価格で優位
Claude Opus 4.7はコーディングとエージェント(自律AI作業者)で定評のあるAnthropicの最新モデル。V4-ProはCodeforces・LiveCodeBenchで上回り、価格は約20分の1という衝撃。『コードを書かせるだけなら、V4が明確に合理的』という判断が成立します。一方、Claudeは“長い指示を正確に守る能力”や“倫理的な配慮”で依然強く、エージェント用途では優位。『ミスが許されない業務系エージェントはClaude、大量生成や試作はV4』の組み合わせが2026年後半の主流になる可能性があります。
vs Gemini 3.1 Pro|知識で負け、コーディングで勝ち
Google Gemini 3.1 Proは検索連動&マルチモーダルで圧倒的で、SimpleQA-Verifiedで75.6%とV4-Pro(57.9%)を大きく上回ります。『世界中の情報をリアルタイムで把握する“歩く百科事典”としてはGeminiが別格』。コード生成や推論ではV4-Proが勝ち、“最新情報の正確性”ではGeminiが勝つという住み分けになります。『最新ニュースを拾ってきてほしいならGemini、大量コードを書かせたいならV4、総合対話はGPT、業務エージェントはClaude』という“4枚カード”の構図が2026年AI業界の標準になりそうです。
日本への影響|企業と個人ユーザーの視点
V4は日本にどんな影響を与えるのでしょうか。
企業活用|API費用の大幅削減が現実に
日本のSaaS企業や社内AI活用部門にとって、V4の価格破壊は“AIコストの意思決定を根本から変える材料”になります。『月間100万円のOpenAI費用を、V4でそのまま賄うと月5万円前後になる』計算も成り立つレベル。『高級賃貸から、同じ立地のUR団地に引っ越して家賃が20分の1になる』ようなインパクト。楽天・LINEヤフー・メルカリ・Sansan・freeeなど、国内AIを本格導入する企業は“用途ごとにモデルを使い分けるマルチモデル戦略”を2026年下期に加速させる可能性が高い情勢です。“GPT/Claudeが第1選択肢”から“コスト重視ならV4”の比較評価が当たり前になる時代に入りました。
セキュリティ懸念|中国製AIをどう扱うべきか
一方、日本の官公庁・金融・医療など機密性の高い業界では、中国製AIの直接利用に慎重な姿勢が残ります。『DeepSeekの公式サービスはデータが中国内のサーバーを通る可能性があり、個人情報保護の観点で敏感な用途には不向き』という見方が一般的。ただしオープンウェイト(モデル自体がMITライセンスで公開)のため、“自社サーバーやAWS・さくらクラウドで独自にV4を動かす”ことが技術的に可能です。『車の設計図が公開されているから、自分の工場で組み立てて自社ナンバーで走らせる』イメージ。企業導入では“公式API vs 自社ホスティング”の選択肢が鍵になります。
個人ユーザー|日本語対応と使い道
個人開発者・フリーランスにとって、V4-Flashは“遊び倒せるAI”として極めて魅力的。『月5〜10ドルの予算で、GitHub Copilot代わり、翻訳ボット、ブログ記事草稿、データ整形など日常ツールをまるごと作れる』コスト感です。日本語性能はV3時代から改善を続けており、ChatGPTに迫るレベルに到達。『海外通販で日本未発売の便利ガジェットが、円安でも手が届く値段で買える』ような感覚。副業・個人事業・ブログ運営・学習補助などでV4を組み込むことで、月のツール費用が数千円で済む世界が現実になります。
わたしたちの生活はどう変わる?|3つの活用シーン
シーン1|中小EC運営 佐々木さん(32歳)の問い合わせ自動化
アパレルECを運営する佐々木さんは従業員4人の会社を切り盛りしています。『GPT-4で問い合わせボットを作ったけれど、月12万円の費用が重くて凍結していた』状態。2026年5月、V4-Flashに切り替えたところ、同じ品質のボットが月約5,000円で動くようになったそうです。『SlackのDMにAIアシスタントを常駐させ、在庫確認・返品ルール・配送日程を24時間応答してくれる“新入社員”が増えた感覚』。『AIは無理して大企業のマネをするのではなく、身の丈の料金のものを選ぶ時代』と実感したそうです。
シーン2|大学院生 中野さん(26歳)の論文漬けライフ
情報工学の大学院2年生、中野さん。『修士論文に向けて200本の英語論文を読まないと締切に間に合わない』状況でした。V4-Proの100万トークン文脈を使い、論文10本を一度にPDFで投入→要点抽出→比較表を自動生成。『指導教員との議論が、AI要約を前提にした“議論用の会議”に変わった』と変化を実感。月のAPI費用は800円程度で済んだそうです。『修士が博士並みの文献量を扱える時代』に、『研究のスタート地点そのものが上がった』と語っています。
シーン3|自治体DX担当 稲葉さん(41歳)の条例整理
中核市のDX推進課に所属する稲葉さん。『過去20年間で改正された条例を全て読み直し、矛盾を洗い出す』という無理難題を抱えていました。AWSで自社構築したV4-Proに条例テキスト全文(約300万文字)を分割投入し、矛盾候補と法令整合性を抽出。『紙の条例集を職員10人で半年かけてチェックしていた作業が、2週間で目処がついた』成果。“中国製AIを直接サービス利用するのは禁止だが、モデル自体は自社サーバーで動かせる”というオープンウェイトの利点を自治体が活用した好例になりました。
よくある質問(FAQ)
Q. DeepSeek V4は無料で使えますか?
A. DeepSeekの公式ウェブチャット(chat.deepseek.com)は日常利用であれば無料で使えます。API経由の開発利用は有料ですが、V4-Flashで100万トークン0.14ドル(約21円)と極端に安い水準。『個人が月ワンコイン(500円)で本格的に使い倒せる』価格帯です。ビジネス用途で大量処理する場合は、V4-Proでも他社の20分の1以下のコストで済むケースがほとんどです。
Q. 中国製AIを使うとデータが中国に送られますか?
A. DeepSeekの公式サービス(ウェブ版・API)を利用した場合、データは中国のサーバーを経由する可能性があります。『機密情報・個人情報は公式サービスに入れない』が基本。ただしV4はMITライセンスでモデルの重みが公開されているため、AWS・Azure・さくらクラウドなどに自前でデプロイすれば“データを中国に送らず使う”ことが可能。『エンジンは買ってきて、自社の車体に乗せる』使い方ができるのが、オープンウェイトの最大の利点です。
Q. 日本語の精度はどのくらいですか?
A. V3時代に比べ日本語の自然さは大きく改善され、日常会話・ブログ記事・ビジネスメール・簡単なコードコメントなら違和感は少ない水準。ただし敬語の細かいニュアンスや法律・医療など専門領域の“日本固有の表現”では、GPT-5.5 ProやClaude Opus 4.7に一歩譲る場面があります。『外国人留学生が日本語検定1級を取った状態』に近く、『日常業務は充分、最終的な読者向け文章は日本人が手直し』という使い方が現実的です。
Q. V4-ProとV4-Flashはどう使い分けるべき?
A. 『精度重視・複雑な推論・長文理解=V4-Pro』『大量・高速・コスト重視=V4-Flash』が基本方針。たとえば社内チャットボットは99%の質問がFlashで十分、難しい相談だけProにエスカレーション、という2段構えが現実的。『普段は軽自動車で通勤、遠出だけ大型SUVを借りる』ような発想です。多くの企業導入事例では“Flash 90%+Pro 10%”の比率で運用コストを最適化しています。
Q. 日本企業がV4を自社システムに組み込むには?
A. 主な選択肢は『①DeepSeek公式API利用』『②OpenRouter等の中継サービス経由』『③AWS・Azure・さくらクラウドで自社ホスティング』の3つ。①は最も簡単・安価ですが、機密性の高い業務には不向き。②はコスト若干高だが複数モデルを柔軟に使える。③は初期構築コストが高いが情報セキュリティとコンプライアンスで安心。『飲食店で言えば、フランチャイズ契約・代理店経由・自分で工場から仕入れの3択』のような構図。自社の情報分類に応じて段階的に③へ移行する企業が増える見通しです。
まとめ
- 2026年4月24日:DeepSeek V4プレビュー公開、V3から約1年ぶりの新世代
- V4-Pro(1.6兆パラメータ)・V4-Flash(284B):MoEで省エネ、100万トークン文脈対応
- GPT-5.5 Pro比98%オフ:V4-Pro 100万トークン1.74ドル、コーディングでGPT超え
- Huawei Ascendで完全稼働:NVIDIA抜きで動く“中国AI自立”を公式確認
- 次のアクション:DeepSeek公式APIドキュメントで価格表を確認し、まずはV4-Flashで小規模PoCを始めるのが第一歩
『激安中国AIがまた来た』で片付けていいレベルの発表ではありません。1.6兆パラメータの超大型モデルがGPTの20分の1の値段で動き、コーディングでは米国トップを上回り、100万トークンの長文に対応し、しかもHuawei Ascendだけで稼働する——これは“価格×性能×地政学”が同時に崩れる構造変化です。2025年1月のDeepSeek V3が『低コストAIの衝撃』を残したなら、2026年4月のV4は『中国AIがフロンティアに並び、米国のチップ覇権まで揺らしかけた瞬間』。日本企業にとっては“AIコストが20分の1になる選択肢がついに現実化した”というメッセージで、個人ユーザーにとっては“月500円で本格AIを自在に使える時代”が実用レベルに到達した瞬間でもあります。まずはV4-Flashを1つのプロジェクトに使ってみる——それだけで、半年後の開発速度が変わる可能性が高い発表です。
参考文献
- China’s DeepSeek releases preview of long-awaited V4 model as AI race intensifies(CNBC 2026年4月24日)
- DeepSeek unveils V4 model, with rock-bottom prices and close integration with Huawei’s chips(Fortune 2026年4月24日)
- DeepSeek V4—almost on the frontier, a fraction of the price(Simon Willison 2026年4月24日)
- DeepSeek-V4 arrives with near state-of-the-art intelligence at 1/6th the cost of Opus 4.7, GPT-5.5(VentureBeat)
- DeepSeek Releases DeepSeek V4-Pro & V4-Flash, Benchmarks & Pricing(Officechai)
- Models & Pricing | DeepSeek API Docs(公式)

