日本語AIコスト1.5倍|GPT-5.5は1.73倍の罠

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube
  • 2026年5月、@ITが「日本語AIは英語より約1.48〜1.5倍トークンを使う」独自調査を公開
  • GPT-5.5は1.73倍、Claude Opus 4.7は1.39倍、モデル差が大きい
  • Legalscape調査の実質コストは最安PLaMo ¥32、最高Claude Sonnet 4.5 ¥439(100万文字あたり)
  • 原因はBPEトークナイザー。「大規模言語モデル」が8トークンに分割される
  • 日本企業はモデル使い分け+国産LLM併用で実質コストを大きく圧縮できる

「ChatGPTの請求書、思ったより高い」――そう感じている日本企業は少なくありません。理由は日本語そのものにあります。同じ内容のプロンプトでも、英語と比べてトークン(AIが処理する文字の単位)が約1.5倍も多いからです。2026年5月13日に公開された独自調査の中身を、節約策まで含めて解説します。

何が起きた|日本語AIは約1.5倍トークンを使う

@IT独自調査の中身

2026年5月13日、IT専門メディア@ITが「Deep Insider AI Practice」で独自のトークン効率調査を公開しました。

調査を行ったのはDigital Advantage Corp.の深田貴之氏。GitHubに公開された「lang-token-bench」というオープンソースツールを使って、同じ文章を複数の言語で送信し、トークン数を比較する手法です。

結果は明快でした。日本語は英語比で約1.48〜1.5倍のトークンを消費します。

これは「日本語でAIを使うと、見えないところで料金が1.5倍に膨らんでいる」ことを意味します。

GPT-5.5は1.73倍、Claudeは1.39倍

注目すべきは、モデルによって倍率が大きく違う点です。

  • GPT-5.5:1.73倍(最も日本語が不利)
  • Claude Opus 4.7:1.39倍
  • Gemini 3.1 Pro:調査対象
  • Qwen 3.6 27B:調査対象

GPT-5.5は性能評価では世界トップクラスですが、日本語のトークン効率では最も不利です。同じプロンプトを送っても、Claudeより約24%多くのトークンを消費する計算になります。

つまり「料金表だけ」を見てモデルを選ぶと、日本語ユーザーは隠れた損をしている可能性があります。

言語別の倍率ランキング

調査結果から、言語ごとの英語比トークン倍率を整理すると次のようになります。

  • スペイン語:1.29倍
  • フランス語:1.40倍
  • 日本語:約1.48倍
  • アラビア語:1.58倍
  • ヒンディー語:1.69倍

日本語は世界の中でも、AI利用コストで「中の上」レベルに不利な言語であることがわかります。

なぜ日本語はトークンが多いのか

BPEトークナイザーの仕組み

原因はAIが文章を読み込む「トークナイザー」の仕組みにあります。

主要なAIモデルはBPE(バイト・ペア・エンコーディング)という方式を採用しています。これは「よく出てくる文字の並びをひとつのまとまりにする」アルゴリズムです。

英語は膨大な学習データがあるので、「the」「ing」「tion」など頻出パターンが1トークンにまとめられます。1単語が1トークンになることも珍しくありません。

ところが日本語は学習データの量が少ない上に、ひらがな・カタカナ・漢字が混在しているため、まとめにくいのです。

「大規模言語モデル」が8トークンになる例

具体例を見てみましょう。Llamaのトークナイザーで「大規模言語モデル」を処理すると、こう分割されます。

  • 「大」「規」「模」「言」「語」「モ」「デ」「ル」
  • 合計:8トークン

一方、英語の「Large Language Model」は3〜4トークン程度。同じ意味なのに、日本語は約2倍のトークンを使います。

CJK(中国語・日本語・韓国語)は、英語の2〜8倍のトークンを消費するという研究結果もあります。

英語が有利な3つの理由

なぜ英語だけがここまで有利なのか。理由は3つあります。

  • 学習データ量:インターネット上のテキストの大半が英語
  • スペース区切り:単語の境界が明確で、まとめやすい
  • アルファベット文字数:26文字だけで構成され、組み合わせのパターンが少ない

日本語は学習データが少なく、スペースもなく、文字種が数千あります。三重苦の状態です。

モデル別コスト比較|日本語で何倍の差?

API料金の表面上の差

まず、主要モデルのAPI料金(100万トークンあたり、入力)を見てみましょう。

  • GPT-5.5:5ドル
  • Claude Opus 4.7:5ドル
  • Gemini 3.1 Pro:1.25ドル
  • PLaMo 2.1 Prime:約0.50ドル

料金表だけ見ると「GPT-5.5とClaudeは同じ」「Geminiが安い」と判断しがちです。

しかし、これは「英語前提の料金」。日本語で使うときの実質コストは、まったく違う風景になります。

日本語実質コストランキング

Legalscapeが2025年10月に公開した日本語法律分野での実測コスト調査では、衝撃的な結果が出ました。

100万文字あたりの実質入力コストは次の通りです。

  • 1位:PLaMo 2.1 Prime 約¥32(最安)
  • 2位:Gemini 2.5 Pro 約¥123
  • 3位:GPT-5 約¥160
  • 4位:Claude Sonnet 4.5 約¥440(最高)

最安と最高で約14倍の差。同じ業務をしても、モデル次第で月額10万円が月額140万円になる計算です。

Claude Sonnet 4.5の罠

Claudeは性能と使いやすさで評価が高いモデルです。しかし、日本語トークン効率は最も悪いとされます。

原因は、Claudeのトークナイザー設計が「1トークン≒1文字」に近く、日本語に対する圧縮率が低いこと。Anthropicはトークナイザーの詳細を公開していないため、推定での評価です。

「性能はいいから少し高くても使おう」と思っても、日本語ユーザーは予算オーバーになりやすい構造があります。

国産LLMが日本語で強い理由|PLaMo・Sarashina

PLaMo 2.1 Primeの効率

注目を集めているのが、国産LLM「PLaMo(プラモ)」です。開発元はPreferred Networks(プリファードネットワークス)。

PLaMo 2.1 Primeのトークン効率は1トークンあたり1.85文字。これは主要モデルの中で最高水準です。

比較すると、GPT-5は1トークン1.17文字、Claude Sonnet 4.5は約1文字。PLaMoは1.5〜1.8倍の圧縮率を持っています。

1/4〜1/10のコスト圧縮

その結果、PLaMo 2.1 Primeは他モデルの1/4〜1/10のコストで同じ日本語タスクをこなせます。

具体例で考えてみましょう。月100万文字をAIに処理させる中小企業のケースです。

  • Claude Sonnet 4.5を使う:月額約¥44,000
  • GPT-5を使う:月額約¥16,000
  • PLaMo 2.1 Primeを使う:月額約¥3,200

差額は年間で約50万円。中小企業にとっては無視できない金額です。

なぜ国産が強いのか

国産LLMが日本語で強い理由は、トークナイザーの設計思想にあります。

PLaMo 2のトークナイザーは、日本語に約5万語彙を割り当てています。Sarashina 2は約6万語彙。日本語を最初から「主役」として設計しているのが特徴です。

さらにPLaMo 2は「句読点を含むトークン」を許容することで、効率を上げています。前のバージョンと比べて日本語効率は45%、英語効率は25%向上しました。

「日本語に特化して作られたモデル」が、結果としてコストでも勝つ構図です。

日本市場への影響|法人利用の経済性

月額10万円のAI利用ならどう変わる

具体的な企業のケースで考えてみましょう。

ある中堅商社が、メール文面作成や議事録要約にClaude Opus 4.7を月額10万円分使っていたとします。月間のトークン消費量は約2,000万トークン。

これを日本語効率の良いモデルに移行すると、こうなります。

  • Claude Opus 4.7:月額¥100,000(基準)
  • Gemini 3.1 Proに移行:月額約¥35,000
  • PLaMo 2.1 Primeに移行:月額約¥7,000〜10,000

年間で100万円以上の差が生まれることもあります。経営判断に直結する規模感です。

業界別に見るインパクト

影響が大きい業界は、日本語テキストを大量に処理する業界です。

  • カスタマーサポート:問い合わせ対応の自動化で大量のトークンを使う
  • 法律・士業:契約書・判例の解析で長文を扱う
  • メディア・出版:記事の要約・校正・翻訳で連続利用
  • 金融・保険:申請書・規約の自然言語処理
  • 医療:カルテや論文の要約処理

どの業界も、年間で数百万〜数千万円の差が出る可能性があります。

経営判断のチェックリスト

経営者・IT責任者がチェックすべき項目は3つです。

  • 今使っているAIサービスの月額請求書を確認する
  • 日本語タスクと英語タスクの割合を把握する
  • 主要モデルでの同じ業務のコスト試算をする

「いつものモデルだから」で続けるのが、最もコストのかかる選択肢になっている可能性があります。

賢く節約する5つの方法

方法1:モデルを使い分ける

最も効果的なのは、タスクごとにモデルを変えることです。

たとえば、日常的な要約や定型業務はGeminiやPLaMoに任せ、高度な推論や創作だけClaudeやGPT-5.5を使う。「すべてに最高性能モデル」は無駄が大きいのです。

方法2:プロンプトを英語化する

意外と知られていないテクニックが、プロンプトを英語で書く方法です。

システムプロンプト(AIへの指示文)を英語化するだけで、トークンを20〜30%節約できます。出力だけ日本語にするよう指示すれば、結果の品質は維持できます。

「Please summarize the following Japanese text in Japanese: 〜」のような書き方が定番です。

方法3:国産LLMをハイブリッド導入

すべてを海外モデルに頼らず、PLaMoやSarashinaを併用する方法です。

たとえば、社内議事録や日報の要約は国産LLMで処理し、顧客向け資料の作成だけClaudeやGPT-5.5を使う。用途分担で最大80%のコスト削減が可能です。

方法4:トークン計測ツールを使う

自社の使用パターンを可視化することも重要です。

OpenAIのtiktoken、Anthropicのトークンカウンター、今回紹介したlang-token-benchなどのツールを使えば、実際の消費量を事前にシミュレーションできます。

「請求書が来てから驚く」のではなく、導入前にコストを見積もる習慣をつけましょう。

方法5:出力を短くする工夫

出力トークンは入力トークンの3〜5倍高いのが一般的です。

「箇条書きで5項目以内」「200字以内で要約」など、出力長を制限する指示を入れるだけで、コストが半減することもあります。

意外と効果が大きいのが、この「出力ダイエット」テクニックです。

よくある質問(FAQ)

Q. ChatGPTの月額課金(Plus/Team)でも影響はありますか?

A. 表面上は影響しませんが、利用量制限の到達速度に差が出ます。

ChatGPT PlusやTeamは月額固定なので、トークン効率が悪くても請求額は変わりません。ただし、メッセージ回数制限や利用量制限がある場合、日本語ユーザーは英語ユーザーより早く制限に到達します。API利用や法人プランでは、コスト差がそのまま現れます。

Q. GPT-5.5の方がClaude Opus 4.7より優秀なのに、なぜ日本語効率が悪い?

A. 性能とトークン効率は別の指標だからです。

性能(精度)は学習データの質と量、モデルアーキテクチャで決まります。一方、トークン効率はトークナイザーの設計に依存します。OpenAIは多言語対応を広く目指す方針で、日本語特化の最適化は深くしていません。結果として、性能トップでありながら日本語効率では不利という状態が生まれています。

Q. PLaMoはどこで使えますか?

A. Preferred NetworksのAPIや、一部のクラウド経由で利用可能です。

PLaMo 2.1 PrimeはPreferred Networksの公式API、PLaMoプラットフォーム経由で提供されています。個人向けには無料の試用環境も用意されています。法人利用の場合は、Preferred Networksへの直接問い合わせが必要です。エンタープライズ向けにはオンプレミス導入も選択肢になります。

Q. 個人ユーザーが今すぐできる節約策は?

A. 「英語プロンプト+短い出力指示」が最も簡単で効果的です。

個人で月額20ドル前後のChatGPT Plus/Claude Proを使っている場合、コスト面での節約は限定的です。ただし利用量制限を考えると、英語でシステム指示を書く・出力を短く指定する・複雑なタスクは分割するなどの工夫で、より多くの作業をこなせます。Gemini無料枠を併用するのも有効です。

Q. 翻訳タスクの場合は影響が違いますか?

A. 翻訳は最もトークン効率が問題になるタスクです。

翻訳では、入力と出力の両方で日本語が登場します。たとえば英→日翻訳なら、出力側で日本語トークンの不利が出ます。日→英翻訳なら入力側です。専門翻訳業者がコスト試算するときは、必ず両方向のトークン数を計測する必要があります。日本語が絡むだけで、業務全体のコストが大きく変わります。

Q. この差は将来縮まりますか?

A. 縮まる可能性はありますが、完全には消えません。

OpenAIやAnthropicが日本語データでの再学習・トークナイザー改良を進めれば、差は縮まります。GPT-5.5でもGPT-5.4比でトークン効率が40%改善されており、進歩は続いています。ただし、日本語の文字数の多さや学習データ量の差は構造的な問題で、英語と完全に同等になるには長い時間がかかります。当面は「日本語は不利」という前提で運用するのが現実的です。

まとめ

  • 日本語でAIを使うと、英語比で約1.48〜1.5倍のトークンが必要
  • モデル別ではGPT-5.5は1.73倍、Claude Opus 4.7は1.39倍
  • 原因はBPEトークナイザー。「大規模言語モデル」が8トークンに分割される
  • 日本語実質コストはPLaMo ¥32、Claude Sonnet 4.5 ¥440約14倍の差
  • 国産LLMのPLaMo・Sarashinaは日本語特化設計で大幅にコスパが良い
  • 節約策はモデル使い分け・英語プロンプト・国産併用・出力短縮の組み合わせ
  • 業界別ではカスタマーサポート・法律・メディアで影響が大きい
  • 導入前のトークン試算が損失防止の鍵

次のアクション:今使っているAIサービスの請求書を確認し、日本語タスクの月額消費トークン数を試算してみましょう。

参考文献

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です