この記事でわかること
- GPT-5.5が「最高性能ではない」のにエンジニアから支持される理由
- AIの評価基準が「ベンチマークスコア」から「タスク完走力」へ変化した背景
- コーディングエージェントに求められる新しい能力とは何か
- Claude Opus 4.7との違いと使い分けのポイント
OpenAIが2026年4月に発表した「GPT-5.5」が話題に
2026年4月23日、OpenAIは新しいAIモデル「GPT-5.5」を発表しました。このモデルは、プログラミング支援に特化した「コーディングエージェント」として設計されています。
実は、GPT-5.5はすべてのベンチマーク(AIの性能を測るテスト)で最高得点を取っているわけではありません。たとえば、プログラミングの問題を解く能力を測る「SWE-Bench Pro」というテストでは、GPT-5.5は58.6%のスコアでした。一方、ライバルのClaude Opus 4.7は64.3%と、より高い得点を記録しています。
それなのに、多くのエンジニアがGPT-5.5に注目しています。なぜでしょうか?
カギは「最後まで自走する力」
GPT-5.5が評価される最大の理由は、「agentic durability(エージェント持続性)」と呼ばれる能力です。これは日本語にすると「最後まで自分で考えて動き続ける力」という意味になります。
従来のAIは、人間が細かく指示を出さないと途中で止まってしまうことがありました。たとえば、プログラムを書いている途中でエラーが出ると、「どうすればいいですか?」と聞いてくることが多かったのです。
しかし、GPT-5.5は違います。エラーが出ても自分で原因を調べ、修正方法を考え、実際に直してから次の作業に進みます。つまり、人間が見ていなくても「最後まで自走する」ことができるのです。
具体的な数字を見てみましょう。GPT-5.5は「Terminal-Bench 2.0」というテストで82.7%のスコアを記録しました。これは、コマンドライン(文字だけでコンピュータを操作する方法)を使った複雑な作業を、どれだけ最後まで完成させられるかを測るテストです。
このスコアは、従来のモデルと比べて大きく向上しています。たとえば、「OSWorld-Verified」という一般的なコンピュータ操作のテストでは78.7%、知識労働タスクの「GDPval」では84.9%を記録しています。
「ベンチマーク至上主義」から「実務重視」へ
AIの世界では長い間、「ベンチマークで高いスコアを取ること」が最も重要だと考えられてきました。ベンチマークとは、AIの性能を測るための標準的なテストのことです。
しかし、2026年になって状況が変わりました。エンジニアたちは、「テストで高得点を取るAI」よりも「実際の仕事を最後までやり遂げるAI」を求めるようになったのです。
この変化を示すデータがあります。スタンフォード大学が発表した「AI Index 2026」によると、AIエージェントがPC操作タスクを成功させる確率は、2024年にはわずか12%でした。それが2026年には66%まで上昇しています。わずか2年で5倍以上に改善したのです。
この急速な進化により、AIの評価基準も大きく変わりました。従来は「個別のテストでどれだけ高得点を取れるか」が重視されていましたが、現在は以下の3つが重要視されています。
- 実行可能性:実際にタスクを完了できるか
- 効率性:無駄なく作業を進められるか
- 継続性:エラーが出ても自分で修正して続けられるか
つまり、「どれだけ賢いか」より「どれだけ信頼して任せられるか」が重要になったのです。
トークン効率の高さも大きな強み
GPT-5.5のもう一つの特徴は、「トークン効率」の高さです。トークンとは、AIが文章を処理する際の最小単位のことで、トークン数が多いほど処理コストが高くなります。
GPT-5.5は、同じ作業をこなすのに、他のモデルよりも72%少ないトークンで済みます。これは、短い文章で的確に答えを返せることを意味します。
具体的には、GPT-5.5は「短いトークンでより高いスコアを達成する」という設計思想で作られています。無駄な説明を省き、必要な作業だけに集中できるため、コストを抑えながら高い成果を出せるのです。
ただし、API(プログラムからAIを使うための仕組み)の利用料金は、入力が5.00ドル、出力が30.00ドルと、前世代の2倍に設定されています。それでも、トークン効率が高いため、実際のタスクあたりのコストは他のモデルより安くなることが多いのです。
Claude Opus 4.7との違いは?
GPT-5.5の主なライバルは、Anthropic社が2026年4月16日に発表した「Claude Opus 4.7」です。両者はどう違うのでしょうか。
Claude Opus 4.7は、SWE-Bench Proで64.3%、SWE-bench Verifiedで87.6%を記録しており、コーディング能力では王座を取り戻したと言われています。特に、大規模なコードベース(たくさんのファイルで構成されたプログラム全体)を理解し、広い範囲にわたる設計の変更に強みがあります。
一方、GPT-5.5は、ツールの使い方が正確で、ファイルの操作や具体的な問題解決に優れています。つまり、大きな絵を描くのはClaude、細かい作業を正確にこなすのはGPT-5.5という特徴があります。
専門家は、「どちらが優れているかは、どんな作業をするかによる」と指摘しています。大規模なアプリケーション全体を見渡す必要がある場合はClaude、具体的なタスクを自動化したい場合はGPT-5.5が向いているということです。
GitHub Copilotでの使い分けに注意
プログラマーに人気のツール「GitHub Copilot」では、GPT-5.5を選ぶと料金の「乗数」が7.5倍になります。これは、同じ作業でも通常の7.5倍の料金がかかるということです。
そのため、企業で大規模にGPT-5.5を導入する際は、総コスト(TCO:Total Cost of Ownership)が大幅に増加する可能性があります。コスト面では慎重な検討が必要です。
一方で、GPT-5.5のトークン効率の高さを考えると、実際のタスクあたりのコストは他のモデルより安くなる場合もあります。利用する状況に応じて、どのモデルが最適かを判断することが重要です。
AI業界の競争はさらに激化
GPT-5.5とClaude Opus 4.7の登場により、AI業界の競争は新しい段階に入りました。専門家は「1ヶ月でこの状況は大きく変わる可能性がある」と指摘しており、AI開発のスピードが加速していることを示しています。
今後は、単なる性能比較ではなく、具体的な運用シナリオでの効率性評価が重要になります。つまり、「このAIはテストで何点取れる」という情報だけでなく、「実際の仕事でどれだけ役に立つか」を見極める必要があるのです。
また、2026年はAI評価の多元化が進んでいます。コーディングはSWE-benchが標準、Web操作はBrowserGym、エンタープライズ環境はτ-benchといった具合に、用途ごとに異なる評価指標が使われるようになりました。
こうした変化は、AIが「研究室のおもちゃ」から「実務で使える道具」へと進化していることを示しています。
まとめ:「最高性能」より「信頼して任せられる」が重要に
- GPT-5.5は全ベンチマークで最高得点ではないが、「最後まで自走する力」が評価されている
- AIの評価基準が「ベンチマークスコア」から「実務でのタスク完走率」へ変化
- AIエージェントのPC操作成功率は2024年の12%から2026年には66%へ急上昇
- GPT-5.5はトークン効率が高く(72%削減)、コストパフォーマンスに優れる
- Claude Opus 4.7は大規模設計に強く、GPT-5.5は具体的なタスクに強い
- 今後は用途に応じた使い分けが重要になる
GPT-5.5の登場は、AI業界における「何が本当に重要か」という問いを投げかけています。単に賢いだけでなく、信頼して任せられる。そんなAIが、これからの時代に求められているのです。

