2026年2月、Anthropic社のAIモデル「Claude Opus 4.6」が、オープンソースソフトウェアの中から500件以上の未知の重大な脆弱性を発見したと発表しました。これはAIによるセキュリティ監査の大きな一歩です。
この記事でわかること
- AIがオープンソースの脆弱性を500件以上発見した背景
- 具体的にどんなバグが見つかったのか
- AIコードレビューのメリットと注意点
- 日本のセキュリティ業界への影響
AIがバグハンターになった!何が起きた?
2026年2月5日、AI開発企業のAnthropic(アンソロピック)社が最新AIモデル「Claude Opus 4.6」を発表しました。このモデルの大きな特徴は、プログラムの中に隠れたセキュリティ上の問題点(脆弱性)を自力で見つけ出す能力です。
テストでは、誰でも自由に使えるオープンソースソフトウェアを対象に調査を行い、なんと500件以上のゼロデイ脆弱性を発見しました。ゼロデイとは「まだ誰も気づいていなかった弱点」のこと。つまり、今まで人間の専門家が見逃していたバグを、AIが次々と見つけたのです。
発見されたバグはすべて、Anthropic社のセキュリティチームや外部の専門家によって実際に問題があることが確認されています。AIが「でっちあげた」わけではなく、本物の脆弱性ばかりでした。
どうやって脆弱性を見つけたのか
Anthropic社のセキュリティ専門チーム(フロンティア・レッドチーム)は、Claude Opus 4.6を仮想的なコンピュータ環境(サンドボックス)の中に置きました。
AIには、Pythonというプログラミング言語と、デバッガーやファザーといった一般的なセキュリティ分析ツールだけを与えました。特別な指示や専門知識は一切教えていません。つまり、「素手」に近い状態でバグ探しをさせたのです。
それでもClaude Opus 4.6は、人間のセキュリティ研究者のようにコードを読み解きました。たとえば、過去に修正されたバグの履歴をたどって「似たようなバグがまだ残っていないか」を探したり、プログラムの論理を深く理解して「どんな入力を与えれば壊れるか」を推測したりしたのです。
発見された脆弱性の具体例
実際にどんなバグが見つかったのか、代表的な3つを紹介します。
Ghostscript(ゴーストスクリプト)の例
GhostscriptはPDFやPostScript文書を処理する有名なソフトウェアです。通常のバグ探し手法(ファジング)では見つからなかったため、Claude Opus 4.6はGitの変更履歴を読み込むという独自のアプローチを取りました。過去の修正内容を分析した結果、スタック境界チェックが不足している箇所を発見。悪意のある文書を開くとシステムがクラッシュする可能性がありました。
OpenSC(オープンエスシー)の例
OpenSCはICカードの管理に使われるツールです。AIはstrcat()やstrrchr()といった、よく問題を起こす関数を重点的に調べました。その結果、文字列の長さを確認せずに連結する処理を発見し、バッファオーバーフロー(メモリの許容量を超えてデータが書き込まれるバグ)を特定しました。
CGIF(シージフ)の例
CGIFはGIF画像を生成するライブラリです。この脆弱性は特にユニークで、LZWという圧縮アルゴリズムの仕組みを理解していないと発見できないものでした。圧縮後のデータサイズが元のサイズより大きくなるケースを想定していなかったことが原因で、ヒープバッファオーバーフローが起きていました。
他社も参入!AIセキュリティ競争
AIを使った脆弱性発見は、Anthropic社だけの取り組みではありません。
OpenAI社も「Aardvark(アードバーク)」というAIセキュリティ研究エージェントを発表しています。GPT-5を使ったこのツールは、テストで既知の脆弱性の92%を検出し、すでに10件のCVE(共通脆弱性識別番号)を取得しています。
また、Google社のAIエージェント「Big Sleep」も深刻な脆弱性を発見した実績があります。大手AI企業がこぞってセキュリティ分野に参入しており、AIによるコード安全性チェックは新しい標準になりつつあります。
AIコードレビューのメリットと注意点
メリット
- スピード:人間が何週間もかかる分析を、AIは数時間で完了できる
- 網羅性:膨大なコードベースを漏れなくチェックできる
- パターン認識:過去の修正履歴から類似のバグを見つけ出せる
- コスト削減:セキュリティ専門家の不足を補える
注意点
- 悪用リスク:攻撃者がAIを使って脆弱性を悪用する可能性もある
- 誤検知:AIが実際には問題のないコードを「バグ」と判断することがある
- 人間の確認が必要:最終的な判断は人間のセキュリティ専門家が行うべき
- 倫理的課題:発見した脆弱性の公開タイミングや方法には慎重さが求められる
Anthropic社はこうしたリスクに対応するため、AIの内部活動を監視する「プローブ」という検知システムを導入しています。サイバー攻撃への悪用をリアルタイムで検出し、悪意あるトラフィックをブロックする仕組みです。
日本への影響と今後の展望
日本でもAIとセキュリティの関係が注目されています。IPA(情報処理推進機構)が発表した「情報セキュリティ10大脅威2026」では、「AIの利用をめぐるサイバーリスク」が初めて3位にランクインしました。
また、AIが生成したコードの約45%にセキュリティ上の問題があるという調査結果も出ています。いわゆる「バイブコーディング」(AIにおまかせでコードを書かせること)が広まるほど、脆弱なアプリが増える可能性があるのです。
つまり、AIがコードを書く時代だからこそ、AIがコードをチェックする仕組みも必要ということ。Claude Opus 4.6のような技術は、この課題に対する強力な答えになると言われています。
ちなみに、Anthropic社はGitHub ActionsやClaude Codeに自動セキュリティレビュー機能も提供しており、SQLインジェクションやXSS(クロスサイトスクリプティング)といった一般的な脆弱性を開発中に自動で検出できます。
まとめ
- Claude Opus 4.6がオープンソースの未知の脆弱性を500件以上発見した
- Ghostscript、OpenSC、CGIFなどの有名ソフトウェアで重大なバグが見つかった
- 特別な指示なしに、人間の研究者のようにコードを読み解いてバグを発見
- OpenAIやGoogleも同様のAIセキュリティツールを開発中
- 日本でも「AIリスク」がセキュリティ10大脅威に初ランクイン
- AIがコードを書く時代だからこそ、AIによるセキュリティチェックが不可欠に


