- GPT-5.3-Codex System CardはOpenAIが公開した、コーディングAIモデルの安全性評価レポート
- サイバーセキュリティ能力が「High」評価——OpenAI史上初。実害を生む可能性を排除できないため予防的措置として分類
- 脆弱性発見に特化した訓練を実施。防御者を加速しつつ、悪用を抑制する「多層防御」設計
- 自律的なコーディング能力がもたらすリスクと、サンドボックス・権限制御による安全策を詳述
- 「自分自身を作ったAI」のセルフビルド能力についても安全性の観点から評価
「AIがコードを書ける」のは便利ですが、「AIが脆弱性を見つけ、悪用できるコードを書ける」としたら?OpenAIが2026年2月に公開したGPT-5.3-Codex System Cardは、コーディングAIの安全性を徹底評価した文書です。サイバーセキュリティ能力が初めて「High」に分類された衝撃と、それに対するOpenAIの多層防御戦略を解説します。
System Cardとは?|AIの「セキュリティ監査報告書」
System Cardは、AIモデルの能力・リスク・安全対策を透明に開示する公式文書です。
- 目的 — AIモデルがどんな能力を持ち、どんなリスクがあり、どんな対策が取られているかを開発者・ユーザー・規制当局に開示
- GPT-5.3-Codex版の特徴 — コーディングに特化したモデルのため、サイバーセキュリティリスクと自律的コード実行のリスクに重点
- Preparedness Framework — OpenAIが策定した「準備態勢フレームワーク」に基づき、サイバーセキュリティ・生物学的脅威・説得/操作・自律性の4領域を評価
たとえるなら、System Cardは「新型車の衝突安全テスト結果」。メーカーが「この車はこういう事故に強いが、こういう状況では弱点がある」と正直に公開する——AIでも同じ透明性が求められる時代です。
サイバーセキュリティ「High」評価の衝撃
GPT-5.3-Codex System Cardの最大のポイントは、サイバーセキュリティ能力が「High」に分類されたことです。
- OpenAI史上初 — Preparedness Frameworkでサイバーセキュリティが「High」と評価された初めてのモデル
- 予防的アプローチ — OpenAIは「モデルがHighの閾値に達する決定的な証拠はないが、その可能性を排除できない」として予防的にHighに分類
- 意味 — モデルが十分なコーディング能力と推論能力を持ち、実世界のサイバー攻撃を意味のある形で支援できる可能性がある
- デュアルユース — サイバーセキュリティは本質的に「防御」と「攻撃」の両面がある。脆弱性を見つける能力は、修正にも悪用にも使える
たとえるなら、GPT-5.3-Codexは「免許を持つ鍵師」。鍵を開ける技術は防犯にも犯罪にも使える——OpenAIは「まず防犯に使えるようにしつつ、犯罪への悪用を抑制する」というアプローチを採用しています。
多層防御戦略|攻撃者を妨害し、防御者を加速
「High」評価に対するOpenAIの安全策は、多層的な防御スタックです。
- 安全訓練 — モデルレベルで、有害なコード生成や脆弱性の悪用方法の出力を抑制するよう訓練
- 自動監視 — AIの出力をリアルタイムで監視し、悪意ある利用パターンを検知
- 信頼アクセス制御 — 高度な機能へのアクセスに、信頼されたユーザーの認証を要求
- 脅威インテリジェンス — 悪用の試みを追跡し、脅威情報を蓄積・共有するパイプラインを構築
- 防御者への優先提供 — セキュリティ研究者やバグバウンティハンターに、脆弱性発見ツールとしてCodexを積極的に提供
自律的コード実行のリスクと安全策
GPT-5.3-Codexはクラウドサンドボックス内で自律的にコードを実行する能力を持っています。このリスクに対する安全策も詳述されています。
- サンドボックス隔離 — 各タスクが独立した隔離環境で実行される。ホストシステムや他のタスクへの影響を遮断
- 権限の最小化 — エージェントが持つ権限を必要最小限に制限。ファイルシステムの外部アクセスや、ネットワーク通信を制限
- 人間の監視 — 重要な操作(PR作成、デプロイ等)には人間のレビューと承認が必要
- タイムアウト — 長時間実行されるタスクに自動タイムアウトを設定し、暴走を防止
「自分を作ったAI」の安全性評価
GPT-5.3-Codexは自身の訓練プロセスのバグ修正に使用された初のモデルです。この「セルフビルド」能力についても安全性の観点から評価されています。
- 自己改善のリスク — AIが自身を改善・修正する能力は、制御不能な「暴走」のリスクを含む
- 現時点の評価 — GPT-5.3-Codexのセルフビルド能力は限定的な範囲(バグ修正、スクリプト作成)に留まり、「自律的な自己改善」のレベルには達していない
- 監視体制 — セルフビルドの過程は人間のエンジニアが監督し、すべての変更にレビューが必要
他のSystem Cardとの比較
- GPT-5.3 Instant System Card — 会話モデルの安全性。sycophancy削減とハルシネーション削減が焦点
- GPT-5 System Card — GPT-5ファミリー全体の安全性評価
- Claude Model Card(Anthropic) — Constitutional AIに基づく安全設計を開示
- GPT-5.3-Codex System Card — コーディング特化モデルのサイバーセキュリティリスクに焦点。「High」評価と多層防御が特徴
よくある質問(FAQ)
Q. 「High」評価は危険ということですか?
「High」はモデルが十分な能力を持つ可能性があることを示す予防的な分類です。実際に害が発生したわけではなく、OpenAIが予防的に安全策を強化したことを意味します。
Q. GPT-5.3-Codexで攻撃用コードを作れますか?
OpenAIは安全訓練と自動監視により、攻撃用コードの生成を抑制しています。完全にゼロにはできませんが、多層防御により悪用の障壁を高めています。
Q. System Cardは一般人が読んで理解できますか?
技術的な内容も含まれますが、概要セクションは一般ユーザーにも理解しやすく書かれています。OpenAIの公式サイトで無料で閲覧できます。
Q. セルフビルド能力は将来的にリスクになりますか?
現時点では限定的ですが、将来的なAIの自己改善能力はAI安全研究の重要テーマです。OpenAIはPreparedness Frameworkで継続的にモニタリングしていると述べています。
まとめ
この記事のポイントを振り返りましょう。
- GPT-5.3-Codex System Cardは、コーディングAIの安全性を透明に開示した公式レポート
- サイバーセキュリティ能力がOpenAI史上初の「High」評価。予防的アプローチで安全策を強化
- 多層防御戦略:安全訓練・自動監視・信頼アクセス・脅威インテリジェンスの4層で悪用を抑制
- 自律的コード実行はサンドボックス隔離と権限最小化で安全性を確保
- AIの能力が向上するほど透明性と安全策の重要性も増大——System Cardはその架け橋
GPT-5.3-Codex System Cardが示したのは、「AIの能力向上と安全性は切り離せない」という現実です。
コードを書けるAIは、脆弱性も見つけられる。
その力をどう制御するか——技術の進歩と安全の確保を両立させるOpenAIの取り組みは、AI業界全体の試金石です。
参考文献
- OpenAI. (2026). GPT-5.3-Codex System Card. OpenAI
- OpenAI. (2026). GPT-5.3-Codex System Card (PDF). OpenAI PDF
- Fortune. (2026). OpenAI’s new model leaps ahead in coding capabilities—but raises unprecedented cybersecurity risks. Fortune
- OpenAI. (2026). GPT-5.3-Codex System Card – Deployment Safety Hub. OpenAI Deployment Safety
- Ignorance.ai. (2026). GPT-5.3-Codex and Claude Opus 4.6: More System Card Analysis. Ignorance.ai


