2026年4月14日、OpenAIはサイバーセキュリティ専用AIモデル「GPT-5.4-Cyber」を発表しました。同社の最新モデルGPT-5.4をベースに、防衛目的のセキュリティ業務に特化してファインチューニングしたモデルで、身元確認済みのセキュリティ専門家に段階的に提供されます。
この発表は、Anthropicが約40の厳選組織にのみClaude Mythos Previewを提供すると発表した1週間後に行われたもので、AIとサイバーセキュリティをめぐるOpenAIとAnthropicの戦略の違いが鮮明に表れた形です。
GPT-5.4-Cyberとは
GPT-5.4-Cyberは、OpenAIの最新フロンティアモデル「GPT-5.4」をサイバーセキュリティの防衛業務向けに特化させた派生モデルです。
通常のGPT-5.4は、セキュリティ上のリスクを考慮して、脆弱性の分析や悪用可能な攻撃手法に関わるリクエストに対しては回答を制限する設計になっています。GPT-5.4-Cyberはこの制限の閾値を、身元確認済みのセキュリティ専門家に限定したうえで意図的に引き下げたモデルです。
正規のセキュリティ業務において「一般ユーザー向けには適切な制限でも、サイバーセキュリティ業務の担当者にとっては業務の妨げになる」という問題に対応しています
OpenAI自身のPreparedness Framework(開発中AIの能力評価基準)では、標準のGPT-5.4はサイバー能力において「High(高)」に分類されています。GPT-5.4-Cyberはそこからさらに踏み込んだ設計であり、防衛用途に限った高度な能力が有効化されています。
一般向けの「GPT-5.4」との違い
GPT-5.4とGPT-5.4-Cyberは名称が近いため混同されやすいですが、提供経路も対象ユーザーも異なります。ChatGPT PlusやProプランを契約していても、そのままGPT-5.4-Cyberにアクセスできるわけではありません。
TACプログラム自体は2026年2月5日に先行して立ち上がっており、今回の4月14日の発表でGPT-5.4-Cyberがモデルとして追加された形です。GPT-5.4-Cyberはその最上位に位置するモデルで、TAC参加者の中でも限られたユーザーしか現時点では使用できないことに注意です。
| 項目 | GPT-5.4 | GPT-5.4-Cyber |
|---|---|---|
| 発表日 | 2026年3月5日 | 2026年4月14日 |
| 主な対象 | 一般ユーザー・開発者・企業 | 身元確認済みのサイバーセキュリティ専門家 |
| 提供経路 | ChatGPT・API・Codexの一般ラインから利用可能 | Trusted Access for Cyber(TAC)の上位ティアのみ |
| アクセス条件 | プランへの加入 | 本人確認・組織確認・TACの上位ティア承認 |
| 制限の設定 | 標準的なセーフガード付き | 防御業務向けに制限を意図的に引き下げた構成 |
GPT-5.4-Cyberの主な3つの特徴
①バイナリリバースエンジニアリングへの対応
GPT-5.4-Cyberの最大の新機能がバイナリリバースエンジニアリングへの対応です。
ソフトウェアは通常、人間が書いたソースコードをコンピュータが実行できる形式(バイナリファイル)に変換して配布されます。
マルウェアや怪しいソフトウェアを調査する際、多くの場合ソースコードは入手できないため、セキュリティ研究者はバイナリファイルから直接動作の仕組みを解析する「リバースエンジニアリング」という手法を使います。
これまでこの作業は高度な専門知識を持つアナリストのみが担える領域でした。GPT-5.4-Cyberはバイナリファイルを直接入力として受け取り、マルウェアの可能性・脆弱性・セキュリティ上の問題点を構造的に分析して返せるため、ソースコードなしにソフトウェアの内部を調べる作業を大幅に効率化できます。
②セキュリティ対策業務向けの制限緩和
脆弱性調査・エクスプロイト(攻撃コード)分析・マルウェア解析といった、通常のモデルでは回答が制限されるリクエストに対して、GPT-5.4-Cyberは身元確認済みユーザー向けに応答を返せるよう設定されています。これにより、セキュリティアナリストやペネトレーションテスター(擬似的な侵入テストを行う専門家)が、AIにたびたびブロックされることなく業務フローを構築できるようになります。
③エージェント型動作により、セキュリティタスクの自動化
GPT-5.4-Cyberは複数ステップにわたるセキュリティタスクを自律的に処理するエージェント型の動作にも対応しています。コードベースの継続的な監視・問題の自動検証・修正パッチの提案といったワークフローを自動化できます。
OpenAIはこの機能の実績として、Codex Securityがリリース以来3,000件以上の重大・高リスクの脆弱性修正に貢献していると報告しています。
GPT-5.4-Cyberへのアクセス方法
GPT-5.4-Cyberは誰でも使えるモデルではなく、OpenAIが2026年2月に立ち上げた「Trusted Access for Cyber(TAC)」プログラムを通じて、身元確認を経たユーザーのみが利用できます。

引用:OpenAI
TACの仕組みと階層構造
TACは身元確認のレベルに応じた複数の利用Tier(階層)で構成されており、上位の階層ほど強力なモデルと高度な機能へのアクセスが解放されます。GPT-5.4-Cyberへのアクセスが認められるのは最上位ティアの認証を受けたユーザーに限定されています。
今回の拡張により、TACの対象規模は数千人の個人セキュリティ専門家と、重要なソフトウェアインフラを担当する数百のチームに広がりました。2月の初期立ち上げ時の限定的なパイロット規模から大幅に拡大された形です。
個人ユーザーでの申し込みの場合:個人申請用のフォームにアクセスして本人確認を行い、TACプログラムへの参加申請を行います。
企業・チームでの申し込みの場合:申請フォームからOpenAIへコンタクトを取り、OpenAIの担当者を通じてアクセス申請を行います。
参考:OpenAI
GPT-5.4-Cyberが対応しているユースケース
OpenAIが公式に明示している対応ユースケースは以下の4つです。
- 脆弱性調査:ソフトウェアやインフラの弱点を体系的に探索・分析する
- エクスプロイト分析:既知・未知の攻撃コードの仕組みや影響範囲を調べる
- マルウェア解析:悪意あるソフトウェアの動作・目的・感染経路を特定する
- エージェント型セキュリティ自動化:複数ステップにわたる監視・検証・修正を自律的に処理する
いずれも「通常モデルでは回答の制限がかかりやすい」領域であり、TACの身元確認を経たユーザーに限って解放されます。
GPT-5.4-Cyberの料金は現在非公開
GPT-5.4-Cyberの料金体系は、2026年4月15日時点でOpenAIから公式に発表されていません。
TACプログラムへの参加や上位ティアのアクセスにかかるコストの詳細は現時点では不明で、個人ユーザーはchatgpt.com/cyber、法人はOpenAI担当者への問い合わせを通じて確認する必要があります。
GPT-5.4-Cyberでできないこと・制限事項
制限緩和がされているからといって、あらゆるセキュリティ関連の行為が許容されるわけではありません。OpenAIが明示している通り、以下のような行為はGPT-5.4-Cyberでも対象外です。
- マルウェアの作成・配布:防衛目的ではなく攻撃に使うコードの生成は対象外
- 無断の侵入テスト:対象システムの所有者から許可を得ていない侵入テスト(ペネトレーションテスト)への利用
- データ窃取の支援:他者のシステムからデータを不正に取得する行為の支援
- サイバー攻撃への転用:TACで与えられた高度な能力を防衛以外の目的に使うこと
また、モデル悪用防止の観点から、いくつかの制限も設けられています。データの透明性が確保されない環境(ゼロデータリテンション環境など)での利用は制限されます。
また、OpenAIが直接利用環境や目的を把握しにくいサードパーティプラットフォーム経由のアクセスには追加の制限が設けられます。
Anthropicの「Claude Mythos」「Project Glasswing」との違い
GPT-5.4-Cyberの発表は、AnthropicがClaude Mythos PreviewとProject Glasswingを発表した1週間後のタイミングで行われました。両者はともに「AIをサイバー防衛に活用する」という方向性で一致していますが、アプローチが大きく異なります。
Claude Mythosとは
Claude Mythosは、Anthropicが2026年4月7日に発表した同社史上最高性能のAIモデルです。コーディング・論理推論・自律的なタスク実行に優れた汎用モデルとして開発されましたが、その能力の組み合わせがサイバーセキュリティの分野で想定外のレベルの性能を発揮しました。
Anthropicの内部テストでは、MythosがWindowsやmacOSをはじめとする主要なすべてのOSと、ChromeやSafariなどすべての主要ブラウザで、これまで誰も知らなかった脆弱性(ゼロデイ脆弱性)を自律的に発見・悪用できることが確認されました。OpenBSDに27年間存在していた未発見のバグを発見したほか、FreeBSDのNFSサーバーに17年間潜んでいた脆弱性を発見・悪用するコードまで自律的に書き上げるなど、前世代モデルとは質的に異なる能力を示しています。
こうした能力が攻撃者に渡れば大規模なサイバー攻撃が可能になるとして、AnthropicはMythosを一般公開せず、「Project Glasswing(プロジェクト・グラスウィング)」と呼ばれる枠組みのもとでAmazon・Apple・Microsoft・Googleなど12のコアパートナーと約40の追加組織に防衛目的限定で提供しています。Anthropicはこの取り組みに最大1億ドルの利用クレジットを提供しており、防衛側が攻撃者より先に脆弱性を修正できる環境を作ることを目的としています。
2026年4月7日、AnthropicがClaude MythosのPreview版を発表しました。同社の現時点での最高性能モデルですが、Anthropicは一般提供はしないと明言しています。 モデル発表と同時にAma[…]
GPT-5.4-CyberとClaude Mythosの違い
Anthropicは「Claude Mythos Previewの能力は一般公開するには危険すぎる」として、Apple・Microsoft・Googleなど12社と40組織への厳格な限定提供を選びました。一方OpenAIは「制限するのではなく、誰が使うかを確認する」というアプローチをとり、身元確認を経た数千人規模の防衛者に広く提供します。
The Next Webはこの対比を「Anthropicが極限まで絞った招待制を選ぶ一方、OpenAIは広く確認済みの防衛者にアクセスを解放することに賭けた」と表現しています。
参考:The Next Web
性能面ではMythos Previewの方が上回るとされますが、OpenAIは「より多くの防衛者が使えることで、攻撃者に対して防衛側が優位に立てる」という考え方を取っています。
GPT-5.4-CyberとClaude Mythos Previewの定量的なベンチマーク比較は現時点では公開されていません。Mythosは独自のサイバーセキュリティ評価指標(CyberGym: 83.1%)で前世代(Claude Opus 4.6)を大きく上回ることが公表されていますが、GPT-5.4-Cyberの同指標スコアはOpenAIから発表されておらず、性能差の定量的な検証は現時点では行えない状況です。
| 比較項目 | GPT-5.4-Cyber(OpenAI) | Claude Mythos Preview(Anthropic) |
|---|---|---|
| モデルの性能 | GPT-5.4ベース | Claudeモデル史上最高性能(全ベンチマークで上回る) |
| アクセス規模 | 数千の個人+数百チーム | 12のコアパートナー+約40組織 |
| アクセス方法 | 身元確認による段階的な開放 | 厳選招待制のみ |
| 提供の哲学 | 「広く確認済みの防衛者に使わせる」 | 「危険すぎるため極限まで絞る」 |
| 利用目的 | 防衛業務全般(個人含む) | 重要インフラの防衛に限定 |
まとめ
GPT-5.4-Cyberは、OpenAIが2026年4月14日に発表したGPT-5.4ベースのサイバー防衛専用モデルです。バイナリリバースエンジニアリング機能の追加と防衛業務向けの制限緩和が主な特徴で、Trusted Access for Cyber(TAC)プログラムを通じた身元確認済みユーザーへの段階的提供という形をとります。
Anthropicの厳格な招待制(約40組織限定)に対して、OpenAIは「広く確認済みの防衛者に届ける」という方向性を打ち出しており、サイバーセキュリティAIをめぐる両社のモデル運用の方向性の違いが明確になっています。どちらのモデルにおいても、現在使用できるユーザーは限られた一部のユーザーであり、一般公開は先の話になるのではないかと思われます。今後も情報更新があり次第、ご紹介します。