OpenAI、AIモデルのサイバーセキュリティに関する警告を共有

2025年12月16日、Mike Vizard
AIイノベーションがもたらす利点とサイバーリスクの両面に対応する
主なポイント
- OpenAIは、将来のAIモデル、特に大規模言語モデル(LLM)に基づくモデルが、高度なサイバーセキュリティ能力を備えるようになり、サイバー犯罪者に悪用される可能性があると警告しています。
- 同社は、安全でない活動を検知するためにモデルの利用状況を監視するとともに、安全対策の強化に向けてレッドチーム組織と連携しています。
- セキュリティ研究の用途に特化して訓練されたAIエージェント「Aardvark」は、開発者やセキュリティチームが脆弱性を特定するのを支援するためにプライベートベータ版として提供されており、一部のオープンソースプロジェクトには無償で提供されます。
- OWASP GenAI Security ProjectやNISTによるAIセキュリティの分類体系整備などの取り組みは、AIテクノロジーの進化に伴う新たな脅威の理解と緩和に役立っています。
OpenAIは、自社の大規模言語モデル(LLM)を基盤とする次世代の人工知能(AI)モデルが、高度なサイバーセキュリティ能力を持つようになり、それがサイバー犯罪者によって悪用される可能性があると警告しています。
OpenAIのブログ記事は、サイバー犯罪者がLLMを用いて、防御が堅固なシステムに対して実際に機能するゼロデイのリモートエクスプロイトを開発したり、複雑で秘匿性の高い侵入を支援したりすることを、サイバーセキュリティチームが想定すべきであると推奨しています。
OpenAIは、自社モデルの潜在的な悪用を最小化するため、明確なサイバー不正利用につながる要求に対して安全に応答するようモデルを訓練するなどの取り組みを進めており、同時に教育目的や防御用途では引き続き有用性を維持するよう努めています。
さらに、LLMの利用状況を監視し、安全でない活動を検知した場合にはブロックする、あるいは能力の低いモデルへ振り分ける方針を表明しています。同時に、レッドチーム組織と連携し、安全対策の評価と改善を進めています。
また、OpenAIは、信頼済み利用者向けアクセスプログラムを追加する計画であり、サイバー防御に取り組む適格なユーザーや顧客に対して、防御用途に限定した強化されたAIモデル機能への段階的アクセスの提供を検討しています。加えて、経験豊富なセキュリティ専門家が同社チームと密接に連携する諮問グループ「Frontier Risk Council」も設立する予定です。さらに、脅威モデルとベストプラクティスに関する共通理解の促進を目的とした非営利コンソーシアム「Frontier Model Forum」とも協力しています。
最後に、OpenAIは「Aardvark」をプライベートベータ版として提供していることにも言及しています。Aardvarkは、開発者やセキュリティチームが脆弱性を発見し修正できるよう支援するための、セキュリティ研究者として訓練されたAIエージェントです。ソフトウェアサプライチェーンの改善を目的として、一部の非営利オープンソースリポジトリに対して無償での提供も計画しています。
AIイノベーションと新たなサイバーセキュリティリスクのバランス
もちろん、OpenAIが開発するAIモデルは、現在多数あるオプションの一つに過ぎず、その多くも同様に、悪意ある主体による悪用という観点でも、今後さらに高度化していくと考えられます。実際、Anthropicは先月、中国を拠点とする国家主体の脅威アクターが同社のClaude AIモデルを悪用し、一連のサイバースパイ活動を実行したと公表しました。この事例は、将来、AIおよび関連エージェントが攻撃者によってどのように利用される可能性があるかを示す雛形となり得ます。
名称が公表されていない当該グループは、Claude Codeを使用し、20以上の組織を標的としたキャンペーンを展開しました。このキャンペーンでは、攻撃実行プロセスの80~90%が自動化され、各侵害ごとに人間の介入が必要だったのは4~6の重要な意思決定ポイントのみでした。
一方で、AIセキュリティの強化を支援する取り組みも進められています。最近では、OWASP GenAI Security Projectが、AIエージェントの構築と導入で組織が直面する可能性が高いセキュリティ脅威のトップ10リストを公開しました。また、米国国立標準技術研究所(NIST)は、AIエージェントを保護するための攻撃手法と緩和策の分類体系を整備しています。
現時点では、サイバーセキュリティの観点から、AIが諸刃の剣であることに疑いの余地はほとんどありません。それでも、最終的にサイバーセキュリティチームが攻撃者よりもAIの恩恵を多く受けることが期待されています。しかし、これまでに見られる初期の兆候を踏まえると、サイバーセキュリティチームは最悪の事態が起きる可能性も視野に入れて、今から備え始めることが賢明であると考えられます。
原文はこちら:
OpenAI shares AI model cybersecurity warning
Dec. 16, 2025 Mike Vizard
https://blog.barracuda.com/2025/12/16/openai-ai-model-cybersecurity-warning















