エージェント型AI:サイバー攻撃の様相を変える2026年の脅威増幅要因

2026年2月27日、Christine Barry
自律的なエージェント型AIが攻撃を加速させる仕組みと防御側が取り入れるべき対策
要点
- 生成AIとは異なり、エージェント型AIは自ら計画・適応し、継続的かつ自律的に行動することができます。これにより、多段階攻撃が持続的に行われるようになります。
- 強固なアイデンティティ管理、ネットワークのセグメント化、行動ベースの検知を一貫して実施すれば、エージェント型AIによる攻撃に対しても効果を発揮できます。
- エージェント型AIは失敗しても停止せず、自律的に再試行や適応を行います。脅威モデルやインシデント対応計画には、この特性を踏まえた設計が求められます。
2026年にはいくつかの新しい脅威が発生していますが、これらの多くの脅威は以前から活動しているグループによってもたらされています。QilinやCl0pのようなランサムウェアグループは新しいものではありませんが、攻撃のスピードを上げ、より高度な手法を駆使するようになっています。DireWolfやThe Gentlemenは2025年に確認されたサイバー攻撃グループですが、2026年には攻撃のスピードを高めており、数百の新しい被害者を生み出しています。
2026年における最も危険な新しい脅威の一つは、特定のグループではなく、新たな能力を付与し、攻撃をより高速化するツールです。攻撃者はこの数年間、生成AIを利用してフィッシングコンテンツを作成・ローカライズしたり、標的を感染させるマルウェアを開発したりしてきました。その結果、認証情報の窃取や初期アクセスの取得は加速されましたが、確認画面での入力や出力の精査、次の行動の決定には依然として人間の判断が不可欠です。
エージェント型AIは、このようなセキュリティ環境における新たなタイプの脅威となります。生成AIが攻撃者に優れたツールを提供するのに対し、エージェント型AIは、攻撃者の関与を必要とせず、計画、行動、観察、適応、継続を自律的に行う協力的なパートナーとして機能します。これにより、攻撃はより高速かつ大規模になり、被害者にとってさらに危険になります。
エージェント型AIとは?
エージェント型AIは単一のプロダクトやツールではなく、特定の目標に向けて複数ステップの行動を計画・判断・実行できるシステムアーキテクチャです。これらのシステムは通常、リアルタイムで行動を適応できる複数のAIエージェントをオーケストレーションします。エージェント型AIシステムには一般的に次の要素が含まれます。
- 推論やコンテンツ生成のための大規模言語モデル(LLM)や生成AI
- API、スキャナー、スクリプトなどのツール
- ステップ全体の進行状況を追跡するメモリ
- システムが学習し、将来の行動を調整できるフィードバックループ
- 何を実行し、何を実行しないかを定めたポリシーやルール
これらの要素が組み合わさることで、エージェント型AIは、目標指向的で自己駆動の攻撃を実行できるようになります。生成AIは「適切なプロンプトを与えれば優れた成果を出す存在」であり、エージェント型AIは「目標を与えればプロジェクトを遂行できる存在」と言えるでしょう。エージェント型AIは、リソースを組み合わせ、作業を調整し、目標を自律的に追求できます。簡単に言えば、エージェント型AIは、単一のサイバー攻撃グループに対して、複数の独立した攻撃者たちを提供するような存在です。エージェント型AIは、攻撃を実行し、その場で意思決定ができるオペレーターです。攻撃がブロックされた場合でも、攻撃者はマルウェアや戦術を手動で調整する必要はありません。エージェント型AIが、標的のシステムで対応と適応を継続し、作戦が完了するか停止されるまで攻撃を続行します。これまで経験豊富なサイバー攻撃者が数日から数週間かけて計画・調整・実行していた作業も、エージェント型AIに委任され、目標が達成されるか停止されるまで継続実行されるようになります。
これらの攻撃はまだ出現し始めたばかりですが、今年を通じて加速することは間違いないでしょう。レッドチームやセキュリティ研究者はすでに制御された環境でエージェント型AIによる攻撃能力を実証しており、犯罪グループも迅速にその展開を進めています。具体例として、あるサイバー攻撃者が FortiGate ファイアウォールを標的にアクセスを獲得し、被害者ネットワークの偵察を行ったエージェント型AIによる攻撃が確認されています。攻撃の詳細な分析はこちらで確認できます。
エージェント型AIによる攻撃に対する防御
注目すべき点は、このような自律型攻撃に対して重要な防御策がすでに実用可能であることです。強力なアイデンティティ管理、ネットワークのセグメント化、行動ベースの検知、そして迅速かつ訓練されたインシデント対応により、これらの攻撃を防ぐか、被害を最小限に抑えることが可能です。防御側と攻撃側におけるテクノロジーギャップは確かに存在しますが、克服できないものではありません。
重要なのは、防御側による脅威の考え方を変えることです。脅威モデルは、これまでにない速度で自律的に行動する攻撃エージェントに対して、防御がどれだけ耐えられるかを基準に構築する必要があります。攻撃がシステム内部に侵入した際、エージェント型AIの高度な知性、適応能力、そして持続力に防御が耐えられるでしょうか?偵察活動は、特定の事前攻撃フェーズに限られるものではなく、継続的かつ自律的に行われることにも注意しなければなりません。また、一度攻撃がブロックされた場合でも、エージェント型AIがそのブロックに適応すると自動的に再開されます。エージェント型AIによる攻撃を封じるには、完全に排除しなければなりません。
さらに、システムには行動および異常ベースの検知モニタリングも組み込む必要があります。管理ツールや自動化プラットフォーム、サービスアカウントへの通常とは異なるパターンのアクセスを監視してください。
エージェント型AIは、サイバー攻撃の計画や実行方法に根本的な変化をもたらしますが、防御は不可能ではありません。強力なアイデンティティ管理、行動ベースの検知、迅速なインシデント対応に投資する組織は、自律的な攻撃が目的を達成する前に阻止できる可能性が最も高くなります。エージェント型AIによる攻撃に対応した防御体制を整えていない場合は、今すぐ取り組みを始めてください。
原文はこちら:
Agentic AI: The 2026 threat multiplier reshaping cyberattacks
Feb.27, 2026 Christine Barry
https://blog.barracuda.com/2026/02/27/agentic-ai–the-2026-threat-multiplier-reshaping-cyberattacks















