サイバーセキュリティへのAIの導入:宣伝文句を超えて
今日のセキュリティオペレーションはパラドックスに直面しています。業界ではAI(Artificial Intelligence)が全面的な変革を約束し、ルーチンタスクを自動化することにより検知と対処が強化されると言われています。しかしその一方で、セキュリティリーダーは意味のあるイノベーションとベンダーの宣伝文句を区別しなければならないという大きなプレッシャーに直面しています。
CISOとセキュリティチームがこの状況を乗り越えるのを支援するため、私たちは業界で最も詳細、かつアクション可能なAI成熟度モデルを作成しました。AIおよびサイバーセキュリティ分野のエキスパートと協力して作成したこの枠組みは、セキュリティライフサイクル全体を通じてAIの導入を理解し、測定し、進めていくためのしっかりとした道筋を提供します。

なぜ成熟度モデル?なぜ今必要?
セキュリティリーダー達との対話と調査の中で繰り返し浮かび上がってきたテーマがあります。
それは、AIソリューションはまったく不足していないが、AIのユースケースの明瞭性と理解が不足している、ということです。
事実、Gartner社は「2027年までに、エージェント型AIプロジェクトの40%以上が、コスト上昇、不明瞭なビジネス上の価値、あるいは不十分なリスク制御を理由として打ち切られるだろう」と予測しています。多くのセキュリティチームが実験を行っていますが、その多くは意味のある成果を得られていません。セキュリティの向上を評価し情報に基づいた投資を行うための、標準化された方法に対する必要性はかつてなく高まっています。
AI成熟度モデルが作成されたのはこのような背景によるものであり、これは次を行うための戦略的枠組みです:
- 人手によるプロセス(L0)からAIへの委任(L4)に至る5段階の明確なAI成熟度を定義
- エージェント型生成AIと専用AIエージェントシステムから得られる結果を区別
- リスク管理、脅威検知、アラートトリアージ、インシデント対応といった中核的な機能にわたって評価
- AI成熟度を、リスクの削減、効率の向上、スケーラブルなオペレーションなど、現実の成果に対応させる
[related-resource]
このモデルで成熟度はどのように評価されるか?
「サイバーセキュリティにおけるAI成熟度モデル」は、世界で10,000社に及ぶDarktraceの自己学習型AIおよびCyber AI Analystの導入例から得られたセキュリティオペレーションの知見に基づいています。抽象的な理論やベンダーのベンチマークに頼るのではなく、このモデルは実際にセキュリティチームが直面している課題に基づき、AIがどこに導入されているか、どのように使用されているか、そしてどのような成果をもたらしているかを反映しています。
こうした現実に即した基盤により、このモデルはAI成熟度に対する実務的な、体験に基づいた視点を提供します。セキュリティチームが現在の状態を把握し、同じような組織がどのように進化しているかに基づいて現実的な次のステップを知るのに役立ちます。
Darktraceを選ぶ理由
AIは2013年のダークトレースの設立以来そのミッションの中心であり、単なる機能ではなく、企業の基盤です。10年以上にわたりAIを開発し現実のセキュリティ環境にAIを適用してきた経験から、私たちはAIがどこに有効で、どこに有効でないか、そしてAIから最も大きな価値を得るにはどうすべきかを学びました。
私たちは、現代のビジネスが膨大な、相互に接続されたエコシステム内で動いていること、そしてそこには従来のサイバーセキュリティアプローチの維持を不可能にする新たな複雑さや脆弱さが生まれていることを知っています。多くのベンダーは機械学習を使用していますが、AIツールはそれぞれ異なり、どれも同じように作られているわけではありません。
Darktraceの自己学習型AIは多層的なAIアプローチを使用して、それぞれの組織から学習することにより、現代の高度な脅威に対するプロアクティブかつリジリエントな防御を提供します。機械学習、深層学習、LLM、自然言語処理を含む多様なAIテクニックを戦略的に組み合わせ、連続的、階層的に統合することにより、私たちの多層的AIアプローチはそれぞれの組織専用の、変化する脅威ランドスケープに適応する強力な防御メカニズムを提供します。
この成熟度モデルはこうした知見を反映し、セキュリティリーダーが組織の人、プロセス、ツールに適した適切な道筋を見つけるのに役立ちます。
今日のセキュリティチームは次のような重要な問いに直面しています:
- AIを具体的に何のために使うべきか?
- 他のチームはどのように使っているのか?そして何が機能しているのか?
- ベンダーはどのようなツールを提供しているのか、そして何が単なる宣伝文句なのか?
- AIはSOCの人員を置き換える可能性があるのか?
これらはもっともな質問ですが、簡単に答えられるとは限りません。それが、私たちがこのモデルを作成した理由です。セキュリティリーダーが単なるバズワードに惑わされず、SOC全体にAIを適用するための明確かつ現実的な計画を作成するのを助けるために、このモデルが作成されました。
構成:実験から自律性まで
このモデルは5つの成熟段階で構成されています:
L0 – 人手によるオペレーション:プロセスはほとんどが人手によるものであり、一部のタスクにのみ限定的な自動化が使用されます。
L1 – 自動化ルール:人手により管理されるか、外部ソースからの自動化ルールとロジックが可能な範囲で使用されます。
L2 – AIによる支援:AIは調査を支援するが、良い判断をするかどうかは信頼されていません。これには人手によるエラーの監視が必要な生成AIエージェントが含まれます。
L3 – AIコラボレーション:組織のテクノロジーコンテキストを理解した専用のサイバーセキュリティAIエージェントシステムに特定のタスクと判断を任せます。生成AIはエラーが許容可能な部分に使用が限定されます。
L4 – AIに委任:組織のオペレーションと影響について格段に幅広いコンテキストを備えた専用のAIエージェントがほとんどのサイバーセキュリティタスクと判断を単独で行い、ハイレベルの監督しか必要としません。
それぞれの段階が、テクノロジーだけではなく、人とプロセスもシフトすることを表しています。AIが成熟するにつれ、アナリストの役割は実行者から戦略的監督者へと進化します。
セキュリティリーダーにとっての戦略上の利益
成熟度モデルの目的はテクノロジーの導入だけではなく、AIへの投資を測定可能なオペレーションの成果に結びつけることです。AIによって次のことが可能になります:
SOCの疲労は切実、AIが軽減に貢献
ほとんどのセキュリティチームは現在もアラートの量、調査の遅延、受け身のプロセスに苦労しています。しかしAIの導入には一貫性がなく、多くの場合サイロ化しています。上手く統合すれば、AIはセキュリティチームの効率を高めるための、意味のある違いをもたらすことができます。
生成AIはエラーが起こりやすく、人間による厳密な監視が必要
生成AIを使ったエージェント型システムについては多くの誇大広告が見られますが、セキュリティチームはエージェント型生成AIシステムの不正確性とハルシネーションの可能性についても考慮に入れる必要があります。
AIの本当の価値はセキュリティの進化にある
AI導入の最も大きな成果は、リスク対策から検知、封じ込め、修復に至るまで、セキュリティライフサイクル全体にAIを統合することから得られます。
AIへの信頼と監督は初期段階で必須となるが次第に変化する
導入の初期段階では、人間が完全にコントロールします。L3からL4に到達する頃には、AIシステムは決められた境界内で独立して機能するようになり、人間の役割は戦略的監督になります。
人間の役割が意味のあるものに変化する
AIが成熟すると、アナリストの役割は労働集約的な作業から高価値な意思決定へと引き上げられ、重要な、ビジネスへの影響が大きいアクティビティやプロセスの改良、AIに対するガバナンスなどに集中できるようになります。
成熟度を定義するのは宣伝文句ではなく成果
AIの成熟度は単にテクノロジーが存在しているかどうかではなく、リスク削減、対処時間、オペレーションのリジリエンスに対して測定可能な効果が見られるかどうかで決まります。
[related-resource]
AI成熟度モデルの各段階の成果
セキュリティ組織は人手によるオペレーションからAIへの委任へと進むにつれてサイバーセキュリティの進化を体験するでしょう。成熟度の各レベルは、効率、精度、戦略的価値の段階的変化を表しています。
L0 – 人手によるオペレーション
この段階では、アナリストが手動でトリアージ、調査、パッチ適用、報告を、基本的な自動化されていないツールを使って行います。その結果、受け身の労働集約的なオペレーションになり、ほとんどのアラートは未調査のままとなり、リスク管理にも一貫性がありません。
L1 – 自動化ルール
この段階では、アナリストがSOARあるいはXDRといったルールベースの自動化ツールを管理します。これにより多少の効率化は図れますが、頻繁な調整を必要とします。オペレーションは依然として人員数と事前に定義されたワークフローに制限されます。
L2 – AIによる支援
この段階では、AIが調査、まとめ、トリアージを支援し、アナリストの作業負荷を軽減しますが、エラーの可能性もあるためきめ細かな監督が必要です。検知は向上しますが、自律的な意思決定に対する信頼度は限定的です。
L3 – AIコラボレーション
この段階では、AIが調査全体を行いアクションを提示します。アナリストは高リスクの判断を行うことと、検知戦略の精緻化に集中します。組織のテクノロジーコンテキストを考慮した専用のエージェント型AIエージェントシステムに特定のタスクが任され、精度と優先度の判断が向上します。
L4 – AIに委任
この段階では、専用のAIエージェントシステムが単独でほとんどのセキュリティタスクをマシンスピードで処理し、人間のチームはハイレベルの戦略的監督を行います。このことは、人間のセキュリティチームが最も時間と労力を使うアクティビティはプロアクティブな活動に向けられ、AIがルーチンのサイバーセキュリティ作業を処理することを意味します。
専用のAIエージェントシステムはビジネスへの影響を含めた深いコンテキストを理解して動作し、高速かつ効果的な判断を行います。
AI成熟度モデルのどこに位置しているかを調べる
「サイバーセキュリティのためのAI成熟度モデル」 ホワイトペーパーを入手し、評価を行ってみましょう。自社の現在の成熟段階をベンチマークし、主なギャップがどこにあるのかを調べ、次のステップの優先順位を特定するためににお役立てください。














.jpg)
