Chapter 3: Cybersecurity Operations
Proceed to:
Chapter 4: Cybersecurity Tools
2026年AIサイバーセキュリティの現状  | チャプター 3

AIはサイバーセキュリティ
オペレーションを
どのように変貌させているか

サイバーセキュリティシステムとAIエージェントの関係はまだお互いを知り始めたばかりです。しかし、関係を模索しながらも、これらは連携して機能する必要があります。

一部のセキュリティプロフェッショナルは、自社のセキュリティスタックで使用されているAIの種類についての詳細な理解が欠けており、この知識がないと、どのベンダーと協力すべきか、あるいは新しいソリューションを日々のオペレーションにどう統合すべきかについて最良の判断を下すことはできません。

生成AIがセキュリティスタックの77%において何らかの役割を果たしている

Read more +

AI導入の思い違い

回答者の一部はAIのさまざまなタイプを間違って理解している可能性があります。たとえば、エグゼクティブやマネージャーはAIの導入に関しすべてのAIのタイプについて平均値以上の回答をしています。このことは、彼らがセキュリティ実務者よりも「AIウォッシング」やベンダーの宣伝に影響されやすいことを示しているかもしれません。

AIについての
ベンダーの宣伝文句

ほとんどすべてのサイバーセキュリティベンダーが、自社製品にAIを組み込んでいることを大いに宣伝しています。しかし、意思決定者がすべてのAIタイプについて十分な理解を持っており、ベンダーの主張を客観的に評価できるかどうかは不透明です。

組織のサイバーセキュリティスタックでは現在どのタイプのAIが使用されていますか?

2026使われている使われていないわからない
生成AI / 大規模言語モデル(LLM)77%19%4%
教師付き機械学習(選択されたデータセットでトレーニング)67%29%4%
エージェント型AI(例:自律的セキュリティオペレーション)67%26%7%
自然言語処理(NLP)58%36%6%
深層学習およびニューラルネットワーク49%44%7%
敵対的生成ネットワーク(GAN)42%49%9%
教師なし機械学習(ラベル付けされていないデータセットでトレーニング)35%57%8%

信頼の問題

多くのセキュリティプロフェッショナルが自社のAIソリューションで使用されているロジックや推論プロセスに対して良好な可視性を持っていると回答しましたが、とはいえAIに自律的アクションを許す前に、出力の説明可能性を改善したいと考えています。

Read more +

89%

89%はAIソリューションが生成した出力の背後にある推論に対する可視性を有していると回答しています

92%

92%は防御AIツールを信頼する前に、それがどのように決定を行うか理解する必要があると回答しています

88%

88%はAIの出力を意思決定者や規制当局に対して説明する自信があると回答しています

74%

74%は説明可能性が改善されるまで、SOC内でのAIの自律的なアクションの実行を制限していると回答しています

SOC内でAIが独立した緩和アクションを取る(人間が参加しない)ことを許容しているのは現在セキュリティプロフェッショナルの14%にとどまっています

SOC内のAI自律性のレベル

14%

高い:一部の緩和アクションの実行を含めAIが独立して行動できる

70%

中程度:人間の承認を得てAIがアクションを実行できる("人間参加型”)

13%

低い:AIは推奨を行うだけで行動しない

2%

なし:AIは意思決定に関与しない

1%

わからない

Full Audience

SOC内のAI自律性のレベル

18%

高い:一部の緩和アクションの実行を含めAIが独立して行動できる

75%

中程度:人間の承認を得てAIがアクションを実行できる("人間参加型”)

5%

低い:AIは推奨を行うだけで行動しない

2%

なし:AIは意思決定に関与しない

0%

わからない

CISOs

SOC内のAI自律性のレベル

15%

高い:一部の緩和アクションの実行を含めAIが独立して行動できる

71%

中程度:人間の承認を得てAIがアクションを実行できる("人間参加型”)

12%

低い:AIは推奨を行うだけで行動しない

2%

なし:AIは意思決定に関与しない

1%

わからない

IT Managers

SOC内のAI自律性のレベル

9%

高い:一部の緩和アクションの実行を含めAIが独立して行動できる

61%

中程度:人間の承認を得てAIがアクションを実行できる("人間参加型”)

25%

低い:AIは推奨を行うだけで行動しない

3%

なし:AIは意思決定に関与しない

3%

わからない

Security Architects

SOC内のAI自律性のレベル

9%

高い:一部の緩和アクションの実行を含めAIが独立して行動できる

58%

中程度:人間の承認を得てAIがアクションを実行できる("人間参加型”)

27%

低い:AIは推奨を行うだけで行動しない

2%

なし:AIは意思決定に関与しない

4%

わからない

Threat Analysts

経営層の理解とオペレーションの現実の差

エグゼクティブは他の役職よりも高い割合で、自社がAIに自律的な動作を許可していると考えていいます(18%がAIが高い自律性を持っていると回答)。これも、サイバーセキュリティに対する自信の差の理由かもしれません。リーダー達は自社が最も高度な最新のテクノロジーを導入していると確信している一方で、実務者はより現実的な見方をしています。

セキュリティプロフェッショナルの85%は新しいSOC機能をマネージドサービスの形で取得したいと考えています

Read more +

社内と比較したマネージド型SOCサービスの選好度

教育
61%
エネルギー
56%
金融
51%
政府機関
49%
ヘルスケア
39%
製造
34%
専門サービス
23%
小売り
19%
通信
19%
テクノロジー
0%
65%
70%
75%
80%
85%
90%

次のチャプター:AIはサイバーセキュリティツールをどのように変貌させているか

防御AIがセキュリティスタックに与える影響についての防御者の視点をご確認ください。

必要不可欠なAIサイバーセキュリティプラットフォーム

環境に適応するAIで、賢く守る

AIが自社特有の環境を学習、適応し、最適な防御を実現

業務を止めずに、高速で守る

ビジネスを中断させることなく攻撃を迅速に隔離、阻止

部門やシステムの壁を越えて、守る

部門間の壁を越えて可視性を高め、脅威をドメイン全体で追跡、把握

効率的に、守る

セキュリティタスクを自動化し、最も意味のあるタスクを優先付け

Darktraceがお客様の環境で何を発見できるか実際にご確認ください