Chapter 1: The Attack Surface
Proceed to:
Chapter 2: The Threat Landscape
2026年AIサイバーセキュリティの現状  | チャプター 1

AIはアタックサーフェスを
どのように変貌させているか

多くの組織において、生成AIやエージェント型AIツールの導入が凄まじいペースで進められています。これらのテクノロジーはワークフローを一変させ、生産性に革命をもたらし、新しい価値の流れを作り出すことを約束しています。

同時にこれらはまったく新しいアタックサーフェスを作り出します。昨年来、AIシステムは脅威アクターが好んで狙う標的のランク上位に入っています。

急激な企業内AI導入を取り巻く懸念

Read more +

44%

回答者の44%はサードパーティ製LLM(CopilotやChatGPTなど)のセキュリティに対する影響についてきわめて大きな懸念または大きな懸念を示しています

92%

92%は従業員によるAIエージェントの使用とセキュリティに対する影響に懸念を持っていいます

組織のコンピューティング環境において、次のAIテクノロジーのセキュリティへの影響についてどの程度懸念を持たれていますか?

14%
きわめて大きな懸念
30%
大きな懸念
32%
ある程度懸念
14%
懸念していない
Full Audience 1
10%
きわめて大きな懸念
24%
大きな懸念
37%
ある程度懸念
18%
懸念していない
Full Audience 2
15%
きわめて大きな懸念
30%
大きな懸念
32%
ある程度懸念
16%
懸念していない
Full Audience 3

各種AIの使用についてきわめて大きなまたは大きな懸念を抱いている回答者の数

87%
サードパーティ製生成AIまたはLLMツール
71%
内製の独自LLMまたはカスタムAIモデル
87%
AIエージェント(自律的または半自律的)
Public sector

各種AIの使用についてきわめて大きなまたは大きな懸念を抱いている回答者の数

75%
サードパーティ製生成AIまたはLLMツール
63%
内製の独自LLMまたはカスタムAIモデル
70%
AIエージェント(自律的または半自律的)
Financial Services

各種AIの使用についてきわめて大きなまたは大きな懸念を抱いている回答者の数

78%
サードパーティ製生成AIまたはLLMツール
74%
内製の独自LLMまたはカスタムAIモデル
77%
AIエージェント(自律的または半自律的)
Healthcare

各種AIの使用についてきわめて大きなまたは大きな懸念を抱いている回答者の数

78%
サードパーティ製生成AIまたはLLMツール
71%
内製の独自LLMまたはカスタムAIモデル
76%
AIエージェント(自律的または半自律的)
Manufacturing

各種AIの使用についてきわめて大きなまたは大きな懸念を抱いている回答者の数

71%
サードパーティ製生成AIまたはLLMツール
63%
内製の独自LLMまたはカスタムAIモデル
66%
AIエージェント(自律的または半自律的)
Education

急激な企業内AI導入を取り巻く懸念

AIはSaaSアプリケーションに組み込まれており、自律エージェントがリアルタイムにアクションを実行、ローコードまたはノーコードツールを使用してチームが企業のさまざまなところで独自のAI自動化を構築できるようになっています。しかし、導入とイノベーションが加速する一方で、セキュリティはまだ追いついていません。AIシステムの動作は、従来の防御システムがそれらを監視するように設計されていない仕組みで動作するため、セキュリティリーダーの懸念は高まっています:

Read more +

コンピューティング環境でのAI使用に関する懸念

機密性の高いデータ(例:個人情報等)の露出
61%
データ/プライバシー保護規制違反の可能性
56%
AIツールの間違った使用/悪用
51%
AIツールのソフトウェア脆弱性
49%
AIツールの許可されないアクセス/使用
39%
モデル完全性リスク(例:ポイズニング、敵対的)
34%
AIコンポーネントのサプライチェーンリスク
23%
従業員によるシャドーAIの利用
19%

アメリカ、イギリス、ブラジルの調査参加者の70%以上が、機密性の高いデータの露出について懸念を示しましたが、イタリアとUAEの参加者はそれよりも規制へのコンプライアンス違反について懸念を抱いていました。

AIポリシーの成熟は停滞

Read more +

AIの安全かつセキュアな使用のためのポリシーに関する組織のスタンスは?

37%

すでに正式なポリシーを持っている

52%

現在正式なポリシーについて検討している

8%

正式なポリシーを作成する計画がない

3%

どのような状況にあるかわからない

2026

AIの安全かつセキュアな使用のためのポリシーに関する組織のスタンスは?

45%

すでに正式なポリシーを持っている

50%

現在正式なポリシーについて検討している

3%

正式なポリシーを作成する計画がない

2%

AIの安全かつセキュアな使用についての組織のスタンスや計画について知らない

2025

IAMとDLPが生成AIリスクに対する主要なコントロール

Read more +

生成AIやLLMのリスクから保護するためにどのようなセキュリティコントロールを導入していますか?

AIツールへのアクセスに対するアイデンティティ/ロールベースのコントロール
60%
データ損失防止(DLP)ツール
54%
モデル監視またはドリフト検知
42%
自社がホスティングするツール/モデルの利用に限定
41%
パブリックAIツールの使用をブロック
39%
プロンプトのフィルタリングまたはその他の入出力制御
34%
エンタープライズブラウザ
27%
現在コントロールは導入されていない
4%

次のチャプター:AIは脅威ランドスケープをどのように変貌させているか

防御者が直面する脅威に対して、AIが実際に与えている影響についてどう考えているかをご確認ください。

Darktraceで
AIを守る

環境に適応するAIで、賢く守る

AIが自社特有の環境を学習、適応し、最適な防御を実現

業務を止めずに、高速で守る

ビジネスを中断させることなく攻撃を迅速に隔離、阻止

部門やシステムの壁を越えて、守る

部門間の壁を越えて可視性を高め、脅威をドメイン全体で追跡、把握

効率的に、守る

セキュリティタスクを自動化し、最も意味のあるタスクを優先付け

Darktraceがお客様の環境で何を発見できるか実際にご確認ください