AIの保護が急務である理由
AIはITおよびセキュリティチームの対応が追い付かないスピードで企業内に浸透しつつあります。SaaSツールで使用され、コアプラットフォームに組み込まれ、新しい技術を取り入れたいさまざまなチームによって立ち上げが進んでいます。
しかしこの導入が加速するにつれ、スタートアップ、プラットフォームを問わず既存のセキュリティツールでは監視や制御ができない、予測不可能な挙動が発生し、アタックサーフェスが拡大しています。これらの新しいタイプのリスクは、ビジネスの確実性から規制への対応まで幅広い影響を及ぼし、セキュリティチームと経営層両方の注意が必要な問題です。
AIの保護には今までとは根本的に異なるアプローチが必要です。AIがどのように動作するか、データやユーザーとどのように相互動作し、リスクがリアルタイムにどう発生するかを理解するアプローチでなければなりません。企業全体でAIを保護するにあたり組織がどう考えるべきかの中心はこうした変化にあります。
AI保護の現状は?
ダークトレースが1,500名のサイバーセキュリティプロフェッショナルを対象とした調査の結果をまとめた最新の”AIサイバーセキュリティの現状”レポートでは、AI導入ポリシーを持っていないと答えた組織の割合は前年度の55%から増大し63%となっています。
さらに心配なことに、AIポリシーを作成する計画がない組織の割合も3%から8%と、3倍近く増加しています。明確なポリシーがないということは、多くの企業は目隠しされたまま加速しているようなものです。
ダークトレースの顧客ベースにおいてアクティビティを分析したところ、同様のパターンが発生していることが観察されました。昨年10月だけでも生成AIサービスへの異常なデータアップロードが前月比で39%増加し、アップロードの平均サイズは75MBでした。これらのアップロードのサイズと頻度を考えると、おそらくこれらのデータのかなりの部分は、企業の外へ出すべきものではなかったはずです。
多くのセキュリティチームは依然として、ビジネス内でAIがどのように使われているか、つまりどのように振る舞い、何にアクセスし、そして最も重要なこととして、安全に業務を行っているかについての可視性を持っていません。こうした管理されていない利用が静かに広がり、設定済みのセキュリティコントロールから完全にはずれたAIアクティビティがあちこちで発生しています。その結果、ほとんど可視性のない状態で深刻な露出が起こることになり、正式なポリシーが存在していてもAIの利用がそれ以上に広がっている現実があります。
この問題は組織内部の問題にとどまりません。シャドーAIははサードパーティ製ツールやベンダーのプラットフォーム、パートナーのシステムなどにも存在します。AI機能がはっきりした監視なしに組み込まれているケースです。
その一方で、攻撃者はAIの特性を悪用する方法を習得し始めており、組織がすでに管理に苦労しているリスクをさらに悪化させています。
サイバーセキュリティのリーダーがAIを保護
ダークトレースは、10年以上にわたり構築してきたビヘイビアAIの専門技術を、今日のAIが存在する、複雑で曖昧な環境で機能するように設計された、組織全体をカバーするプラットフォームで提供します。
他のサイバーセキュリティ技術は、過去の攻撃に基づいて新しい攻撃を予測しようとします。しかし問題は、AIが人間のように動作することです。すべての行動は新しい情報を作り出し、それがAIの動作を変えます。これは予測不可能であり、過去に見られた攻撃の戦術はもはや方程式の小さな部分に過ぎません。その結果多くのベンダーは実証されていない技術を買収し、改修してAIの保護を行おうとしています。
ダークトレースのアプローチは他とは根本的に異なります。ダークトレースの自己学習型AIはそれぞれの組織にとって何が正常な状態かを理解します。ユーザーやシステム、アプリケーション、そしてAIエージェントがどのように動作し、どのようにやりとりし、データがどのように流れるかを学習します。これにより、何かが意味のある変化をしたときに、そのかすかな動きを見つけ出すことができます。AIエージェントが登場するずっと前から、ダークトレースのテクノロジーはネットワーク、クラウド、SaaS、Eメール、OT、アイデンティティ、エンドポイントにわたりニュアンスを解釈し、逸脱を検知し、隠れた関係を明らかにし、あいまいなアクティビティの意味を理解してきました。
AIが新たな動作、非構造的やりとり、目に見えない経路を作り出し、シャドーAIが拡大する状況において、セキュリティ課題はますます深刻化しています。しかしダークトレースのプラットフォームはまさにこうした環境のために設計されています。AIの保護はダークトレースにとって新しい方向性ではありません。すでに世界中で何千もの組織に提供してきたビヘイビアインテリジェンスの自然な進化の延長線上にあります。
企業全体にわたる包括的なAIセキュリティ、Darktrace / SECURE AI
このような背景から、私たちは Darktrace / SECURE AI を自信を持ってご提供します。Darktrace ActiveAI Security Platformの新製品であり、組織全体のAIを保護するよう設計されています。
これは組織をサイバー脅威や新たなリスクから保護する私たちのミッションの新たな章となる製品です。完全な可視性、インテリジェントな動作の監視、リアルタイムコントロールを組み合わせることにより、企業内へのAIの安全な導入、管理、構築を可能にします。これによりAIの使用、データアクセスおよび動作を、セキュリティベースライン、コンプライアンス、そしてビジネスの目標に整合した状態に維持することができます。
Darktrace / SECURE AIは、AIとのあらゆる相互動作を単一のビューで可視化し、セキュリティチームは人間とAIエージェント両方のアクティビティに対して、その意図を理解し、リスクを評価し、機密性の高いデータを保護し、ポリシーを徹底することができます。これにより組織は、AIが安全かつ責任ある形で、セキュリティおよびコンプライアンスのニーズに沿って動作しているかどうかを確認するための可視性とともに、自信を持ってAIを取り入れることができます。
AIの保護は複数の分野にわたり多層的な複雑さがあるためDarktrace / SECURE AIは自社が所有するAIとサードパーティから提供されるものを含め、組織全体ビジネスに影響するすべてのAI使用を保護するための、次の4つの基盤となるユースケースに基づいて構築されています:
- 生成AIエージェントおよびアシスタントを駆動するプロンプトを監視する
- ビジネスAIエージェントのアイデンティティをリアルタイムに保護
- 開発時、運用時のAIリスクを評価する
- シャドーAIを見つけ出し、統制する
生成AIエージェントおよびアシスタントを駆動するプロンプトを監視する
AIシステムにおいて、プロンプトは最も活発で敏感なインタラクションのポイントの1つです。これには、ユーザーが意図を伝える人間とAIのやり取り、そしてエージェントが内部プロンプトを生成して推論や調整を行うAI同士の相互動作が含まれます。プロンプトに使われる言語は実質的に動作を示すものであり、固定された有限の構文ではなく自然言語に依存しているため、アタックサーフェスは無限に広がります。そのため、プロンプト駆動のリスクは、CVEに結びつけられた従来のAPIベースの脆弱性よりもはるかに複雑になります。
攻撃者が弱点を探ろうとしているケース、従業員が意図せずに機密データを露出させてしまうケース、エージェントが複雑なワークフローを実行するために自身のサブタスクを生成するケースなど、どのようなケースにおいても、セキュリティチームはプロンプトの動作がモデルの挙動をどのように形成するか、そしてその挙動が問題となる可能性について理解しなければなりません。このような動作についての理解がなければ、組織はAIシステムのエクスプロイト、ドリフト、エラーの連鎖によるリスクの増大に直面することになります。
Darktrace / SECURE AIは、Microsoft CopilotやChatGPT Enterprise等のエンタープライズAIシステム、Microsoft CopilotやStudio等のローコード環境、SalesforceやMicrosoft 365のようなSaaSプロバイダー、AWS、Bedrock、SageMakerなどのハイコードプラットフォームなど、すべてのプロンプトアクティビティを一元的な可視性のレイヤーに統合します。
可視化だけでなく、Darktraceはビヘイビア分析により、プロンプトがユーザー、その仲間そして組織全体のコンテキストで通常とは異なるあるいはリスクが高いかどうかを理解することができます。AI攻撃は固定されたAPIに対する従来のエクスプロイトよりも格段に複雑であり会話を利用するものである – EメールやTeams/Slackの会話により近い – ため、ビヘイビアの理解はきわめて重要です。プロンプトを動作のシグナルとして扱うことにより、Darktraceは会話型攻撃、悪意あるチェイニング、わかりにくいプロンプトインジェクションの試みを検知することができます。そしてインテグレーションの設定によっては、安全でないプロンプトをリアルタイムにブロックしたり、有害なモデルアクションを発生と同時に阻止することができます。
ビジネスAIエージェントのアイデンティティをリアルタイムに保護
多くの組織がAI駆動のワークフローを導入していくなかで、ビジネスのさまざまな場所で自律型または半自律型のエージェントが急速に拡大しています。これらのエージェントは既存のアイデンティティ内で動作し、システムにアクセスしてデータを読み取り、書き込み、クラウドプラットフォームや社内インフラ、アプリケーション、API、サードパーティサービスに対してアクションをトリガーする能力を持っています。ユーザーのようにコントロールされているアイデンティティもありますが、前述のような、どこに出現するかわからないものもあります。これらのアイデンティティがどのように構成されているか、またその権限がどのように変化していくかに対しての可視性が限定的なためです。
Darktrace SECURE / AIは、AIエージェントの設計上の動作だけでなく、実際に何を行っているかについてアイデンティティを中心としたリアルタイムの理解を提供します。SaaS、クラウド、ネットワークエンドポイント、OT、Eメールこれらの環境でのエージェントのリアルタイムのアイデンティティを、サードパーティ環境内で動作しているものを含めて自動的に検知します。
各エージェントがどのように設定されているか、どのシステムにアクセスしているか、どのように通信しているかを、MCPの使用や機密性の高いデータが保存されているストレージとのやり取りを含めてマッピングします。
エージェントの振る舞いをすべてのドメインに渡り継続的に観察することにより、Darktrace SECURE / AIは不必要またはリスクのある権限の付与、アクティビティパターンの逸脱、あるいは意図されていない方法でエージェントがアクションのチェイニングを始めたときに、これらを識別することができます。このリアルタイムの監査証跡により、組織はエージェントのアクションが意図したオペレーションのパラメーターと整合しているかどうかを評価し、異常な、またはリスクの高い振る舞いを早期にキャッチすることができます。
開発時、運用時のAIリスクを評価する
AIの構築時には、新たなアイデンティティが作成され、権限が積み重ねられ、さまざまなコンポーネントがSaaS、クラウドそして社内の環境でつなぎ合わされ、プロンプトやコンフィギュレーションを通じてロジックが形成されていきます。
これは非常にダイナミックかつ多くの場合断片的なプロセスであり、ここでのほんのわずかな手違い、たとえば作成したアイデンティティの設定ミスなどが、システムがデプロイされた後で大きなセキュリティ問題になる可能性があります。AIリスクを開発時に評価することがきわめて重要なのはこのためです。
Darktrace / SECURE AIは、AIシステムの形成が始まった瞬間からライブになるまでのライフサイクル全体に、明確性とコントロールを提供します。作成されたアイデンティとそれらのハイパースケーラー、ローコードSaaS、社内ラボへのアクセスへの可視性を提供するとともに、AIセキュリティポスチャ管理により設定ミス、過剰な権限付与、異常なビルドイベント等を明らかにします。Darktrace/ SECURE AI はこれらの開発環境の情報をプロンプトの監視に直接結びつけ、AIがどのように構築されているかという情報を、運用開始後の挙動とリンクさせます。その結果、より安全で、より予測可能なAIライフサイクルが実現され、リスクを早期に発見し、一貫してガードレールを適用し、当て推量ではなく自信を持ってイノベーションを前進させることができます。
シャドーAIを見つけ出し、統制する
シャドーAIは今や組織のあらゆる場所に出現しています。これは単に従業員が外部チャットボットに内部データを貼り付けてしまう問題だけではありません。これには、管理されていないエージェントビルダー、隠れたMCPサーバー、不正なモデルのデプロイ、そして誰もAIが使われていると思っていなかったデバイスやサービス上のAIワークフローが含まれます。
Darktrace SECURE / AIは、クラウド、ネットワーク、エンドポイント、OTそしてSaaS環境にわたる相互動作を継続的に分析することにより、この新たなリスクを可視化します。承認されていないAIの使用をそれがどこで出現しようとも検知し、正規のアクティビティや承認されているツールを、誤った使用や高リスクのアクティビティと区別します。システムは隠れたAIコンポーネントや不正なエージェントを識別し、承認されていないデプロイメントや、外部AIシステムへの予期しない接続を明らかにします。そして通常のビジネスから逸脱したリスキーなデータフローを特定します。
対応が必要な挙動については、Darktrace SECURE / AIは安全ではないまたは管理されていない使用を封じ込めるとともに、管理されている方法にユーザーを誘導することでポリシーの徹底を可能にします。これにより、企業にとって最も急速に拡大しているセキュリティギャップの1つを解消し、シャドーAIにより作り出されるアタックサーフェスを大幅に削減することができます。
まとめ
AIの導入にポリシーやフレームワークとともに今必要なのは、AIの隠れた使用、プロンプトリスク、アイデンティティの不正使用、および開発全体に渡り、AIの挙動に基づいて脅威を検知する適切なツールです。
ダークトレースはAIの保護を実現する上で他にはない強みがあります。AIエージェントが登場するずっと以前から、それぞれのビジネスから学習し、組織全体にわたり微妙な動作を理解するAIを、10年以上にわたり構築してきました。他のツールでは見逃されてしまう脅威を捕捉する防御の最終ラインとして10,000社以上の顧客がDarktraceを使用しており、AIの保護は私たちにとって方向転換でも新たな技術の取得でもなく、当初からプラットフォームの基盤であったビヘイビア分析技術と、組織全体のインテリジェンスの自然な延長線上にあります。
組織内のAIを保護する方法についてさらに詳しく知りたいお客様のために、プログラムをご用意しました。ITリーダーおよびセキュリティリーダーが共にこの問題に取り組み、大きな意思決定に備え、ガードレールを検討し、不透明性とプレッシャーのなかでビジネスを導くためのフォーラムをご提供します。
Secure AI Readiness Programへの参加はこちらから: AI脅威の最新ニュース、AIセキュリティを取り巻く新たなアプローチ、この分野におけるダークトレースの開発情報を含めた最新イノベーションに関する考察をお届けします。
AIの保護についてダークトレースのエキスパートへのお問い合わせはこちらから: お客様のビジネスにとって最も問題となるAIリスクについて、ガバナンス、可視性、リスク削減、長期的な準備など、どの部分に集中すべきかを含め、実務的な情報をご提供します。










.avif)










![Pivoting off the previous event by filtering the timeline to events within the same window using timestamp: [“2026-02-18T09:09:00Z” TO “2026-02-18T09:12:00Z”].](https://cdn.prod.website-files.com/626ff4d25aca2edf4325ff97/69a8a18526ca3e653316a596_Screenshot%202026-03-04%20at%201.17.50%E2%80%AFPM.png)