最も多く示された懸念は、機密性の高いデータの露出であり、その次に規制に対するコンプライアンス違反が挙げられました。これらは最も直接的かつ重大な結果 -罰金、罰則、ネガティブな報道等々、につながるリスクです。また、特にAIガバナンスが未成熟な場合、比較的起こる可能性が高い出来事でもあります。
多くの組織において、生成AIやエージェント型AIツールの導入が凄まじいペースで進められています。これらのテクノロジーはワークフローを一変させ、生産性に革命をもたらし、新しい価値の流れを作り出すことを約束しています。
同時にこれらはまったく新しいアタックサーフェスを作り出します。昨年来、AIシステムは脅威アクターが好んで狙う標的のランク上位に入っています。



最も多く示された懸念は、機密性の高いデータの露出であり、その次に規制に対するコンプライアンス違反が挙げられました。これらは最も直接的かつ重大な結果 -罰金、罰則、ネガティブな報道等々、につながるリスクです。また、特にAIガバナンスが未成熟な場合、比較的起こる可能性が高い出来事でもあります。
回答者の44%はサードパーティ製LLM(CopilotやChatGPTなど)のセキュリティに対する影響についてきわめて大きな懸念または大きな懸念を示しています
92%は従業員によるAIエージェントの使用とセキュリティに対する影響に懸念を持っていいます
AIはSaaSアプリケーションに組み込まれており、自律エージェントがリアルタイムにアクションを実行、ローコードまたはノーコードツールを使用してチームが企業のさまざまなところで独自のAI自動化を構築できるようになっています。しかし、導入とイノベーションが加速する一方で、セキュリティはまだ追いついていません。AIシステムの動作は、従来の防御システムがそれらを監視するように設計されていない仕組みで動作するため、セキュリティリーダーの懸念は高まっています:
昨年の同時期と比較して、AIの安全でセキュリティに配慮した使用に関するポリシーを持っていると報告している組織は減少しています。
昨年、45%の組織がすでにAIポリシーを作成済みであると回答しました。今年、サンプルは異なりますが、その割合いは37%に減少しました。明らかなのは、AIポリシーの実施が進んでいないということです。場合によっては、後退してしまった恐れもあります。
心配なことに、AIポリシーを作成する計画がない組織の割合が3%から8%に増加しています。
すでに正式なポリシーを持っている
現在正式なポリシーについて検討している
正式なポリシーを作成する計画がない
どのような状況にあるかわからない
すでに正式なポリシーを持っている
現在正式なポリシーについて検討している
正式なポリシーを作成する計画がない
AIの安全かつセキュアな使用についての組織のスタンスや計画について知らない
機密性の高いデータの流出が生成AIの導入に対するセキュリティプロフェッショナルの主な懸念事項であることを考えると、AIシステムにDLPツールを適用している組織が意外に少ないことに驚かされます。
防御者が直面する脅威に対して、AIが実際に与えている影響についてどう考えているかをご確認ください。
AIが自社特有の環境を学習、適応し、最適な防御を実現
ビジネスを中断させることなく攻撃を迅速に隔離、阻止
部門間の壁を越えて可視性を高め、脅威をドメイン全体で追跡、把握
セキュリティタスクを自動化し、最も意味のあるタスクを優先付け