« 欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15) | Main | 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る »

2026.02.01

CSA 非人間アイデンティティとAIセキュリティの現状 (2026.01.26)

こんにちは、丸山満彦です。

ID管理をしている人と話をしていると、AI等のNHIの効率的な管理をしなければ、爆発的に増大するIDの管理が追いつかず、システムが暴走し、止めることもできなくなるかも...と言う話をしていたところなので、なるほどです。。。

IDに限らず、生成をAIがするときに同時に独立した別のAIによりその情報の適切性を検証し、修復またはプロセスを中止し、人間の判断を入れるようにする必要があるかもしれませんね...

この報告書で指摘されているように、AI時代のID管理は「新しい問題」ではなく「既存の脆弱性の増幅」ですよね。。。特に、ガバナンスとオーナーシップの欠如が、AIによるIDの高速生成と相まって、セキュリティリスクを指数関数的に高めているのは課題でしょう。

AIエージェントを人間と同様に扱い、ライフサイクル全体で自動化されたガバナンスを組み込むことが重要でしょうね。。。そうなるとNHI管理の自動化に取り組むことが必要となりますね...

 

Cloud Security Alliance: CSA

・2026.01.26 The State of Non-Human Identity and AI Security

The State of Non-Human Identity and AI Security 非人間アイデンティティとAIセキュリティの現状
Based on a comprehensive survey of IT and security professionals, this report explores how rapid AI adoption amplifies long-standing Identity and Access Management (IAM) challenges. It reveals that AI does not introduce an entirely new identity paradigm. Instead, AI magnifies existing non-human identity (NHI) risks related to governance, visibility, ownership, and credential lifecycle management. ITおよびセキュリティ専門家を対象とした包括的な調査に基づき、本レポートはAIの急速な導入が既存のアイデンティティおよびアクセス管理(IAM)課題をいかに増幅させるかを検証する。AIが全く新しいアイデンティティの枠組みをもたらすわけではないことが明らかになった。むしろAIは、ガバナンス、可視性、オーナーシップ、認証情報のライフサイクル管理に関連する既存の非人間アイデンティティ(NHI)リスクを増幅させるのである。
Most organizations still manage AI identities using legacy IAM tools and manual processes. But these resources were never designed for autonomous, high-velocity systems. As AI-driven workloads accelerate identity creation, organizations struggle with credential sprawl, unclear ownership, inconsistent automation, and slow remediation timelines. 多くの組織は依然として、レガシーなIAMツールと手動プロセスでAIアイデンティティを管理している。しかしこれらのリソースは自律的で高速なシステム向けに設計されたものではない。AI駆動のワークロードがアイデンティティ生成を加速させる中、組織は認証情報の拡散、不明確なオーナーシップ、一貫性のない自動化、遅延した修復プロセスに苦慮している。
The findings uncover four critical areas of concern: 調査結果から明らかになった4つの重大な懸念領域は以下の通りである:
・AI identities compounding traditional non-human identity security risks ・AIアイデンティティが従来の非人間アイデンティティセキュリティリスクを増幅させる
・Persistent governance and ownership gaps ・持続的なガバナンスとオーナーシップのギャップ
・The friction between AI speed and legacy IAM infrastructure ・AIの速度とレガシーIAMインフラの摩擦
・Token sprawl caused by inadequate rotation and revocation practices ・不十分なローテーションと失効処理によるトークンの拡散
Together, these issues expand the operational attack surface and increase the blast radius of identity-related incidents. これらの問題は相まって、運用上の攻撃対象領域を拡大し、アイデンティティ関連インシデントの被害範囲を拡大させる。
This research provides a data-driven view into how organizations are currently managing AI-era identities. It shows why visibility, automation, and accountability are essential to securing AI at scale. Finally, it serves as a benchmark for identity maturity and a call to modernize IAM. 本調査は、組織がAI時代のアイデンティティを現在どのように管理しているかをデータに基づいて明らかにする。可視性、自動化、説明責任が大規模なAIセキュリティに不可欠な理由を示し、アイデンティティ成熟度のベンチマークとして機能するとともに、IAMの近代化を促すものである。
Key Findings: 主な調査結果:
・Organizations largely view AI identities through the same lens as traditional NHIs. When asked what constitutes an AI identity, most respondents selected service accounts, API keys or tokens, and chatbots.  ・組織はAIアイデンティティを従来のNHIと同様の視点で捉えている。AIアイデンティティの構成要素を問う質問に対し、回答者の大半がサービスアカウント、APIキー/トークン、チャットボットを選択した。
・Governance remains one of the weakest links in organizations’ AI identity programs. Less than ¼ of organizations reported having documented and formally adopted policies for creating or removing AI identities. ・ガバナンスは組織のAIアイデンティティプログラムにおいて依然として最も脆弱な部分である。AIアイデンティティの作成・削除に関する文書化済みかつ正式に採用されたポリシーを有すると回答した組織は4分の1未満だった。
・The limitations of legacy IAM systems often constrain AI opportunities. Only 12% of organizations reported being highly confident in their ability to prevent attacks via NHIs. Even fewer expressed high confidence that their legacy IAM solutions can effectively manage AI and NHI security risks. ・レガシーIAMシステムの限界がAI活用の機会を制約している。NHI経由の攻撃を防止できると高い自信を持っている組織はわずか12%だった。さらに少ない組織しか、レガシーIAMソリューションがAIおよびNHIのリスクを効果的に管理できると高い自信を示していない。
・More than 16% of organizations said they do not track the creation of new AI-related identities. This leaves a growing subset of tokens and service accounts outside formal inventory. ・16%以上の組織が、新たなAI関連アイデンティティの作成を追跡していないと回答した。これにより、トークンやサービスアカウントの増加するサブセットが正式なインベントリから除外された状態にある。

 

20260130-190901

 

 


Executive Summary (エグゼクティブ・サマリー)

AIの導入が加速する一方で、従来のIDおよびアクセス管理(IAM)の実践は、AI駆動型システムの規模、自律性、速度に追いついていない。AIは、新たなIDパラダイムを導入するのではなく、長年の非人間ID(NHI)の課題を増幅させており、ガバナンス、自動化、レガシーIAMインフラストラクチャの弱点を露呈している。IDセキュリティは依然として受動的(Reactive)かつ断片的であり、手動作業に大きく依存している。

本調査では、以下の4つの重要な洞察が明らかになった。

  1. AI IDは既存のNHIリスクを増幅する: AI IDは、サービスアカウントやAPIキーといった従来のNHIと同様に分類され、資格情報の拡散、オーナーシップの不明確さ、ライフサイクル管理の一貫性の欠如といった既存の脆弱性を引き継いでいる。AIはID作成の速度と量を高め、運用上の攻撃対象領域を拡大させている。
  2. ガバナンスとオーナーシップの欠如がAI IDを危険にさらす: AI IDの作成・削除に関する文書化され、正式に採用されたポリシーを持つ組織は22%未満である。自動化も限定的であり、インシデント対応の遅延や特権監視の妨げとなり、断片的で受動的なガバナンスモデルを生み出している。
  3. AIの速度とレガシーIAMの限界: 既存のIAMツールに対する信頼度は低く、レガシーシステムは自律的で継続的に作成されるIDの管理を想定していない。これにより、手動による監視や例外ベースのガバナンスが発生し、AIがもたらすスピードと自動化の可能性が制約されている。
  4. トークンの拡散と不十分なローテーションが持続的な被害範囲を拡大する: AI関連の資格情報の追跡と管理は一貫性がなく、ローテーションや失効に24時間以上かかる組織が約24%存在する。この遅延は露出期間を延長し、運用上の負担を増大させている。

AI時代のIDセキュリティを強化するためには、IAM基盤の近代化、ライフサイクル制御の自動化、およびAI IDをエコシステムの不可欠な要素として扱う明確なガバナンスと説明責任の枠組みの確立が不可欠である。

 

Key Findings (主要な知見)

Key Finding 1: AI IDは既存の非人間IDリスクを増幅する

組織はAI IDを従来のNHIと同じレンズを通して見ており、根本的に新しいIDカテゴリとしてではなく、既存の脆弱性を継承している。

AI IDとして認識されている要素 割合
サービスアカウント 72%
APIキーまたはトークン 67%
チャットボット 60%
API経由でアクセスされるAIサービス 50%
AI/MLタスクを実行するコンテナや自律的意思決定システム 42%

この結果は、AIがNHIの延長として捉えられていることを示しており、資格情報の拡散、オーナーシップ
の不明確さ、一貫性のない監視といった、NHIが長年抱えてきた課題をAIが規模と速度で増幅させている現状を浮き彫りにしている。

Key Finding 2:ガバナンスとオーナーシップ
の欠如がAI IDを危険にさらす

AI IDプログラムにおけるガバナンスは最も弱いリンクの一つである。人間IDに対する厳格な監視がAI IDには及んでいない。

ガバナンス・自動化の現状 割合
AI IDの作成・削除に関する文書化され正式に採用されたポリシーがある 22%未満
AI関連IDの作成・削除が完全に自動化されている 14%
AI関連IDの作成・削除が半自動化されている(手動ステップが必要) 41%
AI関連IDの作成・削除が完全に手動である 27%

回答者が最も懸念する事項はガバナンス (39%)、次いでコントロール (34%)、可視性 (23%)である。また、NHI管理における最大の課題は、オーナーシップ の不明確さ (51%) と 権限過剰なアクセス (51%) であり、これがインシデント対応の遅延の主要因となっている。

Key Finding 3: AIの速度とレガシーの摩擦の間の緊張

AIがもたらす自動化や分析の利点は、レガシーIAMシステムの限界によって制約されている。

信頼度 割合
NHIによる攻撃を防ぐ能力に高い自信がある 12%
レガシーIAMソリューションがAI/NHIのリスクを効果的に管理できると高い自信がある 8%
レガシーIAMソリューションにいくらか自信がある 44%

NHIはアクセスレビューや権限証明といった通常のガバナンスプロセスから外れた「例外」として扱われることが多く、これが自動化と説明責任を損ない、断片的なガバナンス環境を生み出している。

Key Finding 4:トークンの拡散と不十分なローテーションが持続的な被害範囲を拡大する

レガシーIAMと断片的なガバナンスの運用上の結果は、AIを動かす資格情報の管理に現れている。

運用上の課題 割合
新しいAI関連IDの作成を追跡していない 16%超
潜在的な露出後、資格情報のローテーションまたは失効に24時間以上かかる 約24%
高度な資格情報漏洩のトリアージに1日以上かかる 30%
NHIの管理、監査、レビューに毎月24時間以上を費やす 29%

追跡の欠如、遅いローテーション、手動による作業への依存は、資格情報がシステムやエージェントが無効になった後も有効なまま残る「トークンの拡散」を引き起こし、攻撃者にとって持続的な足がかり(Durable Footholds)を提供している。

 

結論

本調査結果は、組織がAI駆動型システムの規模、速度、自律性に追いつくのに苦労しているという一貫したストーリーを明らかにしている。AIは、長年NHIに影響を与えてきた資格情報の拡散、権限過剰なアクセス、可視性の制限、一貫性のないライフサイクル管理といった問題を増幅させている。

ガバナンスの枠組みは、明確な説明責任を定義したり、一貫したポリシーを施行したりする速度で進化しておらず、ほとんどの組織がAI IDを戦略的ではなく受動的に管理している。

示唆される対応:

  • 受動的な管理からプロアクティブな制御への戦略的転換が必要である。
  • 継続的な発見、自動化されたライフサイクル施行、および明確に定義されたオーナーシップ モデルが、AI時代のIDガバナンスの基盤となる必要がある。

 

詳細結果

AI IDの理解

  • AI IDの分類: 組織のIAMフレームワーク内でAI IDをどのように分類しているかについて、29%が既存のNHI(サービスアカウントなど)として分類し、25%はまだ分類していないと回答している。
  • 懸念度: AI IDは、人間IDや従来のNHIよりも最も懸念されるIDタイプとしてランク付けされている。
  • ファーストクラスID: AIエージェントを人間ユーザーと同様に「ファーストクラスID」として扱うべきという意見に、43%が強く同意し、35%がいくらか同意している。

AI IDのソース

  • 導入責任チーム: AI導入の責任を負うチームは、SaaS AIアシスタント (69%) や クラウドプロバイダーAIサービス (63%) の利用において、データサイエンス/MLチームやIT/インフラストラクチャチームが主導している。
  • AIの利用状況: AIは主に内部ツールと自動化 (43%)、および実験とプロトタイピング (26%) に使用されており、本番システムや顧客向けアプリケーションでの利用は16%に留まっている。

役割とオーナーシップ

  • ポリシーの現状: AIツールで使用されるIDの作成・削除に関する明確に定義されたポリシーを持つ組織は22%に過ぎず、44%は部分的に文書化されているか、チーム間で一貫性がないと回答している。
  • 自動化の欠如: AI関連IDの作成・削除は、完全に自動化されているのは14%のみで、41%が半自動化、27%が完全に手動で行われている。
  • 監査証跡: AI関連IDの作成に関する監査証跡をシステム全体で維持しているのは27%で、44%は一部のシステムやツールでのみ維持している。

リスク、可視性、および課題

  • 最大の懸念: AIシステムとIDに関する最大の懸念は、ガバナンス (39%)、コントロール (34%)、可視性 (23%)である。
  • NHI管理の課題: NHI管理で遭遇した課題は、権限過剰なアクセス (51%)、明確なオーナーシップ /説明責任の欠如 (51%)、可視性の欠如 (50%)が上位を占めている。
  • インシデント経験: 過去12ヶ月以内に20%の組織がNHI関連のセキュリティインシデントを経験している。
  • コンプライアンス: 組織が積極的に遵守している規制またはコンプライアンスフレームワークは、ISO 27001 (66%)、NIST CSF (46%)、GDPR (45%)である。

運用指標とインシデント対応

  • NHI攻撃への自信: NHIによる攻撃を防ぐ能力に高い自信を持つ組織は13%に留まり、45%が中程度の自信、34%が低い自信と回答している。
  • レガシーIAMへの自信: レガシーIAMソリューションがAI/NHIのリスクを効果的に管理できると高い自信を持つ組織は8%に過ぎない。
  • 運用時間: NHIの管理、監査、レビューに毎月26時間以上を費やす組織が23%存在する(26-50時間18%、51-100時間5%)。
  • 対応時間: 高度な資格情報漏洩のトリアージと軽減に1日以上かかる組織が30%、資格情報の完全なローテーションまたは失効に1日以上かかる組織が24%存在する。

母集団

本調査は、さまざまな業界、規模、地域にわたる383名のITおよびセキュリティ専門家から洞察を集めた。回答者の役割はセキュリティ (46%)、IAM (6%)、IT運用 (13%)、DevOps/Data/ML (7%)など多岐にわたる。

調査方法

研究の目標

本調査は、AIの利用拡大に対応したIDおよびアクセス管理の実践方法を調査することを目的としている。研究の目標は以下の通りである。

  • 進化するIDランドスケープの評価: AI導入がID作成、ガバナンス、制御をどのように再構築したかを評価する。
  • 新たな課題の特定: AI生成IDおよびNHIのセキュリティ確保と、システム全体の可視性維持における困難を特定する。
  • レガシーシステムの影響の評価: 既存のIAMフレームワークがAI駆動型操作への準備にどのように影響したかを評価する。
  • 将来の戦略への情報提供: 組織の成熟度をベンチマークし、AI IDリスク管理の改善を導くための洞察を提供する。

 

|

« 欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15) | Main | 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15) | Main | 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る »