« 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12) | Main | フランス CNIL 観光用カメラ:個人のプライバシー保護のために遵守すべき規則を明確化 (2026.01.05) »

2026.01.15

英国 ICO技術展望: エージェント型AI(Agentic AI)

こんにちは、丸山満彦です。

前回は、米国NISTによるAI Agent Systemのセキュリティ強化についてのRFIを紹介しましたが、今回は英国の情報コミッショナー事務局の技術の将来(tech futures)シリーズの2026年版からAgentic AIについての報告書が公表されています...

エージェント型AIに対するICOの理解、エージェント型AIの潜在的な用途、および予想される技術的発展について概説しています。

また、組織がエージェント型AIの導入を検討する際に考慮すべきデータ保護への影響、具体的にはデータ保護上のリスクと機会について、ICOの初期の見解を共有してくれています。

そして、組織がエージェント型AIをどのように採用するか、また今後2~5年間でその能力がどのように発展するかに関する不確実性を探るため、4つの可能性のあるシナリオを示していますね...

ICOはエージェント型AIを次のようにとらえているように思えます...

 

  • 目標指向で行動し、計画し、ツールを使い、環境に作用するAI

  • 人間の介入なしに意思決定や行動を継続できるAI

  • 複数のAIが協調・競合するマルチエージェント環境も含む

 

その上で、エージェント型AIは人間がだしたプロンプトを返してくる従来のAIに比べて、より高度なリスクが存在しますよね。。。

例えば、

  • 自律行動による 予期せぬ結果
  • 外部ツール/APIの利用による 攻撃面の拡大
  • マルチエージェント相互作用による 複雑なリスク連鎖
  • 個人データの収集・推論・共有の 透明性低下
  • 人間の監督が追いつかない 責任の曖昧化

 

これは個人情報(個人データのみならず)を取り扱う上でも重要になってくるのだろうと思います。例えば、

  • 取扱の透明性
  • 利用目的の限定
  • 利用データの最小化
  • 公正性
  • 自動化された意思決定(ADM)に関する規

のあたりですかね...

そしてこれから重要となってくる技術分野について

  • プライバシー保護を組み込んだスキャフォルディング
  • 透明性を高める説明可能性ツール
  • 行動ログ・監査可能性の強化
  • 人間監督を支援するインターフェース
  • 安全なマルチエージェント協調プロトコル

が考えられますね...

 

報告書の内容は非常に興味深いです...日本も取り組み始めないとですね...

 

● ICO

・2026.01.08 ICO tech futures: Agentic AI

 

 

Foreword まえがき
In this Tech Futures report on agentic AI, we set out our understanding of the emerging technology, including its potential uses and expected technical developments. We share our early thoughts about the data protection implications that organisations will have to consider as they explore the deployment of agentic AI, including data protection risks and opportunities. We share four possible scenarios to explore the uncertainty around how organisations might adopt agentic AI and how its capabilities might develop over the next two to five years. 本エージェント型AIに関する技術展望報告書では、この新興技術に対する我々の理解、その潜在的な用途、予想される技術的発展について述べる。組織がエージェント型AIの展開を検討する際に考慮すべきデータ保護上の影響、具体的にはデータ保護リスクと機会について、我々の初期の見解を共有する。組織がエージェント型AIをどのように採用するか、また今後2~5年間でその機能がどのように発展するかに関する不確実性を探るため、4つの可能性のあるシナリオを提示する。
Executive summary エグゼクティブサマリー
Agentic artificial intelligence (AI) is evolving at pace, attracting intense scrutiny from innovators, technology adopters and regulators worldwide. As organisations consider deploying agentic AI, understanding its capabilities and the associated risks is essential. エージェント型人工知能(AI)は急速に進化しており、世界中のイノベーター、技術導入者、規制当局から強い関心が寄せられている。組織がエージェント型AIの展開を検討する際、その能力と関連するリスクを理解することが不可欠である。
Agentic AI combines the capabilities of generative AI with additional tools and new ways of interacting with the world. This increases the ability of AI systems to work with contextual information, operate using natural human language and automate more open-ended tasks. Agentic AI systems are being developed for use in research, coding, planning and transactions. Their potential applications span commerce, government, the workplace, cybersecurity, medicine and the consumer space. Many believe that agentic capabilities can form the foundation for powerful personal assistants. エージェント型AIは、生成的AIの能力に追加ツールと新たな世界との相互作用方法を組み合わせる。これにより、AIシステムが文脈情報を活用し、自然な人間の言語を用いて動作し、より自由度の高いタスクを自動化する能力が向上する。エージェント型AIシステムは、研究、コーディング、計画立案、取引での使用を目的に開発されている。その潜在的な応用範囲は、商業、政府、職場、サイバーセキュリティ、医療、消費者領域に及ぶ。多くの専門家は、エージェント型能力が強力なパーソナルアシスタントの基盤となり得ると考えている。
While agentic AI offers some new technological capabilities we are at an early stage in development, with many use cases unproven or at the development stage. At the ICO, we are building a well-informed evidence base about: エージェント型AIは新たな技術的可能性を提供するものの、開発は初期段階にあり、多くのユースケースは実証されていないか開発中である。ICOでは以下の点について、十分な情報に基づいたエビデンス基盤を構築している:
•  where the technology is now; and  •  技術が現在どの段階にあるか、そして
•  how to exercise caution about the proven abilities of agentic AI while identifying and managing the data protection issues and risks related to supporting privacy-led innovation.  •  実証済みの能力に対して慎重な対応を講じつつ、プライバシー主導のイノベーションを支える上で生じるデータ保護上の課題やリスクを特定・管理する方法
As developing agentic AI increases the potential for automation, organisations remain responsible for data protection compliance of the agentic AI they develop, deploy or integrate in their systems and processes. 能動的AIの開発が進むにつれ自動化の可能性が高まるが、組織は自らが開発・展開・システム/プロセスに統合する能動的AIのデータ保護コンプライアンスについて責任を負い続ける。
We have already explored in our consultation series on generative AI the many issues that agentic AI shares. Novel agentic AI data protection risks include: 我々は生成的AIに関する一連の協議において、エージェント型AIが共有する多くの課題を既に検討している。新たなエージェント型AIのデータ保護リスクには以下が含まれる:
•  issues around determining controller and processor responsibilities through the agentic AI supply chain;  •  エージェント型AIのサプライチェーンにおける管理者および処理者の責任範囲の確定に関する問題
•  rapid automation of increasingly complex tasks resulting in a larger amount of automated decision-making;  •  複雑化するタスクの急速な自動化による自動意思決定量の増加
•  purposes for agentic processing of personal information being set too broadly to allow for open-ended tasks and general-purpose agents;  •  オープンエンドなタスクや汎用エージェントを許容するため、個人情報のエージェント処理目的が過度に広く設定されること;
•  agentic systems processing personal information beyond what is necessary to achieve instructions or aims;  •  指示や目的達成に必要な範囲を超えて個人情報を処理するエージェント型システム;
•  potential unintended use or inference of special category data;  •  特別カテゴリーデータの意図しない使用や推論の可能性;
•  increased complexity impacting transparency and the ease with which people can exercise their information rights;  •  透明性や情報権利行使の容易さに影響する複雑性の増大;
•  new threats to cyber security resulting from the nature of agentic AI; and  •  エージェント型AIの性質に起因する新たなサイバーセキュリティ上の脅威;および
•  concentration of personal information facilitating personal assistant agents.  •  パーソナルアシスタントエージェントを可能にする個人情報の集中。
One of our key findings from this initial work is that the specific design and architecture of agentic systems impact how data protection law applies and how people exercise their data protection rights. Choices such as the data and tools that a system can access and which governance and control measures to put in place really matter. この初期調査における主要な知見の一つは、エージェント型システムの具体的な設計とアーキテクチャが、データ保護法の適用方法や人々がデータ保護権利を行使する方法に影響を与えることだ。システムがアクセスできるデータやツール、導入すべきガバナンスや管理措置といった選択は極めて重要である。
Poorly implemented agentic systems will increase the risks of data protection harms. For example, this could include systems that: 不適切に実装されたエージェント型システムは、データ保護上の危害リスクを高める。例えば、以下のようなシステムが該当する:
•  have no clear purposes;  •  明確な目的を持たないもの
•  are connected to databases not needed for their tasks; or  •  任務に不要なデータベースに接続されているもの
•  have no measures in place to secure access, monitor or stop activity, or control the further sharing of information.  •  アクセスを保護し、活動を監視・停止し、情報のさらなる共有を制御する措置が全く講じられていないシステム。
The importance of design and architecture also means that there are good opportunities for privacy by design and privacy-friendly innovation in agentic AI, and organisations should use them for responsible deployment. We are already seeing some features and tools intended to address privacy issues. 設計とアーキテクチャの重要性は、エージェント型AIにおいてプライバシーバイデザインやプライバシーに配慮したイノベーションを実現する好機があることも意味する。組織は責任ある展開のためにこれらを活用すべきだ。既にプライバシー問題に対処する意図で設計された機能やツールがいくつか見られる。
We have identified innovation opportunities with agentic AI that have the potential to support data protection and information rights and contribute to privacy-positive outcomes. Potential areas include: 我々は、データ保護と情報権利を支援し、プライバシーに積極的な成果に貢献する可能性を秘めた、エージェント型AIにおけるイノベーションの機会を特定した。潜在的な分野には以下が含まれる:
•  data protection compliant agents;  •  データ保護に準拠したエージェント
•  agentic controls;  •  エージェント制御;
•  privacy management agents;  •  プライバシー管理エージェント;
•  information governance agents; and  •  情報ガバナンスエージェント;および
•  ways to benchmark and evaluate agentic systems.  •  エージェントシステムのベンチマークと評価手法。
Due to the pace of development of agentic AI and the speed at which developers are experimenting, we are trying two new approaches with this report. We are using scenarios of four different potential futures to explore the uncertainty about how agentic AI might be adopted and how its capabilities might develop over the next two to five years. エージェント型AIの開発ペースと開発者の実験速度を考慮し、本報告書では二つの新たなアプローチを試みる。今後2~5年間におけるエージェント型AIの採用方法や能力発展の不確実性を探るため、四つの異なる将来シナリオを用いる。
The ICO’s role ICOの役割
Our aim at the Information Commissioner’s Office (ICO) is to ensure that innovation in agentic AI develops in ways that protect people’s information rights, while providing clarity and support for organisations. Our next steps on agentic AI include the following: 情報コミッショナー事務局(ICO)の目的は、自律型AIの革新が人々の情報権利を保護する形で発展するよう確保すると同時に、組織に対して明確さと支援を提供することだ。自律型AIに関する今後の取り組みは以下の通りである:
•  Hosting workshops with industry to gather further information on agentic AI, including on agentic capabilities and adoption, and how industry is mitigating data protection and privacy risks.  •  業界とのワークショップを開催し、エージェント型AIに関する追加情報を収集する。これにはエージェント機能や導入状況、業界がデータ保護・プライバシーリスクをどのように緩和しているかなどが含まれる。
•  Updating guidance on automated decision-making and profiling, in light of the Data (Use and Access) Act, starting with public consultations in 2026.  •  データ(使用およびアクセス)法に照らして、自動化された意思決定およびプロファイリングに関するガイダンスを更新する。2026 年の公開協議から開始する。
•  Working with partner regulators through the Digital Regulation Cooperation Forum (DRCF) to understand the cross-regulatory implications of agentic AI and invite innovators to participate in the Thematic Innovation Hub on agentic AI.  •  デジタル規制協力フォーラム(DRCF)を通じて、パートナー規制当局と協力し、エージェント型 AI が規制に及ぼす影響を理解するとともに、イノベーターをエージェント型 AI に関するテーマ別イノベーションハブに参加するよう招待する。
•  Continuing our work with international partners through the G7 Data Protection Authorities Emerging Technologies Working Group.  •  G7 データ保護当局新興技術ワーキンググループを通じて、国際的なパートナーとの協力を継続する。
•  Inviting stakeholders working on agentic AI applications to access our innovation support services. For organisations that are in the process of developing innovative products and services using personal information and agentic AI in the public interest, we encourage them to explore our Regulatory Sandbox.  •  エージェント型 AI アプリケーションに取り組むステークホルダーに対し、我々のイノベーション支援サービスへのアクセスを呼びかける。公共の利益のために個人情報とエージェント型 AI を使用して革新的な製品やサービスを開発している組織については、我々の規制サンドボックスの利用を検討するよう奨励する。
We would like to encourage and support data protection–focused opportunities in agentic AI. We will address innovation opportunities proactively as agentic AI matures and our role in regulating it develops. 能動的AIにおけるデータ保護に焦点を当てた機会を促進・支援したい。能動的AIが成熟し、我々の規制役割が発展するにつれ、イノベーションの機会を積極的に取り扱う。
We will keep our approach under review as technologies, markets and risks evolve. 技術、市場、リスクが進化するにつれ、我々のアプローチを見直し続ける。

  

・[PDF

20260115-100607

・[DOCX][PDF] 仮訳

 

ICO tech futures: Agentic AI ICO技術展望:エージェント型AI
Foreword まえがき
Executive summary エグゼクティブサマリー
The ICO’s role ICOの役割
Introduction 序論
Why agentic AI? なぜエージェント型AIなのか?
What are agentic AI and AI agents? エージェント型AIとAIエージェントとは何か?
Potential use cases 潜在的なユースケース
Agentic commerce エージェント型コマース
Workplace applications 職場での応用
Government services 政府サービス
Automated cybersecurity applications 自動化されたサイバーセキュリティアプリケーション
Integrated personal assistants 統合型パーソナルアシスタント
Medical sector 医療分野
Technical developments 技術開発
Data protection and privacy risks データ保護とプライバシーリスク
Human responsibility and controllership 人間の責任と管理責任
Governance ガバナンス
Automated decision-making 自動化された意思決定
Purpose limitation and data minimisation 目的限定とデータ最小化
Purpose limitation 目的の限定
Data minimisation データ最小化
Rapid generation of personal information by agentic AI systems 能動的AIシステムによる個人情報の迅速な生成
Special category data and agentic AI 特別カテゴリーデータと能動的AI
Transparency and explainability 透明性と説明可能性
Accountability 説明責任
Accuracy 正確性
Individual information rights and fairness 個人情報の権利と公平性
Fairness 公平性
The role of the data protection officer データ保護責任者の役割
Challenges in maintaining oversight over novel processing 新たな処理に対する監視を維持する上での課題
Increased complexity of documenting decision-making 意思決定の文書化の複雑化
Evolving role of the DPO DPOの役割の進化
Agentic AI security threats and mitigations エージェント型AIのセキュリティ脅威と緩和
Agent business models and the concentration of personal information エージェント型ビジネスモデルと個人情報の集中
Innovation opportunities – What innovation might the ICO want to see in agentic AI? イノベーションの機会 – ICOはエージェント型AIにおいてどのようなイノベーションを望むか?
Data protection compliant agents データ保護に準拠したエージェント
Agentic controls エージェント制御
Privacy and personal information management agents プライバシー及び個人情報管理エージェント
Local agents and trusted computing ローカルエージェントと信頼できるコンピューティング
Freedom of information and data protection agents 情報公開とデータ保護エージェント
Benchmarks and evaluations for agents エージェントのベンチマークと評価
Scenarios for the future of agentic AI エージェント型AIの未来シナリオ
Scenario planning シナリオ計画
Scenario one: Scarce, simple agents (low adoption, low agentic capability) シナリオ1:希少で単純なエージェント(普及率低、エージェント能力低)
Scenario two: just good enough to be everywhere (high adoption, low agentic capability) シナリオ2:どこにでも存在する程度の性能(普及率高、エージェント能力低)
Scenario three: Agents in waiting (low adoption, high agentic capability) シナリオ3:待機状態のエージェント(普及率低、エージェント能力高)
Scenario four: Ubiquitous agents (high adoption, high agentic capability) シナリオ4:遍在するエージェント(普及率高、能動的能力高)
Next steps 次のステップ
Engagement, guidance development and collaboration 関与、ガイダンスの策定、協力
Digital Regulation Cooperation Forum (DRCF) デジタル規制協力フォーラム(DRCF)
International engagement 国際的な関与
Annex I: Methodology 附属書 I:方法論
Futurecast 将来予測
Stakeholder engagement ステークホルダーとの関わり
Scenario planning シナリオ計画
Steps taken to build and validate scenarios シナリオ構築と妥当性確認のために講じた措置
Annex II: Some drivers impacting the use of agentic AI 附属書II:能動的AIの利用に影響を与える要因
Agentic AI drivers 能動的AIの推進要因
Model training costs モデル訓練コスト
A drop in compute prices and increased processing power driving accessibility コンピューティング価格の低下と処理能力の向上によるアクセシビリティの向上
Increasingly large, high-quality datasets are available 大規模で高品質なデータセットが利用可能になる
Venture capital funding and the AI bubble ベンチャーキャピタルの資金調達とAIバブル
‘Fear of missing out’ driven by the hype cycle and marketing ハイプサイクルとマーケティングによる「取り残される恐怖」
Highly intersectional technology 高度に交差する技術
Cost savings from reduced staff costs and labour 人件費削減によるコスト削減
A push on AI from national governments 各国政府によるAI推進
Annex III: Glossary of terms 附属書III:用語集
Annex IV: Further reading 附属書IV:参考文献
Annex V: Acknowledgements 附属書V:謝辞

 

 

|

« 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12) | Main | フランス CNIL 観光用カメラ:個人のプライバシー保護のために遵守すべき規則を明確化 (2026.01.05) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12) | Main | フランス CNIL 観光用カメラ:個人のプライバシー保護のために遵守すべき規則を明確化 (2026.01.05) »