« OpenID Japan 「Identity Management for Agentic AI」の翻訳版公開 (2025.11.09) | Main | ユーロポール サイバー犯罪インフラの終焉:1025台のサーバーを摘発 »

2025.11.14

欧州 EDPS AIシステムのリスクマネジメントのためのガイダンス (2025.11.11)

こんにちは、丸山満彦です。

EDPS(欧州データ保護観察機関)は、AIシステムのリスクマネジメントのためのガイダンスを公表していますね...

EDPSの文書なので、EU機構・団体・事務所・機関(EUI)が対象です。AIシステムの開発・調達・展開時にパーソナルデータの処理によって生じるデータ対象者の基本的権利に対するリスクを識別し緩和するための指針を提供するものです。

このガイダンスは、法的に問題がないかどうかを示す指針ではなく、データ保護の観点からリスクを体系的に評価することを促進することを目的としているようですね...

リスクの体系的整理は、ISO 31000:2018 Risk management - Guidelines(日本だとJISQ 31000:2019 リスクマネジメント−指針)によっています...

そしてこのガイダンスは次の文書を補完するものということです...

Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC (Text with EEA relevance.) 欧州議会及び理事会による2018年10月23日付規則(EU)2018/1725。欧州連合の機構、団体、事務所及び機関によるパーソナルデータの処理及び当該データの自由な移動に関する自然人の保護、並びに規則(EC)第45/2001号及び決定第1247/2002/EC号の廃止について。(EEA関連テキスト)
Accountability on the ground Part II: Data Protection Impact Assessments & Prior Consultation 現場における説明責任 第II部:データ保護影響評価及び事前協議
Generative AI and the EUDPR. Orientations for ensuring data protection compliance when using Generative AI systems. (Version 2) 生成的AIとEUDPR。生成的AIシステム利用時のデータ保護コンプライアンス確保に向けた指針(バージョン2)

 

European Data Protection Supervisor; EDPS

・2025.11.11 Guidance for Risk Management of Artificial Intelligence systems

20251113-62545

・[DOCX][PDF] 仮訳

 

目次...

Executive summary エグゼクティブサマリー
1 Introduction 1 序論
1.1 Objective 1.1 目的
1.2 Scope 1.2 適用範囲
1.3 Audience 1.3 対象読者
2 Risk Management methodology 2 リスクマネジメント手法
3 Understanding the AI lifecycle 3 AIライフサイクルの理解
3.1 Definition of an AI system 3.1 AIシステムの定義
3.2 Lifecycle of an AI system 3.2 AIシステムのライフサイクル
3.3 Procuring an AI system 3.3 AIシステムの調達
4 Interpretability and explainability as sine qua non 4 解釈可能性と説明可能性は不可欠な条件
4.1.1 Risk 1: Uninterpretable or unexplainable AI system 4.1.1 リスク1:解釈不能または説明不能なAIシステム
5 Risks associated to main Data Protection Principles 5 主要なデータ保護原則に関連するリスク
5.1 Principle of fairness 5.1 公正性の原則
5.1.1 Risk 1: Bias caused by the lack of data quality in training personal data 5.1.1 リスク1:訓練用個人データの品質不足によるバイアス
5.1.2 Risk 2: Bias in training personal data 5.1.2 リスク2:トレーニング個人データにおけるバイアス
5.1.3 Risk 3: Overfitting to the training personal data 5.1.3 リスク3:トレーニング個人データへの過学習
5.1.4 Risk 4: Algorithmic bias 5.1.4 リスク4:アルゴリズムバイアス
5.1.5 Risk 5: Interpretation bias 5.1.5 リスク5:解釈バイアス
5.2 Principle of accuracy 5.2 正確性の原則
5.2.1 Legal meaning of accuracy in the EUDPR 5.2.1 EUDPRにおける正確性の法的意味
5.2.2 Statistical meaning of accuracy in AI development 5.2.2 AI開発における正確性の統計的意味
5.2.3 Risk 1: Inaccurate personal data output 5.2.3 リスク1:不正確な個人データの出力
5.2.4 Specific example: Inaccurate output due to data drift and deterioration of input personal data quality 5.2.4 具体例:データドリフトと入力個人データの品質劣化による不正確な出力
5.2.5 Risk 2: Unclear information from the AI system provider 5.2.5 リスク 2: AIシステムプロバイダからの不明確な情報
5.3 Principle of data minimisation 5.3 データ最小化の原則
5.3.1 Risk 1: Indiscriminate collection and storage of personal data 5.3.1 リスク1:個人データの無差別な収集と保存
5.4 Principle of security 5.4 セキュリティの原則
5.4.1 Risk 1: AI system output disclosure of training personal data 5.4.1 リスク1:AIシステムの出力によるトレーニング個人データの開示
5.4.2 Risk 2: Personal data storage and personal data breaches 5.4.2 リスク 2:個人データの保存と個人データ漏えい
5.4.3 Risk 3: Personal data leakage through application programming interfaces 5.4.3 リスク3:アプリケーションプログラミングインターフェース(API)を通じた個人データ漏洩
5.5 Data subject’s rights 5.5 データ対象者の権利
5.5.1 Risk 1: Incomplete identification of the personal data processed 5.5.1 リスク1:処理される個人データの不完全な特定
5.5.2 Risk 2: Incomplete rectification or erasure 5.5.2 リスク2:不完全な訂正または消去
6 Conclusion 6 結論
Annex 1: Metrics 附属書1:評価指標
Annex 2: Overview of concerns and risks 附属書2:懸念事項とリスクの概要
Annex 3: Checklist per phase of the AI lifecycle development 附属書3:AIライフサイクル開発の各段階におけるチェックリスト
Developing and AI system AIシステムの開発
Procuring an AI system AIシステムの調達

 

 

エグゼクティブサマリー...

Executive summary  エグゼクティブサマリー 
The development, procurement and deployment of AI systems involving the processing of personal data by European Union Institutions, Bodies, Offices and Agencies (EUIs) raises significant risks to data subjects’ fundamental rights and freedoms, including but not limited to privacy and data protection. As the cornerstone of Regulation 2018/1725 (EUDPR),[1] the principle of accountability enshrined in Article 4(2) (for administrative personal data) and Article 71(4) (for operational personal data) requires EUIs to identify and mitigate these risks, as well as to demonstrate how they did so. This is all the more important for AI systems that are the product of intricate supply chains often involving multiple actors processing personal data in different capacities.  欧州連合の機構、団体、事務所及び機関(EUI)によるパーソナルデータの処理を伴うAIシステムの開発、調達及び展開は、プライバシー及びデータ保護を含むがこれらに限定されない、データ対象者の基本的権利及び自由に対する重大なリスクをもたらす。規則2018/1725(EUDPR)の基盤である[1] において、第4条(2)(行政上の個人データ)および第71条(4)(業務上の個人データ)に規定される説明責任の原則は、EUIに対し、これらのリスクを識別・緩和するとともに、その方法を実証することを要求している。これは、複雑なサプライチェーンの産物であるAIシステムにおいて特に重要である。こうしたシステムでは、異なる立場で個人データを処理する複数の主体が関与することが多いからだ。 
This Guidance aims to guide EUIs acting as data controllers in identifying and mitigating some of these risks. More specifically, they focus on the risk of non-compliance with certain data protection principles elicited in the EUDPR for which the mitigation strategies that controllers must implement can be technical in nature – namely fairness, accuracy, data minimisation, security and data subjects’ rights. As such, the technical controls listed in this Guidance are by no means exhaustive, and do not exempt EUIs from conducting their own assessment of the risks raised by their specific processing activities. In doing so, it refrains from ranking their likelihood and severity.  本ガイダンスは、データ管理者として行動するEUIが、こうしたリスクの一部を識別・緩和するための指針となることを目的とする。具体的には、EUDPRで規定される特定のデータ保護原則(公平性、正確性、データ最小化、セキュリティ、データ対象者の権利)への非準拠リスクに焦点を当て、管理者が実施すべき緩和策は技術的性質を持つ場合がある。したがって、本ガイダンスに記載された技術的対策は決して網羅的ではなく、EUIが自らの特定の処理活動によって生じるリスクを独自に評価する義務を免除するものではない。また、その際、リスク発生の可能性や深刻度の順位付けは行わない。 
First, this document provides an overview of the risk management methodology according to ISO 31000:2018 (Section 2). Second, it outlines the typical development lifecycle of AI systems as well as the different steps involved in their procurement (Section 3). Third, it explores the notions of interpretability and explainability as cross-cutting concerns that condition compliance with all the provisions covered in this Guidance (Section 4). Lastly, it breaks down the four general principles listed above, namely fairness, accuracy, data minimisation and security into specific risks, each of which is then described and paired with technical measures that controllers can implement to mitigate these risks (Section 5).  まず、本文書はISO 31000:2018に基づくリスクマネジメント手法の概要を示す(第2節)。次に、AIシステムの典型的な開発ライフサイクルと調達プロセスにおける各段階を概説する(第3節)。第三に、解釈可能性と説明可能性という概念を、本ガイダンスで扱う全規定への準拠を左右する横断的課題として考察する(第4節)。最後に、前述の4つの一般原則(公平性、正確性、データ最小化、セキュリティ)を具体的なリスクに分解し、各リスクの説明と併せて、管理者がリスク緩和のために実施可能な技術的措置を提示する(第5節)。 
The EDPS issues this guidance in his role as a data protection supervisory authority and not in his role as market surveillance authority under the AI Act. This guidance is without prejudice to the Artificial Intelligence Act.  欧州データ保護監督官(EDPS)は、本ガイダンスをAI法に基づく市場監視当局としての役割ではなく、データ保護監督当局としての立場で発行する。本ガイダンスは人工知能法に影響を与えない。 
[1] Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC [2018] OJ L295/39 [web]
[1]欧州議会及び理事会規則(EU)2018/1725(2018年10月23日)欧州連合の機構、団体、事務所及び機関によるパーソナルデータの処理及び当該データの自由な移動に関する自然人の防御、並びに規則(EC)第45/2001号及び決定第1247/2002/EC号の廃止について[2018] OJ L295/39 [web]

 

 

 

 

 

 

 

 

 

|

« OpenID Japan 「Identity Management for Agentic AI」の翻訳版公開 (2025.11.09) | Main | ユーロポール サイバー犯罪インフラの終焉:1025台のサーバーを摘発 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« OpenID Japan 「Identity Management for Agentic AI」の翻訳版公開 (2025.11.09) | Main | ユーロポール サイバー犯罪インフラの終焉:1025台のサーバーを摘発 »