« 欧州委員会 デジタルサービス法に基づきアップル、ブッキング・ドットコム、グーグル、マイクロソフトに金融詐欺に関する情報提供を要請 | Main | オランダ イタリア 他 スマートテレビに関する予備調査報告書 (2025.09.23) »

2025.10.06

欧州 データ保護監督局 (EDPS) 自動化された意思決定に対する人間のモニタリング

こんにちは、丸山満彦です。

欧州データ保護監督局 (EDPS) が、自動化された意思決定に対する人間のモニタリングという報告書を公表しているのですが、これがなかなかよいです。

実際にAIを使ったシステムを社会実装しようとする時の参考になると思います。

自動化された意思決定に対する人間のモニタリングに関する誤った仮定、というのが特に参考になると思います。当たり前のことを書いているのですが、忘れがちな視点です...

 


ADMに対する人間のモニタリングに関する誤った仮定

1 ADMシステムに用いられる技術に関する誤った仮定

  1. 仮定:ADMシステムは特定かつ予め定められた条件下で動作する
  2. 仮定:ADMシステムは非典型的な状況や異常値を処理する際、制御を人間に移行する

2 人間と技術の相互作用に関する誤った仮定

  1. 仮定:自動化は人間の判断に影響を与えない
  2. 仮定:システムを人間が監督している場合、自動化された意思決定は存在しない
  3. 仮定:人間のオペレーターには決定権があるという仮定
  4. 仮定:人間と機械を組み合わせたシステムはより優れている
  5. 仮定:人間のオペレーターはシステムの決定を覆す適切な手段を持つ
  6. 仮定:透明性と説明可能なAIは人間のモニタリングを改善する
  7. 仮定:人間のモニタリングはシステムの欠点を補える

3 人間の行動に関する誤った仮定

  1. 仮定:人間のオペレーターは対応方法を知っている
  2. 仮定:人間のオペレーターは任務を遂行できる
  3. 仮定:人間のオペレーターは「適切な意図」を持つ

 

European Data Prorection Supervisor; EDPS

・2025.09.23 TechDispatch #2/2025 - Human Oversight of Automated Decision-Making

 

・[PDF]

20251005-60543

・[DOCX][PDF] 仮訳

 

目次...

1. Introduction 1. 序論
2. Definition of human oversight of ADM systems 2. ADMシステムに対する人的モニタリングの定義
3. Flawed assumptions about human oversight of ADM 3. ADMに対する人間のモニタリングに関する誤った仮定
3.1 Wrong assumptions about the technology used in ADM systems 3.1 ADMシステムに用いられる技術に関する誤った仮定
Assumption: ADM systems will operate within specific and predetermined  conditions 仮定:ADMシステムは特定かつ予め定められた条件下で動作する
Assumption: ADM systems will transfer control to humans when handling atypical  or outlier situations 仮定:ADMシステムは非典型的な状況や異常値を処理する際、制御を人間に移行する
3.2 Wrong assumptions about how humans and technologies interact 3.2 人間と技術の相互作用に関する誤った仮定
Assumption: Automation does not influence human judgment 仮定:自動化は人間の判断に影響を与えない
Assumption: There is no automated decision-making if there is a human  supervising the system 仮定:システムを人間が監督している場合、自動化された意思決定は存在しない
Assumption: That human operators possess the authority to decide 仮定:人間のオペレーターには決定権があるという仮定
Assumption: Systems combining human and machine work better 仮定:人間と機械を組み合わせたシステムはより優れている
Assumption: Human operators have appropriate mechanisms to override  the system’s decisions 仮定:人間のオペレーターはシステムの決定を覆す適切な手段を持つ
Assumption: Transparency and explainable AI improve human oversight 仮定:透明性と説明可能なAIは人間のモニタリングを改善する
Assumption: Human oversight can help address the system’s shortcomings 仮定:人間のモニタリングはシステムの欠点を補える
3.3 Wrong assumptions about how humans behave 3.3 人間の行動に関する誤った仮定
Assumption: That human operators know what to do 仮定:人間のオペレーターは対応方法を知っている
Assumption: That human operators are able to do the task 仮定:人間のオペレーターは任務を遂行できる
Assumption: That human operators will have ‘fitting intentions’ 仮定:人間のオペレーターは「適切な意図」を持つ
4. Promoting more effective and meaningful human oversight 4. より効果的で意味のある人間のモニタリングの促進
4.1 Organisational measures for effective and meaningful human oversight 4.1 効果的かつ有意義な人間のモニタリングのための組織的措置
Organisations should provide stable, healthy, and fair work conditions  for adequate human oversight 組織は、適切な人的モニタリングのために安定し、健全で公平な労働条件を提供すべきである
Organisations should provide appropriate and sufficient time for review 組織は適切な十分な審査時間を提供すべきである
Human oversight should be considered an important safeguard  by the organisations 組織は、人間のモニタリングを重要な安全対策と認識すべきである
Ensuring human oversight is not misused as a fall back responsibility  in system failures システム障害時に人間のモニタリングが責任逃れの手段として悪用されないようにすること
Organisations should provide adequate training and support to the operators 組織はオペレーターに十分な訓練と支援を提供すべきである
4.2 Technical measures for effective and meaningful human oversight 4.2 効果的かつ有意義な人的モニタリングのための技術的対策
The system decisions should be explainable システムの決定は説明可能であるべきである
The system interface should have a clear, intuitive, and accessible design システムインターフェースは明確で直感的、かつアクセスしやすい設計であるべきである
4.3 Operator’s profile for effective and meaningful human oversight 4.3 効果的かつ有意義な人的モニタリングのための操作者プロファイル
The operator should have fitting intentions 操作者は適切な意図を持つべきである
The operator should have the necessary expertise オペレーターは必要な専門知識を持つべきである
4.4 Practical approaches for effective human oversight 4.4 効果的な人的モニタリングのための実践的アプローチ
Auditing 監査
Sampling サンプリング
Institutionalised distrust: holistic proposal 制度化された不信:包括的提案
Integrating feedback from affected individuals 影響を受ける個人からのフィードバックの統合
5. Conclusion 5. 結論
6. Bibliography 6. 参考文献

 

 

序論

1. Introduction 1. 序論
Two centuries of technological progress have redefined society, as industrial and digital automation have modified how people live, work, and how we interact with each other. What began with mechanised production lines to increase efficiency has evolved into autonomous and semi-autonomous systems capable of analysing data and making decisions with minimal human involvement. Propelled by breakthroughs in Artificial Intelligence (AI) - such as deep learning and transformer architectures - this automation now spans a wide range of sectors, including healthcare, finance, military defence, transportation, and public administration.[1] 二世紀にわたる技術進歩は社会を再定義した。産業とデジタルの自動化が人々の生活、働き方、相互交流の在り方を変えたのだ。効率化を目的とした機械化された生産ラインから始まったこの流れは、最小限の人間の関与でデータを分析し意思決定を行う自律型・準自律型システムへと進化した。深層学習やトランスフォーマーアーキテクチャといった人工知能(AI)の飛躍的進歩に後押しされ、この自動化は医療、金融、軍事防衛、交通、行政など幅広い分野に広がっている。[1]
A significant development in this evolution has been the automation of decision-making processes with the development of systems that not only execute tasks but also make decisions that can affect individuals’ lives and rights. Automated decision-making (ADM) is increasingly relied upon to process personal data and make consequential determinations, from eligibility assessments for social benefits to medical diagnoses, recruitment procedures, and credit approvals. この進化における重要な進展は、単にタスクを実行するだけでなく、個人の生活や権利に影響を与える決定を下すシステムの登場による意思決定プロセスの自動化である。自動化された意思決定( ADM)は、社会保障給付の受給資格審査から医療診断、採用手続き、与信審査に至るまで、個人データを処理し重大な判断を下す手段としてますます依存されている。
While technological advances in ADM offer significant potential, they also introduce risks of opacity, bias, and discrimination in decision outcomes. Such risks can undermine trust in technology and lead to violations of individual rights, as well as broader harm to democratic processes and societal cohesion.[2] To mitigate these concerns, ADM systems that significantly impact people’s lives must be subject to rigorous monitoring to safeguard privacy, data protection, non-discrimination, and other fundamental rights. ADMの技術的進歩は大きな可能性を秘める一方で、意思決定結果における不透明性、バイアス、差別のリスクも生み出す。こうしたリスクは技術への信頼を損ない、個人の権利侵害や民主的プロセス・社会的結束への広範な悪影響を招きかねない。[2] こうした懸念を軽減するため、人々の生活に重大な影響を与えるADMシステムは、プライバシー保護、データ保護、差別禁止その他の基本的権利を保障する厳格なモニタリングの対象とされねばならない。
Individuals might not always be aware that they are subjected to ADM. This can create an imbalance of power between those affected by these systems and those who design, deploy, or control them. As ADM becomes increasingly integrated into processes, tools, and services, it is essential to ensure that these systems are not left to make autonomous, uncontrolled decisions that affect individuals’ fundamental rights. 個人は、自分がADMの対象となっていることに常に気づいているとは限らない。これにより、これらのシステムの影響を受ける者と、それらを設計・導入・管理する者との間に力の不均衡が生じる可能性がある。ADMがプロセス、ツール、サービスにますます統合されるにつれ、これらのシステムが個人の基本的権利に影響を与える自律的で制御不能な決定を下すままにしないことが不可欠である。
Therefore, the involvement of humans as a safeguard against the risks associated with ADM systems (e.g., algorithmic bias and misclassification[3]) is increasingly perceived as necessary. Integrating human judgment at various stages - during the design, real-time monitoring, or post-decision audits - can help ensure that ADM systems align with ethical standards, societal values, and regulations. したがって、ADMシステムに伴うリスク(例:アルゴリズムバイアスや誤分類[3])に対する安全装置として人間の関与が必要であるとの認識が高まっている。設計段階、リアルタイムモニタリング 、決定後の監査など様々な段階で人間の判断を組み込むことで、ADMシステムが倫理基準、社会的価値観、規制に沿うことを保証できる。
However, simply adding a human within the decision-making process does not inherently ensure better outcomes, nor should it serve as a means to deflect accountability for the system’s decisions.[4] In fact, just including a human is unlikely to prevent systems from producing wrongful or harmful outcomes for individuals. This is frequently due to inadequate implementations or lack of control over the system - issues that will be further examined in this document. しかし、意思決定プロセスに人間を単純に加えるだけでは、本質的に良い結果が保証されるわけではなく、システムの決定に対する説明責任を回避する手段となるべきでもない。[4] 実際、単に人間を関与させるだけでは、システムが個人に対して不当または有害な結果を生み出すのを防げない可能性が高い。これは多くの場合、不十分な実装やシステムに対する制御の欠如に起因するものであり、本稿ではこれらの問題を詳細に検討する。
In any case, for human oversight to be meaningful and effective,[5] it must be carefully structured, taking into account both the limitations of ADM systems and the complex dynamics between human operators and machine-generated outputs. いずれにせよ、人間のモニタリングが意味を持ち効果を発揮するためには、[5] ADMシステムの限界と、人間のオペレーターと機械生成出力の間の複雑な力学の両方を考慮して、慎重に設計されなければならない。
The objective of this TechDispatch is twofold. First, it examines common assumptions about how humans interact with and monitor decision-making systems, highlighting the overly optimistic nature of many of these assumptions. Accepting these assumptions uncritically can lead to inadequate or flawed implementations, posing significant risks - including harm to individuals and potential violations of fundamental rights. Second, it explores practical measures that providers[6] and deployers[7] of ADM systems can take to ensure that human oversight supports democratic values and safeguards human rights. 本TechDispatchの目的は二つある。第一に、人間が意思決定システムとどう関わりモニタリングするかに関する一般的な仮定を検証し、それらの多くが過度に楽観的であることを指摘する。こうした仮定を無批判に受け入れると、不十分あるいは欠陥のある実装につながり、個人への危害や基本的人権侵害の可能性を含む重大なリスクを生む。次に、ADMシステムの提供者([6])と導入者([7])が、人間のモニタリングが民主主義的価値を支え人権を保護するよう確保するために講じ得る実践的措置を探る。
It is important to note that this Tech Dispatch does not aim to offer any legal interpretation. Instead, it focuses on exploring how the implementation of human oversight can impact its overall effectiveness. 本テック・ディスパッチは法的解釈を提供するものではないことに留意すべきだ。むしろ、人間のモニタリングの実装が全体的な有効性にどう影響するかを探求することに焦点を当てている。
This TechDispatch builds upon the knowledge gathered during the Internet Privacy Engineering Network (IPEN) event, organised by the EDPS and the Karlstad University in September 2024.[8] 本TechDispatchは、2024年9月に欧州データ保護監督官(EDPS)とカールスタード大学が主催したインターネットプライバシーエンジニアリングネットワーク(IPEN)イベントで得られた知見に基づいている。[8]
[1] In many cases, decision-making systems are implemented to support robotic operations across various industrial domains, including automotive manufacturing, electronics assembly, and logistics. Although automation and robotics are closely interrelated, this document focuses exclusively on automated decision-making processes and does not address robotics as a distinct subject. For the purposes of this document, automation refers specifically to the automation of the decision-making process itself, regardless of whether the resulting decision is operationalized through robotic systems. [1]多くの場合、意思決定システムは自動車製造、電子機器組立、物流など様々な産業分野におけるロボット操作を支援するために導入される。自動化とロボット工学は密接に関連しているが、本稿は自動化された意思決定プロセスにのみ焦点を当て、ロボット工学を独立した主題として扱わない。本稿における自動化とは、結果としての決定がロボットシステムを通じて運用されるか否かにかかわらず、意思決定プロセスそのものの自動化を特に指す。
[2] Future of Privacy Forum. (2017). Unfairness by algorithm: Distilling the harms of automated decision-making. [PDF] [2]Future of Privacy Forum.(2017). アルゴリズムによる不公平:自動化された意思決定の害を抽出する。 [PDF]
[3] ADM misclassification occurs when an ADM system assigns an incorrect label or category to input data - such as flagging a legitimate transaction as fraud. [3]ADM誤分類とは、ADMシステムが入力データに誤ったラベルやカテゴリーを割り当てる現象を指す。例えば正当な取引を不正と判定するケースなどである。
[4] In her work “Moral Crumple Zones Cautionary Tales in Human-Robot Interaction”, Madeleine Elish introduces the idea that human operators sometimes act as moral crumple zones for the systems. “While the crumple zone in a car is meant to protect the human driver, the moral crumple zone protects the integrity of the technological system, at the expense of the nearest human operator” (Elish, 2025). [4]マデリーン・エリッシュは論文「道徳的クラッシュゾーン:人間とロボットの相互作用における戒めの物語」で、人間のオペレーターがシステムの道徳的クラッシュゾーンとして機能する場合があると提唱している。「自動車のクラッシュゾーンが人間の運転者を保護する目的であるのに対し、道徳的クラッシュゾーンは、最も近い人間のオペレーターの犠牲のもとに、技術システムの完全性を保護する」(Elish, 2025)。
[5] Chapter 2 (Definition of human oversight of ADM systems) provides a detailed description of what is meant by ‘meaningful’ and ‘effective’ human oversight in the context of this document. [5]第2章(ADMシステムに対する人間のモニタリングの定義)では、本稿における「有意義な」かつ「効果的な」人間のモニタリングが何を意味するのかについて詳細に記述している。
[6] This document uses the term ‘providers’ to refer to organisations that develop and make ADM technology available. [6]本稿では、ADM技術を開発し提供する組織を指すために「提供者」という用語を用いる。
[7] This document uses the term ‘deployers’ to refer to any natural or legal person, public authority, agency or other body using an ADM system under its authority except where the ADM system is used in the course of a personal non-professional activity. [7]本稿では「導入者」という用語を、個人非職業的活動において使用される場合を除き、その権限下でADMシステムを使用する自然人・法人、公的機関、政府機関その他の団体を指すために使用する。
[8] Information and recordings of the event can be found in the EDPS webpage in: [web] [8]本イベントの情報および記録は、EDPSのウェブページ[web] で閲覧可能である。

 

 

結論

5. Conclusion 5. 結論
This TechDispatch explains what ADM is and critically examines common assumptions underlying human oversight of ADM systems, revealing why many such beliefs are unsupported and in practice do not improve the quality of the decisions taken by the system. These misconceptions risk fostering a false sense of security, potentially allowing flawed algorithms to operate unchecked under the veneer of human control. 本TechDispatchはADMの定義を説明し、ADMシステムの人間によるモニタリングに潜む一般的な仮定を批判的に検証した。多くの信念が根拠なく、実際にはシステムの意思決定品質を向上させない理由を明らかにした。こうした誤解は誤った安心感を助長し、人間の管理という表層の下で欠陥のあるアルゴリズムが野放しになる危険性がある。
Drawing on these insights, the report outlined a comprehensive set of organizational, technical, and operator-focused measures to make human oversight meaningful and effective. Organisational commitment from both providers and deployers is essential to prioritize human oversight at all levels. Thoughtful system design should embed capabilities that enhance human understanding and control, while operator training must equip individuals with the skills and situational awareness needed to intervene appropriately. これらの知見に基づき、本報告書は人間のモニタリングを意味ある効果的なものとするため、組織的・技術的・運用者向けの包括的対策を提示した。提供者と導入者の双方による組織的コミットメントが、あらゆるレベルで人間のモニタリングを優先させるために不可欠である。思慮深いシステム設計は人間の理解と制御を強化する機能を組み込むべきであり、運用者訓練は個人が適切に介入するために必要なスキルと状況認識を身につけさせるものでなければならない。
It is vital to emphasise that inherent flaws in ADM systems - whether due to scientific unreliability or conflicts with fundamental rights - cannot be fully addressed by human oversight alone. Relying solely on human operators as a final safeguard risks legitimizing defective and controversial systems that may cause harm without tackling root causes. To prevent this, human oversight should be complemented by institutional review processes, such as public evaluation and approval before deployment. [1] Systems that violate laws or fundamental rights must be prohibited outright rather than remedied through after-the-fact human intervention. For example, automated scoring is already a form of decision-making subject to data protection and other legal frameworks. 強調すべきは、科学的信頼性の欠如や基本的人権との矛盾に起因するADMシステムの本質的欠陥は、人間のモニタリングだけでは完全に対処できない点だ。最終的な安全装置として人間のオペレーターのみに依存することは、根本原因を解決せずに危害をもたらす可能性のある欠陥のある論争的なシステムを正当化するリスクを伴う。これを防ぐため、人間のモニタリングは、導入前の公的評価や承認といった制度的審査プロセスによって補完されるべきだ。 [1] 法律や基本的人権を侵害するシステムは、事後的な人間の介入による修正ではなく、完全に禁止されなければならない。例えば自動スコアリングは、既にデータ保護法などの法的枠組みの対象となる意思決定形態である。
Moreover, the effectiveness of human oversight varies significantly depending on the decisionmaking context. Monitoring purely technical systems differs fundamentally from monitoring socio-technical systems - such as welfare allocation, workforce management, credit or insurance pricing, or law enforcement applications. Socio-technical systems must be designed to uphold fundamental rights by design, rather than depending on human reviewers to correct violations after deployment. Systemic biases - such as discrimination based on race or socioeconomic status - often reflect inherent flaws in the ADM itself. Problematic systems, like emotion recognition in recruitment, should therefore be rejected outright, rather than relying on human oversight to mitigate risks. さらに、人間のモニタリングの有効性は意思決定の文脈によって大きく異なる。純粋に技術的なシステムのモニタリングは、福祉給付の配分、労働力管理、信用・保険の価格設定、法執行アプリケーションといった社会技術システムのモニタリングとは根本的に異なる。社会技術システムは、導入後の違反を人間の審査員に依存して修正するのではなく、設計段階で基本的人権を擁護するよう設計されなければならない。人種や社会経済的地位に基づく差別といった体系的なバイアスは、往々にしてADM自体に内在する欠陥を反映している。採用における感情認識のような問題のあるシステムは、リスク軽減を人間のモニタリングに委ねるのではなく、最初から拒否すべきである。
To ensure that human oversight fulfils its intended purpose, there is an urgent need to develop and adopt clear, standardised frameworks and metrics for assessing human oversight performance. Such standards will enable providers, deployers, and regulators to systematically evaluate whether human involvement effectively detects, mitigates, and corrects errors or harmful outcomes. Without this rigor, human oversight risks becoming a mere procedural formality rather than a genuine safeguard. 人間のモニタリングが本来の目的を果たすためには、そのパフォーマンスを評価するための明確で標準化された枠組みと指標を早急に開発・採用する必要がある。こうした基準により、提供者、導入者、規制当局は、人間の関与が誤りや有害な結果を効果的に検知・軽減・ 是正しているかを体系的に評価できるようになる。この厳密さがなければ、人間のモニタリングは真の安全装置ではなく、単なる手続き上の形式に堕するリスクがある。
By embracing the organisational, technical, and operational measures outlined here - and committing to robust standards for human oversight - stakeholders can better ensure that automation enhances, rather than undermines, human dignity, ethical responsibility, and societal trust. ここに概説した組織的、技術的、運用上の措置を採用し、人的モニタリングの堅牢な基準を確立することで、関係者は自動化が人間の尊厳、倫理的責任、社会的信頼を損なうのではなく、むしろ強化することをより確実に保証できる。
   
[1] Green, B. (2022). The flaws of policies requiring human oversight of government algorithms. Computer Law & Security Review, 45, 105681. [1]Green, B.(2022). 政府アルゴリズムへの人的モニタリングを義務付ける政策の欠陥. Computer Law & Security Review, 45, 105681.

 

 

 

 

 

|

« 欧州委員会 デジタルサービス法に基づきアップル、ブッキング・ドットコム、グーグル、マイクロソフトに金融詐欺に関する情報提供を要請 | Main | オランダ イタリア 他 スマートテレビに関する予備調査報告書 (2025.09.23) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 欧州委員会 デジタルサービス法に基づきアップル、ブッキング・ドットコム、グーグル、マイクロソフトに金融詐欺に関する情報提供を要請 | Main | オランダ イタリア 他 スマートテレビに関する予備調査報告書 (2025.09.23) »