オランダ データ保護庁 アルゴリズムに基づく意思決定における意味のある人間の介入 (2025.07.23)
こんにちは、丸山満彦です。
オランダのデータ保護庁が、アルゴリズムに基づく意思決定における意味のある人間の介入に関するガイドを公表しています。
なかなか興味深い内容だと思います...
・2025.07.23 Meaningful human intervention in algorithmic decision-making
| Meaningful human intervention in algorithmic decision-making | アルゴリズムに基づく意思決定における意味のある人間の介入 |
| The Autoriteit Persoonsgegevens (AP) has developed tools for meaningful human intervention in algorithmic decision-making. To this end, the AP recently sought input from companies, organisations, experts and stakeholders through a public consultation. | 個人データ保護当局(AP)は、アルゴリズムに基づく意思決定における意味のある人間の介入を実現するためのツールを開発した。この目的のため、APは最近、企業、組織、専門家、利害関係者から意見を求める公開意見募集を実施した。 |
| Organisations are increasingly using algorithms and artificial intelligence (AI) for algorithmic decision-making. Consider assessing a credit application or online job applications. If organisations want to use algorithmic decision-making, they must comply with certain rules. People have the right to human intervention in algorithmic decisions about them that affect them. The GDPR contains rules regarding this. | 組織は、アルゴリズムによる意思決定のためにアルゴリズムや人工知能(AI)をますます活用している。クレジットの申し込みやオンラインでの求人応募を例に考えてみよう。組織がアルゴリズムによる意思決定を利用する場合、一定のルールを遵守しなければならない。人々は、自分に関係するアルゴリズムによる意思決定について、人間の介入を受ける権利を有している。GDPR には、この点に関するルールが規定されている。 |
| Meaningful intervention | 意味のある介入 |
| Human intervention ensures that a decision is made carefully and aims to prevent, for example, people from being excluded or discriminated against, unintentionally or otherwise, by the outcome of an algorithm. This human intervention should not merely have a symbolic function; it should contribute meaningfully to decision-making. | 人間の介入により、意思決定が慎重に行われることが保証され、アルゴリズムの結果によって、意図的であるかどうかに関わらず、人々が排除されたり差別されたりすることを防止することができる。この人間の介入は、単なる象徴的な機能ではなく、意思決定に有意義に貢献するものでなければならない。 |
| The design is essential | 設計が不可欠 |
| The design of meaningful human intervention is essential. If an employee is hampered by time pressure or an ambiguous system, for example, this could impact the outcome of the decision. | 意味のある人間の介入の設計は不可欠である。例えば、従業員が時間的制約や曖昧なシステムによって妨げられた場合、その判断の結果に影響を与える可能性がある。 |
| Organisations often have questions about how to set this up. That is why the AP, the Dutch data protection authority, has developed tools for meaningful human intervention in algorithmic decision-making. These tools can help organisations and companies that intend to use algorithmic decision-making to guide the design of human intervention. For this reason, the document has been written to be as practical as possible to ensure it best addresses questions organisations have about the design. | 組織は、これをどのように設定すべきかについて疑問を抱くことがよくある。そのため、オランダのデータ保護機関である AP は、アルゴリズムによる意思決定における意味のある人間による介入のためのツールを開発した。このツールは、アルゴリズムによる意思決定の利用を検討している組織や企業が、人間による介入の設計を行う際の指針となる。そのため、この文書は、組織が設計に関して抱く疑問に最善の回答を提供できるよう、できるだけ実用的な内容となっている。 |
| The AP provides examples and an overview of questions that can help organisations guide the design of human intervention in a meaningful manner. These questions and examples address the relevant factors of humans, technology and design, process, and governance. | AP は、組織が意味のある方法で人間の介入の設計を指導するのに役立つ例や質問の概要を提供している。これらの質問と例は、人間、テクノロジー、設計、プロセス、ガバナンスに関連する要素を取り上げている。 |
| Result of consultation | 協議の結果 |
| Responses to the consultation have been collected and included without reference to the organisation or individual. Government agencies, independent foundations, companies, sector organisations and academics have provided input. Responses to the consultation included suggestions for particular questions. See the summary of responses to the consultation (in Dutch) . |
協議に対する回答は、組織や個人を特定することなく収集され、掲載されている。政府機関、独立財団、企業、業界団体、学者から意見が寄せられた。協議に対する回答には、特定の質問に関する提案も含まれている。協議への回答の概要(オランダ語)を参照のこと。 |
| Document status | 文書のステータス |
| With this document we aim to help organisations design meaningful human intervention in the most practical way possible. The document provides practical tools and is intended to guide organisations in designing meaningful human intervention in algorithmic decision-making. | この文書は、組織が意味のある人間の介入を可能な限り実用的な方法で設計するのを支援することを目的としている。この文書は、実用的なツールを提供し、アルゴリズムによる意思決定における意味のある人間の介入の設計において、組織を指導することを目的としている。 |
| Scope | 適用範囲 |
| This document is about meaningful human intervention, which ensures that the decision-making is not solely automated as referred to in Article 22 (1) GDPR and Article 11 (1) LED. These articles relate to ‘decisions based solely on automated processing’. By this we mean a decision that is entirely based on automated processing and has legal consequences for data subjects or otherwise affects them to a significant extent. If this involves meaningful human intervention, it is not regarded as a decision based solely on automated processing. In that case, the decision is not covered by Article 22 of the GDPR. | 本文書は、GDPR 第 22 条 (1) および LED 第 11 条 (1) で言及されている、意思決定が完全に自動化されていないことを保証する、意味のある人間の介入について記載している。これらの条項は、「自動化された処理のみに基づく決定」に関連している。ここでいう「自動化された処理のみに基づく決定」とは、完全に自動化された処理に基づいており、データ対象者に法的影響をもたらす、あるいはその他の方法でデータ対象者に著しい影響を与える決定を意味する。これには、意味のある人間の介入が含まれる場合、それは自動処理のみに基づく決定とはみなされない。その場合、その決定は GDPR 第 22 条の対象にはならない。 |
| Besides the design of human intervention, there are other key concepts from the article that may raise questions. For instance: when is the outcome of the process considered a ‘decision’? When does a decision affect someone ‘to a significant extent’? The document provides no answer to these questions. | 人間の介入の設計以外にも、この条項には疑問が生じる可能性のある重要な概念がいくつかある。例えば、プロセスの結果はいつ「決定」とみなされるのか?決定は、いつ「重要な影響」を誰かに与えるのか?この文書では、これらの質問に対する答えは示されていない。 |
| Follow-up | フォローアップ |
| To help organisations on their way, the AP will get started with the practical implementation of other key concepts regarding automated decision-making in the GDPR this year, such as what it means to be ‘affected to a significant extent’, and what information a data subject must be provided with about the automated decision. | 組織が対応を進める上で参考となるよう、AP は今年、GDPR における自動意思決定に関するその他の重要な概念、例えば「著しい影響」とは何を意味するのか、データ対象者に自動意思決定についてどのような情報を提供しなければならないのかなど、についての実践的な実施を開始する。 |
・2025.07.23 Tools meaningful human intervention
| Tools meaningful human intervention | 意味のある人的介入のためのツール |
| The Autoriteit Persoonsgegevens (AP) has developed tools for meaningful human intervention in algorithmic decision-making. | 個人データ保護委員会 (AP) は、アルゴリズムによる意思決定において意味のある人的介入を行うためのツールを開発した。 |
| Organisations are increasingly using algorithms and artificial intelligence (AI) for algorithmic decision-making. Consider assessing a credit application or online job applications. People have the right to human intervention in algorithmic decisions about them that affect them. The GDPR contains rules regarding this. | 組織は、アルゴリズムによる意思決定にアルゴリズムや人工知能 (AI) をますます活用している。クレジットの申し込みやオンラインでの求人応募などを考えてみよう。人々は、自分に関するアルゴリズムによる意思決定について、その決定に影響を与える人的介入を受ける権利を有している。GDPR には、この点に関する規則が記載されている。 |
| Organisations often have questions about how to set this up. The AP provides examples and an overview of questions that can help organisations guide the design of human intervention in a meaningful manner. These questions and examples address the relevant factors of humans, technology and design, process, and governance. | 組織は、これをどのように設定すべきかについて、しばしば疑問を抱く。AP は、組織が意味のある形で人間の介入の設計を行う上で参考となる、質問の例と概要を提供している。これらの質問と例は、人間、テクノロジー、設計、プロセス、ガバナンスといった関連要因について取り上げている。 |
・[PDF]
| Meaningful Human Intervention | 意味のある人間の介入 |
| A tool for shaping and implementing meaningful human intervention | 意味のある人間の介入を形作り、実施するためのツール |
| Preface | 序文 |
| Automated decision-making is used a wide range of sectors. Crucial to the implementation of algorithms for automated individual decision-making and surrounding processes are a number of concepts from the General Data Protection Regulation (GDPR) and the Law Enforcement Directive (LED), including a decision that is based “solely on an automated processing”.1 In other words: where there is no meaningful human intervention. | 自動化された意思決定は、幅広い分野で使用されている。自動化された個別意思決定および関連プロセスにアルゴリズムを導入する上で重要なのは、一般データ保護規則(GDPR)および法執行指令(LED)に規定されている、「もっぱら自動化された処理に基づく」決定など、いくつかの概念である。1 つまり、意味のある人間の介入がない場合である。 |
| In the Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679 (hereinafter: the guidelines), the European Data Protection Board (EDPB) has clarified what is meant by this: “Solely automated decision-making is the ability to make decisions by technological means without human involvement” and “the controller cannot avoid the Article 22 provisions by fabricating human involvement.”2 Such human involvement is subject to requirements: “To qualify as human involvement, the controller must ensure that any oversight of the decision is meaningful, rather than just a token gesture.”3 | 欧州データ保護会議(EDPB)は、規則 2016/679 の目的のための自動化された個別意思決定およびプロファイリングに関するガイドライン(以下、「ガイドライン」という)において、この意味を次のように明確にしている。「単独の自動化された意思決定とは、人間の関与なしに技術的手段により意思決定を行う能力」であり、「データ管理者は、人間の関与を偽装することで第22条の規定を回避することはできない」2。このような人間の関与には要件が課せられる:「人間の関与と認められるためには、データ管理者は、意思決定の監督が単なる形式的なものではなく、意味のあるものであることを確保しなければならない」3。 |
| What makes human intervention meaningful has not yet been fully defined. Researchers of the Brussels Privacy Hub looked at the ways in which people would have to check algorithms, and would have to take action if something goes wrong. They concluded that: “Determining what could be meant precisely by meaningful is indeed an even more complicated -but necessary- task. The scarce precedents in the CJUE and national courts do not make it any easier.” 4 Meaningful Human Intervention: a tool for shaping and implementing meaningful human intervention offers tools to data protection officers (DPOs), controllers and other parties involved to determine when human intervention could be meaningful. The guidelines, scientific literature, some court decisions and knowledge of AP employees who have dealt with automated decision-making form the basis for this document. In addition, this document was discussed with other European data protection authorities. The AI Act (Regulation (EU) 2024/1689) also offers clarification. In Article 14, in which the requirements for human oversight of high-risk AI systems have been formulated, we see human involvement defined as protection against negative effects of algorithmic decision-making: “Human oversight shall aim to prevent or minimise the risks to health, safety or fundamental rights.”5 | 人間の介入が意味のあるものとなる要件については、まだ完全には定義されていない。ブリュッセル・プライバシー・ハブの研究者は、人々がアルゴリズムをチェックし、問題が発生した場合に措置を講じる方法について検討した。その結果、彼らは次のように結論付けている。「意味のある」とは正確に何を意味するのかを決定することは、確かにさらに複雑な作業であるが、必要な作業である。CJUE や各国の裁判所における先例が乏しいことも、この作業を困難なものとしている。4 「意味のある人間の介入:意味のある人間の介入を形作り、実施するためのツール」は、データ保護責任者(DPO)、管理者、およびその他の関係者が、人間の介入が有意義であるかどうかを判断するためのツールを提供している。この文書は、ガイドライン、科学文献、一部の裁判所の判決、および自動意思決定を扱った AP 従業員の知識に基づいている。さらに、この文書は、他の欧州のデータ保護当局とも協議して作成されている。AI 法(規則(EU)2024/1689)も明確化を図っている。高リスク AI システムに対する人間の監督要件が規定されている第 14 条では、人間の関与は、アルゴリズムによる意思決定の悪影響に対する保護として定義されている。「人間の監督は、健康、安全、または基本的権利に対するリスクの防止または最小化を目的とするものとする。5 |
| Scope | 適用範囲 |
| Article 22(1) GDPR and Article 11(1) UAVG establish a prohibition on a “decision based solely on automated processing.” This refers to a decision that is entirely based on automated processing and produces legal effects concerning data subjects or similarly significantly (in the UAVG: adversely) affects them. This document concerns meaningful human intervention, which ensures that the decision-making does not qualify as solely automated processing as referred to in Article 22 GDPR and Article 11 UAVG, and therefore does not fall under the prohibition set out in those articles. Other key concepts from the articles—such as when the outcome of a process constitutes a “decision,” or when a decision “significantly affects” someone—are not addressed in this document. | GDPR 第 22 条 (1) および UAVG 第 11 条 (1) は、「自動化された処理のみに基づく決定」を禁止している。これは、完全に自動化された処理のみに基づいており、データ対象者に法的効果をもたらす、あるいは同様に重大な(UAVG では「不利な」)影響をもたらす決定を指する。本文書は、GDPR第22条およびUAVG第11条で言及される「完全に自動化された処理」に該当しないことを確保する「意味のある人間の介入」に関するものである。したがって、これらの条項で定められた禁止規定の対象外となる。これらの条項における他の重要な概念(例えば、プロセスの結果が「決定」に該当するかどうか、または「決定」が誰かに「重大な影響」を与えるかどうか)は、本文書では扱われていない。 |
| Additionally, “human intervention” is an appropriate measure under Article 22(3) of the GDPR to protect the rights, freedoms, and legitimate interests of the data subject. This applies in cases where a decision based solely on automated processing is permitted because an exception under Article 22(2)(a) or (c) of the GDPR applies. The components discussed in this document are also relevant for regulating human intervention when a data subject has the right to it after an automated decision has been made. However, this document is not written with that specific purpose in mind. | さらに、「人間の介入」は、データ対象者の権利、自由、および正当な利益を防御するための、GDPR 第 22 条 (3) に基づく適切な措置である。これは、GDPR 第 22 条 (2) (a) または (c) の例外が適用されるため、自動処理のみに基づく決定が許可される場合に適用される。本文書で説明する要素は、自動化された決定が行われた後にデータ対象者がその決定について異議を申し立てる権利を有する場合の人間の介入の規制にも関連する。ただし、本文書は、その特定の目的のために作成されたものではない。 |
| This document is intended as a tool for those within an organization who design and implement human intervention. In this document, they are referred to as “designers.” It is also for those who carry out human intervention, referred to as “assessors” in this document. This document is not a checklist: not all questions and components will or can be applicable to every process. The context and individual circumstances of each case are, of course, relevant and decisive. At the end of this document, an index is included in which more terms are explained. | 本文書は、組織内で人間の介入を設計および実施する者を対象としたツールである。本文書では、これらを「設計者」と呼びます。また、人間による介入を実施する者を「評価者」と呼びます。本文書はチェックリストではない。すべての質問や要素がすべてのプロセスに適用されるわけではない。各ケースの文脈と個々の状況は、当然ながら関連性があり決定的である。本文書の末尾には、追加の用語を説明した索引が収録されている。 |
| Algorithms | アルゴリズム |
| The term ‘algorithms’ does not appear in the GDPR. Nevertheless, we use that term in this document. We refer to algorithms when discussing automated processing operations that lead to a particular outcome in the context of a decision to be made. It is also important to distinguish between so-called rule-based algorithms and machine learning algorithms. Rule-based algorithms follow a relatively simple decision tree (if X, then Y), a formula, or a step-by-step plan. With this type of algorithm, it is generally easier to understand how the outcome is produced. In the case of a machine learning algorithm, a computer determines the exact link between input and output. Machine learning is a subset of artificial intelligence (AI). The complexity of machine learning can make the decision-making process insufficiently transparent and difficult to explain. These types of algorithms are also referred to as a black box. This can pose a problem when data subjects are affected by the outcomes.6 | 「アルゴリズム」という用語は GDPR には登場しません。しかし、この文書ではこの用語を使用している。意思決定の文脈で、特定の結果をもたらす自動化された処理操作について論じる場合、アルゴリズムという用語を使用する。また、いわゆるルールベースのアルゴリズムと機械学習アルゴリズムを区別することも重要である。ルールベースのアルゴリズムは、比較的単純な決定木(X なら Y)、式、または段階的な計画に従いる。このタイプのアルゴリズムでは、結果がどのように生成されるかを一般的に理解しやすいである。機械学習アルゴリズムの場合、入力と出力の正確な関連性はコンピュータによって決定される。機械学習は、人工知能(AI)の一分野である。機械学習は複雑であるため、意思決定プロセスが十分に透明ではなく、説明が難しい場合がある。このタイプのアルゴリズムは、ブラックボックスとも呼ばれます。データ対象者が結果の影響を受ける場合、これは問題となる可能性がある。6 |
| Use of algorithms | アルゴリズムの使用 |
| We want to make a few comments in advance regarding the use of algorithms. For instance, this document does not address whether the use of an algorithm in a specific process is appropriate, or whether the data processed by an algorithm is suitable for assessment by an algorithm (e.g., evaluating driving skills). Additionally, the way a human arrives at a decision is not always better or more transparent. That being said: the more responsible decision-making relies on human insight, experience, customization or intuition, the less appropriate it may be to have the decision taken exclusively by an algorithm.7 | アルゴリズムの使用について、あらかじめいくつかコメントしておきたいことがある。例えば、この文書では、特定のプロセスにおけるアルゴリズムの使用が適切であるかどうか、あるいはアルゴリズムによって処理されるデータがアルゴリズムによる評価に適しているかどうか(例えば、運転技能の評価)については扱っていない。さらに、人間が意思決定に至るプロセスが、必ずしもより優れていたり、より透明性が高いとは限りません。とはいえ、責任のある意思決定は、人間の洞察力、経験、カスタマイズ、直感に依存する部分が多いほど、アルゴリズムのみによって意思決定を行うことは適切ではないかもしれない。7 |
| We also find it important to caution against tunnel vision when it comes to the process of human intervention. The many factors and questions mentioned above may mask a larger issue – namely, that the decision being made is inherently unethical. Or that the use of an algorithm is morally problematic. Therefore, it is important to consider the nature of the decision to be made as well, independent of whether human intervention is meaningful or not. Is the use of an algorithm in that decision desirable in the first place? | また、人間の介入のプロセスに関しては、視野の狭さにも注意する必要があると考えている。上記の多くの要因や疑問は、より大きな問題、すなわち、その意思決定自体が本質的に非倫理的である、あるいはアルゴリズムの使用が道徳的に問題である、という事実を覆い隠してしまう可能性があるからである。したがって、人間の介入が意味のあるものかどうかとは無関係に、下される決定の性質も考慮することが重要である。その決定においてアルゴリズムの使用はそもそも望ましいものなのか? |
| It is not necessary to implement human intervention for every process involving algorithmic decision-making. For example, when the decision does not significantly affect the data subject or does not produce legal effects concerning them, the prohibition does not apply. Likewise, when the processing falls under one of the exceptions set out in Article 22(2) GDPR, human intervention is not required. It is important to remember that meaningful human intervention is a requirement under the GDPR in certain cases of algorithmic decision-making. The mere fact that an algorithm is highly accurate does not mean that human intervention is no longer necessary. | アルゴリズムによる意思決定を含むすべてのプロセスに人間の介入を導入する必要はない。例えば、その決定がデータ対象者に大きな影響を与えない場合や、データ対象者に関する法的効果をもたらさない場合、この禁止は適用されない。同様に、処理が GDPR 第 22 条 (2) に規定される例外のいずれかに該当する場合も、人間の介入は必要ない。アルゴリズムによる意思決定の場合、特定の状況では、GDPR により、意味のある人間の介入が義務付けられていることを覚えておくことが重要である。アルゴリズムの精度が高いという事実だけでは、人間の介入が不要になるわけではない。 |
| Example | 例 |
| The use of an algorithm can completely transform a decision-making process. In the past, a civil servant with a social background might have assessed a family’s financial situation through an in-person conversation at their home. Now, however, both parties must rely on an online form. However, a situation can be too complex for a form; in such cases, it is wise to allow the assessor the flexibility to provide a tailored approach. | アルゴリズムの使用により、意思決定プロセスが完全に変化する場合がある。これまで、社会的な背景を持つ公務員は、家庭を訪問して直接会話することで、その家族の経済状況を評価していました。しかし、現在では、双方はオンラインフォームに頼らざるを得ません。しかし、フォームでは対応しきれないほど複雑な状況もあるため、評価者に柔軟に対応できる余地を与えることが賢明である。 |
| Reading guide | 読み方 |
| The components that make human intervention meaningful are divided into four chapters: human, technology and design, process, and governance. Each section consists of different subcomponents. Each section also includes questions that can help organizations guide the design of human intervention in a meaningful manner. This document is not a checklist: not all questions and components will or can be applicable to every process. The specific context and individual circumstances of each case must always be taken into account. With this document, the Dutch Data Protection Authority (AP) fulfills its informational duty under Article 57(1)(b) and (d) of the GDPR. | 人間の介入を意味のあるものにする要素は、人間、テクノロジーとデザイン、プロセス、ガバナンスの 4 つの章に分かれている。各章は、さまざまなサブ要素で構成されている。また、各章には、組織が人間の介入を意味のある形で設計するための指針となる質問も掲載されている。この文書はチェックリストではない。すべての質問や要素が、すべてのプロセスに適用できるわけではない。それぞれのケースの具体的な状況や個々の事情を常に考慮に入れる必要がある。この文書により、オランダデータ保護機関(AP)は、GDPR 第 57 条 (1) (b) および (d) に基づく情報提供義務を履行する。 |
目次...
| 1. Human | 1. 人間 |
| What does an algorithm lack that a human does have? | 人間にはあるがアルゴリズムには欠けているものは何であるか? |
| 2. Technology and design | 2. 技術と設計 |
| How does the algorithm influence the human assessor? | アルゴリズムは、人間の評価者にどのような影響を与えるか? |
| Relevant concepts | 関連概念 |
| 3. Process | 3. プロセス |
| How do the organizational choices influence the human assessor? | 組織の選択は、人間の評価者にどのような影響を与えるか? |
| 4. Governance | 4. ガバナンス |
| How does the organization maintain ultimate responsibility? | 組織は最終的な責任をどのように維持しているか? |
| 5. Conclusion | 5. 結論 |
人間の部分の実施上の質問...
すべての関連要素
→ アセスメントはすべての関連情報をアセスメントに含めるか?
- アセスメントは、アルゴリズムでは考慮されない特定の状況を考慮できるか。
→ 評価者はアルゴリズムよりも多くの情報を自由に利用できるか。
- ない場合、評価者はその情報にアクセスできるか?
→ 評価者はどのような根拠に基づいて決定を評価すべきか、あるいはアルゴリズムに反する可能性はあるか?
→ 評価者はどのような方法でアルゴリズムに反することができるか?
→ 評価者はアルゴリズム内のデータを無視、補完、修正できるか?
- 例えば、情報が欠落している場合や、何かが間違って策定されたことが明らかな場合などである。
→ 評価者に期待されることは明確か?
人間の裁量
→ 査定者は、例えば決定の側面を自分なりに評価するなどして、あらゆるケースで人間的裁量を適用しているか?
→ 意思決定は、どの程度まで個々の要因のアセスメントを必要とするか?
→ どのような要件が査定者に課せられているか?
→ 意思決定プロセスにおいて、人間の判断がどのように考慮されうるか、査定者と事前に話し合われているか?
→ スタッフは(定期的に)バイアスや個人的偏見を認識し、結果を批判的に評価する訓練を受けているか?
→ 評価者はデータ対象者以外のどのような利益を考慮しているか?
→ 人間の裁量に十分な余地があるかどうかをテストするために、評価者はアルゴリズムが行う前、あるいはアルゴリズムがインプットを提供する前に、いくつかの決定を行うよう求められることがある。その後、評価者の決定をアルゴリズムの出力と比較することができる。このプロセスは認知的強制として知られている。
能力
→ 評価者は、アルゴリズムがどのように、またどのようなデータに基づいて結果を導き出すかを理解しているか?
→ 評価者は統計の基礎知識を持っているか?
→ 評価者はアルゴリズムの限界を理解しているか?
→ 評価者はアルゴリズムがどのような要素を考慮しているか知っているか?
- 評価者はアルゴリズムが使用するデータにアクセスできるか?
→ 評価者はアルゴリズムなしで決定を下せるか?
→ 評価者は独立して決定を下せるか、それとも様々な専門分野を代表者とするチームが必要か?
- そのチームはどのように協力するのか?
→ 使用されているアルゴリズムについて十分な洞察があるか?
→ 人間の判断と組織の利害という観点から、評価者に何が期待されているかは明確か?
● まるちゃんの情報セキュリティ気まぐれ日記
・2025.07.28 オランダ データ保護庁 「AI による感情認識は疑わしく、リスクが高い」(2025.07.15)
・2025.02.27 オランダ データ保護庁 友情とメンタルヘルスのためのAIチャットbotアプリは時には不適切で有害 - AI及びアルゴリズム・リスクに関する報告書 (2025.02.12)
・2025.02.07 オランダ データ保護庁 AIリテラシーを持って始めよう (2025.01.30)
・2024.12.19 オランダ データ保護局 意見募集 社会的スコアリングのためのAIシステム + 操作および搾取的AIシステムに関する意見募集の概要と次のステップ
・2024.11.08 オランダ データ保護局 意見募集 職場や教育における感情認識のための特定のAIシステムの禁止 (2024.10.31)
・2024.10.30 オランダ 会計検査院 政府はAIのリスクアセスメントをほとんど実施していない...
・2024.10.18 オランダ AI利用ガイド (2024.10.16)
・2024.09.29 オランダ データ保護局 意見募集 「操作的欺瞞的、搾取的なAIシステム」
・2024.09.05 オランダ データ保護局 顔認識のための違法なデータ収集でClearviewに3,050万ユーロ(48.5億円)
・2024.08.28 オランダ データ保護局 ドライバーデータの米国への転送を理由にUberに2億9000万ユーロ(467億円)の罰金
・2024.08.12 オランダ データ保護局が注意喚起:AIチャットボットの使用はデータ漏洩につながる可能性がある
・2024.08.11 オランダ AI影響アセスメント (2023.03.02)
・2024.08.05 欧州AI法が施行された... (2024.08.01)
« 欧州委員会 AI法における汎用AIモデル提供者の義務範囲に関するガイドライン(2025.07.18) | Main | 英国 NCSC 英国のサイバー戦略の内部:リチャード・ホーンCEOがレジリエンス、リスク、AI について語る (2025.07.23) »

Comments