欧州評議会 プロファイリングに関する勧告を更新 at 2021.11.03
こんにちは、丸山満彦です。
欧州評議会が、2010年に採択されたプロファイリングに関する勧告を更新していますね。。。
・Council of Europe Data Protection website
・2021.11.03 (News) Data protection: Committee of Ministers updates recommendation on profiling
Data protection: Committee of Ministers updates recommendation on profiling | データ保護:閣僚委員会はプロファイリングに関する勧告を更新した |
The Committee of Ministers of the Council of Europe has adopted a Recommendation aiming to respond to the radical changes in profiling techniques in the last decade and to the consequent need for additional safeguards to protect personal data and private life of individuals. The text, which updates a previous recommendation on the same topic adopted in 2010, aims to align its provisions with the modernised data protection “Convention 108”, known as “Convention 108+”. The recommendation provides that respect for fundamental rights and freedoms, notably human dignity, privacy, freedom of expression, non-discrimination, social justice, cultural diversity and democracy should be guaranteed in both the public and private sectors during all profiling operations. | 欧州評議会の閣僚委員会は、過去10年間におけるプロファイリング技術の急激な変化と、それに伴う個人データおよび個人の私生活を保護するための追加的な保護措置の必要性に対応することを目的とした勧告を採択しました。この勧告は、2010年に採択された同テーマの前回の勧告を更新するもので、その条項を「条約108+」として知られる近代的なデータ保護の「条約108」に合わせることを目的としています。勧告では、基本的な権利と自由、特に人間の尊厳、プライバシー、表現の自由、無差別、社会正義、文化的多様性、民主主義の尊重が、すべてのプロファイリング作業において官民ともに保証されるべきであると規定しています。 |
The recommendation refers to profiling as any form of automated processing of personal data, including use of machine learning systems, consisting in the use of data to evaluate certain personal aspects relating to an individual, in particular to analyse or predict aspects concerning that person’s performance at work, economic situation, health, personal preferences, interests, reliability, behaviour, location or movements. The Committee of Ministers issues the recommendation considering, among other issues, that profiling techniques can impact individuals by placing them in predetermined categories, very often without their knowledge. This lack of transparency can pose significant risks to human rights, particularly for vulnerable persons, including children. | 勧告では、プロファイリングとは、機械学習システムの使用を含むあらゆる形態の個人データの自動処理であり、個人に関連する特定の個人的側面を評価するためにデータを使用すること、特に個人の仕事上のパフォーマンス、経済状況、健康、個人的な好み、利益、信頼性、行動、場所、移動に関する側面を分析または予測することで構成されています。閣僚委員会は、プロファイリング技術が、多くの場合、本人が知らないうちに所定のカテゴリーに分類することで個人に影響を与える可能性があることなどを考慮して、この勧告を発表しました。このような透明性の欠如は、人権、特に子どもを含む弱い立場の人々に重大なリスクをもたらす可能性があります。 |
The Committee therefore calls on states to promote and make legally binding the use of a “privacy by design” approach during the whole duration of the processing, notably through the use of privacy-enhancing technologies. It also suggests that they take appropriate measures against the development and use of technologies which are aimed, wholly or partly, at the illicit circumvention of technological measures protecting privacy. | そこで当委員会は、特にプライバシーを向上させる技術の使用を通じて、処理の全期間において「プライバシー・バイ・デザイン」アプローチの使用を促進し、法的拘束力を持たせることを各国に求めています。また、全体的または部分的に、プライバシーを保護する技術的手段を不正に回避することを目的とした技術の開発および使用に対して、適切な措置を講じることを提案するものです。 |
勧告はこちら。。。
附属書の目次的なもの
Appendix to Recommendation CM/Rec(2021)8 | 勧告CM/Rec(2021)8 附属書 |
1. Definitions | 1. 用語の定義 |
2. General principles | 2. 一般原則 |
3. Conditions for the processing of personal data in the context of profiling | 3. プロファイリングにおける個人データの処理の条件 |
A. Lawfulness | A. 合法性 |
B. Quality of data and algorithms | B. データおよびアルゴリズムの品質 |
C. Special categories of data | C. 特別なカテゴリーのデータ |
4. Information | 4. 情報 |
5. Data subjects’ rights | 5. データ対象者の権利 |
6. Exceptions and restrictions | 6. 例外および制限 |
7. Data Security | 7. データセキュリティ |
A. General provisions | A. 一般条項 |
B. Special provisions for profiling based on AI systems using automatic learning processes | B. 自動学習プロセスを用いたAIシステムに基づくプロファイリングに関する特別規定 |
8. Supervisory authorities | 8. 監督当局 |
9. Additional measures | 9. 追加措置 |
A. Labelling and certification of AI and data protection systems | A. AIおよびデータ保護システムのラベル付けおよび認証 |
B. Profiling operations carried out by public authorities | B. 公的機関が実施するプロファイリング業務 |
C. Provisions regarding research and education | C. 研究と教育に関する規定 |
Recommendation CM/Rec(2021)8 of the Committee of Ministers to member States on the protection of individuals with regard to automatic processing of personal data in the context of profiling | プロファイリングに伴う個人データの自動処理に関する個人の保護に関する加盟国への閣僚委員会の勧告CM/Rec(2021)8 |
(Adopted by the Committee of Ministers on 3 November 2021 at the 1416th meeting of the Ministers' Deputies) | (2021年11月3日、第1416回大臣代理会議で採択された)。 |
The Committee of Ministers, under the terms of Article 15.b of the Statute of the Council of Europe, Considering that the aim of the Council of Europe is to achieve a greater unity between its members; | 閣僚委員会は、欧州評議会規程の第15条bの条件に基づき、欧州評議会の目的が加盟国間のより大きな結束を達成することであると考えている。 |
Recalling that digital technologies allow the large-scale processing of data, including personal data, in both the public and private sectors, used for a wide range of purposes including for services widely accepted and valued by society and individuals; | デジタル技術により、個人データを含むデータの大規模な処理が官民両部門で行われており、社会や個人に広く受け入れられ、評価されているサービスを含む広範な目的に使用されていることを想起し、 |
Noting that data are processed in particular by calculation, comparison, correlation and other statistical techniques, with the aim of producing profiles or models that could be used in many ways for different purposes and uses, by matching the data of several individuals; | データは、特に、計算、比較、相関、その他の統計的手法により処理され、複数の個人のデータを照合することにより、異なる目的や用途に様々な形で利用可能なプロファイルやモデルを作成することを目的としていることに留意する。 |
Considering that, by observing and linking a large amount of data, even anonymous data, profiling techniques can have an impact on the data subjects by placing them in predetermined categories, very often without their knowledge; | プロファイリング技術は、大量のデータを観察しリンクさせることにより、たとえ匿名のデータであっても、多くの場合データ主体が知らないうちに所定のカテゴリーに分類され、データ主体に影響を与える可能性があることを考慮する。 |
Considering that the lack of transparency – or even invisibility – of profiling, and the lack of accuracy that may derive from the automatic application of pre-established rules of inference, can pose significant risks for individuals’ rights and freedoms; | プロファイリングの透明性の欠如、あるいは不可視性、および事前に確立された推論ルールの自動適用に起因する正確性の欠如は、個人の権利および自由に重大なリスクをもたらす可能性があることを考慮している。 |
Noting that the data processed in the context of profiling may include special categories of personal data, notably biometric data, the misuse of which can cause irreversible damage to data subjects, since such data can be used to access various services and can have legal consequences; | プロファイリングに関連して処理されるデータには、特別なカテゴリーの個人データ、特にバイオメトリック・データが含まれる可能性があり、これらのデータは様々なサービスにアクセスするために使用され、法的な影響を及ぼす可能性があるため、その誤用はデータ対象者に不可逆的な損害を与える可能性があることを指摘する。 |
Considering in particular that the protection of fundamental rights, notably the rights to privacy and to protection of personal data, safeguards the existence of different and independent spheres of life where each individual can control his or her information; | 基本的権利、特にプライバシーおよび個人情報保護に関する権利の保護は、各個人が自分の情報を管理できる、異なる独立した生活圏の存在を保護するものであることを特に考慮する。 |
Considering the particular vulnerability of some of the persons profiled, including children, and the possible seriousness of the consequences of such profiling, sometimes for the rest of their lives; | プロファイリングされる対象者の中には、子供を含む特定の脆弱性があり、また、そのようなプロファイリングがもたらす結果は、時には一生にわたって深刻なものになる可能性があることを考慮する。 |
Aware of the intensification and diversification of the profiling of individuals, in all spheres of activity; | あらゆる活動分野において、個人のプロファイリングが激化し、多様化していることを認識する。 |
Having regard to the provisions of the Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data of 28 January 1981 (ETS No. 108, hereafter “Convention 108”), as modernised by the Amending Protocol[1](CETS No. 223), and convinced of the desirability of facilitating the application of those principles in the context of profiling; | 修正議定書[1](CETS No.223)によって近代化された1981年1月28日の個人データの自動処理に関する個人の保護のための条約(ETS No.108、以下「条約108」)の規定を考慮し、プロファイリングの文脈においてこれらの原則の適用を促進することが望ましいことを確信する。 |
Emphasising that member States should ensure compliance with applicable legislative and regulatory frameworks, and guarantee procedural, organisational and substantive safeguards and access to effective remedies with regard to all relevant actors, while promoting an environment in which technological innovation respects and enhances human rights and complies with the fundamental obligation that any restriction of human rights must be necessary and proportionate in a democratic society and implemented in accordance with the law; | 加盟国は、適用される法律および規制の枠組みの遵守を確保し、すべての関係者について手続き的、組織的、実質的なセーフガードと効果的な救済措置へのアクセスを保証するとともに、技術革新が人権を尊重し、強化する環境を促進し、民主主義社会において人権のいかなる制限も必要かつ比例的でなければならず、法律に従って実施されなければならないという基本的な義務を遵守すべきであることを強調した。 |
Realising that the situation has considerably evolved since the adoption of Recommendation CM/Rec(2010)13 of the Committee of Ministers to member States on the protection of individuals with regard to automatic processing of personal data in the context of profiling, and that both the methods and the impact of profiling have radically changed; | プロファイリングに伴う個人データの自動処理に関する個人の保護についての加盟国に対する閣僚委員会の勧告CM/Rec(2010)13の採択以降、状況が大幅に進展し、プロファイリングの方法と影響の両方が根本的に変化していることを認識する。 |
Bearing in mind that digital technologies hold significant potential for innovation and growth, and that the achievement of these goals must be rooted in the shared values of democratic societies; | デジタル技術は革新と成長の大きな可能性を秘めており、これらの目標を達成するためには、民主主義社会の共有された価値観に根ざしていなければならないことを念頭に置き |
Noting that the rapid evolution of both the technologies used and the capacities of algorithms is accompanied by a constant increase in the volume of personal data processed, and that while paving the way for innovation and growth, this convergence of factors can also pose risks, at both the individual and collective levels; | 使用される技術とアルゴリズムの能力の両方の急速な進化は、処理される個人データの量の絶え間ない増加を伴っており、革新と成長への道を開く一方で、このような要因の融合は、個人レベルと集団レベルの両方でリスクをもたらす可能性があることを指摘する。 |
Observing that those developments prompt the updating of Recommendation CM/Rec(2010)13, having due regard to Recommendation CM/Rec(2020)1 of the Committee of Ministers to member States on the human rights impacts of algorithmic systems, | これらの進展により、アルゴリズム・システムの人権への影響に関する加盟国に対する閣僚委員会の勧告CM/Rec(2020)1を考慮して、勧告CM/Rec(2010)13の更新が求められていることを観察する。 |
Recommends that the governments of member States: | 加盟国の政府に勧告する。 |
- take into account the principles set forth in the appendix to this recommendation, which replaces the above-mentioned Recommendation CM/Rec(2010)13, in their law and practice; | ・上述の勧告CM/Rec(2010)13に代わる本勧告の附属書に定められた原則を自国の法律および実務において考慮すること。 |
- ensure that this recommendation and its appendix are translated and disseminated as widely as possible among competent authorities and stakeholders, including supervisory authorities, human rights organisations, civil society organisations and the private sector; | ・本勧告およびその附属書が翻訳され,監督官庁,人権団体,市民社会組織,民間部門を含む所轄官庁および利害関係者の間で可能な限り広く普及することを確保する。 |
Appendix to Recommendation CM/Rec(2021)8 | 勧告CM/Rec(2021)8 附属書 |
1. Definitions | 1. 用語の定義 |
1.1. For the purposes of the present recommendation: | 1.1. 本勧告の目的のために |
a. “Personal data” means any information relating to an identified or identifiable natural person (“data subject”). An individual is not considered “identifiable” if identification requires unreasonable time, resources or effort in relation to the means at the disposal of the controller. | a. 「個人データ」とは、識別された、または識別可能な自然人(「データ対象者」)に関連するあらゆる情報を意味する。個人の識別に、管理者が自由に使える手段と比較して不合理な時間、資源、または努力が必要な場合は、「識別可能」とはみなされない。 |
b. “Categories of data processed” means the different types of data used during the profiling processing, regardless of their source and nature. | b. 「処理されたデータのカテゴリー」とは、プロファイリング処理の際に使用される様々な種類のデータを意味し、その出所や性質は問わない。 |
c. “Profiling” refers to any form of automated processing of personal data, including use of machine learning systems, consisting in the use of data to evaluate certain personal aspects relating to an individual, in particular to analyse or predict aspects concerning that person’s performance at work, economic situation, health, personal preferences, interests, reliability, behaviour, location or movements. | c. 「プロファイリング」とは、個人に関する特定の個人的側面を評価するためにデータを使用することで構成される、機械学習システムの使用を含むあらゆる形態の個人データの自動処理を意味する。特に、個人の仕事上のパフォーマンス、経済状況、健康、個人的な好み、興味、信頼性、行動、場所、移動に関する側面を分析または予測するために使用される。 |
d. “Profile” refers to a set of data attributed to an individual, characterising a category of individuals or intended to be applied to an individual. | d. 「プロファイル」とは、個人に帰属するデータ、個人のカテゴリーを特徴づけるデータ、または個人に適用することを意図したデータの集合体を指する。 |
e. “Model” is a mathematical abstraction used, for example, in automatic learning methods, which provides a simplified description of the data to solve the task to be performed. | e. 「モデル」とは、自動学習法などに用いられる数学的抽象概念であり、実行すべきタスクを解決するためにデータを簡略化して記述したものである。 |
f. “Artificial intelligence” (AI) means a system that is either software-based or embedded in hardware devices, and that displays intelligent behaviour by, inter alia, collecting and processing data, analysing, and interpreting its environment, and by taking action, with some degree of autonomy, to achieve specific goals. | f. 「人工知能」(AI)とは、ソフトウェアベースまたはハードウェアデバイスに組み込まれたシステムであって、特に、データを収集・処理し、環境を分析・解釈し、特定の目標を達成するためにある程度の自律性を持って行動することにより、知的な行動を示すものをいう。 |
g. “Machine learning processing” means processing using particular methods of AI based on statistical approaches to give computers the ability to “learn” from data, that is, to improve their performance in solving tasks without being explicitly programmed for each of them. | g. 「機械学習処理」とは、統計的アプローチに基づく特定のAI手法を用いた処理で、データから「学習」する能力をコンピュータに与えること、すなわち、タスクごとに明示的にプログラムされていなくても、タスクを解決するパフォーマンスを向上させることを意味する。 |
h. “Automated decision-making system” refers to a system that uses automated reasoning to aid or replace a decision-making process that would otherwise be performed by humans. | h. 「自動意思決定システム」とは、人間が行わなければならない意思決定プロセスを、自動化された推論を用いて支援または代替するシステムをいう。 |
i. “Online intermediary services” means information society services that enable users to receive information (online search services), goods or services or to establish relations (social network access service). | i. 「オンライン仲介サービス」とは、ユーザーが情報(オンライン検索サービス)、商品もしくはサービスを受け取ること、または関係を構築することを可能にする情報社会サービス(ソーシャルネットワークアクセスサービス)を意味する。 |
j. “High-risk profiling” may refer, inter alia, to: | j. 「高リスクのプロファイリング」とは、特に以下を指すことがある。 |
i. profiling operations that entail legal effects or have a significant impact on the data subject or on the group of persons identified by the said profiling; | i. データ対象者または当該プロファイリングで特定された人のグループに法的影響を 与える、または重大な影響を与えるプロファイリング作業。 |
ii. profiling that – because of the target audience, the context or the purpose of profiling – especially in a situation of imbalance of information power, involves a risk of unduly affecting or influencing the data subjects, particularly in the case of minors and other vulnerable individuals; | ii. 対象者、文脈またはプロファイリングの目的のために、特に情報力の不均衡な状況において、データ対象者、特に未成年者およびその他の弱者の場合に、不当に影響を与えたり、影響を与えたりするリスクを伴うプロファイリング。 |
iii. profiling that involves data qualified as special categories of data under Article 6 of Convention 108+ or that is aimed at detecting or predicting these data; | iii. 条約108+の第6条に基づき特別なカテゴリーのデータとして認定されたデータを含むプロファイリング、またはこれらのデータを検出または予測することを目的としたプロファイリング。 |
iv. profiling that affects a very large number of individuals, including profiling carried out by online intermediary services for their own use or that of a third party. | iv. 非常に多数の個人に影響を与えるプロファイリング(オンライン仲介サービスが自己または第三者の利用のために行うプロファイリングを含む)。 |
2. General principles | 2. 一般原則 |
2.1 Respect for fundamental rights and freedoms, notably the rights to human dignity and to privacy but also to freedom of expression, and for the principle of non-discrimination and the imperatives of social justice, cultural diversity and democracy, should be guaranteed, in both the public and private sectors, during the profiling operations covered by this recommendation. | 2.1 本勧告の対象となるプロファイリング作業においては、基本的な権利と自由、特に人間の尊厳とプライバシーの権利、表現の自由、無差別の原則と社会正義、文化的多様性、民主主義の要請の尊重が、公的部門と民間部門の両方で保証されるべきである。 |
2.2 Profiling should contribute to, or at least not negatively impact, both the well-being of individuals and the development of an inclusive, democratic and sustainable society. | 2.2 プロファイリングは、個人の幸福と、包括的で民主的かつ持続可能な社会の発展の両方に寄与するか、少なくともマイナスの影響を与えないものでなければならない。 |
2.3 In the context of an increasing use of big data, both personal and non-personal data are collected. Furthermore, with automated processing, based in particular on the use of machine learning systems, it is difficult to know a priori which data will allow correlations or predictions to be made regarding a data subject. In such cases, for personal data to be processed fairly, organisations should ensure the relevance and quality of all data, including non-personal data, that could inform correlations or predictions about a data subject. | 2.3 ビッグデータの利用が増加している状況下では、個人データと非個人データの両方が収集される。さらに、特に機械学習システムの使用に基づく自動処理では、データ対象者に関する相関関係または予測を可能にするデータを先験的に知ることは困難である。このような場合、個人データを公正に処理するために、組織はデータ対象者に関する相関関係または予測を知らせる可能性のある非個人データを含むすべてのデータの関連性と質を確保する必要がある。 |
2.4 All automated decision systems are designed by humans and have some degree of human involvement in their operation. Humans are ultimately responsible for how a system receives its inputs (for example, who collects the data that feed into a system), how the system is used, and how a system’s outputs are interpreted and acted on. The systems (especially those based on AI) must allow operational human intervention whenever appropriate or necessary to ensure their legitimate functioning, including in respect of the principles of fairness and non-discrimination. | 2.4 すべての自動化された意思決定システムは、人間によって設計され、その運用にはある程度人間が関与する。人間は、システムがどのように入力を受け取るか(例えば、誰がシステムに入力するデータを収集するか)、システムがどのように使用されるか、システムの出力がどのように解釈され行動されるかについて、最終的な責任を負います。システム(特にAIに基づくもの)は、公正さと無差別の原則を尊重することを含め、その正当な機能を確保するために適切または必要な場合はいつでも、運用上の人間の介入を認めなければならない。 |
2.5 Member States should encourage the design and implementation of procedures and systems in accordance with privacy and data protection, already at their planning stage (privacy by design) and for the whole duration of data processing, notably through the use of privacy-enhancing technologies. They should also take appropriate measures to combat the development and use of technologies which are aimed, wholly or partly, at the illicit circumvention of technological measures protecting privacy. | 2.5 加盟国は、特にプライバシー強化技術の使用を通じて、計画段階から(プライバシー・バイ・デザイン)、データ処理の全期間にわたって、プライバシーおよびデータ保護に従った手順およびシステムの設計および実装を奨励すべきである。また、全体的または部分的に、プライバシーを保護する技術的手段を不正に回避することを目的とした技術の開発および使用に対抗するための適切な措置を講じるべきである。 |
2.6 Profiling must not result in discrimination against individuals, groups or communities. It must undermine neither the dignity of persons nor democracy. The use of automated decision-making systems should preserve the autonomy of human intervention in the decision-making process. | 2.6 プロファイリングは、個人、グループ、コミュニティに対する差別につながってはならない。また、個人の尊厳や民主主義を損なうものであってはならない。自動化された意思決定システムの使用は、意思決定プロセスへの人間の介入の自律性を維持すべきである。 |
2.7 Profiling should not be carried out for the purpose of manipulating data subjects or the persons close to them, including in respect of their choices or opinions. | 2.7 プロファイリングは、データ対象者またはデータ対象者に近い人を操作する目的で行ってはならない。 |
2.8 At least when the data subject’s consent is required, service providers and, in particular, online intermediary services should give data subjects the possibility to opt in to profiling and to choose between the different profiling purposes or degrees. The data subject should be informed of all the consequences of his or her choice. | 2.8 少なくともデータ対象者の同意が必要な場合には、サービスプロバイダー、特にオ ンラインの仲介サービスは、データ対象者にプロファイリングを選択する可能性を与え、 異なるプロファイリングの目的または程度を選択できるようにすべきである。データ対象者は自分の選択の結果についてすべて知らされるべきである。 |
2.9 Member States should ensure that the legal framework applicable to profiling is such that the profiling remains proportionate to the purposes pursued, and to the nature and gravity of the risks incurred by the data subjects or the targeted groups. The specific needs of both micro, small and medium-sized enterprises and different sectors should be taken into account. If the profiling activities carried out are of a high-risk nature, the same level of strictness should be applied regardless of the size of the enterprise. | 2.9 加盟国は、プロファイリングに適用される法的枠組みが、プロファイリングが追求される目的、データ対象者または対象となるグループが被るリスクの性質および重大性に比例していることを保証する。零細企業、中小企業、およびさまざまな部門の固有のニーズを考慮する必要がある。実施されるプロファイリング活動が高リスクの性質を持つ場合は、企業の規模に関わらず、 同一レベルの厳格さを適用する必要がある。 |
2.10 The use of automated decision-making systems based on AI technologies poses additional risks due to possible errors and biases, and the difficulty of making the justification for decisions taken and ensuring transparency, consequently impeding the full exercise of the rights of the data subjects. The design, development and implementation of automated decision-making systems based on AI require special and continuous attention with regard to the risks created, and their assessment by multidisciplinary, independent teams. | 2.10 AI 技術に基づく自動化された意思決定システムの使用は、エラーおよびバイアスの可能性、 意思決定の正当性の証明および透明性の確保が困難であることによる追加のリスクをもたらし、 結果的にデータ対象者の権利の完全な行使を阻害する。AI に基づく自動化された意思決定システムの設計、開発および実施には、発生したリ スクに関して特別かつ継続的な注意が必要であり、学際的かつ独立したチームによる評価が必要である。 |
2.11 Profiling involves different actors whose quality and role must be analysed in order to determine their potential joint responsibilities, especially in the case of data sharing. | 2.11 プロファイリングには様々な関係者が関与しており、その質と役割を分析して、特にデ ータ共有の場合には、潜在的な共同責任を判断する必要がある。 |
3. Conditions for the processing of personal data in the context of profiling | 3. プロファイリングにおける個人データの処理の条件 |
A. Lawfulness | A. 合法性 |
3.1. The processing of personal data in the context of profiling should be fair, lawful, proportionate, and for specified and legitimate purposes, and never be carried out in a way incompatible with such initial purposes. The processing of personal data for a compatible purpose in the context of profiling may only be performed if it is provided for by domestic law or is based on consent in accordance with principle 3.4, which stipulates specific appropriate safeguards with regard to these data. | 3.1. プロファイリングに伴う個人データの処理は、公正、適法、妥当であり、特定された正当な目的のためでなければならず、そのような当初の目的と両立しない方法で行われてはならない。プロファイリングと両立する目的のための個人データの処理は、国内法で規定されている場合、またはこれらのデータに関する特定の適切な保護措置を規定している原則3.4に従って同意に基づいている場合にのみ実行することができる。 |
3.2. Personal data used in the context of profiling should be adequate, relevant and not excessive in relation to the purposes for which they are collected or for which they will be processed. In machine learning systems, it is difficult to know a priori which data will allow significant correlations. However, it is important to limit the profiling to categories of data that the data subject can reasonably expect (legitimate expectations) to be taken into account in view of the purposes of profiling. | 3.2. プロファイリングの文脈で使用される個人データは、収集される目的または処理される目的に関連して、適切で、関連性があり、過剰ではないものでなければならない。機械学習システムでは、どのデータが有意な相関を可能にするかを先験的に知ることは困難である。しかし、プロファイリングの目的を考慮して、データ対象者が合理的に期待できる(正当な期待)データのカテゴリーにプロファイリングを限定することが重要である。 |
3.3. Personal data used in the context of profiling should be at least stored in a form that allows the identification of the data subjects for a period no longer than is necessary for the purposes for which they are processed. If possible, for the purposes for which the data are processed, the data should be anonymised. | 3.3. 3.3.プロファイリングに使用される個人データは、少なくともデータ対象者の識別が可能な形で、処理される目的に必要な期間を超えない範囲で保存されなければならない。可能であれば、データが処理される目的のために、データは匿名化されるべきである。 |
3.4. Except where stated below, processing of personal data in the context of profiling may only be performed: | 3.4. 以下に記載されている場合を除き、プロファイリングに伴う個人データの処理は、以下の場合にのみ行うことができる。 |
- if it is explicitly provided for by domestic law, in order to safeguard the data subjects’ rights and freedoms and their legitimate interests; or | ・データ対象者の権利および自由ならびにその正当な利益を守るために国内法で明示的に規定されている場合。 |
- if the data subject or her or his legal representative has given her or his free, specific, informed and unambiguous consent. In the case of high-risk profiling, the consent ought to be explicit; or | ・データ対象者またはその法定代理人が,自由,具体的,十分な情報を提供した上で明確な同意を与えた場合。高リスクプロファイリングの場合その同意は明示的でなければならない。 |
- if the profiling is necessary for the performance of a contract to which the data subject is a party or for the implementation of pre-contractual measures taken at the request of the data subject; or | ・データ対象者が当事者となっている契約の履行またはデータ対象者の要請に基づいて取られた契約前の措置の実施のためにプロファイリングが必要な場合。 |
- if it is necessary for the performance of a task carried out in the public interest or in the exercise of official authority vested in the controller or in a third party to whom the personal data are disclosed; or | ・公共の利益のため、または管理者もしくは個人情報が開示された第三者に与えられた公権力の行使のために実施される業務の遂行に必要な場合、または |
- if it is necessary for the purposes of the legitimate interests of the controller or the third party or parties to whom the profiles or data are disclosed, except where such interests are overridden by the fundamental rights and freedoms of the data subject or in respect of the processing of special categories of data. The necessity should be explicitly substantiated by the controller; or | ・管理者またはプロファイルもしくはデータが開示された第三者の正当な利益のために必要な場合。ただし,かかる利益がデータ対象者の基本的な権利および自由によって優先される場合、または特別なカテゴリーのデータの処理に関してはこの限りではない。その必要性は管理者によって明示的に立証されなければならない。 |
3.5. When the profiling is based on consent, the processing of personal data in the context of profiling of persons who cannot express their free, specific, informed and unambiguous consent themselves should be forbidden, except when specific consent is given by the legal representative or when this processing is in the legitimate interest of the data subject, or if there is an overriding substantial public interest, on the condition that appropriate safeguards are provided for by law. | 3.5. プロファイリングが同意に基づくものである場合、自由、具体的、十分な情報を与えられた上での明確な同意を自ら表明できない人のプロファイリングに伴う個人データの処理は、法定代理人による具体的な同意がある場合、またはこの処理がデータ対象者の正当な利益のためである場合、または法律で適切な保護措置が定められていることを条件に、優先する実質的な公共の利益がある場合を除き禁止する。 |
3.6. As far as possible, service providers and platforms should offer different services that are either more or less personalised, or non-personalised, depending on the service offered, in order to guarantee to the data subject a choice as regards the intensity of profiling. In order to be free, consent implies that the data subject has the possibility of an informed choice. Consent to profiling should not be required as a condition for the performance of a service. Where the profiling is based on consent, it is incumbent on the controller to prove that the data subject has agreed to the profiling beyond what was necessary for the performance of the service, on an informed basis, as set out in section 4 and in compliance with the requirements that consent should have under principle 3.4. | 3.6. プロファイリングの強度に関してデータ対象者に選択権を保証するために、 サービスプロバイダおよびプラットフォームは、提供するサービスに応じて、多かれ少なかれ個人化された、または個人化されていない異なるサービスを提供するべきである。自由であるためには、同意はデータ対象者が情報を得た上で選択する可能性があることを意味する。プロファイリングへの同意は、サービス遂行の条件として要求されるべきではない。プロファイリングが同意に基づいて行われる場合、データ対象者がサービスの遂行に必要な範囲を超えたプロファイリングに同意したことを、セクション4に規定されているように、また原則3.4に基づいて同意が持つべき要件を遵守した上で、インフォームド・ベースで証明することが管理者に課せられています。 |
3.7. As far as possible, and unless the service required necessitates knowledge of the data subject’s identity, everyone should have access to information about goods or services, or access to these goods or services, without having to communicate personal data to the goods or services provider. | 3.7. 可能な限り、また必要とされるサービスがデータ対象者の身元を知ることを必要としない限り、誰もが、個人データを商品またはサービスの提供者に伝えることなく、商品またはサービスに関する情報へのアクセス、またはこれらの商品またはサービスへのアクセスを得るべきである。 |
3.8. In order to ensure free, specific, informed and unambiguous consent to profiling, online intermediary services should ensure, by default, non-personalised access to information about their services. | 3.8. プロファイリングに対する自由で具体的な情報に基づく明確な同意を確保するために、オンライン仲介サービスは、デフォルトで、そのサービスに関する情報への非個人化されたアクセスを確保すべきである。 |
3.9. The distribution and use, without the data subject’s knowledge, of software aimed at the observation or monitoring, in the context of profiling, of the use being made of a given terminal or electronic communication network should be permitted only if they are expressly provided for by law, constitute a measure necessary and proportionate within a democratic society and are accompanied by appropriate safeguards. | 3.9. プロファイリングに関連して、特定の端末または電子通信ネットワークの使用を観察または監視することを目的としたソフトウェアを、データ対象者が知らないうちに配布および使用することは、法律で明示的に規定されており、民主主義社会において必要かつ比例的な措置を構成し、適切な保護措置を伴う場合にのみ許可されるべきである。 |
B. Quality of data and algorithms | B. データおよびアルゴリズムの品質 |
3.10. Appropriate measures should be taken by the controllers and, where applicable, the processors to correct data inaccuracy factors and limit the risks of errors and biases inherent in profiling. | 3.10. データの不正確な要素を修正し、プロファイリングに内在するエラーやバイアスのリスクを制限するために、管理者および該当する場合は処理者が適切な措置を講じるべきである。 |
3.11. The controllers and where applicable, the processors should periodically and within a reasonable time re-evaluate the quality of the data and of the statistical inferences used, as well as the impact of the use of profiling on the data subject’s rights. | 3.11. 管理者及び必要に応じて処理者は、データの質及び使用した統計的推論、並びにプロファイリングの使用がデータ対象者の権利に与える影響を、定期的かつ合理的な時間内に再評価する。 |
3.12. When acquiring data or algorithms from a third party, the controller(s) or processor(s) should obtain from the third party the documentation necessary to check the quality of the data and algorithms and their relevance to the purpose of the processing. | 3.12. 第三者からデータ又はアルゴリズムを取得する場合、管理者又は処理者は、データ及びアルゴリズムの品質及び処理目的との関連性を確認するために必要な文書を第三者から取得する。 |
C. Special categories of data | C. 特別なカテゴリーのデータ |
3.13. Processing of sensitive data defined under Article 6 of Convention 108+ in the context of profiling should only be allowed where appropriate safeguards are enshrined in law and the data are necessary for the lawful and specific purposes of the processing. | 3.13. プロファイリングに関連して条約第108+号の第6条に定義されているセンシティブなデータの処理は、適切な保護措置が法律に明記されており、データが処理の合法的かつ特定の目的のために必要な場合にのみ許可されるべきである。 |
3.14. Processing for the purpose of detecting or predicting racial or ethnic origin, political opinions, trade union membership, religious or other beliefs, health or sexual life should be prohibited and should only be allowed where appropriate safeguards are enshrined in law and the data are strictly necessary for the lawful and specific purposes of the processing. When consent is required, it should be explicit where the processing concerns such data. | 3.14. 人種または民族、政治的意見、労働組合への加盟、宗教またはその他の信念、健康または 性生活を検出または予測する目的での処理は禁止し、適切な保護措置が法律に明記されており、 データが処理の合法的かつ特定の目的のために厳密に必要な場合にのみ許可されるべきである。同意が必要な場合は、処理がそのようなデータに関係する場合には明示的にすべきである。 |
4. Information | 4. 情報 |
4.1. Where personal data relating to a data subject are collected from the data subject in the context of profiling, the controller should, at the latest when the data are obtained, provide the data subject with the following information: | 4.1. 4.1. データ対象者に関する個人データをプロファイリングのためにデータ対象者から収集する場 合、管理者は遅くともデータを入手した時点でデータ対象者に以下の情報を提供する。 |
a. that their data will be used, or are intended to be used, in the context of profiling by the controller and/or by third parties; | a. データ対象者のデータが、管理者および/または第三者によってプロファイリングの目的で使用される、または使用されることが意図されていること |
b. the legal basis and the purposes for which the profiling is carried out; | b. プロファイリングが行われる法的根拠および目的 |
c. the categories of data used in the context of the profiling; | c. プロファイリングの際に使用されるデータのカテゴリー |
d. the identity of the controller and his or her establishment or habitual residence and, if necessary, that of his or her representative; | d. 管理者の身分証明書、管理者の設立または常居所、および必要に応じて管理者の代理人の身分証明書 |
e. the existence of appropriate safeguards where required, as is notably the case for special categories of data; | e. 特に特殊なカテゴリーのデータの場合のように、必要に応じた適切な保護措置の存在 |
f. the categories of persons or bodies to whom or to which the personal data or the results of the profiling may be communicated, and the purposes for doing so; | f. 個人データまたはプロファイリングの結果が伝達される可能性のある個人または団体のカテゴリー、およびそのための目的 |
g. the conditions of exercise of the right of access, objection, rectification or erasure, as provided for by principle 5 of this appendix, as well as the right to bring a complaint before the competent authorities; | g. 本付録の原則5で規定されているアクセス権、異議申立権、修正権、抹消権の行使条件、および管轄当局に苦情を申し立てる権利 |
h. all information that is necessary for guaranteeing the fairness of use of profiling, such as: | h. プロファイリングの利用の公正さを保証するために必要なすべての情報 |
– the possibility, where appropriate, for the data subjects to refuse or withdraw consent and the consequences of withdrawal; | ・データ対象者が同意を拒否または撤回する可能性(適切な場合)および撤回した場合の結果 |
– the persons from whom or bodies from which other personal data are or will be collected; | ・他の個人情報が収集されている,または収集される予定の人または組織 |
– the compulsory or optional nature of the reply to the questions used to collect the data and the consequences for the data subjects of not replying; | ・データを収集するための質問に対する回答の強制性または任意性,および回答しなかった場合のデータ対象者の結果 |
– the duration of storage of the personal data; | ・個人データの保存期間 |
– where applicable, the potential impact of the profiling on the data subject; | ・該当する場合,プロファイリングがデータ対象者に与える潜在的な影響 |
– meaningful information about the reasoning underlying the profiling or the model used by the data controller. | ・プロファイリングの基礎となる理由またはデータ管理者が使用するモデルに関する意味のある情報 |
4.2. Where personal data have not been obtained from data subjects, the controller should provide them, at least in a general notice, with the information listed in principle 4.1 as soon as the personal data are processed or, if it is planned to communicate these data to a third party, at the latest when the personal data are first communicated. In addition to the information listed in principle 4.1, the information should include the origin of the data collected, the legal basis for the data transmission or sharing and the possibility to object to this transmission or sharing. | 4.2. 個人データをデータ対象者から入手していない場合、管理者は個人データが処理された時点で、またはこれらのデータを第三者に伝達することが計画されている場合は、遅くとも個人データが最初に伝達された時点で、少なくとも一般的な通知で原則4.1に記載されている情報をデータ対象者に提供する。原則4.1に記載された情報に加えて、情報には、収集されたデータの出所、データの送信または共有の法的根拠、およびこの送信または共有に異議を唱える可能性を含めるものとする。 |
4.3. The information provided to the data subject should be delivered in a comprehensible manner and adapted to the circumstances. When personal data are processed in the context of profiling, the controller could indicate the existence of a profiling activity with an icon. This icon should make it possible for anyone to automatically obtain the information listed under principle 4.1 by linking to the website of the controller. | 4.3. データ対象者に提供する情報は、理解しやすい方法で、状況に応じて提供する。個人データがプロファイリングに関連して処理される場合、管理者はプロファイリング活動の存在をアイコンで示すことができる。このアイコンにより、誰もが管理者のウェブサイトにリンクすることで、原則4.1に記載された情報を自動的に入手できるようにすべきである。 |
4.4. Where personal data were previously collected with no intention of applying profiling methods and are subsequently processed lawfully in the context of profiling, the controller should have to provide the information foreseen under principles 4.1 and 4.2. | 4.4. 個人データがプロファイリング手法の適用を意図せずに以前に収集され、その後プロファイリングの観点から合法的に処理される場合、管理者は原則4.1及び4.2に基づいて予見される情報を提供しなければならない。 |
4.5. Principles 4.2, 4.3 and 4.4 on informing data subjects do not apply if the data subject has already been informed. Moreover, where personal data are not collected from the data subject, principles 4.2, 4.3 and 4.4 do not apply if: | 4.5. データ対象者への通知に関する原則4.2、4.3及び4.4は、データ対象者が既に通知を受けている場合には適用されない。さらに、個人データがデータ対象者から収集されていない場合、原則4.2、4.3および4.4は以下の場合には適用されない。 |
a. it proves impossible to provide the information or it would involve disproportionate effort; or | a. 情報を提供することが不可能であることが判明した場合、または不釣り合いな労力を要する場合、または |
b. the restrictions to the right of information are provided for by domestic law. | b. 情報提供の権利に対する制限が国内法で定められている場合。 |
5. Data subjects’ rights | 5. データ対象者の権利 |
5.1. The data subject who is being, or has been, profiled should be entitled to obtain from the controller, at her or his request, within a reasonable time and in an understandable form, information concerning: | 5.1. プロファイリングされている、またはされていたデータ対象者は、本人の要求に応じて、合理的な時間内に、理解可能な形式で、以下に関する情報を管理者から入手する権利を有する。 |
a. her or his personal data, whether they were used in a pseudonymised form or not, and any other necessary additional information to ensure fair and transparent processing (including anonymised data sets used in the processing) and, in the case of use of profiles, the data inferred by the use of the profiling system; | a. 彼女または彼の個人データ、仮名で使用されたか否か、および公正かつ透明な処理を確保するために必要なその他の追加情報(処理に使用された匿名化されたデータセットを含む)、およびプロファイルを使用する場合には、プロファイリングシステムの使用によって推測されるデータ |
b. the reasoning underlying the processing of his or her personal data used to attribute a profile to him or her, at least in the case of an automated decision and, in the case of the use of processing based on machine learning, information about the model used by the algorithm. In that case, the information provided must enable the data subject to understand the reasons for the decision or the proposed decision regarding him or her; | b. 少なくとも自動化された意思決定の場合には、本人にプロファイルを帰属させるために使用される本人の個人データの処理の基礎となる理由、および機械学習に基づく処理の使用の場合には、アルゴリズムによって使用されるモデルに関する情報。この場合、提供される情報は、データ対象者が自分に関する決定または提案された決定の理由を理解できるものでなければならない |
c. the purposes for which the profiling was carried out; | c. プロファイリングが実施された目的 |
d. the categories of persons or bodies to which personal data, the profile or the result of the processing may be communicated, as well as the right to object to it; | d. 個人データ、プロファイルまたは処理の結果を伝達することができる人または団体のカテゴリー、およびそれに異議を唱える権利 |
e. the name and address of the person in charge of redress by the data subjects against a decision or draft decision, as prescribed under principle 5.8. | e. 原則5.8の規定に従い、決定または決定案に対するデータ対象者の救済を担当する者の氏名および住所 |
5.2. Data subjects should be entitled to obtain, without undue delay, erasure or rectification of their personal data, if the data are processed contrary to the principles of this recommendation, notably when using or predicting special categories of data without the appropriate safeguards prescribed by domestic law. | 5.2. データ主体は、データが本勧告の原則に反して処理された場合、特に国内法で規定されている適切な保護措置を講じずに特別なカテゴリーのデータを使用または予測する場合には、不当に遅延することなく自分の個人データの消去または修正を取得する権利を有するべきである。 |
5.3. Except when the law provides for profiling and lays down measures to safeguard the data subject’s legitimate interests, the data subject should be entitled to object to the processing of his or her personal data, at any time, on grounds concerning him or her. Unless the controller demonstrates legitimate grounds for the processing, which override the interests or fundamental rights and freedoms of the data subject, the profiling should no longer involve the use of his or her personal data. Where the purpose of the profiling is direct marketing, no justification should be requested from the data subject. | 5.3. 法律がプロファイリングを規定し、データ対象者の正当な利益を保護するための手段を定めている場合を除き、データ対象者は、いつでも自分に関する理由で自分の個人データの処理に異議を唱える権利を有するべきである。管理者がデータ対象者の利益または基本的な権利および自由に優先する処理の正当な理由を証明しない限り、プロファイリングはもはや個人データの使用を伴わないものとする。プロファイリングの目的がダイレクトマーケティングである場合、データ対象者に正当な理由を求めるべきではない。 |
5.4. If there are any grounds for restricting the rights set out in this section in accordance with section 6, this decision should be communicated to the data subject by any means that allows it to be put on record, with a mention of the legal and factual reasons for such a restriction. This mention may be omitted when a reason exists which would negatively impact the aim of the restriction. In such cases, information should be given to the data subject on how to challenge this decision before the competent national supervisory authority, a judicial authority or a court. | 5.4. 第6項に従って本項に定める権利を制限する理由がある場合、この決定は、そのような制限の法的および事実上の理由に言及した上で、記録に残すことが可能なあらゆる手段によってデータ対象者に通知されるべきである。制限の目的に悪影響を与える理由が存在する場合は、この言及を省略することができる。このような場合、データ対象者に対して、管轄の国内監督機関、司法機関または裁判所にこの決定に異議を申し立てる方法について情報を提供する。 |
5.5. Where a person is subject to a decision having legal effects concerning him or her, or significantly affecting him or her, taken on the sole basis of profiling, he or she should be able to object to the decision unless: | 5.5. 個人が、唯一プロファイリングに基づいて行われた、自分に関する法的効果を持つ決定、または自分に重大な影響を与える決定の対象となる場合、以下の場合を除き、その決定に異議を唱えることができる。 |
a. this is provided for by law, which lays down measures to safeguard the legitimate interests, rights and fundamental freedoms of the data subjects, particularly by allowing them to put forward their point of view; | a. 情報主体の正当な利益、権利および基本的自由を保護するための手段、特に情報主体が自分の意見を述べることを可能にする手段を定めた法律によって規定されている場合 |
b. the decision was needed to ensure the performance of a contract to which the data subject is party or to implement pre-contractual measures taken at the request of the data subject, and that measures to safeguard the legitimate interests, rights and fundamental freedoms of the data subject are in place. | b. データ対象者が当事者である契約の履行を確実にするため、またはデータ対象者の要 請により契約前の措置を実施するために決定が必要であり、データ対象者の正当な利益、権利お よび基本的自由を保護するための措置が講じられている場合 |
5.6. In any event, and not only in the cases referred to under principle 5.5, when the profiling system issues a decision or a draft decision, it is strongly recommended that: | 5.6. 原則5.5で言及されている場合に限らず、プロファイリングシステムが決定または決定案を発行する際には、以下のことが強く推奨される。 |
a. the controller considers all the particularities of the data and does not simply rely on information or processing results taken out of context; | a. 管理者は、データのすべての特殊性を考慮し、文脈から切り離された情報または処理結果に単純に依存しないこと |
b. in the event of high-risk profiling, the controller informs the data subject of the algorithmic operations underlying the data processing, including the consequences of these operations for him or her. The information should be such as to enable the data subject to understand the justification for the decisions or draft decisions; | b. 高リスクプロファイリングの場合、管理者はデータ対象者に、データ処理の基礎となるアルゴリズム操作について、これらの操作がデータ対象者に与える影響を含めて通知する。情報は、データ対象者が決定または決定案の正当性を理解できるようなものでなければならない。 |
c. the person appointed by the controller is able, on the basis of reasonable arguments, to decide not to rely on the results of the recommendations arising from the use of profiling; | c. 管理者によって任命された人物が、合理的な論拠に基づいて、プロファイリングの使用から生じる推奨の結果に依存しないことを決定できる場合 |
d. where there are indications of direct or indirect discrimination based on the functioning of the profiling operation, controllers and processors provide evidence of the absence of discrimination. | d. プロファイリングの機能に基づいて直接的または間接的な差別がある場合、管理者と処理者は、差別がないことを示す証拠を提供する。 |
5.7. Persons affected by a decision based on profiling should have the right to receive a meaningful explanation of this decision or draft decision to understand the justification for it. Intellectual property or the existence of trade secrets may only be opposed where the information to be given would seriously affect these rights. The invocation of these rights and interests by the controller may not lead to deprive the data subject or the affected group of the capacity to understand the decisions or draft decisions taken by the controller. | 5.7. プロファイリングに基づく決定の影響を受ける人は、この決定または決定案について、その正当性を理解するための意味のある説明を受ける権利を持つべきである。知的財産または企業秘密の存在は、提供されるべき情報がこれらの権利に深刻な影響を与える場合にのみ反対することができる。管理者によるこれらの権利および利益の行使は、データ対象者または影響を受けるグループから、管理者が下した決定または決定案を理解する能力を奪うことにつながってはならない。 |
5.8. Notwithstanding recourse before a supervisory authority or legal redress, data subjects should have the right to challenge the profiling before a person nominated by the data controller, who has access to all the information about the profiling and its functioning, and is qualified to modify or delete the decision or draft decision. | 5.8. 監督機関への相談または法的救済にかかわらず、データ対象者はデータ管理者が指名した人の前でプロファイリングに異議を唱える権利を持つべきであり、その人はプロファイリング及びその機能に関する全ての情報にアクセスすることができ、決定または決定案を修正または削除する資格を持つものとする。 |
5.9. Unless explicitly consented to, the data subject must be able to object by easy means to the transfer or sharing of data for profiling purposes by third parties or of the results of profiling. | 5.9. 明示的に同意した場合を除き、データ対象者は、プロファイリングを目的としたデータの第三者による移転もしくは共有、またはプロファイリングの結果について、容易な手段で異議を唱えることができなければならないものとする。 |
6. Exceptions and restrictions | 6. 例外および制限 |
6.1. Where it constitutes a necessary and proportionate measure in a democratic society for reasons of national security, defence, public safety, and other grounds listed in Article 11 of Convention 108+, the provisions set out in sections 3, 4 and 5 may be subject to restrictions. Such restrictions furthermore have to be provided for by law and respect the essence of the fundamental rights and freedoms, notably freedom of expression. | 6.1. 国家安全保障、防衛、公共の安全、および条約第108+号の第11条に記載されているその他の理由により、民主主義社会において必要かつ比例的な措置を構成する場合、セクション3、4および5に記載されている規定は制限を受けることがある。このような制限はさらに、法律によって規定され、基本的な権利および自由の本質、特に表現の自由を尊重しなければならない。 |
6.2. Provisions set out in sections 4 and 5 may be subject to restrictions according to Article 11.2 of Convention 108+ for archiving purposes in the public interest, for scientific or historical research purposes, or for statistical purposes, where there is no recognisable risk of infringement of the rights and fundamental freedoms of individuals. | 6.2. 第4節及び第5節に定める規定は、条約第108+条第11.2項に基づき、個人の権利及び基本的自由を侵害する認識可能なリスクがない場合には、公益のためのアーカイブ目的、科学的又は歴史的研究目的、又は統計目的のために制限を受けることができる。 |
7. Data Security | 7. データセキュリティ |
A. General provisions | A. 一般条項 |
7.1. Appropriate technical and organisational measures should be taken, in particular on the basis of the principles of “privacy by design” and “privacy by default”, to ensure the protection of personal data processed in accordance with the provisions of domestic law enforcing the principles set out in Convention 108+, to guard against accidental or unlawful destruction and accidental loss, as well as unauthorised access, alteration, communication or any other form of unlawful processing. | 7.1. 特に「プライバシー・バイ・デザイン」および「プライバシー・バイ・デフォルト」の原則に基づき、条約第108+号に定められた原則を実施する国内法の規定に従って処理された個人データの保護を確保し、偶発的または不法な破壊および偶発的な損失、ならびに不正なアクセス、改ざん、通信、またはその他の形態の不法な処理から守るために、適切な技術的および組織的措置を講じるべきである。 |
7.2. These measures should ensure a proper standard of data security, having regard to the technical state of the art and also to the sensitive nature of the personal data processed in the context of profiling and the evaluation of the potential risks. They should be reviewed periodically and within a reasonable time. | 7.2. これらの措置は、技術的な現状を考慮し、また、プロファイリングと潜在的なリスクの評価に関連して処理される個人データの機密性を考慮して、データセキュリティの適切な水準を確保する。これらの措置は、合理的な期間内に定期的に見直す。 |
7.3. The controllers should, in accordance with domestic law, lay down appropriate internal rules with due regard to the relevant principles of this recommendation. | 7.3. 管理者は、国内法に従い、この勧告の関連原則を考慮した適切な内部規則を定めるべきである。 |
7.4. If necessary, the controllers should appoint independent persons responsible for the security of information systems and data protection, and who are qualified to give advice on these matters. | 7.4. 必要に応じて、管理者は、情報システムのセキュリティ及びデータ保護に責任を負い、これらの問題に助言を与える資格を有する独立した人物を任命すべきである。 |
7.5. Controllers should choose processors who offer adequate safeguards regarding the technical and organisational aspects of the processing to be carried out and should ensure that these safeguards are observed and that, in particular, the processing is in accordance with their instructions. | 7.5. 管理者は、実行される処理の技術的及び組織的側面に関する適切な保護措置を提供する処理者を選択し、これらの保護措置が遵守され、特に処理がその指示に従っていることを確認する必要がある。 |
7.6. In the case where data have been anonymised or pseudonymised, the controllers should assess the risk of re-identification of the data subject (taking into account in particular the time, effort or resources required with regard to the nature of the data, the context of their use, the re-identification techniques available and the corresponding costs). Controllers should demonstrate the adequacy of data pseudonymisation or anonymisation measures and guarantee their effectiveness. If there is a risk of re-identification of the data subject, such data can no longer be considered anonymised data. Technical measures may be combined with legal or contractual obligations in order to prevent any possible re-identification of the data subject. Controllers should regularly reassess the risk of re-identification, in view of technological advances in de-anonymisation techniques. Member States may regularly lay down a list of pseudonymisation and/or anonymisation techniques for controllers to use. | 7.6. データが匿名化または仮名化されている場合、管理者はデータ対象者の再識別のリスクを評価しなければならない(特に、データの性質、使用の状況、利用可能な再識別技術および対応するコストに関して必要な時間、労力または資源を考慮する)。管理者は、データの偽名化または匿名化の手段が適切であることを証明し、その有効性を保証する必要がある。データ対象者を再識別するリスクがある場合、そのようなデータはもはや匿名化されたデータとはみなされない。データ対象者の再識別の可能性を防ぐために、技術的手段を法的または契約上の義務と組み合わせることができる。管理者は、匿名化解除技術の進歩を考慮して、再識別のリスクを定期的に再評価する必要がある。加盟国は、管理者が使用すべき偽名化および/または匿名化技術のリストを定期的に定めることができる。 |
B. Special provisions for profiling based on AI systems using automatic learning processes | B. 自動学習プロセスを用いたAIシステムに基づくプロファイリングに関する特別規定 |
7.7. In order to ensure trust in AI systems and their lawfulness, controllers and, where applicable, processors should ensure the use of reliable and safe systems, in particular with regard to the setting up of procedures in the event of breakdown, errors or inconsistencies during the system’s entire life cycle. They should ensure on a regular basis, and throughout the life of the system, that it is reliable and that its results are consistent with the model and reproducible. The system ought to be robust against attacks or other manipulation of the data or the algorithms. | 7.7. AIシステムへの信頼とその合法性を確保するために、管理者と(場合によっては)処理者は、信頼性のある安全なシステムの使用を保証しなければならない。特に、システムのライフサイクル全体において、故障、エラー、不整合が発生した場合の手順を設定することが重要である。プロセッサーは、システムが信頼できること、その結果がモデルと一致し、再現可能であることを、定期的に、そしてシステムの寿命を通して確認しなければならない。システムは、データやアルゴリズムに対する攻撃やその他の操作に対して堅牢でなければならない。 |
7.8. Controllers and, where applicable, processors should ensure a critical assessment of the quality, representative nature and quantity of the data used, by eliminating unnecessary data and any data that could bias the results. In particular, specific thresholds of accuracy of results should be met. Controllers ensure the robustness of the model in case of new data input. Results themselves should be assessed to evaluate their impact on the data subject, including with regard to the right to non-discrimination. AI applications should allow effective control, by the data subjects and groups concerned, of the effects of their applications on individuals, groups and society. | 7.8. 管理者及び必要に応じて処理者は、不必要なデータや結果に偏りを与える可能性のある データを排除することにより、使用するデータの品質、代表性及び量についての批判的な 評価を確実に行うべきである。特に、結果の精度に関する特定のしきい値を満たす必要がある。コントローラは、新しいデータが入力された場合にモデルのロバスト性を確保する。結果自体は、無差別の権利に関するものも含め、データ対象者への影響を評価すべきである。AI アプリケーションは、そのアプリケーションが個人、グループ及び社会に及ぼす影響を、データ対象者及び関係グループが効果的にコントロールできるようにすべきである。 |
7.9. For the purposes of the ongoing assessment of both individual and collective risks – and in any event when it comes to high-risk profiling operations – controllers and, where appropriate, processors should document the training of the model and carry out regular impact assessments addressing the specific risks of profiling based on AI systems. To achieve this purpose, they should surround themselves with a multidisciplinary assessment team and consult representatives of the interests involved in the profiling, including the profiled people. Such an evaluation process should be conducted by qualified and knowledgeable professionals able to assess the various impacts, including their legal, social, ethical and technical dimensions. | 7.9. 個人および集団のリスクを継続的に評価するために、管理者および必要に応じて処理者は、モデルのトレーニングを文書化し、AIシステムに基づくプロファイリングの特定のリスクに対処する影響評価を定期的に実施する必要がある。この目的を達成するために、管理者と処理者は、学際的な評価チームを編成し、プロファイリングされた人々を含むプロファイリングに関わる利害関係者の代表者に相談しなければならない。このような評価プロセスは、法的、社会的、倫理的、技術的側面を含む様々な影響を評価できる資格と知識を持った専門家によって行われるべきである。 |
8. Supervisory authorities | 8. 監督当局 |
8.1. Supervisory authorities under Article 15 of Convention 108+ ensure compliance with the domestic law, implementing the principles set out in this recommendation. | 8.1. 条約第 108+号第 15 条に基づく監督当局は、本勧告に定められた原則を実施し、国内法の遵守を確保する。 |
8.2. Where the envisaged profiling activity is of a high-risk nature, member States may stipulate that controllers should notify its existence to the supervisory authority and, if requested by the latter, make available all the documents relating to the procedure followed, the evaluation itself and provide information about the corrective measures taken or envisaged. | 8.2. 想定されるプロファイリング活動が高リスクな性質のものである場合、加盟国は管理者がその存在を監督当局に通知し、監督当局から要求された場合には、実施された手続き、評価自体に関連する全ての文書を利用可能にし、実施または想定された是正措置に関する情報を提供することを規定することができる。 |
8.3. Intellectual property or the existence of trade secrets cannot lead to the supervisory authority being deprived of the capacity to exercise its powers and, for example, to assess the automated decision making. | 8.3. 知的財産や企業秘密の存在は、監督官庁がその権限を行使する能力や、例えば自動化された意思決定を評価する能力を奪うことにはつながらない。 |
8.4. In the implementation of this recommendation, supervisory authorities should co-operate as far as possible with consumer and competition protection authorities as well as with institutions responsible for equal opportunities or for the promotion of democracy. Where an independent multidisciplinary national authority exists for assessing the risks associated with AI, and in particular with profiling using machine learning processes, the supervisory authority should co-ordinate its work with this institution. | 8.4. 本勧告の実施において、監督官庁は、消費者及び競争保護当局、並びに機会均等又は民主主義の促進を担当する機関と可能な限り協力すべきである。AIに関連するリスク、特に機械学習プロセスを用いたプロファイリングを評価するための独立した学際的な国家機関が存在する場合、監督当局は、この機関と協調して作業を行うべきである。 |
8.5. The field of inquiry of supervisory authorities should be broadened to include collective and societal risks. Their opinions should mention such risks and their decisions should take them into consideration. | 8.5. 監督官庁の調査分野は、集団的・社会的リスクを含むように拡大されるべきである。監督当局の意見はそのようなリスクに言及すべきであり、その決定はそれらを考慮に入れるべきである。 |
8.6. In this context, supervisory authorities should be entitled to receive and investigate complaints from associations concerning the collective interest of a group or the general interest, and where appropriate impose sanctions. | 8.6. この観点から、監督当局は団体の集団的利益又は一般的利益に関する団体からの苦情を受け取 り調査し、必要に応じて制裁を課す権利を有するべきである。 |
8.7. The above-mentioned authorities should inform the public of the application of the legislation implementing the principles set out in this recommendation. | 8.7. 上述の当局は、本勧告で定められた原則を実施する法律の適用について国民に知らせるべきである。 |
9. Additional measures | 9. 追加措置 |
A. Labelling and certification of AI and data protection systems | A. AIおよびデータ保護システムのラベル付けおよび認証 |
9.1. Member States and supervisory authorities should encourage the setting up of independent and qualified certification mechanisms for AI systems as regards their compliance with legal requirements for data protection, in particular the training and resulting model on which profiling is based and related labels and trust marks, as an element to demonstrate that processing operations carried out by controllers and processors comply with this recommendation. | 9.1. 加盟国及び監督当局は、管理者及び処理者が行う処理作業が本勧告を遵守していることを実証する要素として、データ保護の法的要件、特にプロファイリングのベースとなるトレーニング及びその結果としてのモデル、関連するラベル及びトラストマークの遵守に関して、AIシステムの独立した適格な認証メカニズムの設置を奨励すべきである。 |
9.2. Member States may lay down conditions for the approval of bodies that would set up the supervisory mechanisms referred to under principles 8.1 and 8.2. | 9.2. 加盟国は、原則8.1及び8.2で言及された監督機構を設立する団体の承認条件を定めることができる。 |
9.3. Certification is voluntary and accessible through a transparent process. A certification under this principle should not reduce the liability of the controller or of the processor to comply with this recommendation or with applicable laws. | 9.3. 認証は任意であり、透明なプロセスを通じてアクセス可能である。この原則に基づく認証は、この勧告または適用される法律を遵守する管理者または処理者の責任を軽減してはならない。 |
9.4. Data controllers and processors whose systems are certified or labelled will indicate the certification or label mark at least on their websites and in the information to be given to data subjects. They should ensure that, via such a mark, access to the certificate or label is accessible to anybody. The period of validity of the certification should be limited in time. | 9.4. システムが認証またはラベル付けされているデータ管理者および処理者は、 少なくともウェブサイトおよびデータ主体に提供される情報に、認証またはラベルマークを 表示する。管理者は、このようなマークを介して、誰もが認証またはラベルにアクセスできるようにしなければならない。認証の有効期間は、時間的に制限されるべきである。 |
B. Profiling operations carried out by public authorities | B. 公的機関が実施するプロファイリング業務 |
9.5. Without prejudice to the other applicable principles of the present recommendation, profiling operations carried out by public authorities should be lawful, proportionate and necessary in relation to the purposes of these operations. | 9.5. 本勧告の他の適用原則を損なうことなく、公的機関が実施するプロファイリング業務は、当該業務の目的に関連して、合法的、比例的、かつ必要であるべきである。 |
9.6. The profiling operations carried out by public authorities, using automated decision-making systems either to define their strategies or to apply them, must be based on domestic law (clear, foreseeable and accessible), pursue a legitimate aim and be limited to what is necessary and proportionate to achieve that legitimate aim, taking fully into consideration all fundamental rights necessary in a democratic society, in accordance with the interpretation of the case law of the European Court of Human Rights. | 9.6. 公的機関がその戦略を定義するため、またはその適用のために自動化された意思決定システムを使用して行うプロファイリング業務は、欧州人権裁判所の判例法の解釈に従い、民主主義社会に必要なすべての基本的権利を十分に考慮した上で、国内法(明確、予見可能、アクセス可能)に基づき、正当な目的を追求し、その正当な目的を達成するために必要かつ比例するものに限定されなければならない。 |
9.7. The design, development, implementation and monitoring of AI systems, in particular profiling systems, should be submitted to the competent authority for the assessment of risks related to AI. | 9.7. AIシステム、特にプロファイリングシステムの設計、開発、実装及びモニタリングは、AIに関連するリスクの評価のために、所轄官庁に提出されるべきである。 |
9.8. Public authorities should publish information on the reasoning underlying the processing or, in the case of the use of processing based on machine learning, an explanation in plain language of the model on which the system is based. | 9.8. 公的機関は、処理の基礎となる理由についての情報を公表するか、機械学習に基づく処理を利用する場合には、システムの基礎となるモデルについて平易な言葉で説明するべきである。 |
9.9. The individual decisions or draft decisions taken by public authorities and based on automated decision making systems should be transparent. Individuals and legitimate associations should, notwithstanding any technical or legal arguments, have access to the reasoning underlying the processing or, in the case of the use of processing based on machine learning, an explanation in plain language of the decision taken by the model on which the system is based. Without this, effective legal protection against the decisions would not be guaranteed. | 9.9. 公的機関が行う、自動意思決定システムに基づく個別の決定または決定案は透明であるべきである。個人および正当な団体は、技術的または法的な議論にかかわらず、処理の基礎となる理由にアクセスすることができるべきであり、また、機械学習に基づく処理を使用する場合には、システムの基礎となるモデルによって下された決定の平易な言葉による説明を受けることができるべきである。これがなければ、その決定に対する効果的な法的保護は保証されない。 |
9.10. Public authorities should ensure that the requirements of these recommendations, in particular those specific to them, are communicated to their processors as part of their terms of reference. | 9.10. 公的機関は、本勧告の要件、特に公的機関に特有の要件が、処理者の規約の一部として処理者に伝えられることを保証すべきである。 |
C. Provisions regarding research and education | C. 研究と教育に関する規定 |
9.11. Member States should encourage independent, interdisciplinary and open research, including fundamental research, in particular on the reliability, auditability, robustness and transparency of AI systems, and allocate resources for this purpose. When relevant, that research should be led in dialogue with civil society representatives. | 9.11. 加盟国は、特にAIシステムの信頼性、監査可能性、堅牢性および透明性に関する基礎研究を含む、独立した、学際的でオープンな研究を奨励し、この目的のために資源を割り当てるべきである。関連する場合、その研究は市民社会の代表者との対話の中で進められるべきである。 |
9.12. Member States should encourage open-source initiatives for the design and free dissemination of algorithms. | 9.12. 加盟国は、アルゴリズムの設計と自由な普及のためのオープンソース・イニシアチブを奨励すべきである。 |
9.13. Member States should allocate resources to multidisciplinary digital literacy at all levels of education in order to raise people's awareness of the impact of profiling and AI on fundamental rights. They should likewise encourage professional training, including of administration and business managers, on the technical aspects and societal and human rights issues of the systems used in the context of profiling. Interdisciplinary courses should notably be offered in education and post-graduate curricula for IT professions. | 9.13. 加盟国は、プロファイリングとAIが基本的権利に与える影響について人々の意識を高めるために、あらゆるレベルの教育における学際的なデジタルリテラシーに資源を割り当てるべきである。また、プロファイリングに使用されるシステムの技術的側面や社会的・人権的問題について、行政やビジネスマネージャーを含む専門家のトレーニングを奨励すべきである。特に、IT専門職の教育および大学院のカリキュラムにおいて、学際的なコースを提供すべきである。 |
[1] The Protocol amending Convention 108 (CETS No. 223) was opened for signature on 10 October 2018 and the modernised convention has yet to enter into force. It is hereafter referred to as “Convention 108+”. | [1] 第108条約を改正する議定書(CETS No.223)は2018年10月10日に署名が開始され、近代化された条約はまだ発効していない。以下、「条約108+」という。 |
« Cloud Security Alliance 医療機器インシデント対応ハンドブック | Main | 米国 White House ハリス副大統領が宇宙とサイバーセキュリティに関する取り組みを発表(マカロン仏大統領との会談を受けて) »
Comments