欧州データ保護監督者 通信の秘密を守ることは基本的権利に不可欠である (ネット上の児童虐待と通信の秘密の保護の間で...) (2024.01.29)
こんにちは、丸山満彦です。
欧州データ保護監督者 (European Data Protection Supervisor; EDPS) [wikipedia] のこの話は、日本でも当てはまる話ですよね...
ネット上の児童虐待の話は重大な人権問題であるのはわかるけど、だからといって現状のやり方が自動的にはOKということにはならないよね...という話ですかね。。。
さて、一方、日本では安全保障問題が盛り上がっているので、そのうちプライバシーと安全保障の間の問題も、いろいろ出てくるような気がしますね... 欧州との関係で考えると、そこで安易に安全保障側に振らないことが重要ですかね。日本の場合は、右っぽい人が、国家安全が重要だろうと血気盛んに主張(だからといって戦争になったら先頭にたって戦うわけでもなさそうなんですが...)しそうですが、安易にそちらに流れてもダメですね。。。
米国は表向き米国市民以外(なので欧州人も含まれる)の通信傍受をしていますが、そこが個人データの移転で問題になる部分であったりしますからね...
● European Data Protection Supervisor; EDPS
・2024.01.29 Preserving the confidentiality of communications is essential to fundamental rights
Preserving the confidentiality of communications is essential to fundamental rights | 通信の秘密保持は基本的権利に不可欠である |
The EDPS has issued an Opinion on the proposed Regulation to extend the temporary derogation from certain provisions of the ePrivacy Directive to combat child sexual abuse online. The Regulation would allow providers of certain independent interpersonal communication services to continue to apply specific technologies to private communications in order to detect child sexual abuse material for two more years, whilst negotiations for a long-term Regulation are ongoing. | EDPSは、オンライン上の児童性的虐待に対抗するため、eプライバシー指令の特定条項の一時的適用除外を延長する規則案に関する意見を発表した。同規則は、特定の独立した対人通信サービスのプロバイダーに対し、児童への性的虐待を検出するために、個人的な通信に特定の技術を適用し続けることを2年間認めるもので、その一方で、長期的な規則の交渉が継続される。 |
In its Opinion, the EDPS expresses concern about the aims of this Regulation, which would, in effect, restrict individuals’ fundamental rights to privacy and personal data, including their right to the confidentiality of communications. The EDPS also highlights that the recommendations previously issued in its Opinion on temporary derogations from the ePrivacy Directive 2020 were not fully addressed, further putting individuals at risk. | EDPSは意見書の中で、この規制の目的について懸念を表明している。この規制は、事実上、通信の秘密に対する権利を含め、プライバシーと個人情報に関する個人の基本的権利を制限するものである。EDPSはまた、ePrivacy指令2020からの一時的な適用除外に関する意見で以前に出された勧告が十分に対処されておらず、個人をさらに危険にさらしていることを強調している。 |
Wojciech Wiewiórowski, EDPS, said: “Extending the validity of the Regulation on temporary derogations from the ePrivacy Directive is not a formality. It would perpetuate the already-existing risks to individuals’ privacy and their personal data, which should by no means become the norm. This proposed Regulation should not be adopted until the necessary safeguards are put in place”. | EDPSのWojciech Wiewiórowski氏は次のように述べた: 「eプライバシー指令の一時的な適用除外に関する規則の有効性を延長することは、形式的なものではない。それは、個人のプライバシーと個人データに対する既存のリスクを永続させるものであり、決して常態化すべきではない。必要な保護措置が講じられるまで、この規則案は採択されるべきではない」。 |
The EDPS underscores that, although the use of specific technologies to detect child sexual abuse material would remain voluntary, it is still the EU’ s co-legislators responsibility to put in place measures to ensure that the Regulation complies with the EU’s Charter of Fundamental Rights. | EDPSは、児童性的虐待を検出するための特定技術の使用は任意であるものの、同規則がEUの基本権憲章に準拠することを確実にするための措置を講じることは、EUの共同立法者の責任であることを強調している。 |
In line with its previously issued recommendations, the EDPS reiterates that the proposed Regulation does not include sufficient and effective safeguards to prevent general and indiscriminate monitoring of private electronic communications. Putting these safeguards in place is important, especially given the high error rates observed with certain technologies used for detecting child sexual abuse materials or child solicitation, such as grooming. The EDPS underscores the significant risk that technologies used to detect child sexual abuse material may flag consensually produced and shared imagery. | EDPSは、以前に発表した勧告に沿って、提案されている規則には、私的な電子通信の一般的かつ無差別な監視を防止するための十分かつ効果的な保護措置が含まれていないことを改めて指摘する。特に、児童性的虐待の材料や、グルーミングのような児童の勧誘を検出するために使用される特定の技術に高いエラー率が観察されていることを考えると、こうした保護措置を設けることは重要である。EDPSは、児童性的虐待の素材を検知するために使用される技術が、合意に基づいて作成され共有された画像にフラグを立てる可能性があるという重大なリスクを強調している。 |
Whilst the EDPS fully supports the aim to combat child sexual abuse as a terrible crime, this Regulation is not the solution. The goal of combatting child sexual abuse must be pursued with the necessary safeguards for individuals’ private communications, and, by extension, their fundamental rights to privacy and personal data. | EDPSは、児童性的虐待を恐ろしい犯罪として撲滅する目的を全面的に支持するが、本規制は解決策ではない。児童性的虐待撲滅という目標は、個人の私的通信、ひいてはプライバシーや個人情報に対する基本的権利に必要な保護措置を講じた上で追求されなければならない。 |
・[PDF]
Opinion 8/2024 on the Proposal for a Regulation amending Regulation (EU) 2021/1232 on a temporary derogation from certain ePrivacy provisions for combating CSAM | CSAM対策のための特定のeプライバシー規定からの一時的な適用除外に関する規則(EU)2021/1232の改正規則案に関する意見書8/2024 |
The European Data Protection Supervisor (EDPS) is an independent institution of the EU, responsible under Article 52(2) of Regulation 2018/1725 ‘With respect to the processing of personal data… for ensuring that the fundamental rights and freedoms of natural persons, and in particular their right to data protection, are respected by Union institutions and bodies’, and under Article 52(3)‘… for advising Union institutions and bodies and data subjects on all matters concerning the processing of personal data’. | 欧州データ保護監督者(EDPS)はEUの独立機関であり、規則2018/1725の第52条2項「個人データの処理に関し...自然人の基本的権利および自由、特にデータ保護に対する権利が、EUの機関および団体によって尊重されることを確保すること」、および第52条3項「...個人データの処理に関するすべての事項について、EUの機関および団体ならびにデータ主体に助言すること」に基づいて責任を負う。 |
Wojciech Rafał Wiewiórowski was appointed as Supervisor on 5 December 2019 for a term of five years. | Wojciech Rafał Wiewiórowski氏は2019年12月5日に5年の任期で監督官に任命された。 |
Under Article 42(1) of Regulation 2018/1725, the Commission shall ‘following the adoption of proposals for a legislative act, of recommendations or of proposals to the Council pursuant to Article 218 TFEU or when preparing delegated acts or implementing acts, consult the EDPS where there is an impact on the protection of individuals’ rights and freedoms with regard to the processing of personal data’. | 規則2018/1725の第42条1項に基づき、欧州委員会は、「TFEU第218条に基づき、立法行為の提案、勧告もしくは理事会への提案の採択後、または委任法もしくは実施法を準備する際、個人データの処理に関して個人の権利および自由の保護に影響がある場合、EDPSに相談する」ものとされている。 |
This Opinion relates to the Proposal for a Regulation of the European Parliament and of the Council amending Regulation (EU) 2021/1232 of the European Parliament and of the Council on a temporary derogation from certain provisions of Directive 2002/58/EC for the purpose of combating online child sexual abuse[1]. This Opinion does not preclude any future additional comments or recommendations by the EDPS, in particular if further issues are identified or new information becomes available. Furthermore, this Opinion is without prejudice to any future action that may be taken by the EDPS in the exercise of his powers pursuant to Regulation (EU) 2018/1725. | 本意見書は、オンライン児童性的虐待[1]に対処する目的で、指令2002/58/ECの特定の規定からの一時的な適用除外に関する欧州議会及び理事会規則(EU)2021/1232を改正する欧州議会及び理事会規則の提案に関するものである。本意見書は、EDPSによる今後の追加的なコメントや勧告を妨げるものではなく、特に、さらなる問題が特定されたり、新たな情報が入手可能になったりした場合には、この限りでない。さらに、本意見書は、規則(EU)2018/1725に基づきEDPSがその権限を行使して将来とる可能性のある措置を損なうものではない。 |
Executive Summary | 要旨 |
On 30 November 2023, the European Commission issued the Proposal for a Regulation of the European Parliament and of the Council amending Regulation (EU) 2021/1232 on a temporary derogation from certain provisions of Directive 2002/58/EC for the purpose of combating online child sexual abuse. The objective of the Proposal is to introduce a limited time extension to Regulation (EU) 2021/1232 (“Interim Regulation”) to enable providers of certain numberindependent interpersonal communications services to use specific technologies for the processing of personal and other data to detect online child sexual abuse on their services, while interinstitutional negotiations on a long-term Regulation continue. | 2023年11月30日、欧州委員会は、オンライン児童性的虐待対策を目的とした指令2002/58/ECの特定条項の一時的適用除外に関する規則(EU)2021/1232を改正する欧州議会および理事会規則案を発表した。この提案の目的は、長期的な規則に関する機関間交渉が継続される間、特定の番号非依存型対人通信サービスのプロバイダーが、そのサービス上でオンライン児童性的虐待を検出するために、個人データおよびその他のデータの処理に特定の技術を使用することを可能にするために、規則(EU)2021/1232(「暫定規則」)に期間限定の延長を導入することである。 |
The EDPS does not consider the proposed extension of validity of the Interim Regulation a formality. Already in his 2020 Opinion, the EDPS considered that the proposal should not be adopted, even in the form a temporary derogation, until the recommendations included in that Opinion were addressed. | EDPSは、提案されている暫定規則の有効期間延長を形式的なものとは考えていない。EDPSはすでに2020年意見書で、同意見書に盛り込まれた勧告に対処するまでは、一時的な適用除外という形であっても、同提案を採択すべきではないと考えている。 |
The mere fact that providers of electronic communication services apply detection technologies on a voluntary basis does not dispense the co-legislature from its responsibility of establishing a comprehensive legal framework which meets the requirements of Articles 7 and 8 of the Charter of Fundamental Rights of the European Union. | 電子通信サービスのプロバイダーが自主的に検知技術を適用しているという事実だけで、欧州連合基本権憲章第7条および第8条の要件を満たす包括的な法的枠組みを確立するという共同立法府の責任が免除されるわけではない。 |
The EDPS notes that the concerns and recommendations expressed in his 2020 Opinion have not been fully addressed by the co-legislators when adopting the Interim Regulation. In particular, the Interim Regulation does not contain effective safeguards against general and indiscriminate monitoring of private commuincations. In this regard, the EDPS remains particularly concerned by the relatively high error rates of current detection technologies, especially those for detecting new child sexual abuse materials or child solicitation (‘grooming’). The EDPS also wishes to draw attention to the significant risk that technologies to detect CSAM may flag consensually produced and shared imagery. | EDPSは、2020年意見書で表明された懸念と勧告が、暫定規則の採択に際して共同立法者によって十分に対処されていないことに留意する。特に、暫定規則には、私的通信の一般的かつ無差別的な監視に対する効果的なセーフガードは含まれていない。この点に関して、EDPSは、現在の検知技術、特に新たな児童性的虐待の材料や児童の勧誘(「グルーミング」)を検知する技術のエラー率が比較的高いことを特に懸念している。EDPSはまた、CSAMを検知する技術が、合意に基づいて作成・共有された画像にフラグを立てる重大なリスクにも注意を喚起したい。 |
Given the significant outstanding concerns, the EDPS recommends not to adopt the Proposal until the necessary safeguards are integrated. | 未解決の重大な懸念を考慮し、EDPSは、必要な保護措置が統合されるまで、本提案を採択しないことを勧告する。 |
Contents | 内容 |
1. Introduction | 1. はじめに |
2. General remarks | 2. 総論 |
3. Legal basis and necessity and proportionality | 3. 法的根拠および必要性と比例性 |
4. Transparency and data subject rights | 4. 透明性とデータ主体の権利 |
5. Duration of the temporary derogation | 5. 一時的適用除外の期間 |
6. Further considerations | 6. さらなる検討事項 |
7. Conclusions | 7. 結論 |
THE EUROPEAN DATA PROTECTION SUPERVISOR, | 欧州データ保護監督者 は、 |
Having regard to the Treaty on the Functioning of the European Union, | 欧州連合の機能に関する条約を考慮し、 |
Having regard to Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC (‘EUDPR’)[2], and in particular Article 42(1) thereof, | 欧州連合の機関、団体、事務所及び機関による個人データの処理に関する自然人の保護並びに当該データの自由な移動に関する2018年10月23日の欧州議会及び理事会の規則(EU)2018/1725を考慮し、規則(EC)No 45/2001及び決定No 1247/2002/EC(以下「EUDPR」)[2]を廃止し、特にその第42条(1)を考慮し、 |
HAS ADOPTED THE FOLLOWING OPINION: | 以下の意見を採択した: |
1. Introduction | 1. はじめに |
1. On 30 November 2023, the European Commission issued the Proposal for a Regulation of the European Parliament and of the Council amending Regulation (EU) 2021/1232 of the European Parliament and of the Council on a temporary derogation from certain provisions of Directive 2002/58/EC for the purpose of combating online child sexual abuse[3] (‘the Proposal’). | 1. 2023年11月30日、欧州委員会は、オンライン児童性的虐待[3]に対処する目的で、指令2002/58/ECの特定の規定からの一時的な適用除外に関する欧州議会および理事会規則(EU)2021/1232を改正する欧州議会および理事会規則の提案(「提案」)を発表した。 |
2. The objective of the Proposal is to introduce a limited time extension to Regulation (EU) 2021/1232 (“Interim Regulation”)[4] to enable providers of certain number-independent interpersonal communications services to use specific technologies for the processing of personal and other data to detect online child sexual abuse on their services, while interinstitutional negotiations on the proposal for a long-term Regulation[5] continue[6]. | 2. 本提案の目的は、特定の番号非依存型対人通信サービスのプロバイダーが、そのサービス上でオンライン児童性的虐待を検知するために、個人データおよびその他のデータの処理に関する特定の技術を使用できるようにするために、規則(EU)2021/1232(「暫定規則」)[4]に期間限定の延長を導入することであり、その一方で、長期規則[5]の提案に関する機関間交渉は継続される[6]。 |
3. On 10 November 2020, the EDPS provided his Opinion on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online[7] (which later became the Interim Regulation). On 28 July 2022, the EDPS has, together with the European Data Protection Board (EDPB), issued Joint Opinion 04/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse[8] ( the long-term Regulation Proposal). Both Opinions remain relevant in the context of the current Proposal. | 3. 2020年11月10日、EDPSは、オンライン児童性的虐待撲滅を目的とした指令2002/58/ECからの一時的な適用除外の提案[7](後に暫定規則となる)に関する意見を提出した。2022年7月28日、EDPSは欧州データ保護委員会(EDPB)とともに、児童の性的虐待を防止し、撲滅するための規則を定めた欧州議会及び理事会規則案[8](長期規則案)に関する共同意見書04/2022を発表した。両意見は、現行の提案の文脈においても引き続き妥当である。 |
4. The present Opinion of the EDPS is issued in response to a consultation by the European Commission of 30 November 2023, pursuant to Article 42(1) of EUDPR. The EDPS notes that no reference to this consultation has been made in a Recital, and recommends inserting such reference in accordance with the established practice[9]. | 4. EDPSの本意見は、EUDPR第42条1項に基づき、2023年11月30日に欧州委員会が行った諮問に応えるために出されたものである。EDPSは、この協議に関する言及がリサイタルでなされていないことに留意し、確立された慣行[9]に従って、そのような言及を挿入することを推奨する。 |
2. General remarks | 2. 総論 |
5. According to the explanatory memorandum[10], it is uncertain that the inter-institutional negotiations on the Proposal for a long-term Regulation will conclude for the long-term Regulation to enter into force and to apply before the Interim Regulation is set to expire. The proposed extension, until August 2026, would ensure that child sexual abuse online can be effectively and lawfully combated without interruptions until the long-term regime created by the proposed Regulation is agreed. | 5. 説明文書[10]によると、暫定規則の期限が切れる前に長期規則を発効させ、適用するために、長期規則の提案に関する機関間交渉がまとまるかどうかは不透明である。提案されている2026年8月までの延長は、同規則案によって創設される長期的な体制が合意されるまでの間、オンライン上の児童性的虐待を中断することなく、効果的かつ合法的に撲滅できることを保証するものである。 |
6. The EDPS does not consider the proposed extension of validity of the Interim Regulation a formality. Already in his 2020 Opinion, the EDPS considered that the mere fact that providers of electronic communication services would apply the detection technologies on a voluntary basis does not dispense the co-legislature from its responsibility of establishing a comprehensive legal framework which meets the requirements of Articles 7 and 8 of the Charter of Fundamental Rights of the European Union. The EDPS also noted that the general, indiscriminate and automated analysis of all text-based communications transmitted through number-independent interpersonal communications services with a view of identifying new potential infringements did not respect the principle of necessity and proportionality. Even if the technology used was limited to the use of “relevant key indicators”, the deployment of such general and indiscriminate analysis would be excessive.[11] The EDPS therefore considered that the proposal should not be adopted, even in the form a temporary derogation, until the recommendations included in that Opinion were addressed.[12] | 6. EDPSは、暫定規則の有効期間延長案を形式的なものとは考えていない。EDPSはすでに2020年意見書で、電子通信サービスのプロバイダーが自主的に検知技術を適用するという事実だけで、欧州連合基本権憲章第7条および第8条の要件を満たす包括的な法的枠組みを確立するという共同立法府の責任を免除するものではないとした。EDPSはまた、新たな侵害の可能性を特定する目的で、番号非依存型対人通信サービスを通じて送信されるすべてのテキストベースの通信を一般的かつ無差別に自動分析することは、必要性と比例性の原則を尊重していないと指摘した。使用される技術が「関連する主要指標」の使用に限定されていたとしても、そのような一般的かつ無差別的な分析の展開は行き過ぎである[11]。 したがって、EDPSは、同意見に含まれる勧告に対処するまでは、一時的な適用除外という形であっても、同提案を採用すべきではないと考えた[12]。 |
7. These EDPS takes note that his concerns and recommendations have not been fully addressed by the co-legislators when adopting the Interim Regulation. In particular, the Interim Regulation does not contain safeguards against general and indiscriminate monitoring, and also the question of a valid legal basis under the GDPR remains unsolved. The EDPS underlines that these issues should be taken into account when considering the proposed extension. | 7. EDPSは、暫定規則の採択に際し、共同立法者が自らの懸念と勧告に十分に対処していないことに留意している。特に、暫定規則は一般的かつ無差別的な監視に対するセーフガードを含んでおらず、またGDPRにおける有効な法的根拠の問題も未解決のままである。EDPSは、提案されている延長を検討する際には、これらの問題を考慮すべきであると強調する。 |
8. In addition, the EDPS wishes to draw attention to important developments subsequent to the adoption of the Interim Regulation. For example, the impact assessment[13] accompanying the Proposal for a long-term Regulation[14], which provided industry information on current technical solutions, has shed additional light on the legal and technical issues that emerge in practice. On 23 October 2023, the EDPS organised a seminar dedicated to the ongoing legislative works on the Proposal for a long-term regulation, which yielded further insights on the unintended consequences of the deployment of CSAM detection technologies[15]. This Opinion also builds on this increased knowledge when assessing the Proposal. | 8. さらに、EDPSは、暫定規則の採択後の重要な進展にも注意を喚起したい。例えば、長期規則案[14]に付随する影響評価[13]は、現在の技術的解決策に関する業界情報を提供するものであったが、この影響評価によって、実務上顕在化する法的・技術的問題にさらなる光が当てられることになった。2023年10月23日、EDPSは、現在進行中の長期規制案に関する立法作業に特化したセミナーを開催し、CSAM検知技術の展開が意図しない結果をもたらすことに関するさらなる洞察を得た[15]。本意見書もまた、本提案を評価する際に、この増加した知見に基づくものである。 |
3. Legal basis and necessity and proportionality | 3. 法的根拠および必要性と比例性 |
9. In his 2020 Opinion, the EDPS recommended clarifying which legal basis of the GDPR would be applicable[16]. The Interim Regulation does not contain such clarification, resulting in different legal application practices among providers, according to the implementation report[17]. The EDPS reiterates his previous recommendation to clarify which legal basis of the GDPR would be applicable to the voluntary processing of content or traffic data for the purpose of detecting child sexual abuse online. | 9. EDPS は 2020 年意見書で、GDPR のどの法的根拠が適用されるかを明確にすることを推奨した[16]。実施報告書[17]によれば、暫定規則にはそのような明確化は含まれておらず、その結果、プロバイダー間で異なる法的適用慣行が行われている。EDPSは、オンライン上の児童性的虐待を検知する目的でコンテンツやトラフィックデータを自主的に処理する場合、GDPRのどの法的根拠が適用されるかを明確にするよう、前回の勧告を繰り返す。 |
10. The EDPS remains of the opinion that the general, indiscriminate and automated analysis of all text-based communications transmitted through number-independent interpersonal communications services with a view of identifying new potential infringements did not respect the principle of necessity and proportionality. Even if the technology used was limited to the use of “relevant key indicators”, the EDPS considers the deployment of such general and indiscriminate analysis excessive.[18] | 10. EDPSは、新たな侵害の可能性を特定する目的で、番号非依存型対人通信サービスを通じて送信されるすべてのテキストベースの通信を一般的、無差別的、かつ自動的に分析することは、必要性と比例性の原則を尊重するものではないとの見解を維持している。使用された技術が「関連する主要指標」の使用に限定されていたとしても、EDPSはそのような一般的かつ無差別的な分析の展開は行き過ぎであると考える[18]。 |
11. The EDPS notes that the Interim Regulation, while generally referring to strict necessity and proportionality[19], in reality does not provide for specific and effective safeguards against general and indiscriminate monitoring. | 11. EDPSは、暫定規則は一般的に厳格な必要性と比例性[19]に言及しているものの、実際には一般的かつ無差別的な監視に対する具体的かつ効果的なセーフガードを規定していないことに留意する。 |
12. In his 2020 Opinion, the EDPS considered that the Proposal should clarify whether the detection technologies would be applied to all communications exchanged by all users or to a subset of them. In the latter case, according to the Opinion, it would be necessary to clarify the criteria by which the technologies would be applied to a specific subset of communications[20]. | 12. 2020年意見書において、EDPSは、本提案が、全ユーザーが交換するすべての通信に適用されるのか、それとも一部の通信に適用されるのかを明確にすべきであると考えた。後者の場合、同意見によれば、当該技術を特定の通信のサブセットに適用する基準を明確にする必要がある[20]。 |
13. The EDPS notes that the Interim Regulation does not explicitly require providers to limit the deployment of detection technologies to a subset of communications, and also does not provide the criteria according to which the providers could do so voluntarily. | 13. EDPSは、暫定規則がプロバイダに対し、検知技術の導入を通信のサブセットに限定することを明確に要求しておらず、また、プロバイダが自主的にそうすることができる基準も示していないことに留意する。 |
14. The EDPS in his 2020 Opinion encouraged the co-legislature to spell out, in the text of the Proposal, which categories of data would amount to “relevant data” in relation to each of the processing purposes[21]. The EDPS notes that the Interim Regulation refers to “content data and related traffic data” in very general terms and does not specify which data categories may be processed for which purpose. | 14. EDPSは2020年意見書において、共同立法体に対し、各処理目的との関係で、どのカテゴリのデータが「関連するデータ」に相当するかを提案の文中に明記するよう促した[21]。EDPSは、暫定規則が「コンテンツ・データ及び関連するトラフィック・データ」について非常に一般的な用語で言及しており、どのデータ・カテゴリーがどの目的で処理されるかを明示していないことに留意する。 |
15. The EDPS had further expressed concerns that the reporting of individuals and blocking of the concerned user’s account might not be strictly necessary and proportionate in all instances, for example in the case of unsolicited receipt of CSAM.[22] He also expressed concern that the procedure within the provider was not addressed. These concerns remain equally valid with regard to the Interim Regulation. | 15. EDPSはさらに、例えばCSAMの未承諾受信の場合など、個人への報告や当該ユーザーのアカウントのブロッキングが、すべての場合において厳密に必要かつ適切であるとは限らないという懸念を表明していた[22]。また、プロバイダ内の手続きに対処していないことにも懸念を表明していた。これらの懸念は、暫定規則に関しても同様に有効である。 |
4. Transparency and data subject rights | 4. 透明性とデータ主体の権利 |
16. With regard to transparency and data subject rights, the EDPS had recommended the introduction of additional measures to ensure transparency and exercise of data subject rights, subject, where strictly necessary, to narrowly defined restrictions (e.g., where necessary to protect the confidentiality of an ongoing investigation).[23] The EDPS notes that the Interim Regulation provides for the information of all users in Article 3(1)(g)(v) and of those affected by removal, suspension or blocking in point (vi). | 16. 透明性とデータ主体の権利に関して、EDPSは、厳密に必要な場合には、狭義の制限(例えば、進行中の調査の秘密を保護するために必要な場合)を条件として、透明性とデータ主体の権利の行使を確保するための追加的な措置の導入を勧告していた[23]。EDPSは、暫定規則が第3条(1)(g)(v)で全ユーザーの情報を、(vi)で削除、停止、またはブロッキングの影響を受ける者の情報を規定していることに留意する。 |
17. The EDPS also urged the co-legislators to provide further clarity as to when the right to human review would become applicable and which entity would be in charge of carrying out this review[24]. Art. 3(1)(f) of the Interim Regulation does not provide such clarification, however, leading to seemingly different practices by providers[25]. The EDPS recalls that, depending on the circumstances under which human review is required, the use of detection technologies could result in automated decision making within the meaning of Article 22 GDPR.[26] | 17. EDPSはまた、共同立法者に対し、人的審査の権利がいつから適用されるのか、どの主体がこの審査の実施を担当するのかについて、さらに明確にするよう求めた[24]。しかしながら、暫定規則の第3条1項(f)はそのような明確化を規定していないため、プロバイダーによって一見異なる実務が行われているように思われる[25]。EDPSは、人間によるレビューが必要とされる状況によっては、検知技術の使用はGDPR第22条の意味における自動意思決定につながる可能性があることを想起している[26]。 |
5. Duration of the temporary derogation | 5. 一時的な適用除外の期間 |
18. With regard to duration, the EDPS had expressed the view that a five-year period as initially proposed was too long and did not seem proportional given the absence of (a) a prior demonstration of the proportionality of the envisaged measure and (b) the inclusion of sufficient safeguards within the text of the legislation. He recommended that the validity of any transitional measure should not exceed 2 years.[27] | 18. 期間に関して、EDPSは、(a)想定される措置の比例性が事前に証明されていないこと、(b)法律の条文に十分なセーフガードが含まれていないことを考慮すると、当初提案された5年間という期間は長すぎ、比例しているとは思えないとの見解を示した。同氏は、いかなる経過措置の有効期間も2年を超えてはならないと勧告した[27]。 |
19. In view of the shortcomings outlined above, the EDPS maintains this position. | 19. 上記の欠点を考慮し、EDPSはこの立場を維持する。 |
6. Further considerations | 6. さらなる検討事項 |
20. The EDPS recalls that level of intrusion resulting from the deployment of CSAM detection measures may vary depending on the technology used. In all three types of detectable material, known CSAM, new CSAM and grooming, the technologies currently available rely on the automated processing of content data of all affected users. The technologies used to analyse the content are often complex, typically involving the use of AI. As a result, the behaviour of this technology may not be fully comprehensible for the user of the service. Moreover, the technologies currently available, especially those for detecting new CSAM or grooming, are known to have relatively high error rates. Consequently, there is the risk of significant number of innocent people being reported to the law enforcement authorities (directly or through the National Center for Missing and Exploited Children), based on a detection of ‘potential’ CSAM or grooming[28]. | 20. EDPSは、CSAM検出手段の配備によって生じる侵入のレベルは、使用される技術によっ て異なる可能性があることを想起する。既知の CSAM、新しい CSAM、グルーミングという 3 種類の検出可能なものすべてにおいて、現在利用可能な技術は、影響を受けるすべてのユーザのコンテンツデータの自動処理に依存している。コンテンツを分析するために使用される技術は複雑であることが多く、一般的にAIの使用を伴う。その結果、この技術の動作は、サービスの利用者にとって完全に理解できるものではないかもしれない。さらに、現在利用可能な技術、特に新しいCSAMやグルーミングを検出する技術は、エラー率が比較的高いことが知られている。その結果、「潜在的な」CSAMまたはグルーミングの検出に基づいて、相当数の無実の人々が法執行当局に(直接またはNational Center for Missing and Exploited Childrenを通じて)報告される危険性がある[28]。 |
21. As the EDPB and the EDPS have already stated in their Joint Opinion on the long-term Proposal, performance indicators found in the literature, some of which are highlighted in the Impact Assessment Report that accompanied the long-term Proposal,[29] provide very little information on the conditions that were used for their computation and their adequacy with real life conditions, meaning that their real-world performance could be significantly lower than what is expected, leading to less accuracy and a higher percentage of ‘false positives’.[30] | 21. EDPBとEDPSが長期提案に関する共同意見[29]ですでに述べているように、文献に見られる性能指標は、長期提案に添付された影響評価報告書[29]で強調されているものもあるが、その計算に使用された条件や実際の生活条件との適合性に関する情報をほとんど提供していないため、実際の性能が期待されるものよりも著しく低くなる可能性があり、精度が低下し、「偽陽性」の割合が高くなることを意味する[30]。 |
22. The EDPS stresses that while it seems from the Commission Report on the implementation of the Interim Regulation that providers include the corrective element of human review in their calculation of reliability, it is necessary that the technology used in itself is sufficiently reliable. Human review, while protecting against adverse automated decision-making and indispensable, on its own already constitutes an interference. Therefore, it should not be invoked justify the use of detection technologies that are insufficiently reliable. | 22. EDPSは、暫定規則の実施に関する欧州委員会の報告書からは、プロバイダーが信頼性の計算に人的レビューという修正要素を含めているように見えるが、使用される技術自体が十分に信頼できるものであることが必要であると強調する。人間による審査は、不利な自動意思決定から保護するものであり、不可欠なものではあるが、それだけではすでに干渉を構成している。従って、信頼性が不十分な検知技術の使用を正当化するために、これを持ち出すべきではない。 |
23. As indicated in the Impact Assessment Report[31] and in the European Parliamentary Research Service’s study[32] the accuracy rate of technologies for detection of text-based grooming is much lower than the accuracy rate of technologies for the detection of known CSAM. The assumption that artificial intelligence systems are available and working for the detection of unknown CSAM and for the detection of solicitation of children,[33] and could be considered as state-of-the-art, is insufficiently supported by evidence. Even seemingly high levels of accuracy (for instance, the accuracy of certain grooming detection tools is 88%),[34] must be considered in light of the envisaged practical use of the detection tools and the severity of the risks that an incorrect assessment of a given material would entail for the relevant data subjects. Therefore, the EDPB and EDPS had considered in their Joint Opinion that, with such a high risk processing, 12% failure rate presents a high risk to data subjects who have been subject to false positives, even when there are safeguards in place to prevent false reports to law enforcement.[35] | 23. 影響評価報告書[31]や欧州議会調査局の調査[32]に示されているように、テキストベースのグルーミングを検知する技術の精度率は、既知のCSAMを検知する技術の精度率よりもはるかに低い。未知のCSAMの検知や児童への勧誘の検知[33]のために人工知能システムが利用可能であり、機能しており、最先端技術であると考えられるという仮定は、証拠による裏付けが不十分である。一見高精度に見えるレベル(例えば、ある種のグルーミング検知ツールの精度は88%である)[34]であっても、検知ツールの想定される実用的な使用方法と、ある資料の誤った評価が関連するデータ対象者にもたらすリスクの重大性に照らして検討されなければならない。したがって、EDPBとEDPSは共同意見において、このような高リスクの処理では、法執行機関への虚偽の報告を防止するための保護措置が講じられている場合であっても、12%の不合格率は、誤検出の対象となったデータ主体に対して高いリスクをもたらすと考えていた[35]。 |
24. Lastly, the EDPS would like to place particular emphasis on findings that were presented by experts at the EDPS seminar on CSAM, which highlight the general problem of automated detection: the technology cannot identify the context in which images are shared. Several participants of the EDPS seminar on the long-term CSAM Proposal warned that technologies to detect CSAM would flag consensually produced and shared imagery, as these technologies cannot properly consider the context in which the exchange takes place. As experts pointed out, platform moderators would not be able to filter (legal) consensual material because they too would not know the context of the exchange. As a result, there would be a risk for criminal prosecutions, but even if law enforcement authorities drop the charges, the investigation alone would be disturbing and constitute a violation of children’s rights.[36] | 24. 最後に、EDPSは、CSAMに関するEDPSセミナーで専門家が発表した知見に特に重点を置きた い。この知見は、自動検知の一般的な問題点を浮き彫りにしている。長期的なCSAM提案に関するEDPSセミナーの参加者の何人かは、CSAMを検知する技術は、交換が行われる文脈を適切に考慮することができないため、合意に基づいて制作・共有された画像にフラグを立てることになると警告した。専門家が指摘するように、プラットフォームのモデレーターもまた、交換の文脈を知らないため、(合法的な)合意のある素材をフィルタリングすることはできないだろう。その結果、刑事訴追のリスクが生じるが、法執行当局が告訴を取り下げたとしても、捜査だけでも不穏なものとなり、子どもの権利の侵害となる[36]。 |
25. In the same vein, a Member State’s Cybercrime Centre and Contact Point has underlined that there is a significant risk that innocent members of the public would be made subject to official investigations.[37] This is said to be particularly true with regard to the AI-based miscategorisation of cases where the visual material itself is detected accurately, but the situation under criminal law is misjudged.[38] To give an example, this includes cases where children below the age of criminal responsibility have posted material themselves, or communications between young people in consensual contexts.[39] | 25. 同じように、ある加盟国のサイバー犯罪センター及びコンタクト・ポイントは、無実の一般市民が公的な捜査の対象となる重大なリスクがあることを強調している[37]。これは、視覚的な素材自体は正確に検出されるが、刑法上の状況が誤って判断される場合のAIに基づく誤分類に関して特に当てはまると言われている[38]。一例を挙げると、刑事責任を負う年齢に満たない児童が自ら素材を投稿した場合や、同意的な文脈における青少年間のコミュニケーションがこれに含まれる[39]。 |
7. Conclusions | 7. 結論 |
26. In light of the above, the EDPS makes the following recommendations: | 26. 以上を踏まえ、EDPSは以下の提言を行う: |
(1) not to adopt the Proposal, until the necessary safeguards and all the outstanding missing elements, as identified in these specific recommendations, are introduced in the legal framework, notably | (1)これらの具体的な勧告で指摘されているように、必要な保護措置とすべての未解決の要素が法的枠組みに導入されるまで、本提案を採択しないこと。 |
o to clarify which legal basis of the GDPR would be applicable to the voluntary processing of content or traffic data for the purpose of detecting child sexual abuse online, | o オンライン上での児童の性的虐待を検知する目的で、コンテンツやトラフィックデータを自主的に処理する場合、GDPRのどの法的根拠が適用されるかを明確にすること、 |
o to provide for specific and effective safeguards against general and indiscriminate monitoring, | o 一般的かつ無差別的な監視に対する具体的かつ効果的なセーフガードを規定する、 |
o to specify which data categories may be processed for which purpose in Article 3(1)(h) of the Interim Regulation, and | o 暫定規則の第3条1項(h)において、どのデータカテゴリーをどの目的で処理するかを規定する。 |
o to provide further clarity as to when the right to human review would become applicable and which entity would be in charge of carrying out this review. | o 人によるレビューの権利がいつから適用されるのか、またこのレビューを実施するのはどの団体なのかをさらに明確にすること。 |
(2) to take fully into account the concerns and the additional risk stemming from measures to detect CSAM in interpersonal communications, identified during the discussions on the Proposal for a long-term CSAM Regulation. | (2) 長期的なCSAM規制の提案に関する議論の中で確認された、対人コミュニケーションにおけるCSAMを検出するための措置に起因する懸念と追加的なリスクを十分に考慮すること。 |
Brussels, 24 January 2024 | ブリュッセル、2024年1月24日 |
(e-signed) | (電子署名) |
Wojciech Rafał WIEWIÓROWSKI | Wojciech Rafał WIEWIÓROWSKI |
[1] COM(2023) 777 final. | [1] COM(2023) 777 final. |
[2] OJ L 295, 21.11.2018, p. 39. | [2] OJ L 295, 21.11.2018, p. 39. |
[3] COM(2023) 777 final. | [3] COM(2023) 777 final. |
[4] Regulation 2021/1232/EU of the European Parliament and of the Council of 14 July 2021 on a temporary derogation from certain provisions of Directive 2002/58/EC as regards the use of technologies by providers of number-independent interpersonal communications services for the processing of personal and other data for the purpose of combating online child sexual abuse, OJ L 274, 30.7.2021, p. 41. | [4] 2021年7月14日付欧州議会及び理事会規則2021/1232/EUは、オンライン児童性的虐待に対抗する目的で個人データ及びその他のデータを処理するための番号非依存型対人通信サービスのプロバイダーによる技術の使用に関する指令2002/58/ECの特定の規定からの一時的な適用除外について、OJ L 274, 30.7.2021, p. 41. |
[5] Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, COM/2022/209 final. | [5] 児童の性的虐待を防止し、撲滅するための規則を定めた欧州議会および理事会規則の提案, COM/2022/209 final. |
[6] COM(2023) 777 final, p. 1. | [6] COM(2023) 777 final, p. 1. |
[7] EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, issued on 10 November 2020. | [7] EDPS意見書07/2020(オンライン児童性的虐待撲滅のための指令2002/58/ECからの一時的な適用除外の提案)、2020年11月10日発行。 |
[8] EDPB-EDPS Joint Opinion 4/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, issued on 28 July 2022. | [EDPB-EDPS Joint Opinion 4/2022は、児童の性的虐待を防止し、撲滅するための規則を定めた欧州議会および理事会規則の提案に関するもので、2022年7月28日に発表された。 |
[9] See e.g. the Joint Handbook of the EP, the Council and the Commission for the presentation and drafting of acts subject to the ordinary legislative procedure, March 2022 edition, page 37. | [9] 通常立法手続きの対象となる法律の提示と起草に関する欧州議会、理事会、欧州委員会の共同ハンドブック(2022年3月版、37ページ)などを参照のこと。 |
[10] COM(2023) 777 final, p. 1. | [10] COM(2023) 777 final, p. 1. |
[11] EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, para. 26. | [11] オンラインにおける児童の性的虐待と闘うための指令2002/58/ECからの一時的な適用除外の提案に関するEDPS意見書07/2020、パラ26。 |
[12] Ibid, para. 51. | [12] 同上、para. 51. |
[13] Commission staff working document, Impact Assessment Report Accompanying the document Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, SWD(2022) 209 final. | [13] 欧州委員会のスタッフ作業文書、「児童の性的虐待を防止し、撲滅するための規則を定めた欧州議会および理事会規則の提案」に付随する影響評価報告書、SWD(2022) 209 final。 |
[14] Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, COM/2022/209 final. | [14] 児童の性的虐待を防止し、撲滅するための規則を定めた欧州議会および理事会規則の提案、COM/2022/209 final. |
[15] The event agenda, briefing note, video recording and summary report can be accessed here: [web] | [15] イベントのアジェンダ、ブリーフィング・ノート、ビデオ録画、サマリー・レポートは、[web] |
[16] EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, para. 18. | [16] オンラインにおける児童の性的虐待と闘うための指令2002/58/ECからの一時的な適用除外の提案に関するEDPS意見書07/2020、para. 18. |
[17] Report from the Commission to the European Parliament and the Council on the implementation of Regulation (EU) 2021/1232 of the European Parliament and of the Council of 14 July 2021 on a temporary derogation from certain provisions of Directive 2002/58/EC as regards the use of technologies by providers of number-independent interpersonal communications services for the processing of personal and other data for the purpose of combating online child sexual abuse, COM/2023/797 final, p. 6. 18 | [17] オンライン上での児童の性的虐待に対抗する目的で、番号非依存型対人通信サービスのプロバイダーが個人情報およびその他のデータを処理するための技術の使用に関する指令2002/58/ECの特定の規定からの一時的な適用除外に関する2021年7月14日の欧州議会および理事会の規則(EU)2021/1232の実施に関する欧州委員会から欧州議会および理事会への報告書、COM/2023/797 final、p.6. 18. |
[18] See in the same vein also the EDPB-EDPS Joint Opinion 4/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, para. 70. | [18] 同様の意見として、児童の性的虐待を防止し撲滅するための規則を定めた欧州議会および理事会規則案に関するEDPB-EDPS共同意見4/2022、para. 70. |
[19] See Article 3(1) of the Interim Regulation. | [19] 暫定規則第3条1項参照。 |
[20] EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, para. 30 | [20] オンラインにおける児童の性的虐待と闘うための指令2002/58/ECからの一時的な適用除外の提案に関するEDPS意見書07/2020、para. 30 |
[21] EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, para. 33. | [オンライン児童性的虐待撲滅のための指令 2002/58/EC からの一時的適用除外の提案に関する EDPS 意見書 07/2020, para. 33. |
[22] Ibid, para. 34. | [22] 同上、para. 34. |
[23] Ibid, para. 39. | [23] 同上、パラ。39. |
[24] Ibid, para. 27. | [24] 同書、パラ27。 |
[25] COM/2023/797 final, p. 12. | [25] COM/2023/797 final, p. 12. |
[26] See also EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, para. 27. | [26] オンラインにおける児童の性的虐待と闘うための指令2002/58/ECからの一時的な適用除外の提案に関するEDPS意見書07/2020、パラ27も参照のこと。 |
[27] EDPS Opinion 07/2020 on the Proposal for temporary derogations from Directive 2002/58/EC for the purpose of combatting child sexual abuse online, para. 50. | [オンライン児童性的虐待撲滅のための指令 2002/58/EC からの一時的適用除外の提案に関する EDPS 意見書 07/2020, para. 50. |
[28] EDPB-EDPS Joint Opinion 4/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, para 52. | [28] EDPB-EDPS Joint Opinion 4/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, para. |
[29] SWD(2022) 209 final. | [29] SWD(2022) 209 final. |
[30] EDPB-EDPS Joint Opinion 4/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, para. 63. | [30] EDPB-EDPS Joint Opinion 4/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, para. 63. |
[31] SWD(2022) 209 final, Annex 8, p. 281-283. | [31] SWD(2022) 209 final, Annex 8, p. 281-283. |
[32] European Parliamentary Research Service, Complementary impact assessment of April 2023, p. 15-18. | [32] European Parliamentary Research Service, Complementary impact assessment of April 2023, p. 15-18. |
[33] See Impact Assessment Report, SWD(2022) 209 final, pp. 281-282. | [33] 影響評価報告書、SWD(2022) 209 final、281-282頁参照。 |
[34] Ibid, p. 283. | [34] 同上、283頁。 |
[35] EDPB-EDPS Joint Opinion 04/2022 of 28 July 2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, downloadable at: [pdf] , paragraph 86. | 35] EDPB-EDPS Joint Opinion 04/2022 on the Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse, downloadable at: [pdf] , paragraph 86. [ |
[36] EDPS, Summary Report on the EDPS Seminar on the CSAM proposal: “The Point of No Return?”, p. 4, downloadable at [web] . In the same vein, see also Statement by the Child Protection Association (Der Kinderschutzbund Bundesverband e.V.) on the Public Hearing of the Digital Affairs Committee on "Chat Control" on Wednesday, March 1, 2023, p. 2: ‘We also fear that when scanning is carried out without any reason, children and young people will be criminalized much more frequently - a trend that is already visible in German crime statistics. This is due to the fact that children and young people themselves often send images that can be classified as pornographic, making them liable to prosecution’. | [36] EDPS, Summary Report on the EDPS Seminar on the CSAM proposal: 「The Point of No Return?", p. 4, downloadable at [web]. 同じ意味で、2023年3月1日(水)のデジタル問題委員会の「チャット・コントロール」に関する公聴会における児童保護協会(Der Kinderschutzbund Bundesverband e.V.)の声明(p.2)も参照されたい。これは、子どもや若者自身がしばしばポルノに分類される画像を送信し、訴追の対象となるためである」。 |
[37] The Cologne Prosecutor-General’s Office, The Cybercrime Centre and Contact Point of North Rhine-Westphalia – ZAC NRW, Statement for the public hearing held by the German Bundestag’s Committee on Digital Affairs on the subject of “chat control” on 1 March 2023, p. 9. | [37] ケルン検事総長室、ノルトライン=ヴェストファーレン州サイバー犯罪センターおよびコンタクトポイント(ZAC NRW)、2023年3月1日にドイツ連邦議会のデジタル問題委員会が「チャット規制」をテーマに開催した公聴会のための声明、p.9。 |
[38] Ibid. | [38] 同上。 |
[39] Ibid. | [39] 同上。 |
通信の秘密とフィルタリングについては、「インターネット上の海賊版対策に関する検討会議」での議論で熱く検討した歴史も忘れずに...
資料としては、
知的財産戦略本部検証・評価・企画委員会 コンテンツ分野会合(第3回)の森先生の資料がわかりやすいかもです...
・2018.02.16 資料3:[PDF] 森弁護士 説明資料
« 米国 NIST SP 800-66 Rev. 2 医療保険の相互運用性と説明責任に関する法律(HIPAA)セキュリティ規則の実施: サイバーセキュリティリソースガイドを公表 (2024.02.14) | Main | 米国 英国 LockBitのネットワークに侵入し破壊 »
Comments