欧州データ保護委員会 (EDPB) 意見募集「法執行分野における顔認識技術の使用に関するガイドライン」
こんにちは、丸山満彦です。
EDPBが「法執行分野における顔認識技術の使用に関するガイドライン」の案を公表し、意見募集をしていますね。。。
すごく便利なツールというのは、悪用されるとすごく影響が大きいということですので、
その利用について、良いこと悪いことは明確にしておくことが良いでしょうね。。。
● European Data Protection Board: EDPB
プレス
EDPB adopts Guidelines on calculation of fines & Guidelines on the use of facial recognition technology in the area of law enforcement | EDPB、罰金計算に関するガイドラインと法執行分野における顔認識技術の使用に関するガイドラインを採択 |
..... | ..... |
The EDPB also adopted Guidelines on the use of facial recognition technology in the area of law enforcement. The guidelines provide guidance to EU and national law makers, as well as to law enforcement authorities, on implementing and using facial recognition technology systems. | EDPBはまた、法執行の分野における顔認識技術の利用に関するガイドラインを採択しました。同ガイドラインは、EUおよび各国の法律制定者や法執行機関に対し、顔認識技術システムの導入と使用に関するガイダンスを提供します。 |
EDPB Chair Andrea Jelinek said: “While modern technologies offer benefits to law enforcement, such as the swift identification of suspects of serious crimes, they have to satisfy the requirements of necessity and proportionality. Facial recognition technology is intrinsically linked to processing personal data, including biometric data, and poses serious risks to individual rights and freedoms.” | EDPB議長のAndrea Jelinekは次のように述べています。「最新の技術は、重大犯罪の容疑者を迅速に特定できるなど、法執行機関に利益をもたらす一方で、必要性と比例性の要件を満たさなければなりません。顔認識技術は、生体情報を含む個人情報の処理と本質的に結びついており、個人の権利と自由に対して深刻なリスクをもたらすものです。」 |
The EDPB stresses that facial recognition tools should only be used in strict compliance with the Law Enforcement Directive (LED). Moreover, such tools should only be used if necessary and proportionate, as laid down in the Charter of Fundamental Rights. | 顔認識ツールは法執行指令(LED)を厳密に遵守してのみ使用されるべきであると、EDPBは強調しています。さらに、このようなツールは、基本的権利憲章に規定されているように、必要かつ適切な場合にのみ使用されるべきであると述べています。 |
In the guidelines, the EDPB repeats its call for a ban on the use of facial recognition technology in certain cases, as it had requested in the EDPB-EDPS joint opinion on the proposal for an Artificial Intelligence Act. More specifically, the EDPB considers there should be a ban on: | このガイドラインにおいて、EDPBは、人工知能 (AI) 法に関するEDPB-EDPS共同意見で要求したように、特定のケースにおける顔認識技術の使用禁止を繰り返し要求しています。具体的には、以下を禁止する必要があると考えています。 |
・remote biometric identification of individuals in publicly accessible spaces; | ・公共の場で個人の遠隔生体認証を行うこと。 |
・facial recognition systems categorising individuals based on their biometrics into clusters according to ethnicity, gender, as well as political or sexual orientation or other grounds for discrimination; | ・顔認識システムが、民族、性別、政治的・性的指向、その他の差別的理由に基づき、個人を分類すること。 |
・facial recognition or similar technologies to infer emotions of a natural person; | ・自然人の感情を推論するための顔認識または類似の技術。 |
・processing of personal data in a law enforcement context that would rely on a database populated by collection of personal data on a mass-scale and in an indiscriminate way, e.g. by "scraping" photographs and facial pictures accessible online. | ・法執行の文脈における個人データの処理で、大規模かつ無差別な個人データの収集(例:オンラインでアクセス可能な写真や顔写真の「スクレイピング」)によって構築されたデータベースに依存するような場合。 |
The guidelines will be subject to public consultation for a period of 6 weeks. | 本ガイドラインは、6週間のパブリックコンサルテーションの対象となります。 |
目次
Executive summary | エグゼクティブサマリー |
1 Introduction | 1 はじめに |
2 Technology | 2 技術 |
2.1 One biometric technology, two distinct functions | 2.1 1つの生体認証技術、2つの異なる機能 |
2.2 A wide variety of purposes and applications | 2.2 多彩な目的とアプリケーション |
2.3 Reliability, accuracy and risks for data subjects | 2.3 信頼性、正確性、データ対象者のリスク |
3 Applicable legal framework | 3 適用される法的枠組み |
3.1 General legal framework – The EU Charter of Fundamental Rights (hereinafter “the Charter”) and the European Convention on Human Rights (ECHR) | 3.1 一般的な法的枠組み - EU基本権憲章(以下、「憲章」)および欧州人権条約(ECHR)。 |
3.1.1 Applicability of the Charter | 3.1.1 憲章の適用性 |
3.1.2 Interference with the rights laid down in the Charter | 3.1.2 憲章に規定された権利の侵害 |
3.1.3 Justification for the interference | 3.1.3 妨害の正当性 |
3.2 Specific legal framework – the Law Enforcement Directive | 3.2 具体的な法的枠組み - 法執行指令 |
3.2.1 Processing of special categories of data for law enforcement purposes | 3.2.1 法執行を目的とした特殊なデータの処理 |
3.2.2 Automated individual decision-making, including profiling | 3.2.2 プロファイリングを含む、自動化された個人の意思決定 |
3.2.3 Categories of the data subjects | 3.2.3 データ対象者のカテゴリー |
3.2.4 Rights of the data subject | 3.2.4 データ対象者の権利 |
3.2.5 Other legal requirements and safeguards | 3.2.5 その他の法的要件および保護措置 |
4 CONCLUSION | 4 結論 |
5 Annexes | 5 附属書 |
Annex I - Template for description of scenarios | 附属書 I - シナリオの記述のためのテンプレート |
Annex II- Practical guidance for managing FRT projects in LEAs | 附属書Ⅱ- LEAにおけるFRTプロジェクト管理のための実践的ガイダンス |
Annex III - Practical examples | 附属書III - 実践的な例 |
エグゼクティブサマリー...
EXECUTIVE SUMMARY | 要旨 |
More and more law enforcement authorities (LEAs) apply or intend to apply facial recognition technology (FRT). It may be used to authenticate or to identify a person and can be applied on videos (e.g. CCTV) or photographs. It may be used for various purposes, including to search for persons in police watch lists or to monitor a person’s movements in the public space. | 顔認識技術(FRT)を適用する、あるいは適用しようとする法執行機関(LEA)がますます増えています。顔認識技術は、人物の認証や識別に使用され、ビデオ(例:CCTV)や写真に適用することができます。顔認識技術は、警察の監視リストにある人物の捜索や、公共の場での人物の動きの監視など、様々な目的で使用される可能性があります。 |
FRT is built on the processing of biometric data, therefore, it encompasses the processing of special categories of personal data. Often, FRT uses components of artificial intelligence (AI) or machine learning (ML). While this enables large scale data processing, it also induces the risk of discrimination and false results. FRT may be used in controlled 1:1 situations, but also on huge crowds and important transport hubs. | 顔認識技術 は、バイオメトリクス・データの処理に基づいて構築されているため、特別なカテゴリの個人情報を処理することを含んでいます。多くの場合、顔認識技術は人工知能(AI)または機械学習(ML)のコンポーネントを使用しています。これは、大規模なデータ処理を可能にする一方で、差別や誤った結果を招く危険性があります。顔認識技術は、1対1の管理された状況で使用されるだけでなく、大規模な群衆や重要な交通の要所でも使用されることがあります。 |
FRT is a sensitive tool for LEAs. LEAs are executive authorities and have sovereign powers. FRT is prone to interfere with fundamental rights – also beyond the right to protection of personal data – and is able to affect our social and democratic political stability. | 顔認識技術は法執行機関にとって繊細なツールです。法執行機関は行政当局であり、主権的な権限を持っています。顔認識技術は基本的権利に干渉しやすく、個人データ保護の権利以外でも、社会的、民主的な政治の安定に影響を与える可能性があります。 |
For personal data protection in the law enforcement context, the requirements of the LED have to be met. A certain framework regarding the use of FRT is provided for in the LED, in particular Article 3(13) LED (term “biometric data”), Article 4 (principles relating to processing of personal data), Article 8 (lawfulness of processing), Article 10 (processing of special categories of personal data) and Article 11 LED (automated individual decision-making). | 法執行における個人情報保護のためには、法執行指令の要件を満たさなければなりません。顔認識技術の使用に関する一定の枠組みが法執行指令、特に法執行指令第3条第13項(「バイオメトリック・データ」という用語)、第4条(個人データの処理に関する原則)、第8条(処理の合法性)、第10条(特別カテゴリーの個人データの処理)、第11条(自動的な個人の意思決定)で規定されています。 |
Several other fundamental rights may be affected by the application of FRT, as well. Hence, the EU Charter of Fundamental Rights (“the Charter”) is essential for the interpretation of the LED, in particular the right to protection of personal data of Article 8 of the Charter, but also the right to privacy laid down by Article 7 of the Charter. | 他のいくつかの基本的な権利も、顔認識技術の適用によって影響を受ける可能性があります。したがって、EU基本権憲章(以下、「憲章」)は、法執行指令の解釈、特に憲章第8条の個人情報保護の権利、さらに憲章第7条のプライバシーの権利に不可欠です。 |
Legislative measures that serve as a legal basis for the processing of personal data directly interfere with the rights guaranteed by Articles 7 and 8 of the Charter. The processing of biometric data under all circumstances constitutes a serious interference in itself. This does not depend on the outcome, e.g. a positive matching. Any limitation to the exercise of fundamental rights and freedoms must be provided for by law and respect the essence of those rights and freedoms. | 個人データの処理の法的根拠となる立法措置は、憲章の第7条と第8条が保証する権利を直接的に妨害するものです。あらゆる状況下でのバイオメトリクス・データの処理は、それ自体重大な干渉を構成する。これは、例えば、照合が肯定的であったというような結果には依存しません。基本的な権利と自由の行使に対するいかなる制限も、法律によって規定され、それらの権利と自由の本質を尊重するものでなければなりません。 |
The legal basis must be sufficiently clear in its terms to give citizens an adequate indication of conditions and circumstances in which authorities are empowered to resort to any measures of collection of data and secret surveillance. A mere transposition into domestic law of the general clause in Article 10 LED would lack precision and foreseeability. | 法的根拠は、当局がデータ収集や秘密監視のあらゆる手段に訴える権限を与えられている条件や状況を市民に適切に示すために、その条件が十分に明確でなければなりません。第10条LEDの一般条項の単なる国内法への置き換えは、正確さと予見可能性を欠くことになります。 |
Before the national legislator creates a new legal basis for any form of processing of biometric data using facial recognition, the competent data protection supervisory authority should be consulted. | 国内法制者が顔認識を使った生体データのあらゆる形態の処理について新しい法的根拠を設ける前に、管轄のデータ保護監督当局に相談すべきです。 |
Legislative measures have to be appropriate for attaining the legitimate objectives pursued by the legislation at issue. An objective of general interest – however fundamental it may be – does not, in itself, justify a limitation to a fundamental right. Legislative measures should differentiate and target those persons covered by it in the light of the objective, e.g. fighting specific serious crime. If the measure covers all persons in a general manner without such differentiation, limitation or exception, it intensifies the interference. It also intensifies the interference if the data processing covers a significant part of the population. | 立法措置は、問題となる法律が追求する正当な目的を達成するために適切でなければなりません。一般的な利益という目的は、それがどんなに基本的なものであっても、それ自体で基本的な権利の制限を正当化することはできない。立法措置は、例えば、特定の重大犯罪との戦いといった目的に照らして、その対象となる者を区別し、対象とすべきです。もしそのような差別化、制限、例外なしに一般的な方法ですべての人を対象とするのであれば、それは干渉を強めることになります。また、データ処理が人口のかなりの部分を対象としている場合にも、干渉が強まります。 |
The data has to be processed in a way that ensures the applicability and effectiveness of the EU data protection rules and principles. Based on each situation, the assessment of necessity and proportionality has to also identify and consider all possible implications for other fundamental rights. If the data is systematically processed without the knowledge of the data subjects, it is likely to generate a general conception of constant surveillance. This may lead to chilling effects in regard of some or all of the fundamental rights concerned such as human dignity under Article 1 of the Charter, freedom of thought, conscience and religion under Article 10 of the Charter, freedom of expression under Article 11 of the Charter as well as freedom of assembly and association under Article 12 of the Charter. | データは、EUデータ保護規則および原則の適用性と有効性を保証する方法で処理されなければなりません。それぞれの状況に基づいて、必要性と比例性を評価し、他の基本的権利に及ぼす可能性のあるすべての影響を特定し、考慮しなければなりません。データ対象者が知らないうちにデータが体系的に処理されている場合、常に監視されているという一般的な観念が生じる可能性があります。このような事態が発生した場合、憲章の第1条に基づく人間の尊厳、第10条に基づく思想、良心および宗教の自由、第11条に基づく表現の自由、第12条に基づく集会および結社の自由などの基本権の一部または全部が阻害される可能性があります。 |
Processing of special categories of data, such as biometric data can only be regarded as "strictly necessary" (Art. 10 LED) if the interference to the protection of personal data and its restrictions is limited to what is absolutely necessary, i.e. indispensable, and excluding any processing of a general or systematic nature. | バイオメトリックデータなどの特別なカテゴリのデータの処理は、個人データの保護とその制限に対する干渉が、絶対に必要なもの、すなわち不可欠なものに限られ、一般的または体系的な性質の処理を除く場合にのみ「厳密に必要」(法執行指令第10条)と見なすことができます。 |
The fact that a photograph has been manifestly made public (Art. 10 LED) by the data subject does not entail that the related biometric data, which can be retrieved from the photograph by specific technical means, is considered as having been manifestly made public. Default settings of a service, e.g. making templates publicly available, or absence of choice, e.g. templates are made public without the user to be able to change this setting, should not in any way be construed as data manifestly made public. | データ対象者が写真を公表した場合(法執行指令第10条)、その写真から特定の技術的手段により取得できる生体情報は、公表されたとはみなされません。サービスのデフォルト設定(例:テンプレートを一般に公開する)、または選択肢の欠如(例:ユーザーがこの設定を変更することができないままテンプレートが公開される)は、いかなる意味においても、データが明白に公開されたと解釈されるべきではないでしょう。 |
Article 11 LED establishes a framework for automated individual decision-making. The use of FRT entails the use of special categories of data and may lead to profiling, depending on the way and purpose FRT is applied for. In any case, in accordance with Union law and Article 11(3) LED, profiling that results in discrimination against natural persons on the basis of special categories of personal data shall be prohibited. | LED第11条は、自動化された個人の意思決定のための枠組みを確立しています。顔認識技術の使用は、特別な種類のデータの使用を伴い、顔認識技術が適用される方法と目的によっては、プロファイリングにつながる可能性があります。いかなる場合においても、EU法および法執行指令第11条3項に従い、特殊な個人情報に基づく自然人に対する差別をもたらすプロファイリングは禁止されています。 |
Article 6 LED regards the necessity to distinguish between different categories of data subjects. With regard to data subjects for whom there is no evidence capable of suggesting that their conduct might have a link, even an indirect or remote one, with the legitimate aim according to the LED, there is most likely no justification of an interference. | 法執行指令第6条は、データ対象者の異なるカテゴリーを区別する必要性について述べています。データ対象者の行為が法執行指令に基づく正当な目的に間接的または遠隔的にでも関連する可能性を示唆する証拠がない場合、干渉を正当化することはできない可能性が高くなります。 |
The data minimisation principle (Article 4(1)(e) LED) also requires that any video material not relevant to the purpose of the processing should always be removed or anonymised (e.g. by blurring with no retroactive ability to recover the data) before deployment. | データ最小化の原則(法執行指令第4条第1項(e))により、処理の目的に関連しないビデオ素材は、配備前に必ず削除するか、匿名化(例えば、データを復元する遡及能力のないぼかし処理)することが要求されます。 |
The controller must carefully consider how to (or if it can) meet the requirements for data subject’s rights before any FRT processing is launched since FRT often involves processing of special categories of personal data without any apparent interaction with the data subject. | 顔認識技術 はしばしばデータ対象者との明白な相互作用なしに特殊な個人データの処理を伴うため、管理者は 顔認識技術 処理を開始する前にデータ対象者の権利に関する要件を満たす方法(または満たすことができるか)を慎重に検討しなければなりません。 |
The effective exercise of data subject’s rights is dependent on the controller fulfilling its information obligations (Article 13 LED). When assessing whether a “specific case” according to Article 13(2) LED exists, several factors need to be taken into consideration, including if personal data is collected without the knowledge of the data subject as this would be the only way to enable data subjects to effectively exercise their rights. Should decision-making be done solely based on FRT, then the data subjects need to be informed about the features of the automated decision making. | データ主体の権利の効果的な行使は、管理者がその情報提供義務を果たすかどうかにかかっています(法執行指令第13条)。法執行指令第13条2項に従った「特定のケース」が存在するかどうかを評価する際には、データ対象者がその権利を効果的に行使できる唯一の方法であるとして、データ対象者が知らないうちに個人データが収集されている場合を含め、いくつかの要因を考慮する必要があります。意思決定が 顔認識技術 にのみ基づいて行われる場合、データ対象者は自動化された意思決定の特徴について知らされる必要があります。 |
As regards access requests, when biometric data is stored and connected to an identity also by alphanumerical data, in line with the principle of data minimization, this should allow for the competent authority to give confirmation to an access request based on a search by those alpha-numerical data and without launching any further processing of biometric data of others (i.e. by searching with FRT in a database). | アクセス要求に関して、バイオメトリクス・データが英数字データによっても保存され、 ID に接続されている場合、データ最小化の原則に従って、管轄機関は、それらの英数字データによる 検索に基づいてアクセス要求に確認を与えることができ、他の人のバイオメトリクス・データの 追加処理を開始しない(つまり、データベース内の 顔認識技術 による検索)ようにしなければなりません。 |
The risks for the data subjects are particularly serious if inaccurate data is stored in a police database and/or shared with other entities. The controller must correct stored data and FRT systems accordingly, see recital 47 LED. | 不正確なデータが警察のデータベースに保存され、および/または他の組織と共有される場合、データ対象者のリスクは特に深刻です。管理者は、それに応じて保存されたデータと 顔認識技術システムを修正しなければなりません(説明 47 法執行指令を参照)。 |
The right to restriction becomes especially important when it comes to facial recognition technology (based on algorithm(s) and thereby never showing a definitive result) in situations where large quantities of data are gathered and the accuracy and quality of the identification may vary. | 顔認識技術(アルゴリズムに基づくため、決定的な結果を示すことはない)に関しては、大量のデータが収集され、識別の正確さと質が異なる可能性がある状況で、制限する権利が特に重要になります。 |
A data protection impact assessment (DPIA) before the use of FRT is a mandatory requirement, cf. Article 27 LED. The EDPB recommends making public the results of such assessments, or at least the main findings and conclusions of the DPIA, as a trust and transparency enhancing measure. | 顔認識技術の使用前のデータ保護影響評価(DPIA)は、法執行指令第27条を参照し、必須要件です。EDPB は、信頼性と透明性を高める方策として、そのような評価の結果、あるいは少なく とも データ保護影響評価の主な所見と結論を公表することを推奨しています。 |
Most cases of deployment and use of FRT contain intrinsic high risk to the rights and freedoms of data subjects. Therefore, the authority deploying the FRT should consult the competent supervisory authority prior to the deployment of the system. | 顔認識技術 の導入と使用のほとんどのケースは、データ主体の権利と自由に対する本質的な高リ スクを含んでいます。したがって、顔認識技術 を配備する当局は、システムの配備に先立って管轄の監督当局に相談する必要がある。 |
Given the unique nature of biometric data, the authority, implementing and/or using FRT should pay special attention to the security of processing, in line with Article 29 LED. In particular, the law enforcement authority should ensure the system complies with the relevant standards and implement biometric template protection measures. Data protection principles and safeguards must be embedded in the technology before the start of the processing of personal data. Therefore, even when a LEA intends to apply and use FRT from external providers, it has to ensure, e.g. through the procurement procedure, that only FRT built upon the principles of data protection by design and by default are deployed. | バイオメトリック・データのユニークな性質を考えると、顔認識技術 を導入・使用する当局は、法執行指令第29 条 に沿って処理のセキュリティに特別な注意を払うべきです。特に、法執行機関は、システムが関連基準に準拠していることを確認し、バイオメトリクスのテンプレート保護対策を実施しなければなりません。データ保護の原則と保護措置は、個人データの処理を開始する前に技術に組み込まれなければなりません。したがって、法執行機関が外部のプロバイダーからの顔認識技術を適用し使用することを意図している場合でも、例えば調達手続きを通じて、設計およびデフォルトによるデータ保護の原則に基づいた顔認識技術 のみが配備されていることを確認しなければなりません。 |
Logging (cf. Article 25 LED) is an important safeguard for verification of the lawfulness of the processing, both internally (i.e. self-monitoring by the concerned controller/processor) and by external supervisory authorities. In the context of facial recognition systems, logging is recommended also for changes of the reference database and for identification or verification attempts including user, outcome and confidence score. | ログ記録(法執行指令第25条参照)は、内部(関係する管理者/処理者による自己監視)および外部の監督当局による処理の合法性の検証のための重要な保護手段です。顔認識システムにおいては、参照データベースの変更、ユーザー、結果、信頼性スコアを含む識別または検証の試行についてもログを取ることが推奨されます。 |
The EDPB recalls its and the EDPS’ joint call for a ban of certain kinds of processing in relation to (1) remote biometric identification of individuals in publicly accessible spaces, (2) AI-supported facial recognition systems categorising individuals based on their biometrics into clusters according to ethnicity, gender, as well as political or sexual orientation or other grounds for discrimination (3) use of facial recognition or similar technologies, to infer emotions of a natural person and (4) processing of personal data in a law enforcement context that would rely on a database populated by collection of personal data on a mass-scale and in an indiscriminate way, e.g. by "scraping" photographs and facial pictures accessible online. | EDPBは、EDPSと共同で、以下のような処理を禁止するように求めている。(1) 公共の場で個人の遠隔生体認証を行うこと、(2) AIによる顔認証システムで、生体情報に基づき個人を民族、性別、政治的・性的指向、または個人を分類することに関する特定の種類の処理をすること、(3) 自然人の感情を推測するための顔認識または類似の技術を使用すること、 (4) 法執行の文脈における個人データの処理で、大量かつ無差別な方法での個人データを収集すること(例えばオンラインでアクセス可能な写真や顔写真を「スクレイピング」することによって構築されたデータベースに依存するような処理) |
These guidelines address law makers at EU and national level, as well as LEAs and their officers at implementing and using FRT-systems. Individuals are addressed as far as they are interested generally or as data subjects, in particular as regards data subjects’ rights. | このガイドラインは、EU 及び国家レベルの法律制定者、顔認識技術 システムを導入し使用する法執行機関及びその担当者を対象としています。個人については、一般的に関心がある限り、またはデータ対象者として、特にデータ対象者の権利に関して言及されています。 |
The guidelines intend to inform about certain properties of FRT and the applicable legal framework in the context of law enforcement (in particular the LED). | 本ガイドラインは、顔認識技術の特定の特性および法執行(特に 法執行指令)の文脈で適用される法的枠組みについて通知することを意図しています。 |
・ In addition, they provide a tool to support a first classification of the sensitivity of a given use case (Annex I). | ・ さらに、与えられたユースケースの機密性の最初の分類を支援するツールも提供します(附属書 I)。 |
・ They also contain practical guidance for LEAs that wish to procure and run a FRT-system (Annex II). | ・ また、顔認識技術システムの調達と運用を希望する法執行機関のための実用的なガイダンスも含んでいます(附属書 II)。 |
・ The guidelines also depict several typical use cases and list numerous considerations relevant, especially with regard to the necessity and proportionality test (Annex III). | ・ また、ガイドラインはいくつかの典型的なユースケースを描き、特に必要性と比例性のテストに関する多くの検討事項を列挙しています(附属書 III)。 |
● まるちゃんの情報セキュリティ気まぐれ日記
日本での検討
・2022.04.17 個人情報保護委員会 第3回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.03.16 個人情報保護委員会 第2回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.02.01 個人情報保護委員会 第1回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2021.12.25 個人情報保護委員会 犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会の設置
AI規制法案
・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出
・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
英情報コミッショナー意見書「公共の場所でのライブ顔認証技術の使用」
・2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念
欧州評議会 顔認証に関するガイドライン (Guidelines on Facial Recognition)
・2021.01.30 欧州評議会 108号条約委員会が「顔認識に関するガイドライン」を採択しましたね。。。
Faicial Recognition
・2022.05.15 カナダ プライバシーコミッショナー室 プライバシーに関する戦略的優先事項とそこから生まれたテーマと見解
・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)
・2022.01.21 ENISA デジタル・アイデンティティ攻撃に注意:あなたの顔が偽装される可能性があります
・2021.12.25 個人情報保護委員会 犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会の設置
・2021.10.17 インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査」 at 2021.10.05
・2021.09.29 世界経済フォーラム (WEF) 技術の責任ある利用:IBMをケースにした研究
・2021.09.27 欧州委員会 職場での電子モニタリングと監視 (Electronic Monitoring and Surveillance in the Workplace)
・2021.09.10 EU議会 提言 バイオメトリクス認識と行動検知
・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」
・2021.08.27 米国 GAO 顔認識技術:連邦政府機関による現在および計画中の使用方法
・2021.08.20 英国 意見募集 監視カメラ実施規範改訂案 by 監視カメラコミッショナー at 2021.08.13
・2021.08.11 EU議会 STUDY バイオメトリクス認識と行動検知
・2021.08.10 EU議会 STUDY ヨーロッパの政策におけるディープフェイクへの取り組み at 2021.07.30
・2021.08.08 EU議会 BRIEFING スマートシティとアーバンモビリティにおける人工知能 at 2021.07.23
・2021.08.07 総務省 AIネットワーク社会推進会議 「報告書2021」の公表
・2021.08.07 Atlantic Council AIとデータ倫理におけるコミットメントからコンテンツへの移行:正義と説明可能性
・2021.08.04 中国 通信院 信頼できる人工知能についての白書 at 2021.07.09
・2021.08.03 中国 最高人民法院 「民事案件における顔識別技術の使用に関する司法解釈」
・2021.07.15 米国GAO 顔認識技術について連邦法執行機関はプライバシーやその他のリスクをより適切に評価する必要がある at 2021.06.03
・2021.07.12 ニューヨーク市 生体情報プライバシー条例が2021.07.09から施行されましたね。。。
・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス
・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス
・2021.06.23 欧州 EDPBとEDPS 公共の場における人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう要請
・2021.06.22 欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表
・2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念
・2021.06.17 米国上院・下院 顔認識ツールを含む生体情報監視を政府が使用することを禁止する「顔認識および生体認識技術モラトリアム法案」
・2021.06.17 英国政府:データ倫理とイノベーションセンター プライバシーに関するユーザの積極的選択中間報告(スマートフォン)
・2021.06.08 U.S. の公益団体であるEPICが顔認識技術および遠隔生体認識技術の使用禁止を世界的に呼びかけていますね。。。
・2021.05.12 カナダのプライバシーコミッショナーが顔認識技術について議会で見解を述べたようですね。。。
・2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています
・2021.05.03 中国 意見募集 顔認識に続けて、歩行認識、音声認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
・2021.04.22 ドイツ連邦情報セキュリティ局 (BSI) が安全なAI導入のための対策をまとめていますね。。。
・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
・2021.03.14 CNIL 乗客のマスク着用率を測定するためのインテリジェントビデオの使用に関する法令についての意見を公表
・2021.02.05 カナダのプライバシーコミッショナーが顔認識ソフトウェアを提供するClearview AIについての声明を出していますね。。。
・2021.01.30 欧州評議会 108号条約委員会が「顔認証に関するガイドライン」を採択しましたね。。。
・2021.01.12 欧州委員会 市民イニシアティブとして「生体認証による大量監視慣行の禁止」を登録
・2021.01.04 ニューヨーク州 知事が学校での顔認識技術の使用を一時停止し、研究を指示する法律に署名 at 2020.12.22
・2020.11.04 カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)
・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。
・2020.06.14 IBM, Amazon, Microsoftは顔認証システムを米国の警察には販売しない
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
・2020.03.26 JVNVU#99619336 勾配降下法を使用する機械学習モデルに、誤った識別をさせるような入力を作成することが可能な問題
・2020.03.04 FIRST EVER DECISION OF A FRENCH COURT APPLYING GDPR TO FACIAL RECOGNITION
・2020.02.17 遠くからでもわかる顔認識システム!
ぐっと遡って、2000年代
・2009.11.07 世界プライバシー宣言(Global Privacy Standards for a Global World)
・2005.08.11 外務省 IC旅券調査研究報告書
・2005.02.04 監視社会と信頼関係
« 欧州データ保護委員会 (EDPB) 意見募集「課徴金計算に関するガイドライン」 | Main | CISA, FBI, NSA, ACSC, CCCS, NZ NCSC, NCSC-UK 初期アクセスを可能にする脆弱性 »
Comments