インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議 顔認証のユースケースを責任を持って制限するためのポリシーフレームワーク:法執行機関の捜査(2022年改訂版)
こんにちは、丸山満彦です。
インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が、顔認識技術を利用した捜査について、政策立案者、法執行機関に向けた実用的なガイダンスを作ろうという感じですかね。。。昨年に引き続いてです。。。
原則...
1 Respect for human and fundamental rights | 1 人権及び基本的人権の尊重 |
2 Necessary and proportional use | 2 必要かつ比例的な使用 |
3 Human oversight and accountability | 3 人間の監視と説明責任 |
4 Optimization of system performance | 4 システム性能の最適化 |
5 Mitigation of error and bias | 5 エラーとバイアスの軽減 |
6 Legitimacy of probe images and reference databases | 6 プローブ画像および参照データベースの正当性 |
7 Integrity of images and metadata | 7 画像およびメタデータの完全性 |
8 Skilled human interface and decision-making | 8 熟練したヒューマンインターフェースと意思決定 |
9 Transparency | 9 透明性 |
● World Economic Forum - Whitepaper
A Policy Framework for Responsible Limits on Facial Recognition Use Case: Law Enforcement Investigations (Revised 2022) | 顔認証のユースケースを責任を持って制限するためのポリシーフレームワーク:法執行機関の捜査(2022年改訂版) |
The World Economic Forum’s governance framework for the responsible use of facial recognition in law enforcement investigations addresses the need for a set of concrete guidelines to ensure the trustworthy and safe use of this technology. Following the release of the first draft in October 2021, six law enforcement agencies undertook an exercise to pilot the policy framework in order to review and validate its utility and completeness. | 世界経済フォーラムの「法執行における顔認識の責任ある使用のためのガバナンスフレームワーク」は、この技術の信頼できる安全な使用を保証するための一連の具体的なガイドラインの必要性に対処している。2021年10月に最初のドラフトが発表された後、6つの法執行機関が、その実用性と完全性を検討し検証するために、政策フレームワークを試験的に導入する演習を実施した。 |
Drawing from the feedback and learnings of the pilots, the World Economic Forum has published a revised version of the policy framework that is actionable, relevant and useable in an operational law enforcement context. It includes a set of principles that defines in practical terms what constitutes the responsible use of facial recognition in law enforcement investigations and a self-assessment questionnaire used to support law enforcement agencies in effectively implementing these proposed principles. | パイロット版のフィードバックと学習から、世界経済フォーラムは、実用的で関連性が高く、法執行の運用状況において使用可能な政策フレームワークの改訂版を発表した。このフレームワークには、法執行機関の捜査における顔認識の責任ある利用を構成するものを実践的に定義する一連の原則と、法執行機関がこれらの原則案を効果的に実施するのを支援するために用いられる自己評価アンケートが含まれている。 |
目次...
Foreword | 序文 |
Introduction | はじめに |
Methodology | 方法論 |
1 Law enforcement investigations: use cases and definitions | 1 法執行機関の調査:ユースケースと定義 |
2 Principles | 2 原則 |
3 Self-assessment questionnaire | 3 自己評価アンケート |
Conclusion | まとめ |
Glossary | 用語解説 |
Contributors | 協力者 |
Endnotes | 巻末資料 |
はじめに...
Introduction | はじめに |
Over the past decade, progress in artificial intelligence (AI) and sensors has fuelled the development of facial recognition technology (FRT) – software capable of matching a human face from a digital image or a video frame against a database of facial images. This has led to its rapid adoption in various industries, including law enforcement, transportation, healthcare and banking. | 過去10年間、人工知能(AI)とセンサーの進歩により、顔認識技術(FRT)、つまりデジタル画像やビデオフレームから人間の顔を顔画像のデータベースと照合できるソフトウェアの開発が促進された。このため、法執行機関、交通機関、ヘルスケア、銀行など、さまざまな産業で急速に採用が進んでいる。 |
The development of FRT presents considerable opportunities for socially beneficial uses. For instance, it can find application in face-unlock mechanisms in mobile devices, in granting access to concerts and sporting events, and in attendance-tracking for employees and students. But it also creates unique challenges. To fully grasp these challenges and the trade-offs they may entail and to build appropriate governance processes, it is necessary to approach FRT deployment by examining specific applications. Indeed, passing through an airport border control with face identification, using face-based advertising in retail or employing facial recognition solutions for law enforcement investigations involves very different benefits and risks. | 顔認識技術の開発は、社会的に有益な利用機会を提供するものである。例えば、携帯端末のロック解除、コンサートやスポーツイベントの入場許可、社員や学生の出席管理などに応用できる。しかし、その一方で、ユニークな課題もある。これらの課題やトレードオフを十分に把握し、適切なガバナンスプロセスを構築するためには、具体的なアプリケーションを検討しながら顔認識技術の展開に取り組む必要があります。実際、空港の国境警備を顔認証で通過すること、小売業で顔ベースの広告を使うこと、法執行機関の捜査に顔認証ソリューションを採用することは、全く異なる利益とリスクを伴いる。 |
To ensure the trustworthy and safe deployment of this technology across domains, the World Economic Forum has spearheaded a global and multistakeholder policy initiative to design robust governance frameworks. The Forum launched the first workstream in April 2019, focusing on flow management applications1 – replacing tickets with facial recognition to access physical premises or public transport, such as train platforms or airports. This workstream was concluded in December 2020 with the release of a tested assessment questionnaire by Tokyo-Narita Airport, an audit framework and a certification scheme co-designed with AFNOR Certification (Association Française de Normalisation).2 In November 2020, the second workstream was launched, focused on the law enforcement context – supporting the identification of a person by comparing a probe image to one or multiple reference databases to advance a police investigation. While law enforcement has been using biometric data, such as fingerprints or DNA, to conduct investigations, FRT is a new opportunity and challenge for law enforcement. | 世界経済フォーラムは、この技術の信頼性と安全性を確保するために、グローバルかつマルチステークホルダーによる政策イニシアチブを主導し、強固なガバナンスの枠組みを設計している。フォーラムは2019年4月に最初のワークストリームを立ち上げ、フロー管理アプリケーション1、すなわち鉄道プラットフォームや空港などの物理的な敷地や公共交通機関にアクセスするためにチケットを顔認証に置き換えることに焦点を当てた。このワークストリームは、2020年12月に東京成田空港によるテスト済みの評価アンケート、監査フレームワーク、AFNOR認証(Association Française de Normalisation)と共同設計した認証スキームを発表して終了しました2。2020年11月には、警察による捜査を進めるためにプローブ画像を一つまたは複数の参照データベースと比較して個人の識別をサポートする、法執行機関のコンテキストに焦点を当てた第2のワークストリームが開始された。法執行機関は、これまで指紋やDNAなどのバイオメトリクスデータを利用して捜査を行ってきましたが、顔認識技術は法執行機関にとって新たな機会であると同時に課題でもあります。 |
In terms of challenges, use by law enforcement raises multiple public concerns, primarily because of the potentially devastating effects of system errors or misuses in this domain. A study conducted in 2019 by the National Institute of Standards and Technology (NIST) showed that, although some facial recognition algorithms had “undetectable” differences in terms of accuracy across racial groups, others exhibit performance deficiencies based on demographic characteristics such as gender and race.3 Law enforcement agencies should be aware of these potential performance deficiencies and implement appropriate governance processes to mitigate them. In doing so, they would limit the risk of false positives or false negatives and possible wrongful arrests of individuals based on outputs from an FRT system. Failure to build in such processes could have dramatic consequences. For example, in 2018 in the United States, an innocent African American man was arrested and held in custody as a result of being falsely identified as a suspect in a theft investigation in which FRT was used.4 In addition to hampering rights such as the presumption of innocence, and the right to a fair trial and due process, the use of FRT by law enforcement agencies can also undermine freedom of expression, freedom of assembly and association, and the right to privacy.5 | 課題という点では、法執行機関による利用は、主にこの領域でのシステムエラーや誤用がもたらす壊滅的な影響の可能性から、複数の公共の懸念を引き起こします。米国国立標準技術研究所(NIST)が2019年に実施した研究によると、顔認識アルゴリズムの中には、人種間の精度に「検出できない」差があるものもあるが、性別や人種などの人口統計学的特徴に基づいて性能欠陥を示すものもある3。 法執行機関は、こうした潜在的性能欠陥を認識して、それを軽減するための適切なガバナンスプロセスを導入すべきである。そうすることで、顔認識技術 システムからの出力に基づく個人の偽陽性または偽陰性および可能な限りの誤った逮捕のリスクを制限することができる。このようなプロセスを組み込むことに失敗すると、劇的な結果を招く可能性がある。例えば、2018年に米国で、無実のアフリカ系アメリカ人男性が、顔認識技術が使用された窃盗捜査の容疑者として誤認された結果、逮捕・拘束された4。推定無罪、公正な裁判と適正手続を受ける権利などの権利を阻害することに加え、法執行機関による顔認識技術の使用は、表現の自由、集会と結社の自由、プライバシー権を損なう可能性もある5。 |
These concerns have led to intensified policy activity globally. In the US alone, some local and state governments have banned the use of FRT by public agencies, including law enforcement. Major cities such as San Francisco,6 Oakland7 and Boston8 have adopted such measures. At the state level, Alabama,9 Colorado,10 Maine,11 Massachusetts,12 Virginia13 and Washington14 have all introduced legislation to regulate its use. Finally, at the federal level, various bills15 – including most recently the Facial Recognition Act of 2022, introduced in September 202216 – have been proposed to regulate FRT but none of them has been adopted to this date. | このような懸念から、世界的に政策活動が活発化している。米国だけでも、いくつかの自治体や州政府は、法執行機関を含む公的機関による顔認識技術の利用を禁止している。サンフランシスコ6、オークランド7、ボストン8などの主要都市では、このような措置がとられている。州レベルでは、アラバマ州9、コロラド州10、メイン州11、マサチューセッツ州12、バージニア州13、ワシントン州14が、その使用を規制する法律を制定している。最後に、連邦レベルでは、様々な法案15-直近では2022年9月に提出された「2022年顔認識法」16-が顔認識技術規制のために提案されているが、現在までに採択されたものはない。 |
Furthermore, large US technology companies have also formulated positions on this topic. In the wake of a series of events in 2020 that increased distrust toward police agencies in the US and worldwide, including the Clearview AI controversy,17 IBM announced that it will no longer offer, develop or research FRT, while Microsoft pledged to stop selling FRT to law enforcement agencies in the US until federal regulation was introduced.18 In 2022, Microsoft went further, putting new limits and safeguards on all uses of FRT as part of a broader set of AI principles.19 In 2021, Amazon Web Services (AWS) also extended its moratorium on police use of its platform Rekognition, which it originally imposed in 2020.20 | さらに、米国の大手テクノロジー企業もこのテーマに関するポジションを策定している。2020年にクリアビューAI論争17など、米国や世界で警察機関への不信感が高まる出来事が相次いだことを受け、IBMは今後顔認識技術の提供、開発、研究を行わないことを発表し、マイクロソフトは連邦規制が導入されるまで米国内の法執行機関への顔認識技術販売を停止すると公約している18。2022年、マイクロソフトはさらに踏み込んで、より広範なAI原則の一環として、FRTのすべての用途に新たな制限と保護措置を導入した19。2021年には、アマゾンウェブサービス(AWS)も、2020年に課したプラットフォームRekognitionの警察利用に対するモラトリアムを延長している20。 |
In other jurisdictions, policy-makers are attempting to limit police use of FRT to very specific use cases associated with robust accountability mechanisms to prevent potential errors that may lead to wrongful arrests. That is the direction proposed by the European Commission, which in 2021 released its draft of an Artificial Intelligence Act21 – a comprehensive regulatory proposal that classifies AI applications under four distinct categories of risk subject to specific requirements.22 This proposal includes provisions on remote biometric systems, which include FRT. It states that AI systems intended to be used for the “real-time” and “post” remote biometric identification of natural persons represent high-risk applications and would require an ex ante conformity assessment of tech providers before getting access to the European Union market and an ex post conformity assessment while their systems are in operation. Moreover, “real-time” remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement are prohibited unless they serve very limited exceptions related to public safety (e.g. the prevention of imminent terrorist threats or a targeted search for missing persons). In order to enter into force, however, the European Commission’s proposal will first need to be adopted by the European Union parliament and the Council of the European Union. | 他の法域では、政策立案者は、警察のFRTの利用を、誤認逮捕につながる可能性のある誤りを防ぐための強固な説明責任の仕組みに関連した非常に特定のユースケースに限定しようとしている。これは、欧州委員会が2021年に発表した人工知能法21の草案で、AIアプリケーションを特定の要件の対象となる4つの異なるリスク・カテゴリーに分類する包括的な規制案である22。この提案には、FRTを含む遠隔生体認証システムに関する条項が含まれている。この提案は、自然人の「リアルタイム」および「ポスト」遠隔生体認証に使用することを意図したAIシステムは高リスクのアプリケーションであり、EU市場へのアクセスを得る前に技術提供者の事前適合性評価を、システムが運用されている間は事後適合性評価を必要とするとしている。さらに、公共の安全に関する非常に限定的な例外(差し迫ったテロの脅威の防止や行方不明者の捜索など)を除いて、法執行を目的とした公共のアクセス空間での「リアルタイム」遠隔生体認証システムは禁止されている。ただし、発効するためには、まず欧州委員会の提案が欧州連合議会および欧州連合理事会で採択される必要がある。 |
At the United Nations, a similar approach is emerging, with the Office of the High Commissioner for Human Rights (OHCHR) presenting a report23 in 2021 to the Human Rights Council on the right to privacy in the digital age, in which it recommends banning AI applications that cannot be used in compliance with international human rights law. With specific respect to the use of FRT by law enforcement, national security, criminal justice and border management, the report stated that remote biometric recognition dramatically increases the ability of State authorities to systematically identify and track individuals in public spaces, undermining the ability of people to go about their lives unobserved and resulting in a direct negative effect on the exercise of the rights to freedom of expression, of peaceful assembly and of association, as well as freedom of movement. The report also reiterates calls for a moratorium on the use of remote biometric recognition in public spaces, at least until authorities can demonstrate that there are no significant issues with accuracy or discriminatory impacts, and that these AI systems comply with robust privacy and data protection standards. | 国連でも、同様のアプローチが生まれつつあり、人権高等弁務官事務所(OHCHR)は、2021年に人権理事会でデジタル時代のプライバシー権に関する報告書23を提出し、国際人権法を遵守して使用できないAIアプリケーションを禁止するよう勧告している。法執行、国家安全保障、刑事司法、国境管理による顔認識技術の利用に関して、報告書は、遠隔生体認証は、国家当局が公共空間で個人を体系的に特定し追跡する能力を劇的に高め、人々が人知れず生活する能力を損ない、結果として表現の自由、平和集会および結社の権利、ならびに移動の自由の行使に直接悪影響を及ぼすとしている。また、この報告書は少なくとも当局が、精度や差別的影響に大きな問題がなく、これらのAIシステムが強固なプライバシーおよびデータ保護基準に準拠していることを証明できるまでは、公共の場での遠隔生体認証の使用を一時停止するよう再度要求している。 |
Courts have also started to play an important role in shaping the policy agenda on FRT. In 2021, the São Paulo Court of Justice in Brazil blocked24 the deployment of FRT in the public transport system. This was perceived as a major victory by civil rights organizations that oppose the increasing use of FRT by public agencies. In a similar case in the UK, while the Court of Appeal found that the deployment of automated FRT by the police did have a legal basis for use in common law, its use by the South Wales Police at certain events and public locations was unlawful because it did not sufficiently define who could be on a watch list and where it could be used.25 | 裁判所も、顔認識技術に関する政策課題の形成に重要な役割を果たし始めている。2021年、ブラジルのサンパウロ裁判所は、公共交通システムへの顔認識技術の配備を阻止24しました。これは、公共機関による顔認識技術の利用拡大に反対する市民権団体による大きな勝利と受け止められた。また、英国では、警察による自動運転顔認識技術の配備はコモンロー上の法的根拠があるとする一方、サウスウェールズ警察による特定のイベントや公共の場での使用は、誰が監視リストに載り、どこで使用できるかが十分に定義されていないため違法であるとした25。 |
In some countries, governments have adopted a cautious approach. That has been the case in the Netherlands. In 2019, the Minister of Justice and Security addressed a letter to members of parliament informing them about the existing uses of FRT by law enforcement agencies and reaffirming his support for robust governance processes in relation to this sensitive technology.26 Further, he argued that the existing legal framework and safeguards, both technical and organizational, are sufficiently robust to ensure the responsible use of FRT by law enforcement agencies. Nevertheless, he requested additional privacy, ethical and human rights impact assessments before authorizing any further uses or pilots of FRT. | 国によっては、政府が慎重なアプローチをとっているところもある。オランダがそうであった。2019年、司法・安全保障大臣は国会議員宛の書簡で、法執行機関による顔認識技術の既存の利用について知らせ、この敏感な技術に関連する強固なガバナンスプロセスへの支持を再確認した26。さらに、既存の法的枠組みおよび技術・組織の両方のセーフガードは、法執行機関による顔認識技術の責任ある利用を保証するには十分強固であると論じた。しかし、顔認識技術 のさらなる利用や試験運用を許可する前に、プライバシー、倫理、人権に関する影響評価を追加するよう要請している。 |
Despite these developments, most governments around the world continue to grapple with the challenges presented by FRT. The ambition of this work is thus to strengthen their efforts to overcome them, and support law- and policymakers across the globe in designing an actionable governance framework that addresses the key policy considerations raised, such as the necessity of a specific purpose, the performance assessment of authorized solutions, the procurement processes for law enforcement agencies, the training of professionals and the maintenance of the chain of command for emergency situations. | このような進展にもかかわらず、世界中のほとんどの政府は、顔認識技術が提示する課題に取り組み続けている。したがって、この作業の目的は、それらを克服するための努力を強化し、特定の目的の必要性、認可されたソリューションの性能評価、法執行機関の調達プロセス、専門家の訓練、緊急事態の指揮系統の維持など、提起された重要な政策的考察に対処する実行可能なガバナンスの枠組みを設計する上で、世界中の法律家や政策立案者を支援することである。 |
To achieve this, the World Economic Forum, the International Criminal Police Organization (INTERPOL), the United Nations Interregional Crime and Justice Research Institute (UNICRI) and the Netherlands Police convened a multistakeholder community centred on co-designing a set of principles that outline what constitutes the responsible use of FRT for law enforcement investigations. These principles are accompanied by a self-assessment questionnaire to support law enforcement agencies to design policies surrounding the use of FRT and to review existing policies in line with the proposed principles. | このため、世界経済フォーラム、国際刑事警察機構(INTERPOL)、国連地域間犯罪司法研究所(UNICRI)、オランダ警察は、法執行捜査のための責任ある顔認識技術の使用を構成するものを概説する一連の原則を共同設計することを中心としたマルチステークホルダーコミュニティを開催しました。これらの原則は、法執行機関が顔認識技術の使用を取り巻く政策を設計し、提案された原則に沿って既存の政策を見直すことを支援するための自己評価アンケートが添付されている。 |
In addition to providing practical guidance and support to law enforcement and policy-makers, this governance framework seeks to inform public debate on the use of FRT at the national, regional and international levels and provide an actionable framework to maximize the benefits of FRT while mitigating its risks. | このガバナンスの枠組みは、法執行機関や政策立案者に実用的な指針や支援を提供することに加え、国、地域、国際レベルでの 顔認識技術 の使用に関する公開討論に情報を提供し、顔認識技術 のリスクを軽減しながらその利益を最大化するための実行可能な枠組み を提供することを目的としている。 |
While the policy framework proposed in this paper is not the only such policy guidance in this domain, it seeks to present a unique proposal built with an international perspective, incorporating a multistakeholder approach, including law enforcement, industry and civil society, in its development. | 本論文で提案する政策フレームワークは、この領域における唯一の政策ガイダンスではないが、その開発に法執行機関、産業界、市民社会を含むマルチステークホルダーアプローチを取り入れ、国際的視野で構築した独自の提案を示そうとするものである。 |
While law enforcement has been using biometric data, such as fingerprints or DNA, to conduct investigations, FRT is a new opportunity and challenge for law enforcement. | 法執行機関は、これまで指紋や DNA などのバイオメトリクスデータを捜査に利用してきたが、 顔認識技術 は法執行機関にとって新たな機会であり課題でもある。 |
In addition to providing practical guidance and support to law enforcement and policy-makers, this governance framework seeks to inform public debate on the use of FRT. | このガバナンスの枠組みは、法執行機関と政策立案者に実用的なガイダンスと支援を提供することに加え、顔認識技術 の使用に関する公的な議論に情報を提供することを目指すものである。 |
- World Economic Forum, A Framework for Responsible Limits on Facial Recognition: Use Case: Flow Management, 2020: https://www.weforum.org/whitepapers/a-framework-for-responsible-limits-on-facial-recognition-use-case-flowmanagement (link as of 16/8/21).
- World Economic Forum, Responsible Limits on Facial Recognition: Use Case: Flow Management – Part II, 2020: https://www.weforum.org/whitepapers/responsible-limits-on-facial-recognition-use-case-flow-management (link as of 16/8/21).
- NISTIR 8280, Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects, 2019: https://www.nist.gov/publications/ face-recognition-vendor-test-part-3-demographic-effects (link as of 16/8/21).
- Bobby Allyn, “‘The Computer Got It Wrong’: How Facial Recognition Led to False Arrest of Black Man”, npr, 24 June 2020: https://www.npr.org/2020/06/24/882683463/the-computer-got-it-wrong-how-facial-recognition-led-to-a-false-arrest-in-michig (link as of 18/8/21).
- ACLU, The Dawn of Robot Surveillance: AI, Video Analytics and Privacy, 2019: https://www.aclu.org/report/dawn-robot-surveillance (link as of 16/8/21).
- Kate Conger, Richard Fausset and Serge F. Kovaleski, “San Francisco Bans Facial Recognition Technology”, New York Times, 14 May 2019: https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html (link as of 5/10/22).
- Sarah Ravani, “Oakland Bans Use of Facial Recognition Technology, Citing Bias Concerns”, San Francisco Chronicle, 16 July 2019: https://www.sfchronicle.com/bayarea/article/Oakland-bans-use-of-facial-recognition-14101253.php (link as of 5/10/22).
- Ally Jarmanning, “Boston Lawmakers Vote to Ban Use of Facial Recognition Technology by the City”, npr, 24 June 2020: https://www.npr.org/sections/live-updates-protests-for-racial-justice/2020/06/24/883107627/boston-lawmakers-vote-toban-use-of-facial-recognition-technology-by-the-city (link as of 5/10/22).
- Madison Booth, “Senate Passes Bill Limiting Use of AI by Law Enforcement”, Alabama Daily News, 2 February 2022: https://www.aldailynews.com/senate-passes-bill-limiting-use-of-ai-by-law-enforcement/ (link as of 5/10/22).
- Hannah Metzger, “Task Force to Assess Use of Facial Recognition by Colorado Law Enforcement, Government”, Colorado Politics, 9 June 2022: https://www.coloradopolitics.com/legislature/task-force-to-assess-use-of-facial-recognitionby-colorado-law-enforcement-government/article_52846144-e83e-11ec-b930-7fe52b4e1214.html (link as of 5/10/22).
- ACLU, “Maine Enacts Strongest Statewide Facial Recognition Regulations in the Country”, press release, 30 June 2021: https://www.aclu.org/press-releases/maine-enacts-strongest-statewide-facial-recognition-regulations-country (link as of 5/10/22).
- Emma Peaslee, “Massachusetts Pioneers Rules for Police Use of Facial Recognition Tech”, npr, 7 May 2021: https://www.npr.org/2021/05/07/982709480/massachusetts-pioneers-rules-for-police-use-of-facial-recognitiontech?t=1623343113224 (link as of 16/8/21).
- Bill Atkinson, “Virginia to Enact Statewide Ban on Facial Recognition Use”, Government Technology, 9 April 2021: https://www.govtech.com/public-safety/virginia-to-enact-statewide-ban-on-facial-recognition-use.html (link as of 16/8/21).
- Monica Nickelsburg, “Washington State Passes Landmark Facial Recognition Bill, Reining in Government Use of AI”, GeekWire, 13 March 2020: https://www.geekwire.com/2020/washington-state-passes-landmark-facial-recognition-billreining-government-use-ai/ (link as of 16/8/21).
- iapp, “Will There Be Federal Facial Recognition Regulation in the US?”, 11 February 2021: https://iapp.org/news/a/u-sfacial-recognition-roundup/ (link as of 16/8/21).
- United States Congressman Ted W. Lieu (D-Los Angeles County), “Reps Ted Lieu, Sheila Jackson Lee, Yvette Clarke, and Jimmy Gomez Introduce Bill to Regulate Law Enforcement Use of Facial Recognition Technology”, Press Release, 29 September 2022 : https://lieu.house.gov/media-center/press-releases/reps-ted-lieu-sheila-jackson-lee-yvette-clarkeand-jimmy-gomez-introduce (link as of 5/10/22).
- Kashmir Hill, “The Secretive Company That Might End Privacy as We Know It”, The New York Times, 18 January 2020: https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html (link as of 30/9/2022).
- Rebecca Heilweil, “Big Tech Companies Back Away from Selling Facial Recognition to Police. That’s Progress”, Vox, 11 June 2020: https://www.vox.com/recode/2020/6/10/21287194/amazon-microsoft-ibm-facial-recognition-moratoriumpolice (link as of 16/8/21).
- Sarah Bird, “Responsible AI Investments and Safeguards for Facial Recognition”, Microsoft, 21 June 2022: https://azure.microsoft.com/en-us/blog/responsible-ai-investments-and-safeguards-for-facial-recognition/ (link as of 23/08/2022).
- Amazon, “We Are Implementing a One-Year Moratorium on Police Use of Rekognition”, 10 June 2020: https://www.aboutamazon.com/news/policy-news-views/we-are-implementing-a-one-year-moratorium-on-police-use-ofrekognition (link as of 16/8/21).
- EUR-Lex, Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence, 21 April 2021: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence (link as of 16/8/21).
- Jorge Liboreiro, “‘The Higher the Risk, the Stricter the Rule’: Brussels’ New Draft Rules on Artificial Intelligence”, Euronews, 21 April, 2021: https://www.euronews.com/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-newdraft-rules-on-artificial-intellige (link as of 16/8/21).
- United Nations, “Artificial Intelligence Risks to Privacy Demand Urgent Action – Bachelet”, 15 September 2021: https://www.ohchr.org/en/2021/09/artificial-intelligence-risks-privacy-demand-urgent-actionbachelet?LangID=E&NewsID=27469 (link as of 12/8/2022).
- accessnow, “Privacy Win for 350,000 People in São Paulo: Court Blocks Facial Recognition Cameras in Metro”, 12 May 2021: https://www.accessnow.org/sao-paulo-court-bans-facial-recognition-cameras-in-metro/ (link as of 16/8/21).
- Royal Court of Justice, “In the Court of Appeal (Civil Division) on Appeal from the High Court of Justice of Queen’s Bench Division (Administrative Court)”, Case No. C1/2019/2670: https://www.judiciary.uk/wp-content/uploads/2020/08/RBridges-v-CC-South-Wales-ors-Judgment.pdf (link as of 12/8/2022).
- Rijksoverheid, “Letter of the Minister of Justice and Security of the Netherlands to MPs to Inform Them About the Use of Facial Recognition Technology by Law Enforcement Agencies” (in Dutch), 20 November 2019: https://www.rijksoverheid. nl/documenten/kamerstukken/2019/11/20/tk-waarborgen-en-kaders-bij-gebruik-gezichtsherkenningstechnologie (link as of 16/8/21).
1 Respect for human and fundamental rights | 1 人権及び基本的人権の尊重 |
1.1 FRT should be used only as part of a lawful investigation, and always only as an investigative lead, to support the identification of criminals/fugitives, missing persons, persons of interest and victims. | 1.1 顔認識技術 は、犯罪者・逃亡者、行方不明者、参考人、被害者の特定を支援するため、合法的な捜査の一部と してのみ、また常に捜査上の手掛かりとしてのみ使用されるべきである。 |
1.2 The rights provided for within the International Bill of Human Rights and other relevant human rights treaties and laws should always be respected, particularly the right to human dignity, the right to equality and non-discrimination, the right to privacy, the right to freedom of expression, association and peaceful assembly, the rights of the child and older persons, the rights of persons with disabilities, the rights of migrants, the rights of Indigenous people and minorities, and the rights of persons subjected to detention or imprisonment. The use of FRT by law enforcement for investigations should respect these rights and be necessary and proportionate to achieve legitimate policing aims. | 1.2 国際人権規約及びその他の関連する人権条約・法律に規定されている権利は、常に尊重されるべきであり、特に、人間の尊厳に対する権利、平等及び非差別に対する権利、プライバシーに対する権利、表現、結社及び平和的集会の自由に対する権利、児童及び高齢者の権利、障害者の権利、移民の権利、先住民及び少数者の権利並びに拘禁又は投獄を受けた者の権利が尊重されなければならない。捜査のための法執行機関による 顔認識技術 の使用は、これらの権利を尊重し、正当な取り締まりの目的を達 成するために必要かつ適切なものでなければならない。 |
1.3 Any restrictions or limitations to human rights are permissible under international human rights law only if they are necessary and proportionate to achieving a legitimate policing aim and are not applied in an arbitrary manner. These restrictions must be established in law and should correspond to the least intrusive means of pursuing such an aim. | 1.3 人権に対するいかなる制限も、国際人権法の下では、正当な取り締まりの目的を達成するために必要かつ適切であり、恣意的に適用されない場合にのみ許される。これらの制限は法律で確立されなければならず、そのような目的を追求するための最も侵襲性の低い手段に対応するものでなければならない。 |
1.4 Law enforcement agencies should be subject to effective oversight by bodies with enforcement powers in accordance with national laws or policies. Among other things, these or other bodies should have the specific task of hearing and following complaints from citizens and assessing the compliance of law enforcement activities with human and fundamental rights. | 1.4 法執行機関は、国内法または政策に従って、執行権限を有する機関による効果的な監視に服するべきである。特に、これらの機関または他の機関は、市民からの苦情を聞き、それに従い、法執行活動が人権および基本的権利を遵守しているかどうかを評価するという具体的な任務を有するべきである。 |
1.5 Law enforcement agencies should consider setting up an independent ethical oversight committee or assigning the responsibility to periodically review law enforcement officers’ use of FRT to a preexisting body, supporting them in achieving respect for human and fundamental rights. | 1.5 法執行機関は、独立した倫理監視委員会の設置や、法執行者による顔認識技術の使用を定期的に審査する責任を既存の機関に委ね、人権および基本的権利の尊重を実現するための支援を行うことを検討する必要がある。 |
1.6 Individuals should have the right to an effective remedy before an independent and impartial tribunal set up by law against actions concerning the use of FRT. | 1.6 個人は、顔認識技術の使用に関する行為について、法律により設置された独立かつ公平な法廷において、効果的な救済を受ける権利を有するべきである。 |
2 Necessary and proportional use | 2 必要かつ比例的な使用 |
2.1 The decision to use FRT should always be guided by the objective of striking a fair balance between allowing law enforcement agencies to deploy the latest technologies, which are demonstrated to be accurate and safe, to safeguard individuals and society against security threats, and the necessity to protect the human rights of individuals. | 2.1 顔認識技術 の使用は、法執行機関が、安全保障上の脅威から個人と社会を守るために、正確性 と安全性が実証された最新の技術を導入することと、個人の人権を守る必要性との間の公正 なバランスをとるという目的から、常に導かれるべきものである。 |
2.2 Law enforcement agencies considering the use of FRT should always provide a documented and justified argument as to why FRT is the chosen option and why alternative options were not chosen. | 2.2 顔認識技術 の使用を検討している法執行機関は、なぜ 顔認識技術 が選択されたのか、なぜ代替の選択肢が選択されな かったのかについて、常に文書化された正当な論拠を提供しなければならない。 |
2.3 The use of FRT by law enforcement agencies, from the request to the use of the outcome of the search, should always be aimed at, and limited to, a single specific goal, necessarily related to investigative purposes. | 2.3 法執行機関による 顔認識技術 の使用は、要請から捜査結果の使用に至るまで、常に捜査目的に必然的に 関連する単一の特定の目標を目的とし、かつそれに限定されるべきであり、顔認識技術 の使用は、法執行 機関によって行われる。 |
2.4 International, regional and national policies and/or laws should specify for which classes of crimes or investigations the use of FRT by law enforcement agencies is acceptable and/or lawful. | 2.4 国際的、地域的及び国内的な政策及び/又は法律は、法執行機関による 顔認識技術 の使用がどの分類の犯罪又は捜査のために許容及び/又は合法であるかを規定すべきである。 |
2.5 Acknowledging the right to privacy and other human rights, the collection of images from public and publicly accessible spaces for FRT identification purposes should be done only for a determined list of use cases, in a limited area and for an established processing time period in accordance with relevant national laws or policies. | 2.5 プライバシーの権利及びその他の人権を認識し、顔認識技術 識別目的のための公共及び公的に アクセス可能なスペースからの画像の収集は、関連する国内法又は政策に従って、決められた 使用事例のリストに対してのみ、限られた地域及び決められた処理期間において行われるべきである。 |
2.6 As a consequence of the additional risks involved in the use of real-time FRT, an independent authority responsible for oversight of law enforcement operations (such as the independent ethical oversight committee described in Principle 1.5) should be in charge of authorizing applications for its use and, if there is not enough time, it should be authorized through the chain of command. In such cases, the chain of command should inform the independent authority as soon as possible and not later than 24 hours after authorizing the use, justifying its decision to use real-time FRT and explaining why it considered there was insufficient time to seek its authorization in advance. Law enforcement should use the results of any real-time FRT search only to verify an individual’s identity and conduct additional verifications. All images captured during an operation involving the use of real-time FRT, both the original image and the biometric template, should be deleted from the system, according to the policies governing the storage of live images. | 2.6 リアルタイム 顔認識技術 の使用に伴う追加的なリスクの結果として、法執行業務の監督に責任を 持つ独立した当局(原則 1.5 で述べた独立した倫理監督委員会のような)が、その使用申請 の認可を担当し、十分な時間がない場合は、命令系統を通じて認可されるべきである。このような場合、指揮系統は、リアルタイム 顔認識技術 を使用する決定を正当化し、なぜ事前に承認を求めるには時間が足りないと考えたかを説明した上で、使用を承認した後 24 時間以内に、できるだけ早く独立当局に通知すべきである。法執行機関は、個人の身元を確認し、追加の検証を行うためにのみ、リアルタイム 顔認識技術 検索の結果を使用するものとする。リアルタイム 顔認識技術 の使用を含む操作中に捕捉されたすべての画像は、オリジナル画像と生 体測定テンプレートの両方が、ライブ画像の保存を管理する方針に従って、システムから削除され るべきである。 |
2.7 FRT, and other face analysis technologies, should be used for no purpose other than biometric identification/recognition/verification. The use of FRT to infer ethnicity, gender, sex, age, emotion, opinion, health status, religion and sexual orientation, and the use of FRT for predictive analysis, should not be permitted. | 2.7 顔認識技術 及び他の顔分析技術は、生体認証/認識/検証以外の目的では使用されるべきではない。民族、性別、年齢、感情、意見、健康状態、宗教、性的指向を推測するための 顔認識技術 の使用、および予測分析のための 顔認識技術 の使用は、許可されるべきではない。 |
3 Human oversight and accountability | 3 人間の監視と説明責任 |
3.1 Lines of responsibility for the outcome of a given use of FRT should be well defined and transparent. A law enforcement agency should never issue analysis and conclusions from FRT without interpretation by an examiner and oversight by a manager with the right expertise (with the unique exception described in Principle 2.6). | 3.1 顔認識技術 の所定の使用の結果に対する責任の所在は、明確に定義され、かつ透明でなければなら ない。 法執行機関は、審査官による解釈と適切な専門知識を有する管理者による監督なしに、 顔認識技術 による分析と結論を決して発行すべきではない(原則 2.6 に記載される固有の例外を除く)。 |
3.2 The use of FRT should always be conducted by an individual trained as described in Principle 8 (with the exception of situations of emergency as presented in Principle 2.6). The skills of facial experts are critical and necessary to maintain the highest level of accuracy in the identification process. | 3.2 顔認識技術 の使用は、常に原則 8 に記載された訓練を受けた個人によって実施されるべきである (ただし、原則 2.6 に示された緊急事態の場合は例外とする)。顔の専門家の技能は、識別プロセスにおいて最高レベルの精度を維持するために重要かつ 必要である。 |
3.3 A peer review (blind verification or examination by a second expert) should systematically be performed before a result is communicated to the requesting investigation team. The result provided should be consensus-based or, in the event of a lack of consensus, the most conservative conclusion in terms of similarities observed should prevail. | 3.3 ピアレビュー(第二の専門家によるブラインド検証又は検査)は、結果が依頼元の調査チー ムに通知される前に、体系的に実施されるべきである。提供される結果は、コンセンサスに基づくものであるべきであり、コンセンサスが得られない場合には、観察された類似性の観点から最も保守的な結論が優先されるべきものである。 |
3.4 The law enforcement agency should verify that a mechanism exists whereby citizens can file a complaint with or seek redress for any harms before a competent body designated by national authorities. | 3.4 法執行機関は、市民が国家当局によって指定された管轄機関に苦情を申し立てたり、損害の救済を求めたりできる仕組みが存在することを確認する必要がある。 |
3.5 If an individual proposed by an FRT system as a potential candidate is subsequently taken into custody, brought in as a witness or assumes any other official role in a law enforcement process, that person should be informed that he/she was subject to a search using FRT, provided that this would not compromise the investigation. | 3.5 顔認識技術 システムによって候補者として提案された個人が、その後拘留されるか、証人として連行 されるか、または法執行プロセスにおいて他の公的役割を担う場合、その人は、捜査を損なわない限 り、顔認識技術 を用いた捜査の対象となったことを知らされる必要がある。 |
4 Optimization of system performance | 4 システム性能の最適化 |
4.1 Law enforcement agencies should require vendors to follow FRT standards, such as those set by the International Organization for Standardization (ISO) and the European Committee for Standardization (CEN), to evaluate the performance of their algorithms at the design and deployment stages. | 4.1 法執行機関は、国際標準化機構(ISO)や欧州標準化委員会(CEN)が定めたような 顔認識技術 標準に準拠し、設計・導入段階でアルゴリズムの性能を評価するようベンダーに求めるべきであ る。 |
4.2 Law enforcement agencies should introduce a standardized procurement process in a transparent way, requiring vendors to comply with the above-mentioned standards and to submit their algorithms to large-scale independent audits/testing undertaken against appropriate test standards (lab tests and, if possible, field tests). After evaluating all candidates, agencies should select the provider who can demonstrate the best-performing algorithm. | 4.2 法執行機関は、標準化された調達プロセスを透明な形で導入し、ベンダーに上記基準の遵守と、適切なテスト基準(ラボテスト、可能ならフィールドテスト)に対して行われる大規模な独立監査/テストにアルゴリズムを提出することを義務付けるべきである。すべての候補を評価した後、機関は、最も性能の良いアルゴリズムを実証できるプロバイダを選択する必要がある。 |
4.3 Due diligence with respect to system performance should be undertaken by reference to large-scale independent tests, such as those conducted by NIST in the US. These tests provide a scientifically robust, transparent baseline of performance. | 4.3 システム性能に関するデューディリジェンスは、米国の NIST が実施するような大規模な独立試験 を参照することによって実施されるべきである。これらのテストは、科学的に堅牢で、透明性のある性能の基準値を提供する。 |
4.4 Independent lab tests to validate the performance of the FRT should be designed to model, as closely as practical, the real-world objectives and conditions (including data landscape, operators of the technology, timetables affecting decisions made using the technology, etc.) in which the FRT is applied in practice. | 4.4 顔認識技術の性能を検証する独立ラボ試験は、顔認識技術 が実際に適用される実世界の目的及び条件(データ の状況、技術の運用者、技術を用いた意思決定に影響を与えるスケジュール等を含む)を、実際 に近い形でモデル化するように設計されなければならない。 |
4.5 Law enforcement agencies should notify the technology provider of relevant errors identified in order to have the system reviewed. | 4.5 法執行機関は、システムの見直しを行うために、特定された関連する誤りを技術提供者に通知す るべきである。 |
4.6 To leverage accuracy gains, law enforcement agencies should expect to make, and establish procedures for, regular upgrades or replacement of the FRT. | 4.6 正確さの向上を活用するために、法執行機関は、顔認識技術 の定期的なアップグレードまたは交換を予期 し、そのための手順を確立することが望ましい。 |
5 Mitigation of error and bias | 5 エラーとバイアスの軽減 |
5.1 The risk of error and bias by machines and humans should be mitigated to the greatest extent possible. This should be done through an ex ante and ex post evaluation strategy: | 5.1 機械と人間によるエラーとバイアスのリスクは、可能な限り軽減されるべきである。これは、事前及び事後の評価戦略によって行われる必要がある。 |
5.1.1 Ex ante evaluations: technology providers, and where it applies, technology integrators, should ensure biases and errors are mitigated to the greatest extent possible before the deployment of the system by law enforcement agencies. The level of performance across demographics and the design of the quality management system should be evaluated by an independent third party. This evaluation should be organized by the technology provider and the results made available to law enforcement agencies that procure FRT and to the public for review. Law enforcement agencies that procure FRT should require in their procurement criteria information about the specific metrics the provider uses to gauge bias and other relevant risks. Before deploying FRT systems, law enforcement agencies should set up pilot tests to ensure the system is operating as intended. | 5.1.1 事前評価:技術提供者、および適用される場合は技術統合者は、法執行機関によるシステムの配備前に、偏りや誤りが可能な限り軽減されていることを確認する必要がある。人口統計学的なパフォーマンスレベルと品質管理システムの設計は、独立した第三者によって評価されるべきです。この評価は、技術提供者によって整理され、その結果は 顔認識技術 を調達する法執行機関および一般市民がレビューできるようにされるべきであ る。顔認識技術 を調達する法執行機関は、その調達基準の中で、プロバイダーが偏りや他の関連リスクを測 定するために使用する特定の指標に関する情報を要求すべきである。顔認識技術 システムを展開する前に、法執行機関はシステムが意図したとおりに動作していることを確認す るためにパイロットテストを設定するべきである。 |
To continually improve the quality of the processes and the system’s performance, law enforcement agencies, technology providers and technology integrators should establish an in-service support agreement throughout the entire life cycle of the system. | プロセスの品質とシステムの性能を継続的に改善するために、法執行機関、技術プロバイダー、および技術インテグレーターは、システムの全ライフサイクルを通じて、インサービスサポート契約を確立すべきである。 |
6 Legitimacy of probe images and reference databases | 6 プローブ画像および参照データベースの正当性 |
6.1 Law enforcement agencies should ensure that their processing of probe images and reference databases are compliant with international, regional and national laws and/or policies, which should include storage criteria, purpose limitation, retention period, deletion rules, etc. | 6.1 法執行機関は、プローブ画像及び参照用データベースの処理が、保存基準、目的制限、保存期間、削除 規則等を含む国際、地域及び国内法及び/又は政策に準拠していることを確認する必要がある。 |
6.2 The collection of probe images should be conducted on a legal basis and aimed at a specific purpose. | 6.2 プローブ画像の収集は、法的根拠に基づき、かつ、特定の目的に沿って実施されるものとする。 |
6.3 The reference database(s) used for FRT investigations should always have a legal basis and be used under the authorization of competent authorities. Consequently, reference databases that include data collected without legal basis from the internet, electronic devices or other sources should not be used. | 6.3 顔認識技術 調査に使用される参照用データベースは、常に法的根拠を有し、所轄官庁の認可の下 で使用されるべきである。従って、インターネット、電子機器、その他の情報源から法的根拠なく収集された データを含む参照用データベースを使用すべきではない。 |
6.4 Probe images should not be inserted into the reference database by default. Probe images of unidentified subjects may be stored in a database for further investigation; however, such images should be appropriately labelled (e.g. as an unidentified suspect or unidentified victim) and the reasons for their insertion into the database detailed. Differently labelled categories of image can be stored on the same database but should be logically separated so that facial experts can, with requisite authorizations, independently search the specific categories. Additional care should be afforded to ensure that, if the underlying status justifying the insertion of the probe image into the database (e.g. as an unidentified suspect) changes, the image is removed from the database. | 6.4 プローブ画像は、デフォルトで参照データベースに挿入されるべきではない。しかし、そのような画像には適切なラベル付けを行い(例:容疑者不明、被害者不明)、 データベースに挿入する理由を詳細に説明する必要がある。異なるラベルが付けられた画像カテゴリーを同一のデータベースに保存することは可能であるが、顔の専門家が必要な権限を持って、特定のカテゴリーを独立して検索できるように、論理的に分離されるべきである。また、プローブ画像のデータベースへの挿入を正当化する基本的な状態(例えば、未確認容疑者としての状態)が変化した場合、その画像がデータベースから削除されるように、さらなる注意を払う必要がある。 |
6.5 Exporting images and biometric metadata to public cloud-based FRT that could potentially be outside the local jurisdiction should be prohibited. | 6.5 画像及び生体認証メタデータを、現地の管轄区域外にある可能性のあるパブリッククラウドベースの 顔認識技術 にエクスポートすることは、禁止されなければならない。 |
6.6 Law enforcement agencies should maintain a strict and transparent chain of custody of all images (probe image sets and reference databases) used for FRT. The law enforcement agency should specify, and enforce, clear and transparent rules designating who does and does not have access to the images, and under what circumstances. | 6.6 法執行機関は、顔認識技術 に使用される全ての画像(プローブ画像セット及び参照データベース) の厳密かつ透明な保管の連鎖を維持しなければならない。法執行機関は、誰が画像にアクセスでき、できないか、また、どのような状況下でアクセス できるかを指定する明確かつ透明な規則を規定し、実施すべきである。 |
6.7 Law enforcement agencies should specify well-defined protocols for determining when, and on the basis of what criteria, images are to be deleted from a probe set or a reference database. The law enforcement agency should create, and adhere to, a well-defined and transparent protocol for the disposal of images that have been deleted from a probe set or reference database or are otherwise no longer needed; any such protocol should be designed to protect the privacy of any individuals appearing in the images identified for disposal. | 6.7 法執行機関は、いつ、どのような基準に基づいて、プローブセットまたは参照データベースから 画像が削除されるべきかを決定するための、明確に定義されたプロトコルを規定するものとする。法執行機関は、プローブセットまたはレファレンスデータベースから削除された画像、またはその他の点 で不要となった画像を廃棄するための、明確に定義された透明性のあるプロトコルを作成し、これを遵守す べきである。そのようなプロトコルでは、廃棄が確認された画像に登場する個人のプライバシーを保護するよう 設計されなければならない。 |
6.8 For all solved cases or for cases where the investigation has been concluded, the biometric template of the probe image should be deleted from the FRT system and the original facial image stored for accountability purposes in line with existing national law and policies. | 6.8 すべての解決された事件または捜査が終了した事件については、プローブ画像のバ イオメトリックテンプレートは 顔認識技術 システムから削除され、オリジナルの顔画像は既存の国内法および 政策に従って説明責任のために保管されなければならない。 |
7 Integrity of images and metadata | 7 画像およびメタデータの完全性 |
7.1 Law enforcement agencies should establish standards and thresholds of image quality for reference database images in order to mitigate the risk of errors. Reference database images that do not meet the defined standards and image-quality thresholds should not be used. | 7.1 法執行機関は、エラーのリスクを軽減するために、参照データベース画像に対する画質の 基準および閾値を設定する必要がある。定義された基準および画質の閾値を満たさない参照データベース画像は、使用されるべきではない。 |
7.2 Law enforcement agencies should also establish best practices to evaluate image quality for probe images. Before any search using an FRT system, the facial examiner should conduct a manual assessment of the image to ascertain if the probe image is of a high-enough quality to conduct a facial comparison. If the expert is unable to do so manually, the probe image should be rejected. Although a minimum number of pixels between the eyes is often recommended, care should be taken when using this as a threshold as it is often insufficient to confirm image quality. | 7.2 法執行機関は、プローブ画像の画質を評価するためのベストプラクティスも確立すべきである。顔認識技術システムを使用した捜査の前に、顔面検査官は画像の手動評価を実施し、プローブ画像が顔面 比較を実施するのに十分な高品質であるかどうかを確認する必要がある。専門家が手動で評価できない場合、プローブ画像は拒否されるべきです。目と目の間の最小ピクセル数はしばしば推奨されていますが、画質の確認には不十分な場合が多いため、これを閾値として使用する場合は注意が必要です。 |
7.3 Standards for probe images and reference database images should be identified by each law enforcement agency, taking into account the strength of the algorithm, the results of internal testing of the FRT system, the nature of the use case and any recommendations from the technology provider regarding its specific system. Standards, such as International Civil Aviation Organization (ICAO) photo standards, may serve as guidance for assessing image quality of reference database images. Guidance on best practices for probe images and additional recommendations for reference database images could also be provided by groups such as the Facial Identification Scientific Working Group (FISWG), the European Network of Forensic Science Institutes Digital Imaging Working Group (ENFSIDIWG) and the INTERPOL Facial Experts Working Group (IFEWG). | 7.3 プローブ画像および参照データベース画像の標準は、アルゴリズムの強度、顔認識技術 システムの内部テストの結果、ユースケースの性質、および特定のシステムに関する技術提供者からの推奨を考慮に入れて、各法執行機関によって特定されるべきであ る。国際民間航空機関(ICAO)写真規格などの規格は、参照データベース画像の画質評価のガイダンスと して機能することができる。また、顔識別科学作業部会(FISWG)、欧州法科学研究所デジタル画像作業部会(ENFSIDIWG)、インターポール顔専門家作業部会(IFEWG)などのグループにより、プローブ画像に関するベストプラクティスに関する指針や参照データベース画像に関する追加勧告が提供される可能性もある。 |
7.4 Law enforcement examiners should be aware of the risk of image manipulation, such as morphing and deepfakes, when images come from uncontrolled sources and/or production modes. When suspected, these images should be rejected or processed with extreme precaution. | 7.4 法執行機関の検査官は、管理されていない情報源および/または製造方法から得られた画像に ついては、モーフィングやディープフェイクなどの画像操作の危険性を認識すべきである。疑われる場合、これらの画像は拒否されるか、または細心の注意を払って処理されるべ きである。 |
7.5 Forensic upgrading (e.g. contrast and brightness correction) should comply with existing published guidance or standards (such as by FISWG). | 7.5 フォレンジック・アップグレード(例えばコントラストや明るさの補正)は、(FISWG によるような)既存の公表されたガイダンスや標準に準拠すべきである。 |
7.6 The use of tools for non-forensic upgrading (e.g. pose correction) should be used only during the FRT search phase. If non-forensic upgrading is carried out, the insertion or modification of facial features or geometry on an existing image should be performed with care in order to avoid distortion of the image. | 7.6 非フォレンジック・アップグレード(例:姿勢補正)のためのツールの使用は、顔認識技術サーチの段階でのみ使用され るべきである。ノンフォレンジック・アップグレードが実施される場合、既存画像への顔の特徴や形状の 挿入・変更は、画像の歪みを避けるために慎重に実施されるべきである。 |
7.7 In case of a possible match, and to reach a final conclusion, forensic upgrading of face quality only should be accepted. For reporting purposes, the original image should be presented together with the description of forensic upgrading methods to ensure the auditability and reproducibility of the upgrading process. | 7.7 一致の可能性がある場合、および最終的な結論を得るために、顔面画質のみのフォレンジック アップグレードを認めるべきである。報告目的のために、アップグレードプロセスの監査可能性と再現性を確保するため、原画像を フォレンジック・アップグレード方法の説明とともに提示するものとする。 |
7.8 While processing data, law enforcement agencies should always conduct a proper and verified attribution of identity to photos in the reference dataset, and verify the serial number of photos, their traceability and origin. | 7.8 データ処理中、法執行機関は常に参照データセット中の写真への適切かつ検証された帰属を行 い、写真のシリアルナンバー、追跡可能性および出所を検証するべきである。 |
7.9 The integrity of the reference database should be evaluated regularly, in accordance with the applicable legal framework and best practices. | 7.9 参照データベースの完全性は、適用される法的枠組み及びベストプラクティスに従って、 定期的に評価されなければならない。 |
7.10 Vulnerabilities to hacking and cyberattacks should be identified to ensure robustness and avoid data leaks and data manipulation. | 7.10 堅牢性を確保し、データ漏洩やデータ操作を避けるため、ハッキングやサイバー攻撃に対する脆弱性が特定されるべ きである。 |
8 Skilled human interface and decision-making | 8 熟練したヒューマンインターフェースと意思決定 |
8.1 FRT should be used only by trained persons who follow the procedures ordered through the chain of command and/or by management. | 8.1 顔認識技術は、指揮系統及び/又は経営陣によって命じられた手続きに従う訓練を受けた者のみが使用する ものとする。 |
8.2 Everybody within the organization, especially the chain of command/management, should understand the capacities and limits of the technology and system used. | 8.2 組織内の全員、特に指揮系統/管理者は、使用される技術及びシステムの能力と限界を理解すること。 |
8.3 Law enforcement agencies that use or intend to use FRT should provide or facilitate training on an ongoing basis and should be informed by the latest research in machine learning and remote biometrics. | 8.3 顔認識技術 を使用する、または使用しようとする法執行機関は、継続的に研修を提供または促進し、 機械学習および遠隔生体認証における最新の研究により情報を得るべきである。 |
8.4 The training (and certification when it applies) of facial experts, and those in the chain of command/ management, should include: | 8.4 顔の専門家、および指揮命令系統/管理系統の者の訓練(および適用される場合は認証)には、以下が含まれ るべきである。 |
8.4.1 Knowledge of and updates of mandatory regulations, laws or policies concerning the use of biometrics. | 8.4.1 生体認証の使用に関する強制的な規制、法律又は政策の知識及びその更新。 |
8.4.2 Awareness of the risk of biases by the FRT system (anticipation of false positives and false negatives, awareness of differences in performance on various demographics, knowing how to calibrate and adjust the threshold of the system, understanding how to configure the system in the manner appropriate to the specific circumstances and risks of a given use case, and how to fix the length of the candidate lists). | 8.4.2 顔認識技術 システムによる偏りのリスクについての認識(偽陽性と偽陰性の予測、様々な人口統計学的パフォーマ ンスの違いについての認識、システムの閾値を校正・調整する方法、与えられたユースケースの特定の状況 とリスクに適した方法でシステムを構成する方法の理解、及び候補リストの長さを修正する方法) 8.4.2 生体認証システムによる偏りのリスクについての認識。 |
8.4.3 Understanding of the risk of biases by the human agent (overestimation of own capability, risk of over-reliance on technology, blind spots, risk of human bias such as other-race-effect bias). | 8.4.3 ヒューマンエージェントによるバイアスのリスクの理解(自身の能力の過大評価、技術への過度の依存のリスク、盲点、他民族効果バイアスなどのヒューマンバイアスのリスク)。 |
8.4.4 Awareness of the risk of false positives from twins, siblings and other related individuals. | 8.4.4 双子、兄弟姉妹、その他の近親者による偽陽性のリスクへの認識。 |
8.4.5 Awareness of the risk of image manipulation, including data integrity attacks and data morphs, and, when available, the tools to identify them. | 8.4.5 データ整合性攻撃やデータモーフを含む画像操作のリスクと、利用可能な場合はそれらを特定する ためのツールについての認識。 |
8.4.6 How to implement risk-mitigation methodologies (one match vs. differential diagnosis approach, blinding techniques, blind verifications, etc.). | 8.4.6 リスク軽減のための方法論(1つの一致と鑑別診断のアプローチ、盲検法、盲検検証など)を 実施する方法。 |
8.4.7 Understanding of the nature of an investigative lead as the outputs of an FRT search and best practices for verifying the identity of leads generated. | 8.4.7 顔認識技術 検索のアウトプットとしての捜査の手がかりの性質、および生成された手がかりの同一性を 検証するためのベストプラクティスを理解する。 |
8.4.8 Instruction in data governance procedures, including the collection, storage, integrity and traceability of data. | 8.4.8 データの収集、保存、完全性、トレーサビリティを含む、データガバナンス手順に関する教示。 |
8.4.9 How to use tools, when available, that assist examiners in understanding the reasoning behind systems’ decisions/recommendations. | 8.4.9 審査官がシステムの決定/勧告の背後にある理由を理解することを支援する、利用可能な場合、ツ ールの使用方法。 |
8.5 Recognizing that innate capability to recognize faces exists on a spectrum, examiners should be recruited by factoring in performance on face comparison tests, acknowledging that experience and training also matter. | 8.5 顔の認識には生得的な能力があることを認識し、審査員は経験と訓練も重要であることを認識した上で、顔の比較テストの成績を考慮して採用されるべきである。 |
9 Transparency | 9 透明性 |
9.1 Information about the use of FRT by law enforcement agencies should be available to the public. This information should be made available on a permanent basis or on request, and communicated by the appropriate official authorities, be it the law enforcement agency itself or another government entity. | 9.1 法執行機関による 顔認識技術 の使用に関する情報は、一般に入手可能であるべきである。この情報は、恒久的にまたは要求に応じて利用可能とされ、法執行機関自体または他の政府機関である適切な公的機関によって伝達されるべきである。 |
9.2 Law enforcement agencies, or the most appropriate other official authority – with input from the law enforcement agency – should, in line with the applicable laws and policies, make public: | 9.2 法執行機関、または最も適切な他の公的機関-法執行機関からの情報とともに-は、適用される法律および政策に沿って、公表すべきである。 |
9.2.1 A clear definition of the use of FRT for law enforcement investigations, specifying the purpose and objectives, such as to identify criminals/fugitives, persons of interest, missing persons and victims. | 9.2.1 犯罪者/逃亡者、参考人、行方不明者及び被害者の特定など、目的と目標を特定した、法執行 調査のための 顔認識技術 使用の明確な定義。 |
9.2.2 The vendor selected (if applicable) and the name and version of the software. | 9.2.2 選択したベンダー(該当する場合)、およびソフトウェアの名称とバージョン。 |
9.2.3 How they use probe images: procedures and criteria to select, store/not store images and, if stored, for how long. | 9.2.3 調査画像の使用方法:画像を選択する手順と基準、保存する/しない、保存する場合はどのくらいの期間保存 するか。 |
9.2.4 How they use the reference database: procedures to consult the database, criteria to select, store/not store probe images in this reference database and, if stored, for how long; as well as details about whether this database can be used to train or refine other FRT systems or machine learning models in general. | 9.2.4 参照データベースの使用方法:データベースを参照する手順、この参照データベースにプローブ 画像を選択する基準、保存する/しない、保存する場合はその期間、またこのデータベースが他の 顔認識技術 システムや機械学習モデル一般の訓練や改良に使用できるかどうかに関する詳細。 |
9.2.5 The policy regarding the type of data that may be shared with other organizations, including personal data and databases of face images. | 9.2.5 個人データや顔画像のデータベースなど、他の組織と共有することができるデータの種類に関する方針。 |
9.2.6 The name of law enforcement departments or units able to launch searches and view the results of searches. | 9.2.6 検索を開始し、検索結果を閲覧することができる法執行部門またはユニットの名称。 |
9.2.7 The functional title, type of expertise and level of training of individuals using the system. | 9.2.7 システムを使用する個人の職務上の肩書き、専門知識の種類、及び訓練レベル。 |
9.2.8 The process to determine a possible match, namely blind-review or peer-review of possible matches. | 9.2.8 一致の可能性を判断するためのプロセス、すなわち一致の可能性のブラインドレビューまたはピアレビュー。 |
9.2.9 Information about the mechanisms in place (see Principle 1.5) to ensure FRT is used as intended. | 9.2.9 顔認識技術 が意図されたとおりに使用されていることを確認するために設置された機構(原則 1.5 参照) に関する情報。 |
9.2.10 Auditable records of search requests made by law enforcement agencies, such as the number of requests, the number of investigative leads generated and the type of crimes related to these requests. | 9.2.10 法執行機関による検索要求の監査可能な記録(要求数、生成された捜査の手がかりの数、およびこれらの要求に関連する犯罪の種類など)。 |
9.2.11 The results of audits and/or evaluations of the performance of the FRT system conducted by the vendor of the technology and/or by the law enforcement agency. This should include a description of: the design of the evaluation; the data used in the evaluation; and the results (metrics) obtained. | 9.2.11 技術のベンダーおよび/または法執行機関によって実施された、顔認識技術システムの性能の監査および/または評価の結果。これは、評価の設計、評価で使用されたデータ、および得られた結果(測定基準)の説明を含むべきであ る。 |
9.2.12 Information about how an individual can contact the law enforcement agency to submit a query or complaint concerning its use of FRT. | 9.2.12 顔認識技術 の使用に関する質問または苦情を提出するために、個人が法執行機関に連絡する方法 についての情報。 |
9.2.13 A record of complaints filed by members of the public against the use of the FRT and the law enforcement agency’s response of those formal complaints. | 9.2.13 顔認識技術 の使用に対して一般市民が提出した苦情、及びそれらの正式な苦情に対する法執行機関の対応の記録。 |
9.2.14 Any other information that can be publicly shared without compromising law enforcement investigations and that may be relevant for the public. | 9.2.14 法執行機関の調査を損なうことなく公に共有することができ、かつ公衆に関連する可能性のあるその他一切の情報。 |
9.3 Information made available to the public should be concise, easily accessible, understandable and provided in clear and plain language. Exceptions to this should be permitted only if they are necessary and proportionate to pursue legitimate purposes and in accordance with the law. | 9.3 一般に公開される情報は、簡潔で、容易にアクセスでき、理解でき、明確で平易な言葉で提供されるべきである。これに対する例外は、合法的な目的を追求するために必要かつ適切であり、法律に従っている場合にのみ許可されなければならない。 |
● まるちゃんの情報セキュリティ気まぐれ日記
昨年の報告書
・2021.10.17 インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査」 at 2021.10.05
顔認識
・2022.11.01 第44回 世界プライバシー会議 顔認識に関する決議
・2022.10.07 米国 科学技術政策局 AI権利章典の青写真
・2022.10.03 米国 2022年顔認識法案
・2022.07.12 米国 国土安全保障省検査局 米国税関・国境警備局は空港での国際線旅行者の識別のために顔認識のポリシーを遵守している (2022.07.07)
・2022.05.30 英国 情報コミッショナー 顔認識データベース会社Clearview AI Incに750万ポンド以上の罰金を科し、英国人のデータの削除を命じた
・2022.05.20 欧州データ保護委員会 (EDPB) 意見募集「法執行分野における顔認識技術の使用に関するガイドライン」
・2022.05.15 カナダ プライバシーコミッショナー室 プライバシーに関する戦略的優先事項とそこから生まれたテーマと見解
・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)
・2022.01.21 ENISA デジタル・アイデンティティ攻撃に注意:あなたの顔が偽装される可能性があります
・2021.12.25 個人情報保護委員会 犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会の設置
・2021.10.17 インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査」 at 2021.10.05
・2021.09.29 世界経済フォーラム (WEF) 技術の責任ある利用:IBMをケースにした研究
・2021.09.27 欧州委員会 職場での電子モニタリングと監視 (Electronic Monitoring and Surveillance in the Workplace)
・2021.09.10 EU議会 提言 バイオメトリクス認識と行動検知
・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」
・2021.08.27 米国 GAO 顔認識技術:連邦政府機関による現在および計画中の使用方法
・2021.08.20 英国 意見募集 監視カメラ実施規範改訂案 by 監視カメラコミッショナー at 2021.08.13
・2021.08.11 EU議会 STUDY バイオメトリクス認識と行動検知
・2021.08.10 EU議会 STUDY ヨーロッパの政策におけるディープフェイクへの取り組み at 2021.07.30
・2021.08.08 EU議会 BRIEFING スマートシティとアーバンモビリティにおける人工知能 at 2021.07.23
・2021.08.07 総務省 AIネットワーク社会推進会議 「報告書2021」の公表
・2021.08.07 Atlantic Council AIとデータ倫理におけるコミットメントからコンテンツへの移行:正義と説明可能性
・2021.08.04 中国 通信院 信頼できる人工知能についての白書 at 2021.07.09
・2021.08.03 中国 最高人民法院 「民事案件における顔識別技術の使用に関する司法解釈」
・2021.07.15 米国GAO 顔認識技術について連邦法執行機関はプライバシーやその他のリスクをより適切に評価する必要がある at 2021.06.03
・2021.07.12 ニューヨーク市 生体情報プライバシー条例が2021.07.09から施行されましたね。。。
・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス
・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス
・2021.06.23 欧州 EDPBとEDPS 公共の場における人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう要請
・2021.06.22 欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表
・2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念
・2021.06.17 米国上院・下院 顔認識ツールを含む生体情報監視を政府が使用することを禁止する「顔認識および生体認識技術モラトリアム法案」
・2021.06.17 英国政府:データ倫理とイノベーションセンター プライバシーに関するユーザの積極的選択中間報告(スマートフォン)
・2021.06.08 U.S. の公益団体であるEPICが顔認識技術および遠隔生体認識技術の使用禁止を世界的に呼びかけていますね。。。
・2021.05.12 カナダのプライバシーコミッショナーが顔認識技術について議会で見解を述べたようですね。。。
・2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています
・2021.05.03 中国 意見募集 顔認識に続けて、歩行認識、音声認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
・2021.04.22 ドイツ連邦情報セキュリティ局 (BSI) が安全なAI導入のための対策をまとめていますね。。。
・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
・2021.03.14 CNIL 乗客のマスク着用率を測定するためのインテリジェントビデオの使用に関する法令についての意見を公表
・2021.02.05 カナダのプライバシーコミッショナーが顔認識ソフトウェアを提供するClearview AIについての声明を出していますね。。。
・2021.01.30 欧州評議会 108号条約委員会が「顔認証に関するガイドライン」を採択しましたね。。。
・2021.01.12 欧州委員会 市民イニシアティブとして「生体認証による大量監視慣行の禁止」を登録
・2021.01.04 ニューヨーク州 知事が学校での顔認識技術の使用を一時停止し、研究を指示する法律に署名 at 2020.12.22
・2020.11.04 カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)
・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。
・2020.06.14 IBM, Amazon, Microsoftは顔認証システムを米国の警察には販売しない
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
・2020.03.26 JVNVU#99619336 勾配降下法を使用する機械学習モデルに、誤った識別をさせるような入力を作成することが可能な問題
・2020.03.04 FIRST EVER DECISION OF A FRENCH COURT APPLYING GDPR TO FACIAL RECOGNITION
・2020.02.17 遠くからでもわかる顔認識システム!
ぐっと遡って、2000年代
・2009.11.07 世界プライバシー宣言(Global Privacy Standards for a Global World)
・2005.08.11 外務省 IC旅券調査研究報告書
・2005.02.04 監視社会と信頼関係
« 経済産業省 第1回 産業サイバーセキュリティ研究会 ワーキンググループ3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会 | Main | ドイツ 中国 シュルツ首相の中華人民共和国訪問 »
Comments