インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査」 at 2021.10.05
こんにちは、丸山満彦です。
インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の調査」の白書を公表していました。。。
● World Economic Forum: WEF(世界経済会議)
・2021.10.05 A Policy Framework for Responsible Limits on Facial Recognition Use Case: Law Enforcement Investigations
A Policy Framework for Responsible Limits on Facial Recognition Use Case: Law Enforcement Investigations | 顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査 |
The World Economic Forum’s governance framework for the responsible use of facial recognition in law enforcement investigations addresses the need for a set of concrete guidelines to ensure the trustworthy and safe use of this technology. It includes a set of principles that defines in practical terms what constitutes the responsible use of facial recognition in law enforcement investigations and a self-assessment questionnaire detailing the requirements that law enforcement agencies must respect to ensure compliance with the principles for action. | 世界経済フォーラムの法執行機関における顔認識の責任ある利用のためのガバナンスフレームワークは、この技術の信頼性と安全性を確保するための一連の具体的なガイドラインの必要性に対応するものです。このフレームワークには、法執行機関の捜査における顔認識の責任ある利用を実際的に定義する一連の原則と、法執行機関が行動原則の遵守を保証するために尊重しなければならない要件を詳述した自己評価アンケートが含まれています。 |
・[PDF]
Foreword | 序文 |
Introduction | はじめに |
Methodology | 方法論 |
1 Law enforcement investigations: use cases and definitions | 1 法執行機関による捜査:ユースケースと定義 |
2 Proposed principles | 2 提案された原則 |
3 Proposed self-assessment questionnaire | 3 自己評価アンケートの提案 |
Conclusion | 結論 |
Glossary | 用語解説 |
Contributors | 貢献者 |
Endnotes | 巻末資料 |
「序文」と「提案された原則」の仮対訳
● United Nations Interregional Crime and Justice Research Institute: UNICRI(国連地域間犯罪司法研究所)
・2021.10.05 Law Enforcement Agencies Develop Best Practices for Using Facial Recognition
Law Enforcement Agencies Develop Best Practices for Using Facial Recognition | 法執行機関が顔認証を利用するためのベストプラクティスを開発 |
The rapid uptake of facial recognition technology by law enforcement agencies in helping to resolve crimes, conduct faster investigations and bring offenders to justice has raised serious governance challenges. | 法執行機関が、犯罪の解決、迅速な捜査、犯罪者の裁きを支援するために、顔認識技術を急速に導入していることは、深刻なガバナンス上の課題を提起しています。 |
To address these challenges, the World Economic Forum, in partnership with the International Criminal Police Organization (INTERPOL), the Centre for Artificial Intelligence and Robotics of the United Nations Interregional Crime and Justice Research Institute (UNICRI), and the Netherlands police have published a white paper, Responsible Limits on Facial Recognition, Use Case: Law enforcement investigation. | これらの課題に対処するため、世界経済フォーラムは、国際刑事警察機構(INTERPOL)、国連地域間犯罪司法研所(UNICRI)の人工知能・ロボットセンター、およびオランダ警察と共同で、白書「顔認識の責任ある制限、使用例:法執行機関の捜査」を発表しました。 |
The initiative represents the most comprehensive policy response to the risks associated with facial recognition technology (FRT) and aims to ensure its responsible use by law enforcement agencies. The Netherlands police will pilot the paper’s framework. | この白書は、顔認識技術に関連するリスクに対する最も包括的な政策対応であり、法執行機関による顔認識技術の責任ある使用を保証することを目的としています。オランダ警察は、このフレームワークを試験的に導入する予定です。 |
“Around the world, law enforcement agencies are rapidly adopting facial recognition technology as part of their investigations, but this comes with risks for citizens,” said Kay Firth-Butterfield, Head of Artificial Intelligence and Machine Learning, World Economic Forum. “This is the first global multistakeholder effort to mitigate these risks effectively.” | 世界経済フォーラムの人工知能・機械学習部門の責任者であるKay Firth-Butterfield氏は、「世界中の法執行機関は、捜査の一環として顔認識技術を急速に導入していますが、これには市民にとってのリスクが伴います。これは、これらのリスクを効果的に軽減するための、世界初のマルチステークホルダーによる取り組みです」と述べています。 |
Remote biometric technologies – particularly FRT – have gained a lot of traction in the law enforcement sector and FRT accuracy has improved significantly. However, incorrect implementation, without due consideration of the ramifications, can result in major abuses of human rights and harm to citizens, particularly those in underserved communities. | 遠隔バイオメトリクス技術、特に顔認識技術は、法執行機関の分野で多くの支持を得ており、顔認識技術の精度も大幅に向上しています。しかし、その影響を十分に考慮せずに誤った方法で導入すると、重大な人権侵害を引き起こし、市民、特に十分なサービスを受けていないコミュニティの人々に損害を与える可能性があります。 |
These concerns have led to policy-makers exploring various options, from banning FRT for law enforcement agencies to introducing additional accountability mechanisms that limit the risk of abuse of fundamental freedoms and wrongful arrests. However, prevention of untargeted surveillance, assessment of the performance of authorized solutions, procurement processes for law enforcement agencies and the training of professional forensic examiners are largely overlooked. The new framework is primarily designed to address these gaps. | このような懸念から、政策立案者は、法執行機関に対する顔認識技術の禁止から、基本的自由の濫用や不当逮捕のリスクを抑えるための追加的な説明責任メカニズムの導入まで、さまざまな選択肢を検討しています。しかし、ターゲットを絞らない監視の防止、認可されたソリューションの性能評価、法執行機関の調達プロセス、プロのフォレンジック検査官のトレーニングなどは、ほとんど見落とされています。新しいフレームワークは、これらのギャップに対処することを主な目的としています。 |
The Forum partnered with key law enforcement players to identify the risks and build appropriate governance processes. It also held workshops with civil society organizations to review the various drafts and incorporated their recommendations. In practice, the framework is composed of a common set of proposed principles for using FRT by law enforcement agencies that includes provisions on the protection of fundamental human rights. There is also a self-assessment questionnaire intended to support agencies to comply with these principles. | フォーラムは、法執行機関の主要メンバーと協力して、リスクを特定し、適切なガバナンスプロセスを構築しました。また、市民社会団体とのワークショップを開催し、さまざまな草案を検討し、その提言を取り入れました。実際には、このフレームワークは、法執行機関が顔認識技術を利用するための共通の原則案で構成されており、基本的人権の保護に関する規定も含まれています。また、各機関がこれらの原則に従うことを支援するための自己評価アンケートも用意されています。 |
As a central partner of this endeavour, the Netherlands police will begin testing the assessment questionnaire in early 2022. “Building and maintaining trust with citizens is fundamental to accomplish our mission and we are well aware of the various concerns related to facial recognition. In this regard, being the first law enforcement agency to test the self-assessment questionnaire is a means to reaffirm our commitment to the responsible use of facial recognition for the benefits of our community,” said Marjolein Smit-Arnold Bik, Head of Special Police Operations, the Netherlands. “We also encourage other law enforcement agencies in various countries to participate in the testing phase and contribute to this global effort.” | この取り組みの中心的なパートナーとして、オランダ警察は2022年初頭に評価アンケートのテストを開始する予定です。「市民との信頼関係を構築・維持することは、我々のミッションを達成するための基本であり、顔認識に関する様々な懸念を十分に認識しています。この意味で、自己評価アンケートをテストする最初の警察機関になることは、我々のコミュニティの利益のために顔認識を責任を持って使用するというコミットメントを再確認する手段です。また、様々な国の他の法執行機関にもテスト段階に参加してもらい、このグローバルな取り組みに貢献したいと考えています」と、オランダの特殊警察活動の責任者であるMarjolein Smit-Arnold Bik氏は述べています。 |
“We have co-designed this framework to serve as a unique reference to law enforcement in our 194 member countries on the responsible and transparent use of facial recognition,” said Cyril Gout, Director of Operational Support and Analysis, INTERPOL. “We will support its implementation through our global police network to increase awareness of this important biometric technology. Almost 1,500 terrorists, criminals, fugitives, persons of interest or missing persons have been identified since the launch of INTERPOL’s facial recognition system in 2016.” | INTERPOLの運用サポート・分析ディレクターであるCyril Gout氏は、「我々は、194の加盟国の法執行機関が顔認識を責任を持って透明に使用するための独自の参考資料となるよう、このフレームワークを共同で設計しました。私達は、この重要なバイオメトリクス技術の認知度を高めるために、我々のグローバルな警察ネットワークを通じて、その実施を支援していきます。2016年にINTERPOLの顔認証システムが開始されて以来、約1,500人のテロリスト、犯罪者、逃亡者、要注意人物、行方不明者が特定されています。」と述べています。 |
“Ensuring the human rights compliant use of FRT in a way that is strictly necessary and proportionate to meet legitimate policing aims is immensely important,” said Irakli Beridze, Head, UNICRI Centre for Artificial Intelligence and Robotics. “We are pleased to contribute to this valuable initiative to develop a robust governance framework for the use of facial recognition in the context of criminal investigations and believe that it will also be an important source for our broader joint work with INTERPOL on the responsible use of artificial intelligence by law enforcement.” | UNICRIの人工知能・ロボットセンター長であるIrakli Beridze氏は、「正当な警察活動の目的を達成するために、厳密に必要かつ比例した方法で、人権に準拠したFRTの使用を保証することは非常に重要です。私たちは、犯罪捜査における顔認識の使用のための強固なガバナンスフレームワークを開発するこの貴重なイニシアチブに貢献できることを嬉しく思い、また、法執行機関による人工知能の責任ある使用に関するINTERPOLとの広範な共同作業のための重要な資料となると信じています。」と述べています。 |
International Criminal Police Organization: INTERPOL(国際刑事警察機構)にはFacial Recognition(顔による認識)のウェブページがあります。
● Interpol
・Facial Recognition
インターポールでは世界中(179カ国のようです)から集めた犯罪者の顔写真データを活用するシステムが2016年から稼働していますが、既に1500名以上のテロリスト、行方不明者等の特定を行なった実績があるようですね。。。
● まるちゃんの情報セキュリティ気まぐれ日記
顔認識関係
・2021.08.27 米国 GAO 顔認識技術:連邦政府機関による現在および計画中の使用方法
・2021.08.20 英国 意見募集 監視カメラ実施規範改訂案 by 監視カメラコミッショナー at 2021.08.13
・2021.08.11 EU議会 STUDY バイオメトリクス認識と行動検知
・2021.08.03 中国 最高人民法院 「民事案件における顔識別技術の使用に関する司法解釈」
・2021.07.15 米国GAO 顔認識技術について連邦法執行機関はプライバシーやその他のリスクをより適切に評価する必要がある at 2021.06.03
・2021.07.12 ニューヨーク市 生体情報プライバシー条例が2021.07.09から施行されましたね。。。
・2021.06.23 欧州 EDPBとEDPS 公共の場における人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう要請
・2021.06.17 米国上院・下院 顔認識ツールを含む生体情報監視を政府が使用することを禁止する「顔認識および生体認識技術モラトリアム法案」
・2021.06.08 U.S. の公益団体であるEPICが顔認識技術および遠隔生体認識技術の使用禁止を世界的に呼びかけていますね。。。
・2021.05.12 カナダのプライバシーコミッショナーが顔認識技術について議会で見解を述べたようですね。。。
・2021.05.03 中国 意見募集 顔認識に続けて、歩行認識、音声認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
・2021.04.22 ドイツ連邦情報セキュリティ局 (BSI) が安全なAI導入のための対策をまとめていますね。。。
・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
・2021.03.14 CNIL 乗客のマスク着用率を測定するためのインテリジェントビデオの使用に関する法令についての意見を公表
・2021.02.05 カナダのプライバシーコミッショナーが顔認識ソフトウェアを提供するClearview AIについての声明を出していますね。。。
・2021.01.30 欧州評議会 108号条約委員会が「顔認証に関するガイドライン」を採択しましたね。。。
・2021.01.12 欧州委員会 市民イニシアティブとして「生体認証による大量監視慣行の禁止」を登録
・2021.01.04 ニューヨーク州 知事が学校での顔認識技術の使用を一時停止し、研究を指示する法律に署名 at 2020.12.22
・2020.11.04 カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)
・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。
・2020.06.14 IBM, Amazon, Microsoftは顔認証システムを米国の警察には販売しない
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
・2020.03.26 JVNVU#99619336 勾配降下法を使用する機械学習モデルに、誤った識別をさせるような入力を作成することが可能な問題
・2020.03.04 FIRST EVER DECISION OF A FRENCH COURT APPLYING GDPR TO FACIAL RECOGNITION
・2020.02.17 遠くからでもわかる顔認識システム!
ぐっと遡って、2005年
・2005.08.11 外務省 IC旅券調査研究報告書
・2005.02.04 監視社会と信頼関係
序文の仮対訳
Introduction | はじめに |
Over the past decade, progress in machine learning and sensors has fuelled the development of facial recognition technology (FRT) – a biometric technology capable of providing a score-based list of potential matches or verifying a person’s identity by comparing and analysing patterns based on that person’s facial features. This has led to its rapid adoption in various industries, including law enforcement, transportation, healthcare and banking. | 過去10年間、機械学習とセンサーの進歩により、顔認識技術が開発されてきました。顔認識技術とは、顔の特徴に基づくパターンを比較・分析することで、一致する可能性のある人物のリストをスコアベースで提供したり、その人物の身元を確認したりすることができるバイオメトリクス技術です。この技術は、法執行機関、交通機関、医療機関、銀行など様々な業界で急速に普及しています。 |
The development of FRT presents considerable opportunities for socially beneficial uses, mostly through enhanced authentication and identification processes, but it also creates unique challenges. To fully grasp these challenges and the trade-offs they may entail and to build appropriate governance processes, it is necessary to approach FRT deployment through specific use cases. Indeed, passing through an airport border control with face identification, using face-based advertising in retail, or employing facial recognition solutions for law enforcement investigations involves very different benefits and risks. | 顔認識技術の開発は、主に認証・識別プロセスの強化を通じて、社会的に有益な利用の機会を提供しますが、同時に独自の課題も生み出します。これらの課題とそれに伴うトレードオフを十分に把握し、適切なガバナンスプロセスを構築するためには、具体的なユースケースを通して顔認識技術の展開にアプローチする必要があります。実際、顔認証で空港の国境管理を通過するのと、小売店で顔を使った広告を使うのと、法執行機関の捜査に顔認証ソリューションを採用するのとでは、メリットもリスクも大きく異なります。 |
To ensure the trustworthy and safe deployment of this technology across use cases, the World Economic Forum has spearheaded a global and multistakeholder policy initiative to design robust governance frameworks. The Forum launched the first workstream in April 2019, focusing on flow management applications1 – replacing tickets with facial recognition to access physical premises or public transport, such as train platforms or airports. This workstream is now in the pilot stage with the release of a tested assessment questionnaire by Tokyo-Narita Airport, an audit framework and a certification scheme2 co-designed with AFNOR Certification (Association française de normalisation). | この技術をユースケースに応じて信頼性高く安全に展開するために、世界経済フォーラムは、強固なガバナンスフレームワークを設計するためのグローバルかつマルチステークホルダーの政策イニシアチブを率先して行っています。フォーラムは2019年4月に最初のワークストリームを立ち上げ、鉄道のプラットフォームや空港などの物理的な施設や公共交通機関にアクセスするためのチケットを顔認証に置き換えるフロー管理アプリケーション1に焦点を当てました。このワークストリームは、東京成田空港によるテスト済みの評価アンケート、監査フレームワーク、AFNOR認証(Association française de normalisation)と共同設計した認証スキーム2を公開し、パイロット段階に入っています。 |
In November 2020, the second workstream was started, focused on the law enforcement use case – identifying a person by comparing a probe image to one or multiple reference databases to advance a police investigation. While law enforcement has been using biometric data, such as fingerprints or DNA, to conduct investigations, facial recognition technology represents a new opportunity for law enforcement but also a new challenge. | 2020年11月には、法執行機関のユースケース(警察の捜査を進めるために捜査用画像を1つまたは複数の参照データベースと比較して人物を特定する)に焦点を当てた第2のワークストリームが開始されました。法執行機関はこれまでも指紋やDNAなどのバイオメトリクスデータを利用して捜査を行ってきましたが、顔認証技術は法執行機関にとって新たな機会であると同時に、新たな課題でもあります。 |
This use case raises multiple public concerns because of the potentially devastating effects of system errors or misuses in this domain. | このユースケースでは、この領域でのシステムエラーや誤用が壊滅的な影響を及ぼす可能性があるため、複数の公的な懸念が生じます。 |
A study conducted in 2019 by the National Institute of Standards and Technology (NIST) showed that, although some facial recognition technologies had “undetectable” differences in terms of accuracy across racial groups, other facial recognition algorithms can exhibit performance deficiencies based on demographic characteristics such as gender and race.3 Law enforcement agencies must be aware of these potential performance deficiencies and implement appropriate governance processes to mitigate them. In doing so, they would limit the risk of false recognitions and possible wrongful arrests of individuals identified by facial recognition systems.4 Failure to build such processes could have dramatic consequences. In 2018 in the US, for example, an innocent African American man was arrested and held in custody as a result of being falsely recognized as a suspect in a theft investigation in which facial recognition technology was used.5 In addition to hampering rights such as the presumption of innocence, the right to a fair trial and due process, the use of FRT by law enforcement agencies can also undermine freedom of expression, freedom of assembly and association, and the right to privacy.6 | 米国国立標準技術研究所(NIST)が2019年に実施した調査によると、顔認識技術の中には、人種間で精度に「検出できない」差があるものもあるが、他の顔認識アルゴリズムでは、性別や人種などの人口統計学的特性に基づいて性能欠陥が生じる可能性があることが示された3。法執行機関は、こうした潜在的な性能欠陥を認識し、それを軽減するための適切なガバナンスプロセスを導入する必要がある。そうすることで、顔認証システムで識別された個人の誤認識や誤認逮捕の可能性を抑えることができます4。このようなプロセスの構築に失敗すると、劇的な結果を招く可能性があります。例えば、2018年に米国では、顔認証技術が使用された窃盗事件の捜査で、無実のアフリカ系アメリカ人男性が容疑者と誤認された結果、逮捕・拘留されました5。法執行機関による顔認識技術の使用は、推定無罪、公正な裁判を受ける権利、デュープロセスなどの権利を阻害するだけでなく、表現の自由、集会・結社の自由、プライバシーの権利をも損なう可能性があります6。 |
These concerns have led to global intensified policy activity. In the US alone, some local and state governments have banned the use of FRT by public agencies, including law enforcement. Major cities such as San Francisco, Oakland and Boston have adopted such measures. At the state level, Washington,7 Virginia8 and Massachusetts9 have introduced legislation to regulate its use. Finally, at the federal level, various bills10 have been proposed to regulate FRT but none of them has been adopted to this date. | このような懸念から、世界的に政策活動が活発化しています。米国だけでも、いくつかの地方自治体や州政府が、法執行機関を含む公的機関による顔認識技術の使用を禁止しています。サンフランシスコ、オークランド、ボストンなどの主要都市がこのような措置をとっています。州レベルでは、ワシントン州7、バージニア州8、マサチューセッツ州9が、顔認識技術の使用を規制する法律を導入しています。最後に、連邦レベルでは、顔認識技術を規制するための様々な法案10が提案されていますが、現在までに採択されたものはありません。 |
Furthermore, large US technology companies have also formulated positions on this topic. Last year, IBM announced that it will no longer offer, develop or research FRT, while Microsoft pledged to stop selling FRT to law enforcement agencies in the US until federal regulation was introduced.11 More recently, Amazon Web Services (AWS) has extended its moratorium on police use of its platform Rekognition, which it originally imposed last year.12 | さらに、米国の大手テクノロジー企業も、このテーマについて見解を示しています。昨年、IBMは顔認識技術の提供、開発、研究を行わないことを発表し、マイクロソフトは連邦規制が導入されるまで米国内の法執行機関への顔認識技術の販売を中止することを約束しました11。最近では、アマゾンウェブサービス(AWS)が、昨年実施した自社プラットフォーム「Rekognition」の警察での使用に関するモラトリアムを延長しました12。 |
In other jurisdictions, policy-makers are attempting to limit police use of FRT to very specific use cases associated with robust accountability mechanisms to prevent potential wrongful arrests. That is the direction proposed by the European Commission (EC), which recently released its draft of an Artificial Intelligence Act13 – a comprehensive regulatory proposal that classifies AI applications under four distinct categories of risks subject to specific requirements.14 This proposal includes provisions on remote biometric systems, which include facial recognition technology. It states that AI systems intended to be used for the “real-time” and “post” remote biometric identification of natural persons represent high-risk applications and would require an ex-ante conformity assessment of tech providers before getting access to the EU market and an expost conformity assessment while their systems are in operation. Moreover, “real-time” remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement are prohibited unless they serve very limited exceptions related to public safety (e.g. the prevention of imminent terrorist threats or a targeted search for missing persons). In order to enter into force, however, the EC’s proposal will first need to be adopted by the EU parliament and the Council of the European Union. | 他の法域では、政策立案者は、警察による顔認識技術の使用を、潜在的な誤認逮捕を防ぐための強固な説明責任メカニズムに関連した非常に特殊なユースケースに限定しようとしています。これは、欧州委員会(EC)が最近発表した人工知能法(Artificial Intelligence Act)の草案13で、AIアプリケーションを4つの異なるリスクカテゴリーに分類し、特定の要件を課す包括的な規制案です14。この提案には、顔認識技術を含む遠隔生体認証システムに関する規定が含まれています。この提案には、顔認識技術を含む遠隔生体認証システムに関する条項が含まれており、自然人の「リアルタイム」および「ポスト」の遠隔生体認証に使用されることを意図したAIシステムは、高リスクのアプリケーションであり、技術提供者がEU市場にアクセスする前に事前適合性評価を行い、そのシステムが稼働している間に事後適合性評価を行う必要があるとしています。さらに、法執行を目的とした公共のアクセス可能な空間での「リアルタイム」の遠隔生体認証システムは、公共の安全に関連した非常に限定された例外(差し迫ったテロの脅威の防止や行方不明者の重点的な捜索など)に役立てる場合を除き、禁止されています。ただし、ECの提案が発効するためには、まずEU議会とEU理事会で採択される必要があります。 |
At the United Nations, a similar approach is emerging, with the Office of the High Commissioner for Human Rights (OHCHR) recently presenting a report to the Human Rights Council on the right to privacy in the digital age, in which it recommends banning AI applications that cannot be used in compliance with international human rights law. With specific respect to the use of FRT by law enforcement, national security, criminal justice and border management, the report stated that “remote biometric recognition dramatically increases the ability of State authorities to systematically identify and track individuals in public spaces, undermining the ability of people to go about their lives unobserved and resulting in a direct negative effect on the exercise of the rights to freedom of expression, of peaceful assembly and of association, as well as freedom of movement”. The report also reiterates calls for a moratorium on the use of remote biometric recognition in public spaces, at least until authorities can demonstrate that there are no significant issues with accuracy or discriminatory impacts, and that these AI systems comply with robust privacy and data protection standards. | 国連でも、同様のアプローチが見られます。最近、人権高等弁務官事務所(OHCHR)は、デジタル時代のプライバシー権に関する報告書を人権理事会に提出し、国際人権法を遵守して使用できないAIアプリケーションを禁止することを提言しています。報告書では、法執行機関、国家安全保障、刑事司法、国境管理における顔認識技術の利用に関して、「遠隔生体認証は、国家当局が公共空間で個人を体系的に識別し追跡する能力を飛躍的に高め、人々が監視されずに生活する能力を損ない、表現の自由、平和的集会、結社の自由、移動の自由の権利の行使に直接的な悪影響を及ぼす」と述べています。この報告書では、少なくとも当局が、精度や差別的な影響に関する重大な問題がないこと、およびこれらのAIシステムが強固なプライバシーおよびデータ保護基準に準拠していることを証明するまでは、公共の場での遠隔生体認証の使用を一時停止することを改めて求めています。 |
Court decisions can also play an important role in shaping the policy agenda on FRT, as illustrated in Brazil. Recently, The São Paulo Court of Justice has blocked15 the deployment of facial recognition in the public transport system. This is perceived as a major victory by civil rights organizations opposing the increasing use of FRT by public agencies. In a similar case in the UK, the Court of Appeal found that the deployment of automated facial recognition by the South Wales Police – at certain events and public locations where crime was considered likely to occur – to identify wanted persons was unlawful.16 | ブラジルの例に見られるように、裁判所の判決もまた、顔認識技術に関する政策課題の形成に重要な役割を果たします。最近では、サンパウロ裁判所が、公共交通機関への顔認証システムの導入を禁止しました15。これは、公共機関による顔認識技術の利用拡大に反対する市民権団体の大きな勝利と受け止められています。英国の同様のケースでは、控訴裁判所が、犯罪が発生する可能性が高いと考えられる特定のイベントや公共の場所で、指名手配者を特定するためにサウスウェールズ警察が自動顔認識を導入したことは違法であると判断しました16。 |
In some countries, governments have adopted a cautious approach. That’s the case in the Netherlands. In 2019, the Minister of Justice and Security addressed a letter to MPs informing them about the existing uses of FRT by law enforcement agencies and reaffirming his support for robust governance processes in relation to this sensitive technology.17 Further, he argued that the existing legal framework and safeguards (technical and organizational) are sufficiently robust to ensure the responsible use of FRT by law enforcement agencies. Yet, he requested additional privacy, ethical and human rights impact assessments before authorizing any more pilots. | 国によっては、政府が慎重に対応しているところもあります。それは、オランダの場合です。2019年、法務・安全保障大臣は国会議員に宛てた書簡で、法執行機関による顔認識技術の既存の使用について知らせ、このセンシティブな技術に関連する強固なガバナンスプロセスへの支持を再確認しました17。さらに、既存の法的枠組みとセーフガード(技術的および組織的)は、法執行機関による顔認識技術の責任ある使用を保証するのに十分なほど強固であると主張しました。しかし、彼は、さらなるパイロットを許可する前に、プライバシー、倫理、人権への影響を評価することを要求しました。 |
Despite these important developments, most governments around the world are still grappling with the challenge of regulating FRT. The ambition of this work is to support law- and policymakers across the globe to design an actionable governance framework that addresses key policy considerations in terms of the prevention of untargeted surveillance, the necessity of a specific purpose, the performance assessment of authorized solutions, the procurement processes for law enforcement agencies, the training of professional forensic examiners, and the maintenance of the chain of command for emergency situations. | このような重要な進展にもかかわらず、世界中のほとんどの政府は、顔認識技術を規制するという課題に取り組んでいます。本研究の目的は、世界中の法律家や政策立案者を支援し、対象外の監視の防止、特定目的の必要性、認可されたソリューションの性能評価、法執行機関の調達プロセス、プロのフォレンジック検査官の訓練、緊急事態のための指揮系統の維持など、重要な政策的検討事項に対応する実用的なガバナンスの枠組みを設計することです。 |
To achieve this goal, a multistakeholder community centred around the International Criminal Police Organization (INTERPOL), the United Nations Interregional Crime and Justice Research Institute (UNICRI) and the Netherlands Police has co-designed a set of principles for action that defines what constitutes the responsible use of facial recognition for law enforcement investigations and a self-assessment questionnaire that details the requirements that law enforcement agencies must respect to ensure compliance with the principles for action. | この目標を達成するために、国際刑事警察機構(INTERPOL)、国連地域間犯罪司法研究所(UNICRI)、オランダ警察を中心としたマルチステークホルダー・コミュニティは、法執行機関の捜査のために顔認証を責任を持って使用するための条件を定義した行動原則と、行動原則の遵守を保証するために法執行機関が尊重しなければならない要件を詳述した自己評価アンケートを共同で策定しました。 |
This governance framework was designed with the same ambition the World Economic Forum adopted for its first facial recognition workstream on flow management applications: namely, to inform the public debate on the use of facial recognition technologies at the national, regional and international levels and provide an actional framework to maximize the benefits of FRT while mitigating its risks. The governance framework remains to be tested, however, before its potential large-scale adoption. As such, it is highly recommended that law enforcement agencies, in partnership with civil society representatives, policymakers and academics, engage with this initiative to strengthen and test the governance framework and ensure the greatest impact possible. | このガバナンス・フレームワークは、世界経済フォーラムが、フロー・マネジメント・アプリケーションに関する最初の顔認識ワークストリームで採用したのと同じ目的で設計されています。すなわち、国、地域、国際レベルでの顔認識技術の使用に関する公的な議論に情報を提供し、顔認識技術のリスクを軽減しつつメリットを最大化するための行動の枠組みを提供することです。しかし、このガバナンス・フレームワークは、大規模な採用の可能性がある前に、まだテストされていません。そのため、法執行機関は、市民社会の代表者、政策立案者、学者と協力して、ガバナンスの枠組みを強化・検証し、可能な限り最大の効果を得るために、このイニシアチブに参加することを強く推奨します。 |
1. World Economic Forum, A Framework for Responsible Limits on Facial Recognition: Use Case: Flow Management, 2020: https://www.weforum.org/whitepapers/a-framework-for-responsible-limits-on-facial-recognition-use-case-flowmanagement (link as of 16/8/21).
2. World Economic Forum, Responsible Limits on Facial Recognition: Use Case: Flow Management – Part II, 2020: https://www.weforum.org/whitepapers/responsible-limits-on-facial-recognition-use-case-flow-management (link as of 16/8/21).
3. NISTIR 8280, Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects, 2019: https://www.nist.gov/publications/ face-recognition-vendor-test-part-3-demographic-effects (link as of 16/8/21).
4. Ibid.
5. Bobby Allyn, “‘The Computer Got It Wrong’: How Facial Recognition Led to False Arrest of Black Man”, npr, 24 June 2020: https://www.npr.org/2020/06/24/882683463/the-computer-got-it-wrong-how-facial-recognition-led-to-a-falsearrest-in-michig (link as of 18/8/21).
6. ACLU, The Dawn of Robot Surveillance: AI, Video Analytics, and Privacy, 2019: https://www.aclu.org/report/dawn-robotsurveillance (link as of 16/8/21).
7. Monica Nickelsburg, “Washington State Passes Landmark Facial Recognition Bill, Reining in Government Use of AI”, GeekWire, 13 March 2020: https://www.geekwire.com/2020/washington-state-passes-landmark-facial-recognition-billreining-government-use-ai/ (link as of 16/8/21).
8. Bill Atkinson, “Virginia to Enact Statewide Ban on Facial Recognition Use”, Government Technology, 9 April 2021: https://www.govtech.com/public-safety/virginia-to-enact-statewide-ban-on-facial-recognition-use.html (link as of 16/8/21).
9. Emma Peaslee, “Massachusetts Pioneers Rules for Police Use of Facial Recognition Tech”, NPR, 7 May 2021: https://www.npr.org/2021/05/07/982709480/massachusetts-pioneers-rules-for-police-use-of-facial-recognitiontech?t=1623343113224 (link as of 16/8/21).
10. iapp, “Will There Be Federal Facial Recognition Regulation in the US?”, 11 February 2021: https://iapp.org/news/a/u-sfacial-recognition-roundup/ (link as of 16/8/21).
11. Rebecca Heilweil, “Big Tech Companies Back Away from Selling Facial Recognition to Police. That’s Progress”, Vox, 11 June 2020: https://www.vox.com/recode/2020/6/10/21287194/amazon-microsoft-ibm-facial-recognition-moratoriumpolice (link as of 16/8/21).
12. Amazon, “We Are Implementing a One-Year Moratorium on Police Use of Rekognition” 10 June 2020: https://www.aboutamazon.com/news/policy-news-views/we-are-implementing-a-one-year-moratorium-on-police-use-ofrekognition (link as of 16/8/21).
13. EUR-Lex, Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence, 21 April 2021: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence (link as of 16/8/21).
14. Jorge Liboreiro, “‘The Higher the Risk, the Stricter the Rule’: Brussels’ New Draft Rules on Artificial Intelligence”, euronews, 21 April, 2021: https://www.euronews.com/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-newdraft-rules-on-artificial-intellige (link as of 16/8/21).
15. accessnow, “Privacy Win for 350,000 People in São Paulo: Court Blocks Facial Recognition Cameras in Metro”, 12 May 2021: https://www.accessnow.org/sao-paulo-court-bans-facial-recognition-cameras-in-metro/ (link as of 16/8/21).
16. In the Court of Appeal (Civil Division) on appeal from the High Court of Justice of Queen’s Bench Division (Administrative Court): https://www.judiciary.uk/wp-content/uploads/2020/08/R-Bridges-v-CC-South-Wales-ors-Judgment.pdf.
17. Rijksoverheid, “Letter of the Minister of Justice and Security of the Netherlands to MPs to Inform Them About the Use of Facial Recognition Technology by Law Enforcement Agencies (in Dutch), 20 November 2019: https://www.rijksoverheid.nl/documenten/kamerstukken/2019/11/20/tk-waarborgen-en-kaders-bij-gebruik-gezichtsherkenningstechnologie
提案された原則の仮対訳
Proposed principles | 提案された原則 |
The first publicly shared principles for the responsible use of facial recognition technology for law enforcement investigations co-designed by a global community. | 法執行機関の捜査のために顔認識技術を責任を持って使用するための、グローバルコミュニティが共同で策定した初の公的共有原則。 |
1. Respect for human and fundamental rights | 1. 人権および基本的権利の尊重 |
1.1. Facial recognition technology (FRT) should be used only as part of a lawful criminal investigation such as to identify criminals/fugitives, missing persons, persons of interest and victims. | 1.1. 顔認識技術は、犯罪者/逃亡者、行方不明者、要注意人物、被害者を特定するためなど、合法的な犯罪捜査の一環としてのみ使用されるべきである。 |
1.2. The rights provided for within the International Bill of Rights and other relevant human rights treaties and laws should always be respected, particularly the right to human dignity, the right to equality and non-discrimination, freedom of expression, association and the right of peaceful assembly, the rights of the child and older persons, the rights of persons with disabilities, the rights of migrants, the rights of Indigenous people and minorities, and the rights of persons subjected to detention or imprisonment. The use of FRT by law enforcement for investigations should respect these rights and be necessary and proportionate to achieve legitimate policing aims. | 1.2. 国際人権章典およびその他の関連する人権条約や法律に定められた権利、特に人間の尊厳の権利、平等および無差別の権利、表現の自由、結社の自由、平和的集会の権利、児童および高齢者の権利、障害者の権利、移民の権利、先住民および少数民族の権利、抑留または投獄されている人の権利は、常に尊重されるべきである。捜査のための法執行機関による顔認識技術の使用は、これらの権利を尊重し、合法的な警察の目的を達成するために必要かつ比例的であるべきである。 |
1.3. Law enforcement agencies should be subject to effective oversight by bodies with effective enforcement powers and in accordance with national laws or policies. Among other things, these or other bodies should have the specific task of hearing and following complaints from citizens and assessing the compliance of law enforcement activities with human and fundamental rights. | 1.3. 法執行機関は、実効的な執行権限を有する機関による、国内法または政策に従った実効的な監 視を受けるべきである。とりわけ、これらの機関または他の機関は、市民からの苦情を聴取し、それに従うとともに、法執行活動が人権および基本的権利を遵守しているかどうかを評価するという特定の任務を持つべきである。 |
1.4. Any individual should have the right to an effective remedy before an independent and impartial tribunal set up by law against actions concerning the use of FRT. | 1.4. すべての個人は、顔認識技術の使用に関する行為に対して、法律によって設置された独立かつ公平な法廷で効果的な救済を受ける権利を有するべきである。 |
2. Necessary and proportional use | 2. 必要かつ適切な使用 |
2.1. The decision to use facial recognition technology should always be guided by the objective of striking a fair balance between allowing law enforcement agencies to deploy the latest technologies, which are demonstrated to be accurate and safe, to safeguard individuals and society against security threats, and the necessity to protect the human rights of individuals. As a general principle, FRT should never be used without cause and need that otherwise would undermine human and fundamental rights. | 2.1. 顔認識技術を使用する決定は、個人と社会を安全保障上の脅威から守るために、正確かつ安全であることが実証されている最新技術を法執行機関が導入できるようにすることと、個人の人権を保護する必要性との間で、公平なバランスをとるという目的に基づいて常に行われるべきである。一般原則として、顔認識技術は、人間の基本的権利を損なうような理由と必要性がない限り、決して使用されるべきではない。 |
2.2. Law enforcement agencies considering the use of facial recognition technology should always provide a documented and justified argument as to why FRT is the chosen option and why other less intrusive options are not a chosen solution. | 2.2. 顔認識技術の使用を検討している法執行機関は、なぜ顔認識技術が選択されたのか、なぜ他のより侵入性の低い選択肢が選択されないのかについて、常に文書化された正当な論拠を示すべきである。 |
2.3. The use of FRT by law enforcement agencies should always be aimed at, and limited to, a single specific goal, necessarily related to investigative purposes. | 2.3. 法執行機関による顔認識技術の使用は、常に捜査目的に関連した単一の特定の目標を目的とし、それに限定されるべきである。 |
2.4. International, regional and national policies and/or laws should specify for which classes of crimes or investigations the use of FRT by law enforcement agencies is acceptable and/or lawful. | 2.4. 国際的、地域的及び国家的な政策及び/又は法律は、法執行機関による顔認識技術の使用が、 どのような種類の犯罪又は捜査に対して許容され、かつ/又は合法的であるかを規定すべきである。 |
2.5. Acknowledging the right to privacy and other human rights, the collection of images from public and publicly accessible spaces for FRT identification purposes should be done only for a determined list of use cases, in a limited area and for an established processing time period in accordance with relevant national laws or policies. | 2.5. プライバシー権その他の人権を認めた上で、顔認識技術識別目的のための公共及び公的にアクセス可能な空間からの画像の収集は、関連する国の法律又は政策に従って、限定された地域で、定められた処理期間中に、決められたユースケースのリストに対してのみ行われるべきである。 |
2.6. The use of facial recognition technology for identification purposes (with the exception of situations of emergency presented in 2.7) should always be conducted by an individual trained as described in 7.1 and the process independently reviewed/performed by a second blind analysis procedure undertaken by another officer. The outcome should be the conclusions of the two analyses, and the most conservative one reported to the investigation team as the final result. | 2.6. 本人確認を目的とした顔認証技術の使用(2.7に示す緊急時を除く)は、常に7.1に記載された訓練を受けた個人によって行われ、そのプロセスは、別の警察官によって行われた第2のブラインド分析手順によって独立してレビュー/実行されるべきである。結果は2つの分析の結論であり、最も保守的なものが最終結果として調査チームに報告されるべきである。 |
2.7. The use of “real-time” facial recognition technology for identification purposes for the prevention of a specific, substantial and imminent threat to the life or physical safety of natural persons or of a terrorist attack represents the most sensitive use case. The imperative to act fast can, exceptionally, necessitate using FRT systems without the outcome undergoing expert verification. The system would automatically provide a proposed match based on live CCTV footage from public areas of interest. Law enforcement patrols should use this proposed candidate only to verify this individual’s identity and conduct additional verifications, if necessary. As a consequence, acknowledging the risks involved in this exceptional emergency situation, an independent authority should be in charge of authorizing this application and, if there is not enough time, it should be authorized by the chain of command. In this case, the chain of command should inform and justify the decision to the independent authority as soon as possible and not later than 24 hours. All processed images should be permanently deleted from the FRT system unless they have led to a match. | 2.7. 自然人の生命や身体の安全に対する特定の、実質的かつ差し迫った脅威、またはテロ攻撃の防止のために、本人確認を目的とした「リアルタイム」の顔認識技術の使用は、最もセンシティブなユースケースである。迅速な対応が求められるため、例外的に、専門家の検証を受けずに顔認識技術システムを使用する必要がある場合があります。このシステムは、対象となる公共エリアのライブCCTV映像に基づいて、自動的に照合結果を提供します。法執行機関のパトロールでは、この候補者を使って本人確認を行い、必要に応じて追加の検証を行います。結果として、この例外的な緊急事態に伴うリスクを認識し、独立した機関がこの申請を承認する責任を負うべきであり、十分な時間がない場合は、指揮系統によって承認されるべきである。この場合、指揮系統は可能な限り速やかに、かつ24時間以内に独立した権限者にその決定を通知し、正当化しなければならない。処理された全ての画像は、照合に至った場合を除き、顔認識技術 システムから永久に削除されるべきである。 |
2.8. FRT, and other face analysis technologies, should be used for no purpose other than biometric identification/recognition/verification. The use of FRT to infer ethnicity, gender, sex, age, emotion, opinion, health status, religion and sexual orientation, and the use of FRT for predictive analysis, should not be permitted. | 2.8. 顔認識技術およびその他の顔分析技術は、バイオメトリクスによる識別/認識/検証以外の目的で使用してはならない。民族、性別、年齢、感情、意見、健康状態、宗教、性的指向を推測するための顔認識技術の使用、および予測分析のための顔認識技術の使用は認められないものとします。 |
3. Transparency | 3. 透明性 |
3.1. Law enforcement agencies should make public: | 3.1. 法執行機関は以下を公開すべきである。 |
3.1.1. The vendor selected (if applicable), the name and version of the software, and disclosure of all software developers (including those for the core FRT, image handling, post processing, GUI displays and systems integration). | 3.1.1. 選定されたベンダー(該当する場合)、ソフトウェアの名称とバージョン、全ソフトウェア開発者(顔認識技術のコア部分、画像処理、後処理、GUI表示、システムインテグレーションの開発者を含む)の開示。 |
3.1.2. A clear definition of the use of FRT for law enforcement investigations, specifying the purpose and objectives such as identifying criminals/fugitives, persons of interest, missing persons and victims. | 3.1.2. 法執行機関の捜査のための顔認識技術の利用についての明確な定義。犯罪者/逃亡者、関心のある人物、行方不明者、犠牲者の特定などの目的・目標を明示すること。 |
3.1.3. The use of probe images: procedures and criteria to select, store/not store images, and if stored, for how long. | 3.1.3. 探傷用画像の使用:画像を選択する手順と基準、保存するかしないか、保存する場合はどのくらいの期間保存するか。 |
3.1.4. The use of reference database: procedures to consult the database, and criteria to select, store/not store probe images in this reference database, and if stored, for how long; as well as procedures for determining whether any machine learning can be conducted on that data, including training, learning and model refinement. | 3.1.4. 参照データベースの使用:データベースを参照する手順、捜査用画像を選択する基準、この参照データベースに保存する/しない、保存する場合はどのくらいの期間保存するか、また、トレーニング、学習、モデルの改良など、そのデータに対して機械学習を行うことができるかどうかを判断する手順。 |
3.1.5. The type of data-sharing with other organizations. | 3.1.5. 他の組織とのデータ共有の種類。 |
3.1.6. The name of departments able to launch searches and view results of searches. | 3.1.6. 検索を開始したり、検索結果を閲覧したりすることができる部署の名称。 |
3.1.7. Information about human oversight and accountability (see 4.1 to 4.5) and the mechanisms in place to ensure FRT is used as intended. | 3.1.7. 人間による監視と説明責任に関する情報(4.1~4.5参照)、および顔認識技術が意図された通りに使用されていることを保証するために設置されているメカニズム。 |
3.1.8. The seniority threshold of law enforcement officials who have access to FRT and the chain of command for the use of FRT. | 3.1.8. 顔認識技術にアクセスできる法執行官の年功序列、及び顔認識技術の使用に関する指揮系統。 |
3.1.9. Results of evaluations of the effectiveness of the FRT conducted by the vendor of the technology (for each evaluation, a description of (1) the design of the evaluation, (2) the data used in the evaluation, and (3) the results (metrics) obtained). | 3.1.9. 技術ベンダーが実施した顔認識技術の有効性の評価結果(各評価について、(1)評価の設計、(2)評価に使用したデータ、(3)得られた結果(メトリクス)の説明)。 |
3.1.10. Results of evaluations of the effectiveness of the FRT conducted by the law enforcement agency (for each evaluation, a description of (1) the design of the evaluation, (2) the data used in the evaluation, and (3) the results (metrics) obtained). | 3.1.10. 法執行機関が実施した顔認識技術の有効性に関する評価結果(各評価について、(1)評価の設計、(2)評価に使用したデータ、(3)得られた結果(メトリクス)の記述)。 |
3.1.11. A record of complaints filed by members of the public against the use of the FRT and the law enforcement agency’s response of those formal complaints. | 3.1.11. 顔認識技術 の使用に対して一般市民が提出した苦情の記録と、それらの正式な苦情に対する法執行機関の対応。 |
3.1.12. Auditable records of search requests made by law enforcement. | 3.1.12. 法執行機関が行った検索要求の監査可能な記録。 |
3.1.13. Any other information necessary for the public to ensure law enforcement’s compliance with the relevant obligations, including how an individual could contact law enforcement to submit a query or complaint. | 3.1.13. 法執行機関が関連する義務を遵守していることを一般市民が確認するために必要なその他の情報(個人が問い合わせや苦情を提出するために法執行機関に連絡する方法を含む。 |
3.2. Law enforcement agencies should provide information to the public regarding the use of FRT. Information provided to the public should be concise, easily accessible, understandable and provided in a clear and plain language. Exceptions to this should be permitted only if they are necessary and proportionate to pursue legitimate purposes and in accordance with the law. | 3.2. 法執行機関は、顔認識技術の使用に関して一般市民に情報を提供すべきである。一般市民に提供される情報は、簡潔で、容易にアクセスでき、理解しやすく、明確で平易な言葉で提供されるべきである。これに対する例外は、正当な目的を追求するために必要かつ比例的であり、法律に従っている場合にのみ認められるべきである。 |
4. Human oversight and accountability | 4. 人間による監視と説明責任 |
4.1. Lines of responsibility for the outcome of a given use of FRT should be well defined and transparent. A law enforcement agency should never issue analysis and conclusions from FRT without interpretation by an examiner and oversight by a manager with the right expertise (with the unique exception described in 2.7). | 4.1. 与えられた顔認識技術の使用の結果に対する責任の所在は、明確に定義され、透明でなければならない。法執行機関は、審査官による解釈及び適切な専門知識を有する管理者による監視なしに、顔認識技術からの分析及び結論を決して発行すべきではない(2.7に記載された特異な例外を除く)。 |
4.2. The skills of facial examiners are critical and necessary to maintain the highest level of accuracy in the identification process. | 4.2. 顔面検査官の技能は、身元確認プロセスにおいて最高レベルの正確さを維持するために重要かつ必要である。 |
4.3. A peer review (blind verification or examination by a second expert) should systematically be performed before any positive result communicated to the requesting investigation team. The provided end result should always be consensus-based, and the most conservative conclusion of the two should prevail. | 4.3. 依頼した捜査チームに肯定的な結果が伝えられる前に、ピア・レビュー(第2の専門家によるブラインド検証または検査)が体系的に行われるべきである。提示された最終結果は常にコンセンサスに基づくものであり、2つのうち最も保守的な結論が優先されるべきである。 |
4.4. The law enforcement agency should ensure a mechanism exists whereby citizens can file a complaint with or seek redress from an oversight body as designated by national policies. | 4.4. 法執行機関は、市民が国の政策で指定された監視機関に苦情を申し立てたり、救済を求めたりすることができるメカニズムが存在することを保証すべきである。 |
4.5. For anyone identified using an FRT system, that person must be informed that he/she was subject to such a search/that an FRT system was used to identify them, if they are subsequently taken into custody, brought in as a witness, or have any other official role in a law enforcement process based on their face via the FRT system. | 4.5. 顔認識技術システムを使用して識別された者については、その者は、その後、顔認識技術システムを通じた顔に基づいて、身柄を拘束されたり、証人として連行されたり、あるいは法執行プロセスにおいて他の公的役割を担うことになった場合には、そのような検索の対象となったこと/顔認識技術システムがその者の識別に使用されたことを知らされなければならない。 |
5. System performance | 5. システムパフォーマンス |
5.1. Organizations providing facial recognition technology should follow standards for evaluating the accuracy and performance of their algorithms at the design (lab test) and deployment (if and when possible, field test) stages. | 5.1. 顔認識技術を提供する組織は、設計(ラボ・テスト)および展開(可能な場合はフィールド・テスト)の段階で、アルゴリズムの精度および性能を評価するための基準に従うべきである。 |
5.2. Law enforcement agencies should require vendors to submit their algorithms to large-scale independent testing undertaken against appropriate test standards (lab tests and, if possible, field tests) and select providers who can demonstrate the efficiency of the algorithm follows standards of performance. | 5.2. 法執行機関は、ベンダーに対し、適切なテスト基準(ラボ・テスト、可能であればフィールド・テスト)に照らして実施される大規模な独立テストにアルゴリズムを提出し、アルゴリズムの効率性が性能基準に従っていることを証明できるプロバイダーを選択するよう求めるべきである。 |
5.3. Due diligence with respect to system performance should be undertaken by reference to large-scale independent tests, such as those conducted by NIST in the USA. These tests provide a scientifically robust, transparent baseline of performance. | 5.3. システムの性能に関するデューデリジェンスは、米国の NIST が実施しているような大規模な独立したテストを参照して行われるべきである。これらのテストは、科学的に堅牢で透明性のある性能の基準を提供するものである。 |
5.4. Validations of the performance of the FRT shall be designed to model, as closely as practical, the realworld objectives and conditions (including, e.g. data landscape, operators of the technology, timetables affecting decisions made using the technology) in which the FRT would in practice be applied. | 5.4. 顔認識技術の性能の検証は、顔認識技術が実際に適用されるであろう現実世界の目的及び条件(デ ータランドスケープ、技術の運用者、技術を用いた意思決定に影響を与えるタイムテーブル等を含 む)を、実用に近い形でモデル化するように設計されなければならない。 |
5.5. To leverage accuracy gains, law enforcement agencies should expect to make, and establish procedures for, regular upgrades or replacement of the FRT. | 5.5. 精度の向上を活用するために、法執行機関は、顔認識技術の定期的なアップグレードまたは 交換を行い、そのための手順を確立することを期待すべきである。 |
6. Risk-mitigation strategies | 6. リスク軽減のための戦略 |
6.1. The risk of error and bias by machines and humans should be mitigated to the greatest extent possible. This should be done through an ex-ante and ex post evaluation strategy: | 6.1. 機械と人間によるエラーとバイアスのリスクは、可能な限り軽減されるべきである。これは、事前および事後の評価戦略を通じて行われるべきである。 |
6.1.1. Ex ante evaluations: technology providers, and when it applies, technology integrators, should ensure biases and errors are mitigated to the greatest extent before the deployment of the system by law enforcement agencies. The level of performance, and the design of the quality management system (which includes the quality of the risk management processes) should be evaluated by an independent third party. This evaluation should be organized by the technology provider, and when it applies, the technology integrator, and the results made available to law enforcement agencies that procure FRT and to the public for review. Law enforcement agencies that procure FRT should add to their procurement criteria the specific metrics the provider uses to gauge bias (as well as other relevant risks), the results of any evaluations conducted to estimate the performance of the provider’s FRT on those metrics and the results of any evaluations of the performance of the system. Before deploying FRT systems, law enforcement agencies should set up pilot tests to ensure the system is operating as intended. | 6.1.1. 事前評価:技術提供者、および該当する場合には技術統合者は、法執行機関がシステ ムを展開する前に、バイアスとエラーが最大限に緩和されていることを確認すべきである。性能のレベル、及び品質管理システムの設計(リスク管理プロセスの品質を含む)は、独立した第三者によって評価されるべきである。この評価は、技術提供者、および適用される場合には技術統合者によって組織され、その結果は、顔認識技術を調達する法執行機関および一般市民のレビューに供されるべきである。顔認識技術を調達する法執行機関は、その調達基準に、提供者が偏り(およびその他の関連するリスク)を測るために使用する特定の測定基準、それらの測定基準上で提供者の顔認識技術の性能を推定するために実施された評価の結果、およびシステムの性能に関する評価の結果を加えるべきである。顔認識技術システムを展開する前に、法執行機関は、システムが意図されたとおりに動作することを確 認するためのパイロットテストを設定すべきである。 |
6.1.2. Ex post evaluations: law enforcement agencies – if needed, with the support of competent authorities – should deploy risk mitigation processes to identify, monitor and mitigate the risks of error and biases throughout the entire life cycle of the system. A regularly programmed internal audit (that would include the use of the self-assessment questionnaire related to these principles), and if possible, an independent third-party audit, should be conducted to validate the robustness of these processes. The conclusions of these audits should be made publicly available. | 6.1.2. 事後評価:法執行機関は、必要であれば、所轄官庁の支援を得て、システムの全ライフサイク ルを通じてエラーやバイアスのリスクを特定、監視、軽減するためのリスク軽減プロセスを展開すべき である。これらのプロセスの堅牢性を検証するために、定期的にプログラムされた内部監査(本原則に関連する自己評価アンケートの使用を含む)、および可能であれば独立した第三者監査を実施すべきである。これらの監査の結論は、一般に公開されるべきである。 |
To continually improve the quality of the processes and the system’s performance, law enforcement agencies, technology integrators and technology providers should set up an internal control or, where the services of a technology provider are procured by law enforcement, establish an in-service support agreement throughout the entire life cycle of the system. | プロセスの質とシステムの性能を継続的に向上させるために、法執行機関、テクノロジー・インテグレーター、テクノロジー・プロバイダーは、内部統制を設定するか、テクノロジー・プロバイダーのサービスを法執行機関が調達する場合には、システムのライフサイクル全体を通してサービス中のサポート契約を確立すべきである。 |
7. Training of facial examiners | 7. 人相検査担当者の訓練 |
7.1. FRT should be used only by trained officers who follow the procedures ordered by the chain of command/management. Everybody within the organization, especially the chain of command/ management, should understand the capacities and limits of the system used. The training (and certification when it applies) of examiners, and the chain of command/management, should include: | 7.1. 顔認識技術は、指揮系統/管理者が命じた手順に従う訓練を受けた警官のみが使用すべきである。組織内の全員、特に指揮系統/管理者は、使用されるシステムの能力と限界を理解すべきである。検査官、及び指揮系統/管理者の訓練(及び適用される場合は認証)は以下を含むべきである。 |
7.1.1. Knowledge of and updates of possible mandatory regulations, laws or policies concerning the use of biometrics. | 7.1.1. バイオメトリクスの使用に関して考えられる義務的な規制、法律、又は政策についての知識及び最新情報。 |
7.1.2. Awareness of the risk of biases with the FRT system (anticipate false positives and false negatives, awareness of difference of performance on various demographics, know how to calibrate and adjust the threshold of the system, understand how to configure the system in the manner appropriate to the specific circumstances and risks of a given use case, and how to fix the length of the candidate lists). | 7.1.2. 顔認識技術 システムの偏りのリスクについての認識(偽陽性と偽陰性の予測、様々な人口統計上のパフォーマン スの違いの認識、システムの閾値の調整方法の理解、特定のユースケースの特定の状況とリ スクに適した方法でシステムを構成する方法の理解、候補者リストの長さを修正する方法)。 |
7.1.3. Understanding of the risk of false negative and false positive errors (overestimation of own capability, risk of over-reliance on technology, blind spots, risk of human bias such as otherrace-effect bias). | 7.1.3. 偽陰性および偽陽性エラーのリスクを理解していること(自身の能力の過大評価、技術への過度の依存のリスク、盲点、他力本願バイアスなどの人間のバイアスのリスク)。 |
7.1.4. Awareness of the risk of image manipulation, including data integrity attacks and data morphs, and the tools to identify them. | 7.1.4. データインテグリティ攻撃やデータモーフを含む画像操作のリスクに対する認識と、それらを識別するためのツール。 |
7.1.5. Collection, storage, integrity and traceability of data processes. | 7.1.5. データプロセスの収集、保存、完全性及びトレーサビリティ。 |
7.1.6. How to implement risk mitigation methodologies (one match vs. differential diagnosis approach, blinding techniques, blind verifications, etc.). | 7.1.6. リスク軽減方法の実施方法(ワンマッチvs.鑑別診断アプローチ、盲検化技術、盲検検証など)。 |
7.1.7. Human-machine interaction best practices. | 7.1.7. ヒューマン・マシン・インタラクションのベストプラクティス。 |
7.1.8. Ethical awareness: identifying the presence of vulnerable data subjects and/or areas potentially attended by vulnerable data subjects (e.g. schools, playgrounds, hospitals, places of worship, etc.). | 7.1.8. 倫理的認識:脆弱なデータ対象者及び/又は脆弱なデータ対象者が出入りする可能性のある場所 (学校、遊び場、病院、礼拝所など)の存在を特定する。 |
7.1.9. How to use tools that assist examiners in understanding the reasoning behind systems’ decisions/recommendations. | 7.1.9. システムの決定/勧告の背景にある理由を理解するために審査員を支援するツールの使用方法。 |
7.1.10. Awareness of the risk of false positives from twins, siblings and other related individuals. | 7.1.10. 双子、兄弟、その他の関係者による誤検出のリスクを認識すること。 |
7.2. Law enforcement agencies that use or intend to use FRT should offer training on an ongoing basis and should be informed by the latest research in machine learning, human-machine interaction and remote biometrics. | 7.2. 顔認識技術 を使用する、または使用しようとする法執行機関は、継続的にトレーニングを提供し、 機械学習、人間と機械の相互作用、および遠隔バイオメトリクスの最新の研究結果を参考にす べきである。 |
7.3. Recognizing that innate capability to recognize faces exists on a spectrum, examiners should be recruited by factoring in performance on face comparison tests, acknowledging that experience and training also matter. | 7.3. 顔を認識する生得的な能力にはスペクトルがあることを認識し、経験と訓練も重要であるこ とを認識した上で、顔比較テストでのパフォーマンスを考慮して検査員を採用すべきである。 |
8. Use of probe images and reference databases | 8. 捜査用画像と参照データベースの利用 |
8.1. Law enforcement agencies must ensure that their processing of probe images and reference databases are compliant with international, regional and national laws and/or policies, which should include purpose limitation, storage criteria, retention period, deletion rules, etc. | 8.1. 法執行機関は、捜査用画像と参照用データベースの処理が、国際的、地域的、国内的な 法律および/または政策に準拠していることを保証しなければならない。 |
8.2. The collection of probe images should be conducted on a legal basis and aimed at a specific purpose. | 8.2. 探傷画像の収集は、法的根拠に基づいて、特定の目的のために行われるべきである。 |
8.3. The reference database(s) used for FRT investigations should always have a legal basis and be used under the authorization of competent authorities. Consequently, reference databases that include data collected without legal basis from the internet, or electronic devices, should not be used. | 8.3. 顔認識技術調査のために使用される参照データベースは、常に法的根拠を有し、管轄当局の 許可の下に使用されるべきである。従って、インターネットや電子機器から法的根拠なく収集されたデータを含む参照デー タベースは使用すべきではない。 |
8.4. Probe images should not be adopted as reference photos and should not be inserted into reference databases unless they have led to a verified match. | 8.4. 捜査用画像は、照合が確認されない限り、参考写真として採用してはならず、参考データベースに挿入してはならない。 |
8.5. Exporting images and biometric metadata to public cloud-based FRT that could potentially be outside the local jurisdiction should be prohibited. | 8.5. 潜在的に地域管轄外である可能性があるパブリッククラウドベースの 顔認識技術への画像及びバイオメトリクスメタデータのエクスポートは禁止されるべきである。 |
8.6. Law enforcement agencies shall maintain a strict and transparent chain of custody of all images (probe image sets and reference databases) used for FRT. The law enforcement agency shall specify, and enforce, clear and transparent rules designating who does and does not have access to the images and in what circumstances. | 8.6. 法執行機関は、顔認識技術のために使用されるすべての画像(捜査用画像セットおよび参照データベース)の厳密かつ透明性のある保存の連鎖を維持しなければならない。法執行機関は、誰がどのような状況で画像にアクセスできるか、できないかを指定する、 明確かつ透明性のある規則を定め、実施するものとする。 |
8.7. Law enforcement agencies shall specify well-defined protocols for determining when, and on the basis of what criteria, images are to be expunged from a probe set or a reference database. The law enforcement agency shall create, and adhere to, a well-defined and transparent protocol for the disposal of images that have been expunged from a probe set or reference database or are otherwise no longer needed; any such protocol shall be designed to protect the privacy of any individuals appearing in the images identified for disposal. | 8.7. 法執行機関は、いつ、どのような基準に基づいて、画像が捜査用セットまたは参照データベースから削除されるかを決定するための明確なプロトコルを規定しなければならない。法執行機関は、捜査用セットまたは参照データベースから消去された画像、あるいはその他の方法で不要となった画像の処分のために、明確に定義された透明性のあるプロトコルを作成し、これを遵守しなければならない。このようなプロトコルは、処分のために特定された画像に登場する個人のプライバシーを保護するように設計されなければならない。 |
9. Image and metadata integrity | 9. 画像及びメタデータの完全性 |
9.1. To mitigate the risk of errors, law enforcement agencies should follow the recommendations of standards and thresholds of photo quality collected for law enforcement investigations. Before using any FRT system, law enforcement agencies should have a procedure to perform image quality assessment and a minimum quality threshold. The FRT system should not use probe or reference database images that do not meet the defined threshold. | 9.1. エラーのリスクを軽減するために、法執行機関は、法執行機関の捜査のために収集された 写真品質の基準と閾値の推奨に従うべきである。いかなる顔認識技術システムを使用する前にも、法執行機関は、画質評価を実行する手順と最低画質のしきい値を持つべきである。顔認識技術システムは、定義された閾値を満たさない捜査用または参照データベース画像を使用すべきではない。 |
9.2. Law enforcement examiners should be aware of the risk of image manipulations, such as morphing and deepfakes, when images come from uncontrolled sources and/or production modes. When detected, these images should be rejected or processed with extreme precaution. | 9.2. 法執行機関の検査官は、画像が管理されていない情報源や制作モードから来た場合、モーフィングやディープフェイクなどの画像操作のリスクを認識すべきである。これらの画像が検出された場合には、細心の注意を払って拒否または処理を行うべきである。 |
9.3. Only forensic upgrading of face quality should be accepted for final examination. Forensic upgrading should be documented so as to ensure the auditability and reproducibility of the upgrading process. The creation of new content and the insertion or modification of facial features or geometry on an existing image should be forbidden. | 9.3. 最終審査では、科学捜査による顔品質のアップグレードのみが認められるべきである。フォレンジックアップグレードは、アップグレードプロセスの監査可能性と再現性を確保するために、文書化されるべきである。新たなコンテンツの作成や、既存の画像に顔の特徴や形状を挿入・変更することは禁止する。 |
9.4. While processing data, law enforcement agencies should always conduct a proper and verified attribution of identity to photos in the dataset, and verify the serial number of photos, their traceability and origin. | 9.4. 法執行機関は、データを処理する際には、常にデータセット内の写真への適切かつ検証された身元の帰属を行い、写真のシリアル番号、そのトレーサビリティーと出所を検証する必要がある。 |
9.5. Vulnerabilities to hacking and cyberattacks should be identified to ensure robustness and avoid data leaks, and data manipulation. | 9.5. ハッキングやサイバー攻撃に対する脆弱性は、堅牢性を確保し、データの漏洩やデータの操作を回避するために特定されるべきである。 |
9.6. An audit of the integrity of the reference database should be conducted regularly, in accordance with the applicable legal framework and best practices. | 9.6. 参照データベースの完全性の監査は、適用される法的枠組みとベストプラクティスに従って、 定期的に実施されるべきである。 |
Comments