世界経済フォーラム (WEF) 顔認識の責任ある制限のためのポリシーフレームワーク ユースケース:法執行機関の捜査 9つの原則 (2022.11)
こんにちは、丸山満彦です。
World Economic Forum(世界経済フォーラム)が、国連地域間犯罪・司法研究所 (UNICRI)、Interpolやオランダ警察等と協力をして、顔認識の責任ある制限のためのポリシーフレームワークに関する報告書を出していますね。。。
犯罪捜査において顔認識技術は、犯人逮捕につながる強力な武器となりますが、逆にそれ故、誤った判断をしてしまい犯人でない人を犯人と思い込んでしまい逮捕してしまったり、犯罪抑止の観点から常時監視のようなことになると、平穏な生活が脅かされることもあるので、慎重な活用が必要なのでしょうね。。。
この報告書には、原則と自己チェックリストがありますね。。。
日本でも議論は始まっていると思うので、参考にすると良いですね。。。
9つの原則...
1. Respect for human and fundamental rights | 1. 人権及び基本的人権の尊重 |
2. Necessary and proportional use | 2. 必要かつ比例した使用 |
3. Human oversight and accountability | 3. 人的監視と説明責任 |
4. Optimization of system performance | 4. システム性能の最適化 |
5. Mitigation of error and bias | 5. エラーとバイアスの軽減 |
6. Legitimacy of probe images and reference databases | 6. 捜査画像と参照データベースの正当性 |
7. Integrity of images and metadata | 7. 画像とメタデータの完全性 |
8. Skilled human interface and decision-making | 8. 熟練したヒューマンインターフェースと意思決定 |
9. Transparency | 9. 透明性 |
● United Nations Interregional Crime and Justice Research Institute; UNICRI
A Policy Framework for Responsible Limits on Facial Recognition. Use Case: Law Enforcement Investigations - November 2022 | 顔認識の責任ある制限のためのポリシーフレームワーク ユースケース:法執行機関の捜査 (2022.11) |
The World Economic Forum, in partnership with the International Criminal Police Organization (INTERPOL), the United Nations Interregional Crime and Justice Research Institute (UNICRI), and the Netherlands police, published A Policy Framework for Responsible Limits on Facial Recognition Technology, Use Case: Law Enforcement Investigations. | 世界経済フォーラムは、次の団体と提携した。国際刑事警察機構(INTERPOL)、国連地域間犯罪・司法研究所(UNICRI)、オランダ警察と共同で、「A Policy Framework for Responsible Limits on Facial Recognition Technology, Use Case: 法執行機関の捜査 |
While the adoption of facial recognition technology (FRT) has many socially beneficial uses in various industries, it also creates a unique set of challenges that require an appropriate governance process to ensure its ethical and human rights compliant use. To address these challenges, the World Economic Forum and project community published its initial vision for a policy framework for the responsible use of FRT in law enforcement investigations in 2021. | 顔認識技術(FRT)の採用は、様々な産業において社会的に有益な用途がある一方で、倫理的かつ人権を遵守した利用を確保するために適切なガバナンスプロセスを必要とする独自の課題も生じている。これらの課題に対処するため、世界経済フォーラムとプロジェクト・コミュニティは、2021年に法執行機関の捜査におけるFRTの責任ある使用のための政策的枠組みに関する最初のビジョンを発表した。 |
Following its launch, six law enforcement agencies undertook an exercise to pilot the policy framework in order to review and validate its utility and completeness. Drawing from the feedback and learnings of the pilots, the new insight report highlights key principles such as respect for human and fundamental rights, necessary and proportional use, mitigation of error and bias, and transparency. It also includes a self-assessment questionnaire used to support law enforcement agencies in effectively implementing these the proposed principles for responsible facial recognition use. Through a series of questions, it prompts agencies to reflect on their governance systems and their use of FRT in terms of the stated principles. | その発表後、6つの法執行機関が、その有用性と完全性を検討・検証するために、政策フレームワークを試験的に導入するための演習を実施した。パイロット版のフィードバックと学習から、新しいインサイトレポートは、人権と基本的権利の尊重、必要かつ比例した使用、エラーとバイアスの軽減、透明性などの主要原則を強調している。また、責任ある顔認識利用のために提案されたこれらの原則を法執行機関が効果的に実施するのを支援するための自己評価アンケートも含まれている。一連の質問を通じて、各機関のガバナンスシステムと、記載された原則の観点からのFRTの使用について考察するよう促している。 |
“This report shows the depth and breadth of how the Forum is able to bring multiple stakeholders together to find solutions to the most difficult technological challenges of our time. We are delighted to have created a document which is already being adopted by others for their governance regimes and by our Partners in the work,” said Kay Firth-Butterfield, Head of AI and Machine Learning at the World Economic Forum. “Now we encourage others around the world to adopt regulations or best practices reflecting this work.” | 世界経済フォーラムのAI・機械学習部門の責任者であるケイ・ファース・バターフィールドは、次のように述べている。「この報告書は、フォーラムがいかにして複数のステークホルダーを集め、現代の最も困難な技術的課題に対する解決策を見出すことができるかを示すものである。我々は、すでに他がそのガバナンス体制に採用し、我々のパートナーが作業に参加している文書を作成できたことを嬉しく思っている。今、我々は世界中の他の人々が、この作業を反映した規制やベストプラクティスを採用することを奨励する。」 |
The International Organization for Standardization – ISO/IEC JTC1 SC37 – is currently developing a standard titled “Biometric identification systems involving passive capture subjects.” The endeavour is intended to support the implementation of the proposed European Union (EU) AI Act. The standard will provide guidance and requirements for providers of biometric systems labelled as “high risks: in the draft EU AI Act and will include some of the recommendations from the framework on the responsible use of facial recognition technology for law enforcement investigations developed by the World Economic Forum, INTERPOL, UNICRI and the Netherlands Police. | 国際標準化機構であるISO/IEC JTC1 SC37は、現在、"Biometric identification systems involving passive capture subjects "と題する規格を策定中である。この試みは、提案されている欧州連合(EU)のAI法の実施を支援することを意図している。この規格は、EUのAI法の草案で「高リスク」とされた生体認証システムのプロバイダーに対する指針と要件を提供し、世界経済フォーラム、インターポール、UNICRI、オランダ警察が開発した法執行捜査における顔認証技術の責任ある利用に関する枠組みからの勧告を一部含む予定である。 |
“We have co-designed this framework to serve as a unique reference to law enforcement in our 195 member countries on the responsible and transparent use of facial recognition”, said Cyril Gout, Director of Operational Support and Analysis, INTERPOL. “We will support its implementation through our global police network to increase awareness of this important biometric technology. More than 2,000 terrorists, criminals, fugitives, persons of interest or missing persons have been identified since the launch of INTERPOL’s facial recognition system in 2016.” | INTERPOLの運用サポート・分析部門のディレクターであるCyril Goutは、次のように述べている。「我々は、顔認識の責任ある透明性のある使用に関して、195の加盟国の法執行機関に対して独自の参考資料となるようにこのフレームワークを共同設計した。この重要な生体認識技術に対する意識を高めるため、我々の世界的な警察ネットワークを通じて、その実施を支援する。2016年のINTERPOLの顔認識システムの開始以来、2,000人以上のテロリスト、犯罪者、逃亡者、要注意人物または行方不明者が特定されている。」 |
A total of six law enforcement agencies from five countries participated in the piloting the framework: the Brazilian Federal Police, the Central Directorate of the Judicial Police in France, the National Gendarmerie in France, the Netherlands Police, the New Zealand Police, and the Swedish Police Authority. These agencies deliberated upon the policy framework for four months before completing the self-assessment questionnaire and providing their feedback of its utility and completeness. | フレームワークの試行には、ブラジル連邦警察、フランス司法警察中央長官、フランス国家憲兵隊、オランダ警察、ニュージーランド警察、スウェーデン警察庁の5カ国から合計6つの法執行機関が参加した。これらの機関は、自己評価アンケートに回答し、その有用性と完全性についてフィードバックを提供する前に、4ヶ月間政策フレームワークについて検討した。 |
“We are particularly proud of the policy framework for the use of facial recognition technology and are confident it will help law enforcement agencies to ensure their use of this technology respects fundamental and human rights. As it now goes out into the world, we and our partners in the Forum, INTERPOL and the Netherlands Police stand ready to support law enforcement agencies to implement its principles. This can also be a valuable resource for the general public and we encourage all those interested in, or concerned by, this technology to reflect on it.” said Irakli Beridze, Head, UNICRI Centre for Artificial Intelligence and Robotics. | UNICRI人工知能・ロボットセンター長のIrakli Beridzeは、次のように述べた。「我々は、顔認識技術の使用に関する政策フレームワークを特に誇りに思っており、法執行機関がこの技術を使用する際に、基本的人権を尊重することを保証するのに役立つと確信している。我々は、フォーラム、インターポール、オランダ警察のパートナーとともに、法執行機関がその原則を実施するのを支援する用意がある。これは一般市民にとっても貴重なリソースとなり得るものであり、この技術に興味を持つ、あるいは関心を持つすべての人々がこの技術について考察することを奨励する。」 |
As the framework now enters the next phase of its lifecycle, the project team encourages those engaged in the global policy debate about the governance of facial recognition technology to join in these efforts and to promote the adoption and deployment of governance frameworks such as this. | プロジェクトチームは、顔認識技術のガバナンスに関する世界的な政策論争に携わる人々が、こうした取り組みに参加し、このようなガバナンスフレームワークの採用や展開を促進するよう奨励している。 |
目次...
Foreword | まえがき |
Introduction | 序文 |
Methodology | 方法論 |
1 Law enforcement investigations: use cases and definitions | 1 法執行機関の調査:使用例と定義 |
2 Principles | 2 原則 |
3 Self-assessment questionnaire | 3 自己評価質問書 |
Conclusion | まとめ |
Glossary | 用語解説 |
Contributors | 協力者 |
Endnotes | 巻末資料 |
原則...
Principles | 原則 |
A global- and multistakeholder-developed set of principles for the responsible use of facial recognition technology for law enforcement investigations. | 法執行機関の捜査のために顔認識技術を責任を持って使用するための、グローバルかつマルチステークホルダーが開発した一連の原則。 |
1. Respect for human and fundamental rights | 1. 人権及び基本的人権の尊重 |
1.1 FRT should be used only as part of a lawful investigation, and always only as an investigative lead, to support the identification of criminals/fugitives, missing persons, persons of interest and victims. | 1.1 FRT は、犯罪者・逃亡者、行方不明者、参考人、被害者の特定を支援するため、合法的な捜査の一部としてのみ、また常に捜査上の手がかりとしてのみ使用されるべきである。 |
1.2 The rights provided for within the International Bill of Human Rights and other relevant human rights treaties and laws should always be respected, particularly the right to human dignity, the right to equality and non-discrimination, the right to privacy, the right to freedom of expression, association and peaceful assembly, the rights of the child and older persons, the rights of persons with disabilities, the rights of migrants, the rights of Indigenous people and minorities, and the rights of persons subjected to detention or imprisonment. The use of FRT by law enforcement for investigations should respect these rights and be necessary and proportionate to achieve legitimate policing aims. | 1.2 国際人権規約及びその他の関連する人権条約・法律に規定される権利は、常に尊重されるべきであり、特に、人間の尊厳の権利、平等及び非差別の権利、プライバシーの権利、表現、結社及び平和的集会の自由の権利、児童及び高齢者の権利、障害者の権利、移民の権利、先住民及び少数者の権利並びに拘禁又は投獄を受ける者の権利が尊重されなければならない。捜査のための法執行機関による FRT の使用は、これらの権利を尊重し、正当な取り締まりの目的を達成するために必要かつ適切なものでなければならない。 |
1.3 Any restrictions or limitations to human rights are permissible under international human rights law only if they are necessary and proportionate to achieving a legitimate policing aim and are not applied in an arbitrary manner. These restrictions must be established in law and should correspond to the least intrusive means of pursuing such an aim. | 1.3 人権に対するいかなる制限も、国際人権法の下では、正当な取り締まりの目的を達成するために必要かつ適切であり、恣意的に適用されない場合にのみ許される。これらの制限は法律で確立されなければならず、そのような目的を追求するための最も侵襲性の低い手段に対応するものでなければならない。 |
1.4 Law enforcement agencies should be subject to effective oversight by bodies with enforcement powers in accordance with national laws or policies. Among other things, these or other bodies should have the specific task of hearing and following complaints from citizens and assessing the compliance of law enforcement activities with human and fundamental rights. | 1.4 法執行機関は、国内法または政策に従って、執行権限を有する機関による効果的な監視に服するべきである。特に、これらの機関または他の機関は、市民からの苦情を聞き、それに従い、法執行活動が人権および基本的権利を遵守しているかどうかを評価するという具体的な任務を有するべきである。 |
1.5 Law enforcement agencies should consider setting up an independent ethical oversight committee or assigning the responsibility to periodically review law enforcement officers’ use of FRT to a preexisting body, supporting them in achieving respect for human and fundamental rights. | 1.5 法執行機関は、独立した倫理監視委員会の設置や、法執行者によるFRTの使用を定期的に審査する責任を既存の機関に委ね、人権および基本的権利の尊重を実現するための支援を行うことを検討する必要がある。 |
1.6 Individuals should have the right to an effective remedy before an independent and impartial tribunal set up by law against actions concerning the use of FRT. | 1.6 個人は、FRTの使用に関する行為について、法律で定められた独立した公平な法廷において、効果的な救済を受ける権利を有するべきである。 |
2. Necessary and proportional use | 2. 必要かつ比例した使用 |
2.1 The decision to use FRT should always be guided by the objective of striking a fair balance between allowing law enforcement agencies to deploy the latest technologies, which are demonstrated to be accurate and safe, to safeguard individuals and society against security threats, and the necessity to protect the human rights of individuals. | 2.1 FRT の使用は、法執行機関が、個人及び社会を安全保障上の脅威から守るために、正確性 と安全性が実証された最新の技術を導入することと、個人の人権を守る必要性との間の公正なバランスをとるという目的から、常に導かれるべきものである。 |
2.2 Law enforcement agencies considering the use of FRT should always provide a documented and justified argument as to why FRT is the chosen option and why alternative options were not chosen. | 2.2 FRT の使用を検討している法執行機関は、なぜ FRT が選択されたのか、なぜ代替の選択肢が選択されな かったのかについて、常に文書化された正当な論拠を提供しなければならない。 |
2.3 The use of FRT by law enforcement agencies, from the request to the use of the outcome of the search, should always be aimed at, and limited to, a single specific goal, necessarily related to investigative purposes. | 2.3 法執行機関による FRT の使用は、要請から捜査結果の使用に至るまで、常に捜査目的に必然的に 関連する単一の特定の目標を目的とし、かつそれに限定されるべきであり、FRT の使用は、法執行 機関によって行われる。 |
2.4 International, regional and national policies and/or laws should specify for which classes of crimes or investigations the use of FRT by law enforcement agencies is acceptable and/or lawful. | 2.4 国際的、地域的及び国内的な政策及び/又は法律は、法執行機関による FRT の使用がどの分類の犯罪又は捜査のために許容及び/又は合法であるかを規定すべきである。 |
2.5 Acknowledging the right to privacy and other human rights, the collection of images from public and publicly accessible spaces for FRT identification purposes should be done only for a determined list of use cases, in a limited area and for an established processing time period in accordance with relevant national laws or policies. | 2.5 プライバシーの権利及びその他の人権を認識し、FRT 識別目的のための公共及び公的にアクセス可能な空間からの画像の収集は、関連する国内法又は政策に従って、決められた 使用事例のリストに対してのみ、限られた地域及び決められた処理期間において行われるべきである。 |
2.6 As a consequence of the additional risks involved in the use of real-time FRT, an independent authority responsible for oversight of law enforcement operations (such as the independent ethical oversight committee described in Principle 1.5) should be in charge of authorizing applications for its use and, if there is not enough time, it should be authorized through the chain of command. In such cases, the chain of command should inform the independent authority as soon as possible and not later than 24 hours after authorizing the use, justifying its decision to use real-time FRT and explaining why it considered there was insufficient time to seek its authorization in advance. Law enforcement should use the results of any real-time FRT search only to verify an individual’s identity and conduct additional verifications. All images captured during an operation involving the use of real-time FRT, both the original image and the biometric template, should be deleted from the system, according to the policies governing the storage of live images. | 2.6 リアルタイム FRT の使用に伴う追加的なリスクの結果として、法執行業務の監督に責任を持つ独立した当局(原則 1.5 に記載されている独立した倫理監督委員会のような)が、その使用の申請を承認する責任を負うべきであり、十分な時間がない場合は、命令系統を通じて承認されるべきである。このような場合、指揮系統は、リアルタイム FRT を使用する決定を正当化し、なぜ事前に承認を求めるには時間が足りないと考えたかを説明した上で、使用を承認した後 24 時間以内に、できるだけ早く独立当局に通知すべきである。法執行機関は、個人の身元を確認し、追加の検証を行うためにのみ、リアルタイム FRT 検索の結果を使用するものとする。リアルタイム FRT の使用を含む操作中に捕捉されたすべての画像は、オリジナル画像と生体測定テンプレートの両方が、ライブ画像の保存を管理する方針に従って、システムから削除されるべきである。 |
2.7 FRT, and other face analysis technologies, should be used for no purpose other than biometric identification/recognition/verification. The use of FRT to infer ethnicity, gender, sex, age, emotion, opinion, health status, religion and sexual orientation, and the use of FRT for predictive analysis, should not be permitted. | 2.7 FRT 及び他の顔分析技術は、生体識別/認識/検証以外の目的では使用されるべきではない。民族、性別、年齢、感情、意見、健康状態、宗教、性的指向を推測するための FRT の使用、および予測分析のための FRT の使用は、許可されるべきではない。 |
3. Human oversight and accountability | 3. 人的監視と説明責任 |
3.1 Lines of responsibility for the outcome of a given use of FRT should be well defined and transparent. A law enforcement agency should never issue analysis and conclusions from FRT without interpretation by an examiner and oversight by a manager with the right expertise (with the unique exception described in Principle 2.6). | 3.1 FRT を使用した結果に対する責任の所在は、明確に定義され、透明であるべきである。 法執行機関は、審査官による解釈と適切な専門知識を有する管理者による監督なしに、 FRT による分析と結論を決して発行すべきではない(原則 2.6 に記載された固有の例外を除く)。 |
3.2 The use of FRT should always be conducted by an individual trained as described in Principle 8 (with the exception of situations of emergency as presented in Principle 2.6). The skills of facial experts are critical and necessary to maintain the highest level of accuracy in the identification process. | 3.2 FRT の使用は、常に原則 8 に記載された訓練を受けた個人によって実施されるべきである(原則 2.6 に示された緊急事態の例外を除く)。顔の専門家の技能は、識別プロセスにおいて最高レベルの精度を維持するために重要かつ必要である。 |
3.3 A peer review (blind verification or examination by a second expert) should systematically be performed before a result is communicated to the requesting investigation team. The result provided should be consensus-based or, in the event of a lack of consensus, the most conservative conclusion in terms of similarities observed should prevail. | 3.3 ピアレビュー(第二の専門家によるブラインド検証又は検査)は、結果が依頼元の調査チームに通知される前に、体系的に実施されるべきである。提供される結果は、コンセンサスに基づくものであるべきであり、コンセンサスが得られない場合には、観察された類似性の観点から最も保守的な結論が優先されるべきものである。 |
3.4 The law enforcement agency should verify that a mechanism exists whereby citizens can file a complaint with or seek redress for any harms before a competent body designated by national authorities. | 3.4 法執行機関は、市民が国家当局によって指定された管轄機関に苦情を申し立てたり、損害の救済を求めたりできる仕組みが存在することを確認する必要がある。 |
3.5 If an individual proposed by an FRT system as a potential candidate is subsequently taken into custody, brought in as a witness or assumes any other official role in a law enforcement process, that person should be informed that he/she was subject to a search using FRT, provided that this would not compromise the investigation. | 3.5 FRT システムによって候補者として提案された個人が、その後拘留されたり、証人として連行されたり、法執行プロセスにおいて他の公的役割を担う場合、その人は、捜査を妨げない限り、 FRT を用いた捜査の対象となったことを知らされる必要がある。 |
4. Optimization of system performance | 4. システム性能の最適化 |
4.1 Law enforcement agencies should require vendors to follow FRT standards, such as those set by the International Organization for Standardization (ISO) and the European Committee for Standardization (CEN), to evaluate the performance of their algorithms at the design and deployment stages. | 4.1 法執行機関は、国際標準化機構(ISO)や欧州標準化委員会(CEN)が定めた FRT 標準に準拠し、設計・導入段階でアルゴリズムの性能を評価するようベンダーに求めるべきである。 |
4.2 Law enforcement agencies should introduce a standardized procurement process in a transparent way, requiring vendors to comply with the above-mentioned standards and to submit their algorithms to large-scale independent audits/testing undertaken against appropriate test standards (lab tests and, if possible, field tests). After evaluating all candidates, agencies should select the provider who can demonstrate the best-performing algorithm. | 4.2 法執行機関は、ベンダーに対し、上記の標準に準拠し、適切な試験基準(ラボ試験、可能であれば実地試験)に照らして実施される大規模な独立監査/試験にアルゴリズムを提出することを求める、標準的な調達プロセスを透明な形で導入する必要がある。すべての候補を評価した後、機関は、最も性能の良いアルゴリズムを実証できるプロバイダを選択する必要がある。 |
4.3 Due diligence with respect to system performance should be undertaken by reference to large-scale independent tests, such as those conducted by NIST in the US. These tests provide a scientifically robust, transparent baseline of performance. | 4.3 システム性能に関するデューディリジェンスは、米国の NIST が実施するような大規模な独立試験を参照することによって実施されるべきである。これらのテストは、科学的に堅牢で、透明性のある性能の基準値を提供する。 |
4.4 Independent lab tests to validate the performance of the FRT should be designed to model, as closely as practical, the real-world objectives and conditions (including data landscape, operators of the technology, timetables affecting decisions made using the technology, etc.) in which the FRT is applied in practice. | 4.4 FRT の性能を検証する独立ラボ試験は、FRT が実際に適用される実世界の目的及び条件(データ の状況、技術の運用者、技術を用いた意思決定に影響を与えるスケジュール等を含む)を、実際に近い形でモデル化するように設計されなければならない。 |
4.5 Law enforcement agencies should notify the technology provider of relevant errors identified in order to have the system reviewed. | 4.5 法執行機関は、システムの見直しを行うために、特定された関連する誤りを技術提供者に通知するべきである。 |
4.6 To leverage accuracy gains, law enforcement agencies should expect to make, and establish procedures for, regular upgrades or replacement of the FRT. | 4.6 正確さの向上を活用するために、法執行機関は、FRT の定期的な改善または交換を予期 し、そのための手順を確立することが望ましい。 |
5. Mitigation of error and bias | 5. エラーとバイアスの軽減 |
5.1 The risk of error and bias by machines and humans should be mitigated to the greatest extent possible. This should be done through an ex ante and ex post evaluation strategy: | 5.1 機械および人間によるエラーとバイアスのリスクは、可能な限り軽減されなければならない。これは、事前および事後の評価戦略によって行われる必要がある。 |
5.1.1 Ex ante evaluations: technology providers, and where it applies, technology integrators, should ensure biases and errors are mitigated to the greatest extent possible before the deployment of the system by law enforcement agencies. The level of performance across demographics and the design of the quality management system should be evaluated by an independent third party. This evaluation should be organized by the technology provider and the results made available to law enforcement agencies that procure FRT and to the public for review. Law enforcement agencies that procure FRT should require in their procurement criteria information about the specific metrics the provider uses to gauge bias and other relevant risks. Before deploying FRT systems, law enforcement agencies should set up pilot tests to ensure the system is operating as intended. | 5.1.1 事前評価:技術提供者、および適用される場合は技術統合者は、法執行機関によるシステムの配備前に、バイアスおよびエラーが可能な限り軽減されることを確認する必要がある。人口統計学的なパフォーマンスレベルと品質管理システムの設計は、独立した第三者によって評価されるべきである。この評価は、技術提供者によって整理され、その結果は FRT を調達する法執行機関および一般市民がレビューできるようにされるべきである。FRT を調達する法執行機関は、その調達基準において、プロバイダーがバイアスや他の関連リスクを測定するために使用する特定の指標に関する情報を要求するべきである。FRT システムを展開する前に、法執行機関はシステムが意図したとおりに動作していることを確認するためにパイロットテストを設定するべきである。 |
5.1.2 Ex post evaluations: law enforcement agencies – if necessary, with the support of competent authorities – should deploy risk-mitigation processes to identify, monitor and mitigate the risks of error and biases throughout the entire life cycle of the system. A regularly programmed internal audit (that could include the use of the self-assessment questionnaire related to these principles) and, if possible, an independent third-party audit should be conducted to validate the robustness of these processes. The conclusions of these audits should be made publicly available. | 5.1.2 事後評価:法執行機関は、必要に応じて所轄官庁の支援を受け、システムの全ライフサイクルを通じてエラーとバイアスのリスクを特定、監視、軽減するためのリスク軽減プロセスを導入するべきである。これらのプロセスの堅牢性を検証するために、定期的にプログラムされた内部監査(これらの原則に関連する自己評価アンケートの利用を含むことができる)、及び可能であれば独立した第三者監査が実施されるべきである。これらの監査の結論は、一般に公開されるべきである。 |
To continually improve the quality of the processes and the system’s performance, law enforcement agencies, technology providers and technology integrators should establish an in-service support agreement throughout the entire life cycle of the system. | プロセスの品質とシステムの性能を継続的に改善するために、法執行機関、技術プロバイダー、技術インテグレーターは、システムの全ライフサイクルを通じて、インサービスサポート契約を確立するべきである。 |
6. Legitimacy of probe images and reference databases | 6. 捜査画像と参照データベースの正当性 |
6.1 Law enforcement agencies should ensure that their processing of probe images and reference databases are compliant with international, regional and national laws and/or policies, which should include storage criteria, purpose limitation, retention period, deletion rules, etc. | 6.1 法執行機関は、捜査画像及び参照用データベースの処理が、保存基準、目的制限、保存期間、削除 規則等を含む国際、地域及び国内法及び/又は政策に準拠していることを確認する必要がある。 |
6.2 The collection of probe images should be conducted on a legal basis and aimed at a specific purpose. | 6.2 捜査画像の収集は、法的根拠に基づき、かつ、特定の目的に沿って実施されるべきである。 |
6.3 The reference database(s) used for FRT investigations should always have a legal basis and be used under the authorization of competent authorities. Consequently, reference databases that include data collected without legal basis from the internet, electronic devices or other sources should not be used. | 6.3 FRT 調査に使用される参照用データベースは、常に法的根拠を有し、所轄官庁の認可の下 で使用されるべきである。従って、インターネット、電子機器、その他の情報源から法的根拠なく収集された データを含む参照用データベースを使用すべきではない。 |
6.4 Probe images should not be inserted into the reference database by default. Probe images of unidentified subjects may be stored in a database for further investigation; however, such images should be appropriately labelled (e.g. as an unidentified suspect or unidentified victim) and the reasons for their insertion into the database detailed. Differently labelled categories of image can be stored on the same database but should be logically separated so that facial experts can, with requisite authorizations, independently search the specific categories. Additional care should be afforded to ensure that, if the underlying status justifying the insertion of the probe image into the database (e.g. as an unidentified suspect) changes, the image is removed from the database. | 6.4 捜査画像は、デフォルトで参照データベースに挿入されるべきではない。しかし、そのような画像には適切なラベル付け(例:容疑者不明、被害者不明)を行い、 データベースに挿入する理由を詳細に説明する必要がある。異なるラベルが付けられた画像カテゴリーを同一のデータベースに保存することは可能であるが、顔の専門家が必要な権限を持って、特定のカテゴリーを独立して検索できるように、論理的に分離されるべきである。また、捜査画像のデータベースへの登録を正当化する基本的な状況(例えば、未確認容疑者としての状況)が変化した場合、その画像がデータベースから削除されるように、さらなる注意が必要である。 |
6.5 Exporting images and biometric metadata to public cloud-based FRT that could potentially be outside the local jurisdiction should be prohibited. | 6.5 画像及び生体認証メタデータを、現地の管轄区域外にある可能性のあるパブリッククラウドベースの FRT にエクスポートすることは、禁止されなければならない。 |
6.6 Law enforcement agencies should maintain a strict and transparent chain of custody of all images (probe image sets and reference databases) used for FRT. The law enforcement agency should specify, and enforce, clear and transparent rules designating who does and does not have access to the images, and under what circumstances. | 6.6 法執行機関は、FRT に使用される全ての画像(捜査画像セット及び参照データベース)の厳密かつ透明な保管の連鎖を維持しなければならない。法執行機関は、誰が画像にアクセスでき、できないか、また、どのような状況下でアクセスできるかを指定する明確かつ透明な規則を規定し、実施すべきである。 |
6.7 Law enforcement agencies should specify well-defined protocols for determining when, and on the basis of what criteria, images are to be deleted from a probe set or a reference database. The law enforcement agency should create, and adhere to, a well-defined and transparent protocol for the disposal of images that have been deleted from a probe set or reference database or are otherwise no longer needed; any such protocol should be designed to protect the privacy of any individuals appearing in the images identified for disposal. | 6.7 法執行機関は、いつ、どのような基準に基づいて、捜査セットまたは参照データベースから 画像が削除されるべきかを決定するための、明確に定義されたプロトコルを規定するものとする。法執行機関は、捜査セットまたはレファレンスデータベースから削除された画像、またはその他の点 で不要となった画像を廃棄するための、明確に定義された透明性のあるプロトコルを作成し、これを遵守すべきである。そのようなプロトコルでは、廃棄が確認された画像に登場する個人のプライバシーを保護するよう 設計されなければならない。 |
6.8 For all solved cases or for cases where the investigation has been concluded, the biometric template of the probe image should be deleted from the FRT system and the original facial image stored for accountability purposes in line with existing national law and policies. | 6.8 すべての解決された事例または捜査が終了した事例について、捜査画像のバイオメトリックテンプレートは FRT システムから削除され、オリジナルの顔画像は既存の国内 法および政策に沿った説明責任の目的で保管されなければならない。 |
7. Integrity of images and metadata | 7. 画像とメタデータの完全性 |
7.1 Law enforcement agencies should establish standards and thresholds of image quality for reference database images in order to mitigate the risk of errors. Reference database images that do not meet the defined standards and image-quality thresholds should not be used. | 7.1 法執行機関は、エラーのリスクを軽減するために、参照データベース画像に対する画質の基準および閾値を設定する必要がある。定義された基準および画質の閾値を満たさない参照データベース画像は、使用されるべきではない。 |
7.2 Law enforcement agencies should also establish best practices to evaluate image quality for probe images. Before any search using an FRT system, the facial examiner should conduct a manual assessment of the image to ascertain if the probe image is of a high-enough quality to conduct a facial comparison. If the expert is unable to do so manually, the probe image should be rejected. Although a minimum number of pixels between the eyes is often recommended, care should be taken when using this as a threshold as it is often insufficient to confirm image quality. | 7.2 法執行機関は、捜査画像の画質を評価するためのベストプラクティスも確立すべきである。FRTシステムを使用した捜査の前に、顔面検査官は画像の手動評価を実施し、捜査画像が顔面 比較を実施するのに十分な高品質であるかどうかを確認する必要がある。専門家が手動で評価できない場合、捜査画像は拒否されるべきである。目と目の間の最小ピクセル数はしばしば推奨されているが、これを閾値として使用する場合、画質の確認には不十分なことが多いので注意が必要である。 |
7.3 Standards for probe images and reference database images should be identified by each law enforcement agency, taking into account the strength of the algorithm, the results of internal testing of the FRT system, the nature of the use case and any recommendations from the technology provider regarding its specific system. Standards, such as International Civil Aviation Organization (ICAO) photo standards, may serve as guidance for assessing image quality of reference database images. Guidance on best practices for probe images and additional recommendations for reference database images could also be provided by groups such as the Facial Identification Scientific Working Group (FISWG), the European Network of Forensic Science Institutes Digital Imaging Working Group (ENFSIDIWG) and the INTERPOL Facial Experts Working Group (IFEWG). | 7.3 捜査画像および参照データベース画像の標準は、アルゴリズムの強度、FRT システムの内部テストの結果、ユースケースの性質、および特定のシステムに関する技術提供者からの推奨を考慮に入れて、各法執行機関によって特定されるべきである。国際民間航空機関(ICAO)写真規格などの規格は、参照データベース画像の画質評価のガイダンスとして機能することができる。また、顔識別科学作業部会(FISWG)、欧州法科学研究所デジタル画像作業部会(ENFSIDIWG)、インターポール顔専門家作業部会(IFEWG)などのグループにより、捜査画像に関するベストプラクティスに関する指針や参照データベース画像に関する追加勧告が提供される可能性もある。 |
7.4 Law enforcement examiners should be aware of the risk of image manipulation, such as morphing and deepfakes, when images come from uncontrolled sources and/or production modes. When suspected, these images should be rejected or processed with extreme precaution. | 7.4 法執行機関の検査官は、管理されていない情報源および/または製造方法から得られた画像については、モーフィングやディープフェイクなどの画像操作の危険性を認識すべきである。疑われる場合、これらの画像は拒否されるか、または細心の注意を払って処理されるべ きである。 |
7.5 Forensic upgrading (e.g. contrast and brightness correction) should comply with existing published guidance or standards (such as by FISWG). | 7.5 フォレンジック改善(例えばコントラストや明るさの補正)は、(FISWG によるような)既存の公表されたガイダンスや標準に準拠すべきである。 |
7.6 The use of tools for non-forensic upgrading (e.g. pose correction) should be used only during the FRT search phase. If non-forensic upgrading is carried out, the insertion or modification of facial features or geometry on an existing image should be performed with care in order to avoid distortion of the image. | 7.6 非フォレンジック改善(例:姿勢補正)のためのツールの使用は、FRTサーチの段階でのみ使用されるべきである。ノンフォレンジック・改善が実施される場合、既存画像への顔の特徴や形状の 挿入・変更は、画像の歪みを避けるために慎重に実施されるべきである。 |
7.7 In case of a possible match, and to reach a final conclusion, forensic upgrading of face quality only should be accepted. For reporting purposes, the original image should be presented together with the description of forensic upgrading methods to ensure the auditability and reproducibility of the upgrading process. | 7.7 一致の可能性がある場合、および最終的な結論を得るために、顔面品質のフォレンジック・ 改善のみを認めるべきである。報告目的のために、改善プロセスの監査可能性と再現性を確保するため、原画像 はフォレンジック・改善方法の説明とともに提示されるものとする。 |
7.8 While processing data, law enforcement agencies should always conduct a proper and verified attribution of identity to photos in the reference dataset, and verify the serial number of photos, their traceability and origin. | 7.8 データ処理中、法執行機関は常に参照データセット中の写真への適切かつ検証された帰属を行い、写真のシリアルナンバー、追跡可能性および出所を検証するべきである。 |
7.9 The integrity of the reference database should be evaluated regularly, in accordance with the applicable legal framework and best practices. | 7.9 参照データベースの完全性は、適用される法的枠組み及びベストプラクティスに従って、 定期的に評価されなければならない。 |
7.10 Vulnerabilities to hacking and cyberattacks should be identified to ensure robustness and avoid data leaks and data manipulation. | 7.10 堅牢性を確保し、データ漏洩やデータ操作を回避するため、ハッキングやサイバー攻撃に対する脆弱性が特定される必要がある。 |
8. Skilled human interface and decision-making | 8. 熟練したヒューマンインターフェースと意思決定 |
8.1 FRT should be used only by trained persons who follow the procedures ordered through the chain of command and/or by management. | 8.1 FRTは、指揮命令系統及び/又は経営陣により命じられた手続きに従う訓練を受けた者のみが使用すべきである。 |
8.2 Everybody within the organization, especially the chain of command/management, should understand the capacities and limits of the technology and system used. | 8.2 組織内の全員、特に指揮系統/管理者は、使用される技術及びシステムの能力と限界を理解すべきである。 |
8.3 Law enforcement agencies that use or intend to use FRT should provide or facilitate training on an ongoing basis and should be informed by the latest research in machine learning and remote biometrics. | 8.3 FRT を使用する、または使用しようとする法執行機関は、継続的に研修を提供または促進し、 機械学習および遠隔生体認証における最新の研究により情報を得るべきである。 |
8.4 The training (and certification when it applies) of facial experts, and those in the chain of command/ management, should include: | 8.4 顔の専門家、および指揮命令系統/管理系統の者の訓練(および適用される場合は認証)は、以下を含むべきである。 |
8.4.1 Knowledge of and updates of mandatory regulations, laws or policies concerning the use of biometrics. | 8.4.1 生体認証の使用に関する強制的な規制、法律又は政策の知識及びその更新。 |
8.4.2 Awareness of the risk of biases by the FRT system (anticipation of false positives and false negatives, awareness of differences in performance on various demographics, knowing how to calibrate and adjust the threshold of the system, understanding how to configure the system in the manner appropriate to the specific circumstances and risks of a given use case, and how to fix the length of the candidate lists). | 8.4.2 FRT システムによるバイアスのリスクの認識(偽陽性と偽陰性の予測、様々な人口統計学上の性能の違いの認識、 システムの閾値の校正と調整の方法を知る、与えられたユースケースの特定の状況とリスクに適した方法 でシステムを構成する方法の理解、および候補リストの長さを固定する方法)。 |
8.4.3 Understanding of the risk of biases by the human agent (overestimation of own capability, risk of over-reliance on technology, blind spots, risk of human bias such as other-race-effect bias). | 8.4.3 ヒューマンエージェントによるバイアスのリスクの理解(自身の能力の過大評価、技術への過度の依存のリスク、盲点、他民族効果バイアスなどのヒューマンバイアスのリスクなど)。 |
8.4.4 Awareness of the risk of false positives from twins, siblings and other related individuals. | 8.4.4 双子、兄弟姉妹、その他の近親者による偽陽性のリスクへの認識。 |
8.4.5 Awareness of the risk of image manipulation, including data integrity attacks and data morphs, and, when available, the tools to identify them. | 8.4.5 データ整合性攻撃やデータモーフを含む画像操作のリスクと、利用可能な場合はそれらを特定する ためのツールについての認識。 |
8.4.6 How to implement risk-mitigation methodologies (one match vs. differential diagnosis approach, blinding techniques, blind verifications, etc.). | 8.4.6 リスク軽減のための方法論(1つの一致と鑑別診断のアプローチ、盲検化技術、盲検検証など)を実施する方法。 |
8.4.7 Understanding of the nature of an investigative lead as the outputs of an FRT search and best practices for verifying the identity of leads generated. | 8.4.7 FRT 検索のアウトプットとしての捜査の手掛かりの性質、及び生成された手掛かりの同一性を検証するためのベストプラクティスを理解すること。 |
8.4.8 Instruction in data governance procedures, including the collection, storage, integrity and traceability of data. | 8.4.8 データの収集、保存、完全性、トレーサビリティを含む、データガバナンス手順に関する教示。 |
8.4.9 How to use tools, when available, that assist examiners in understanding the reasoning behind systems’ decisions/recommendations. | 8.4.9 審査官がシステムの決定/勧告の背後にある理由を理解することを支援する、利用可能な場合、ツールの使用方法。 |
8.5 Recognizing that innate capability to recognize faces exists on a spectrum, examiners should be recruited by factoring in performance on face comparison tests, acknowledging that experience and training also matter. | 8.5 顔認識に対する生得的な能力がスペクトル上に存在することを認識し、審査官は、経験と訓練も重要であることを認識しつつ、顔比較試験における性能を考慮して採用されなければならない。 |
9. Transparency | 9. 透明性 |
9.1 Information about the use of FRT by law enforcement agencies should be available to the public. This information should be made available on a permanent basis or on request, and communicated by the appropriate official authorities, be it the law enforcement agency itself or another government entity. | 9.1 法執行機関による FRT の使用に関する情報は、一般に利用可能であるべきである。この情報は、恒久的に、または要求に応じて利用可能とされ、法執行機関自体または他の政府機関である適切な公的機関によって伝達されるべきである。 |
9.2 Law enforcement agencies, or the most appropriate other official authority – with input from the law enforcement agency – should, in line with the applicable laws and policies, make public: | 9.2 法執行機関、または最も適切な他の公的機関は-法執行機関からの情報と共に-適用される法 律および政策に沿って、公開すべきである。 |
9.2.1 A clear definition of the use of FRT for law enforcement investigations, specifying the purpose and objectives, such as to identify criminals/fugitives, persons of interest, missing persons and victims. | 9.2.1 犯罪者/逃亡者、参考人、行方不明者及び被害者の特定など、目的と目標を特定した、法執行 調査のための FRT 使用の明確な定義。 |
9.2.2 The vendor selected (if applicable) and the name and version of the software. | 9.2.2 選択したベンダー(該当する場合)、およびソフトウェアの名称とバージョン。 |
9.2.3 How they use probe images: procedures and criteria to select, store/not store images and, if stored, for how long. | 9.2.3 調査画像の使用方法:画像を選択する手順と基準、保存する/しない、保存する場合はどのくらいの期間保存するか。 |
9.2.4 How they use the reference database: procedures to consult the database, criteria to select, store/not store probe images in this reference database and, if stored, for how long; as well as details about whether this database can be used to train or refine other FRT systems or machine learning models in general. | 9.2.4 参照データベースの使用方法:データベースを参照する手順、この参照データベースに捜査 画像を選択する基準、保存する/しない、保存する場合はその期間、またこのデータベースが他の FRT システムや機械学習モデル一般の訓練や改良に使用できるかどうかに関する詳細。 |
9.2.5 The policy regarding the type of data that may be shared with other organizations, including personal data and databases of face images. | 9.2.5 個人データや顔画像のデータベースなど、他の組織と共有することができるデータの種類に関する方針。 |
9.2.6 The name of law enforcement departments or units able to launch searches and view the results of searches. | 9.2.6 検索を開始し、検索結果を閲覧することができる法執行部門またはユニットの名称。 |
9.2.7 The functional title, type of expertise and level of training of individuals using the system. | 9.2.7 システムを使用する個人の職務上の肩書き、専門知識の種類、及び訓練レベル。 |
9.2.8 The process to determine a possible match, namely blind-review or peer-review of possible matches. | 9.2.8 一致の可能性を判断するためのプロセス、すなわち一致の可能性のブラインドレビューまたはピアレビュー。 |
9.2.9 Information about the mechanisms in place (see Principle 1.5) to ensure FRT is used as intended. | 9.2.9 FRT が意図されたとおりに使用されていることを確認するために設置された機構(原則 1.5 参照)に関する情報。 |
9.2.10 Auditable records of search requests made by law enforcement agencies, such as the number of requests, the number of investigative leads generated and the type of crimes related to these requests. | 9.2.10 法執行機関による検索要求の監査可能な記録(要求数、生成された捜査の手がかりの数、および これらの要求に関連する犯罪の種類など)。 |
9.2.11 The results of audits and/or evaluations of the performance of the FRT system conducted by the vendor of the technology and/or by the law enforcement agency. This should include a description of: the design of the evaluation; the data used in the evaluation; and the results (metrics) obtained. | 9.2.11 技術のベンダーおよび/または法執行機関によって実施された、FRTシステムの性能の監査および/または評価の結果。これは、評価の設計、評価で使用されたデータ、および得られた結果(測定基準)の説明を含むべきである。 |
9.2.12 Information about how an individual can contact the law enforcement agency to submit a query or complaint concerning its use of FRT. | 9.2.12 FRT の使用に関する質問または苦情を提出するために、個人が法執行機関に連絡する方法についての情報。 |
9.2.13 A record of complaints filed by members of the public against the use of the FRT and the law enforcement agency’s response of those formal complaints. | 9.2.13 FRT の使用に対して一般市民が提出した苦情、及びそれらの正式な苦情に対する法執行機関の対応の記録。 |
9.2.14 Any other information that can be publicly shared without compromising law enforcement investigations and that may be relevant for the public. | 9.2.14 法執行機関の調査を損なうことなく公に共有することができ、かつ公衆に関連する可能性のあるその他一切の情報。 |
9.3 Information made available to the public should be concise, easily accessible, understandable and provided in clear and plain language. Exceptions to this should be permitted only if they are necessary and proportionate to pursue legitimate purposes and in accordance with the law. | 9.3 一般に公開される情報は、簡潔で、容易にアクセスでき、理解でき、明確で平易な言葉で提供され るべきである。これに対する例外は、合法的な目的を追求するために必要かつ適切であり、法律に従った場合のみ許可されるべきである。 |
自己評価質問書...
Self-assessment questionnaire | 自己評価質問書 |
A self-assessment tool to support law enforcement agencies in ensuring they have introduced the measures needed for responsible facial recognition. | 法執行機関が責任ある顔認証に必要な措置を確実に導入することを支援するための自己評価ツールである。 |
1. Respect for human and fundamental rights | 1. 人権および基本的権利の尊重 |
1.1 Does your use of FRT for law enforcement investigations respect the International Bill of Human Rights and other relevant human rights treaties and laws? | 1.1 法執行捜査のための FRT 利用は、国際人権規約やその他の関連人権条約・法律を尊重しているか? |
1.2 Is the output of an FRT search always considered only as an investigative lead? | 1.2 FRT 検索の出力は、常に捜査の手がかりとしてのみ考慮されているか? |
1.3 What procedures are in place to guarantee that restrictions or limitations to some human rights are allowed only if they are necessary and proportionate to achieving a legitimate policing aim? | 1.3 一部の人権に対する制限や制約は、正当な警察目的を達成するために必要かつ適切である場合にのみ許されることを保証するために、どのような手続が行われているか? |
1.4 Are you working with oversight bodies to effectively assess the compliance of law enforcement activities with human and fundamental rights? | 1.4 法執行活動が人権および基本的人権を遵守しているかどうかを効果的に評価するために、監督機関と連携しているか。 |
1.5 Are these bodies tasked with hearing and following complaints from citizens? | 1.5 これらの機関は、市民からの苦情を聞き、それに従うことを任務としているか? |
1.6 Is there an independent ethical oversight committee to periodically review your use of FRT and support you to achieve respect for the human and fundamental rights? | 1.6 FRTの利用を定期的に検証し、人権・基本的権利の尊重を達成するための支援を行う独立した倫理的監視委員会があるか? |
1.7 Is there an existing judicial authority that offers effective remedies to individuals who consider their rights to have been violated through the use of FRT? | 1.7 FRT の利用により権利を侵害されたと考える個人に対して、効果的な救済を行う司法当局が存在するか? |
2. Necessary and proportional use | 2. 必要かつ比例した使用 |
2.1 What uses of FRT are allowed in your jurisdiction and what is the basis in applicable international, regional and national laws or policies? | 2.1 管轄区域において、どのような FRT の使用が認められているか、また適用される国際法、地域法、国内法、政策にどのような根拠があるか? |
2.2 What was the objective that guided the decision to use FRT? | 2.2 FRT を使用する決定を導いた目的は何か? |
2.3 Which alternatives were considered before taking the decision to deploy FRT in your agency, and what were the criteria that ultimately led to the decision to reject those alternatives? | 2.3 あなたの機関で FRT を導入する決定を下す前に、どの代替案が検討され、最終的にそれらの代替案を拒否する決定に至った基準は何でしたか? |
2.4 How do you ensure that your use of FRT, from the request to the use of the outcome of the search, is appropriate, limited and exclusively related to investigative purposes? | 2.4 調査の依頼から結果の利用まで、FRT の利用が適切で、限定的で、捜査目的にのみ関連していることをどのように確認するのか? |
2.5 What uses of FRT are allowed in your jurisdiction (based on laws defined by international, regional and national laws or policies)? | 2.5 管轄区域において、どのような FRT の利用が認められているか(国際法、地域法及び国内 法又は政策によって定義された法律に基づく)? |
2.6 What are the use cases for which you are authorized to collect images from public spaces for FRT identification? | 2.6 FRT 識別のために公共空間から画像を収集することが許可されているユースケースは何か? |
2.7 What processes and controls are in place to ensure that the collection of images from public and publicly accessible spaces for FRT identification purposes is done only for a determined list of use cases, in a limited area and for a finite time period? | 2.7 FRT識別のための公共及び公にアクセス可能な空間からの画像の収集が、決められたユースケースの リストに対してのみ、限られた地域及び有限の期間行われることを確実にするために、どのような プロセス及び管理が行われているか? |
2.8 What procedures are in place governing work conducted with independent authorities in charge of authorizing real-time uses of FRT for identification purposes under exceptional circumstances? | 2.8 例外的な状況下で、識別目的のための FRT のリアルタイム使用を認可する担当の独立した当局と行う作業を管理するために、どのような手順を設けているか? |
2.9 In cases where your agency deploys real-time FRT, is there an independent authority or an established ethical oversight committee (see Principle 1.5) that regulates its use? | 2.9 貴機関がリアルタイム FRT を導入する場合、その使用を規制する独立機関又は確立された倫理的監視委員会 (原則 1.5 参照)は存在するか? |
2.10 If real-time use of FRT is authorized through the chain of command because of a lack of time to inform the independent authority, what processes have you introduced to ensure that the chain of command informs the independent authority within 24 hours and justifies its decision to use real-time FRT, outlining why it felt there was insufficient time to obtain authorization in advance of its use? | 2.10 独立機関に報告する時間がないため、指揮系統を通じてリアルタイム FRT の使用が許可される場合、指揮系統が 24 時間以内に独立機関に報告し、リアルタイム FRT の使用に先立って承認を得る時間が不十分であると感じた理由を概説して、その決定を正当化するために、どのようなプロセスを導入しているか? |
2.11 In cases of real-time use of FRT, what processes have you implemented to make sure all images recorded by the real-time FRT system, including the biometric template and the original face image, are deleted, according to the defined policies for the storage of live images? | 2.11 リアルタイム FRT を使用する場合、生体認証テンプレートやオリジナルの顔画像など、リアルタイム FRT システムで記録された全ての画像が、定められたライブ画像の保存ポリシーに従って削除されていることを確認するために、どのようなプロセスを実施したか? |
2.12 What processes have you implemented to prevent the use of FRT to infer ethnicity, gender, sex, health status, age, emotion, opinion, religion or sexual orientation recognition or for predictive analysis? | 2.12 民族、性別、性、健康状態、年齢、感情、意見、宗教、性的指向の認識や予測分析のために FRT を使用することを防ぐために、どのようなプロセスを導入しているか? |
3. Human oversight and accountability | 3. 人的監視と説明責任 |
3.1 What processes have you introduced to ensure that an FRT output is always verified by an examiner with oversight by a manager with the appropriate level of expertise (except in the case described in Principle 2.6)? | 3.1 FRT の出力が、常に適切なレベルの専門知識を有する管理者による監督を受けた審査官によ って検証されることを確保するために、どのようなプロセスを導入したか(原則 2.6 に記載の場合を除 く)? |
3.2 How do you ensure the FRT system is always used by individuals trained as suggested on Principle 8 (except in the case described on Principle 2.6)? | 3.2 FRTシステムが、常に原則8で示唆された訓練を受けた個人によって使用されていることをどのように 確実にするか(原則2.6に記載の場合を除く)? |
3.3 Is a systematic peer review performed before reaching any final decision? | 3.3 最終決定に至る前に、体系的なピアレビューを実施しているか。 |
3.4 When two experts are assigned to evaluate the results, how do you reach a consensus between the examiner and reviewer(s)? | 3.4 2人の専門家が評価する場合、審査員とレビュアーの間でどのようにコンセンサスを得るのであるか。 |
3.5 What mechanisms are in place for citizens to file a complaint with or seek redress from a competent body? | 3.5 市民が管轄機関に苦情を申し立てたり、救済を求めたりするための仕組みはどのようなものであるか? |
3.6 Do you inform individuals taken into custody, brought in as a witness or involved in an investigation that they were identified using an FRT system, provided this does not compromise the investigation? | 3.6 捜査を妨げない限り、身柄を拘束された者、証人として呼び出された者、捜査に関与している者に FRT システムを使用して特定されたことを通知するか? |
4. Optimization of system performance | 4. システム性能の最適化 |
4.1 What existing or forthcoming standards do you ask your vendor to follow to evaluate the performance of your FRT system? | 4.1 FRT システムの性能を評価するために、ベンダーにどのような既存または今後の基準を求めているか? |
4.2 Have you introduced procurement rules to select providers who comply with these standards of performance? | 4.2 これらの性能基準を遵守するプロバイダを選択するための調達ルールを導入しているか。 |
4.3 Have you introduced procurement rules to select providers who have submitted their FRT system to an independent evaluation such as that organized by NIST? | 4.3 NIST が主催するような独立した評価に FRT システムを提出したプロバイダを選択する調達ルールが導入されているか。 |
4.4 Have you selected the technology provider who presented the best results? | 4.4 最も優れた結果を示した技術提供者を選定しているか? |
4.5 Are the independent lab tests of performance designed to model, as closely as possible, the realworld objectives and conditions in which the FRT is applied in practice? | 4.5 独立した実験室での性能試験は、FRT が実際に適用される実世界の目的と条件を可能な限りモデル化するように設計されているか? |
4.6 Do you notify the technology provider when you identify relevant errors in the use of the FRT system? | 4.6 FRT システムの使用において関連する誤りを発見した場合、技術提供者に通知しているか? |
4.7 What procurement rules have you introduced to ensure the regular upgrading or replacement of the FRT? | 4.7 FRT の定期的な改善又は交換を確保するために、どのような調達ルールを導入しているか? |
5. Mitigation of error and bias | 5. エラーとバイアスの軽減 |
5.1 How is your technology provider (or where it applies, the integrator) making sure that biases and errors are mitigated to the greatest extent possible before the FRT system’s deployment? | 5.1 FRT システムの展開前に、技術提供者(または適用される場合はインテグレーター)は、どのようにバイアスとエラーを可能な限り軽減するようにしているか? |
5.2 Has the FRT software been tested by an independent third-party organization on the level of performance across different demographic groups? | 5.2 FRT ソフトウェアは、独立した第三者機関により、異なる人口統計グループにわたる性能のレベルについてテストされたか? |
5.3 Has the design of the quality management system of the FRT system been evaluated by an independent third-party organization? | 5.3 FRT システムの品質管理システムの設計は、独立した第三者機関によって評価されているか? |
5.4 Have technology providers and integrators communicated the results of those evaluations to law enforcement agencies and the general public? | 5.4 技術プロバイダーやインテグレーターは、それらの評価結果を法執行機関や一般市民に伝えているか。 |
5.5 Do your procurement criteria require information to be supplied about the metrics that technology providers use to gauge bias and other relevant risks? | 5.5 あなたの調達基準は、技術プロバイダーがバイアスや他の関連するリスクを測定するために使用する指標について、情報を提供することを要求しているか? |
5.6 Did you set up pilot tests before deploying the FRT system? | 5.6 FRT システムを展開する前に、パイロットテストを設定したか? |
5.7 Have you deployed risk-mitigation processes to identify, monitor and mitigate the risks of error and biases throughout the entire life cycle of the system? | 5.7 システムの全ライフサイクルを通じて、エラーとバイアスのリスクを特定、監視、軽減するためのリスク軽減プロセスを展開したか? |
5.8 Have you programmed internal audits and, if possible, an independent third-party audit, to validate the robustness of your risk-mitigation processes? If yes, have you publicly shared the results of these audits? | 5.8 リスク軽減プロセスの堅牢性を検証するために、内部監査及び可能であれば独立した第三者監査 を計画したか?もしそうなら、これらの監査の結果を公表しているか? |
5.9 Have you established an in-service support agreement throughout the entire life cycle of the system in collaboration with technology providers and integrators? | 5.9 技術プロバイダーやインテグレーターと協力し、システムの全ライフサイクルを通じてのインサービスサポートアグリーメントを確立しているか? |
6. Legitimacy of probe images and reference databases | 6. 捜査画像と参照データベースの正当性 |
6.1 Is your processing of probe images and reference databases, including storage criteria, purpose limitation, retention period and deletion rules, compliant with international, regional and national laws or policies? | 6.1 保存基準、目的制限、保存期間、削除ルールを含む捜査画像と参照用データベースの処理は、国際、地域、国内の法律や政策に準拠しているか? |
6.2 What processes have you introduced to ensure that the collection of probe images is conducted on a legal basis and aimed at a specific purpose? | 6.2 捜査画像の収集が、法的根拠に基づき、特定の目的に沿って行われていることを保証するために、どのようなプロセスを導入しているか? |
6.3 How do you ensure that images contained in your reference databases are collected only with a legal basis? | 6.3 参照データベースに含まれる画像が、法的根拠に基づいてのみ収集されることをどのように保証しているか。 |
6.4 Do you label unidentified probe images according to their corresponding categories – e.g. as “unidentified suspect” or “unidentified victim”? | 6.4 未確認の捜査画像に、対応するカテゴリ(例えば「容疑者不明」「被害者不明」など)に応じてラベルを付けているか? |
6.5 Do you store unidentified probe images in your reference databases? If yes, can they be searched separately? | 6.5 未特定の捜査画像を参照用データベースに保存しているか?保存している場合、それらを個別に検索することができるか? |
6.6 Do you remove unidentified probe images from the unsolved probe database if an image’s underlying status, which justified the image’s insertion in the database, changes? | 6.6 データベースへの登録を正当化した画像の基本ステータスが変更された場合、未解決事件データベースから未同定捜査画像を削除するか? |
6.7 What technical measures have you put in place to prevent the export of images and biometric metadata to public cloud-based FRT systems that could potentially be outside the local jurisdiction? | 6.7 画像とバイオメトリックメタデータが、現地の管轄外にある可能性のあるパブリッククラウドベースの FRT システムにエクスポートされるのを防ぐために、どのような技術的措置をとっているか? |
6.8 How do you ensure a strict and transparent chain of custody of all images (probe image sets and reference databases)? | 6.8 すべての画像(捜査画像セットと参照データベース)の厳密かつ透明な保管の連鎖をどのように 確保しているか? |
6.9 Are there clear and transparent rules designating who does and does not have access to probe images and reference databases and under what circumstances? | 6.9 誰が、どのような状況下で、捜査画像及び参照用データベースにアクセスでき、またできないかを 指定する明確かつ透明な規則があるか? |
6.10 Have you established clear and transparent protocols for determining when, and based on what criteria, images are to be deleted from a probe image set or a reference database, taking into particular consideration the need to ensure the protection of the privacy of any individuals appearing in such images? | 6.10 画像に写っている個人のプライバシー保護を確保する必要性を特に考慮し、捜査画像セットまたは参照データベースから画像を削除するタイミングとその基準を決定するための明確で透明性のあるプロトコルが確立されているか? |
6.11 Is the biometric template of the probe image deleted from the FRT system for all solved cases or for cases for which the investigation has been concluded? | 6.11 調査画像の生体認証テンプレートは、全ての解決済み事件又は捜査が終了した事件の FRT システムから削除されるか? |
6.12 For all solved cases or for cases for which the investigation has been concluded, is the original facial image stored in line with existing national law and policies for accountability purposes? | 6.12 すべての解決済み事件又は捜査が終了した事件について、オリジナルの顔画像は、説明責 任の目的のために既存の国内法及び政策に従って保管されているか? |
7. Integrity of images and metadata | 7. 画像とメタデータの完全性 |
7.1 Have you established image quality standards for reference database images? | 7.1 参照データベースの画像について、画質基準を設けているか? |
7.2 Do you exclude reference images that do not meet those quality standards? | 7.2 その品質基準を満たさない参照画像は除外しているか? |
7.3 Do you have a procedure in place to perform an image quality assessment of the probe image before any FRT search is launched? | 7.3 FRT検索を開始する前に、捜査画像の画質評価を行う手順を定めているか? |
7.4 Have you established a threshold of a minimum number of pixels between the eyes for the probe image to be used? | 7.4 使用する捜査画像について、目と目の間の最小ピクセル数の閾値を定めているか。 |
7.5 Do you exclude probe images that do not satisfy a manual assessment of image quality? | 7.5 画質の手動評価を満足しない捜査画像は除外しているか? |
7.6 What quality reference standards and thresholds are you following? Have you considered best practices and recommendations, such as those presented by ICAO, FISWG, ENFSI/DIWG and IFEWG? | 7.6 どのような品質基準規格や閾値に従っているか?ICAO、FISWG、ENFSI/DIWG、IFEWGが提示するようなベストプラクティスや勧告を検討したか? |
7.7 How do you manage the risks of image manipulation (deepfakes, morphing, etc.)? Do you deploy a specific procedure to detect them when you collect images from uncontrolled sources? | 7.7 画像加工(ディープフェイク、モーフィングなど)のリスクマネジメントはどのように行っているか?管理されていないソースから画像を収集する場合、それらを検出するための特定の手順を導入しているか? |
7.8 If you detect a manipulated image (deepfake, morphing, etc.), how do you process this image? | 7.8 操作された画像(ディープフェイク、モーフィングなど)を検出した場合、その画像をどのように処理するか? |
7.9 If you perform forensic upgrading of face quality, which methods of image processing do you use? Can any of these processes be considered to modify the original face features, adding or removing data from the image? | 7.9 顔の品質に関するフォレンジック・改善を行う場合、どのような画像処理の方法を使用するか? これらの処理のいずれかが、元の顔の特徴を修正し、画像からデータを追加または削除すると考えられますか? |
7.10 Do you comply with published guidance or standards (such as by FISWG) when using tools for forensic upgrading of face quality? | 7.10 顔のフォレンジック・改善のためのツールを使用する際、(FISWGなどによる)公表されたガイダンスや標準に準拠しているか? |
7.11 How do you ensure that non-forensic upgrading of face quality is used only during the search phase? | 7.11 顔の画質の非鑑定的向上が検索段階でのみ使用されることをどのように確認するか? |
7.12 In case of a possible match, do you use the forensic upgraded image for final conclusions? | 7.12 一致する可能性がある場合、最終的な結論のためにフォレンジック・改善された画像を使用するか? |
7.13 How do you document forensic upgrading to ensure the auditability and reproducibility of the upgrading process? | 7.13 改善プロセスの監査可能性と再現性を確保するために、フォレンジック・改善をどのように文書化するか? |
7.14 What processes do you follow to ensure the proper attribution of identity to photos in the reference dataset and to verify the serial number of photos, as well as their traceability and origin? | 7.14 参照データセット内の写真への適切な帰属を保証し、写真のシリアル番号、トレーサビリティ、出所を検証するために、どのようなプロセスをとっているか? |
7.15 Have you performed a system security verification to identify vulnerabilities to hacking and cyberattacks? | 7.15 ハッキングやサイバー攻撃に対する脆弱性を特定するために、システムセキュリティの検証を行ったか。 |
8. Skilled human interface and decision-making | 8. 熟練したヒューマンインターフェースと意思決定 |
8.1 Is FRT used only by trained persons? | 8.1 FRTは訓練を受けた者のみが使用しているか? |
8.2 Does everybody within the organization understand the capacities and limits of the technology and system used? | 8.2 組織内の全員が、使用する技術やシステムの能力と限界を理解しているか? |
8.3 Is a training programme offered and, if so, how often is it offered? | 8.3 トレーニングプログラムは提供されているか、提供されている場合はどのくらいの頻度で提供されているか? |
8.4 How do you evaluate the quality of the training programme over time, taking into consideration the latest progress in research (e.g. have you established a scientific committee or equivalent, etc.)? | 8.4 研究の最新の進捗を考慮し、トレーニングプログラムの質を長期的にどのように評価しているか(例:科学委員会または同等の組織を設立しているかなど)? |
8.5 Have you ensured that the training (and certification when it applies) of face experts and agents within the chain of command/management includes information about: | 8.5 指令系統/管理系統内の顔専門家及び代理人の研修(及び適用時の認証)には、以下の情報が含まれることを確認したか? |
8.5.1 Mandatory regulations, laws or policies concerning the use of biometrics? | 8.5.1 バイオメトリクスの使用に関する強制的な規制、法律又は政策 |
8.5.2 Risk of machine biases related to FRT systems? | 8.5.2 FRT システムに関連する機械のバイアスのリスク |
8.5.3 Risk of human biases when using FRT systems? | 8.5.3 FRT システムを使用する際の人間のバイアスのリスク |
8.5.4 Risk of false positives from twins, siblings and other related individuals? | 8.5.4 双子、兄弟姉妹、その他の血縁者から偽陽性が生じるリスク |
8.5.5 Risk of image manipulation, including data integrity attacks and data morphs, and training on existing or new tools used to detect them? | 8.5.5 データ整合性攻撃やデータモーフを含む画像操作のリスクと、それらを検出するために使用される既存または新規ツールのトレーニング |
8.5.6 Implementation of risk-mitigation methodologies? | 8.5.6 リスク軽減のための方法論の実施 |
8.5.7 Nature of the investigative leads and best practices for verifying the identity of leads generated? | 8.5.7 調査の手がかりの性質と、生成された手がかりの同一性を検証するためのベストプラクティス |
8.5.8 Data governance procedures, including the collection, storage, integrity and traceability of data? | 8.5.8 データの収集、保管、完全性、トレーサビリティを含む、データガバナンスの手順 |
8.5.9 Use of tools that assist examiners in understanding the reasoning behind systems’ decisions/ recommendations? | 8.5.9 審査官がシステムの決定/勧告の背後にある理由を理解することを支援するツールの使用 |
8.6 Have you implemented recruitment processes to primarily hire examiners who perform well on standardized face comparison tests? | 8.6 標準化された顔比較試験で優れた成績を収めた審査官を主に採用する採用プロセスを実施しているか |
9. Transparency | 9. 透明性 |
9.1 Is information about your use of FRT publicly available on a permanent basis or by request? | 9.1 FRT の使用に関する情報は、恒常的に、または要求に応じて一般に公開されているか? |
9.2 Have you, or another official authority with input from your agency, publicly shared information about: | 9.2 あなた、またはあなたの機関から意見を得た別の公的機関は、以下の情報を公に共有したか? |
9.2.1 The purpose of the FRT solution deployed and a clear definition of its use and the various FRT use cases? | 9.2.1 導入された FRT ソリューションの目的、及びその使用と様々な FRT 使用事例の明確な定義 |
9.2.2 The vendor and the name and version of the selected software? | 9.2.2 選択したソフトウェアのベンダー、名称、バージョン |
9.2.3 Your processes regarding the use of probe images, including procedures and criteria to select, store/not store images and, if stored, for how long? | 9.2.3 画像を選択する手順と基準、保存する/しない、保存する場合はその期間を含む、捜査画像の使用に関 するあなたのプロセス |
9.2.4 Your processes regarding the use of reference databases, including procedures to consult the databases, and criteria to select, store/not store probe images in this reference database and, if stored, for how long? | 9.2.4 参照データベースの使用に関するあなたのプロセス(データベースを参照する手順、この参照データベースにプ ローブ画像を選択、保存/非保存する基準、保存する場合はその期間を含む) |
9.2.5 Information of whether the reference databases can be used to train or refine other FRT systems or machine learning models in general? | 9.2.5 参照データベースは、他の FRT システムや機械学習モデル全般の訓練や改良に使用できるかどうかの情報 |
9.2.6 The policy regarding the type of data that may be shared with other organizations, including personal data and databases of face images? | 9.2.6 個人データや顔画像のデータベースなど、他の組織と共有することができるデータの種類に関する方針 |
9.2.7 The list of law enforcement departments that have access to FRT search requests? | 9.2.7 FRTの検索要求にアクセスできる法執行部門のリスト |
9.2.8 The functional title, type of expertise and level of training of individuals using the system? | 9.2.8 システムを使用する個人の職務上の肩書き、専門知識の種類、および訓練レベル |
9.2.9 The process to determine a possible match process, namely blind-review or peer-review of possible matches? | 9.2.9 可能性のある一致のプロセス、すなわちブラインドレビューまたはピアレビューを決定するプロセス |
9.2.10 Information about the mechanisms in place (see Principle 1.5) to ensure FRT is used as intended? | 9.2.10 FRT が意図されたとおりに使用されていることを確認するために設置された機構(原則 1.5 参照)についての情報 |
9.2.11 Auditable records of search requests made by law enforcement such as the number of requests, the investigative leads generated and the type of crimes related to the requests? | 9.2.11 法執行機関による捜査要請の監査可能な記録(要請数、生成された捜査の手がかり、要請に関連する犯罪の種類など) |
9.2.12 The results of audits and/or evaluations of the performance of the FRT system conducted by the vendor of the technology? | 9.2.12 技術ベンダによって実施されたFRTシステムの性能の監査及び/又は評価の結果 |
9.2.13 The results of audits and/or evaluations of the performance of the FRT system conducted by the law enforcement agency? | 9.2.13 法執行機関によって実施された FRT システムの性能の監査及び/又は評価の結果 |
9.2.14 Information about how an individual can contact law enforcement to submit a query or complaint? | 9.2.14 個人が問い合わせや苦情を提出するために法執行機関に連絡できる方法に関する情報 |
9.2.15 A report presenting the complaints, and responses from law enforcement agencies to citizens’ complaints about the use of FRT? | 9.2.15 FRT の使用に関する市民の苦情、およびそれに対する法執行機関からの回答を提示する報告書 |
9.3 How do you ensure that the information provided to the public about law enforcement’s use of FRT is concise, easily accessible, understandable and provided in clear and plain language? | 9.3 法執行機関の FRT 利用について市民に提供される情報が簡潔で、容易にアクセスでき、理解でき、明瞭で平易な言語で提供されることをどのように保証するか? |
● まるちゃんの情報セキュリティきまぐれ日記
顔認識関連
日本での犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.09.10 個人情報保護委員会 第6回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.06.24 個人情報保護委員会 第5回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.05.25 個人情報保護委員会 第4回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.04.17 個人情報保護委員会 第3回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.03.16 個人情報保護委員会 第2回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2022.02.01 個人情報保護委員会 第1回犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会
・2021.12.25 個人情報保護委員会 犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会の設置
欧州AI規制法案
・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出
・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
英情報コミッショナー意見書「公共の場所でのライブ顔認証技術の使用」
・2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念
欧州評議会 顔認証に関するガイドライン (Guidelines on Facial Recognition)
・2021.01.30 欧州評議会 108号条約委員会が「顔認識に関するガイドライン」を採択しましたね。。。
米国GAO関係
・2022.07.10 米国 GAO 顔認識技術:連邦政府機関の利用と関連するプライバシー保護 (2022.06.29)
・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)
・2021.08.27 米国 GAO 顔認識技術:連邦政府機関による現在および計画中の使用方法
・2021.07.15 米国GAO 顔認識技術について連邦法執行機関はプライバシーやその他のリスクをより適切に評価する必要がある at 2021.06.03
Faicial Recognition
・2022.07.12 米国 国土安全保障省検査局 米国税関・国境警備局は空港での国際線旅行者の識別のために顔認識のポリシーを遵守している (2022.07.07)
・2022.05.30 英国 情報コミッショナー 顔認識データベース会社Clearview AI Incに750万ポンド以上の罰金を科し、英国人のデータの削除を命じた
・2022.05.20 欧州データ保護委員会 (EDPB) 意見募集「法執行分野における顔認識技術の使用に関するガイドライン」
・2022.05.15 カナダ プライバシーコミッショナー室 プライバシーに関する戦略的優先事項とそこから生まれたテーマと見解
・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)
・2022.01.21 ENISA デジタル・アイデンティティ攻撃に注意:あなたの顔が偽装される可能性があります
・2021.12.25 個人情報保護委員会 犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会の設置
・2021.10.17 インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査」 at 2021.10.05
・2021.09.29 世界経済フォーラム (WEF) 技術の責任ある利用:IBMをケースにした研究
・2021.09.27 欧州委員会 職場での電子モニタリングと監視 (Electronic Monitoring and Surveillance in the Workplace)
・2021.09.10 EU議会 提言 バイオメトリクス認識と行動検知
・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」
・2021.08.27 米国 GAO 顔認識技術:連邦政府機関による現在および計画中の使用方法
・2021.08.20 英国 意見募集 監視カメラ実施規範改訂案 by 監視カメラコミッショナー at 2021.08.13
・2021.08.11 EU議会 STUDY バイオメトリクス認識と行動検知
・2021.08.10 EU議会 STUDY ヨーロッパの政策におけるディープフェイクへの取り組み at 2021.07.30
・2021.08.08 EU議会 BRIEFING スマートシティとアーバンモビリティにおける人工知能 at 2021.07.23
・2021.08.07 総務省 AIネットワーク社会推進会議 「報告書2021」の公表
・2021.08.07 Atlantic Council AIとデータ倫理におけるコミットメントからコンテンツへの移行:正義と説明可能性
・2021.08.04 中国 通信院 信頼できる人工知能についての白書 at 2021.07.09
・2021.08.03 中国 最高人民法院 「民事案件における顔識別技術の使用に関する司法解釈」
・2021.07.15 米国GAO 顔認識技術について連邦法執行機関はプライバシーやその他のリスクをより適切に評価する必要がある at 2021.06.03
・2021.07.12 ニューヨーク市 生体情報プライバシー条例が2021.07.09から施行されましたね。。。
・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス
・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス
・2021.06.23 欧州 EDPBとEDPS 公共の場における人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう要請
・2021.06.22 欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表
・2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念
・2021.06.17 米国上院・下院 顔認識ツールを含む生体情報監視を政府が使用することを禁止する「顔認識および生体認識技術モラトリアム法案」
・2021.06.17 英国政府:データ倫理とイノベーションセンター プライバシーに関するユーザの積極的選択中間報告(スマートフォン)
・2021.06.08 U.S. の公益団体であるEPICが顔認識技術および遠隔生体認識技術の使用禁止を世界的に呼びかけていますね。。。
・2021.05.12 カナダのプライバシーコミッショナーが顔認識技術について議会で見解を述べたようですね。。。
・2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています
・2021.05.03 中国 意見募集 顔認識に続けて、歩行認識、音声認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
・2021.04.22 ドイツ連邦情報セキュリティ局 (BSI) が安全なAI導入のための対策をまとめていますね。。。
・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
・2021.03.14 CNIL 乗客のマスク着用率を測定するためのインテリジェントビデオの使用に関する法令についての意見を公表
・2021.02.05 カナダのプライバシーコミッショナーが顔認識ソフトウェアを提供するClearview AIについての声明を出していますね。。。
・2021.01.30 欧州評議会 108号条約委員会が「顔認証に関するガイドライン」を採択しましたね。。。
・2021.01.12 欧州委員会 市民イニシアティブとして「生体認証による大量監視慣行の禁止」を登録
・2021.01.04 ニューヨーク州 知事が学校での顔認識技術の使用を一時停止し、研究を指示する法律に署名 at 2020.12.22
・2020.11.04 カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)
・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。
・2020.06.14 IBM, Amazon, Microsoftは顔認証システムを米国の警察には販売しない
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
・2020.03.26 JVNVU#99619336 勾配降下法を使用する機械学習モデルに、誤った識別をさせるような入力を作成することが可能な問題
・2020.03.04 FIRST EVER DECISION OF A FRENCH COURT APPLYING GDPR TO FACIAL RECOGNITION
・2020.02.17 遠くからでもわかる顔認識システム!
ぐっと遡って、2000年代
・2009.11.07 世界プライバシー宣言(Global Privacy Standards for a Global World)
・2005.08.11 外務省 IC旅券調査研究報告書
・2005.02.04 監視社会と信頼関係
« 金融庁 財務報告に係る内部統制の評価及び監査の基準並びに財務報告に係る内部統制の評価及び監査に関する実施基準の改訂について... | Main | 経団連 「サイバーセキュリティ経営ガイドライン Ver3.0 (案) 」に対する意見 »
Comments