« 経済産業省 サイバーセキュリティ経営ガイドライン Ver3.0(案)に対する意見募集 | Main | 米国 国家防衛戦略 »

2022.10.28

英国 ICO 未熟なバイオメトリクス技術は人を差別する可能性がある「バイオメトリクス洞察レポート」「バイオメトリクス予見レポート」

こんにちは、丸山満彦です。

英国の情報コミッショナー事務局 (Infomation Commissioner's Office; ICO) は、「未熟なバイオメトリクス技術は人を差別する可能性がある」と警告を出していますね。。。バイオメトリクスを利用した感情分析技術(視線追跡、感情分析、顔の動き、歩行分析、心拍、顔の表情、肌の水分などのデータをAI等を利用して処理し、感情を推測する技術)について気にしているのでしょうかね。。。

2023年春にバイオメトリクスに関するガイダンスを出すようですね。。。

 

Information Commissioner's Office: ICO

・2022.10.26 ‘Immature biometric technologies could be discriminating against people’ says ICO in warning to organisations

‘Immature biometric technologies could be discriminating against people’ says ICO in warning to organisations 「未熟なバイオメトリクス技術は人を差別する可能性がある」とICOが組織への警告を発表
The Information Commissioner’s Office (ICO) is warning organisations to assess the public risks of using emotion analysis technologies, before implementing these systems. Organisations that do not act responsibly, posing risks to vulnerable people, or fail to meet ICO expectations will be investigated. 情報コミッショナー事務局(ICO)は、感情分析技術を導入する前に、その公共的リスクを評価するよう組織に警告している。責任ある行動をとらず、弱者にリスクを与える組織や、ICOの期待に応えられない組織は、調査を受けることになる。
Emotional analysis technologies process data such as gaze tracking, sentiment analysis, facial movements, gait analysis, heartbeats, facial expressions and skin moisture. 感情分析技術は、視線追跡、感情分析、顔の動き、歩行分析、心拍、顔の表情、肌の水分などのデータを処理する。
Examples include monitoring the physical health of workers by offering wearable screening tools or using visual and behavioural methods including body position, speech, eyes and head movements to register students for exams. 例としては、ウェアラブルスクリーニングツールを提供して労働者の身体的健康を監視したり、体位、スピーチ、目、頭の動きなどの視覚的・行動的手法を用いて受験生を登録したりすることが挙げられる。
Emotion analysis relies on collecting, storing and processing a range of personal data, including subconscious behavioural or emotional responses, and in some cases, special category data. This kind of data use is far more risky than traditional biometric technologies that are used to verify or identify a person. 感情分析は、潜在的な行動や感情的な反応、場合によっては特別なカテゴリーデータなど、さまざまな個人データの収集、保存、処理に依存する。このようなデータの使用は、個人の確認や識別に使用される従来のバイオメトリクス認証技術よりもはるかにリスクが高い。
The inability of algorithms which are not sufficiently developed to detect emotional cues, means there’s a risk of systemic bias, inaccuracy and even discrimination. 感情の手がかりを検出するためのアルゴリズムが十分に発達していないため、体系的なバイアス、不正確さ、さらには差別のリスクがあることを意味する。
Deputy Commissioner, Stephen Bonner said: 副長官であるStephen Bonnerは、次のように述べている。
“Developments in the biometrics and emotion AI market are immature. They may not work yet, or indeed ever. 「バイオメトリクスと感情AI市場の開発は未熟である。まだ、いや、これからも機能しないかもしれない。」
“While there are opportunities present, the risks are currently greater. At the ICO, we are concerned that incorrect analysis of data could result in assumptions and judgements about a person that are inaccurate and lead to discrimination. 「機会が存在する一方で、現状ではリスクの方が大きい。ICOでは、データの不正確な分析が、その人に関する不正確な仮定や判断につながり、差別につながることを懸念している。」
“The only sustainable biometric deployments will be those that are fully functional, accountable and backed by science. As it stands, we are yet to see any emotion AI technology develop in a way that satisfies data protection requirements, and have more general questions about proportionality, fairness and transparency in this area. 「持続可能なバイオメトリクス認証の導入は、完全に機能し、説明責任を果たし、科学的な裏付けがあるものだけだろう。現状では、データ保護の要件を満たすような感情的なAI技術の開発はまだ見られず、この分野における比例性、公平性、透明性についてより一般的な疑問を持っている。」
“The ICO will continue to scrutinise the market, identifying stakeholders who are seeking to create or deploy these technologies, and explaining the importance of enhanced data privacy and compliance, whilst encouraging trust and confidence in how these systems work.” 「ICOは今後も市場を精査し、こうした技術の創出や展開を目指す関係者を特定し、データプライバシーとコンプライアンスの強化の重要性を説明するとともに、こうしたシステムの仕組みに対する信頼と信用を促していく。」
Biometric guidance coming in Spring 2023   2023年春にバイオメトリクスのガイダンスが発行される
The ICO is an advocate for genuine innovation and business growth. To enable a fairer playing field, we will act positively towards those demonstrating good practice, whilst taking action against organisations who try to gain unfair advantage through the use of unlawful or irresponsible data collection technologies. このガイダンスは、エイダ・ラブレス研究所とブリティッシュ・ユース・カウンシルの協力のもとで開催される公開討論会にも協力し、人々を中核に据えたものとなる。 このダイアログでは、バイオメトリクス技術に対する一般の人々の認識を探り、バイオメトリクスデータの使用方法について意見を収集する。
As well as warning about the risks around emotion analysis technologies, we are developing guidance on the wider use of biometric technologies. These technologies may include facial, fingerprint and voice recognition, which are already successfully used in industry. バイオメトリクス製品やサービスの開発段階で企業や組織を支援することは、「プライバシー・バイ・デザイン」のアプローチを取り入れることになるため、リスク要因を減らし、組織が安全かつ合法的に運営されていることを保証することになる。
Our biometric guidance, which is due to be published in Spring 2023, will aim to further empower and help businesses, as well as highlight the importance of data security. Biometric data is unique to an individual and is difficult or impossible to change should it ever be lost, stolen or inappropriately used.  2023年春に発行予定のバイオメトリクスのガイダンスは、ビジネスの力をさらに高め、支援するとともに、データセキュリティの重要性を強調することを目的としている。バイオメトリクスデータは個人に固有のものであり、紛失、盗難、不適切な利用があった場合、変更することは困難か不可能である。
This guidance will also have people at its core, with the assistance of public dialogues held in liaison with both the Ada Lovelace Institute and the British Youth Council. These will explore public perceptions of biometric technologies and gain opinions on how biometric data is used. また、このガイダンスは、エイダ・ラブレイス研究所やブリティッシュ・ユース・カウンシルと連携して開催されるパブリック・ダイアログの支援を受けながら、人を中心に据えたものとなる。このダイアログでは、バイオメトリクス技術に対する一般の人々の認識を探り、バイオメトリクスデータの利用方法について意見を聞くことができる。
Supporting businesses and organisations at the development stage of biometrics products and services embeds a ‘privacy by design’ approach, thus reducing the risk factors and ensuring organisations are operating safely and lawfully. バイオメトリクス製品やサービスの開発段階から企業や組織をサポートすることで、「プライバシー・バイ・デザイン」のアプローチを取り入れ、リスク要因を低減し、組織の安全かつ合法的な運営を保証する。
Further information is available in two new reports which have been published this week to support businesses navigating the use of emerging biometrics technologies. さらに、新たなバイオメトリクス技術の活用を目指す企業を支援するため、今週発表された2つの新しいレポートから情報を得ることができる。
Examples of where biometric technologies are currently being used:   バイオメトリクス認証技術の最近の活用例・
・Financial companies are using facial recognition to verify human identities through comparing photo IDs and a selfie. Computer systems then verify the likelihood of the documents being genuine and the person in both images being the same. ・金融機関は、顔認識技術を使って、写真付き身分証明書と自撮り写真を比較し、人間の身元を確認する。そして、コンピュータシステムが、書類が本物であること、両方の画像に写っている人物が同一であることの可能性を検証する。
・Airports are aiming to streamline passenger journeys through facial recognition at check-in, self-service bag drops and boarding gates. ・空港では、チェックイン、セルフサービスの手荷物預かり、搭乗ゲートでの顔認識により、乗客の移動を合理化することを目指している。
・Other companies are using voice recognition to allow users to gain access to secure platforms instead of using passwords. ・また、音声認識を利用して、パスワードの代わりに安全なプラットフォームへのアクセスを可能にする企業もある。
Biometric technologies are also expected to have a major impact on the following sectors:   また、バイオメトリクス技術は、以下の分野にも大きな影響を与えることが予想される:
・The finance and commerce sectors are rapidly deploying behavioural biometrics and technologies such as voice, gait and vein geometry for identification and security purposes. ・金融や商業の分野では、本人確認やセキュリティのために、行動バイオメトリクスや音声、歩行、静脈ジオメトリなどの技術が急速に導入されていく。
・The fitness and health sector which is expanding the range of biometrics they collect, with consumer electronics being repurposed for health data. ・フィットネスや健康分野では、家電製品が健康データに再利用されるなど、バイオメトリクス情報収集の幅が広がっている。
・The employment sector has begun to deploy biometrics for interview analysis and staff training – complete our public consultation ・雇用分野では、面接分析やスタッフ研修にバイオメトリクスの導入が始まっている。 - 公開コンサルテーションを終了した。
・Behavioural analysis in early education is becoming a significant, if distant, concern. ・早期教育における行動分析学は、遠い存在ではあるが、重要な関心事となりつつある。
・Biometrics will also be integral to the success of immersive entertainment. ・また、没入型エンターテインメントの成功には、バイオメトリクス認証が不可欠になる。
Our look into biometrics futures is a key part of the ICO’s horizon-scanning function. This work identifies the critical technologies and innovation that will impact privacy in the near future – it’s aim is to ensure that the ICO is prepared to confront the privacy challenges transformative technology can bring and ensure responsible innovation is encouraged. バイオメトリクスの未来についての考察は、ICOの水平スキャンニング機能の重要な部分を担っている。この作業は、近い将来プライバシーに影響を与える重要な技術と革新を特定する。その目的は、ICOが変革的な技術がもたらすプライバシーの課題に立ち向かう準備を整え、責任ある革新を確実に促進することにある。
Notes to editors: 編集後記
1. The Information Commissioner’s Office (ICO) is the UK’s independent regulator for data protection and information rights law, upholding information rights in the public interest, promoting openness by public bodies and data privacy for individuals. 1. 情報コミッショナーオフィス(ICO)は、データ保護と情報権利法に関する英国の独立規制機関であり、公共の利益のために情報権利を支持し、公的機関による公開と個人のデータプライバシーを促進する。
2. The ICO has specific responsibilities set out in the Data Protection Act 2018 (DPA2018), the United Kingdom General Data Protection Regulation (UK GDPR), the Freedom of Information Act 2000 (FOIA), Environmental Information Regulations 2004 (EIR), Privacy and Electronic Communications Regulations 2003 (PECR) and a further five acts and regulations.  2. ICOは、データ保護法2018(DPA2018)、英国一般データ保護規則(英国GDPR)、情報公開法2000(FOIA)、環境情報規則2004(EIR)、プライバシーおよび電子通信規則2003(PECR)、さらに5つの法律および規則で定められた特定の責任を担っている。
3. Biometric technologies are: technologies that process biological or behavioural characteristics for the purpose of identification, verification, categorisation or profiling.   3. バイオメトリクス技術とは:識別、検証、分類またはプロファイリングを目的として、生物学的または行動学的特性を処理する技術。  
4. If you are interested in biometric technologies and would like engage with the work we are doing in this area please email biometrics@ico.org.uk. 4. バイオメトリクス技術に興味があり、この分野で私たちが行っている活動に参加したい方は、biometrics@ico.org.uk にメールを送付すること。

 

・2022.10.26 Biometrics technologies

Biometrics technologies バイオメトリクス技術
The Information Commissioner’s Office (ICO) is warning organisations to assess the public risks of using emotion analysis technologies before implementing these systems. Organisations that do not act responsibly, posing risks to vulnerable people, or fail to meet ICO expectations will be investigated. 情報コミッショナー事務局(ICO)は、感情分析技術を使用する際の公衆のリスクを評価した上で、これらのシステムを導入するよう組織に警告している。責任ある行動をとらず、弱者にリスクを与える組織や、ICOの期待に応えられない組織には調査が行われる。
Supporting businesses and organisations at the development stage of biometrics products and services embeds a ‘privacy by design’ approach, thus reducing the risk factors and ensuring organisations are operating safely and lawfully. バイオメトリクス製品およびサービスの開発段階で企業や組織を支援することは、「プライバシー・バイ・デザイン」アプローチを組み込むことになるため、リスク要因を減らし、組織が安全かつ合法的に運営されていることを保証する。
Further information is available in two new reports which have been published to support businesses navigating the use of emerging biometrics technologies. さらに詳しい情報は、新たなバイオメトリクス技術の利用を進める企業を支援するために発行された2つの新しい報告書に記載されている。
Further Reading 参考資料
Biometrics insight report - 26 October 2022 バイオメトリクス洞察レポート(2022年10月26日発行)
Biometrics foresight report - 26 October 2022 バイオメトリクス予見レポート(2022年10月26日発行)

 

・[PDF] Biometrics insight report

20221028-55557

目次...

Biometrics insight report バイオメトリクス洞察レポート
Introduction 序文
Background 背景
Why biometric data? なぜバイオメトリクスデータなのか?
Defining biometric data バイオメトリクスデータの定義
Biometric technologies – the context バイオメトリクス技術 - その背景
Why biometrics technologies? なぜバイオメトリクス技術なのか?
Biometric technologies: patent analysis バイオメトリクス技術:特許分析
Biometric technologies: further insights バイオメトリクス技術:さらなる洞察
Legal context 法的背景
What’s next? 次は何?
Annex A – Glossary 附属書A - 用語集

 

・[PDF] Biometrics foresight report 

20221028-55703

目次...

Biometrics foresight report バイオメトリクス予見レポート
Introduction 序文
Context 背景
Sector scenarios 分野別シナリオ
Short term scenarios 短期シナリオ
Medium term scenarios 中期シナリオ
Long term scenarios 長期シナリオ
Key issues in biometric futures バイオメトリクス情報未来における重要課題
Issue 1: Clarification of terminology and production of guidance 課題1:用語の明確化、ガイダンスの作成
Issue 2: Increasing use of biometric technologies for classificatory purposes 課題2:分類のためのバイオメトリクス技術の利用拡大
Issue 3: Compliance with transparency and lawfulness requirements when processing ambient data will present significant challenges 課題3:環境データを処理する際の透明性と適法性の要件への準拠が大きな課題となる
Issue 4: Emotional AI is developing at pace despite being considered a high risk biometric technology 課題4:高リスクのバイオメトリクス技術と考えられているにもかかわらず、エモーショナルAIは急速に発展している
What’s next? 次は何?
Annex A – Methodology and responses 附属書A - 方法論と回答
Annex B – Call for view questions 附属書B - 閲覧募集の質問

 


まるちゃんの情報セキュリティ気まぐれ日記

・2022.10.29 英国 ICO 雇用慣行とデータ保護:労働者の健康情報案に関するコンサルテーション (2022.10.27)

・2022.10.29 英国 ICO 雇用慣行:職場における監視ガイダンスと影響評価案に関するコンサルテーション (2022.10.12)

・2022.10.28 英国 ICO 未熟なバイオメトリクス技術は人を差別する可能性がある「バイオメトリクス洞察レポート」「バイオメトリクス予見レポート」

 

中国は顔認識、歩行認識、音声認識データについてのセキュリティ標準を最近決定しましたね。。。

・2022.10.22 中国 TC260 14のセキュリティ関連の標準を決定

 

Faicial Recognition

・2022.10.07 米国 科学技術政策局 AI権利章典の青写真

・2022.10.03 米国 2022年顔認識法案

・2022.07.12 米国 国土安全保障省検査局 米国税関・国境警備局は空港での国際線旅行者の識別のために顔認識のポリシーを遵守している (2022.07.07)

・2022.05.30 英国 情報コミッショナー 顔認識データベース会社Clearview AI Incに750万ポンド以上の罰金を科し、英国人のデータの削除を命じた

・2022.05.20 欧州データ保護委員会 (EDPB) 意見募集「法執行分野における顔認識技術の使用に関するガイドライン」

・2022.05.15 カナダ プライバシーコミッショナー室 プライバシーに関する戦略的優先事項とそこから生まれたテーマと見解

・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)

・2022.01.21 ENISA デジタル・アイデンティティ攻撃に注意:あなたの顔が偽装される可能性があります

・2021.12.25 個人情報保護委員会 犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会の設置

・2021.10.17 インターポール、国連地域間犯罪司法研究所、オランダ警察、世界経済会議が「顔認証を責任もって制限するためのポリシーフレームワーク ユースケース:法執行機関の捜査」 at 2021.10.05

・2021.09.29 世界経済フォーラム (WEF) 技術の責任ある利用:IBMをケースにした研究

・2021.09.27 欧州委員会 職場での電子モニタリングと監視 (Electronic Monitoring and Surveillance in the Workplace)

・2021.09.10 EU議会 提言 バイオメトリクス認識と行動検知

・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」

・2021.08.27 米国 GAO 顔認識技術:連邦政府機関による現在および計画中の使用方法

・2021.08.20 英国 意見募集 監視カメラ実施規範改訂案 by 監視カメラコミッショナー at 2021.08.13

・2021.08.11 EU議会 STUDY バイオメトリクス認識と行動検知

・2021.08.10 EU議会 STUDY ヨーロッパの政策におけるディープフェイクへの取り組み at 2021.07.30

・2021.08.08 EU議会 BRIEFING スマートシティとアーバンモビリティにおける人工知能 at 2021.07.23

・2021.08.07 総務省 AIネットワーク社会推進会議 「報告書2021」の公表

・2021.08.07 Atlantic Council AIとデータ倫理におけるコミットメントからコンテンツへの移行:正義と説明可能性

・2021.08.04 中国 通信院 信頼できる人工知能についての白書 at 2021.07.09

・2021.08.03 中国 最高人民法院 「民事案件における顔識別技術の使用に関する司法解釈」

・2021.07.15 米国GAO 顔認識技術について連邦法執行機関はプライバシーやその他のリスクをより適切に評価する必要がある at 2021.06.03

・2021.07.12 ニューヨーク市 生体情報プライバシー条例が2021.07.09から施行されましたね。。。

・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス

・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス

・2021.06.23 欧州 EDPBとEDPS 公共の場における人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう要請

・2021.06.22 欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表

・2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念

・2021.06.17 米国上院・下院 顔認識ツールを含む生体情報監視を政府が使用することを禁止する「顔認識および生体認識技術モラトリアム法案」

・2021.06.17 英国政府:データ倫理とイノベーションセンター プライバシーに関するユーザの積極的選択中間報告(スマートフォン)

・2021.06.08 U.S. の公益団体であるEPICが顔認識技術および遠隔生体認識技術の使用禁止を世界的に呼びかけていますね。。。

・2021.05.12 カナダのプライバシーコミッショナーが顔認識技術について議会で見解を述べたようですね。。。

・2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています

・2021.05.03 中国 意見募集 顔認識に続けて、歩行認識、音声認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

・2021.04.22 ドイツ連邦情報セキュリティ局 (BSI) が安全なAI導入のための対策をまとめていますね。。。

・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。

・2021.03.14 CNIL 乗客のマスク着用率を測定するためのインテリジェントビデオの使用に関する法令についての意見を公表

・2021.02.05 カナダのプライバシーコミッショナーが顔認識ソフトウェアを提供するClearview AIについての声明を出していますね。。。

・2021.01.30 欧州評議会 108号条約委員会が「顔認証に関するガイドライン」を採択しましたね。。。

・2021.01.12 欧州委員会 市民イニシアティブとして「生体認証による大量監視慣行の禁止」を登録

・2021.01.04 ニューヨーク州 知事が学校での顔認識技術の使用を一時停止し、研究を指示する法律に署名 at 2020.12.22

・2020.11.04 カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)

・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。

・2020.06.14 IBM, Amazon, Microsoftは顔認証システムを米国の警察には販売しない

・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定

・2020.03.26 JVNVU#99619336 勾配降下法を使用する機械学習モデルに、誤った識別をさせるような入力を作成することが可能な問題

・2020.03.04 FIRST EVER DECISION OF A FRENCH COURT APPLYING GDPR TO FACIAL RECOGNITION

・2020.02.17 遠くからでもわかる顔認識システム!

ぐっと遡って、2000年代

・2009.11.07 世界プライバシー宣言(Global Privacy Standards for a Global World)

・2005.08.11 外務省 IC旅券調査研究報告書

・2005.02.04 監視社会と信頼関係

|

« 経済産業省 サイバーセキュリティ経営ガイドライン Ver3.0(案)に対する意見募集 | Main | 米国 国家防衛戦略 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 経済産業省 サイバーセキュリティ経営ガイドライン Ver3.0(案)に対する意見募集 | Main | 米国 国家防衛戦略 »