EU議会 STUDY バイオメトリクス認識と行動検知
こんにちは、丸山満彦です。
EU議会が「バイオメトリクス認識と行動検知」という調査報告書を公開していますね。。。
バイオメトリクス情報の利用を倫理的・法的観点から分析し、EUの人工知能法についてのコメントを出している感じですかね。。。
バイオメトリクス情報にかかる論点として考えられるのは、
- 個人が簡単にバイオメトリクス情報の特徴を変えることができない
- 人体、人間の自己に深入りする傾向がある
- 大規模な監視
- アルゴリズムによる意思決定
- プロファイリングなどに関連する問題
という感じなんでしょうかね。。。
● European Parliament - Think Tank
・2021.08.06 Biometric Recognition and Behavioural Detection Assessing the ethical aspects of biometric recognition and behavioural detection techniques with a focus on their current and future use in public spaces
・[PDF]
目次です
CONTENTS | 目次 |
LIST OF ABBREVIATIONS | 略語のリスト |
LIST OF BOXES WITH ILLUSTRATIONS | 図版付きボックスのリスト |
LIST OF FIGURES | 図の一覧 |
LIST OF TABLES | 表の一覧 |
EXECUTIVE SUMMARY | エグゼクティブサマリー |
1. CURRENT AND POTENTIAL FUTURE DEVELOPMENTS OF BIOMETRIC TECHNIQUESE | 1. バイオメトリクス技術の現状と今後の展開 |
1.1. Biometric technologies | 1.1. バイオメトリクス技術 |
1.1.1.Strong, weak and soft biometrics | 1.1.1.強いバイオメトリクス、弱いバイオメトリクス、ソフトなバイオメトリクス |
1.1.2. First and second generation biometric technologies | 1.1.2. 第一世代、第二世代のバイオメトリクス技術 |
1.1.3. Future trends and technologies | 1.1.3. 今後の動向と技術 |
1.2. Identification, categorisation, and detection | 1.2. 識別、分類、検出 |
1.3. Scope of this Study | 1.3. 本研究の範囲 |
2. OVERVIEW OF LEGISLATION AND CASE LAW | 2. 法律および判例の概要 |
2.1. Legislation | 2.1. 法規制 |
2.1.1. International law | 2.1.1. 国際法 |
2.1.2. EU law | 2.1.2. EU法 |
2.1.3. Proposals by the European Commission | 2.1.3. 欧州委員会の提案 |
2.1.4. National law | 2.1.4. 国内法 |
2.2. Case Law | 2.2. 判例法 |
2.2.1. European Court of Human Rights (ECtHR) | 2.2.1. 欧州人権裁判所(ECtHR) |
2.2.2. Court of Justice of the European Union (CJEU) | 2.2.2. 欧州連合司法裁判所(CJEU) |
2.2.3. National courts/data protection authorities | 2.2.3. 各国の裁判所/データ保護当局 |
3. ETHICAL ASPECTS OF BIOMETRIC IDENTIFICATION | 3. バイオメトリクス識別の倫理的側面 |
3.1. Characteristic steps involved in biometric identification | 3.1. バイオメトリクス識別に関わる特徴的なステップ |
3.2. Ethical issues raised by enrolment | 3.2. 登録によって生じる倫理的問題 |
3.2.1. ‘Datafication’ of humans, power and human dignity | 3.2.1. 人間の「データ化」、権力、人間の尊厳 |
3.2.2. Potential for harm | 3.2.2. 危害を加える可能性 |
3.3. Ethical issues raised by application in public spaces | 3.3. 公共の場での使用がもたらす倫理的な問題 |
3.3.1. Large-scale surveillance | 3.3.1. 大規模な監視 |
3.3.2. Stigmatisation and discrimination | 3.3.2. 偏見と差別 |
4. ETHICAL ASPECTS OF BIOMETRIC CATEGORISATION | 4. バイオメトリクスによるカテゴリー化の倫理的側面 |
4.1. Characteristic steps involved in biometric categorisation | 4.1. バイオメトリック・カテゴライズに関わる特徴的なステップ |
4.2. Ethical issues raised | 4.2. 倫理的問題 |
5. THE ETHICAL ASPECTS OF BIOMETRIC DETECTION | 5. バイオメトリクス検知の倫理的側面 |
5.1. Characteristic steps involved in biometric detection | 5.1. バイオメトリクス検知に関わる特徴的なステップ |
5.2. Ethical issues raised | 5.2. 倫理的問題の提起 |
6. CONCLUSIONS WITH REGARD TO THE PROPOSAL FOR AN ARTIFICIAL INTELLIGENCE ACT | 6. 人工知能に関する法律の提案についての結論 |
6.1. General approach of the AIA Proposal | 6.1. AIA提案の一般的なアプローチ |
6.1.1. Biometric techniques and the risk-based approach | 6.1.1. バイオメトリック技術とリスクベースのアプローチ |
6.1.2. Interplay of the AIA Proposal with other EU legislation | 6.1.2. AIA提案と他のEU法との相互関係 |
6.2. Recommendations with regard to definitions | 6.2. 定義に関する推奨事項 |
6.2.1. Biometric data and biometrics-based data | 6.2.1. バイオメトリクスデータ及びバイオメトリクスに基づくデータ |
6.2.2. Real-time and post remote biometric identification | 6.2.2. リアルタイムおよびポストリモートのバイオメトリクス認証 |
6.2.3. Emotion recognition and biometric categorisation | 6.2.3. 感情認識と生体情報のカテゴリー化 |
6.2.4. Biometric inferences | 6.2.4. 生体情報の推論 |
6.3. Recommendations with regard to Title II | 6.3. タイトルIIに関する推奨事項 |
6.3.1. Differentiating between per se-prohibitions and restrictions | 6.3.1. 禁止事項と制限事項の区別 |
6.3.2. Adding total surveillance and infringements on mental privacy and integrity prohibited AI practices | 6.3.2. 全面的な監視、精神的なプライバシーや完全性への侵害をAIの行為として禁止する。 |
6.3.3. Allowing for flexible adaptation of the list of prohibited AI practices | 6.3.3. 禁止されているAI行為のリストを柔軟に変更できるようにする。 |
6.3.4. Clarifying the relationship with prohibitions following from other laws | 6.3.4. 他の法律に基づく禁止事項との関係の明確化 |
6.4. Recommendations with regard to biometric identification | 6.4. バイオメトリック識別に関する提言 |
6.4.1. Limitations on scope of the existing proposal | 6.4.1. 既存の提案の範囲に関する制限 |
6.4.2. A new regulatory approach | 6.4.2. 新たな規制的アプローチ |
6.4.3. Clarifications with regard to data collection and storage | 6.4.3. データの収集と保存に関する明確化 |
6.5. Recommendations with regard to emotion recognition and biometric categorisation | 6.5. 感情認識と生体情報の分類に関する推奨事項 |
6.5.1. Emotion recognition and biometric categorisation as restricted AI practices | 6.5.1. 制限されたAI行為としての感情認識および生体情報の分類 |
6.5.2. How to design the restrictions? | 6.5.2. 制限をどのように設計するか? |
6.6. Recommendations with regard to decisions taken | 6.6. 意思決定に関する推奨事項 |
6.6.1. Mirroring and adapting the rule in Article 14(5) | 6.6.1. 第14条(5)のルールを反映し、適応すること |
6.6.2. Use as legal evidence | 6.6.2. 法的証拠としての使用 |
6.7. Recommendations with regard to biometric inferences | 6.7. バイオメトリック推論に関する推奨事項 |
6.8. Recommendations with regard to consent management | 6.8. 同意管理に関する推奨事項 |
REFERENCES | 参考文献 |
ANNEX: PROPOSED WORDING OF TITLE II AND TITLE IIA | 附属書:タイトルIIおよびタイトルIIAの文言案 |
エグゼクティブサマリー
EXECUTIVE SUMMARY | エグゼクティブサマリー |
Background | 背景 |
Biometric identification together with biometric categorisation, behavioural detection, emotion recognition, brain-computer-interfaces (BCIs), and similar techniques are being used to an increasing extent by public and private bodies. They serve a broad variety of purposes, ranging from healthcare to law enforcement and border control to warfare, and are deployed in public as well as in private spaces. The term ‘biometric techniques’ should be understood as including any technology or operation that | バイオメトリクス認証、バイオメトリクス分類、行動検出、感情認識、脳-コンピュータインターフェース(BCI)などの技術は、公的機関や民間企業でますます利用されるようになっています。これらの技術は、医療、法執行、国境管理、戦争など、さまざまな目的に利用されており、公共の場だけでなく、私的な空間にも導入されています。「バイオメトリクス技術」という言葉は、次のような技術や操作を含むと理解すべきです。 |
• relies on specific technical processing of data relating to physical, physiological or behavioural aspects of the human body (including when in motion); | • 人体(動いているときも含む)の物理的、生理的、行動的な側面に関連するデータの特定の技術的処理に依存するもの。 |
• for purposes such as authentication or identification of human individuals, categorisation of human individuals according to permanent or long-term characteristics (including with a view to predicting future behaviour), or detection of temporary or permanent conditions of a human individual (such as fear, fatigue, or illness, or a particular intent). | • 人間の個人の認証または識別、恒久的または長期的な特性に基づく人間の個人の分類(将来の行動を予測する目的も含む)、人間の一時的または恒久的な状態(恐怖、疲労、病気、特定の意図など)の検出などを目的としています。 |
Beyond traditional biometric techniques such as fingerprint or facial recognition, biometric techniques clearly include, e.g., analysis of keystroke or mouse dynamics, gesture dynamics, signature dynamics, as well as voice and gait features. By way of contrast, the term is normally not understood as including behaviour that can be controlled by the human will to a higher extent, such as shopping behaviour, browsing history or the content of communication. As far as such behaviour is analysed to infer conditions of a genetic, physical, physiological, behavioural, psychological or emotional nature characterising a particular individual, it may, however, be justified to include them in the notion of biometric techniques in a broader sense. | 指紋や顔認識などの伝統的なバイオメトリクス技術を超えて、バイオメトリクス技術には、例えば、キーストロークやマウス、ジェスチャー、署名の動態、さらには、音声や歩行の特徴の分析が含まれることは明らかです。対照的に、この用語は通常、ショッピング行動、閲覧履歴、コミュニケーションの内容など、人間の意志でより高度に制御できる行動を含むとは理解されていません。しかし、このような行動が、特定の個人を特徴づける遺伝的、身体的、生理的、行動的、心理的、感情的な性質の条件を推測するために分析される限り、広い意味でのバイオメトリクス技術の概念に含めることが正当化される場合があります。 |
Major trends are the increasing use of ‘weak’ and ‘soft’ biometrics alongside ‘strong’ biometrics, focussing on a variety of patterns of a more behavioural kind, and the development towards multimodal biometrics. Together with enhanced sensor and computing capabilities as well as enhanced connectivity, this paves the way for mass roll-out of biometric technologies in a broad variety of sectors and for a broad variety of purposes, far beyond law enforcement and border control, turning biometric technologies into something like universal technologies. | 主な傾向としては、より行動的な種類の様々なパターンに焦点を当てた「強い」バイオメトリクスに加えて、「弱い」バイオメトリクスや「ソフト」バイオメトリクスの利用が増加していることや、マルチモーダル・バイオメトリクスへの発展が挙げられます。センサーやコンピュータの性能向上、接続性の向上と相まって、法執行や国境管理にとどまらず、さまざまな分野、さまざまな目的でバイオメトリクス技術が大量に導入され、バイオメトリクス技術がユニバーサルな技術になっていきます。 |
Latest technological advances include improved sensors, enabling the capture of entirely new types of bio-signals, such as heart beats and brain waves via EEG or ECG, and the development of braincomputing-interfaces (BCI). BCIs measure neuro activity and translate brain activity into machinereadable input. These new technologies are potentially highly intrusive, allowing for the detection of thoughts or intent and possibly also for influencing operations of the human brain. | 最新の技術では、センサーの改良により、EEGやECGによる心拍や脳波など、まったく新しいタイプのバイオメトリクス信号の取得が可能になったほか、脳-コンピューティングインターフェース(BCI)の開発も進んでいます。BCIは、神経活動を測定し、脳の活動を機械で読めるように変換します。これらの新しい技術は、思考や意図を検出したり、人間の脳の動作に影響を与えたりするなど、非常に侵入性の高いものになる可能性があります。 |
The Proposal for an Artificial Intelligence Act (AIA) of 21 April 2021 addresses such techniques in various ways, as do other instruments, both existing and in the pipeline. However, the question arises whether existing and proposed legislation adequately addresses ethical and fundamental rights issues raised. | 2021年4月21日に発表された人工知能法(AIA)の提案は、様々な方法でこのような技術に対応しており、既存および計画中の他の法律も同様です。しかし、既存の法律や提案されている法律が、提起されている倫理的および基本的権利の問題に適切に対処しているかどうかが問題となります。 |
Aim | 目的 |
This study analyses the ethical and legal aspects raised by biometric techniques. In particular, it provides | 本研究では、バイオメトリクス認証技術によって生じる倫理的・法的側面を分析します。具体的には、次のような内容です。 |
• a suggestion for a comprehensive definition of ‘biometric techniques’ and for grouping them into authentication/identification, categorisation and detection techniques; | • 「バイオメトリクス技術」を包括的に定義し,認証・識別技術,分類技術,検出技術に分類することの提案 |
• a stock-taking of related legal instruments, case-law and literature; | • 関連する法律文書、判例、文献の棚卸し |
• a thorough ethical and legal assessment of the implications raised; | • 提起された意味の倫理的・法的評価の徹底 |
• recommendations on a possible legislative framework for responsible use of biometric techniques. | • バイオメトリクス技術の責任ある利用のための法的枠組みに関する提言 |
Key findings | 主な調査結果 |
Biometric identification of humans | 人間のバイオメトリクス認証 |
The main ethical issue raised specifically by biometric identification is related to the enrolment phase, i.e. the creation and storage of a unique template that identifies a particular person. The enrolment phase and the deployment phase may overlap where templates are refined during deployment, e.g. through supervised learning in the field. Creating unique templates means transforming unique physical features of a human being into digital data, leading to a ‘datafication’ of humans. Since the features that uniquely identify a person are part of a person's body, their collection and use interfere with a human’s personal autonomy and dignity. Once this template is created and stored, anyone who comes into possession of it in the future has the power to trace and recognise that individual anywhere in the world and potentially for any purpose. There is no way for the individual to escape it as an individual cannot normally change ‘strong’ biometric identifiers. Considering also data security concerns, collecting and storing biometric templates has a significant potential for harm. | バイオメトリクス認証によって特に提起される主な倫理的問題は、登録段階、すなわち特定の人を識別する固有のテンプレートの作成と保存に関するものです。登録段階と展開段階が重なることもありますが、その場合は、展開中にテンプレートが改良されます(例:現場での教師付き学習)。固有のテンプレートを作成することは、人間の物理的な特徴をデジタルデータに変換することであり、人間の「データ化」につながります。人を識別する特徴は、人の身体の一部であるため、その収集と使用は、人の個人的な自律性と尊厳を妨げます。いったんテンプレートが作成され保存されると、将来それを手にした人は、世界中のどこにいても、どのような目的であっても、その個人を追跡し認識することができるようになります。「強力な」バイオメトリクス識別子は通常、個人が変更することはできないため、本人がこれから逃れることはできません。データセキュリティの問題も考慮すると、バイオメトリクスのテンプレートを収集・保存することは、大きな損害をもたらす可能性があります。 |
Apart from this, ethical issues raised by the use of biometric identification methods in public spaces do not so much relate specifically to biometrics, but to large-scale surveillance of individuals as such (i.e., they are similar to issues raised by, for example, large-scale surveillance using mobile device signals), or otherwise to the purposes for which the technology is used, and how it is used. The dimension of ethical issues raised depends, in particular, on | これとは別に、公共空間でのバイオメトリクス認証方法の使用によって提起される倫理的問題は、バイオメトリクスに特化したものというよりも、そのような個人に対する大規模な監視(つまり、例えば、携帯端末の信号を利用した大規模な監視によって提起される問題と類似している)、あるいは、技術が使用される目的とその使用方法に関連するものである。倫理的問題がどのような次元で発生するかは、特に次の点に依存します。 |
• the concrete purpose of identification; | • 識別の具体的な目的 |
• the place, manner or dimension of identification; | • 識別の場所,方法,または側面 |
• the transparency of the identification measures taking place; | • 行われている本人確認措置の透明性 |
• the reactions (e.g. arrest) triggered by a high matching score; | • 高い照合スコアによって引き起こされる反応(例:逮捕)。 |
• the evidentiary force ascribed to a high matching score and possibilities of the individual to demonstrate error or identity fraud; and | • 高い照合スコアに起因する証拠力,および個人がエラーまたは ID 詐欺を証明する可能性。 |
• any storage and further processing of matching data (e.g. for the creation of mobility profiles). | • 一致するデータの保存およびさらなる処理(例:移動性プロファイルの作成)。 |
Issues of discrimination or stigmatisation arise mostly as a result of deficiencies in one or several of the aspects mentioned (e.g. where, despite diminished accuracy of the system with particular ethnic groups, unjustified assumptions are made). | 差別や汚名を着せることの問題は、主に前述の側面の 1 つまたは複数の欠陥の結果として生じます(例 えば、特定の民族グループに対するシステムの精度が低下しているにもかかわらず、不当な 仮定がなされている場合など)。 |
Biometric categorisation of humans | 人間のバイオメトリクスによる分類化 |
The main ethical issues raised by the biometric categorisation of human individuals (e.g. allocation to risk groups within an airport security system, assessment of job applicants) are related to the development and concrete use of categorisation systems. In particular, ethical issues arise in relation to the definition of categories, the associated assumptions and the conclusions or reactions triggered by the system, leading to risks such as discrimination, stigmatisation, and the drawing of inappropriate inferences. Further risks include manipulation and exploitation of group-specific vulnerabilities. Ethical issues may be related to, in particular, | 人間のバイオメトリクスによる分類化(例:空港のセキュリティシステムにおけるリスクグループへの割り当て、就職希望者の評価)によって提起される主な倫理的問題は、分類化システムの開発と具体的な使用に関するものです。特に、カテゴリーの定義、関連する仮定、システムによって引き起こされる結論や反応に関連して、倫理的な問題が発生し、差別、汚名を着せること、不適切な推論の抽出などのリスクにつながります。さらに、グループ特有の脆弱性を操作したり利用したりするリスクもあります。倫理的な問題は、特に次の点に関連しています。 |
• the concrete purpose, context and conditions of categorisation; | • 分類化の具体的な目的,状況,条件 |
the degree of sensitivity of data collected and of inferences drawn; | • 収集されたデータと導き出された推論の感度の度合い |
• the accuracy of the system, the appropriateness of inferences drawn, and any control mechanisms, including human oversight; | • システムの精度,導き出された推論の妥当性,および人間の監視を含む制御メカニズム |
• the gravity (including potential irreversibility) of consequences triggered by the system; | • システムによって引き起こされる結果の重大性(不可逆性の可能性を含む) |
• the awareness of the individual of the categorisation and the possibility of the individual to challenge the output; and | • 分類に対する本人の認識,および出力に対する本人の異議申し立ての可能性 |
• any storage and further processing of data for profiling purposes. | • プロファイリングを目的としたデータの保存とさらなる処理 |
It follows that the fundamental rights risks to be addressed in this context are primarily associated with standardised profiling and/or scoring as a means to achieve a given end in a given social context. The fact that categorisation includes biometrics (e.g. that a person’s age is inferred from wrinkles in their face rather than from their shopping history) adds some ethical relevance, as an individual cannot easily change most biometric traits (e.g. wrinkles), but it is hardly ever the decisive factor (as compared, e.g., with age-specific targeting that might follow categorisation). Biometric inferences, i.e. inferences drawn with regard to permanent or long-term physical, physiological or behavioural characteristics, may in general be ethically even more relevant than the use of biometric techniques as such. | この文脈で対処すべき基本的権利のリスクは、主に、特定の社会的文脈において特定の目的を達成するための手段としての標準化されたプロファイリングおよび/またはスコアリングに関連するものであることがわかります。分類にバイオメトリクスが含まれているという事実(例えば、人の年齢は買い物の履歴ではなく顔のしわから推測される)は、個人がほとんどのバイオメトリクス的特徴(例えば、しわ)を簡単に変えることができないため、倫理的な関連性を高めるものであるが、それが決定的な要因となることはほとんどありません(例えば、分類の後に行われる可能性のある年齢別ターゲティングと比較した場合)。バイオメトリック推論、すなわち恒久的または長期的な身体的、生理的または行動的特徴に関して導き出される推論は、一般的に、バイオメトリック技術をそのように使用することよりも倫理的にさらに関連性が高い場合があります。 |
Biometric detection of human conditions | 人間の状態に関するバイオメトリクス検出 |
The main ethical issues raised by the biometric detection of human conditions (e.g. intention to commit a crime, fear, fatigue or illness) follow from its potentially intrusive nature, often analysing very intimate traits, some of them beyond the individual’s consciousness. In addition, previously unknown conditions, when revealed to the individual, may cause stress or anxiety. | 人間の状態(犯罪の意図、恐怖、疲労、病気など)に関するバイオメトリクス検出によって提起される主な倫理的問題は、その潜在的に侵入的な性質に起因しており、しばしば非常に本質に関わる特徴を分析し、その中には本人の意識を超えたものもあります。さらに、以前は知られていなかった状態が本人に明らかになると、ストレスや不安を引き起こす可能性があります。 |
Most ethical issues raised by the use of biometric detection do not relate specifically to the fact that biometric data are used for inferring a condition, but to detection of that condition as such (i.e., they are largely identical to issues raised by, for example, detection on the basis of a shopping or browsing history), and to the way the information about this condition is used (e.g. for manipulation and exploitation of detected vulnerabilities). Again, the fact that an individual has little control over their physical, physiological or behavioural signals, many of which will be subconscious, may give their use to detect conditions a special ethical dimension. | バイオメトリクス検知の使用によって提起される倫理的問題の多くは、バイオメトリクスデータが状態の推測に使用されるという事実に特に関連するものではなく、その状態の検知そのもの(すなわち、例えば、ショッピングやブラウジングの履歴に基づいて検知する場合に提起される問題とほぼ同じ)と、この状態に関する情報の使用方法(例えば、検知された脆弱性の操作や利用)に関連するものです。繰り返しになりますが、個人が自分の身体的、生理的、行動的な信号をほとんどコントロールできず、その多くが無意識的なものであるという事実は、条件を検出するためにそれらを使用することに特別な倫理的側面を与える可能性があります。 |
Fundamental rights risks posed by biometric detection techniques are very similar to those posed by biometric categorisation. However, within the field of biometric detection systems, it is systems detecting human emotions, thoughts and intentions that deserve particular attention from an ethical and regulatory perspective, potentially calling for a new set of ‘neuro-rights’ (such as the right to mental privacy and mental integrity). | バイオメトリクス検出技術がもたらす基本的権利のリスクは、バイオメトリクスによる分類化がもたらすリスクと非常によく似ています。しかし、バイオメトリクス検知システムの分野では、人間の感情、思考、意図を検知するシステムが、倫理的・規制的観点から特に注目されるべきであり、新たな「神経的権利」(精神的プライバシーや精神的完全性に対する権利など)が必要になる可能性があります。 |
Key recommendations | 主な提言 |
The recent Proposal for an AIA goes in the right direction but still fails to address ethical concerns in a consistent manner, in particular due to various restrictions in the scope of provisions. The study proposes to include in the Proposal a new Title IIa that is devoted to restricted AI practices, including biometric techniques and inferences, ensuring responsible use of these techniques without stifling innovation and growth. | 最近のAIAの提案は、正しい方向性を示していますが、特に規定の範囲に様々な制限があるため、倫理的な懸念に一貫して対処することができていません。本研究では、提案の中に、バイオメトリクス認証技術や推論を含む制限されたAIの実践に専念する新たなタイトルIIaを含めることで、イノベーションと成長を阻害することなく、これらの技術の責任ある使用を保証することを提案します。 |
The Study suggests that, in particular, the amendments to the Proposal as listed below should be considered by the European Parliament. | 本研究では、特に、次のような提案の修正を欧州議会で検討することを提案する。 |
The definitions in Article 3 should be amended: | 第3条の定義を修正すべきである。 |
• The definitions of ‘emotion recognition system’ and ‘biometric categorisation system’ should be detached from the concept of ‘biometric data’ as defined in the GDPR and rather based on a new definition of ‘biometrics-based data’; | •「感情認識システム」と「バイオメトリクス分類システム」の定義は、GDPRで定義されている「バイオメトリクスデータ」の概念から切り離し、むしろ「バイオメトリクスに基づくデータ」という新たな定義に基づくべきである。 |
• The definitions of ‘remote’ and ‘real-time’ with regard to biometric identification should be slightly modified. | • バイオメトリクス認証に関する「リモート」と「リアルタイム」の定義を若干変更すること。 |
• An additional definition for ‘biometric inferences’ should be introduced; Title II on prohibited AI practices should be amended: | • 禁止されたAI行為に関するタイトルIIを修正すべきである。 |
Title II on prohibited AI practices should be amended: |
AIの禁止行為に関するタイトルIIを修正すべきである。 |
• The current Article 5(1)(d) and (2) to (4) on real-time remote biometric identification should be removed from Article 5 and transferred to a new Title IIa on ‘restricted AI practices’; | • リアルタイム遠隔バイオメトリクス認証に関する現行の第5条(1)(d)及び(2)~(4)は、第5条から削除し、「制限されたAI行為」に関する新たなタイトルIIaに移すべきである。 |
• The list of prohibited AI practices in Article 5(1) should be enriched, at least, by a prohibition of total or comprehensive surveillance of natural persons in their private or work life and of infringements of mental privacy and integrity (further extensions being beyond the scope of this Study); | • 第5条(1)の禁止されるAI行為のリストは、少なくとも、自然人の私生活や仕事上の生活における全面的または包括的な監視の禁止、および精神的なプライバシーや完全性の侵害の禁止によって強化されるべきである(さらなる拡張は本研究の範囲外である)。 |
• The Commission should have the possibility to adapt the list of prohibited AI practices periodically, potentially under the supervision of the European Parliament; | • 欧州委員会は,禁止されたAI行為のリストを,欧州議会の監視下で定期的に変更する可能性を持つべきである。 |
• There should be a clarification that prohibitions following from other laws (such as data protection or consumer protection law) remain unaffected. | • 他の法律(データ保護法や消費者保護法など)に基づく禁止事項は影響を受けないことを明確にするべきである。 |
A new Title IIa on ‘restricted AI applications’ should be inserted: | 「制限付きAIアプリケーション」に関する新たなタイトルIIaを挿入すべきである。 |
• The new Title IIa should deal with ‘real-time’ remote biometric identification (or even with other forms of real-time remote identification) in a more comprehensive way, without limitation to law enforcement purposes; | • 新しいタイトルIIaは、法執行目的に限定することなく、より包括的な方法で「リアルタイム」の遠隔バイオメトリクス認証(あるいは他の形態のリアルタイム遠隔認証)を取り扱うべきである。 |
• It should also include a provision on other biometric identification systems, emotion recognition systems and biometric categorisation systems, limiting the admissibility of such systems and integrating the transparency obligation which is currently in Article 52(2); | • また,他のバイオメトリクス認証システム,感情認識システム,バイオメトリクス分類システムに関する規定を盛り込み,これらのシステムの許容性を制限し,現在の第52条第2項にある透明性義務を統合すべきである。 |
• Title IIa should likewise include a new provision on decisions based on biometric techniques; | • タイトルIIaは,同様に,バイオメトリック技術に基づく決定に関する新たな規定を含むべきである。 |
• Title IIa might possibly also include provisions that put substantive limits to the drawing of biometric inferences and provide for automated consent management. | • タイトルIIaには,バイオメトリック推論の抽出に実質的な制限を加え,自動化された同意管理を規定する条項も含まれる可能性がある。 |
Annex III point 1 should be extended so as to cover emotion recognition systems in (at least) the same way as biometric categorisation systems. | 附属書IIIのポイント1は、バイオメトリクス情報による分類システムと(少なくとも)同じように、感情認識システムをカバーするように拡張すべきである。 |
人工知能法案
AIについての欧州アプローチに関する規則の提案
・2021.04.21 Proposal for a Regulation on a European approach for Artificial Intelligence
1. [PDF] Proposal for a Regulation on a European approach for Artificial Intelligence
● まるちゃんの情報セキュリティ気まぐれ日記
・2021.08.09 経団連 提案された欧州人工知能法に関する意見
・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26
・2021.06.23 欧州 EDPBとEDPS 公共の場における人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう要請
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
Comments
こちらに書かれていらっしゃる、バイオメトリクス認識と行動検知について質問させて頂きたいと思いました。
バイオメトリクス認識と行動検知は、大阪大学ELSI NOTE No.11の17ページに書かれている、AI技術と同じものなのでしょうか?
ELSI NOTE No.11
脳神経科学に関する国内の倫理学的議論の概観
https://twitter.com/sirogoma12345/status/1563464495443607557?t=S--HqY-qtyyrCdyOKtRT3g&s=19
17ページ
④ より⼀般的に社会で利⽤されるようになれば、⼼の読み取り(マインドリーディング)と操作(マインドコントロール)の問題も⽣じうる。この問題は個⼈の⾃律性やプライバシーを侵害し、⼈々の⾏動を監視する事態につながる恐れもある。
Posted by: Fukutomi Keiko | 2022.09.04 17:32
ELSI NOTE No.11 脳神経科学に関する国内の倫理学的議論の概観の該当箇所は、脳と機械を接続 (Brain Machine Interface; BMI) させようという話で、EUのSTUDYで議論されているのは、幅広くバイオメトリクス全体の話なので、より広範な話となりますね。。。BMIについては、治療のみならず、より一般的に活用されていく可能性もあり、どのような利用が行われようとし、どのような社会的な課題があるのか、それを緩和する対策としてはどのようなものがあるのか、意識して見ておく必要がありそうですね。。。
参考となる、文献の紹介ありがとうございます。
>Fukutomi Keikoさん
>
>こちらに書かれていらっしゃる、バイオメトリクス認識と行動検知について質問させて頂きたいと思いました。
>バイオメトリクス認識と行動検知は、大阪大学ELSI NOTE No.11の17ページに書かれている、AI技術と同じものなのでしょうか?
>
>ELSI NOTE No.11
>脳神経科学に関する国内の倫理学的議論の概観
>https://twitter.com/sirogoma12345/status/1563464495443607557?t=S--HqY-qtyyrCdyOKtRT3g&s=19
>17ページ
>④ より⼀般的に社会で利⽤されるようになれば、⼼の読み取り(マインドリーディング)と操作(マインドコントロール)の問題も⽣じうる。この問題は個⼈の⾃律性やプライバシーを侵害し、⼈々の⾏動を監視する事態につながる恐れもある。
Posted by: maruyama | 2022.09.05 00:50