欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表
こんにちは、丸山満彦です。
欧州保険職業年金局 (EIOPA) が欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表していますね。。。
● European Insurance and Occupational Pensions Authority; EIOPA
・2021.06.17 EIOPA publishes report on artificial intelligence governance principles
・[PDF] 人工知能ガバナンス原則。TOWARDS ETHICAL AND TRUSTWORTHY ARTIFICIAL INTELLIGENCE IN THE EUROPEAN INSURANCE SECTOR - A report from EIOPA's Consultative Expert Group on Digital Ethics in insurance
原則
Principle of proportionality |
比例性の原則 |
Principle of fairness and non-discrimination | 公平性と無差別の原則 |
Principle of transparency and explainability | 透明性と説明可能性の原則 |
Principle of Human Oversight | 人間による監督の原則 |
Principle of data governance of record keeping | 記録管理のデータガバナンスの原則 |
Principle of Robustness and Performance | 堅牢性とパフォーマンスの原則 |
Principle of proportionality: Insurance firms should conduct an AI use case impact assessment in order to determine the governance measures required for a specific AI use case. The AI use case impact assessment and the governance measures should be proportionate to the potential impact of a specific AI use case on consumers and/or insurance firms. Insurance firms should then assess the combination of measures put in place in order to ensure an ethical and trustworthy use of AI. | 比例性の原則:保険会社は、特定のAIユースケースに必要なガバナンス対策を決定するために、AIユースケースの影響評価を行うべきである。AIユースケースの影響評価とガバナンス対策は、特定のAIユースケースが消費者や保険会社に与える潜在的な影響に比例すべきである。そして、保険会社は、倫理的で信頼できるAIの使用を保証するために導入された措置の組み合わせを評価すべきである。 |
Principle of fairness and non-discrimination: insurance firms should adhere to principles of fairness and non-discrimination when using AI. They should take into account the outcomes of AI systems, while balancing the interests of all the stakeholders involved. As part of their corporate social responsibility insurance firms should also take into account financial inclusion issues and consider ways to avoid reinforcing existing inequalities, especially for products that are socially beneficial. This includes assessing and developing measures to mitigate the impact of rating factors such as credit scores and avoiding the use of certain types of price and claims optimisation practices like those aiming to maximise consumers’ “willingness to pay” or “willingness to accept”. Fair use of data means ensuring that it is fit for purpose and respect the principle of human autonomy by developing AI systems that support consumers in their decision-making process. Insurance firms should make reasonable efforts to monitor and mitigate biases from data and AI systems. This may include using more explainable algorithms or developing fairness and non-discrimination metrics in high-impact AI applications. Insurance firms should develop their approach to fairness and keep records on the measures put in place to ensure fairness and non-discrimination. | 公平性と無差別の原則:保険会社は、AIを使用する際、公平性と無差別の原則を遵守すべきである。保険会社は、関係するすべての利害関係者の利益のバランスを取りながら、AIシステムの結果を考慮するべきである。企業の社会的責任の一環として、保険会社は、特に社会的に有益な商品について、金融包摂の問題を考慮し、既存の不平等を強化しない方法を検討する必要がある。これには、クレジットスコアなどの格付け要素の影響を緩和するための評価と対策の策定、消費者の「支払い意思」や「引き受け意思」を最大限に引き出すことを目的とした、ある種の価格や保険金請求の最適化手法の使用を避けることなどが含まれる。データの公正な使用とは、データが目的に適合していることを保証し、消費者の意思決定プロセスをサポートするAIシステムを開発することで、人間の自律性の原則を尊重することを意味する。保険会社は、データやAIシステムからのバイアスを監視し、緩和するための合理的な努力をすべきである。これには、より説明可能なアルゴリズムを使用することや、影響力の大きいAIアプリケーションにおいて公平性と無差別性の評価基準を開発することが含まれる。保険会社は、公平性へのアプローチを開発し、公平性と無差別を確保するために導入された措置に関する記録を残すべきである。 |
Principle of transparency and explainability: Insurance firms should adapt the types of explanations to specific AI use cases and to the recipient stakeholders. Insurance firms should strive to use explainable AI models, in particular in high-impact AI use cases, although, in certain cases, they may combine model explainability with other governance measures insofar as they ensure the accountability of firms, including enabling access to adequate redress mechanisms. Explanations should be meaningful and easy to understand in order to help stakeholders make informed decisions. Insurance firms should transparently communicate the data used in AI models to consumers and ensure that they are aware that they are interacting with an AI system, and its limitations. | 透明性と説明可能性の原則:保険会社は、説明の種類を特定のAIユースケースと受容者のステークホルダーに合わせるべきである。保険会社は、特にインパクトの大きいAIユースケースでは、説明可能なAIモデルを使用するよう努めるべきであるが、場合によっては、適切な救済メカニズムへのアクセスを可能にするなど、会社の説明責任を確保する限りにおいて、モデルの説明可能性を他のガバナンス手段と組み合わせることができるものとする。説明は、ステークホルダーが十分な情報を得た上で意思決定できるように、意味があり、理解しやすいものでなければならない。保険会社は、AIモデルに使用されているデータを消費者に透明に伝え、消費者がAIシステムと対話していることとその限界を認識していることを確認すべきである。 |
Principle of Human Oversight: Insurance firms should establish adequate levels of human oversight throughout the AI system’s life cycle. The organisational structure of insurance firms should assign and document clear roles and responsibilities for the staff involved in AI processes, fully embedded in their governance system. The roles and responsibilities of staff members may vary from one AI use case to another. It is also important that insurance firms assess the impact of AI on the work of employees and provide staff with adequate training. | 人間による監督の原則:保険会社は、AIシステムのライフサイクルを通じて、適切なレベルの人間による監督を確立すべきである。保険会社の組織構造は、ガバナンス・システムに完全に組み込まれた形で、AIプロセスに関わるスタッフの明確な役割と責任を割り当て、文書化すべきである。スタッフの役割と責任は、AIのユースケースごとに異なる場合がある。また、保険会社は、AIが従業員の業務に与える影響を評価し、スタッフに適切なトレーニングを提供することが重要である。 |
Principle of data governance of record keeping: The provisions included in national and European data protection laws (e.g. GDPR) should be the basis for the implementation of sound data governance throughout the AI system lifecycle adapted to specific AI use cases. Insurance firms should ensure that data used in AI systems is accurate, complete and appropriate and they should apply the same data governance standards regardless of whether data is obtained from internal or external sources. Data should be stored in a safe and secured environment and, in particular for high-impact use cases, insurance firms should keep appropriate records of the data management processes and modelling methodologies in order to enable their traceability and auditability. | 記録管理のデータガバナンスの原則:国内および欧州のデータ保護法(例:GDPR)に含まれる規定は、特定のAIユースケースに適応したAIシステムのライフサイクルを通じて健全なデータガバナンスを実施するための基礎となるべきである。保険会社は、AIシステムで使用されるデータが正確で、完全で、適切であることを保証すべきであり、データが内部または外部ソースから取得されるかどうかにかかわらず、同じデータガバナンス基準を適用すべきである。データは、安全でセキュアな環境に保管されるべきであり、特に影響の大きいユースケースについては、保険会社は、データ管理プロセスやモデリング手法の適切な記録を残し、そのトレーサビリティと監査可能性を確保すべきである。 |
Principle of Robustness and Performance: Insurance firms should use robust AI systems, both when developed in-house or outsourced to third parties, taking into account their intended use and the potential to cause harm. AI systems should be fit for purpose and their performance should be assessed and monitored on an on-going basis, including the development of relevant performance metrics. It is important that the calibration, validation and reproducibility of AI systems is done on a sound manner that ensure that the AI systems outcomes are stable overtime and/or of a steady nature. AI systems should be deployed in resilient and secured IT infrastructures, including against cyber-attacks. | 堅牢性とパフォーマンスの原則:保険会社は、自社で開発する場合も、第三者に委託する場合も、その使用目的と被害をもたらす可能性を考慮した上で、堅牢なAIシステムを使用すべきである。AIシステムは、目的に適合したものでなければならず、その性能は、関連する性能指標の開発を含めて、継続的に評価・監視されるべきである。AIシステムの校正、検証、および再現性は、AIシステムの結果が安定した時間経過および/または安定した性質であることを保証する健全な方法で行われることが重要である。AIシステムは、サイバー攻撃に対するものも含め、回復力があり安全なITインフラに導入されるべきである。 |
I. FOREWORD | I. 序文 |
II. EXECUTIVE SUMMARY | II. エグゼクティブ・サマリー |
III. GOVERNANCE PRINCIPLES FOR AN ETHICAL AND TRUSTOWOR- THY AI IN THE EUROPEAN INSURANCE SECTOR | III. 欧州の保険部門における倫理的で信頼できるAIのためのガバナンス原則 |
IV. INTRODUCTION | IV. 序論 |
1. The use of AI in the insurance sector | 1. 保険分野におけるAIの利用について |
2. The importance of digital ethics in insurance | 2. 保険におけるデジタルエシックスの重要性 |
3. Approach taken, definitions and scope | 3. 取り組み方、定義、範囲 |
V. AI USE CASE IMPACT ASSESSMENT | V. AIユースケースの影響評価 |
1. Assessing the impact of an AI use case to determine the relevant governance measures | 1. 関連するガバナンス対策を決定するために、AIユースケースの影響を評価すること |
2. AI use case impact assessment framework | 2. AIユースケースの影響評価フレームワーク |
VI. FAIRNESS AND NON-DISCRIMINATION | VI. 公平性と無差別 |
1. Fairness and non-discrimination in insurance | 1. 保険における公平性と無差別性 |
2. Fairness and non-discrimination in specific AI use cases in insurance | 2. 保険における特定のAIの使用例における公平性と無差別性 |
VII. TRANSPARENCY AND EXPLAINABILITY | VII. 透明性と説明可能性 |
1. Transparency and explainability in the insurance sector | 1. 保険分野における透明性と説明可能性 |
2. Transparency and explainability in specific AI use cases in insurance | 2. 保険における特定のAI使用例における透明性と説明可能性 |
VIII. HUMAN OVERSIGHT | VIII. 人間による監視 |
1. Human oversight in the insurance sector | 1. 保険分野における人間による監視 |
2. Human oversight in specific AI use cases in insurance | 2. 保険における特定のAI使用例における人間による監視 |
IX. DATA GOVERNANCE AND RECORD KEEPING | IX. データガバナンスと記録保持 |
1. Data governance and record keeping in insurance | 1. 保険におけるデータガバナンスと記録の保持 |
2. Data governance and record keeping in specific AI use cases in insurance | 2. 保険における特定のAI使用例におけるデータガバナンスと記録保持 |
X. ROBUSTNESS AND PERFORMANCE | X. 堅牢性とパフォーマンス |
1. Robustness and performance in insurance | 1. 保険における堅牢性とパフォーマンス |
2. Robustness and performance in specific AI use cases in insurance | 2. 保険における特定のAI使用例での堅牢性と性能 |
XI. CONCLUSION | XI. おわりに |
ANNEX | 附属書 |
ANNEX 1 – BENEFITS AND ETHICAL CHALLENGES OF AI USE CASES ACROSS THE INSURANCE VALUE CHAIN | 附属書1 - 保険のバリューチェーンにおけるAI使用事例の利点と倫理的課題 |
ANNEX 2 – AI USE IMPACT ASSESSMENT FRAMEWORK | 附属書2 - AI使用の影響評価フレームワーク |
ANNEX 3 – NON DISCRIMINATION REGULATORY FRAMEWORK IN INSURANCE | 附属書3 - 保険における非差別的な規制の枠組み |
ANNEX 4 – LIST OF ACRONYMS | 附属書4 - 頭字語リスト |
ANNEX 5 – MEMBERS OF EIOPA’S CONSULTATIVE EXPERT GROUP ON DIGITAL ETHICS IN INSURANCE | 附属書5 - 保険におけるデジタル倫理に関するEIOPAの諮問専門家グループのメンバー |
GLOSSARY | 用語集 |
REFERENCES | 参考文献 |
■ 参考
●まるちゃんの情報セキュリティ気まぐれ日記
AIガバナンス関係
・2021.02.15 経済産業省の「我が国のAIガバナンスの在り方 ver. 1.0(中間報告書)」に対する経団連等の意見
・2020.11.10 中国 TC260 パブコメ AI倫理に関するガイドライン案
・2020.10.12 欧州議会は「人工知能、ロボットおよび関連技術の倫理的側面の枠組み」を採択しましたね。。。
・2020.03.31 AI 倫理指針の動向とパーソナル AI エージェント by 中川裕志先生 AI 原則は機能するか?―非拘束的原則から普遍的原則への道筋 by 新保史生先生
・2020.03.28 EU Ethics Guidelines for Trustworthy AI(信頼できるAIのためのEU倫理ガイドライン)
AI関係全般
- 2021.06.20 英国 情報コミッショナー 公共の場でのライブ顔認識技術の使用に関するプライバシーの懸念
- 2021.06.17 米国上院・下院 顔認識ツールを含む生体情報監視を政府が使用することを禁止する「顔認識および生体認識技術モラトリアム法案」
- 2021.06.08 U.S. の公益団体であるEPICが顔認識技術および遠隔生体認識技術の使用禁止を世界的に呼びかけていますね。。。
- 2021.06.04 欧州検査院 特別報告書 EUに影響を与える偽情報:対処しても対処しきれない
- 2021.05.24 自動で偽の情報を作成するマシーンはできるのか?
- 2021.05.21 世界経済フォーラム&ユニセフ・ジェネレーションAIによるスマートトイ賞が22日に発表へ
- 2021.05.12 カナダのプライバシーコミッショナーが顔認識技術について議会で見解を述べたようですね。。。
- 2021.05.10 米国連邦政府 人工知能イニシアティブ
- 2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています
- 2021.05.03 U.S. CISA 偽情報・誤情報の脅威とその対応方法についての(いかにもアメリカンな)漫画
- 2021.05.03 中国 意見募集 顔認識に続けて、歩行認識、音声認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。
- 2021.05.02 デジタルチャイナの情報セキュリティ・プライバシーに対する中央网络安全和信息化委员会办公室 (Cyberspace Administration of China)の記事
- 2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
- 2021.04.22 ドイツ連邦情報セキュリティ局 (BSI) が安全なAI導入のための対策をまとめていますね。。。
- 2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
- 2021.04.21 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事
- 2021.04.10 欧州自動車工業会 事務局長の声明:自動車業界は車両データを積極的に共有し、消費者の選択と安全・安心を第一に考える
- 2021.03.24 欧州理事会 EUサイバーセキュリティ戦略を採択
- 2021.03.23 欧州委員会 研究報告書「フォレンジックスにおけるクラスタリングと教師なし分類」
- 2021.03.14 欧州データ保護委員会 (EDPB)・欧州データ保護監督官 (EDPS) データガバナンス法に関する共同意見を採択
- 2021.03.13 欧州委員会 Digitranscope デジタルトランスフォーメーションと人間社会のガバナンス 最終報告書
- 2021.02.26 国際決済銀行 「中央銀行におけるビッグデータソースとアプリケーションの利用」by アービング・フィッシャー中央銀行統計委員会 at 2021.02.18
- 2021.02.23 2021年の国連の社会正義の日のテーマは「デジタル経済における社会正義の呼びかけ」で、世界経済フォーラムは「デジタル世界において社会正義を如何に実現するかについての4つの視点」を公表していますね。。。
- 2021.02.15 経済産業省の「我が国のAIガバナンスの在り方 ver. 1.0(中間報告書)」に対する経団連等の意見
- 2021.02.12 ENISA 人工知能を使った自律走行におけるサイバーセキュリティの課題
- 2021.02.05 カナダのプライバシーコミッショナーが顔認識ソフトウェアを提供するClearview AIについての声明を出していますね。。。
- 2021.02.02 改めて小林弁護士の「人工知能が奪う職業と「洗練された奴隷制」」を読んでみた。。。
- 2021.01.26 RAND研究所 真実の崩壊に対抗するためのメディアリテラシー標準についての報告
- 2021.01.18 新聞紙学的(平和博さんのブログ) - ディープフェイクスにどれだけ騙される? 意外な実験結果とは
- 2021.01.16 スペイン個人データ保護庁 (Agencia Española de Protección de Datos: AEPD) が「人工知能が関与する個人データ処理の監査のための要件」に記載されている統制目標と統制活動(144項目)をとりあえず日本語にしてみた。。。
- 2021.01.15 スペイン個人データ保護庁 (Agencia Española de Protección de Datos: AEPD) が「人工知能が関与する個人データ処理の監査のための要件」というガイダンスを公表していますね。
- 2021.01.13 米国 ポンペオ国務長官がサイバー空間安全保障・新興技術局(CSET)の創設を国務省に指示
- 2021.01.12 欧州委員会 市民イニシアティブとして「生体認証による大量監視慣行の禁止」を登録
- 2021.01.04 100冊以上の機械学習に関する無料本リスト!!
- 2020.12.28 欧州委員会 サイバーセキュリティ戦略の公表とネットワークおよび情報システムのセキュリティに関する指令の改訂(NIS2指令)提案 at 2020.12.16
- 2020.12.20 UK ICO 雇用決定にアルゴリズムを使用する際に考慮すべき6つのこと
- 2020.12.18 ENISA AI サイバーセキュリティのチャレンジ - AI脅威状況報告を公表していますね。
- 2020.12.07 民主主義を守るための偽情報との戦い
- 2020.12.02 U.S. GAO 医療における人工知能:患者ケアを強化する技術の利点と課題
- 2020.11.30 米国 OMBが「人工知能アプリケーション規制のためのガイダンス」を発行
- 2020.11.27 ENISAがつながる&自動化された移動体 (CAM) のエコシステムにおけるセキュリティの報告書を公開していました・・・
- 2020.11.24 フェイク画像はここまで来たのか・・・ (The New York Times)+IDF辻井先生のコラム
- 2020.11.23 Europol, UNICRI, Trendmicro 犯罪者もAIを活用!(ディープフェイクだけではない)
- 2020.11.10 中国 TC260 パブコメ AI倫理に関するガイドライン案
- 2020.11.04 カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)
- 2020.10.25 『スマートサイバー AI活用時代のサイバーリスク管理』第24回 サイバー犯罪に関する白浜シンポジウムの発表資料
- 2020.10.24 敵対的機械学習に対する脅威マトリックス (Adversarial ML Threat Matrix)
- 2020.10.22 米国GAOのブログでDeepfakeが取り上げられていますね。。。
- 2020.10.21 ドイツのITセキュリティの状況 2020 - Die Lage der IT-Sicherheit in Deutschland 2020 by BSI
- 2020.10.13 米空軍は「連邦U-2ラボがU-2 Dragon LadyをKubernetesで飛行させた」と公開していますね。。。
- 2020.10.12 欧州議会は「人工知能、ロボットおよび関連技術の倫理的側面の枠組み」を採択しましたね。。。
- 2020.10.09 欧州議会は人工知能の民事責任に関する報告書を発表していますね
- 2020.09.16 AIと統合された職場における労働者の福祉を促進するためのフレームワーク
- 2020.09.12 2024年までに戦闘機でAIパイロットをテストすることを含め、米国はAIの軍事利用で世界をリードする by エスパー国防長官
- 2020.08.28 人工知能と感情知性に関する倫理(2020.07.30)
- 2020.08.24 AIがDARPAドッグファイトシミュレーションでトップレベルのF-16パイロットを倒す?
- 2020.08.21 NISTはAIに自己説明を求める?(説明可能な人工知能の4原則)
- 2020.08.10 DeepfakeについてのNATO, CSET, Partnership on AI, GAOの報告書(少し前ですが・・・)
- 2020.07.31 英国のデータコミッショナーがAIとデータ保護に関するガイダンスを公表していますね。
- 2020.07.20 欧州委員会が「自己評価用の信頼できる人工知能の評価リスト(ALTAI)」を公開していますね
- 2020.07.05 米国 国防省の内部監査部門が「AIのプロジェクトのガバナンスとセキュリティをしっかりせい」とおっしゃっているようです。。。
- 2020.06.26 国土交通省 自動運行装置(レベル3)に係る国際基準が初めて成立しました
- 2020.06.15 「米海兵隊はAIを理論から実践に移す」というブログ
- 2020.06.15 カーネギーメロン大学 ソフトウェア研究所 AIエンジニアリングのリスク管理の視点
- 2020.06.12 ENISA 人工知能サイバーセキュリティに関するワーキンググループが始動 2020.06.12
- 2020.06.09 米空軍は、2021年7月にAIが操縦する戦闘機と人間が操縦する戦闘機でドッグファイトをすることを考えているようですね。。。
- 2020.06.07 米国国防省 人工知能が戦争をかえると予測
- 2020.05.22 「倫理的な人工知能にとって、セキュリティは非常に重要」と言う意見
- 2020.05.21 UK-ICO Explaining decisions made with AI / AIによる決定の説明
- 2020.05.18 人工知能はJoint All Domain Command-and-Control (JADC2) には不可欠。。。
- 2020.05.04 米国国防省と人工知能(戦略と倫理)
- 2020.04.17 EU 消費者保護の新側面 デジタルサービスとAI
- 2020.04.04 日本IBM労組はAIを利用した人事評価・賃金決定について団体交渉に応じないのは不当な団交拒否に当たるとして、東京都労働委員会に救済を申し立てた。
- 2020.03.31 AI 倫理指針の動向とパーソナル AI エージェント by 中川裕志先生 AI 原則は機能するか?―非拘束的原則から普遍的原則への道筋 by 新保史生先生
- 2020.03.28 EU Ethics Guidelines for Trustworthy AI
- 2020.03.10 US Navy robot submarine would be able to kill without human
- 2020.03.08 AIで手塚治虫作品をつくる?
- 2020.03.02 AIが権利能力の主体となるのであれば、それは法人ですね。。。
- 2020.02.27 「AI倫理に関する現状」芳田千尋氏
- 2020.02.27 IPA AI白書2020
- 2020.02.20 EUのデジタル戦略!
- 2020.02.18 AIによる差別の現状
- 2020.02.13 無人兵器・・・人工知能はついているかも・・・
- 2020.01.17 Deepfake
« 米国 上院議員がデータ保護法案を再提出 | Main | 人工知能技術に芸術と人文科学はどのように貢献できるか? by John Tasioulas(オックスフォード大学のAI倫理研究所所長) »
Comments