NIST ホワイトペーパー(ドラフト) コンテキストにおけるAI/MLバイアスの緩和
こんにちは、丸山満彦です。
NISTが、コンテキストにおけるAI/MLバイアスの緩和というプロジェクト概要を説明したホワイトペーパーのドラフトを公開し、意見募集をしていますね。。。
まずは、金融の信用取引に焦点を当てるようですね。。。その後、採用や入学、、、にも拡張予定という感じですね。。。
さて、ホワイトペーパーでは、シナリオが4つ示されています。。。
- バイアスの検出と緩和のための前処理データセット解析
- 統計的バイアスの特定と緩和のためのインプロセス・モデルトレーニング分析
- 統計的バイアスの特定と緩和のためのポストプロセス・モデル推論分析
- 認知バイアスの特定と緩和のためのHITL (Human-in-the-Loop) 決定フロー
これからの進展が楽しみですね。。。日本でも、同様の取り組みはされているんでしょうかね。。。
● NIST - ITL
White Paper (Draft) [Project Description] Mitigating AI/ML Bias in Context: Establishing Practices for Testing, Evaluation, Verification, and Validation of AI Systems | ホワイトペーパー(ドラフト) [プロジェクト概要] コンテキストにおけるAI/MLバイアスの緩和:AIシステムのテスト、評価、検証、妥当性確認のためのプラクティスの確立 |
Announcement | 発表 |
The NCCoE has released a new draft project description, Mitigating AI/ML Bias in Context: Establishing Practices for Testing, Evaluation, Verification, and Validation of AI Systems. Publication of this project description begins a process to solicit public comments for the project requirements, scope, and hardware and software components for use in a laboratory environment. | NCCoEは、新しいプロジェクト説明書ドラフト「Mitigating AI/ML Bias in Context」を公開した。AIシステムのテスト、評価、検証、およびバリデーションのための実践を確立する。このプロジェクト説明書の公開により、プロジェクトの要件、範囲、実験室環境で使用するハードウェアおよびソフトウェアのコンポーネントについて、パブリックコメントを募集するプロセスが開始される。 |
To tackle the complex problem of mitigating AI bias, this project will adopt a comprehensive socio-technical approach to testing, evaluation, verification, and validation (TEVV) of AI systems in context. This approach will connect the technology to societal values in order to develop guidance for recommended practices in deploying automated decision-making supported by AI/ML systems. A small but novel part of this project will be to look at the interplay between bias and cybersecurity and how they interact with each other. | AIのバイアスを軽減するという複雑な問題に取り組むため、本プロジェクトは、コンテキストにおけるAIシステムのテスト、評価、検証、妥当性確認(TEVV)に対する包括的な社会技術的アプローチを採用する予定である。このアプローチは、AI/MLシステムによってサポートされる自動化された意思決定を展開する際の推奨事項のガイダンスを開発するために、技術を社会的価値と結びつけるものである。このプロジェクトの小さいながらも斬新な部分は、バイアスとサイバーセキュリティの間の相互作用と、それらがどのように相互作用するかを調べることである。 |
The initial phase of the project will focus on a proof-of-concept implementation for credit underwriting decisions in the financial services sector. We intend to consider other application use cases, such as hiring and school admissions, in the future. This project will result in a freely available NIST AI/ML Practice Guide. | プロジェクトの初期段階では、金融サービス分野における信用引受の意思決定に関する概念実証の実装に焦点を当てる予定である。将来的には、採用や入学など、他のアプリケーションのユースケースも検討する予定です。このプロジェクトは、自由に利用できるNIST AI/ML実践ガイドに結実する予定である。 |
Earlier this month, we announced a hybrid workshop on Mitigating AI Bias in Context on Wednesday, August 31, 2022. The workshop will now be virtual only via WebEx and will provide an opportunity to discuss this topic and work towards finalizing this project description. You can register by clicking on the above workshop link. Hope to see you there! | 今月初旬に、2022年8月31日(水)に「Mitigating AI Bias in Context」のハイブリッドワークショップを開催することを発表した。このワークショップは、現在WebExによるバーチャルのみで、このトピックについて議論し、このプロジェクトの説明を確定するための作業を行う機会を提供する予定である。上記のワークショップのリンクをクリックすると登録できる。皆様のご参加を待っている。 |
Review the project description and submit comments online on or before September 16, 2022. | プロジェクト説明を確認の上、2022年9月16日までにオンラインでご意見を寄せてほしい。 |
You can also help shape and contribute to this project by joining the NCCoE’s AI Bias Mitigation Community of Interest. Send an email to ai-bias@nist.gov detailing your interest. | また、NCCoEのAIバイアス緩和コミュニティ・オブ・インタレストに参加することで、このプロジェクトの形成に貢献することができる。ご興味のある方は、ai-bias@nist.gov までメールを送付のこと。 |
Abstract | 要旨 |
Managing bias in an AI system is critical to establishing and maintaining trust in its operation. Despite its importance, bias in AI systems remains endemic across many application domains and can lead to harmful impacts regardless of intent. Bias is also context-dependent. To tackle this complex problem, we adopt a comprehensive socio-technical approach to testing, evaluation, verification, and validation (TEVV) of AI systems in context. This approach connects the technology to societal values in order to develop guidance for recommended practices in deploying automated decision-making supported by AI/ML systems in a sector of the industry. A small but novel part of this project will be to look at the interplay between bias and cybersecurity and how they interact with each other. The project will leverage existing commercial and open-source technology in conjunction with the NIST Dioptra, an experimentation test platform for ML datasets and models. The initial phase of the project will focus on a proof-of-concept implementation for credit underwriting decisions in the financial services sector. We intend to consider other application use cases, such as hiring and school admissions, in the future. This project will result in a freely available NIST AI/ML Practice Guide. | AIシステムにおけるバイアスを管理することは、その運用に対する信頼を確立し維持するために重要である。その重要性にもかかわらず、AIシステムにおけるバイアスは、多くのアプリケーション領域で常在し、意図に関係なく有害な影響をもたらす可能性があります。また、バイアスは文脈に依存する。この複雑な問題に取り組むため、私たちは、コンテキストにおけるAIシステムのテスト、評価、検証、およびバリデーション(TEVV)に対する包括的な社会技術的アプローチを採用する。このアプローチは、AI/MLシステムによってサポートされる自動化された意思決定を産業の一部門で展開する際の推奨事項のガイダンスを開発するために、技術を社会的価値と結びつけるものである。このプロジェクトの小さいながらも斬新な部分は、バイアスとサイバーセキュリティの間の相互作用と、それらがどのように相互作用するかを調べることである。このプロジェクトは、MLデータセットとモデルの実験テストプラットフォームであるNIST Dioptraと連携して、既存の商用およびオープンソースの技術を活用する予定です。プロジェクトの初期段階では、金融サービス分野における信用引受の意思決定のための概念実証の実装に焦点を当てる。将来的には、採用や入学など、他のアプリケーションのユースケースも検討する予定である。このプロジェクトは、自由に利用できるNIST AI/ML実践ガイドに結実する予定である。 |
・[PDF]
・[DOCX] 仮訳
目次...
1 EXECUTIVE SUMMARY | 1 エグゼクティブサマリー |
Purpose | 目的 |
Scope | 対象範囲 |
Assumptions/Challenges | 前提条件・課題 |
Background | 背景 |
2 SCENARIOS | 2 シナリオ |
Scenario 1: Pre-process dataset analysis for detecting and mitigating bias | シナリオ1:バイアスの検出と緩和のための前処理データセット解析 |
Scenario 2: In-process model training analysis for identifying and mitigating statistical bias | シナリオ2:統計的バイアスの特定と緩和のためのインプロセス・モデルトレーニング分析 |
Scenario 3: Post-process model inference analysis for identifying and mitigating statistical bias | シナリオ3:統計的バイアスの特定と緩和のためのポストプロセス・モデル推論分析 |
Scenario 4: Human-in-the-loop (HITL) decision flow for identifying and mitigating cognitive bias | シナリオ4:認知バイアスの特定と緩和のためのHITL (Human-in-the-Loop) 決定フロー |
3 HIGH-LEVEL ARCHITECTURE | 3 ハイレベルなアーキテクチャ |
Desired Requirements | 希望する条件 |
4 RELEVANT STANDARDS AND GUIDANCE | 4 関連する規格およびガイダンス |
APPENDIX A REFERENCES | 附属書A 参考文献 |
APPENDIX B ACRONYMS AND ABBREVIATIONS | 附属書B 頭字語および略語 |
こちらの参考も事前に読んでおくと、理解が深まるかもですね。。。
● NIST- ITL
これは最初に読んでおく方が良いですね。。。ただし、かなりの分量です。。。
こちらも。。。
・2022.03.16 [PDF] NIST SP 1270 Towards a Standard for Identifying and Managing Bias in Artificial Intelligence
信用に関する連邦法は...
● Federal Trade Commission: FTC
関連して、
● まるちゃんの情報セキュリティ気まぐれ日記
・2022.03.22 NIST 意見募集 AIリスクマネジメントフレームワーク(初期ドラフト)
・2022.03.21 NIST SP1270 人工知能におけるバイアスの識別と管理の標準化に向けて
・2021.06.25 NIST SP1270 Draft 人工知能におけるバイアスの識別と管理
こちらも参考になるかも...
・2022.06.02 米国 GAO 消費者保護:議会は消費者ランク付けに使用されるスコアに関する保護の強化を検討すべき (2022.05.26)
・2022.06.01 米国 消費者金融保護局 AIを使った与信結果についても消費者にその理由を説明しなければならない
・2022.05.23 ハンガリー AIを利用したコールセンターでの顧客対応がGDPR違反と判定された事例(ハンガリー銀行)
・2022.02.08 米国 下院 アルゴリズム説明責任法案 2022
・2021.12.09 英国 AI保証に向けたロードマップを公表(AI認証制度?)
・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出
・2021.10.24 豪州 ビクトリア州 人工知能とプライバシーに関する報告書(2つ)
・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス
・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
・2021.04.21 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事
・2021.09.24 英国 国家AI戦略
・2020.12.20 UK ICO 雇用決定にアルゴリズムを使用する際に考慮すべき6つのこと
・2020.11.30 米国 OMBが「人工知能アプリケーション規制のためのガイダンス」を発行
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
« NIST SP 800-108 Rev.1 擬似乱数関数を使用した鍵導出の推奨事項 | Main | 世界経済フォーラム (WEF) 暗号通貨とステーブルコインがもたらすマクロ経済への影響 (2022.07.22) »
Comments