« 個人情報保護委員会 ECサイトへの不正アクセスに関する実態調査(令和4年3月) | Main | 企業会計基準委員会 意見募集 暗号資産(資金決済法、金商法)の発行及び保有についての論点整理と投資性ICOの会計処理・開示についての取り扱い »

2022.03.22

NIST 意見募集 AIリスクマネジメントフレームワーク(初期ドラフト)

こんにちは、丸山満彦です。

NISTがAIリスクマネジメントフレームワーク(初期ドラフト)についての意見募集をしていますね。。。

Fig1はこの図です。。。

20220322-11811

 

 

● NIST

・2022.03.17 NIST Seeks Comments on Draft AI Risk Management Framework, Offers Guidance on AI Bias

NIST Seeks Comments on Draft AI Risk Management Framework, Offers Guidance on AI Bias NISTがAIリスクマネジメントフレームワークの草案に対する意見を募集、AIバイアスに関するガイダンスを提示
Seeking to promote the development and use of artificial intelligence (AI) technologies and systems that are trustworthy and responsible, NIST today released for public comment an initial draft of the AI Risk Management Framework (AI RMF). The draft addresses risks in the design, development, use and evaluation of AI systems.  NISTは、信頼性と責任感のある人工知能(AI)技術とシステムの開発・利用を促進するため、本日、AIリスク管理フレームワーク(AI RMF)の初稿を公開し、パブリックコメントを募集しています。 この草案は、AIシステムの設計、開発、使用、評価におけるリスクに対応しています。 
The voluntary framework is intended to improve understanding and help manage enterprise and societal risks related to AI systems. It aims to provide a flexible, structured and measurable process to address AI risks throughout the AI lifecycle, and offers guidance for the development and use of trustworthy and responsible AI. NIST is also developing a companion guide to the AI RMF with additional practical guidance; comments about the framework also will be taken into account in preparing that practice guide. この自主的な枠組みは、AIシステムに関連する企業や社会のリスクに対する理解を深め、その管理を支援することを目的としています。AIのライフサイクルを通じてAIのリスクに対処するための柔軟で構造化された測定可能なプロセスを提供し、信頼できる責任あるAIの開発と利用のためのガイダンスを提供することを目的としています。また、NISTは、追加の実践的ガイダンスを記載したAI RMFのコンパニオンガイドを作成しており、このフレームワークに関するコメントも、その実践ガイドの作成に考慮される予定です。
“We have developed this draft with extensive input from the private and public sectors, knowing full well how quickly AI technologies are being developed and put to use and how much there is to be learned about related benefits and risks,” said Elham Tabassi, chief of staff of the NIST Information Technology Laboratory (ITL), who is coordinating the agency’s AI work, including the AI RMF. NISTの情報技術研究所(ITL)のチーフスタッフであり、AI RMFを含むNISTのAI関連業務を調整するElham Tabassi氏は、「我々は、AI技術の開発・実用化がいかに速く、そのメリットとリスクについて学ぶべきことがいかに多いかを十分に理解して、民間および公共部門からの幅広いインプットによりこのドラフトを作成した」と述べています。
This draft builds on the concept paper released in December and an earlier Request for Information. Feedback received by April 29 will be incorporated into a second draft issued this summer or fall. On March 29-31, NIST will hold its second workshop on the AI RMF. The first two days will address all aspects of the AI RMF. Day 3 will allow a deeper dive of issues related to mitigating harmful bias in AI. この草案は、12月に発表されたコンセプトペーパーと、それ以前に行われた情報提供の依頼を基に作成されたものです。4月29日までに寄せられたフィードバックは、今年の夏または秋に発行される第2次草案に反映される予定です。3月29日から31日にかけて、NISTはAI RMFに関する2回目のワークショップを開催します。最初の2日間は、AI RMFのあらゆる側面を取り上げます。3日目は、AIにおける有害なバイアスの軽減に関連する問題をより深く掘り下げます。
This week, NIST also released “Towards a Standard for Identifying and Managing Bias within Artificial Intelligence” (SP 1270), which offers background and guidance for addressing one of the major sources of risk that relates to the trustworthiness of AI. That publication explains that beyond the machine learning processes and data used to train AI software, bias is related to broader societal factors — human and systemic institutional in nature — which influence how AI technology is developed and deployed. 今週、NISTは「Towards a Standard for Identifying and Managing Bias within Artificial Intelligence」(SP1270)も発表し、AIの信頼性に関わる主要なリスク源の1つに対処するための背景とガイダンスを提供する。その出版物では、AIソフトウェアの学習に使用される機械学習プロセスやデータを超えて、バイアスはより広範な社会的要因(人間的およびシステム的制度的なもの)に関連し、AI技術の開発および展開の方法に影響を及ぼすと説明しています。
The draft framework and publication on bias are part of NIST’s larger effort to support the development of trustworthy and responsible AI technologies by managing risks and potential harms in the design, development, use and evaluation of AI products, services and systems. バイアスに関するフレームワーク案と出版物は、AI製品、サービス、システムの設計、開発、使用、評価におけるリスクと潜在的な害を管理することにより、信頼できる責任あるAI技術の開発を支援するNISTの大きな取り組みの一部です。

 

・[PDF] AI Risk Management Framework: Initial Draft

20220322-22808

Part 1: Motivation 第1部: 動機づけ
1 OVERVIEW 1 概要
2 SCOPE 2 スコープ
3 AUDIENCE 3 想定読者
4 FRAMING RISK 4 リスクフレームワーク
4.1 Understanding Risk and Adverse Impacts 4.1 リスクと悪影響の理解
4.2 Challenges for AI Risk Management 4.2 AIリスクマネジメントの課題
5 AI RISKS AND TRUSTWORTHINESS 5 AIリスクと信頼性
5.1 Technical Characteristics 5.1 技術的特徴
5.1.1 Accuracy 5.1.1 正確さ
5.1.2 Reliability 5.1.2 信頼性
5.1.3 Robustness 5.1.3 ロバスト性
5.1.4 Resilience or ML Security 5.1.4 レジリエンスまたは機械学習セキュリティ
5.2 Socio-Technical Characteristics 5.2 社会・技術的特性
5.2.1 Explainability 5.2.1 説明可能性
5.2.2 Interpretability 5.2.2 解釈可能性
5.2.3 Privacy 5.2.3 プライバシー
5.2.4 Safety 5.2.4 安全性
5.2.5 Managing Bias 5.2.5 バイアスの管理
5.3 Guiding Principles 5.3 指導原則
5.3.1 Fairness 5.3.1 公正性
5.3.2 Accountability 5.3.2 説明責任
5.3.3 Transparency 5.3.3 透明性
Part 2: Core and Profiles 第2部:コアとプロファイル
6 AI RMF CORE 6 AI RMFコア
6.1 Map 6.1 地図
6.2 Measure 6.2 測定
6.3 Manage 6.3 管理
6.4 Govern 6.4 ガバナンス
7 AI RMF PROFILES 7 AI RMFプロファイル
8 EFFECTIVENESS OF THE AI RMF 8 AI RMFの有効性
Part 3: Practical Guide 第3部:実践ガイド
9 PRACTICE GUIDE 9 実践ガイド

 

 

AI RISK MANAGEMENT FRAMEWORK

AI RISK MANAGEMENT FRAMEWORK AIリスクマネジメントフレームワーク
An initial draft of the AI Risk Management Framework is available for comment through April 29, 2022. AIリスクマネジメントフレームワークの初期ドラフトは、2022年4月29日まで意見募集中です。
A two-part NIST workshop from March 29-31, 2022, will advance work on an AI Risk Management Framework – and on bias in AI. Register Now. 2022年3月29日~31日に開催される2部構成のNISTワークショップでは、AIリスク管理フレームワークの作業、およびAIにおけるバイアスに関する作業が進められます。 今すぐご登録ください。
NIST is developing a framework to better manage risks to individuals, organizations, and society associated with artificial intelligence (AI). The NIST Artificial Intelligence Risk Management Framework (AI RMF or Framework) is intended for voluntary use and to improve the ability to incorporate trustworthiness considerations into the design, development, use, and evaluation of AI products, services, and systems. NISTは、人工知能(AI)に関連する個人、組織、社会へのリスクをよりよく管理するためのフレームワークを開発しています。NIST Artificial Intelligence Risk Management Framework(AI RMFまたはフレーワーク)は、自主的な使用を目的とし、AI製品、サービス、システムの設計、開発、使用、評価に信頼性への配慮を取り入れる能力を向上させるためのものです。
The Framework is being developed through a consensus-driven, open, transparent, and collaborative process that will include workshops and other opportunities to provide input. It is intended to build on, align with, and support AI risk management efforts by others. An initial draft of the AI RMF is available for comment through April 29, 2022. このフレームワークは、ワークショップやその他の意見提供の機会を含む、合意形成主導の、オープンで透明性の高い、協力的なプロセスを通じて開発されています。このフレームワークは、他の機関によるAIリスクマネジメントの取り組みと連携し、支援することを目的としています。 AI RMFの初期ドラフトは、2022年4月29日まで意見募集中です。
NIST’s work on the Framework is consistent with its broader AI efforts, recommendations by the National Security Commission on Artificial Intelligence, and the Plan for Federal Engagement in AI Standards and Related Tools. Congress has directed NIST to collaborate with the private and public sectors to develop the AI RMF. NISTのフレームワークへの取り組みは、NISTの幅広いAIへの取り組み、人工知能に関する国家安全保障委員会の勧告、およびAI標準と関連ツールにおける連邦政府の関与のための計画と整合しています。議会は、AI RMFを開発するために民間および公共部門と協力するようNISTに指示しました。
The Framework aims to foster the development of innovative approaches to address characteristics of trustworthiness including accuracy, explainability and interpretability, reliability, privacy, robustness, safety, security (resilience), and mitigation of unintended and/or harmful bias, as well as of harmful uses. The Framework should consider and encompass principles such as transparency, accountability, and fairness during pre-design, design and development, deployment, use, and test and evaluation of AI technologies and systems. These characteristics and principles are generally considered as contributing to the trustworthiness of AI technologies and systems, products, and services. このフレームワークは、正確性、説明可能性と解釈可能性、信頼性、プライバシー、堅牢性、安全性、セキュリティ(回復力)、意図しないバイアスや有害な使用の緩和を含む信頼性の特徴に対処する革新的アプローチの開発を促進することを目的としています。フレームワークは、AI技術やシステムの事前設計、設計・開発、展開、使用、テスト・評価において、透明性、説明責任、公平性などの原則を考慮し、包含する必要があります。これらの特性や原則は、一般的にAI技術やシステム、製品、サービスの信頼性に寄与すると考えられています。
AI RMF Development & Request for Information AI RMFの策定と情報提供のお願い
NIST has prepared a brief summary of RFI responses in advance of the workshop on October 19-21. NISTは、10月19日~21日のワークショップに先立ち、RFI回答の簡単な要約を作成しました。
NIST intends the Framework to provide a prioritized, flexible, risk-based, outcome-based, and cost-effective approach that is useful to the community of AI developers, users, and decision makers. The development process will involve several iterations to encourage robust and continuing engagement and collaboration with interested stakeholders. NISTは、AI開発者、ユーザー、意思決定者のコミュニティにとって有用な、優先順位付けされた、柔軟で、リスクベースの、成果ベースの、費用対効果の高いアプローチを提供するフレームワークを意図しています。開発プロセスでは、利害関係者との強固で継続的な関与と協力を促すため、数回の反復が行われる予定です。
NIST is soliciting input from all interested stakeholders, seeking to understand how organizations and individuals involved with designing, developing, using, or evaluating AI systems might be better able to address the full scope of AI risk and how a framework for managing AI risks might be constructed. A Request for Information (RFI) was issued on July 29, 2021, with responses due to NIST by August 19, 2021. The date for responses was extended to September 15Building on its recent efforts, NIST will organize open workshops to support the Framework’s development.  NISTは、AIシステムの設計、開発、使用、評価に携わる組織や個人が、どのようにすればAIリスクの全容に対処できるようになるか、またAIリスクを管理するためのフレームワークをどのように構築するかを理解するため、すべての関係者から意見を求めています。2021年7月29日に情報提供依頼書(RFI)が発行され、2021年8月19日までにNISTに回答することになっています。 回答期限は9月15日まで延長されました。 NISTは、最近の取り組みに基づき、フレームワークの開発を支援するためのオープンワークショップを開催する予定です。 
Comments may be submitted by any of the following methods: コメントは、以下のいずれかの方法で提出することができます。
Email: Comments in electronic form may also be sent to AIframework@nist.gov in any of the following formats: HTML; ASCII; Word; RTF; or PDF.  電子メール。電子形式のコメントは、HTML、ASCII、Word、RTF、またはPDFのいずれかの形式で、AIframework@nist.gov に送信することができます。 
Electronic submission: Submit electronic public comments via the Federal e- Rulemaking Portal. Go to www.regulations.gov and enter NIST-2021-0004 in the search field, Enter or attach your comments. 電子的に提出する。連邦規則作成ポータルから電子パブリックコメントを提出する。
1. Go to www.regulations.gov and enter NIST-2021-0004 in the search field, 1. www.regulations.gov にアクセスし、検索フィールドに NIST-2021-0004 と入力し
2. Click the “Comment Now!” icon, complete the required fields, and 2. 「Comment Now」アイコンをクリックし、必要事項をご記入し、
3. Enter or attach your comments. 3. コメントを入力または添付してください
A template for providing comments is available here. ご意見のテンプレートはこちらです。
AI Risk Management Framework - Engage AIリスクマネジメントフレームワーク - Engage
NNIST is developing the AI Risk Management Framework (AI RMF) through a consensus-driven, open, and collaborative process that involves taking part in workshops, responding to a Request for Information (RFI), reviewing draft reports and other documents including draft approaches and versions of the framework, and other opportunities to provide input. Also, see information about how to engage in NIST’s broader AI activities.
NISTは、ワークショップへの参加、情報提供依頼書(RFI)への回答、フレームワークのアプローチやバージョンのドラフトを含むレポートやその他の文書のレビュー、その他の意見提供の機会を通じて、合意主導のオープンかつ協力的なプロセスでAIリスクマネジメントフレームワーク(AI RMF)の開発を進めています。また、NISTの幅広いAI活動への参加方法についての情報もご覧ください。
Sign up to receive email notifications about NIST’s AI activities here, or contact us at: ai-inquiries@nist.gov NISTのAI活動に関するお知らせのメール配信にご登録いただくか、ai-inquiries@nist.gov までご連絡ください。
AI Risk Management Framework - Workshops & Events AIリスクマネジメントフレームワーク - ワークショップ&イベント
NIST relies on workshops to gather public and private stakeholder information, feedback, and perspectives. Multiple related AI workshops have been held and are being scheduled. See here for more details.  NISTは、公共および民間のステークホルダーの情報、フィードバック、見解を収集するために、ワークショップを活用しています。AI関連のワークショップは複数回開催されており、現在も開催が予定されています。詳しくはこちらをご覧ください。 
Two-part Workshop on AI Risk Management Framework – and on Bias in AI - March 29-31, 2022 AIリスクマネジメントフレームワークに関する2部構成のワークショップ - およびAIにおけるバイアスに関するワークショップ - 2022年3月29日~31日
Kicking off NIST AI Risk Management Framework: Workshop #1 - October 19-21, 2021 NIST AIリスクマネジメントフレームワークをキックオフ。ワークショップ#1 - 2021年10月19日~21日
AI Risk Management Framework - Related NIST Efforts AIリスクマネジメントフレームワーク - 関連するNISTの取り組み
Overview of NIST’s AI Efforts ・NISTのAIへの取り組みの概要
NIST AI Standards Activities ・NISTのAI標準化活動
NIST AI Workshop Series ・NIST AIワークショップシリーズ
AI Risk Management Framework - Resources AIリスクマネジメントフレームワーク - リソース
NIST produces publications and other resources which inform and relate to the development of the AI Risk Management Framework. Some of these resources are listed here: NISTは、AIリスクマネジメントフレームワークの開発に関連する出版物やその他のリソースを作成しています。これらのリソースのいくつかをここにリストアップします。
An initial draft of the AI Risk Management Framework is available for comment through April 29, 2022  AIリスクマネジメントフレームワークの初期ドラフトは、2022年4月29日まで意見募集中です。 
Concept paper to help guide development of the AI Risk Management Framework (December 13, 2021) AIリスクマネジメントフレームワークの開発指針になるコンセプトペーパー(2021年12月13日付)
Summary Analysis of Responses to the NIST Artificial Intelligence Risk Management Framework (AI RMF) - Request for Information (RFI) National Institute of Standards and Technology (NIST) (October 15, 2021) NIST人工知能リスク管理フレームワーク(AI RMF)に対する回答の概要分析-情報提供要請(RFI)米国国立標準技術研究所(NIST)(2021年10月15日付)
Draft -Taxonomy of AI Risk (October 15, 2021) 素案 -AIリスクのタクソノミ-(2021年10月15日発表)
 A Taxonomy and Terminology of Adversarial Machine Learning (NISTIR 8269) (Draft) 敵対的機械学習の分類法と用語(NISTIR 8269)(案)
Four Principles of Explainable Artificial Intelligence (NISTIR 8312) (Draft) 説明可能な人工知能の4原則(NISTIR 8312)(案)
Psychological Foundations of Explainability and Interpretability in Artificial Intelligence (NISTIR 8367) 人工知能における説明可能性と解釈可能性の心理学的基礎 (NISTIR 8367)
A Proposal for Identifying and Managing Bias in Artificial Intelligence (NIST SP 1270) (Draft) 人工知能におけるバイアスの特定と管理のための提案 (NIST SP 1270) (案)
Trust and Artificial Intelligence (NISTIR 8332) (Draft) 信頼と人工知能 (NISTIR 8332) (案)
AI Risk Management Framework FAQs AIリスクマネジメントフレームワークFAQ
1. What is the AI Risk Management Framework (AI RMF)? 1. AIリスクマネジメントフレームワーク(AI RMF)とは何ですか?
The Framework is intended to help developers,users and evaluators of AI systems better manage AI risks which could affect individuals, organizations, or society. It aims to foster the development of innovative approaches to address characteristics of trustworthiness including accuracy, explainability and interpretability, reliability, privacy, robustness, safety, security (resilience), and mitigation of unintended and/or harmful bias or harmful uses. The Framework should consider and encompass principles such as transparency, accountability, and fairness during pre-design, design and development, deployment, use, and test and evaluation of AI technologies and systems. These characteristics and principles are generally considered as contributing to the trustworthiness of AI technologies and systems, products, and services. このフレームワークは、AIシステムの開発者、利用者、評価者が、個人、組織、社会に影響を与える可能性のあるAIリスクをより適切に管理できるようにすることを目的としています。正確性、説明可能性、解釈可能性、信頼性、プライバシー、堅牢性、安全性、セキュリティ(レジリエンス)、意図しないバイアスや有害な利用の緩和など、信頼性の特徴に対処する革新的なアプローチの開発を促進することを目的としています。 フレームワークは、AI技術やシステムの事前設計、設計・開発、展開、使用、テスト・評価において、透明性、説明責任、公平性などの原則を考慮し、包含する必要があります。 これらの特性や原則は、一般的にAI技術やシステム、製品、サービスの信頼性に寄与すると考えられています。
2. Why is NIST developing the Framework? 2. なぜNISTはフレームワークを開発するのか?
NIST aims to cultivate trust in the design, development, use, and evaluation of AI technologies and systems in ways that enhance economic security and improve quality of life. The agency’s work on an AI RMF is consistent with recommendations by the National Security Commission on Artificial Intelligence and the Plan for Federal Engagement in Developing AI Technical Standards and Related Tools. Congress has directed NIST to collaborate with the private and public sectors to develop a voluntary AI RMF. NISTは、経済的安全性を高め、生活の質を向上させる方法で、AI技術やシステムの設計、開発、使用、評価における信頼を育成することを目指しています。NISTのAI RMFへの取り組みは、人工知能に関する国家安全保障委員会の勧告や、AI技術標準および関連ツールの開発における連邦政府の関与のための計画とも合致しています。議会はNISTに対し、民間および公共部門と協力して任意のAI RMFを開発するよう指示しています。
3. For whom is the Framework intended? 3. フレームワークは誰のためのものですか?
It should be useful for those who design, develop, use, or evaluate AI technologies. It will use language that is understandable by a broad audience, including senior executives and those who are not AI professionals, while still of sufficient technical depth to be useful to practitioners across many domains. The Framework should be scalable to organizations of all sizes, public or private, in any sector, and operating within or across domestic borders. AI技術を設計、開発、使用、評価する人々にとって有用であるべきです。上級管理職やAIの専門家ではない人を含む幅広い聴衆に理解できる言葉を使う一方、多くの領域の実務家にとって有用な十分な技術的深さを持つものでなければなりません。フレームワークは、公共・民間、セクター、国内・国外を問わず、あらゆる規模の組織に適用可能なものでなければなりません。
4. Will private or public sector organizations be required to use the Framework? 4. 民間企業や公的機関は、このフレームワークの使用を要求されますか?
No. NIST is producing this as a voluntary Framework. いいえ。NISTはこのフレームワークを任意のものとして作成しています。
5. How is the Framework being developed and what’s the timeframe? 5. フレームワークはどのように開発され、どのようなタイムフレームで進行しますか?
NIST is soliciting input from all interested stakeholders. It will be consensus-driven and developed and updated through an open, transparent, and collaborative process. NIST has a long track record of successfully and collaboratively working with others to develop standards and guidelines. NIST will model its approach in the same way that it used to develop other frameworks. NISTは、すべての利害関係者からインプットを求めています。このフレームワークはコンセンサス主導で、オープンで透明性の高い、協力的なプロセスを通じて開発・更新される予定です。NISTには、他者との協働による標準やガイドラインの開発を成功させてきた長い実績があります。NISTは、他のフレームワークの開発に使用したのと同じ方法で、そのアプローチをモデル化します。
NIST released a draft AI RMF on March 17th with comments due by April 29, 2022. Discussions about the draft will take place during a NIST workshop March 29-31, 2022. A second draft will be released, and another workshop held, in the Summer/Fall of 2022 with AMF 1.0 released by early 2023. NISTは3月17日にAI RMFのドラフトを発表し、2022年4月29日までにコメントを提出することになっています。ドラフトに関する議論は、2022年3月29日から31日にかけて開催されるNISTのワークショップで行われる予定です。2022年夏から秋にかけて2回目のドラフトが発表され、再度ワークショップが開催され、2023年初頭までにAMF1.0がリリースされる予定です。
6. Will NIST provide additional guidance to help with using the AI RMF? 6. NISTは、AI RMFの使用に役立つ追加ガイダンスを提供するのでしょうか?
Yes. NIST is producing a companion Practice Guide to assist in adopting the AI RMF. That Guide, which is expected to be released for initial comment by the March 29-31, 2022, workshop of the AI RMF. Comments on the draft AI RMF will be taken into account as the Practice Guide is developed. はい。NISTは、AI RMFの採用を支援するため、関連する実践ガイドを作成中です。このガイドは、2022年3月29-31日に開催されるAI RMFのワークショップまでに最初のコメントを得るためにリリースされる予定です。AI RMFのドラフトに対するコメントは、実践ガイドの作成に際して考慮される予定です。
It will reside online only and will be updated regularly with contributions expected to come from many stakeholders. The Guide will be part of a NIST AI Resource Center that is being established. NIST already has published a variety of documents and carries out measurement and evaluation projects which inform AI risk management. See: https://www.nist.gov/artificial-intelligence このガイドはオンラインのみで公開され、定期的に更新される予定であり、多くのステークホルダーからの貢献が期待されます。 本ガイドは、現在設立中のNIST AI Resource Centerの一部となる予定です。NISTは既に様々な文書を発表しており、AIのリスクマネジメントに役立つ測定・評価プロジェクトを実施しています。参照: https://www.nist.gov/artificial-intelligence
7. Will the AI RMF relate to other NIST frameworks on cybersecurity and privacy? 7. AI RMFは、サイバーセキュリティやプライバシーに関する他のNISTフレームワークと関連しますか?
Stakeholders are being asked to provide input to help determine whether it makes sense to relate the AI RMF to other NIST frameworks. ステークホルダーは、AI RMFを他のNISTフレームワークと関連付けることに意味があるかどうかを判断するために、意見を提供するよう求められています。
8. How does this fit in with other NIST AI research, standards, and other activities? 8. NISTの他のAI研究、標準化、その他の活動とどのように連携しているのか?
NIST aims to cultivate trust in the design, development, use, and evaluation of AI technologies and systems in ways that enhance economic security and improve quality of life. The agency focuses on improving measurement science, standards, technology, and related tools, including evaluation and data. NIST is developing forward-thinking approaches that support innovation and confidence in AI systems. Its work on an AI RMF is consistent with the Plan for Federal Engagement in Developing AI Technical Standards and Related Tools published in 2019. NISTは、AI技術やシステムの設計、開発、使用、評価において、経済的安全性を高め、生活の質を向上させるような形で信頼を培うことを目指しています。NISTは、測定科学、標準、技術、および評価やデータを含む関連ツールの改善に重点を置いています。NISTは、AIシステムのイノベーションと信頼を支援する先進的なアプローチを開発しています。AI RMFに関するその作業は、2019年に発表された「AI技術標準および関連ツールの開発における連邦政府の関与のための計画」と一致します。
9. How do I get involved in the Framework development effort? 9. フレームワーク開発の取り組みに参加するにはどうすればよいですか?
NIST is developing the AI RMF through a consensus-driven, open, and collaborative process that will include workshops, a Request for Information,  and other opportunities to provide input. Check out our Engage page, watch this space for specific opportunities, sign up to receive email notifications about NIST’s AI activities here, or contact us at: AIframework@nist.gov NISTは、ワークショップ、Request for Information、その他の意見提供の機会を含む、合意主導のオープンかつ協力的なプロセスを通じて、AI RMFの開発を進めています。また、NISTのAI活動に関するお知らせのメール配信にご登録いただくこともできます。 AIframework@nist.gov
10. Who can answer additional questions regarding the Framework? 10. フレームワークに関するその他の質問には誰が答えてくれるのですか?
Send us an email: AIframework@nist.gov メールでお問い合わせください。 AIframework@nist.gov

 


● まるちゃんの情報セキュリティ気まぐれ日記

・2022.03.21 NIST SP1270 人工知能におけるバイアスの識別と管理の標準化に向けて

NISTIR 8269↓

・2021.12.15 ENISA 機械学習アルゴリズムの保護


NISTIR 8312↓

・2020.08.21 NISTはAIに自己説明を求める?(説明可能な人工知能の4原則)


・2021.06.25 NIST SP1270 Draft 人工知能におけるバイアスの識別と管理

 

OECD

・2022.02.24 OECD AIシステム分類のためのOECDフレームワーク

 

 


 

■ 参考

OECDの「人工知能に関する理事会勧告」

OECD

OECD AI Principles overview

・2019.05.22 [PDF] Recommendation of the Council on Artificial Intelligence

20220824-21538

 

総務省による仮訳

・2019.05.22 [PDF] 人工知能に関する理事会勧告

20220824-21652

 

 

|

« 個人情報保護委員会 ECサイトへの不正アクセスに関する実態調査(令和4年3月) | Main | 企業会計基準委員会 意見募集 暗号資産(資金決済法、金商法)の発行及び保有についての論点整理と投資性ICOの会計処理・開示についての取り扱い »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 個人情報保護委員会 ECサイトへの不正アクセスに関する実態調査(令和4年3月) | Main | 企業会計基準委員会 意見募集 暗号資産(資金決済法、金商法)の発行及び保有についての論点整理と投資性ICOの会計処理・開示についての取り扱い »