« IPA 「情報セキュリティ10大脅威 2023」を公開 | Main | 米国 FBI DHS 戦略的インテリジェンス評価と国内テロに関するデータについての報告 (2023.01.05) »

2023.01.27

NIST AIリスクフレームワーク

こんにちは、丸山満彦です。

NISTがAIリスクフレームワークを公表していますね。。。

 

NIST

・2023.01.26 NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence

 

NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence NISTリスクマネジメントフレームワークは人工知能の信頼性向上を目指す
New guidance seeks to cultivate trust in AI technologies and promote AI innovation while mitigating risk. 新しいガイダンスは、AI技術への信頼を培い、リスクを軽減しながらAIイノベーションを促進することを目指している。
WASHINGTON — The U.S. Department of Commerce’s National Institute of Standards and Technology (NIST) has released its Artificial Intelligence Risk Management Framework (AI RMF 1.0), a guidance document for voluntary use by organizations designing, developing, deploying or using AI systems to help manage the many risks of AI technologies.  ワシントン - 米国商務省の国立標準技術研究所(NIST)は、AI技術の多くのリスクを管理するために、AIシステムを設計、開発、展開、または使用する組織が自主的に使用するためのガイダンス文書、「人工知能リスクマネジメントフレームワーク(AI RMF 1.0)」を発表した。 
The AI RMF follows a direction from Congress for NIST to develop the framework and was produced in close collaboration with the private and public sectors. It is intended to adapt to the AI landscape as technologies continue to develop, and to be used by organizations in varying degrees and capacities so that society can benefit from AI technologies while also being protected from its potential harms. AI RMFは、NISTがフレームワークを開発するよう議会から指示されたことを受け、民間および公共部門との緊密な協力のもとに作成されたものである。このフレームワークは、技術が発展するにつれてAIの状況に適応し、さまざまな程度や能力の組織が使用することで、社会がAI技術から恩恵を受けると同時に、その潜在的な害から保護されるようにすることを目的としている。
“This voluntary framework will help develop and deploy AI technologies in ways that enable the United States, other nations and organizations to enhance AI trustworthiness while managing risks based on our democratic values,” said Deputy Commerce Secretary Don Graves. “It should accelerate AI innovation and growth while advancing — rather than restricting or damaging — civil rights, civil liberties and equity for all.”  ドン・グレイブス商務次官は、次のように述べている。「この自主的な枠組みは、米国や他の国、組織が、民主主義の価値観に基づいてリスクをマネジメントしながら、AIの信頼性を高めるような方法でAI技術を開発・展開するのに役立つだろう。すべての人のための市民権、市民的自由、公平性を制限したり損なったりするのではなく、むしろ前進させながら、AIのイノベーションと成長を加速させるべきである。」
Compared with traditional software, AI poses a number of different risks. AI systems are trained on data that can change over time, sometimes significantly and unexpectedly, affecting the systems in ways that can be difficult to understand. These systems are also “socio-technical” in nature, meaning they are influenced by societal dynamics and human behavior. AI risks can emerge from the complex interplay of these technical and societal factors, affecting people’s lives in situations ranging from their experiences with online chatbots to the results of job and loan applications.    従来のソフトウェアと比較して、AIは多くの異なるリスクをもたらす。AIシステムは、時間とともに、時には大きく、予想外に変化し、理解が困難な方法でシステムに影響を与える可能性のあるデータに基づいて学習される。また、これらのシステムは、社会の力学や人間の行動から影響を受けるという意味で、「社会技術的」な性質を持っている。AIリスクは、こうした技術的・社会的要因の複雑な相互作用から発生し、オンラインチャットボットの利用体験から就職やローンの申込結果まで、さまざまな場面で人々の生活に影響を与える可能性がある。  
The framework equips organizations to think about AI and risk differently. It promotes a change in institutional culture, encouraging organizations to approach AI with a new perspective — including how to think about, communicate, measure and monitor AI risks and its potential positive and negative impacts.  このフレームワークは、組織がAIとリスクについてこれまでとは異なる考え方をするためのものである。AIリスクとその潜在的なプラスとマイナスの影響についてどのように考え、伝え、測定し、監視するかを含め、組織が新しい視点でAIにアプローチするよう促し、組織文化の変化を促すものである。 
The new framework should “accelerate AI innovation and growth while advancing — rather than restricting or damaging — civil rights, civil liberties and equity for all.” —Deputy Commerce Secretary Don Graves 「新しいフレームワークは、AIのイノベーションと成長を加速させる一方で、市民の権利、市民の自由、すべての人のための公平性を、制限したり損なったりするのではなく、促進する べきものである。」 -ドン・グレイブス商務次官
The AI RMF provides a flexible, structured and measurable process that will enable organizations to address AI risks. Following this process for managing AI risks can maximize the benefits of AI technologies while reducing the likelihood of negative impacts to individuals, groups, communities, organizations and society. AI リスクマネジメントフレームワークは、組織がAIリスクに対処することを可能にする、柔軟で構造化され、測定可能なプロセスを提供する。このAIリスクマネジメントのプロセスに従うことで、個人、グループ、コミュニティ、組織、社会への悪影響の可能性を低減しながら、AI技術の恩恵を最大限に享受することができる。
The framework is part of NIST’s larger effort to cultivate trust in AI technologies — necessary if the technology is to be accepted widely by society, according to Under Secretary for Standards and Technology and NIST Director Laurie E. Locascio.  標準技術担当次官兼NIST長官のローリー・E・ロカシオによると、このフレームワークは、AI技術が社会に広く受け入れられるために必要な、AI技術への信頼を培うためのNISTの大きな取り組みの一部である。 
“The AI Risk Management Framework can help companies and other organizations in any sector and any size to jump-start or enhance their AI risk management approaches,” Locascio said. “It offers a new way to integrate responsible practices and actionable guidance to operationalize trustworthy and responsible AI. We expect the AI RMF to help drive development of best practices and standards.” 「AIリスクマネジメントフレームワークは、企業やその他の組織が、あらゆる分野、あらゆる規模のAIリスクマネジメントのアプローチを開始または強化するのに役立ちます」と、ロカシオは述べている。「これは、信頼できる責任あるAIを運用するための、責任ある実践と実行可能なガイダンスを統合する新しい方法を提供するものである。AI RMFがベストプラクティスと標準の開発を促進することを期待している。」
The AI RMF is divided into two parts. The first part discusses how organizations can frame the risks related to AI and outlines the characteristics of trustworthy AI systems. The second part, the core of the framework, describes four specific functions — govern, map, measure and manage — to help organizations address the risks of AI systems in practice. These functions can be applied in context-specific use cases and at any stages of the AI life cycle. AI リスクマネジメントフレームワークは、2つのパートに分かれている。第1部では、組織がAIに関連するリスクをどのようにフレームすることができるかを論じ、信頼できるAIシステムの特徴を概説している。フレームワークの中核となる第2部では、組織がAIシステムのリスクに実際に対処するための4つの具体的な機能(ガバナンス、マップ、メジャー、マネジメント)を説明している。これらの機能は、コンテキストに応じたユースケースや、AIのライフサイクルのどの段階でも適用することができる。
Working closely with the private and public sectors, NIST has been developing the AI RMF for 18 months. The document reflects about 400 sets of formal comments NIST received from more than 240 different organizations on draft versions of the framework. NIST today released statements from some of the organizations that have already committed to use or promote the framework. NISTは、民間および公共部門と密接に協力しながら、1年半にわたってAI RMFの開発を進めてきた。この文書には、NISTがフレームワークのドラフト版に対して240以上の組織から受け取った約400件の正式なコメントが反映されている。NISTは本日、このフレームワークの使用や推進を既に表明しているいくつかの組織の声明を発表した。
The agency also today released a companion voluntary AI RMF Playbook, which suggests ways to navigate and use the framework.  また本日、NISTは、フレームワークのナビゲーションと使用方法を提案する、任意のAI RMF Playbookも発表した。 
NIST plans to work with the AI community to update the framework periodically and welcomes suggestions for additions and improvements to the playbook at any time. Comments received by the end of February 2023 will be included in an updated version of the playbook to be released in spring 2023. NISTは、AIコミュニティと協力してフレームワークを定期的に更新する予定であり、プレイブックへの追加や改善の提案を随時受け付けている。2023年2月末までに寄せられたコメントは、2023年春にリリースされるプレイブックの更新版に含まれる予定である。
In addition, NIST plans to launch a Trustworthy and Responsible AI Resource Center to help organizations put the AI RMF 1.0 into practice. The agency encourages organizations to develop and share profiles of how they would put it to use in their specific contexts. Submissions may be sent to [mail]. さらにNISTは、組織がAI RMF 1.0を実践するのを支援するため、「Trustworthy and Responsible AI Resource Center」を立ち上げる予定である。同機関は、各組織が特定の状況下でどのようにこれを使用するかのプロファイルを作成し、共有することを奨励している。提出先は、[mail]
NIST is committed to continuing its work with companies, civil society, government agencies, universities and others to develop additional guidance. The agency today issued a roadmap for that work. NISTは、企業、市民社会、政府機関、大学などとの共同作業を継続し、追加のガイダンスを開発することを約束する。NISTは本日、この作業のためのロードマップを発表した。
The framework is part of NIST’s broad and growing portfolio of AI-related work that includes fundamental and applied research along with a focus on measurement and evaluation, technical standards, and contributions to AI policy.  このフレームワークは、NISTのAI関連業務の幅広い拡大ポートフォリオの一部であり、測定・評価、技術標準、AI政策への貢献に重点を置いた基礎・応用研究が含まれている。  

 

・[PDF]

20230127-55450

・[DOCX] 仮訳

 

リスクマネジメントフレーワーク (RMF)

1_20230127061801

目次...

Executive Summary エグゼクティブサマリー
Part 1: Foundational Information 第1部: 基礎情報
1 Framing Risk 1 リスクの枠組み
1.1 Understanding and Addressing Risks, Impacts, and Harms 1.1 リスク、影響、害を理解し対処する
1.2 Challenges for AI Risk Management 1.2 AIリスクマネジメントの課題
1.2.1 Risk Measurement 1.2.1 リスクの測定
1.2.2 Risk Tolerance 1.2.2 リスクの許容度
1.2.3 Risk Prioritization 1.2.3 リスクの優先順位付け
1.2.4 Organizational Integration and Management of Risk 1.2.4 リスクの組織的統合とマネジメント
2 Audience 2 想定読者
3 AI Risks and Trustworthiness 3 AIリスクと信頼性
3.1 Valid and Reliable 3.1 有効性と信頼性
3.2 Safe 3.2 安全
3.3 Secure and Resilient 3.3 安全性とレジリエンス
3.4 Accountable and Transparent 3.4 説明可能で透明性がある
3.5 Explainable and Interpretable 3.5 説明可能で解釈可能なもの
3.6 Privacy-Enhanced 3.6 プライバシーの保護
3.7 Fair – with Harmful Bias Managed 3.7 公正 - 有害なバイアスは管理された状態で
4 Effectiveness of the AI RMF 4 AI RMFの有効性
Part 2: Core and Profiles 第2部:コアとプロファイル
5 AI RMF Core 5 AI RMFのコア
5.1 Govern 5.1 統治
5.2 Map 5.2 マップ
5.3 Measure 5.3 測定
5.4 Manage 5.4 管理
6 AI RMF Profiles 6 AI RMF プロファイル
Appendix A: Descriptions of AI Actor Tasks from Figures 2 and 3 附属書A:図2および図3のAIアクタータスクの説明
Appendix B: How AI Risks Differ from Traditional Software Risks 附属書B:AIリスクは従来のソフトウェアリスクとどう違うか
Appendix C: AI Risk Management and Human-AI Interaction 附属書C:AIリスクマネジメントと人間-AI間の相互作用
Appendix D: Attributes of the AI RMF 附属書D: AI RMFの属性

 

エグゼクティブサマリー...

 

NISTのAIリスクフレームワークのウェブページ

AI RISK MANAGEMENT FRAMEWORK

 

ここに至るタイムライン...

1_20230127101501

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2022.08.24 NIST 意見募集 AIリスクマネジメントフレームワーク(第2ドラフト)とそのプレイブック

・2022.03.22 NIST 意見募集 AIリスクマネジメントフレームワーク(初期ドラフト)

 

 

 

|

« IPA 「情報セキュリティ10大脅威 2023」を公開 | Main | 米国 FBI DHS 戦略的インテリジェンス評価と国内テロに関するデータについての報告 (2023.01.05) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« IPA 「情報セキュリティ10大脅威 2023」を公開 | Main | 米国 FBI DHS 戦略的インテリジェンス評価と国内テロに関するデータについての報告 (2023.01.05) »