米国 MITRE AI保証
こんにちは、丸山満彦です。
何事にもアカウンタビリティが重要と考える欧米の文化ですから、AIのAssurance(保証)というのも当然に考えるわけですが、英国のみならず、米国もですかね...
● MITRE
・2024.07.15 AI Assurance: A Repeatable Process for Assuring AI-Enabled Systems—Executive Summary
AI Assurance: A Repeatable Process for Assuring AI-Enabled Systems—Executive Summary | AI保証: AIを活用したシステムを保証するための反復可能なプロセス - エグゼクティブサマリー |
This document provides an executive summary of "AI Assurance: A Repeatable Process for Assuring AI-enabled Systems," which defines the process for discovering, assessing, and managing risk throughout the life cycle of an AI-enabled system. | 本書は「AI保証」のエグゼクティブサマリーを提供する: AI Assurance: A Repeatable Process for Assuring AI-enabled Systems」の要旨であり、AI対応システムのライフサイクルを通じてリスクを発見、アセスメント、マネジメントするためのプロセスを定義している。 |
Federal agencies are being encouraged by the White House to remove barriers to innovation, accelerate the use of artificial intelligence (AI) tools, and leverage AI to better fulfill their missions, all while setting up guardrails to mitigate risks. In recent years, the U.S. has made progress in addressing these concerns, but there are significant gaps in our current understanding of the risks posed by AI-enabled applications when they support consequential government functions. A repeatable engineering approach for assuring AI-enabled systems is required to extract maximum value from AI while protecting society from harm. | 連邦政府機関はホワイトハウスから、イノベーションの障壁を取り除き、人工知能(AI)ツールの利用を加速させ、AIを活用して任務をよりよく遂行するよう奨励されている。近年、米国はこうした懸念への対処を進めてきたが、AIを活用したアプリケーションが政府の重要な機能をサポートする際にもたらすリスクに関する現在の理解には大きなギャップがある。社会を危害から守りつつAIから最大限の価値を抽出するためには、AI対応システムを保証するための反復可能な工学的アプローチが必要である。 |
This document provides an executive summary of "AI Assurance: A Repeatable Process for Assuring AI-enabled Systems," which defines and articulates AI assurance as a process for discovering, assessing, and managing risk throughout an AI-enabled system's life cycle to ensure it operates effectively for the benefit of its stakeholders. The process is designed to be adaptable to different contexts and sectors, making it relevant to the national discussion on regulating AI. | 本書は、「AI保証」のエグゼクティブ・サマリーを提供する: 本書は、「AI保証:AI対応システムをアシュアするための反復可能なプロセス」のエグゼクティブ・サマリーを提供するものであり、AI保証を、AI対応システムのライフサイクルを通じてリスクを発見、アセスメント、マネジメントし、ステークホルダーの利益のために効果的に運用するためのプロセスとして定義し、明確にしている。このプロセスは、さまざまな文脈や分野に適応できるように設計されており、AI規制に関する国内議論に関連している。 |
エグゼクティブサマリー...
・[PDF] AI ASSURANCE A Repeatable Process for Assuring AI-enabled Systems
全体...
・2024.06.05 AI Assurance: A Repeatable Process for Assuring AI-enabled Systems
AI Assurance: A Repeatable Process for Assuring AI-enabled Systems | AI保証: AIを活用したシステムを保証するための反復可能なプロセス - エグゼクティブサマリー |
Extracting maximum value from AI while protecting against societal harm requires a repeatable engineering approach for assuring AI-enabled systems in mission contexts. This paper articulates such an approach and outlines how it can be used to develop an AI Assurance Plan to achieve and maintain assurance throughout the life cycle of an AI-enabled system. | 本書は「AI保証」のエグゼクティブサマリーを提供する: AI Assurance: A Repeatable Process for Assuring AI-enabled Systems」の要旨であり、AI対応システムのライフサイクルを通じてリスクを発見、アセスメント、マネジメントするためのプロセスを定義している。 |
Artificial intelligence increasingly informs consumer choices—from movie recommendations to routine customer service inquiries. However, high-consequence AI applications such as autonomous vehicles, accessing government benefits, or healthcare decisions surface significant concerns. The MITRE-Harris Poll survey on AI trends finds that just 48% of the American public believes AI is safe and secure, whereas 78% voice concern about its potential for malicious use. Assuring AI-enabled systems to address these concerns is nontrivial and will require collaboration across government, industry, and academia. | 連邦政府機関はホワイトハウスから、イノベーションの障壁を取り除き、人工知能(AI)ツールの利用を加速させ、AIを活用して任務をよりよく遂行するよう奨励されている。近年、米国はこうした懸念への対処を進めてきたが、AIを活用したアプリケーションが政府の重要な機能をサポートする際にもたらすリスクに関する現在の理解には大きなギャップがある。社会を危害から守りつつAIから最大限の価値を抽出するためには、AI対応システムを保証するための反復可能な工学的アプローチが必要である。 |
In AI Assurance: A Repeatable Process for Assuring AI-enabled Systems, we define and articulate AI assurance as a process for discovering, assessing, and managing risk throughout an AI-enabled system's life cycle to ensure it operates effectively for the benefit of its stakeholders. The process results in an AI Assurance Plan, a comprehensive artifact outlining the necessary activities to achieve and maintain the assurance of an AI-enabled system in a mission context. We also discuss how this process may be applied in different phases of the AI life cycle, such as system development, acquisition, certification, and deployment. We conclude by highlighting the need for sector-specific AI assurance labs and emphasize the importance of public-private partnerships in advancing AI assurance. | 本書は、「AI保証」のエグゼクティブ・サマリーを提供する: 本書は、「AIアシュアランス:AI対応システムをアシュアするための反復可能なプロセス」のエグゼクティブ・サマリーを提供するものであり、AIアシュアランスを、AI対応システムのライフサイクルを通じてリスクを発見、アセスメント、マネジメントし、ステークホルダーの利益のために効果的に運用するためのプロセスとして定義し、明確にしている。このプロセスは、さまざまな文脈や分野に適応できるように設計されており、AI規制に関する国内議論に関連している。 |
・[PDF]
● まるちゃんの情報セキュリティ気まぐれ日記
AI Assurance
・2024.07.07 米国 MITRE AI規制を通じてAIのセキュリティと安全性を確保する
・2024.02.14 英国 AI保証への導入ガイダンス (2024.02.12)
・2023.11.28 米国 CISA AI導入のロードマップ (2023.11.14)
・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令
・2023.10.27 米国 MITRE 重要インフラにおけるAIサイバーリスク低減の原則: 優先順位付けのアプローチ
・2023.09.10 カーネギーメロン大学ソフトウェア工学研究所 新たなテクノロジー:国防総省におけるソフトウェアの未来を変える7つのテーマ (2023.08.24)
・2023.07.18 英国 科学技術省データ倫理・イノベーションセンターブログ AI保証の専門家が他の領域から学ぶべき6つの教訓 (2023.07.12)
・2023.06.18 英国 科学技術省データ倫理・イノベーションセンター AI保証事例集 (2023.06.07)
・2023.06.16 米国 MITRE AIセキュリティのための賢明な規制の枠組み
・2022.12.10 英国 データ倫理・イノベーションセンター「業界温度チェック:AI保証の障壁と実現要因」
・2021.12.09 英国 AI保証に向けたロードマップを公表(AI認証制度?)
・2021.04.21 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事
Comments