« Five Eyes ドイツ フランス LookBitに対する包括的なアドバイザリーを公表 | Main | 米国 連邦最高情報責任者事務局 覚書M-22-18「安全なソフトウェア開発の実践によるソフトウェアサプライチェーンのセキュリティの強化」の更新 (2023.06.09) »

2023.06.16

米国 MITRE AIセキュリティのための賢明な規制の枠組み

こんにちは、丸山満彦です。

米国のMITREが、「AIセキュリティのための賢明な規制の枠組み」を公表していますね。。。

 

⚫︎ MITRE

・2023.06.14 A Sensible Regulatory Framework for AI Security

 

A Sensible Regulatory Framework for AI Security AIセキュリティのための賢明な規制の枠組み
This paper explores potential options for AI regulation and makes recommendations on how to establish guardrails to shape the development and use of AI. 本稿では、AI規制の潜在的な選択肢を探り、AIの開発と利用を形成するためのガードレールを確立する方法について提言する。
Artificial intelligence can bring precision and speed to every sector—defense, healthcare, transportation, education, and more. At the same time, AI poses potential risks to people and property, raising social, ethical, geopolitical, even existential questions. The prospect of AI with a “mind” of its own, or a human directing an AI to cause harm, is alarming. MITRE is applying our deep systems engineering expertise to enable impactful, secure, and equitable AI. 人工知能は、防衛、医療、交通、教育など、あらゆる分野に精度とスピードをもたらすことができる。同時に、AIは人や財産に潜在的なリスクをもたらし、社会的、倫理的、地政学的、さらには実存的な問題を提起している。AIが自らの「心」を持ち、あるいは人間がAIに危害を加えるよう指示するという見通しは、憂慮すべきものである。MITREは、インパクトがあり、安全で、公平なAIを実現するために、深いシステム工学の専門知識を適用している。
With AI technologies growing at a staggering rate, the time is now to put best practices in place to promote AI for public good. MITRE is applying experience advancing AI in the defense and civil domains, and strategic collaborations with government, industry, and academia to inform sensible AI regulation in the near・and long-term. We recommend where to place guardrails to best shape AI development and application. AI技術が驚異的なスピードで成長している今、公共の利益のためにAIを推進するためのベストプラクティスを導入する時が来ている。MITREは、防衛・民生領域でAIを推進してきた経験や、政府・産業・学界との戦略的協力関係を活かし、近い将来・長期的に賢明なAI規制に情報を提供している。我々は、AIの開発と応用を最適化するために、どこにガードレールを設置すべきかを提言する。

 

・[PDF]

20230616-124441

 

この報告書では、AIを次の3つに分けて、脅威とリスクを考えていますね。。。

1. Engineered systems that use AI as a component or subsystem 1. AIをコンポーネントまたはサブシステムとして使用するように設計されたシステム
2. AI as an augmentation of human capabilities 2. 人間の能力を補強するためのAI
3. AI operating autonomously under its own agency 3. 自らの権限で自律的に動作するAI

 

規制...

Regulatory considerations for AI as a component or subsystem  コンポーネントまたはサブシステムとしてのAIに対する規制の検討 
1. Any AI regulation should require AI components to satisfy software assurance requirements as well as AI-specific assurance requirements that can be developed based on validated AI assurance frameworks. 1. AIに関する規制は、AIコンポーネントがソフトウェア保証要件に加え、検証済みのAI保証フレームワークに基づいて開発できるAI固有の保証要件を満たすことを求めるべきである。
2. Regulated industries should develop a NIST  2. 規制対象業界は、NIST の AI RMF 対応計画を策定すべきである。
3. Any AI regulation should account for and mitigate risks stemming from component interactions. 3. AIに関する規制は、コンポーネントの相互作用に起因するリスクを考慮し、軽減する必要がある。
4. Any AI regulation should require “assurance cases” to be developed before deployment. 4. AIに関する規制は、配備前に「保証ケース」を作成することを求めるべきである。
5. Any AI regulation should account for use context and favor existing domain-specific regulations. 5. AIに関する規制は、利用状況を考慮し、既存のドメイン固有の規制を優先すべきである。
6. Industry regulators should conduct continuous regulatory analysis of individual use cases. 6. 業界の規制当局は、個々のユースケースについて継続的な規制分析を行うべきである。
7. Industry regulators should promote trusted information sharing mechanisms to support regulatory analysis. 7. 業界規制当局は、規制分析を支援するために、信頼できる情報共有メカニズムを促進すべきである。
Regulatory considerations for AI implementations that aim to augment human capabilities 人間の能力を増強するためのAI導入に対する規制上の考慮事項
8. AI regulation should require system auditability in order to hold individuals who misuse AI to cause harm accountable. 8. AI規制は、AIを悪用して損害を与えた個人の責任を追及するために、システムの監査可能性を要求すべきである。
9. Legal frameworks to deter intentional and harmful AI misuse should scale accountability with risk. 9. 意図的で有害なAIの誤用を抑止するための法的枠組みは、リスクに応じて説明責任をスケールアップさせるべきである。
10. AI regulation should provide appropriate levels of transparency into AI applications to an objective third party and/or the public for detection and mitigation of intentional AI misuse. 10. AI規制は、意図的なAIの誤用の検出と軽減のために、客観的な第三者および/または一般市民に対して、AIアプリケーションの適切なレベルの透明性を提供するべきである。
Regulatory considerations for AI implementations that have agency エージェンシーを持つAI導入のための規制上の留意点
11. Federal government critical infrastructure plans should address increased risk due to AI-enabled scale and speed and consider countering risk with automated red teaming.  11. 連邦政府の重要インフラ計画は、AIが可能にする規模と速度によるリスクの増加に対処し、自動化されたレッドチームによるリスクへの対抗を検討すべきである。
12. Increase federal funding to create common vocabulary and frameworks for AI alignment, and use those to guide future research.  12. AIとの連携に関する共通の語彙とフレームワークを作成し、それらを今後の研究の指針として活用するための連邦政府の資金を増やす。
13. Regulation and legal frameworks should differentiate between appropriate research with risk mitigations and bad actors, and hold all appropriately accountable for harms.  13. 規制や法的枠組みは、リスクを軽減した適切な研究と悪質な行為者を区別し、すべての人に被害に対する責任を適切に負わせるべきである。

 

 

 

|

« Five Eyes ドイツ フランス LookBitに対する包括的なアドバイザリーを公表 | Main | 米国 連邦最高情報責任者事務局 覚書M-22-18「安全なソフトウェア開発の実践によるソフトウェアサプライチェーンのセキュリティの強化」の更新 (2023.06.09) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« Five Eyes ドイツ フランス LookBitに対する包括的なアドバイザリーを公表 | Main | 米国 連邦最高情報責任者事務局 覚書M-22-18「安全なソフトウェア開発の実践によるソフトウェアサプライチェーンのセキュリティの強化」の更新 (2023.06.09) »