米国 MITRE AI規制を通じてAIのセキュリティと安全性を確保する
こんにちは、丸山満彦です。
MITREが、今後の政権のために、AIの悪用を防ぎ、AIを効果的に活用するためのガイダンスを公表していますね...政権が大きく変わっても、政策が連続して行われていくようにしようと考えているのかもですね...
● MITRE
・2024.07.03 Assuring AI Security and Safety through AI Regulation
Assuring AI Security and Safety through AI Regulation | AI規制によるAIの安全・安心の確保 |
This document provides guidance for the incoming administration on establishing a comprehensive and effective regulatory framework for AI security and safety by balancing technological progression, ethical considerations, and public trust in AI. | この文書は、今後の政権に対し、AIに対する技術的進歩、倫理的配慮、社会的信頼のバランスをとることにより、AIの安全性と安心のための包括的かつ効果的な規制の枠組みを確立するためのガイダンスを提供するものである。 |
What’s the issue? The rapid advancement and diverse applications of AI present unique regulatory challenges. There is a need to bridge the gap between policymakers and agency implementation, develop sector-specific AI assurance requirements, and increase transparency in AI applications. | 何が問題なのか?AIの急速な進歩と多様な応用は、規制上のユニークな課題を提示している。政策立案者と規制当局の間のギャップを埋め、分野別のAI保証要件を策定し、AIアプリケーションの透明性を高める必要がある。 |
What did we do? A cross-MITRE team analyzed these issues and leveraged insights from various federal government sectors to develop this guide for the incoming administration. | 我々は何をしたのか?MITREの横断的チームは、これらの問題を分析し、連邦政府の様々なセクターからの知見を活用して、次期政権のためのこのガイドを作成した。 |
What did we find? By enhancing communication between policymakers and those implementing AI strategies, understanding adversary use of AI advancements, and refining regulatory and legal frameworks for AI systems, the incoming administration can ensure the proper application and use of AI. This approach will not only reinforce the United States' international leadership in AI but also unlock its transformative potential to address a wide range of critical challenges. | 何を発見したか?政策立案者とAI戦略を実施する人々とのコミュニケーションを強化し、敵対勢力によるAIの進歩の利用を理解し、AIシステムの規制と法的枠組みを洗練させることで、次期政権はAIの適切な適用と利用を確保することができる。このアプローチは、米国がAIにおける国際的リーダーシップを強化するだけでなく、広範な重要課題に対処するための変革の可能性を解き放つことになる。 |
MITRE’s 2024 presidential transition project leverages our cross-agency insights to develop nonpartisan and evidence-informed policy recommendations to help the next administration succeed. | MITREの2024年大統領移行プロジェクトは、省庁横断的な見識を活用し、超党派でエビデンスに基づいた政策提言を作成し、次期政権の成功を支援する。 |
・[PDF]
本文...
ASSURING AI SECURITY AND SAFETY THROUGH AI REGULATION | AI規制を通じてAIのセキュリティと安全性を確保する |
Rethinking regulatory and legal frameworks can guide federal funding decisions, advance AI research, and promote responsible AI use while deterring misuse. | 規制と法的枠組みを再考することで、連邦政府の資金調達決定を導き、AI研究を促進し、悪用を抑止しつつ責任あるAIの利用を促進することができる。 |
By establishing a comprehensive and effective regulatory framework for AI security and safety, the incoming administration can ensure a balanced approach to technological progression, ethical considerations, and public trust. Doing so will not only reinforce the United States’ international leadership in AI but also unlock its transformative potential to address a wide range of critical challenges. | AIのセキュリティと安全性に関する包括的かつ効果的な規制の枠組みを確立することで、今後の政権は、技術の進歩、倫理的配慮、国民の信頼に対するバランスの取れたアプローチを確保することができる。そうすることで、米国はAIにおける国際的なリーダーシップを強化するだけでなく、さまざまな重要課題に対処するための変革の可能性を解き放つことができる。 |
The Case for Action | 行動の事例 |
Over the past decade, the field of artificial intelligence (AI) has experienced remarkable advancements, ushering in a new era of technological innovation.These advancements have equipped us with a transformative technology in AI, which can be leveraged to address critical challenges in diverse fields, from healthcare to national security. | この10年間で、人工知能(AI)の分野は目覚ましい進歩を遂げ、技術革新の新時代を迎えた。こうした進歩により、AIという変革的なテクノロジーが備わり、ヘルスケアから国家安全保障に至るまで、さまざまな分野の重要な課題に対処するために活用できるようになった。 |
With each new presidential term comes the opportunity to reassess and enhance our approach to rapidly advancing technologies. In the realm of AI, it will be essential for the administration to stay informed about the current state of AI, its potential impacts, and the importance of advancing a sensible regulatory framework for AI assurance. While current policy and legislative activities have begun to address the need for AI regulation, more progress is needed to ensure the proper application and use of this technology, balancing security, ethical considerations, and public trust. | 新しい大統領の任期が始まるたびに、急速に進歩するテクノロジーへのアプローチを見直し、強化する機会が訪れる。AIの領域では、AIの現状、その潜在的影響、AI保証のための賢明な規制枠組みを推進することの重要性について、政権が常に情報を得ることが不可欠となる。現在の政策や立法活動は、AI規制の必要性に取り組み始めているが、安全保障、倫理的配慮、社会的信頼のバランスを取りながら、この技術の適切な適用と利用を確保するためには、さらなる進展が必要である。 |
Key Challenges and Opportunities | 主な課題と機会 |
AI regulation presents unique challenges due to the rapid pace of AI advancement and its diverse applications. Bridging the gap between policymakers at the Executive Office of the President (EOP) and agency implementation is a significant hurdle. Ensuring that policies formulated at the executive level are effectively translated into action at the agency level, taking into account the unique needs and contexts of each agency, is crucial. | AI規制は、AIの急速な進歩ペースとその多様な応用により、独自の課題を提示している。大統領府(EOP)の政策立案者と各省庁の実施とのギャップを埋めることは重要なハードルである。行政府レベルで策定された政策が、各省庁固有のニーズや状況を考慮しつつ、各省庁レベルで効果的に実行に移されるようにすることが極めて重要である。 |
Developing sector-specific AI assurance requirements that consider use cases and operationalizing the National Institute of Standards and Technology’s (NIST’s) AI Risk Management Framework (RMF) across sectors present significant challenges. These steps are necessary to ensure AI applications, within their specific contexts, meet safety and performance standards and effectively manage risks. | ユースケースを考慮した部門固有のAI保証要件を策定し、国立標準技術研究所(NIST)のAIリスクマネジメントフレームワーク(RMF)を部門横断的に運用することは大きな課題である。これらの措置は、AIアプリケーションが特定の文脈の中で、安全性と性能の標準を満たし、リスクを効果的に管理することを保証するために必要である。 |
Establishing system auditability and increasing transparency in AI applications are essential for tracking misuse of AI and ensuring accountability within organizations. However, these measures pose challenges due to the complexity of AI systems and the current gap in technical expertise needed to effectively implement and manage these processes. | システムの監査可能性を確立し、AIアプリケーションの透明性を高めることは、AIの悪用を追跡し、組織内の説明責任を確保するために不可欠である。しかし、AIシステムの複雑さと、これらのプロセスを効果的に実施・管理するために必要な技術的専門知識のギャップが現状であるため、これらの対策には課題がある。 |
Despite these challenges, there are significant opportunities. Rethinking regulatory and legal frameworks can guide federal funding decisions, advance AI research, and promote responsible AI use while deterring misuse. Strengthening critical infrastructure plans and promoting continuous regulatory analysis can help secure our critical infrastructure against exploitation by humans, AI-augmented humans, or malicious AI agents. | こうした課題にもかかわらず、大きなチャンスもある。規制や法的枠組みを再考することで、連邦政府の資金調達の決定を導き、AI研究を促進し、悪用を抑止しつつ責任あるAIの利用を促進することができる。重要インフラ計画を強化し、継続的な規制分析を促進することで、人間、AIを強化した人間、悪意のあるAIエージェントによる悪用から重要インフラを守ることができる。 |
Moreover, the diverse needs and requirements of agencies based on their size, organization, budget, mission, and internal AI talent present an opportunity to promote flexibility and adaptability in AI governance. An effective approach to AI regulation should allow for a tailored and effective implementation of AI strategies and policies across agencies. | さらに、政府機関の規模、組織、予算、使命、内部のAI人材に基づく多様なニーズと要件は、AIガバナンスにおける柔軟性と適応性を促進する好機となる。AI規制への効果的なアプローチは、各省庁に合わせた効果的なAI戦略・政策の実施を可能にするはずだ。 |
Data-Driven Recommendations | データ主導の提言 |
1. BRIDGE THE GAP BETWEEN POLICYMAKERS AND AGENCY IMPLEMENTATION | 1. 政策立案者と政府機関の間のギャップを埋める |
Enhance communication and collaboration between policymakers and those implementing AI strategies by ensuring policies formulated at the executive level are effectively translated into action at the agency level, taking into account the unique needs and contexts of each agency. This can be achieved by evaluating existing EOP-interagency committees, expanding their mandates, adjusting their composition, or enhancing their resources, and if necessary, establishing a new dedicated committee that includes representatives from the EOP, various agencies, and industry. This group would help ensure effective communication and collaboration, involving regular meetings, shared resources, and a common platform for exchanging ideas and best practices. | 行政レベルで策定された政策が、各省庁固有のニーズやコミュニケーションを考慮しながら、各省庁レベルで効果的に実行に移されるようにすることで、政策立案者とAI戦略を実施する人々との間のコミュニケーションとコラボレーションを強化する。これは、既存のEOP-省庁間委員会を評価し、その任務を拡大し、構成を調整し、あるいはリソースを強化し、必要であれば、EOP、各省庁、産業界の代表者を含む専門委員会を新設することで達成できる。このグループは、定期的な会合、リソースの共有、アイデアやベストプラクティスを交換するための共通のプラットフォームなど、効果的なコミュニケーションと協力を確保するのに役立つだろう。 |
2. DEVELOP SECTOR-SPECIFIC ASSURANCE REQUIREMENTS AND AI ASSURANCE PLANS | 2. 分野別の保証要件とAI保証計画を策定する |
Collaborate with stakeholders in a repeatable AI assurance process to ensure that the use of AI within their specific contexts meets necessary safety and performance standards and manages risks associated with AI. Adoption of safe and secure AI can be achieved through requiring a structured AI assurance process that involves four steps: Discovering Assurance Needs, Characterizing and Prioritizing Risks, Evaluating Risks, and Managing Risks. This risk management process should incorporate the NIST AI RMF, be iterative, and be executed throughout the AI system’s life cycle. A required output of this process is an AI Assurance Plan. | 特定の状況におけるAIの利用が、必要な安全・性能基準を満たし、AIに関連するリスクを管理することを保証するため、繰り返し可能なAI保証プロセスにおいて利害関係者と協力する。安全でセキュアなAIの採用は、4つのステップを含む構造化されたAI保証プロセスを要求することで達成できる: 保証ニーズの発見」、「リスクの特性化と優先順位付け」、「リスクの評価」、「リスクのマネジメント」である。このリスクマネジメントプロセスは、NIST AI RMFを取り入れ、反復的であり、AIシステムのライフサイクルを通じて実行されるべきである。このプロセスの必須アウトプットは、AI保証計画である。 |
This living document outlines the management and technical activities necessary to achieve and maintain assurance of the AI system over its operational lifetime and will require updating as new issues or risks are discovered. | この生きた文書は、AIシステムの運用期間を通じて保証を達成し維持するために必要なマネジメント及び技術的活動の概要を示すものであり、新たな問題やリスクが発見された場合には更新が必要となる。 |
3. SUPPORT AND ENHANCE THE OPERATIONS OF THE AI INFORMATION SHARING AND ANALYSIS CENTER (AI-ISAC) | 3. AI情報共有分析センター(AI-ISAC)の運営を支援し、強化する。 |
Promote the recently established AI-ISAC to accelerate the sharing of real-world assurance incidents. | 最近設立されたAI-ISACを推進し、実際の保証インシデントの共有を加速させる。 |
This is essential to hasten understanding of threats, vulnerabilities, and risks to AI technology adoption for consequential use. The AI-ISAC should work in tandem with a national incident database like the Adversarial Threat Landscape for AI Systems (ATLASTM) to promote safe and anonymous sharing of real-world incidents. AI vulnerabilities and risks arise not only from malicious action but also because of the nature of the algorithms themselves and their susceptibility to misinterpretation, bias, performance drift, and other assurance factors. The AI-ISAC promotes analysis of incidents to identify root causes, and identification and development of mitigations, which can be derived from and/or contributed to the NIST AI RMF. | これは、脅威、脆弱性、結果的にAI技術を採用するリスクについての理解を早めるために不可欠である。AI-ISACは、AIシステムのための敵対的脅威情勢(ATLASTM)のような国家インシデント・データベースと連携し、実世界のインシデントの安全かつ匿名での共有を促進すべきである。AIの脆弱性やリスクは、悪意ある行為からだけでなく、アルゴリズム自体の性質や、誤解、バイアス、性能ドリフト、その他の保証要因の影響を受けやすいことから生じる。AI-ISACは、根本原因を特定するためにインシデントの分析を促進し、NIST AI RMFから派生する、あるいはNIST AI RMFに貢献するような低減策の特定と開発を促進する。 |
4. UNDERSTAND ADVERSARY USE OF AI ADVANCEMENTS | 4. 敵の AI 進歩の利用を理解する。 |
Support an at-scale AI Science and Technology Intelligence (AI S&TI) apparatus to monitor adversarial AI tradecraft from open sources such as research literature and publications, while providing continuous red-teaming of U.S. public and commercial AI infrastructure and operations. Doing so is crucial to understanding how our adversaries are using AI to gain advantage globally and to characterizing the reach of adversary capabilities into the United States, as well as the threat such reach poses to national security. | 研究文献や出版物などのオープンソースから敵対的なAIの技術を監視するための大規模なAI科学技術インテリジェンス(AI S&TI)装置を支援する。これは、敵対勢力がどのようにAIを利用して世界的な優位に立とうとしているのかを理解し、敵対勢力の米国への進出状況や、そのような進出が国家安全保障にもたらす脅威を把握する上で極めて重要である。 |
5. ESTABLISH SYSTEM AUDITABILITY AND INCREASE TRANSPARENCY IN AI APPLICATIONS | 5. システムの監査可能性を確立し、AIアプリケーションの透明性を高める。 |
Issue an executive order that mandates system auditability, developing standards for audit trails, and advocating for policies that increase transparency in AI applications. | システムの監査可能性を義務付ける大統領令を出し、監査証跡の標準を開発し、AIアプリケーションの透明性を高める政策を提唱する。 |
This would include requiring AI developers to disclose what data was used to train their systems as well as the foundation models on which their systems were built. System auditability is vital for tracking misuse of AI and holding individuals accountable, as well as maintaining public trust in AI technologies. | これには、AI開発者に対し、システムの訓練にどのようなデータが使用されたのか、またシステムが構築された基盤モデルを開示することを義務付けることも含まれる。システムの監査可能性は、AIの悪用を追跡し、個人に責任を負わせるだけでなく、AI技術に対する社会の信頼を維持するためにも不可欠である。 |
6. PROMOTE PRACTICES FOR AI PRINCIPLES ALIGNMENT AND REFINE REGULATORY AND LEGAL FRAMEWORKS FOR AI SYSTEMS WITH INCREASING AGENCY | 6. AIの原則を整合させるためのプラクティスを推進し、AIシステムに関する規制・法的枠組みを、より多くの機関とともに洗練させる。 |
Take the following key actions to ensure the safe and responsible development and use of AI. | AIの安全で責任ある開発と利用を確保するために、以下の主要な行動をとる。 |
• Recognize that purpose (an understanding of objectives or goals) is an inherently human quality, and AI systems with agency (having the ability to act independently) will either directly receive purpose from a human (as instruction) or infer purpose through learning from human behaviors and artifacts. | - 目的(目的や目標の理解)は本質的に人間の資質であり、エージェンシー(独立して行動する能力)を持つAIシステムは、人間から直接(指示として)目的を受け取るか、人間の行動や人工物からの学習を通じて目的を推測することを認識する。 |
• For AI principles alignment, create common vocabulary and research frameworks for guiding AI alignment in systems as scientific and engineering advances are made (rather than limiting or regulating advancements toward artificial general intelligence) to mitigate the risk of either humans tasking AI to carry out dangerous actions or AI systems exhibiting dangerous emergent behavior. Resulting guidelines would be similar to those established for research involving human subjects. Such advancements in AI alignment practices will serve to limit emergent, undesirable AI behavior, but research activities will still need safe environments with regulated guidelines like bioresearch and biosafety levels. | - AIの原則の調整については、人間がAIに危険な行動を実行させたり、AIシステムが危険な創発的行動を示したりするリスクを軽減するために、(人工的な一般知能に向けた進歩を制限したり規制したりするのではなく)科学的・工学的な進歩に伴い、システムにおけるAIの調整を導くための共通の語彙や研究フレームワークを作成する。その結果生じるガイドラインは、人間を対象とする研究のために確立されたガイドラインと同様のものとなるだろう。AIのアライメントプラクティスにおけるこのような進歩は、創発的で望ましくないAIの行動を制限するのに役立つだろうが、研究活動には依然として、生物研究やバイオセーフティレベルのような規制されたガイドラインを持つ安全な環境が必要である。 |
• Refine regulatory and legal frameworks to differentiate between appropriate research (with risk mitigations) and bad actors using AI for malintent, establish guidelines that address misuse of AI, and hold all appropriately accountable for harms. | - リスク低減を伴う)適切な研究と、悪意を持ってAIを使用する悪質な行為者を区別し、AIの悪用に対処するガイドラインを確立し、すべての人に被害に対する適切な責任を負わせるために、規制と法的枠組みを洗練させる。 |
7. STRENGTHEN CRITICAL INFRASTRUCTURE PLANS AND PROMOTE CONTINUOUS REGULATORY ANALYSIS | 7. 重要インフラ計画を強化し、継続的な規制分析を推進する。 |
Direct federal agencies to review and strengthen government-critical infrastructure plans, focusing on safety-critical cyber-physical systems vulnerable to increased threats due to the scale and speed AI enables, and establish a dedicated executive task force to propose regulatory updates as needed. | 連邦政府機関に対し、AIが可能にする規模と速度により脅威が増大するセーフティ・クリティカルなサイバー・フィジカル・システムを中心に、政府の重要インフラ計画を見直し、強化するようガバナンスを指示し、必要に応じて規制の更新を提案する専門のエグゼクティブ・タスクフォースを設置する。 |
Such actions are necessary to ensure that our critical infrastructure is secure against exploitation by humans, AI-augmented humans, or malicious AI agents. | このような措置は、重要インフラが人間、AIに拡張された人間、悪意のあるAIエージェントによる悪用に対して安全であることを保証するために必要である。 |
8. PROMOTE FLEXIBILITY AND ADAPTABILITY IN AI GOVERNANCE | 8. AIガバナンスにおける柔軟性と適応性を促進する。 |
Develop guidelines that allow for flexibility in AI governance implementation across different agencies, considering their unique needs and contexts (e.g., size, organization, budget, mission, AI workforce competencies). This involves enabling each agency to set an AI strategy that aligns with its needs and specific level of AI maturity. The guidelines should provide a range of options for AI governance structures, processes, and practices, and allow agencies to choose the ones that best fit their specific circumstances while ensuring minimum standards for consistency and effectiveness. As AI technologies rapidly evolve, these guidelines should also be flexible to accommodate ongoing innovation and shifting expectations about what is possible. | 政府独自のニーズや状況(規模、組織、予算、ミッション、AI人材の能力など)を考慮し、異なる政府間でAIガバナンスを柔軟に実施できるガイドラインを策定する。これには、各機関がそのニーズとAI成熟度の特定のレベルに沿ったAI戦略を設定できるようにすることが含まれる。ガイドラインは、AIのガバナンス構造、プロセス、慣行について様々な選択肢を提供し、一貫性と有効性に関する最低限の標準を確保しつつ、各省庁がそれぞれの状況に最も適したものを選択できるようにすべきである。AI技術が急速に進化する中、これらのガイドラインは、継続的なイノベーションと、何が可能かについての期待の移り変わりに柔軟に対応するものでなければならない。 |
9. BRING IT ALL TOGETHER | 9. すべてをまとめる |
Create a National AI Center of Excellence (NAICE) that promotes and coordinates these priorities, drawing on threat and risk assessment from the AI-ISAC and AI S&TI. The NAICE should not only cross-pollinate lessons learned by sector-specific regulatory authorities and build on and advance AI assurance frameworks and best practices, but also lead in conducting cutting-edge applied research and development in AI. This includes developing new AI technologies, methodologies, and tools that can be adopted across different sectors. The Center would facilitate collaboration among industry, government, and academia, thereby accelerating the transition and adoption of cutting-edge AI capabilities that are safe and secure. | AI-ISACとAI S&TIの脅威とリスクアセスメントを活用し、これらの優先事項を推進・調整する国家AIセンター・オブ・エクセレンス(NAICE)を創設する。NAICEは、各分野の規制当局が学んだ教訓を相互に提供し、AI保証のフレームワークやベストプラクティスを構築・発展させるだけでなく、AIにおける最先端の応用研究開発の実施を主導すべきである。これには、異なるセクター間で採用可能な新しいAI技術、方法論、ツールの開発も含まれる。センターは産官学の連携を促進し、安全でセキュアな最先端のAI能力の移行と採用を加速する。 |
Implementation Considerations | 実施に関する検討事項 |
Implementing the proposed recommendations will require a blend of expertise, collaboration, funding, infrastructure upgrades, continuous learning resources, and flexibility in AI governance. Here is a suggested timeline and milestones to guide the process: | 提案された提言を実施するには、専門知識、コラボレーション、資金、インフラのアップグレード、継続的な学習リソース、AIガバナンスの柔軟性などを組み合わせる必要がある。以下は、そのプロセスを導くためのタイムラインとマイルストーンの提案である: |
FIRST 100 DAYS | 最初の100日間 |
Evaluate existing EOP-interagency committees and identify opportunities to enhance their role in bridging the gap between policymakers and agency implementation. Initiate collaborations with industry experts, academia, and regulatory bodies. Begin the process of issuing directives for the adoption of the structured AI assurance process and the development of AI Assurance Plans across relevant agencies and departments. | 既存のEOP省庁間委員会を評価し、政策立案者と各省庁の実施とのギャップを埋める役割を強化する機会を特定する。産業界の専門家、学界、規制団体との協力を開始する。構造化されたAI保証プロセスの採用と、関連省庁全体におけるAI保証計画の策定に向けた指令の発出プロセスを開始する。 |
FIRST SIX MONTHS | 最初の6ヶ月間 |
Monitor the initial implementation of the AI assurance process in sector-specific AI assurance infrastructure such as AI assurance laboratories and testbeds, as well as the development of AI Assurance Plans for use of specific AI-enabled systems in consequential mission spaces. Issue an executive order for system auditability and increased transparency in AI applications. | AI保証ラボやテストベッドといった分野別のAI保証インフラにおけるAI保証プロセスの初期導入、および結果的に重要なミッション空間における特定のAI対応システムの使用に関するAI保証計画の策定を監視する。AIアプリケーションにおけるシステムの監査可能性と透明性の向上を求める大統領令を発布する。 |
Start the process of directing federal agencies to review and strengthen government-critical infrastructure plans. Develop strategies and guidelines that allow for flexibility and adaptability in AI governance across agencies. | 政府重要インフラ計画の見直しと強化を連邦政府機関に指示するプロセスを開始する。政府機関におけるAIガバナンスの柔軟性と適応性を可能にする戦略とガイドラインを策定する。 |
FIRST YEAR | 最初の1年間 |
Secure increased federal funding for AI alignment research and necessary infrastructure upgrades. Implement system auditability and increased transparency in AI applications through executive orders and regulatory guidance. Complete the strengthening of federal government critical infrastructure plans. Establish a dedicated executive task force or enhance existing EOP-interagency committees to monitor the development and use of AI. | AIアライメント研究と必要なインフラのアップグレードのための連邦政府の資金増額を確保する。大統領令と規制ガイダンスを通じて、AIアプリケーションのシステム監査可能性と透明性向上を実施する。連邦政府の重要インフラ計画の強化を完了する。AIの開発と利用を監視するため、専門の行政タスクフォースを設置するか、既存のEOP-省庁間委員会を強化する。 |
ONGOING | 継続 |
Continuously monitor the development and use of AI and propose regulatory updates as needed, based on the effectiveness of the AI assurance process, AI assurance infrastructure, and AI Assurance Plans. The NAICE should play a key role in this process, not only advancing state-of-the-art AI assurance knowledge and processes to agencies/sectors but also drawing from their practices and integrating insights across sectors. This could be facilitated through a network of AI assurance labs, modeled after MITRE’s AI Assurance and Discovery Lab, that would support each sector and promote transformative insights across the AI R&D and implementation spectrum. Maintain collaborations with industry experts, academia, and regulatory bodies. Ensure access to resources for continuous learning. Regularly assess the effectiveness of implemented measures and make adjustments as necessary. | AIの開発と利用を継続的に監視し、AI保証プロセス、AI保証インフラ、AI保証計画の有効性に基づき、必要に応じて規制の更新を提案する。NAICEはこのプロセスにおいて重要な役割を果たすべきであり、最先端のAI保証の知識とプロセスを各省庁・セクターに提供するだけでなく、各省庁・セクターの実践を参考にし、セクターを超えた見識を統合する必要がある。これは、MITREのAI Assurance and Discovery Labに倣ったAI保証ラボのネットワークを通じて促進される可能性があり、各部門を支援し、AIの研究開発および実装の範囲にわたって変革的な洞察を促進する。業界の専門家、学術団体、規制団体との連携を維持する。継続的な学習のためのリソースへのアクセスを確保する。実施した施策の効果を定期的にアセスメントし、必要に応じて調整を行う。 |
Continue to foster strong relationships with stakeholders and promote continuous learning within the administration and among career staffers. | 関係者との強固な関係を継続的に醸成し、行政内部およびキャリア職員間での継続的な学習を促進する。 |
Comments