« 経済産業省 産業サイバーセキュリティ研究会「サイバー攻撃による被害に関する情報共有の促進に向けた検討会」の最終報告書 | Main | 米国 CISA 英国 NCSC 安全なAIシステム開発のための共同ガイドライン »

2023.11.28

米国 CISA AI導入のロードマップ (2023.11.14)

こんにちは、丸山満彦です。

CISAがAIに関する大統領令 EO 14110 Safe, Secure, and Trustworthy Development and Use of Artificial Intelligenceに沿ったAI導入のロードマップを公表していました。。。

CISA 

・2023.11.14 CISA Releases Roadmap for Artificial Intelligence Adoption

・[PDF

20231128-30206

 

目次...

INTRODUCTION はじめに
VISION ビジョン
CISA'S ROLE IN SECURING AI AIの安全確保におけるCISAの役割
FIVE LINES OF EFFORT 5つの取り組み
LINE OF EFFORT 1: Responsibly Use AI to Support our Mission 取り組み1:ミッションをサポートするためにAIを責任を持って使用する
LINE OF EFFORT 2: Assure AI Systems 取り組み2:AIシステムを保証する
LINE OF EFFORT 3: Protect Critical Infrastructure From Malicious Use of AI 取り組み3: AIの悪意ある利用から重要インフラを守る
LINE OF EFFORT 4: Collaborate with and Communicate on Key AI Efforts with the Interagency, International Partners, and the Public 取り組み4:省庁間、国際的なパートナー、一般市民と協力し、AIの重要な取組に関してコミュニケーションを図る。
LINE OF EFFORT 5: Expand AI Expertise in our Workforce 取り組み5:労働力におけるAIの専門知識の拡大
CONCLUSION 結論
KEY DEFINITIONS 主な定義
Artificial Intelligence (AI) 人工知能(AI)
AI Assurance AI保証
AI Security AIセキュリティ
Red Teaming レッドチーム
Adversarial Machine Learning 敵対的機械学習
APPENDIX Recent U .SEfforts on AI Policy 附属書 AI政策に関する米国の最近の取り組み

 

内容...

VISION ビジョン 
We envision a future in which AI systems advance our nation’s cyber defense, where our critical infrastructure is resilient and protected from malicious use of AI, and where AI developers prioritize the security of their products as a core business requirement. 私たちは、AIシステムが我が国のサイバー防衛を推進し、重要なインフラがAIの悪意ある利用から弾力的に保護され、AI開発者が製品のセキュリティをビジネスの中核要件として優先させる未来を描いている。
CISA'S ROLE IN SECURING AI  AIの安全確保におけるCISAの役割 
CISA’s Strategic Plan 2023–2025 underpins CISA’s adaptation to these technologies and each of CISA's four strategic goals are relevant to and impacted by AI:  CISAの戦略計画2023-2025は、CISAがこれらの技術に適応するための基礎となっており、CISAの4つの戦略目標はそれぞれAIに関連し、AIから影響を受けている: 
GOAL 1 | CYBER DEFENSE.  目標1|サイバー防衛。
AI tools can help defend cyberspace against traditional threats, as well as emerging AIdriven threats. However, AI-based software systems are also software systems that require securing and necessitate cyber defense for AI.  AIツールは、従来の脅威だけでなく、AI主導の新たな脅威からもサイバー空間を防衛するのに役立つ。しかし、AIベースのソフトウェアシステムは、安全確保を必要とするソフトウェアシステムでもあり、AIのためのサイバー防衛が必要である。
GOAL 2 | RISK REDUCTION AND RESILIENCE.  目標2|リスク削減と回復力。
Critical infrastructure organizations increasingly use AI systems to maintain and improve resilience. CISA will guide and support responsible and risk-aware adoption of AI-based software systems that are secure by design.  重要インフラ組織は、レジリエンスを維持・向上させるために、AIシステムをますます利用するようになっている。CISAは、設計上安全なAIベースのソフトウェア・システムの責任あるリスクを考慮した採用を指導・支援する。
GOAL 3 | OPERATIONAL COLLABORATION.  目標3|業務連携。
As AI contributes to a rapidly changing threat landscape, CISA will communicate threat and risk information to the U.S. public, including critical infrastructure sectors. Furthermore, AI companies and AI use cases may be subject to targeted threats and may require specific services and protections in response.  AIが急速に変化する脅威の状況に貢献する中、CISAは重要インフラ部門を含む米国民に脅威とリスク情報を伝達する。さらに、AI企業やAIのユースケースは標的型脅威の対象となる可能性があり、それに対する特定のサービスや保護が必要となる可能性がある。
GOAL 4 | AGENCY UNIFICATION.  目標4|機関の統合。
CISA will responsibly integrate AI software systems across the agency, as well as recruit and develop a workforce capable of optimally harnessing AI software systems to carry out CISA’s mission CISAは、全庁的にAIソフトウェア・システムを責任を持って統合するとともに、CISAの使命を遂行するためにAIソフトウェア・システムを最適に活用できる人材を採用・育成する。
FIVE LINES OF EFFORT 5つの取り組み
LINE OF EFFORT 1: Responsibly Use AI to Support our Mission 取り組み1:ミッションをサポートするためにAIを責任を持って使用する
CISA will use AI-enabled software tools to strengthen cyber defense and support our critical infrastructure mission . CISA’s adoption of AI will ensure responsible, ethical, and safe use—consistent with the Constitution and all applicable laws and policies, including those addressing federal procurement, privacy, civil rights, and civil liberties. CISAは、サイバー防衛を強化し、重要インフラの使命を支援するために、AI対応のソフトウェア・ツールを使用する。CISAによるAIの採用は、連邦調達、プライバシー、市民権、市民的自由を扱うものを含め、憲法および適用されるすべての法律と政策に合致した、責任ある倫理的で安全な使用を保証する。
REPRESENTATIVE OUTCOMES  主な成果
1 | CISA assesses our cybersecurity programs for potential uses of AI and provides the resources, requirements, and oversight to incorporate AI where appropriate .  1|CISAは、AIを利用する可能性のあるサイバーセキュリティ・プログラムを評価し、適切な場合にはAIを組み込むためのリソース、要件、監督を提供する。
2 | Through the responsible use of AI tools, CISA network defenders proactively mitigate threats to critical networks before damaging intrusions occur .  2|AIツールの責任ある使用を通じて、CISAのネットワーク防御担当者は、有害な侵入が発生する前に、重要なネットワークに対する脅威を積極的に緩和する。
MEASUREMENT APPROACH  測定方法 
Increased responsible uses of AI software tools across CISA workflows. CISAのワークフロー全体にわたって、AIソフトウェア・ツールの責任ある使用が増加する。
OBJECTIVE 1.1 | Establish governance and oversight processes for CISA’s use of AI.  目標1.1|CISAのAI利用のためのガバナンスと監視のプロセスを確立する。
CISA will establish robust AI governance processes to coordinate actions across the agency . This will include developing ethical and safety oversight processes as well as legal, procurement, privacy, civil rights, and civil liberties considerations . Responsible use will be central to our application of AI .  CISAは、機関全体の行動を調整するための強固なAIガバナンス・プロセスを確立する。これには、法律、調達、プライバシー、市民権、市民的自由への配慮に加え、倫理的で安全な監視プロセスの開発も含まれる。責任ある利用は、AIの応用の中心となる。
To promote responsible AI use, CISA will:  責任あるAI利用を促進するため、CISAは以下を行う: 
• Create our own NIST AI Risk Management Framework (RMF) profile to help develop and implement security and privacy controls for AI;  ・独自のNIST AIリスク管理フレームワーク(RMF)プロファイルを作成し、AIのセキュリティとプライバシー管理の開発と実装を支援する; 
• Implement a programmatic structure for AI adoption within cyber defense missions;  ・サイバー防衛任務におけるAI採用のためのプログラム構造を導入する; 
• Review active AI use cases;  ・積極的なAIの使用事例を検討する; 
• Develop workplace guidance for generative technologies; and,  ・ジェネレーティブ・テクノロジーのための職場ガイダンスを策定する、 
• Address AI data requirements and uses .  ・AIデータの要件と用途に対処する。
OBJECTIVE 1.2 | Collect, review, and prioritize AI use cases to support CISA missions.  目標1.2|CISAのミッションを支援するためのAIユースケースの収集、レビュー、優先順位付けを行う。
CISA will create an agency AI Use Case Inventory to collect, review, and prioritize AI use cases supporting our missions . This inventory will encompass improvements to existing IT systems, collaboration tools, workflows, critical infrastructure defense programs, and proposed data collections for training AI models CISAは、機関AIユースケース・インベントリを作成し、ミッションを支援するAIユースケースを収集、レビュー、優先順位付けする。この目録には、既存のITシステムの改善、コラボレーション・ツール、ワークフロー、重要インフラ防衛プログラム、AIモデルを訓練するためのデータ収集案が含まれる。
OBJECTIVE 1.3 | Develop an adoption strategy for the next generation of AI-enabled technologies.  目標1.3|次世代のAI対応技術の採用戦略を策定する。
To stay ahead of the adoption curve while ensuring privacy and civil rights protections, CISA will closely coordinate AI-related research and development efforts to target gaps in mission needs . These initiatives include the identification of baseline responsible practices for AI to protect safety and rights, the creation of a safe and secure AI testbed, and the development of technical requirements for cybersecurity use cases.  プライバシーと公民権保護を確保しつつ採用曲線の先を行くために、CISAはAI関連の研究開発努力を緊密に調整し、ミッション・ニーズのギャップを対象とする。これらの取り組みには、安全性と権利を保護するためのAIの基本的責任規範の特定、安全でセキュアなAIのテストベッドの構築、サイバーセキュリティのユースケースに関する技術要件の策定などが含まれる。
OBJECTIVE 1.4 | Incorporate cyber defense, incident management, and redress procedures into AI systems and processes.  目標1.4|サイバー防御、インシデント管理、救済手続きをAIのシステムとプロセスに組み込む。
CISA will establish incident response capabilities for AI usage, including remedy and redress procedures when necessary . In addition, CISA will adopt an approach for continuous evaluation of AI models while reviewing IT security practices to securely integrate AI technology.  CISAは、必要な場合の是正・救済手続を含め、AI利用のためのインシデント対応能力を確立する。さらに、CISAは、AI技術を安全に統合するためにITセキュリティの慣行を見直しながら、AIモデルを継続的に評価するアプローチを採用する。
OBJECTIVE 1.5 | Examine holistic approaches to limiting bias in AI use at CISA.  目標1.5|CISAにおけるAI利用の偏りを抑制するための全体論的アプローチを検討する。
CISA will explore holistic approaches to limit bias in AI use, identifying potential bias points in the development, testing, implementation, and maintenance processes in order to build in fairness. Beyond exploring bias and mitigation strategies, CISA will develop a quality assessment for training data and public notice of our AI Use Case Inventory.  CISAは、公正さを構築するために、開発、テスト、実装、保守の各プロセスにおける潜在的な偏りのポイントを特定し、AIの使用における偏りを制限するための全体的なアプローチを検討する。CISAは、バイアスと緩和戦略を探求するだけでなく、訓練データの品質評価を開発し、AI使用事例目録を公表する。
OBJECTIVE 1.6 | Responsibly and securely deploy AI systems to support CISA’s cybersecurity mission.  目標1.6|CISAのサイバーセキュリティ使命を支援するために、責任を持って安全にAIシステムを導入する。
Responsible and secure AI deployment aligns with CISA’s core cybersecurity mission. To help ensure this, CISA will explore the identification, testing, evaluation, and deployment of AI capabilities for cyber defense, including detection of vulnerabilities in critical U.S. government software, systems, and networks, and we will document the lessons learned. 責任ある安全なAIの配備は、CISAの中核的なサイバーセキュリティの使命と一致する。これを確実にするため、CISAは、重要な米国政府のソフトウェア、システム、ネットワークにおける脆弱性の検出を含め、サイバー防衛のためのAI能力の特定、テスト、評価、配備を検討し、得られた教訓を文書化する。
LINE OF EFFORT 2: Assure AI Systems 取り組み2:AIシステムを保証する
CISA will assess and assist secure by design AI-based software adoption across a diverse array of stakeholders, including federal civilian government agencies; private sector companies; and state, local, tribal, and territorial (SLTT) governments through the development of best practices and guidance for secure and resilient AI software development and implementation. CISAは、安全で弾力性のあるAIソフトウェアの開発と実装のためのベストプラクティスとガイダンスの開発を通じて、連邦民間政府機関、民間企業、州・地方・部族・準州(SLTT)政府を含む多様な利害関係者の間で、セキュア・バイ・デザインのAIベースのソフトウェア採用を評価し、支援する。
REPRESENTATIVE OUTCOMES  主な成果
1 | CISA identifies cybersecurity risks and security resilience challenges as early as possible during AI adoption to mitigate threats to critical infrastructure.  1|CISAは、重要インフラへの脅威を緩和するため、AI導入の可能な限り早期にサイバーセキュリティリスクとセキュリティ回復力の課題を特定する。
2 | CISA adapts existing security guidance and service offerings to AI software systems, including best practices for red teaming AI systems and for making AI software that is secure by design.  2|CISA は、AI システムをレッドチーム化するためのベストプラクティスや、設計上安全な AI ソフトウェアを作成するためのベストプラクティスなど、既存のセキュリティ指針とサービス提供を AI ソフトウェアシステムに適合させる。
3 | Stakeholders understand how AI-specific vulnerabilities fit into the existing coordinated vulnerability disclosure process. MEASUREMENT APPROACH Increased adherence to CISA risk guidance and best practices for AI software deployment, including guidance on red teaming and vulnerability mangement. 3|AI 固有の脆弱性が、既存の調整された脆弱性開示プロセスにどのように適合するかを関係者が理解する。測定方法 レッドチーム編成と脆弱性管理に関するガイダンスを含め、CISA リスクガイダンスと AI ソフトウェア展開のベストプラクティスの遵守率が向上する。
MEASUREMENT APPROACH 測定方法
 Increased adherence to CISA risk guidance and best practices for AI software deployment, including guidance on red teaming and vulnerability mangement.  レッドチームや脆弱性管理に関するガイダンスを含め、CISAリスクガイダンスやAIソフトウェア導入のベストプラクティスの順守を強化する。
OBJECTIVE 2.1 | Assess cybersecurity risks of AI adoption in critical infrastructure sectors.  目標2.1|重要インフラ分野における AI 導入のサイバーセキュリティリスクを評価する。
CISA will assess potential risks related to the use of AI in critical infrastructure sectors, including ways in which deploying AI may make critical infrastructure systems more vulnerable to critical failures, physical attacks, and cyberattacks. CISA will then consider ways to mitigate these vulnerabilities. Additionally, CISA will incorporate the NIST AI Risk Management Framework (AI RMF 1.0), as well as other appropriate security guidance, into relevant safety and security guidelines and best practices for use by critical infrastructure owners and operators.  CISAは、AIの導入が重要インフラ・システムを重大な障害、物理的攻撃、サイバー攻撃に対してより脆弱にする可能性がある方法を含め、重要インフラ部門でのAIの使用に関連する潜在的リスクを評価する。CISAはその後、これらの脆弱性を緩和する方法を検討する。さらに、CISAは、NIST AIリスク管理フレームワーク(AI RMF 1.0)、および他の適切なセキュリティ・ガイダンスを、重要インフラの所有者および運用者が使用するための関連する安全・セキュリティ・ガイドラインおよびベストプラクティスに組み込む。
OBJECTIVE 2.2 | Engage critical infrastructure stakeholders to determine security and resilience challenges of AI adoption.  目標2.2|重要インフラの利害関係者を関与させ、AI導入のセキュリティと回復力の課題を明らかにする。
CISA will engage with critical infrastructure stakeholders to assess and address the use of AI across critical infrastructure sectors.  CISAは、重要インフラの利害関係者を関与させ、重要インフラ部門全体にわたるAIの利用を評価し、対処する。
OBJECTIVE 2.3 | Capture the breadth of AI systems used across the federal enterprise.  目標2.3|連邦企業全体で使用されているAIシステムの幅を把握する。
CISA will evaluate Software Bill of Materials (SBOM) toolchains, including SBOM format standards and automated SBOM collection and translation software, to confirm coverage of AI software. CISAは、ソフトウェア部品表(SBOM)ツールチェーン(SBOMフォーマット標準、自動SBOM収集・翻訳ソフトウェアを含む)を評価し、AIソフトウェアの適用範囲を確認する。
OBJECTIVE 2.4 | Develop best practices and guidance for acquisition, development, and operation of secure AI systems.  目標2.4:安全なAIシステムの取得、開発、運用のためのベストプラクティスとガイダンスを策定する。
CISA will develop best practices and guidance for the acquisition, development, and operation of secure AI systems. We will also provide guidance for the secure use of AI technologies and will integrate this guidance into the Cybersecurity Performance Goals pertaining to AI and related systems.  CISAは、安全なAIシステムの取得、開発、運用のためのベストプラクティスとガイダンスを開発する。また、AI技術の安全な利用のためのガイダンスを提供し、このガイダンスをAIと関連システムに関するサイバーセキュリティ・パフォーマンス・ゴールに統合する。
OBJECTIVE 2.5 | Drive adoption of strong vulnerability management practices for AI systems.  目標2.5|AIシステムに対する強力な脆弱性管理手法の採用を推進する。
CISA will develop tools and techniques to harden and test AI systems, as well as incorporate appropriate outputs of adversarial ML processes and AI system vulnerabilities into the National Vulnerability Database. This includes conducting an operational test of an AI vulnerability in the Coordinated Vulnerability Disclosure (CVD) process, as well as writing strategic guidance for security testing and red teaming AI systems and software, particularly Open Source Software.  CISAは、AIシステムを強化しテストするためのツールと技術を開発するとともに、敵対的MLプロセスとAIシステムの脆弱性の適切なアウトプットを国家脆弱性データベースに組み込む。これには、CVD(Coordinated Vulnerability Disclosure)プロセスにおけるAIの脆弱性の運用テストの実施や、AIシステムおよびソフトウェア(特にオープンソースソフトウェア)のセキュリティテストとレッドチーム化のための戦略的ガイダンスの作成が含まれる。
OBJECTIVE 2.6 | Incorporate AI systems into Secure by Design initiative. 目標2.6|AIシステムをセキュアバイデザインの取り組みに組み込む。
 CISA champions a secure by design approach to developing and manufacturing technology products, ensuring manufacturers design products with security in mind at the onset, so consumers receive products that are secure right out of the box. To encourage a secure by design approach to AI software and products, CISA will integrate AI security into the Secure by Design program and will develop a research pipeline to continually understand and project ways to support AI systems security.  CISAは、技術製品の開発・製造におけるセキュア・バイ・デザイン・アプローチを提唱し、メーカーが当初からセキュリティを念頭に製品を設計し、消費者が箱から出してすぐに安全な製品を受け取れるようにする。AIソフトウェアと製品へのセキュア・バイ・デザイン・アプローチを奨励するため、CISAはAIセキュリティをセキュア・バイ・デザイン・プログラムに統合し、AIシステムのセキュリティをサポートする方法を継続的に理解し、プロジェクト化するための研究パイプラインを開発する。
LINE OF EFFORT 3: Protect Critical Infrastructure From Malicious Use of AI 取り組み3: AIの悪意ある利用から重要インフラを守る
CISA will assess and recommend mitigation of AI threats against our nation’s critical infrastructure in partnership with other government agencies and industry partners that develop, test, and evaluate AI tools. CISAは、AIツールを開発、テスト、評価する他の政府機関や産業界のパートナーと連携して、わが国の重要インフラに対するAIの脅威を評価し、緩和策を提言する。
REPRESENTATIVE OUTCOMES  主な成果
1 | Through engagement with stakeholders, including tabletop exercises focused on AI-enhanced attacks, CISA protects AI systems from adversarial manipulation or abuse.  1|AIを強化した攻撃に焦点を当てた卓上演習を含む利害関係者との関与を通じて、CISAはAIシステムを敵対的な操作や悪用から保護する。
2 | CISA supports the advancement of AI risk management practices across the critical infrastructure community through the publication and dissemination of decision support materials, such as a risk management guide for AI risks to critical infrastructure.  2|CISAは、重要インフラに対するAIリスクのリスク管理ガイドなどの意思決定支援資料の出版・普及を通じて、重要インフラ・コミュニティ全体でAIのリスク管理実務の進展を支援する。
MEASUREMENT APPROACH:  測定方法 
Number of publications and engagements that support shared awareness of emerging AI-related risks and advances in AI risk management practices. 新たなAI関連リスク及びAIリスク管理手法の進歩に関する認識の共有を支援する出版物及び関与の数。
OBJECTIVE 3.1 | Regularly engage industry stakeholder partners that are developing AI tools to assess and address security concerns to critical infrastructure and evaluate methods for educating partners and stakeholders.  目標3.1|重要インフラに対するセキュリティ上の懸念を評価し対処するためのAIツールを開発している業界の利害関係者パートナーを定期的に関与させ、パートナーや利害関係者を教育する方法を評価する。
CISA will build on existing structures to advance industry collaboration and coordination around AI security. The Information Technology Sector Coordinating Council’s AI Working Group, which was established in March 2023, will continue to provide advice on AI security challenges and feedback on agency AI initiatives.  CISAは、AIセキュリティに係る業界の協力・協調を推進するため、既存の体制を構築する。2023年3月に設立された情報技術部門調整協議会のAI作業部会は、引き続きAIセキュリティの課題に関する助言と省庁のAIイニシアティブに関するフィードバックを提供する。
CISA will also stand up an operational effort in the Joint Cyber Defense Collaborative (JCDC), JCDC.AI, to catalyze focused collaboration around threats, vulnerabilities, and mitigations affecting AI systems. The JCDC effort will also explore potential operational planning efforts that bring together AI providers and critical infrastructure operators to address specific risks. CISAはまた、AIシステムに影響を及ぼす脅威、脆弱性、緩和策に関する集中的な協力を促進するため、Joint Cyber Defense Collaborative (JCDC)のJCDC.AIという運用努力も立ち上げる。また、JCDCの取り組みは、AIプロバイダーと重要インフラ事業者が特定のリスクに対処するために結集する運用計画努力の可能性を探る。
OBJECTIVE 3.2 | Use CISA partnerships and working groups to share information on AI-driven threats.  目標3.2|CISAのパートナーシップと作業部会を利用して、AI主導の脅威に関する情報を共有する。
CISA will use agency partnerships and working groups, including JCDC.AI, to share information on AI-driven threats. The agency will engage industry, federal, and international partners to understand emerging threats and share them with the broader commuity.  CISAは、JCDC.AIを含む機関のパートナーシップやワーキング・グループを活用して、AI主導の脅威に関する情報を共有する。CISAは、新たな脅威を理解し、より広範な社会と共有するために、産業界、連邦政府、および国際的なパートナーを関与させる。
OBJECTIVE 3.3 | Assess AI risks to critical infrastructure. Each critical infrastructure sector has a unique set of needs and capabilities.  目標3.3|重要インフラに対するAIリスクを評価する。各重要インフラ部門には、固有のニーズと能力がある。
As adversaries adopt AI-enabled software systems and as AI expands the cyber threat landscape, CISA will publish materials to raise awareness of emerging risks. CISA will also evaluate risk management approaches and methodologies to determine the appropriate analytical framework for the assessment and treatment of AI risks and will identify necessary enhancements. 敵対者がAI対応ソフトウェア・システムを採用し、AIがサイバー脅威の状況を拡大するにつれて、CISAは新たなリスクに対する認識を高めるための資料を公表する。CISAはまた、AIリスクの評価と処置のための適切な分析枠組みを決定するために、リスク管理アプローチと方法論を評価し、必要な強化を特定する。
LINE OF EFFORT 4: Collaborate with and Communicate on Key AI Efforts with the Interagency, International Partners, and the Public 取り組み4:省庁間、国際的なパートナー、一般市民と協力し、AIの重要な取組に関してコミュニケーションを図る。
CISA will contribute to DHS-led and interagency processes on AI-enabled software. This LOE includes developing policy approaches for the U.S. government’s overall national strategy on AI and supporting a whole-of-DHS approach on AI-based-software policy issues. This LOE also includes coordinating with international partners to advance global AI best practices and principles. CISAは、AI対応ソフトウェアに関するDHS主導の省庁間プロセスに貢献する。このLOEには、AIに関する米国政府の全体的な国家戦略のための政策アプローチを策定することや、AIベースのソフトウェア政策に関するDHS全体のアプローチを支援することが含まれる。また、このLOEには、世界的なAIのベストプラクティスと原則を推進するための国際パートナーとの調整も含まれる。
REPRESENTATIVE OUTCOMES  主な成果
1 | CISA stakeholders are aligned around clear guidance for AI security. 1|CISAの利害関係者が、AIセキュリティに関する明確なガイダンスを中心に足並みを揃える。
MEASUREMENT APPROACH  測定方法 
Proportion of AI-focused guidance and policy documents developed in collaboration with U.S. interagency and international partners. AIに焦点を当てたガイダンス及び政策文書のうち、米国の省庁間及び国際的なパートナーと協力して作成されたものの割合。
OBJECTIVE 4.1 | Support the development of a whole-of-DHS approach on AI policy issues.  目標4.1|AI政策課題に関する国土安全保障省全体のアプローチの策定を支援する。
CISA will support the development of a whole-of-DHS approach to AI policy issues. As CISA develops our agency-specific AI efforts, we will closely coordinate with DHS entities, including the DHS AI Task Force.  CISAは、AI政策課題に対する国土安全保障省全体のアプローチの開発を支援する。CISAが機関固有のAI取り組みを展開する際には、DHS AIタスクフォースなどのDHS機関と緊密に連携する。
OBJECTIVE 4.2 | Participate in interagency policy meetings and interagency working groups on AI.  目標4.2|AIに関する省庁間政策会議や省庁間作業部会に参加する。
CISA will attend interagency meetings to foster coherent and collaborative approaches to federal government AI policy CISAは、連邦政府のAI政策に対する首尾一貫した協調的アプローチを促進するため、省庁間会議に出席する。
OBJECTIVE 4.3 | Develop CISA policy positions that take a strategic, national level perspective for AI policy documents, such as memoranda and other products.  目標4.3|覚書等のAI政策文書について、戦略的で国家レベルの視点を持つCISA政策ポジションを策定する。
CISA will develop policy positions that take a strategic, national level perspective for AI policy documents and ensure alignment of CISA strategies, priorities, and policies with interagency doctrine. CISA will drive policy decisions to support critical infrastructure equities and integrate national strategic level perspectives in key AI policy documents. Additionally, to increase public awareness about AI assurance, CISA will develop AI assurance publications. CISAは、AI政策文書について戦略的、国家レベルの視点を持つ政策ポジションを策定し、CISAの戦略、優先事項、政策と省庁間のドクトリンとの整合性を確保する。CISAは、重要インフラの公平性を支える政策決定を推進し、主要なAI政策文書に国家戦略レベルの視点を統合する。さらに、AI保証に関する国民の認識を高めるため、CISAはAI保証に関する出版物を作成する。
OBJECTIVE 4.4 | Ensure CISA strategy, priorities, and policy framework align with interagency policies and strategy.  目標4.4|CISAの戦略、優先事項、政策枠組みが省庁間の政策や戦略と整合するようにする。
CISA will work across the interagency to ensure CISA policies and strategies align with the whole-of-government approach to AI.  CISAは、CISAの方針及び戦略がAIに対する政府全体のアプローチと整合するよう、省庁間で連携する。
OBJECTIVE 4.5 | Engage with international partners surrounding global AI security.  目標4.5|グローバルなAIの安全保障をめぐる国際的パートナーと連携する。
CISA will co-develop and co-seal guidance for AI security with other federal agencies and international partners. CISA will engage with international partners surrounding global AI security and encourage the adoption of international best practices for secure AI. CISAは、他の連邦政府機関や国際的パートナーとAIセキュリティに関するガイダンスを共同開発し、共同承認する。CISAは、グローバルなAIセキュリティを取り巻く国際的なパートナーと関わり、安全なAIのための国際的なベスト・プラクティスの採用を奨励する。
LINE OF EFFORT 5: Expand AI Expertise in our Workforce 取り組み5:労働力におけるAIの専門知識の拡大
CISA will continue to educate our workforce on AI software systems and techniques, and the agency will continue to actively recruit interns, fellows, and future employees with AI expertise. CISA will ensure that internal training reflects—and new recruits understand—the legal, ethical, and policy aspects of AI-based software systems in addition to the technical aspects. CISAは、AIソフトウェア・システムと技術に関する従業員の教育を継続し、AIに精通したインターン、フェロー、将来の従業員を積極的に採用し続ける。CISAは、技術的側面に加え、AIベースのソフトウェア・システムの法的、倫理的、政策的側面を内部研修に反映させ、新入社員が理解するようにする。
REPRESENTATIVE OUTCOMES  主な成果
1 | CISA hires, trains, and retains a workforce with AI expertise. 1|CISAは、AIの専門知識を有する労働力を雇用し、訓練し、維持する。
MEASUREMENT APPROACH  測定方法 
Increased AI expertise in the CISA workforce. CISAの労働力におけるAIの専門知識が増加する。
OBJECTIVE 5.1 | Connect and amplify AI expertise that already exists in CISA’s workforce.  目標5.1|CISAの労働力に既に存在するAIの専門知識を結び付け、増幅する。
As the nation’s cyber defense agency, the CISA team includes a strong workforce of cybersecurity experts. The agency will identify and leverage existing AI expertise across CISA. We will also develop an AI community of practice for engagement across the agency, as well as maintain key points of contact from each division leading AI activities, positioning the agency for a collaborative and cohesive approach to expanding our AI capabilities.  国のサイバー防衛機関として、CISAチームにはサイバーセキュリティ専門家の強力な労働力が含まれている。CISAは、CISA全体に存在するAIの専門知識を特定し、活用する。また、AI能力を拡大するための協力的で結束力のあるアプローチのために、AI活動を主導する各部門の主要な窓口を維持するだけでなく、機関全体が関与するためのAI実践コミュニティを開発する。
OBJECTIVE 5.2 | Recruit interns, fellows, and staff with AI expertise.  目標5.2|AIに精通したインターン、フェロー、スタッフを採用する。
CISA will recruit interns, fellows, and staff with AI expertise. CISA will use a variety of pathways, including the Cyber Talent Management System (CTMS), for recruiting, developing, and maintaining our AI workforce. CISAは、AIの専門知識を有するインターン、フェロー、職員を採用する。CISAは、AI人材の採用、育成、維持のために、サイバー人材管理システム(CTMS)を含む様々な経路を利用する。
OBJECTIVE 5.3 | Educate CISA's workforce on AI.  目標5.3|AIについてCISAの労働力を教育する。
CISA will provide training and education opportunities for employees on an ongoing basis as part of our plan to help our workforce have the knowledge and skills to engage, innovate, and apply appropriately the current and emerging capabilities afforded by AI.  CISAは、従業員がAIに従事し、革新し、AIによってもたらされる現在および新たな能力を適切に適用するための知識と技能を持つことを支援する計画の一環として、従業員に対して継続的に研修・教育の機会を提供する。
OBJECTIVE 5.4 | Ensure internal training not only reflects technical expertise, but also incorporates legal, ethical, and policy considerations of AI implementation across all aspects of CISA’s work.  目標5.4|社内研修に技術的な専門知識を反映させるだけでなく、CISAの業務のあらゆる側面にAI導入の法的、倫理的、政策的な考慮事項を盛り込むようにする。
CISA will provide access to training that includes objectives on legal, ethical, and policy aspects of implementing AI. CISAは、AI導入の法的、倫理的、政策的側面に関する目標を含む研修へのアクセスを提供する。
CONCLUSION 結論
A whole-of-government approach is needed to fully harness the benefits and mitigate the risks of AI. Through the initiatives outlined in this roadmap, CISA strives toward our vision of a nation in which AI systems advance our nation’s cyber defense, where our critical infrastructure is resilient and protected from malicious use of AI, and where AI developers prioritize the security of their products as a core business requirement. AIの恩恵を十分に活用し、リスクを軽減するためには、政府全体のアプローチが必要である。CISAは、このロードマップに示された取り組みを通じて、AIシステムがわが国のサイバー防衛を推進し、重要インフラがAIの悪意ある利用から弾力的に保護され、AI開発者が自社製品のセキュリティをビジネスの中核要件として優先させるような国家というビジョンに向けて邁進する。

 

 

このリストは参考になります。。。

RECENT U.S. EFFORTS ON AI POLICY AI政策に関する米国の最近の取り組み
Recent actions taken by the U .S . government’s executive and legislative branches related to AI-based software systems reflect the need to marshal a national effort to defend critical infrastructure and government networks and assets, work with partners across government and industry, and expand existing services and programs for federal civilian agencies and critical infrastructure owners and operators . The following recent efforts guide CISA’s actions in this plan: AIベースのソフトウェア・システムに関連する米国政府の行政府および立法府による最近の動きは、重要インフラおよび政府のネットワークと資産を防衛するための国家的な努力を結集し、政府および産業界のパートナーと協力し、連邦民間機関および重要インフラの所有者および運用者のための既存のサービスおよびプログラムを拡大する必要性を反映している。本計画におけるCISAの行動の指針となっているのは、以下の最近の取り組みである:
Executive Order 14110 “Safe, Secure, And Trustworthy Development and Use of Artificial Intelligence (AI)." (October 2023)  大統領令第14110号 "人工知能(AI)の安全、安全、信頼できる開発と利用"。(2023年10月) 
This EO focuses on ensuring that AI is safe and secure . This will require robust, reliable, repeatable, and standardized evaluations of AI systems, as well as policies, institutions, and mechanisms to test, understand, and mitigate risks from these systems before they are put to use . このEOは、AIを安全かつ確実にすることに焦点を当てている。そのためには、AIシステムの強固で信頼性の高い、反復可能で標準化された評価と、これらのシステムが使用される前にテストし、理解し、リスクを軽減するための政策、制度、メカニズムが必要となる。
Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI. (Updated September 2023)  AIがもたらすリスクを管理するための大手人工知能企業の自主的コミットメント。(2023年9月更新) 
The Biden-Harris administration has secured voluntary commitments from leading AI companies to help move toward safe, secure, and transparent development of the AI technology . These commitments include ensuring products are safe before introducing them to the public, building systems that put security first, and earning the public’s trust . バイデン-ハリス政権は、AI技術の安全、安心、透明な開発に向けて、大手AI企業から自発的なコミットメントを確保した。これらのコミットメントには、一般に導入する前に製品の安全性を確保すること、セキュリティを最優先するシステムを構築すること、国民の信頼を得ることなどが含まれる。
DHS Policy Statement 139-06 Acquisition and Use of Artificial Intelligence and Machine Learning by DHS Components. (August 2023)  DHS政策声明139-06 DHS構成機関による人工知能と機械学習の取得と使用。(2023年8月) 
This policy statement provides that DHS will acquire and use AI only in a manner that is consistent with the Constitution and all other applicable laws and policies .  この方針声明は、DHSがAIを取得し使用するのは、憲法および他のすべての適用法および方針と矛盾しない方法のみであることを規定している。
New National Science Foundation Funding. (May 2023)  新しい全米科学財団の資金援助。(2023年5月) 
This dedicated $140 million will launch seven new National AI Research Institutes to promote responsible innovation, bolster America’s AI research and development (R&D) infrastructure and support the development of a diverse AI workforce . この1億4,000万ドルの資金により、責任あるイノベーションを促進し、米国のAI研究開発(R&D)インフラを強化し、多様なAI人材の育成を支援する7つの国立AI研究機関が新たに設立される。
AI Risk Management Framework (RMF). (January 2023)  AIリスク管理フレームワーク(RMF)。(2023年1月) 
In collaboration with the private and public sectors, the National Institute of Standards and Technology (NIST) developed this framework to better manage risks—to individuals, organizations, and society—that are uniquely associated with AI . The NIST AI RMF, intended for voluntary use, aims to improve the ability to incorporate trustworthiness considerations into the design, development, use, and evaluation of AI products, services, and systems .  米国国立標準技術研究所(NIST)は、AIに特有の個人、組織、社会に対するリスクをより適切に管理するため、官民の協力を得て、このフレームワークを開発した。NIST AI RMFは自主的な使用を目的としており、AI製品、サービス、システムの設計、開発、使用、評価に信頼性への配慮を組み込む能力を向上させることを目的としている。
Blueprint for an AI Bill of Rights. (October 2022)  AI権利章典の青写真。(2022年10月) 
This framework is a set of five principles— identified by the White House Office of Science and Technology Policy—that should guide the design, use, and deployment of automated systems to protect the American public in the  age of AI .  この枠組みは、ホワイトハウスの科学技術政策室によって特定された5つの原則であり、AIの時代に米国民を保護するための自動化システムの設計、使用、展開の指針となるべきものである。
2021 Final Report of the National Security Commission on Artificial Intelligence. (March 2021)  2021 人工知能に関する国家安全保障委員会の最終報告書。(2021年3月) 
This report presented an integrated national strategy to reorganize the government, reorient the nation, and rally our closest allies and partners to defend and compete in the coming era of AI-accelerated competition and conflict .  この報告書は、政府を再編成し、国家を再編成し、最も緊密な同盟国やパートナーを結集して、AIが加速する来るべき競争と紛争の時代を防衛し、競争するための統合国家戦略を提示した。
National Artificial Intelligence Initiative (NAII) Act of 2020 (Division E of the National Defense Authorization Act for Fiscal Year 2021). (January 2021)  2020年国家人工知能イニシアチブ(NAII)法(2021会計年度国防授権法E部門)。(2021年1月) 
Among other things, this act established direction and authority to coordinate AI research, development, and demonstration activities among civilian agencies, the Department of Defense, and the intelligence community to ensure that each informs the work of the others .  この法律は、特に、民間機関、国防総省、情報機関の間でAIの研究、開発、実証活動を調整し、それぞれが他の機関の活動に確実に情報を提供するための方向性と権限を確立した。
AI in Government Act of 2020 (Title I of Division U of the Consolidated Appropriations Act, 2021). (December 2020)  2020年政府におけるAI法(2021年連結歳出法U部門タイトルI)。(2020年12月) 
This act created the AI Center of Excellence within the General Services Administration and directed the Office of Management and Budget (OMB) to issue a memorandum informing federal agencies of policies for acquisition and application of AI and identifying best practices for mitigating risks .  この法律は、AI Center of ExcellenceをGeneral Services Administration内に設立し、管理予算局(OMB)に対し、AIの取得と適用に関する方針を連邦政府機関に通知し、リスクを軽減するためのベストプラクティスを特定する覚書を発行するよう指示した。
Department of Homeland Security 2020 Artificial Intelligence Strategy. (December 2020)  国土安全保障省の2020年人工知能戦略。(2020年12月) 
This strategy set out to enhance DHS’s capability to safeguard the American people, our homeland, and our values through the responsible integration of AI into DHS’s activities and the mitigation of new risks posed by AI .   この戦略は、DHSの活動にAIを責任を持って統合し、AIがもたらす新たなリスクを軽減することで、米国民、国土、我々の価値を守るDHSの能力を強化することを目的としている。 
EO 13960: Promoting the Use of Trustworthy AI in the Federal Government. (December 2020)  EO 13960 連邦政府における信頼できるAIの利用を促進する。(2020年12月) 
This executive order required federal agencies to inventory their AI use cases and share their inventories with other government agencies and the public .   この大統領令は、連邦政府機関に対し、AIのユースケースを目録化し、その目録を他の政府機関や一般市民と共有することを求めた。 
EO 13859: Maintaining American Leadership in AI. (February 2019)  EO 13859: AIにおけるアメリカのリーダーシップを維持する。(2019年2月) 
This executive order established federal principles and strategies to strengthen the nation's capabilities in AI to promote scientific discovery, economic competitiveness, and national security .  この大統領令は、科学的発見、経済競争力、国家安全保障を促進するために、AIにおける国家の能力を強化するための連邦政府の原則と戦略を定めた。

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

・2023.01.27 NIST AIリスクフレームワーク

・2022.10.07 米国 科学技術政策局 AI権利章典の青写真

・2021.05.10 米国連邦政府 人工知能イニシアティブ

2021.01.06 米国 2021年度 National Defense Authorization Act (NDAA) (国防授権法)成立 サイバー関係も・・・

・2020.11.30 米国 OMBが「人工知能アプリケーション規制のためのガイダンス」を発行

 

|

« 経済産業省 産業サイバーセキュリティ研究会「サイバー攻撃による被害に関する情報共有の促進に向けた検討会」の最終報告書 | Main | 米国 CISA 英国 NCSC 安全なAIシステム開発のための共同ガイドライン »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 経済産業省 産業サイバーセキュリティ研究会「サイバー攻撃による被害に関する情報共有の促進に向けた検討会」の最終報告書 | Main | 米国 CISA 英国 NCSC 安全なAIシステム開発のための共同ガイドライン »