米国 ホワイトハウス 「人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成に関する覚書」と「国家安全保障におけるガバナンスとリスクマネジメントを推進する枠組み」
こんにちは、丸山満彦です。
ホワイトハウスが、
- 人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成に関する覚書
- 国家安全保障におけるガバナンスとリスクマネジメントを推進する枠組み
を公表していますね...
覚書(NSM)は、次の3つを実行するように連邦政府の関係部署に指示するためのものですね...
(1) 米国が安全、安心、信頼できるAIの開発を主導すること、
(2) 最先端のAI技術を活用し、米国政府の国家安全保障の使命を推進すること、
(3) AIをめぐる国際的なコンセンサスとガバナンスを推進すること、のために具体的かつインパクトのある措置を実施する
枠組みでは、禁止するAIを決めるなど、EUっぽいフレーバーもありますね...
で次の4つの柱 (Piller) をたてていますね...
Pillar I: AI Use Restrictions | 柱 I: AIの使用制限 |
Pillar II: Minimum Risk Management Practices for High-Impact and Federal | 柱 II: 影響が大きく、連邦職員に影響を与えるAI利用に対する最低限のリスクマネジメント慣行 |
Pillar III: Cataloguing and Monitoring AI Use | 柱Ⅲ:AI利用の棚卸表作成と監視 |
Pillar IV: Training and Accountability | 柱IV:訓練と説明責任 |
AIの使用について例示をあげていますね...
- 禁止されるAIの使用例
- 影響の大きいAIの使用例
- 連邦職員に影響を与えるAI使用例
- その他のAI利用制限
興味深い...
Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence | 人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成に関する覚書 |
MEMORANDUM FOR THE VICE PRESIDENT | 副大統領覚書 |
THE SECRETARY OF STATE | 国務長官 |
THE SECRETARY OF THE TREASURY | 財務長官 |
THE SECRETARY OF DEFENSE | 国防長官 |
THE ATTORNEY GENERAL | 司法長官 |
THE SECRETARY OF COMMERCE | 商務長官 |
THE SECRETARY OF ENERGY | エネルギー長官 |
THE SECRETARY OF HEALTH AND HUMAN SERVICES | 保健福祉長官 |
THE SECRETARY OF HOMELAND SECURITY | 国土安全保障長官 |
THE DIRECTOR OF THE OFFICE OF MANAGEMENT AND BUDGET | 行政管理予算局長官 |
THE DIRECTOR OF NATIONAL INTELLIGENCE | 国家情報長官 |
THE REPRESENTATIVE OF THE UNITED STATES OF AMERICA TO THE UNITED NATIONS | 米国国連代表者 |
THE DIRECTOR OF THE CENTRAL INTELLIGENCE AGENCY | 中央情報局長官 |
THE ASSISTANT TO THE PRESIDENT AND CHIEF OF STAFF | 大統領補佐官兼首席補佐官 |
THE ASSISTANT TO THE PRESIDENT FOR NATIONAL SECURITY AFFAIRS | 国家安全保障問題担当大統領補佐官 |
THE ASSISTANT TO THE PRESIDENT FOR ECONOMIC | 大統領補佐官(経済政策担当 |
POLICY AND DIRECTOR OF THE NATIONAL ECONOMIC COUNCIL | 国家経済諮問会議議長 |
THE CHAIR OF THE COUNCIL OF ECONOMIC ADVISERS | 経済諮問委員会委員長 |
THE DIRECTOR OF THE OFFICE OF SCIENCE AND TECHNOLOGY POLICY | 米国科学技術政策局局長 |
THE ADMINISTRATOR OF THE UNITED STATES AGENCY FOR INTERNATIONAL DEVELOPMENT | 米国国際開発庁長官 |
THE DIRECTOR OF THE NATIONAL SCIENCE FOUNDATION | 全米科学財団理事 |
THE DIRECTOR OF THE FEDERAL BUREAU OF INVESTIGATION | 連邦捜査局局長 |
THE NATIONAL CYBER DIRECTOR | 国家サイバー局長 |
THE DIRECTOR OF THE OFFICE OF PANDEMIC PREPAREDNESS AND RESPONSE POLICY | パンデミック対策・対応政策局長 |
THE DIRECTOR OF THE NATIONAL SECURITY AGENCY | 国家安全保障局長官 |
THE DIRECTOR OF THE NATIONAL GEOSPATIAL-INTELLIGENCE AGENCY | 国土地理院長官 |
THE DIRECTOR OF THE DEFENSE INTELLIGENCE AGENCY | 防衛情報局局長 |
SUBJECT: Advancing the United States’ Leadership in | 件名 主題:人工知能における米国のリーダーシップを促進する。 |
Artificial Intelligence; Harnessing Artificial | 件名:人工知能における米国のリーダーシップを促進する。 |
Intelligence to Fulfill National Security | 人工知能を国家安全保障に活用する。 |
Objectives; and Fostering the Safety, Security, | 人工知能の安全性、セキュリティ、信頼性を育成する、 |
and Trustworthiness of Artificial Intelligence | 人工知能の安全性、セキュリティ、信頼性を育成する。 |
Section 1. Policy. | セクション1. 方針 |
(a) This memorandum fulfills the directive set forth in subsection 4.8 of Executive Order 14110 of October 30, 2023 (Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). This memorandum provides further direction on appropriately harnessing artificial intelligence (AI) models and AI-enabled technologies in the United States Government, especially in the context of national security systems (NSS), while protecting human rights, civil rights, civil liberties, privacy, and safety in AI-enabled national security activities. A classified annex to this memorandum addresses additional sensitive national security issues, including countering adversary use of AI that poses risks to United States national security. | (a) 本覚書は、2023年10月30日付大統領令第14110号(人工知能の安全、安心、信頼できる開発と利用)の4.8項に定められた指令を履行するものである。 本覚書は、米国政府において、特に国家安全保障システム(NSS)の文脈において、人工知能(AI)モデルおよびAI対応技術を適切に活用する上で、AI対応の国家安全保障活動における人権、市民権、市民的自由、プライバシー、安全を保護しつつ、さらなる方向性を示すものである。 この覚書の機密扱いの附属書は、米国の国家安全保障にリスクをもたらす敵対的なAIの使用への対抗など、国家安全保障上のさらにセンシティブな問題を取り上げている。 |
(b) United States national security institutions have historically triumphed during eras of technological transition. To meet changing times, they developed new capabilities, from submarines and aircraft to space systems and cyber tools. To gain a decisive edge and protect national security, they pioneered technologies such as radar, the Global Positioning System, and nuclear propulsion, and unleashed these hard-won breakthroughs on the battlefield. With each paradigm shift, they also developed new systems for tracking and countering adversaries’ attempts to wield cutting-edge technology for their own advantage. | (b) 米国の国家安全保障機構は、歴史的に技術の転換期に勝利してきた。 時代の変化に対応するため、潜水艦や航空機から宇宙システムやサイバー・ツールに至るまで、新たな能力を開発してきた。 決定的な優位に立ち、国家の安全を守るために、レーダー、国家見解システム、核推進力などの技術を開拓し、苦労して勝ち取ったブレークスルーを戦場で発揮した。 また、パラダイムシフトが起こるたびに、最先端技術を駆使して優位に立とうとする敵対勢力を追跡し、対抗するための新たなシステムも開発された。 |
(c) AI has emerged as an era-defining technology and has demonstrated significant and growing relevance to national security. The United States must lead the world in the responsible application of AI to appropriate national security functions. AI, if used appropriately and for its intended purpose, can offer great benefits. If misused, AI could threaten United States national security, bolster authoritarianism worldwide, undermine democratic institutions and processes, facilitate human rights abuses, and weaken the rules-based international order. Harmful outcomes could occur even without malicious intent if AI systems and processes lack sufficient protections. | (c)AIは時代を定義する技術として登場し、国家安全保障との重要な関連性が高まっている。 米国は、適切な国家安全保障機能へのAIの責任ある適用において、世界をリードしなければならない。 AIは、適切かつ意図された目的に使用されれば、大きな利益をもたらすことができる。 しかし、その使い方を誤れば、米国の国家安全保障を脅かし、世界的な権威主義を助長し、民主主義の機構やプロセスを弱体化させ、人権侵害を助長し、ルールに基づく国際秩序を弱体化させかねない。 AIのシステムやプロセスに十分な防御がない場合、悪意がなくても有害な結果が生じる可能性がある。 |
(d) Recent innovations have spurred not only an increase in AI use throughout society, but also a paradigm shift within the AI field — one that has occurred mostly outside of Government. This era of AI development and deployment rests atop unprecedented aggregations of specialized computational power, as well as deep scientific and engineering expertise, much of which is concentrated in the private sector. This trend is most evident with the rise of large language models, but it extends to a broader class of increasingly general-purpose and computationally intensive systems. The United States Government must urgently consider how this current AI paradigm specifically could transform the national security mission. | (d) 近年の技術革新は、社会全体におけるAIの利用拡大に拍車をかけただけでなく、AI分野におけるパラダイムシフトにも拍車をかけた。 このAI開発・展開の時代は、前例のない専門的な計算能力、深い科学的・工学的専門知識の集積の上に成り立っており、その多くは民間部門に集中している。 この傾向は、大規模な言語モデルの台頭で最も顕著だが、ますます汎用的で計算集約的なシステムの幅広いクラスにまで及んでいる。 米国ガバナンスは、この現在のAIパラダイムが具体的にどのように国家安全保障の使命を変革しうるかを早急に検討しなければならない。 |
(e) Predicting technological change with certainty is impossible, but the foundational drivers that have underpinned recent AI progress show little sign of abating. These factors include compounding algorithmic improvements, increasingly efficient computational hardware, a growing willingness in industry to invest substantially in research and development, and the expansion of training data sets. AI under the current paradigm may continue to become more powerful and general-purpose. Developing and effectively using these systems requires an evolving array of resources, infrastructure, competencies, and workflows that in many cases differ from what was required to harness prior technologies, including previous paradigms of AI. | (e) 技術的変化を確実に予測することは不可能であるが、最近のAIの進歩を支えてきた基礎的な要因は、ほとんど衰える気配がない。 これらの要因には、アルゴリズムの複合的改善、計算ハードウェアの効率化、研究開発に多額の投資を行う産業界の意欲の高まり、学習データセットの拡大などが含まれる。 現在のパラダイムの下でのAIは、今後もより強力で汎用的なものになっていく可能性がある。 このようなシステムを開発し効果的に利用するには、進化し続けるリソース、インフラ、能力、ワークフローが必要であり、多くの場合、以前のAIのパラダイムを含む以前の技術を利用するために必要だったものとは異なる。 |
(f) If the United States Government does not act with responsible speed and in partnership with industry, civil society, and academia to make use of AI capabilities in service of the national security mission — and to ensure the safety, security, and trustworthiness of American AI innovation writ large — it risks losing ground to strategic competitors. Ceding the United States’ technological edge would not only greatly harm American national security, but it would also undermine United States foreign policy objectives and erode safety, human rights, and democratic norms worldwide. | (f) 米国ガバナンスが、国家安全保障の使命のためにAIの能力を活用するために、責任あるスピードで、産業界、市民社会、学界と連携して行動しなければ、また、米国のAIイノベーションの安全性、セキュリティ、信頼性を確保しなければ、戦略的競争相手に遅れをとる危険性がある。米国の技術的優位性を放棄することは、米国の国家安全保障に大きな損害を与えるだけでなく、米国の外交目標を損ない、世界中の安全、人権、民主主義規範を侵食することになる。 |
(g) Establishing national security leadership in AI will require making deliberate and meaningful changes to aspects of the United States Government’s strategies, capabilities, infrastructure, governance, and organization. AI is likely to affect almost all domains with national security significance, and its use cannot be relegated to a single institutional silo. The increasing generality of AI means that many functions that to date have been served by individual bespoke tools may, going forward, be better fulfilled by systems that, at least in part, rely on a shared, multi-purpose AI capability. Such integration will only succeed if paired with appropriately redesigned United States Government organizational and informational infrastructure. | (g) AIにおける国家安全保障上のリーダーシップを確立するには、米国政府の戦略、能力、インフラ、ガバナンス、組織の側面を意図的かつ有意義に変更する必要がある。 AIは、国家安全保障上重要なほぼすべての領域に影響を及ぼす可能性が高く、その利用を単一の機構に追いやることはできない。 AIの汎用性が高まるということは、これまでは個別の特注ツールによって果たされてきた多くの機能が、今後は、少なくとも部分的には、共有された多目的AI機能に依存するシステムによって、よりよく果たされる可能性があることを意味する。 このような統合は、適切に再設計された米国政府の組織・情報インフラと組み合わされて初めて成功する。 |
(h) In this effort, the United States Government must also protect human rights, civil rights, civil liberties, privacy, and safety, and lay the groundwork for a stable and responsible international AI governance landscape. Throughout its history, the United States has been a global leader in shaping the design, development, and use of new technologies not only to advance national security, but also to protect and promote democratic values. The United States Government must develop safeguards for its use of AI tools, and take an active role in steering global AI norms and institutions. The AI frontier is moving quickly, and the United States Government must stay attuned to ongoing technical developments without losing focus on its guiding principles. | (h) この取り組みにおいて、米国政府は、人権、市民権、プライバシー、安全を保護し、安定した責任ある国際的なAIガバナンスの基盤を築かなければならない。 米国はその歴史を通じて、国家安全保障を向上させるだけでなく、民主主義的価値を保護し促進するために、新技術の設計、開発、利用を形成する世界的リーダーであった。 米国政府は、AIツールの使用に関するセーフガードを策定し、グローバルなAI規範と機構の舵取りにおいて積極的な役割を果たさなければならない。 AIのフロンティアは急速に進展しており、米国政府は指導原則を見失うことなく、現在進行中の技術開発に常に注意を払わなければならない。 |
(i) This memorandum aims to catalyze needed change in how the United States Government approaches AI national security policy. In line with Executive Order 14110, it directs actions to strengthen and protect the United States AI ecosystem; improve the safety, security, and trustworthiness of AI systems developed and used in the United States; enhance the United States Government’s appropriate, responsible, and effective adoption of AI in service of the national security mission; and minimize the misuse of AI worldwide. | (i) この覚書は、米国政府のAI国家安全保障政策への取り組み方に必要な変化を促すことを目的としている。大統領令14110に沿って、米国のAIエコシステムを強化・保護し、米国で開発・使用されるAIシステムの安全性、セキュリティ、信頼性を改善し、米国政府が国家安全保障の使命のためにAIを適切、責任ある、効果的に採用することを強化し、世界的なAIの悪用を最小限に抑えるための行動を指示する。 |
Sec. 2. Objectives. | セクション2. 目的 |
It is the policy of the United States Government that the following three objectives will guide its activities with respect to AI and national security. | 米国政府の方針として、AIと国家安全保障に関する活動の指針として、以下の3つの目標を掲げる。 |
(a) First, the United States must lead the world’s development of safe, secure, and trustworthy AI. To that end, the United States Government must — in partnership with industry, civil society, and academia — promote and secure the foundational capabilities across the United States that power AI development. The United States Government cannot take the unmatched vibrancy and innovativeness of the United States AI ecosystem for granted; it must proactively strengthen it, ensuring that the United States remains the most attractive destination for global talent and home to the world’s most sophisticated computational facilities. The United States Government must also provide appropriate safety and security guidance to AI developers and users, and rigorously assess and help mitigate the risks that AI systems could pose. | (a) 第一に、米国は、安全、安心、信頼できるAIの開発を世界に先駆けて進めなければならない。 そのために、米国ガバナンスは、産業界、市民社会、学界と連携して、AI開発を支える米国全体の基盤能力を促進し、確保しなければならない。 米国政府は、米国AIエコシステムの比類なき活気と革新性を当然視することはできない。積極的に強化し、米国がグローバル人材にとって最も魅力的な目的地であり続け、世界で最も洗練された計算施設の本拠地であり続けるようにしなければならない。 米国政府はまた、AIの開発者と利用者に適切な安全・セキュリティのガイダンスを提供し、AIシステムがもたらす可能性のあるリスクを厳格にアセスメントし、その軽減を支援しなければならない。 |
(b) Second, the United States Government must harness powerful AI, with appropriate safeguards, to achieve national security objectives. Emerging AI capabilities, including increasingly general-purpose models, offer profound opportunities for enhancing national security, but employing these systems effectively will require significant technical, organizational, and policy changes. The United States must understand AI’s limitations as it harnesses the technology’s benefits, and any use of AI must respect democratic values with regard to transparency, human rights, civil rights, civil liberties, privacy, and safety. | (b) 第二に、米国政府は、国家安全保障上の目的を達成するために、適切な保護措置を講じた上で、強力なAIを活用しなければならない。 ますます汎用化するモデルを含む、新たなAI能力は、国家安全保障を強化するための大きな機会を提供するが、これらのシステムを効果的に採用するには、技術、組織、政策の大幅な変更が必要となる。 米国は、AIの利点を活用する際に、AIの限界を理解しなければならない。また、AIのいかなる利用も、透明性、人権、市民権、自由、プライバシー、安全に関して、民主主義の価値を尊重しなければならない。 |
(c) Third, the United States Government must continue cultivating a stable and responsible framework to advance international AI governance that fosters safe, secure, and trustworthy AI development and use; manages AI risks; realizes democratic values; respects human rights, civil rights, civil liberties, and privacy; and promotes worldwide benefits from AI. It must do so in collaboration with a wide range of allies and partners. Success for the United States in the age of AI will be measured not only by the preeminence of United States technology and innovation, but also by the United States’ leadership in developing effective global norms and engaging in institutions rooted in international law, human rights, civil rights, and democratic values. | (c) 第3に、米国政府は、安全、安心、信頼できるAIの開発と利用を促進し、AIのリスクをマネジメントし、民主的価値を実現し、人権、市民権、市民的自由、プライバシーを尊重し、AIによる世界的利益を促進する国際的なAIガバナンスを推進するための安定した責任ある枠組みを引き続き育成しなければならない。 そのためには、幅広い同盟国やパートナーと協力しなければならない。 AIの時代における米国の成功は、米国のテクノロジーとイノベーションの優位性だけでなく、効果的なグローバル規範を発展させ、国際法、人権、市民権、民主的価値に根ざした機構に関与する米国のリーダーシップによっても測られる。 |
Sec. 3. Promoting and Securing the United States’ Foundational AI Capabilities. | セクション3. 米国のAI基盤能力を促進し確保する。 |
(a) To preserve and expand United States advantages in AI, it is the policy of the United States Government to promote progress, innovation, and competition in domestic AI development; protect the United States AI ecosystem against foreign intelligence threats; and manage risks to AI safety, security, and trustworthiness. Leadership in responsible AI development benefits United States national security by enabling applications directly relevant to the national security mission, unlocking economic growth, and avoiding strategic surprise. United States technological leadership also confers global benefits by enabling like-minded entities to collectively mitigate the risks of AI misuse and accidents, prevent the unchecked spread of digital authoritarianism, and prioritize vital research. | (a) AIにおける米国の優位性を維持・拡大するため、国内AI開発の進歩、革新、競争を促進し、外国の諜報活動の脅威から米国のAIエコシステムを保護し、AIの安全性、セキュリティ、信頼性に対するリスクをマネジメントすることは、米国政府の方針である。 責任あるAI開発におけるリーダーシップは、国家安全保障の使命に直接関連するアプリケーションを可能にし、経済成長を引き出し、戦略的不意打ちを回避することで、米国の国家安全保障に利益をもたらす。 米国の技術的リーダーシップはまた、志を同じくする事業体が、AIの誤用や事故のリスクを集団的に軽減し、デジタル権威主義の歯止めなき蔓延を防ぎ、重要な研究を優先させることを可能にすることによって、グローバルな利益をもたらす。 |
3.1. Promoting Progress, Innovation, and Competition in United States AI Development. | 3.1. 米国のAI開発の進歩、革新、競争を促進する。 |
(a) The United States’ competitive edge in AI development will be at risk absent concerted United States Government efforts to promote and secure domestic AI progress, innovation, and competition. Although the United States has benefited from a head start in AI, competitors are working hard to catch up, have identified AI as a top strategic priority, and may soon devote resources to research and development that United States AI developers cannot match without appropriately supportive Government policies and action. It is therefore the policy of the United States Government to enhance innovation and competition by bolstering key drivers of AI progress, such as technical talent and computational power. | (a) 国内のAIの進歩、革新、競争を促進し、確保するための米国政府による協調的な取り組みがなければ、AI開発における米国の競争力はリスクにさらされる。 米国はAIで先行した恩恵を受けているが、競合他社は追いつこうと懸命に努力しており、AIを戦略上の最優先事項としており、政府の適切な支援政策や行動がなければ、米国のAI開発者が及ばないような研究開発に近いうちに資源を投入する可能性がある。 したがって、技術的才能や計算能力といったAI進歩の主要な推進力を強化することにより、イノベーションと競争を強化することが米国政府の方針である。 |
(b) It is the policy of the United States Government that advancing the lawful ability of noncitizens highly skilled in AI and related fields to enter and work in the United States constitutes a national security priority. Today, the unparalleled United States AI industry rests in substantial part on the insights of brilliant scientists, engineers, and entrepreneurs who moved to the United States in pursuit of academic, social, and economic opportunity. Preserving and expanding United States talent advantages requires developing talent at home and continuing to attract and retain top international minds. | (b)AIおよびその関連分野で高度な技能を有する非市民が米国に入国し、就労するための合法的な能力を促進することは、国家安全保障上の優先事項であり、米国政府の方針である。 今日、比類のない米国のAI産業は、学問的、社会的、経済的機会を求めて米国に移住した優秀な科学者、エンジニア、起業家の見識の上に成り立っている。 米国の人材の優位性を維持・拡大するためには、国内で人材を育成し、国際的に優れた頭脳を引き付け、維持し続けることが必要である。 |
(c) Consistent with these goals: | (c)これらの目標に一貫性を持たせる: |
(i) On an ongoing basis, the Department of State, the Department of Defense (DOD), and the Department of Homeland Security (DHS) shall each use all available legal authorities to assist in attracting and rapidly bringing to the United States individuals with relevant technical expertise who would improve United States competitiveness in AI and related fields, such as semiconductor design and production. These activities shall include all appropriate vetting of these individuals and shall be consistent with all appropriate risk mitigation measures. This tasking is consistent with and additive to the taskings on attracting AI talent in section 5 of Executive Order 14110. | (i) 継続的に、国務省、国防総省、国土安全保障省は、それぞれ利用可能なあらゆる法的権限を行使し、AIおよび半導体設計・製造などの関連分野において米国の競争力を向上させるような、関連する技術的専門知識を有する個人の米国への誘致と迅速な入国を支援する。 これらの活動には、これらの個人に対するあらゆる適切な審査が含まれ、あらゆる適切なリスク低減措置と一致するものとする。 この任務は、大統領令第14110号の第5節にあるAI人材の誘致に関する任務と整合的であり、追加的なものである。 |
(ii) Within 180 days of the date of this memorandum, the Chair of the Council of Economic Advisers shall prepare an analysis of the AI talent market in the United States and overseas, to the extent that reliable data is available. | (ii) 本覚書の日付から180日以内に、経済諮問委員会の委員長は、信頼できるデータが入手可能な範囲で、米国および海外のAI人材市場の分析を作成する。 |
(iii) Within 180 days of the date of this memorandum, the Assistant to the President for Economic Policy and Director of the National Economic Council shall coordinate an economic assessment of the relative competitive advantage of the United States private sector AI ecosystem, the key sources of the United States private sector’s competitive advantage, and possible risks to that position, and shall recommend policies to mitigate them. The assessment could include areas including (1) the design, manufacture, and packaging of chips critical in AI-related activities; (2) the availability of capital; (3) the availability of workers highly skilled in AI-related fields; (4) computational resources and the associated electricity requirements; and (5) technological platforms or institutions with the requisite scale of capital and data resources for frontier AI model development, as well as possible other factors. | (iii) 本覚書の日付から180日以内に、経済政策担当大統領補佐官兼国家経済会議長官は、米国民間部門のAIエコシステムの相対的競争優位性、米国民間部門の競争優位性の主要な源泉、およびその地位に対する起こり得るリスクに関する経済アセスメントを調整し、それらを軽減するための政策を提言するものとする。アセスメントには、(1)AI関連活動で重要なチップの設計、製造、パッケージング、(2)資本の利用可能性、(3)AI関連分野で高度な技能を持つ労働者の利用可能性、(4)計算資源と関連する電力要件、(5)フロンティアAIモデル開発に必要な規模の資本とデータ資源を持つ技術プラットフォームまたは機構、およびその他の要因の可能性を含む分野が含まれる。 |
(iv) Within 90 days of the date of this memorandum, the Assistant to the President for National Security Affairs (APNSA) shall convene appropriate executive departments and agencies (agencies) to explore actions for prioritizing and streamlining administrative processing operations for all visa applicants working with sensitive technologies. Doing so shall assist with streamlined processing of highly skilled applicants in AI and other critical and emerging technologies. This effort shall explore options for ensuring the adequate resourcing of such operations and narrowing the criteria that trigger secure advisory opinion requests for such applicants, as consistent with national security objectives. | (iv) この覚書の日付から90日以内に、国家安全保障問題担当大統領補佐官(APNSA)は、機密技術を扱うすべてのビザ申請者について、事務処理業務の優先順位付けと合理化のための措置を検討するため、適切な行政府・省庁(機関)を招集する。 そうすることで、AIやその他の重要な新興技術における高度な技能を持つ申請者の合理的な手続きを支援する。 この努力は、国家安全保障の目的に合致するように、そのような業務の適切な資源を確保し、そのような申請者の安全な諮問意見要請の引き金となる規準を狭めるための選択肢を探るものとする。 |
(d) The current paradigm of AI development depends heavily on computational resources. To retain its lead in AI, the United States must continue developing the world’s most sophisticated AI semiconductors and constructing its most advanced AI-dedicated computational infrastructure. | (d) 現在のAI開発のパラダイムは、計算資源に大きく依存している。 米国がAIでリードを保つためには、世界で最も洗練されたAI半導体の開発を継続し、最も先進的なAI専用の計算インフラを構築しなければならない。 |
(e) Consistent with these goals: | (e)これらの目標に一致する: |
(i) DOD, the Department of Energy (DOE) (including national laboratories), and the Intelligence Community (IC) shall, when planning for and constructing or renovating computational facilities, consider the applicability of large-scale AI to their mission. Where appropriate, agencies shall design and build facilities capable of harnessing frontier AI for relevant scientific research domains and intelligence analysis. Those investments shall be consistent with the Federal Mission Resilience Strategy adopted in Executive Order 13961 of December 7, 2020 (Governance and Integration of Federal Mission Resilience). | (i)国防総省、エネルギー省(国立研究所を含む)、インテリジェンス・コミュニティ(IC)は、計算施設の計画・建設・改修に際し、大規模AIの任務への適用可能性を考慮する。 適切な場合、各機関は、関連する科学研究領域や情報分析にフロンティアAIを活用できる施設を設計・建設しなければならない。 それらの投資は、2020年12月7日の大統領令13961(連邦ミッション・レジリエンスのガバナンスと統合)で採択された連邦ミッション・レジリエンス戦略に合致したものでなければならない。 |
(ii) On an ongoing basis, the National Science Foundation (NSF) shall, consistent with its authorities, use the National AI Research Resource (NAIRR) pilot project and any future NAIRR efforts to distribute computational resources, data, and other critical assets for AI development to a diverse array of actors that otherwise would lack access to such capabilities — such as universities, nonprofits, and independent researchers (including trusted international collaborators) — to ensure that AI research in the United States remains competitive and innovative. This tasking is consistent with the NAIRR pilot assigned in section 5 of Executive Order 14110. | (ii) 全米科学財団(NSF)は、その認可に基づき、全米AI研究リソース(NAIRR)パイロット・プロジェクトおよび今後のNAIRRの取り組みを利用して、AI開発に必要な計算資源、データ、その他の重要な資産を、大学、非営利団体、独立研究者(信頼できる国際的な協力者を含む)など、そうでなければそのような能力を利用できない多様な主体に分配し、米国におけるAI研究が競争力と革新性を維持できるようにする。 この任務は、大統領令第14110号の第5節で指定されたNAIRR試験運用と一致する。 |
(iii) Within 180 days of the date of this memorandum, DOE shall launch a pilot project to evaluate the performance and efficiency of federated AI and data sources for frontier AI-scale training, fine-tuning, and inference. | (iii) この覚書の日付から 180 日以内に、DOE は、フロンティア AI 規模の訓練、微調整、推論のための、連携 AI およびデータソースの性能と効率を評価するパイロットプロジェクトを開始する。 |
(iv) The Office of the White House Chief of Staff, in coordination with DOE and other relevant agencies, shall coordinate efforts to streamline permitting, approvals, and incentives for the construction of AI-enabling infrastructure, as well as surrounding assets supporting the resilient operation of this infrastructure, such as clean energy generation, power transmission lines, and high-capacity fiber data links. These efforts shall include coordination, collaboration, consultation, and partnership with State, local, Tribal, and territorial governments, as appropriate, and shall be consistent with the United States’ goals for managing climate risks. | (iv) ホワイトハウス首席補佐官室は、DOE および他の関連機関と連携して、AI を可能にするインフ ラ、およびクリーンエネルギー生成、送電線、大容量光ファイバーデータリンクなど、このインフラ のレジリエンス運用を支える周辺資産の建設のための許可、承認、およびインセンティブを合理化 するための取り組みを調整するものとする。 これらの取り組みには、必要に応じて、州政府、地方政府、部族政府、および準州政府との調整、協力、協議、およびパートナーシップが含まれ、気候リスクマネジメントに関する米国の目標に沿ったものとする。 |
(v) The Department of State, DOD, DOE, the IC, and the Department of Commerce (Commerce) shall, as appropriate and consistent with applicable law, use existing authorities to make public investments and encourage private investments in strategic domestic and foreign AI technologies and adjacent fields. These agencies shall assess the need for new authorities for the purposes of facilitating public and private investment in AI and adjacent capabilities. | (v)国務省、国防総省、DOE、情報通信研究機構(IC)、商務省は、適宜、適用法に則り、既存の権限を用いて、戦略的な国内外の AI 技術およびその隣接分野への公共投資を行い、民間投資を奨励するものとする。 これらの省庁は、AIと隣接する能力への官民投資を促進する目的で、新たな権限の必要性をアセスメントするものとする。 |
3.2. Protecting United States AI from Foreign Intelligence Threats. | 3.2. 外国の諜報の脅威から米国のAIを防御する。 |
(a) In addition to pursuing industrial strategies that support their respective AI industries, foreign states almost certainly aim to obtain and repurpose the fruits of AI innovation in the United States to serve their national security goals. Historically, such competitors have employed techniques including research collaborations, investment schemes, insider threats, and advanced cyber espionage to collect and exploit United States scientific insights. It is the policy of the United States Government to protect United States industry, civil society, and academic AI intellectual property and related infrastructure from foreign intelligence threats to maintain a lead in foundational capabilities and, as necessary, to provide appropriate Government assistance to relevant non-government entities. | (a) 外国は、自国のAI産業を支援する産業戦略を追求することに加え、自国の国家安全保障の目標のために、米国におけるAI技術革新の成果を入手し、再利用することをほぼ確実に狙っている。 歴史的に、そのような競争相手は、米国の科学的知見を収集し利用するために、研究協力、投資スキーム、インサイダー脅威、高度なサイバー・スパイ活動などの手法を採用してきた。 米国の産業界、市民社会、学術界のAI知的財産と関連インフラを外国の諜報機関の脅威から保護し、基礎的能力のリードを維持し、必要に応じて、関連する非政府事業体に適切な政府支援を提供することは、米国政府の方針である。 |
(b) Consistent with these goals: | (b) これらの目標に整合する: |
(i) Within 90 days of the date of this memorandum, the National Security Council (NSC) staff and the Office of the Director of National Intelligence (ODNI) shall review the President’s Intelligence Priorities and the National Intelligence Priorities Framework consistent with National Security Memorandum 12 of July 12, 2022 (The President’s Intelligence Priorities), and make recommendations to ensure that such priorities improve identification and assessment of foreign intelligence threats to the United States AI ecosystem and closely related enabling sectors, such as those involved in semiconductor design and production. | (i) この覚書の日付から90日以内に、国家安全保障会議(NSC)のスタッフと国家情報長官室(ODNI)は、2022年7月12日の国家安全保障覚書12(The President's Intelligence Priorities)と整合する大統領のインテリジェンス優先事項と国家インテリジェンス優先事項枠組みを見直し、そのような優先事項が米国のAIエコシステムおよび半導体設計・製造に関わるような密接に関連する実現部門に対する外国情報による脅威の特定と評価を改善することを確実にするための勧告を行う。 |
(ii) Within 180 days of the date of this memorandum, and on an ongoing basis thereafter, ODNI, in coordination with DOD, the Department of Justice (DOJ), Commerce, DOE, DHS, and other IC elements as appropriate, shall identify critical nodes in the AI supply chain, and develop a list of the most plausible avenues through which these nodes could be disrupted or compromised by foreign actors. On an ongoing basis, these agencies shall take all steps, as appropriate and consistent with applicable law, to reduce such risks. | (ii) 本覚書の日付から180日以内に、またその後も継続的に、ODNIは、国防総省、司法省(DOJ)、商務省、DOE、DHS、および必要に応じて他のIC要素と連携して、AIのサプライ・チェーンにおける重要なノードを特定し、これらのノードが外国の行為者によって妨害または侵害される可能性のある最ももっともらしい経路のリストを作成する。 これらの機関は、継続的に、適切かつ適用法に合致するあらゆる手段を講じ、そのようなリスクを軽減するものとする。 |
(c) Foreign actors may also seek to obtain United States intellectual property through gray-zone methods, such as technology transfer and data localization requirements. AI-related intellectual property often includes critical technical artifacts (CTAs) that would substantially lower the costs of recreating, attaining, or using powerful AI capabilities. The United States Government must guard against these risks. | (c) 外国の行為者はまた、技術移転やデータのローカライゼーション要件などのグレーゾーンの方法を通じて、米国の知的財産を取得しようとする可能性がある。 AI関連の知的財産には、強力なAI能力を再現、獲得、使用するコストを大幅に下げる重要技術成果物(CTA)が含まれていることが多い。 米国政府は、こうしたリスクから守らなければならない。 |
(d) Consistent with these goals: | (d)これらの目標に合致する: |
(i) In furtherance of Executive Order 14083 of September 15, 2022 (Ensuring Robust Consideration of Evolving National Security Risks by the Committee on Foreign Investment in the United States), the Committee on Foreign Investment in the United States shall, as appropriate, consider whether a covered transaction involves foreign actor access to proprietary information on AI training techniques, algorithmic improvements, hardware advances, CTAs, or other proprietary insights that shed light on how to create and effectively use powerful AI systems. | (i) 2022年9月15日の大統領令14083(対米外国投資委員会による進化する国家安全保障リスクの強固な検討の確保)を推進するため、対米外国投資委員会は、適切な場合、対象となる取引が、強力なAIシステムの作成方法及び効果的な使用方法に光を当てる、AIの訓練技術、アルゴリズムの改善、ハードウェアの進歩、CTA、又はその他の専有的洞察に関する外国行為者の専有情報へのアクセスを伴うか否かを検討するものとする。 |
3.3. Managing Risks to AI Safety, Security, and Trustworthiness. | 3.3. AIの安全性、セキュリティ、信頼性に対するリスクマネジメント |
(a) Current and near-future AI systems could pose significant safety, security, and trustworthiness risks, including those stemming from deliberate misuse and accidents. Across many technological domains, the United States has historically led the world not only in advancing capabilities, but also in developing the tests, standards, and norms that underpin reliable and beneficial global adoption. The United States approach to AI should be no different, and proactively constructing testing infrastructure to assess and mitigate AI risks will be essential to realizing AI’s positive potential and to preserving United States AI leadership. | (a) 現在および近い将来のAIシステムは、意図的な誤用や事故に起因するものを含め、重大な安全性、セキュリティ、信頼性のリスクをもたらす可能性がある。 多くの技術領域において、米国は歴史的に、能力を向上させるだけでなく、信頼性が高く有益なグローバルな採用を支える試験、標準、規範の開発においても世界をリードしてきた。 AIに対する米国のアプローチも同様であるべきであり、AIのリスクをアセスメントし、軽減するための試験インフラを積極的に構築することは、AIのポジティブな可能性を実現し、米国のAIのリーダーシップを維持するために不可欠である。 |
(b) It is the policy of the United States Government to pursue new technical and policy tools that address the potential challenges posed by AI. These tools include processes for reliably testing AI models’ applicability to harmful tasks and deeper partnerships with institutions in industry, academia, and civil society capable of advancing research related to AI safety, security, and trustworthiness. | (b) AIがもたらす潜在的な課題に対処する新たな技術的・政策的ツールを追求することは、米国政府の方針である。 これらのツールには、AIモデルの有害なタスクへの適用可能性を確実にテストするためのプロセスや、AIの安全性、セキュリティ、信頼性に関連する研究を進めることができる産業界、学界、市民社会の機構とのより深いパートナーシップが含まれる。 |
(c) Commerce, acting through the AI Safety Institute (AISI) within the National Institute of Standards and Technology (NIST), shall serve as the primary United States Government point of contact with private sector AI developers to facilitate voluntary pre- and post-public deployment testing for safety, security, and trustworthiness of frontier AI models. In coordination with relevant agencies as appropriate, Commerce shall establish an enduring capability to lead voluntary unclassified pre-deployment safety testing of frontier AI models on behalf of the United States Government, including assessments of risks relating to cybersecurity, biosecurity, chemical weapons, system autonomy, and other risks as appropriate (not including nuclear risk, the assessment of which shall be led by DOE). Voluntary unclassified safety testing shall also, as appropriate, address risks to human rights, civil rights, and civil liberties, such as those related to privacy, discrimination and bias, freedom of expression, and the safety of individuals and groups. Other agencies, as identified in subsection 3.3(f) of this section, shall establish enduring capabilities to perform complementary voluntary classified testing in appropriate areas of expertise. The directives set forth in this subsection are consistent with broader taskings on AI safety in section 4 of Executive Order 14110, and provide additional clarity on agencies’ respective roles and responsibilities. | (c) 商務省は、国立標準技術研究所(NIST)内のAI安全研究所(AISI)を通じて、米国政府として民間AI開発者との主要な窓口となり、フロンティアAIモデルの安全性、セキュリティ、信頼性に関する自主的な事前・事後公開展開テストを促進する。必要に応じて関連機関と連携し、商務部は、サイバーセキュリティ、バイオセキュリティ、化学兵器、システム自律性、その他適宜のリスクに関するアセスメントを含め、米国政府に代わって、フロンティア AI モデルの自主的な未分類の安全性テストを展開するための永続的な能力を確立するものとする(核リスクは含まず、そのアセスメントは DOE が主導するものとする)。自主的な非機密安全性試験は、プライバシー、識別的バイアス、表現の自由、および個人と集団の 安全に関するものなど、人権、公民権、および市民的自由に関するリスクにも適宜対応するものとする。本項 3.3(f)項で識別されるその他の機関は、適切な専門分野において、補完的な自主的機密試験を実施するための永続的能力を確立しなければならない。本項に規定された指令は、大統領令第14110号の第4節にあるAIの安全性に関する広範な任務と整合しており、各機関のそれぞれの役割と責任についてさらに明確にするものである。 |
(d) Nothing in this subsection shall inhibit agencies from performing their own evaluations of AI systems, including tests performed before those systems are released to the public, for the purposes of evaluating suitability for that agency’s acquisition and procurement. AISI’s responsibilities do not extend to the evaluation of AI systems for the potential use by the United States Government for national security purposes; those responsibilities lie with agencies considering such use, as outlined in subsection 4.2(e) of this memorandum and the associated framework described in that subsection. | (d)本小節のいかなる規定も、AIシステムが一般に公開される前に実施されるテストを含め、各省庁が当該省庁の取得・調達への適合性を評価する目的で、AIシステムの評価を独自に実施することを阻害するものではない。 AISIの責務は、国家安全保障目的で米国政府が使用する可能性のあるAIシステムの評価には及ばない。そのような責務は、本覚書の第4.2(e)項および同項で説明されている関連枠組みに概説されているように、そのような使用を検討している機関にある。 |
(e) Consistent with these goals, Commerce, acting through AISI within NIST, shall take the following actions to aid in the evaluation of current and near-future AI systems: | (e)これらの目標に沿って、商務部は、NIST内のAISIを通じて、現在及び近い将来のAIシステムの評価を支援するため、以下の行動をとるものとする: |
(i) Within 180 days of the date of this memorandum and subject to private sector cooperation, AISI shall pursue voluntary preliminary testing of at least two frontier AI models prior to their public deployment or release to evaluate capabilities that might pose a threat to national security. This testing shall assess models’ capabilities to aid offensive cyber operations, accelerate development of biological and/or chemical weapons, autonomously carry out malicious behavior, automate development and deployment of other models with such capabilities, and give rise to other risks identified by AISI. AISI shall share feedback with the APNSA, interagency counterparts as appropriate, and the respective model developers regarding the results of risks identified during such testing and any appropriate mitigations prior to deployment. | (i) AISIは、本覚書の日付から180日以内に、民間セクターの協力を前提として、国家安全保障を脅かす可能性のある能力を評価するため、少なくとも2つのフロンティアAIモデルの自主的な予備テストを、一般展開または公開前に実施する。 このテストでは、攻撃的なサイバー作戦を支援する、生物・化学兵器の開発を加速する、悪意のある行動を自律的に実行する、そのような能力を持つ他のモデルの開発と展開を自動化する、AISIが特定したその他のリスクを生じさせる、といったモデルの能力をアセスメントするものとする。 AISIは、このようなテスト中に特定されたリスクの結果、および展開前の適切な低減に関して、APNSA、必要に応じて省庁間カウンターパート、および各モデル開発者とフィードバックを共有するものとする。 |
(ii) Within 180 days of the date of this memorandum, AISI shall issue guidance for AI developers on how to test, evaluate, and manage risks to safety, security, and trustworthiness arising from dual-use foundation models, building on guidelines issued pursuant to subsection 4.1(a) of Executive Order 14110. AISI shall issue guidance on topics including: | (ii) AISI は、本覚書の日付から 180 日以内に、大統領令第 14110 号の 4.1(a)項に従って発行されたガイドラインに基づき、両用基盤モデルから生じる安全、セキュリ ティ、信頼性に対するリスクをどのようにテスト、評価、マネジメントするかについて、AI 開発者向けのガイダンスを発行する。 AISI は、以下を含むトピックに関するガイダンスを発行する: |
(A) How to measure capabilities that are relevant to the risk that AI models could enable the development of biological and chemical weapons or the automation of offensive cyber operations; | (A)AIモデルが生物化学兵器の開発や攻撃的サイバー作戦の自動化を可能にするリスクに関連する能力をどのように測定するか; |
(B) How to address societal risks, such as the misuse of models to harass or impersonate individuals; | (B) 個人への嫌がらせやなりすましのためのモデルの悪用など、社会的リスクに対処する方法; |
(C) How to develop mitigation measures to prevent malicious or improper use of models; | (C)モデルの悪意ある利用や不適切な利用を防止するための低減手段をどのように開発するか; |
(D) How to test the efficacy of safety and security mitigations; and | (D)安全性及びセキュリティ低減の有効性をどのようにテストするか。 |
(E) How to apply risk management practices throughout the development and deployment lifecycle (pre-development, development, and deployment/release). | (E) 開発及び展開のライフサイクル(開発前、開発、展開/リリース)を通じてリスクマネジメントを適用する方法。 |
(iii) Within 180 days of the date of this memorandum, AISI, in consultation with other agencies as appropriate, shall develop or recommend benchmarks or other methods for assessing AI systems’ capabilities and limitations in science, mathematics, code generation, and general reasoning, as well as other categories of activity that AISI deems relevant to assessing general-purpose capabilities likely to have a bearing on national security and public safety. | (iii) AISIは、本覚書の日付から180日以内に、適宜、他の機関と協議の上、科学、数学、コード生成、一般的推論、並びに、国家安全保障及び公共の安全に関係する可能性が高い汎用的能力の評価に関連するとAISIがみなす他の活動カテゴリーにおいて、AIシステムの能力と限界を評価するためのベンチマーク又は他の方法を開発又は推奨しなければならない。 |
(iv) In the event that AISI or another agency determines that a dual-use foundation model’s capabilities could be used to harm public safety significantly, AISI shall serve as the primary point of contact through which the United States Government communicates such findings and any associated recommendations regarding risk mitigation to the developer of the model. | (iv) AISI または他の機関が、デュアルユース基盤モデルの能力が公共の安全に重大な危害を及ぼ すために使用される可能性があると判断した場合、AISI は、米国政府が当該所見およびリスク低減に関 連する勧告を当該モデルの開発者に伝達するための主要な窓口となるものとする。 |
(v) Within 270 days of the date of this memorandum, and at least annually thereafter, AISI shall submit to the President, through the APNSA, and provide to other interagency counterparts as appropriate, at minimum one report that shall include the following: | (v) AISIは、本覚書の日付から270日以内に、またその後少なくとも毎年、APNSAを通じて大統領に提出し、また必要に応じて他の省庁間のカウンターパートに、以下を含む報告書を最低1回提出しなければならない: |
(A) A summary of findings from AI safety assessments of frontier AI models that have been conducted by or shared with AISI; | (A) AISIが実施した、またはAISIと共有したフロンティアAIモデルのAI安全性アセスメントから得られた知見の概要; |
(B) A summary of whether AISI deemed risk mitigation necessary to resolve any issues identified in the assessments, along with conclusions regarding any mitigations’ efficacy; and | (B)アセスメントで特定された問題を解決するために、AISIがリスク低減が必要と判断したか否かの概要、及び低減の有効性に関する結論; |
(C) A summary of the adequacy of the science-based tools and methods used to inform such assessments. | (C) 当該アセスメントに使用された、科学的根拠に基づくツール及び手法の妥当性の概要。 |
(f) Consistent with these goals, other agencies specified below shall take the following actions, in coordination with Commerce, acting through AISI within NIST, to provide classified sector-specific evaluations of current and near-future AI systems for cyber, nuclear, and radiological risks: | (f)これらの目標に沿って、以下に指定された他の機関は、商務省と連携し、NIST 内の AISI を通じて、現在および近い将来の AI システムのサイバー、核、放射性リスクに関する機密部門別評価を提供するために、以下の行動を取るものとする: |
(i) All agencies that conduct or fund safety testing and evaluations of AI systems shall share the results of such evaluations with AISI within 30 days of their completion, consistent with applicable protections for classified and controlled information. | (i)AIシステムの安全性試験・評価を実施または資金提供するすべての機関は、機密・管理情報に対する適用される防御と整合性を保ちつつ、そのような評価の結果を完了後30日以内にAISIと共有する。 |
(ii) Within 120 days of the date of this memorandum, the National Security Agency (NSA), acting through its AI Security Center (AISC) and in coordination with AISI, shall develop the capability to perform rapid systematic classified testing of AI models’ capacity to detect, generate, and/or exacerbate offensive cyber threats. Such tests shall assess the degree to which AI systems, if misused, could accelerate offensive cyber operations. | (ii) この覚書の日付から120日以内に、国家安全保障局(NSA)は、AIセキュリティセンター(AISC)を通じて、AISIと協調して、攻撃的サイバー脅威を検知、生成、および/または悪化させるAIモデルの能力について、迅速に体系的な機密テストを実施する能力を開発しなければならない。 このようなテストは、AIシステムが悪用された場合、攻撃的サイバー活動を加速させる可能性の程度を評価するものとする。 |
(iii) Within 120 days of the date of this memorandum, DOE, acting primarily through the National Nuclear Security Administration (NNSA) and in close coordination with AISI and NSA, shall seek to develop the capability to perform rapid systematic testing of AI models’ capacity to generate or exacerbate nuclear and radiological risks. This initiative shall involve the development and maintenance of infrastructure capable of running classified and unclassified tests, including using restricted data and relevant classified threat information. This initiative shall also feature the creation and regular updating of automated evaluations, the development of an interface for enabling human-led red-teaming, and the establishment of technical and legal tooling necessary for facilitating the rapid and secure transfer of United States Government, open-weight, and proprietary models to these facilities. As part of this initiative: | (iii) 本覚書の日付から 120 日以内に、DOE は、主に国家核安全保障局(NNSA)を 通じて行動し、AISI および NSA と緊密に連携して、核および放射性リスクを 生成または悪化させる AI モデルの能力について、迅速な体系的試験を実施する能 力の開発を目指すものとする。 このイニシアティブは、制限されたデータや関連する機密脅威情報の利用を含め、機密および非機密のテストを実行できるインフラの開発と保守を含むものとする。 このイニシアティブはまた、自動化された評価の作成と定期的な更新、人間主導のレッドチームを可能にするインターフェイスの開発、米国政府、オープンウェイト、および専有モデルをこれらの施設に迅速かつ安全に移転するために必要な技術的・法的ツールの確立を特徴とする。 このイニシアティブの一環として |
(A) Within 180 days of the date of this memorandum, DOE shall use the capability described in subsection 3.3(f)(iii) of this section to complete initial evaluations of the radiological and nuclear knowledge, capabilities, and implications of a frontier AI model no more than 30 days after the model has been made available to NNSA at an appropriate classification level. These evaluations shall involve tests of AI systems both without significant modifications and, as appropriate, with fine-tuning or other modifications that could enhance performance. | (A) 本覚書の日付から 180 日以内に、DOE は、本節の第 3.3 項(f)(iii)に記載された能力を使用し、フロンティア AI モデルが適切な分類レベルで NNSA に提供されてから 30 日以内に、その放射性・核に関する知識、能力、および意味合いの初期評価を完了しなければならない。 これらの評価には、大幅な修正を加えない場合と、必要に応じて微調整や性能向上のためのその他の修正を加えた場合の両方のAIシステムのテストを含むものとする。 |
(B) Within 270 days of the date of this memorandum, and at least annually thereafter, DOE shall submit to the President, through the APNSA, at minimum one assessment that shall include the following: | (B) 本覚書の日付から 270 日以内、およびその後少なくとも毎年、DOE は、APNSA を通じ、以下を含む最低 1 回のアセスメントを大統領に提出するものとする: |
(1) A concise summary of the findings of each AI model evaluation for radiological and nuclear risk, described in subsection 3.3(f)(iii)(A) of this section, that DOE has performed in the preceding 12 months; | (1)DOE が過去 12 ヶ月間に実施した、本節 3.3(f)(iii)(A)項に記載される放射線リスクおよび核リスク に関する各 AI モデル評価の所見の簡潔な要約; |
(2) A recommendation as to whether corrective action is necessary to resolve any issues identified in the evaluations, including but not limited to actions necessary for attaining and sustaining compliance conditions appropriate to safeguard and prevent unauthorized disclosure of restricted data or other classified information, pursuant to the Atomic Energy Act of 1954; and | (2) 1954 年原子力法(Atomic Energy Act of 1954)に基づき、制限されたデータまたはそ の他の機密情報を保護し、不正な開示を防止するために適切な遵守条件を達成し、維持する ために必要な措置を含むがこれに限定されない、評価で特定された問題を解決するために是正 措置が必要か否かに関する勧告。 |
(3) A concise statement regarding the adequacy of the science-based tools and methods used to inform the evaluations. | (3) 評価に使用された科学的根拠に基づく手段及び方法の妥当性に関する簡潔な記述。 |
(iv) On an ongoing basis, DHS, acting through the Cybersecurity and Infrastructure Security Agency (CISA), shall continue to fulfill its responsibilities with respect to the application of AISI guidance, as identified in National Security Memorandum 22 of April 30, 2024 (Critical Infrastructure Security and Resilience), and section 4 of Executive Order 14110. | (iv) 継続的に、サイバーセキュリティ・インフラセキュリティ庁(CISA)を通じて行動する DHS は、2024 年 4 月 30 日の国家安全保障覚書 22(重要インフラのセキュリティとレジリエンス)および大統領令第 14110 号の第 4 節で特定されているとおり、AISI ガイダンスの適用に関して引き続き責任を果たすものとする。 |
(g) Consistent with these goals, and to reduce the chemical and biological risks that could emerge from AI: | (g)これらの目標に合致し、AIから生じうる化学的・生物学的リスクを軽減する: |
(i) The United States Government shall advance classified evaluations of advanced AI models’ capacity to generate or exacerbate deliberate chemical and biological threats. As part of this initiative: | (i) 米国政府は、意図的な化学的・生物学的脅威を生成または悪化させる高度AIモデルの能力について、機密評価を進める。 このイニシアチブの一環として |
(A) Within 210 days of the date of this memorandum, DOE, DHS, and AISI, in consultation with DOD and other relevant agencies, shall coordinate to develop a roadmap for future classified evaluations of advanced AI models’ capacity to generate or exacerbate deliberate chemical and biological threats, to be shared with the APNSA. This roadmap shall consider the scope, scale, and priority of classified evaluations; proper safeguards to ensure that evaluations and simulations are not misconstrued as offensive capability development; proper safeguards for testing sensitive and/or classified information; and sustainable implementation of evaluation methodologies. | (A) 本覚書の日付から 210 日以内に、DOE、DHS、および AISI は、DOD およびその他の関連機関と協議の上、APNSA と共有する、意図的な化学・生物学的脅威を生成または悪化させる高度 AI モデルの能力に関する将来の機密評価のロードマップを作成するための調整を行う。 このロードマップは、機密評価の範囲、規模、優先順位、評価やシミュレーションが攻撃能力開発と誤解されないための適切な保護措置、機密情報および/または機密情報をテストするための適切な保護措置、評価手法の持続可能な実施について検討するものとする。 |
(B) On an ongoing basis, DHS shall provide expertise, threat and risk information, and other technical support to assess the feasibility of proposed biological and chemical classified evaluations; interpret and contextualize evaluation results; and advise relevant agencies on potential risk mitigations. | (B) 継続的に、DHS は、提案されている生物・化学兵器機密評価の実行可能性をアセスメントし、評価結果を解釈し、文脈化し、潜在的なリスク低減について関係機関に助言するために、専門知識、脅威およびリスク情報、その他の技術支援を提供するものとする。 |
(C) Within 270 days of the date of this memorandum, DOE shall establish a pilot project to provide expertise, infrastructure, and facilities capable of conducting classified tests in this area. | (C) 本覚書の日付から 270 日以内に、DOE は、この分野の機密試験を実施できる専門知識、 インフラ、および施設を提供するためのパイロット・プロジェクトを設立する。 |
(ii) Within 240 days of the date of this memorandum, DOD, the Department of Health and Human Services (HHS), DOE (including national laboratories), DHS, NSF, and other agencies pursuing the development of AI systems substantially trained on biological and chemical data shall, as appropriate, support efforts to utilize high-performance computing resources and AI systems to enhance biosafety and biosecurity. These efforts shall include: | (本覚書の日付から 240 日以内に、DOD、保健福祉省(HHS)、DOE(国立研究所を含む)、DHS、 NSF、および生物学的・化学的データに実質的に訓練された AI システムの開発を追求するその他の機関は、必要に応じて、 バイオセーフティとバイオセキュリティを強化するために高性能計算資源と AI システムを活用する取り組みを支援するものとする。 これらの取り組みには以下が含まれる: |
(A) The development of tools for screening in silico chemical and biological research and technology; | (A) インシリコ化学・生物学研究および技術をスクリーニングするためのツールの開発; |
(B) The creation of algorithms for nucleic acid synthesis screening; | (B)核酸合成スクリーニングのためのアルゴリズムの作成; |
(C) The construction of high-assurance software foundations for novel biotechnologies; | (C)新規バイオテクノロジーのための高信頼性ソフトウェア基盤の構築; |
(D) The screening of complete orders or data streams from cloud labs and biofoundries; and | (D)クラウドラボやバイオファウンドリーからの完全なオーダーやデータストリームのスクリーニング。 |
(E) The development of risk mitigation strategies such as medical countermeasures. | (E) 医療対策などのリスク低減戦略の開発。 |
(iii) After the publication of biological and chemical safety guidance by AISI outlined in subsection 3.3(e) of this section, all agencies that directly develop relevant dual-use foundation AI models that are made available to the public and are substantially trained on biological or chemical data shall incorporate this guidance into their agency’s practices, as appropriate and feasible. | (iii) 本節 3.3(e)項に概説されている AISI による生物学的及び化学的安全性ガイダンスの公表後、 一般に公開され、生物学的又は化学的データについて実質的に訓練された、関連するデュアルユース基盤 AI モデルを直接開発するすべての機関は、適切かつ実行可能である場合には、このガイダンスを機関の実務に組み込むものとする。 |
(iv) Within 180 days of the date of this memorandum, NSF, in coordination with DOD, Commerce (acting through AISI within NIST), HHS, DOE, the Office of Science and Technology Policy (OSTP), and other relevant agencies, shall seek to convene academic research institutions and scientific publishers to develop voluntary best practices and standards for publishing computational biological and chemical models, data sets, and approaches, including those that use AI and that could contribute to the production of knowledge, information, technologies, and products that could be misused to cause harm. This is in furtherance of the activities described in subsections 4.4 and 4.7 of Executive Order 14110. | (iv) NSFは、本覚書の日付から180日以内に、国防総省、商務省(NIST内のAISIを通じて行動)、HHS、DOE、米国科学技術政策局(OSTP)、およびその他の関連機関と連携して、学術研究機構および科学出版社を招集し、AIを使用し、危害をもたらすために悪用される可能性のある知識、情報、技術、製品の生産に貢献する可能性のあるものを含む、計算生物学的および化学的モデル、データセット、およびアプローチを公開するための自主的なベストプラクティスおよび標準を開発するよう努めるものとする。 これは、大統領令14110号の4.4項および4.7項に記載された活動を推進するものである。 |
(v) Within 540 days of the date of this memorandum, and informed by the United States Government Policy for Oversight of Dual Use Research of Concern and Pathogens with Enhanced Pandemic Potential, OSTP, NSC staff, and the Office of Pandemic Preparedness and Response Policy, in consultation with relevant agencies and external stakeholders as appropriate, shall develop guidance promoting the benefits of and mitigating the risks associated with in silico biological and chemical research. | (v) この覚書の日付から540日以内に、「懸念されるデュアルユース研究およびパンデミックの可能性が高まった病原体の監視に関する米国政府方針」に基づき、OSTP、NSCスタッフ、およびパンデミック準備・対応政策局は、関連省庁および必要に応じて外部の利害関係者と協議の上、インシリコ生物・化学研究の利点を促進し、関連するリスクを低減するガイダンスを作成するものとする。 |
(h) Agencies shall take the following actions to improve foundational understanding of AI safety, security, and trustworthiness: | (h) 省庁は、AIの安全性、セキュリティ、信頼性についての基礎的理解を向上させるため、以下の行動をとるものとする: |
(i) DOD, Commerce, DOE, DHS, ODNI, NSF, NSA, and the National Geospatial-Intelligence Agency (NGA) shall, as appropriate and consistent with applicable law, prioritize research on AI safety and trustworthiness. As appropriate and consistent with existing authorities, they shall pursue partnerships as appropriate with leading public sector, industry, civil society, academic, and other institutions with expertise in these domains, with the objective of accelerating technical and socio-technical progress in AI safety and trustworthiness. This work may include research on interpretability, formal methods, privacy enhancing technologies, techniques to address risks to civil liberties and human rights, human-AI interaction, and/or the socio-technical effects of detecting and labeling synthetic and authentic content (for example, to address the malicious use of AI to generate misleading videos or images, including those of a strategically damaging or non-consensual intimate nature, of political or public figures). | (i) 国防総省、商務省、DOE、DHS、ODNI、NSF、NSA、国土地理院は、適宜、適用法に則り、AIの安全性と信頼性に関する研究を優先する。 適切かつ既存の認可と整合性があるように、AIの安全性と信頼性における技術的・社会技術的進歩を加速させることを目的として、これらの領域における専門知識を有する主要な公共部門、産業界、市民社会、学術機関、その他の機構とのパートナーシップを適宜追求するものとする。 この作業には、解釈可能性、形式手法、プライバシー強化技術、市民的自由と人権へのリスクに対処する技術、人間とAIの相互作用、および/または合成コンテンツと認証コンテンツの検出とラベリングの社会技術的効果(例えば、政治家や公人について、戦略的に損害を与える、または非同意的な親密さを含む、誤解を招く動画や画像を生成するためのAIの悪意ある使用に対処するためのもの)に関する研究が含まれる可能性がある。 |
(ii) DOD, Commerce, DOE, DHS, ODNI, NSF, NSA, and NGA shall, as appropriate and consistent with applicable law, prioritize research to improve the security, robustness, and reliability of AI systems and controls. These entities shall, as appropriate and consistent with applicable law, partner with other agencies, industry, civil society, and academia. Where appropriate, DOD, DHS (acting through CISA), the Federal Bureau of Investigation, and NSA (acting through AISC) shall publish unclassified guidance concerning known AI cybersecurity vulnerabilities and threats; best practices for avoiding, detecting, and mitigating such issues during model training and deployment; and the integration of AI into other software systems. This work shall include an examination of the role of and vulnerabilities potentially caused by AI systems used in critical infrastructure. | (ii) 国防総省、商務省、DOE、DHS、ODNI、NSF、NSA、及び NGA は、適切かつ適用法に合致するように、AI システム及び制御の安全性、 堅牢性、及び信頼性を改善するための研究を優先する。 これらの事業体は、適宜、適用法に則り、他機関、産業界、市民社会、学界と提携するものとする。 適切な場合、DOD、DHS(CISA を通じて活動)、連邦捜査局、NSA(AISC を通じて活動)は、既知の AI のサイバーセキュリティの脆弱性と脅威、モデルの訓練と展開中にそのような問題を回避、検知、緩和するためのベストプラクティス、他のソフトウェアシステムへの AI の統合に関する非機密ガイダンスを公表するものとする。 このワーク・ロールには、重要インフラで使用されるAIシステムの役割と、AIシステムによって引き起こされる可能性のある脆弱性の検討も含まれるものとする。 |
(i) Agencies shall take actions to protect classified and controlled information, given the potential risks posed by AI: | (i)各省庁は、AIがもたらす潜在的リスクを考慮し、機密情報及び管理情報を保護するための措置を講じなければならない: |
(i) In the course of regular updates to policies and procedures, DOD, DOE, and the IC shall consider how analysis enabled by AI tools may affect decisions related to declassification of material, standards for sufficient anonymization, and similar activities, as well as the robustness of existing operational security and equity controls to protect classified or controlled information, given that AI systems have demonstrated the capacity to extract previously inaccessible insight from redacted and anonymized data. | (i)DOD、DOE、および IC は、方針および手順の定期的な更新の過程で、AI ツールが可能にする分析が、資料の機密解除、十分な匿名化の標準、および同様の活動に関連する決定にどのような影響を及ぼすか、また、AI システムが、冗長化および匿名化されたデータから、以前はアクセスできなかった知見を抽出する能力を実証していることを踏まえ、機密情報または管理情報を保護するための既存の運用セキュリティおよび衡平性管理の堅牢性を検討するものとする。 |
Sec. 4. Responsibly Harnessing AI to Achieve National Security Objectives. | セクション4. 国家安全保障の目的を達成するためにAIを責任を持って活用する。 |
(a) It is the policy of the United States Government to act decisively to enable the effective and responsible use of AI in furtherance of its national security mission. Achieving global leadership in national security applications of AI will require effective partnership with organizations outside Government, as well as significant internal transformation, including strengthening effective oversight and governance functions. | (a) 米国政府は、国家安全保障の使命を推進するために、AIの効果的かつ責任ある利用を可能にするために断固として行動する方針である。 AIの国家安全保障への応用において世界的なリーダーシップを達成するためには、効果的な監督・ガバナンス機能の強化を含む政府内部の大幅な変革とともに、政府外の組織との効果的なパートナーシップが必要である。 |
4.1. Enabling Effective and Responsible Use of AI. | 4.1. AIの効果的かつ責任ある利用を可能にする。 |
(a) It is the policy of the United States Government to adapt its partnerships, policies, and infrastructure to use AI capabilities appropriately, effectively, and responsibly. These modifications must balance each agency’s unique oversight, data, and application needs with the substantial benefits associated with sharing powerful AI and computational resources across the United States Government. Modifications must also be grounded in a clear understanding of the United States Government’s comparative advantages relative to industry, civil society, and academia, and must leverage offerings from external collaborators and contractors as appropriate. The United States Government must make the most of the rich United States AI ecosystem by incentivizing innovation in safe, secure, and trustworthy AI and promoting industry competition when selecting contractors, grant recipients, and research collaborators. Finally, the United States Government must address important technical and policy considerations in ways that ensure the integrity and interoperability needed to pursue its objectives while protecting human rights, civil rights, civil liberties, privacy, and safety. | (a) AI能力を適切、効果的かつ責任を持って利用するために、そのパートナーシップ、政策、インフラを適応させることは米国政府の方針である。 これらの修正は、各省庁独自の監督、データ、アプリケーションのニーズと、米国政府全体で強力なAIと計算資源を共有することに伴う実質的な利益とのバランスをとらなければならない。 また、産業界、市民社会、学界と比較した米国政府の優位性を明確に理解した上で、適切な外部協力者や請負業者からの提供を活用した修正を行わなければならない。 米国政府は、請負業者、助成金取得者、研究協力者を選定する際に、安全、安心、信頼できるAIのイノベーションにインセンティブを与え、産業競争を促進することにより、米国の豊かなAIエコシステムを最大限に活用しなければならない。 最後に、米国政府は、人権、市民権、市民的自由、プライバシー、安全を保護しつつ、その目的を追求するために必要な完全性と相互運用性を確保する方法で、重要な技術的・政策的考慮事項に取り組まなければならない。 |
(b) The United States Government needs an updated set of Government-wide procedures for attracting, hiring, developing, and retaining AI and AI-enabling talent for national security purposes. | (b) 米国政府は、国家安全保障を目的とするAIおよびAIを可能にする人材を惹きつけ、雇用し、開発し、保持するための政府全体の手順を更新する必要がある。 |
(c) Consistent with these goals: | (c)これらの目標に合致する: |
(i) In the course of regular legal, policy, and compliance framework reviews, the Department of State, DOD, DOJ, DOE, DHS, and IC elements shall revise, as appropriate, their hiring and retention policies and strategies to accelerate responsible AI adoption. Agencies shall account for technical talent needs required to adopt AI and integrate it into their missions and other roles necessary to use AI effectively, such as AI-related governance, ethics, and policy positions. These policies and strategies shall identify financial, organizational, and security hurdles, as well as potential mitigations consistent with applicable law. Such measures shall also include consideration of programs to attract experts with relevant technical expertise from industry, academia, and civil society — including scholarship for service programs — and similar initiatives that would expose Government employees to relevant non-government entities in ways that build technical, organizational, and cultural familiarity with the AI industry. These policies and strategies shall use all available authorities, including expedited security clearance procedures as appropriate, in order to address the shortfall of AI-relevant talent within Government. | (i) 国務省、国防総省、司法省、DOE、国土安全保障省(DHS)、情報通信研究機構(IC)は、定期的な法的、政策的、コンプライアンス的枠組みの見直しの中で、責任あるAIの採用を加速させるため、採用・保持の方針と戦略を適宜見直す。 政府は、AIを採用するために必要な技術的人材のニーズを考慮し、AI関連のガバナンス、倫理、政策職など、AIを効果的に活用するために必要な役割やミッションにAIを組み込むものとする。 これらの方針および戦略は、財政的、組織的、およびセキュリティ上のハードル、ならびに適用法に合致した潜在的低減策を特定するものとする。 このような措置には、産業界、学界、市民社会から、関連する技術的専門知識を有する専門家を誘致するためのプログラム(奉仕活動に対する奨学金プログラムを含む)、及び、AI産業に対する技術的、組織的、文化的な親近感を醸成するような方法で、政府職員を関連する非政府事業体に接触させるような類似のイニシアティブの検討も含まれなければならない。 これらの方針及び戦略は、政府内のAI関連人材の不足に対処するため、適宜、迅速なセキュリティ・クリアランス手続きを含む、あらゆる利用可能な権限を使用するものとする。 |
(ii) Within 120 days of the date of this memorandum, the Department of State, DOD, DOJ, DOE, DHS, and IC elements shall each, in consultation with the Office of Management and Budget (OMB), identify education and training opportunities to increase the AI competencies of their respective workforces, via initiatives which may include training and skills-based hiring. | (ii) この覚書の日付から120日以内に、国務省、国防総省、司法省、DOE、国土安全保障省(DHS)、および識別情報はそれぞれ、行政管理予算局(OMB)と協議の上、研修や技能ベースの雇用を含む取り組みを通じて、それぞれの職員のAI能力を高めるための教育・研修の機会を特定する。 |
(d) To accelerate the use of AI in service of its national security mission, the United States Government needs coordinated and effective acquisition and procurement systems. This will require an enhanced capacity to assess, define, and articulate AI-related requirements for national security purposes, as well as improved accessibility for AI companies that lack significant prior experience working with the United States Government. | (d) 国家安全保障の使命のためにAIの利用を加速するために、米国政府は、協調的かつ効果的な取得・調達システムを必要とする。 そのためには、国家安全保障目的でのAI関連要件のアセスメント、定義、明示の能力を強化するとともに、米国政府との協働経験が乏しいAI企業にとってのアクセス性を改善する必要がある。 |
(e) Consistent with these goals: | (e)これらの目標に沿って |
(i) Within 30 days of the date of this memorandum, DOD and ODNI, in coordination with OMB and other agencies as appropriate, shall establish a working group to address issues involving procurement of AI by DOD and IC elements and for use on NSS. As appropriate, the working group shall consult the Director of the NSA, as the National Manager for NSS, in developing recommendations for acquiring and procuring AI for use on NSS. | (i) この覚書の日付から30日以内に、DODとODNIは、OMBおよび必要に応じて他の機関と連携し、DODおよびICの要素によるAIの調達、およびNSSでの使用に関わる問題に取り組むための作業部会を設置する。 必要に応じて、作業部会は、NSSで使用するAIの取得と調達に関する勧告を策定するにあたり、NSSの国家管理者としてNSA長官と協議するものとする。 |
(ii) Within 210 days of the date of this memorandum, the working group described in subsection 4.1(e)(i) of this section shall provide written recommendations to the Federal Acquisition Regulatory Council (FARC) regarding changes to existing regulations and guidance, as appropriate and consistent with applicable law, to promote the following objectives for AI procured by DOD and IC elements and for use on NSS: | (ii) 本覚書の日付から210日以内に、本節の4.1(e)(i)項に記載された作業部会は、国防総省およびICの要素によって調達され、NSSで使用されるAIの以下の目的を促進するために、適切かつ適用法と一致するように、既存の規制および指針の変更に関する書面による勧告を連邦調達規制審議会(FARC)に提出するものとする: |
(A) Ensuring objective metrics to measure and promote the safety, security, and trustworthiness of AI systems; | (A)AIシステムの安全性、セキュリティ、信頼性を測定・促進するための客観的指標を確保する; |
(B) Accelerating the acquisition and procurement process for AI, consistent with the Federal Acquisition Regulation, while maintaining appropriate checks to mitigate safety risks; | (B)安全リスクを軽減するための適切なチェックを維持しつつ、連邦調達規則(Federal Acquisition Regulation)に沿って、AIの取得・調達プロセスを加速すること; |
(C) Simplifying processes such that companies without experienced contracting teams may meaningfully compete for relevant contracts, to ensure that the United States Government has access to a wide range of AI systems and that the AI marketplace is competitive; | (C)経験豊富な契約チームを持たない企業でも関連する契約について有意義な競争ができるようにプロセスを簡素化し、米国政府が幅広いAIシステムにアクセスできるようにするとともに、AI市場の競争力を確保する; |
(D) Structuring competitions to encourage robust participation and achieve best value to the Government, such as by including requirements that promote interoperability and prioritizing the technical capability of vendors when evaluating offers; | (D)相互運用性を促進する要件を盛り込んだり、オファー評価時にベンダーの技術能力を優先するなど、強力な参加を促し、政府にとって最良の価値を達成するための競争を構造化する; |
(E) Accommodating shared use of AI to the greatest degree possible and as appropriate across relevant agencies; and | (E) 可能な限り、また適切な場合には、関係省庁間でAIを共有利用する。 |
(F) Ensuring that agencies with specific authorities and missions may implement other policies, where appropriate and necessary. | (F) 特定の認可と使命を有する機関が、適切かつ必要な場合には、他の政策を実施できるようにする。 |
(iii) The FARC shall, as appropriate and consistent with applicable law, consider proposing amendments to the Federal Acquisition Regulation to codify recommendations provided by the working group pursuant to subsection 4.1(e)(ii) of this section that may have Government-wide application. | (iii) FARC は、適切かつ適用法と一致する場合には、本節第 4.1 項(e)(ii)に従っ て作業部会が提示した勧告のうち、政府全体に適用される可能性のあるものを成文化するため、連邦 取得規則の改正を提案することを検討するものとする。 |
(iv) DOD and ODNI shall seek to engage on an ongoing basis with diverse United States private sector stakeholders — including AI technology and defense companies and members of the United States investor community — to identify and better understand emerging capabilities that would benefit or otherwise affect the United States national security mission. | (iv) 国防総省および識別は、米国の国家安全保障の使命に利益をもたらすか、そうでなければ影響を与える新たな能力を特定し、よりよく理解するために、AI技術および防衛企業、米国の投資家コミュニティのメンバーを含む、米国の多様な民間セクターの利害関係者と継続的に関与するよう努めるものとする。 |
(f) The United States Government needs clear, modernized, and robust policies and procedures that enable the rapid development and national security use of AI, consistent with human rights, civil rights, civil liberties, privacy, safety, and other democratic values. | (f) 米国政府は、人権、市民権、市民的自由、プライバシー、安全、その他の民主主義的価値観と矛盾することなく、AIの迅速な開発と国家安全保障上の利用を可能にする、明確で近代化された強固な政策と手続きを必要としている。 |
(g) Consistent with these goals: | (g) これらの目標に整合する: |
(i) DOD and the IC shall, in consultation with DOJ as appropriate, review their respective legal, policy, civil liberties, privacy, and compliance frameworks, including international legal obligations, and, as appropriate and consistent with applicable law, seek to develop or revise policies and procedures to enable the effective and responsible use of AI, accounting for the following: | (i) 国防総省及び情報通信研究機構は、必要に応じて司法省と協議の上、国際的な法的義務を含め、それぞれの法的、政策的、市民的自由、プライバシー、及びコンプライアンスの枠組みを見直し、適切かつ適用法と整合的である場合には、以下を考慮しつつ、AIの効果的かつ責任ある利用を可能にするための政策及び手続の策定又は改訂を目指すものとする: |
(A) Issues raised by the acquisition, use, retention, dissemination, and disposal of models trained on datasets that include personal information traceable to specific United States persons, publicly available information, commercially available information, and intellectual property, consistent with section 9 of Executive Order 14110; | (A) 大統領令第14110条第9項に従い、特定の米国人を特定できる個人情報、一般に入手可能な情報、商業的に入手可能な情報、および知的財産を含むデータセットに学習させたモデルの取得、使用、保持、普及、および廃棄によって生じる問題; |
(B) Guidance that shall be developed by DOJ, in consultation with DOD and ODNI, regarding constitutional considerations raised by the IC’s acquisition and use of AI; | (B) 司法省が、DODおよびODNIと協議の上、ICによるAIの取得・使用によって生じる憲法上の考慮事項に関して作成するガイダンス; |
(C) Challenges associated with classification and compartmentalization; | (C)分類と区分に関する課題; |
(D) Algorithmic bias, inconsistent performance, inaccurate outputs, and other known AI failure modes; | (D) アルゴリズムのバイアス、一貫性のない性能、不正確な出力、その他既知のAIの故障モード; |
(E) Threats to analytic integrity when employing AI tools; | (E)AIツールを使用する際の分析的完全性への脅威 |
(F) Risks posed by a lack of safeguards that protect human rights, civil rights, civil liberties, privacy, and other democratic values, as addressed in further detail in subsection 4.2 of this section; | (F)人権、市民権、市民的自由、プライバシー、その他の民主的価値を保護するセーフガードの欠如がもたらすリスク; |
(G) Barriers to sharing AI models and related insights with allies and partners; and | (G)AIモデルや関連する知見を同盟国やパートナーと共有する際の障壁 |
(H) Potential inconsistencies between AI use and the implementation of international legal obligations and commitments. | (H)AIの利用と国際的な法的義務及び公約の履行との間の潜在的な矛盾。 |
(ii) As appropriate, the policies described in subsection 4.1(g) of this section shall be consistent with direction issued by the Committee on NSS and DOD governing the security of AI used on NSS, policies issued by the Director of National Intelligence governing adoption of AI by the IC, and direction issued by OMB governing the security of AI used on non-NSS. | (ii) 必要に応じて、本項4.1(g)号に記載された方針は、NSSで使用されるAIの安全性を規定するNSS及び国防総省に関する委員会が発行する方針、ICによるAIの採用を規定する国家情報長官が発行する方針、及びNSS以外で使用されるAIの安全性を規定するOMBが発行する方針と整合するものとする。 |
(iii) On an ongoing basis, each agency that uses AI on NSS shall, in consultation with ODNI and DOD, take all steps appropriate and consistent with applicable law to accelerate responsible approval of AI systems for use on NSS and accreditation of NSS that use AI systems. | (iii) 継続的に、NSSでAIを使用する各機関は、ODNI及びDODと協議の上、NSSで使用するAIシステムの責任ある承認及びAIシステムを使用するNSSの認定を加速するために、適用法に合致した適切なあらゆる措置を講じること。 |
(h) The United States’ network of allies and partners confers significant advantages over competitors. Consistent with the 2022 National Security Strategy or any successor strategies, the United States Government must invest in and proactively enable the co-development and co-deployment of AI capabilities with select allies and partners. | (h) 米国の同盟国やパートナーのネットワークは、競争相手に対して大きな優位性をもたらす。 2022年国家安全保障戦略またはその後継戦略に沿って、米国政府は、選択された同盟国およびパートナーとのAI能力の共同開発および共同展開に投資し、積極的に可能にしなければならない。 |
(i) Consistent with these goals: | (i) これらの目標に合致する: |
(i) Within 150 days of the date of this memorandum, DOD, in coordination with the Department of State and ODNI, shall evaluate the feasibility of advancing, increasing, and promoting co-development and shared use of AI and AI-enabled assets with select allies and partners. This evaluation shall include: | (i) 本覚書の日付から150日以内に、国防総省は、国務省およびODNIと連携して、特定の同盟国およびパートナーとのAIおよびAI対応資産の共同開発および共同利用の推進、増加、促進の実現可能性を評価するものとする。 この評価には以下が含まれる: |
(A) A potential list of foreign states with which such co-development or co-deployment may be feasible; | (A) そのような共同開発や共同展開が実現可能な外国の候補リスト; |
(B) A list of bilateral and multilateral fora for potential outreach; | (B)潜在的な働きかけのための二国間および多国間の場のリスト; |
(C) Potential co-development and co-deployment concepts; | (C) 共同開発及び共同展開の可能性のあるコンセプト; |
(D) Proposed classification-appropriate testing vehicles for co-developed AI capabilities; and | (D) 共同開発されたAI能力の分類に適したテスト手段の提案。 |
(E) Considerations for existing programs, agreements, or arrangements to use as foundations for future co-development and co-deployment of AI capabilities. | (E) 将来のAI能力の共同開発・共同展開の基盤として使用するための、既存のプログラム、協定、または取決めに関する考慮事項。 |
(j) The United States Government needs improved internal coordination with respect to its use of and approach to AI on NSS in order to ensure interoperability and resource sharing consistent with applicable law, and to reap the generality and economies of scale offered by frontier AI models. | (j) 米国政府は、適用法に合致した相互運用性とリソースの共有を確保し、フロンティアAIモデルが提供する汎用性と規模の経済を享受するため、NSSにおけるAIの利用とアプローチに関して、内部調整の改善を必要としている。 |
(k) Consistent with these goals: | (k) これらの目標に一貫性を持たせる: |
(i) On an ongoing basis, DOD and ODNI shall issue or revise relevant guidance to improve consolidation and interoperability across AI functions on NSS. This guidance shall seek to ensure that the United States Government can coordinate and share AI-related resources effectively, as appropriate and consistent with applicable law. Such work shall include: | (i) 継続的に、国防総省とODNIは、NSSにおけるAI機能の統合と相互運用性を改善するため、関連ガイダンスを発行または改訂する。 このガイダンスは、米国ガバナンスが、適切かつ適用法に従って、AI 関連資源を効果的に調整し、共有できるようにすることを目指すものとする。 このような作業には以下が含まれる: |
(A) Recommending agency organizational practices to improve AI research and deployment activities that span multiple national security institutions. In order to encourage AI adoption for the purpose of national security, these measures shall aim to create consistency to the greatest extent possible across the revised practices. | (A)複数の国家安全保障機構にまたがるAIの研究・展開活動を改善するための、各省庁の組織的慣行を推奨すること。 A)複数の国家安全保障機関にまたがるAIの研究・配備活動を改善するための組織的慣行の推奨。国家安全保障を目的としたAIの導入を促進するため、これらの慣行は、改訂された慣行間で可能な限り一貫性を持たせることを目指すものとする。 |
(B) Steps that enable consolidated research, development, and procurement for general-purpose AI systems and supporting infrastructure, such that multiple agencies can share access to these tools to the extent consistent with applicable law, while still allowing for appropriate controls on sensitive data. | (B)汎用AIシステムおよびそれを支えるインフラの研究、開発、調達を統合し、複数の機関が適用法に合致する範囲でこれらのツールへのアクセスを共有できるようにする一方で、機密データに対する適切な統制を可能にするような措置を講じること。 |
(C) Aligning AI-related national security policies and procedures across agencies, as practicable and appropriate, and consistent with applicable law. | (C)現実的かつ適切な範囲で、適用法に合致するように、AI関連の国家安全保障政策・手続を省庁間で整合させる。 |
(D) Developing policies and procedures, as appropriate and consistent with applicable law, to share information across DOD and the IC when an AI system developed, deployed, or used by a contractor demonstrates risks related to safety, security, and trustworthiness, including to human rights, civil rights, civil liberties, or privacy. | (D)請負業者が開発、展開、使用するAIシステムが、人権、市民権、市民的自由、プライバシーを含め、安全、セキュリティ、信頼性に関連するリスクを示す場合、適切かつ適用法に合致する範囲で、DODとIC間で情報を共有するための方針と手順を策定する。 |
4.2. Strengthening AI Governance and Risk Management. | 4.2. AI ガバナンスとリスクマネジメントの強化。 |
(a) As the United States Government moves swiftly to adopt AI in support of its national security mission, it must continue taking active steps to uphold human rights, civil rights, civil liberties, privacy, and safety; ensure that AI is used in a manner consistent with the President’s authority as Commander in Chief to decide when to order military operations in the Nation’s defense; and ensure that military use of AI capabilities is accountable, including through such use during military operations within a responsible human chain of command and control. Accordingly, the United States Government must develop and implement robust AI governance and risk management practices to ensure that its AI innovation aligns with democratic values, updating policy guidance where necessary. In light of the diverse authorities and missions across covered agencies with a national security mission and the rapid rate of ongoing technological change, such AI governance and risk management frameworks shall be: | (a) 米国政府は、国家安全保障の使命を支援するためにAIの導入を迅速に進める中で、人権、市民権、市民的自由、プライバシー、安全を守るための積極的な措置をとり続けなければならない。また、AIが、国家の防衛のために軍事作戦を命令する時期を決定する最高司令官としての大統領の権限に合致した方法で使用されることを確保し、責任ある人間の指揮命令系統の中での軍事作戦中の使用を含め、AI能力の軍事的使用が説明責任を果たすことを確保しなければならない。 したがって、米国政府は、AIの技術革新が民主主義の価値観に合致するよう、強固なAIガバナンスとリスクマネジメントを開発・実施し、必要に応じて政策指針を更新しなければならない。 国家安全保障を任務とする対象局における多様な認可と任務、そして現在進行中の技術革新の急速な速度に鑑み、このようなAIガバナンスとリスクマネジメントの枠組みは以下のものでなければならない: |
(i) Structured, to the extent permitted by law, such that they can adapt to future opportunities and risks posed by new technical developments; | (i)新たな技術開発によってもたらされる将来の機会やリスクに適応できるよう、法律で許される範囲で、構造化される; |
(ii) As consistent across agencies as is practicable and appropriate in order to enable interoperability, while respecting unique authorities and missions; | (ii)独自の認可と使命を尊重しつつ、相互運用性を可能にするため、実務上可能かつ適切な限り、省庁間で一貫性を持たせる; |
(iii) Designed to enable innovation that advances United States national security objectives; | (iii) 米国の国家安全保障目標を推進する技術革新を可能にするように設計される; |
(iv) As transparent to the public as practicable and appropriate, while protecting classified or controlled information; | (iv) 機密又は管理された情報を保護しつつ、実行可能かつ適切な限り、一般に透明であること; |
(v) Developed and applied in a manner and with means to integrate protections, controls, and safeguards for human rights, civil rights, civil liberties, privacy, and safety where relevant; and | (v) 人権、市民権、市民的自由、プライバシー及び安全に関する防御、管理及び保障措置を、関連する場合には統合する方法及び手段を用いて開発し、適用する。 |
(vi) Designed to reflect United States leadership in establishing broad international support for rules and norms that reinforce the United States’ approach to AI governance and risk management. | (vi)AIガバナンス及びリスクマネジメントに対する米国のアプローチを強化する規則及び規範に対する広範な国際的支持の確立における米国のリーダーシップを反映するように設計される。 |
(b) Covered agencies shall develop and use AI responsibly, consistent with United States law and policies, democratic values, and international law and treaty obligations, including international humanitarian and human rights law. All agency officials retain their existing authorities and responsibilities established in other laws and policies. | (b) 対象機関は、米国の法律と政策、民主主義的価値観、国際人道法・人権法を含む国際法・条約上の義務に則り、責任を持ってAIを開発・利用しなければならない。 すべての省庁職員は、他の法律や政策で確立された既存の認可と責任を保持する。 |
(c) Consistent with these goals: | (c)これらの目標に合致する: |
(i) Heads of covered agencies shall, consistent with their authorities, monitor, assess, and mitigate risks directly tied to their agency’s development and use of AI. Such risks may result from reliance on AI outputs to inform, influence, decide, or execute agency decisions or actions, when used in a defense, intelligence, or law enforcement context, and may impact human rights, civil rights, civil liberties, privacy, safety, national security, and democratic values. These risks from the use of AI include the following: | (i)対象省庁の長は、その権限に基づき、当該省庁のAI開発・利用に直接関連するリスクを監視、アセスメント、低減しなければならない。 このようなリスクは、防衛、情報、法執行の文脈で使用される場合、AIのアウトプットに依存して機関の意思決定や行動に情報を与え、影響を与え、決定し、または実行することから生じる可能性があり、人権、市民権、市民的自由、プライバシー、安全、国家安全保障、民主的価値に影響を与える可能性がある。 AIの使用によるこれらのリスクには、以下のものが含まれる: |
(A) Risks to physical safety: AI use may pose unintended risks to human life or property. | (A)身体的安全に対するリスク: A)物理的安全に対するリスク:AIの使用は、人命や財産に意図しないリスクをもたらす可能性がある。 |
(B) Privacy harms: AI design, development, and operation may result in harm, embarrassment, unfairness, and prejudice to individuals. | (B)プライバシーへの害: A)物理的安全性に対するリスク:AIの使用は、人間の生命や財産に意図しないリスクをもたらす可能性がある。 |
(C) Discrimination and bias: AI use may lead to unlawful discrimination and harmful bias, resulting in, for instance, inappropriate surveillance and profiling, among other harms. | (C)識別的差別とバイアス: AIの利用は、違法な差別や有害なバイアスにつながる可能性があり、その結果、例えば、不適切な監視やプロファイリングなどの弊害が生じる。 |
(D) Inappropriate use: operators using AI systems may not fully understand the capabilities and limitations of these technologies, including systems used in conflicts. Such unfamiliarity could impact operators’ ability to exercise appropriate levels of human judgment. | (D)不適切な使用:AIシステムを使用するオペレーターは、紛争で使用されるシステムを含め、これらの技術の能力と限界を十分に理解していない可能性がある。 そのような不慣れは、オペレーターが適切なレベルの人間的判断を行使する能力に影響を与える可能性がある。 |
(E) Lack of transparency: agencies may have gaps in documentation of AI development and use, and the public may lack access to information about how AI is used in national security contexts because of the necessity to protect classified or controlled information. | (E)透明性の欠如:国家安全保障局では、AIの開発・使用に関する文書に不備がある可能性があり、また、機密情報や管理情報を保護する必要性から、国家安全保障の文脈でAIがどのように使用されているかについての情報に一般市民がアクセスできない可能性がある。 |
(F) Lack of accountability: training programs and guidance for agency personnel on the proper use of AI systems may not be sufficient, including to mitigate the risk of overreliance on AI systems (such as “automation bias”), and accountability mechanisms may not adequately address possible intentional or negligent misuse of AI-enabled technologies. | (F)アカウンタビリティの欠如:AIシステムの適切な使用に関する省庁職員向けの研修プログラムやガイダンスは、AIシステムへの過度の依存(「自動化バイアス」など)のリスクを軽減することも含めて十分でない可能性があり、アカウンタビリティの仕組みは、AI対応技術の意図的または過失による誤用の可能性に適切に対処していない可能性がある。 |
(G) Data spillage: AI systems may reveal aspects of their training data — either inadvertently or through deliberate manipulation by malicious actors — and data spillage may result from AI systems trained on classified or controlled information when used on networks where such information is not permitted. | (G) データの流出: AIシステムは、不注意であれ、悪意のある行為者による意図的な操作であれ、学習データの一部を漏えいさせる可能性がある。また、機密情報や学習データ制御情報に基づいて学習されたAIシステムが、そのような情報が許可されていないネットワークで使用された場合、データの漏えいが生じる可能性がある。 |
(H) Poor performance: AI systems that are inappropriately or insufficiently trained, used for purposes outside the scope of their training set, or improperly integrated into human workflows may exhibit poor performance, including in ways that result in inconsistent outcomes or unlawful discrimination and harmful bias, or that undermine the integrity of decision-making processes. | (H)パフォーマンスの低下: 不適切または不十分な訓練を受けたAIシステム、訓練セットの範囲外の目的で使用されたAIシステム、または人間のワークフローに不適切に組み込まれたAIシステムは、一貫性のない結果や違法な差別や有害なバイアスをもたらすような方法、または意思決定プロセスの完全性を損なうような方法を含め、パフォーマンスが低下する可能性がある。 |
(I) Deliberate manipulation and misuse: foreign state competitors and malicious actors may deliberately undermine the accuracy and efficacy of AI systems, or seek to extract sensitive information from such systems. | (I)意図的な操作と誤用:外国の競争相手や悪意ある行為者は、AIシステムの精度や有効性を意図的に損なったり、そのようなシステムから機密情報を抽出しようとしたりする可能性がある。 |
(d) The United States Government’s AI governance and risk management policies must keep pace with evolving technology. | (d)米国政府のAIガバナンスとリスクマネジメント方針は、技術の進化に対応したものでなければならない。 |
(e) Consistent with these goals: | (e)これらの目標に合致する: |
(i) An AI framework, entitled “Framework to Advance AI Governance and Risk Management in National Security” (AI Framework), shall further implement this subsection. The AI Framework shall be approved by the NSC Deputies Committee through the process described in National Security Memorandum 2 of February 4, 2021 (Renewing the National Security Council System), or any successor process, and shall be reviewed periodically through that process. This process shall determine whether adjustments are needed to address risks identified in subsection 4.2(c) of this section and other topics covered in the AI Framework. The AI Framework shall serve as a national security-focused counterpart to OMB’s Memorandum M-24-10 of March 28, 2024 (Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence), and any successor OMB policies. To the extent feasible, appropriate, and consistent with applicable law, the AI Framework shall be as consistent as possible with these OMB policies and shall be made public. | (i) 「国家安全保障におけるAIガバナンスとリスクマネジメントを推進する枠組み」(AIフレームワーク)と題するAIの枠組みは、本款をさらに実施するものとする。 AI枠組みは、2021年2月4日付国家安全保障覚書2(国家安全保障会議制度の刷新)、またはそれに代わるプロセスに記載されたプロセスを通じて、NSC副委員会により承認され、そのプロセスを通じて定期的に見直されるものとする。 このプロセスでは、本項4.2(c)で特定されたリスクや、AI枠組みに含まれるその他のトピックに対処するための調整が必要かどうかを判断する。 AI枠組みは、2024年3月28日のOMBの覚書M-24-10(Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence)、およびOMBの後継政策と対をなす、国家安全保障に焦点を当てたものとする。 実現可能で、適切で、適用法と矛盾しない範囲で、AI枠組みは、これらのOMB方針と可能な限り矛盾しないものとし、公開されなければならない。 |
(ii) The AI Framework described in subsection 4.2(e)(i) of this section and any successor document shall, at a minimum, and to the extent consistent with applicable law, specify the following: | (ii) 本項4.2(e)(i)に記載されたAI枠組み及びその後継文書は、最低限、適用法と矛盾しない範囲で、以下の事項を明記しなければならない: |
(A) Each covered agency shall have a Chief AI Officer who holds primary responsibility within that agency, in coordination with other responsible officials, for managing the agency’s use of AI, promoting AI innovation within the agency, and managing risks from the agency’s use of AI consistent with subsection 3(b) of OMB Memorandum M-24-10, as practicable. | (A)各対象機関は、他の責任ある職員と連携して、当該機関におけるAIの利用のマネジメント、当該機関におけるAIのイノベーションの促進、及びOMB覚書M-24-10第3(b)項と整合する当該機関のAIの利用によるリスクの管理について、実務上可能な限り、主たる責任を有するAI最高責任者を置かなければならない。 |
(B) Covered agencies shall have AI Governance Boards to coordinate and govern AI issues through relevant senior leaders from the agency. | (B)対象政府は、AIガバナンス・ボード(AI Governance Boards)を設置し、政府内の関連する上級指導者を通じてAI問題を調整・管理する。 |
(C) Guidance on AI activities that pose unacceptable levels of risk and that shall be prohibited. | (C) 許容できないレベルのリスクをもたらし、禁止されるAI活動に関するガイダンス。 |
(D) Guidance on AI activities that are “high impact” and require minimum risk management practices, including for high-impact AI use that affects United States Government personnel. Such high-impact activities shall include AI whose output serves as a principal basis for a decision or action that could exacerbate or create significant risks to national security, international norms, human rights, civil rights, civil liberties, privacy, safety, or other democratic values. The minimum risk management practices for high-impact AI shall include a mechanism for agencies to assess AI’s expected benefits and potential risks; a mechanism for assessing data quality; sufficient test and evaluation practices; mitigation of unlawful discrimination and harmful bias; human training, assessment, and oversight requirements; ongoing monitoring; and additional safeguards for military service members, the Federal civilian workforce, and individuals who receive an offer of employment from a covered agency. | (D) 米国政府の要員に影響を与えるような、影響度の高い AI の利用を含め、「影響度が高い」AI 活動であり、最低限のリスクマネジメントを必要とする AI 活動に関するガイダンス。このような影響度の高い活動には、国家安全保障、国際規範、人権、市民権、自由、プライバシー、安全、その他の民主主義的価値に対する重大なリスクを悪化させたり、生じさせたりする可能性のある意思決定や行動の主要な根拠となる出力があるAIを含むものとする。影響力の大きいAIの最低限のリスクマネジメントには、AIに期待される利益と潜在的リスクを評価する機関の仕組み、データの質を評価する仕組み、十分なテストと評価の実施、違法な識別的差別と有害なバイアスの低減、人的訓練、アセスメント、監視の要件、継続的な監視、軍属、連邦文民労働者、対象機関から雇用のオファーを受けた個人に対する追加的なセーフガードを含めなければならない。 |
(E) Covered agencies shall ensure privacy, civil liberties, and safety officials are integrated into AI governance and oversight structures. Such officials shall report findings to the heads of agencies and oversight officials, as appropriate, using existing reporting channels when feasible. | (E)対象政府は、プライバシー、市民的自由、および安全の担当官が、AIのガバナンスおよび監視構造に組み込まれるようにしなければならない。 そのような職員は、実行可能な場合には、既存の報告経路を使用し、必要に応じて、調査結果を各機関の長及び監督職員に報告しなければならない。 |
(F) Covered agencies shall ensure that there are sufficient training programs, guidance, and accountability processes to enable proper use of AI systems. | (F) 対象機関は、AIシステムの適切な使用を可能にするために、十分な訓練プログラム、ガイダンス、説明責任プロセスがあることを確保する。 |
(G) Covered agencies shall maintain an annual inventory of their high-impact AI use and AI systems and provide updates on this inventory to agency heads and the APNSA. | (G) 対象となる省庁は、影響度の高いAIの使用及びAIシステムの年次インベントリを維持し、このインベントリの最新情報を、省庁の長及びAPNSAに提供しなければならない。 |
(H) Covered agencies shall ensure that whistleblower protections are sufficient to account for issues that may arise in the development and use of AI and AI systems. | (H) 対象となる省庁は、AI及びAIシステムの開発及び使用において生じ得る問題を考慮するために、内部告発者防御が十分であることを確保しなければならない。 |
(I) Covered agencies shall develop and implement waiver processes for high-impact AI use that balance robust implementation of risk mitigation measures in this memorandum and the AI Framework with the need to utilize AI to preserve and advance critical agency missions and operations. | (I) 対象となる省庁は、本覚書及びAI枠組みにおけるリスク低減措置の確実な実施と、重要な省庁のミッション及び業務を維持・前進させるためにAIを活用する必要性とのバランスを考慮した、影響度の高いAI活用のための権利放棄プロセスを策定し、実施しなければならない。 |
(J) Covered agencies shall implement cybersecurity guidance or direction associated with AI systems issued by the National Manager for NSS to mitigate the risks posed by malicious actors exploiting new technologies, and to enable interoperability of AI across agencies. Within 150 days of the date of this memorandum, and periodically thereafter, the National Manager for NSS shall issue minimum cybersecurity guidance and/or direction for AI used as a component of NSS, which shall be incorporated into AI governance guidance detailed in subsection 4.2(g)(i) of this section. | (J) 対象機関は、新技術を悪用する悪意ある行為者によってもたらされるリスクを軽減し、省庁をまたがるAIの相互運用性を可能にするために、NSSの国家マネージャーが発行するAIシステムに関連するサイバーセキュリティの指針または指示を実施しなければならない。 本覚書の日付から150日以内、およびその後定期的に、NSS担当国家管理者は、NSSの構成要素として使用されるAIについて、最低限のサイバーセキュリティ・ガイダンスおよび/または指示を発行するものとし、これは、本節4.2(g)(i)項に詳述されているAIガバナンス・ガイダンスに組み込まれるものとする。 |
(f) The United States Government needs guidance specifically regarding the use of AI on NSS. | (f) 米国政府は、NSSにおけるAIの使用に関して特にガイダンスを必要としている。 |
(g) Consistent with these goals: | (g) これらの目標に整合する: |
(i) Within 180 days of the date of this memorandum, the heads of the Department of State, the Department of the Treasury, DOD, DOJ, Commerce, DOE, DHS, ODNI (acting on behalf of the 18 IC elements), and any other covered agency that uses AI as part of a NSS (Department Heads) shall issue or update guidance to their components/sub-agencies on AI governance and risk management for NSS, aligning with the policies in this subsection, the AI Framework, and other applicable policies. Department Heads shall review their respective guidance on an annual basis, and update such guidance as needed. This guidance, and any updates thereto, shall be provided to the APNSA prior to issuance. This guidance shall be unclassified and made available to the public to the extent feasible and appropriate, though it may have a classified annex. Department Heads shall seek to harmonize their guidance, and the APNSA shall convene an interagency meeting at least annually for the purpose of harmonizing Department Heads’ guidance on AI governance and risk management to the extent practicable and appropriate while respecting the agencies’ diverse authorities and missions. Harmonization shall be pursued in the following areas: | (i) 本覚書の日付から 180 日以内に、国務省、財務省、国防総省、司法省、商務省、 DOE、DHS、ODNI(18 の IC 要素を代表して行動する)、および NSS の一部として AI を使用するその他の対象省庁の長(省庁長)は、本節の方針、 AI の枠組み、およびその他の適用される方針と整合させつつ、NSS の AI ガバナンスおよびリスクマネジメントに関するガイダンスを、その部局/下位省庁に対して発行または更新するものとする。 部局長は、それぞれのガイダンスを毎年見直し、必要に応じて更新するものとする。 本ガイダンス及びその更新は、発行前にAPNSAにプロバイダされるものとする。 このガイダンスは非機密扱いとし、可能かつ適切な範囲で一般に公開する。 各省庁の首脳は、それぞれのガイダンスの調和を図るものとし、APNSAは、各省庁の多様な権限と使命を尊重しつつ、実務上可能かつ適切な範囲で、AIガバナンスとリスクマネジメントに関する各省庁首脳のガイダンスの調和を図る目的で、少なくとも年1回、省庁間会議を開催するものとする。 調和は、以下の分野において追求されるものとする: |
(A) Implementation of the risk management practices for high-impact AI; | (A) 影響の大きいAIのリスクマネジメントの実施; |
(B) AI and AI system standards and activities, including as they relate to training, testing, accreditation, and security and cybersecurity; and | (B) AI及びAIシステムの標準及び活動(訓練、試験、認定、セキュリティ及びサイバーセキュリティに関するものを含む。 |
(C) Any other issues that affect interoperability for AI and AI systems. | (C)AI及びAIシステムの相互運用性に影響を与えるその他の問題。 |
Sec. 5. Fostering a Stable, Responsible, and Globally Beneficial International AI Governance Landscape. | セクション5. 安定した、責任ある、世界的に有益な国際的AIガバナンスの状況を育成する。 |
(a) Throughout its history, the United States has played an essential role in shaping the international order to enable the safe, secure, and trustworthy global adoption of new technologies while also protecting democratic values. These contributions have ranged from establishing nonproliferation regimes for biological, chemical, and nuclear weapons to setting the foundations for multi-stakeholder governance of the Internet. Like these precedents, AI will require new global norms and coordination mechanisms, which the United States Government must maintain an active role in crafting. | (a) 米国は、その歴史を通じて、民主的価値を保護しつつ、安全、安心、信頼できる新技術のグローバルな導入を可能にする国際秩序の形成に不可欠な役割を果たしてきた。 このような貢献は、生物・化学・核兵器の不拡散体制の確立から、インターネットのマルチステークホルダー・ガバナンスの基礎作りまで多岐にわたる。 これらの先例と同様、AIも新たなグローバル規範と調整メカニズムを必要とするが、米国政府はその構築において積極的な役割を維持しなければならない。 |
(b) It is the policy of the United States Government that United States international engagement on AI shall support and facilitate improvements to the safety, security, and trustworthiness of AI systems worldwide; promote democratic values, including respect for human rights, civil rights, civil liberties, privacy, and safety; prevent the misuse of AI in national security contexts; and promote equitable access to AI’s benefits. The United States Government shall advance international agreements, collaborations, and other substantive and norm-setting initiatives in alignment with this policy. | (b) AIに関する米国の国際的関与は、世界中のAIシステムの安全性、セキュリティ、信頼性の改善を支援し促進すること、人権、市民権、自由、プライバシー、安全の尊重を含む民主的価値を促進すること、国家安全保障の文脈におけるAIの悪用を防止すること、AIの利益への公平なアクセスを促進することが、米国政府の方針である。 米国政府は、この方針に沿って、国際協定、協力、その他の実質的かつ規範設定的イニシアチブを推進する。 |
(c) Consistent with these goals: | (c)これらの目標に沿って |
(i) Within 120 days of the date of this memorandum, the Department of State, in coordination with DOD, Commerce, DHS, the United States Mission to the United Nations (USUN), and the United States Agency for International Development (USAID), shall produce a strategy for the advancement of international AI governance norms in line with safe, secure, and trustworthy AI, and democratic values, including human rights, civil rights, civil liberties, and privacy. This strategy shall cover bilateral and multilateral engagement and relations with allies and partners. It shall also include guidance on engaging with competitors, and it shall outline an approach to working in international institutions such as the United Nations and the Group of 7 (G7), as well as technical organizations. The strategy shall: | (i) この覚書の日付から120日以内に、国務省は、国防総省、商務省、国土安全保障省(DHS)、米国国連代表部(USUN)、米国国際開発庁(USAID)と連携して、安全、安心、信頼できるAI、および人権、市民権、市民的自由、プライバシーを含む民主的価値観に沿った国際的なAIガバナンス規範を推進するための戦略を策定する。 この戦略は、二国間および多国間の関与、同盟国やパートナーとの関係を対象とする。 また、競争相手との関与に関する指針も含むものとし、国連や主要7カ国(G7)などの国際機構や技術的な組織で活動するためのアプローチを概説するものとする。 同戦略は以下のことを行う: |
(A) Develop and promote internationally shared definitions, norms, expectations, and standards, consistent with United States policy and existing efforts, which will promote safe, secure, and trustworthy AI development and use around the world. These norms shall be as consistent as possible with United States domestic AI governance (including Executive Order 14110 and OMB Memorandum M-24-10), the International Code of Conduct for Organizations Developing Advanced AI Systems released by the G7 in October 2023, the Organization for Economic Cooperation and Development Principles on AI, United Nations General Assembly Resolution A/78/L.49, and other United States-supported relevant international frameworks (such as the Political Declaration on Responsible Military Use of AI and Autonomy) and instruments. By discouraging misuse and encouraging appropriate safeguards, these norms and standards shall aim to reduce the likelihood of AI causing harm or having adverse impacts on human rights, democracy, or the rule of law. | (A) 米国の政策や既存の取り組みと整合性のある、国際的に共有された定義、規範、期待、標準を策定し、推進することで、世界中で安全、安心、信頼できるAIの開発と利用を促進する。これらの規範は、米国国内のAIガバナンス(大統領令14110およびOMBメモランダムM-24-10を含む)、2023年10月にG7が発表した高度AIシステム開発組織のための国際行動規範、AIに関する経済協力開発機構の原則、国連総会決議A/78/L.49、およびその他の米国が支援する関連する国際枠組み(AIの責任ある軍事利用と自律性に関する政治宣言など)や文書と可能な限り整合性を持たせる。誤用を阻止し、適切なセーフガードを奨励することで、これらの規範や標準は、AIが人権、民主主義、法の支配に害を及ぼしたり、悪影響を与えたりする可能性を減らすことを目的とする。 |
(B) Promote the responsible and ethical use of AI in national security contexts in accordance with democratic values and in compliance with applicable international law. The strategy shall advance the norms and practices established by this memorandum and measures endorsed in the Political Declaration on Responsible Military Use of AI and Autonomy. | (B) 国家安全保障の文脈において、民主主義の価値観に則り、適用される国際法を遵守した、責任ある倫理的なAIの利用を促進する。 この戦略は、本覚書によって確立された規範と慣行、および「AIの責任ある軍事利用と自治に関する政治宣言」で承認された措置を推進するものとする。 |
Sec. 6. Ensuring Effective Coordination, Execution, and Reporting of AI Policy. | セクション6. AI政策の効果的な調整、実施、報告を確保する。 |
(a) The United States Government must work in a closely coordinated manner to make progress on effective and responsible AI adoption. Given the speed with which AI technology evolves, the United States Government must learn quickly, adapt to emerging strategic developments, adopt new capabilities, and confront novel risks. | (a) 米国政府は、効果的かつ責任あるAIの採用を進展させるため、緊密に連携して取り組まなければならない。 AI技術の進化のスピードを考えると、米国政府は迅速に学習し、新たな戦略的進展に適応し、新たな能力を採用し、新たなリスクに立ち向かわなければならない。 |
(b) Consistent with these goals: | (b) これらの目標に整合する: |
(i) Within 270 days of the date of this memorandum, and annually thereafter for at least the next 5 years, the heads of the Department of State, DOD, Commerce, DOE, ODNI (acting on behalf of the IC), USUN, and USAID shall each submit a report to the President, through the APNSA, that offers a detailed accounting of their activities in response to their taskings in all sections of this memorandum, including this memorandum’s classified annex, and that provides a plan for further action. The Central Intelligence Agency (CIA), NSA, the Defense Intelligence Agency (DIA), and NGA shall submit reports on their activities to ODNI for inclusion in full as an appendix to ODNI’s report regarding IC activities. NGA, NSA, and DIA shall submit their reports as well to DOD for inclusion in full as an appendix to DOD’s report. | (i) 本覚書の日付から270日以内に、またその後少なくとも5年間は毎年、国務省、国防総省、商務省、DOE、ODNI(情報通信研究機構を代行)、USUN、USAIDの各長官は、APNSAを通じて大統領に、本覚書の機密扱いの付属文書を含む本覚書の全セクションの任務に対する活動の詳細な説明と、今後の対応計画を記載した報告書を提出する。 中央情報局(CIA)、NSA、防衛情報局(DIA)、および NGA は、IC 活動に関する ODNI の報告書の附属書として全文を含めるため、ODNI に活動報告書を提出する。 NGA、NSA、および DIA は、DOD の報告書の附属書として全文が含まれるよう、DOD にも報告書を提出するものとする。 |
(ii) Within 45 days of the date of this memorandum, the Chief AI Officers of the Department of State, DOD, DOJ, DOE, DHS, OMB, ODNI, CIA, DIA, NSA, and NGA, as well as appropriate technical staff, shall form an AI National Security Coordination Group (Coordination Group). Any Chief AI Officer of an agency that is a member of the Committee on National Security Systems may also join the Coordination Group as a full member. The Coordination Group shall be co-chaired by the Chief AI Officers of ODNI and DOD. The Coordination Group shall consider ways to harmonize policies relating to the development, accreditation, acquisition, use, and evaluation of AI on NSS. This work could include development of: | (ii) この覚書の日付から45日以内に、国務省、国防総省、司法省、DOE、DHS、OMB、ODNI、CIA、DIA、NSA、NGAのAI最高責任者、および適切な技術職員は、AI国家安全保障調整グループ(調整グループ)を結成する。 国家安全保障システム委員会のメンバーである省庁のAI最高責任者は、フルメンバーとして調整グループに参加することもできる。 調整グループは、ODNIとDODのAI最高責任者が共同議長を務める。 調整グループは、NSSにおけるAIの開発、認定、取得、使用、評価に関する方針を調和させる方法を検討する。 この作業には以下が含まれる: |
(A) Enhanced training and awareness to ensure that agencies prioritize the most effective AI systems, responsibly develop and use AI, and effectively evaluate AI systems; | (A)各省庁が最も効果的なAIシステムを優先し、責任を持ってAIを開発・使用し、AIシステムを効果的に評価できるようにするための意識向上および訓練の強化; |
(B) Best practices to identify and mitigate foreign intelligence risks and human rights considerations associated with AI procurement; | (B)AI調達に関連する対外情報リスクや人権への配慮を特定・軽減するためのベストプラクティス; |
(C) Best practices to ensure interoperability between agency deployments of AI, to include data interoperability and data sharing agreements, as appropriate and consistent with applicable law; | (C)適切かつ適用法に合致している場合、データ相互運用性およびデータ共有契約を含む、省庁間のAI展開の相互運用性を確保するためのベスト・プラクティス; |
(D) A process to maintain, update, and disseminate such trainings and best practices on an ongoing basis; | (D)そのような研修やベストプラクティスを継続的に維持、更新、普及するプロセス; |
(E) AI-related policy initiatives to address regulatory gaps implicated by executive branch-wide policy development processes; and | (E)行政府全体の政策策定プロセスにおける規制のギャップに対処するためのAI関連政策イニシアティブ。 |
(F) An agile process to increase the speed of acquisitions, validation, and delivery of AI capabilities, consistent with applicable law. | (F) AI能力の取得、妥当性確認、提供のスピードを向上させるための、適用法に合致した機動的なプロセス。 |
(iii) Within 90 days of the date of this memorandum, the Coordination Group described in subsection (b)(ii) of this section shall establish a National Security AI Executive Talent Committee (Talent Committee) composed of senior AI officials (or designees) from all agencies in the Coordination Group that wish to participate. The Talent Committee shall work to standardize, prioritize, and address AI talent needs and develop an updated set of Government-wide procedures for attracting, hiring, developing, and retaining AI and AI-enabling talent for national security purposes. The Talent Committee shall designate a representative to serve as a member of the AI and Technology Talent Task Force set forth in Executive Order 14110, helping to identify overlapping needs and address shared challenges in hiring. | (iii) 本覚書の日付から90日以内に、本節(b)(ii)項に記載された調整グループは、参加を希望する調整グループ内の全省庁のAI高官(または被指名者)で構成される国家安全保障AI幹部人材委員会(人材委員会)を設置する。 人材委員会は、AI人材のニーズを標準化、優先順位付け、対処し、国家安全保障を目的とするAIおよびAIを可能にする人材の誘致、雇用、開発、保持のための政府全体の最新手順を策定する。 人材委員会は、大統領令第14110号に定めるAI・技術人材タスクフォースのメンバーとして機能する代表者を指名し、重複するニーズを特定し、雇用における共通の課題に対処するのを支援するものとする。 |
(iv) Within 365 days of the date of this memorandum, and annually thereafter for at least the next 5 years, the Coordination Group described in subsection (b)(ii) of this section shall issue a joint report to the APNSA on consolidation and interoperability of AI efforts and systems for the purposes of national security. | (iv) 本覚書の日付から365日以内に、またその後少なくとも5年間は毎年、本節(b)(ii)項に記載された調整グループは、国家安全保障を目的としたAIの取り組みとシステムの統合と相互運用性に関する共同報告書をAPNSAに提出する。 |
Sec. 7. Definitions. (a) This memorandum uses definitions set forth in section 3 of Executive Order 14110. In addition, for the purposes of this memorandum: | セクション7. 定義 (a) 本覚書は、大統領令第 14110 条第 3 項に定められた定義を使用する。 加えて、本覚書の目的においては、以下の通りである: |
(i) The term “AI safety” means the mechanisms through which individuals and organizations minimize and mitigate the potential for harm to individuals and society that can result from the malicious use, misapplication, failures, accidents, and unintended behavior of AI models; the systems that integrate them; and the ways in which they are used. | (i)「AIの安全性」という用語は、AIモデルの悪意ある使用、誤用、故障、事故、意図しない行動から生じ得る個人と社会への危害の可能性を、個人と組織が最小化し、軽減するメカニズム、それらを統合するシステム、及びそれらの使用方法を意味する。 |
(ii) The term “AI security” means a set of practices to protect AI systems — including training data, models, abilities, and lifecycles — from cyber and physical attacks, thefts, and damage. | (ii)「AIセキュリティ」という用語は、学習データ、モデル、能力、ライフサイクルを含むAIシステムを、サイバー攻撃、物理的攻撃、盗難、損害から保護するための一連の慣行を意味する。 |
(iii) The term “covered agencies” means agencies in the Intelligence Community, as well as all agencies as defined in 44 U.S.C. 3502(1) when they use AI as a component of a National Security System, other than the Executive Office of the President. | (iii) 「対象機関」とは、インテリジェンス・コミュニティの機関、および国家安全保障システムの構成要素としてAIを使用する場合に44 U.S.C.3502(1)に定義されるすべての機関のうち、大統領府を除く機関を意味する。 |
(iv) The term “Critical Technical Artifacts” (CTAs) means information, usually specific to a single model or group of related models that, if possessed by someone other than the model developer, would substantially lower the costs of recreating, attaining, or using the model’s capabilities. Under the technical paradigm dominant in the AI industry today, the model weights of a trained AI system constitute CTAs, as do, in some cases, associated training data and code. Future paradigms may rely on different CTAs. | (iv) 「クリティカル・テクニカル・アーティファクト」(CTAs)という用語は、通常、単一のモデルまたは関連するモデル群に固有の情報であって、モデル開発者以外の者が持っていれば、そのモデルの能力を再現、達成、または使用するコストを大幅に引き下げる情報を意味する。 現在AI業界で主流となっている技術パラダイムの下では、学習済みAIシステムのモデル重み付けがCTAを構成し、場合によっては関連する学習データやコードもCTAを構成する。 将来のパラダイムでは、異なるCTAに依存するかもしれない。 |
(v) The term “frontier AI model” means a general-purpose AI system near the cutting-edge of performance, as measured by widely accepted publicly available benchmarks, or similar assessments of reasoning, science, and overall capabilities. | (v) 「フロンティアAIモデル」とは、広く受け入れられている一般に利用可能なベンチマーク、または推論、科学、総合的能力に関する同様のアセスメントによって測定される、性能の最先端に近い汎用AIシステムを意味する。 |
(vi) The term “Intelligence Community” (IC) has the meaning provided in 50 U.S.C. 3003. | (vi) 「インテリジェンス・コミュニティ」(IC)という用語は、50 U.S.C. 3003に規定される意味を有する。 |
(vii) The term “open-weight model” means a model that has weights that are widely available, typically through public release. | (vii) 「オープン・ウェイト・モデル」とは、一般に公開され、広く利用可能なウェイトを持つモデルをいう。 |
(viii) The term “United States Government” means all agencies as defined in 44 U.S.C. 3502(1). | (viii) 「米国政府」とは、44 U.S.C. 3502(1)に定義されるすべての政府機関をいう。 |
Sec. 8. General Provisions. (a) Nothing in this memorandum shall be construed to impair or otherwise affect: | 第 8 項。 一般規定。 (a) 本覚書のいかなる内容も、これを損なったり、その他の影響を及ぼすものと解釈されてはならない: |
(i) the authority granted by law to an executive department or agency, or the head thereof; or | (i)行政省もしくは行政機関、またはその長に法律で認められた認可、または(ii)局長の職務を損なったり、その他の形で影響を及ぼすものとは解釈されない。 |
(ii) the functions of the Director of the Office of Management and Budget relating to budgetary, administrative, or legislative proposals. | (ii) 予算案、行政案、立法案に関する行政管理予算局長の機能。 |
(b) This memorandum shall be implemented consistent with applicable law and subject to the availability of appropriations. | (b) この覚書は、適用法に従い、充当可能な予算の範囲内で実施される。 |
(c) This memorandum is not intended to, and does not, create any right or benefit, substantive or procedural, enforceable at law or in equity by any party against the United States, its departments, agencies, or entities, its officers, employees, or agents, or any other person. | (c)この覚書は、米国、その省庁、事業体、その役員、職員、代理人、またはその他のいかなる者に対しても、法律上または衡平法上強制可能な、実体的または手続き上の権利または利益を創出することを意図したものではなく、また創出するものでもない。 |
JOSEPH R. BIDEN JR. | ジョセフ・R・ビデン・ジュニア |
・[PDF] FRAMEWORK TO ADVANCE AI GOVERNANCE AND RISK MANAGEMENT IN NATIONAL SECURITY
FRAMEWORK TO ADVANCE AI GOVERNANCE AND RISK MANAGEMENT IN NATIONAL SECURITY | 国家安全保障におけるガバナンスとリスクマネジメントを推進する枠組み |
Table of Contents | 目次 |
Overview | 概要 |
Scope | 範囲 |
Pillar I: AI Use Restrictions | 柱 I: AIの使用制限 |
Prohibited AI Use Cases | 禁止されるAIの使用例 |
High-Impact AI Use Cases | 影響の大きいAIの使用例 |
AI Use Cases Impacting Federal Personnel | 連邦職員に影響を与えるAI使用事例 |
Additional AI Use Restrictions | その他のAI利用制限 |
Pillar II: Minimum Risk Management Practices for High-Impact and Federal | 柱 II: 影響が大きく、連邦職員に影響を与えるAI利用に対する最低限のリスクマネジメント慣行 |
Personnel-Impacting AI Uses | 人員に影響を与えるAIの使用 |
Risk and Impact Assessments and Ensuring Effective Human Oversight | リスクと影響のアセスメントと効果的な人的監視の確保 |
Additional Procedural Safeguards for AI Impacting Federal Personnel | 連邦職員に影響を与えるAIに対する追加的な手続き上の保護措置 |
Waivers | 免責 |
Chief AI Officers | AI最高責任者 |
Pillar III: Cataloguing and Monitoring AI Use | 柱Ⅲ:AI利用の棚卸表作成と監視 |
Inventory | 棚卸表 |
Data Management | データ管理 |
Oversight and Transparency | 監督と透明性 |
Pillar IV: Training and Accountability | 柱IV:訓練と説明責任 |
Overview | 概要 |
AI is one of the most powerful technologies of our time and presents a significant opportunity for innovation to advance U.S. national security. Such innovation must be responsible, lawful, and align with democratic values, including human rights, civil rights, civil liberties, privacy, and safety. The performance of AI systems shall be such that U.S. Government personnel can have trust and confidence in using AI systems, and the use of those systems should not undermine the public’s faith in U.S. national security institutions. The U.S. Government shall use AI systems and employ force informed by AI systems in a manner that complies with all applicable law and policy, including obligations under International Humanitarian Law, Human Rights Law, and the U.S. Government’s existing frameworks for the responsible use of AI. | AIは現代において最も強力なテクノロジーのひとつであり、米国の国家安全保障を向上させるイノベーションの重要な機会を提供している。そのような技術革新は、責任あるものでなければならず、合法的なものでなければならず、人権、市民権、市民的自由、プライバシー、安全を含む民主的価値観に沿ったものでなければならない。AIシステムの性能は、米国政府の職員がAIシステムを使用することに信頼と確信を持てるようなものでなければならず、それらのシステムの使用は、米国の国家安全保障機構に対する国民の信頼を損なうものであってはならない。米国政府は、国際人道法、人権法、およびAIの責任ある使用に関する米国政府の既存の枠組みの下での義務を含め、すべての適用法および政策に準拠する方法で、AIシステムを使用し、AIシステムから情報を得た武力を行使しなければならない。 |
Scope | 適用範囲 |
The Framework to Advance AI Governance and Risk Management in National Security (“AI Framework”) builds on and fulfills the requirements found in Section 4.2 of the National Security Memorandum on Advancing the United States’ Leadership in AI, Harnessing AI to Fulfill National Security Objectives, and Fostering the Safety, Security, and Trustworthiness of AI (“AI NSM”), which directs designated Department Heads to issue guidance to their respective components/sub-agencies to advance governance and risk management practices regarding the use of AI as a component of a National Security System (NSS).[1],[2] This AI Framework is intended to support and enable the U.S. Government to continue taking active steps to uphold human rights, civil rights, civil liberties, privacy, and safety; ensure that AI is used in a manner consistent with the President’s authority as commander-in-chief to decide when to order military operations in the nation’s defense; and ensure that military use of AI capabilities is accountable, including through such use during military operations within a responsible human chain of command and control. AI use in military contexts shall adhere to the principles and measures articulated in the Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy, announced by the United States on November 9, 2023. This AI Framework includes four primary pillars relating to: | 国家安全保障におけるAIのガバナンスとリスクマネジメントを推進する枠組み(以下、「AI枠組み」)は、「AIにおける米国のリーダーシップの推進、国家安全保障目標の達成のためのAIの活用、AIの安全性、セキュリティ、信頼性の育成に関する国家安全保障覚書」(以下、「国家安全保障覚書」)のセクション4. 国家安全保障システム(NSS)の構成要素としてのAIの利用に関して、ガバナンスとリスクマネジメントを推進するためのガイダンスをそれぞれの部門/下位機関に発行するよう、指定された省庁長に指示している。 [1],[2]このAI枠組みは、米国政府が人権、市民権、市民的自由、プライバシー、安全を守るために積極的な措置を取り続けること、国家の防衛のために軍事作戦を命令する時期を決定する最高司令官としての大統領の権限に合致した方法でAIが使用されることを確保すること、責任ある人間の指揮命令系統の中での軍事作戦中の使用を含め、AI能力の軍事的使用が説明責任を果たすことを確保することを支援し、可能にすることを意図している。軍事的文脈におけるAIの使用は、米国が2023年11月9日に発表した「人工知能と自律性の責任ある軍事利用に関する政治宣言」に明示された原則と措置を遵守しなければならない。このAIの枠組みには、以下に関する4つの主要な柱が含まれている: |
1. Identifying prohibited and “high-impact” AI use cases based on risk they pose to national security, international norms, democratic values, human rights, civil rights, civil liberties, privacy, or safety, as well as AI use cases that impact Federal personnel. | 1. 国家安全保障、国際規範、民主的価値、人権、市民権、自由、プライバシー、安全に対するリスクに基づいて、禁止されているAIユースケースと「影響の大きい」AIユースケース、および連邦職員に影響を与えるAIユースケースを識別する。 |
2. Creating sufficiently robust minimum-risk management practices for those categories of AI that are identified as high impact, including pre-deployment risk assessments. | 2. 影響が大きいと識別されたAIのカテゴリーについて、展開前のリスクアセスメントを含め、十分に強固な最低リスクマネジメントを構築する。 |
3. Cataloguing and monitoring high-impact AI use. | 3. 影響度の高いAIの使用をカタログ化し、監視する。 |
4. Ensuring effective training and accountability mechanisms. | 4. 効果的な訓練と説明責任のメカニズムを確保する。 |
The AI Framework is complementary to, but does not otherwise replace or modify, OMB Memorandum M-24-10. All AI use by federal agencies shall be governed by either OMB Memorandum M-24-10 and its successor policies or by this AI Framework. This AI Framework covers AI when it is being used as a component of an NSS.[3] This AI Framework applies to both new and existing AI developed, used, or procured by or on behalf of the U.S. Government, and it applies to system functionality that implements or is reliant on AI, rather than to the entirety of an information system that incorporates AI.[4] | AI枠組みは、OMB覚書M-24-10を補完するものであるが、これを置き換えたり修正したりするものではない。連邦政府機関によるすべてのAI利用は、OMB覚書M-24-10およびその後継方針、またはこのAI枠組みによってガバナンスされなければならない。このAI枠組みは、AIがNSSの構成要素として使用される場合に適用される[3]。このAI枠組みは、米国政府によって、または米国政府のために開発、使用、または調達された新規および既存のAIの両方に適用され、AIを組み込んだ情報システム全体ではなく、AIを実装する、またはAIに依存するシステム機能に適用される[4]。 |
Updates to this AI Framework shall be made pursuant to a National Security Council (NSC) Deputies Committee meeting through the process described in National Security Memorandum-2 of February 4, 2021 (Renewing the National Security Council System). | このAI枠組みの更新は、2021年2月4日の国家安全保障覚書-2(国家安全保障会議システムの更新)に記載されたプロセスを経て、国家安全保障会議(NSC)副委員会の会合に従って行われる。 |
Pillar I: AI Use Restrictions | 柱 I: AI利用の制限 |
Prohibited AI Use Cases | 禁止されるAIの使用事例 |
Covered agencies shall refrain from using AI in any manner that violates domestic or international law obligations and shall not use AI in a manner or for purposes that pose unacceptable levels of risk. Consistent with these goals, covered agencies are prohibited from using AI with the intent or purpose to: | 対象機関は、国内法または国際法の義務に違反する方法でのAIの使用を控えるものとし、許容できないレベルのリスクをもたらす方法または目的でAIを使用してはならない。これらの目的に沿って、対象機関は、以下の意図または目的でAIを使用することを禁止する: |
• Profile, target, or track activities of individuals based solely on their exercise of rights protected under the Constitution and applicable U.S. domestic law, including freedom of expression, association, and assembly rights. | - 表現の自由、結社の自由、集会の権利など、憲法および適用される米国内法に基づき保護される権利の行使のみに基づき、個人のプロファイリング、標的設定、活動追跡を行う。 |
• Unlawfully suppress or burden the right to free speech or right to legal counsel. | - 言論の自由や弁護を受ける権利を不当に抑圧したり、負担を強いる。 |
• Unlawfully disadvantage an individual based on their ethnicity, national origin, race, sex, gender, gender identity, sexual orientation, disability status, or religion. | - 民族、国籍、人種、性別、性自認、性的指向、障害の有無、または宗教に基づき、個人に不当に不利益を与える。 |
• Detect, measure, or infer an individual’s emotional state from data acquired about that person, except for a lawful and justified reason such as for the purposes of supporting the health of consenting U.S. Government personnel. | - 同意した米国政府職員の健康を支援する目的など、合法的かつ正当な理由がある場合を除き、取得した個人データから個人の感情状態を検知、測定、または推論すること。 |
• Infer or determine, relying solely on biometrics data, a person’s religious, ethnic, racial, sexual orientation, disability status, gender identity, or political identity. | - 生体データのみに依拠して、個人の宗教的、民族的、人種的、性的指向、障害状態、性自認、政治的自認を推測または決定すること。 |
• Determine collateral damage and casualty estimations, including identifying the presence of noncombatants, prior to kinetic action without (1) rigorous testing and assurance within the AI systems’ well-defined uses and across their entire lifecycles, and (2) oversight by trained personnel who are responsible for such estimations exercising appropriate levels of judgment and care. | - (1)AIシステムの明確な用途の範囲内で、かつ、そのライフサイクル全体にわたって、厳格なテストと保証を行い、(2)適切なレベルの判断と注意を払いながら、そのような推定に責任を負う訓練を受けた要員による監視を行うことなく、武力行使の前に、非戦闘員の存在を特定することを含め、巻き添え被害と死傷者の推定を決定すること。 |
• Adjudicate or otherwise render a final determination of an individual’s immigration classification, including related to refuge or asylum, or other entry or admission into the United States. | - 難民や亡命、または米国への入国や入所に関連するものを含め、個人の移民分類を裁定し、またはその他の方法で最終決定を下す。 |
• Produce and disseminate reports or intelligence analysis based solely on AI outputs without sufficient warnings that enable the reader of the reports or analysis to recognize that the report or analysis is based solely on AI outputs. | - 報告書や分析の読者が、その報告書や分析がAIの出力のみに基づくものであることを認識できるような十分な警告なしに、AIの出力のみに基づく報告書や情報分析を作成し、普及させる。 |
• Remove a human “in the loop” for actions critical to informing and executing decisions by the President to initiate or terminate nuclear weapons employment. | - 大統領による核兵器使用の開始または中止の決定に重要な情報を与え、実行するための「ループ内の」人間を排除する。 |
High-Impact AI Use Cases | 影響力の大きいAIの使用例 |
Some AI activities in military, intelligence, or broader defense contexts that benefit U.S. national security objectives may simultaneously introduce significant new risks. Risks from the use of AI can arise in the event of AI failure, but can also manifest, for example, from ineffective outputs or if the AI was used in a context for which it was not intended. Such high-impact AI activities require sufficient safeguards to mitigate risk. For the purposes of this AI Framework, high-impact AI uses include AI whose output serves as a principal basis for a decision or action that could exacerbate or create significant risks to national security, international norms, democratic values, human rights, civil rights, civil liberties, privacy, or safety, such as the high-impact activities identified in the non-exhaustive list below. Agencies shall review each existing or planned use of AI to determine whether it matches this definition. Consistent with these goals, AI use is presumed to be high impact if the AI use controls or significantly influences the outcomes of any of the following activities: | 軍事、情報、あるいはより広範な防衛の文脈におけるAIの活動には、米国の国家安全保障目標に利益をもたらすものもあるが、同時に重大なリスクを新たにもたらす可能性もある。AIの使用によるリスクは、AIが故障した場合に発生する可能性があるが、例えば、効果的でない出力や、AIが意図されていない文脈で使用された場合にも顕在化する可能性がある。このような影響力の大きいAI活動には、リスクを軽減するための十分なセーフガードが必要である。このAIの枠組みにおいて、影響度の高いAIの利用とは、そのアウトプットが、国家安全保障、国際規範、民主的価値、人権、市民権、市民的自由、プライバシー、または安全に対する重大なリスクを悪化させたり、生じさせたりする可能性のある意思決定や行動の主要な根拠となるAIを含む。各省庁は、この定義に合致するかどうかを判断するために、既存の、または計画されているAIの利用をそれぞれ見直さなければならない。これらの目標に沿って、AIの利用が以下の活動のいずれかをコントロールする、あるいはその結果に重大な影響を与える場合、AIの利用は影響が大きいと推定される: |
• Tracking or identifying individuals in real time, based solely on biometrics, for military or law enforcement action. | - 軍事行動や法執行行動のために、バイオメトリクスのみに基づいて、リアルタイムで個人を追跡または識別する。 |
• Classifying an individual as a known or suspected terrorist, insider threat, or other national security threat in order to inform decisions or actions that could affect their safety, liberty, employment, immigration status, ability to enter or remain in the United States, or Constitutionally-protected rights and freedoms. | - 個人の安全、自由、雇用、移民状況、米国に入国または滞在する能力、または憲法で保護された権利と自由に影響を及ぼす可能性のある決定や行動に情報を提供するために、個人を既知または疑いのあるテロリスト、内部脅威、またはその他の国家安全保障上の脅威として分類すること。 |
• Determining an individual’s immigration classification, including related to refuge or asylum, or other entry or admission into the United States. | - 避難や亡命、米国への入国や入国に関連するものを含め、個人の移民分類を決定する。 |
• The activities referenced in Appendix I of OMB Memorandum M-24-10, when those activities: | - OMB Memorandum M-24-10の附属書Iで言及されている活動: |
o Occur within the United States; | o 米国内で発生する; |
o Impact U.S. persons; or | o 米国人に影響を与える。 |
o Bear on immigration processes or other entry or admission into the United States. | o 米国への入国手続きまたは入国に影響を及ぼす。 |
• Designing, developing, testing, managing, or decommissioning sensitive chemical or biological, radiological, or nuclear materials, devices, and/or systems (including chemical and biological data sources) that could be at risk of being unintentionally weaponizable. | - 意図せずに兵器化されるリスクのある、機密性の高い化学・生物・放射性・核物質、装置、システム(化学・生物データソースを含む)の設計、開発、テスト、マネジメント、廃止。 |
• Operating or deploying malicious software designed to allow AI to automatically and without human oversight write or rewrite code in a way that risks unintended performance or operation, spread autonomously, or cause physical damage to or disruption of critical infrastructure. | - AIが、意図しない性能や動作をリスクとしたり、自律的に拡散したり、重要インフラに物理的な損害を与えたり混乱させたりするような方法で、人間の監視なしに自動的にコードを書いたり書き換えたりできるように設計された悪意のあるソフトウェアを運用または展開すること。 |
• Using AI as a sole means of producing and disseminating finished intelligence analysis. | - 完成した情報分析を作成・普及させる唯一の手段としてAIを使用すること。 |
AI used in autonomous or semi-autonomous weapon systems are covered by the policies articulated in Department of Defense Directive 3000.09 and successor or related policies. | 自律型または半自律型の兵器システムで使用されるAIは、国防総省指令3000.09および後継または関連する方針に明示された方針の対象となる。 |
AI Use Cases Impacting Federal Personnel | 連邦職員に影響を与える AI の使用事例 |
For the purposes of this AI Framework, Federal personnel-impacting AI use cases include AI whose output serves as a significant basis for a decision or action resulting in a legal, material, binding, or similarly significant effect on individual military service members, individuals in the Federal civilian workforce, or individuals to whom the agency has extended an offer of employment. Agencies shall review each existing or planned use of AI to determine whether it matches this definition. Consistent with these goals, AI is automatically presumed to impact Federal personnel if it is used to control or significantly influence the outcomes of any of the following activities: | 本AI枠組みにおいて、連邦職員に影響を与えるAIのユースケースとは、その出力が、個々の軍属、連邦文民労働者、または機関が雇用の申し出を行った個人に対して、法的、重大、拘束的、または同様に重大な影響をもたらす意思決定または行動の重要な根拠となるAIを含む。各省庁は、この定義に合致するかどうかを判断するために、既存または計画中の AI の利用をそれぞれ見直さなければならない。これらの目標に沿い、AI が以下の活動の結果を管理するため、または大きく影響するために使用される場合、AI は自動的に連邦職員に影響を与えると推定される: |
• Making hiring decisions, including determining pay or benefits packages; | - 給与や福利厚生の決定を含む、雇用の決定; |
• Determining whether to promote, demote, or terminate employees; and | - 従業員の昇進、降格、解雇を決定する。 |
• Determining job performance, physical health, or mental health diagnoses or outcomes for U.S. Government personnel. | - 米国政府職員の職務遂行能力、身体的健康状態、精神的健康状態の診断または結果の決定。 |
Additional AI Use Restrictions | 追加の AI 使用制限 |
Department Heads shall, as needed, add prohibited, high-impact, or Federal personnel-impacting categories of AI – applicable to their components’ missions, authorities, and responsibilities – to these lists.[5] Department Heads shall maintain unclassified public lists of prohibited and high-impact AI categories they have added to these lists, as well as additional categories they have created for additional oversight and safeguards, but these lists may have classified annexes as appropriate to protect classified or controlled information. These lists must be provided to the Assistant to the President for National Security Affairs (APNSA). | 部局長は、必要に応じて、自部局の任務、権限、責任に適用される、禁止され、影響の大きい、または連邦職員に影響を与える AI のカテゴリーを、これらのリストに追加しなければならない[5]。部局長は、これらのリストに追加した禁止され、影響の大きい AI のカテゴリー、および追加的な監視と保護のために作成した追加カテゴリーの非機密公開リストを維持しなければならないが、これらのリストには、機密情報または管理対象情報を保護するために、必要に応じて機密の附属書を添付することができる。これらのリストは、国家安全保障問題担当大統領補佐官(APNSA)にプロバイダされなければならない。 |
Pillar II: Minimum Risk Management Practices for High-Impact and Federal Personnel-Impacting AI Uses | 柱 II: 影響度の高い、連邦職員に影響を与える AI 利用のための最低限のリスクマネジメント慣行 |
Risk and Impact Assessments and Ensuring Effective Human Oversight | リスクと影響のアセスメントと効果的な人的監視の確保 |
High-impact AI use necessitates additional safeguards. The practices in this AI Framework represent a minimum baseline for managing risk from the use of high-impact AI. Covered agencies must, taking into consideration the broad risk factors outlined in section 4.2(c) of the AI NSM, identify additional context-specific risks that are associated with their AI use and address them as appropriate, including by adding minimum risk management practices. All updates to high-impact AI use and associated minimum risk management practices must be provided to the APNSA.[6] | 影響度の高いAIの利用には、さらなる保護措置が必要である。このAIの枠組みにおけるプラクティスは、影響度の高いAIの使用によるリスクをマネジメントするための最低限のベースラインを示すものである。対象機関は、AI NSMの4.2(c)項に概説されている広範なリスク要因を考慮した上で、AIの使用に関連する追加的な状況特有のリスクを特定し、最小限のリスクマネジメントを追加することを含め、適切に対処しなければならない。影響度の高いAIの使用及び関連するリスクマネジメントの最低実施事項のすべての更新は、APNSAにプロバイダされなければならない[6]。 |
Within 180 days of the issuance of this AI Framework, covered agencies shall begin following these practices before using new or existing high-impact AI: | このAIの枠組みが発行されてから180日以内に、対象機関は、新規または既存の影響度の高いAIを使用する前に、これらの慣行に従い始めなければならない: |
• Complete an AI risk and impact assessment, including at least identifying the intended purpose for the AI, its expected benefits, and its potential risks. The AI risk and impact assessment should include: | - 少なくとも、AIの意図する目的、期待される便益、潜在的リスクを特定することを含む、AIのリスク・影響アセスメントを完了する。AIのリスクとインパクトのアセスメントには、以下を含めるべきである: |
o The intended purpose for the AI and its expected benefit, supported by metrics or qualitative analysis, as appropriate. The analysis should demonstrate an expected positive outcome, and it should demonstrate that the AI is better suited to accomplish the relevant task as compared to alternative strategies. | o AIの意図する目的と期待される便益を、適宜、測定基準や定性的分析によって裏づける。分析は、期待される肯定的な結果を示すべきであり、代替戦略と比較して、AIが関連するタスクの達成により適していることを示すべきである。 |
o The potential risks of using the AI, as well as what, if any, additional mitigation measures, beyond these minimum practices, the agency will take to help reduce these risks. Agencies should document and assess the possible failure modes of the AI. The expected benefits of the AI functionality should be considered against its potential risks, and if the benefits do not meaningfully outweigh the unmitigated risks, agencies should not use the AI. | o AIを使用することによる潜在的なリスク、及び、これらのリスクを低減するために、最低限実施すべき事項を超えて、追加的な低減措置がある場合には、その内容。アセスメントは、AIの起こりうる故障モードを文書化し、評価すべきである。AI機能の期待されるベネフィットは、その潜在的リスクと照らし合わせて検討されるべきであり、ベネフィットが未然のリスクを有意に上回らない場合、機関はAIを使用すべきではない。 |
o The quality and appropriateness of the relevant data. Agencies must assess the quality, to the extent practicable, of the data used in the AI’s design, development, training, testing, and operations, and the data’s fitness to the AI’s intended purpose. If a covered agency cannot access the data used to train, evaluate, and operate a given AI system, it must obtain sufficient descriptive information from the AI or data provider. At a minimum, covered agencies must document to the extent practicable: (i) the general provenance and quality of the data for the AI’s intended purpose for commercially-acquired models; (ii) how the data are relevant to the task being automated and are expected to be useful for AI development, testing, and operation; (iii) whether the data are sufficient to address the range of real-world inputs the AI system might encounter; (iv) whether the data come from a reliable source; and (v) how errors caused by the AI will be adequately measured and reasonably limited. | o 関連データの質と適切性。対象機関は、AIの設計、開発、訓練、試験、運用に使用されたデータの質、及びAIの意図された目的に対するデータの適合性を、実務上可能な範囲で評価しなければならない。対象機関が、あるAIシステムの訓練、評価、運用に使用されたデータにアクセスできない場合、AIまたはデータプロバイダから十分な記述情報を入手しなければならない。少なくとも、対象機関は、(i)商業的に入手したモデルについて、AIの意図する目的に対するデータの一般的な出所と品質、(ii)データが自動化されるタスクにどのように関連し、AIの開発、テスト、運用に有用であると期待されるか、(iii)データがAIシステムが遭遇する可能性のある実世界の入力範囲に対処するのに十分であるか、(iv)データが信頼できる情報源から提供されたものか、(v)AIによって引き起こされるエラーがどのように適切に測定され、合理的に制限されるか、を実務上可能な範囲で文書化しなければならない。 |
• Test the AI system sufficiently in a realistic context to confirm it will perform as intended, achieve its expected benefits, and that the associated risks will be sufficiently mitigated once deployed, or else the agency should not use the AI system. Agencies are encouraged to leverage pilots and limited releases, with strong monitoring, evaluation, and safeguards in place, to carry out the final stages of testing before a wider release. | - AIシステムを現実的な状況で十分にテストし、それが意図したとおりに実行され、期待される利益を達成し、関連するリスクが展開後に十分に低減されることを確認する。各省庁は、試験運用や限定的なリリースを活用し、強力なモニタリング、評価、セーフガードを実施することで、より広範なリリースに先立ち、最終段階のテストを実施することが奨励される。 |
• To the extent practicable, and through an independent reviewing authority not directly involved in the system’s development, conduct an evaluation specific to the intended purpose and planned deployment of the AI system and make the evaluation available to the AI Governance Board or equivalent. Qualified personnel could include the Chief AI Officer or other agency officials with test and evaluation responsibilities. | - 可能な限り、システムの開発に直接関与していない独立した認可機関を通じて、AIシステムの意図された目的と計画された展開に特化した評価を実施し、その評価をAIガバナンス委員会または同等の機関が利用できるようにする。有資格者には,AI最高責任者又は試験及び評価の責任を有する他の機関職員が含まれ得る。 |
• Identify and mitigate factors that may contribute to unlawful discrimination or harmful bias, including through determining whether the AI model results in significant disparities in the model’s performance (such as accuracy, precision, and reliability in predicting outcomes) across demographic groups if applicable. | - AIモデルが、該当する場合、人口統計学的集団間でモデルの性能(結果を予測する際の精度、正確性、信頼性など)に著しい格差をもたらすかどうかを判断することを含め、違法な識別的又は有害なバイアスの原因となり得る要因を特定し、低減する。 |
• Develop processes, including training, to mitigate the risk of overreliance on AI systems (such as “automation bias” or other human factor considerations that may result in insufficient human decision-making). | - AIシステムに過度に依存するリスク(「自動化バイアス」や、人間による意思決定が不十分となる可能性のあるその他の人的要因への配慮など)を軽減するための、訓練を含むプロセスを開発する。 |
• Train and assess the AI system’s operators, who must have, at a minimum, appropriate training on the specific AI use case, product, or service, including its limitations, risks, and expected modes of failure, as well as a general knowledge of how the AI system functions in its deployment context. | - AIシステムのオペレータを訓練し、アセスメントする。オペレータは、最低限、特定のAIユースケース、製品、またはサービス(その限界、リスク、予想される故障モードを含む)に関する適切な訓練を受けなければならず、また、AIシステムがその展開状況においてどのように機能するかについての一般的な知識を有していなければならない。 |
• Ensure appropriate human consideration and/or oversight of AI-based decisions or actions, including by establishing clear human accountability for such decisions and actions and maintaining appropriate processes for escalation and senior-leadership approval. | - AIに基づく意思決定や行動に対する人間の説明責任を明確にし、エスカレーションや上級管理職の承認のための適切なプロセスを維持することを含め、AIに基づく意思決定や行動に対する人間の適切な配慮や監視を確保する。 |
• Maintain appropriate processes and protections for AI operators or other personnel to report unsafe, anomalous, inappropriate, or prohibited uses to the appropriate agency channels. | - AIのオペレータまたはその他の要員が、安全でない、異常である、不適切である、または禁止されている使用を、適切な機関のチャンネルに報告するための適切なプロセスと防御を維持する。 |
• Regularly monitor and test the operation, efficacy, and risks of the AI, as well as whether current risk mitigation measures are sufficient, and make these assessments available to the AI system’s operators. | - AIの運用、有効性及びリスク、並びに現在のリスク低減措置が十分かどうかを定期的に監視及びテストし、これらのアセスメントをAIシステムのオペレータが利用できるようにする。 |
• Conduct periodic human reviews at appropriate intervals to assess changes to the context, risks, benefits, and agency needs related to the AI. | - 適切な間隔で定期的に人的レビューを実施し、AIに関連する状況、リスク、便益、機関のニーズの変化をアセスメントする。 |
• Mitigate as appropriate emerging risks from the AI that are identified through monitoring, reviews, or other mechanisms. | - モニタリング、レビュー、その他のメカニズムを通じて特定されたAIによる新たなリスクを適宜低減する。 |
• Maintain appropriate processes for internal escalation and senior-leadership approval for uses of AI that pose significant degrees of risks enumerated in the AI NSM and this AI Framework, or alternatively that could harm the reputation or foreign policy interests of the United States or significantly affect international norms of behavior as determined by agency leadership. | - AI NSM およびこの AI の枠組みに列挙されているリスクのうち、重大なものをもたらす AI の使用、あるいは、米国の評判や外交政策上の利益を害する可能性のあるもの、あるいは、省庁の指導部が決定した国際的な行動規範に重大な影響を与える可能性のあるものについては、内部へのエスカレーションおよび上級指導部の承認のための適切なプロセスを維持する。 |
Agencies are encouraged to apply these minimum risk management practices, and other risk management practices as relevant and applicable, to AI use cases that are not categorized as high impact, to the extent practicable and appropriate. | 各省庁は、影響が大きいと分類されないAIのユースケースについて、実行可能かつ適切な範囲で、これらの最低限のリスクマネジメント、および関連し適用可能なその他のリスクマネジメントを適用することが奨励される。 |
Additional Procedural Safeguards for AI Impacting Federal Personnel | 連邦職員に影響を与えるAIに対する追加的な手続き上の保護措置 |
Within 180 days of the issuance of this AI Framework, covered agencies shall ensure these practices, in addition to those practices required for high-impact AI, are followed for AI that impacts Federal personnel as described in Pillar 1(c): | 本AI枠組みが発行されてから180日以内に、対象機関は、影響度の高いAIに求められる慣行に加え、柱1(c)に記載されているように、連邦職員に影響を与えるAIについて、以下の慣行が遵守されていることを確認しなければならない: |
• Consult and incorporate feedback from the workforce and their representatives in the design, development, and ongoing use of AI that affects them, as appropriate. | - 従業員に影響を与えるAIの設計、開発、および継続的な使用において、適宜、従業員およびその代表者に相談し、フィードバックを取り入れる。 |
• Notify individuals and obtain consent from individuals on the use of AI that affects them, as appropriate. | - 個人に影響を与えるAIの使用について、適宜、個人に通知し、個人から同意を得る。 |
• Notify individuals when the AI was used to inform an adverse employment-related decision or action that specifically concerns them, such as medical diagnosis, eligibility for employment, or access to classified information, as consistent with applicable law, regulation, and policy. | - 適用法,規則及び方針に従って,医学的診断,雇用の適格性,又は機密情報へのアクセスなど,特に個人に関係する雇用関連の不利な決定又は措置の通知にAIが使用された場合,個人に通知する。 |
• Provide timely human consideration and potential remedy to the use of AI through a fallback and escalation system in the event that an impacted individual would like to appeal or dispute the decision informed by AI, where practicable and consistent with applicable law. | - 影響を受けた個人が、AIによって通知された決定について不服申し立てや異議申し立てを希望する場合、適用法と矛盾しない限り、フォールバックおよびエスカレーションシステムを通じて、AIの使用についてタイムリーな人的配慮と救済の可能性をプロバイダに提供する。 |
Waivers | 権利放棄 |
Chief AI Officers, in consultation with the respective agency’s civil liberties and privacy officers or other relevant agency officials, may waive – for a period of time not to exceed one year, but that may be renewed – one or more of the minimum-risk management practices for a specific AI application or component after making a written determination, based on a system-specific and context-specific risk assessment, that fulfilling the minimum practice would increase risks to privacy, civil liberties, or safety, or would create an unacceptable impediment to critical agency operations or exceptionally grave damage to national security. | 国家安全保障局(Chief AI Officer)は、各省庁の市民的自由及びプライバシー担当官、又はその他の関連省庁の職員と協議の上、システム固有及び文脈固有のリスクアセスメントに基づき、最低限の慣行を履行することがプライバシー、市民的自由、又は安全に対するリスクを増大させるか、又は省庁の重要な業務に容認できない支障を生じさせるか、若しくは国家安全保障に例外的に重大な損害を与えるとの書面による決定を行った後、特定のAIアプリケーション又はコンポーネントについて、1年を超えない期間(ただし、更新することができる)、1つ又は複数の最低限のリスクマネジメント慣行を放棄することができる。 |
Chief AI Officers: | AI最高責任者: |
• May revoke a previously issued waiver at any time. | - 過去に発行された権利放棄をいつでも取り消すことができる。 |
• Must centrally track such waivers. | - そのような権利放棄を一元的に追跡しなければならない。 |
• May not delegate authority to grant waivers. | - 権利放棄の認可を委任してはならない。 |
• Must report to agency leadership immediately, and to the Department Head and APNSA within three days, upon granting or revoking any waiver, detailing the scope, justification, and supporting evidence.[7] | - 権利放棄を許可または取り消した場合、その範囲、正当な理由、裏付けとなる証拠を詳述し、直ちに省庁の指導部に報告し、3日以内に省庁の長とAPNSAに報告しなければならない[7]。 |
• Must reassess each waiver if there is a significant change to the conditions or context in which the AI is used. | - AIが使用される条件や状況に重大な変更があった場合、各免除を再評価しなければならない。 |
• Must annually review all waivers granted and determine whether to reauthorize each waiver. | - 付与されたすべての権利放棄を毎年見直し、それぞれの権利放棄を再承認するかどうかを決定しなければならない。 |
Civil liberties and privacy officers, in coordination with relevant agency officials, must include all waivers, detailing the scope, justification, and supporting evidence, in their annual reporting per Public Law No. 110-53 consistent with appropriate protection of sources and methods. | 市民的自由およびプライバシー担当官は、関係省庁の職員と連携して、情報源および方法の適切な保護と矛盾しないように、公法110-53号による年次報告の中に、範囲、正当化理由、裏付け証拠を詳述したすべての権利放棄を含めなければならない。 |
The Secretary of Defense on behalf of the Department of Defense, the Director of National Intelligence on behalf of the Intelligence Community, and other Department Heads, as appropriate, shall publish annually an unclassified report of the total number of waivers in their respective elements or components and how many are currently active. | 国防総省を代表する国防長官、インテリジェンス・コミュニティを代表する国家情報長官、およびその他の省庁の長官は、必要に応じて、それぞれの部門または構成単位における権利放棄の総数、および現在有効な権利放棄の数について、機密扱いでない報告書を毎年公表しなければならない。 |
Pillar III: Cataloguing and Monitoring AI Use | 柱 III:AI使用の棚卸表作成と監視 |
Inventory | 棚卸表 |
Covered agencies shall conduct an annual inventory of their high-impact AI use cases, including those operating under waivers, and shall report the inventory to the APNSA. The inventory shall include at least a description of each included AI use case, its purpose and intended benefits, and the risks that such use poses and how the agency is managing those risks. Department Heads will periodically issue and update detailed instructions on the scope, timing, mechanism, and contents of the inventory. | 対象機関は、権利放棄の下で運用されているものを含め、影響度の高いAIユースケースの棚卸表を毎年作成し、APNSAに報告する。インベントリには、少なくとも、含まれる各AIユースケースの説明、その目的と意図される便益、当該ユースケースがもたらすリスクとそのリスクマネジメント方法を含めなければならない。部局長は、棚卸表の範囲、時期、仕組み、内容に関する詳細な指示を定期的に出し、更新する。 |
Data Management | データ管理 |
Within 270 days of the issuance of this AI Framework, Department Heads shall establish or update existing data management policies and procedures – including reviewing data retention policies and procedures – prioritizing enterprise applications and accounting for the unique attributes of AI systems, with special consideration for high-impact uses of AI systems identified in this AI Framework. Department Heads shall continuously evaluate data management policies and procedures to ensure they enable responsible AI use. These updates should address at a minimum, but not be limited to, the following topics: | 本AI枠組みが発行されてから270日以内に、部局長は、エンタープライズ・アプリケーションに優先順位をつけ、本AI枠組みで特定されたAIシステムの影響度の高い利用については特に考慮した上で、AIシステム特有の特性を考慮した上で、データ保持方針及び手順の見直しを含め、既存のデータ管理方針及び手順を策定又は更新しなければならない。部局長は、責任あるAI利用を可能にするため、データ管理方針と手順を継続的に評価する。これらの更新は、少なくとも以下のトピックに取り組むべきであるが、これに限定されるものではない: |
• Evaluating AI training data for robustness, representativeness, and reasonably foreseeable instances of harmful bias in the context of expected AI use cases. | - 予想されるAIの使用事例に照らして、AIの訓練データの堅牢性、代表者性、有害なバイアスの合理的に予見可能な事例を評価する。 |
• Recommending best practices and standardization for training data, prompts, and reviewing the quality and reliability of data post deployment. | - 訓練データ、プロンプトのベストプラクティスと標準化を推奨し、展開後のデータの品質と信頼性をレビューする。 |
• Handling – including documentation, management, and retention of – AI models that may have utility beyond the proximate basis for collection or are trained on information subsequently found to be inaccurate, improperly obtained, or too sensitive. | - 文書化、管理、保管を含む、収集の近接した根拠を超えた有用性を持つ可能性のあるAIモデルや、不正確、不適切な入手、または機密性が高すぎることが後に判明した情報を基に訓練されたAIの取り扱い。 |
• Guidelines for using AI to make automated determinations related to mission-critical decisions. | - ミッション・クリティカルな意思決定に関連する自動判断を行うためにAIを使用するためのガイドライン。 |
• Guidelines for using AI in such a way that protects civil liberties, privacy, and human rights, including with regard to collection and retention of data used in AI training, as appropriate. | - AIの訓練に使用されるデータの収集・保持を含め、市民の自由、プライバシー、人権を保護するような方法でAIを使用するためのガイドライン。 |
• Standards for AI evaluations and auditing. | - AIの評価と監査の標準。 |
• Relevant directives from the National Manager for NSS to mitigate cybersecurity risks. | - サイバーセキュリティのリスクを軽減するためのNSSのナショナル・マネージャーからの関連指令。 |
Oversight and Transparency | 監督と透明性 |
Within 60 days of the issuance of this AI Framework, covered agencies shall appoint a Chief AI Officer if one does not already exist. The Chief AI Officer shall have the necessary skills, knowledge, training, expertise, and authority to perform the following actions with regard to AI, in addition to the responsibilities already established in section 6702(b) of the Fiscal Year 2023 National Defense Authorization Act; section 10.1(b) of E.O. 14110; section 8(c) of E.O. 13960; section 3(b) of E.O. 14091; and section 3(b) of OMB Memorandum M-24-10, as practicable: | このAI枠組みが発行されてから60日以内に、対象機関は、AI最高責任者がまだ存在しない場合には、AI最高責任者を任命しなければならない。AI最高責任者は、2023会計年度国防認可法第6702条(b)、E.O.14110の第10.1条(b)、E.O.13960の第8条(c)、E.O.14091の第3条(b)、OMB覚書M-24-10の第3条(b)で既に定められている責務に加え、AIに関して以下の行為を行うために必要な技能、知識、訓練、専門知識、権限を、可能な限り有するものとする: |
• Serve as the senior advisor for AI to the head of the agency and other senior agency leadership and within their agency’s senior decision-making forums. | - 政府機関の長、その他の政府機関の上級幹部、及び政府機関の上級意思決定フォーラムの中で、AI の上級顧問を務める。 |
• Institute the requisite governance and oversight processes to achieve compliance with the AI NSM and this AI Framework, and enable responsible use of AI in the agency, in coordination with relevant agency officials. | - AI NSM及び本AI枠組みへの準拠を達成し、当該省庁におけるAIの責任ある利用を可能にするために必要なガバナンス及び監督プロセスを、関係省庁職員と連携して導入する。 |
• Maintain awareness of agency AI activities, including through the creation and maintenance of the annual high-impact AI use case inventory. | - 影響度の高いAIの年次使用事例棚卸表の作成・保守を含め、省庁のAI活動に対する認識を維持する。 |
• Work with relevant agency officials on the resourcing requirements necessary to implement the AI NSM and this AI Framework and provide recommendations on priority investment areas to build upon existing enterprise capacity. | - AI NSMとこのAI枠組みを実施するために必要な人材要件について、関係省庁職員と協力し、既存のエンタープライズ能力を基礎とする優先投資分野に関する勧告を行う。 |
• Advise relevant officials on improving workforce capacity and securing and maintaining the skillsets necessary for using AI to further the agency’s mission and adequately manage its risks. | - 省庁のミッションを推進し、リスクを適切に管理するためにAIを活用するために必要な労働力の能力改善、スキルセットの確保・維持について、関係当局に助言する。 |
• Share relevant information with agency officials involved in the agency’s major AI policymaking initiatives. | - 省庁の主要なAI政策立案イニシアティブに関与する省庁職員と関連情報を共有する。 |
• Support agency involvement with appropriate interagency coordination bodies related to their agency’s AI activities. | - 自省のAI活動に関連する適切な省庁間調整団体への自省の関与を支援する。 |
• Support and coordinate their agency’s involvement in AI standards-setting bodies, as appropriate. | - 必要に応じて、AI標準設定団体への当該機関の関与を支援・調整する。 |
• Promote equity and inclusion within the agency’s AI governance structures and incorporate diverse perspectives into decision-making processes. | - 政府のAIガバナンス構造における公平性と包摂を推進し、意思決定プロセスに多様な視点を取り入れる。 |
• Work with their agency to identify and prioritize appropriate uses of AI that will advance both their agency’s mission and equitable outcomes. | - 所属機関と協力して、所属機関の使命と衡平な成果の両方を促進するAIの適切な利用法を特定し、優先順位をつける。 |
• Identify and remove barriers, as appropriate, to the responsible use of AI in the agency, including through the advancement of AI-enabling enterprise infrastructure, data access and governance, workforce development measures, policy, and other resources for AI innovation. | - AIを可能にするエンタープライズ・インフラ、データ・アクセスとガバナンス、人材育成策、政策、AIイノベーションのためのその他のリソースの推進を含め、当該機関におけるAIの責任ある利用に対する障壁を特定し、適宜取り除く。 |
• Advocate within their agency and to the public, as appropriate, on the opportunities and benefits of AI to the agency’s mission. | - 当該省庁のミッションに対するAIの機会と利益について、適宜、当該省庁内および一般市民に対して提言する。 |
• Work with relevant senior agency officials to establish or update processes to measure, monitor, and evaluate the ongoing performance and effectiveness of the agency’s AI applications and whether the AI is advancing the agency’s mission and meeting performance objectives. | - 関係省庁の上級職員と協力して、省庁のAIアプリケーションの継続的なパフォーマンスと有効性、およびAIが省庁の使命を推進し、パフォーマンス目標を達成しているかどうかを測定、監視、評価するプロセスを確立または更新する。 |
• Oversee agency compliance with requirements to manage risks from the agency’s use of AI, including those established in the AI NSM and this AI Framework, and in relevant law and policy. | - AI NSM やこの AI の枠組み、関連する法律や政策に定められているものを含め、省庁による AI の利用から生じるリスクをマネジメントするための要件の遵守を監督する。 |
• Conduct risk assessments, as necessary, of the agency’s AI applications to ensure compliance with the AI NSM and this AI Framework. | - 必要に応じて、省庁のAIアプリケーションのリスクアセスメントを実施し、AI NSMおよび本AI枠組みへの準拠を確保する。 |
• Work with relevant agency officials to develop supplementary AI risk management guidance particular to the agency’s mission, in coordination with officials responsible for civil liberties, privacy, and safety. | - 関連省庁の職員と協力し、市民的自由、プライバシー、安全を担当する職員と連携して、当該省庁のミッションに特化したAIリスクマネジメントの補足ガイダンスを作成する。 |
• In partnership with relevant agency officials, establish controls to ensure that their agency only uses AI that is in compliance with the AI NSM and this AI Framework. | - 関係省庁の職員と連携して、AI NSMと本AI枠組みを遵守したAIのみを当該省庁が使用することを確保するための管理を確立する。 |
• Provide guidance on prioritizing appropriate and responsible acquisition, deployment, use, decommissioning, and governance of AI to advance the agency’s mission, including guidance related to budget and resources for AI, in coordination with relevant agency officials (such as privacy and civil liberties, authorizing, acquisition, legal, data governance, human capital, and oversight officials). | - 関連省庁の職員(プライバシー・自由、認可、取得、法務、データ・ガバナンス、人的資本、監督職員など)と連携して、AI の予算やリソースに関するガイダンスを含め、省庁の使命を推進するために、AIの適切かつ責任ある取得、展開、使用、廃止、ガバナンスの優先順位付けに関するガイダンスを提供する。 |
Within 60 days of the issuance of this AI Framework, covered agencies shall establish an AI Governance Board if one does not already exist, composed of relevant senior officials to govern the agency’s use of AI, including assessing and, when appropriate, removing or mitigating barriers to the development and use of AI and managing its associated risks. Agencies are permitted to rely on existing relevant agency-specific policy and requirements for governance or review bodies to fulfill this requirement, including those that are directed by E.O. 14110 and | このAI枠組みが発行されてから60日以内に、対象機関は、AIの開発・利用に対する障壁をアセスメントし、適切な場合には除去・低減し、関連するリスクをマネジメントすることを含め、当該機関のAI利用を統治するために、関連する高官で構成されるAIガバナンス委員会を、まだ存在しない場合には設置しなければならない。政府は、この要件を満たすために、E.O.14110 や OMB Memorandum M-2-2が指示するものを含め、ガバナンスやレビュー団体に関する既存の関連省庁固有の政策や要件に依拠することが認められている。 |
OMB Memorandum M-24-10. | OMB Memorandum M-24-10によって指示されたものを含む。 |
AI Governance Boards must: | AIガバナンス委員会は、以下の要件を満たさなければならない: |
• Be chaired by the Chief AI Officer or an appropriate official designated by the Chief AI Officer. The full Board must convene as frequently as necessary to evaluate, on a continual basis, that AI is performing as intended. | - AI最高責任者またはAI最高責任者が指名する適切な職員が議長を務める。理事会は、AIが意図したとおりに機能しているかどうかを継続的に評価するために、必要な頻度で開催されなければならない。 |
• Include appropriate representation from senior agency officials responsible for enabling AI adoption and risk management, including at least those for information technology, cybersecurity, data, privacy and civil liberties, acquisition, budget, legal, and officials representing the agency’s core mission function to which the AI will contribute. In each covered agency, the head of the agency shall designate appropriate officials to provide oversight of the agency’s AI activities within the scope of authorized duties of such officials, reporting directly to the head of the agency or the principal deputy. Roles with existing oversight functions will conduct those functions according to existing statutory authorities, such as the Privacy and Civil Liberties Officers providing oversight responsibilities as required by 42 U.S.C. Section 2000ee-1 – Privacy and civil liberties officers. At a minimum, covered agencies must have officials responsible for oversight of privacy, civil liberties, transparency, safety, and other issues related to agency AI use. The following responsibilities and tasks should be considered for officials assigned to conduct such oversight: | - 少なくとも、情報技術、サイバーセキュリティ、データ・プライバシー、プライバシー・自由、取得、予算、法務、およびAIが貢献する省庁の中核的ミッション機能の代表者を含む、AIの導入とリスクマネジメントを可能にする責任を負う省庁の上級職員からの適切な代表者を含める。対象となる各機関において、当該機関の長は、当該機関のAI活動を認可された職務の範囲内で監督する適切な職員を指名し、当該機関の長又は主席副官に直接報告する。既存の監督機能を持つ役割は、42 U.S.C. Section 2000ee-1 - Privacy and civil liberties officers(プライバシーおよび市民的自由担当官)により要求される監督責任を提供するプライバシーおよび市民的自由担当官など、既存の法定権限に従ってその機能を実施する。少なくとも、対象機関は、プライバシー、市民的自由、透明性、安全性、および機関のAI使用に関連するその他の問題の監督を担当する職員を置かなければならない。そのような監督を行うために任命された職員については、以下の責任とタスクを考慮すべきである: |
• Advise agency leadership, Chief AI Officers, and other relevant officials on managing risks posed by AI systems used by the agency to privacy, civil liberties, transparency, safety, and other issues determined by agency leadership. | - プライバシー、市民的自由、透明性、安全性、および省庁の指導部が決定するその他の問題に対して、省庁が使用するAIシステムがもたらすリスクのマネジメントについて、省庁の指導部、AI最高責任者、およびその他の関連する職員に助言する。 |
• Develop standardized documentation for AI activities and compliance, including documentation for oversight purposes. | - AI活動およびコンプライアンスに関する標準文書を作成する。 |
• Receive, review, and assess incidents of misuse identified through monitoring and evaluation of AI systems. | - AIシステムの監視と評価を通じて特定された不正使用のインシデントを受け取り、レビューし、評価する。 |
• Seek and consider feedback from relevant stakeholders, including civil society, technologists, academics, the private sector, and impacted communities, as appropriate. | - 適宜、市民社会、技術者、学者、民間セクター、影響を受ける地域社会を含む関係ステークホルダーからのフィードバックを求め、検討する。 |
• Report misuse identified through monitoring and evaluation of AI use – performed by the privacy and civil liberties officer or equivalent official and leveraging existing relevant processes where practicable – to their respective agency leadership, the Chief AI Officer, the Secretary of Defense, and the Director of National Intelligence, as applicable, and to the APNSA, as appropriate. | - プライバシー・市民的自由担当官またはこれに相当する職員が実施し、可能であれば既存の関連プロセスを活用する)AI利用の監視・評価を通じて特定された不正利用を、それぞれの機関の指導部、AI最高責任者、国防長官、国家情報長官(該当する場合)、およびAPNSA(該当する場合)に報告する。 |
• Ensure that the agency has adequate procedures to receive, investigate, respond to, and redress complaints about the agency’s use of AI, to include procedures to receive complaints anonymously, when appropriate. | - 適切な場合には匿名で苦情を受け付ける手続を含め、当該省庁の AI の使用に関する苦情を受理し、調査し、対応し、是正するための適切な手続を当該省庁が有していることを確認する。 |
• Perform responsibilities confidentially, when appropriate, so that agency personnel may raise concerns without fear of reprisal; confidentiality, however, shall not extend to significant misconduct, to include violations of law or government ethics, or when otherwise precluded by law. | - 適切な場合には、省庁の職員が報復を恐れることなく懸念を表明できるよう、機密を保持した上でガバナンスを行う。ただし、機密保持は、法律や政府倫理に違反するような重大な違法行為、または法律で除外されている場合には、適用されない。 |
• Document AI misuse, AI incidents, and lessons learned. | - AI の誤用、AI インシデント、および教訓を文書化する。 |
Transparency is essential to earning and retaining public trust. Consistent with this goal, the privacy and civil liberties officer or other relevant oversight official shall periodically, but not less frequently than annually, submit a report on their activities associated with AI oversight, including, for example, evaluations of risk management processes. The report shall be delivered to, at a minimum, the head of the agency. It shall: | 透明性は、国民の信頼を獲得し維持するために不可欠である。この目標に沿い、プライバシー・市民的自由担当官またはその他の関連する監督当局は、定期的(ただし年1回を下回らない頻度)に、例えばリスクマネジメント・プロセスの評価を含め、AIの監督に関連する活動に関する報告書を提出しなければならない。報告書は、最低限、省庁の長に提出されなければならない。報告書は、以下のとおりとする: |
• Be in unclassified form to the greatest extent practicable, with a classified annex when necessary. | - 可能な限り非機密扱いとし、必要に応じて機密扱いの附属書を添付すること。 |
• Integrate into existing reporting requirements on privacy and civil liberties, such as Section 803 of the Implementing Recommendations of the 9/11 Commission Act of 2007 (Public Law No. 110-53), as applicable, for issues related to privacy and civil liberties. | - プライバシーおよび市民的自由に関する既存の報告要件、例えばプライバシーおよび市民的自由に関連する問題については、適用法として2007年9/11委員会勧告実施法(公法第110-53号)の第803条に統合すること。 |
• Be made available to the public to the greatest extent that is consistent with the protection of classified or controlled information, and applicable law. | - 機密または管理された情報の保護および適用法と矛盾しない最大限の範囲で、一般に公開される。 |
Department Heads shall ensure that relevant oversight officials have sufficient information, expertise, training, and adequate funding to effectively carry out these functions. | 部局長は、関連する監督当局がこれらの機能を効果的に遂行するために十分な情報、専門知識、訓練、および十分な資金を有することを確保しなければならない。 |
Pillar IV: Training and Accountability | 柱 IV:訓練と説明責任 |
Covered agencies shall establish standardized training requirements and guidelines for the workforce on the responsible use and development of AI, including AI training for privacy and civil liberties officers, risk management training for officials responsible for deciding to deploy or develop AI systems, and relevant training for AI developers, operators, users, supervisors, and consumers of AI outputs. | 対象省庁は、プライバシー及び市民的自由の担当官に対するAI研修、AIシステムの展開又は開発を決定する責任を有する職員に対するリスクマネジメント研修、AI開発者、運用者、利用者、監督者、及びAIアウトプットの消費者に対する関連研修など、AIの責任ある利用及び開発に関する標準的な研修要件及びガイドラインを従業員向けに策定しなければならない。 |
Covered agencies shall update their policies and procedures, as needed, to ensure adequate accountability for those involved in the development, deployment, and use of AI. No AI systems should be deployed or used without adequate applicable policies and procedures in place, such as approvals by appropriate officials, to enable adequate accountability. Updated policies shall: | 対象機関は、AIの開発、展開、使用に携わる者の十分な説明責任を確保するため、必要に応じて方針と手続きを更新しなければならない。適切なアカウンタビリティを可能にするために、適切な職員による承認など、適切な適用方針及び手続がないまま、AIシステムを展開又は使用すべきではない。更新された方針は、以下のとおりとする: |
• Identify who in the AI lifecycle assesses risks associated with the use of AI, including, but not limited to, information technology-, legal-, policy-, security-, privacy-, civil liberties-, and safety-related risks. | - AIのライフサイクルにおいて、情報技術、法律、政策、セキュリティ、プライバシー、自由、安全に関連するリスクを含むがこれらに限定されない、AIの使用に関連するリスクを誰がアセスメントするのかを識別する。 |
• Establish appropriate mechanisms to hold relevant personnel, including AI developers, operators, and users, accountable for their contributions to and use of AI system decisions and action. | - AIの開発者、運用者、利用者を含む関係者が、AIシステムの決定や行動への貢献や利用について説明責任を果たすための適切なメカニズムを確立する。 |
• Require appropriate documentation and reporting, including as directed in this AI Framework. | - このAI枠組みで指示されていることを含め、適切な文書化と報告を義務付ける。 |
• Provide processes for reporting incidents of AI misuse, investigations of reported incidents, and processes for taking corrective actions. | - AIの不正使用のインシデントを報告するプロセス、報告されたインシデントの調査、是正措置をとるプロセスを提供する。 |
Agencies shall update whistleblower protections as appropriate to clarify procedures for AI systems, which shall ensure that all personnel who use AI as a component of NSS or otherwise for military and intelligence purposes can report concerns about AI improperly harming civil liberties, privacy, and safety to relevant oversight officials. | 各省庁は、内部告発者保護を適宜更新し、AIシステムに関する手続きを明確にする。これにより、NSSの構成要素として、あるいはそれ以外の軍事・諜報目的でAIを使用するすべての職員が、AIが市民の自由、プライバシー、安全を不当に害しているという懸念を、関連する監督当局に報告できるようにする。 |
[1] In the AI NSM, covered Department Heads include the Secretary of Defense, Director of National Intelligence, Attorney General, Secretary of Homeland Security, Secretary of Energy, Secretary of State, Secretary of Treasury, Secretary of Commerce, and any other Department Head of a covered agency that uses AI as part of a National Security System. | [1] AI NSMにおいて、対象となる省庁の長には、国防長官、国家情報長官、司法長官、国土安全保障省長官、エネルギー省長官、国務長官、財務長官、商務長官、および国家安全保障システムの一部としてAIを使用する対象となる省庁のその他の長が含まれる。 |
[2] This AI Framework is not intended to, and does not, create any right or benefit, substantive or procedural, enforceable at law or in equity by any party against the United States, its departments, agencies, or entities, its officers, employees, or agents, or any other person. | [2] 本AI枠組みは、米国、その省庁、事業体、その役員、職員、代理人、その他いかなる者に対しても、法律上または衡平法上執行可能な、実質的または手続き上の権利または利益を創出することを意図しておらず、また創出しない。 |
[3] As defined in 44 U.S.C. § 3552(b)(6). | [3] 44 U.S.C. § 3552(b)(6)で定義されている。 |
[4] This AI Framework does not govern: (i) regulatory actions designed to prescribe law or policy regarding non-agency uses of AI; (ii) evaluations of particular AI-enabled applications when the AI provider is the target or potential target of a regulatory enforcement, law enforcement, or national security action; (iii) development of metrics, methods, and standards to test and measure AI, where such metrics, methods, and standards are for use by the general public or the government as a whole, rather than to test AI for a particular agency application; (iv) use of AI to carry out basic research or applied research, except where the purpose of such research is to develop particular AI applications within the agency; (v) evaluation of a potential vendor, commercial capability, or freely available AI capability that is not otherwise used in agency operations, exclusively for the purpose of making a procurement or acquisition decision; or (vi) use of AI in controlled testing conditions to carry out the minimum testing requirements. | [4] 本AI枠組みは、以下を規定するものではない: (i) AI の非官庁的使用に関する法律または政策を規定することを目的とする規制措置、(ii) AI プロバイダが規制執行、法執行、または国家安全保障措置の対象または対象となる可能性がある場合の、特定の AI 対応アプリケーションの評価、(iii) AI を試験・測定するための測定基準、方法、標準の開発、ただし、かかる測定基準、方法、標準は、特定の省庁用途の AI を試験するためではなく、一般市民または政府全体が使用するためのものである場合; (iv) 基礎研究または応用研究を実施するためのAIの使用。ただし、当該研究の目的が、省庁内で特定のAIアプリケーションを開発することである場合を除く。(v) 潜在的なベンダー、商業的能力、または、省庁の業務で他に使用されていない、自由に利用可能なAI能力の評価。 |
[5] In determining these categories of AI, Department Heads should consider the categories of AI in OMB Memorandum M-24-10. | [5] これらのAIのカテゴリーを決定する際、部局長はOMB覚書M-24-10にあるAIのカテゴリーを考慮すべきである。 |
[6] To address these potential risk management gaps, covered agencies are encouraged to promote and incorporate, as appropriate, additional best practices for AI risk management, such as from OMB Memorandum M-24-10, DOD’s Responsible AI Strategy and Implementation Pathway, the Artificial Intelligence Ethics Framework for the Intelligence Community, the Blueprint for an AI Bill of Rights, the NIST AI Risk Management Framework, the DHS Safety and Security Guidelines for AI in Critical Infrastructure, applicable international standards, workforce principles and best practices for employers that could be used to mitigate AI’s potential harms and maximize its potential benefits established pursuant to Section 6(b)(i) of Executive Order (“E.O.”) 14110, or any successors to those documents. Covered agencies are also encouraged to continue developing their own agency-specific practices, as appropriate and consistent with this AI Framework and the principles in E.O. 13960, 14091, and 14110. | [6] To address these potential risk management gaps, covered agencies are encouraged to promote and incorporate, as appropriate, additional best practices for AI risk management, such as from OMB Memorandum M-24-10, DOD’s Responsible AI Strategy and Implementation Pathway, the Artificial Intelligence Ethics Framework for the Intelligence Community, the Blueprint for an AI Bill of Rights, NISTのAIリスクマネジメント・フレームワーク、重要インフラにおけるAIのためのDHS安全・セキュリティガイドライン、適用可能な国際標準、労働力の原則、大統領令(以下「E.O.」)の第6条(b)(i)に従って制定されたAIの潜在的な危害を軽減し、潜在的な利益を最大化するために使用できる雇用者のためのベストプラクティス。 14110、またはその後継文書である。また、対象省庁は、適切かつ本AI枠組みおよびE.O. 13960、14091、14110の原則に合致するように、省庁独自の慣行を策定し続けることが奨励される。 |
[7] The Secretary of Defense is permitted to produce and submit a single report to the APNSA consolidating the reports of Department of Defense components, and the Director of National Intelligence is permitted to produce and submit a single report to the APNSA consolidating the reports of Intelligence Community (IC) elements. | [7] 国防長官は、国防総省の各部門の報告を統合した単一の報告書を作成し、APNSA に提出することが認められており、国家情報長官は、インテリジェンス・コミュニティ(IC)の各部門の報告を統合した単一の報告書を作成し、APNSA に提出することが認められている。 |
« 米国 ONCD 米国連邦政府はTLPを遵守する | Main | 米国 ONCD 2024年のサイバーセキュリティ態勢2024とサイバーセキュリティ戦略実装計画Ver.2 (2024.05.07) »
Comments