Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence |
人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成に関する覚書 |
MEMORANDUM FOR THE VICE PRESIDENT |
副大統領覚書 |
THE SECRETARY OF STATE |
国務長官 |
THE SECRETARY OF THE TREASURY |
財務長官 |
THE SECRETARY OF DEFENSE |
国防長官 |
THE ATTORNEY GENERAL |
司法長官 |
THE SECRETARY OF COMMERCE |
商務長官 |
THE SECRETARY OF ENERGY |
エネルギー長官 |
THE SECRETARY OF HEALTH AND HUMAN SERVICES |
保健福祉長官 |
THE SECRETARY OF HOMELAND SECURITY |
国土安全保障長官 |
THE DIRECTOR OF THE OFFICE OF MANAGEMENT AND BUDGET |
行政管理予算局長官 |
THE DIRECTOR OF NATIONAL INTELLIGENCE |
国家情報長官 |
THE REPRESENTATIVE OF THE UNITED STATES OF AMERICA TO THE UNITED NATIONS |
米国国連代表者 |
THE DIRECTOR OF THE CENTRAL INTELLIGENCE AGENCY |
中央情報局長官 |
THE ASSISTANT TO THE PRESIDENT AND CHIEF OF STAFF |
大統領補佐官兼首席補佐官 |
THE ASSISTANT TO THE PRESIDENT FOR NATIONAL SECURITY AFFAIRS |
国家安全保障問題担当大統領補佐官 |
THE ASSISTANT TO THE PRESIDENT FOR ECONOMIC |
大統領補佐官(経済政策担当 |
POLICY AND DIRECTOR OF THE NATIONAL ECONOMIC COUNCIL |
国家経済諮問会議議長 |
THE CHAIR OF THE COUNCIL OF ECONOMIC ADVISERS |
経済諮問委員会委員長 |
THE DIRECTOR OF THE OFFICE OF SCIENCE AND TECHNOLOGY POLICY |
米国科学技術政策局局長 |
THE ADMINISTRATOR OF THE UNITED STATES AGENCY FOR INTERNATIONAL DEVELOPMENT |
米国国際開発庁長官 |
THE DIRECTOR OF THE NATIONAL SCIENCE FOUNDATION |
全米科学財団理事 |
THE DIRECTOR OF THE FEDERAL BUREAU OF INVESTIGATION |
連邦捜査局局長 |
THE NATIONAL CYBER DIRECTOR |
国家サイバー局長 |
THE DIRECTOR OF THE OFFICE OF PANDEMIC PREPAREDNESS AND RESPONSE POLICY |
パンデミック対策・対応政策局長 |
THE DIRECTOR OF THE NATIONAL SECURITY AGENCY |
国家安全保障局長官 |
THE DIRECTOR OF THE NATIONAL GEOSPATIAL-INTELLIGENCE AGENCY |
国土地理院長官 |
THE DIRECTOR OF THE DEFENSE INTELLIGENCE AGENCY |
防衛情報局局長 |
SUBJECT: Advancing the United States’ Leadership in |
件名 主題:人工知能における米国のリーダーシップを促進する。 |
Artificial Intelligence; Harnessing Artificial |
件名:人工知能における米国のリーダーシップを促進する。 |
Intelligence to Fulfill National Security |
人工知能を国家安全保障に活用する。 |
Objectives; and Fostering the Safety, Security, |
人工知能の安全性、セキュリティ、信頼性を育成する、 |
and Trustworthiness of Artificial Intelligence |
人工知能の安全性、セキュリティ、信頼性を育成する。 |
Section 1. Policy. |
セクション1. 方針 |
(a) This memorandum fulfills the directive set forth in subsection 4.8 of Executive Order 14110 of October 30, 2023 (Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). This memorandum provides further direction on appropriately harnessing artificial intelligence (AI) models and AI-enabled technologies in the United States Government, especially in the context of national security systems (NSS), while protecting human rights, civil rights, civil liberties, privacy, and safety in AI-enabled national security activities. A classified annex to this memorandum addresses additional sensitive national security issues, including countering adversary use of AI that poses risks to United States national security. |
(a) 本覚書は、2023年10月30日付大統領令第14110号(人工知能の安全、安心、信頼できる開発と利用)の4.8項に定められた指令を履行するものである。 本覚書は、米国政府において、特に国家安全保障システム(NSS)の文脈において、人工知能(AI)モデルおよびAI対応技術を適切に活用する上で、AI対応の国家安全保障活動における人権、市民権、市民的自由、プライバシー、安全を保護しつつ、さらなる方向性を示すものである。 この覚書の機密扱いの附属書は、米国の国家安全保障にリスクをもたらす敵対的なAIの使用への対抗など、国家安全保障上のさらにセンシティブな問題を取り上げている。 |
(b) United States national security institutions have historically triumphed during eras of technological transition. To meet changing times, they developed new capabilities, from submarines and aircraft to space systems and cyber tools. To gain a decisive edge and protect national security, they pioneered technologies such as radar, the Global Positioning System, and nuclear propulsion, and unleashed these hard-won breakthroughs on the battlefield. With each paradigm shift, they also developed new systems for tracking and countering adversaries’ attempts to wield cutting-edge technology for their own advantage. |
(b) 米国の国家安全保障機構は、歴史的に技術の転換期に勝利してきた。 時代の変化に対応するため、潜水艦や航空機から宇宙システムやサイバー・ツールに至るまで、新たな能力を開発してきた。 決定的な優位に立ち、国家の安全を守るために、レーダー、国家見解システム、核推進力などの技術を開拓し、苦労して勝ち取ったブレークスルーを戦場で発揮した。 また、パラダイムシフトが起こるたびに、最先端技術を駆使して優位に立とうとする敵対勢力を追跡し、対抗するための新たなシステムも開発された。 |
(c) AI has emerged as an era-defining technology and has demonstrated significant and growing relevance to national security. The United States must lead the world in the responsible application of AI to appropriate national security functions. AI, if used appropriately and for its intended purpose, can offer great benefits. If misused, AI could threaten United States national security, bolster authoritarianism worldwide, undermine democratic institutions and processes, facilitate human rights abuses, and weaken the rules-based international order. Harmful outcomes could occur even without malicious intent if AI systems and processes lack sufficient protections. |
(c)AIは時代を定義する技術として登場し、国家安全保障との重要な関連性が高まっている。 米国は、適切な国家安全保障機能へのAIの責任ある適用において、世界をリードしなければならない。 AIは、適切かつ意図された目的に使用されれば、大きな利益をもたらすことができる。 しかし、その使い方を誤れば、米国の国家安全保障を脅かし、世界的な権威主義を助長し、民主主義の機構やプロセスを弱体化させ、人権侵害を助長し、ルールに基づく国際秩序を弱体化させかねない。 AIのシステムやプロセスに十分な防御がない場合、悪意がなくても有害な結果が生じる可能性がある。 |
(d) Recent innovations have spurred not only an increase in AI use throughout society, but also a paradigm shift within the AI field — one that has occurred mostly outside of Government. This era of AI development and deployment rests atop unprecedented aggregations of specialized computational power, as well as deep scientific and engineering expertise, much of which is concentrated in the private sector. This trend is most evident with the rise of large language models, but it extends to a broader class of increasingly general-purpose and computationally intensive systems. The United States Government must urgently consider how this current AI paradigm specifically could transform the national security mission. |
(d) 近年の技術革新は、社会全体におけるAIの利用拡大に拍車をかけただけでなく、AI分野におけるパラダイムシフトにも拍車をかけた。 このAI開発・展開の時代は、前例のない専門的な計算能力、深い科学的・工学的専門知識の集積の上に成り立っており、その多くは民間部門に集中している。 この傾向は、大規模な言語モデルの台頭で最も顕著だが、ますます汎用的で計算集約的なシステムの幅広いクラスにまで及んでいる。 米国ガバナンスは、この現在のAIパラダイムが具体的にどのように国家安全保障の使命を変革しうるかを早急に検討しなければならない。 |
(e) Predicting technological change with certainty is impossible, but the foundational drivers that have underpinned recent AI progress show little sign of abating. These factors include compounding algorithmic improvements, increasingly efficient computational hardware, a growing willingness in industry to invest substantially in research and development, and the expansion of training data sets. AI under the current paradigm may continue to become more powerful and general-purpose. Developing and effectively using these systems requires an evolving array of resources, infrastructure, competencies, and workflows that in many cases differ from what was required to harness prior technologies, including previous paradigms of AI. |
(e) 技術的変化を確実に予測することは不可能であるが、最近のAIの進歩を支えてきた基礎的な要因は、ほとんど衰える気配がない。 これらの要因には、アルゴリズムの複合的改善、計算ハードウェアの効率化、研究開発に多額の投資を行う産業界の意欲の高まり、学習データセットの拡大などが含まれる。 現在のパラダイムの下でのAIは、今後もより強力で汎用的なものになっていく可能性がある。 このようなシステムを開発し効果的に利用するには、進化し続けるリソース、インフラ、能力、ワークフローが必要であり、多くの場合、以前のAIのパラダイムを含む以前の技術を利用するために必要だったものとは異なる。 |
(f) If the United States Government does not act with responsible speed and in partnership with industry, civil society, and academia to make use of AI capabilities in service of the national security mission — and to ensure the safety, security, and trustworthiness of American AI innovation writ large — it risks losing ground to strategic competitors. Ceding the United States’ technological edge would not only greatly harm American national security, but it would also undermine United States foreign policy objectives and erode safety, human rights, and democratic norms worldwide. |
(f) 米国ガバナンスが、国家安全保障の使命のためにAIの能力を活用するために、責任あるスピードで、産業界、市民社会、学界と連携して行動しなければ、また、米国のAIイノベーションの安全性、セキュリティ、信頼性を確保しなければ、戦略的競争相手に遅れをとる危険性がある。米国の技術的優位性を放棄することは、米国の国家安全保障に大きな損害を与えるだけでなく、米国の外交目標を損ない、世界中の安全、人権、民主主義規範を侵食することになる。 |
(g) Establishing national security leadership in AI will require making deliberate and meaningful changes to aspects of the United States Government’s strategies, capabilities, infrastructure, governance, and organization. AI is likely to affect almost all domains with national security significance, and its use cannot be relegated to a single institutional silo. The increasing generality of AI means that many functions that to date have been served by individual bespoke tools may, going forward, be better fulfilled by systems that, at least in part, rely on a shared, multi-purpose AI capability. Such integration will only succeed if paired with appropriately redesigned United States Government organizational and informational infrastructure. |
(g) AIにおける国家安全保障上のリーダーシップを確立するには、米国政府の戦略、能力、インフラ、ガバナンス、組織の側面を意図的かつ有意義に変更する必要がある。 AIは、国家安全保障上重要なほぼすべての領域に影響を及ぼす可能性が高く、その利用を単一の機構に追いやることはできない。 AIの汎用性が高まるということは、これまでは個別の特注ツールによって果たされてきた多くの機能が、今後は、少なくとも部分的には、共有された多目的AI機能に依存するシステムによって、よりよく果たされる可能性があることを意味する。 このような統合は、適切に再設計された米国政府の組織・情報インフラと組み合わされて初めて成功する。 |
(h) In this effort, the United States Government must also protect human rights, civil rights, civil liberties, privacy, and safety, and lay the groundwork for a stable and responsible international AI governance landscape. Throughout its history, the United States has been a global leader in shaping the design, development, and use of new technologies not only to advance national security, but also to protect and promote democratic values. The United States Government must develop safeguards for its use of AI tools, and take an active role in steering global AI norms and institutions. The AI frontier is moving quickly, and the United States Government must stay attuned to ongoing technical developments without losing focus on its guiding principles. |
(h) この取り組みにおいて、米国政府は、人権、市民権、プライバシー、安全を保護し、安定した責任ある国際的なAIガバナンスの基盤を築かなければならない。 米国はその歴史を通じて、国家安全保障を向上させるだけでなく、民主主義的価値を保護し促進するために、新技術の設計、開発、利用を形成する世界的リーダーであった。 米国政府は、AIツールの使用に関するセーフガードを策定し、グローバルなAI規範と機構の舵取りにおいて積極的な役割を果たさなければならない。 AIのフロンティアは急速に進展しており、米国政府は指導原則を見失うことなく、現在進行中の技術開発に常に注意を払わなければならない。 |
(i) This memorandum aims to catalyze needed change in how the United States Government approaches AI national security policy. In line with Executive Order 14110, it directs actions to strengthen and protect the United States AI ecosystem; improve the safety, security, and trustworthiness of AI systems developed and used in the United States; enhance the United States Government’s appropriate, responsible, and effective adoption of AI in service of the national security mission; and minimize the misuse of AI worldwide. |
(i) この覚書は、米国政府のAI国家安全保障政策への取り組み方に必要な変化を促すことを目的としている。大統領令14110に沿って、米国のAIエコシステムを強化・保護し、米国で開発・使用されるAIシステムの安全性、セキュリティ、信頼性を改善し、米国政府が国家安全保障の使命のためにAIを適切、責任ある、効果的に採用することを強化し、世界的なAIの悪用を最小限に抑えるための行動を指示する。 |
Sec. 2. Objectives. |
セクション2. 目的 |
It is the policy of the United States Government that the following three objectives will guide its activities with respect to AI and national security. |
米国政府の方針として、AIと国家安全保障に関する活動の指針として、以下の3つの目標を掲げる。 |
(a) First, the United States must lead the world’s development of safe, secure, and trustworthy AI. To that end, the United States Government must — in partnership with industry, civil society, and academia — promote and secure the foundational capabilities across the United States that power AI development. The United States Government cannot take the unmatched vibrancy and innovativeness of the United States AI ecosystem for granted; it must proactively strengthen it, ensuring that the United States remains the most attractive destination for global talent and home to the world’s most sophisticated computational facilities. The United States Government must also provide appropriate safety and security guidance to AI developers and users, and rigorously assess and help mitigate the risks that AI systems could pose. |
(a) 第一に、米国は、安全、安心、信頼できるAIの開発を世界に先駆けて進めなければならない。 そのために、米国ガバナンスは、産業界、市民社会、学界と連携して、AI開発を支える米国全体の基盤能力を促進し、確保しなければならない。 米国政府は、米国AIエコシステムの比類なき活気と革新性を当然視することはできない。積極的に強化し、米国がグローバル人材にとって最も魅力的な目的地であり続け、世界で最も洗練された計算施設の本拠地であり続けるようにしなければならない。 米国政府はまた、AIの開発者と利用者に適切な安全・セキュリティのガイダンスを提供し、AIシステムがもたらす可能性のあるリスクを厳格にアセスメントし、その軽減を支援しなければならない。 |
(b) Second, the United States Government must harness powerful AI, with appropriate safeguards, to achieve national security objectives. Emerging AI capabilities, including increasingly general-purpose models, offer profound opportunities for enhancing national security, but employing these systems effectively will require significant technical, organizational, and policy changes. The United States must understand AI’s limitations as it harnesses the technology’s benefits, and any use of AI must respect democratic values with regard to transparency, human rights, civil rights, civil liberties, privacy, and safety. |
(b) 第二に、米国政府は、国家安全保障上の目的を達成するために、適切な保護措置を講じた上で、強力なAIを活用しなければならない。 ますます汎用化するモデルを含む、新たなAI能力は、国家安全保障を強化するための大きな機会を提供するが、これらのシステムを効果的に採用するには、技術、組織、政策の大幅な変更が必要となる。 米国は、AIの利点を活用する際に、AIの限界を理解しなければならない。また、AIのいかなる利用も、透明性、人権、市民権、自由、プライバシー、安全に関して、民主主義の価値を尊重しなければならない。 |
(c) Third, the United States Government must continue cultivating a stable and responsible framework to advance international AI governance that fosters safe, secure, and trustworthy AI development and use; manages AI risks; realizes democratic values; respects human rights, civil rights, civil liberties, and privacy; and promotes worldwide benefits from AI. It must do so in collaboration with a wide range of allies and partners. Success for the United States in the age of AI will be measured not only by the preeminence of United States technology and innovation, but also by the United States’ leadership in developing effective global norms and engaging in institutions rooted in international law, human rights, civil rights, and democratic values. |
(c) 第3に、米国政府は、安全、安心、信頼できるAIの開発と利用を促進し、AIのリスクをマネジメントし、民主的価値を実現し、人権、市民権、市民的自由、プライバシーを尊重し、AIによる世界的利益を促進する国際的なAIガバナンスを推進するための安定した責任ある枠組みを引き続き育成しなければならない。 そのためには、幅広い同盟国やパートナーと協力しなければならない。 AIの時代における米国の成功は、米国のテクノロジーとイノベーションの優位性だけでなく、効果的なグローバル規範を発展させ、国際法、人権、市民権、民主的価値に根ざした機構に関与する米国のリーダーシップによっても測られる。 |
Sec. 3. Promoting and Securing the United States’ Foundational AI Capabilities. |
セクション3. 米国のAI基盤能力を促進し確保する。 |
(a) To preserve and expand United States advantages in AI, it is the policy of the United States Government to promote progress, innovation, and competition in domestic AI development; protect the United States AI ecosystem against foreign intelligence threats; and manage risks to AI safety, security, and trustworthiness. Leadership in responsible AI development benefits United States national security by enabling applications directly relevant to the national security mission, unlocking economic growth, and avoiding strategic surprise. United States technological leadership also confers global benefits by enabling like-minded entities to collectively mitigate the risks of AI misuse and accidents, prevent the unchecked spread of digital authoritarianism, and prioritize vital research. |
(a) AIにおける米国の優位性を維持・拡大するため、国内AI開発の進歩、革新、競争を促進し、外国の諜報活動の脅威から米国のAIエコシステムを保護し、AIの安全性、セキュリティ、信頼性に対するリスクをマネジメントすることは、米国政府の方針である。 責任あるAI開発におけるリーダーシップは、国家安全保障の使命に直接関連するアプリケーションを可能にし、経済成長を引き出し、戦略的不意打ちを回避することで、米国の国家安全保障に利益をもたらす。 米国の技術的リーダーシップはまた、志を同じくする事業体が、AIの誤用や事故のリスクを集団的に軽減し、デジタル権威主義の歯止めなき蔓延を防ぎ、重要な研究を優先させることを可能にすることによって、グローバルな利益をもたらす。 |
3.1. Promoting Progress, Innovation, and Competition in United States AI Development. |
3.1. 米国のAI開発の進歩、革新、競争を促進する。 |
(a) The United States’ competitive edge in AI development will be at risk absent concerted United States Government efforts to promote and secure domestic AI progress, innovation, and competition. Although the United States has benefited from a head start in AI, competitors are working hard to catch up, have identified AI as a top strategic priority, and may soon devote resources to research and development that United States AI developers cannot match without appropriately supportive Government policies and action. It is therefore the policy of the United States Government to enhance innovation and competition by bolstering key drivers of AI progress, such as technical talent and computational power. |
(a) 国内のAIの進歩、革新、競争を促進し、確保するための米国政府による協調的な取り組みがなければ、AI開発における米国の競争力はリスクにさらされる。 米国はAIで先行した恩恵を受けているが、競合他社は追いつこうと懸命に努力しており、AIを戦略上の最優先事項としており、政府の適切な支援政策や行動がなければ、米国のAI開発者が及ばないような研究開発に近いうちに資源を投入する可能性がある。 したがって、技術的才能や計算能力といったAI進歩の主要な推進力を強化することにより、イノベーションと競争を強化することが米国政府の方針である。 |
(b) It is the policy of the United States Government that advancing the lawful ability of noncitizens highly skilled in AI and related fields to enter and work in the United States constitutes a national security priority. Today, the unparalleled United States AI industry rests in substantial part on the insights of brilliant scientists, engineers, and entrepreneurs who moved to the United States in pursuit of academic, social, and economic opportunity. Preserving and expanding United States talent advantages requires developing talent at home and continuing to attract and retain top international minds. |
(b)AIおよびその関連分野で高度な技能を有する非市民が米国に入国し、就労するための合法的な能力を促進することは、国家安全保障上の優先事項であり、米国政府の方針である。 今日、比類のない米国のAI産業は、学問的、社会的、経済的機会を求めて米国に移住した優秀な科学者、エンジニア、起業家の見識の上に成り立っている。 米国の人材の優位性を維持・拡大するためには、国内で人材を育成し、国際的に優れた頭脳を引き付け、維持し続けることが必要である。 |
(c) Consistent with these goals: |
(c)これらの目標に一貫性を持たせる: |
(i) On an ongoing basis, the Department of State, the Department of Defense (DOD), and the Department of Homeland Security (DHS) shall each use all available legal authorities to assist in attracting and rapidly bringing to the United States individuals with relevant technical expertise who would improve United States competitiveness in AI and related fields, such as semiconductor design and production. These activities shall include all appropriate vetting of these individuals and shall be consistent with all appropriate risk mitigation measures. This tasking is consistent with and additive to the taskings on attracting AI talent in section 5 of Executive Order 14110. |
(i) 継続的に、国務省、国防総省、国土安全保障省は、それぞれ利用可能なあらゆる法的権限を行使し、AIおよび半導体設計・製造などの関連分野において米国の競争力を向上させるような、関連する技術的専門知識を有する個人の米国への誘致と迅速な入国を支援する。 これらの活動には、これらの個人に対するあらゆる適切な審査が含まれ、あらゆる適切なリスク低減措置と一致するものとする。 この任務は、大統領令第14110号の第5節にあるAI人材の誘致に関する任務と整合的であり、追加的なものである。 |
(ii) Within 180 days of the date of this memorandum, the Chair of the Council of Economic Advisers shall prepare an analysis of the AI talent market in the United States and overseas, to the extent that reliable data is available. |
(ii) 本覚書の日付から180日以内に、経済諮問委員会の委員長は、信頼できるデータが入手可能な範囲で、米国および海外のAI人材市場の分析を作成する。 |
(iii) Within 180 days of the date of this memorandum, the Assistant to the President for Economic Policy and Director of the National Economic Council shall coordinate an economic assessment of the relative competitive advantage of the United States private sector AI ecosystem, the key sources of the United States private sector’s competitive advantage, and possible risks to that position, and shall recommend policies to mitigate them. The assessment could include areas including (1) the design, manufacture, and packaging of chips critical in AI-related activities; (2) the availability of capital; (3) the availability of workers highly skilled in AI-related fields; (4) computational resources and the associated electricity requirements; and (5) technological platforms or institutions with the requisite scale of capital and data resources for frontier AI model development, as well as possible other factors. |
(iii) 本覚書の日付から180日以内に、経済政策担当大統領補佐官兼国家経済会議長官は、米国民間部門のAIエコシステムの相対的競争優位性、米国民間部門の競争優位性の主要な源泉、およびその地位に対する起こり得るリスクに関する経済アセスメントを調整し、それらを軽減するための政策を提言するものとする。アセスメントには、(1)AI関連活動で重要なチップの設計、製造、パッケージング、(2)資本の利用可能性、(3)AI関連分野で高度な技能を持つ労働者の利用可能性、(4)計算資源と関連する電力要件、(5)フロンティアAIモデル開発に必要な規模の資本とデータ資源を持つ技術プラットフォームまたは機構、およびその他の要因の可能性を含む分野が含まれる。 |
(iv) Within 90 days of the date of this memorandum, the Assistant to the President for National Security Affairs (APNSA) shall convene appropriate executive departments and agencies (agencies) to explore actions for prioritizing and streamlining administrative processing operations for all visa applicants working with sensitive technologies. Doing so shall assist with streamlined processing of highly skilled applicants in AI and other critical and emerging technologies. This effort shall explore options for ensuring the adequate resourcing of such operations and narrowing the criteria that trigger secure advisory opinion requests for such applicants, as consistent with national security objectives. |
(iv) この覚書の日付から90日以内に、国家安全保障問題担当大統領補佐官(APNSA)は、機密技術を扱うすべてのビザ申請者について、事務処理業務の優先順位付けと合理化のための措置を検討するため、適切な行政府・省庁(機関)を招集する。 そうすることで、AIやその他の重要な新興技術における高度な技能を持つ申請者の合理的な手続きを支援する。 この努力は、国家安全保障の目的に合致するように、そのような業務の適切な資源を確保し、そのような申請者の安全な諮問意見要請の引き金となる規準を狭めるための選択肢を探るものとする。 |
(d) The current paradigm of AI development depends heavily on computational resources. To retain its lead in AI, the United States must continue developing the world’s most sophisticated AI semiconductors and constructing its most advanced AI-dedicated computational infrastructure. |
(d) 現在のAI開発のパラダイムは、計算資源に大きく依存している。 米国がAIでリードを保つためには、世界で最も洗練されたAI半導体の開発を継続し、最も先進的なAI専用の計算インフラを構築しなければならない。 |
(e) Consistent with these goals: |
(e)これらの目標に一致する: |
(i) DOD, the Department of Energy (DOE) (including national laboratories), and the Intelligence Community (IC) shall, when planning for and constructing or renovating computational facilities, consider the applicability of large-scale AI to their mission. Where appropriate, agencies shall design and build facilities capable of harnessing frontier AI for relevant scientific research domains and intelligence analysis. Those investments shall be consistent with the Federal Mission Resilience Strategy adopted in Executive Order 13961 of December 7, 2020 (Governance and Integration of Federal Mission Resilience). |
(i)国防総省、エネルギー省(国立研究所を含む)、インテリジェンス・コミュニティ(IC)は、計算施設の計画・建設・改修に際し、大規模AIの任務への適用可能性を考慮する。 適切な場合、各機関は、関連する科学研究領域や情報分析にフロンティアAIを活用できる施設を設計・建設しなければならない。 それらの投資は、2020年12月7日の大統領令13961(連邦ミッション・レジリエンスのガバナンスと統合)で採択された連邦ミッション・レジリエンス戦略に合致したものでなければならない。 |
(ii) On an ongoing basis, the National Science Foundation (NSF) shall, consistent with its authorities, use the National AI Research Resource (NAIRR) pilot project and any future NAIRR efforts to distribute computational resources, data, and other critical assets for AI development to a diverse array of actors that otherwise would lack access to such capabilities — such as universities, nonprofits, and independent researchers (including trusted international collaborators) — to ensure that AI research in the United States remains competitive and innovative. This tasking is consistent with the NAIRR pilot assigned in section 5 of Executive Order 14110. |
(ii) 全米科学財団(NSF)は、その認可に基づき、全米AI研究リソース(NAIRR)パイロット・プロジェクトおよび今後のNAIRRの取り組みを利用して、AI開発に必要な計算資源、データ、その他の重要な資産を、大学、非営利団体、独立研究者(信頼できる国際的な協力者を含む)など、そうでなければそのような能力を利用できない多様な主体に分配し、米国におけるAI研究が競争力と革新性を維持できるようにする。 この任務は、大統領令第14110号の第5節で指定されたNAIRR試験運用と一致する。 |
(iii) Within 180 days of the date of this memorandum, DOE shall launch a pilot project to evaluate the performance and efficiency of federated AI and data sources for frontier AI-scale training, fine-tuning, and inference. |
(iii) この覚書の日付から 180 日以内に、DOE は、フロンティア AI 規模の訓練、微調整、推論のための、連携 AI およびデータソースの性能と効率を評価するパイロットプロジェクトを開始する。 |
(iv) The Office of the White House Chief of Staff, in coordination with DOE and other relevant agencies, shall coordinate efforts to streamline permitting, approvals, and incentives for the construction of AI-enabling infrastructure, as well as surrounding assets supporting the resilient operation of this infrastructure, such as clean energy generation, power transmission lines, and high-capacity fiber data links. These efforts shall include coordination, collaboration, consultation, and partnership with State, local, Tribal, and territorial governments, as appropriate, and shall be consistent with the United States’ goals for managing climate risks. |
(iv) ホワイトハウス首席補佐官室は、DOE および他の関連機関と連携して、AI を可能にするインフ ラ、およびクリーンエネルギー生成、送電線、大容量光ファイバーデータリンクなど、このインフラ のレジリエンス運用を支える周辺資産の建設のための許可、承認、およびインセンティブを合理化 するための取り組みを調整するものとする。 これらの取り組みには、必要に応じて、州政府、地方政府、部族政府、および準州政府との調整、協力、協議、およびパートナーシップが含まれ、気候リスクマネジメントに関する米国の目標に沿ったものとする。 |
(v) The Department of State, DOD, DOE, the IC, and the Department of Commerce (Commerce) shall, as appropriate and consistent with applicable law, use existing authorities to make public investments and encourage private investments in strategic domestic and foreign AI technologies and adjacent fields. These agencies shall assess the need for new authorities for the purposes of facilitating public and private investment in AI and adjacent capabilities. |
(v)国務省、国防総省、DOE、情報通信研究機構(IC)、商務省は、適宜、適用法に則り、既存の権限を用いて、戦略的な国内外の AI 技術およびその隣接分野への公共投資を行い、民間投資を奨励するものとする。 これらの省庁は、AIと隣接する能力への官民投資を促進する目的で、新たな権限の必要性をアセスメントするものとする。 |
3.2. Protecting United States AI from Foreign Intelligence Threats. |
3.2. 外国の諜報の脅威から米国のAIを防御する。 |
(a) In addition to pursuing industrial strategies that support their respective AI industries, foreign states almost certainly aim to obtain and repurpose the fruits of AI innovation in the United States to serve their national security goals. Historically, such competitors have employed techniques including research collaborations, investment schemes, insider threats, and advanced cyber espionage to collect and exploit United States scientific insights. It is the policy of the United States Government to protect United States industry, civil society, and academic AI intellectual property and related infrastructure from foreign intelligence threats to maintain a lead in foundational capabilities and, as necessary, to provide appropriate Government assistance to relevant non-government entities. |
(a) 外国は、自国のAI産業を支援する産業戦略を追求することに加え、自国の国家安全保障の目標のために、米国におけるAI技術革新の成果を入手し、再利用することをほぼ確実に狙っている。 歴史的に、そのような競争相手は、米国の科学的知見を収集し利用するために、研究協力、投資スキーム、インサイダー脅威、高度なサイバー・スパイ活動などの手法を採用してきた。 米国の産業界、市民社会、学術界のAI知的財産と関連インフラを外国の諜報機関の脅威から保護し、基礎的能力のリードを維持し、必要に応じて、関連する非政府事業体に適切な政府支援を提供することは、米国政府の方針である。 |
(b) Consistent with these goals: |
(b) これらの目標に整合する: |
(i) Within 90 days of the date of this memorandum, the National Security Council (NSC) staff and the Office of the Director of National Intelligence (ODNI) shall review the President’s Intelligence Priorities and the National Intelligence Priorities Framework consistent with National Security Memorandum 12 of July 12, 2022 (The President’s Intelligence Priorities), and make recommendations to ensure that such priorities improve identification and assessment of foreign intelligence threats to the United States AI ecosystem and closely related enabling sectors, such as those involved in semiconductor design and production. |
(i) この覚書の日付から90日以内に、国家安全保障会議(NSC)のスタッフと国家情報長官室(ODNI)は、2022年7月12日の国家安全保障覚書12(The President's Intelligence Priorities)と整合する大統領のインテリジェンス優先事項と国家インテリジェンス優先事項枠組みを見直し、そのような優先事項が米国のAIエコシステムおよび半導体設計・製造に関わるような密接に関連する実現部門に対する外国情報による脅威の特定と評価を改善することを確実にするための勧告を行う。 |
(ii) Within 180 days of the date of this memorandum, and on an ongoing basis thereafter, ODNI, in coordination with DOD, the Department of Justice (DOJ), Commerce, DOE, DHS, and other IC elements as appropriate, shall identify critical nodes in the AI supply chain, and develop a list of the most plausible avenues through which these nodes could be disrupted or compromised by foreign actors. On an ongoing basis, these agencies shall take all steps, as appropriate and consistent with applicable law, to reduce such risks. |
(ii) 本覚書の日付から180日以内に、またその後も継続的に、ODNIは、国防総省、司法省(DOJ)、商務省、DOE、DHS、および必要に応じて他のIC要素と連携して、AIのサプライ・チェーンにおける重要なノードを特定し、これらのノードが外国の行為者によって妨害または侵害される可能性のある最ももっともらしい経路のリストを作成する。 これらの機関は、継続的に、適切かつ適用法に合致するあらゆる手段を講じ、そのようなリスクを軽減するものとする。 |
(c) Foreign actors may also seek to obtain United States intellectual property through gray-zone methods, such as technology transfer and data localization requirements. AI-related intellectual property often includes critical technical artifacts (CTAs) that would substantially lower the costs of recreating, attaining, or using powerful AI capabilities. The United States Government must guard against these risks. |
(c) 外国の行為者はまた、技術移転やデータのローカライゼーション要件などのグレーゾーンの方法を通じて、米国の知的財産を取得しようとする可能性がある。 AI関連の知的財産には、強力なAI能力を再現、獲得、使用するコストを大幅に下げる重要技術成果物(CTA)が含まれていることが多い。 米国政府は、こうしたリスクから守らなければならない。 |
(d) Consistent with these goals: |
(d)これらの目標に合致する: |
(i) In furtherance of Executive Order 14083 of September 15, 2022 (Ensuring Robust Consideration of Evolving National Security Risks by the Committee on Foreign Investment in the United States), the Committee on Foreign Investment in the United States shall, as appropriate, consider whether a covered transaction involves foreign actor access to proprietary information on AI training techniques, algorithmic improvements, hardware advances, CTAs, or other proprietary insights that shed light on how to create and effectively use powerful AI systems. |
(i) 2022年9月15日の大統領令14083(対米外国投資委員会による進化する国家安全保障リスクの強固な検討の確保)を推進するため、対米外国投資委員会は、適切な場合、対象となる取引が、強力なAIシステムの作成方法及び効果的な使用方法に光を当てる、AIの訓練技術、アルゴリズムの改善、ハードウェアの進歩、CTA、又はその他の専有的洞察に関する外国行為者の専有情報へのアクセスを伴うか否かを検討するものとする。 |
3.3. Managing Risks to AI Safety, Security, and Trustworthiness. |
3.3. AIの安全性、セキュリティ、信頼性に対するリスクマネジメント |
(a) Current and near-future AI systems could pose significant safety, security, and trustworthiness risks, including those stemming from deliberate misuse and accidents. Across many technological domains, the United States has historically led the world not only in advancing capabilities, but also in developing the tests, standards, and norms that underpin reliable and beneficial global adoption. The United States approach to AI should be no different, and proactively constructing testing infrastructure to assess and mitigate AI risks will be essential to realizing AI’s positive potential and to preserving United States AI leadership. |
(a) 現在および近い将来のAIシステムは、意図的な誤用や事故に起因するものを含め、重大な安全性、セキュリティ、信頼性のリスクをもたらす可能性がある。 多くの技術領域において、米国は歴史的に、能力を向上させるだけでなく、信頼性が高く有益なグローバルな採用を支える試験、標準、規範の開発においても世界をリードしてきた。 AIに対する米国のアプローチも同様であるべきであり、AIのリスクをアセスメントし、軽減するための試験インフラを積極的に構築することは、AIのポジティブな可能性を実現し、米国のAIのリーダーシップを維持するために不可欠である。 |
(b) It is the policy of the United States Government to pursue new technical and policy tools that address the potential challenges posed by AI. These tools include processes for reliably testing AI models’ applicability to harmful tasks and deeper partnerships with institutions in industry, academia, and civil society capable of advancing research related to AI safety, security, and trustworthiness. |
(b) AIがもたらす潜在的な課題に対処する新たな技術的・政策的ツールを追求することは、米国政府の方針である。 これらのツールには、AIモデルの有害なタスクへの適用可能性を確実にテストするためのプロセスや、AIの安全性、セキュリティ、信頼性に関連する研究を進めることができる産業界、学界、市民社会の機構とのより深いパートナーシップが含まれる。 |
(c) Commerce, acting through the AI Safety Institute (AISI) within the National Institute of Standards and Technology (NIST), shall serve as the primary United States Government point of contact with private sector AI developers to facilitate voluntary pre- and post-public deployment testing for safety, security, and trustworthiness of frontier AI models. In coordination with relevant agencies as appropriate, Commerce shall establish an enduring capability to lead voluntary unclassified pre-deployment safety testing of frontier AI models on behalf of the United States Government, including assessments of risks relating to cybersecurity, biosecurity, chemical weapons, system autonomy, and other risks as appropriate (not including nuclear risk, the assessment of which shall be led by DOE). Voluntary unclassified safety testing shall also, as appropriate, address risks to human rights, civil rights, and civil liberties, such as those related to privacy, discrimination and bias, freedom of expression, and the safety of individuals and groups. Other agencies, as identified in subsection 3.3(f) of this section, shall establish enduring capabilities to perform complementary voluntary classified testing in appropriate areas of expertise. The directives set forth in this subsection are consistent with broader taskings on AI safety in section 4 of Executive Order 14110, and provide additional clarity on agencies’ respective roles and responsibilities. |
(c) 商務省は、国立標準技術研究所(NIST)内のAI安全研究所(AISI)を通じて、米国政府として民間AI開発者との主要な窓口となり、フロンティアAIモデルの安全性、セキュリティ、信頼性に関する自主的な事前・事後公開展開テストを促進する。必要に応じて関連機関と連携し、商務部は、サイバーセキュリティ、バイオセキュリティ、化学兵器、システム自律性、その他適宜のリスクに関するアセスメントを含め、米国政府に代わって、フロンティア AI モデルの自主的な未分類の安全性テストを展開するための永続的な能力を確立するものとする(核リスクは含まず、そのアセスメントは DOE が主導するものとする)。自主的な非機密安全性試験は、プライバシー、識別的バイアス、表現の自由、および個人と集団の 安全に関するものなど、人権、公民権、および市民的自由に関するリスクにも適宜対応するものとする。本項 3.3(f)項で識別されるその他の機関は、適切な専門分野において、補完的な自主的機密試験を実施するための永続的能力を確立しなければならない。本項に規定された指令は、大統領令第14110号の第4節にあるAIの安全性に関する広範な任務と整合しており、各機関のそれぞれの役割と責任についてさらに明確にするものである。 |
(d) Nothing in this subsection shall inhibit agencies from performing their own evaluations of AI systems, including tests performed before those systems are released to the public, for the purposes of evaluating suitability for that agency’s acquisition and procurement. AISI’s responsibilities do not extend to the evaluation of AI systems for the potential use by the United States Government for national security purposes; those responsibilities lie with agencies considering such use, as outlined in subsection 4.2(e) of this memorandum and the associated framework described in that subsection. |
(d)本小節のいかなる規定も、AIシステムが一般に公開される前に実施されるテストを含め、各省庁が当該省庁の取得・調達への適合性を評価する目的で、AIシステムの評価を独自に実施することを阻害するものではない。 AISIの責務は、国家安全保障目的で米国政府が使用する可能性のあるAIシステムの評価には及ばない。そのような責務は、本覚書の第4.2(e)項および同項で説明されている関連枠組みに概説されているように、そのような使用を検討している機関にある。 |
(e) Consistent with these goals, Commerce, acting through AISI within NIST, shall take the following actions to aid in the evaluation of current and near-future AI systems: |
(e)これらの目標に沿って、商務部は、NIST内のAISIを通じて、現在及び近い将来のAIシステムの評価を支援するため、以下の行動をとるものとする: |
(i) Within 180 days of the date of this memorandum and subject to private sector cooperation, AISI shall pursue voluntary preliminary testing of at least two frontier AI models prior to their public deployment or release to evaluate capabilities that might pose a threat to national security. This testing shall assess models’ capabilities to aid offensive cyber operations, accelerate development of biological and/or chemical weapons, autonomously carry out malicious behavior, automate development and deployment of other models with such capabilities, and give rise to other risks identified by AISI. AISI shall share feedback with the APNSA, interagency counterparts as appropriate, and the respective model developers regarding the results of risks identified during such testing and any appropriate mitigations prior to deployment. |
(i) AISIは、本覚書の日付から180日以内に、民間セクターの協力を前提として、国家安全保障を脅かす可能性のある能力を評価するため、少なくとも2つのフロンティアAIモデルの自主的な予備テストを、一般展開または公開前に実施する。 このテストでは、攻撃的なサイバー作戦を支援する、生物・化学兵器の開発を加速する、悪意のある行動を自律的に実行する、そのような能力を持つ他のモデルの開発と展開を自動化する、AISIが特定したその他のリスクを生じさせる、といったモデルの能力をアセスメントするものとする。 AISIは、このようなテスト中に特定されたリスクの結果、および展開前の適切な低減に関して、APNSA、必要に応じて省庁間カウンターパート、および各モデル開発者とフィードバックを共有するものとする。 |
(ii) Within 180 days of the date of this memorandum, AISI shall issue guidance for AI developers on how to test, evaluate, and manage risks to safety, security, and trustworthiness arising from dual-use foundation models, building on guidelines issued pursuant to subsection 4.1(a) of Executive Order 14110. AISI shall issue guidance on topics including: |
(ii) AISI は、本覚書の日付から 180 日以内に、大統領令第 14110 号の 4.1(a)項に従って発行されたガイドラインに基づき、両用基盤モデルから生じる安全、セキュリ ティ、信頼性に対するリスクをどのようにテスト、評価、マネジメントするかについて、AI 開発者向けのガイダンスを発行する。 AISI は、以下を含むトピックに関するガイダンスを発行する: |
(A) How to measure capabilities that are relevant to the risk that AI models could enable the development of biological and chemical weapons or the automation of offensive cyber operations; |
(A)AIモデルが生物化学兵器の開発や攻撃的サイバー作戦の自動化を可能にするリスクに関連する能力をどのように測定するか; |
(B) How to address societal risks, such as the misuse of models to harass or impersonate individuals; |
(B) 個人への嫌がらせやなりすましのためのモデルの悪用など、社会的リスクに対処する方法; |
(C) How to develop mitigation measures to prevent malicious or improper use of models; |
(C)モデルの悪意ある利用や不適切な利用を防止するための低減手段をどのように開発するか; |
(D) How to test the efficacy of safety and security mitigations; and |
(D)安全性及びセキュリティ低減の有効性をどのようにテストするか。 |
(E) How to apply risk management practices throughout the development and deployment lifecycle (pre-development, development, and deployment/release). |
(E) 開発及び展開のライフサイクル(開発前、開発、展開/リリース)を通じてリスクマネジメントを適用する方法。 |
(iii) Within 180 days of the date of this memorandum, AISI, in consultation with other agencies as appropriate, shall develop or recommend benchmarks or other methods for assessing AI systems’ capabilities and limitations in science, mathematics, code generation, and general reasoning, as well as other categories of activity that AISI deems relevant to assessing general-purpose capabilities likely to have a bearing on national security and public safety. |
(iii) AISIは、本覚書の日付から180日以内に、適宜、他の機関と協議の上、科学、数学、コード生成、一般的推論、並びに、国家安全保障及び公共の安全に関係する可能性が高い汎用的能力の評価に関連するとAISIがみなす他の活動カテゴリーにおいて、AIシステムの能力と限界を評価するためのベンチマーク又は他の方法を開発又は推奨しなければならない。 |
(iv) In the event that AISI or another agency determines that a dual-use foundation model’s capabilities could be used to harm public safety significantly, AISI shall serve as the primary point of contact through which the United States Government communicates such findings and any associated recommendations regarding risk mitigation to the developer of the model. |
(iv) AISI または他の機関が、デュアルユース基盤モデルの能力が公共の安全に重大な危害を及ぼ すために使用される可能性があると判断した場合、AISI は、米国政府が当該所見およびリスク低減に関 連する勧告を当該モデルの開発者に伝達するための主要な窓口となるものとする。 |
(v) Within 270 days of the date of this memorandum, and at least annually thereafter, AISI shall submit to the President, through the APNSA, and provide to other interagency counterparts as appropriate, at minimum one report that shall include the following: |
(v) AISIは、本覚書の日付から270日以内に、またその後少なくとも毎年、APNSAを通じて大統領に提出し、また必要に応じて他の省庁間のカウンターパートに、以下を含む報告書を最低1回提出しなければならない: |
(A) A summary of findings from AI safety assessments of frontier AI models that have been conducted by or shared with AISI; |
(A) AISIが実施した、またはAISIと共有したフロンティアAIモデルのAI安全性アセスメントから得られた知見の概要; |
(B) A summary of whether AISI deemed risk mitigation necessary to resolve any issues identified in the assessments, along with conclusions regarding any mitigations’ efficacy; and |
(B)アセスメントで特定された問題を解決するために、AISIがリスク低減が必要と判断したか否かの概要、及び低減の有効性に関する結論; |
(C) A summary of the adequacy of the science-based tools and methods used to inform such assessments. |
(C) 当該アセスメントに使用された、科学的根拠に基づくツール及び手法の妥当性の概要。 |
(f) Consistent with these goals, other agencies specified below shall take the following actions, in coordination with Commerce, acting through AISI within NIST, to provide classified sector-specific evaluations of current and near-future AI systems for cyber, nuclear, and radiological risks: |
(f)これらの目標に沿って、以下に指定された他の機関は、商務省と連携し、NIST 内の AISI を通じて、現在および近い将来の AI システムのサイバー、核、放射性リスクに関する機密部門別評価を提供するために、以下の行動を取るものとする: |
(i) All agencies that conduct or fund safety testing and evaluations of AI systems shall share the results of such evaluations with AISI within 30 days of their completion, consistent with applicable protections for classified and controlled information. |
(i)AIシステムの安全性試験・評価を実施または資金提供するすべての機関は、機密・管理情報に対する適用される防御と整合性を保ちつつ、そのような評価の結果を完了後30日以内にAISIと共有する。 |
(ii) Within 120 days of the date of this memorandum, the National Security Agency (NSA), acting through its AI Security Center (AISC) and in coordination with AISI, shall develop the capability to perform rapid systematic classified testing of AI models’ capacity to detect, generate, and/or exacerbate offensive cyber threats. Such tests shall assess the degree to which AI systems, if misused, could accelerate offensive cyber operations. |
(ii) この覚書の日付から120日以内に、国家安全保障局(NSA)は、AIセキュリティセンター(AISC)を通じて、AISIと協調して、攻撃的サイバー脅威を検知、生成、および/または悪化させるAIモデルの能力について、迅速に体系的な機密テストを実施する能力を開発しなければならない。 このようなテストは、AIシステムが悪用された場合、攻撃的サイバー活動を加速させる可能性の程度を評価するものとする。 |
(iii) Within 120 days of the date of this memorandum, DOE, acting primarily through the National Nuclear Security Administration (NNSA) and in close coordination with AISI and NSA, shall seek to develop the capability to perform rapid systematic testing of AI models’ capacity to generate or exacerbate nuclear and radiological risks. This initiative shall involve the development and maintenance of infrastructure capable of running classified and unclassified tests, including using restricted data and relevant classified threat information. This initiative shall also feature the creation and regular updating of automated evaluations, the development of an interface for enabling human-led red-teaming, and the establishment of technical and legal tooling necessary for facilitating the rapid and secure transfer of United States Government, open-weight, and proprietary models to these facilities. As part of this initiative: |
(iii) 本覚書の日付から 120 日以内に、DOE は、主に国家核安全保障局(NNSA)を 通じて行動し、AISI および NSA と緊密に連携して、核および放射性リスクを 生成または悪化させる AI モデルの能力について、迅速な体系的試験を実施する能 力の開発を目指すものとする。 このイニシアティブは、制限されたデータや関連する機密脅威情報の利用を含め、機密および非機密のテストを実行できるインフラの開発と保守を含むものとする。 このイニシアティブはまた、自動化された評価の作成と定期的な更新、人間主導のレッドチームを可能にするインターフェイスの開発、米国政府、オープンウェイト、および専有モデルをこれらの施設に迅速かつ安全に移転するために必要な技術的・法的ツールの確立を特徴とする。 このイニシアティブの一環として |
(A) Within 180 days of the date of this memorandum, DOE shall use the capability described in subsection 3.3(f)(iii) of this section to complete initial evaluations of the radiological and nuclear knowledge, capabilities, and implications of a frontier AI model no more than 30 days after the model has been made available to NNSA at an appropriate classification level. These evaluations shall involve tests of AI systems both without significant modifications and, as appropriate, with fine-tuning or other modifications that could enhance performance. |
(A) 本覚書の日付から 180 日以内に、DOE は、本節の第 3.3 項(f)(iii)に記載された能力を使用し、フロンティア AI モデルが適切な分類レベルで NNSA に提供されてから 30 日以内に、その放射性・核に関する知識、能力、および意味合いの初期評価を完了しなければならない。 これらの評価には、大幅な修正を加えない場合と、必要に応じて微調整や性能向上のためのその他の修正を加えた場合の両方のAIシステムのテストを含むものとする。 |
(B) Within 270 days of the date of this memorandum, and at least annually thereafter, DOE shall submit to the President, through the APNSA, at minimum one assessment that shall include the following: |
(B) 本覚書の日付から 270 日以内、およびその後少なくとも毎年、DOE は、APNSA を通じ、以下を含む最低 1 回のアセスメントを大統領に提出するものとする: |
(1) A concise summary of the findings of each AI model evaluation for radiological and nuclear risk, described in subsection 3.3(f)(iii)(A) of this section, that DOE has performed in the preceding 12 months; |
(1)DOE が過去 12 ヶ月間に実施した、本節 3.3(f)(iii)(A)項に記載される放射線リスクおよび核リスク に関する各 AI モデル評価の所見の簡潔な要約; |
(2) A recommendation as to whether corrective action is necessary to resolve any issues identified in the evaluations, including but not limited to actions necessary for attaining and sustaining compliance conditions appropriate to safeguard and prevent unauthorized disclosure of restricted data or other classified information, pursuant to the Atomic Energy Act of 1954; and |
(2) 1954 年原子力法(Atomic Energy Act of 1954)に基づき、制限されたデータまたはそ の他の機密情報を保護し、不正な開示を防止するために適切な遵守条件を達成し、維持する ために必要な措置を含むがこれに限定されない、評価で特定された問題を解決するために是正 措置が必要か否かに関する勧告。 |
(3) A concise statement regarding the adequacy of the science-based tools and methods used to inform the evaluations. |
(3) 評価に使用された科学的根拠に基づく手段及び方法の妥当性に関する簡潔な記述。 |
(iv) On an ongoing basis, DHS, acting through the Cybersecurity and Infrastructure Security Agency (CISA), shall continue to fulfill its responsibilities with respect to the application of AISI guidance, as identified in National Security Memorandum 22 of April 30, 2024 (Critical Infrastructure Security and Resilience), and section 4 of Executive Order 14110. |
(iv) 継続的に、サイバーセキュリティ・インフラセキュリティ庁(CISA)を通じて行動する DHS は、2024 年 4 月 30 日の国家安全保障覚書 22(重要インフラのセキュリティとレジリエンス)および大統領令第 14110 号の第 4 節で特定されているとおり、AISI ガイダンスの適用に関して引き続き責任を果たすものとする。 |
(g) Consistent with these goals, and to reduce the chemical and biological risks that could emerge from AI: |
(g)これらの目標に合致し、AIから生じうる化学的・生物学的リスクを軽減する: |
(i) The United States Government shall advance classified evaluations of advanced AI models’ capacity to generate or exacerbate deliberate chemical and biological threats. As part of this initiative: |
(i) 米国政府は、意図的な化学的・生物学的脅威を生成または悪化させる高度AIモデルの能力について、機密評価を進める。 このイニシアチブの一環として |
(A) Within 210 days of the date of this memorandum, DOE, DHS, and AISI, in consultation with DOD and other relevant agencies, shall coordinate to develop a roadmap for future classified evaluations of advanced AI models’ capacity to generate or exacerbate deliberate chemical and biological threats, to be shared with the APNSA. This roadmap shall consider the scope, scale, and priority of classified evaluations; proper safeguards to ensure that evaluations and simulations are not misconstrued as offensive capability development; proper safeguards for testing sensitive and/or classified information; and sustainable implementation of evaluation methodologies. |
(A) 本覚書の日付から 210 日以内に、DOE、DHS、および AISI は、DOD およびその他の関連機関と協議の上、APNSA と共有する、意図的な化学・生物学的脅威を生成または悪化させる高度 AI モデルの能力に関する将来の機密評価のロードマップを作成するための調整を行う。 このロードマップは、機密評価の範囲、規模、優先順位、評価やシミュレーションが攻撃能力開発と誤解されないための適切な保護措置、機密情報および/または機密情報をテストするための適切な保護措置、評価手法の持続可能な実施について検討するものとする。 |
(B) On an ongoing basis, DHS shall provide expertise, threat and risk information, and other technical support to assess the feasibility of proposed biological and chemical classified evaluations; interpret and contextualize evaluation results; and advise relevant agencies on potential risk mitigations. |
(B) 継続的に、DHS は、提案されている生物・化学兵器機密評価の実行可能性をアセスメントし、評価結果を解釈し、文脈化し、潜在的なリスク低減について関係機関に助言するために、専門知識、脅威およびリスク情報、その他の技術支援を提供するものとする。 |
(C) Within 270 days of the date of this memorandum, DOE shall establish a pilot project to provide expertise, infrastructure, and facilities capable of conducting classified tests in this area. |
(C) 本覚書の日付から 270 日以内に、DOE は、この分野の機密試験を実施できる専門知識、 インフラ、および施設を提供するためのパイロット・プロジェクトを設立する。 |
(ii) Within 240 days of the date of this memorandum, DOD, the Department of Health and Human Services (HHS), DOE (including national laboratories), DHS, NSF, and other agencies pursuing the development of AI systems substantially trained on biological and chemical data shall, as appropriate, support efforts to utilize high-performance computing resources and AI systems to enhance biosafety and biosecurity. These efforts shall include: |
(本覚書の日付から 240 日以内に、DOD、保健福祉省(HHS)、DOE(国立研究所を含む)、DHS、 NSF、および生物学的・化学的データに実質的に訓練された AI システムの開発を追求するその他の機関は、必要に応じて、 バイオセーフティとバイオセキュリティを強化するために高性能計算資源と AI システムを活用する取り組みを支援するものとする。 これらの取り組みには以下が含まれる: |
(A) The development of tools for screening in silico chemical and biological research and technology; |
(A) インシリコ化学・生物学研究および技術をスクリーニングするためのツールの開発; |
(B) The creation of algorithms for nucleic acid synthesis screening; |
(B)核酸合成スクリーニングのためのアルゴリズムの作成; |
(C) The construction of high-assurance software foundations for novel biotechnologies; |
(C)新規バイオテクノロジーのための高信頼性ソフトウェア基盤の構築; |
(D) The screening of complete orders or data streams from cloud labs and biofoundries; and |
(D)クラウドラボやバイオファウンドリーからの完全なオーダーやデータストリームのスクリーニング。 |
(E) The development of risk mitigation strategies such as medical countermeasures. |
(E) 医療対策などのリスク低減戦略の開発。 |
(iii) After the publication of biological and chemical safety guidance by AISI outlined in subsection 3.3(e) of this section, all agencies that directly develop relevant dual-use foundation AI models that are made available to the public and are substantially trained on biological or chemical data shall incorporate this guidance into their agency’s practices, as appropriate and feasible. |
(iii) 本節 3.3(e)項に概説されている AISI による生物学的及び化学的安全性ガイダンスの公表後、 一般に公開され、生物学的又は化学的データについて実質的に訓練された、関連するデュアルユース基盤 AI モデルを直接開発するすべての機関は、適切かつ実行可能である場合には、このガイダンスを機関の実務に組み込むものとする。 |
(iv) Within 180 days of the date of this memorandum, NSF, in coordination with DOD, Commerce (acting through AISI within NIST), HHS, DOE, the Office of Science and Technology Policy (OSTP), and other relevant agencies, shall seek to convene academic research institutions and scientific publishers to develop voluntary best practices and standards for publishing computational biological and chemical models, data sets, and approaches, including those that use AI and that could contribute to the production of knowledge, information, technologies, and products that could be misused to cause harm. This is in furtherance of the activities described in subsections 4.4 and 4.7 of Executive Order 14110. |
(iv) NSFは、本覚書の日付から180日以内に、国防総省、商務省(NIST内のAISIを通じて行動)、HHS、DOE、米国科学技術政策局(OSTP)、およびその他の関連機関と連携して、学術研究機構および科学出版社を招集し、AIを使用し、危害をもたらすために悪用される可能性のある知識、情報、技術、製品の生産に貢献する可能性のあるものを含む、計算生物学的および化学的モデル、データセット、およびアプローチを公開するための自主的なベストプラクティスおよび標準を開発するよう努めるものとする。 これは、大統領令14110号の4.4項および4.7項に記載された活動を推進するものである。 |
(v) Within 540 days of the date of this memorandum, and informed by the United States Government Policy for Oversight of Dual Use Research of Concern and Pathogens with Enhanced Pandemic Potential, OSTP, NSC staff, and the Office of Pandemic Preparedness and Response Policy, in consultation with relevant agencies and external stakeholders as appropriate, shall develop guidance promoting the benefits of and mitigating the risks associated with in silico biological and chemical research. |
(v) この覚書の日付から540日以内に、「懸念されるデュアルユース研究およびパンデミックの可能性が高まった病原体の監視に関する米国政府方針」に基づき、OSTP、NSCスタッフ、およびパンデミック準備・対応政策局は、関連省庁および必要に応じて外部の利害関係者と協議の上、インシリコ生物・化学研究の利点を促進し、関連するリスクを低減するガイダンスを作成するものとする。 |
(h) Agencies shall take the following actions to improve foundational understanding of AI safety, security, and trustworthiness: |
(h) 省庁は、AIの安全性、セキュリティ、信頼性についての基礎的理解を向上させるため、以下の行動をとるものとする: |
(i) DOD, Commerce, DOE, DHS, ODNI, NSF, NSA, and the National Geospatial-Intelligence Agency (NGA) shall, as appropriate and consistent with applicable law, prioritize research on AI safety and trustworthiness. As appropriate and consistent with existing authorities, they shall pursue partnerships as appropriate with leading public sector, industry, civil society, academic, and other institutions with expertise in these domains, with the objective of accelerating technical and socio-technical progress in AI safety and trustworthiness. This work may include research on interpretability, formal methods, privacy enhancing technologies, techniques to address risks to civil liberties and human rights, human-AI interaction, and/or the socio-technical effects of detecting and labeling synthetic and authentic content (for example, to address the malicious use of AI to generate misleading videos or images, including those of a strategically damaging or non-consensual intimate nature, of political or public figures). |
(i) 国防総省、商務省、DOE、DHS、ODNI、NSF、NSA、国土地理院は、適宜、適用法に則り、AIの安全性と信頼性に関する研究を優先する。 適切かつ既存の認可と整合性があるように、AIの安全性と信頼性における技術的・社会技術的進歩を加速させることを目的として、これらの領域における専門知識を有する主要な公共部門、産業界、市民社会、学術機関、その他の機構とのパートナーシップを適宜追求するものとする。 この作業には、解釈可能性、形式手法、プライバシー強化技術、市民的自由と人権へのリスクに対処する技術、人間とAIの相互作用、および/または合成コンテンツと認証コンテンツの検出とラベリングの社会技術的効果(例えば、政治家や公人について、戦略的に損害を与える、または非同意的な親密さを含む、誤解を招く動画や画像を生成するためのAIの悪意ある使用に対処するためのもの)に関する研究が含まれる可能性がある。 |
(ii) DOD, Commerce, DOE, DHS, ODNI, NSF, NSA, and NGA shall, as appropriate and consistent with applicable law, prioritize research to improve the security, robustness, and reliability of AI systems and controls. These entities shall, as appropriate and consistent with applicable law, partner with other agencies, industry, civil society, and academia. Where appropriate, DOD, DHS (acting through CISA), the Federal Bureau of Investigation, and NSA (acting through AISC) shall publish unclassified guidance concerning known AI cybersecurity vulnerabilities and threats; best practices for avoiding, detecting, and mitigating such issues during model training and deployment; and the integration of AI into other software systems. This work shall include an examination of the role of and vulnerabilities potentially caused by AI systems used in critical infrastructure. |
(ii) 国防総省、商務省、DOE、DHS、ODNI、NSF、NSA、及び NGA は、適切かつ適用法に合致するように、AI システム及び制御の安全性、 堅牢性、及び信頼性を改善するための研究を優先する。 これらの事業体は、適宜、適用法に則り、他機関、産業界、市民社会、学界と提携するものとする。 適切な場合、DOD、DHS(CISA を通じて活動)、連邦捜査局、NSA(AISC を通じて活動)は、既知の AI のサイバーセキュリティの脆弱性と脅威、モデルの訓練と展開中にそのような問題を回避、検知、緩和するためのベストプラクティス、他のソフトウェアシステムへの AI の統合に関する非機密ガイダンスを公表するものとする。 このワーク・ロールには、重要インフラで使用されるAIシステムの役割と、AIシステムによって引き起こされる可能性のある脆弱性の検討も含まれるものとする。 |
(i) Agencies shall take actions to protect classified and controlled information, given the potential risks posed by AI: |
(i)各省庁は、AIがもたらす潜在的リスクを考慮し、機密情報及び管理情報を保護するための措置を講じなければならない: |
(i) In the course of regular updates to policies and procedures, DOD, DOE, and the IC shall consider how analysis enabled by AI tools may affect decisions related to declassification of material, standards for sufficient anonymization, and similar activities, as well as the robustness of existing operational security and equity controls to protect classified or controlled information, given that AI systems have demonstrated the capacity to extract previously inaccessible insight from redacted and anonymized data. |
(i)DOD、DOE、および IC は、方針および手順の定期的な更新の過程で、AI ツールが可能にする分析が、資料の機密解除、十分な匿名化の標準、および同様の活動に関連する決定にどのような影響を及ぼすか、また、AI システムが、冗長化および匿名化されたデータから、以前はアクセスできなかった知見を抽出する能力を実証していることを踏まえ、機密情報または管理情報を保護するための既存の運用セキュリティおよび衡平性管理の堅牢性を検討するものとする。 |
Sec. 4. Responsibly Harnessing AI to Achieve National Security Objectives. |
セクション4. 国家安全保障の目的を達成するためにAIを責任を持って活用する。 |
(a) It is the policy of the United States Government to act decisively to enable the effective and responsible use of AI in furtherance of its national security mission. Achieving global leadership in national security applications of AI will require effective partnership with organizations outside Government, as well as significant internal transformation, including strengthening effective oversight and governance functions. |
(a) 米国政府は、国家安全保障の使命を推進するために、AIの効果的かつ責任ある利用を可能にするために断固として行動する方針である。 AIの国家安全保障への応用において世界的なリーダーシップを達成するためには、効果的な監督・ガバナンス機能の強化を含む政府内部の大幅な変革とともに、政府外の組織との効果的なパートナーシップが必要である。 |
4.1. Enabling Effective and Responsible Use of AI. |
4.1. AIの効果的かつ責任ある利用を可能にする。 |
(a) It is the policy of the United States Government to adapt its partnerships, policies, and infrastructure to use AI capabilities appropriately, effectively, and responsibly. These modifications must balance each agency’s unique oversight, data, and application needs with the substantial benefits associated with sharing powerful AI and computational resources across the United States Government. Modifications must also be grounded in a clear understanding of the United States Government’s comparative advantages relative to industry, civil society, and academia, and must leverage offerings from external collaborators and contractors as appropriate. The United States Government must make the most of the rich United States AI ecosystem by incentivizing innovation in safe, secure, and trustworthy AI and promoting industry competition when selecting contractors, grant recipients, and research collaborators. Finally, the United States Government must address important technical and policy considerations in ways that ensure the integrity and interoperability needed to pursue its objectives while protecting human rights, civil rights, civil liberties, privacy, and safety. |
(a) AI能力を適切、効果的かつ責任を持って利用するために、そのパートナーシップ、政策、インフラを適応させることは米国政府の方針である。 これらの修正は、各省庁独自の監督、データ、アプリケーションのニーズと、米国政府全体で強力なAIと計算資源を共有することに伴う実質的な利益とのバランスをとらなければならない。 また、産業界、市民社会、学界と比較した米国政府の優位性を明確に理解した上で、適切な外部協力者や請負業者からの提供を活用した修正を行わなければならない。 米国政府は、請負業者、助成金取得者、研究協力者を選定する際に、安全、安心、信頼できるAIのイノベーションにインセンティブを与え、産業競争を促進することにより、米国の豊かなAIエコシステムを最大限に活用しなければならない。 最後に、米国政府は、人権、市民権、市民的自由、プライバシー、安全を保護しつつ、その目的を追求するために必要な完全性と相互運用性を確保する方法で、重要な技術的・政策的考慮事項に取り組まなければならない。 |
(b) The United States Government needs an updated set of Government-wide procedures for attracting, hiring, developing, and retaining AI and AI-enabling talent for national security purposes. |
(b) 米国政府は、国家安全保障を目的とするAIおよびAIを可能にする人材を惹きつけ、雇用し、開発し、保持するための政府全体の手順を更新する必要がある。 |
(c) Consistent with these goals: |
(c)これらの目標に合致する: |
(i) In the course of regular legal, policy, and compliance framework reviews, the Department of State, DOD, DOJ, DOE, DHS, and IC elements shall revise, as appropriate, their hiring and retention policies and strategies to accelerate responsible AI adoption. Agencies shall account for technical talent needs required to adopt AI and integrate it into their missions and other roles necessary to use AI effectively, such as AI-related governance, ethics, and policy positions. These policies and strategies shall identify financial, organizational, and security hurdles, as well as potential mitigations consistent with applicable law. Such measures shall also include consideration of programs to attract experts with relevant technical expertise from industry, academia, and civil society — including scholarship for service programs — and similar initiatives that would expose Government employees to relevant non-government entities in ways that build technical, organizational, and cultural familiarity with the AI industry. These policies and strategies shall use all available authorities, including expedited security clearance procedures as appropriate, in order to address the shortfall of AI-relevant talent within Government. |
(i) 国務省、国防総省、司法省、DOE、国土安全保障省(DHS)、情報通信研究機構(IC)は、定期的な法的、政策的、コンプライアンス的枠組みの見直しの中で、責任あるAIの採用を加速させるため、採用・保持の方針と戦略を適宜見直す。 政府は、AIを採用するために必要な技術的人材のニーズを考慮し、AI関連のガバナンス、倫理、政策職など、AIを効果的に活用するために必要な役割やミッションにAIを組み込むものとする。 これらの方針および戦略は、財政的、組織的、およびセキュリティ上のハードル、ならびに適用法に合致した潜在的低減策を特定するものとする。 このような措置には、産業界、学界、市民社会から、関連する技術的専門知識を有する専門家を誘致するためのプログラム(奉仕活動に対する奨学金プログラムを含む)、及び、AI産業に対する技術的、組織的、文化的な親近感を醸成するような方法で、政府職員を関連する非政府事業体に接触させるような類似のイニシアティブの検討も含まれなければならない。 これらの方針及び戦略は、政府内のAI関連人材の不足に対処するため、適宜、迅速なセキュリティ・クリアランス手続きを含む、あらゆる利用可能な権限を使用するものとする。 |
(ii) Within 120 days of the date of this memorandum, the Department of State, DOD, DOJ, DOE, DHS, and IC elements shall each, in consultation with the Office of Management and Budget (OMB), identify education and training opportunities to increase the AI competencies of their respective workforces, via initiatives which may include training and skills-based hiring. |
(ii) この覚書の日付から120日以内に、国務省、国防総省、司法省、DOE、国土安全保障省(DHS)、および識別情報はそれぞれ、行政管理予算局(OMB)と協議の上、研修や技能ベースの雇用を含む取り組みを通じて、それぞれの職員のAI能力を高めるための教育・研修の機会を特定する。 |
(d) To accelerate the use of AI in service of its national security mission, the United States Government needs coordinated and effective acquisition and procurement systems. This will require an enhanced capacity to assess, define, and articulate AI-related requirements for national security purposes, as well as improved accessibility for AI companies that lack significant prior experience working with the United States Government. |
(d) 国家安全保障の使命のためにAIの利用を加速するために、米国政府は、協調的かつ効果的な取得・調達システムを必要とする。 そのためには、国家安全保障目的でのAI関連要件のアセスメント、定義、明示の能力を強化するとともに、米国政府との協働経験が乏しいAI企業にとってのアクセス性を改善する必要がある。 |
(e) Consistent with these goals: |
(e)これらの目標に沿って |
(i) Within 30 days of the date of this memorandum, DOD and ODNI, in coordination with OMB and other agencies as appropriate, shall establish a working group to address issues involving procurement of AI by DOD and IC elements and for use on NSS. As appropriate, the working group shall consult the Director of the NSA, as the National Manager for NSS, in developing recommendations for acquiring and procuring AI for use on NSS. |
(i) この覚書の日付から30日以内に、DODとODNIは、OMBおよび必要に応じて他の機関と連携し、DODおよびICの要素によるAIの調達、およびNSSでの使用に関わる問題に取り組むための作業部会を設置する。 必要に応じて、作業部会は、NSSで使用するAIの取得と調達に関する勧告を策定するにあたり、NSSの国家管理者としてNSA長官と協議するものとする。 |
(ii) Within 210 days of the date of this memorandum, the working group described in subsection 4.1(e)(i) of this section shall provide written recommendations to the Federal Acquisition Regulatory Council (FARC) regarding changes to existing regulations and guidance, as appropriate and consistent with applicable law, to promote the following objectives for AI procured by DOD and IC elements and for use on NSS: |
(ii) 本覚書の日付から210日以内に、本節の4.1(e)(i)項に記載された作業部会は、国防総省およびICの要素によって調達され、NSSで使用されるAIの以下の目的を促進するために、適切かつ適用法と一致するように、既存の規制および指針の変更に関する書面による勧告を連邦調達規制審議会(FARC)に提出するものとする: |
(A) Ensuring objective metrics to measure and promote the safety, security, and trustworthiness of AI systems; |
(A)AIシステムの安全性、セキュリティ、信頼性を測定・促進するための客観的指標を確保する; |
(B) Accelerating the acquisition and procurement process for AI, consistent with the Federal Acquisition Regulation, while maintaining appropriate checks to mitigate safety risks; |
(B)安全リスクを軽減するための適切なチェックを維持しつつ、連邦調達規則(Federal Acquisition Regulation)に沿って、AIの取得・調達プロセスを加速すること; |
(C) Simplifying processes such that companies without experienced contracting teams may meaningfully compete for relevant contracts, to ensure that the United States Government has access to a wide range of AI systems and that the AI marketplace is competitive; |
(C)経験豊富な契約チームを持たない企業でも関連する契約について有意義な競争ができるようにプロセスを簡素化し、米国政府が幅広いAIシステムにアクセスできるようにするとともに、AI市場の競争力を確保する; |
(D) Structuring competitions to encourage robust participation and achieve best value to the Government, such as by including requirements that promote interoperability and prioritizing the technical capability of vendors when evaluating offers; |
(D)相互運用性を促進する要件を盛り込んだり、オファー評価時にベンダーの技術能力を優先するなど、強力な参加を促し、政府にとって最良の価値を達成するための競争を構造化する; |
(E) Accommodating shared use of AI to the greatest degree possible and as appropriate across relevant agencies; and |
(E) 可能な限り、また適切な場合には、関係省庁間でAIを共有利用する。 |
(F) Ensuring that agencies with specific authorities and missions may implement other policies, where appropriate and necessary. |
(F) 特定の認可と使命を有する機関が、適切かつ必要な場合には、他の政策を実施できるようにする。 |
(iii) The FARC shall, as appropriate and consistent with applicable law, consider proposing amendments to the Federal Acquisition Regulation to codify recommendations provided by the working group pursuant to subsection 4.1(e)(ii) of this section that may have Government-wide application. |
(iii) FARC は、適切かつ適用法と一致する場合には、本節第 4.1 項(e)(ii)に従っ て作業部会が提示した勧告のうち、政府全体に適用される可能性のあるものを成文化するため、連邦 取得規則の改正を提案することを検討するものとする。 |
(iv) DOD and ODNI shall seek to engage on an ongoing basis with diverse United States private sector stakeholders — including AI technology and defense companies and members of the United States investor community — to identify and better understand emerging capabilities that would benefit or otherwise affect the United States national security mission. |
(iv) 国防総省および識別は、米国の国家安全保障の使命に利益をもたらすか、そうでなければ影響を与える新たな能力を特定し、よりよく理解するために、AI技術および防衛企業、米国の投資家コミュニティのメンバーを含む、米国の多様な民間セクターの利害関係者と継続的に関与するよう努めるものとする。 |
(f) The United States Government needs clear, modernized, and robust policies and procedures that enable the rapid development and national security use of AI, consistent with human rights, civil rights, civil liberties, privacy, safety, and other democratic values. |
(f) 米国政府は、人権、市民権、市民的自由、プライバシー、安全、その他の民主主義的価値観と矛盾することなく、AIの迅速な開発と国家安全保障上の利用を可能にする、明確で近代化された強固な政策と手続きを必要としている。 |
(g) Consistent with these goals: |
(g) これらの目標に整合する: |
(i) DOD and the IC shall, in consultation with DOJ as appropriate, review their respective legal, policy, civil liberties, privacy, and compliance frameworks, including international legal obligations, and, as appropriate and consistent with applicable law, seek to develop or revise policies and procedures to enable the effective and responsible use of AI, accounting for the following: |
(i) 国防総省及び情報通信研究機構は、必要に応じて司法省と協議の上、国際的な法的義務を含め、それぞれの法的、政策的、市民的自由、プライバシー、及びコンプライアンスの枠組みを見直し、適切かつ適用法と整合的である場合には、以下を考慮しつつ、AIの効果的かつ責任ある利用を可能にするための政策及び手続の策定又は改訂を目指すものとする: |
(A) Issues raised by the acquisition, use, retention, dissemination, and disposal of models trained on datasets that include personal information traceable to specific United States persons, publicly available information, commercially available information, and intellectual property, consistent with section 9 of Executive Order 14110; |
(A) 大統領令第14110条第9項に従い、特定の米国人を特定できる個人情報、一般に入手可能な情報、商業的に入手可能な情報、および知的財産を含むデータセットに学習させたモデルの取得、使用、保持、普及、および廃棄によって生じる問題; |
(B) Guidance that shall be developed by DOJ, in consultation with DOD and ODNI, regarding constitutional considerations raised by the IC’s acquisition and use of AI; |
(B) 司法省が、DODおよびODNIと協議の上、ICによるAIの取得・使用によって生じる憲法上の考慮事項に関して作成するガイダンス; |
(C) Challenges associated with classification and compartmentalization; |
(C)分類と区分に関する課題; |
(D) Algorithmic bias, inconsistent performance, inaccurate outputs, and other known AI failure modes; |
(D) アルゴリズムのバイアス、一貫性のない性能、不正確な出力、その他既知のAIの故障モード; |
(E) Threats to analytic integrity when employing AI tools; |
(E)AIツールを使用する際の分析的完全性への脅威 |
(F) Risks posed by a lack of safeguards that protect human rights, civil rights, civil liberties, privacy, and other democratic values, as addressed in further detail in subsection 4.2 of this section; |
(F)人権、市民権、市民的自由、プライバシー、その他の民主的価値を保護するセーフガードの欠如がもたらすリスク; |
(G) Barriers to sharing AI models and related insights with allies and partners; and |
(G)AIモデルや関連する知見を同盟国やパートナーと共有する際の障壁 |
(H) Potential inconsistencies between AI use and the implementation of international legal obligations and commitments. |
(H)AIの利用と国際的な法的義務及び公約の履行との間の潜在的な矛盾。 |
(ii) As appropriate, the policies described in subsection 4.1(g) of this section shall be consistent with direction issued by the Committee on NSS and DOD governing the security of AI used on NSS, policies issued by the Director of National Intelligence governing adoption of AI by the IC, and direction issued by OMB governing the security of AI used on non-NSS. |
(ii) 必要に応じて、本項4.1(g)号に記載された方針は、NSSで使用されるAIの安全性を規定するNSS及び国防総省に関する委員会が発行する方針、ICによるAIの採用を規定する国家情報長官が発行する方針、及びNSS以外で使用されるAIの安全性を規定するOMBが発行する方針と整合するものとする。 |
(iii) On an ongoing basis, each agency that uses AI on NSS shall, in consultation with ODNI and DOD, take all steps appropriate and consistent with applicable law to accelerate responsible approval of AI systems for use on NSS and accreditation of NSS that use AI systems. |
(iii) 継続的に、NSSでAIを使用する各機関は、ODNI及びDODと協議の上、NSSで使用するAIシステムの責任ある承認及びAIシステムを使用するNSSの認定を加速するために、適用法に合致した適切なあらゆる措置を講じること。 |
(h) The United States’ network of allies and partners confers significant advantages over competitors. Consistent with the 2022 National Security Strategy or any successor strategies, the United States Government must invest in and proactively enable the co-development and co-deployment of AI capabilities with select allies and partners. |
(h) 米国の同盟国やパートナーのネットワークは、競争相手に対して大きな優位性をもたらす。 2022年国家安全保障戦略またはその後継戦略に沿って、米国政府は、選択された同盟国およびパートナーとのAI能力の共同開発および共同展開に投資し、積極的に可能にしなければならない。 |
(i) Consistent with these goals: |
(i) これらの目標に合致する: |
(i) Within 150 days of the date of this memorandum, DOD, in coordination with the Department of State and ODNI, shall evaluate the feasibility of advancing, increasing, and promoting co-development and shared use of AI and AI-enabled assets with select allies and partners. This evaluation shall include: |
(i) 本覚書の日付から150日以内に、国防総省は、国務省およびODNIと連携して、特定の同盟国およびパートナーとのAIおよびAI対応資産の共同開発および共同利用の推進、増加、促進の実現可能性を評価するものとする。 この評価には以下が含まれる: |
(A) A potential list of foreign states with which such co-development or co-deployment may be feasible; |
(A) そのような共同開発や共同展開が実現可能な外国の候補リスト; |
(B) A list of bilateral and multilateral fora for potential outreach; |
(B)潜在的な働きかけのための二国間および多国間の場のリスト; |
(C) Potential co-development and co-deployment concepts; |
(C) 共同開発及び共同展開の可能性のあるコンセプト; |
(D) Proposed classification-appropriate testing vehicles for co-developed AI capabilities; and |
(D) 共同開発されたAI能力の分類に適したテスト手段の提案。 |
(E) Considerations for existing programs, agreements, or arrangements to use as foundations for future co-development and co-deployment of AI capabilities. |
(E) 将来のAI能力の共同開発・共同展開の基盤として使用するための、既存のプログラム、協定、または取決めに関する考慮事項。 |
(j) The United States Government needs improved internal coordination with respect to its use of and approach to AI on NSS in order to ensure interoperability and resource sharing consistent with applicable law, and to reap the generality and economies of scale offered by frontier AI models. |
(j) 米国政府は、適用法に合致した相互運用性とリソースの共有を確保し、フロンティアAIモデルが提供する汎用性と規模の経済を享受するため、NSSにおけるAIの利用とアプローチに関して、内部調整の改善を必要としている。 |
(k) Consistent with these goals: |
(k) これらの目標に一貫性を持たせる: |
(i) On an ongoing basis, DOD and ODNI shall issue or revise relevant guidance to improve consolidation and interoperability across AI functions on NSS. This guidance shall seek to ensure that the United States Government can coordinate and share AI-related resources effectively, as appropriate and consistent with applicable law. Such work shall include: |
(i) 継続的に、国防総省とODNIは、NSSにおけるAI機能の統合と相互運用性を改善するため、関連ガイダンスを発行または改訂する。 このガイダンスは、米国ガバナンスが、適切かつ適用法に従って、AI 関連資源を効果的に調整し、共有できるようにすることを目指すものとする。 このような作業には以下が含まれる: |
(A) Recommending agency organizational practices to improve AI research and deployment activities that span multiple national security institutions. In order to encourage AI adoption for the purpose of national security, these measures shall aim to create consistency to the greatest extent possible across the revised practices. |
(A)複数の国家安全保障機構にまたがるAIの研究・展開活動を改善するための、各省庁の組織的慣行を推奨すること。 A)複数の国家安全保障機関にまたがるAIの研究・配備活動を改善するための組織的慣行の推奨。国家安全保障を目的としたAIの導入を促進するため、これらの慣行は、改訂された慣行間で可能な限り一貫性を持たせることを目指すものとする。 |
(B) Steps that enable consolidated research, development, and procurement for general-purpose AI systems and supporting infrastructure, such that multiple agencies can share access to these tools to the extent consistent with applicable law, while still allowing for appropriate controls on sensitive data. |
(B)汎用AIシステムおよびそれを支えるインフラの研究、開発、調達を統合し、複数の機関が適用法に合致する範囲でこれらのツールへのアクセスを共有できるようにする一方で、機密データに対する適切な統制を可能にするような措置を講じること。 |
(C) Aligning AI-related national security policies and procedures across agencies, as practicable and appropriate, and consistent with applicable law. |
(C)現実的かつ適切な範囲で、適用法に合致するように、AI関連の国家安全保障政策・手続を省庁間で整合させる。 |
(D) Developing policies and procedures, as appropriate and consistent with applicable law, to share information across DOD and the IC when an AI system developed, deployed, or used by a contractor demonstrates risks related to safety, security, and trustworthiness, including to human rights, civil rights, civil liberties, or privacy. |
(D)請負業者が開発、展開、使用するAIシステムが、人権、市民権、市民的自由、プライバシーを含め、安全、セキュリティ、信頼性に関連するリスクを示す場合、適切かつ適用法に合致する範囲で、DODとIC間で情報を共有するための方針と手順を策定する。 |
4.2. Strengthening AI Governance and Risk Management. |
4.2. AI ガバナンスとリスクマネジメントの強化。 |
(a) As the United States Government moves swiftly to adopt AI in support of its national security mission, it must continue taking active steps to uphold human rights, civil rights, civil liberties, privacy, and safety; ensure that AI is used in a manner consistent with the President’s authority as Commander in Chief to decide when to order military operations in the Nation’s defense; and ensure that military use of AI capabilities is accountable, including through such use during military operations within a responsible human chain of command and control. Accordingly, the United States Government must develop and implement robust AI governance and risk management practices to ensure that its AI innovation aligns with democratic values, updating policy guidance where necessary. In light of the diverse authorities and missions across covered agencies with a national security mission and the rapid rate of ongoing technological change, such AI governance and risk management frameworks shall be: |
(a) 米国政府は、国家安全保障の使命を支援するためにAIの導入を迅速に進める中で、人権、市民権、市民的自由、プライバシー、安全を守るための積極的な措置をとり続けなければならない。また、AIが、国家の防衛のために軍事作戦を命令する時期を決定する最高司令官としての大統領の権限に合致した方法で使用されることを確保し、責任ある人間の指揮命令系統の中での軍事作戦中の使用を含め、AI能力の軍事的使用が説明責任を果たすことを確保しなければならない。 したがって、米国政府は、AIの技術革新が民主主義の価値観に合致するよう、強固なAIガバナンスとリスクマネジメントを開発・実施し、必要に応じて政策指針を更新しなければならない。 国家安全保障を任務とする対象局における多様な認可と任務、そして現在進行中の技術革新の急速な速度に鑑み、このようなAIガバナンスとリスクマネジメントの枠組みは以下のものでなければならない: |
(i) Structured, to the extent permitted by law, such that they can adapt to future opportunities and risks posed by new technical developments; |
(i)新たな技術開発によってもたらされる将来の機会やリスクに適応できるよう、法律で許される範囲で、構造化される; |
(ii) As consistent across agencies as is practicable and appropriate in order to enable interoperability, while respecting unique authorities and missions; |
(ii)独自の認可と使命を尊重しつつ、相互運用性を可能にするため、実務上可能かつ適切な限り、省庁間で一貫性を持たせる; |
(iii) Designed to enable innovation that advances United States national security objectives; |
(iii) 米国の国家安全保障目標を推進する技術革新を可能にするように設計される; |
(iv) As transparent to the public as practicable and appropriate, while protecting classified or controlled information; |
(iv) 機密又は管理された情報を保護しつつ、実行可能かつ適切な限り、一般に透明であること; |
(v) Developed and applied in a manner and with means to integrate protections, controls, and safeguards for human rights, civil rights, civil liberties, privacy, and safety where relevant; and |
(v) 人権、市民権、市民的自由、プライバシー及び安全に関する防御、管理及び保障措置を、関連する場合には統合する方法及び手段を用いて開発し、適用する。 |
(vi) Designed to reflect United States leadership in establishing broad international support for rules and norms that reinforce the United States’ approach to AI governance and risk management. |
(vi)AIガバナンス及びリスクマネジメントに対する米国のアプローチを強化する規則及び規範に対する広範な国際的支持の確立における米国のリーダーシップを反映するように設計される。 |
(b) Covered agencies shall develop and use AI responsibly, consistent with United States law and policies, democratic values, and international law and treaty obligations, including international humanitarian and human rights law. All agency officials retain their existing authorities and responsibilities established in other laws and policies. |
(b) 対象機関は、米国の法律と政策、民主主義的価値観、国際人道法・人権法を含む国際法・条約上の義務に則り、責任を持ってAIを開発・利用しなければならない。 すべての省庁職員は、他の法律や政策で確立された既存の認可と責任を保持する。 |
(c) Consistent with these goals: |
(c)これらの目標に合致する: |
(i) Heads of covered agencies shall, consistent with their authorities, monitor, assess, and mitigate risks directly tied to their agency’s development and use of AI. Such risks may result from reliance on AI outputs to inform, influence, decide, or execute agency decisions or actions, when used in a defense, intelligence, or law enforcement context, and may impact human rights, civil rights, civil liberties, privacy, safety, national security, and democratic values. These risks from the use of AI include the following: |
(i)対象省庁の長は、その権限に基づき、当該省庁のAI開発・利用に直接関連するリスクを監視、アセスメント、低減しなければならない。 このようなリスクは、防衛、情報、法執行の文脈で使用される場合、AIのアウトプットに依存して機関の意思決定や行動に情報を与え、影響を与え、決定し、または実行することから生じる可能性があり、人権、市民権、市民的自由、プライバシー、安全、国家安全保障、民主的価値に影響を与える可能性がある。 AIの使用によるこれらのリスクには、以下のものが含まれる: |
(A) Risks to physical safety: AI use may pose unintended risks to human life or property. |
(A)身体的安全に対するリスク: A)物理的安全に対するリスク:AIの使用は、人命や財産に意図しないリスクをもたらす可能性がある。 |
(B) Privacy harms: AI design, development, and operation may result in harm, embarrassment, unfairness, and prejudice to individuals. |
(B)プライバシーへの害: A)物理的安全性に対するリスク:AIの使用は、人間の生命や財産に意図しないリスクをもたらす可能性がある。 |
(C) Discrimination and bias: AI use may lead to unlawful discrimination and harmful bias, resulting in, for instance, inappropriate surveillance and profiling, among other harms. |
(C)識別的差別とバイアス: AIの利用は、違法な差別や有害なバイアスにつながる可能性があり、その結果、例えば、不適切な監視やプロファイリングなどの弊害が生じる。 |
(D) Inappropriate use: operators using AI systems may not fully understand the capabilities and limitations of these technologies, including systems used in conflicts. Such unfamiliarity could impact operators’ ability to exercise appropriate levels of human judgment. |
(D)不適切な使用:AIシステムを使用するオペレーターは、紛争で使用されるシステムを含め、これらの技術の能力と限界を十分に理解していない可能性がある。 そのような不慣れは、オペレーターが適切なレベルの人間的判断を行使する能力に影響を与える可能性がある。 |
(E) Lack of transparency: agencies may have gaps in documentation of AI development and use, and the public may lack access to information about how AI is used in national security contexts because of the necessity to protect classified or controlled information. |
(E)透明性の欠如:国家安全保障局では、AIの開発・使用に関する文書に不備がある可能性があり、また、機密情報や管理情報を保護する必要性から、国家安全保障の文脈でAIがどのように使用されているかについての情報に一般市民がアクセスできない可能性がある。 |
(F) Lack of accountability: training programs and guidance for agency personnel on the proper use of AI systems may not be sufficient, including to mitigate the risk of overreliance on AI systems (such as “automation bias”), and accountability mechanisms may not adequately address possible intentional or negligent misuse of AI-enabled technologies. |
(F)アカウンタビリティの欠如:AIシステムの適切な使用に関する省庁職員向けの研修プログラムやガイダンスは、AIシステムへの過度の依存(「自動化バイアス」など)のリスクを軽減することも含めて十分でない可能性があり、アカウンタビリティの仕組みは、AI対応技術の意図的または過失による誤用の可能性に適切に対処していない可能性がある。 |
(G) Data spillage: AI systems may reveal aspects of their training data — either inadvertently or through deliberate manipulation by malicious actors — and data spillage may result from AI systems trained on classified or controlled information when used on networks where such information is not permitted. |
(G) データの流出: AIシステムは、不注意であれ、悪意のある行為者による意図的な操作であれ、学習データの一部を漏えいさせる可能性がある。また、機密情報や学習データ制御情報に基づいて学習されたAIシステムが、そのような情報が許可されていないネットワークで使用された場合、データの漏えいが生じる可能性がある。 |
(H) Poor performance: AI systems that are inappropriately or insufficiently trained, used for purposes outside the scope of their training set, or improperly integrated into human workflows may exhibit poor performance, including in ways that result in inconsistent outcomes or unlawful discrimination and harmful bias, or that undermine the integrity of decision-making processes. |
(H)パフォーマンスの低下: 不適切または不十分な訓練を受けたAIシステム、訓練セットの範囲外の目的で使用されたAIシステム、または人間のワークフローに不適切に組み込まれたAIシステムは、一貫性のない結果や違法な差別や有害なバイアスをもたらすような方法、または意思決定プロセスの完全性を損なうような方法を含め、パフォーマンスが低下する可能性がある。 |
(I) Deliberate manipulation and misuse: foreign state competitors and malicious actors may deliberately undermine the accuracy and efficacy of AI systems, or seek to extract sensitive information from such systems. |
(I)意図的な操作と誤用:外国の競争相手や悪意ある行為者は、AIシステムの精度や有効性を意図的に損なったり、そのようなシステムから機密情報を抽出しようとしたりする可能性がある。 |
(d) The United States Government’s AI governance and risk management policies must keep pace with evolving technology. |
(d)米国政府のAIガバナンスとリスクマネジメント方針は、技術の進化に対応したものでなければならない。 |
(e) Consistent with these goals: |
(e)これらの目標に合致する: |
(i) An AI framework, entitled “Framework to Advance AI Governance and Risk Management in National Security” (AI Framework), shall further implement this subsection. The AI Framework shall be approved by the NSC Deputies Committee through the process described in National Security Memorandum 2 of February 4, 2021 (Renewing the National Security Council System), or any successor process, and shall be reviewed periodically through that process. This process shall determine whether adjustments are needed to address risks identified in subsection 4.2(c) of this section and other topics covered in the AI Framework. The AI Framework shall serve as a national security-focused counterpart to OMB’s Memorandum M-24-10 of March 28, 2024 (Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence), and any successor OMB policies. To the extent feasible, appropriate, and consistent with applicable law, the AI Framework shall be as consistent as possible with these OMB policies and shall be made public. |
(i) 「国家安全保障におけるAIガバナンスとリスクマネジメントを推進する枠組み」(AIフレームワーク)と題するAIの枠組みは、本款をさらに実施するものとする。 AI枠組みは、2021年2月4日付国家安全保障覚書2(国家安全保障会議制度の刷新)、またはそれに代わるプロセスに記載されたプロセスを通じて、NSC副委員会により承認され、そのプロセスを通じて定期的に見直されるものとする。 このプロセスでは、本項4.2(c)で特定されたリスクや、AI枠組みに含まれるその他のトピックに対処するための調整が必要かどうかを判断する。 AI枠組みは、2024年3月28日のOMBの覚書M-24-10(Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence)、およびOMBの後継政策と対をなす、国家安全保障に焦点を当てたものとする。 実現可能で、適切で、適用法と矛盾しない範囲で、AI枠組みは、これらのOMB方針と可能な限り矛盾しないものとし、公開されなければならない。 |
(ii) The AI Framework described in subsection 4.2(e)(i) of this section and any successor document shall, at a minimum, and to the extent consistent with applicable law, specify the following: |
(ii) 本項4.2(e)(i)に記載されたAI枠組み及びその後継文書は、最低限、適用法と矛盾しない範囲で、以下の事項を明記しなければならない: |
(A) Each covered agency shall have a Chief AI Officer who holds primary responsibility within that agency, in coordination with other responsible officials, for managing the agency’s use of AI, promoting AI innovation within the agency, and managing risks from the agency’s use of AI consistent with subsection 3(b) of OMB Memorandum M-24-10, as practicable. |
(A)各対象機関は、他の責任ある職員と連携して、当該機関におけるAIの利用のマネジメント、当該機関におけるAIのイノベーションの促進、及びOMB覚書M-24-10第3(b)項と整合する当該機関のAIの利用によるリスクの管理について、実務上可能な限り、主たる責任を有するAI最高責任者を置かなければならない。 |
(B) Covered agencies shall have AI Governance Boards to coordinate and govern AI issues through relevant senior leaders from the agency. |
(B)対象政府は、AIガバナンス・ボード(AI Governance Boards)を設置し、政府内の関連する上級指導者を通じてAI問題を調整・管理する。 |
(C) Guidance on AI activities that pose unacceptable levels of risk and that shall be prohibited. |
(C) 許容できないレベルのリスクをもたらし、禁止されるAI活動に関するガイダンス。 |
(D) Guidance on AI activities that are “high impact” and require minimum risk management practices, including for high-impact AI use that affects United States Government personnel. Such high-impact activities shall include AI whose output serves as a principal basis for a decision or action that could exacerbate or create significant risks to national security, international norms, human rights, civil rights, civil liberties, privacy, safety, or other democratic values. The minimum risk management practices for high-impact AI shall include a mechanism for agencies to assess AI’s expected benefits and potential risks; a mechanism for assessing data quality; sufficient test and evaluation practices; mitigation of unlawful discrimination and harmful bias; human training, assessment, and oversight requirements; ongoing monitoring; and additional safeguards for military service members, the Federal civilian workforce, and individuals who receive an offer of employment from a covered agency. |
(D) 米国政府の要員に影響を与えるような、影響度の高い AI の利用を含め、「影響度が高い」AI 活動であり、最低限のリスクマネジメントを必要とする AI 活動に関するガイダンス。このような影響度の高い活動には、国家安全保障、国際規範、人権、市民権、自由、プライバシー、安全、その他の民主主義的価値に対する重大なリスクを悪化させたり、生じさせたりする可能性のある意思決定や行動の主要な根拠となる出力があるAIを含むものとする。影響力の大きいAIの最低限のリスクマネジメントには、AIに期待される利益と潜在的リスクを評価する機関の仕組み、データの質を評価する仕組み、十分なテストと評価の実施、違法な識別的差別と有害なバイアスの低減、人的訓練、アセスメント、監視の要件、継続的な監視、軍属、連邦文民労働者、対象機関から雇用のオファーを受けた個人に対する追加的なセーフガードを含めなければならない。 |
(E) Covered agencies shall ensure privacy, civil liberties, and safety officials are integrated into AI governance and oversight structures. Such officials shall report findings to the heads of agencies and oversight officials, as appropriate, using existing reporting channels when feasible. |
(E)対象政府は、プライバシー、市民的自由、および安全の担当官が、AIのガバナンスおよび監視構造に組み込まれるようにしなければならない。 そのような職員は、実行可能な場合には、既存の報告経路を使用し、必要に応じて、調査結果を各機関の長及び監督職員に報告しなければならない。 |
(F) Covered agencies shall ensure that there are sufficient training programs, guidance, and accountability processes to enable proper use of AI systems. |
(F) 対象機関は、AIシステムの適切な使用を可能にするために、十分な訓練プログラム、ガイダンス、説明責任プロセスがあることを確保する。 |
(G) Covered agencies shall maintain an annual inventory of their high-impact AI use and AI systems and provide updates on this inventory to agency heads and the APNSA. |
(G) 対象となる省庁は、影響度の高いAIの使用及びAIシステムの年次インベントリを維持し、このインベントリの最新情報を、省庁の長及びAPNSAに提供しなければならない。 |
(H) Covered agencies shall ensure that whistleblower protections are sufficient to account for issues that may arise in the development and use of AI and AI systems. |
(H) 対象となる省庁は、AI及びAIシステムの開発及び使用において生じ得る問題を考慮するために、内部告発者防御が十分であることを確保しなければならない。 |
(I) Covered agencies shall develop and implement waiver processes for high-impact AI use that balance robust implementation of risk mitigation measures in this memorandum and the AI Framework with the need to utilize AI to preserve and advance critical agency missions and operations. |
(I) 対象となる省庁は、本覚書及びAI枠組みにおけるリスク低減措置の確実な実施と、重要な省庁のミッション及び業務を維持・前進させるためにAIを活用する必要性とのバランスを考慮した、影響度の高いAI活用のための権利放棄プロセスを策定し、実施しなければならない。 |
(J) Covered agencies shall implement cybersecurity guidance or direction associated with AI systems issued by the National Manager for NSS to mitigate the risks posed by malicious actors exploiting new technologies, and to enable interoperability of AI across agencies. Within 150 days of the date of this memorandum, and periodically thereafter, the National Manager for NSS shall issue minimum cybersecurity guidance and/or direction for AI used as a component of NSS, which shall be incorporated into AI governance guidance detailed in subsection 4.2(g)(i) of this section. |
(J) 対象機関は、新技術を悪用する悪意ある行為者によってもたらされるリスクを軽減し、省庁をまたがるAIの相互運用性を可能にするために、NSSの国家マネージャーが発行するAIシステムに関連するサイバーセキュリティの指針または指示を実施しなければならない。 本覚書の日付から150日以内、およびその後定期的に、NSS担当国家管理者は、NSSの構成要素として使用されるAIについて、最低限のサイバーセキュリティ・ガイダンスおよび/または指示を発行するものとし、これは、本節4.2(g)(i)項に詳述されているAIガバナンス・ガイダンスに組み込まれるものとする。 |
(f) The United States Government needs guidance specifically regarding the use of AI on NSS. |
(f) 米国政府は、NSSにおけるAIの使用に関して特にガイダンスを必要としている。 |
(g) Consistent with these goals: |
(g) これらの目標に整合する: |
(i) Within 180 days of the date of this memorandum, the heads of the Department of State, the Department of the Treasury, DOD, DOJ, Commerce, DOE, DHS, ODNI (acting on behalf of the 18 IC elements), and any other covered agency that uses AI as part of a NSS (Department Heads) shall issue or update guidance to their components/sub-agencies on AI governance and risk management for NSS, aligning with the policies in this subsection, the AI Framework, and other applicable policies. Department Heads shall review their respective guidance on an annual basis, and update such guidance as needed. This guidance, and any updates thereto, shall be provided to the APNSA prior to issuance. This guidance shall be unclassified and made available to the public to the extent feasible and appropriate, though it may have a classified annex. Department Heads shall seek to harmonize their guidance, and the APNSA shall convene an interagency meeting at least annually for the purpose of harmonizing Department Heads’ guidance on AI governance and risk management to the extent practicable and appropriate while respecting the agencies’ diverse authorities and missions. Harmonization shall be pursued in the following areas: |
(i) 本覚書の日付から 180 日以内に、国務省、財務省、国防総省、司法省、商務省、 DOE、DHS、ODNI(18 の IC 要素を代表して行動する)、および NSS の一部として AI を使用するその他の対象省庁の長(省庁長)は、本節の方針、 AI の枠組み、およびその他の適用される方針と整合させつつ、NSS の AI ガバナンスおよびリスクマネジメントに関するガイダンスを、その部局/下位省庁に対して発行または更新するものとする。 部局長は、それぞれのガイダンスを毎年見直し、必要に応じて更新するものとする。 本ガイダンス及びその更新は、発行前にAPNSAにプロバイダされるものとする。 このガイダンスは非機密扱いとし、可能かつ適切な範囲で一般に公開する。 各省庁の首脳は、それぞれのガイダンスの調和を図るものとし、APNSAは、各省庁の多様な権限と使命を尊重しつつ、実務上可能かつ適切な範囲で、AIガバナンスとリスクマネジメントに関する各省庁首脳のガイダンスの調和を図る目的で、少なくとも年1回、省庁間会議を開催するものとする。 調和は、以下の分野において追求されるものとする: |
(A) Implementation of the risk management practices for high-impact AI; |
(A) 影響の大きいAIのリスクマネジメントの実施; |
(B) AI and AI system standards and activities, including as they relate to training, testing, accreditation, and security and cybersecurity; and |
(B) AI及びAIシステムの標準及び活動(訓練、試験、認定、セキュリティ及びサイバーセキュリティに関するものを含む。 |
(C) Any other issues that affect interoperability for AI and AI systems. |
(C)AI及びAIシステムの相互運用性に影響を与えるその他の問題。 |
Sec. 5. Fostering a Stable, Responsible, and Globally Beneficial International AI Governance Landscape. |
セクション5. 安定した、責任ある、世界的に有益な国際的AIガバナンスの状況を育成する。 |
(a) Throughout its history, the United States has played an essential role in shaping the international order to enable the safe, secure, and trustworthy global adoption of new technologies while also protecting democratic values. These contributions have ranged from establishing nonproliferation regimes for biological, chemical, and nuclear weapons to setting the foundations for multi-stakeholder governance of the Internet. Like these precedents, AI will require new global norms and coordination mechanisms, which the United States Government must maintain an active role in crafting. |
(a) 米国は、その歴史を通じて、民主的価値を保護しつつ、安全、安心、信頼できる新技術のグローバルな導入を可能にする国際秩序の形成に不可欠な役割を果たしてきた。 このような貢献は、生物・化学・核兵器の不拡散体制の確立から、インターネットのマルチステークホルダー・ガバナンスの基礎作りまで多岐にわたる。 これらの先例と同様、AIも新たなグローバル規範と調整メカニズムを必要とするが、米国政府はその構築において積極的な役割を維持しなければならない。 |
(b) It is the policy of the United States Government that United States international engagement on AI shall support and facilitate improvements to the safety, security, and trustworthiness of AI systems worldwide; promote democratic values, including respect for human rights, civil rights, civil liberties, privacy, and safety; prevent the misuse of AI in national security contexts; and promote equitable access to AI’s benefits. The United States Government shall advance international agreements, collaborations, and other substantive and norm-setting initiatives in alignment with this policy. |
(b) AIに関する米国の国際的関与は、世界中のAIシステムの安全性、セキュリティ、信頼性の改善を支援し促進すること、人権、市民権、自由、プライバシー、安全の尊重を含む民主的価値を促進すること、国家安全保障の文脈におけるAIの悪用を防止すること、AIの利益への公平なアクセスを促進することが、米国政府の方針である。 米国政府は、この方針に沿って、国際協定、協力、その他の実質的かつ規範設定的イニシアチブを推進する。 |
(c) Consistent with these goals: |
(c)これらの目標に沿って |
(i) Within 120 days of the date of this memorandum, the Department of State, in coordination with DOD, Commerce, DHS, the United States Mission to the United Nations (USUN), and the United States Agency for International Development (USAID), shall produce a strategy for the advancement of international AI governance norms in line with safe, secure, and trustworthy AI, and democratic values, including human rights, civil rights, civil liberties, and privacy. This strategy shall cover bilateral and multilateral engagement and relations with allies and partners. It shall also include guidance on engaging with competitors, and it shall outline an approach to working in international institutions such as the United Nations and the Group of 7 (G7), as well as technical organizations. The strategy shall: |
(i) この覚書の日付から120日以内に、国務省は、国防総省、商務省、国土安全保障省(DHS)、米国国連代表部(USUN)、米国国際開発庁(USAID)と連携して、安全、安心、信頼できるAI、および人権、市民権、市民的自由、プライバシーを含む民主的価値観に沿った国際的なAIガバナンス規範を推進するための戦略を策定する。 この戦略は、二国間および多国間の関与、同盟国やパートナーとの関係を対象とする。 また、競争相手との関与に関する指針も含むものとし、国連や主要7カ国(G7)などの国際機構や技術的な組織で活動するためのアプローチを概説するものとする。 同戦略は以下のことを行う: |
(A) Develop and promote internationally shared definitions, norms, expectations, and standards, consistent with United States policy and existing efforts, which will promote safe, secure, and trustworthy AI development and use around the world. These norms shall be as consistent as possible with United States domestic AI governance (including Executive Order 14110 and OMB Memorandum M-24-10), the International Code of Conduct for Organizations Developing Advanced AI Systems released by the G7 in October 2023, the Organization for Economic Cooperation and Development Principles on AI, United Nations General Assembly Resolution A/78/L.49, and other United States-supported relevant international frameworks (such as the Political Declaration on Responsible Military Use of AI and Autonomy) and instruments. By discouraging misuse and encouraging appropriate safeguards, these norms and standards shall aim to reduce the likelihood of AI causing harm or having adverse impacts on human rights, democracy, or the rule of law. |
(A) 米国の政策や既存の取り組みと整合性のある、国際的に共有された定義、規範、期待、標準を策定し、推進することで、世界中で安全、安心、信頼できるAIの開発と利用を促進する。これらの規範は、米国国内のAIガバナンス(大統領令14110およびOMBメモランダムM-24-10を含む)、2023年10月にG7が発表した高度AIシステム開発組織のための国際行動規範、AIに関する経済協力開発機構の原則、国連総会決議A/78/L.49、およびその他の米国が支援する関連する国際枠組み(AIの責任ある軍事利用と自律性に関する政治宣言など)や文書と可能な限り整合性を持たせる。誤用を阻止し、適切なセーフガードを奨励することで、これらの規範や標準は、AIが人権、民主主義、法の支配に害を及ぼしたり、悪影響を与えたりする可能性を減らすことを目的とする。 |
(B) Promote the responsible and ethical use of AI in national security contexts in accordance with democratic values and in compliance with applicable international law. The strategy shall advance the norms and practices established by this memorandum and measures endorsed in the Political Declaration on Responsible Military Use of AI and Autonomy. |
(B) 国家安全保障の文脈において、民主主義の価値観に則り、適用される国際法を遵守した、責任ある倫理的なAIの利用を促進する。 この戦略は、本覚書によって確立された規範と慣行、および「AIの責任ある軍事利用と自治に関する政治宣言」で承認された措置を推進するものとする。 |
Sec. 6. Ensuring Effective Coordination, Execution, and Reporting of AI Policy. |
セクション6. AI政策の効果的な調整、実施、報告を確保する。 |
(a) The United States Government must work in a closely coordinated manner to make progress on effective and responsible AI adoption. Given the speed with which AI technology evolves, the United States Government must learn quickly, adapt to emerging strategic developments, adopt new capabilities, and confront novel risks. |
(a) 米国政府は、効果的かつ責任あるAIの採用を進展させるため、緊密に連携して取り組まなければならない。 AI技術の進化のスピードを考えると、米国政府は迅速に学習し、新たな戦略的進展に適応し、新たな能力を採用し、新たなリスクに立ち向かわなければならない。 |
(b) Consistent with these goals: |
(b) これらの目標に整合する: |
(i) Within 270 days of the date of this memorandum, and annually thereafter for at least the next 5 years, the heads of the Department of State, DOD, Commerce, DOE, ODNI (acting on behalf of the IC), USUN, and USAID shall each submit a report to the President, through the APNSA, that offers a detailed accounting of their activities in response to their taskings in all sections of this memorandum, including this memorandum’s classified annex, and that provides a plan for further action. The Central Intelligence Agency (CIA), NSA, the Defense Intelligence Agency (DIA), and NGA shall submit reports on their activities to ODNI for inclusion in full as an appendix to ODNI’s report regarding IC activities. NGA, NSA, and DIA shall submit their reports as well to DOD for inclusion in full as an appendix to DOD’s report. |
(i) 本覚書の日付から270日以内に、またその後少なくとも5年間は毎年、国務省、国防総省、商務省、DOE、ODNI(情報通信研究機構を代行)、USUN、USAIDの各長官は、APNSAを通じて大統領に、本覚書の機密扱いの付属文書を含む本覚書の全セクションの任務に対する活動の詳細な説明と、今後の対応計画を記載した報告書を提出する。 中央情報局(CIA)、NSA、防衛情報局(DIA)、および NGA は、IC 活動に関する ODNI の報告書の附属書として全文を含めるため、ODNI に活動報告書を提出する。 NGA、NSA、および DIA は、DOD の報告書の附属書として全文が含まれるよう、DOD にも報告書を提出するものとする。 |
(ii) Within 45 days of the date of this memorandum, the Chief AI Officers of the Department of State, DOD, DOJ, DOE, DHS, OMB, ODNI, CIA, DIA, NSA, and NGA, as well as appropriate technical staff, shall form an AI National Security Coordination Group (Coordination Group). Any Chief AI Officer of an agency that is a member of the Committee on National Security Systems may also join the Coordination Group as a full member. The Coordination Group shall be co-chaired by the Chief AI Officers of ODNI and DOD. The Coordination Group shall consider ways to harmonize policies relating to the development, accreditation, acquisition, use, and evaluation of AI on NSS. This work could include development of: |
(ii) この覚書の日付から45日以内に、国務省、国防総省、司法省、DOE、DHS、OMB、ODNI、CIA、DIA、NSA、NGAのAI最高責任者、および適切な技術職員は、AI国家安全保障調整グループ(調整グループ)を結成する。 国家安全保障システム委員会のメンバーである省庁のAI最高責任者は、フルメンバーとして調整グループに参加することもできる。 調整グループは、ODNIとDODのAI最高責任者が共同議長を務める。 調整グループは、NSSにおけるAIの開発、認定、取得、使用、評価に関する方針を調和させる方法を検討する。 この作業には以下が含まれる: |
(A) Enhanced training and awareness to ensure that agencies prioritize the most effective AI systems, responsibly develop and use AI, and effectively evaluate AI systems; |
(A)各省庁が最も効果的なAIシステムを優先し、責任を持ってAIを開発・使用し、AIシステムを効果的に評価できるようにするための意識向上および訓練の強化; |
(B) Best practices to identify and mitigate foreign intelligence risks and human rights considerations associated with AI procurement; |
(B)AI調達に関連する対外情報リスクや人権への配慮を特定・軽減するためのベストプラクティス; |
(C) Best practices to ensure interoperability between agency deployments of AI, to include data interoperability and data sharing agreements, as appropriate and consistent with applicable law; |
(C)適切かつ適用法に合致している場合、データ相互運用性およびデータ共有契約を含む、省庁間のAI展開の相互運用性を確保するためのベスト・プラクティス; |
(D) A process to maintain, update, and disseminate such trainings and best practices on an ongoing basis; |
(D)そのような研修やベストプラクティスを継続的に維持、更新、普及するプロセス; |
(E) AI-related policy initiatives to address regulatory gaps implicated by executive branch-wide policy development processes; and |
(E)行政府全体の政策策定プロセスにおける規制のギャップに対処するためのAI関連政策イニシアティブ。 |
(F) An agile process to increase the speed of acquisitions, validation, and delivery of AI capabilities, consistent with applicable law. |
(F) AI能力の取得、妥当性確認、提供のスピードを向上させるための、適用法に合致した機動的なプロセス。 |
(iii) Within 90 days of the date of this memorandum, the Coordination Group described in subsection (b)(ii) of this section shall establish a National Security AI Executive Talent Committee (Talent Committee) composed of senior AI officials (or designees) from all agencies in the Coordination Group that wish to participate. The Talent Committee shall work to standardize, prioritize, and address AI talent needs and develop an updated set of Government-wide procedures for attracting, hiring, developing, and retaining AI and AI-enabling talent for national security purposes. The Talent Committee shall designate a representative to serve as a member of the AI and Technology Talent Task Force set forth in Executive Order 14110, helping to identify overlapping needs and address shared challenges in hiring. |
(iii) 本覚書の日付から90日以内に、本節(b)(ii)項に記載された調整グループは、参加を希望する調整グループ内の全省庁のAI高官(または被指名者)で構成される国家安全保障AI幹部人材委員会(人材委員会)を設置する。 人材委員会は、AI人材のニーズを標準化、優先順位付け、対処し、国家安全保障を目的とするAIおよびAIを可能にする人材の誘致、雇用、開発、保持のための政府全体の最新手順を策定する。 人材委員会は、大統領令第14110号に定めるAI・技術人材タスクフォースのメンバーとして機能する代表者を指名し、重複するニーズを特定し、雇用における共通の課題に対処するのを支援するものとする。 |
(iv) Within 365 days of the date of this memorandum, and annually thereafter for at least the next 5 years, the Coordination Group described in subsection (b)(ii) of this section shall issue a joint report to the APNSA on consolidation and interoperability of AI efforts and systems for the purposes of national security. |
(iv) 本覚書の日付から365日以内に、またその後少なくとも5年間は毎年、本節(b)(ii)項に記載された調整グループは、国家安全保障を目的としたAIの取り組みとシステムの統合と相互運用性に関する共同報告書をAPNSAに提出する。 |
Sec. 7. Definitions. (a) This memorandum uses definitions set forth in section 3 of Executive Order 14110. In addition, for the purposes of this memorandum: |
セクション7. 定義 (a) 本覚書は、大統領令第 14110 条第 3 項に定められた定義を使用する。 加えて、本覚書の目的においては、以下の通りである: |
(i) The term “AI safety” means the mechanisms through which individuals and organizations minimize and mitigate the potential for harm to individuals and society that can result from the malicious use, misapplication, failures, accidents, and unintended behavior of AI models; the systems that integrate them; and the ways in which they are used. |
(i)「AIの安全性」という用語は、AIモデルの悪意ある使用、誤用、故障、事故、意図しない行動から生じ得る個人と社会への危害の可能性を、個人と組織が最小化し、軽減するメカニズム、それらを統合するシステム、及びそれらの使用方法を意味する。 |
(ii) The term “AI security” means a set of practices to protect AI systems — including training data, models, abilities, and lifecycles — from cyber and physical attacks, thefts, and damage. |
(ii)「AIセキュリティ」という用語は、学習データ、モデル、能力、ライフサイクルを含むAIシステムを、サイバー攻撃、物理的攻撃、盗難、損害から保護するための一連の慣行を意味する。 |
(iii) The term “covered agencies” means agencies in the Intelligence Community, as well as all agencies as defined in 44 U.S.C. 3502(1) when they use AI as a component of a National Security System, other than the Executive Office of the President. |
(iii) 「対象機関」とは、インテリジェンス・コミュニティの機関、および国家安全保障システムの構成要素としてAIを使用する場合に44 U.S.C.3502(1)に定義されるすべての機関のうち、大統領府を除く機関を意味する。 |
(iv) The term “Critical Technical Artifacts” (CTAs) means information, usually specific to a single model or group of related models that, if possessed by someone other than the model developer, would substantially lower the costs of recreating, attaining, or using the model’s capabilities. Under the technical paradigm dominant in the AI industry today, the model weights of a trained AI system constitute CTAs, as do, in some cases, associated training data and code. Future paradigms may rely on different CTAs. |
(iv) 「クリティカル・テクニカル・アーティファクト」(CTAs)という用語は、通常、単一のモデルまたは関連するモデル群に固有の情報であって、モデル開発者以外の者が持っていれば、そのモデルの能力を再現、達成、または使用するコストを大幅に引き下げる情報を意味する。 現在AI業界で主流となっている技術パラダイムの下では、学習済みAIシステムのモデル重み付けがCTAを構成し、場合によっては関連する学習データやコードもCTAを構成する。 将来のパラダイムでは、異なるCTAに依存するかもしれない。 |
(v) The term “frontier AI model” means a general-purpose AI system near the cutting-edge of performance, as measured by widely accepted publicly available benchmarks, or similar assessments of reasoning, science, and overall capabilities. |
(v) 「フロンティアAIモデル」とは、広く受け入れられている一般に利用可能なベンチマーク、または推論、科学、総合的能力に関する同様のアセスメントによって測定される、性能の最先端に近い汎用AIシステムを意味する。 |
(vi) The term “Intelligence Community” (IC) has the meaning provided in 50 U.S.C. 3003. |
(vi) 「インテリジェンス・コミュニティ」(IC)という用語は、50 U.S.C. 3003に規定される意味を有する。 |
(vii) The term “open-weight model” means a model that has weights that are widely available, typically through public release. |
(vii) 「オープン・ウェイト・モデル」とは、一般に公開され、広く利用可能なウェイトを持つモデルをいう。 |
(viii) The term “United States Government” means all agencies as defined in 44 U.S.C. 3502(1). |
(viii) 「米国政府」とは、44 U.S.C. 3502(1)に定義されるすべての政府機関をいう。 |
Sec. 8. General Provisions. (a) Nothing in this memorandum shall be construed to impair or otherwise affect: |
第 8 項。 一般規定。 (a) 本覚書のいかなる内容も、これを損なったり、その他の影響を及ぼすものと解釈されてはならない: |
(i) the authority granted by law to an executive department or agency, or the head thereof; or |
(i)行政省もしくは行政機関、またはその長に法律で認められた認可、または(ii)局長の職務を損なったり、その他の形で影響を及ぼすものとは解釈されない。 |
(ii) the functions of the Director of the Office of Management and Budget relating to budgetary, administrative, or legislative proposals. |
(ii) 予算案、行政案、立法案に関する行政管理予算局長の機能。 |
(b) This memorandum shall be implemented consistent with applicable law and subject to the availability of appropriations. |
(b) この覚書は、適用法に従い、充当可能な予算の範囲内で実施される。 |
(c) This memorandum is not intended to, and does not, create any right or benefit, substantive or procedural, enforceable at law or in equity by any party against the United States, its departments, agencies, or entities, its officers, employees, or agents, or any other person. |
(c)この覚書は、米国、その省庁、事業体、その役員、職員、代理人、またはその他のいかなる者に対しても、法律上または衡平法上強制可能な、実体的または手続き上の権利または利益を創出することを意図したものではなく、また創出するものでもない。 |
JOSEPH R. BIDEN JR. |
ジョセフ・R・ビデン・ジュニア |
Recent Comments