米国 ホワイトハウス 人工知能(AI)に関する国家安全保障覚書 (NSM) と 国家安全保障におけるAIガバナンスとリスクマネジメントを前進させる枠組み(2024.10.24)
こんにちは、丸山満彦です。
米国のホワイトハウスから、「人工知能(AI)に関する国家安全保障覚書(NSM)」と「国家安全保障におけるAIガバナンスとリスクマネジメントを前進させる枠組み」が公表されていますね...
AIが安全保障に影響することから、この覚書の発表にいたったようですね...
● U.S. White House
プレス...
Statement from National Economic Advisor Lael Brainard on National Security Memorandum (NSM) on Artificial Intelligence (AI) | 人工知能(AI)に関する国家安全保障覚書(NSM)に関するレール・ブレイナード国家経済顧問の声明 |
Today, the President is issuing the first-ever National Security Memorandum (NSM) on Artificial Intelligence (AI). The fundamental premise is that AI will have significant implications for national security. The AI NSM sets out goals to enable the US Government to harness cutting-edge AI technologies, and to advance international consensus and governance around AI. | 本日、大統領は人工知能(AI)に関する初の国家安全保障覚書(NSM)を発表する。その大前提は、AIが国家安全保障に重大な影響を及ぼすということである。AI NSMは、米国政府が最先端のAI技術を活用し、AIをめぐる国際的なコンセンサスとガバナンスを前進させるための目標を定めている。 |
In addition, there are implications for economic policy. The AI National Security Memorandum establishes that retaining US leadership in the most advanced AI models will be vital for our national security in coming years. The US lead today on the most advanced AI models reflects several important US economic strengths: our innovative private sector, the ability to develop and source world class talent, strengths in advanced semiconductor design, dynamic capital allocation, and abundant compute power. | さらに、経済政策への影響もある。AI国家安全保障覚書は、最先端のAIモデルにおける米国のリーダーシップを維持することが、今後の国家安全保障にとって不可欠であると定めている。革新的な民間部門、世界トップクラスの人材を育成・確保する能力、先端半導体設計の強み、ダイナミックな資本配分、豊富な計算能力などである。 |
We should not take those strengths for granted in the future. Indeed, we are all familiar with past instances when we saw critical technologies and supply chains that were developed and commercialized here in the US migrate offshore for lack of critical public sector support. That is why we are laser focused on maintaining the strongest AI ecosystem in the world here in the United States. The NSM directs the National Economic Council to coordinate an economic assessment of the relative competitive advantage of the US private sector AI ecosystem. | これらの強みを将来も当然と考えるべきではない。実際、米国で開発され商業化された重要な技術やサプライチェーンが、公的セクターの重要な支援不足のために海外に移転した過去の例を、私たちは皆よく知っている。だからこそ我々は、ここ米国で世界最強のAIエコシステムを維持することに注力しているのである。NSMは、国家経済会議に対し、米国の民間部門AIエコシステムの相対的競争優位性に関する経済アセスメントを調整するよう指示している。 |
Sustaining US preeminence in frontier AI into the future will require strong domestic foundations in semiconductors, infrastructure, and clean energy—including the large datacenters that provide computing resources. The private sector is already making significant investments in AI innovation, and now we’re making sure the government is moving quickly on policy changes and the support necessary to enable rapid AI infrastructure growth over the next several years. The historic Biden-Harris investment laws will be critical enablers. | フロンティアAIにおける米国の優位性を将来にわたって維持するには、半導体、インフラ、クリーンエネルギー(コンピューティングリソースを提供する大規模データセンターを含む)における強力な国内基盤が必要となる。民間セクターはすでにAIイノベーションに多大な投資を行っており、現在我々は、今後数年間におけるAIインフラストラクチャーの急速な成長を可能にするために必要な政策変更と支援について、政府が迅速に動いていることを確認している。歴史的なバイデン-ハリス投資法は、重要なイネーブラーになるだろう。 |
Developing AI systems will require a large volume of the most advanced semiconductors. The CHIPS and Science Act is enabling major investments here in the US for the fabrication of the leading-edge semiconductors that are critical to AI frontier models, in close proximity to world-class chips designers and downstream customers. | AIシステムの開発には、最先端の半導体が大量に必要となる。CHIPS and Science Actは、AIフロンティアモデルに不可欠な最先端半導体の製造のために、世界トップクラスのチップ設計者や川下顧客に近いここ米国での大規模投資を可能にしている。 |
One of the most pressing needs is the rapid growth in computational power for the training and operation of frontier AI models. AI datacenters will need to run on clean energy and in order to meet their needs we will need to accelerate the deployment of transmission and clean energy projects. We will meet these needs while keeping residential electricity costs low and meeting our climate goals. Fortunately, the Bipartisan Infrastructure Law and the clean energy provisions of the Inflation Reduction Act have given us a good foundation to build on. We are committed to helping navigate permitting processes across the federal government, and working with states and localities. We took a step towards supporting these goals with the Task Force on AI Datacenter Infrastructure that we launched last month. And we have seen a number of recent announcements of companies investing in projects that will bring new clean energy online to power AI data centers. | 最も差し迫ったニーズの1つは、フロンティアAIモデルの訓練と運用のための計算能力の急速な増大である。AIデータセンターはクリーンエネルギーで稼働する必要があり、そのニーズを満たすためには、送電とクリーンエネルギー・プロジェクトの展開を加速させる必要がある。私たちは、家庭の電気料金を低く抑え、気候変動目標を達成しながら、これらのニーズに応えていく。幸いなことに、超党派インフラ法とインフレ削減法のクリーンエネルギー条項は、私たちに良い基盤を与えてくれた。私たちは、連邦政府全体の許認可プロセスをナビゲートし、州や自治体と協力していくことを約束する。先月立ち上げたAIデータセンター・インフラに関するタスクフォースでは、これらの目標を支援するための一歩を踏み出した。また最近、AIデータセンターに電力を供給するための新しいクリーンエネルギーをオンライン化するプロジェクトに投資する企業の発表を数多く目にした。 |
Having the right workforce and talent will also play a key role in developing large-scale AI datacenters. This will range from AI experts to pipefitters and electrical workers. We are taking action to ensure AI infrastructure creates good jobs, while investing in our workforce to enable American workers to drive innovation. | 大規模なAIデータセンターの開発には、適切な労働力と人材を確保することも重要な役割を果たす。これは、AIの専門家から配管工や電気工まで多岐にわたる。われわれは、AIインフラが良質な雇用を創出することを確実にするために行動を起こしており、同時に、アメリカの労働者がイノベーションを推進できるように労働力に投資している。 |
Of course, all of these efforts must be governed by the critical guardrails established last year by the Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence and commitments we secured last year from leading AI companies to manage the risks posed by AI. Today’s NSM is just the latest step in a series of actions thanks to the leadership and diplomatic engagement of the President and Vice President, and there will be additional steps taken in the coming months to further support US leadership in AI. | もちろん、こうした取り組みはすべて、昨年、安全、安心、信頼できる人工知能に関する大統領令によって確立された重要なガードレールと、AIがもたらすリスクを管理するために我々が昨年、大手AI企業から確保したコミットメントによってガバナンスされなければならない。本日のNSMは、大統領と副大統領のリーダーシップと外交的関与による一連の行動の最新の一歩に過ぎず、AIにおける米国のリーダーシップをさらに支援するために、今後数ヶ月の間にさらなる措置が取られる予定である。 |
ファクトシート
FACT SHEET: Biden-Harris Administration Outlines Coordinated Approach to Harness Power of AI for U.S. National Security | ファクトシート:バイデン=ハリス政権、米国の国家安全保障におけるAIの力を活用するための協調的アプローチを概説 |
Today, President Biden is issuing the first-ever National Security Memorandum (NSM) on Artificial Intelligence (AI). The NSM’s fundamental premise is that advances at the frontier of AI will have significant implications for national security and foreign policy in the near future. The NSM builds on key steps the President and Vice President have taken to drive the safe, secure, and trustworthy development of AI, including President Biden’s landmark Executive Order to ensure that America leads the way in seizing the promise and managing the risks of AI. | 本日、バイデン大統領は人工知能(AI)に関する初の国家安全保障覚書(NSM)を発表する。NSMの大前提は、AIの最前線における進歩が、近い将来、国家安全保障と外交政策に重大な影響を及ぼすということである。NSMは、バイデン大統領の画期的な大統領令を含め、AIを安全、安心、信頼できる形で発展させるために大統領と副大統領がとってきた重要な措置を基礎としている。 |
The NSM directs the U.S. Government to implement concrete and impactful steps to (1) ensure that the United States leads the world’s development of safe, secure, and trustworthy AI; (2) harness cutting-edge AI technologies to advance the U.S. Government’s national security mission; and (3) advance international consensus and governance around AI. | NSMは米国政府に対し、(1) 米国が安全、安心、信頼できるAIの開発を主導すること、(2) 最先端のAI技術を活用し、米国政府の国家安全保障の使命を推進すること、(3) AIをめぐる国際的なコンセンサスとガバナンスを推進すること、のために具体的かつインパクトのある措置を実施するよう指示する。 |
The NSM is designed to galvanize federal government adoption of AI to advance the national security mission, including by ensuring that such adoption reflects democratic values and protects human rights, civil rights, civil liberties and privacy. In addition, the NSM seeks to shape international norms around AI use to reflect those same democratic values, and directs actions to track and counter adversary development and use of AI for national security purposes. | NSMは、国家安全保障のミッションを推進するために、連邦政府によるAIの採用を促進することを目的としており、そのような採用が民主的価値を反映し、人権、市民権、市民的自由、プライバシーを保護することを保証することも含まれる。さらにNSMは、AIの利用をめぐる国際的な規範を、同じ民主的価値観を反映したものにすることを目指し、国家安全保障を目的とした敵対的なAIの開発と利用を追跡し、それに対抗するための行動を指示する。 |
In particular, the NSM directs critical actions to: | 特に、NSMは次のような重要な行動を指示している: |
Ensure that the United States leads the world’s development of safe, secure, and trustworthy AI: | 米国が安全、安心、信頼できるAIの開発で世界をリードすることを確実にする。 |
・Developing advanced AI systems requires large volumes of advanced chips. President Biden led the way when he signed the CHIPS Act, which made major investments in our capacity to manufacture leading-edge semiconductors. The NSM directs actions to improve the security and diversity of chip supply chains, and to ensure that, as the United States supports the development of the next generation of government supercomputers and other emerging technology, we do so with AI in mind. | ・高度なAIシステムの開発には、大量の高度なチップが必要である。バイデン大統領は、最先端半導体の製造能力に大規模な投資を行うCHIPS法に署名し、先導した。NSMは、チップサプライチェーンの安全性と多様性を改善し、米国が次世代の政府スーパーコンピュータやその他の新興技術の開発を支援する際、AIを念頭に置いて行うことを確実にするための行動を指示している。 |
・Our competitors want to upend U.S. AI leadership and have employed economic and technological espionage in efforts to steal U.S. technology. This NSM makes collection on our competitors’ operations against our AI sector a top-tier intelligence priority, and directs relevant U.S. Government entities to provide AI developers with the timely cybersecurity and counterintelligence information necessary to keep their inventions secure. | ・競合他社は米国の AI リーダーシップを揺るがそうとし、米国の技術を盗もうと経済的・技術的スパイ活動 を行っている。このNSMは、わが国のAI分野に対する競合他社の活動に関する情報収集を最優先事項とし、関連する米国ガバナンス事業体に対し、AI開発者の発明を安全に保つために必要なサイバーセキュリティと防諜情報をタイムリーに提供するよう指示している。 |
・In order for the United States to benefit maximally from AI, Americans must know when they can trust systems to perform safely and reliably. For this reason, the NSM formally designates the AI Safety Institute as U.S. industry’s primary port of contact in the U.S. Government, one staffed by technical experts who understand this quickly evolving technology. It also lays out strengthened and streamlined mechanisms for the AI Safety Institute to partner with national security agencies, including the intelligence community, the Department of Defense, and the Department of Energy. | ・米国がAIから最大限の利益を得るためには、米国国民は、安全で信頼できるシステムをいつ信頼できるかを知らなければならない。このため、NSMは、AI安全機構を、この急速に進化する技術を理解する技術専門家を擁する、米国政府における米国産業の主要な窓口として正式に指定した。また、情報機関、国防総省、エネルギー省を含む国家安全保障局とAI安全研究所が提携するための強化された合理化された機構も示している。 |
・The NSM doubles down on the National AI Research Resource, the pilot for which is already underway, to ensure that researchers at universities, from civil society, and in small businesses can conduct technically meaningful AI research. AI is moving too fast, and is too complex, for us to rely exclusively on a small cohort of large firms; we need to empower and learn from a full range of talented individuals and institutions who care about making AI safe, secure, and trustworthy. | ・NSMは、大学、市民社会、中小企業の研究者が技術的に有意義なAI研究を行えるようにするため、すでに試験運用が開始されているNational AI Research Resourceをさらに強化する。AIの進歩はあまりに速く、複雑であるため、少数の大企業だけに頼ることはできない。我々は、AIを安全、安心、信頼できるものにすることに関心を持つ、あらゆる才能ある個人や機構に力を与え、そこから学ぶ必要がある。 |
・The NSM directs the National Economic Council to coordinate an economic assessment of the relative competitive advantage of the United States private sector AI ecosystem. | ・NSMは、国家経済会議に対し、米国の民間部門のAIエコシステムの相対的競争優位性に関する経済アセスメントを調整するよう指示する。 |
Enable the U.S. Government to harness cutting-edge AI, while protecting human rights and democratic values, to achieve national security objectives: | 米国政府が最先端のAIを活用し、人権と民主主義の価値を守りながら、国家安全保障の目標を達成できるようにする: |
・The NSM does not simply demand that we use AI systems in service of the national security mission effectively; it also unequivocally states we must do so only in ways that align with democratic values. It provides the first-ever guidance for AI governance and risk management for use in national security missions, complementing previous guidance issued by the Office of Management and Budget for non-national security missions. | ・NSMは、国家安全保障の任務のためにAIシステムを効果的に利用することを単に要求するだけでなく、民主的価値観に沿った方法でのみ利用しなければならないことを明確に述べている。NSMは、国家安全保障任務におけるAIのガバナンスとリスクマネジメントに関する初のガイダンスを提供し、行政管理予算局が国家安全保障任務以外に対して以前に発行したガイダンスを補完するものである。 |
・The NSM directs the creation of a Framework to Advance AI Governance and Risk Management in National Security, which is being published today alongside this NSM. This Framework provides further detail and guidance to implement the NSM, including requiring mechanisms for risk management, evaluations, accountability, and transparency. These requirements require agencies to monitor, assess, and mitigate AI risks related to invasions of privacy, bias and discrimination, the safety of individuals and groups, and other human rights abuses. This Framework can be updated regularly in order to keep pace with technical advances and ensure future AI applications are responsible and rights-respecting. | ・NSMは、国家安全保障におけるAIのガバナンスとリスクマネジメントを推進するためのフレームワークの作成を指示しており、このフレームワークはNSMとともに本日発表される。このフレームワークは、リスクマネジメント、評価、説明責任、透明性のメカニズムを要求するなど、NSMを実施するためのさらなる詳細と指針を提供するものである。これらの要件は、各省庁に対し、プライバシーの侵害、バイアスと識別的差別、個人と集団の安全、その他の人権侵害に関連するAIリスクを監視、アセスメント、緩和することを求めている。このフレームワークは、技術の進歩に対応し、将来のAIの応用が責任あるものであり、権利を尊重したものであることを保証するために、定期的に更新することができる。 |
・The NSM directs changes across the board to make sure we are using AI systems effectively while adhering to our values. Among other actions, it directs agencies to propose streamlined procurement practices and ways to ease collaboration with non-traditional vendors. | ・NSMは、我々の価値観を守りながらAIシステムを効果的に使用するために、あらゆる面で変更を指示する。NSMは、我々の価値観を守りながらAIシステムを効果的に使用できるようにするため、全面的な変更を指示している。他のアクションの中でも、合理的な調達慣行や、従来とは異なるベンダーとの協業を容易にする方法を提案するよう、各省庁に指示している。 |
Advance international consensus and governance around AI: | AIをめぐる国際的なコンセンサスとガバナンスの推進: |
・The NSM builds on substantial international progress on AI governance over the last twelve months, thanks to the leadership and diplomatic engagement of President Biden and Vice President Harris. Alongside G7 allies, we developed the first-ever International Code of Conduct on AI in 2023. At the Bletchley and Seoul AI Safety Summits, the United States joined more than two dozen nations in outlining clear principles. 56 nations have signed up to our Political Declaration on the Military Use of AI and Autonomy, which establishes principles for military AI capabilities. And at the United Nations, the United States sponsored the first-ever UN General Assembly Resolution on AI, which passed unanimously and included the People’s Republic of China as a co-sponsor. | ・NSMは、バイデン大統領とハリス副大統領のリーダーシップと外交的関与のおかげで、過去1年半にわたるAIガバナンスに関する実質的な国際的進展の上に成り立っている。G7の同盟国とともに、我々は2023年にAIに関する初の国際行動規範を策定した。ブレッチリーとソウルのAI安全サミットでは、米国は20数カ国とともに明確な原則をまとめた。56カ国が、軍事AI能力の原則を定めた「AIと自律性の軍事利用に関する政治宣言」に署名した。また、米国は国連において、全会一致で可決され、中華人民共和国も共同提案国となった、AIに関する初の国連総会決議を後援した。 |
・The NSM directs the U.S. Government to collaborate with allies and partners to establish a stable, responsible, and rights-respecting governance framework to ensure the technology is developed and used in ways that adhere to international law while protecting human rights and fundamental freedoms. | ・NSMは米国政府に対し、同盟国やパートナーと協力し、人権と基本的自由を保護しつつ、国際法を遵守する方法で技術が開発・使用されることを確実にするため、安定した、責任ある、権利尊重のガバナンスの枠組みを確立するよう指示する。 |
The release of today’s NSM is part of the Biden-Harris Administration’s comprehensive strategy for responsible innovation, and builds on previous actions that President Biden and Vice President Harris have taken. | 本日のNSMの公表は、バイデン-ハリス政権の責任あるイノベーションのための包括的戦略の一環であり、バイデン大統領とハリス副大統領がこれまでとってきた行動を基礎とするものである。 |
Read the NSM here. | NSMはこちら |
Read the frame work here. | フレームワークはこちら |
覚書...
Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence | 人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成に関する覚書 |
MEMORANDUM FOR THE VICE PRESIDENT | 副大統領への覚書 |
THE SECRETARY OF STATE | 国務長官 |
THE SECRETARY OF THE TREASURY | 財務長官 |
THE SECRETARY OF DEFENSE | 国防長官 |
THE ATTORNEY GENERAL | 司法長官 |
THE SECRETARY OF COMMERCE | 商務長官 |
THE SECRETARY OF ENERGY | エネルギー長官 |
THE SECRETARY OF HEALTH AND HUMAN SERVICES | 保健福祉長官 |
THE SECRETARY OF HOMELAND SECURITY | 国土安全保障長官 |
THE DIRECTOR OF THE OFFICE OF MANAGEMENT AND BUDGET | 行政管理予算局長官 |
THE DIRECTOR OF NATIONAL INTELLIGENCE | 国家情報長官 |
THE REPRESENTATIVE OF THE UNITED STATES OF AMERICA TO THE UNITED NATIONS | アメリカ合衆国国連代表 |
THE DIRECTOR OF THE CENTRAL INTELLIGENCE AGENCY | 中央情報局長官 |
THE ASSISTANT TO THE PRESIDENT AND CHIEF OF STAFF | 大統領補佐官兼首席補佐官 |
THE ASSISTANT TO THE PRESIDENT FOR NATIONAL SECURITY AFFAIRS | 国家安全保障問題担当大統領補佐官 |
THE ASSISTANT TO THE PRESIDENT FOR ECONOMIC | 大統領補佐官(経済政策担当)兼国家経済会議議長 |
POLICY AND DIRECTOR OF THE NATIONAL ECONOMIC COUNCIL | 経済顧問会議議長 |
THE CHAIR OF THE COUNCIL OF ECONOMIC ADVISERS | 経済諮問委員会委員長 |
THE DIRECTOR OF THE OFFICE OF SCIENCE AND TECHNOLOGY POLICY | 米国科学技術政策局長官 |
THE ADMINISTRATOR OF THE UNITED STATES AGENCY FOR INTERNATIONAL DEVELOPMENT | 米国国際開発庁長官 |
THE DIRECTOR OF THE NATIONAL SCIENCE FOUNDATION | 米国科学財団長官 |
THE DIRECTOR OF THE FEDERAL BUREAU OF INVESTIGATION | 連邦捜査局長官 |
THE NATIONAL CYBER DIRECTOR | 国家サイバー長官 |
THE DIRECTOR OF THE OFFICE OF PANDEMIC PREPAREDNESS AND RESPONSE POLICY | パンデミック対策・対応政策局長 |
THE DIRECTOR OF THE NATIONAL SECURITY AGENCY | 米国安全保障局長官 |
THE DIRECTOR OF THE NATIONAL GEOSPATIAL-INTELLIGENCE AGENCY | 米国地理空間情報局長官 |
THE DIRECTOR OF THE DEFENSE INTELLIGENCE AGENCY | 防衛情報局局長 |
SUBJECT: Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence |
件名:人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成。 |
Section 1. Policy. (a) This memorandum fulfills the directive set forth in subsection 4.8 of Executive Order 14110 of October 30, 2023(Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). This memorandum provides further direction on appropriately harnessing artificial intelligence(AI) models and AI-enabled technologies in the United States Government, especially in the context of national security systems(NSS), while protecting human rights, civil rights, civil liberties, privacy, and safety in AI-enabled national security activities. A classified annex to this memorandum addresses additional sensitive national security issues, including countering adversary use of AI that poses risks to United States national security. | 第1項. 方針 (a) 本覚書は、2023年10月30日付大統領令第14110号(人工知能の安全、安心、信頼できる開発と利用)の4.8項に規定された指令を履行するものである。 本覚書は、米国政府において、特に国家安全保障システム(NSS)の文脈において、人工知能(AI)モデルおよびAI対応技術を適切に活用する上で、AI対応の国家安全保障活動における人権、市民権、市民的自由、プライバシー、安全を保護しつつ、さらなる方向性を示すものである。 この覚書の機密扱いの附属書は、米国の国家安全保障にリスクをもたらす敵対的なAIの使用への対抗など、国家安全保障上のさらなるセンシティブな問題を扱っている。 |
(b) United States national security institutions have historically triumphed during eras of technological transition. To meet changing times, they developed new capabilities, from submarines and aircraft to space systems and cyber tools. To gain a decisive edge and protect national security, they pioneered technologies such as radar, the Global Positioning System, and nuclear propulsion, and unleashed these hard-won breakthroughs on the battlefield. With each paradigm shift, they also developed new systems for tracking and countering adversaries’ attempts to wield cutting-edge technology for their own advantage. | (b) 米国の国家安全保障機構は、歴史的に技術の転換期に勝利してきた。 時代の変化に対応するため、潜水艦や航空機から宇宙システムやサイバー・ツールに至るまで、新たな能力を開発してきた。 決定的な優位に立ち、国家の安全を守るために、レーダー、国家見解システム、核推進力などの技術を開拓し、苦労して勝ち取ったブレークスルーを戦場で発揮した。 また、パラダイムシフトが起こるたびに、最先端技術を駆使して優位に立とうとする敵対勢力を追跡し、対抗するための新たなシステムも開発された。 |
(c) AI has emerged as an era-defining technology and has demonstrated significant and growing relevance to national security. The United States must lead the world in the responsible application of AI to appropriate national security functions. AI, if used appropriately and for its intended purpose, can offer great benefits. If misused, AI could threaten United States national security, bolster authoritarianism worldwide, undermine democratic institutions and processes, facilitate human rights abuses, and weaken the rules-based international order. Harmful outcomes could occur even without malicious intent if AI systems and processes lack sufficient protections. | (c) AIは時代を定義する技術として登場し、国家安全保障との重要な関連性が高まっている。 米国は、適切な国家安全保障機能へのAIの責任ある適用において、世界をリードしなければならない。 AIは、適切かつ意図された目的に使用されれば、大きな利益をもたらすことができる。 しかし、その使い方を誤れば、米国の国家安全保障を脅かし、世界的な権威主義を助長し、民主主義の機構やプロセスを弱体化させ、人権侵害を助長し、ルールに基づく国際秩序を弱体化させる可能性がある。 AIのシステムやプロセスに十分な防御がない場合、悪意がなくても有害な結果が生じる可能性がある。 |
(d) Recent innovations have spurred not only an increase in AI use throughout society, but also a paradigm shift within the AI field — one that has occurred mostly outside of Government. This era of AI development and deployment rests atop unprecedented aggregations of specialized computational power, as well as deep scientific and engineering expertise, much of which is concentrated in the private sector. This trend is most evident with the rise of large language models, but it extends to a broader class of increasingly general-purpose and computationally intensive systems. The United States Government must urgently consider how this current AI paradigm specifically could transform the national security mission. | (d) 最近の技術革新は、社会全体におけるAIの利用の増加に拍車をかけただけでなく、AIの分野におけるパラダイムシフトにも拍車をかけた。 このAI開発・配備の時代は、専門的な計算能力と深い科学的・工学的専門知識のかつてない集積の上に成り立っており、その多くは民間部門に集中している。 この傾向は、大規模な言語モデルの台頭で最も顕著だが、ますます汎用的で計算集約的なシステムの幅広いクラスにまで及んでいる。 米国ガバナンスは、この現在のAIパラダイムが具体的にどのように国家安全保障の使命を変革しうるかを早急に検討しなければならない。 |
(e) Predicting technological change with certainty is impossible, but the foundational drivers that have underpinned recent AI progress show little sign of abating. These factors include compounding algorithmic improvements, increasingly efficient computational hardware, a growing willingness in industry to invest substantially in research and development, and the expansion of training data sets. AI under the current paradigm may continue to become more powerful and general-purpose. Developing and effectively using these systems requires an evolving array of resources, infrastructure, competencies, and workflows that in many cases differ from what was required to harness prior technologies, including previous paradigms of AI. | (e) 技術的変化を確実に予測することは不可能であるが、最近のAIの進歩を支えてきた基礎的な要因は、ほとんど衰える気配がない。 これらの要因には、アルゴリズムの複合的改善、計算ハードウェアの効率化、研究開発に多額の投資を行う産業界の意欲の高まり、学習データセットの拡大などが含まれる。 現在のパラダイムの下でのAIは、今後もより強力で汎用的なものになっていく可能性がある。 このようなシステムを開発し効果的に利用するには、進化し続けるリソース、インフラ、能力、ワークフローが必要であり、多くの場合、以前のAIのパラダイムを含む以前の技術を利用するために必要だったものとは異なる。 |
(f) If the United States Government does not act with responsible speed and in partnership with industry, civil society, and academia to make use of AI capabilities in service of the national security mission — and to ensure the safety, security, and trustworthiness of American AI innovation writ large — it risks losing ground to strategic competitors. Ceding the United States’ technological edge would not only greatly harm American national security, but it would also undermine United States foreign policy objectives and erode safety, human rights, and democratic norms worldwide. | (f) 米国ガバナンスが責任あるスピードで、産業界、市民社会、学界と連携して、国家安全保障の使命のためにAI能力を活用し、米国のAIイノベーションの安全性、セキュリティ、信頼性を確保するために行動しなければ、戦略的競争相手に地歩を失うリスクがある。 米国の技術的優位を譲ることは、米国の国家安全保障に大きな損害を与えるだけでなく、米国の外交目標を損ない、世界中の安全、人権、民主主義規範を侵食することになる。 |
(g) Establishing national security leadership in AI will require making deliberate and meaningful changes to aspects of the United States Government’s strategies, capabilities, infrastructure, governance, and organization. AI is likely to affect almost all domains with national security significance, and its use cannot be relegated to a single institutional silo. The increasing generality of AI means that many functions that to date have been served by individual bespoke tools may, going forward, be better fulfilled by systems that, at least in part, rely on a shared, multi-purpose AI capability. Such integration will only succeed if paired with appropriately redesigned United States Government organizational and informational infrastructure. | (g) AIにおける国家安全保障上のリーダーシップを確立するには、米国政府の戦略、能力、インフラ、ガバナンス、組織の側面を意図的かつ有意義に変更する必要がある。 AIは、国家安全保障上重要なほぼすべての領域に影響を及ぼす可能性が高く、その利用を単一の機構に追いやることはできない。 AIの汎用性が高まるということは、これまでは個別の特注ツールによって果たされてきた多くの機能が、今後は、少なくとも部分的には、共有された多目的AI機能に依存するシステムによって、よりよく果たされる可能性があることを意味する。 このような統合は、適切に再設計された米国政府の組織・情報インフラと組み合わされて初めて成功する。 |
(h) In this effort, the United States Government must also protect human rights, civil rights, civil liberties, privacy, and safety, and lay the groundwork for a stable and responsible international AI governance landscape. Throughout its history, the United States has been a global leader in shaping the design, development, and use of new technologies not only to advance national security, but also to protect and promote democratic values. The United States Government must develop safeguards for its use of AI tools, and take an active role in steering global AI norms and institutions. The AI frontier is moving quickly, and the United States Government must stay attuned to ongoing technical developments without losing focus on its guiding principles. | (h) この取り組みにおいて、米国政府は、人権、市民権、プライバシー、安全を保護し、安定した責任ある国際的なAIガバナンスの基盤を築かなければならない。 米国はその歴史を通じて、国家安全保障を向上させるだけでなく、民主主義的価値を保護し促進するために、新技術の設計、開発、利用を形成する世界的リーダーであった。 米国政府は、AIツールの使用に関するセーフガードを策定し、グローバルなAI規範と機構の舵取りにおいて積極的な役割を果たさなければならない。 AIのフロンティアは急速に進展しており、米国政府は指導原則を見失うことなく、現在進行中の技術開発に常に注意を払わなければならない。 |
(i) This memorandum aims to catalyze needed change in how the United States Government approaches AI national security policy. In line with Executive Order 14110, it directs actions to strengthen and protect the United States AI ecosystem; improve the safety, security, and trustworthiness of AI systems developed and used in the United States; enhance the United States Government’s appropriate, responsible, and effective adoption of AI in service of the national security mission; and minimize the misuse of AI worldwide. | (i) この覚書は、米国政府のAI国家安全保障政策への取り組み方に必要な変化を促すことを目的としている。 大統領令14110に沿って、米国のAIエコシステムを強化・保護し、米国で開発・使用されるAIシステムの安全性、セキュリティ、信頼性を改善し、米国政府が国家安全保障の使命のためにAIを適切、責任ある、効果的に採用することを強化し、世界中でAIが悪用されるのを最小限に抑えるための行動を指示する。 |
Sec. 2. Objectives. It is the policy of the United States Government that the following three objectives will guide its activities with respect to AI and national security. | 第2項 目的:米国政府の方針として、AIと国家安全保障に関する活動の指針として、以下の3つの目標を掲げる。 |
(a) First, the United States must lead the world’s development of safe, secure, and trustworthy AI. To that end, the United States Government must — in partnership with industry, civil society, and academia — promote and secure the foundational capabilities across the United States that power AI development. The United States Government cannot take the unmatched vibrancy and innovativeness of the United States AI ecosystem for granted; it must proactively strengthen it, ensuring that the United States remains the most attractive destination for global talent and home to the world’s most sophisticated computational facilities. The United States Government must also provide appropriate safety and security guidance to AI developers and users, and rigorously assess and help mitigate the risks that AI systems could pose. | (a) 第一に、米国は、安全、安心、信頼できるAIの開発を世界に先駆けて進めなければならない。 そのために、米国ガバナンスは、産業界、市民社会、学界と連携して、AI開発を支える米国全体の基盤能力を促進し、確保しなければならない。 米国政府は、米国AIエコシステムの比類なき活気と革新性を当然視することはできない。積極的に強化し、米国がグローバル人材にとって最も魅力的な目的地であり続け、世界で最も洗練された計算施設の本拠地であり続けるようにしなければならない。 米国政府はまた、AIの開発者と利用者に適切な安全・セキュリティのガイダンスを提供し、AIシステムがもたらす可能性のあるリスクを厳格にアセスメントし、その軽減を支援しなければならない。 |
(b) Second, the United States Government must harness powerful AI, with appropriate safeguards, to achieve national security objectives. Emerging AI capabilities, including increasingly general-purpose models, offer profound opportunities for enhancing national security, but employing these systems effectively will require significant technical, organizational, and policy changes. The United States must understand AI’s limitations as it harnesses the technology’s benefits, and any use of AI must respect democratic values with regard to transparency, human rights, civil rights, civil liberties, privacy, and safety. | (b) 第二に、米国政府は、国家安全保障上の目的を達成するために、適切な保護措置を講じた上で、強力なAIを活用しなければならない。 ますます汎用化するモデルを含む新たなAI能力は、国家安全保障を強化するための多大な機会を提供するが、これらのシステムを効果的に採用するには、技術、組織、政策の大幅な変更が必要となる。 米国は、AIの利点を活用する際に、AIの限界を理解しなければならない。また、AIのいかなる利用も、透明性、人権、市民権、自由、プライバシー、安全に関して、民主主義の価値を尊重しなければならない。 |
(c) Third, the United States Government must continue cultivating a stable and responsible framework to advance international AI governance that fosters safe, secure, and trustworthy AI development and use; manages AI risks; realizes democratic values; respects human rights, civil rights, civil liberties, and privacy; and promotes worldwide benefits from AI. It must do so in collaboration with a wide range of allies and partners. Success for the United States in the age of AI will be measured not only by the preeminence of United States technology and innovation, but also by the United States’ leadership in developing effective global norms and engaging in institutions rooted in international law, human rights, civil rights, and democratic values. | (c)第3に、米国政府は、安全、安心、信頼できるAIの開発と利用を促進し、AIのリスクをマネジメントし、民主的価値を実現し、人権、市民権、市民的自由、プライバシーを尊重し、AIによる世界的利益を促進する国際的なAIガバナンスを推進するための安定した責任ある枠組みを引き続き育成しなければならない。 そのためには、幅広い同盟国やパートナーと協力しなければならない。 AIの時代における米国の成功は、米国のテクノロジーとイノベーションの優位性だけでなく、効果的なグローバル規範を発展させ、国際法、人権、市民権、民主的価値に根ざした機構に関与する米国のリーダーシップによっても測られる。 |
Sec. 3. Promoting and Securing the United States’ Foundational AI Capabilities. (a) To preserve and expand United States advantages in AI, it is the policy of the United States Government to promote progress, innovation, and competition in domestic AI development; protect the United States AI ecosystem against foreign intelligence threats; and manage risks to AI safety, security, and trustworthiness. Leadership in responsible AI development benefits United States national security by enabling applications directly relevant to the national security mission, unlocking economic growth, and avoiding strategic surprise. United States technological leadership also confers global benefits by enabling like-minded entities to collectively mitigate the risks of AI misuse and accidents, prevent the unchecked spread of digital authoritarianism, and prioritize vital research. | 第3項 米国のAI基盤能力を促進し確保する。(a) AIにおける米国の優位性を維持・拡大するため、国内のAI開発の進歩、革新、競争を促進し、外国の諜報機関の脅威から米国のAIエコシステムを保護し、AIの安全性、セキュリティ、信頼性に対するリスクをマネジメントすることは、米国政府の方針である。 責任あるAI開発におけるリーダーシップは、国家安全保障の使命に直接関連するアプリケーションを可能にし、経済成長を引き出し、戦略的不意打ちを回避することで、米国の国家安全保障に利益をもたらす。 米国の技術的リーダーシップはまた、志を同じくする事業体が、AIの誤用や事故のリスクを集団的に軽減し、デジタル権威主義の歯止めなき蔓延を防ぎ、重要な研究を優先させることを可能にすることによって、グローバルな利益をもたらす。 |
3.1. Promoting Progress, Innovation, and Competition in United States AI Development. (a) The United States’ competitive edge in AI development will be at risk absent concerted United States Government efforts to promote and secure domestic AI progress, innovation, and competition. Although the United States has benefited from a head start in AI, competitors are working hard to catch up, have identified AI as a top strategic priority, and may soon devote resources to research and development that United States AI developers cannot match without appropriately supportive Government policies and action. It is therefore the policy of the United States Government to enhance innovation and competition by bolstering key drivers of AI progress, such as technical talent and computational power. | 3.1. 米国のAI開発の進歩、革新、競争を促進する。(a) 国内のAIの進歩、革新、競争を促進し、確保するための米国政府による協調的な取り組みがなければ、AI開発における米国の競争力はリスクにさらされる。 米国はAIで先行した恩恵を受けているが、競合他社は追いつこうと懸命に努力しており、AIを戦略上の最優先事項としており、政府の適切な支援政策や行動がなければ、米国のAI開発者が及ばないような研究開発に近いうちに資源を投入する可能性がある。 したがって、技術的才能や計算能力といったAI進歩の主要な推進力を強化することにより、イノベーションと競争を強化することが米国政府の方針である。 |
(b) It is the policy of the United States Government that advancing the lawful ability of noncitizens highly skilled in AI and related fields to enter and work in the United States constitutes a national security priority. Today, the unparalleled United States AI industry rests in substantial part on the insights of brilliant scientists, engineers, and entrepreneurs who moved to the United States in pursuit of academic, social, and economic opportunity. Preserving and expanding United States talent advantages requires developing talent at home and continuing to attract and retain top international minds. | (b)AIおよびその関連分野で高度な技能を有する非市民が米国に入国し、就労するための合法的な能力を促進することは、国家安全保障上の優先事項であり、米国政府の方針である。 今日、比類のない米国のAI産業は、学問的、社会的、経済的機会を求めて米国に移住した優秀な科学者、エンジニア、起業家の見識の上に成り立っている。 米国の人材の優位性を維持・拡大するためには、国内で人材を育成し、国際的に優れた頭脳を引き付け、維持し続けることが必要である。 |
(c) Consistent with these goals: | (c)これらの目標に一貫性を持たせる: |
(i) On an ongoing basis, the Department of State, the Department of Defense(DOD), and the Department of Homeland Security(DHS) shall each use all available legal authorities to assist in attracting and rapidly bringing to the United States individuals with relevant technical expertise who would improve United States competitiveness in AI and related fields, such as semiconductor design and production. These activities shall include all appropriate vetting of these individuals and shall be consistent with all appropriate risk mitigation measures. This tasking is consistent with and additive to the taskings on attracting AI talent in section 5 of Executive Order 14110. | (i) 継続的に、国務省、国防総省、国土安全保障省は、それぞれ利用可能なあらゆる法的権限を行使し、AIおよび半導体設計・製造などの関連分野において米国の競争力を向上させるような、関連する技術的専門知識を有する個人の米国への誘致と迅速な入国を支援する。 これらの活動には、これらの個人に対するあらゆる適切な審査が含まれ、あらゆる適切なリスク低減措置と一致するものとする。 この任務は、大統領令第14110号の第5節にあるAI人材の誘致に関する任務と整合的であり、追加的なものである。 |
(ii) Within 180 days of the date of this memorandum, the Chair of the Council of Economic Advisers shall prepare an analysis of the AI talent market in the United States and overseas, to the extent that reliable data is available. | (ii) 本覚書の日付から180日以内に、経済諮問委員会の委員長は、信頼できるデータが入手可能な範囲で、米国および海外のAI人材市場の分析を作成する。 |
(iii) Within 180 days of the date of this memorandum, the Assistant to the President for Economic Policy and Director of the National Economic Council shall coordinate an economic assessment of the relative competitive advantage of the United States private sector AI ecosystem, the key sources of the United States private sector’s competitive advantage, and possible risks to that position, and shall recommend policies to mitigate them. The assessment could include areas including(1) the design, manufacture, and packaging of chips critical in AI-related activities;(2) the availability of capital;(3) the availability of workers highly skilled in AI-related fields;(4) computational resources and the associated electricity requirements; and(5) technological platforms or institutions with the requisite scale of capital and data resources for frontier AI model development, as well as possible other factors. | (iii) 本覚書の日付から180日以内に、経済政策担当大統領補佐官兼国家経済会議長官は、米国の民間部門のAIエコシステムの相対的な競争優位性、米国の民間部門の競争優位性の主要な源泉、およびその地位を脅かす可能性のあるリスクに関する経済アセスメントを調整し、それらを軽減するための政策を提言するものとする。 アセスメントには、(1)AI関連活動で重要なチップの設計、製造、パッケージング、(2)資本の利用可能性、(3)AI関連分野で高度な技能を有する労働者の利用可能性、(4)計算資源と関連する電力要件、(5)フロンティアAIモデル開発に必要な規模の資本とデータ資源を有する技術基盤や機構、その他考えられる要因を含む分野が含まれる。 |
(iv) Within 90 days of the date of this memorandum, the Assistant to the President for National Security Affairs(APNSA) shall convene appropriate executive departments and agencies(agencies) to explore actions for prioritizing and streamlining administrative processing operations for all visa applicants working with sensitive technologies. Doing so shall assist with streamlined processing of highly skilled applicants in AI and other critical and emerging technologies. This effort shall explore options for ensuring the adequate resourcing of such operations and narrowing the criteria that trigger secure advisory opinion requests for such applicants, as consistent with national security objectives. | (iv) この覚書の日付から90日以内に、国家安全保障問題担当大統領補佐官(APNSA)は、機密技術を扱うすべてのビザ申請者について、事務処理業務の優先順位付けと合理化のための措置を検討するため、適切な行政府と政府機関(各省庁)を招集しなければならない。 そうすることで、AIやその他の重要な新興技術における高度な技能を持つ申請者の合理的な手続きを支援する。 この努力は、国家安全保障の目的に合致するように、そのような業務の適切な資源を確保し、そのような申請者の安全な諮問意見要請の引き金となる規準を狭めるための選択肢を探るものとする。 |
(d) The current paradigm of AI development depends heavily on computational resources. To retain its lead in AI, the United States must continue developing the world’s most sophisticated AI semiconductors and constructing its most advanced AI-dedicated computational infrastructure. | (d) 現在のAI開発のパラダイムは、計算資源に大きく依存している。 米国がAIでリードを保つためには、世界で最も洗練されたAI半導体の開発を継続し、最も先進的なAI専用の計算インフラを構築しなければならない。 |
(e) Consistent with these goals: | (e)これらの目標に一致する: |
(i) DOD, the Department of Energy(DOE)(including national laboratories), and the Intelligence Community(IC) shall, when planning for and constructing or renovating computational facilities, consider the applicability of large-scale AI to their mission. Where appropriate, agencies shall design and build facilities capable of harnessing frontier AI for relevant scientific research domains and intelligence analysis. Those investments shall be consistent with the Federal Mission Resilience Strategy adopted in Executive Order 13961 of December 7, 2020(Governance and Integration of Federal Mission Resilience). | (i)国防総省、エネルギー省(国立研究所を含む)、インテリジェンス・コミュニティ(IC)は、計算施設の計画、建設、改修に際し、大規模AIの任務への適用可能性を考慮する。 適切な場合、各機関は、関連する科学研究領域や情報分析にフロンティアAIを活用できる施設を設計・建設しなければならない。 それらの投資は、2020年12月7日の大統領令13961(連邦ミッション・レジリエンスのガバナンスと統合)で採択された連邦ミッション・レジリエンス戦略に合致したものでなければならない。 |
(ii) On an ongoing basis, the National Science Foundation(NSF) shall, consistent with its authorities, use the National AI Research Resource(NAIRR) pilot project and any future NAIRR efforts to distribute computational resources, data, and other critical assets for AI development to a diverse array of actors that otherwise would lack access to such capabilities — such as universities, nonprofits, and independent researchers(including trusted international collaborators) — to ensure that AI research in the United States remains competitive and innovative. This tasking is consistent with the NAIRR pilot assigned in section 5 of Executive Order 14110. | (ii) 全米科学財団(NSF)は、その認可に基づき、全米AI研究リソース(NAIRR)パイロット・プロジェクトおよび今後のNAIRRの取り組みを利用して、AI開発に必要な計算資源、データ、その他の重要な資産を、大学、非営利団体、独立研究者(信頼できる国際的な協力者を含む)など、そうでなければそのような能力を利用できない多様な主体に分配し、米国におけるAI研究が競争力と革新性を維持できるようにする。 この任務は、大統領令第14110号の第5節で指定されたNAIRR試験運用と一致する。 |
(iii) Within 180 days of the date of this memorandum, DOE shall launch a pilot project to evaluate the performance and efficiency of federated AI and data sources for frontier AI-scale training, fine-tuning, and inference. | (iii) この覚書の日付から 180 日以内に、DOE は、フロンティア AI 規模の訓練、微調整、推論のための、連携 AI およびデータソースの性能と効率を評価するパイロットプロジェクトを開始する。 |
(iv) The Office of the White House Chief of Staff, in coordination with DOE and other relevant agencies, shall coordinate efforts to streamline permitting, approvals, and incentives for the construction of AI-enabling infrastructure, as well as surrounding assets supporting the resilient operation of this infrastructure, such as clean energy generation, power transmission lines, and high-capacity fiber data links. These efforts shall include coordination, collaboration, consultation, and partnership with State, local, Tribal, and territorial governments, as appropriate, and shall be consistent with the United States’ goals for managing climate risks. | (iv) ホワイトハウス首席補佐官室は、DOE および他の関連機関と連携して、AI を可能にするインフ ラ、およびクリーンエネルギー生成、送電線、大容量光ファイバーデータリンクなど、このインフラのレジリエ ンス運用を支える周辺資産の建設に対する許可、承認、およびインセンティブを合理化するための取り 組みを調整する。 これらの取り組みには、必要に応じて、州政府、地方政府、部族政府、および準州政府との調整、協力、協議、およびパートナーシップが含まれ、気候リスクマネジメントに関する米国の目標に沿ったものとする。 |
(v) The Department of State, DOD, DOE, the IC, and the Department of Commerce(Commerce) shall, as appropriate and consistent with applicable law, use existing authorities to make public investments and encourage private investments in strategic domestic and foreign AI technologies and adjacent fields. These agencies shall assess the need for new authorities for the purposes of facilitating public and private investment in AI and adjacent capabilities. | (v)国務省、国防総省、DOE、情報通信研究機構(IC)、商務省は、適宜、適用法に則り、既存の権限を用いて、戦略的な国内外の AI 技術およびその隣接分野への公共投資を行い、民間投資を奨励するものとする。 これらの省庁は、AIと隣接する能力への官民投資を促進する目的で、新たな権限の必要性をアセスメントするものとする。 |
3.2. Protecting United States AI from Foreign Intelligence Threats. (a) In addition to pursuing industrial strategies that support their respective AI industries, foreign states almost certainly aim to obtain and repurpose the fruits of AI innovation in the United States to serve their national security goals. Historically, such competitors have employed techniques including research collaborations, investment schemes, insider threats, and advanced cyber espionage to collect and exploit United States scientific insights. It is the policy of the United States Government to protect United States industry, civil society, and academic AI intellectual property and related infrastructure from foreign intelligence threats to maintain a lead in foundational capabilities and, as necessary, to provide appropriate Government assistance to relevant non-government entities. | 3.2. 外国の諜報の脅威から米国のAIを防御する。(a) 外国は、自国のAI産業を支援する産業戦略を追求することに加え、ほぼ確実に、米国におけるAI技術革新の成果を入手し、自国の国家安全保障の目的に再利用することを目指している。 歴史的に、そのような競争相手は、米国の科学的知見を収集し利用するために、研究協力、投資スキーム、インサイダー脅威、高度なサイバー・スパイ活動などの手法を採用してきた。 米国の産業界、市民社会、学術界のAI知的財産および関連インフラを外国の諜報機関の脅威から保護し、基礎的能力における優位性を維持し、必要に応じて、関連する非政府事業体に適切な政府支援を提供することは、米国政府の方針である。 |
(b) Consistent with these goals: | (b) これらの目標に整合する: |
(i) Within 90 days of the date of this memorandum, the National Security Council(NSC) staff and the Office of the Director of National Intelligence(ODNI) shall review the President’s Intelligence Priorities and the National Intelligence Priorities Framework consistent with National Security Memorandum 12 of July 12, 2022(The President’s Intelligence Priorities), and make recommendations to ensure that such priorities improve identification and assessment of foreign intelligence threats to the United States AI ecosystem and closely related enabling sectors, such as those involved in semiconductor design and production. | (i) この覚書の日付から90日以内に、国家安全保障会議(NSC)のスタッフと国家情報長官室(ODNI)は、2022年7月12日の国家安全保障覚書12(The President's Intelligence Priorities)と整合する大統領のインテリジェンス優先事項と国家インテリジェンス優先事項の枠組みを見直し、そのような優先事項が米国のAIエコシステムと半導体設計・製造に関わるような密接に関連する実現部門に対する外国情報による脅威の特定と評価を改善することを確実にするための勧告を行う。 |
(ii) Within 180 days of the date of this memorandum, and on an ongoing basis thereafter, ODNI, in coordination with DOD, the Department of Justice(DOJ), Commerce, DOE, DHS, and other IC elements as appropriate, shall identify critical nodes in the AI supply chain, and develop a list of the most plausible avenues through which these nodes could be disrupted or compromised by foreign actors. On an ongoing basis, these agencies shall take all steps, as appropriate and consistent with applicable law, to reduce such risks. | (ii) 本覚書の日付から180日以内に、またその後も継続的に、ODNIは、国防総省、司法省(DOJ)、商務省、DOE、DHS、および必要に応じて他のIC要素と連携して、AIのサプライ・チェーンにおける重要なノードを特定し、これらのノードが外国の行為者によって妨害または侵害される可能性のある最ももっともらしい経路のリストを作成する。 これらの機関は、継続的に、適切かつ適用法に合致するあらゆる手段を講じ、そのようなリスクを軽減するものとする。 |
(c) Foreign actors may also seek to obtain United States intellectual property through gray-zone methods, such as technology transfer and data localization requirements. AI-related intellectual property often includes critical technical artifacts(CTAs) that would substantially lower the costs of recreating, attaining, or using powerful AI capabilities. The United States Government must guard against these risks. | (c) 外国の行為者はまた、技術移転やデータのローカライゼーション要件などのグレーゾーンの方法を通じて、米国の知的財産を取得しようとする可能性がある。 AI関連の知的財産には、強力なAI能力を再現、獲得、使用するコストを大幅に下げる重要技術成果物(CTA)が含まれていることが多い。 米国政府は、こうしたリスクから守らなければならない。 |
(d) Consistent with these goals: | (d)これらの目標に合致する: |
(i) In furtherance of Executive Order 14083 of September 15, 2022(Ensuring Robust Consideration of Evolving National Security Risks by the Committee on Foreign Investment in the United States), the Committee on Foreign Investment in the United States shall, as appropriate, consider whether a covered transaction involves foreign actor access to proprietary information on AI training techniques, algorithmic improvements, hardware advances, CTAs, or other proprietary insights that shed light on how to create and effectively use powerful AI systems. | (i) 2022年9月15日の大統領令14083(対米外国投資委員会による進化する国家安全保障リスクの強固な検討の確保)を推進するため、対米外国投資委員会は、適切な場合、対象となる取引が、強力なAIシステムの作成方法及び効果的な使用方法に光を当てる、AIの訓練技術、アルゴリズムの改善、ハードウェアの進歩、CTA、又はその他の専有的洞察に関する外国行為者の専有情報へのアクセスを伴うか否かを検討するものとする。 |
3.3. Managing Risks to AI Safety, Security, and Trustworthiness. (a) Current and near-future AI systems could pose significant safety, security, and trustworthiness risks, including those stemming from deliberate misuse and accidents. Across many technological domains, the United States has historically led the world not only in advancing capabilities, but also in developing the tests, standards, and norms that underpin reliable and beneficial global adoption. The United States approach to AI should be no different, and proactively constructing testing infrastructure to assess and mitigate AI risks will be essential to realizing AI’s positive potential and to preserving United States AI leadership. | 3.3. AIの安全性、セキュリティ、信頼性に対するリスクマネジメント。(a) 現在および近い将来のAIシステムは、意図的な誤用や事故に起因するものを含め、重大な安全性、セキュリティ、信頼性のリスクをもたらす可能性がある。 多くの技術領域において、米国は歴史的に、能力を向上させるだけでなく、信頼性が高く有益なグローバルな採用を支える試験、標準、規範の開発においても世界をリードしてきた。 AIに対する米国のアプローチも同様であるべきであり、AIのリスクをアセスメントし軽減するための試験インフラを積極的に構築することは、AIのポジティブな可能性を実現し、米国のAIのリーダーシップを維持するために不可欠である。 |
(b) It is the policy of the United States Government to pursue new technical and policy tools that address the potential challenges posed by AI. These tools include processes for reliably testing AI models’ applicability to harmful tasks and deeper partnerships with institutions in industry, academia, and civil society capable of advancing research related to AI safety, security, and trustworthiness. | (b) AIがもたらす潜在的な課題に対処する新たな技術的・政策的ツールを追求することは、米国政府の方針である。 これらのツールには、AIモデルが有害なタスクに適用可能かどうかを確実にテストするためのプロセスや、AIの安全性、セキュリティ、信頼性に関連する研究を進めることができる産業界、学界、市民社会の機構とのより深いパートナーシップが含まれる。 |
(c) Commerce, acting through the AI Safety Institute(AISI) within the National Institute of Standards and Technology(NIST), shall serve as the primary United States Government point of contact with private sector AI developers to facilitate voluntary pre- and post-public deployment testing for safety, security, and trustworthiness of frontier AI models. In coordination with relevant agencies as appropriate, Commerce shall establish an enduring capability to lead voluntary unclassified pre-deployment safety testing of frontier AI models on behalf of the United States Government, including assessments of risks relating to cybersecurity, biosecurity, chemical weapons, system autonomy, and other risks as appropriate(not including nuclear risk, the assessment of which shall be led by DOE). Voluntary unclassified safety testing shall also, as appropriate, address risks to human rights, civil rights, and civil liberties, such as those related to privacy, discrimination and bias, freedom of expression, and the safety of individuals and groups. Other agencies, as identified in subsection 3.3(f) of this section, shall establish enduring capabilities to perform complementary voluntary classified testing in appropriate areas of expertise. The directives set forth in this subsection are consistent with broader taskings on AI safety in section 4 of Executive Order 14110, and provide additional clarity on agencies’ respective roles and responsibilities. | (c)ガバナンスは、国立標準技術研究所(NIST)内のAI安全研究所(AISI)を通じて、米国政府として民間AI開発者との主要な窓口となり、フロンティアAIモデルの安全性、セキュリティ、信頼性に関する自主的な公開前・公開後のテストを促進する。 必要に応じて関連機関と連携し、商務部は、サイバーセキュリティ、バイオセキュリティ、化学兵器、システム自律性、および必要に応じてその他のリスクに関するアセスメントを含め、米国政府に代わって、フロンティア AI モデルの自主的な未分類の配備前安全性テストを主導する永続的な能力を確立するものとする(核リスクは含まず、そのアセスメントは DOE が主導するものとする)。 自主的な非機密安全性試験は、プライバシー、識別的バイアス、表現の自由、および個人と集団の 安全に関するものなど、人権、公民権、および市民的自由に関するリスクにも適宜対応するものとする。 本項 3.3(f)号で識別されるその他の機関は、適切な専門分野において、補完的な自主的機密試験を実施するための永続的能力を確立しなければならない。 本項に規定される指令は、大統領令第14110号の第4節におけるAIの安全性に関する広範な任務と整合しており、各機関のそれぞれの役割と責任についてさらに明確にするものである。 |
(d) Nothing in this subsection shall inhibit agencies from performing their own evaluations of AI systems, including tests performed before those systems are released to the public, for the purposes of evaluating suitability for that agency’s acquisition and procurement. AISI’s responsibilities do not extend to the evaluation of AI systems for the potential use by the United States Government for national security purposes; those responsibilities lie with agencies considering such use, as outlined in subsection 4.2(e) of this memorandum and the associated framework described in that subsection. | (d)本小節のいかなる規定も、AIシステムが一般に公開される前に実施されるテストを含め、各省庁が当該省庁の取得・調達への適合性を評価する目的で、AIシステムの評価を独自に実施することを阻害するものではない。 AISIの責務は、国家安全保障の目的で米国政府が使用する可能性のあるAIシステムの評価には及ばない。そのような責務は、本覚書の第4.2(e)項および同項で説明されている関連フレームワークで概説されているように、そのような使用を検討している機関にある。 |
(e) Consistent with these goals, Commerce, acting through AISI within NIST, shall take the following actions to aid in the evaluation of current and near-future AI systems: | (e)これらの目標に沿って、商務部は、NIST内のAISIを通じて、現在および近い将来のAIシステムの評価を支援するために、以下の行動をとるものとする。 |
(i) Within 180 days of the date of this memorandum and subject to private sector cooperation, AISI shall pursue voluntary preliminary testing of at least two frontier AI models prior to their public deployment or release to evaluate capabilities that might pose a threat to national security. This testing shall assess models’ capabilities to aid offensive cyber operations, accelerate development of biological and/or chemical weapons, autonomously carry out malicious behavior, automate development and deployment of other models with such capabilities, and give rise to other risks identified by AISI. AISI shall share feedback with the APNSA, interagency counterparts as appropriate, and the respective model developers regarding the results of risks identified during such testing and any appropriate mitigations prior to deployment. | (i)本覚書の日付から180日以内に、民間部門の協力を前提として、AISIは、国家安全保障に脅威を与える可能性のある能力を評価するために、少なくとも2つのフロンティアAIモデルの自主的な予備テストを、その公的な展開または公開に先立って実施するものとする。 このテストでは、攻撃的なサイバー作戦を支援する、生物・化学兵器の開発を加速する、悪意のある行動を自律的に実行する、そのような能力を持つ他のモデルの開発と展開を自動化する、AISIが特定したその他のリスクを生じさせる、といったモデルの能力をアセスメントするものとする。 AISIは、このようなテスト中に特定されたリスクの結果、および配備前の適切な低減に関して、APNSA、必要に応じて省庁間カウンターパート、および各モデル開発者とフィードバックを共有するものとする。 |
(ii) Within 180 days of the date of this memorandum, AISI shall issue guidance for AI developers on how to test, evaluate, and manage risks to safety, security, and trustworthiness arising from dual-use foundation models, building on guidelines issued pursuant to subsection 4.1(a) of Executive Order 14110. AISI shall issue guidance on topics including: | (ii) AISI は、本覚書の日付から 180 日以内に、大統領令第 14110 号の 4.1(a)項に従って発行されたガイドラインに基づき、両用基盤モデルから生じる安全、セキュリ ティ、信頼性に対するリスクをどのようにテスト、評価、マネジメントするかについて、AI 開発者向けのガイダンスを発行する。 AISI は、以下を含むトピックに関するガイダンスを発行する: |
(A) How to measure capabilities that are relevant to the risk that AI models could enable the development of biological and chemical weapons or the automation of offensive cyber operations; | (A) AI モデルが生物・化学兵器の開発や攻撃的サイバー作戦の自動化を可能にするリスクに関連する能力を測定する方法、 |
(B) How to address societal risks, such as the misuse of models to harass or impersonate individuals; | (B) 個人への嫌がらせやなりすましのためのモデルの悪用など、社会的リスクに対処する方法、 |
(C) How to develop mitigation measures to prevent malicious or improper use of models; | (C) モデルの悪意ある使用や不適切な使用を防止するための軽減策を策定する方法、 |
(D) How to test the efficacy of safety and security mitigations; and | (D) 安全性とセキュリティの軽減策の有効性をテストする方法、 |
(E) How to apply risk management practices throughout the development and deployment lifecycle(pre-development, development, and deployment/release). | (E) 開発と配備のライフサイクル(開発前、開発、配備・リリース)を通じてリスクマネジメントを適用する方法。 |
(iii) Within 180 days of the date of this memorandum, AISI, in consultation with other agencies as appropriate, shall develop or recommend benchmarks or other methods for assessing AI systems’ capabilities and limitations in science, mathematics, code generation, and general reasoning, as well as other categories of activity that AISI deems relevant to assessing general-purpose capabilities likely to have a bearing on national security and public safety. | (iii) AISIは、本覚書の日付から180日以内に、必要に応じて他の機関と協議の上、科学、数学、コード生成、一般的推論におけるAIシステムの能力と限界を評価するためのベンチマークまたはその他の方法、ならびに、国家安全保障および公共の安全に関係する可能性が高い汎用能力の評価に関連するとAISIがみなすその他の活動カテゴリーを開発または推奨するものとする。 |
(iv) In the event that AISI or another agency determines that a dual-use foundation model’s capabilities could be used to harm public safety significantly, AISI shall serve as the primary point of contact through which the United States Government communicates such findings and any associated recommendations regarding risk mitigation to the developer of the model. | (iv) AISI または他の機関が、デュアルユース基盤モデルの能力が公共の安全に重大な危害を及ぼ すために使用される可能性があると判断した場合、AISI は、米国政府が当該所見およびリスク低減に関 連する勧告を当該モデルの開発者に伝達するための主要な窓口となるものとする。 |
(v) Within 270 days of the date of this memorandum, and at least annually thereafter, AISI shall submit to the President, through the APNSA, and provide to other interagency counterparts as appropriate, at minimum one report that shall include the following: | (v) AISIは、本覚書の日付から270日以内、およびその後少なくとも年1回、APNSAを通じて大統領に提出し、必要に応じて他の省庁間対応機関に提供する: |
(A) A summary of findings from AI safety assessments of frontier AI models that have been conducted by or shared with AISI; | (A) AISIが実施した、またはAISIと共有したフロンティアAIモデルのAI安全性アセスメントから得られた知見の概要 |
(B) A summary of whether AISI deemed risk mitigation necessary to resolve any issues identified in the assessments, along with conclusions regarding any mitigations’ efficacy; and | (B) アセスメントで特定された問題を解決するために、AISIがリスク軽減が必要と判断したか否かの概要と、軽減の有効性に関する結論 |
(C) A summary of the adequacy of the science-based tools and methods used to inform such assessments. | (C) 当該アセスメントに情報を提供するために使用された科学的根拠に基づくツールおよび手法の妥当性の概要。 |
(f) Consistent with these goals, other agencies specified below shall take the following actions, in coordination with Commerce, acting through AISI within NIST, to provide classified sector-specific evaluations of current and near-future AI systems for cyber, nuclear, and radiological risks: | (f)これらの目標に沿って、以下に指定された他の省庁は、商務省と連携し、NIST 内の AISI を通じて、現在および近い将来の AI システムのサイバー、核、放射性リスクに関する機密部門別評価を提供するために、以下の行動を取らなければならない。 |
(i) All agencies that conduct or fund safety testing and evaluations of AI systems shall share the results of such evaluations with AISI within 30 days of their completion, consistent with applicable protections for classified and controlled information. | (i) AI システムの安全性試験および評価を実施または資金提供するすべての省庁は、機密および管理された情報に対する適用される保護と整合性を保ちながら、そのような評価の結果を完了後 30 日以内に AISI と共有しなければならない。 |
(ii) Within 120 days of the date of this memorandum, the National Security Agency(NSA), acting through its AI Security Center(AISC) and in coordination with AISI, shall develop the capability to perform rapid systematic classified testing of AI models’ capacity to detect, generate, and/or exacerbate offensive cyber threats. Such tests shall assess the degree to which AI systems, if misused, could accelerate offensive cyber operations. | (ii) この覚書の日付から120日以内に、国家安全保障局(NSA)は、AIセキュリティセンター(AISC)を通じて、AISIと協調して、攻撃的サイバー脅威を検知、生成、および/または悪化させるAIモデルの能力について、迅速に体系的な機密テストを実施する能力を開発しなければならない。 このようなテストは、AIシステムが悪用された場合、攻撃的サイバー活動を加速させる可能性の程度を評価するものとする。 |
(iii) Within 120 days of the date of this memorandum, DOE, acting primarily through the National Nuclear Security Administration(NNSA) and in close coordination with AISI and NSA, shall seek to develop the capability to perform rapid systematic testing of AI models’ capacity to generate or exacerbate nuclear and radiological risks. This initiative shall involve the development and maintenance of infrastructure capable of running classified and unclassified tests, including using restricted data and relevant classified threat information. This initiative shall also feature the creation and regular updating of automated evaluations, the development of an interface for enabling human-led red-teaming, and the establishment of technical and legal tooling necessary for facilitating the rapid and secure transfer of United States Government, open-weight, and proprietary models to these facilities. As part of this initiative: | (iii) 本覚書の日付から 120 日以内に、DOE は、主に国家核安全保障局(NNSA)を 通じて行動し、AISI および NSA と緊密に連携して、核・放射性リスクを生成または増悪 させる AI モデルの能力について、迅速な体系的試験を実施する能力の開発を目指す。 このイニシアティブは、制限されたデータや関連する機密脅威情報の利用を含め、機密および非機密のテストを実行できるインフラの開発と保守を含むものとする。 このイニシアティブはまた、自動化された評価の作成と定期的な更新、人間主導のレッドチームを可能にするインターフェイスの開発、米国政府、オープンウェイト、および専有モデルのこれらの施設への迅速かつ安全な移転を促進するために必要な技術的・法的ツールの確立を特徴とするものとする。 このイニシアチブの一環として、 |
(A) Within 180 days of the date of this memorandum, DOE shall use the capability described in subsection 3.3(f)(iii) of this section to complete initial evaluations of the radiological and nuclear knowledge, capabilities, and implications of a frontier AI model no more than 30 days after the model has been made available to NNSA at an appropriate classification level. These evaluations shall involve tests of AI systems both without significant modifications and, as appropriate, with fine-tuning or other modifications that could enhance performance. | (A) 本覚書の日付から 180 日以内に、DOE は、本節第 3.3 項(f)(iii)に記載された能力を使用し、フロンティア AI モデルが適切な分類レベルで NNSA に提供されてから 30 日以内に、その放射性・核に関する知識、能力、および意味合いの初期評価を完了するものとする。 これらの評価には、大幅な修正を加えない場合と、必要に応じて微調整や性能向上のためのその他の修正を加えた場合の両方のAIシステムのテストを含むものとする。 |
(B) Within 270 days of the date of this memorandum, and at least annually thereafter, DOE shall submit to the President, through the APNSA, at minimum one assessment that shall include the following: | (B) 本覚書の日付から 270 日以内、およびその後少なくとも毎年、DOE は、APNSA を通じ、以下を含む最低 1 回のアセスメントを大統領に提出するものとする: |
(1) A concise summary of the findings of each AI model evaluation for radiological and nuclear risk, described in subsection 3.3(f)(iii)(A) of this section, that DOE has performed in the preceding 12 months; | (1) 第 3 項(f)(iii)に記載される、放射線リスクおよび核リスクに関する各 AI モデル評 価の結果の簡潔な要約。 本節の 3(f)(iii)(A)に記載される、DOE が過去 12 ヶ月間に実施した放射性リスクおよび核リスク に関する各 AI モデル評価の所見の簡潔な概要、 |
(2) A recommendation as to whether corrective action is necessary to resolve any issues identified in the evaluations, including but not limited to actions necessary for attaining and sustaining compliance conditions appropriate to safeguard and prevent unauthorized disclosure of restricted data or other classified information, pursuant to the Atomic Energy Act of 1954; and | (2) 1954 年原子力法に基づき、制限されたデータまたはその他の機密情報を保護し、不正な 開示を防止するために適切な遵守条件を達成し、維持するために必要な措置を含むが、こ れらに限定されない、評価で特定された問題を解決するために是正措置が必要かどう かに関する勧告、 |
(3) A concise statement regarding the adequacy of the science-based tools and methods used to inform the evaluations. | (3) 評価に情報を提供するために使用された科学的根拠に基づくツールお よび手法の妥当性に関する簡潔な声明。 |
(iv) On an ongoing basis, DHS, acting through the Cybersecurity and Infrastructure Security Agency(CISA), shall continue to fulfill its responsibilities with respect to the application of AISI guidance, as identified in National Security Memorandum 22 of April 30, 2024(Critical Infrastructure Security and Resilience), and section 4 of Executive Order 14110. | (iv) 継続的に、サイバーセキュリティ・インフラセキュリティ庁(CISA)を通じて行動する DHS は、2024 年 4 月 30 日の国家安全保障覚書 22(重要インフ ラのセキュリティとレジリエンス)および大統領令第 14110 号の第 4 項で特定されているように、AISI ガイダンスの適用に関する責任を引き続き果たすものとする。 |
(g) Consistent with these goals, and to reduce the chemical and biological risks that could emerge from AI: | (g) これらの目標に合致し、AIから生じうる化学的・生物学的リスクを低減するため、 |
(i) The United States Government shall advance classified evaluations of advanced AI models’ capacity to generate or exacerbate deliberate chemical and biological threats. As part of this initiative: | (i) 米国政府は、意図的な化学的・生物学的脅威を生成または悪化させる高度なAIモデルの能力について、機密評価を進めるものとする。 このイニシアチブの一環として、 |
(A) Within 210 days of the date of this memorandum, DOE, DHS, and AISI, in consultation with DOD and other relevant agencies, shall coordinate to develop a roadmap for future classified evaluations of advanced AI models’ capacity to generate or exacerbate deliberate chemical and biological threats, to be shared with the APNSA. This roadmap shall consider the scope, scale, and priority of classified evaluations; proper safeguards to ensure that evaluations and simulations are not misconstrued as offensive capability development; proper safeguards for testing sensitive and/or classified information; and sustainable implementation of evaluation methodologies. | (A) 本覚書の日付から 210 日以内に、DOE、DHS、および AISI は、DOD およびその他の関連機関と協議の上、APNSA と共有する、意図的な化学的・生物学的脅威を生成または悪化させる高度な AI モデルの能力に関する将来の機密評価のロードマップを作成するための調整を行うものとする。 このロードマップは、機密評価の範囲、規模、優先順位、評価やシミュレーションが攻撃能力開発と誤解されないための適切な保護措置、機密情報および/または機密情報をテストするための適切な保護措置、評価手法の持続可能な実施について検討するものとする。 |
(B) On an ongoing basis, DHS shall provide expertise, threat and risk information, and other technical support to assess the feasibility of proposed biological and chemical classified evaluations; interpret and contextualize evaluation results; and advise relevant agencies on potential risk mitigations. | (B) 継続的に、DHS は、提案されている生物・化学兵器機密評価の実行可能性をアセスメントし、評価結果を解釈し、文脈化し、潜在的なリスク低減について関係機関に助言するために、専門知識、脅威およびリスク情報、その他の技術支援を提供するものとする。 |
(C) Within 270 days of the date of this memorandum, DOE shall establish a pilot project to provide expertise, infrastructure, and facilities capable of conducting classified tests in this area. | (C) この覚書の日付から 270 日以内に、DOE は、この分野の機密試験を実施できる 専門知識、インフラ、および施設を提供するための試験的プロジェクトを設立する。 |
(ii) Within 240 days of the date of this memorandum, DOD, the Department of Health and Human Services(HHS), DOE(including national laboratories), DHS, NSF, and other agencies pursuing the development of AI systems substantially trained on biological and chemical data shall, as appropriate, support efforts to utilize high-performance computing resources and AI systems to enhance biosafety and biosecurity. These efforts shall include: | (本覚書の日付から 240 日以内に、DOD、保健福祉省(HHS)、DOE(国立研究所を含む)、DHS、 NSF、および生物学的・化学的データについて実質的に訓練された AI システムの開発を追求するその他の機関は、必要に応じて、 バイオセーフティとバイオセキュリティを強化するために高性能計算資源と AI システムを活用する取り組みを支援するものとする。 これらの取り組みには以下が含まれる: |
(A) The development of tools for screening in silico chemical and biological research and technology; | (A) in silico の化学的・生物学的研究および技術をスクリーニングするためのツールの開発、 |
(B) The creation of algorithms for nucleic acid synthesis screening; | (B) 核酸合成スクリーニングのためのアルゴリズムの作成、 |
(C) The construction of high-assurance software foundations for novel biotechnologies; | (C) 新規バイオテクノロジーのための高保証ソフトウェア基盤の構築、 |
(D) The screening of complete orders or data streams from cloud labs and biofoundries; and | (D) クラウドラボおよびバイオファウンドリーからの完全なオーダーまたはデータストリームのスクリーニング、 |
(E) The development of risk mitigation strategies such as medical countermeasures. | (E) 医療対策などのリスク軽減戦略の開発。 |
(iii) After the publication of biological and chemical safety guidance by AISI outlined in subsection 3.3(e) of this section, all agencies that directly develop relevant dual-use foundation AI models that are made available to the public and are substantially trained on biological or chemical data shall incorporate this guidance into their agency’s practices, as appropriate and feasible. | (iii) 本節 3.3(e)項に概説されている AISI による生物学的及び化学的安全性ガイダンスの公表後、 一般に公開され、生物学的又は化学的データについて実質的に訓練された、関連するデュアルユース基盤 AI モデルを直接開発するすべての機関は、適切かつ実行可能な場合、当該ガイダンスを当該機関の実務に組み込むものとする。 |
(iv) Within 180 days of the date of this memorandum, NSF, in coordination with DOD, Commerce(acting through AISI within NIST), HHS, DOE, the Office of Science and Technology Policy(OSTP), and other relevant agencies, shall seek to convene academic research institutions and scientific publishers to develop voluntary best practices and standards for publishing computational biological and chemical models, data sets, and approaches, including those that use AI and that could contribute to the production of knowledge, information, technologies, and products that could be misused to cause harm. This is in furtherance of the activities described in subsections 4.4 and 4.7 of Executive Order 14110. | (iv) NSFは、本覚書の日付から180日以内に、国防総省、商務省(NIST内のAISIを通じて行動)、HHS、DOE、米国科学技術政策局(OSTP)、およびその他の関連機関と連携して、学術研究機構および科学出版社を招集し、AIを使用し、危害をもたらすために悪用される可能性のある知識、情報、技術、製品の生産に貢献する可能性のあるものを含む、計算生物学的および化学的モデル、データセット、およびアプローチを公開するための自主的なベストプラクティスおよび標準を策定するよう努めるものとする。 これは、大統領令14110号の4.4項および4.7項に記載された活動を推進するものである。 |
(v) Within 540 days of the date of this memorandum, and informed by the United States Government Policy for Oversight of Dual Use Research of Concern and Pathogens with Enhanced Pandemic Potential, OSTP, NSC staff, and the Office of Pandemic Preparedness and Response Policy, in consultation with relevant agencies and external stakeholders as appropriate, shall develop guidance promoting the benefits of and mitigating the risks associated with in silico biological and chemical research. | (v) 本覚書の日付から540日以内に、「懸念されるデュアルユース研究およびパンデミックの可能性が高まった病原体の監視に関する米国政府方針」に基づき、OSTP、NSCスタッフ、およびパンデミック準備・対応政策局は、関連省庁および必要に応じて外部の利害関係者と協議の上、インシリコ生物・化学研究の利点を促進し、関連するリスクを低減するためのガイダンスを作成するものとする。 |
(h) Agencies shall take the following actions to improve foundational understanding of AI safety, security, and trustworthiness: | (h) 機関は、AIの安全性、セキュリティ、信頼性に関する基礎的理解を改善するために、以下の措置を講じるものとする。 |
(i) DOD, Commerce, DOE, DHS, ODNI, NSF, NSA, and the National Geospatial-Intelligence Agency(NGA) shall, as appropriate and consistent with applicable law, prioritize research on AI safety and trustworthiness. As appropriate and consistent with existing authorities, they shall pursue partnerships as appropriate with leading public sector, industry, civil society, academic, and other institutions with expertise in these domains, with the objective of accelerating technical and socio-technical progress in AI safety and trustworthiness. This work may include research on interpretability, formal methods, privacy enhancing technologies, techniques to address risks to civil liberties and human rights, human-AI interaction, and/or the socio-technical effects of detecting and labeling synthetic and authentic content(for example, to address the malicious use of AI to generate misleading videos or images, including those of a strategically damaging or non-consensual intimate nature, of political or public figures). | (i) 国防総省、商務省、DOE、DHS、ODNI、NSF、NSA、国土地理院(NGA)は、適切かつ適用法 と矛盾しない範囲で、AIの安全性と信頼性に関する研究を優先する。 適切かつ既存の認可と整合性があるように、AIの安全性と信頼性における技術的・社会技術的進歩を加速させることを目的として、これらの領域における専門知識を有する主要な公共部門、産業界、市民社会、学術機関、その他の機構とのパートナーシップを適宜追求するものとする。 この作業には、解釈可能性、形式手法、プライバシー強化技術、市民的自由と人権へのリスクに対処する技術、人間とAIの相互作用、および/または合成コンテンツと認証コンテンツの検出とラベリングの社会技術的効果(例えば、政治家や公人について、戦略的に損害を与える、または非同意的な親密な性質を含む、誤解を招く動画や画像を生成するためのAIの悪意ある使用に対処するためのもの)に関する研究が含まれる可能性がある。 |
(ii) DOD, Commerce, DOE, DHS, ODNI, NSF, NSA, and NGA shall, as appropriate and consistent with applicable law, prioritize research to improve the security, robustness, and reliability of AI systems and controls. These entities shall, as appropriate and consistent with applicable law, partner with other agencies, industry, civil society, and academia. Where appropriate, DOD, DHS(acting through CISA), the Federal Bureau of Investigation, and NSA(acting through AISC) shall publish unclassified guidance concerning known AI cybersecurity vulnerabilities and threats; best practices for avoiding, detecting, and mitigating such issues during model training and deployment; and the integration of AI into other software systems. This work shall include an examination of the role of and vulnerabilities potentially caused by AI systems used in critical infrastructure. | (ii) 国防総省、商務省、DOE、DHS、ODNI、NSF、NSA、および NGA は、適切かつ適用法と一致するように、AI システムおよび制御の安全性、堅牢性、および信頼性を向上させるための研究を優先するものとする。 これらの事業体は、適宜、適用法に則り、他機関、産業界、市民社会、学界と提携するものとする。 適切な場合、DOD、DHS(CISA を通じて活動)、連邦捜査局、NSA(AISC を通じて活動)は、既知の AI のサイバーセキュリティの脆弱性と脅威、モデルの訓練と配備中にそのような問題を回避、検知、緩和するためのベストプラクティス、および他のソフトウェアシステムへの AI の統合に関する非機密ガイダンスを公表するものとする。 このワーク・ロールには、重要インフラで使用されるAIシステムの役割と、それによって引き起こされる可能性のある脆弱性の検討も含まれるものとする。 |
(i) Agencies shall take actions to protect classified and controlled information, given the potential risks posed by AI: | (i) AI がもたらす潜在的リスクを考慮し、各省庁は、機密・管理情報を保護するための措置を講じなけれ ばならない。 |
(i) In the course of regular updates to policies and procedures, DOD, DOE, and the IC shall consider how analysis enabled by AI tools may affect decisions related to declassification of material, standards for sufficient anonymization, and similar activities, as well as the robustness of existing operational security and equity controls to protect classified or controlled information, given that AI systems have demonstrated the capacity to extract previously inaccessible insight from redacted and anonymized data. | (i) DOD、DOE、および IC は、政策・手順の定期的な更新の過程で、AI ツールが可能にする分析が、 資料の機密解除、十分な匿名化の標準、および同様の活動に関連する決定にどのような影響を与え る可能性があるか、また、AI システムが、冗長化・匿名化されたデータから以前はアクセスでき なかった知見を抽出する能力を実証していることを考慮し、機密・管理情報を保護するための既存の運用セ キュリティおよび衡平性管理の堅牢性を検討しなければならない。 |
Sec. 4. Responsibly Harnessing AI to Achieve National Security Objectives. (a) It is the policy of the United States Government to act decisively to enable the effective and responsible use of AI in furtherance of its national security mission. Achieving global leadership in national security applications of AI will require effective partnership with organizations outside Government, as well as significant internal transformation, including strengthening effective oversight and governance functions. | 第4項 国家安全保障の目的を達成するためにAIを責任を持って活用する。(a) 米国政府は、国家安全保障の使命を推進するために、AIの効果的かつ責任ある利用を可能にするために断固として行動する方針である。 AIの国家安全保障への応用において世界的なリーダーシップを達成するためには、効果的な監督・ガバナンス機能の強化を含む政府内部の大幅な変革とともに、政府外の組織との効果的なパートナーシップが必要である。 |
4.1. Enabling Effective and Responsible Use of AI. (a) It is the policy of the United States Government to adapt its partnerships, policies, and infrastructure to use AI capabilities appropriately, effectively, and responsibly. These modifications must balance each agency’s unique oversight, data, and application needs with the substantial benefits associated with sharing powerful AI and computational resources across the United States Government. Modifications must also be grounded in a clear understanding of the United States Government’s comparative advantages relative to industry, civil society, and academia, and must leverage offerings from external collaborators and contractors as appropriate. The United States Government must make the most of the rich United States AI ecosystem by incentivizing innovation in safe, secure, and trustworthy AI and promoting industry competition when selecting contractors, grant recipients, and research collaborators. Finally, the United States Government must address important technical and policy considerations in ways that ensure the integrity and interoperability needed to pursue its objectives while protecting human rights, civil rights, civil liberties, privacy, and safety. | 4.1. AIの効果的かつ責任ある利用を可能にする。(a) AI能力を適切、効果的かつ責任を持って利用するために、そのパートナーシップ、政策、インフラを適応させることは米国政府の方針である。 これらの修正は、各省庁独自の監督、データ、アプリケーションのニーズと、米国政府全体で強力なAIと計算資源を共有することに伴う実質的な利益とのバランスをとらなければならない。 また、産業界、市民社会、学界と比較した米国政府の優位性を明確に理解した上で、適切な外部協力者や請負業者からの提供を活用した修正を行わなければならない。 米国政府は、請負業者、助成金取得者、研究協力者を選定する際に、安全、安心、信頼できるAIのイノベーションにインセンティブを与え、産業競争を促進することにより、米国の豊かなAIエコシステムを最大限に活用しなければならない。 最後に、米国政府は、人権、市民権、市民的自由、プライバシー、安全を保護しつつ、その目的を追求するために必要な完全性と相互運用性を確保する方法で、重要な技術的・政策的考慮事項に取り組まなければならない。 |
(b) The United States Government needs an updated set of Government-wide procedures for attracting, hiring, developing, and retaining AI and AI-enabling talent for national security purposes. | (b) 米国政府は、国家安全保障を目的とするAIおよびAIを可能にする人材を惹きつけ、雇用し、開発し、保持するための政府全体の手順を更新する必要がある。 |
(c) Consistent with these goals: | (c)これらの目標に合致する: |
(i) In the course of regular legal, policy, and compliance framework reviews, the Department of State, DOD, DOJ, DOE, DHS, and IC elements shall revise, as appropriate, their hiring and retention policies and strategies to accelerate responsible AI adoption. Agencies shall account for technical talent needs required to adopt AI and integrate it into their missions and other roles necessary to use AI effectively, such as AI-related governance, ethics, and policy positions. These policies and strategies shall identify financial, organizational, and security hurdles, as well as potential mitigations consistent with applicable law. Such measures shall also include consideration of programs to attract experts with relevant technical expertise from industry, academia, and civil society — including scholarship for service programs — and similar initiatives that would expose Government employees to relevant non-government entities in ways that build technical, organizational, and cultural familiarity with the AI industry. These policies and strategies shall use all available authorities, including expedited security clearance procedures as appropriate, in order to address the shortfall of AI-relevant talent within Government. | (i)国務省、国防総省、司法省、DOE、国土安全保障省(DHS)、情報通信研究機構(IC)は、定期的な法的、政策的、コンプライアンス的枠組みの見直しの中で、責任あるAIの採用を加速させるため、採用・保持の方針と戦略を適宜見直す。 政府は、AIを採用するために必要な技術的人材のニーズを考慮し、AI関連のガバナンス、倫理、政策職など、AIを効果的に活用するために必要な役割やミッションにAIを組み込むものとする。 これらの方針および戦略は、財政的、組織的、およびセキュリティ上のハードル、ならびに適用法に合致した潜在的低減策を特定するものとする。 このような措置には、産業界、学界、市民社会から、関連する技術的専門知識を有する専門家を誘致するためのプログラム(奉仕活動に対する奨学金プログラムを含む)、及び、AI産業に対する技術的、組織的、文化的な親近感を醸成するような方法で、政府職員を関連する非政府事業体に接触させるような類似のイニシアティブの検討も含まれなければならない。 これらの方針及び戦略は、政府内のAI関連人材の不足に対処するため、適宜、迅速なセキュリティ・クリアランス手続きを含む、あらゆる利用可能な権限を使用するものとする。 |
(ii) Within 120 days of the date of this memorandum, the Department of State, DOD, DOJ, DOE, DHS, and IC elements shall each, in consultation with the Office of Management and Budget(OMB), identify education and training opportunities to increase the AI competencies of their respective workforces, via initiatives which may include training and skills-based hiring. | (ii) この覚書の日付から120日以内に、国務省、国防総省、司法省、DOE、国土安全保障省(DHS)、および識別情報はそれぞれ、行政管理予算局(OMB)と協議の上、研修や技能ベースの雇用を含む取り組みを通じて、それぞれの職員のAI能力を高めるための教育・研修の機会を特定する。 |
(d) To accelerate the use of AI in service of its national security mission, the United States Government needs coordinated and effective acquisition and procurement systems. This will require an enhanced capacity to assess, define, and articulate AI-related requirements for national security purposes, as well as improved accessibility for AI companies that lack significant prior experience working with the United States Government. | (d) 国家安全保障の使命のためにAIの利用を加速するために、米国政府は、協調的かつ効果的な取得・調達システムを必要とする。 そのためには、国家安全保障目的のためのAI関連要件をアセスメントし、定義し、明確にする能力を強化するとともに、米国政府との協働経験が乏しいAI企業にとってのアクセシビリティを改善する必要がある。 |
(e) Consistent with these goals: | (e)これらの目標に沿って |
(i) Within 30 days of the date of this memorandum, DOD and ODNI, in coordination with OMB and other agencies as appropriate, shall establish a working group to address issues involving procurement of AI by DOD and IC elements and for use on NSS. As appropriate, the working group shall consult the Director of the NSA, as the National Manager for NSS, in developing recommendations for acquiring and procuring AI for use on NSS. | (i) この覚書の日付から30日以内に、DODとODNIは、OMBおよび必要に応じて他の機関と連携し、DODおよびICの要素によるAIの調達、およびNSSでの使用に関わる問題に取り組むための作業部会を設置する。 必要に応じて、作業部会はNSSで使用するAIの取得と調達に関する勧告を策定するにあたり、NSSの国家管理者としてNSA長官と協議するものとする。 |
(ii) Within 210 days of the date of this memorandum, the working group described in subsection 4.1(e)(i) of this section shall provide written recommendations to the Federal Acquisition Regulatory Council(FARC) regarding changes to existing regulations and guidance, as appropriate and consistent with applicable law, to promote the following objectives for AI procured by DOD and IC elements and for use on NSS: | (ii) この覚書の日付から210日以内に、4. 1(e)(i)に記載された作業部会は、国防総省および国際情報機関(IC)により調達され、NSSで使用されるAIの以下の目的を促進するため、適切かつ適用法に合致する既存の規制およびガイダンスの変更に関する書面による勧告を連邦調達規制審議会(FARC)に提出しなければならない: |
(A) Ensuring objective metrics to measure and promote the safety, security, and trustworthiness of AI systems; | (A) AIシステムの安全性、セキュリティ、信頼性を測定し、促進するための客観的な指標を確保すること。 |
(B) Accelerating the acquisition and procurement process for AI, consistent with the Federal Acquisition Regulation, while maintaining appropriate checks to mitigate safety risks; | (B) 安全リスクを軽減するための適切なチェックを維持しつつ、連邦調達規則(Federal Acquisition Regulation)と整合性を保ちつつ、AIの取得・調達プロセスを加速すること。 |
(C) Simplifying processes such that companies without experienced contracting teams may meaningfully compete for relevant contracts, to ensure that the United States Government has access to a wide range of AI systems and that the AI marketplace is competitive; | (C) 米国政府が幅広いAIシステムにアクセスでき、AI市場の競争力を確保するため、経験豊富な契約チームを持たない企業でも関連する契約について有意義に競争できるよう、プロセスを簡素化すること; |
(D) Structuring competitions to encourage robust participation and achieve best value to the Government, such as by including requirements that promote interoperability and prioritizing the technical capability of vendors when evaluating offers; | (D) 相互運用性を促進する要件を盛り込んだり、オファー評価時にベンダーの技術能力を優先するなど、強力な参加を促し、政府にとって最良の価値を実現するための競争を構造化すること。 |
(E) Accommodating shared use of AI to the greatest degree possible and as appropriate across relevant agencies; and | (E) 可能な限り、また適切な場合には、関連省庁間でAIの共同利用に対応すること。 |
(F) Ensuring that agencies with specific authorities and missions may implement other policies, where appropriate and necessary. | (F) 特定の権限と使命を有する省庁が、適切かつ必要な場合には、他の政策を実施できるようにすること。 |
(iii) The FARC shall, as appropriate and consistent with applicable law, consider proposing amendments to the Federal Acquisition Regulation to codify recommendations provided by the working group pursuant to subsection 4.1(e)(ii) of this section that may have Government-wide application. | (iii) FARC は、適切かつ適用法と一致する場合には、本節第 4.1 項(e)(ii)に従っ て作業部会が提示した勧告のうち、政府全体に適用される可能性のあるものを成文化するため、連邦 取得規則の改正を提案することを検討するものとする。 |
(iv) DOD and ODNI shall seek to engage on an ongoing basis with diverse United States private sector stakeholders — including AI technology and defense companies and members of the United States investor community — to identify and better understand emerging capabilities that would benefit or otherwise affect the United States national security mission. | (iv) 国防総省および識別は、米国の国家安全保障の使命に利益をもたらすか、そうでなければ影響を与える新たな能力を特定し、よりよく理解するために、AI技術および防衛企業、米国の投資家コミュニティのメンバーを含む、米国の多様な民間セクターの利害関係者と継続的に関与するよう努めるものとする。 |
(f) The United States Government needs clear, modernized, and robust policies and procedures that enable the rapid development and national security use of AI, consistent with human rights, civil rights, civil liberties, privacy, safety, and other democratic values. | (f) 米国政府は、人権、市民権、市民的自由、プライバシー、安全、その他の民主主義的価値観と矛盾することなく、AIの迅速な開発と国家安全保障上の利用を可能にする、明確で近代化された強固な政策と手続きを必要としている。 |
(g) Consistent with these goals: | (g) これらの目標に整合する: |
(i) DOD and the IC shall, in consultation with DOJ as appropriate, review their respective legal, policy, civil liberties, privacy, and compliance frameworks, including international legal obligations, and, as appropriate and consistent with applicable law, seek to develop or revise policies and procedures to enable the effective and responsible use of AI, accounting for the following: | (i) 国防総省及び情報通信研究機構は、必要に応じて司法省と協議の上、国際的な法的義務を含め、それぞれの法的、政策的、市民的自由、プライバシー及びコンプライアンスの枠組みを見直し、適切かつ適用法と整合的である場合には、以下を考慮しつつ、AIの効果的かつ責任ある利用を可能にするための政策及び手続の策定又は改訂を目指すものとする: |
(A) Issues raised by the acquisition, use, retention, dissemination, and disposal of models trained on datasets that include personal information traceable to specific United States persons, publicly available information, commercially available information, and intellectual property, consistent with section 9 of Executive Order 14110; | (A) 大統領令第 14110 条第 9 項に基づき、特定の米国人を特定できる個人情報、公的に入手可能な情報、商業的に入手可能な情報、および知的財産を含むデータセットに学習させたモデルの取得、使用、保持、普及、および廃棄によって生じる問題 |
(B) Guidance that shall be developed by DOJ, in consultation with DOD and ODNI, regarding constitutional considerations raised by the IC’s acquisition and use of AI; | (B) DOD および ODNI と協議の上、司法省が作成する、IC による AI の取得および使用によって生じる憲法上の考慮事項に関するガイダンス; |
(C) Challenges associated with classification and compartmentalization; | (C) 分類および区分化に関連する課題; |
(D) Algorithmic bias, inconsistent performance, inaccurate outputs, and other known AI failure modes; | (D) アルゴリズムのバイアス、一貫性のない性能、不正確な出力、およびその他の既知の AI の故障モード; |
(E) Threats to analytic integrity when employing AI tools; | (E) AI ツールを採用する際の分析的完全性への脅威; |
(F) Risks posed by a lack of safeguards that protect human rights, civil rights, civil liberties, privacy, and other democratic values, as addressed in further detail in subsection 4.2 of this section; | (F) 第 4 項でさらに詳細に取り上げた、人権、公民権、市民的自由、プライバシー、およびその他の民主的価値を保護するセーフガードの欠如がもたらすリスク; |
(G) Barriers to sharing AI models and related insights with allies and partners; and | (G)AIモデルや関連する知見を同盟国やパートナーと共有する際の障壁、 |
(H) Potential inconsistencies between AI use and the implementation of international legal obligations and commitments. | (H)AIの利用と国際的な法的義務や公約の履行との間に潜在する矛盾。 |
(ii) As appropriate, the policies described in subsection 4.1(g) of this section shall be consistent with direction issued by the Committee on NSS and DOD governing the security of AI used on NSS, policies issued by the Director of National Intelligence governing adoption of AI by the IC, and direction issued by OMB governing the security of AI used on non-NSS. | (ii) 必要に応じて、本項4.1(g)号に記載された方針は、NSSで使用されるAIの安全性を規定するNSS及び国防総省に関する委員会が発行した方針、ICによるAIの採用を規定する国家情報長官が発行した方針、及びNSS以外で使用されるAIの安全性を規定するOMBが発行した方針と整合するものとする。 |
(iii) On an ongoing basis, each agency that uses AI on NSS shall, in consultation with ODNI and DOD, take all steps appropriate and consistent with applicable law to accelerate responsible approval of AI systems for use on NSS and accreditation of NSS that use AI systems. | (iii) 継続的に、NSSでAIを使用する各機関は、ODNI及びDODと協議の上、NSSで使用するAIシステムの責任ある承認及びAIシステムを使用するNSSの認定を加速するために、適用法に合致した適切なあらゆる措置を講じること。 |
(h) The United States’ network of allies and partners confers significant advantages over competitors. Consistent with the 2022 National Security Strategy or any successor strategies, the United States Government must invest in and proactively enable the co-development and co-deployment of AI capabilities with select allies and partners. | (h) 米国の同盟国やパートナーのネットワークは、競争相手に対して大きな優位性をもたらす。 2022年国家安全保障戦略またはその後継戦略に沿って、米国政府は、選択された同盟国およびパートナーとのAI能力の共同開発および共同配備に投資し、積極的に可能にしなければならない。 |
(i) Consistent with these goals: | (i) これらの目標に合致する: |
(i) Within 150 days of the date of this memorandum, DOD, in coordination with the Department of State and ODNI, shall evaluate the feasibility of advancing, increasing, and promoting co-development and shared use of AI and AI-enabled assets with select allies and partners. This evaluation shall include: | (i) 本覚書の日付から150日以内に、国防総省は、国務省およびODNIと連携して、特定の同盟国およびパートナーとのAIおよびAI対応資産の共同開発および共同利用の推進、増加、促進の実現可能性を評価するものとする。 この評価には以下が含まれる: |
(A) A potential list of foreign states with which such co-development or co-deployment may be feasible; | (A) そのような共同開発または共同配備が実現可能な外国の潜在的リスト、 |
(B) A list of bilateral and multilateral fora for potential outreach; | (B) 潜在的なアウトリーチのための二国間および多国間の場のリスト、 |
(C) Potential co-development and co-deployment concepts; | (C) 潜在的な共同開発および共同配備のコンセプト、 |
(D) Proposed classification-appropriate testing vehicles for co-developed AI capabilities; and | (D) 共同開発されたAI能力の分類に適したテスト手段の提案、 |
(E) Considerations for existing programs, agreements, or arrangements to use as foundations for future co-development and co-deployment of AI capabilities. | (E) AI能力の将来の共同開発および共同配備の基盤として使用する既存のプログラム、協定、または取決めの検討。 |
(j) The United States Government needs improved internal coordination with respect to its use of and approach to AI on NSS in order to ensure interoperability and resource sharing consistent with applicable law, and to reap the generality and economies of scale offered by frontier AI models. | (j) 米国政府は、適用法に合致した相互運用性とリソースの共有を確保し、フロンティアAIモデルが提供する汎用性と規模の経済を享受するため、NSSにおけるAIの利用とアプローチに関して、内部調整の改善を必要としている。 |
(k) Consistent with these goals: | (k) これらの目標に一貫性を持たせる: |
(i) On an ongoing basis, DOD and ODNI shall issue or revise relevant guidance to improve consolidation and interoperability across AI functions on NSS. This guidance shall seek to ensure that the United States Government can coordinate and share AI-related resources effectively, as appropriate and consistent with applicable law. Such work shall include: | (i) 継続的に、国防総省とODNIは、NSSにおけるAI機能の統合と相互運用性を改善するため、関連ガイダンスを発行または改訂する。 このガイダンスは、米国ガバナンスが、適切かつ適用法に従って、AI 関連資源を効果的に調整し、共有できるようにすることを目指すものとする。 このような作業には以下が含まれる: |
(A) Recommending agency organizational practices to improve AI research and deployment activities that span multiple national security institutions. In order to encourage AI adoption for the purpose of national security, these measures shall aim to create consistency to the greatest extent possible across the revised practices. | (A)複数の国家安全保障機構にまたがるAIの研究・配備活動を改善するため、各省庁の組織慣行を推奨する。 A)複数の国家安全保障機関にまたがるAIの研究・配備活動を改善するための組織的慣行の推奨。国家安全保障を目的としたAIの導入を促進するため、これらの慣行は、改訂された慣行間で可能な限り一貫性を持たせることを目指すものとする。 |
(B) Steps that enable consolidated research, development, and procurement for general-purpose AI systems and supporting infrastructure, such that multiple agencies can share access to these tools to the extent consistent with applicable law, while still allowing for appropriate controls on sensitive data. | (B)汎用AIシステムおよびそれを支えるインフラの研究、開発、調達を統合し、複数の機関が適用法に合致する範囲でこれらのツールへのアクセスを共有できるようにする一方で、機密データに対する適切な統制を可能にするような措置を講じること。 |
(C) Aligning AI-related national security policies and procedures across agencies, as practicable and appropriate, and consistent with applicable law. | (C)現実的かつ適切な範囲で、適用法に合致するように、AI関連の国家安全保障政策・手続を省庁間で整合させる。 |
(D) Developing policies and procedures, as appropriate and consistent with applicable law, to share information across DOD and the IC when an AI system developed, deployed, or used by a contractor demonstrates risks related to safety, security, and trustworthiness, including to human rights, civil rights, civil liberties, or privacy. | (D)請負業者が開発、配備、使用するAIシステムが、人権、市民権、市民的自由、プライバシーを含め、安全、セキュリティ、信頼性に関連するリスクを示す場合、適切かつ適用法に合致する範囲で、DODとIC間で情報を共有するための方針と手順を策定する。 |
4.2. Strengthening AI Governance and Risk Management. (a) As the United States Government moves swiftly to adopt AI in support of its national security mission, it must continue taking active steps to uphold human rights, civil rights, civil liberties, privacy, and safety; ensure that AI is used in a manner consistent with the President’s authority as Commander in Chief to decide when to order military operations in the Nation’s defense; and ensure that military use of AI capabilities is accountable, including through such use during military operations within a responsible human chain of command and control. Accordingly, the United States Government must develop and implement robust AI governance and risk management practices to ensure that its AI innovation aligns with democratic values, updating policy guidance where necessary. In light of the diverse authorities and missions across covered agencies with a national security mission and the rapid rate of ongoing technological change, such AI governance and risk management frameworks shall be: | 4.2. AI ガバナンスとリスクマネジメントの強化。(a) 米国政府は、国家安全保障の使命を支援するためにAIの導入を迅速に進める中で、人権、市民権、市民的自由、プライバシー、安全を守るための積極的な措置をとり続けなければならない。また、AIが、国家の防衛のために軍事作戦を命令する時期を決定する最高司令官としての大統領の権限に合致した方法で使用されることを確保し、責任ある人間の指揮命令系統の中での軍事作戦中の使用を含め、AI能力の軍事的使用が説明責任を果たすことを確保しなければならない。 したがって、米国政府は、AIの技術革新が民主主義の価値観に合致するよう、強固なAIガバナンスとリスクマネジメントを開発・実施し、必要に応じて政策指針を更新しなければならない。 国家安全保障を任務とする対象局における多様な認可と任務、および現在進行中の技術革新の急速な速度に鑑み、このようなAIガバナンスとリスクマネジメントの枠組みは、以下のものでなければならない: |
(i) Structured, to the extent permitted by law, such that they can adapt to future opportunities and risks posed by new technical developments; | (i) 新たな技術開発によってもたらされる将来の機会やリスクに適応できるよう、法律で許される範囲で構造化する。 |
(ii) As consistent across agencies as is practicable and appropriate in order to enable interoperability, while respecting unique authorities and missions; | (ii) 相互運用性を可能にするため、独自の権限や使命を尊重しつつ、実務上可能かつ適切な限り、省庁間で一貫性を持たせる。 |
(iii) Designed to enable innovation that advances United States national security objectives; | (iii) 米国の国家安全保障目標を前進させるイノベーションを可能にするよう設計する; |
(iv) As transparent to the public as practicable and appropriate, while protecting classified or controlled information; | (iv) 機密又は管理された情報を保護しつつ、実行可能かつ適切な限り、国民に対して透明であること; |
(v) Developed and applied in a manner and with means to integrate protections, controls, and safeguards for human rights, civil rights, civil liberties, privacy, and safety where relevant; and | (v) 関連する場合には、人権、市民権、市民的自由、プライバシー及び安全に対する保護、管理及びセーフガードを統合する方法及び手段で開発され、適用されること;並びに |
(vi) Designed to reflect United States leadership in establishing broad international support for rules and norms that reinforce the United States’ approach to AI governance and risk management. | (vi) AIガバナンス及びリスクマネジメントに対する米国のアプローチを強化する規則及び規範に対する広範な国際的支持を確立する上で、米国のリーダーシップを反映するように設計されること。 |
(b) Covered agencies shall develop and use AI responsibly, consistent with United States law and policies, democratic values, and international law and treaty obligations, including international humanitarian and human rights law. All agency officials retain their existing authorities and responsibilities established in other laws and policies. | (b) 対象機関は、米国の法律と政策、民主主義的価値観、国際人道法・人権法を含む国際法・条約上の義務に則り、責任を持ってAIを開発・利用しなければならない。 すべての省庁職員は、他の法律や政策で確立された既存の認可と責任を保持する。 |
(c) Consistent with these goals: | (c)これらの目標に合致する: |
(i) Heads of covered agencies shall, consistent with their authorities, monitor, assess, and mitigate risks directly tied to their agency’s development and use of AI. Such risks may result from reliance on AI outputs to inform, influence, decide, or execute agency decisions or actions, when used in a defense, intelligence, or law enforcement context, and may impact human rights, civil rights, civil liberties, privacy, safety, national security, and democratic values. These risks from the use of AI include the following: | (i)対象省庁の長は、その権限に基づき、当該省庁のAI開発・利用に直接関連するリスクを監視、アセスメント、低減しなければならない。 このようなリスクは、防衛、情報、法執行の文脈で使用される場合、AIのアウトプットに依存して機関の意思決定や行動に情報を与え、影響を与え、決定し、または実行することから生じる可能性があり、人権、市民権、市民的自由、プライバシー、安全、国家安全保障、民主的価値に影響を与える可能性がある。 AIの使用によるこれらのリスクには、以下のものが含まれる: |
(A) Risks to physical safety: AI use may pose unintended risks to human life or property. | (A)身体的安全に対するリスク: A)物理的安全に対するリスク:AIの使用は、人命や財産に意図しないリスクをもたらす可能性がある。 |
(B) Privacy harms: AI design, development, and operation may result in harm, embarrassment, unfairness, and prejudice to individuals. | (B)プライバシーへの害: A)物理的安全性に対するリスク:AIの利用は、人間の生命や財産に意図しないリスクをもたらす可能性がある。 |
(C) Discrimination and bias: AI use may lead to unlawful discrimination and harmful bias, resulting in, for instance, inappropriate surveillance and profiling, among other harms. | (C)識別的差別とバイアス: AIの利用は、違法な差別や有害なバイアスにつながる可能性があり、その結果、例えば、不適切な監視やプロファイリングなどの弊害が生じる。 |
(D) Inappropriate use: operators using AI systems may not fully understand the capabilities and limitations of these technologies, including systems used in conflicts. Such unfamiliarity could impact operators’ ability to exercise appropriate levels of human judgment. | (D)不適切な使用:AIシステムを使用するオペレーターは、紛争で使用されるシステムを含め、これらの技術の能力と限界を十分に理解していない可能性がある。 そのような不慣れは、オペレーターが適切なレベルの人間的判断を行使する能力に影響を与える可能性がある。 |
(E) Lack of transparency: agencies may have gaps in documentation of AI development and use, and the public may lack access to information about how AI is used in national security contexts because of the necessity to protect classified or controlled information. | (E)透明性の欠如:国家安全保障局では、AIの開発・使用に関する文書に不備がある可能性があり、また、機密情報や管理情報を保護する必要性から、国家安全保障の文脈でAIがどのように使用されているかについての情報に一般市民がアクセスできない可能性がある。 |
(F) Lack of accountability: training programs and guidance for agency personnel on the proper use of AI systems may not be sufficient, including to mitigate the risk of overreliance on AI systems(such as “automation bias”), and accountability mechanisms may not adequately address possible intentional or negligent misuse of AI-enabled technologies. | (F)アカウンタビリティの欠如:AIシステムの適切な使用に関する省庁職員向けの研修プログラムやガイダンスは、AIシステムへの過度の依存(「自動化バイアス」など)のリスクを軽減することも含め、十分でない可能性があり、アカウンタビリティの仕組みは、AI対応技術の意図的または過失による誤用の可能性に適切に対処していない可能性がある。 |
(G) Data spillage: AI systems may reveal aspects of their training data — either inadvertently or through deliberate manipulation by malicious actors — and data spillage may result from AI systems trained on classified or controlled information when used on networks where such information is not permitted. | (G) データの流出: AIシステムは、不注意であれ、悪意のある行為者による意図的な操作であれ、学習データの一部を漏えいさせる可能性がある。また、機密情報または学習データ制御情報に基づいて学習されたAIシステムが、そのような情報が許可されていないネットワークで使用された場合、データの漏えいが生じる可能性がある。 |
(H) Poor performance: AI systems that are inappropriately or insufficiently trained, used for purposes outside the scope of their training set, or improperly integrated into human workflows may exhibit poor performance, including in ways that result in inconsistent outcomes or unlawful discrimination and harmful bias, or that undermine the integrity of decision-making processes. | (H)パフォーマンスの低下: 不適切または不十分な訓練を受けたAIシステム、訓練セットの範囲外の目的で使用されたAIシステム、または人間のワークフローに不適切に組み込まれたAIシステムは、一貫性のない結果や違法な差別や有害なバイアスをもたらすような方法、または意思決定プロセスの完全性を損なうような方法を含め、パフォーマンスが低下する可能性がある。 |
(I) Deliberate manipulation and misuse: foreign state competitors and malicious actors may deliberately undermine the accuracy and efficacy of AI systems, or seek to extract sensitive information from such systems. | (I)意図的な操作と誤用:外国の競争相手や悪意ある行為者は、AIシステムの精度や有効性を意図的に損なったり、そのようなシステムから機密情報を抽出しようとしたりする可能性がある。 |
(d) The United States Government’s AI governance and risk management policies must keep pace with evolving technology. | (d)米国政府のAIガバナンスとリスクマネジメント方針は、技術の進化に対応したものでなければならない。 |
(e) Consistent with these goals: | (e)これらの目標に合致する: |
(i) An AI framework, entitled “Framework to Advance AI Governance and Risk Management in National Security”(AI Framework), shall further implement this subsection. The AI Framework shall be approved by the NSC Deputies Committee through the process described in National Security Memorandum 2 of February 4, 2021(Renewing the National Security Council System), or any successor process, and shall be reviewed periodically through that process. This process shall determine whether adjustments are needed to address risks identified in subsection 4.2(c) of this section and other topics covered in the AI Framework. The AI Framework shall serve as a national security-focused counterpart to OMB’s Memorandum M-24-10 of March 28, 2024(Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence), and any successor OMB policies. To the extent feasible, appropriate, and consistent with applicable law, the AI Framework shall be as consistent as possible with these OMB policies and shall be made public. | (i)「国家安全保障におけるAIガバナンスとリスクマネジメントを推進する枠組み」(AIフレームワーク)と題するAIフレームワークは、本款をさらに実施するものとする。 AIフレームワークは、2021年2月4日付国家安全保障覚書2(国家安全保障会議システムの刷新)、またはそれに代わるプロセスに記載されたプロセスを通じて、NSC副委員会により承認され、そのプロセスを通じて定期的に見直されるものとする。 このプロセスは、本項4.2(c)で特定されたリスクや、AIフレームワークで取り上げられているその他のトピックに対処するための調整が必要かどうかを判断するものとする。 AIフレームワークは、2024年3月28日のOMBの覚書M-24-10(Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence)及びOMBの後継政策と対をなす、国家安全保障に焦点を当てたものとする。 実現可能で、適切で、適用法と矛盾しない範囲で、AIフレームワークは、これらのOMB方針と可能な限り矛盾しないものとし、公開されなければならない。 |
(ii) The AI Framework described in subsection 4.2(e)(i) of this section and any successor document shall, at a minimum, and to the extent consistent with applicable law, specify the following: | (ii) 本項4.2(e)(i)に記載されたAIフレームワーク及びその後継文書は、最低限、適用法と矛盾しない範囲で、以下を規定するものとする: |
(A) Each covered agency shall have a Chief AI Officer who holds primary responsibility within that agency, in coordination with other responsible officials, for managing the agency’s use of AI, promoting AI innovation within the agency, and managing risks from the agency’s use of AI consistent with subsection 3(b) of OMB Memorandum M-24-10, as practicable. | (A)各対象機関は、他の責任ある職員と連携して、当該機関のAI利用のマネジメント、当該機関内のAIイノベーションの促進、及びOMB覚書M-24-10第3(b)項と整合する当該機関のAI利用によるリスクの管理について、実務上可能な限り、当該機関内で第一義的な責任を負うAI最高責任者を置かなければならない。 |
(B) Covered agencies shall have AI Governance Boards to coordinate and govern AI issues through relevant senior leaders from the agency. | (B)対象政府は、AIガバナンス・ボード(AI Governance Boards)を設置し、政府内の関連する上級指導者を通じてAI問題を調整・管理する。 |
(C) Guidance on AI activities that pose unacceptable levels of risk and that shall be prohibited. | (C) 許容できないレベルのリスクをもたらし、禁止されるAI活動に関するガイダンス。 |
(D) Guidance on AI activities that are “high impact” and require minimum risk management practices, including for high-impact AI use that affects United States Government personnel. Such high-impact activities shall include AI whose output serves as a principal basis for a decision or action that could exacerbate or create significant risks to national security, international norms, human rights, civil rights, civil liberties, privacy, safety, or other democratic values. The minimum risk management practices for high-impact AI shall include a mechanism for agencies to assess AI’s expected benefits and potential risks; a mechanism for assessing data quality; sufficient test and evaluation practices; mitigation of unlawful discrimination and harmful bias; human training, assessment, and oversight requirements; ongoing monitoring; and additional safeguards for military service members, the Federal civilian workforce, and individuals who receive an offer of employment from a covered agency. | (D) 米国政府職員に影響を与える影響度の高いAIの使用を含め、「影響度が高く」、最低限のリスクマネジメントを必要とするAI活動に関するガイダンス。 このような影響度の高い活動には、国家安全保障、国際規範、人権、市民権、自由、プライバシー、安全、その他の民主主義的価値に対する重大なリスクを悪化させたり、生じさせたりする可能性のある意思決定や行動の主要な根拠となる出力があるAIを含むものとする。 影響力の大きい AI に対する最低限のリスクマネジメントには、AI の期待される便益と潜在的なリスクを評価する機関の仕組み、データの質を評価する仕組み、十分なテストと評価の実施、違法な識別的及び有害なバイアスの軽減、人的訓練、アセスメント、監視の要件、継続的な監視、及び軍属、連邦文民労働者、対象機関から雇用の申し出を受けた個人に対する追加的な保護措置を含むものとする。 |
(E) Covered agencies shall ensure privacy, civil liberties, and safety officials are integrated into AI governance and oversight structures. Such officials shall report findings to the heads of agencies and oversight officials, as appropriate, using existing reporting channels when feasible. | (E)対象政府は、プライバシー、市民的自由、および安全の担当官が、AIのガバナンスおよび監視構造に組み込まれるようにしなければならない。 そのような職員は、実行可能な場合には、既存の報告経路を使用し、必要に応じて、調査結果を各機関の長及び監督職員に報告しなければならない。 |
(F) Covered agencies shall ensure that there are sufficient training programs, guidance, and accountability processes to enable proper use of AI systems. | (F) 対象機関は、AIシステムの適切な使用を可能にするために、十分な訓練プログラム、ガイダンス、及び説明責任プロセスがあることを確保しなければならない。 |
(G) Covered agencies shall maintain an annual inventory of their high-impact AI use and AI systems and provide updates on this inventory to agency heads and the APNSA. | (G) 対象となる省庁は、影響度の高いAIの使用及びAIシステムの年次インベントリを維持し、このインベントリの最新情報を、省庁の長及びAPNSAに提供しなければならない。 |
(H) Covered agencies shall ensure that whistleblower protections are sufficient to account for issues that may arise in the development and use of AI and AI systems. | (H) 対象となる省庁は、AI及びAIシステムの開発及び使用において生じ得る問題を考慮するために、内部告発者防御が十分であることを確保しなければならない。 |
(I) Covered agencies shall develop and implement waiver processes for high-impact AI use that balance robust implementation of risk mitigation measures in this memorandum and the AI Framework with the need to utilize AI to preserve and advance critical agency missions and operations. | (I) 対象機関は、本覚書及びAIフレームワークにおけるリスク低減措置の確実な実施と、重要な機関のミッション及び業務を維持・前進させるためにAIを活用する必要性とのバランスを考慮した、影響度の高いAI活用のための権利放棄プロセスを策定し、実施しなければならない。 |
(J) Covered agencies shall implement cybersecurity guidance or direction associated with AI systems issued by the National Manager for NSS to mitigate the risks posed by malicious actors exploiting new technologies, and to enable interoperability of AI across agencies. Within 150 days of the date of this memorandum, and periodically thereafter, the National Manager for NSS shall issue minimum cybersecurity guidance and/or direction for AI used as a component of NSS, which shall be incorporated into AI governance guidance detailed in subsection 4.2(g)(i) of this section. | (J) 対象機関は、新技術を悪用する悪意ある行為者によってもたらされるリスクを軽減し、省庁をまたがるAIの相互運用性を可能にするために、NSSの国家マネージャーが発行するAIシステムに関連するサイバーセキュリティの指針または指示を実施しなければならない。 本覚書の日付から150日以内、およびその後定期的に、NSS担当国家管理者は、NSSの構成要素として使用されるAIについて、最低限のサイバーセキュリティ・ガイダンスおよび/または指示を発行するものとし、これは、本節4.2(g)(i)項に詳述されているAIガバナンス・ガイダンスに組み込まれるものとする。 |
(f) The United States Government needs guidance specifically regarding the use of AI on NSS. | (f) 米国政府は、NSS における AI の使用に関して特にガイダンスを必要としている。 |
(g) Consistent with these goals: | (g) これらの目標に整合する: |
(i) Within 180 days of the date of this memorandum, the heads of the Department of State, the Department of the Treasury, DOD, DOJ, Commerce, DOE, DHS, ODNI(acting on behalf of the 18 IC elements), and any other covered agency that uses AI as part of a NSS(Department Heads) shall issue or update guidance to their components/sub-agencies on AI governance and risk management for NSS, aligning with the policies in this subsection, the AI Framework, and other applicable policies. Department Heads shall review their respective guidance on an annual basis, and update such guidance as needed. This guidance, and any updates thereto, shall be provided to the APNSA prior to issuance. This guidance shall be unclassified and made available to the public to the extent feasible and appropriate, though it may have a classified annex. Department Heads shall seek to harmonize their guidance, and the APNSA shall convene an interagency meeting at least annually for the purpose of harmonizing Department Heads’ guidance on AI governance and risk management to the extent practicable and appropriate while respecting the agencies’ diverse authorities and missions. Harmonization shall be pursued in the following areas: | (i) 本覚書の日付から 180 日以内に、国務省、財務省、国防総省、司法省、商務省、 DOE、DHS、ODNI(18 の IC 要素を代表して行動する)、および NSS の一部として AI を使用するその他の対象省庁の長(省庁の長)は、本節の方針、AI フレームワーク、およびその他の適用可能な方針に沿った、NSS の AI ガバナンスおよびリスクマネジメントに関するガイダンスを、その部局/下位省庁に対して発行または更新するものとする。 部局長は、それぞれのガイダンスを毎年見直し、必要に応じて更新するものとする。 本ガイダンス及びその更新は、発行前にAPNSAにプロバイダされるものとする。 このガイダンスは非機密扱いとし、実行可能かつ適切な範囲で一般に公開する。 各省庁の首脳は、それぞれのガイダンスの調和を図るものとし、APNSAは、各省庁の多様な権限と使命を尊重しつつ、実務上可能かつ適切な範囲で、AIガバナンスとリスクマネジメントに関する各省庁首脳のガイダンスの調和を図る目的で、少なくとも年1回、省庁間会議を開催するものとする。 |
(A) Implementation of the risk management practices for high-impact AI; | (A) 影響の大きい AI のリスクマネジメントの実施 |
(B) AI and AI system standards and activities, including as they relate to training, testing, accreditation, and security and cybersecurity; and | (B) AI および AI システムの標準と活動(訓練、試験、認定、セキュリティおよびサイバーセキュリティに関連するものを含む) |
(C) Any other issues that affect interoperability for AI and AI systems. | (C) AI および AI システムの相互運用性に影響するその他の問題。 |
Sec. 5. Fostering a Stable, Responsible, and Globally Beneficial International AI Governance Landscape. (a) Throughout its history, the United States has played an essential role in shaping the international order to enable the safe, secure, and trustworthy global adoption of new technologies while also protecting democratic values. These contributions have ranged from establishing nonproliferation regimes for biological, chemical, and nuclear weapons to setting the foundations for multi-stakeholder governance of the Internet. Like these precedents, AI will require new global norms and coordination mechanisms, which the United States Government must maintain an active role in crafting. | 第5項 安定した、責任ある、世界的に有益な国際的AIガバナンスの状況を育成する。(a) 米国は、その歴史を通じて、民主的価値を保護しつつ、安全、安心、信頼できる新技術のグローバルな導入を可能にする国際秩序の形成に不可欠な役割を果たしてきた。 このような貢献は、生物・化学・核兵器の不拡散体制の確立から、インターネットのマルチステークホルダー・ガバナンスの基礎作りまで多岐にわたる。 これらの先例と同様、AIも新たなグローバル規範と調整メカニズムを必要とするが、米国政府はその構築において積極的な役割を維持しなければならない。 |
(b) It is the policy of the United States Government that United States international engagement on AI shall support and facilitate improvements to the safety, security, and trustworthiness of AI systems worldwide; promote democratic values, including respect for human rights, civil rights, civil liberties, privacy, and safety; prevent the misuse of AI in national security contexts; and promote equitable access to AI’s benefits. The United States Government shall advance international agreements, collaborations, and other substantive and norm-setting initiatives in alignment with this policy. | (b) AIに関する米国の国際的関与は、世界中のAIシステムの安全性、セキュリティ、信頼性の改善を支援し促進すること、人権、市民権、自由、プライバシー、安全の尊重を含む民主的価値を促進すること、国家安全保障の文脈におけるAIの悪用を防止すること、AIの利益への公平なアクセスを促進することが、米国政府の方針である。 米国政府は、この方針に沿って、国際協定、協力、その他の実質的かつ規範設定的イニシアチブを推進する。 |
(c) Consistent with these goals: | (c)これらの目標に沿って |
(i) Within 120 days of the date of this memorandum, the Department of State, in coordination with DOD, Commerce, DHS, the United States Mission to the United Nations(USUN), and the United States Agency for International Development(USAID), shall produce a strategy for the advancement of international AI governance norms in line with safe, secure, and trustworthy AI, and democratic values, including human rights, civil rights, civil liberties, and privacy. This strategy shall cover bilateral and multilateral engagement and relations with allies and partners. It shall also include guidance on engaging with competitors, and it shall outline an approach to working in international institutions such as the United Nations and the Group of 7(G7), as well as technical organizations. The strategy shall: | (i) この覚書の日付から120日以内に、国務省は、国防総省、商務省、国土安全保障省(DHS)、米国国連代表部(USUN)、米国国際開発庁(USAID)と連携して、安全、安心、信頼できるAI、および人権、市民権、市民的自由、プライバシーを含む民主的価値観に沿った国際的なAIガバナンス規範を推進するための戦略を策定する。 この戦略は、二国間および多国間の関与、同盟国やパートナーとの関係を対象とする。 また、競争相手との関与に関する指針を含むものとし、国連やG7(主要7カ国グループ)などの国際機構や技術的な組織で活動するためのアプローチを概説するものとする。 同戦略は以下のことを行う: |
(A) Develop and promote internationally shared definitions, norms, expectations, and standards, consistent with United States policy and existing efforts, which will promote safe, secure, and trustworthy AI development and use around the world. These norms shall be as consistent as possible with United States domestic AI governance(including Executive Order 14110 and OMB Memorandum M-24-10), the International Code of Conduct for Organizations Developing Advanced AI Systems released by the G7 in October 2023, the Organization for Economic Cooperation and Development Principles on AI, United Nations General Assembly Resolution A/78/L.49, and other United States-supported relevant international frameworks(such as the Political Declaration on Responsible Military Use of AI and Autonomy) and instruments. By discouraging misuse and encouraging appropriate safeguards, these norms and standards shall aim to reduce the likelihood of AI causing harm or having adverse impacts on human rights, democracy, or the rule of law. | (A) 米国の政策や既存の取り組みと整合性のある、国際的に共有された定義、規範、期待、標準を策定・推進する。 これらの規範は、米国国内のAIガバナンス(大統領令14110およびOMB覚書ランダムM-24-10を含む)、2023年10月にG7が発表した高度AIシステムを開発する組織のための国際行動規範、AIに関する経済協力開発機構原則、国連総会決議A/78/L.49、および米国が支援するその他の関連する国際的枠組み(AIの責任ある軍事利用と自律性に関する政治宣言など)や文書と可能な限り整合するものとする。 誤用を阻止し、適切な保障措置を奨励することにより、これらの規範と標準は、AIが人権、民主主義、法の支配に害を及ぼし、悪影響を及ぼす可能性を低減することを目指すものとする。 |
(B) Promote the responsible and ethical use of AI in national security contexts in accordance with democratic values and in compliance with applicable international law. The strategy shall advance the norms and practices established by this memorandum and measures endorsed in the Political Declaration on Responsible Military Use of AI and Autonomy. | (B) 国家安全保障の文脈において、民主主義の価値観に則り、適用される国際法を遵守した、責任ある倫理的なAIの利用を促進する。 この戦略は、本覚書によって確立された規範と慣行、および「AIの責任ある軍事利用と自治に関する政治宣言」で承認された措置を推進するものとする。 |
Sec. 6. Ensuring Effective Coordination, Execution, and Reporting of AI Policy. (a) The United States Government must work in a closely coordinated manner to make progress on effective and responsible AI adoption. Given the speed with which AI technology evolves, the United States Government must learn quickly, adapt to emerging strategic developments, adopt new capabilities, and confront novel risks. | 第6項 AI政策の効果的な調整、実施、報告を確保すること。(a) 米国政府は、効果的かつ責任あるAIの採用を進展させるため、緊密に連携して取り組まなければならない。 AI技術の進化のスピードを考えると、米国政府は迅速に学習し、新たな戦略的展開に適応し、新たな能力を採用し、新たなリスクに立ち向かわなければならない。 |
(b) Consistent with these goals: | (b) これらの目標に整合する: |
(i) Within 270 days of the date of this memorandum, and annually thereafter for at least the next 5 years, the heads of the Department of State, DOD, Commerce, DOE, ODNI(acting on behalf of the IC), USUN, and USAID shall each submit a report to the President, through the APNSA, that offers a detailed accounting of their activities in response to their taskings in all sections of this memorandum, including this memorandum’s classified annex, and that provides a plan for further action. The Central Intelligence Agency(CIA), NSA, the Defense Intelligence Agency(DIA), and NGA shall submit reports on their activities to ODNI for inclusion in full as an appendix to ODNI’s report regarding IC activities. NGA, NSA, and DIA shall submit their reports as well to DOD for inclusion in full as an appendix to DOD’s report. | (i) 本覚書の日付から270日以内に、またその後少なくとも5年間は毎年、国務省、国防総省、商務省、DOE、ODNI(情報通信研究機構を代行)、USUN、USAIDの各長官は、APNSAを通じて大統領に、本覚書の機密扱いの付属文書を含む本覚書の全セクションの任務に対する活動の詳細な説明と、今後の対応計画を記載した報告書を提出する。 中央情報局(CIA)、NSA、防衛情報局(DIA)、および NGA は、IC 活動に関する ODNI の報告書の附属書として全文を含めるため、ODNI に活動報告書を提出する。 NGA、NSA、および DIA は、DOD の報告書の附属書として全文が含まれるよう、DOD にも報告書を提出するものとする。 |
(ii) Within 45 days of the date of this memorandum, the Chief AI Officers of the Department of State, DOD, DOJ, DOE, DHS, OMB, ODNI, CIA, DIA, NSA, and NGA, as well as appropriate technical staff, shall form an AI National Security Coordination Group(Coordination Group). Any Chief AI Officer of an agency that is a member of the Committee on National Security Systems may also join the Coordination Group as a full member. The Coordination Group shall be co-chaired by the Chief AI Officers of ODNI and DOD. The Coordination Group shall consider ways to harmonize policies relating to the development, accreditation, acquisition, use, and evaluation of AI on NSS. This work could include development of: | (ii) この覚書の日付から45日以内に、国務省、国防総省、司法省、DOE、DHS、OMB、ODNI、CIA、DIA、NSA、NGAのAI最高責任者、および適切な技術職員は、AI国家安全保障調整グループ(調整グループ)を結成する。 国家安全保障システム委員会のメンバーである省庁のAI最高責任者は、フルメンバーとして調整グループに参加することもできる。 調整グループは、ODNIとDODのAI最高責任者が共同議長を務める。 調整グループは、NSSにおけるAIの開発、認定、取得、使用、評価に関する方針を調和させる方法を検討する。 この作業には以下が含まれる: |
(A) Enhanced training and awareness to ensure that agencies prioritize the most effective AI systems, responsibly develop and use AI, and effectively evaluate AI systems; | (A) 各機関が最も効果的な AI システムの優先順位を決め、責任を持って AI を開発・使用し、AI システムを効果的に評価できるようにするための意識向上およびトレーニングの強化 |
(B) Best practices to identify and mitigate foreign intelligence risks and human rights considerations associated with AI procurement; | (B) AI 調達に伴う外国情報リスクおよび人権への配慮を特定・軽減するためのベストプラクティス |
(C) Best practices to ensure interoperability between agency deployments of AI, to include data interoperability and data sharing agreements, as appropriate and consistent with applicable law; | (C) 適切かつ適用法に合致するデータ相互運用性およびデータ共有契約を含む、AIの各機関配備間の相互運用性を確保するためのベストプラクティス; |
(D) A process to maintain, update, and disseminate such trainings and best practices on an ongoing basis; | (D) そのようなトレーニングやベスト・プラクティスを継続的に維持、更新、普及させるためのプロセス; |
(E) AI-related policy initiatives to address regulatory gaps implicated by executive branch-wide policy development processes; and | (E) 行政府全体の政策策定プロセスに含まれる規制のギャップに対処するためのAI関連政策イニシアティブ; |
(F) An agile process to increase the speed of acquisitions, validation, and delivery of AI capabilities, consistent with applicable law. | (F) 適用法と整合性を保ちつつ、AI能力の取得、妥当性確認、提供のスピードを高めるためのアジャイル・プロセス。 |
(iii) Within 90 days of the date of this memorandum, the Coordination Group described in subsection(b)(ii) of this section shall establish a National Security AI Executive Talent Committee(Talent Committee) composed of senior AI officials(or designees) from all agencies in the Coordination Group that wish to participate. The Talent Committee shall work to standardize, prioritize, and address AI talent needs and develop an updated set of Government-wide procedures for attracting, hiring, developing, and retaining AI and AI-enabling talent for national security purposes. The Talent Committee shall designate a representative to serve as a member of the AI and Technology Talent Task Force set forth in Executive Order 14110, helping to identify overlapping needs and address shared challenges in hiring. | (iii) 本覚書の日付から90日以内に、本節(b)(ii)項に記載された調整グループは、参加を希望する調整グループ内の全省庁のAI高官(または被指名者)で構成される国家安全保障AI幹部人材委員会(人材委員会)を設置する。 人材委員会は、AI人材のニーズを標準化、優先順位付け、対処し、国家安全保障を目的とするAIおよびAIを可能にする人材の誘致、雇用、開発、保持のための政府全体の最新手順を策定する。 人材委員会は、大統領令第14110号に定めるAI・技術人材タスクフォースのメンバーとして機能する代表者を指名し、重複するニーズを特定し、雇用における共通の課題に対処するのを支援するものとする。 |
(iv) Within 365 days of the date of this memorandum, and annually thereafter for at least the next 5 years, the Coordination Group described in subsection(b)(ii) of this section shall issue a joint report to the APNSA on consolidation and interoperability of AI efforts and systems for the purposes of national security. | (iv) 本覚書の日付から365日以内に、またその後少なくとも5年間は毎年、本節(b)(ii)項に記載された調整グループは、国家安全保障を目的としたAIの取り組みとシステムの統合と相互運用性に関する共同報告書をAPNSAに提出する。 |
Sec. 7. Definitions. (a) This memorandum uses definitions set forth in section 3 of Executive Order 14110. In addition, for the purposes of this memorandum: | 第7項 定義 (a) 本覚書は、大統領令第 14110 条第 3 項に定められた定義を使用する。 また、本覚書の目的上、 |
(i) The term “AI safety” means the mechanisms through which individuals and organizations minimize and mitigate the potential for harm to individuals and society that can result from the malicious use, misapplication, failures, accidents, and unintended behavior of AI models; the systems that integrate them; and the ways in which they are used. | (i) 「AIの安全性」という用語は、AIモデルの悪意ある使用、誤用、故障、事故、意図しない行動から生じ得る個人と社会への危害の可能性を、個人と組織が最小化し、軽減するメカニズム、それらを統合するシステム、及びそれらの使用方法を意味する。 |
(ii) The term “AI security” means a set of practices to protect AI systems — including training data, models, abilities, and lifecycles — from cyber and physical attacks, thefts, and damage. | (ii)「AIセキュリティ」という用語は、学習データ、モデル、能力、ライフサイクルを含むAIシステムを、サイバー攻撃、物理的攻撃、盗難、損害から保護するための一連の慣行を意味する。 |
(iii) The term “covered agencies” means agencies in the Intelligence Community, as well as all agencies as defined in 44 U.S.C. 3502(1) when they use AI as a component of a National Security System, other than the Executive Office of the President. | (iii) 「対象機関」とは、インテリジェンス・コミュニティの機関、および国家安全保障システムの構成要素としてAIを使用する場合に44 U.S.C.3502(1)に定義されるすべての機関のうち、大統領府を除く機関を意味する。 |
(iv) The term “Critical Technical Artifacts”(CTAs) means information, usually specific to a single model or group of related models that, if possessed by someone other than the model developer, would substantially lower the costs of recreating, attaining, or using the model’s capabilities. Under the technical paradigm dominant in the AI industry today, the model weights of a trained AI system constitute CTAs, as do, in some cases, associated training data and code. Future paradigms may rely on different CTAs. | (iv) 「クリティカル・テクニカル・アーティファクト」(CTAs)という用語は、通常、単一のモデルまたは関連するモデル群に固有の情報であって、モデル開発者以外の者が持っていれば、そのモデルの能力を再現、達成、または使用するコストを大幅に引き下げる情報を意味する。 現在AI業界で主流となっている技術パラダイムの下では、学習済みAIシステムのモデル重み付けがCTAを構成し、場合によっては関連する学習データやコードもCTAを構成する。 将来のパラダイムでは、異なるCTAに依存するかもしれない。 |
(v) The term “frontier AI model” means a general-purpose AI system near the cutting-edge of performance, as measured by widely accepted publicly available benchmarks, or similar assessments of reasoning, science, and overall capabilities. | (v) 「フロンティアAIモデル」とは、広く受け入れられている一般に利用可能なベンチマーク、または推論、科学、総合的能力に関する同様のアセスメントによって測定される、性能の最先端に近い汎用AIシステムを意味する。 |
(vi) The term “Intelligence Community”(IC) has the meaning provided in 50 U.S.C. 3003. | (vi) 「インテリジェンス・コミュニティ」(IC)という用語は、50 U.S.C. 3003に規定される意味を有する。 |
(vii) The term “open-weight model” means a model that has weights that are widely available, typically through public release. | (vii) 「オープン・ウェイト・モデル」とは、一般に公開され、広く利用可能なウェイトを持つモデルをいう。 |
(viii) The term “United States Government” means all agencies as defined in 44 U.S.C. 3502(1). | (viii) 「米国政府」とは、44 U.S.C. 3502(1)に定義されるすべての政府機関をいう。 |
Sec. 8. General Provisions. (a) Nothing in this memorandum shall be construed to impair or otherwise affect: | 第 8 項。 一般規定。(a) 本覚書のいかなる規定も、 |
(i) the authority granted by law to an executive department or agency, or the head thereof; or | (i) 法律により行政部、行政機関、またはその長に与えられた認可、または、 |
(ii) the functions of the Director of the Office of Management and Budget relating to budgetary, administrative, or legislative proposals. | (ii) 予算案、行政案、立法案に関する行政管理予算局局長の機能を損なう、またはその他の影響を与えるものと解釈されてはならない。 |
(b) This memorandum shall be implemented consistent with applicable law and subject to the availability of appropriations. | (b) この覚書は、適用法に従い、充当可能な予算の範囲内で実施される。 |
(c) This memorandum is not intended to, and does not, create any right or benefit, substantive or procedural, enforceable at law or in equity by any party against the United States, its departments, agencies, or entities, its officers, employees, or agents, or any other person. | (c)この覚書は、米国、その省庁、事業体、その役員、職員、代理人、またはその他のいかなる者に対しても、法律上または衡平法上強制可能な、実質的または手続き上の権利または利益を創出することを意図したものではなく、また創出するものでもない。 |
JOSEPH R. BIDEN JR. | ジョセフ・R・バイデン・ジュニア |
フレームワーク...
・[PDF]
よく引用されている過去の連邦政府文書等
・2024.03.28 [PDF] OMB Memorandum M-24-10
・2022.06 [PDF] DOD’s Responsible AI Strategy and Implementation Pathway
・2020.06 Artificial Intelligence Ethics Framework for the Intelligence Community
・[PDF] AI Principles of Ethics for the IC
・[PDF] AI Ethics Framework for the IC
・2022.10 Blueprint for an AI Bill of Rights
・[PDF] Blueprint for an AI Bill of Rights
・NIST AI Risk Management Framework
・2023.01 [PDF] Artificial Intelligence Risk Management Framework (AI RMF 1.0)
・[PDF] Japanese translation
・2024.04 [PDF] DHS Safety and Security Guidelines for AI in Critical Infrastructure
・2020.12.03 E.O. 13960 Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government
・2023.10.30 E.O. 14110 Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence
● まるちゃんの情報セキュリティ気まぐれ日記
一昨日の...
誤って消したと思って、書き直したのですが、残っていたので、2つありますが。。。せっかくなので、のこしておきます (^^)
DHS Safety and Security Guidelines for AI in Critical Infrastructure関係
OMB M-24-10関係...
・2024.03.31 米国 連邦政府機関の人工知能利用におけるガバナンス、イノベーション、リスク管理を推進するためのOMBの方針
DOD AI導入戦略
・2023.11.29 米国 国防総省 AI導入戦略 (2023.11.02)
・2023.02.18 米国 国務省 人工知能と自律システムの責任ある軍事利用に関する政治宣言
E.O. 14110関係
・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令
NIST AI 100-1関係
・2023.01.27 NIST AIリスクフレームワーク
Blueprint for an AI Bill of Rights 関係
・2022.10.07 米国 科学技術政策局 AI権利章典の青写真
Recent Comments