米国 AI安全研究所 安全保障等に関わる政府タスクフォースの設立、AI安全機構国際ネットワークの設立総会で初代議長に、NIST AI 100-4の発表 (2024.11.20)
こんにちは、丸山満彦です。
AIに関する先週の米国政府の動き...
- 米国のAI安全研究所が国家安全保障能力とリスクを管理するAIモデルの研究とテストに協力する新たな米国政府タスクフォース設立した。
- 米商務省と米国務省、サンフランシスコでAI安全機構国際ネットワークの設立総会を開催し、米国が初代議長になる。
- NISTが、AI 100-4 Reducing Risks Posed by Synthetic Content
生成コンテンツのリスクの軽減を発表した。
AI安全に関する国際ネットワークの初期加盟国10カ国には、日本も当然に入っています...
- オーストラリア
- カナダ
- 欧州連合(EU)
- フランス
- 日本
- ケニア
- 韓国
- シンガポール
- 英国
- 米国
● NIST
U.S. AI Safety Institute Establishes New U.S. Government Taskforce to Collaborate on Research and Testing of AI Models to Manage National Security Capabilities & Risks | 米国AI安全研究所は、国家安全保障能力とリスクを管理するAIモデルの研究とテストに協力する新しい米国政府タスクフォースを設立した。 |
The Testing Risks of AI for National Security (TRAINS) Taskforce brings together experts from Commerce, Defense, Energy, Homeland Security, NSA, and NIH to address national security concerns and strengthen American leadership in AI innovation. | 国家安全保障のためのAIのリスクテスト(TRAINS)タスクフォースは、商務省、国防総省、エネルギー省、国土安全保障省、NSA、NIHの専門家を集め、国家安全保障上の懸念に対処し、AIイノベーションにおける米国のリーダーシップを強化する。 |
Washington, D.C. — Today, the U.S. Artificial Intelligence Safety Institute at the U.S. Department of Commerce’s National Institute of Standards and Technology (NIST) announced the formation of the Testing Risks of AI for National Security (TRAINS) Taskforce, which brings together partners from across the U.S. Government to identify, measure, and manage the emerging national security and public safety implications of rapidly evolving AI technology. This announcement comes as the United States is set to host the first-ever convening of the International Network of AI Safety Institutes in San Francisco. | ワシントンD.C.- 本日、米国商務省国立標準技術研究所(NIST)の米国人工知能安全研究所は、国家安全保障のためのAIリスクテスト(TRAINS)タスクフォースの結成を発表した。同タスクフォースは、急速に進化するAI技術が国家安全保障と公共の安全に及ぼす影響を特定、測定、管理するために、米国政府全体のパートナーを結集するものである。この発表は、米国がサンフランシスコでAI安全機構国際ネットワーク(International Network of AI Safety Institutes)の初会合を開催することになったことに伴うものである。 |
The Taskforce will enable coordinated research and testing of advanced AI models across critical national security and public safety domains, such as radiological and nuclear security, chemical and biological security, cybersecurity, critical infrastructure, conventional military capabilities, and more. | 同タスクフォースは、放射線・核セキュリティ、化学・生物学的セキュリティ、サイバーセキュリティ、重要インフラ、通常の軍事能力など、国家安全保障や公共安全の重要な領域にわたって、高度なAIモデルの協調的な研究やテストを可能にする。 |
These efforts will advance the U.S. government imperative to maintain American leadership in AI development and prevent adversaries from misusing American innovation to undermine national security. | これらの取り組みは、AI開発における米国のリーダーシップを維持し、敵対国が米国のイノベーションを悪用して国家安全保障を損なうことを防ぐという米国政府の要請を推進するものである。 |
The TRAINS Taskforce is chaired by the U.S. AI Safety Institute and includes initial representation from the following federal agencies: | TRAINSタスクフォースは、米国AI安全研究所が委員長を務め、以下の連邦機関の代表が初期メンバーとして参加している: |
・The Department of Defense, including the Chief Digital and Artificial Intelligence Office (CDAO) and the National Security Agency | ・国防総省(最高デジタル・人工知能局(CDAO)と国家安全保障局を含む。 |
・The Department of Energy and ten of its National Laboratories | ・エネルギー省とその10の国立研究所 |
・The Department of Homeland Security, including the Cybersecurity and Infrastructure Security Agency (CISA) | ・サイバーセキュリティ・インフラセキュリティ庁(CISA)を含む国土安全保障省 |
・The National Institutes of Health (NIH) at the Department of Health and Human Services | ・保健福祉省の国立衛生研究所(NIH) |
Each member will lend its unique subject matter expertise, technical infrastructure, and resources to the Taskforce and will collaborate on the development of new AI evaluation methods and benchmarks, as well as conduct joint national security risk assessments and red-teaming exercises. | 各メンバーは、独自の専門知識、技術インフラ、リソースをタスクフォースに提供し、新しいAI評価手法やベンチマークの開発で協力するとともに、国家安全保障リスクアセスメントやレッドチーム演習を共同で実施する。 |
“Enabling safe, secure, and trustworthy AI innovation is not just an economic priority – it's a public safety and national security imperative,” said U.S. Secretary of Commerce Gina Raimondo. “Every corner of the country is impacted by the rapid progress in AI, which is why establishing the TRAINS Taskforce is such an important step to unite our federal resources and ensure we’re pulling every lever to address the challenges of this generation-defining technology. The U.S. AI Safety Institute will continue to lead by centralizing the top-notch national security and AI expertise that exists across government in order to harness the benefits of AI for the betterment of the American people and American business.” | ジーナ・ライモンド米商務長官は次のように述べた。「安全、安心、信頼できるAIイノベーションを可能にすることは、単なる経済的優先事項ではなく、公共の安全と国家安全保障上の必須事項である。だからこそ、TRAINSタスクフォースの設立は、連邦政府のリソースを統合し、この生成的技術の課題に対処するためにあらゆる手段を講じることを確実にするための重要なステップなのです。米国AI安全機構は、政府全体に存在する一流の国家安全保障とAIの専門知識を一元化し、米国民と米国ビジネスの向上のためにAIの恩恵を活用することで、リードし続けるでしょう。」 |
This effort operationalizes the whole-of-government approach to AI safety, as directed by the recent National Security Memorandum on AI, and the TRAINS Taskforce is expected to expand its membership across the federal government as its work continues. | この取り組みは、AIに関する最近の国家安全保障覚書によって指示された、AIの安全性に対する政府全体のアプローチを運用するものであり、TRAINSタスクフォースは、その作業が継続するにつれて、連邦政府全体にそのメンバーを拡大することが期待されている。 |
FACT SHEET: U.S. Department of Commerce & U.S. Department of State Launch the International Network of AI Safety Institutes at Inaugural Convening in San Francisco | ファクトシート:米商務省と米国務省は、サンフランシスコでの設立総会でAI安全機構の国際ネットワークを発足させた。 |
・The Network will drive alignment on and build the scientific basis for safe, secure, and trustworthy AI innovation around the world. | ・このネットワークは、安全、安心、信頼できるAIイノベーションのための科学的基盤の構築を推進する。 |
・Ahead of the convening, the Network is announcing key developments including a joint mission statement, more than $11 million in funding toward synthetic content research, findings from the Network’s first multilateral testing exercise, and a joint statement on risk assessments of advanced AI systems. | ・招集に先立ち、ネットワークは、共同ミッション・ステートメント、合成コンテンツ研究に向けた1,100万ドル以上の資金提供、ネットワーク初の多国間テスト演習の結果、高度AIシステムのリスクアセスメントに関する共同声明など、重要な進展を発表する。 |
・This technical-level working meeting gathers network members and industry, academic, and civil society experts to advance the Network’s work on the road to the AI Action Summit hosted by France in February. | ・この技術レベルの作業部会は、2月にフランスで開催されるAIアクション・サミットに向けてネットワークの作業を進めるため、ネットワークのメンバー、産業界、学術界、市民社会の専門家を集めたものである。 |
San Francisco, California – Today the U.S. Department of Commerce and U.S. Department of State are co-hosting the inaugural convening of the International Network of AI Safety Institutes, a new global effort to advance the science of AI safety and enable cooperation on research, best practices, and evaluation. To harness the enormous benefits of AI, it is essential to foster a robust international ecosystem to help identify and mitigate the risks posed by this breakthrough technology. Through this Network, the United States hopes to address some of the most pressing challenges in AI safety and avoid a patchwork of global governance that could hamper innovation. | カリフォルニア州サンフランシスコ - 本日、米国商務省と米国国務省は、AIの安全性に関する科学を発展させ、研究、ベストプラクティス、評価に関する協力を可能にする新たな世界的取り組みである、AI安全機構国際ネットワークの第1回会合を共催する。AIがもたらす莫大な利益を活用するためには、この画期的な技術がもたらすリスクを特定し、軽減するための強固な国際的エコシステムを育成することが不可欠である。米国はこのネットワークを通じて、AIの安全性における最も差し迫った課題に取り組み、イノベーションを妨げる可能性のあるグローバル・ガバナンスのつぎはぎ状態を回避したいと考えている。 |
The United States will serve as the inaugural chair of the International Network of AI Safety Institutes, whose initial members include Australia, Canada, the European Union, France, Japan, Kenya, the Republic of Korea, Singapore, the United Kingdom, and the United States. | 米国は、オーストラリア、カナダ、欧州連合(EU)、フランス、日本、ケニア、韓国、シンガポール、英国、米国を初期加盟国とするAI安全機構国際ネットワークの初代議長を務める。 |
Over the next two days in San Francisco, California, technical experts from member governments will be joined by leading AI developers, academics, civil society leaders, and scientists from non-Network governments to discuss key areas of collaboration on AI safety and lend their technical and scientific expertise to the Network’s mission. | カリフォルニア州サンフランシスコで開催されるこの2日間、メンバー政府の技術専門家が、ネットワーク非加盟政府の主要なAI開発者、学者、市民社会リーダー、科学者に加わり、AIの安全性に関する主要な協力分野について議論し、技術的・科学的専門知識をネットワークの使命に役立てる。 |
The convening is structured as a technical working meeting that will address three high-priority topics that stand to urgently benefit from international coordination, specifically: (1) managing risks from synthetic content, (2) testing foundation models, and (3) conducting risk assessments for advanced AI systems. | この会議は、国際的な協調が緊急に必要とされる3つの優先度の高いトピックを扱う技術的なワーキング・ミーティングとして構成されている。具体的には、(1)合成コンテンツによるリスクマネジメント、(2)基礎モデルのテスト、(3)高度AIシステムのリスクアセスメントである。 |
By bringing together the leading minds across governments, industry, academia, and civil society, we hope to kickstart meaningful international collaboration on AI safety and innovation, particularly as we work toward the upcoming AI Action Summit in France in February and beyond. | 政府、産業界、学術界、市民社会が一堂に会することで、特に2月にフランスで開催されるAIアクション・サミットやその後に向けて、AIの安全性とイノベーションに関する有意義な国際協力を開始したい。 |
(1) Adopting an aligned mission statement for the International Network of AI Safety Institutes. | (1) AI安全機構国際ネットワークのミッション・ステートメントを統一する。 |
・Launching the International Network of AI Safety Institutes is an essential step forward for global coordination on safe AI innovation. The Network will enable its members to leverage their respective technical capacity to harmonize approaches and minimize duplication of resources, while providing a platform to bring together global technical expertise. | AI安全機構国際ネットワークの立ち上げは、安全なAIイノベーションに関するグローバルな調整にとって不可欠な前進である。ネットワークは、メンバーがそれぞれの技術的能力を活用し、アプローチを調和させ、リソースの重複を最小化することを可能にすると同時に、グローバルな技術的専門知識を結集するためのプラットフォームを提供する。 |
・Ahead of the inaugural convening of the Network, all 10 initial members have agreed to a joint mission statement that reads in part: | 本ネットワークの発足に先立ち、初期メンバー10カ国は、以下の共同ミッション・ステートメントに合意した: |
・・“The International Network of AI Safety Institutes is intended to be a forum that brings together technical expertise from around the world. Recognizing the importance of cultural and linguistic diversity, we aim to facilitate a common technical understanding of AI safety risks and mitigations based upon the work of our institutes and of the broader scientific community that will support international development and the adoption of interoperable principles and best practices. We also intend to encourage a general understanding of and approach to AI safety globally, that will enable the benefits of AI innovation to be shared amongst countries at all stages of development.” | 「AI安全機構国際ネットワークは、世界中の技術的専門知識を結集するフォーラムとなることを意図している。文化的、言語的多様性の重要性を認識し、国際的な発展と相互運用可能な原則とベストプラクティスの採用を支援するため、私たちの機構と広範な科学コミュニティの研究に基づき、AIの安全リスクと緩和策に関する共通の技術的理解を促進することを目指す。また、AIの安全性に関する一般的な理解とアプローチを世界的に促進することで、AIイノベーションの恩恵をあらゆる発展段階にある国間で共有できるようにするつもりである。」 |
・The International Network Members have also aligned on four priority areas of collaboration: pursuing AI safety research, developing best practices for model testing and evaluation, facilitating common approaches such as interpreting tests of advanced AI systems, and advancing global inclusion and information sharing. | 国際ネットワークメンバーはまた、AI安全性研究の追求、モデルテストと評価のためのベストプラクティスの開発、高度AIシステムのテストの解釈など共通のアプローチの促進、グローバルな包摂と情報共有の促進という4つの優先的協力分野で足並みを揃えている。 |
・The United States AI Safety Institute (US AISI) will serve as the inaugural Chair of the International Network of AI Safety Institutes and Network members will discuss additional details of governance, structure, and meeting cadence at the convening. | 米国AI安全機構(US AISI)はAI安全機構国際ネットワークの初代議長を務め、ネットワーク加盟国はガバナンス、構造、会議日程の詳細について協議する。 |
・The Network will also discuss priorities and a roadmap for continued work toward the forthcoming AI Action Summit in Paris in February 2025 and beyond. | ネットワークはまた、2025年2月にパリで開催されるAIアクション・サミットとその後に向けた継続的な活動の優先順位とロードマップについて議論する。 |
(2) Announcing more than $11 million in global research funding commitments to address the International Network’s new joint research agenda on mitigating risks from synthetic content. | (2) 合成コンテンツによるリスクの低減に関する国際ネットワークの新たな共同研究課題に取り組むため、1,100万ドルを超える世界的な研究資金拠出を発表する。 |
・With the rise of generative AI and the rapid development and adoption of highly capable AI models, it is now easier, faster, and less expensive than ever to create synthetic content at scale. Though there are a range of positive and innocuous uses for synthetic content, there are also risks that need to be identified, researched, and mitigated to prevent real-world harm – such as the generation and distribution of child sexual abuse material and non-consensual sexual imagery, or the facilitation of fraud and impersonation. | 生成的AIの台頭と、高い能力を持つAIモデルの急速な開発と採用により、合成コンテンツを大規模に作成することは、かつてないほど簡単、迅速、かつ低コストになっている。合成コンテンツには肯定的で無害な用途もあるが、児童性的虐待や同意のない性的イメージの生成・配布、詐欺やなりすましの助長など、実社会での被害を防ぐために特定・研究・低減が必要なリスクもある。 |
・To advance the state of the science and inform novel ways to mitigate synthetic content risks, the International Network of AI Safety Institutes has outlined a joint research agenda calling for urgent and actionable inquiry by the scientific community into key gaps in the current literature. | 科学の現状を前進させ、合成コンテンツのリスクを軽減する新しい方法を知らせるために、AI安全機構国際ネットワークは、現在の文献における重要なギャップについて、科学界による緊急かつ実行可能な調査を求める共同研究課題をまとめた。 |
・・Priority research topics include understanding the security and robustness of current digital content transparency techniques, exploring novel and emergent digital content transparency methods, and developing model safeguards to prevent the generation and distribution of harmful synthetic content. | 重点研究課題には、現在のデジタルコンテンツ透明化技術の安全性と堅牢性を理解すること、新しく出現するデジタルコンテンツ透明化手法を探求すること、有害な合成コンテンツの生成と配布を防止するモデルセーフガードを開発することなどが含まれる。 |
・・The International Network research agenda encourages a multidisciplinary approach, including technical mitigations as well as social scientific and humanistic assessments to identify problems and solutions. | 国際ネットワークの研究アジェンダは、問題と解決策を特定するために、技術的な軽減策だけでなく、社会科学的、人文科学的なアセスメントを含む、学際的なアプローチを奨励している。 |
・In response to this agenda, government agencies and several leading philanthropies have committed a total of more than $11 million (USD) to spur this vital research. | このアジェンダを受け、政府機関といくつかの主要な慈善団体は、この重要な研究に拍車をかけるため、総額1,100万ドル(米ドル)以上を拠出している。 |
・・The United States, through USAID, is designating $3.8 million this fiscal year to strengthen capacity building, research, and deployment of safe and responsible AI in USAID partner countries overseas, including supporting research on synthetic content risk mitigation. | 米国はUSAIDを通じて、海外のUSAIDパートナー諸国における安全で責任あるAIの能力開発、研究、展開を強化するため、今年度380万ドルを拠出する。 |
・・Australia, through its national science agency, the Commonwealth Scientific and Industrial Research Organisation (CSIRO), is investing $2.2 million (AUD) ($1.42 million USD) annually in research aimed at identifying and mitigating the risks of synthetic content. | オーストラリアは、国立科学機関である英連邦科学産業研究機構(CSIRO)を通じて、合成コンテンツのリスクの特定と軽減を目的とした研究に年間220万豪ドル(142万米ドル)を投資する。 |
・・The Republic of Korea will commit $1.8 million (USD) annually for 4 years, totaling $7.2 million (USD), toward research and development efforts on detecting, preventing, and mitigating the risks of synthetic content through the ROK AISI program. | 韓国は、ROK AISI プログラムを通じて、合成コンテンツのリスクを検知、防止、軽減するための研究開発に、4 年間にわたり毎年 180 万ドル(米ドル)、合計 720 万ドル(米ドル)を投資する。 |
・・The John S. and James L. Knight Foundation is committing $3 million (USD) to support scholarship aligned with the research agenda on mitigating risks from synthetic content. | ジョン・S・アンド・ジェームズ・L・ナイト財団は、合成コンテンツのリスク低減に関する研究課題に沿った奨学金支援に300万ドルを拠出する。 |
・・The AI Safety Fund (AISF), an independently administered non-profit collaboration between leading frontier AI developers and philanthropic partners, will contribute $1 million (USD) in support of the research agenda, focusing on safeguards in the design, use, and evaluation of AI models and systems to reduce risks to security and public safety from model outputs. | AI安全基金 (AISF)は、フロンティアAIの主要開発者とフィランソロピー・パートナーが共同で運営する非営利団体で、AIモデルやシステムの設計、使用、評価におけるセーフガードに焦点を当て、モデルのアウトプットから生じる安全保障や公共の安全に対するリスクを低減するための研究課題を支援するために、100万ドル(米ドル)を拠出する。 |
・・An additional $250,000 (USD) in 2025 funding by the Omidyar Network has been pledged in support of the research agenda. | 研究課題を支援するため、オミダイヤー・ネットワークによる25万ドルの追加資金提供が約束された。 |
・・At the convening, the International Network will also discuss shared Network principles for mitigating synthetic content risks, including best practices and innovations for improving the security, reliability, privacy, transparency, and accessibility of generative AI. These inputs will help advance an aligned perspective from the members, which we hope to share at the forthcoming France AI Action Summit. | 国際ネットワークはまた、生成的AIのセキュリティ、信頼性、プライバシー、透明性、アクセシビリティを改善するためのベストプラクティスやイノベーションを含む、合成コンテンツリスクを軽減するためのネットワークの共有原則について議論する。これらのインプットは、近々開催されるフランスAIアクション・サミットで共有されることを期待している。 |
・To support this work, US AISI is releasing the final version of its first synthetic content guidance report, NIST AI 100-4: Reducing Risks Posed by Synthetic Content, which identifies a series of voluntary approaches to address risks from AI-generated content like child sexual abuse material, impersonation, and fraud. | この作業を支援するため、米国AISIは、初の合成コンテンツガイダンス報告書「NIST AI 100-4: Reducing Risks Posed by Synthetic Content」の最終版を発表する。同報告書は、児童性的虐待資料、なりすまし、詐欺など、AIが生成するコンテンツがもたらすリスクに対処するための一連の自主的アプローチを明らかにしている。 |
・・This final version reflects input and feedback from an array of external experts and public comment solicited over the past several months. | この最終版は、過去数ヶ月間に募集された外部専門家やパブリックコメントからの意見やフィードバックを反映したものである。 |
(3) Methodological insights on multi-lingual, international AI testing efforts from the International Network of AI Safety Institutes’ first-ever joint testing exercise. | (3)AI安全機構国際ネットワークによる初の共同テストから得られた、多言語、国際的なAIテストの取り組みに関する方法論的洞察。 |
・The International Network of AI Safety Institutes completed its first-ever joint testing exercise, led by technical experts from US AISI, UK AISI, and Singapore AISI. | AI 安全機構国際ネットワークは、米国 AISI、英国 AISI、シンガポール AISI の技術専門家が主導する初の合同試験を完了した。 |
・The Network conducted this exercise to explore methodological challenges, opportunities, and next steps for joint work that the Network can pursue to advance more robust and reproducible AI safety testing across languages, cultures, and contexts. | この演習は、言語、文化、文脈を超えて、より強固で再現可能なAI安全性試験を進めるために、ネットワークが追求できる方法論的課題、機会、共同作業の次のステップを探るために実施された。 |
・This exercise raised key considerations for international testing, such as the impact that small methodological differences and model optimization techniques can have on evaluation results, and highlighted strategies for potentially mitigating these challenges. | この演習では、わずかな方法論の違いやモデルの最適化技術が評価結果に与える影響など、国際的なテストにおける重要な検討事項を提起し、これらの課題を低減する可能性のある戦略を浮き彫りにした。 |
・This exercise was conducted on Meta’s Llama 3.1 405B to test across three topics – general academic knowledge, ‘closed-domain’ hallucinations, and multi-lingual capabilities – and will act as a pilot for a broader joint testing exercises leading into the AI Action Summit in Paris this February. The learnings from the pilot testing process will also lay the groundwork for future testing across international borders and evaluation best practices. | この演習は、Meta社のLlama 3.1 405Bで実施され、3つのトピック(一般的な学術知識、「クローズド・ドメイン」幻覚、多言語能力)にわたってテストされ、今年2月にパリで開催されるAIアクション・サミットにつながる、より広範な共同テスト演習のパイロットとして機能する。また、この試験的なテストプロセスから得られた学習は、将来的な国境を越えたテストやベストプラクティスの評価のための基礎となるだろう。 |
(4) A joint statement on risk assessments of advanced AI systems, including a plan for advancing International Network alignment. | (4) 先進的AIシステムのリスクアセスメントに関する共同声明(国際ネットワークの連携を進めるための計画を含む)。 |
・Assessing the risks of advanced AI systems presents novel challenges, and it is central to the mission of the International Network of AI Safety Institutes to address these challenges and align on a framework for understanding the risks and capabilities posed by this technology. | 先進的AIシステムのリスクアセスメントには新たな課題があり、これらの課題に取り組み、この技術がもたらすリスクと能力を理解するための枠組みで連携することは、AI安全機構国際ネットワークの使命の中心である。 |
・While recognizing that the science of AI risk assessment continues to evolve and that each Network member operates within its own unique context, the International Network of AI Safety Institutes agreed to establish a shared scientific basis for risk assessments, building on six key aspects outlined by the Network – namely, that risk assessments should be (1) actionable, (2) transparent, (3) comprehensive, (4) multistakeholder, (5) iterative, and (6) reproducible. | AIのリスクアセスメントの科学は進化し続けており、ネットワークメンバーはそれぞれ独自の状況の中で活動していることを認識しながらも、AI安全性機構国際ネットワークは、ネットワークが概説した6つの重要な側面、すなわち、リスクアセスメントのための共通の科学的基盤を確立することに合意した。6つの重要な側面とは、リスクアセスメントは、(1)実行可能、(2)透明、(3)包括的、(4)マルチステークホルダー、(5)反復的、(6)再現可能でなければならないということである。 |
・This shared approach builds on commitments made in in the Bletchley Declaration and the Seoul Statement of Intent, as well as the progress made through the OECD, the G7 Hiroshima Process, the Frontier AI Safety Commitments, and other relevant international AI safety initiatives. | この共有されたアプローチは、ブレッチリー宣言やソウル意向表明におけるコミットメントに加え、OECD、G7広島プロセス、フロンティアAI安全性コミットメント、その他の関連する国際的なAI安全性イニシアティブを通じた進展に基づくものである。 |
・At the convening, the International Network will solicit feedback and insight from members and gathered experts on how to operationalize a shared approach to risk assessments and build a roadmap for advancing global alignment and interoperability. | 国際ネットワークは、リスクアセスメントを共有するアプローチをどのように運用し、グローバルな整合性と相互運用性を進めるためのロードマップを構築するかについて、メンバーや集まった専門家から意見や洞察を求める。 |
(5) Establishing a new U.S. Government taskforce led by the U.S. AI Safety Institute to collaborate on research and testing of AI models to manage national security capabilities and risks. | (5) 国家安全保障の能力とリスクを管理するためのAIモデルの研究とテストについて協力するため、米国AI安全研究所が主導する新たな米国政府タスクフォースを設立する。 |
・The Testing Risks of AI for National Security (TRAINS) Taskforce brings together experts from the Departments of Commerce, Defense, Energy, Homeland Security, as well as the National Security Agency (NSA) and National Institutes of Health (NIH) to address national security concerns and strengthen American leadership in AI innovation. | 国家安全保障のためのAIのリスクテスト(TRAINS)タスクフォースは、商務省、国防省、エネルギー省、国土安全保障省、国家安全保障局(NSA)、国立衛生研究所(NIH)の専門家を集め、国家安全保障上の懸念に対処し、AIイノベーションにおける米国のリーダーシップを強化する。 |
・The Taskforce will enable coordinated research and testing of advanced AI models across critical national security and public safety domains, such as radiological and nuclear security, chemical and biological security, cybersecurity, critical infrastructure, conventional military capabilities, and more. | タスクフォースは、放射線・核セキュリティ、化学・生物学的セキュリティ、サイバーセキュリティ、重要インフラ、通常の軍事能力など、国家安全保障と公共安全の重要な領域にわたって、高度なAIモデルの協調的な研究とテストを可能にする。 |
・These efforts will advance the U.S. government imperative to maintain American leadership in AI development and prevent adversaries from misusing American innovation to undermine national security. | これらの取り組みは、AI開発における米国のリーダーシップを維持し、敵対国が米国のイノベーションを悪用して国家安全保障を損なうことを防ぐという米国政府の要請を推進するものである。 |
・More information can be found here in the press release. | 詳細はプレスリリースを参照されたい。 |
「(1) AI安全機構国際ネットワークのミッション・ステートメントを統一する」関係...
初期加盟国10カ国によるミッションステートメント...
・[PDF]
International Network of AI Safety Institutes | AI安全機構国際ネットワーク |
Mission Statement | ミッション・ステートメント |
The AI safety institutes and government mandated offices that facilitate AI safety and evaluation from Australia, Canada, the European Commission, France, Japan, Kenya, the Republic of Korea, Singapore, the United Kingdom, and the United States, have gathered today in San Francisco on November 21, 2024 to launch the International Network of AI Safety Institutes. Affirming and building on the Seoul Statement of Intent toward | オーストラリア、カナダ、欧州委員会、フランス、日本、ケニア、大韓民国、シンガポール、英国、米国から、AIの安全性と評価を促進するAI安全機構と政府委任機関が本日、2024年11月21日にサンフランシスコに集まり、AI安全機構国際ネットワークを発足させた。ソウルで発表された「AIの安全科学に関する国際協力のための意向声明」を確認し、これを基に、以下のことを行う。 |
International Cooperation on AI Safety Science released at the AI Seoul Summit on May 21, 2024, this Network is intended to catalyze a new phase of international cooperation on AI safety. | このネットワークは、2024年5月21日に開催されたAIソウル・サミットで発表された「AI安全科学に関する国際協力に向けたソウル声明」を確認し、これを基礎とするもので、AI安全科学に関する国際協力の新たな段階を促進することを目的としている。 |
Our institutes and offices are technical organisations that aim to advance AI safety, help governments and society understand the risks posed by advanced AI systems, and suggest solutions to address those risks in order to minimize harm. Beyond mitigating risks, these institutes and offices play a crucial role in guiding the responsible development and deployment of AI systems. AI presents enormous opportunities – the ability to serve societal needs and transform and enhance human wellbeing, peace, and prosperity – as well as potential global risks. International cooperation to promote AI safety, security, inclusivity, and trust is essential to address those risks, drive responsible innovation, and expand access to the benefits of AI worldwide. | 私たちの機構やオフィスは、AIの安全性を推進し、高度なAIシステムがもたらすリスクを政府や社会が理解するのを助け、被害を最小限に抑えるためにそれらのリスクに対処する解決策を提案することを目的とした技術組織である。リスクを低減するだけでなく、これらの機関やオフィスは、AIシステムの責任ある開発と展開を導く上で重要な役割を果たしている。AIは、社会のニーズに応え、人間の福利、平和、繁栄を変革し、向上させる能力という巨大な機会をもたらすと同時に、潜在的な世界的リスクをももたらす。AIの安全性、セキュリティ、包括性、信頼を促進するための国際協力は、こうしたリスクに対処し、責任あるイノベーションを推進し、AIの恩恵へのアクセスを世界中に拡大するために不可欠である。 |
The International Network of AI Safety Institutes is intended to be a forum that brings together technical expertise from around the world. Recognizing the importance of cultural and linguistic diversity, we aim to facilitate a common technical understanding of AI safety risks and mitigations based upon the work of our institutes and of the broader scientific community that will support international development and the adoption of interoperable principles and best practices. We also intend to encourage a general understanding of and approach to AI safety globally, that will enable the benefits of AI innovation to be shared amongst countries at all stages of development. | AI安全機構国際ネットワークは、世界中の技術的専門知識を結集するフォーラムとなることを意図している。文化的・言語的多様性の重要性を認識しつつ、国際的な発展と相互運用可能な原則およびベストプラクティスの採用を支援するため、各機関および広範な科学コミュニティの研究に基づき、AIの安全リスクと緩和策に関する共通の技術的理解を促進することを目指す。また、AIの安全性に関する一般的な理解とアプローチを世界的に促進することで、AIイノベーションの恩恵をあらゆる発展段階にある国間で共有できるようにする。 |
The leadership of our respective AI safety institutes and offices have therefore come together to collaborate as Network Members to help drive technical alignment on AI safety research, testing, and guidance. | そのため、それぞれのAI安全機構や事務所の指導者たちは、ネットワークメンバーとして協力し、AIの安全性に関する研究、テスト、ガイダンスに関する技術的な連携を促進するために集まった。 |
As a first step, we intend to prioritize our collective efforts, in line with our mandates, in the following four areas crucial to international AI safety: | その第一歩として、国際的なAIの安全性確保に不可欠な以下の4つの分野について、各機関がそれぞれの使命に沿って優先的に取り組むことを意図している: |
• Research: We plan, together with the scientific community, to advance research on risks and capabilities of advanced AI systems as well as to share the most relevant results, as appropriate, from research that advances the science of AI safety. | ・研究: 研究:我々は,科学界とともに,先進的なAIシステムのリスクと能力に関する研究を進めるとともに,AIの安全性に関する科学を前進させる研究から得られた最も関連性の高い結果を適宜共有することを計画している。 |
• Testing: We plan to work towards building common best practices for testing advanced AI systems. This work may include conducting joint testing exercises and sharing results from domestic evaluations, as appropriate. | ・テスト: 我々は,先進的なAIシステムをテストするための共通のベストプラクティスの構築に向けて取り組むことを計画している。この作業には,適宜,共同テスト演習の実施や国内評価結果の共有が含まれる。 |
• Guidance: We plan to facilitate shared approaches such as interpreting tests of advanced systems, where appropriate. | ・ガイダンス: 適切な場合には,先進的なシステムのテストの解釈など,共通のアプローチを促進することを計画する。 |
• Inclusion: We plan to actively engage countries, partners, and stakeholders in all regions of the world and at all levels of development by sharing information and technical tools in an accessible and collaborative manner, where appropriate. We hope, through these actions, to increase the capacity for a diverse range of actors to participate in the science and practice of AI safety. Through this Network, we are dedicated to collaborating broadly with partners to ensure that safe, secure, and trustworthy AI benefits all of humanity. | ・参加: 私たちは,適切な場合には,アクセスしやすく協力的な方法で情報や技術ツールを共有することにより,世界のあらゆる地域,あらゆる開発レベルの国,パートナー,利害関係者を積極的に巻き込むことを計画している。これらの活動を通じて,多様な関係者がAIの安全性の科学と実践に参加する能力を高めることを望む。このネットワークを通じて,私たちは,安全,安心,信頼できるAIが全人類に利益をもたらすよう,パートナーとの広範な協力に専心する。 |
「(2) 合成コンテンツによるリスクの低減に関する国際ネットワークの新たな共同研究課題に取り組むため、1,100万ドルを超える世界的な研究資金拠出を発表する。」関係...
・2024.11.20 [PDF] NIST AI 100-4 Reducing Risks Posed by Synthetic Content
「(3)AI安全機構国際ネットワークによる初の共同テストから得られた、多言語、国際的なAIテストの取り組みに関する方法論的洞察」関係...
・[PDF] 基礎的モデルの国際試験の改善:AI安全機構国際ネットワークによるパイロットテスト演習
「(4) 先進的AIシステムのリスクアセスメントに関する共同声明(国際ネットワークの連携を進めるための計画を含む)」関係...
・[PDF] 先進AIシステムのリスクアセスメントに関する共同声明AI安全機構国際ネットワーク
● NIST
U.S. AI Safety Institute Establishes New U.S. Government Taskforce to Collaborate on Research and Testing of AI Models to Manage National Security Capabilities & Risks | 米国AI安全研究所は、国家安全保障能力とリスクを管理するAIモデルの研究とテストに協力する新しい米国政府タスクフォースを設立した。 |
The Testing Risks of AI for National Security (TRAINS) Taskforce brings together experts from Commerce, Defense, Energy, Homeland Security, NSA, and NIH to address national security concerns and strengthen American leadership in AI innovation. | 国家安全保障のためのAIのリスクテスト(TRAINS)タスクフォースは、商務省、国防総省、エネルギー省、国土安全保障省、NSA、NIHの専門家を集め、国家安全保障上の懸念に対処し、AIイノベーションにおける米国のリーダーシップを強化する。 |
Washington, D.C. — Today, the U.S. Artificial Intelligence Safety Institute at the U.S. Department of Commerce’s National Institute of Standards and Technology (NIST) announced the formation of the Testing Risks of AI for National Security (TRAINS) Taskforce, which brings together partners from across the U.S. Government to identify, measure, and manage the emerging national security and public safety implications of rapidly evolving AI technology. This announcement comes as the United States is set to host the first-ever convening of the International Network of AI Safety Institutes in San Francisco. | ワシントンD.C.- 本日、米国商務省国立標準技術研究所(NIST)の米国人工知能安全研究所は、国家安全保障のためのAIリスクテスト(TRAINS)タスクフォースの結成を発表した、 同タスクフォースは、急速に進化するAI技術が国家安全保障と公共の安全に及ぼす影響を特定、測定、管理するために、米国政府全体のパートナーを結集するものである。 この発表は、米国がサンフランシスコでAI安全機構国際ネットワークの初会合を開催することになったことに伴うものである。 |
The Taskforce will enable coordinated research and testing of advanced AI models across critical national security and public safety domains, such as radiological and nuclear security, chemical and biological security, cybersecurity, critical infrastructure, conventional military capabilities, and more. | 同タスクフォースは、放射線・核セキュリティ、化学・生物学的セキュリティ、サイバーセキュリティ、重要インフラ、通常の軍事能力など、国家安全保障や公共安全の重要な領域にわたって、高度なAIモデルの協調的な研究やテストを可能にする。 |
These efforts will advance the U.S. government imperative to maintain American leadership in AI development and prevent adversaries from misusing American innovation to undermine national security. | これらの取り組みは、AI開発における米国のリーダーシップを維持し、敵対国が米国のイノベーションを悪用して国家安全保障を損なうことを防ぐという米国政府の要請を推進するものである。 |
The TRAINS Taskforce is chaired by the U.S. AI Safety Institute and includes initial representation from the following federal agencies: | TRAINSタスクフォースは、米国AI安全研究所が委員長を務め、以下の連邦機関の代表が初期メンバーとして参加している: |
The Department of Defense, including the Chief Digital and Artificial Intelligence Office (CDAO) and the National Security Agency | 国防総省(最高デジタル・人工知能局(CDAO)と国家安全保障局を含む。 |
The Department of Energy and ten of its National Laboratories | エネルギー省とその10の国立研究所 |
The Department of Homeland Security, including the Cybersecurity and Infrastructure Security Agency (CISA) | サイバーセキュリティ・インフラセキュリティ庁(CISA)を含む国土安全保障省 |
The National Institutes of Health (NIH) at the Department of Health and Human Services | 保健福祉省の国立衛生研究所(NIH) |
Each member will lend its unique subject matter expertise, technical infrastructure, and resources to the Taskforce and will collaborate on the development of new AI evaluation methods and benchmarks, as well as conduct joint national security risk assessments and red-teaming exercises. | 各メンバーは、独自の専門分野、技術インフラ、リソースをタスクフォースに提供し、新しいAI評価手法やベンチマークの開発で協力するとともに、国家安全保障リスクアセスメントやレッドチーム演習を共同で実施する。 |
“Enabling safe, secure, and trustworthy AI innovation is not just an economic priority – it's a public safety and national security imperative,” said U.S. Secretary of Commerce Gina Raimondo. “Every corner of the country is impacted by the rapid progress in AI, which is why establishing the TRAINS Taskforce is such an important step to unite our federal resources and ensure we’re pulling every lever to address the challenges of this generation-defining technology. The U.S. AI Safety Institute will continue to lead by centralizing the top-notch national security and AI expertise that exists across government in order to harness the benefits of AI for the betterment of the American people and American business.” | 「ジーナ・ライモンド米商務長官は、「安全、安心、信頼できるAIイノベーションを可能にすることは、単なる経済的優先事項ではなく、公共の安全と国家安全保障上の必須事項である。だからこそ、TRAINSタスクフォースの設立は、連邦政府のリソースを統合し、この生成的技術の課題に対処するためにあらゆる手段を講じることを確実にするための重要なステップなのです」と述べた。米国AI安全機構は、政府全体に存在する一流の国家安全保障とAIの専門知識を一元化し、米国民と米国ビジネスの向上のためにAIの恩恵を活用することで、リードし続けるだろう。 |
This effort operationalizes the whole-of-government approach to AI safety, as directed by the recent National Security Memorandum on AI, and the TRAINS Taskforce is expected to expand its membership across the federal government as its work continues. | この取り組みは、AIに関する最近の国家安全保障覚書によって指示されたように、AIの安全性に対する政府全体のアプローチを運用するものであり、TRAINSタスクフォースは、その作業が継続するにつれて、連邦政府全体にそのメンバーを拡大することが期待されている。 |
● まるちゃんの情報セキュリティ気まぐれ日記
覚書と枠組み...
AI 100-4関係...
・2024.05.03 米国 商務省 NISTがAIに関する4つのドラフトを公開し、意見募集を開始 (2023.04.29)
« 英国 NCSC ガイダンス「サイバーセキュリティリスクマネジメントを改善するための取締役会との協力」とブログ記事「取締役会にサイバーについてどう話すか」 (2024.10.07) | Main | オーストラリア 議会 情報・安全保障合同委員会 2024年サイバーセキュリティ法制パッケージ (2024.10.08) »
Comments