米国 ホワイトハウス 新たなAI行動を発表し、 AIに関する追加の主要な自主的コミットメントをAppleからも受領
こんにちは、丸山満彦です。
昨年に公表した大統領令14110に各省庁がするといっていたことが全て完了したという報告と、Appleが自主的な約束に署名をしたと公表していますね...Appleのウェブページではその報告は見つけられていません...
人口は日本の3倍。しかし、科学技術に対する国の力はそれ以上の差を感じてしまいますね。。。そして、技術的な分野の産業力も...
日本の組織は外に成果を出すためのエネルギーよりも、内部の調整(政治とかも...)にエネルギーをかけすぎなのかもしれませんね...
● U.S. White House
FACT SHEET: Biden-Harris Administration Announces New AI Actions and Receives Additional Major Voluntary Commitment on AI | ファクトシート:バイデン-ハリス政権は新たなAI行動を発表し、AIに関する主要な自主的コミットメントを追加で受け取った |
Nine months ago, President Biden issued a landmark Executive Order to ensure that America leads the way in seizing the promise and managing the risks of artificial intelligence (AI). | バイデン大統領は9カ月前、人工知能(AI)の有望性を捉え、リスクをマネジメントする上で米国が主導権を握ることを確実にするため、画期的な大統領令を発布した。 |
This Executive Order built on the voluntary commitments he and Vice President Harris received from 15 leading U.S. AI companies last year. Today, the administration announced that Apple has signed onto the voluntary commitments, further cementing these commitments as cornerstones of responsible AI innovation. | この大統領令は、昨年バイデン大統領とハリス副大統領が米国の主要AI企業15社から受けた自発的なコミットメントに基づいている。本日、同政権は、アップル社が自主的なコミットメントに署名したことを発表し、責任あるAIイノベーションの礎として、これらのコミットメントをさらに強固なものにした。 |
In addition, federal agencies reported that they completed all of the 270-day actions in the Executive Order on schedule, following their on-time completion of every other task required to date. Agencies also progressed on other work directed for longer timeframes. | さらに、連邦政府機関は、大統領令に定められた270日間の行動をすべて予定通りに完了したことを報告した。各省庁はまた、より長い期間をかけて指示された他の作業も進めた。 |
Following the Executive Order and a series of calls to action made by Vice President Harris as part of her major policy speech before the Global Summit on AI Safety, agencies all across government have acted boldly. They have taken steps to mitigate AI’s safety and security risks, protect Americans’ privacy, advance equity and civil rights, stand up for consumers and workers, promote innovation and competition, advance American leadership around the world, and more. Actions that agencies reported today as complete include the following : | 大統領令と、AIセーフティ・グローバル・サミットに先立つハリス副大統領の主要政策演説の一環として行われた一連の行動要請を受け、政府全省庁が果敢に行動した。彼らは、AIの安全・セキュリティリスクの軽減、アメリカ人のプライバシーの保護、公平性と公民権の向上、消費者と労働者の支援、イノベーションと競争の促進、世界におけるアメリカのリーダーシップの推進などのための措置を講じてきた。本日、各省庁が完了したと報告したアクションは以下の通りである: |
Managing Risks to Safety and Security: | 安全とセキュリティに対するリスクマネジメント: |
Over 270 days, the Executive Order directed agencies to take sweeping action to address AI’s safety and security risks, including by releasing vital safety guidance and building capacity to test and evaluate AI. To protect safety and security, agencies have: | 大統領令は270日以上にわたって、重要な安全ガイダンスの発表やAIのテスト・評価能力の構築など、AIの安全・安心リスクに対処するための抜本的な対策を講じるよう各省庁に指示した。安全・安心を守るため、各省庁は以下を実施した: |
1. Released for public comment new technical guidelines from the AI Safety Institute (AISI) for leading AI developers in managing the evaluation of misuse of dual-use foundation models. AISI’s guidelines detail how leading AI developers can help prevent increasingly capable AI systems from being misused to harm individuals, public safety, and national security, as well as how developers can increase transparency about their products . | 1. AI Safety Institute (AISI)から、AI開発者がデュアルユース基盤モデルの誤用評価を管理するための新しい技術ガイドラインをパブリックコメント用に発表した。AISIのガイドラインは、主要なAI開発者が、ますます高性能になるAIシステムが個人、公共の安全、国家安全保障に危害を加えるために悪用されるのを防ぐのをどのように支援できるか、また開発者が製品の透明性をどのように高めることができるかについて詳述している。 |
2. Published final frameworks on managing generative AI risks and securely developing generative AI systems and dual-use foundation models. These documents by the National Institute of Standards and Technology (NIST) will provide additional guidance that builds on NIST’s AI Risk Management Framework, which offered individuals, organizations, and society a framework to manage AI risks and has been widely adopted both in the U.S. and globally. NIST also submitted a report to the White House outlining tools and techniques to reduce the risks from synthetic content. | 2. 生成的AIのリスクマネジメントと、生成的AIシステムおよびデュアルユース基盤モデルの安全な開発に関する最終フレームワークを発表した。国立標準技術研究所(NIST)によるこれらの文書は、個人、機構、社会にAIリスクを管理する枠組みを提供し、米国内外で広く採用されているNISTのAIリスクマネジメントフレームワークを基礎とする追加ガイダンスを提供する。NISTはまた、合成コンテンツによるリスクを低減するためのツールや技術をまとめた報告書をホワイトハウスに提出した。 |
3. Developed and expanded AI testbeds and model evaluation tools at the Department of Energy (DOE). DOE, in coordination with interagency partners, is using its testbeds to evaluate AI model safety and security, especially for risks that AI models might pose to critical infrastructure, energy security, and national security. DOE’s testbeds are also being used to explore novel AI hardware and software systems, including privacy-enhancing technologies that improve AI trustworthiness. The National Science Foundation (NSF) also launched an initiative to help fund researchers outside the federal government design and plan AI-ready testbeds. | 3. エネルギー省(DOE)において、AIのテストベッドとモデル評価ツールを開発・拡張した。DOEは、省庁間のパートナーと連携して、AIモデルの安全性とセキュリティ、特にAIモデルが重要インフラ、エネルギーセキュリティ、国家安全保障にもたらす可能性のあるリスクを評価するために、テストベッドを活用している。DOEのテストベッドは、AIの信頼性を向上させるプライバシー強化技術など、新しいAIのハードウェアやソフトウェアシステムの研究にも利用されている。全米科学財団(NSF)もまた、連邦政府以外の研究者がAIに対応したテストベッドを設計・計画するための資金援助を行うイニシアティブを立ち上げた。 |
4. Reported results of piloting AI to protect vital government software. The Department of Defense (DoD) and Department of Homeland Security (DHS) reported findings from their AI pilots to address vulnerabilities in government networks used, respectively, for national security purposes and for civilian government. These steps build on previous work to advance such pilots within 180 days of the Executive Order. | 4. 政府の重要なソフトウェアを保護するためにAIを試験的に導入した結果を報告した。国防総省(DoD)と国土安全保障省(DHS)は、それぞれ国家安全保障と民間政府で使用される政府ネットワークの脆弱性に対処するためのAI試験運用の結果を報告した。これらの措置は、大統領令から180日以内にこのような試験運用を進めるという、これまでの作業を基礎としている。 |
5. Issued a call to action from the Gender Policy Council and Office of Science and Technology Policy to combat image-based sexual abuse, including synthetic content generated by AI. Image-based sexual abuse has emerged as one of the fastest growing harmful uses of AI to-date, and the call to action invites technology companies and other industry stakeholders to curb it. This call flowed from Vice President Harris’s remarks in London before the AI Safety Summit, which underscored that deepfake image-based sexual abuse is an urgent threat that demands global action. | 5. AIによって生成された合成コンテンツを含む、画像に基づく性的虐待と闘うために、米国科学技術政策局および生成的政策評議会から行動への呼びかけが出された。画像に基づく性的虐待は、これまで最も急速に増加しているAIの有害な用途の1つとして浮上しており、行動への呼びかけは、テクノロジー企業やその他の業界関係者に抑制を呼びかけている。この呼びかけは、AIセーフティ・サミットの前にロンドンで行われたハリス副大統領の発言から生まれたもので、ディープフェイク画像に基づく性的虐待が世界的な行動を求める緊急の脅威であることを強調した。 |
Bringing AI Talent into Government | AI人材を政府に導入する |
Last year, the Executive Order launched a government-wide AI Talent Surge that is bringing hundreds of AI and AI-enabling professionals into government. Hired individuals are working on critical AI missions, such as informing efforts to use AI for permitting, advising on AI investments across the federal government, and writing policy for the use of AI in government. | 昨年、大統領令は政府全体のAIタレント・サージを開始し、何百人ものAIとAIを可能にする専門家を政府に導入している。採用された人材は、AIを許認可に活用する取り組みへの情報提供、連邦政府全体のAI投資に関する助言、政府におけるAI活用のための政策立案など、重要なAIミッションに取り組んでいる。 |
1. To increase AI capacity across the federal government for both national security and non-national security missions, the AI Talent Surge has made over 200 hires to-date, including through the Presidential Innovation Fellows AI cohort and the DHS AI Corps. | 1. 国家安全保障と非国家安全保障の両ミッションで連邦政府全体のAI能力を向上させるため、AI人材急増は、大統領イノベーションフェローAIコホートやDHS AI軍団を含め、これまでに200人以上を採用してきた。 |
2. Building on the AI Talent Surge 6-month report, the White House Office of Science and Technology Policy announced new commitments from across the technology ecosystem, including nearly $100 million in funding, to bolster the broader public interest technology ecosystem and build infrastructure for bringing technologists into government service. | 2. ホワイトハウスの米国科学技術政策局は、AI Talent Surgeの6ヶ月報告書を基に、より広範な公益技術エコシステムを強化し、技術者を政府で雇用するためのインフラを構築するため、約1億ドルの資金を含む技術エコシステム全体からの新たなコミットメントを発表した。 |
Advancing Responsible AI Innovation | 責任あるAIイノベーションの推進 |
President Biden’s Executive Order directed further actions to seize AI’s promise and deepen the U.S. lead in AI innovation while ensuring AI’s responsible development and use across our economy and society. Within 270 days, agencies have: | バイデン大統領の大統領令は、AIの有望性を捉え、AIイノベーションにおける米国のリードをさらに深めると同時に、我々の経済と社会全体でAIの責任ある開発と利用を確保するためのさらなる行動を指示した。270日以内に、各省庁は以下を行った: |
1. Prepared and will soon release a report on the potential benefits, risks, and implications of dual-use foundation models for which the model weights are widely available, including related policy recommendations. The Department of Commerce’s report draws on extensive outreach to experts and stakeholders, including hundreds of public comments submitted on this topic. | 1. モデルの重みが広く利用可能なデュアルユース基盤モデルの潜在的なメリット、リスク、意味合いに関する報告書を作成し、近く発表する。商務省の報告書は、このテーマに関して提出された何百ものパブリックコメントを含む、専門家や利害関係者への広範な働きかけをもとに作成されている。 |
2. Awarded over 80 research teams’ access to computational and other AI resources through the National AI Research Resource (NAIRR) pilot—a national infrastructure led by NSF, in partnership with DOE, NIH, and other governmental and nongovernmental partners, that makes available resources to support the nation’s AI research and education community. Supported projects will tackle deepfake detection, advance AI safety, enable next-generation medical diagnoses and further other critical AI priorities. | 2. 全米AI研究リソース(NAIRR)試験を通じて、80以上の研究チームが計算機やその他のAIリソースを利用できるようになった。-これは、NSFが主導し、DOE、NIH、その他の政府・非政府パートナーと連携して、全米のAI研究・教育コミュニティを支援するためのリソースを提供する国家インフラである。支援されるプロジェクトは、ディープフェイク検出への取り組み、AIの安全性の向上、次世代医療診断の実現、その他の重要なAIの優先課題への取り組みとなる。 |
3. Released a guide for designing safe, secure, and trustworthy AI tools for use in education. The Department of Education’s guide discusses how developers of educational technologies can design AI that benefits students and teachers while advancing equity, civil rights, trust, and transparency. This work builds on the Department’s 2023 report outlining recommendations for the use of AI in teaching and learning. | 3. 教育で使用する安全、安心、信頼できるAIツールを設計するためのガイドを発表した。教育省のガイドは、教育技術の開発者が、公平性、公民権、信頼性、透明性を高めながら、生徒や教師のためになるAIを設計する方法について論じている。この作業は、教育・学習におけるAIの活用に関する提言をまとめた同省の2023年報告書に基づいている。 |
4. Published guidance on evaluating the eligibility of patent claims involving inventions related to AI technology, as well as other emerging technologies. The guidance by the U.S. Patent and Trademark Office will guide those inventing in the AI space to protect their AI inventions and assist patent examiners reviewing applications for patents on AI inventions. | 4. AI技術やその他の新興技術に関連する発明を含む特許請求の範囲の適格性評価に関するガイダンスを公表した。米国特許商標庁によるこのガイダンスは、AI分野で発明を行う者がAI発明を保護するための指針となり、AI発明に関する特許出願を審査する特許審査官を支援する。 |
5. Issued a report on federal research and development (R&D) to advance trustworthy AI over the past four years. The report by the National Science and Technology Council examines an annual federal AI R&D budget of nearly $3 billion. | 5. 過去4年間の信頼できるAIの進歩のための連邦政府の研究開発(R&D)に関する報告書を発行した。全米科学技術評議会によるこの報告書では、年間30億ドル近い連邦政府のAI研究開発予算が検討されている。 |
6. Launched a $23 million initiative to promote the use of privacy-enhancing technologies to solve real-world problems, including related to AI. Working with industry and agency partners, NSF will invest through its new Privacy-preserving Data Sharing in Practice program in efforts to apply, mature, and scale privacy-enhancing technologies for specific use cases and establish testbeds to accelerate their adoption. | 6. AI関連を含む現実世界の問題解決にプライバシー強化技術の利用を促進するため、2,300万ドルのイニシアチブを開始した。NSFは、産業界や省庁のパートナーと協力し、新しいプライバシー保護データ共有プログラム(Privacy-preserving Data Sharing in Practice)を通じて、特定のユースケースにプライバシー強化技術を適用し、成熟させ、規模を拡大する取り組みに投資し、その採用を加速するためのテストベッドを確立する。 |
7. Announced millions of dollars in further investments to advance responsible AI development and use throughout our society. These include $30 million invested through NSF’s Experiential Learning in Emerging and Novel Technologies program—which supports inclusive experiential learning in fields like AI—and $10 million through NSF’s ExpandAI program, which helps build capacity in AI research at minority-serving institutions while fostering the development of a diverse, AI-ready workforce. | 7. 社会全体で責任あるAIの開発と利用を促進するため、数百万ドルの追加投資を発表した。これには、AIなどの分野における包括的な体験学習を支援するNSFのExperiential Learning in Emerging and Novel Technologiesプログラムを通じて投資される3000万ドルや、多様なAIに対応できる労働力の育成を促進しながら、マイノリティ支援機構におけるAI研究の能力構築を支援するNSFのExpandAIプログラムを通じて投資される1000万ドルが含まれる。 |
Advancing U.S. Leadership Abroad | 海外における米国のリーダーシップを促進する |
President Biden’s Executive Order emphasized that the United States lead global efforts to unlock AI’s potential and meet its challenges. To advance U.S. leadership on AI, agencies have: | バイデン大統領の大統領令は、米国がAIの可能性を引き出し、その課題を解決するための世界的な取り組みを主導することを強調した。AIに関する米国のリーダーシップを推進するため、各省庁は以下を行った: |
1. Issued a comprehensive plan for U.S. engagement on global AI standards. The plan, developed by the NIST, incorporates broad public and private-sector input, identifies objectives and priority areas for AI standards work, and lays out actions for U.S. stakeholders including U.S. agencies. NIST and others agencies will report on priority actions in 180 days. | AI標準に関する米国の包括的な関与計画を発表した。NISTが策定したこの計画は、官民の幅広い意見を取り入れ、AI標準作業の目的と優先分野を特定し、米国政府機関を含む米国の利害関係者の行動を示している。NISTとその他の機関は、180日以内に優先的な行動について報告する。 |
2. Developed guidance for managing risks to human rights posed by AI. The Department of State’s “Risk Management Profile for AI and Human Rights”—developed in close coordination with NIST and the U.S. Agency for International Development—recommends actions based on the NIST AI Risk Management Framework to governments, the private sector, and civil society worldwide, to identify and manage risks to human rights arising from the design, development, deployment, and use of AI. | AIがもたらす人権へのリスクをマネジメントするためのガイダンスを策定した。国務省の「AIと人権に関するリスクマネジメントプロファイル」は、NISTおよび米国国際開発庁と緊密に連携して作成されたもので、AIの設計、開発、配備、使用から生じる人権へのリスクを特定し、管理するために、NISTのAIリスクマネジメントフレームワークに基づく行動を世界中の政府、民間セクター、市民社会に推奨している。 |
3. Launched a global network of AI Safety Institutes and other government-backed scientific offices to advance AI safety at a technical level. This network will accelerate critical information exchange and drive toward common or compatible safety evaluations and policies. | AIの安全性を技術レベルで推進するため、AI安全機構や政府が支援する科学的オフィスのグローバルネットワークを立ち上げた。このネットワークは、重要な情報交換を加速させ、共通または互換性のある安全性評価と政策を推進する。 |
4. Launched a landmark United Nations General Assembly resolution. The unanimously adopted resolution, with more than 100 co-sponsors, lays out a common vision for countries around the world to promote the safe and secure use of AI to address global challenges. | 画期的な国連総会決議を開始した。全会一致で採択されたこの決議は、100人以上の賛同者を得て、世界的な課題に対処するためにAIの安全かつ確実な利用を促進するための世界各国の共通ビジョンを示している。 |
5.Expanded global support for the U.S.-led Political Declaration on the Responsible Military Use of Artificial Intelligence and Autonomy. Fifty-five nations now endorse the political declaration, which outlines a set of norms for the responsible development, deployment, and use of military AI capabilities. | 米国主導の「人工知能とオートノミーの責任ある軍事利用に関する政治宣言」への世界的な支持を拡大した。 この政治宣言は、軍事用AI能力の責任ある開発、配備、使用に関する一連の規範をまとめたもので、現在55カ国が支持している。 |
The Table below summarizes many of the activities that federal agencies have completed in response to the Executive Order: | 以下の表は、大統領令に対応して連邦政府機関が完了した活動の多くをまとめたものである: |
Department of Commerce Announces New Guidance, Tools 270 Days Following President Biden’s Executive Order on AI | 商務省は、バイデン大統領によるAIに関する大統領令の270日後に、新たなガイダンスとツールを発表した。 |
Artificial Intelligence | 人工知能 |
**For the first time, Commerce makes public new NIST draft guidance from the U.S. AI Safety Institute to help AI developers evaluate and mitigate risks stemming from generative AI and dual-use foundation models.** | **商務省は、AI開発者が生成的AIやデュアルユース基盤モデルから生じるリスクを評価し、軽減するのに役立つ米国AI安全機構による新しいNISTドラフトガイダンスを初めて公開した。 |
Read the White House Fact sheet on Administration-wide actions on AI. | AIに関する政府全体の行動に関するホワイトハウスのファクトシートを読む。 |
The U.S. Department of Commerce announced today, on the 270-day mark since President Biden’s Executive Order (EO) on the Safe, Secure and Trustworthy Development of AI, the release of new guidance and software to help improve the safety, security and trustworthiness of artificial intelligence (AI) systems. | 米商務省は本日、バイデン大統領令「AIの安全・安心・信頼できる開発」から270日目を迎え、人工知能(AI)システムの安全・安心・信頼性を改善するための新たなガイダンスとソフトウェアを発表した。 |
The Department’s National Institute of Standards and Technology (NIST) released three final guidance documents that were first released in April for public comment, as well as a draft guidance document from the U.S. AI Safety Institute that is intended to help mitigate risks. NIST is also releasing a software package designed to measure how adversarial attacks can degrade the performance of an AI system. In addition, Commerce’s U.S. Patent and Trademark Office (USPTO) issued a guidance update on patent subject matter eligibility to address innovation in critical and emerging technologies, including AI, and the National Telecommunications and Information Administration (NTIA) delivered a report to the White House that examines the risks and benefits of large AI models with widely available weights . |
同省の国立標準技術研究所(NIST)は、4月に初めて公開されパブリックコメントを求めていた3つの最終ガイダンス文書と、リスク軽減を目的とした米国AI安全研究所のガイダンス文書案を公開した。NISTはまた、敵対的な攻撃がAIシステムの性能をどのように低下させるかを測定するために設計されたソフトウェアパッケージも発表している。さらに、米国特許商標庁(USPTO)は、AIを含む重要かつ新興の技術革新に対応するため、特許の主題適格性に関するガイダンスを更新し、国家電気通信情報局(NTIA)は、広く利用可能な重みを持つ大規模なAIモデルのリスクと利点を検討した報告書をホワイトハウスに提出した。 |
“Under President Biden and Vice President Harris’ leadership, we at the Commerce Department have been working tirelessly to implement the historic Executive Order on AI and have made significant progress in the nine months since we were tasked with these critical responsibilities,” said U.S. Secretary of Commerce Gina Raimondo. “AI is the defining technology of our generation, so we are running fast to keep pace and help ensure the safe development and deployment of AI. Today’s announcements demonstrate our commitment to giving AI developers, deployers, and users the tools they need to safely harness the potential of AI, while minimizing its associated risks. We’ve made great progress, but have a lot of work ahead. We will keep up the momentum to safeguard America’s role as the global leader in AI.” | 「バイデン大統領とハリス副大統領のリーダーシップの下、我々商務省はAIに関する歴史的な大統領令の実施に精力的に取り組んでおり、この重要な責務を課せられてから9ヶ月間で大きな進展を遂げた」とジーナ・ライモンド米商務長官は述べた。「AIはわれわれの生成的AI技術であり、われわれはその歩調を合わせ、AIの安全な開発と普及を支援するため、急ピッチで取り組んでいる。本日の発表は、AIの開発者、導入者、利用者がAIの可能性を安全に活用するために必要なツールを提供する一方で、関連するリスクを最小限に抑えるという我々のコミットメントを示すものだ。我々は大きな進歩を遂げたが、まだ多くの課題が残っている。我々は、AIにおけるグローバルリーダーとしてのアメリカの役割を守るため、この勢いを維持していく」。 |
NIST’s document releases cover varied aspects of AI technology. Two were made public today for the first time. One is the initial public draft of a guidance document from the U.S. AI Safety Institute, and is intended to help AI developers evaluate and mitigate the risks stemming from generative AI and dual-use foundation models — AI systems that can be used for either beneficial or harmful purposes. The other is a testing platform designed to help AI system users and developers measure how certain types of attacks can degrade the performance of an AI system. Of the remaining three document releases, two are guidance documents designed to help manage the risks of generative AI — the technology that enables many chatbots as well as text-based image and video creation tools — and serve as companion resources to NIST’s AI Risk Management Framework (AI RMF) and Secure Software Development Framework (SSDF). The third proposes a plan for U.S. stakeholders to work with others around the globe on AI standards. | NISTが発表した文書は、AI技術の様々な側面をカバーしている。今日初めて公開されたものが2つある。ひとつは、米国AI安全研究所のガイダンス文書の初公開草案で、AI開発者が生成的AIやデュアルユース基盤モデル(有益にも有害にも使用可能なAI機構)から生じるリスクを評価し、軽減するためのものだ。もうひとつは、AIシステムのユーザーや開発者が、ある種の攻撃がAIシステムの性能をどのように低下させるかを測定できるように設計されたテストプラットフォームである。残りの3つの文書のうち、2つは生成的AI(多くのチャットボットやテキストベースの画像・動画作成ツールを実現する技術)のリスクマネジメントを支援するためのガイダンス文書で、NISTのAIリスクマネジメントフレームワーク(AI RMF)とセキュアソフトウェア開発フレームワーク(SSDF)の関連リソースとして機能する。3つ目は、米国の関係者がAI標準について世界中の関係者と協力するための計画を提案している。 |
“For all its potentially transformational benefits, generative AI also brings risks that are significantly different from those we see with traditional software,” said Under Secretary of Commerce for Standards and Technology and NIST Director Laurie E. Locascio. “These guidance documents and testing platform will inform software creators about these unique risks and help them develop ways to mitigate those risks while supporting innovation.” | 「標準技術担当商務次官兼NIST長官のローリー・E・ロカシオ氏は、「生成的AIは、その潜在的な利点のすべてにおいて、従来のソフトウェアとは大きく異なるリスクももたらす。「これらのガイダンス文書とテストプラットフォームは、ソフトウェア作成者にこれらのユニークなリスクについて知らせ、イノベーションを支援しながらリスクを軽減する方法を開発するのに役立つ。 |
USPTO’s guidance update will assist USPTO personnel and stakeholders in determining subject matter eligibility under patent law (35 U.S.C. § 101) of AI inventions. This latest update builds on previous guidance by providing further clarity and consistency to how the USPTO and applicants should evaluate subject matter eligibility of claims in patent applications and patents involving inventions related to AI technology. The guidance update also announces three new examples of how to apply this guidance throughout a wide range of technologies. | USPTOのガイダンス・アップデートは、AI発明の特許法(35 U.S.C. § 101)上の主題適格性を判断する際に、USPTO職員および関係者を支援する。この最新のガイダンスは、これまでのガイダンスに基づき、USPTOと出願人がAI技術に関連する発明を含む特許出願および特許のクレームの主題適格性をどのように評価すべきかについて、さらなる明確性と一貫性を提供するものである。また、このガイダンスの更新では、幅広い技術にこのガイダンスを適用する方法について、3つの新しい例を発表している。 |
“The USPTO remains committed to fostering and protecting innovation in critical and emerging technologies, including AI,” said Kathi Vidal, Under Secretary of Commerce for Intellectual Property and Director of the USPTO. “We look forward to hearing public feedback on this guidance update, which will provide further clarity on evaluating subject matter eligibility of AI inventions while incentivizing innovations needed to solve world and community problems.” | 「米国特許商標庁(USPTO)の知的財産担当商務次官兼長官であるカティ・ヴィダル氏は、「USPTOは、AIを含む重要な新興技術のイノベーションを促進し、保護することに引き続き尽力する。「このガイダンスの更新により、AI発明の主題適格性の評価がさらに明確になると同時に、世界や地域社会の問題を解決するために必要なイノベーションを奨励することになる。 |
NTIA’s soon-to-be-published report will review the risks and benefits of dual-use foundation models whose model weights are widely available (i.e. “open-weight models”), as well as develop policy recommendations maximizing those benefits while mitigating the risks. Open-weight models allow developers to build upon and adapt previous work, broadening AI tools’ availability to small companies, researchers, nonprofits, and individuals. | NTIAが間もなく発表する報告書では、モデルウェイトが広く利用可能なデュアルユースファウンデーションモデル(すなわち「オープンウェイトモデル」)のリスクとベネフィットを検討し、リスクを低減しながらベネフィットを最大化する政策提言を策定する。オープン・ウェイト・モデルは、開発者が過去の研究を基にしたり、適応させたりすることを可能にし、中小企業、研究者、非営利団体、個人がAIツールを幅広く利用できるようにする。 |
Additional information on today’s announcements from NIST can be found below. | 本日のNISTの発表に関する追加情報は以下を参照のこと。 |
Protecting Against Misuse Risk from Dual-Use Foundation Models | デュアルユース基盤モデルからの誤用リスク防御 |
AI foundation models are powerful tools that are useful across a broad range of tasks and are sometimes called “dual-use” because of their potential for both benefit and harm. NIST’s U.S. AI Safety Institute has released the initial public draft of its guidelines on Managing Misuse Risk for Dual-Use Foundation Models, which outlines voluntary best practices for how foundation model developers can protect their systems from being misused to cause deliberate harm to individuals, public safety and national security. | AI基盤モデルは、幅広いタスクに有用な強力なツールであり、利益と害悪の両方の可能性があることから、「デュアルユース」と呼ばれることもある。NISTの米国AI安全研究所は、「デュアルユースファウンデーションモデルの悪用リスクマネジメント」に関するガイドラインの初公開ドラフトを発表した。このガイドラインは、ファウンデーションモデル開発者が、そのシステムが悪用され、個人、公共の安全、国家安全保障に意図的な危害が及ぶことを防ぐための自主的なベストプラクティスの概要を示している。 |
The draft guidance offers seven key approaches for mitigating the risks that models will be misused, along with recommendations for how to implement them and how to be transparent about their implementation. Together, these practices can help prevent models from enabling harm through activities like developing biological weapons, carrying out offensive cyber operations, and generating child sexual abuse material and non-consensual intimate imagery. | ドラフト・ガイダンスは、モデルが悪用されるリスクを低減するための7つの主要なアプローチと、それらをどのように実施するか、またその実施についてどのように透明性を確保するかについての勧告を提示している。これらの実践を組み合わせることで、生物兵器の開発、攻撃的なサイバー作戦の実行、児童性的虐待の素材や同意のない親密な画像の生成といった活動を通じて、モデルが危害を加えることを防ぐことができる。 |
The AI Safety Institute is accepting comments from the public on the draft Managing the Misuse Risk for Dual-Use Foundation Models until Sept. 9, 2024, at 11:59 PM Eastern Time. Comments can be submitted electronically to NISTAI800-1@nist.gov with “NIST AI 800-1, Managing Misuse Risk for Dual-Use Foundation Models” in the subject line. | AIセーフティ・インスティテュートは、ドラフト「Managing the Misuse Risk for Dual-Use Foundation Models」に対する一般からのコメントを、2024年9月9日午後11時59分(米国東部時間)まで受け付けている。意見は、件名を「NIST AI 800-1、Managing Misuse Risk for Dual-Use Foundation Models」として、NISTAI800-1@nist.gov 宛てに電子的に提出することができる。 |
Testing how AI Models Respond to Attacks | AIモデルが攻撃にどのように対応するかをテストする |
One of the vulnerabilities of an AI system is the model at its core. By exposing a model to large amounts of training data, it learns to make decisions. But if adversaries poison the training data with inaccuracies — for example, by introducing data that can cause the model to misidentify stop signs as speed limit signs — the model can make incorrect, potentially disastrous decisions. Testing the effects of adversarial attacks on machine learning models is one of the goals of Dioptra, a new software package aimed at helping AI developers and customers determine how well their AI software stands up to a variety of adversarial attacks. | AIシステムの脆弱性の一つは、その中核にあるモデルである。モデルを大量の訓練データにさらすことで、モデルは意思決定を行うことを学習する。しかし、敵対的サンプルが不正確なデータ・ポイズニングを行った場合、例えば、一時停止標識を速度制限標識と誤認させるようなデータを導入した場合、モデルは誤った、潜在的に悲惨な判断を下す可能性がある。機械学習モデルに対する敵対的攻撃の影響をテストすることは、Dioptraの目標の一つである。Dioptraは、AI開発者や顧客が、AIソフトウェアが様々な敵対的攻撃にどの程度耐えられるかを判断するのを支援することを目的とした新しいソフトウェア・パッケージである。 |
The open-source software, available for free download, could help the community including government agencies and small- to medium-sized businesses conduct evaluations to assess AI developers’ claims about their systems’ performance. This software responds to Executive Order section 4.1 (ii) (B), which requires NIST to help with model testing. Dioptra does this by allowing a user to determine what sorts of attacks would make the model perform less effectively and quantifying the performance reduction so that the user can learn how often and under what circumstances the system would fail. | 無料でダウンロード可能なオープンソースソフトウェアは、政府機関や中小企業を含むコミュニティが、AI開発者が主張するシステムの性能を評価するための評価を行うのに役立つだろう。このソフトウェアは、大統領令4.1項(ii)(B)に対応するもので、NISTにモデルテストの支援を求めている。Dioptraは、どのような攻撃がモデルのパフォーマンスを低下させるかをユーザーが判断できるようにし、パフォーマンスの低下を定量化することで、ユーザーがシステムがどの程度の頻度で、どのような状況下で失敗するかを知ることができるようにする。 |
Managing the Risks of Generative AI | 生成的AIのリスクマネジメント |
The AI RMF Generative AI Profile (NIST AI 600-1) can help organizations identify unique risks posed by generative AI and proposes actions for generative AI risk management that best aligns with their goals and priorities. The guidance is intended to be a companion resource for users of NIST’s AI RMF. It centers on a list of 12 risks and just over 200 actions that developers can take to manage them. | AI RMFの生成的AIプロファイル(NIST AI 600-1)は、組織が生成的AIによってもたらされる固有のリスクを特定し、その目標や優先事項に最適な生成的AIのリスクマネジメントのための行動を提案するのに役立つ。このガイダンスは、NISTのAI RMFの利用者向けの付属リソースとなることを意図している。このガイダンスは、12のリスクと、開発者がリスクマネジメントのために取ることができる200以上のアクションのリストを中心に構成されている。 |
The 12 risks include a lowered barrier to entry for cybersecurity attacks, the production of mis- and disinformation or hate speech and other harmful content, and generative AI systems confabulating or “hallucinating” output. After describing each risk, the document presents a matrix of actions that developers can take to mitigate them, mapped to the AI RMF. | 12のリスクには、サイバーセキュリティ攻撃への参入障壁の低下、偽情報やヘイトスピーチ、その他の有害なコンテンツの生成、生成的AIシステムによる出力の混同や「幻覚」などが含まれる。各リスクを説明した後、開発者がそのリスクを低減するために取るべき行動を、AI RMFに対応させてマトリクスとして示している。 |
Reducing Threats to the Data Used to Train AI Systems | AIシステムの学習に使用されるデータへの脅威を軽減する |
The second finalized publication, Secure Software Development Practices for Generative AI and Dual-Use Foundation Models (NIST Special Publication (SP) 800-218A) is designed to be used alongside the Secure Software Development Framework (SP 800-218). While the SSDF is broadly concerned with software coding practices, the companion resource expands the SSDF in part to address a major concern with generative AI systems: They can be compromised with malicious training data that adversely affect the AI system’s performance. | 2つ目の最終刊行物である「生成的AIおよびデュアルユース基盤モデルのための安全なソフトウェア開発プラクティス」(NIST特別刊行物(SP)800-218A)は、安全なソフトウェア開発フレームワーク(SP800-218)と並行して使用されるように設計されている。SSDFは広くソフトウェアのコーディング手法に関わるものであるが、この関連リソースは、生成的AIシステムの主要な懸念に対処するためにSSDFを一部拡張したものである: それは、AIシステムの性能に悪影響を与える悪意のある学習データによって、システムが危険にさらされる可能性があるというものだ。 |
In addition to covering aspects of the training and use of AI systems, this guidance document identifies potential risk factors and strategies to address them. Among other recommendations, it suggests analyzing training data for signs of poisoning, bias, homogeneity and tampering. | AIシステムの訓練と使用の側面をカバーすることに加え、このガイダンス文書は潜在的なリスク要因とそれに対処するための戦略を特定している。特に、ポイズニング、バイアス、均質性、改ざんなどの兆候がないか、トレーニングデータを分析することを推奨している。 |
Global Engagement on AI Standards | AI標準に関するグローバルな取り組み |
AI systems are transforming society not only within the U.S., but around the world. A Plan for Global Engagement on AI Standards (NIST AI 100-5), today’s third finalized publication, is designed to drive the worldwide development and implementation of AI-related consensus standards, cooperation and coordination, and information sharing. | AIシステムは米国内だけでなく、世界中で社会を変革しつつある。AI標準に関するグローバルな関与のための計画(NIST AI 100-5)は、AI関連のコンセンサス標準の世界的な開発と実施、協力と調整、情報共有を推進するために策定された。 |
The guidance is informed by priorities outlined in the NIST-developed Plan for Federal Engagement in AI Standards and Related Tools and is tied to the National Standards Strategy for Critical and Emerging Technology. This publication suggests that a broader range of multidisciplinary stakeholders from many countries participate in the standards development process. | このガイダンスは、NISTが策定した「AI標準および関連ツールにおける連邦政府の関与のための計画」で示された優先事項に基づいており、「重要かつ新たな技術のための国家標準化戦略」と関連している。本書は、標準開発プロセスに多くの国から幅広い分野の利害関係者が参加することを示唆している。 |
● NIST - ITL
Department of Commerce Announces New Guidance, Tools 270 Days Following President Biden’s Executive Order on AI | 商務省、AI に関するバイデン大統領の大統領令から 270 日後に新たなガイダンスとツールを発表 |
For the first time, Commerce makes public new NIST draft guidance from U.S. AI Safety Institute to help AI developers evaluate and mitigate risks stemming from generative AI and dual-use foundation models. | 米商務省は、AI開発者が生成的AIやデュアルユース基盤モデルから生じるリスクを評価し、軽減するのを支援するため、米国AI安全機構による新しいNISTドラフトガイダンスを初めて公開する。 |
The U.S. Department of Commerce announced today, on the 270-day mark since President Biden’s Executive Order (EO) on the Safe, Secure and Trustworthy Development of AI, the release of new guidance and software to help improve the safety, security and trustworthiness of artificial intelligence (AI) systems. | 米商務省は本日、バイデン大統領の「AIの安全・安心・信頼できる開発に関する大統領令(EO)」から270日目を迎え、人工知能(AI)システムの安全・安心・信頼性を改善するための新たなガイダンスとソフトウェアを公開すると発表した。 |
The department’s National Institute of Standards and Technology (NIST) released three final guidance documents that were first released in April for public comment, as well as a draft guidance document from the U.S. AI Safety Institute that is intended to help mitigate risks. NIST is also releasing a software package designed to measure how adversarial attacks can degrade the performance of an AI system. In addition, Commerce’s U.S. Patent and Trademark Office (USPTO) issued a guidance update on patent subject matter eligibility to address innovation in critical and emerging technologies, including AI. | 同省の国立標準技術研究所(NIST)は、4月に初めて公開されパブリックコメントを求めていた3つの最終ガイダンス文書と、リスク軽減を目的とした米国AI安全研究所のガイダンス文書案を公開した。NISTはまた、敵対的な攻撃がAIシステムの性能をどのように低下させるかを測定するために設計されたソフトウェアパッケージも発表している。さらに、米国特許商標庁(USPTO)は、AIを含む重要かつ新興の技術革新に対応するため、特許の主題適格性に関するガイダンスを更新した。 |
“For all its potentially transformational benefits, generative AI also brings risks that are significantly different from those we see with traditional software. These guidance documents and testing platform will inform software creators about these unique risks and help them develop ways to mitigate those risks while supporting innovation.” —Laurie E. Locascio, Under Secretary of Commerce for Standards and Technology and NIST Director | 「生成的AIは、その潜在的な変革の可能性から、従来のソフトウェアとは大きく異なるリスクももたらす。これらのガイダンス文書とテストプラットフォームは、ソフトウェア作成者にこれらのユニークなリスクについて知らせ、イノベーションを支援しながらリスクを軽減する方法を開発するのに役立つだろう。-ローリー・E・ロカシオ商務次官(標準技術担当)兼NIST理事 |
Read the full Department of Commerce news release. | 商務省のニュースリリース全文を読む。 |
Read the White House fact sheet on administration-wide actions on AI. | AIに関する政府全体の行動に関するホワイトハウスのファクトシートを読む。 |
Background: NIST Delivers 5 Products in Response to 2023 Executive Order on AI | 背景 NIST、AIに関する2023年大統領令に対応した5つの製品を発表 |
The NIST releases cover varied aspects of AI technology. Two of them appear today for the first time: One is the initial public draft of a guidance document from the U.S. AI Safety Institute, and is intended to help software developers mitigate the risks stemming from generative AI and dual-use foundation models — AI systems that can be used for either beneficial or harmful purposes. The other is a testing platform designed to help AI system users and developers measure how certain types of attacks can degrade the performance of an AI system. | NISTのリリースはAI技術の様々な側面をカバーしている。そのうちの2つが本日初めて公開された: ひとつは、米国AI安全研究所によるガイダンス文書の初公開草案で、ソフトウェア開発者が生成的AIやデュアルユース基盤モデル(有益にも有害にも使用できるAI機構)に起因するリスクを軽減することを目的としている。もう1つは、AIシステムのユーザーや開発者が、ある種の攻撃がAIシステムの性能をどのように低下させるかを測定するのを助けるために設計されたテストプラットフォームである。 |
Of the remaining three releases, two are guidance documents designed to help manage the risks of generative AI — the technology that enables many chatbots as well as text-based image and video creation tools — and serve as companion resources to NIST’s AI Risk Management Framework (AI RMF) and Secure Software Development Framework (SSDF). The third proposes a plan for U.S. stakeholders to work with others around the globe on AI standards. These three publications previously appeared April 29 in draft form for public comment, and NIST is now releasing their final versions. | 残りの3つのリリースのうち、2つは生成的AI(多くのチャットボットやテキストベースの画像・動画作成ツールを実現する技術)のリスクマネジメントを支援するために設計されたガイダンス文書で、NISTのAIリスクマネジメントフレームワーク(AI RMF)とセキュアソフトウェア開発フレームワーク(SSDF)の関連リソースとなっている。3つ目は、米国の関係者が世界中の関係者とAI標準について協力するための計画を提案している。これら3つの出版物は、4月29日にパブリックコメント用のドラフトとして発表されたが、NISTは今回、最終版を発表する。 |
The two releases NIST is announcing today for the first time are: | NISTが本日初めて発表するのは、以下の2つである: |
Preventing Misuse of Dual-Use Foundation Models | デュアルユースファウンデーションモデルの誤用を防ぐ |
AI foundation models are powerful tools that are useful across a broad range of tasks and are sometimes called “dual-use” because of their potential for both benefit and harm. NIST’s AI Safety Institute has released the initial public draft of its guidelines on Managing Misuse Risk for Dual-Use Foundation Models (NIST AI 800-1), which outlines voluntary best practices for how foundation model developers can protect their systems from being misused to cause deliberate harm to individuals, public safety and national security. | AI基盤モデルは、幅広いタスクに有用な強力なツールであり、利益と害悪の両方の可能性があるため、「デュアルユース」と呼ばれることもある。NISTのAIセーフティ・インスティテュートは、「デュアルユース・ファウンデーションモデルの悪用リスクマネジメントに関するガイドライン」(NIST AI 800-1)の初公開ドラフトを発表した。このガイドラインは、ファウンデーションモデル開発者が、そのシステムが悪用されて、個人、公共の安全、国家安全保障に意図的な危害が及ぶことを防ぐための自主的なベストプラクティスをまとめたものである。 |
The draft guidance offers seven key approaches for mitigating the risks that models will be misused, along with recommendations for how to implement them and how to be transparent about their implementation. Together, these practices can help prevent models from enabling harm through activities like developing biological weapons, carrying out offensive cyber operations, and generating child sexual abuse material and nonconsensual intimate imagery. | ドラフト・ガイダンスは、モデルが悪用されるリスクを軽減するための7つの主要なアプローチと、それらの実施方法、および実施方法の透明性に関する勧告を提示している。これらの実践を組み合わせることで、生物兵器の開発、攻撃的サイバー作戦の実行、児童性的虐待資料や非合意の親密な画像の生成といった活動を通じて、モデルが危害を加えることを防ぐことができる。 |
NIST is accepting comments from the public on the draft Managing the Risk of Misuse for Dual-Use Foundation Models until Sept. 9, 2024, at 11:59 p.m. Eastern Time. Comments can be submitted to NISTAI800-1@nist.gov. | NISTは、ドラフト「Managing the Risk of Misuse for Dual-Use Foundation Models」に対する一般からのコメントを、2024年9月9日午後11時59分(米国東部時間)まで受け付けている。コメントはNISTAI800-1@nist.gov。 |
Testing How AI System Models Respond to Attacks | AIシステムモデルが攻撃にどのように対応するかをテストする |
One of the vulnerabilities of an AI system is the model at its core. By exposing a model to large amounts of training data, it learns to make decisions. But if adversaries poison the training data with inaccuracies — for example, by introducing data that can cause the model to misidentify stop signs as speed limit signs — the model can make incorrect, potentially disastrous decisions. Testing the effects of adversarial attacks on machine learning models is one of the goals of Dioptra, a new software package aimed at helping AI developers and customers determine how well their AI software stands up to a variety of adversarial attacks. | AIシステムの脆弱性のひとつは、その核となるモデルである。モデルを大量の訓練データにさらすことで、意思決定を行うことを学習する。しかし、敵対的サンプルが不正確なデータ・ポイズニングを行った場合、例えば、モデルが一時停止標識を制限速度標識と誤認するようなデータを導入した場合、モデルは誤った、潜在的に悲惨な判断を下す可能性がある。機械学習モデルに対する敵対的攻撃の影響をテストすることは、Dioptraの目標の一つである。Dioptraは、AI開発者や顧客が、AIソフトウェアが様々な敵対的攻撃にどの程度耐えられるかを判断するのを支援することを目的とした新しいソフトウェア・パッケージである。 |
The open-source software, available for free download, could help the community, including government agencies and small to medium-sized businesses, conduct evaluations to assess AI developers’ claims about their systems’ performance. This software responds to Executive Order section 4.1 (ii) (B), which requires NIST to help with model testing. Dioptra does this by allowing a user to determine what sorts of attacks would make the model perform less effectively and quantifying the performance reduction so that the user can learn how often and under what circumstances the system would fail. | 無料でダウンロード可能なオープンソースソフトウェアは、政府機関や中小企業を含むコミュニティが、AI開発者が主張するシステムの性能を評価するための評価を実施するのに役立つだろう。このソフトウェアは、大統領令4.1項(ii)(B)に対応するもので、NISTにモデルテストの支援を求めている。Dioptraは、どのような攻撃がモデルの性能を低下させるかをユーザーが判断できるようにし、性能低下を定量化することで、システムがどのような状況下でどの程度の頻度で失敗するかをユーザーが知ることができるようにする。 |
Augmenting today’s two initial releases are three finalized documents: | 本日の2つの初期リリースに加え、3つの最終文書が発表された: |
Mitigating the Risks of Generative AI | 生成的AIのリスク低減 |
The AI RMF Generative AI Profile (NIST AI 600-1) can help organizations identify unique risks posed by generative AI and proposes actions for generative AI risk management that best aligns with their goals and priorities. The guidance is intended to be a companion resource for users of NIST’s AI RMF. It centers on a list of 12 risks and just over 200 actions that developers can take to manage them. | AI RMFの生成的AIプロファイル(NIST AI 600-1)は、組織が生成的AIがもたらす固有のリスクを特定し、その目標や優先順位に最も適した生成的AIのリスクマネジメントのための行動を提案するのに役立つ。このガイダンスは、NISTのAI RMFの利用者向けの付属リソースとなることを意図している。このガイダンスは、12のリスクと、開発者がリスクマネジメントのために取ることができる200以上のアクションのリストを中心に構成されている。 |
The 12 risks include a lowered barrier to entry for cybersecurity attacks, the production of mis- and disinformation or hate speech and other harmful content, and generative AI systems confabulating or “hallucinating” output. After describing each risk, the document presents a matrix of actions that developers can take to mitigate it, mapped to the AI RMF. | 12のリスクには、サイバーセキュリティ攻撃への参入障壁の低下、偽情報やヘイトスピーチ、その他の有害なコンテンツの生成、生成的AIシステムによる出力の混同や「幻覚」などが含まれる。それぞれのリスクについて説明した後、開発者がそのリスクを低減するために取るべき行動を、AI RMFに対応させてマトリックスで提示している。 |
Reducing Threats to the Data Used to Train AI Systems | AIシステムの学習に使用されるデータへの脅威を軽減する |
The second finalized publication, Secure Software Development Practices for Generative AI and Dual-Use Foundation Models (NIST Special Publication (SP) 800-218A), is designed to be used alongside the Secure Software Development Framework (SP 800-218). While the SSDF is broadly concerned with software coding practices, the companion resource expands the SSDF in part to address a major concern with generative AI systems: They can be compromised with malicious training data that adversely affect the AI system’s performance. | 2つ目の最終刊行物である「生成的AIおよびデュアルユース基盤モデルのための安全なソフトウェア開発プラクティス」(NIST特別刊行物(SP)800-218A)は、安全なソフトウェア開発フレームワーク(SP800-218)と並行して使用されるように設計されている。SSDFは広くソフトウェアコーディングの実践を対象としているが、この関連リソースは、生成的AIシステムの主要な懸念に対処するためにSSDFを部分的に拡張している: それは、AIシステムの性能に悪影響を与える悪意のある学習データによって、システムが危険にさらされる可能性があるというものだ。 |
In addition to covering aspects of the training and use of AI systems, this guidance document identifies potential risk factors and strategies to address them. Among other recommendations, it suggests analyzing training data for signs of poisoning, bias, homogeneity and tampering. | AIシステムの訓練と使用の側面をカバーすることに加え、このガイダンス文書は潜在的なリスク要因とそれらに対処するための戦略を特定する。特に、ポイズニング、バイアス、均質性、改ざんなどの兆候がないか、学習データを分析することを推奨している。 |
Global Engagement on AI Standards | AI標準に関するグローバルな取り組み |
AI systems are transforming society not only within the U.S., but around the world. A Plan for Global Engagement on AI Standards (NIST AI 100-5), today’s third finalized publication, is designed to drive the worldwide development and implementation of AI-related consensus standards, cooperation and coordination, and information sharing. | AIシステムは米国内だけでなく、世界中で社会を変革しつつある。AI標準に関するグローバルな関与のための計画(NIST AI 100-5)は、AI関連のコンセンサス標準の世界的な開発と実施、協力と調整、情報共有を推進するために策定された。 |
The guidance is informed by priorities outlined in the NIST-developed Plan for Federal Engagement in AI Standards and Related Tools and is tied to the National Standards Strategy for Critical and Emerging Technology. This publication suggests that a broader range of multidisciplinary stakeholders from many countries participate in the standards development process. | このガイダンスは、NISTが策定した「AI標準および関連ツールにおける連邦政府の関与のための計画」で示された優先事項に基づいており、「重要かつ新たな技術のための国家標準化戦略」と関連している。本書は、標準開発プロセスに多くの国から幅広い分野の利害関係者が参加することを示唆している。 |
● まるちゃんの情報セキュリティ気まぐれ日記
大統領令14110
・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令
AI企業との自主的約束
・2023.07.22 米国 ホワイトハウス 7つの米国AI企業が、バイデン政権とした3つの分野の8つの約束
« ニュージーランド プライバシーコミッショナー 子供のプライバシーについての調査結果と洞察... (2024.04.17) | Main | 内部監査人協会 グローバル内部監査基準(日本語版)(2024.07.05) »
Comments