米国 AI安全研究所を設立
こんにちは、丸山満彦です。
英国で、2023.11.02 にAI安全研究所が開設され(このブログ)、日本でもAI安全研究所(AIセーフティ・インスティテュート: AISI)を2月14日にIPAに設立するという話がありますが(ウェブサイトは2024.02.01に開設されています)...
G7が2023.10.30に採択したHiroshima Process International Guiding Principles for Organizations Developing Advanced AI System(高度なAIシステムを開発する組織向けの広島プロセス国際指針)の行動指針8/11で次のようになっていて、
8 Prioritize research to mitigate societal, safety and security risks and prioritize investment in effective mitigation measures. | 8 社会的、安全、セキュリティ上のリスクを軽減するための研究を優先し、効果的な軽減策への投資を優先する。 |
続く2023.11.01-02に西欧諸国だけでなく、中国も含めて英国ブレッチリーで、AI安全性サミットが開催され、そこで英国はAI安全研究所の設立を発表しましたね。。。
そして、米国も。。。
しかし、AISICメンバーを見ると、層の厚さを感じます...
商務省...
プレス...
・2024.02.08 Biden-Harris Administration Announces First-Ever Consortium Dedicated to AI Safety
Biden-Harris Administration Announces First-Ever Consortium Dedicated to AI Safety | バイデン-ハリス政権、AIの安全性に特化した初のコンソーシアムを発表 |
Consortium housed under NIST U.S. AI Safety Institute includes more than 200 leading AI stakeholders to help advance the development and deployment of safe, trustworthy AI. | NIST米国AI安全研究所の下に設置されたコンソーシアムには、安全で信頼できるAIの開発と普及を促進するために、200以上の主要なAI関係者が参加している。 |
Today, U.S. Secretary of Commerce Gina Raimondo announced the creation of the U.S. AI Safety Institute Consortium (AISIC), which will unite AI creators and users, academics, government and industry researchers, and civil society organizations in support of the development and deployment of safe and trustworthy artificial intelligence (AI). The consortium will be housed under the U.S. AI Safety Institute (USAISI) and will contribute to priority actions outlined in President Biden’s landmark Executive Order, including developing guidelines for red-teaming, capability evaluations, risk management, safety and security, and watermarking synthetic content. | ジーナ・ライモンド米商務長官は本日、米国AI安全研究所コンソーシアム(AISIC)の設立を発表した。同コンソーシアムは、安全で信頼できる人工知能(AI)の開発と普及を支援するため、AIの開発者と利用者、学者、政府および産業界の研究機関、市民団体を結集する。このコンソーシアムは、米国AI安全研究所(USAISI)の下に置かれ、レッドチーム、能力評価、リスクマネジメント、安全・セキュリティ、合成コンテンツの電子透かしに関するガイドラインの策定など、バイデン大統領の画期的な大統領令で示された優先的行動に貢献する。 |
“The U.S. government has a significant role to play in setting the standards and developing the tools we need to mitigate the risks and harness the immense potential of artificial intelligence. President Biden directed us to pull every lever to accomplish two key goals: set safety standards and protect our innovation ecosystem. That’s precisely what the U.S. AI Safety Institute Consortium is set up to help us do,” said Secretary Raimondo. “Through President Biden’s landmark Executive Order, we will ensure America is at the front of the pack – and by working with this group of leaders from industry, civil society, and academia, together we can confront these challenges to develop the measurements and standards we need to maintain America’s competitive edge and develop AI responsibly.” | 「米国政府は、標準を設定し、リスクを軽減し、人工知能の巨大な可能性を活用するために必要なツールを開発する上で、重要な役割を担っている。バイデン大統領は、安全基準の設定とイノベーション・エコシステムの保護という2つの重要な目標を達成するために、あらゆる手段を駆使するよう指示した。それこそが、米国AI安全研究所コンソーシアムが設立された目的なのです」とライモンド長官は語った。「バイデン大統領の画期的な大統領令を通じて、我々はアメリカが先頭を走ることを確実にする。産業界、市民社会、学界のリーダーからなるこのグループと協力することで、我々は共にこれらの課題に立ち向かい、アメリカの競争力を維持し、責任を持ってAIを開発するために必要な測定と標準を開発することができる。 |
“To keep pace with AI, we have to move fast and make sure everyone – from the government to the private sector to academia – is rowing in the same direction. Thanks to President Biden's landmark Executive Order, the AI Safety Consortium provides a critical forum for all of us to work together to seize the promise and manage the risks posed by AI,” said Bruce Reed, White House Deputy Chief of Staff. | 「AIと歩調を合わせるためには、政府から民間セクター、学界に至るまで、すべての人が同じ方向を向いていることを確認し、迅速に行動しなければならない。バイデン大統領の画期的な大統領令のおかげで、AIセーフティ・コンソーシアムは、AIがもたらす可能性を捉え、リスクをマネジメントするために、私たち全員が協力するための重要なフォーラムを提供している」と、ホワイトハウス副主席補佐官のブルース・リードは語った。 |
The consortium includes more than 200 member companies and organizations that are on the frontlines of creating and using the most advanced AI systems and hardware, the nation’s largest companies and most innovative startups, civil society and academic teams that are building the foundational understanding of how AI can and will transform our society, and representatives of professions with deep engagement in AI’s use today. The consortium represents the largest collection of test and evaluation teams established to date and will focus on establishing the foundations for a new measurement science in AI safety. The consortium also includes state and local governments, as well as non-profits, and will work with organizations from like-minded nations that have a key role to play in developing interoperable and effective tools for safety around the world. | コンソーシアムには、最先端のAIシステムやハードウェアを開発・使用する最前線にいる200以上の企業や組織、国内最大手企業や最も革新的な新興企業、AIがどのように我々の社会を変革しうるかについての基礎的な理解を構築している市民団体や学術チーム、そして今日のAI利用に深く関与している専門職の代表者が参加している。このコンソーシアムは、これまでに設立されたテスト・評価チームの最大の集合体であり、AIの安全性における新たな測定科学の基礎を確立することに重点を置く。コンソーシアムには、州政府や地方自治体、非営利団体も参加し、世界中の安全に関する相互運用可能で効果的なツールの開発において重要な役割を担う、志を同じくする国々の組織とも協力する。 |
The full list of consortium participants is available here. | コンソーシアム参加者の全リストはこちらで入手できる。 |
● NIST
・2024.02.08 Biden-Harris Administration Announces First-Ever Consortium Dedicated to AI Safety
Biden-Harris Administration Announces First-Ever Consortium Dedicated to AI Safety | バイデン-ハリス政権は、AIの安全性に特化した初のコンソーシアムを発表した。 |
Consortium includes more than 200 leading AI stakeholders and will support the U.S. AI Safety Institute at the National Institute of Standards and Technology. | コンソーシアムには200以上の主要なAI関係者が参加し、国立標準技術研究所の米国AI安全研究所を支援する。 |
Today, U.S. Secretary of Commerce Gina Raimondo announced the creation of the U.S. AI Safety Institute Consortium (AISIC), which will unite AI creators and users, academics, government and industry researchers, and civil society organizations in support of the development and deployment of safe and trustworthy artificial intelligence (AI). The consortium will be housed under the U.S. AI Safety Institute (USAISI) and will contribute to priority actions outlined in President Biden’s landmark Executive Order, including developing guidelines for red-teaming, capability evaluations, risk management, safety and security, and watermarking synthetic content. | ジーナ・ライモンド米商務長官は本日、米国AI安全性研究所コンソーシアム(AISIC)の設立を発表した。同コンソーシアムは、安全で信頼できる人工知能(AI)の開発と普及を支援するため、AIのクリエーターとユーザー、学者、政府および産業界の研究機関、市民団体を統合する。このコンソーシアムは、米国AI安全研究所(USAISI)の下に置かれ、レッドチーム、能力評価、リスクマネジメント、安全・セキュリティ、合成コンテンツの電子透かしに関するガイドラインの策定など、バイデン大統領の画期的な大統領令で示された優先的行動に貢献する。 |
The consortium includes more than 200 member companies and organizations that are on the frontlines of creating and using the most advanced AI systems and hardware, the nation’s largest companies and most innovative startups, civil society and academic teams that are building the foundational understanding of how AI can and will transform our society, and representatives of professions with deep engagement in AI’s use today. The consortium represents the largest collection of test and evaluation teams established to date and will focus on establishing the foundations for a new measurement science in AI safety. The consortium also includes state and local governments, as well as non-profits, and will work with organizations from like-minded nations that have a key role to play in developing interoperable and effective tools for safety around the world. | このコンソーシアムには、最先端のAIシステムやハードウェアを開発・利用する最前線にいる200以上の企業や組織、国内最大手企業や最も革新的な新興企業、AIがどのように社会を変革しうるか、また変革していくかという基礎的な理解を構築している市民団体や学術チーム、そして今日のAI利用に深く関与している専門職の代表者が参加している。このコンソーシアムは、これまでに設立されたテスト・評価チームの最大の集合体であり、AIの安全性における新たな測定科学の基礎を確立することに重点を置く。このコンソーシアムには、州政府や地方自治体、非営利団体も参加しており、世界中の安全のために相互運用可能で効果的なツールを開発する上で重要な役割を担う、志を同じくする国々の組織とも協力していく。 |
“AI is moving the world into very new territory. And like every new technology, or every new application of technology, we need to know how to measure its capabilities, its limitations, its impacts. That is why NIST brings together these incredible collaborations of representatives from industry, academia, civil society and the government, all coming together to tackle challenges that are of national importance.” | 「AIは世界を非常に新しい領域へと導いている。そして、あらゆる新しい技術、あるいは技術のあらゆる新しい応用のように、我々はその能力、限界、影響を測定する方法を知る必要がある。だからこそNISTは、産業界、学術界、市民社会、政府の代表者が、国家的に重要な課題に取り組むために、このような素晴らしいコラボレーションを実現させているのだ。 |
— Under Secretary of Commerce for Standards and Technology and NIST Director Laurie E. Locascio at a Feb. 8, 2024, press briefing announcing the consortium | - 標準技術担当商務次官兼NIST理事ローリー・E・ロカシオ、2024年2月8日、コンソーシアム発表記者会見にて |
The full list of consortium participants is available online. | コンソーシアム参加者の全リストはオンラインで入手できる。 |
Read the full Department of Commerce press release. | 商務省のプレスリリースを読む。 |
コンソーシアムのウェブサイト...
● NIST - U.S. ARTIFICIAL INTELLIGENCE SAFETY INSTITUTE
U.S. ARTIFICIAL INTELLIGENCE SAFETY INSTITUTE | 米国人工知能安全研究所 |
On February 7, 2024 US Secretary of Commerce Gina Raimondo announced key members of the executive leadership team to lead the U.S. AI Safety Institute (USAISI), which will be established at the National Institute of Standards and Technology (NIST). Read announcement. | 2024年2月7日、ジーナ・ライモンド米商務長官は、国立標準技術研究所(NIST)に設立される米国AI安全研究所(USAISI)を率いる幹部チームの主要メンバーを発表した。発表を読む。 |
In support of efforts to create safe and trustworthy artificial intelligence (AI), NIST is establishing the U.S. Artificial Intelligence Safety Institute (USAISI). To support this Institute, NIST has created the U.S. AI Safety Institute Consortium. The Consortium brings together more than 200 organizations to develop science-based and empirically backed guidelines and standards for AI measurement and policy, laying the foundation for AI safety across the world. This will help ready the U.S. to address the capabilities of the next generation of AI models or systems, from frontier models to new applications and approaches, with appropriate risk management strategies. | 安全で信頼できる人工知能(AI)の実現に向けた取り組みを支援するため、NISTは米国人工知能安全研究所(USAISI)を設立する。この研究所を支援するため、NISTは米国人工知能安全研究所コンソーシアムを設立した。このコンソーシアムには200以上の組織が参加し、科学的根拠と実証的裏付けに基づいたAIの測定と政策に関するガイドラインと標準を開発し、世界中のAIの安全性の基礎を築く。これにより米国は、フロンティアモデルから新しいアプリケーションやアプローチまで、次世代のAIモデルやシステムの能力に適切なリスクマネジメント戦略で対応できるようになる。 |
Artificial Intelligence Safety Institute Consortium (AISIC) | 人工知能安全研究所コンソーシアム(AISIC) |
MEMBERS | メンバー |
MEMBER PERSPECTIVES | メンバーの視点 |
WORKING GROUPS | ワーキンググループ |
FAQS | よくある質問 |
Overview | 概要 |
On February 8, 2024, U.S. Secretary of Commerce Gina Raimondo announced the creation of the U.S. AI Safety Institute Consortium (AISIC). Housed under NIST, the Consortium will unite AI creators and users, academics, government and industry researchers, and civil society organizations in support of the development and deployment of safe and trustworthy artificial intelligence (AI). Read announcement. | 2024年2月8日、ジーナ・ライモンド米商務長官は、米国AI安全研究所コンソーシアム(AISIC)の設立を発表した。同コンソーシアムはNISTの傘下に置かれ、安全で信頼できる人工知能(AI)の開発と普及を支援するため、AIの創造者と利用者、学者、政府および産業界の研究者、市民団体を結びつける。発表を読む。 |
Read member perspectives. | メンバーの見解を読む。 |
Building upon its long track record of working with the private and public sectors and its history of reliable and practical measurement and standards-oriented solutions, NIST works with research collaborators through the AISIC who can support this vital undertaking. Specifically, it will: | NISTは、民間部門および公的部門との協力における長年の実績と、信頼性が高く実用的な測定および標準指向ソリューションの歴史に基づき、AISICを通じて、この重要な事業を支援できる研究協力者と協力する。具体的には |
・Establish a knowledge and data sharing space for AI stakeholders | ・AI関係者のための知識とデータ共有空間を確立する。 |
・Engage in collaborative and interdisciplinary research and development through the performance of the Research Plan | ・研究計画の遂行を通じて、共同的かつ学際的な研究開発に取り組む。 |
・Prioritize research and evaluation requirements and approaches that may allow for a more complete and effective understanding of AI’s impacts on society and the US economy | ・AIが社会と米国経済に与える影響をより完全かつ効果的に理解するための研究・評価要件とアプローチに優先順位をつける。 |
・Identify and recommend approaches to facilitate the cooperative development and transfer of technology and data between and among Consortium Members | ・コンソーシアムメンバー間およびメンバー間での技術やデータの共同開発および移転を促進するためのアプローチを識別し、推奨する。 |
・Identify mechanisms to streamline input from federal agencies on topics within their direct purviews | ・連邦機関が直接管轄するトピックについて、連邦機関からのインプットを効率化するメカニズムを特定する。 |
・Enable assessment and evaluation of test systems and prototypes to inform future AI measurement efforts | ・将来のAI測定の取り組みに情報を提供するため、テストシステムやプロトタイプの評価と査定を可能にする。 |
To create a lasting approach for continued joint research and development, the work of the consortium will be open and transparent and provide a hub for interested parties to work together in building and maturing a measurement science for trustworthy and responsible AI. | 継続的な共同研究開発のための永続的なアプローチを構築するため、コンソーシアムの活動はオープンで透明性のあるものとし、信頼できる責任あるAIのための測定科学を構築し成熟させるために、関係者が協力するためのハブを提供する。 |
Consortium members contributions will support one of the following areas: | コンソーシアムメンバーの貢献は、以下の分野のいずれかをサポートする: |
1. Develop new guidelines, tools, methods, protocols and best practices to facilitate the evolution of industry standards for developing or deploying AI in safe, secure, and trustworthy ways | 新しいガイドライン、ツール、手法、プロトコル、ベストプラクティスを開発し、安全、安心、信頼できる方法でAIを開発・導入するための業界標準の進化を促進する。 |
2. Develop guidance and benchmarks for identifying and evaluating AI capabilities, with a focus on capabilities that could potentially cause harm | 潜在的に危害をもたらす可能性のある能力を中心に、AIの能力を識別・評価するためのガイダンスとベンチマークを開発する。 |
3. Develop approaches to incorporate secure-development practices for generative AI, including special considerations for dual-use foundation models, including | デュアルユースの基盤モデルに対する特別な配慮を含む、生成的AIに対する安全な開発手法を取り入れるためのアプローチを開発する。 |
・Guidance related to assessing and managing the safety, security, and trustworthiness of models and related to privacy-preserving machine learning; | モデルの安全性、セキュリティ、信頼性を評価・管理するためのガイダンス、およびプライバシーを保護する機械学習に関連するガイダンス; |
・Guidance to ensure the availability of testing environments | テスト環境の利用可能性を確保するためのガイダンス |
4. Develop and ensure the availability of testing environments | テスト環境の開発と利用可能性の確保 |
5. Develop guidance, methods, skills and practices for successful red-teaming and privacy-preserving machine learning | レッドチームとプライバシー保護機械学習を成功させるためのガイダンス、方法、スキル、プラクティスを開発する。 |
6. Develop guidance and tools for authenticating digital content | デジタルコンテンツの本人認証のためのガイダンスとツールを開発する。 |
7. Develop guidance and criteria for AI workforce skills, including risk identification and management, test, evaluation, validation, and verification (TEVV), and domain-specific expertise | リスクの特定とマネジメント、テスト、評価、検証、検証(TEVV)、ドメイン固有の専門知識など、AI労働者のスキルに関するガイダンスと基準を策定する。 |
8. Explore the complexities at the intersection of society and technology, including the science of how humans make sense of and engage with AI in different contexts | 人間がどのようにAIを理解し、様々な文脈でAIと関わっていくかという科学を含め、社会と技術の交差点における複雑性を探求する。 |
9. Develop guidance for understanding and managing the interdependencies between and among AI actors along the lifecycle | ライフサイクルに沿ったAI関係者間の相互依存関係を理解し管理するためのガイダンスを作成する。 |
Membership Process | 入会プロセス |
Organizations had 75 days (between Nov. 2, 2023, and Jan. 15, 2024) to submit a letter of interest as described in the Federal Register. | 75日間(2023年11月2日~2024年1月15日)の間に、連邦官報に記載された関心事項を提出する。 |
NIST received over 600 Letters of Interest from organizations across the AI stakeholder community and the United States. As of February 8, 2024, the consortium includes more than 200 member companies and organizations. | NISTは、AI関係者コミュニティおよび米国内の組織から600通を超える関心状を受け取った。2024年2月8日現在、コンソーシアムには200以上の企業・団体が加盟している。 |
NIST will continue to onboard organizations into the Consortium, which submitted Letters of Interest prior to the January 15, 2024, deadline. For questions, contact usaisi@nist.gov. | NISTは、2024年1月15日の期限前に関心表明書を提出した組織のコンソーシアムへの加入を継続する。質問については、usaisi@nist.gov。 |
There may be continuing opportunity to participate in the Consortium even after initial activity commences for participants not selected initially or which submitted their letter of interest after the selection process. Selected participants will be required to enter into a consortium CRADA with NIST. At NIST’s discretion, entities which are not permitted to enter into CRADAs pursuant to law may be allowed to participate in the Consortium pursuant to separate non-CRADA agreement. | 当初選考されなかった参加者、あるいは選考後に関心表明書を提出した参加者については、最初の活動開始後もコンソーシアムに参加する機会が継続される可能性がある。選定された参加者は、NISTとコンソーシアムCRADAを締結することが求められる。 NISTの裁量により、法律に従ってCRADAを締結することが許可されていない事業体は、別途の非CRADA契約に従ってコンソーシアムへの参加を許可される場合がある。 |
NIST cannot guarantee that all submissions will be used, or the products proposed by respondents will be used in consortium activities. Each prospective participant will be expected to work collaboratively with NIST staff and other project participants under the terms of the Consortium CRADA. | NISTは、すべての提出書類が使用されること、あるいは回答者が提案した製品がコンソーシアムの活動で使用されることを保証することはできない。各参加予定者は、コンソーシアムCRADAの条件の下で、NISTのスタッフおよび他のプロジェクト参加者と協力的に作業することが期待される。 |
An evaluation copy of the Artificial Intelligence Safety Institute Consortium Cooperative Research and Development Agreement (CRADA) is now available (read here). | 人工知能安全性研究所コンソーシアム共同研究開発契約(CRADA)の評価コピーは現在入手可能である(ここを読む)。 |
Members | メンバー |
人事関係...
商務省...
U.S. Commerce Secretary Gina Raimondo Announces Key Executive Leadership at U.S. AI Safety Institute | ジーナ・ライモンド米商務長官、米国AI安全研究所の主要幹部体制を発表 |
The National Institute for Standards and Technology (NIST) at Commerce will house the U.S. AI Safety Institute | 商務省の国立標準技術研究所(NIST)に米国AI安全研究所が設置される。 |
U.S. Secretary of Commerce Gina Raimondo announced today key members of the executive leadership team to lead the U.S. AI Safety Institute (AISI), which will be established at the National Institute for Standards and Technology (NIST). Raimondo named Elizabeth Kelly to lead the Institute as its inaugural Director and Elham Tabassi to serve as Chief Technology Officer. The U.S. AI Safety Institute was established under NIST at the direction of President Biden to support the responsibilities assigned to the Department of Commerce under the President’s landmark Executive Order. | ジーナ・ライモンド米商務長官は本日、国立標準技術研究所(NIST)に設立される米国AI安全研究所(AISI)を率いる幹部チームの主要メンバーを発表した。ライモンド氏は、初代所長としてエリザベス・ケリー氏を、最高技術責任者としてエルハム・タバシ氏を指名した。米国AI安全研究所は、大統領の画期的な大統領令により商務省に割り当てられた機構をサポートするため、バイデン大統領の指示によりNISTの下に設立された。 |
“For the United States to lead the world in the development of safe, responsible AI, we need the brightest minds at the helm. I’m proud to announce that Elizabeth Kelly will lead the AI Safety Institute. I’m also thrilled that Elham Tabassi will expand her work at NIST and play a central role on our executive leadership team. Together, they will provide the direction and expertise we need to mitigate the risks that come with the development of this generation-defining technology, so that we can harness its potential,” said Secretary Raimondo. “Thanks to President Biden’s leadership, we’re in a position of power to meet the challenges posed by AI, while fostering America’s greatest strength: innovation.” | ライモンド長官は以下のように述べた。「米国が安全で責任あるAIの開発で世界をリードするためには、最も優秀な頭脳が必要だ。エリザベス・ケリーがAI安全機構を率いることを発表できることを誇りに思う。また、エルハム・タバシがNISTでの仕事を拡大し、我々のエグゼクティブ・リーダーシップ・チームで中心的な役割を果たしてくれることを嬉しく思う。彼らは共に、この生成的技術の開発に伴うリスクを軽減し、その可能性を活用できるようにするために必要な方向性と専門知識をプロバイダとして提供してくれるだろう。バイデン大統領のリーダーシップのおかげで、われわれはAIがもたらす課題に対応する力を持ち、同時にアメリカの最大の強みであるイノベーションを育むことができる。 |
“Elizabeth has been a driving force behind President Biden’s AI executive order to advance safe, secure, and trustworthy AI. I am thrilled that she will now be standing up the AI Safety Institute under Secretary Raimondo’s leadership,” said Bruce Reed, Deputy Chief of Staff to the President. | ブルース・リード大統領補佐官は、以下のように述べた。「エリザベスは、安全、安心、信頼できるAIを推進するため、バイデン大統領のAI大統領令を後押ししてきた。彼女がライモンド長官のリーダーシップの下で、AI安全機構を立ち上げることになり、感激している。」 |
“Elizabeth Kelly is a great choice to lead the AI Safety Institute, which is essential for governing and benefitting from AI. She brings an understanding of the real-world implications of AI—how the use of this powerful technology affects people and business. I’m confident she will build on NIST’s strong track record to deliver on the charges in President Biden’s executive order,” said White House Office of Science and Technology Policy Director and former NIST Director Arati Prabhakar. | ホワイトハウスの米国科学技術政策局局長で元NIST局長のアラティ・プラバカール氏は以下のように述べた。「エリザベス・ケリーは、AIをガバナンスし、その恩恵を享受するために不可欠なAI安全機構を率いるにふさわしい人物だ。彼女は、AIの現実世界への影響について理解しており、この強力な技術の使用が人々やビジネスにどのような影響を与えるかを理解している。彼女はNISTの強力な実績を基に、バイデン大統領の大統領令の責任を果たしてくれると確信している。」 |
“Elizabeth is a talented leader who shaped the President’s agenda on tech and financial regulation and worked to build broad coalitions of stakeholders. She was a key contributor to the design and implementation of the President’s Executive Order on Artificial Intelligence. Elizabeth has been a valued member of President Biden’s team at the White House, and we are delighted that she will continue to advance the President’s agenda on AI at the Department of Commerce,” said Lael Brainard, National Economic Advisor. | ラエル・ブレイナード国家経済顧問は以下のように述べた。「エリザベスは、技術および金融規制に関する大統領のアジェンダを形成し、利害関係者の幅広い連合体の構築に取り組んだ才能あるリーダーだ。彼女は、人工知能に関する大統領令の策定と実施に大きく貢献した。エリザベスはホワイトハウスでバイデン大統領のチームの重要なメンバーであり、彼女が商務省でAIに関する大統領のアジェンダを引き続き推進してくれることを嬉しく思う。 |
“I am confident that under the leadership of Elizabeth Kelly, and Elham Tabassi, the U.S. AI Safety Institute will be well positioned to develop the measurement science needed to promote safe and trustworthy development of AI,” said Under Secretary of Commerce for Standards and Technology and NIST Director Laurie E. Locascio. | 標準技術担当商務次官兼NIST理事 ローリー・E・ロカシオ氏は以下のように述べた。「エリザベス・ケリーとエルハム・タバシのリーダーシップの下、米国AI安全研究所は、AIの安全で信頼できる開発を促進するために必要な測定科学を開発するのに適した位置にあると確信している。 |
“The Safety Institute’s ambitious mandate to develop guidelines, evaluate models, and pursue fundamental research will be vital to addressing the risks and seizing the opportunities of AI. I am thrilled to work with the talented NIST team and the broader AI community to advance our scientific understanding and foster AI safety. While our first priority will be executing the tasks assigned to NIST in President Biden’s executive order, I look forward to building the Institute as a long-term asset for the country and the world,” said Elizabeth Kelly, Special Assistant to the President for Economic Policy. | エリザベス・ケリー大統領特別補佐官(経済政策担当)は以下のように述べた。「ガイドラインを策定し、モデルを評価し、基礎研究を行うという安全研究所の野心的な任務は、AIのリスクに対処し、機構を活用するために不可欠である。優秀なNISTチームや幅広いAIコミュニティと協力し、科学的理解を深め、AIの安全性を促進できることをうれしく思う。バイデン大統領の大統領令でNISTに与えられた機構を遂行することが最優先だが、私はこの研究所を国と世界の長期的な資産として構築することを楽しみにしている」と |
“The USAISI will advance American leadership globally in responsible AI innovations that will make our lives better. We must have a firm understanding of the technology, its current and emerging capabilities, and limitations. NIST is taking the lead to create the science, practice, and policy of AI safety and trustworthiness. I am thrilled to be part of this remarkable team, leading the effort to develop science-based, and empirically backed guidelines and standards for AI measurement and policy,” said Elham Tabassi, Chief AI Advisor for NIST. | NISTのチーフAIアドバイザーであるエルハム・タバシ氏は、以下のように述べた。「USAISIは、私たちの生活をより良いものにする責任あるAIイノベーションにおいて、世界的に米国のリーダーシップを前進させる。我々は、技術、その現状と新たな能力、限界をしっかりと理解しなければならない。NISTは、AIの安全性と信頼性についての科学、実践、政策を率先して構築している。私はこの素晴らしいチームの一員となり、科学的根拠に基づき、実証的に裏付けされたAIの測定と政策に関するガイドラインと標準を開発する取り組みをリードできることに興奮している」 |
Elizabeth Kelly, as AISI Director, will be responsible for providing executive leadership, management, and oversight of the AI Safety Institute and coordinating with other AI policy and technical initiatives throughout the Department, NIST, and across the government. Elizabeth Kelly serves as Special Assistant to the President for Economic Policy at the White House National Economic Council, where she helps lead the Administration's efforts on financial regulation and technology policy, including artificial intelligence. Elizabeth was a driving force behind the domestic components of the AI executive order, spearheading efforts to promote competition, protect privacy, and support workers and consumer, and helped lead Administration engagement with allies and partners on AI governance. Elizabeth holds a J.D. from Yale Law School, an MSc in Comparative Social Policy from the University of Oxford, and a B.A. from Duke University. | エリザベス・ケリーは、AISI所長として、AI安全研究所のエグゼクティブ・リーダーシップ、管理、監督を行い、政府、NIST、そして政府全体の他のAI政策・技術機構との調整を行う。エリザベス・ケリーは、ホワイトハウス国家経済会議の経済政策担当大統領特別補佐官として、金融規制と人工知能を含む技術政策に関する政権の取り組みを主導している。エリザベス・ケリーは、AI大統領令の国内部門を牽引し、競争の促進、プライバシーの保護、労働者と消費者の支援に率先して取り組み、また、AIガバナンスに関する同盟国やパートナーとの政府関与を主導した。彼女はエール大学ロースクールで法学博士号、オックスフォード大学で比較社会政策の修士号、デューク大学で学士号を取得している。 |
Elham Tabassi, as the Chief Technology Officer, will be responsible for leading key technical programs of the institute, focused on supporting the development and deployment of AI that is safe, secure and trustworthy. She will be responsible for shaping efforts at NIST and with the broader AI community to conduct research, develop guidance, and conduct evaluations of AI models including advanced large language models in order to identify and mitigate AI safety risks. Elham Tabassi has played a leading role in the Department’s AI work at NIST, and in 2023 was named one of TIME Magazine’s 100 Most Influential People in AI. As NIST’s Trustworthy and Responsible AI program lead, she spearheaded development of the widely acclaimed NIST AI Risk Management Framework (AI RMF), a voluntary tool that supports better management of risks to individuals, organizations, and society associated with AI. Tabassi is a Senior Research Scientist and most recently served as the Associate Director for Emerging Technologies in NIST’s Information Technology Laboratory (ITL). In that role, she helped guide strategic direction for research, development, standards, testing and evaluation in the areas of emerging technologies such as artificial intelligence. | エルハム・タバシは、最高技術責任者として、安全、安心、信頼できるAIの開発と普及を支援することに重点を置き、研究所の主要な技術機構を率いる。彼女は、AIの安全性リスクを特定し、軽減するために、NISTおよびより広範なAIコミュニティとともに、研究を実施し、ガイダンスを開発し、高度な大規模言語モデルを含むAIモデルの評価を実施するための取り組みを形成する責任を負う。エルハム・タバシは、NISTにおける同省のAI業務で指導的な役割を果たし、2023年にはTIME誌の「AI分野で最も影響力のある100人」に選出された。NISTのTrustworthy and Responsible AIプログラムリーダーとして、AIに関連する個人、組織、社会に対するリスクマネジメントの向上を支援する自主的なツールであり、広く称賛されているNIST AIリスクマネジメントフレームワーク(AI RMF)の開発の陣頭指揮を執った。タバシは上級研究員であり、直近ではNISTの情報技術研究所(ITL)の新興技術担当副所長を務めた。その職務において、彼女は人工知能などの新興技術分野における研究、開発、標準、試験、評価の戦略的方向性を導くのに貢献した。 |
NIST...
・2024.02.07 U.S. Commerce Secretary Gina Raimondo Announces Key Executive Leadership at U.S. AI Safety Institute
U.S. Commerce Secretary Gina Raimondo Announces Key Executive Leadership at U.S. AI Safety Institute | ジーナ・ライモンド米商務長官、米国AI安全研究所の主要幹部を発表 |
The National Institute for Standards and Technology (NIST) at Commerce will house the U.S. AI Safety Institute. | 米国商務省の国立標準技術研究所(NIST)に米国AI安全研究所が設置される。 |
U.S. Secretary of Commerce Gina Raimondo announced today key members of the executive leadership team to lead the U.S. AI Safety Institute (AISI), which will be established at the National Institute for Standards and Technology (NIST). Raimondo named Elizabeth Kelly to lead the institute as its inaugural director and Elham Tabassi to serve as chief technology officer. The U.S. AI Safety Institute was established under NIST at the direction of President Biden to support the responsibilities assigned to the Department of Commerce under the president’s landmark Executive Order. | ジーナ・ライモンド米商務長官は本日、国立標準技術研究所(NIST)に設立される米国AI安全研究所(AISI)を率いる幹部チームの主要メンバーを発表した。ライモンド氏は、初代所長としてエリザベス・ケリー氏を、最高技術責任者としてエルハム・タバシ氏を指名した。米国AI安全研究所は、大統領の画期的な大統領令により商務省に割り当てられた機構を支援するため、バイデン大統領の指示によりNISTの下に設立された。 |
“I am confident that under the leadership of Elizabeth Kelly, and Elham Tabassi, the U.S. AI Safety Institute will be well positioned to develop the measurement science needed to promote safe and trustworthy development of AI,” said Under Secretary of Commerce for Standards and Technology and NIST Director Laurie E. Locascio. | 「エリザベス・ケリーとエルハム・タバシのリーダーシップの下で、米国AI安全研究所は、AIの安全で信頼できる開発を促進するために必要な測定科学を開発するのに適した立場にあると確信している。 |
“The Safety Institute’s ambitious mandate to develop guidelines, evaluate models, and pursue fundamental research will be vital to addressing the risks and seizing the opportunities of AI. I am thrilled to work with the talented NIST team and the broader AI community to advance our scientific understanding and foster AI safety. While our first priority will be executing the tasks assigned to NIST in President Biden’s executive order, I look forward to building the institute as a long-term asset for the country and the world,” said Elizabeth Kelly, special assistant to the president for economic policy. | 「ガイドラインを策定し、モデルを評価し、基礎研究を行うという安全研究所の野心的な任務は、AIのリスクに対処し、機構を活用するために不可欠である。優秀なNISTチームや幅広いAIコミュニティと協力し、科学的理解を深め、AIの安全性を促進できることをうれしく思う。バイデン大統領の大統領令でNISTに与えられた機構を遂行することが最優先だが、私はこの研究所を国と世界の長期的な資産として構築することを楽しみにしている」と、経済政策担当大統領特別補佐官のエリザベス・ケリーは語った。 |
“The USAISI will advance American leadership globally in responsible AI innovations that will make our lives better. We must have a firm understanding of the technology, its current and emerging capabilities, and limitations. NIST is taking the lead to create the science, practice, and policy of AI safety and trustworthiness. I am thrilled to be part of this remarkable team, leading the effort to develop science-based, and empirically backed guidelines and standards for AI measurement and policy,” said Elham Tabassi, chief AI advisor for NIST. | 「USAISIは、我々の生活をより良くする責任あるAIイノベーションにおいて、世界的に米国のリーダーシップを前進させるだろう。われわれは、この技術、その現在および将来の能力、そして限界についてしっかりと理解しなければならない。NISTは、AIの安全性と信頼性の科学、実践、政策を率先して構築している。NISTのチーフAIアドバイザーであるエルハム・タバシ氏は、「私はこの素晴らしいチームの一員として、科学的根拠に基づき、実証的に裏付けされたAIの測定と政策に関するガイドラインと標準を開発する取り組みをリードできることに興奮している」と語った。 |
Read the complete news release on the Department of Commerce website. | 商務省のウェブサイトでニュースリリース全文を読む。 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2023.11.05 英国 AI安全研究所の設立 (2023.11.02)
・2023.11.02 英国 AI安全サミット出席国によるブレッチリー宣言
・2023.10.30 英国 科学技術革新省 フロンティアAI:その能力とリスク - ディスカッション・ペーパー
・2023.08.25 英国 AIサミットは11月1日2日にブレッチリー・パークで開催
・2023.04.29 英国 AIに関する英国政府の発表をいくつか。。。
・2023.10.31 外務省 G7 広島AIプロセスに関するG7首脳声明
・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令
・2023.10.30 中国 グローバルAIガバナンス・イニシアティブ (2023.10.19)
・2023.10.30 経団連 AI活用戦略Ⅱ -わが国のAI-Powered化に向けて- (2023.10.17)
・2023.10.25 インド AIに関する専門家の報告書「インディアAI 2023」を公表 (2023.10.14)
« Five Eyes 中華人民共和国の支援を受けたサイバーアクターが米国の重要インフラに潜伏し、攻撃できる体制を整えていると判断... (2024.02.07) | Main | 英国 AI保証への導入ガイダンス (2024.02.12) »
Comments