米国 IT産業協議会 (ITI) AIレッドチーム、ステークホルダーの参画、標準開発に関するNISTへの提言
こんにちは、丸山満彦です。
米国 IT産業協議会 (ITI) が、NISTに対して、AIレッドチーム、ステークホルダーの参画、標準開発に関する提言をしていますね...
日本のIT産業協会も米国のITIと連携して、いろいろと提言をするのがよいのかもしれませんね。。。
● Information Technology Industry Council (ITI)
・2024.02.02 ITI Offers Recommendations to NIST on AI Red-Teaming, Stakeholder Engagement, and Standards Development
ITI Offers Recommendations to NIST on AI Red-Teaming, Stakeholder Engagement, and Standards Development | ITI、AIのレッドチーム、ステークホルダーの参画、標準開発に関してNISTに提言を行う |
WASHINGTON – Today, global tech trade association ITI responded to National Institute of Standards and Technology (NIST)’s request for information related to NIST's assignments in U.S. President Biden’s Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. | ワシントン - 本日、世界的なハイテク業界団体である ITI は、バイデン米大統領の「安全、安心、信頼できる人工知能」に関する大統領令における NIST の機構に関連する情報を求める国立標準技術研究所(National Institute of Standards and Technology: NIST)の要請に回答した。 |
In its comments, ITI recommends that: | ITIはコメントの中で、以下のことを提言している: |
・NIST work with international counterparts while developing a generative AI Risk Management Framework (RMF) to increase alignment of approaches across borders, including leveraging international standards; | ・NISTは、生成的AIリスクマネジメントフレームワーク(RMF)を開発しながら、国際標準の活用を含め、国境を越えたアプローチの整合性を高めるために、国際的なカウンターパートと協力する; |
・Consider the important roles of developers and deployers, as well as others across the AI ecosystem, in advancing transparency for generative AI systems; | ・生成的AIシステムの透明性を向上させる上で、開発者や輸入事業者だけでなく、AIエコシステム全体の重要な役割を考慮すること; |
・Ensure that evaluation and auditing are scoped to the level of risk an AI system poses; | ・評価と監査が、AIシステムがもたらすリスクのレベルに応じて行われるようにする; |
・Recognize that cybersecurity red-teaming is different from AI red-teaming, differentiate between red-teaming an AI model vs. red-teaming an AI system, and avoid construing red-teaming as a catch-all solution for risk management; | ・サイバーセキュリティのレッドチームはAIのレッドチームとは異なることを認識し、AIモデルのレッドチームとAIシステムのレッドチームを区別し、レッドチームをリスクマネジメントの万能ソリューションとして解釈することを避ける; |
・Consider a flexible and risk-based approach that allows for the use of multiple content authentication techniques appropriate to the level of risk and use case; and | ・リスクレベルとユースケースに適した複数のコンテンツ認証技術の使用を可能にする、柔軟でリスクベースのアプローチを検討する。 |
・In developing a global AI standards development and engagement plan, maintain international consistency to the extent possible and continue to recognize the importance of stakeholder engagement in standards development bodies. | ・グローバルなAI標準の開発および関与計画を策定する際には、可能な限り国際的な一貫性を維持し、標準開発団体における利害関係者の関与の重要性を引き続き認識する。 |
“We believe that a generative AI RMF or profile, standards and guidelines for AI red-teaming and model evaluation, and a plan to engage in and advance the development of international standards are all integral to advancing the development and deployment of trustworthy AI. We look forward to continuing to collaborate with NIST as they progress these efforts and encourage NIST to view ITI as a resource,” ITI wrote in its comments. | 「生成的AI RMFまたはプロファイル、AIのレッドチームとモデル評価のための標準とガイドライン、国際標準の開発に関与し推進する計画はすべて、信頼できるAIの開発と配備を推進するために不可欠であると考える。我々は、NISTがこれらの取り組みを進める中で、NISTとの協力を継続することを楽しみにしており、NISTがITIをリソースとして捉えることを奨励する」と、ITIはコメントで書いている。 |
Read ITI’s full comments here. | ITIのコメント全文はこちら。 |
ITI has reiterated that safe and responsible AI development and deployment must be grounded in trust, transparency, ethics, and collaboration among government, industry, civil society, and academia. INCITS, an affiliate division of ITI, serves as the U.S. technical advisory group to the international standards body that recently published a standard for managing the risks and opportunities of AI. This management system standard supports improved quality, security, traceability, transparency, and reliability of AI applications. | ITIは、安全で責任あるAIの開発と導入は、信頼、透明性、倫理、政府、産業界、市民社会、学界の協力に基づかなければならないと繰り返し述べている。ITIの関連部門であるINCITSは、最近AIのリスクと機会をマネジメントする標準を発表した国際標準化団体の米国技術諮問グループを務めている。この管理システム標準は、AIアプリケーションの品質、セキュリティ、トレーサビリティ、透明性、信頼性の改善をサポートする。 |
In January, ITI unveiled a new guide for global policymakers, Authenticating AI-Generated Content: Exploring Risks, Techniques & Policy Recommendations, aiming to address the pressing need to authenticate AI-generated content, including chatbots, image, and audio generators. | ITIは1月、世界の政策立案者向けの新しいガイド「AI生成的コンテンツの本人認証」を発表した: これは、チャットボット、画像、音声の生成者を含むAI生成的コンテンツを認証する差し迫った必要性に対処することを目的としている。 |
・[PDF]
・[DOCX] 仮訳
年初にIHIが公表したAI生成コンテンツの真正性確認...
● まるちゃんの情報セキュリティ気まぐれ日記
・2024.01.11 米国 IT産業協議会 (ITI) AI生成コンテンツの真正性確認
« 米国 意見募集 FedRAMP 新技術優先順位付けフレームワーク - 概要 (2024.01.26) | Main | 英国 NCSC AIによるサイバー脅威への短期的影響 - ランサムウェアの脅威はAIによって増加すると警告 (2024.01.24) »
Comments