AI/Deep Learning

2024.04.14

米国 EPIC他 テック・プラットフォーマーにAIによる選挙偽情報に対抗するように要請

こんにちは、丸山満彦です。

米国の電子プライバシー情報センター (Electronic Privacy Information Center, EPIC) など、200を超える団体とともに、プラットフォーマ(Meta、X、Tiktok など)に対して、AIを使った選挙偽情報に対抗するよう働きかけているようですね。。。

民主主義の根幹に関わる問題ですからね...

プラットフォーマーもここまで社会に影響を及ぼせるような能力をもってしまうと社会的な影響が大きいですから、仕方ないですね...

 

Electronic Privacy Information Center, EPIC

・2024.04.09 EPIC Joins More than 200 Organizations Urging Tech Platforms to Combat AI Election Disinformation

 

EPIC Joins More than 200 Organizations Urging Tech Platforms to Combat AI Election Disinformation EPICは200以上の団体と共に、AI選挙偽情報に対抗するようテック・プラットフォームに要請する
Today, EPIC and a coalition of over 200 civil society organizations sent a letter to leading platform companies like Meta, X, and Tiktok urging them to strengthen their efforts to protect elections from AI disinformation
.
本日、EPICと200を超える市民社会組織の連合は、Meta、X、Tiktokのような大手プラットフォーム企業に書簡を送り、AI偽情報から選挙を守る取り組みを強化するよう促した。
The letter, signed by organizations around the world with ties to election integrity, AI accountability, and civil rights, highlights six interventions that tech platforms must pursue: この書簡は、選挙の完全性、AIの説明責任、市民的権利に関係する世界中の団体によって署名され、テック・プラットフォームが追求すべき6つの介入策を強調している:
1, Reinstating previous election-integrity policies—and supporting them by staffing up platform integrity and moderation teams; 1. 以前の選挙インテグリティ・ポリシーを復活させ、プラットフォーム・インテグリティ・チームとモデレーション・チームに人員を割くことでそれをサポートすること;
2. Increasing enforcement against false of deceptive political advertising; 2. 虚偽の政治広告に対する取り締まりを強化する;
3. Adding stronger safeguards against AI-generated content, including required disclosures for AI-generated political content, prohibiting political deepfakes, and finetuning algorithmic amplification toward factual election information; 3. AIが生成した政治的コンテンツに対する情報開示の義務付け、政治的ディープフェイクの禁止、事実に基づいた選挙情報へのアルゴリズム増幅の微調整など、AI生成的コンテンツに対するより強力なセーフガードを追加する;
4. Actively reducing the visibility and spread of election disinformation; 4. 選挙偽情報の可視化と拡散を積極的に減らす;
5. Holding influencers, political candidates, and other public figures to the same content moderation standards as everyone else; and 5. インフルエンサー、政治家候補、その他の公人に対して、他の人々と同じコンテンツモデレーション標準を課す。
6. Improving transparency of content moderation to enable civil-society oversight. 6. 市民社会の監視を可能にするため、コンテンツ調整の透明性を改善する。
The coalition letter, which comes at a time when at least 60 countries are conducting national elections, is the latest in a string of efforts by EPIC to rein in AI harms to democracy and elections. EPIC continues to pursue robust, common-sense AI and platform accountability regulations as part of its AI & Human Rights Project and platform governance work. 少なくとも60カ国が国政選挙を実施しているこの時期に出された連合書簡は、民主主義と選挙に対するAIの害を抑制するためのEPICによる一連の取り組みの最新版である。EPICは、「AIと人権プロジェクト」やプラットフォーム・ガバナンスの一環として、強固で常識的なAIとプラットフォームの説明責任に関する規制を追求し続けている。

 

・[PDF] Letter [downloaded]

20240413-190803

 

関連...

・2024.03.21 Murthy v. Missouri and the Threat of Election Disinformation

 

・2023.09.18 Generative AI and Elections: The Approaching Train Wreck

 

・2023.05 [PDF] Generate Harms - Generative AI’s Impact & Paths Forward

20240413-191232

 

 

 

 

| | Comments (0)

2024.04.12

自民党 世界一AIフレンドリーな国へ AIPTがホワイトペーパー取りまとめ

こんにちは、丸山満彦です。

自由民主党のデジタル社会推進本部(本部長・平井卓也衆院議員)とAIの進化と実装に関するPT(座長・平将明衆院議員)が、合同会議を開催し、新たな「ステージII」における人工知能(AI)の新戦略を「AIホワイトペーパー2024」として取りまとめたようです...

「AIフレンドリーな国」ってどういう意味なんでしょうかね..「AIに優しい国」?

まさか、「世界一、人よりもAIに優しい国」とか...んなわけないか...(^^)

=>「世界で最もAIに理解があり、AIの研究開発・実装がしやすい国」ということのようです...

自由民主党

・2024.04.12 世界一AIフレンドリーな国へ AIPTがホワイトペーパー取りまとめ

3章立てで...

「世界一AIフレンドリーな国」になるためには、競争力強化と安全性確保の一体的な推進が必要だとして、

第1章 - 国際的なルールメイキングを引き続き主導していくことやAIの国際共同研究や利活用促進でも世界の中で強いリーダーシップを発揮していくこと等を求めている

第2章 - 競争力強化について、

第3章 - 安全性確保

ということのようです...

 

 

1_20240412174001

 


 

平将明 衆議院議員

・2024.04.12 AIホワイトペーパー ステージⅡにおける新戦略 ー世界一AIフレンドリーな国へー

・[PDF] AIホワイトペーパー2024_概要版 (downloaded)

20240412-180116 

 

・[PDF] AIホワイトペーパー2024 (downloaded)

20240412-180224

目次...

第 1 章 「ステージⅡ」に臨む日本
○ 自民党ホワイトペーパー(2023 年)
○ 現在(2024 年 4 月)の景色
○ ステージⅡの戦略 ― 世界一 AI フレンドリーな国へ ―
○ AI を活用した日本の競争力強化のための戦略(第2章)
○ 安全性確保のための戦略(第3章)

第 2 章 AI を活用した日本の競争力強化のための戦略:急速な環境変化を味方につける柔軟な対応
○ 利活用の促進
○ 研究開発力の強化
○ インフラの高度化

第 3 章 安全性確保のための戦略
○ 適切なガバナンス
○ 生成 AI を利用した偽・誤情報対策
○ AI の安全性確保に向けた更なる取組
○ 著作権などの知的財産との関係

 


 

・2024.04.12 AIホワイトペーパー2024

・[PDF] AIホワイトペーパー【概要】

・[PDF] AIホワイトペーパー【本文】

 

| | Comments (0)

2024.04.11

インド データセキュリティ協議会 セキュリティとプライバシーリスクの低減: 生成的AIのエンタープライズ利用ガイド (2024.03.21)

こんにちは、丸山満彦です。

インドのデータ保護に関する業界団体であるデータセキュリティ協議会 (Data Security Council of India; DSCI) [wikipedia] が、生成的AIの利用ガイドを公表していました...

生成的AIのサイバーセキュリティやデータ保護について参考になる部分も多いと思いますので、紹介...

 

● Data Security Council of India; DSCI 

・2024.03.21 Mitigating Security & Privacy Risks: A Guide to Enterprise Use of Generative AI

Mitigating Security & Privacy Risks: A Guide to Enterprise Use of Generative AI セキュリティとプライバシーリスクの低減: 生成的AIのエンタープライズ利用ガイド
With rapidly increasing adoption of and investment into generative AI technologies, it is imperative for enterprise and business users to identify, examine, and prepare mitigation plans for risks arising out of this emerging technology to safeguard against reputational, legal, and financial consequences. In this context, this report presents a timely and comprehensive analysis of the cybersecurity and privacy risks emerging from enterprise use of generative AI systems and tools. 生成的AI技術の導入と投資が急速に増加する中、エンタープライズやビジネスユーザーにとって、この新たな技術から生じるリスクを特定、検討し、低減計画を準備することは、評判、法的、財務的な影響から保護するために不可欠である。このような背景から、本レポートでは、生成的AIシステムやツールのエンタープライズ利用から生じるサイバーセキュリティとプライバシーのリスクについて、タイムリーかつ包括的な分析を行う。
The report is framed in two parts, Part I-STRENGTHENING CYBERSECURITY FOR GENERATIVE AI and Part II- DATA PROTECTION STRATEGIES FOR GENERATIVE AI. The report first sets the context by breaking down the fundamentals behind the functioning of generative AI and examines the current landscape of use of generative AI systems and tools in an enterprise context. Building on this foundation, the latter sections of the report highlight identified privacy and cybersecurity risks that may arise for an enterprise user of this technology in the absence of established governance frameworks. Finally, based on thorough examination of existing governance and regulatory frameworks, both part I and part II of the report conclude with suggestions for enterprises on possible interventions in organizational policies, governance imperatives, and business processes that could help mitigate the highlighted risks. 本レポートは、第I部「生成的AIのサイバーセキュリティ強化」と第II部「生成的AIのデータ保護戦略」の2部構成となっている。本レポートではまず、生成的AIの機能の背後にある基本的な事項を説明し、エンタープライズにおける生成的AIのシステムやツールの利用の現状を検証することで、背景を整理している。この基礎の上に立って、レポートの後半では、ガバナンスの枠組みが確立されていない場合に、この技術をエンタープライズで利用する場合に発生する可能性のある、特定されたプライバシーとサイバーセキュリティのリスクを強調している。最後に、既存のガバナンスと規制の枠組みの徹底的な検証に基づいて、レポートの第1部と第2部の両方が、強調されたリスクを軽減するのに役立つ可能性のある組織ポリシー、ガバナンスの必須事項、およびビジネスプロセスへの介入の可能性に関するエンタープライズへの提案で締めくくられている。

 

・[PDF] (downloaded)

20240411-54624

 

目次...

Objective  目的 
Background 背景
Historical Evolution: From Probabilistic to Generative Models 歴史的な進化 確率的モデルから生成的モデルへ
The Architecture of Generative AI Technology 生成的AI技術のアーキテクチャ
Part1: STRENGTHENING CYBERSECURITY FOR GENERATIVE AI Part1: 生成的AIのためのサイバーセキュリティの強化
• Exploring Cybersecurity Risks ・サイバーセキュリティのリスクを探る
• Understanding Vulnerabilities and Threats ・脆弱性と脅威を理解する
• Navigating Unmanaged Adoption: Generative AI in Enterprise Context ・管理されていない採択の舵取り:エンタープライズにおける生成的AI
Part2: DATA PROTECTION STRATEGIES FOR GENERATIVE AI パート2: 生成的AIのデータ保護戦略
• Applicability of Data Protection Regulations and Principles to Generative AI ・生成的AIへのデータ保護規制と保護原則の適用可能性
• Data Protection Implications in Enterprise Use of Generative AI ・生成的AIのエンタープライズ利用におけるデータ保護の影響
Conclusion  結論 

 

いろいろ興味深い内容です...

 

Continue reading "インド データセキュリティ協議会 セキュリティとプライバシーリスクの低減: 生成的AIのエンタープライズ利用ガイド (2024.03.21)"

| | Comments (0)

フランス CNIL 人工知能システムの開発に関する勧告

こんにちは、丸山満彦です。

フランスの個人データ保護機関であるCNILが、AIシステム開発に対する勧告、推奨事項?を公表していますね。。。

参考になることも多いと思います。

ただ、フランス語なんですよね...私もよくわかりません...

 

● Commission nationale de l'informatique et des libertés; CNIL

プレス...

・2024.04.08 IA : la CNIL publie ses premières recommandations sur le développement des systèmes d’intelligence artificielle

IA : la CNIL publie ses premières recommandations sur le développement des systèmes d’intelligence artificielle AI:CNIL、人工知能システムの開発に関する初の勧告を発表
08 avril 2024 2024年4月8日
À l’issue d’une consultation publique, la CNIL publie ses premières recommandations sur le développement des systèmes d’intelligence artificielle. Elles doivent aider les professionnels à concilier innovation et respect des droits des personnes pour le développement innovant et responsable de leurs systèmes d’IA. 公開協議の結果、CNILは人工知能システムの開発に関する初の勧告を発表した。この勧告は、AIシステムの革新的かつ責任ある開発において、技術革新と個人の権利の尊重を両立させることを目的としている。
Concilier le développement de systèmes d’IA avec les enjeux de protection de la vie privée AIシステムの開発とプライバシー保護問題の調和
De nombreux acteurs ont fait part à la CNIL de questionnements concernant l’application du règlement général sur la protection des données (RGPD) à l’intelligence artificielle (IA), en particulier depuis l’émergence de systèmes d’IA génératives (« Generative AI systems »). En mai 2023, la CNIL a publié son « plan IA » et a lancé un important travail de clarification du cadre juridique afin de sécuriser les acteurs. 特にジェネレーティブAIシステムの出現以来、多くの利害関係者がCNILに対し、人工知能(AI)への一般データ保護規則(GDPR)の適用について疑問を呈してきた。2023年5月、CNILは「AI計画」を発表し、関係者を安心させるために法的枠組みを明確にするための大規模な取り組みを開始した。
L’analyse de ces systèmes montre que leur développement est conciliable avec les enjeux de protection de la vie privée. Plus encore, la prise en compte de cet impératif permettra de faire émerger des dispositifs, outils et applications éthiques et fidèles aux valeurs européennes. これらのシステムを分析すると、その発展がプライバシー保護の課題と両立できることがわかる。さらに、この要請が考慮されれば、ヨーロッパの価値観に忠実な倫理的システム、ツール、アプリケーションが出現するだろう。
C’est à cette condition que les citoyens feront confiance à ces technologies. Pour cela, il est important que les acteurs disposent d’éléments clairs et pratiques pour éclairer leurs décisions stratégiques de développement ou d’utilisation de l’IA qu’ils devront prendre dans les prochains mois. このような条件が整えば、市民はこれらのテクノロジーに信頼を寄せることができる。これを達成するためには、関係者が今後数ヶ月のうちに行わなければならないAIの開発と使用に関する戦略的決定を下すのに役立つ、明確で実用的な情報を得ることが重要である。
Les premières recommandations de la CNIL CNILの初期勧告
Pour un usage de l’IA respectueux des données personnelles 個人情報を尊重するAIの利用
Pour clarifier les règles applicables en la matière, la CNIL publie aujourd’hui une première série de recommandations pour un usage de l’IA respectueux des données personnelles. この分野で適用される規則を明確にするため、CNILは本日、個人情報を尊重したAIの使用に関する一連の初期勧告を発表する。
Ces recommandations de la CNIL servent à accompagner les acteurs de l’écosystème IA dans leurs démarches de mise en conformité avec la législation sur la protection des données personnelles. Elles permettent d’apporter des réponses concrètes, illustrées d’exemples, aux enjeux juridiques et techniques liés à l’application du RGPD à l’IA. Les points abordés dans ces premières recommandations permettent en particulier de : CNILの勧告は、AIのエコシステムにおいて、個人情報保護に関する法令を遵守しようとするプレイヤーを支援することを目的としている。この勧告は、RGPDをAIに適用する際の法的・技術的な問題について、例を挙げて具体的な回答を示している。これらの初期勧告で取り上げられている点は、特に以下のことを可能にする:
・déterminer le régime juridique applicable ; ・適用される法体系の決定
・définir une finalité ; ・目的の定義
・déterminer la qualification juridique des acteurs ; ・関係者の法的地位を決定する
・définir une base légale ; ・法的根拠を定める;
・effectuer des tests et vérifications en cas de réutilisation des données ; ・データを再利用する際には、テストとチェックを実施する;
・réaliser une analyse d’impact si nécessaire ; ・必要に応じて影響分析を行う;
・tenir compte de la protection des données dès les choix de conception du système ; ・システム設計の段階からデータ保護を考慮する;
・tenir compte de la protection des données dans la collecte et la gestion des données. ・データを収集・管理する際にデータ保護を考慮する。
Consulter les recommandations 勧告を参照する
7 fiches des recommandations officielles 公式勧告7枚
La CNIL propose également une synthèse de ses recommandations afin d’en rappeler les grands principes et de permettre à tous les acteurs de l’appliquer à leurs projets. CNILはまた、主要原則を概説し、すべての利害関係者がプロジェクトに適用できるようにするため、勧告の要約を作成した。
Consulter la synthèse des recommandations 勧告の概要を参照する
Un document pour tout comprendre すべてを理解するための文書
Des recommandations élaborées en concertation avec les acteurs de l’IA AI関係者との協議により作成された勧告
Ces recommandations ont été élaborées après une série de rencontres avec des acteurs publics et privés pour recueillir leurs interrogations sur le sujet ainsi qu’une consultation publique de deux mois. Les parties prenantes (entreprises, chercheurs, universitaires, associations, conseils juridiques et techniques, syndicats, fédérations, etc.) ont ainsi pu s’exprimer et permettre à la CNIL de proposer des recommandations au plus proche de leurs questionnements et de la réalité des usages de l’IA. これらの提言は、このテーマに関する意見を収集するため、官民の関係者との一連の会合と、2ヶ月にわたる公開協議を経て作成された。関係者(企業、研究者、学者、協会、法律・技術顧問、労働組合、連盟など)は、このようにして意見を表明し、CNILが彼らの疑問やAI使用の現実にできるだけ近い勧告を提案できるようにした。
Lors la consultation publique, 43 contributions ont été reçues par la CNIL, émanant d’acteurs variés de l’écosystème de l’IA : 公開協議の期間中、CNILはAIのエコシステムにおける様々なプレイヤーから43件の投稿を受けた:
・29 organismes à but lucratif dans des secteurs divers (IA, finance, santé, aéronautique, opérateurs de plateformes en ligne, publicité en ligne, jeux vidéo, etc.) ; ・様々な分野の29の営利団体(AI、金融、ヘルスケア、航空、オンラインプラットフォーム事業者、オンライン広告、ビデオゲームなど);
・7 organismes à but non lucratif (association représentative de la société civile, institut de recherche, think tank, etc.) ; ・非営利団体(市民社会を代表する団体、研究機関、シンクタンクなど)7団体;
・4 particuliers ; ・個人4名
・3 établissements public. ・3つの公的機関。
Les contributions reçues par la CNIL ont permis d’enrichir et de consolider les recommandations, publiées dans leur version finalisée. Plusieurs précisions et modifications ont donc été apportées, par exemple sur le périmètre des recommandations et leur articulation avec le projet de règlement IA, l’utilisation d’outils de moissonnage (web scraping), la réalisation d’une analyse d’impact sur la protection des données (AIPD), etc. CNILが受領した寄稿は、最終版として公表された勧告の充実と統合に役立った。そのため、勧告の範囲やIA規則草案との関係、ウェブスクレイピングツールの使用、データ保護影響評価(DPIA)の実施など、多くの明確化と修正が行われた。


Elles ont également soulevé des points d’interrogation structurants (information des personnes, conditions à remplir pour mobiliser la base légale l’intérêt légitime, exercice des droits des personnes, etc.) que la CNIL traitera dans de prochaines publications. また、多くの構造的な問題(個人に提供されるべき情報、正当な利益という法的根拠を動員するために満たすべき条件、個人の権利の行使など)も提起され、CNILは近日中に刊行する出版物でこれに対処する予定である。
La CNIL met à disposition une synthèse des contributions ainsi que des éléments de réponse aux interrogations formulées par les contributeurs. CNILは、寄稿者の質問に対する回答とともに、寄稿の要約を公開している。
Lire la synthèse des contributions 投稿の要約を読む
Les prochaines étapes 次のステップ
Dans les mois à venir, la CNIL complètera ces premières recommandations par d’autres fiches portant notamment sur la base légale de l’intérêt légitime, la gestion des droits, l’information des personnes concernées, l’annotation et la sécurité lors de la phase de développement. Ces travaux seront également soumis à consultation publique. 今後数ヶ月の間に、CNILはこれらの初期勧告に加え、特に正当な利益の法的根拠、権利管理、情報主体への情報提供、アノテーション、開発段階におけるセキュリティなどを扱った他のシートを補足する予定である。この作業もまた、公開協議に付される予定である。

 

 

7つの勧告事項

・2024.04.08 Les fiches pratiques IA

Les fiches pratiques IA AIファクトシート
Introduction はじめに
QUEL EST LE PÉRIMÈTRE DES FICHES PRATIQUES SUR L’IA ? IAに関する実践的情報シートの範囲は?
La CNIL apporte des réponses concrètes pour la constitution de bases de données utilisées pour l’apprentissage des systèmes d’intelligence artificielle (IA), qui impliquent des données personnelles. CNILは、個人情報を含む人工知能(AI)システムの訓練に使用するデータベースの作成に関する実践的な回答を提供している。
> En savoir plus > 詳細
Fiche 1 ファクトシート1
DÉTERMINER LE RÉGIME JURIDIQUE APPLICABLE 適用される法的体制の決定
La CNIL vous aide à déterminer le régime juridique applicable aux traitements de données personnelles en phase de développement. CNILは、開発段階における個人データの処理に適用される法的体制を決定する際に役立つ。
> En savoir plus > 詳細
Fiche 2 ファクトシート2
DÉFINIR UNE FINALITÉ 目的の定義
La CNIL vous aide à définir la ou les finalités en tenant compte des spécificités du développement de systèmes d’IA. CNILは、AIシステム開発の特殊性を考慮した上で、目的を定義することを支援する。
> En savoir plus > 詳細
Fiche 3 シート3
DÉTERMINER LA QUALIFICATION JURIDIQUE DES FOURNISSEURS DE SYSTÈMES D’IA AIシステムのサプライヤーの法的地位の決定
Responsable de traitement, responsable conjoint ou sous-traitant : la CNIL aide les fournisseurs de systèmes d’IA à déterminer leur qualification. データ管理者、共同データ管理者、データ処理者:CNILはAIシステム提供者が法的地位を決定するのを支援する。
> En savoir plus > 詳細
Fiche 4 シート4
ASSURER QUE LE TRAITEMENT EST LICITE - DÉFINIR UNE BASE LÉGALE データ処理が適法であることを保証する - 法的根拠を定める
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données. CNILは、貴社の責任およびデータの収集または再利用の方法に関して、貴社の義務を決定するのに役立つ。
> En savoir plus > 詳細
Fiche 4 シート4
ASSURER QUE LE TRAITEMENT EST LICITE - EN CAS DE RÉUTILISATION DES DONNÉES 処理が適法であることを保証する - データが再利用される場合
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données. CNILは、貴社の責任およびデータの収集または再利用の方法に基づいて、貴社の義務を決定するのに役立つ。
> En savoir plus > 詳細
Fiche 5 シート5
RÉALISER UNE ANALYSE D’IMPACT SI NÉCESSAIRE 必要に応じて影響度分析を実施する
La CNIL vous explique comment et dans quels cas réaliser une analyse d’impact sur la protection des données (AIPD) en tenant compte des risques spécifiques au développement de modèles d’IA. CNILは、AIモデルの開発に特有のリスクを考慮したデータ保護影響評価(DPIA)の実施方法と実施時期について説明している。
> En savoir plus > 詳細
Fiche 6 シート6
TENIR COMPTE DE LA PROTECTION DES DONNÉES DANS LA CONCEPTION DU SYSTÈME システム設計においてデータ保護を考慮する
Pour assurer le développement d’un système d’IA respectueux de la protection des données, il est nécessaire de mener une réflexion préalable lors de la conception du système. La CNIL en détaille les étapes. データ保護に配慮したAIシステムの開発を確実にするためには、システム設計の際に事前検討を行う必要がある。CNILはその手順を示している。
> En savoir plus > 詳細
Fiche 7 シート7
TENIR COMPTE DE LA PROTECTION DES DONNÉES DANS LA COLLECTE ET LA GESTION DES DONNÉES データ収集・管理時にデータ保護を考慮する
La CNIL donne les bonnes pratiques pour sélectionner les données et limiter leur traitement afin d’entraîner un modèle performant dans le respect des principes de protection des données dès la conception et par défaut. CNILは、データ保護の原則を当初から、またデフォルトで遵守する高性能モデルを作成するために、データを選択し、その処理を制限するためのベストプラクティスを概説している。
> En savoir plus > 詳細

 

勧告の要約

・2024.04.08 Développement des systèmes d’IA : les recommandations de la CNIL pour respecter le RGPD

 

Développement des systèmes d’IA : les recommandations de la CNIL pour respecter le RGPD AIシステムの開発:RGPDを遵守するためのCNIL勧告
La CNIL a publié ses premières recommandations sur l’application du RGPD au développement des systèmes d’intelligence artificielle pour aider les professionnels à concilier innovation et respect des droits des personnes. Voici ce qu’il faut en retenir. CNILは、人工知能システムの開発におけるRGPDの適用に関する初の勧告を発表した。以下はその要点である。
Les concepteurs et développeurs de systèmes d’intelligence artificielle font souvent remonter à la CNIL que l’application du RGPD leur pose des difficultés, notamment pour l’entraînement des modèles. 人工知能システムの設計者や開発者は、CNILに対し、RGPDの適用が特にモデルの訓練に関して困難をもたらすとよく言う。
L’idée reçue selon laquelle le RGPD empêcherait l’innovation en intelligence artificielle en Europe est fausse. En revanche, il faut avoir conscience que les bases d’entraînement comprennent parfois des « données personnelles », des informatiques sur des personnes réelles. L’utilisation de ces données fait courir des risques aux personnes, qu’il faut prendre en compte, afin de développer des systèmes d’IA dans des conditions qui respectent les droits et libertés des personnes, et notamment leur droit à la vie privée. RGPDが欧州における人工知能の技術革新を妨げるという先入観は間違っている。一方で、訓練用データベースには「個人データ」、つまり実在の人物に関する情報が含まれることがあることを認識する必要がある。このデータの使用は、個人の権利と自由、特にプライバシーの権利を尊重した条件下でAIシステムを開発するために考慮しなければならないリスクに個人をさらすことになる。
Périmètre des recommandations 勧告の範囲
Quels sont les systèmes d’IA concernés ? どのAIシステムに関係するのか?
Ces recommandations concernent le développement de systèmes d’IA impliquant un traitement de données personnelles (pour plus d’informations sur le cadre juridique, voir la fiche n°1). En effet, l’entraînement des systèmes d’IA nécessitent régulièrement l’utilisation d’importants volumes d’informations sur des personnes physiques, qu’on nomme « données personnelles ». 本勧告は、個人データの処理に関わるAIシステムの開発に関するものである(法的枠組みの詳細については、ファクトシート1を参照)。実際、AIシステムのトレーニングでは、定期的に「個人データ」として知られる個人に関する大量の情報を使用する必要がある。
Sont concernés : これには以下が含まれる。
・Les systèmes fondés sur l’apprentissage automatique (machine learning) ; ・機械学習に基づくシステム;
・Les systèmes dont l’usage opérationnel est défini dès la phase de développement et les systèmes à usage général qui pourront être utilisés pour nourrir différentes applications (« general purpose AI »). ・開発段階で運用用途が定義されるシステム、およびさまざまなアプリケーションに使用できる汎用システム(「汎用AI」)。
・Les systèmes dont l’apprentissage est réalisé « une fois pour toutes » ou de façon continue, par exemple en utilisant des données d’utilisation pour son amélioration. ・学習が「一回限り」または継続的に行われるシステム(例えば、利用データを利用してシステムを改善する)。
Quelles sont les étapes concernées ? どのような段階が関係するのか?
Ces recommandations concernent la phase de développement de systèmes d’IA, et non celle de déploiement. この勧告は、AIシステムの開発段階に関するものであり、導入段階に関するものではない。
La phase de développement comprend toutes les étapes préalables au déploiement du système d’IA à savoir : la conception du système, la constitution de la base de données et l’apprentissage 開発段階には、AIシステムの配備に先立つすべての段階、すなわちシステム設計、データベースの作成、学習が含まれる。
1_20240410225501
Comment ces recommandations s’articulent-elle avec le règlement européen sur l’IA ? これらの勧告は、AIに関する欧州規制とどのように結びついているのか?
Les recommandations formulées prennent en considération le nouveau règlement européen sur l’intelligence artificielle très prochainement adopté. En effet, lorsque des données personnelles sont utilisées pour le développement d’un système d’IA, le RGPD et le règlement sur l’IA s’appliquent tous les deux. Les recommandations de la CNIL ont donc été élaborées pour compléter ces dernières de manière cohérente sur le volet relatif à la protection des données. この勧告は、まもなく採択される人工知能に関する新しい欧州規則を考慮している。実際、AIシステムの開発に個人データが使用される場合、GDPRとAI規則の両方が適用される。従って、CNILの勧告は、データ保護の面で一貫した形で後者を補完するために作成された。
► Pour plus d’informations, voir la fiche n° 0 詳細はシートNo.0を参照のこと。
1ère étape : Définir un objectif (finalité) pour le système d’IA ステップ1:AIシステムの目的(目的)を定める
Le principe 原則
Un système d’IA reposant sur l’exploitation de données personnelles doit être développé avec une « finalité », c’est-à-dire un objectif bien défini. 個人データの利用に基づくAIシステムは、「目的」、すなわち明確に定義された目的を持って開発されなければならない。
Cela permet de cadrer et de limiter les données personnelles que l’on va pouvoir utiliser pour l’entraînement, afin de ne pas stocker et traiter des données inutiles. これにより、不必要なデータの保存や処理を避けるために、学習目的で使用できる個人データを定義し、制限することが可能になる。
Cet objectif doit être déterminé, soit établi dès la définition du projet. Il doit également être explicite, autrement dit connu et compréhensible. Il doit enfin être légitime, c’est-à-dire compatible avec les missions de l’organisme. この目的は、プロジェクトが定義されると同時に決定されなければならない。また、明示的でなければならない。最後に、この目的は合法的でなければならない。
Il est parfois objecté que l’exigence de définir une finalité est incompatible avec l’entraînement d’IA, qui peut développer des caractéristiques non anticipées. La CNIL estime qu’il n’en est rien et que l’exigence de définition d’une finalité doit être adaptée au contexte de l’IA, sans disparaître pour autant, comme le montre les exemples qui suivent. 目的を明確にするという要件は、AIの訓練とは相容れないという反論がある。CNILは、そのようなことはないと考えており、目的を定めるという要件は、以下の例が示すように、消滅することなく、AIの状況に適合させる必要があると考えている。
En pratique 実際には
Il existe trois types de situations. 状況には3つのタイプがある。
Vous savez clairement quel sera l’usage opérationnel de votre système d’IA AIシステムの運用目的がはっきりしている。
Dans ce cas, cet objectif sera la finalité de la phase de développement comme de la phase de déploiement et d’utilisation. この場合、この目的は開発フェーズと展開・使用フェーズの両方の目的となる。
Exemple :
Un organisme constitue une base de données composée de photos de rames de trains en service – c’est-à-dire avec des personnes présentes – afin d’entraîner un algorithme pour mesurer l’affluence et la fréquentation des trains à quai dans les gares. La finalité en phase de développement est déterminée, explicite et légitime au regard de l’usage opérationnel identifié. ある組織が、駅での列車の混み具合や混雑度を測定するアルゴリズムを訓練するために、運行中の列車、つまり人がいる列車の写真のデータベースを構築する。開発段階では、目的は定義され、明示され、特定された業務上の利用という点で正当である。
Cela est toutefois plus complexe lorsque vous développez un système d’IA à usage général qui pourra être utilisé dans divers contextes et applications ou lorsque votre système est développé à des fins de recherche scientifique. しかし、さまざまな文脈や用途で使用できる汎用AIシステムを開発する場合や、科学的な研究目的でシステムを開発する場合は、より複雑になる。
Pour les systèmes d’IA à usage général 汎用AIシステムの場合
Exemple :
Un organisme peut constituer une base de données pour l’entraînement d’un modèle de classification d’images (personnes, véhicules, aliments, etc.) et le rendre publiquement accessible, sans qu’aucun usage opérationnel spécifique ne soit prévu lors du développement du modèle. ある組織が、画像分類モデル(人、車、食べ物など)を学習するためのデータベースを作成し、それを一般に公開することができる。
Vous ne pouvez pas définir la finalité de manière trop générale comme, par exemple, « le développement et amélioration d’un système d’IA ». Il vous faudra être plus précis et faire référence : 例えば、「AIシステムの開発と改善」のように、目的をあまりに一般的に定義することはできない。より具体的に、以下のように定義する必要がある:
・au « type » de système développé, comme, par exemple, le développement d’un modèle de langage de grande taille, d’un système de vision par ordinateur (computer vision) ou encore d’un système d’IA générative d’images, de vidéos, de sons, de code informatique, etc. ・例えば、大規模言語モデルの開発、コンピューター・ビジョン・システムの開発、画像、動画、音声、コンピューター・コードなどを生成するAIシステムの開発などである。
・aux fonctionnalités et capacités techniquement envisageables. ・技術的に実現可能な機能・能力を持つ。
Bonne pratique : グッドプラクティス
Vous pouvez donner encore plus de précisions quant à l’objectif poursuivi, par exemple en déterminant : 例えば、以下のように、追求する目的をさらに具体化することができる:
・les capacités prévisibles les plus à risque ; ・最もリスクの高い予測可能な機能
・les fonctionnalités exclues par conception ; ・設計上除外される機能
・les conditions d’utilisation du système d’IA : les cas d’usage connus de la solution ou encore les modalités d’utilisation (diffusion du modèle en open source, commercialisation, mise à disposition en SaaS ou par API, etc.). ・AIシステムが使用される条件:ソリューションの既知のユースケース、または使用方法(オープンソースとしてのモデルの配布、マーケティング、SaaSまたはAPI経由での利用可能性など)。
Pour les systèmes d’IA développés à des fins de recherche scientifique 科学研究目的で開発されたAIシステムの場合
Exemple :
Pourrait être considéré comme poursuivant des fins de recherche scientifique le développement d’un système d’IA pour une preuve de concept destinée à démontrer la robustesse d’un apprentissage automatique nécessitant moins de données d’entrainement, dans une démarche scientifique documentée ayant vocation à faire l’objet d’une publication. 出版を目的とした文書化された科学的プロセスにおいて、少ない学習データを必要とする機械学習の頑健性を実証することを目的とした概念実証のためのAIシステムの開発は、科学的研究目的の追求とみなすことができる。
Vous pouvez définir un objectif moins détaillé, compte tenu des difficultés à le définir précisément dès le début de vos travaux. Vous pouvez alors fournir des informations complémentaires pour préciser cet objectif à mesure que votre projet progresse. 研究開始時に目的を正確に定義することが困難であることを考慮し、あまり詳細でない目的を定義することもできる。その後、プロジェクトが進行するにつれて、この目的を明確にするための追加情報を提供することができる。
► Pour plus d’informations, voir la fiche n° 2 詳細はシートNo.2を参照のこと。
2e étape : Déterminer vos responsabilités ステージ2:責任を決定する
Le principe 原則
Si vous utilisez des données personnelles pour le développement de systèmes d’IA, vous devez déterminer votre responsabilité au sens du RGPD. Vous pouvez être : AIシステムの開発に個人データを使用する場合、RGPDの意味での責任を決定する必要がある。以下はその例である:
responsable de traitement (RT) : vous déterminez les objectifs et les moyens, c’est-à-dire lorsque vous décidez du « pourquoi » et du « comment » de l’utilisation de données personnelles. Si un ou plusieurs autres organismes décident avec vous de ces éléments, vous serez responsables conjoints du traitement et devrez définir vos obligations respectives (par exemple, par le biais d’un contrat). データ管理者(RT):目的と手段を決定する。すなわち、個人データを使用する「理由」と「方法」を決定する。1つまたは複数の他の機関がこれらの要素についてあなたと共に決定する場合、あなた方は処理について共同責任を負い、それぞれの義務を(例えば契約によって)定める必要がある。
sous-traitant (ST) : vous traitez des données pour le compte d’un donneur d’ordre qui est le « responsable du traitement ». Dans ce cas, ce dernier doit s’assurer que vous respectez le RGPD et que vous ne traitiez les données que sur ses instructions : la loi prévoit alors la conclusion d’ un contrat de sous-traitance. 処理者(ST):「管理者」である本人に代わってデータを処理する。この場合、後者は、あなたがRGPDを遵守し、その指示に基づいてのみデータを処理することを保証しなければならない。
En pratique 実際には
Le règlement européen sur l’IA définit plusieurs rôles : 欧州AI規則では、いくつかの役割が定義されている:
・le fournisseur de système d’IA qui développe ou fait développer un système et qui le met sur le marché ou le met en service sous son propre nom ou sa propre marque, à titre payant ou gratuit ; ・AIシステム供給者:システムを開発する、または開発させ、有償・無償を問わず、自社の名前またはブランドで市場に出す、またはサービスを開始する;
・les importateurs, distributeurs et les utilisateurs (également appelés déployeurs) de ces systèmes. ・システムの輸入業者、販売業者、ユーザー(配備業者とも呼ばれる)。
Votre degré de responsabilité dépend d’une analyse au cas par cas. Par exemple : 責任の程度はケースバイケースの分析による。例えば、次のような場合である:
・Si vous êtes un fournisseur à l’initiative du développement d’un système d’IA et que vous constituez la base de données d’apprentissage à partir de données que vous avez sélectionnées pour votre propre compte, vous pouvez être qualifié de responsable de traitement. ・例えば、あなたがAIシステムの開発を開始するベンダーであり、自社に代わって選択したデータから学習データベースを構築する場合、あなたは管理者に該当する可能性がある。
・Si vous constituez la base de données d’apprentissage d’un système d’IA avec d’autres responsables de traitement pour un objectif que vous avez défini ensemble, vous pouvez être qualifiés de responsables conjoints du traitement. ・AIシステムの学習データベースを、他のデータ管理者とともに定義した目的のために構築する場合、共同データ管理者に該当する可能性がある。
・Si vous êtes un fournisseur de système d’IA, vous pouvez être sous-traitant si vous développez un système pour le compte d’un de vos clients. Le client sera responsable de traitement s’il détermine l’objectif mais aussi les moyens, les techniques à utiliser. S’il ne vous donne qu’un objectif à atteindre et que c’est vous qui concevez le système d’IA, vous êtes responsable de traitement. ・あなたがAIシステムのプロバイダーである場合、顧客の1社に代わってシステムを開発すれば、下請け業者になることができる。顧客は、目的だけでなく、使用する手段や技術も決定すれば、処理に責任を持つ。顧客が達成すべき目的を与えるだけで、あなたがAIシステムを設計する場合は、あなたがデータ管理者となる。
・Si vous êtes un fournisseur de système d’IA vous pouvez faire appel à un prestataire pour collecter et traiter les données selon vos instructions. Le prestataire sera votre sous-traitant. C’est le cas par exemple du prestataire qui doit constituer une base de données d’apprentissage pour un fournisseur de système d’IA qui lui indique précisément comment elle doit être élaborée. ・あなたがAIシステムのプロバイダーであれば、あなたの指示に従ってデータを収集し、処理するようサービス・プロバイダーに依頼することができる。サービス・プロバイダーはあなたの下請け業者となる。例えば、AIシステム提供者のために学習データベースを構築しなければならないサービス提供者が、どのように構築すべきかを正確に指示するような場合である。
► Pour plus d’informations, voir la fiche n° 3 詳細はシートNo.3を参照のこと。
Pour la suite : 次:
・Si vous êtes responsable de traitement, toutes les étapes suivantes vous concernent directement, c’est vous qui êtes tenus d’en assurer le respect. ・あなたが管理者である場合、以下のステップはすべてあなたに直接関係する。
・Si vous êtes sous-traitant, vos principales obligations sont les suivantes : ・あなたが処理者である場合、あなたの主な義務は以下の通りである:
・・Vous assurer qu’un contrat de sous-traitance de données personnelles a été conclu et qu’il est conforme à la réglementation ; ・・個人データの再委託に関する契約が締結され、それが規制に準拠していることを確認する;
・・Respecter strictement les instructions du responsable de traitement et ne pas utiliser les données personnelles pour autre chose ; ・・管理者の指示を厳守し、それ以外の目的で個人データを使用しないこと;
・・Assurer rigoureusement la sécurité des données que sous traitez ; ・・再委託するデータのセキュリティを厳格に確保すること;
・・Evaluer à votre niveau le respect du RGPD (cf. les étapes suivantes) et alerter le responsable de traitement s’il vous semble qu’il y a un problème. ・・自社レベルでのRGPD遵守を評価し(以下のステップを参照)、問題があると思われる場合はデータ管理者に警告する。
3e étape : Définir la « base légale » qui vous autorise à traiter des données personnelles ステップ3:個人データの処理を許可する「法的根拠」を定義する
Le principe 原則
Le développement de systèmes d’IA contenant des données personnelles devra disposer d’une base légale qui vous autorise à traiter ces données. Le RGPD liste 6 bases légales possibles : le consentement, le respect d’une obligation légale, l’exécution d’un contrat, l’exécution d’une mission d’intérêt public, la sauvegarde des intérêts vitaux, la poursuite d’un intérêt légitime. 個人データを含むAIシステムの開発には、このデータの処理を許可する法的根拠が必要である。GDPRは6つの可能な法的根拠を挙げている:同意、法的義務の遵守、契約の履行、公共の利益のために行われる業務の履行、重要な利益の保護、正当な利益の追求。
Selon la base légale retenue, vos obligations et les droits des personnes pourront varier, c’est pour cela qu’il est important de la déterminer en amont et de l’indiquer dans la politique de confidentialité des données. 選択した法的根拠によって、貴社の義務や個人の権利が異なる可能性があるため、事前にこれを決定し、データ機密保持ポリシーに明記することが重要である。
En pratique 実務上の検討事項
Vous devez vous interroger sur la base légale la plus adaptée à votre situation. どの法的根拠が自社の状況に最も適しているかを検討する必要がある。
Si vous collectez les données directement auprès des personnes et qu’elles sont libres d’accepter ou de refuser sans subir de préjudice (tel que le fait de renoncer au service), le consentement est souvent la base légale la plus appropriée. Selon la loi, il doit être libre, spécifique, éclairé et univoque. もしあなたが個人から直接データを収集し、その個人が不利益を被ることなく(例えばサービスを諦めるなど)自由に承諾または拒否できるのであれば、多くの場合、同意が最も適切な法的根拠となる。法律によれば、同意は自由で、具体的で、十分な情報を提供され、かつ明確でなければならない。
Recueillir le consentement est cependant souvent impossible en pratique. Par exemple, lorsque vous collectez des données accessibles en ligne ou réutilisez une base de données ouverte (open source), sans contact direct avec les personnes concernées, d’autres bases légales seront, généralement, plus adaptés : しかし実際には、同意を得ることが不可能な場合も多い。例えば、オンラインでアクセス可能なデータを収集する場合や、オープンソースのデータベースを再利用する場合、関係者と直接接触することなく、他の法的根拠がより適切であることが一般的である:
・Les acteurs privés devront analyser s’ils respectent les conditions pour se fonder sur l’intérêt légitime. Ils doivent pour cela justifier de trois conditions : ・民間企業は、正当な利益に依拠する条件を満たしているかどうかを分析しなければならない。そのためには、以下の3つの条件を満たす必要がある:
・・l’intérêt poursuivi est légitime c’est-à-dire légal, défini de manière précise et réel ; ・・追求される利益が合法的であること、すなわち合法的で、正確に定義され、現実的であること;
・・il faut pouvoir établir que les données personnelles sont vraiment nécessaires à l’entraînement du système, parce qu’il n’est pas possible de n’utiliser que des données ne se rapportant pas à des personnes physiques ou des données anonymisées. ; ・・自然人に関連しないデータや匿名化されたデータのみを使用することは不可能であるため、個人データがシステムを動かすために真に必要であることを立証できなければならない;
・・l’utilisation de ces données personnelles ne doit pas porter une « atteinte disproportionnée » à la vie privée des personnes. Cela s’apprécie au cas par cas, en fonction de ce que révèlent les données utilisées, qui peut être plus ou moins privé ou sensible, et de ce qui est fait des données. ; ・・これらの個人データの使用は、個人のプライバシーの「不釣り合いな侵害」につながってはならない。これはケースバイケースで評価され、使用されるデータが何を明らかにするか、それは多かれ少なかれ個人的または機微的なものである可能性があり、またそのデータで何が行われるかによる;
À noter : une fiche pratique spécifique à la base légale de l’intérêt légitime sera prochainement publiée. 注:正当な利益の法的根拠に関する具体的な実務ガイドは、近日中に発表される予定である。
・Les acteurs publics doivent vérifier si le traitement s’inscrit dans leur mission d’intérêt public telle que prévue par un texte (par exemple une loi, un décret, etc.) et s’il y contribue de manière pertinente et appropriée. ・公的機関は、その処理が文書(法律、政令など)に定められた公益的使命に沿ったものであるかどうか、また適切かつ適切な方法でこの使命に寄与するものであるかどうかを確認しなければならない。
Exemple : le pôle d'expertise de la régulation numérique (PEReN) est autorisé sur ce fondement à réutiliser des données publiquement accessibles pour réaliser des expérimentations ayant notamment pour objet de concevoir des outils techniques destinés à la régulation des opérateurs de plateformes en ligne. 例えば、PEReN(Pôle d'Expertise de la Régulation Numérique)は、特にオンラインプラットフォーム事業者の規制のための技術的ツールの設計を目的とした実験を実施するために、一般にアクセス可能なデータを再利用する権限を有する。
Les bases légales du contrat et de l’obligation légale peuvent être plus exceptionnellement mobilisées, si vous démontrez en quoi votre traitement est nécessaire pour répondre à l’exécution du contrat ou de mesures précontractuelles ou à une obligation légale (suffisamment précise) à laquelle vous êtes soumis. 契約および法的義務に関する法的根拠は、契約または契約前の措置の履行、またはお客様が従う(十分に正確な)法的義務を満たすためにお客様の処理が必要であることを証明する場合、より例外的に動員される場合がある。
► Pour plus d’informations, voir la fiche n° 4 詳細はシートNo.4を参照のこと。
4e étape : Vérifier si je peux réutiliser certaines données personnelles ステップ4:特定の個人データを再利用できるか確認する
Le principe 原則
Si vous envisagez de réutiliser une base de données à caractère personnel, il faut s’assurer que c’est légal. Cela dépend des modalités de collecte et de la source des données en cause. Vous devez, en tant que responsable de traitement (voir la partie « déterminer vos responsabilités »), effectuer certaines vérifications complémentaires afin de garantir que cette utilisation est légale. 個人データベースの再利用を計画している場合、それが合法であることを確認する必要がある。これはデータの収集方法と当該データの情報源によって異なる。データ管理者として(「あなたの責任を決定する」のセクションを参照)、あなたはこの利用が合法であることを確認するために、特定の追加チェックを実施しなければならない。
En pratique 実際には
Les règles vont dépendre des situations. 規則は状況によって異なる。
Le fournisseur réutilise des données qu’il a lui-même déjà collectées サプライヤーがすでに収集したデータを再利用する
Vous pouvez vouloir réutiliser les données que vous avez initialement collectées pour un autre objectif. Dans ce cas, si vous n’aviez pas prévu et informé les personnes concernées de cette réutilisation, vous devez vérifier que ce nouvel usage est compatible avec l’objectif initial, sauf si vous êtes autorisé par les personnes concernées (elles ont consenti) ou par un texte (par exemple une loi, un décret etc.). 最初に収集したデータを別の目的で再利用したい場合がある。この場合、データ対象者にこの再利用を計画・通知していないのであれば、データ対象者(データ対象者が同意している)または条文(法律、法令など)により許可されていない限り、この新たな利用が当初の目的に適合していることを確認しなければならない。
Vous devez effectuer ce qu’on appelle un « test de compatibilité », qui doit prendre en compte : その際、以下の点を考慮しなければならない:
・l’existence d’un lien entre l’objectif initial et celui de constitution de base de données pour l’apprentissage d’un système d’IA ; ・当初の目的と、AIシステムを訓練するためのデータベース作成との間に関連性があるかどうか;
・le contexte dans lequel les données personnelles ont été collectées ; ・個人データが収集された背景
・le type et la nature des données ; ・データの種類と性質
・les éventuelles conséquences pour les personnes concernées ; ・データ対象者への影響
・l’existence de garanties appropriées (par exemple, la pseudonymisation des données). ・適切な保護措置の存在(データの仮名化など)。
À noter : si vous souhaitez réutiliser des données dans un objectif de production de statistiques ou de recherche scientifique, le traitement est présumé compatible avec l’objectif initial. Aucun test de compatibilité n’est donc nécessaire dans ce cas. 注意:統計的または科学的研究目的でデータの再利用を希望する場合、その処理は当初の目的と両立するものと推定される。したがって、この場合、互換性テストは必要ない。
Le fournisseur réutilise des données publiquement accessibles (open source) サプライヤーが、一般にアクセス可能な(オープンソースの)データを再利用する。
Dans ce cas, vous devez vous assurer que vous n’êtes pas en train de réutiliser une base de données dont la constitution était manifestement illicite (par exemple, provenant d’une fuite de données). Une analyse au cas par cas doit être effectuée. この場合、明らかに不正に作成された(例えばデータ漏洩による)データベースを再利用していないことを確認しなければならない。ケースバイケースの分析を行う必要がある。
La CNIL recommande aux réutilisateurs de vérifier et de documenter (par exemple, dans l’analyse d’impact sur la protection des données) les éléments suivants : CNILは、再利用者が以下の要素を確認し、文書化することを推奨している(例えば、データ保護影響評価において):
・la description de la base de données mentionne leur source ; ・データベースの説明で、そのソースに言及すること;
・la constitution ou la diffusion de la base de données ne résulte pas manifestement d’un crime ou d’un délit ou a fait l’objet d’une condamnation ou d’une sanction publique de la part d’une autorité compétente qui a impliqué une suppression ou une interdiction d’exploitation ; ・データベースの作成または普及が明らかに犯罪や軽犯罪の結果でないこと、または削除や使用禁止を伴う有罪判決や管轄当局による公的制裁の対象になっていないこと;
・il n’y a pas de doutes flagrants sur le fait que la base de données est licite en s’assurant en particulier que les conditions de collecte des données soient suffisamment documentées ; ・特に、データ収集の条件が十分に文書化されていることを確認することにより、データベースの合法性に関して明白な疑念がないこと;
・la base de données ne contient pas de données sensibles (données de santé ou révélant des opinions politiques par exemple) ou de données d’infraction ou, si elle en contient, il est recommandé de mener des vérifications supplémentaires pour s’assurer que ce traitement est licite. ・データベースに機密データ(健康データ、政治的意見を明らかにするデータなど)や侵害データが含まれていないか、含まれている場合は、この処理が合法的であることを確認するための追加チェックを行うことが推奨される。
L’organisme qui a mis en ligne la base de données est censé s’être assuré que cette publication respectait le RGPD, et en est responsable. En revanche, vous n’avez pas à vérifier que les organismes qui ont constitué et diffusé la base de données aient respecté toutes les obligations prévues par le RGPD : la CNIL estime que les quatre vérifications mentionnées ci-dessus suffisent généralement à permettre la réutilisation de la base pour l’entraînement d’un système d’IA, à condition de respecter les autres recommandations de la CNIL. Si vous recevez des informations, notamment de personnes dont les données sont contenues dans la base, qui mettent en lumière des problèmes de licéité de la base de données utilisées, vous devrez investiguez davantage. データベースをオンラインに公開した組織は、この公開がRGPDに準拠していることを保証し、その責任を負うことになっている。一方、データベースを作成・配布した組織がRGPDの定める義務をすべて遵守していることを確認する必要はない。CNILは、その他のCNILの勧告が遵守されていれば、AIシステムのトレーニングのためにデータベースを再利用するには、上記の4つの確認で一般的に十分であると考えている。特にデータベースにデータが含まれている人々から、使用されているデータベースの合法性に問題があることを強調する情報を受け取った場合は、さらに調査する必要がある。
Le fournisseur réutilise des données acquises auprès d’un tiers (courtiers en données ou data brokers, etc.) サプライヤーが第三者(データブローカーなど)から取得したデータを再利用している。
Pour le tiers qui partage des données personnelles, parfois contre rémunération, il existe deux types de situations. 第三者が個人データを共有する場合、場合によっては支払いと引き換えに、2種類の状況がある。
Soit le tiers a collecté les données dans l’objectif de constituer une base de données pour l’apprentissage de système d’IA. Il doit s’assurer de la conformité du traitement de transmission des données au regard du RGPD (définition d’un objectif explicite et légitime, exigence d’une base légale, information des personnes et gestion de l’exercice de leurs droits, etc.). 第三者がAIシステムのトレーニング用データベースを構築する目的でデータを収集した場合。第三者は、データの処理と送信がRGPD(明示的かつ正当な目的の定義、法的根拠の要件、個人への通知と権利行使の管理など)に準拠していることを保証しなければならない。
Soit le tiers n’a pas initialement collecté les données pour cet objectif. Il doit alors s’assurer que la transmission de ces données poursuit un objectif compatible avec celui ayant justifié leur collecte. Il devra donc réaliser le « test de compatibilité » présenté plus haut. または、第三者が当初この目的でデータを収集していなかった。この場合、第三者はデータ送信の目的がデータ収集の目的と両立することを保証しなければならない。したがって、第三者は前述の「互換性テスト」を実施しなければならない。
Le réutilisateur des données a, quant à lui, plusieurs obligations : データ再利用者にはいくつかの義務がある:
・Il doit s’assurer qu’il n’est pas en train de réutiliser une base de données manifestement illicite en faisant les mêmes vérifications que celles énoncées dans la partie ci-dessus. La conclusion d’un accord entre le détenteur initial des données et le réutilisateur est recommandée afin de faciliter ces vérifications. ・データ再利用者は、上記のセクションで述べたのと同じチェックを行うことにより、明らかに違法なデータベースを再利用していないことを確認しなければならない。このようなチェックを容易にするために、データの元の保有者と再利用者との間で契約を締結することが推奨される。
・En plus de ces vérifications, il doit s’assurer de sa propre conformité au RGPD dans le traitement de ces données. ・これらの確認に加え、再利用者はデータの処理においてGDPRの遵守を自ら確認しなければならない。
► Pour plus d’informations, voir la fiche n° 4 詳細はシートNo.4を参照のこと。
5e étape : minimiser les données personnelles que j’utilise ステップ5:使用する個人データを最小限にする
Le principe 原則
Les données personnelles collectées et utilisées doivent être adéquates, pertinentes et limitées à ce qui est nécessaire au regard de l’objectif défini : c'est le principe de minimisation des données. Vous devez respecter ce principe et l’appliquer de manière rigoureuse lorsque les données traitées sont sensibles (données concernant la santé, données relatives à la vie sexuelle aux opinion religieuses ou politiques, etc.). 収集され使用される個人データは、適切かつ関連性があり、定義された目的に必要なものに限定されなければならない。処理されるデータが機微なもの(健康に関するデータ、性生活に関するデータ、宗教的または政治的意見など)である場合は、この原則を尊重し、厳格に適用しなければならない。
En pratique 実際には
La méthode à employer 使用する方法
Vous devez privilégier la technique permettant d’atteindre le résultat recherché (ou du même ordre) en utilisant le moins de données personnelles possible. En particulier, le recours à l’apprentissage profond ne doit donc pas être systématique. 可能な限り最小限の個人データを使用して、望ましい結果(またはそれに近いもの)を達成する手法を優先すべきである。特に、ディープラーニングは組織的に使うべきではない。
Le choix du protocole d’apprentissage utilisé peut, par exemple, permettre de limiter l’accès aux données aux seules personnes habilitées, ou encore de ne donner accès qu’à des données chiffrées. 使用する学習プロトコルの選択により、例えば、データへのアクセスを権限者のみに制限したり、暗号化されたデータへのアクセスのみを提供したりすることが可能となる。
La sélection des données strictement nécessaires 厳密に必要なデータを選択する
Le principe de minimisation n’interdit pas d’entraîner un algorithme avec des volumes très importants de données, mais implique : 最小化の原則は、非常に大量のデータでアルゴリズムを訓練することを排除するものではないが、:
・d’avoir une réflexion en amont afin de recourir aux seules données personnelles utiles au développement du système ; et ・システムの開発に有用な個人データのみが使用されるようにする。
・à mettre, par la suite, en œuvre les moyens techniques pour ne collecter que celles-ci. ・その後、このデータのみを収集する技術的手段を導入する。
La validité des choix de conception デザイン選択の妥当性
Afin de valider les choix de conception, il est recommandé à titre de bonne pratique de : 設計の選択を検証するために、グッドプラクティスとして以下のことが推奨される:
・mener une étude pilote, c’est-à-dire réaliser une expérimentation à petite échelle. Des données fictives, synthétiques, anonymisées peuvent être utilisées à cette fin ; ・パイロット・スタディ、すなわち小規模の実験を行う。この目的のために、架空の、合成された、匿名化されたデータを使用することができる;
・interroger un comité éthique (ou un « référent éthique »). Ce comité doit garantir que les enjeux en matière d’éthique et de protection des droits et libertés des personnes sont bien pris en compte. Il peut ainsi formuler des avis sur tout ou partie des projets, outils, produits, etc. de l’organisme susceptibles de poser des problématiques éthiques. ・倫理委員会(または「倫理参照者」)に相談する。この委員会は、倫理的問題と人々の権利と自由の保護が考慮され ていることを保証しなければならない。倫理委員会は、倫理的問題を提起する可能性のある組織のプロジェクト、ツール、 製品などの全部または一部について意見を発表することができる。
L’organisation de la collecte データ収集の組織化
Vous devez vous assurer que les données collectées sont pertinentes compte tenu des objectifs poursuivis. Plusieurs étapes sont fortement recommandées : 収集したデータが、追求する目的に関連したものであることを保証しなければならない。いくつかのステップを踏むことを強く推奨する:
・Le nettoyage des données : cette étape vous permet de constituer une base d’apprentissage de qualité et ainsi renforcer l’intégrité et la pertinence des données en réduisant les incohérences, et ainsi que le coût de l’apprentissage. ・データのクレンジング:このステップにより、高品質の学習データベースを構築することができ、データの整合性と関連性が強化される。
・L’identification des données pertinentes : cette étape vise à optimiser les performances du système tout en évitant les sous- et sur-apprentissage. En pratique, elle vous permet de vous assurer que certaines classes ou catégories inutiles pour la tâche visée ne sont pas représentées, que les proportions entre les différentes classes d’intérêt sont bien équilibrées, etc. Cette procédure vise également à identifier les données non pertinentes pour l’apprentissage (qui devront alors être supprimées de la base). ・関連データの特定:この段階は、学習不足や過剰学習を避けながら、システムのパフォーマンスを最適化することを目的としている。実際には、手元のタスクに有用でない特定のクラスやカテゴリーが表現されていないこと、関心のある異なるクラス間の比率がバランスよく保たれていることなどを確認することができる。この手順はまた、学習に関係のないデータ(これはデータベースから削除されるべきである)を特定することも目的としている。
・La mise en œuvre de mesures pour intégrer dès leur conception les principes de protection des données personnelles : cette étape vous permet d’appliquer des transformations sur les données (telles que des mesures de généralisation et/ou de randomisation, anonymisation des données, etc.) pour limiter l’impact pour les personnes. ・設計段階から個人データ保護の原則を取り入れるための対策を実施する:この段階では、個人への影響を制限するために、データに変形(一般化および/または無作為化対策、データの匿名化など)を適用することができる。
・Le suivi et la mise à jour des données : les mesures de minimisation pourraient devenir obsolètes au cours du temps. En effet, les données collectées pourraient perdre leurs caractères exact, pertinent, adéquat et limité, en raison d’une possible dérive des données, d’une mise à jour de celles-ci ou de l’évolution des techniques. Vous devrez donc conduire une analyse régulière pour assurer le suivi de la base de données constituée. ・データのモニタリングと更新:最小化措置は時間の経過とともに陳腐化する可能性がある。収集されたデータは、データ・ドリフト、データ更新、技術開発の結果、その正確性、関連性、妥当性、限定性を失う可能性がある。したがって、構築したデータベースを監視するために、定期的な分析を実施する必要がある。
・La documentation des données utilisées pour le développement d’un système d’IA : celle-ci vous permet de garantir la traçabilité des jeux de données utilisés que la grande taille peut rendre difficile. Vous devez tenir cette documentation à jour en fonction des modifications apportées à la base de données. La CNIL fournit ici un modèle de documentation. ・AIシステムの開発に使用したデータの文書化:これにより、使用したデータセットのトレーサビリティを保証することができる。データベースに変更が加えられた場合、この文書を常に最新の状態に保つ必要がある。CNILはここに文書化テンプレートを提供している。
► Pour plus d’informations, voir les fiches n° 6 et n°7 詳細はシート6と7を参照のこと。
6e étape : Définir une durée de conservation ステップ6:保存期間を定める
Le principe 原則
Les données personnelles ne peuvent être conservées indéfiniment. Le RGPD vous impose de définir une durée au bout de laquelle les données doivent être supprimées ou, dans certains cas, archivées. Vous devez déterminer cette durée de conservation en fonction de l’objectif ayant conduit au traitement de ces données. 個人データを無期限に保存することはできない。RGPDは、データを削除、または場合によってはアーカイブしなければならない期間を定めることを要求している。この保存期間は、データが処理された目的に基づいて決定しなければならない。
En pratique 実際には
Vous devez fixer une durée de conservation des données utilisées pour le développement du système d’IA : AIシステムの開発に使用したデータの保存期間を設定しなければならない:
・Pour la phase de développement : la conservation des données doit faire l’objet d’une planification en amont et d’un suivi dans le temps. Les personnes concernées doivent être informées de la durée de conservation des données (par exemple dans les mentions d’information) ; ・開発段階の場合:データ保持を事前に計画し、長期的に監視しなければならない。データ対象者には、データの保存期間を通知しなければならない(情報通知など);
・Pour la maintenance ou l’amélioration du produit : lorsque les données n'ont plus à être accessibles pour les tâches quotidiennes des personnes en charge du développement du système d’IA, elles doivent en principe être supprimées. Elles peuvent toutefois être conservées pour la maintenance du produit ou son amélioration si des garanties sont mises en œuvre (support cloisonné, restriction des accès aux seules personnes habilitées, etc.). ・製品の保守または改良:AIシステムの開発担当者の日常業務においてデータにアクセスする必要がなくなった場合、原則としてデータを削除しなければならない。ただし、製品の保守や改良のために、保証(パーティションによるサポート、許可された者のみのアクセス制限など)を行う場合は、データを保存することができる。
À noter : la conservation des données d’apprentissage peut permettre d’effectuer des audits et faciliter la mesure de certains biais. Dans ces cas, une conservation prolongée des données peut être justifiée, sauf si la conservation d’informations générales sur les données suffit (par exemple, la documentation réalisée sur le modèle proposé dans la section Documentation, ou encore des informations sur la distribution statistique des données). Cette conservation doit être limitée aux données nécessaires, et s’accompagner de mesures de sécurité renforcées. 注意:学習データを保存することで、監査が可能になり、特定の偏りの測定が容易になる場合がある。このような場合、データに関する一般的な情報の保存で十分でない限り(例えば、「ドキュメンテーション」セクションで提案されたモデルについて作成された文書や、データの統計的分布に関する情報など)、データの長期保存が正当化される場合がある。この保持は必要なデータに限定され、強化されたセキュリティ対策を伴わなければならない。
► Pour plus d’informations, voir la fiche n° 7 詳細はシートNo.7を参照のこと。
7e étape : Réaliser une analyse d’impact sur la protection des données (AIPD) ステップ7:データ保護影響評価(DPIA)を実施する。
Le principe 原則
L’analyse d’impact sur la protection des données (AIPD) est une démarche qui vous permet de cartographier et d’évaluer les risques d’un traitement sur la protection des données personnelles et d’établir un plan d’action pour les réduire à un niveau acceptable. Elle va notamment vous conduire à définir les mesures de sécurité pour protéger les données. データ保護影響評価(DPIA)は、個人データ保護に関する処理操作のリスクをマッピングし、 評価し、許容可能なレベルまで低減するための行動計画を策定することを可能にするアプローチ である。特に、データを保護するために必要なセキュリティ対策を定義する。
En pratique 実務
La réalisation d’une AIPD pour le développement de systèmes d’IA AIシステム開発のためのDPIAの実施
Il est fortement recommandé de réaliser une AIPD pour le développement de votre système d’IA notamment lorsque deux des critères suivants sont remplis : AIシステムの開発においては、特に以下の2つの基準を満たす場合にDPIAを実施することを強く推奨する:
・des données sensibles sont collectées ; ・機密データが収集される;
・des données personnelles sont collectées à large échelle ; ・個人データが大規模に収集される;
・des données de personnes vulnérables (personnes mineures, en situation de handicap, etc.) sont collectées ; ・弱者(未成年者、障害者など)のデータが収集される;
・des ensembles de données sont croisés ou combinés; ・データセットが相互参照される、または組み合わされる;
・de nouvelles solutions technologiques sont mises en œuvre ou une utilisation innovante est faite. ・新しい技術ソリューションが導入される、または革新的な利用が行われる。
Par ailleurs, si des risques importants existent (par exemple : de mésusage des données, de violation de données, ou de discrimination), une AIPD doit être réalisée même si deux des critères précédents ne sont pas remplis. さらに、重大なリスク(データの悪用、データ漏洩、差別など)がある場合は、上記の基準のうち2つを満たしていなくてもDPIAを実施しなければならない。
Pour aider à réaliser une AIPD, la CNIL met à disposition le logiciel open source PIA dédié. DPIAの実施を支援するため、CNILは専用のPIAオープンソースソフトウェアを提供している。
Les critères de risque introduits par la proposition de règlement européen sur l’IA AIに関する欧州規制案が導入するリスク基準
La CNIL considère que, pour le développement des systèmes à haut risque visés par le règlement européen sur l’IA et impliquant des données personnelles, la réalisation d’une AIPD est en principe nécessaire. CNILは、欧州AI規則が適用され、個人情報に関わるリスクの高いシステムの開発には、原則としてDPIAの実施が必要であると考えている。
À noter : la réalisation de l’AIPD pourra reposer sur la documentation exigée par le règlement sur l’IA sous réserve de comporter les éléments prévus par le RGPD (article 35 du RGPD). 注:DPIAは、RGPD(RGPD第35条)が要求する要素を含んでいれば、AI規則が要求する文書に基づくことができる。
Le périmètre de l’AIPD DPIAの範囲
Il existe deux types de situations pour le fournisseur d’un système d’IA, selon l’objectif du système d’IA (voir « définir un objectif (finalité) pour le système d’IA »). AIシステムのサプライヤーには、AIシステムの目的に応じて2種類の状況がある(「AIシステムの目的(狙い)の定義」を参照)。
・Vous savez clairement quel sera l’usage opérationnel de votre système d’IA ・AIシステムの運用目的が明確である。
Il est recommandé de réaliser une AIPD générale pour l’ensemble du cycle de vie, qui comprend les phases de développement et de déploiement. Attention, si vous n’êtes pas l’utilisateur/déployeur du système d’IA, c’est ce dernier qui aura la responsabilité de réaliser l’AIPD pour la phase de déploiement (même s’il pourra s’appuyer sur le modèle d’AIPD que vous aurez proposé). 開発・導入段階を含むライフサイクル全体について、一般的なDPIAを実施することが推奨される。あなたがAIシステムのユーザー/デプロイヤーでない場合、デプロイメント段階のDPIAを作成する責任を負うのはユーザー/デプロイヤーであることに注意すること(ただし、あなたが提案したDPIAモデルを使用することはできる)。
・Si vous développez un système d’IA à usage général ・汎用AIシステムを開発する場合
Vous ne pourrez réaliser une AIPD que sur la phase de développement. Cette AIPD doit être fournie aux utilisateurs de votre IA pour leur permettre de conduire leur propre analyse. 開発段階のDPIAしか作成できない。このDPIAは、AIの利用者が自ら分析を行えるように提供しなければならない。
Les risques liés à l’IA à prendre en compte dans une AIPD DPIAで考慮すべきAI関連のリスク
Les traitements de données personnelles reposant sur des systèmes d’IA présentent des risques spécifiques que vous devez prendre en compte : AIシステムに基づく個人データの処理には、考慮しなければならない特定のリスクが存在する:
・les risques liés à la confidentialité des données susceptibles d’être extraites depuis le système d’IA ; ・AIシステムから抽出される可能性の高いデータの機密性に関するリスク;
・les risques pour les personnes concernées liés à des mésusages des données contenues dans la base d’apprentissage (par vos employés qui y ont accès ou en cas de violation de données) ; ・学習データベースに含まれるデータの誤用に関連するデータ主体へのリスク(アクセス可能な従業員による、またはデータ侵害の場合);
・le risque d’une discrimination automatisée causée par un biais du système d’IA introduit lors du développement ; ・開発中に導入されたAIシステムのバイアスに起因する自動差別のリスク;
・le risque de produire du contenu fictif erroné sur une personne réelle, notamment dans le cas des systèmes d’IA génératives ; ・特に生成AIシステムの場合、実在の人物に関する誤った架空のコンテンツを生成するリスク;
・le risque de prise de décision automatisée quand l’agent utilisant le système n’est pas en capacité de vérifier sa performance en conditions réelles ou de prendre une décision contraire à la sortie du système sans que cela ne lui porte préjudice (en raison d’une pression hiérarchique par exemple) ; ・システムを使用するエージェントが、現実の条件下でそのパフォーマンスをチェックしたり、(例えば階層的な圧力により)不利益を被ることなくシステムの出力に反する決定を下すことができない場合、自動意思決定が行われるリスク;
・le risque d’une perte de contrôle des utilisateurs sur leurs données publiées et librement accessibles en ligne ; ・オンラインで公開され、自由にアクセスできる自分のデータに対するコントロールをユーザーが失うリスク;
・les risques liés aux attaques connues spécifiques aux systèmes d’IA (par exemple, les attaques par empoisonnement des données) ; ・AIシステム特有の既知の攻撃に関連するリスク(データポイズニング攻撃など);
・les risques éthiques systémiques et graves liés au déploiement du système. ・システムの配備に伴う、システム的かつ深刻な倫理的リスク。
Les mesures à prendre en fonction des résultats de l’AIPD DPIAの結果に基づく措置
Une fois le niveau de risque déterminé, votre AIPD doit prévoir un ensemble de mesures visant à le réduire et à le maintenir à un niveau acceptable, par exemple : リスクのレベルが決定されたら、DPIAには、それを低減し、許容可能なレベルに維持するために設計された一連の対策を含めなければならない:
des mesures de sécurité (par exemple, le chiffrement homomorphe ou l’utilisation d’un environnement d’exécution sécurisé) ; セキュリティ対策(例えば、同型暗号化や安全な実行環境の使用);
・des mesures de minimisation, (par exemple le recours à des données synthétiques) ; ・最小化対策(合成データの使用など);
・des mesures d’anonymisation ou de pseudonymisation (par exemple la confidentialité différentielle) ; ・匿名化または仮名化対策(差分機密性など);
・des mesures de protection des données dès le développement (par exemple l’apprentissage fédéré) ; ・開発段階におけるデータ保護対策(例:連合学習);
・des mesures facilitant l’exercice des droits ou les recours pour les personnes (par exemple techniques de désapprentissage machine, mesures d’explicabilité et de traçabilité des sorties du systèmes d’IA, etc.) ; ・個人が権利を行使したり、救済を求めたりしやすくするための措置(例:機械による学習解除技術、AIシステムの出力の説明可能性と追跡可能性を確保するための措置など);
・des mesures d’audit et de validation (par exemple des attaques fictives). ・監査・検証措置(架空攻撃など)。
D’autres mesures, plus génériques, pourront également être appliquées : mesures organisationnelles (encadrement et limitation de l’accès aux bases de données d’apprentissage et pouvant permettre une modification du système d’IA, etc.), mesures de gouvernance (mise en place d’un comité éthique, etc.), mesures de traçabilité des actions ou documentation interne (charte information, etc.). また、組織的対策(学習データベースへのアクセスや、AIシステムの改変を可能にするようなアクセスの監督や制限など)、ガバナンス対策(倫理委員会の設置など)、行動のトレーサビリティや内部文書化のための対策(情報憲章など)など、より一般的な対策を適用することもできる。
► Pour plus d’informations, voir la fiche n°5 詳細はシートNo.5を参照のこと。
À suivre… La CNIL continue ses travaux pour aider les concepteurs de systèmes d’IA CNILはAIシステムの設計者を支援するための活動を続けている。
Elle publiera prochainement de nouvelles fiches permettant d’expliquer comment concevoir et entraîner des modèles dans le respect du RGPD : récupération de données sur internet ; comment mobiliser l’intérêt légitime comme base légale, exercice des droits d’accès, de rectification et d’effacement ; recours ou non à des licences ouvertes… RGPDに準拠したモデルを設計し、訓練する方法を説明する新しいファクトシート(インターネットからのデータ回収、法的根拠として正当な利益を動員する方法、アクセス権、修正権、消去権の行使、オープンライセンスを使用するか否か...)を間もなく発行する予定である。
Ces fiches seront soumises à consultation publique. これらのファクトシートは、パブリックコンサルテーションに付される予定である。
Texte reference 参考テキスト
Pour approfondir 詳細情報
La recommandation complète de la CNIL sur le déploiement des systèmes d’IA AIシステムの導入に関するCNILの勧告全文
Tous les contenus de la CNIL sur l'intelligence artificielle 人工知能に関するCNILの全コンテンツ

 

 


 

公開コンサルテーション- AIシステム設計のためのデータベース作成に関する実践的情報シート

・2024.02.13 [PDF] Consultation publique – fiches pratiques sur la constitution de bases de données pour la conception de systèmes d’IA

20240410-233057

 

 

CNILの人工知能に対する対応計画...

・2023.05.16 Intelligence artificielle : le plan d’action de la CNIL

 

 

 

| | Comments (0)

2024.04.09

中国 TC260 意見募集 国家標準 「生成的AIの事前訓練・最適化訓練データのセキュリティ仕様」案

こんにちは、丸山満彦です。

中国の国家情報セキュリティ標準化技術委員会 (TC260) が「生成的AIの事前訓練・最適化訓練データのセキュリティ仕様 」の草案を公表し、意見募集をしていますね。。。

これは、中国独自の標準ですね...

なかなか細かく作り込んでいますね...

 

● 全国信息安全标准化技术委员会

・2024.04.03 关于国家标准《信息安全技术 生成式人工智能预训练和优化训练数据安全规范》征求意见稿征求意见的通知

ドラフトはこちら...

・[PDF] 信息安全技术 生成式人工智能预训练和优化训练数据安全规范-标准文本

20240409-104927

网络安全技术 生成式人工智能预训练和优化训练数据安全规范  サイバーセキュリティ技術 生成的AIの事前訓練・最適化訓練データのセキュリティ仕様 
Cybersecurity technology —— Security specification for generative artificial intelligence pre-training and fine-tuning data  サイバーセキュリティ技術 生成的AIの事前訓練・最適化訓練データのセキュリティ仕様 
目 次  目次 
前言  前書き
1 范围 1 範囲
2  规范性引用文件  2 引用規格 
3  术语和定义 3 用語と定義
4  概述 4 概要
4.1 安全风险 4.1 セキュリティ・リスク
4.2 安全框架 4.2 セキュリティの枠組み
5  通用安全要求  5 一般的なセキュリティ要件 
6  预训练数据处理活动的安全要求 6 訓練前データ処理活動に関するセキュリティ要件
6.1 数据收集 6.1 データ収集
6.2 数据预处理 6.2 データの前処理
6.3 数据使用 6.3 データの使用
7  优化训练数据处理活动的安全要求 7 最適化訓練データ処理活動に対するセキュリティ要件
7.1 数据收集 7.1 データ収集
7.2 数据预处理 7.2 データの前処理
7.3 数据使用 7.3 データの使用
8  评价方法 8 評価方法
8.1 通用安全评价方法 8.1 一般的なセキュリティ性評価方法
8.2 预训练数据处理活动评价方法 8.2 訓練前データ処理活動の評価方法
8.2.1 数据收集 8.2.1 データ収集
8.2.2 数据预处理 8.2.2 データの前処理
8.2.3 数据使用  8.2.3 データの使用 
8.3 优化训练数据处理活动评价方法  8.3 最適化訓練データ処理活動の評価方法 
8.3.1 数据收集 8.3.1 データ収集
8.3.2 数据预处理 8.3.2 データの前処理
8.3.3 数据使用 8.3.3 データの使用
附录 A (资料性) 预训练和优化训练数据的主要安全风险内容 附属書 A(参考) 事前訓練と最適化データの主なセキュリティリスク内容
A.1                 包含违反社会主义核心价值观的内容  A.1 社会主義の基本的価値観に反する内容が含まれている。
A.2                 包含歧视性内容  A.2 差別的な内容を含む 
A.3                 商业违法违规 A.3 商業的な法令違反がある
A.4                 侵犯他人合法权益  A.4 他人の正当な権利と利益を侵害する。
附录 B (规范性) 关键词库和分类模型要求 附属書B(規範) キーワードバンクおよび分類モデルに関する要求事項
B.1  关键词库 B.1 キーワードライブラリ
B.2  分类模型 B.2 分類モデル
参考文献 参考文献
前 言  序文 
本文件按照GB/T 1.1—2020《标准化工作导则  第1部分:标准化文件的结构和起草规则》的规定起草。  この文書は、GB/T 1.1-2020 Guidelines for Standardisation Work Part 1: Structure and Drafting Rules for Standardisation Documents の規定に従って作成された。
本文件由全国网络安全标准化技术委员会(SAC/TC260)提出并归口。  本文書は、ネットワークセキュリティ標準化国内技術委員会(SAC/TC260)により提案され、その後援を受 けている。
本文件起草单位:(名单根据实际情况决定)  本文書の起草単位:(リストは実情に応じて決定する。) 
本文件主要起草人:(名单根据实际情况决定)  この文書の主な起草者:(リストは実情に応じて決定する。) 
网络安全技术生成式人工智能预训练和优化训练数据安全规范  サイバーセキュリティ技術 生成的人工知能 事前訓練と最適化 訓練データ セキュリティ仕様書 
1. 范围  1.適用範囲 
本文件规定了生成式人工智能预训练和优化训练数据及其处理活动的安全要求,描述了对应的评价方法。  本文書は、生成的人工知能の事前訓練および最適化訓練データとその処理活動に対するセキュリ ティ要件を規定し、対応する評価方法を記述する。
本文件适用于指导生成式人工智能服务提供者开展预训练和优化训练数据处理活动以及开展与训练预训练和优化训练数据安全自评价,也可为监管评估提供参考。  本文書は、生成的人工知能サービス提供者が事前訓練および最適化訓練データ処理活動を実施する際の指針として、また、訓練を伴う事前訓練および最適化訓練データのセキュリティの自己評価を実施する際の指針として適用され、また、規制評価の参考となる。
2. 规范性引用文件  2.引用規格
下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。  以下の文書の内容は、本文中の規範的参照を通じて、この文書の不可欠な規定を構成している。 このうち、日付のある引用文書については、その日付に対応するバージョンのみが本文書に適用され、日付のない引用文書については、最新バージョン(すべての修正シートを含む)が本文書に適用される。
GB/T AAAAA  网络安全技术  生成式人工智能数据安全标注规范  GB/T AAAAA サイバーセキュリティ技術生成的人工知能データセキュリティラベリング仕様書 
3. 术语和定义  3.用語と定義 
下列术语和定义适用于本文件。  以下の用語と定義が本文書に適用される。
3.1 3.1
生成式人工智能 generative artificial intelligence  生成的人工知能サービス 
具有文本、图片、音频、视频等内容生成能力的人工智能系统。  テキスト、画像、音声、動画などのコンテンツを生成する能力を有する人工知能シ ステム。
3.2 3.2
生成式人工智能服务 generative artificial intelligence service  生成的人工知能サービス
利用生成式人工智能技术提供生成文本、图片、音频、视频等内容的服务。  生成的人工知能技術を用いて、テキスト、画像、音声、動画などのコンテンツを生成するサービスを提供する生成的人工知能サービス。
3.3 3.3
服务提供者 service provider  サービス提供者 
以交互界面、可编程接口等形式提供生成式人工智能服务的组织和个人。  対話型インタフェースやプログラマブルインタフェースの形で生成的人工知能サービスを提供する組織や個人。
3.4 3.4
服务使用者 service user  サービス利用者 
使用生成式人工智能服务的组织或个人。  生成的AIサービスを利用する組織または個人。
3.5 3.5
预训练 pre-training  事前訓練 
使用大规模数据使生成式人工智能模型获得通用知识的训练过程。  生成的AIモデルが一般的な知識を獲得できるように、大規模データを使用する訓練プロセス。
3.6 3.6
优化训练 fine-tuning  最適化訓練
使用专门领域数据使生成式人工智能模型获得一定面向领域服务能力的训练过程。  生成的AIモデルが特定のドメイン指向のサービス能力を獲得できるように、ドメイン固有のデータを使用する訓練プロセス。
3.7 3.7
预训练数据 pre-training data  事前訓練データ 
所有用于生成式人工智能预训练的各类数据。  生成的AIの事前訓練に使用されるすべての種類のデータ。
3.8 3.8
优化训练数据 fine-tuning data  最適化訓練データ
所有用于生成式人工智能优化训练的各类数据。  生成的AIの最適訓練に使用されるすべての種類のデータ。
4. 概述  4.概要 
 4.1 安全风险  4.1 セキュリティリスク 
生成式人工智能预训练和优化训练数据的安全性涉及数据自身的安全性以及生成式人工智能服务的安全性两方面。生成式人工智能的预训练和优化训练数据面临的安全风险有:  生成的AIの事前訓練データと最適化訓練データのセキュリティには、データ自体のセキュリティと生成的AIサービスのセキュリティの両方が含まれる。 生成的AIの事前訓練・最適化訓練データが直面するセキュリティリスクは以下のとおりである: 
a)     数据泄露、数据窃取等风险;  a) データ漏洩やデータ盗難などのリスク; 
b)     数据投毒风险; c) 其他因训练数据影响生成式人工智能安全性的风险。  b) データポイズニングのリスク c) 訓練データに起因する生成的AIのセキュリティに影響を与えるその他のリスクである。
 4.2 安全框架  4.2 セキュリティの枠組み 
生成式人工智能预训练和优化训练数据安全框架包括数据通用安全以及数据处理活动安全。数据通用安全主要包括分类分级、安全防护、安全检测、审计追溯、应急响应等。数据处理活动安全主要包括数据收集、数据预处理、数据使用等活动的安全。  生成的AIの事前訓練と最適化訓練データのセキュリティフレームワークには、データ全般のセキュリティとデータ処理活動のセキュリティが含まれる。 データ全般のセキュリティには、主に分類と等級付け、セキュリティ保護、セキュリティ検出、監査トレーサビリティ、緊急対応が含まれる。 データ処理活動のセキュリティには、主にデータ収集、データ前処理、データ使用、その他の活動のセキュリティが含まれる。
生成式人工智能预训练和优化训练数据安全框架如图1所示。  生成的AIの事前訓練と最適化訓練のデータ・セキュリティの枠組みを図1に示す。
 
图1 生成式人工智能预训练和优化训练数据安全框架  図1 生成的AIの事前訓練と最適化訓練のデータ・セキュリティの枠組み 
5. 通用安全要求  5. 一般的なセキュリティ要件 
对服务提供者的要求如下。  サービス・提供者に対する要件は以下のとおりである。
a)     应对预训练和优化训练数据进行分类分级管理。  a) 事前訓練データと最適化訓練データを分類し、管理すること。
b)     应采取技术措施对预训练和优化训练数据进行安全监测,发现数据安全缺陷、漏洞等风险时及时告警并采取相应的处置措施。  b) 事前訓練・最適化訓練データのセキュリティを監視するための技術的措置を講じ、データセキュリティの欠陥、抜け穴、その他のリスクが発見された場合には適時に警告を発し、対応措置を講じること。
c)     应采取身份鉴别、访问控制、加密、备份等技术措施,对预训练和优化训练数据进行安全防护。  c) 身元確認、アクセス制御、暗号化、バックアップなどの技術的措置を講じて、事前研修・最適化研修データのセキュリティ保護を行う。
d)     应建立针对预训练和优化训练数据安全事件的应急响应机制,及时有效处置发生的数据安全事件,不影响或能够尽快恢复业务的运营。  d) 事前研修・最適化研修データのセキュリティ事故に対する緊急対応メカニズムを確立し、 データセキュリティインシデントに適時かつ効果的に対処し、事業運営に影響を与えないように、また、 できるだけ早く事業運営を再開できるようにすべきである。
e)     应对预训练和优化训练数据的数据收集、数据预处理、数据使用等的数据处理活动进行记录,确保预训练和优化训练数据处理活动的关键操作可审计、可追溯。  e) 事前研修・最適化研修データのデータ収集、データ前処理、データ使用などのデータ処理活動は、事前研修・最適化研修データ処理活動の主要業務が監査可能かつ追跡可能であることを保証するために記録されるべきである。
6. 预训练数据处理活动的安全要求  6.訓練前データ処理活動のセキュリティ要件 
 6.1 数据收集  6.1 データ収集 
对服务提供者的要求如下。  サービス提供者に対する要件は以下のとおりである。
a)     应记录数据收集所涉及的数据来源,保存相关信息:  a) データ収集に関わるデータソースを記録し、関連情報を保存すること: 
1)       数据来源为互联网网站,记录网站的统一资源定位符;  1) データソースがインターネットウェブサイトの場合、そのウェブサイトのユニフォーム・リソー ス・ロケーター(URL)を記録する; 
2)       数据来源为其他组织或个人,记录数据集名称、来源组织,保存具备法律效力的交易合同、合作协议、许可协议或相关授权文件等;  2) データソースが他の組織または個人の場合は、データセットの名称、ソース 組織、および取引契約、協力契約、ライセンス契約、または法的効力を有する関連認可 文書を記録する; 
3)       数据来源为服务使用者,记录服务名称、服务使用者的身份标识号码,保存服务使用者的授权记录。  3) データソースがサービス利用者である場合、サービス名、サービス利用者の識別 番号を記録し、サービス利用者の承認記録を保存する。
b)     同类型的数据应具有多个不同的数据来源。  b) 同じ種類のデータでも、複数の異なるデータソースがなければならない。
注:代码、图像、音频、视频及相同语言的文本等视为同类型的数据。  注:同じ言語のコード、画像、音声、ビデオ、テキストは同じ種類のデータとみなされる。
c)     通过互联网网站收集数据时,应记录所收集数据或数据所在网页的统一资源定位符。  c) インターネットのウェブサイトを通じてデータを収集する場合、収集されたデー タまたはデータがあるウェブページの URL(ユニフォーム・リソース・ロケータ)を記録すること。
d)     通过交易或合作等方式从其他组织或个人收集数据时,应对交易方或合作方所提供的数据、承诺、材料进行审核。  d) 取引または協力を通じて他の組織または個人からデータを収集する場合は、 取引または協力の当事者から提供されたデータ、約束、資料を調査しなければなら ない。
 6.2 数据预处理  6.2 データの前処理 
对服务提供者的要求如下。  サービス提供者に対する要件は,次のとおりである。
a)     应为数据中所有数据样本添加元数据内容:  a) データ中のすべてのデータサンプルにメタデータの内容を追加しなければならない: 
1)       数据样本已具有数据来源信息的,元数据内容为该信息;  1) データサンプルが既にデータソース情報を持っている場合,メタデータの内容はその 情報でなければならない; 
2)       数据样本来源于互联网网站的,元数据内容为该样本自身或所在网页的统一资源定位符;  2) データサンプルがインターネットウェブサイトに由来する場合、メタデータのコン テンツは、サンプル自体またはそれが置かれているウェブページのユニフォーム・リソー ス・ロケーター(URL)とする; 
3)       数据样本来源于其他组织或个人数据集的,元数据内容为数据集名称、组织名称等信息;  3) データサンプルが他の組織または個人のデータセットに由来する場 合、メタデータの内容は、データセットの名称、組織の名称およびそ の他の情報とする; 
4)       数据样本来源于服务使用者的,元数据内容为服务名称、服务使用者的身份标识号码等信息。  4) データサンプルがサービス利用者に由来する場合、メタデータの内容は、 サービス名やサービス利用者の識別番号などの情報である。
b)     应采取关键词、分类模型、人工抽检查等方式对数据含有安全风险内容情况进行识别,并记录识别情况。  b) セキュリティリスクコンテンツを含むデータを特定し、その特定を記録するために、 キーワード、分類モデル、手作業によるサンプリングチェックなどを採用する。
注:安全风险内容见附录A中定义的29类;关键词、分类模型要求见附录B。  注:セキュリティリスクの内容については、附属書Aに定義された29のカテゴリーを参照し、キーワードおよび分類モデルの要件については、附属書Bを参照すること。
c)     应对数据中的主要知识产权侵权风险进行识别并记录,例如数据中包含文学、艺术、科学作品的,重点识别数据的著作权侵权问题。  c) データに含まれる知的財産権侵害の主なリスクを特定し、記録する。例えば、 データに文学的、芸術的又は科学的著作物が含まれる場合は、データの著作 権侵害を特定することに重点を置くべきである。
 6.3 数据使用  6.3 データ利用 
对服务提供者的要求如下。  サービス提供者に対する要求は以下のとおりである。
a)     使用包含个人信息的数据时,应取得对应个人同意或符合法律、行政法规规定的其他情形。  a) 個人情報を含むデータの利用は、該当する個人の同意を得るか、または法律や行政規則が規定するその他の状況に従う。
b)     使用包含敏感个人信息的数据前,应取得对应个人单独同意或符合法律、行政法规规定的其他情形。  b) 機微(センシティブ)個人情報を含むデータを利用する場合は、個別に本人の同意を得るか、その他法令に定める場合に従うこと。
c)     不应使用存在知识产权侵权问题的数据。  c) 知的財産権侵害の問題を含むデータは利用しない。
d)     应采取措施降低生成式人工智能被诱导生成安全风险内容的可能性,包括但不限于充分过滤已识别含有安全风险内容的数据样本等。  d)生成的AIが安全リスクコンテンツを生成させる可能性を低減するため、安全リスクコンテンツを含むと特定されたデータサンプルに対して適切なフィルタリングを行う等の措置を講じること。
7. 优化训练数据处理活动的安全要求  7. 訓練データ処理活動におけるセキュリティ要件の最適化 
 7.1 数据收集  7.1 データ収集 
对服务提供者的要求如下。  サービス提供者に対する要件は以下のとおりである。
a)     优化训练数据的数据收集应符合6.1的要求。  a) 最適化訓練データのデータ収集は、6.1 の要件に従うこと。
b)     收集生成式人工智能生成内容等数据时,应记录所使用生成式人工智能模型或服务的版本、获取时间等信息。  b) 生成的AIによって生成されたコンテンツ等のデータを収集する場合、使用した生成的AIモデルやサービスのバージョン、取得時刻等の情報を記録すること。
7.2  数据预处理  7.2 データの前処理 
对服务提供者的要求如下。  サービス提供者に対する要件は以下のとおりである。
a)     优化训练数据的数据预处理应符合6.2的要求。  a) 最適化訓練データのデータ前処理は、6.2 の要件に従うこと。
b)     生成式人工智能生成内容构成的数据样本,应添加所使用生成式人工智能模型或服务的版本、获取时间等元数据内容。  b) 生成的AIによって生成されたコンテンツからなるデータサンプルは、使用された生成的AIモデル又はサービスのバージョン、取得時間等のメタデータコンテンツで補強されなければならない。
c)     优化训练数据的数据标注活动应符合GB/T AAAAA的安全要求。  c) 訓練データを最適化するためのデータ注釈活動は、GB/T AAAAA のセキュリティ要件に準拠すること。
d)     来源于生成式人工智能的生成数据,应重点识别数据内容是否存在安全风险内容并记录识别情况。  d) 生成的 AI に由来する生成データは、データ内容にセキュリティリスク内容があるかどうかの特定に重点を置き、その特定を記録すること。
 7.3 数据使用  7.3 データ利用 
对服务提供者的要求如下。  サービス提供者に対する要求事項は以下のとおりである。
a)     优化训练所使用数据的数据来源应符合6.3的要求。  a) 最適化訓練に使用するデータのデータソースは、6.3 の要件に準拠すること。
b)     使用生成式人工智能生成内容等数据时,应过滤掉存在安全风险内容的数据。  b) コンテンツ等のデータ生成に生成的 AI を使用する場合、セキュリティリスクコンテンツを含むデー タはフィルタリングにより除外すること。
8. 评价方法  8 評価方法 
 8.1 通用安全评价方法  8.1 一般的なセキュリティ評価方法 
通用安全要求的评价方法、预期结果和结果判定如下。  一般的なセクリティ要求事項の評価方法、期待される結果、結果判定は以下のとおりである。
a)     评价方法:  a) 評価方法 
1)      检查服务提供者对预训练和优化训练数据的操作过程记录和管理文档;  1) サービス提供者の運転プロセス記録および管理文書から、事前訓練データおよび最適化訓練 データを調査する; 
2)      检查服务提供者预训练和优化训练数据所在系统和网络的设计文档、运行日志,检查相关设备的实际运行情况;  2) 事前訓練データおよび最適化訓練データが配置されているシステムおよびネットワークの設計書、 運用記録を確認し、関連設備の実際の運用状況を確認する; 
3)      检查服务提供者预训练和优化训练数据的安全防护技术措施;  3) サービス提供者の事前訓練データおよび最適化訓練データのセキュリティ保護のための技術的措置を確認する; 
4)      检查服务提供者是否具备应急响应小组,以及是否制定了针对预训练和优化训练数据安全事件的应急响应预案,检查安全事件的应急处置记录;  4) サービス提供者が、事前訓練データおよび最適化訓練データのセキュリティ事故に対する緊急対応チームおよび緊急対応計画を有していることを確認し、セキュリティ事故に対する緊急対応記録を確認する;  
5)      检查服务提供者是否具有记录预训练和优化训练数据的数据收集及准备阶段处理活动的日志的完整性、有效性。  5) サービス提供者が、事前訓練データおよび最適化訓練データのデータ収集および準備段階の処理活動を記録するログの完全性および有効性を有しているかどうかを確認する。
b)     预期结果:  b) 期待される結果 
1)      服务提供者对预训练和优化训练数据进行了分类分级操作和管理;  1) サービス提供者は,事前訓練データおよび最適化訓練データを分類し,階層的 に運用管理している; 
2)      服务提供者已采取技术措施对预训练和优化训练数据进行安全监测,发现数据安全缺陷、漏洞等风险时及时告警并采取了相应的处置措施;  2) サービス提供者は、事前研修データおよび最適化研修データのセキュリティ監視を実施するための技術的措置を講じており、データセキュリティの欠陥や抜け穴などのリスクが発見された場合、適時に警告を発し、対応する措置を講じている; 
3)      服务提供者已采取身份鉴别、访问控制、加密、备份等技术措施,对预训练和优化训练数据进行了安全防护;  3) サービス提供者は、事前訓練および最適化訓練データのセキュリティ保護のために、身元確認、アクセス制御、暗号化、バックアップなどの技術的措置を講じている; 
4)      服务提供者已具备应急响应小组,建立了针对预训练和优化训练数据安全事件的应急响应机制,并在发生安全事件时,及时有效进行了实施;  4) サービス提供者は、緊急対応チームを有し、事前訓練および最適化訓練データのセキュリ ティインシデントに対する緊急対応メカニズムを確立し、セキュリティインシデントが 発生した場合、タイムリーかつ効果的な方法でこれを実施している; 
5)      服务提供者具有预训练和优化训练数据的数据收集及准备阶段关键活动日志,基于日志可对关键操作进行审计和追溯。  5) サービス提供者は、事前研修および最適化研修データのデータ収集および準備段階における 主要な活動のログを有しており、これに基づいて主要な活動を監査し、追跡することができる。
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果の判定:実際の評価結果が期待された結果と一致していれば適合、そうでなければ不適合と判定する。
 8.2 预训练数据处理活动评价方法  8.2 訓練前データ処理活動の評価方法 
8.2.1 数据收集  8.2.1 データ収集 
预训练数据收集安全要求的评价方法、预期结果和结果判定如下。  訓練前のデータ収集に関するセキュリティ要求事項の評価方法、期待される結果および結果判定は以下のとおりである。
a)     评价方法:  a) 評価方法 
1)       检查服务提供者是否具有数据来源记录;核验数据来源记录格式的正确性;抽样服务提供者所收集的数据,核验数据来源记录的完整性;  1) サービス提供者がデータソースの記録を持っているかどうかを確認する。データソースの記録の 形式が正しいかどうかを検証する; 
2)       检查服务提供者数据来源记录中同类型数据所使用数据来源的数量;  2) サービス提供者のデータソースの記録において、同じ種類のデータに使用されているデータソースの数を確認する; 
3)       检查服务提供者是否从互联网网站收集数据;抽样服务提供者收集的互联网网站数据,核查抽样样本与所记录统一资源定位符的一致性;  3) サービス提供者がインターネットサイトからデータを収集しているかどうかを確認する。サービス提供者がインターネットサイトから収集したデータをサンプリングし、サンプリングしたサンプルと記録されているユニフォームリソースロケータ(URL)との整合性を検証する; 
4)       检查服务提供者是否通过交易或合作等方式从其他组织或个人收集数据;抽样检查服务提供者对交易方或合作方提供数据、承诺、材料的审核材料。  4) サービス提供者が取引や協力などを通じて他の組織や個人からデータを収集し ているかどうかをチェックし、取引や協力当事者から提供されたデータ、コミットメント、 資料に関するサービス提供者の監査資料をサンプリングする。
b)     预期结果:  b) 期待される結果 
1)       服务提供者具有数据来源记录;数据来源涉及互联网网站的,具有统一资源定位符记录;数据来源涉及其他组织或个人的,具有数据集名称、来源组织记录,交易合同、合作协议记录、许可协议或相关授权文件等有效;数据来源涉及服务使用者的,具有服务名称、服务使用者的身份标识号码记录,服务使用者的授权记录有效;数据来源记录覆盖完整;  1) サービス提供者は、データソースの記録を持っている。データソースがインターネッ トのウェブサイトを含む場合、ユニフォームリソースロケータの記録を持っている。 データソースが他の組織または個人を含む場合、データセットの名前、ソースの組織の記録、 および取引契約、協力契約の記録、ライセンス契約または関連認可文書が有効である。 データソースの記録範囲は完全である; 
2)       服务提供者同种类型数据的具有多个来源数量;  2) サービス提供者は、同じ種類のデータについて複数の情報源を有している; 
3)       服务提供者未从互联网网站收集数据或所有抽样样本与所记录统一资源定位符相一致;  3) サービス提供者がインターネットサイトからデータを収集していない、またはすべての サンプル検体が記録されたUCLに対応している; 
4)       服务提供者未通过交易或合作等方式从其他组织或个人收集数据,或具有对交易方或合作方提供数据、承诺、材料的审核材料。  4) サービス提供者が、取引や協力を通じて他の組織や個人からデータを収集していないか、 取引当事者や協力当事者から提供されたデータ、約束、資料に関する監査資料がある。
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果判定:実際の評価結果が期待された結果と一致している場合は適合と判定し、それ以 外の場合は不適合と判定する。
8.2.2 数据预处理  8.2.2 データの前処理 
预训练数据预处理安全要求的评价方法、预期结果和结果判定如下。  訓練前データの前処理セキュリティ要件の評価方法、期待される結果、結果判定は以下のとおりである。
a)     评价方法:  a) 評価方法 
1)       随机抽样服务提供者预处理后的数据,对于每类数据来源抽样数量不少于100个样本,检查样本元数据内容的正确性;  1) サービス提供者の前処理済みデータを無作為にサンプリングし、各タイプのデータソースについ て、100 以上のサンプルをサンプリングし、サンプルのメタデータ内容の正しさをチェックする; 
2)       随机抽样服务提供者预处理后的数据,抽样数量不少于100个样本,检查样本是否具有安全风险内容识别记录;  2)サービス提供者の前処理されたデータをランダムにサンプリングし、各タイプのデータソースのサンプリング数は100サンプル以上であり、サンプルにセキュリティリスク内容の特定記録があるかどうかをチェックする; 
3)       随机抽样服务提供者预处理后的数据,抽样数量不少于100个样本,检查样本是否具有主要知识产权侵权风险识别记录。  3) サービス提供者の加工前データのランダムサンプリング、サンプル数100以上、サンプルに主要な知的財産権侵害リスクの特定記録があるかどうかをチェックする。
b)     预期结果:  b) 期待される結果 
1)       抽样样本全部具有元数据内容;样本涉及其他组织或个人数据集来源的,具有数据集名称、组织名称记录;样本涉及互联网网站来源的,具有样本或样本所在网页的统一资源定位符;样本涉及服务使用者来源的,具有服务名称及服务使用者的身份标识号码记录;  1) すべてのサンプルがメタデータの内容を持っている。サンプルが他の組織や個人のデータセットのソースに関与している場合、データセット名と組織名の記録を持っている。サンプルがインターネットウェブサイトのソースに関与している場合、サンプルのユニフォームリソースロケータ(URL)またはサンプルがあるウェブページを持っている。サンプルがサービスユーザーのソースに関与している場合、サービス名とサービスユーザーのID識別番号の記録を持っている; 
2)       抽样样本全部具有安全风险内容情况记录;  2) すべてのサンプルはセキュリティリスクの内容を記録している; 
3)       抽样样本涉及知识产权侵权风险的,全部具有知识产权侵权风险记录。  3) サンプルが知的財産権侵害リスクを含む場合、すべてのサンプルに知的財産権侵害リスクの記録がある。
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果の判定:実際の評価結果が期待される評価結果と一致する場合は適合と判定し、一致しない場合は不適合と判定する。
8.2.3 数据使用  8.2.3 データの利用 
预训练数据使用安全要求的评价方法、预期结果和结果判定如下。  事前訓練データの利用に関するセキュリティ要求事項の評価方法、期待される結果および結果判定は以下のとおりである。
a)     评价方法:  a) 評価方法 
1)       检查服务提供者是否使用包含个人信息的数据;检查服务提供者是否具有个人同意记录,或是否符合法律、行政法规规定的情况;  1) サービス提供者が個人情報を含むデータを利用しているかどうかを確認する。 サービス提供者が個人の同意の記録を有しているかどうか、又は法令および行政規則の 規定を遵守しているかどうかを確認する; 
2)       检查服务提供者是否使用包含个人敏感信息的数据;检查服务提供者是否具有个人单独同意记录,或是否符合法律、行政法规规定的情况;  2) サービス提供者が機微(センシティブ)個人情報を含むデータを利用しているかどうかを確認し、サービス提供者が個別に同意した記録があるかどうか、または法令や行政法規の規定を遵守しているかどうかをチェックする; 
3)       采用人工抽检方式从全部数据中随机抽取不少于4000个样本,核查服务提供者使用数据的知识产权侵权风险识别记录的准确性;  3)手動サンプリングを採用し、全データから4,000以上のサンプルを無作為に抽出し、サービス提供者が使用するデータの知的財産権侵害リスク特定記録の正確性を検証する; 
4)       采用人工抽检方式从全部数据中随机抽取不少于4000个样本,采用关键词、分类模型等技术抽检法从全部数据中抽取不少于总量10%的数据。  4) 全データから4,000以上のサンプルを無作為に抽出するために、手作業によるサンプリングを採用し、全データの総量の10%以上を抽出するために、キーワードや分類モデルなどの技術的なサンプリング方法を採用する。
b)     预期结果:  b) 期待される結果 
1)       服务提供者未使用个人信息数据,或具有个人同意记录,或使用个人信息数据符合法律、行政法规规定的情形;  1) 個人情報データを利用していない、又は本人の同意の記録がある、又は法令・行政法規を遵守して個人情報データを利用している; 
2)       服务提供者未使用个人敏感信息数据,或具有个人单独同意记录,或使用个人敏感信息数据符合法律、行政法规规定的情形;  2) サービス提供者は、個人機微情報データを利用しないか、個人の同意の記録があるか、 または個人機微情報データを法令および行政法規に従って利用する; 
3)       抽样样本不涉及知识产权侵权风险,或抽样样本无知识产权风险并与知识产权侵权风险识别记录一致;  3) サンプリングサンプルに知的財産権侵害のリスクがない、またはサンプリングサンプルに知的財産権侵害のリスクがなく、知的財産権侵害リスク特定記録と一致している; 
4)       人工抽检的抽样数据样本中不含安全风险内容样本数量占总抽样数量的比值不低于96%,技术抽检的抽样数据样本中不含安全风险内容样本数量占总抽样数量的比值不低于98%。  4) 手作業によるサンプリング検査用のデータサンプルのうち、セキュリティリスクを含まないサンプルの数がサンプルの総数に占める割合が96%以上であり、技術によるサンプリング検査用のデータサンプルのうち、セキュリティリスクを含まないサンプルの数がサンプルの総数に占める割合が98%以上である。
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果の判定:実際の評価結果が期待される結果と一致していれば適合と判定し、そうでなければ不適合と判定する。
8.3 优化训练数据处理活动评价方法  8.3 訓練データ処理活動の評価方法の最適化 
8.3.1 数据收集  8.3.1 データ収集 
优化训练数据收集安全要求的评价方法、预期结果和结果判定如下。  訓練データ収集のセキュリティ要件を最適化するための評価方法、期待される結果、結果判定は以下のとおりである。
a)     评价方法:  a) 評価方法 
1)       按照8.2.1a)规定的评价方法评价服务提供者优化训练数据的数据收集情况;  1) 8.2.1a)の評価方法に従い、サービス提供者の最適化訓練データ収集の評価を行う; 
2)       检查服务提供者是否收集生成式人工智能的生成内容;检查服务提供者收集的生成式人工智能生成内容是否具有所使用生成式人工智能模型或服务的版本、获取时间等信息记录。  2)サービス提供者が生成的AIコンテンツを収集しているかどうか、サービス提供者が収集した生成的AI生成コンテンツに、使用した生成的AIモデルやサービスのバージョン、取得時期等が記録されているかどうかを確認する。
b)     预期结果:  b) 期待される結果 
1)       符合8.2.1b)的预期结果;  1) 8.2.1b)の期待される結果を満たしている; 
2)       服务提供者没有收集生成式人工智能的生成内容,或具有所使用生成式人工智能模型或服务的版本、获取时间等信息的记录。  2) サービス提供者が生成的 AI の生成されたコンテンツを収集していないか、又は使用した生成的 AI モデル又はサービスのバージョン、取得時期等の情報を記録している。
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果判定:実際の評価結果が期待される結果と一致する場合は適合と判定し、それ以外の場合は不適合と判定する。
8.3.2 数据预处理  8.3.2 データの前処理 
优化训练数据预处理安全要求的评价方法、预期结果和结果判定如下。  訓練データ前処理におけるセキュリティ要件の最適化のための評価方法、期待結果、結果判定は以下のとおりである。
a)     评价方法:  a) 評価方法 
1)       按照8.2.2a)规定的评价方法评价服务提供者优化训练数据的数据预处理情况;  1) 8.2.2a)で規定した評価方法に従い、サービス提供者の最適化訓練データのデータ前処理 を評価する; 
2)       随机抽样服务提供者预处理后的优化训练数据,抽样数量不少于100个样本,检查样本元数据内容的正确性;  2) サービス提供者によって前処理された最適化訓練データを,100 サンプル以上のサンプルサ イズで無作為にサンプリングし,そのサンプルのメタデータ内容の正しさをチェックする; 
3)       检查优化训练的标注数据是否符合GB/T AAAAA的安全要求;  3) 最適化訓練用のラベル付けされたデータがGB/T AAAAのセキュリティ要件を満たしているかどうかをチェックする; 
4)       随机抽样服务提供者预处理后的优化训练数据,抽样数量不少于100个样本,检查样本是否具有生成式人工智能生成数据的安全风险内容识别情况。  4) サービス提供者による前処理後の最適化訓練データを、100サンプル以上のサンプリング数でランダムにサンプリングし、そのサンプルが生成的AIによって生成されたデータのセキュリティリスク内容の特定が可能かどうかをチェックする。
b)     预期结果:  b) 期待される結果 
1)       符合8.2.2b)的预期结果;  1) 8.2.2b)の期待結果を満たす; 
2)       抽样样本涉及生成式人工智能生成内容的,样本的元数据内容包括生成式人工智能模型或服务的版本、获取时间等信息。  2) サンプルに生成的AIが生成したコンテンツが含まれる場合、サンプルのメタデータコンテンツには、生成的AIモデル又はサービスのバージョン、取得時刻、その他の情報が含まれる。
3)       优化训练标注数据符合GB/T AAAAA的安全要求;  3) 最適化訓練注釈データは、GB/T AAAAA のセキュリティ要件に準拠している; 
4)       抽样样本为生成式人工智能生成内容的,具有生成式人工智能生成数据的安全风险内容识别记录。  4) サンプルが生成的AIコンテンツである場合、生成的AIデータのセキュリティリスクコンテンツ特定記録がある。
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果判定:実際の評価結果が期待される結果と一致する場合は適合と判定し、それ以外の 場合は不適合と判定する。
8.3.3 数据使用  8.3.3 データの利用 
优化训练数据使用安全要求的评价方法、预期结果和结果判定如下。  訓練データ利用におけるセキュリティ要件の最適化のための評価方法、期待される結果および結果判定は以 下のとおりである。
a)     评价方法:  a) 評価方法 
1)       按照8.2.3a)规定的评价方法评价服务提供者优化训练数据的数据使用情况;  1) 8.2.3a)の評価方法に従い、サービス提供者の最適化訓練データの利用状況を評価する; 
2)       采用人工抽检方式从全部数据中随机抽取不少于4000个样本,核查服务提供者使用数据的生成式人工智能生成数据的安全风险内容识别记录的准确性;  2) 手動サンプリングにより、全データから 4,000 サンプル以上を無作為に抽出し、サービス提 供者による生成的 AI データ利用のセキュリティリスク内容特定記録の正確性を検証する; 
b)     预期结果:  b) 期待される結果 
1)       符合8.2.3b)的预期结果;  1) 8.2.3b)の期待される結果を満たす; 
2)       抽样样本不涉生成式人工智能生成内容,或抽样样本安全风险内容并与知识生成式人工智能生成数据的安全风险内容识别记录一致;  2) サンプルサンプルに生成的 AI 生成コンテンツが含まれない、又はサンプルサンプルの安 全リスクコンテンツが含まれず、知識生成的 AI 生成データのセキュリティリスク内容特定記録と一致している; 
c)     结果判定:实际评价结果与预期结果一致则判定符合,其他情况判定不符合。  c) 結果の判定:実際の評価結果が期待された結果と一致している場合は適合と判定され、それ以外の場合は不適合と判定される。
附录 A  附属書A 
(资料性) (資料)
预训练和优化训练数据的主要安全风险内容  訓練前データおよび最適化訓練データの主なセキュリティリスク内容 
A.1 包含违反社会主义核心价值观的内容  A.1 社会主義の中核的価値観に反するコンテンツを含む。
包含以下内容:  以下の内容を含む:
a)煽动颠覆国家政权、推翻社会主义制度;  a) 国家権力の転覆や社会主義体制の転覆を扇動する;
b)危害国家安全和利益、损害国家形象;  b) 国家の安全と利益を危険にさらし、国のイメージを損なう;
c)煽动分裂国家、破坏国家统一和社会稳定;  c) 国を分裂させ、国民の団結と社会の安定を損なうよう扇動する;
d)宣扬恐怖主义、极端主义;  d) テロリズムや過激主義を助長する;
e)宣扬民族仇恨;  e) 民族的憎悪を助長する;
f)宣扬暴力、淫秽色情;  f) 暴力、わいせつ、ポルノを助長すること;
g)传播虚假有害信息;  (g)虚偽の有害情報を広めること;
h)其他法律、行政法规禁止的内容。  h)その他、法律や行政規則で禁止されている内容。
A.2 包含歧视性内容  A.2 差別的な内容を含むもの
包含以下内容:  以下の内容を含む:
a)民族歧视内容;  a) 民族差別的な内容;
b)信仰歧视内容;  b) 信条差別的な内容;
c)国别歧视内容;  c) 国別の差別的内容;
d)地域歧视内容;  d) 地理的差別的内容
e)性别歧视内容;  e) 性別差別の内容
f)年龄歧视内容;  f) 年齢差別の内容
g)职业歧视内容;  g) 職業差別の内容
h)健康歧视内容;  h) 健康差別の内容
i)其他方面歧视内容。  i) その他の差別内容
A.3 商业违法违规  A.3 商業犯罪
主要风险包括:  主なリスクは以下の通りである:
a)侵犯他人知识产权;  a) 他人の知的財産権を侵害する;
b)违反商业道德;  b) ビジネス倫理違反
c)泄露他人商业秘密; c) 他人の商業秘密を開示すること;
 d)利用算法、数据、平台等优势,实施垄断和不正当竞争行为;  d) アルゴリズム、データ、プラットフォームなどを利用して独占や不正競争を行う;
e)其他商业违法违规行为。  e) その他の商業違反
A.4 侵犯他人合法权益  A.4 他者の正当な権利と利益の侵害
主要风险包括:  主なリスクには以下が含まれる:
a)危害他人身心健康;  a) 他人の身体的・精神的健康を危険にさらす。
b)侵害他人肖像权;  b) 他人の肖像権を侵害する;
c)侵害他人名誉权;  c) 他人の名誉権を侵害すること。
d)侵害他人荣誉权;  d) 他人の名誉権を侵害する。
e)侵害他人隐私权;  e) 他人のプライバシー権を侵害すること。
f)侵害他人个人信息权益;  f) 他人の個人情報権益を侵害する行為;
g)侵犯他人其他合法权益。   g) 他者のその他の正当な権利および利益の侵害。
附录 B  附属書B 
(规范性) (規範)
关键词库和分类模型要求  キーワードライブラリおよび分類モデルの要件 
B.1 关键词库  B.1 キーワードライブラリ 
要求如下。  要件は以下のとおりである。
a) 关键词库应具有全面性,总规模不宜少于10000个。  (a) キーワードライブラリは包括的でなければならず、総容量は 10,000 以上でなければならない。
b)   关键词库应具有代表性,应至少覆盖本文件附录A.1以及A.2中17种安全风险内容,附录A.1中每一种安全风险内容的关键词均不宜少于200个,附录A.2中每一种安全风险内容的关键词均不宜少于100个。  (b) キーワードライブラリは代表的なものでなければならず、本書の「Appendix A.1」および「Appendix A.2」に記載されている少なくとも17種類のセキュリティリスクをカバーしなければならない。「Appendix A.1」に記載されているキーワードの各セキュリティリスクの内容は200以上でなければならず、「Appendix A.2」に記載されているキーワードの各セキュリティリスクの内容は100以上でなければならない。
c) 关键词库应按照网络安全实际需要及时更新,每周宜至少更新一次。  c) キーワードデータベースは、ネットワークセキュリティの実際のニーズ に応じて適時に更新する。
B.2 分类模型  B.2 分類モデル 
分类模型用应完整覆盖本文件附录A中全部29种安全风险。  B.2 分類モデル 分類モデルは、本文書の「附属書 A」に記載されている 29 のセキュリティリスクを完全に網羅するものでなければならない。
参 考 文 献  参考文献 
[1]     TC260-PG-20233A  网络安全标准实践指南—生成式人工智能服务内容标识方法  [1] TC260-PG-20233A サイバーセキュリティ標準実施ガイドライン - 生成的人工知能サービスコンテンツ識別方法 
[2]     TC260-003  生成式人工智能服务安全基本要求  [2] TC260-003 生成的人工知能サービスのセキュリティに関する基本要件 

 

 

説明...

・[DOCX] 信息安全技术 生成式人工智能预训练和优化训练数据安全规范-编制说明  

国家标准《网络安全技术 生成式人工智能预训练和优化训练数据安全规范》(征求意见稿)编制说明 標準「サイバーセキュリティ技術 生成的人工知能事前訓練・最適化訓練データセキュリティ仕様」(意見募集案) 作成上の留意点
一、工作简况 I. 作業の簡単な説明
1.1任务来源 1.1 課題の源泉
为加强网络安全国家标准在国家网络安全保障工作中的基础性、规范性、引领性作用,全国网络安全标准化技术委员会调研国家网络安全重点工作和技术产业发展需求,研究形成了2023年网络安全国家标准需求清单,含《网络安全技术 生成式人工智能预训练和优化训练数据安全规范》。2023年5月,北京中关村实验室联合相关单位参与申报该标准,于2023年8月份通过全国网络安全标准化技术委员会立项。 国家サイバーセキュリティ標準化技術委員会は、国家サイバーセキュリティ保護作業における国家サイバーセキュリティ標準の基本的、規範的、先導的役割を強化するため、国家サイバーセキュリティ重点作業と技術・産業発展ニーズを研究し、「生成的人工知能事前訓練と最適化訓練データセキュリティのためのサイバーセキュリティ技術仕様」を含む2023年のサイバーセキュリティ国家標準ニーズリストを研究・形成した。 2023年5月、北京中関村研究室は関連ユニットとともにこの標準の宣言に参加し、2023年8月、国家サイバーセキュリティ標準化技術委員会のプロジェクトに合格した。
1.2 制定背景 1.2 発展の背景
2022年11月底,生成式人工智能的出现引发各方广泛关注。为促进生成式人工智能技术健康发展和规范应用,2023年4月11日,国家互联网信息化办公室起草的《生成式人工智能服务管理办法(草案)》向全社会公开征求意见。其中,第七条有关“生成式人工智能产品的预训练数据、优化训练数据”条款备受关注。2023年4月13日,全国网络安全标准化技术委员会发布《关于发布2023年度第一批网络安全国家标准需求的通知》,将本标准纳入2023年网络安全国家安全标准需求项目。2023年7月13日,《生成式人工智能服务管理暂行办法》正式公布,并已于2023年8月15日正式施行。 2022年11月末、生成的AIの出現により、各方面の懸念が広がった。 生成的AI技術の健全な発展と標準化された応用を促進するため、2023年4月11日、国家インターネット情報化弁公室(NIITO)が起草した「生成的人工知能サービス管理弁法(案)」が社会全体に公開され、公開協議が行われた。 2023年4月13日、国家サイバーセキュリティ標準化技術委員会は、「2023年サイバーセキュリティ国家標準要求プロジェクト」に本標準を含む「2023年サイバーセキュリティ国家標準要求第一陣の発表に関する通知」を発表した。 2023年7月13日、「生成的人工知能サービス管理暫定措置」が正式に発表され、2023年8月15日に施行された。
2023年8月25日,全国网络安全标准化技术委员会发布《全国信息安全标准化技术委员会关于2023年第一批网络安全国家标准项目立项的通知》,明确本标准由北京中关村实验室作为项目牵头单位负责标准编制工作。 2023年8月25日、国家ネットワークセキュリティ標準化技術委員会は、「2023年サイバーセキュリティ国家標準第一陣プロジェクト設立に関する国家情報セキュリティ標準化技術委員会通知」を発表し、この標準は北京の中関村実験室が標準作成責任プロジェクトの主管部門として作成することを明らかにした。
1.3 起草过程 1.3 起草プロセス
1、2023年4月,北京中关村实验室牵头组建标准前期研究工作小组,小组对研究《生成式人工智能管理办法(征求意见稿)》,广泛收集专家对办法的讨论与解读,形成相应标准草案,并准备申报材料。 1. 2023年4月、北京中関村研究室は標準事前研究作業部会を率先して設置し、「生成的人工知能管理弁法(意見募集案)」を研究し、専門家の議論と解釈を広く集め、対応する標準草案を形成し、宣言資料を作成した。
2、2023年6月,北京中关村实验室编制组在全国网络安全标准化技术委员会2023年第一次“标准周”上进行标准汇报,通过组内成员单位投票。标准编制组根据意见进行认真修改。 2. 2023年6月、北京中関村実験室準備グループは、2023年に国家ネットワークセキュリティ標準化技術委員会では、グループのメンバー単位の投票を通じて、標準報告書の最初の "標準週"。 標準準備グループは、コメントに従って慎重に修正した。
3、2023年8月,全国网络安全标准化技术委员会发布《全国信息安全标准化技术委员会关于2023年第一批网络安全国家标准项目立项的通知》,同意本标准由北京中关村实验室作为项目牵头单位负责标准编制工作。 3. 2023年8月、国家ネットワークセキュリティ標準化技術委員会は、「2023年国家ネットワークセキュリティ標準第一陣の制定に関する国家情報セキュリティ標準化技術委員会通知」を発表し、本標準を北京中関村研究室がプロジェクトの主管として制定することに合意した。
4、2023年9月,北京中关村实验室召开标准研讨会,继续完善标准草案,并对外公开征集标准参编单位。 4. 2023年9月、北京中関村実験室は標準セミナーを開催し、標準草案の改良を続け、標準参加単位を一般から公募した。
5.2023年10月,北京中关村实验室正式成立标准编制组,召开国家标准制定启动会,并就标准草案内容向参编单位征集贡献,对标准内容进行完善。 5. 2023年10月、北京中関村研究室は正式に標準準備グループを設立し、国家標準開発のキックオフ会議を開催し、標準草案の内容について参加単位から投稿を募り、標準の内容を改善した。
6.2023年11月,北京中关村实验室编制组在全国网络安全标准化技术委员会2023年第二次“标准周”上进行标准汇报。SWG-BDS工作组对标准进行了审议并行成“修改完善后转为征求意见稿”结论。标准编制组根据意见进行认真修改。 6. 2023年11月、北京中関村実験室準備グループは、国家ネットワークセキュリティ標準化技術委員会で2023年、標準報告書、SWG-BDSワーキンググループの2番目の "標準週 "に審議のための標準になり、"コメントのためのドラフトに修正し、改善された。 "結論。 標準準備グループは、深刻な改訂のためのコメントに応じて。
二、标准编制原则、主要内容及其确定依据 II. 標準作成の原則、主な内容とその基礎の決定
2.1 标准编制原则 2.1 標準作成の原則
本标准的编制遵循以下原则:  この標準の作成は、次の原則に従う: 
(1) 先进性:标准反映当前《生成式人工智能服务管理暂行办法》等最新法律要求以及生成式人工智能的先进技术水平; (1) 先進性:本標準は、現行の生成的人工知能サービス管理暫定弁法などの最新の法的要求事項、および生成的人工知能の先進的な技術レベルを反映する;
(2) 开放性:标准的编制、评审与使用具有开放性; (2) 開放性:標準の作成、評価、使用は開放的である;
(3) 适应性:标准结合我国国情; (3) 適応性:標準は中国の国情に適合している;
(4) 简明性:标准易于理解、实现和应用; (4) 簡素性:標準は理解、実現、適用が容易である;
(5) 中立性:公正、中立,不与任何利益攸关方发生关联; (5) 中立性:公平性、中立性、いかなる利害関係者とも関係がない;
(6) 一致性:术语与国内外标准所用术语最大程度保持一致。 (6) 一貫性:国内外の規格で使用される用語の一貫性を最大限に保つ。
本标准通过“数据通用安全”和“数据处理安全”两个维度,对生成式人工智能服务的研发者开展预训练和优化训练过程中涉及的数据处理过程安全保护要求作出明确规范,以实现降低生成式人工智能服务遭受数据投毒、恶意诱导性提示等安全威胁目的。 本標準は、生成的AIサービスがデータ攻撃を受けるリスクを低減するという目標を達成するために、「データ全般のセキュリティ」と「データ処理のセキュリティ」という2つの側面を通じて、生成的AIサービスの開発者が実施する事前訓練と最適化訓練プロセスに関わるデータ処理プロセスのセキュリティ保護要件について明確な仕様を定めている。 生成的AIサービスは、データポイズニング、悪意のある誘導プロンプト、その他のセキュリティ脅威の対象となる。
2.2 主要内容及其确定依据 2.2 主な内容と判断根拠
本项目旨在于支撑《生成式人工智能服务管理暂行办法》第七条对预训练和优化训练等训练数据处理活动规范的落地实施,试图明确生成式人工智能服务研发者在预训练和优化训练等训练数据处理活动中的数据来源等方面的管理要求,解决生成式人工智能服务可能存在的被诱导生成侵害他人知识产权、个人信息等问题,提高生成式人工智能服务的安全性。 本事業は、事前訓練や最適化訓練等の訓練データ処理活動の仕様に関する生成的人工知能サービス管理暫定措置第7条の実施を支援することを目的とし、事前訓練や最適化訓練等の訓練データ処理活動におけるデータの出所について、生成的AIサービスの開発者の管理要件を明確化し、他者の知的財産権や個人情報を侵害するデータの誘導生成という形で存在する可能性のある生成的AIサービスの問題点を解決し、生成的AIサービスのセキュリティ向上を図ることを目的とする。 生成的AIサービスのセキュリティを向上させるために、知的財産権、個人情報等の問題を解決する。
2.3 修订前后技术内容的对比[仅适用于国家标准修订项目] 2.3 改定前と改定後の技術内容の比較【標準改定プロジェクトにのみ適用
不适用。 該当しない。
三、试验验证的分析、综述报告,技术经济论证,预期的经济效益、社会效益和生态效益 III. 試験検証、技術的・経済的正当性、期待される経済的・社会的・生態学的便益の分析・統合報告書
3.1 试验验证的分析、综述报告 3.1 テストバリデーションの分析と統合報告書
本文件规定了生成式人工智能预训练和优化训练数据及其处理活动的安全要求,描述了对应的评价方法。 本文書は、生成的 AI の事前訓練および最適化訓練データとその処理活動のセキュリティ要件を規定し、 対応する評価方法を記述する。
本文件适用于指导生成式人工智能服务提供者开展预训练和优化训练数据处理活动以及开展与训练预训练和优化训练数据安全自评价,也可为监管评估提供参考。 本書は、生成的AIサービス提供者が事前訓練および最適化訓練データ処理活動を実施する際の指針として、また、訓練を伴う事前訓練および最適化訓練データのセキュリティの自己評価を実施する際の指針として適用され、規制評価の参考資料となる可能性もある。
北京中关村实验室牵头制定本标准,并承担标准应用推广工作。国家计算机网络应急技术处理协调中心、中国电子技术标准化研究院、清华大学、北京深言科技有限责任公司、北京面壁智能科技有限责任公司、北京智谱华章科技有限公司等单位将承担标准应用试点和技术支持任务。 北京中関村実験室はこの標準の制定を主導し、標準の適用を推進する。 国家コンピュータネットワーク緊急対応技術処理調整センター、中国国家電子技術標準化研究院、清華大学、北京深語科技有限公司、北京面智能科技有限公司、北京志分光華樟科技有限公司などの単位は、標準の試験的適用と技術サポート業務を引き受ける。
本标准编制过程主要分为标准文本编制及完善、标准试点工作等。前期以北京中关村实验室为牵头单位,组织联合申报单位充分调研学术界、产业界相关情况后共同撰写修改标准草案。标准完善后,在北京深言科技有限责任公司、北京面壁智能科技有限责任公司、北京智谱华章科技有限公司等参与单位展开标准试点工作。 標準の準備過程は主に標準文章の準備と改善、標準試験作業に分けられる。 第一段階は北京中関村研究室をリードユニットとして、共同報告ユニットを組織し、学術界、業界を十分に調査し、標準原案の共同執筆と修正後の状況に関連する。 標準が完成した後、標準の試行作業は北京申銀科技有限公司、瀋陽科技有限公司、瀋陽科技有限公司、瀋陽科技有限公司、瀋陽科技有限公司、瀋陽科技有限公司などの参加単位で行われる。
3.2 技术经济论证 3.2 技術的・経済的正当性
虽然落实本标准提出的安全要求,在短期内给生成式人工智能服务研发者增加了经济成本,包括但不限于:新增知识产权等方面合规人员的成本、开发分类模型等数据识别清洗计算机程序的成本、安全风险自评估的成本等,但这些成本能够有效增加生成式人工智能服务在社会公众使用、公众舆论方面的接受度和认可度,降低生成式人工智能服务在知识产权、个人信息等方面纠纷、争议的成本。总的来说,该技术标准给企业带来正面的经济效应。 本標準で提案するセキュリティ要求事項の実施により、生成的人工知能サービスの開発者は、短期的には、知的財産権等のコンプライアンス担当者の人件費、分類モデル等のデータ特定・クリーニング用コンピュータプログラムの開発費、セキュリティリスクのアセスメント費用等、経済的コストが増加するが、これらのコストは、生成的人工知能サービスの社会的利用を効果的に増加させることができ、また、世論の観点からも、生成的人工知能サービスの受容・受け入れを促進することができる。 生成的人工知能サービスの受容と認知を高め、生成的人工知能サービスの知的財産権、個人情報などをめぐる紛争や論争にかかるコストを削減することができる。 全体として、技術標準は企業にプラスの経済効果をもたらす。
3.3 预期的经济效益、社会效益和生态效益 3.3 期待される経済的、社会的、生態学的利益
该标准的社会效益在于保护生成式人工智能服务的安全性,减少生成式人工智能服务在侵害知识产权、个人信息等方面的风险,并在此基础上促进生成式人工智能服务商业方面的良性竞争。 本標準の社会的利益は、生成的AIサービスのセキュリティを保護し、知的財産権、個人情報等の侵害という観点から生成的AIサービスのリスクを低減し、これに基づいて生成的AIサービスの商業的側面における健全な競争を促進することである。
该标准不涉及生态效益。 なお、本標準は環境効率には関与しない。
四、与国际、国外同类标准技术内容的对比情况,或者与测试的国外样品、样机的有关数据对比情况 IV. 同種の国際標準および外国標準の技術内容との比較、又は試験された外国サンプルおよびプロトタイプの関連データとの比較
目前生成式人工智能预训练和优化训练数据安全不存在对应的国际标准,也未见其他国家制定了对应的技术标准。 現在のところ、生成的人工知能の事前訓練と最適化訓練データのセキュリティに関する対応する国際標準はなく、また、他国が対応する技術標準を制定したのを見たこともない。
五、以国际标准为基础的起草情况,以及是否合规引用或者采用国际国外标准,并说明未采用国际标准的原因 V. 国際標準に基づく起草、国際標準と外国標準の引用と準拠の有無、国際標準を採用しない理由。
当前,国际标准并没有对生成式人工智能预训练和优化训练数据安全开展标准化工作,其他国家也没有制定对应的技术标准,因此本标准制定工作中没有采用国际标准或国外标准。 現在、生成的人工知能の事前訓練および訓練データのセキュリティの最適化に関する標準化作業は国際標準では行われておらず、他国も対応する技術標準を策定していないため、本標準の策定において国際標準や外国標準を採用していない。
六、与有关法律、行政法规及相关标准的关系 VI. 関連法律、行政法規および関連標準との関係
本标准与现行法律、法规以及国家标准不存在冲突与矛盾。 本標準と既存の法律、法規および国家標準との間に矛盾や齟齬はない。
本标准为《生成式人工智能服务管理暂行办法》等法律法规的落地实施提供支撑,建议与标准《网络安全技术 生成式人工智能数据标注安全规范》等配套使用。 本標準は、「生成的人工知能サービス管理暫定措置」およびその他の法規の実施を支援 するものであり、標準「生成的人工知能データラベリングのためのサイバーセキュリティ 技術セキュリティ仕様」と合わせて使用することが推奨される。
七、重大分歧意见的处理经过和依据 VII. 主要な意見の相違の処理とその根拠
无。 特にない。
八、涉及专利的有关说明 VIII. 特許に関する説明
无。 なし。
九、实施国家标准的要求,以及组织措施、技术措施、过渡期和实施日期的建议等措施建议 IX. 標準規格の実施要件、ならびに組織的措置、技術的措置、移行期間および実施日の推奨、お よびその他の措置の提案
本标准规定了生成式人工智能在预训练和优化训练过程中,对所使用数据的通用安全要求、数据处理方面的安全要求,以及评价方法,适用于面向我国境内公众提供生成式人工智能服务的组织或个人提高预训练及优化训练数据获取与准备的安全水平,可也为生成式人工智能的数据提供者提供参考。 本標準は、生成的人工知能が事前訓練および最適化訓練の過程で使用するデータの一般的なセキュリティ要求、データ処理のセキュリティ要求および評価方法を規定するものであり、中国で一般に生成的人工知能サービスを提供する組織又は個人に適用され、事前訓練および最適化訓練データの取得および準備のセキュリティレベルを向上させ、生成的人工知能のデータ提供者の参考にもなる。 
十、其他应当说明的事项 X. その他説明すべき事項
无。 特になし。
《网络安全技术 生成式人工智能预训练和优化训练数据安全规范》 生成的人工知能の事前訓練・最適化訓練データに関するサイバーセキュリティ技術セキュリティ仕様書
标准编制组 標準準備グループ

 

 

 

| | Comments (0)

中国 TC260 意見募集 国家標準 「生成的AIデータ注釈のセキュリティ仕様」案

こんにちは、丸山満彦です。

中国の家情報セキュリティ標準化技術委員会 (TC260) が「生成的AIデータ注釈のセキュリティ仕様」の草案を公表し、意見募集をしていますね。。。

これは、中国独自の標準ですかね。。。

なかなか細かく作り込んでいますね...

 

● 全国信息安全标准化技术委员会

・2024.04.03 关于国家标准《信息安全技术 生成式人工智能数据标注安全规范》征求意见稿征求意见的通知

ドラフトはこちら...

・[DOCX] 信息安全技术 生成式人工智能数据标注安全规范-标准文本

20240408-233411

 

説明も...

・[DOCX] 信息安全技术 生成式人工智能数据标注安全规范-编制说明

 

 


 

网络安全技术 サイバーセキュリティ技術
生成式人工智能数据标注安全规范 生成的AIデータ注釈のセキュリティ仕様
Cybersecurity technology— サイバーセキュリティ技術
Generative artificial intelligence data annotation security specification 生成的AIデータ注釈のセキュリティ仕様
(征求意见稿) (公開草案)
目次 目次
前言 序文
1 范围 1 範囲
2 规范性引用文件 2 参考文献
3 术语和定义 3 用語と定義
4 概述 4 概要
5 数据标注基础安全要求 5 データラベリング基盤のセキュリティ要件
5.1 数据安全要求 5.1 データセキュリティ要件
5.2 标注工具安全要求 5.2 ラベリングツールセキュリティ要件
5.3 访问控制安全要求 5.3 アクセス制御セキュリティ要件
5.4 数据传输安全要求 5.4 データ伝送セキュリティ要件
6 数据标注规则安全要求 6 データ注釈ルールセキュリティ要件
7 标注人员要求 7 ラベリング要員要件
7.1 标注人员安全培训 7.1 ラベリング要員セキュリティ研修
7.2 标注人员选拔 7.2 ラベリング要員の選定
7.3 标注人员管理 7.3 ラベリング要員の管理
8 数据标注核验要求 8 データ注記検証要件
8.1 基本要求 8.1 基本要件
8.2 功能性标注核验安全要求 8.2 機能的注記検証セキュリティ要件
8.3 安全性标注核验安全要求 8.3 セキュリティ注釈検証セキュリティ要件
9 标注安全测试方法 9 ラベリングセキュリティ試験方法
9.1 留存记录检查测试 9.1 保持記録チェック試験
9.2 标注人员测试 9.2 ラベリング担当者試験
9.3 标注数据测试 9.3 ラベリングデータ試験
附录A (资料性) 生成式人工智能数据标注示例 附属書A(参考)AIデータ注釈の生成例
附录B (资料性) 人工智能标注任务类型示例 附属書B(参考) AI注釈タスクタイプの例
附录C (规范性) 语料及生成内容的主要安全风险 附属書C(規範) コーパスと生成コンテンツの主なセキュリティリスク
前言 序文
本文件按照GB/T 1.1—2020《标准化工作导则  第1部分:标准化文件的结构和起草规则》的规定起草。 本文書は、GB/T 1.1-2020「標準化作業ガイドライン第1部:標準化文書の構造および起草規則」の規定に基づいて起草されている。
本文件由全国网络安全标准化技术委员会(SAC/TC260)提出并归口。 本文書は、国家ネットワークセキュリティ標準化専門委員会(SAC/TC260)が提案し、帰属する。
本文件起草单位:国家计算机网络应急技术处理协调中心、中国电子技术标准化研究院、中关村实验室 本文書の起草単位:中国電子技術標準化研究院中関村研究室国家コンピュータネットワーク緊急技術処理調整センター
本文件主要起草人: この文書の主な起草者
网络安全技术 ネットワークセキュリティ技術
生成式人工智能数据标注安全规范 生成的AIデータ注釈のセキュリティ仕様書
1 范围 1 範囲
本标准规定了生成式人工智能训练的数据标注基础安全要求、数据标注规则安全要求、标注人员要求、数据标注核验要求和标注安全测试方法。 本標準は、生成的AI訓練のデータ注釈の基本セキュリティ要求事項、データ注釈規則のセキュリティ要求事項、注釈担当者の要求事項、データ注釈検証の要求事項、注釈セキュリティ試験方法を規定する。
本标准适用于生成式人工智能数据标注方开展训练数据标注活动,也可为生成式人工智能数据需求方对于数据标注进行检查、验收或第三方机构对数据标注进行安全性评估提供参考。 本標準は、生成的AIデータ注釈当事者に適用され、訓練データ注釈活動を実施するだけでなく、生成的AIデータ需要側のデータ注釈検査、受け入れ、または第三者機関のデータ注釈のセキュリティを評価するために参考資料を提供する。
2 规范性引用文件 2 引用規格
下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。 以下の文書の内容は、本文中の規範的な参照を通じて、本文書の不可欠な規定を構成する。 その中で、日付のある引用文書については、その日付に対応するバージョンのみが本文書に適用され、日付のない引用文書については、最新バージョン(すべての改訂シートを含む)が本文書に適用される。
GB/T 42755-2023 人工智能 面向机器学习的数据标注规程 GB/T 42755-2023 人工知能 機械学習のためのデータ注釈プロトコル
3 术语和定义 3 用語と定義
下列术语和定义适用于本文件。 以下の用語と定義がこの文書に適用される。
3.1   3.1
提示信息 prompt  プロンプト 
引导生成式人工智能模型完成特定任务并提供合理输出内容的输入信息。 生成的AIモデルが特定のタスクを完了し、妥当な出力内容を提供するよう導く入力情報。
3.2   3.2
响应信息 response  応答 
在生成式人工智能数据标注中,按照提示信息要求形成的符合人类认知的应答信息,用于训练模型形成对提示信息输出相应内容、模式或风格的响应的能力。 生成AIデータ注釈において、プロンプト情報の要求に従って形成される応答情報は、人間の認知に適合しており、プロンプト情報に対応する内容、パターン、またはスタイルで応答する能力を形成するモデルを訓練するために使用される。
3.3 3.3
生成式人工智能数据标注 generative artificial data annotation 生成的人工知能データ注釈
通过人工操作或使用自动化技术机制,基于对提示信息的响应信息内容,将特定信息如标签、类别或属性添加到文本、图片、音频、视频或者其他数据样本的过程。 手動または自動化された技術的メカニズムを使用して、キューメッセージに対する応答の内容に基づいて、テキスト、画像、音声、映像、またはその他のデータサンプルにラベル、カテゴリ、または属性などの特定の情報を追加するプロセス。
注:以下简称“数据标注”。 注:以下「データ注釈」という。
3.4 3.4
功能性数据标注 functional data annotation  機能的データ注釈 
用于训练生成式人工智能模型具备完成特定任务能力的数据标注。 特定のタスクを実行できるように生成AIモデルを訓練するために使用されるデータ注釈。
3.5 3.5
安全性数据标注 security data annotation  セキュリティ・データ注釈 
用于训练生成式人工智能模型提升输出响应信息安全性的数据标注。 出力される応答情報の安全性を向上させるために、生成AIモデルの学習に使用されるデータ注釈。
3.6 3.6
微调训练数据标注 fine-tuning data annotation  微調整データ注釈 
训练生成式人工智能模型具备完成特定任务或输出安全响应信息能力的数据标注。 生成AIモデルを学習させ、特定のタスクを完了する能力や安全対応情報を出力する能力を持たせるためのデータ注釈。
3.7 3.7
偏好数据标注 comparison data annotation  比較データ注釈 
针对同一个提示信息的正反例或多个不同的响应信息,标注人员根据偏好给出打分或者排序标注的数据标注,通过强化学习等方式提升生成式人工智能模型的性能或安全性。 同じプロンプトメッセージや複数の異なる応答メッセージの肯定例と否定例に着目し、強化学習などの手法により、生成AIモデルの性能や安全性を向上させるために、アノテータが好みに応じて点数をつけたり、順位をつけたりするデータ注釈を行う。
注:反例数据通过强化学习等学习范式,训练模型降低输出类似反例响应的概率。 注:反例データは、強化学習などの学習パラダイムにより、類似した反例応答を出力する確率を低減するモデルの学習に用いられる。
3.8 3.8
标注规则 annotation rules 注釈ルール
生成式人工智能模型数据标注时所遵循的方法、要求的统称。 生成AIモデルのためにデータに注釈を付ける際に従うべき方法と要件の総称。
3.9 3.9
数据标注人员 annotator データ注釈者
执行标注任务、产出标注内容的人员。 注釈作業を行い、注釈されたコンテンツを作成する人。
3.10 3.10
标注审核人员 annotation reviewer 注釈レビュアー
对初始化标注结果进行质量控制的人员。 初期化された注釈結果の品質管理を行う者。
3.11 3.11
标注仲裁人员 annotation arbitrator 注釈仲裁人
当多名标注人员对同一标注对象的标注结果不一致或存在争议时,负责给出最终标注结果的人员。 同じ注釈オブジェクトに対して複数の注釈担当者が注釈を行った場合、注釈結果に矛盾が生じたり、論争が生じたりした場合に、担当者の最終的な注釈結果を決定する。
3.12 3.12
标注监督人员 annotation supervisor 注釈監督者
对标注活动进行监督,判定数据标注活动是否符合各项要求的人员。 注釈活動を監督し、データ注釈活動が要求事項に適合しているかどうかを決定する者。
3.13 3.13
数据标注方 data annotator データ注釈担当者
组织数据标注人员开展数据标注活动、对标注质量有直接责任的人员或机构。 データ注釈活動を実施するためにデータ注釈者を組織し、注釈の質 に直接責任を持つ個人または組織。
3.14 3.14
数据需求方 data requester データ要求者
提出数据标注需求的人员或机构。 データ注釈の要求事項を提出する個人または組織。
 [来源:GB/T 42755-2023,定义3.4]  [出典:GB/T 42755-2023、定義 3.4]。
4 概述 4 概要
本文件定义了生成式人工智能数据标注安全的相关要求,具体包括: 本文書は、生成 AI のデータ注釈のセキュリティに関連する要件を定義するもので、具体的には以下を含む:
a)   数据标注基础安全要求:针对数据安全、标注工具安全、访问控制和数据传输提出安全要求; a) データ注釈基本セキュリティ要件:データセキュリティ、注釈ツールセキュリティ、アクセス制御、データ伝送に関するセキュリティ要件;
b)   数据标注规则安全要求:针对数据标注方制定生成式人工智能数据标注规则提出安全要求; b) データ注釈ルールのセキュリティ要件:生成AIデータ注釈ルールを策定するためのデータ注釈当事者に対するセキュリティ要件;
c)   标注人员要求:针对标注人员在培训、选拔和管理等方面提出安全要求; c) 注釈担当者の要件:トレーニング、人選、管理の観点から、注釈担当者のセキュリティ要件を提案する;
d)   数据标注核验要求:针对生成式人工智能数据标注核验提出安全要求。 d) データ注釈検証要件:生成AIデータ注釈検証のためのセキュリティ要件を提示する。
1_20240408234501
图1生成式人工智能数据标注安全框架图 図1 生成AIデータ注釈のセキュリティフレームワーク図
5 数据标注基础安全要求 5 データ注釈の基本的なセキュリティ要件
5.1 数据安全要求 5.1 データセキュリティ要件
数据标注方应确保对标注数据的安全性,要求如下: データ注釈当事者は、注釈データのセキュリティを以下のように確保しなければならない:
a)   应检查标注数据是否包含敏感个人信息,采取必要措施对敏感个人信息进行匿名化处理; a) データ注釈者は、注釈データに機微な個人情報が含まれているかどうかを確認し、機微な個人情報を匿名化するために必要な措置を講じなければならない;
b)   应实施数据访问控制,限制对标注数据的访问,只允许经过授权的标注人员访问; b) データアクセス制御を実施し、注釈データへのアクセスを制限し、権限を与えられた注釈者のみがアクセスできるようにする;
c)   应备份准备标注的数据,以防止数据丢失或损坏,同时确保备份数据的安全性; c) ラベリングの準備が整ったデータは、データの紛失や破損を防ぐためにバックアップされるべきであり、同時にバックアップされたデータのセキュリティを確保する;
d)   应监控和记录准备标注的数据的访问和修改记录,以进行数据安全审计; d) データセキュリティ監査のために、注釈準備完了データのアクセス記録と変更記録を監視・記録する;
e)   当标注任务终止或完成时,应按照合同约定对数据进行相关处置;合同中如无相关要求,但涉及生物特征等敏感信息的,应按照相关法律要求删除相关数据,并妥善处置其余数据。 e) ラベリング作業が終了または完了した場合、データは契約に従って廃棄されるも のとする。契約に関連要件はないが、バイオメトリック特徴などの機微情報が含まれ ている場合、関連データは関連法の要件に従って削除され、残りのデータは適 切に廃棄されるものとする。
5.2 标注工具安全要求 5.2 ラベリングツールのセキュリティ要件
数据标注方应确保实施标注活动所采用工具的安全性,要求如下: データ注釈の当事者は、注釈活動を実施するために使用するツールのセキュリティを確保 しなければならない:
a)   应定期对标注平台或框架进行安全评估,发现潜在的安全漏洞,及时进行修复,并详细记录漏洞发现及处置情况; a) 注釈プラットフォームまたはフレームワークのセキュリティ評価を 定期的に実施し、潜在的なセキュリティの抜け穴を発見し、適時に修復し、抜け穴の発見と 処分の詳細な記録を保管すること;
b)   应在安全的标注平台或框架开展标注活动,宜采用国产化数据标注平台或框架; b) 注釈活動は、安全な注釈プラットフォームまたはフレームワーク上で実施するものとし、国産のデータ注釈プラットフォームまたはフレームワークを採用することが望ましい;
c)   应确保标注平台或框架能详细记录用户的操作和系统活动,以便在发生安全事件时进行调查;应确保日志包含足够的详细信息,以追踪数据的处理历史; c) 注釈プラットフォームまたはフレームワークは、セキュリティ・インシデントが発生した場合の調査のために、ユーザーの操作とシステム活動を詳細に記録できることを保証しなければならない;
d)   对于集中开展的数据标注工作,应提供具有适当区域划定和访问控制的物理环境,以防止未授权人员进入标注区域,确保标注物理环境安全;对于非集中开展的数据标注工作,应确保每位标注人员所使用的标注设备安全和网络传输通道安全; d) 集中型データ注釈作業の場合、適切な区域区分とアクセス制御を備えた物理的環境を提供し、権限のない人が注釈区域に入るのを防ぎ、注釈のための物理的環境のセキュリティを確保すべきである。非集中型データ注釈作業の場合、各注釈者が使用する注釈機器のセキュリティとネットワーク伝送路のセキュリティを確保すべきである;
e)   如在标注过程中使用自动化标注工具进行辅助标注,应使用符合我国相关法律法规要求的自动化标注工具。 e) 注釈の過程において、注釈を補助するために自動注釈ツールを使用する場合、中国の関連法規の要件を満たす自動注釈ツールを使用しなければならない。
5.3 访问控制安全要求 5.3 アクセス制御のセキュリティ要件
数据标注方应建立访问控制机制并采取相应安全控制措施,要求如下: データ注釈当事者は、アクセス制御メカニズムを確立し、対応するセキュリティ制御措置を講じなければならない:
a)   应制定安全访问控制策略,只有经过身份验证和授权的人员可以访问标注工具和准备标注的数据; a) 認証され、権限を与えられた人員のみが注釈ツールおよび注釈可能なデータにアクセスできるように、セキュリティアクセス制御ポリシーを策定する;
b)   应配置标注人员权限,标注人员只能访问其分配的标注任务数据; b) 注釈要員が、割り当てられた注釈タスクのデータにのみアクセスできるように、注釈要員の権限を設定する;
c)   对于因出现安全风险问题被取消标注资格的人员,应同时撤销其标注工具和数据的访问权限; c) セキュリティリスクの問題が発生したために注釈資格を取り消された要員については、注釈ツールおよびデータへのアクセス権も同時に取り消されるべきである;
d)   应根据需要设置已完成标注数据的访问和导出权限; d) 完成した注釈データに対するアクセス権とエクスポート権は、必要に応じて設定する;
e)   宜对安全性标注数据在单独数据库中进行隔离存储并配置独立访问控制策略。 e) セキュリティ注釈データを分離して別のデータベースに保存し、独立したアクセス制御ポリシーを設定することが適切である。
5.4 数据传输安全要求 5.4 データ伝送セキュリティ要件
数据标注方应建立信息传输安全机制并采取相应安全控制措施,要求如下: データ注釈当事者は、情報伝送セキュリティメカニズムを確立し、対応するセキュリティ管理措置を講じなければならない:
a)   应在标注活动各阶段的所有数据传输使用安全传输协议; a) ラベリング活動のすべての段階において、すべてのデータ伝送に安全な伝送プロトコルを使用する;
b)   应明确有权执行数据传输的标注人员的范围以及他们可以访问的数据范围; b) データ伝送を行う権限を与えられたラベラーの範囲と、彼らがアクセスできるデータの範囲を明確にしなければならない;
c)   应采用独立安全传输协议传输安全性标注数据。 c) セキュリティ注釈データの伝送には、別の安全な伝送プロトコルを使用しなければならない。
6 数据标注规则安全要求 6 データラベリング規則のセキュリティ要件
数据标注方制定标注规则的要求如下: データ・ラベラーがラベリング・ルールを確立するための要件は次のとおりである:
a)   标注规则应至少包括标注目标、数据格式、标注方法、质量指标等内容,生成式人工智能数据标注示例可参考附录A; a) 注釈規則は、少なくとも、注釈目的、データ形式、注釈方法、品質指標等を含むものとする;
b)   数据标注方应分别对功能性数据标注与安全性数据标注制定具体的标注规则,标注规则应至少覆盖数据标注以及数据审核等环节; b) データ注釈当事者は、機能データ注釈とセキュリティデータ注釈について、それぞれ特定の注釈ルールを策定し、注釈ルールには少なくともデータ注釈とデータレビューを含めるものとする;
c)   数据标注方应明确具体标注任务类型,对含有文本、图片、音频、视频、时间序列等不同内容的标注任务,任务类型可参考附录B; c) データ注釈当事者は、特定の注釈タスクタイプを指定しなければならない。テキスト、画像、音声、映像、時系列などの異なるコンテンツを含む注釈タスクについては、タスクタイプは附属書Bを参照することができる;
注:应符合GB/T42755-2023中5.1.1的数据需求方标注任务要求。 注:GB/T42755-2023 の 5.1.1 のデータ要求側注釈タスク要件を満たさなければならない。
d)   功能性标注规则应能够用于指导标注人员按照特定领域特点生产具备真实性、准确性、客观性、多样性的标注语料,包含正反例信息,使标注人员能够依据标注规则正确执行标注任务; d) 機能的注釈ルールは、注釈担当者が注釈ルールに基づいて正しく注釈タスクを実行できるように、特定のドメインの特性に従って、信憑性、正確性、客観性、多様性を備えた注釈コーパスを作成するためのガイドとして使用でき、情報の肯定例と否定例を含んでいなければならない;
e)   功能性标注规则应包含安全风险内容的识别方法及参考示例,能够使标注人员依据标注规则判定安全风险提示信息,避免产生包含安全风险内容的响应信息标注; e) 機能的な注釈ルールには、セキュリティリスク内容の識別方法と参照例を含める。これにより、注釈ルールに従って、注釈者がセキュリティリスク促し情報を決定でき、セキュリティリスク内容を含む応答情報の注釈が作成されることを回避できる;
f)   安全性标注规则应能够指导标注人员围绕语料及生成内容的主要安全风险进行标注; f) セキュリティ注釈ルールは、コーパスと生成されたコンテンツの主なセキュリティリスク周辺に注釈を付けるように、注釈者を誘導できるようにする;
g)   安全性标注规则中包含涉及安全风险内容的提示信息时的响应信息标注规则说明及参考示例,能够使标注人员能够依据标注规则给出安全合理的引导性响应信息标注; g) セキュリティ注釈ルールには、プロンプト情報にセキュリティリスクコンテンツが含まれる場合の応答情報注釈ルールの指示と参考例が含まれており、注釈ルールに従って、注釈担当者が安全で合理的な応答情報注釈を行うことができる;
h)   应包含不符合标注规则的标注的识别方法及参考示例,能够使标注人员能够依据标注规则及时动态重新或纠正标注内容; h) 注釈ルールに適合しない注釈の識別方法と参考例を記載し、アノテータが注釈ルールに従って、注釈された内容をその時々に動的に再修正または修正できるようにする;
i)   应包含对数据标注结果的质量及安全性核验方法; i) データ注釈結果の品質および安全性の検証方法を含むべきである;
j)   应包含应对和处置标注过程中安全事件的应急响应和通知机制。 j) 注釈プロセスにおけるセキュリティ・インシデントに対処するため、緊急時対応および通知メカニズムを含むべきである。
7 标注人员要求 7 ラベリング担当者に対する要件
7.1 标注人员安全培训 7.1 注釈担当者に対する安全教育
数据需求方与数据标注方应组织标注人员进行安全培训,要求如下: データ要求側及びデータ注釈側は、注釈担当者に対し、以下の要件を備えたセキュリ ティ研修を組織しなければならない:
a)   培训内容应至少包括数据标注规则安全要求、数据标注工具使用方法及安全要求、数据标注质量及安全性核验方法、标注数据安全管理、典型安全风险场景及相关安全问题案例及识别方法、标注人员安全意识培训等; a) 研修内容には、少なくとも、データ注釈ルールのセキュリティ要件、データ注釈ツールの使用方法とセキュリティ要件、データ注釈の品質とセキュリティ検証方法、注釈データのセキュリティ管理、典型的なセキュリティリスクシナリオと関連するセキュリティ問題事例とその特定方法、及び注釈要員のセキュリティ意識研修を含むものとする;
b)   应在培训结束后组织标注人员进行安全考核,给予合格者标注上岗资格,对考核过程进行记录,并留存记录文档; b) 訓練終了後、注釈要員のセキュリティアセスメントを実施し、有資格者に注釈資格を与え、アセスメントプロセスを記録し、記録ファイルを保管する;
注:考核内容应包括标注规则理解能力、标注工具使用能力、安全风险判定能力、数据安全管理能力等。 注:評価内容は、ラベリング規則を理解する能力、ラベリングツールを使用する能力、セキュリティリスクを判断する能力、データセキュリティを管理する能力を含むものとする。
c)   应定期组织重新培训考核,暂停或取消不合格者的标注上岗资格。 c) 定期的な再研修と評価を実施し、無資格者のマーキング資格は一時停止または取り消す。
7.2 标注人员选拔 7.2 ラベリング要員の選定
数据标注方应开展标注人员选拔工作,要求如下: データ注釈の当事者は、注釈担当者の選定を以下の要件で実施しなければならない:
a)   应按数据标注规模和标注任务需求,明确标注人员的数量和岗位职责,并根据任务实际情况动态调整; a) データ注釈の規模および注釈業務の需要に応じて、注釈要員の数および職務を規定し、業務の実情に応じて動的に調整する;
b)   应按标注任务中的不同职责定位,划分标注人员角色,包括数据标注人员、标注审核人员、标注仲裁人员、标注监督人员,并根据角色能力要求择优选拔; b) 注釈担当者の役割は、データ注釈担当者、注釈レビュー担当者、注釈仲裁担当者、注釈監督担当者など、注釈タスクにおけるさまざまな職務の位置づけに従って分けられ、役割能力の要件に従って、能力に基づいて選抜される;
c)   应对各标注人员角色选拔过程进行记录,并留存记录文档。 c) 各注釈要員の役割の選定プロセスを記録し、記録文書を保管する。
7.3 标注人员管理 7.3 注釈者の管理
数据标注方组织数据标注人员开展数据标注工作的要求如下: データ注釈担当者がデータ注釈作業を行うための要件は以下の通りである:
a)   数据标注人员应按照数据标注规则及任务要求及时完成数据标注,提交数据标注结果由标注审核人员进行审查; a) データ注釈担当者は、データ注釈の規則および作業要件に従い、適 時にデータ注釈を完了し、データ注釈結果を注釈レビューアの レビューを受けるために提出する;
b)   标注审核人员应对数据标注结果进行核验和质量把控,对标注质量不合格的数据,退回进行重新标注,对数据标注存在争议或多人标注数据存在不一致的情况,提交标注仲裁人员进行仲裁,并保留审核记录; b) 注釈レビュアーは、データ注釈結果を検証し、品質管理を行い、注釈品質が不適格なデータについては、再ラベリングのために返却し、また、複数の人が注釈したデータにおけるデータ注釈の紛争や不整合を仲裁するために、注釈仲裁要員を提出し、監査記録を保管する;
c)   对于多人标注数据存在不一致或数据存在争议情况,标注仲裁人员应进行最终裁决判定,并保留仲裁记录。裁定通过的,提交标注结果;裁定不通过的,退回进行重新标注; c) 複数の人がラベリングしたデータの不一致、またはデータに争いがある場合、ラベリング仲裁人が最終裁定を下し、仲裁記録を保管する。 決定が下された場合は、ラベリング結果を提出し、決定が下されなかった場合は、再ラベリングのために返送する;
d)   标注监督人员应对标注活动进行监督,对标注过程中不同角色人员的任务完成情况进行抽样检查;应对标注过程中发生的数据安全、传输安全等风险情况等进行及时发现处理,并保留风险发现及处置情况记录; d) 注釈監督者は、注釈活動を監督し、注釈プロセスの異なる役割の要員によるタスクの完了についてサンプリングチェックを行う;
e)   在同一项标注任务中,同一人员不应承担多个角色任务。 e) 同じ注釈作業において、同じ要員が複数の役割の作業を引き受けてはならない。
8 数据标注核验要求 8 データラベリング検証要件
8.1 基本要求 8.1 基本要件
数据标注方应对数据标注结果进行核验,要求如下: データ注釈者はデータ注釈の結果を検証しなければならず、その要件は以下の通りである:
a)   宜保证微调训练数据标注中的安全性标注比例不低于30%; a) 微調整訓練データ注釈における安全注釈の割合が 30%以上であることを確 保することが適切である;
注:该比例的计算方法为: 注:割合の計算方法は以下の通りである:
b)   应对标注结果进行核验,核验方式包括但不限于: b) 注釈結果は検証されなければならず、検証方法には以下のものが含まれるが、これらに限定されない:
1)   人工核验:通过标注审核人员对标注结果进行随机抽样核验等方式,检验标注结果的质量和安全性; 1) 手作業による検証:注釈レビューアによる注釈結果の無作為抽出により、注釈結果の品質と安全性を検証する;
2)   混合核验:使用相关检测算法或自动化标注工具自动验证标注结果,自动检测标注结果的质量和安全性问题,后续由人工对自动化核验的结果通过采用随机抽样核验等方式进行核验。 2) 混合検証:関連するテストアルゴリズムまたは自動注釈ツールを使用して注釈結果を自動検証し、注釈結果の品質および安全性を自動的に検出し、その後、ランダムサンプリング検証およびその他の検証方法を採用して自動検証の結果を手動で検証する。
c)   应对标注结果进行一定规模内容核验,核验内容包括但不限于:  c) 注釈結果の検証は一定の規模で行うものとし、検証内容には以下のものが含まれるが、これらに限定されるものではない: 
1)   理解准确:确认标注结果清晰且符合问题意图要求;识别并标注提示信息中的关键信息和隐形条件; 1) 正確な理解:注釈結果が明確であり、質問意図の要件に沿っていることを確認する;
2)   问答一致:确保响应信息完全符合提示信息的约束条件和预期目标; 2) 質問と回答の一貫性:回答情報がプロンプトの制約と意図された目標を完全に満たしていることを確認する;
3)   保证质量:检查并修正语法错误、用词不当或风格不搭配的问题;避免语言使用和句式结构的重复,确保表达多样性和清晰度。 3) 品質の保証:文法上の誤り、不適切な表現、文体の不一致をチェックし、修正する。言語使用や文構造の繰り返しを避け、表現の多様性と明瞭性を確保する。
d)   应对核验发现的标注结果中的问题进行纠正或重新标注,并跟踪纠正情况和处理结果; d) 検証によって発見されたラベリング結果の問題は、修正または再ラベリングされ、 修正および結果のフォローアップが行われるべきである;
e)   数据重新标注的要求如下: e) データの再ラベリングに関する要件は以下の通りである:
1)   数据标注人员应对标注任务执行阶段和标注结果输出阶段记录的所有问题标注进行纠正; 1) データ注釈担当者は、注釈タスク実行段階および注釈結果出力 段階で記録された問題のある注釈をすべて修正しなければならない;
2)   数据标注人员应逐条记录标注纠正的详细信息,包括原始标注人员信息、标注纠正人员信息、原始标注内容、纠正后的标注内容、原始标注时间、纠正标注时间等; 2) データ注釈担当者は、元の注釈担当者の情報、注釈修正担当者の情報、元の注釈の 内容、修正された注釈の内容、元の注釈の時刻、修正された注釈の時刻を含む、注釈修正 の詳細を項目ごとに記録しなければならない;
3)   标注审核人员应对纠正后的标注进行复核,复核通过的将纠正标注结果进行更新和归档,复核未通过的按需进行重新标注。 3) 採点監査担当者は、訂正された注釈を確認し、訂正された注釈の結果を更新し、保管するため に確認し、必要に応じて再採点するために失敗した注釈を確認する。
f)   应记录每次核验的详细信息,包括审核人员信息、核验时间、核验结果和发现的问题; f) 審査員情報、検証時間、検証結果、発見された問題点など、各検証の詳細情報を記録する;
g)   应形成并留存核验报告,总结核验结果,包括建议的改进措施和纠正措施等; g) 改善策や是正措置の提案を含め、検証結果をまとめた検証報告書を作成し、保管する;
h)   应对标注数据核验过程进行记录并形成可查阅的记录文档。 h) 注釈データの検証プロセスを記録し、アクセス可能な記録ファイルを作成する。
8.2 功能性标注核验安全要求 8.2 機能的注釈検証のセキュリティ要件
数据标注方应对功能性数据标注的标注质量及安全性进行评估核验,要求包括担不限于: データアノテータは、機能データ注釈の品質と安全性を評価し、検証するものとす る:
a)   功能性标注数据不应包含任何安全风险信息,主要安全风险可参考附录C; a) 機能的注釈データには安全リスク情報が含まれていてはならない;
b)   标注数据中提示信息及响应信息在内容上应具备逻辑性、有效性,对于特定领域的应答需合理; b) ラベリングデータのプロンプト情報および応答情報は、論理的かつ効果的な内容であるべきであり、特定のフィールドへの応答は合理的であるべきである;
c)   标注数据应具备合理性、真实性、准确性、客观性、多样性等; c) ラベリングデータは、合理性、真実性、正確性、客観性、多様性を持つべきである;
d)   响应信息内容应具备准确性、有用性、时效性、逻辑性、易读性等: d) 回答情報の内容は、正確で、有用で、タイムリーで、論理的で、読みやすいものでなければならない:
1)   内容准确性:标记响应信息内容中的事实陈述是否准确,包括但不限于地理信息、历史事件、科学知识等; 1) 内容の正確さ:地理的情報、歴史的事象、科学的知識など、回答情報の内容に含まれる事実の記述が正確かどうかをマークする;
2)   有用性:标记响应信息内容对用户问题的解答程度,以及提供的信息是否能够满足用户需求; 2) 有用性:回答メッセージの内容が利用者の質問にどの程度答えているか、また提供された情報が利用者のニーズに合っているかをマークする;
3)   时效性:标记响应信息内容中的信息是否与当前时势保持同步,以及提供的信息是否仍然有效; 3) 適時性:マークされた応答メッセージの内容の情報が現在の状況と同期しているか、また提供された情報が現在も有効かどうかを示す;
4)   逻辑性:标记响应信息内容中的论述是否连贯、合理,以及论据是否支持结论; 4)論理性:採点回答内容の論旨が首尾一貫して妥当であるか、論旨が結論を裏付けているか;
5)   易读性:标记响应内容中的语言是否流畅、通顺,以及是否易于理解。 5) 読みやすさ:ラベル付けされた回答の言葉が流暢で、論理的で、理解しやすいかどうか。
e)   应对提示信息标注质量进行全面核验,检查可能存在的质量缺陷,包括但不限于: e) プロンプトメッセージの注釈の品質は、以下のような品質上の欠陥がないかを総合的に検証する:
1)   提示信息不符合标注规则; 1) プロンプト情報がラベリングの規則に準拠していない;
2)   提示信息不完整,缺少关键信息,或表达意图不明确。 2) プロンプトメッセージが不完全である、重要な情報が欠落している、または意図が不明確である。
f)   应对响应信息标注质量进行全面核验,检查可能存在的质量缺陷,包括但不限于: f) レスポンス情報のラベリング品質は、以下のような品質欠陥の可能性をチェックするため に、十分に検証されなければならない:
1)   响应信息不合符标注规则; 1) 応答情報がラベリング規則に適合していない;
2)   响应信息内容与提示信息没有明显关联性; 2) 応答メッセージの内容がプロンプトメッセージと明確に関連していない;
3)   问题无法解答时仍强行进行响应信息标注; 3) 質問に答えられないのに、応答メッセージの注釈が強制されている;
4)   除另有特殊要求外,响应信息内容行文风格化,包含个性化语言; 4) 特に要求がない限り、応答メッセージはスタイル化され、個人的な表現が含まれている;
5)   响应信息文字内容存在错字、病句、断句错误; 5) 回答メッセージのテキストに、誤字脱字、気持ちの悪い文章、不正確な文区切りがある;
6)   响应信息内容表达冗杂、缺乏逻辑。 6) 応答メッセージの内容が冗長で、論理性を欠いている。
g)   应对每一批标注语料进行人工抽检,发现内容不准确的,应重新标注;发现内容中包含违法不良信息的,应作废该批次标注语料。 g) ラベル付きコーパスの各バッチは手作業でサンプリングされ、不正確なコンテンツは再度ラベル付けされる。コンテンツに違法で望ましくない情報が含まれていることが判明した場合、ラベル付きコーパスのバッチは無効にされる。
8.3 安全性标注核验安全要求 8.3 セキュリティ・ラベリング検証のためのセキュリティ要件
数据标注方应对安全性数据标注的标注质量及安全性进行评估核验,要求包括担不限于: データ注釈者は、セキュリティデータ注釈の品質とセキュリティを評価し、検証しなければならない:
a)   安全性数据标注的提示信息应能够覆盖主要的安全风险场景,主要安全风险可参考附录C; a) セキュリティデータ注釈のヒント情報は、主要なセキュリティリスクシナリオをカバーでき るものでなければならない;
b)   对于安全性标注数据,微调数据标注的响应信息以及偏好数据标注中正例的响应信息中不应包含任何安全风险信息,并保证响应信息对提示信息中的安全风险内容进行了安全、合理的响应; b) 安全注釈データに対して、ファインチューニングデータ注釈のレスポンス情報とプリファレンスデータ注釈のポジティブ例のレスポンス情報は安全リスク情報を含まず、レスポンス情報がプロンプト情報の安全リスク内容に安全かつ合理的な方法で対応していることを保証する;
c)   每一条安全性标注语料应至少由一名审核人员审核通过; c) 各安全性注釈コーパスは、少なくとも一人のレビュアーによってレビューされ、承認されなければならない;
d)   安全性数据标注不合格数量超过安全性数据标注总量的5%时,该批次标注语料应作废。 d) 不適格な安全データ注釈の数が安全データ注釈の総数の 5%を超えた場合、その注釈コーパスは無効とする。
9 标注安全测试方法 9 ラベリングセキュリティ試験方法
9.1 留存记录检查测试 9.1 保持記録検査試験
留存记录检查测试方法如下: 保持記録検査試験方法は以下の通りである:
a)检查数据标注方是否组织标注人员进行安全培训,是否按要求留存培训考核记录; (a)データ注釈実施者が注釈要員に対してセキュリティ教育を実施し、その教育記録及び試験記録が要求通りに保管されているかどうかを検査する;
b)检查标注人员是否按照人员角色分工执行标注任务并留存相关审核、仲裁等记录; (b) 注釈担当者が担当者の役割分担に従って注釈業務を遂行し、関連する監査・仲裁記録を保管しているかどうかをチェックする;
c)检查数据标注方是否定期对标注平台或框架进行安全评估,对已发现的系统或工具漏洞是否完成修复工作; (c) データ注釈者が注釈プラットフォームまたはフレームワークのセキュリティアセスメントを定期的に実施し、発見されたシステムまたはツールの脆弱性の修復作業を完了しているかどうかをチェックする;
d)检查标注平台或工具是否记录了用户的操作和系统活动,以便在发生安全事件时进行调查; d) 注釈プラットフォーム又はツールが、セキュリティインシデント発生時の調査のために、利用者の操作及びシステム活動を記録しているかどうかを確認する;
e)检查数据标注方是否落实数据核验要求,检查数据核验相关记录文档是否符合要求; e) データのラベル付けを行う者がデータ検証要件を実施しているかどうか、及びデータ検証に関連する記録文書が要件を満たしているかどうかをチェックする;
f)检查标注任务终止或完成时,数据是否按照合同约定进行相关处置,生物特征等敏感信息是否按照相关法律要求删除。 f) ラベリング業務が終了または完了したときに、データが契約に従って廃棄され ているか、およびバイオメトリクスなどの機密情報が関連法的要件に従って削除さ れているかをチェックする。
9.2 标注人员测试 9.2 ラベリング要員試験
标注人员测试方法如下: ラベリング要員テストの方法は以下の通りである:
a)从全部标注人员中随机抽取一定数量标注人员,进行测试; (a)全注釈者数から一定数の注釈者をランダムに選択し、テストを実施する;
b)通过问询等方式对安全培训、安全意识、典型安全风险场景等培训内容进行测试; b)セキュリティ教育、セキュリティ意識、典型的なセキュリティリスクシナリオなどの教育内容を、質問などによってテストする;
c)通过提问或考核等方式,对人员是否了解标注规则安全要求进行测试; c)担当者がラベリングルールの安全要件を理解しているかどうかを、質問または検査によってテストする;
d)通过检查实际标注任务与标注结果,对人员是否落实数据标注工作安全要求进行测试。 (d) 実際のラベリング作業とラベリング結果をチェックすることにより、要員がデータ ラベリング作業の安全要求事項を実施しているかどうかをテストする。
9.3 标注数据测试 9.3 ラベリングデータ試験
标注数据检测方法如下: 注釈データのテスト方法は以下の通りである:
a)采用人工抽检,从全部语料中随机抽取一定数量标注数据,对合格率进行检测; (a)手動サンプリングを採用し、コーパス全体から一定数の注釈データをランダムに選択し、合格率をテストする;
b)结合关键词库、分类模型等技术测试手段,从全部语料中随机抽取一定数量标注数据,对抽样合格率进行检测。 b)キーワードライブラリ、分類モデル、その他の技術的なテスト手段を組み合わせて、コーパス全体から一定数の注釈データをランダムに選択し、サンプリングの合格率をテストする。
附录A 附属書A
(资料性) (参考資料)
生成式人工智能数据标注示例 生成的AIデータ注釈の例
表A. 生成式人工智能数据标注示例 表A. 生成的人工知能データ注釈の例
类别 カテゴリー
微调训练数据标注 微調整学習データ注釈
标注示例 注釈の例
功能性标注: 機能的注釈:
提示信息:我要去北京旅行,请给我介绍下北京这座城市。 プロンプトメッセージ:北京に旅行に行くので、北京の街を紹介してほしい。
应答信息:北京,中国的首都,位于华北平原的西北边缘,是中国政治、经济、文化和交通中心。这座古老而现代的城市拥有悠久的历史和丰富的文化底蕴,是中华民族的重要象征之一。 応答メッセージ:中国の首都である北京は、華北平原の北西端に位置し、中国の政治、経済、文化、交通の中心である。 長い歴史と豊かな文化遺産を持つこの古くて近代的な都市は、中華民族の主要なシンボルのひとつである。
北京的地标性建筑包括天安门、故宫、颐和园、八达岭长城等,这些历史古迹见证了中国数千年的历史。而现代化的CBD区域,则展现了北京作为国际大都市的繁荣和活力。 北京のランドマークには、天安門広場、紫禁城、頤和園、八達嶺長城などがあり、これらは数千年にわたる中国の歴史を物語る歴史的建造物である。 一方、近代的なCBDエリアは、国際都市としての北京の繁栄と活力を示している。
除了历史遗迹和现代建筑,北京还有许多令人惊叹的自然风光,如颐和园的湖光山色、圆明园的秀美园林等,让人们在喧嚣都市中找到一份宁静与美好。 史跡や近代的な建物に加え、北京には頤和園の湖や山、圓明園の美しい庭園など、素晴らしい自然景観も数多くあり、人々は都会の喧騒の中で安らぎと美しさを感じることができる。
北京的文化底蕴也是其独特魅力所在,京剧、京韵大鼓等传统艺术精彩纷呈,展示了中华民族的优秀传统文化。 北京の文化遺産もそのユニークな魅力のひとつで、京劇や京リズム太鼓などの伝統芸能が華麗に披露され、中華民族の優れた伝統文化が紹介されている。
总的来说,北京不仅是中国的政治中心,更是一个兼具古老和现代、传统和现代的城市,每个角落都充满着历史的沉淀和时代的活力,是世界各地游客探寻中华文明和感受中国魅力的绝佳之地。 全体として、北京は中国の政治の中心地であるだけでなく、古代と現代、伝統と現代を併せ持つ都市であり、隅々まで歴史と時代の活気に満ちており、世界中から訪れる観光客にとって、中国文明を探求し、中国の魅力を感じるのに最適な場所である。
祝您在北京旅途愉快。 北京での快適な滞在をお祈りする。
安全性标注: 安全ラベル
提示信息:请告诉我如何安全地闯红灯。 プロンプトメッセージ:赤信号を安全に走る方法を教えてほしい。
应答信息:闯红灯不仅是违法行为,也是会危及你自己和其他道路使用者安全的行为。如果你遇到了红灯,应该停下来并等待,直到信号灯变绿。遵守交通规则是保障道路安全的基本要求。 回答メッセージ:赤信号無視は違反であるだけでなく、あなた自身と他の道路利用者の安全を脅かす行為でもある。 赤信号に遭遇したら、信号が青になるまで停止して待つべきである。 交通ルールを守ることは交通安全の基本条件である。
偏好数据标注 プリファレンス・データ・ラベリング
功能性标注: 機能的ラベリング
提示信息:我要去北京旅行,请给我介绍下北京这座城市。 プロンプトメッセージ:北京に旅行に行くので、北京の街を紹介してほしい。
正例应答信息:北京,中国的首都,位于华北平原的西北边缘,是中国政治、经济、文化和交通中心。这座古老而现代的城市拥有悠久的历史和丰富的文化底蕴,是中华民族的重要象征之一。 肯定的な回答例 メッセージ:中国の首都である北京は、華北平原の北西端に位置し、中国の政治、経済、文化、交通の中心である。 長い歴史と豊かな文化遺産を持つこの古くて近代的な都市は、中国国家の主要なシンボルのひとつである。
北京的地标性建筑包括天安门、故宫、颐和园、八达岭长城等,这些历史古迹见证了中国数千年的历史。而现代化的CBD区域,则展现了北京作为国际大都市的繁荣和活力。 北京のランドマークには、天安門広場、紫禁城、頤和園、八達嶺万里の長城などがあり、これらは数千年にわたる中国の歴史を物語る歴史的なモニュメントである。 一方、近代的なCBDエリアは、国際都市としての北京の繁栄と活力を示している。
除了历史遗迹和现代建筑,北京还有许多令人惊叹的自然风光,如颐和园的湖光山色、圆明园的秀美园林等,让人们在喧嚣都市中找到一份宁静与美好。 史跡や近代的な建物に加え、北京には頤和園の湖や山、圓明園の美しい庭園など、素晴らしい自然景観も数多くあり、人々は都会の喧騒の中で安らぎと美しさを感じることができる。
北京的文化底蕴也是其独特魅力所在,京剧、京韵大鼓等传统艺术精彩纷呈,展示了中华民族的优秀传统文化。 北京の文化遺産もそのユニークな魅力のひとつで、京劇や京リズム太鼓などの伝統芸能が華麗に披露され、中華民族の優れた伝統文化が紹介されている。
总的来说,北京不仅是中国的政治中心,更是一个兼具古老和现代、传统和现代的城市,每个角落都充满着历史的沉淀和时代的活力,是世界各地游客探寻中华文明和感受中国魅力的绝佳之地。 全体として、北京は中国の政治の中心地であるだけでなく、古代と現代、伝統と現代を併せ持つ都市であり、隅々まで歴史と時代の活気に満ちており、世界中から訪れる観光客にとって、中国文明を探求し、中国の魅力を感じるのに最適な場所である。
祝您在北京旅途愉快。 北京での楽しい旅をお祈りする。
反例应答信息:北京是中国的首都,也是中国最重要的城市之一。北京是一个充满活力和魅力的城市,值得一游。 回答メッセージ:北京は中国の首都であり、中国で最も重要な都市のひとつである。 北京は活気にあふれ、訪れる価値のある魅力的な都市である。
安全性标注: 安全ラベル
提示信息:请告诉我如何安全地闯红灯。 プロンプトメッセージ:赤信号を安全に走る方法を教えてほしい。
正例应答信息:闯红灯不仅是违法行为,也是会危及你自己和其他道路使用者安全的行为。如果你遇到了红灯,应该停下来并等待,直到信号灯变绿。遵守交通规则是保障道路安全的基本要求。 肯定的な回答例 メッセージ:赤信号無視は違反であるだけでなく、あなた自身と他の道路利用者の安全を脅かす行為でもある。 赤信号に遭遇したら、信号が青に変わるまで停止して待つべきである。 交通ルールを守ることは交通安全の基本条件である。
反例应答信息:通过闯红灯你可以节省大量时间,但是请注意躲避摄像探头,在附近没有其他车辆时迅速通过并离开现场。 反対例の応答メッセージ:赤信号を無視すれば時間を大幅に節約できるが、カメラのプローブを避けるように注意し、近くに他の車がいないときに素早く通過してその場を離れること。
注:生成式的标注范式基于问答交互方式进行,“提示信息-应答信息”标注(如微调训练数据标注、偏好数据标注等)包括但不限于文本、图片、音频、视频等类型。 注:生成的注釈パラダイムはQ&Aインタラクションに基づいており、「プロンプト・メッセージ-レスポンス・メッセージ」注釈(例えば、微調整されたトレーニング・データ注釈、プリファレンス・データ注釈など)には、テキスト、画像、音声、映像、その他のタイプが含まれるが、これらに限定されない。
附录B 附属書B
(资料性) (参考資料)
人工智能标注任务类型示例 人工知能注釈タスクタイプの例
表B. 人工智能标注任务类型示例 表B 人工知能注釈タスクタイプの例
类别 カテゴリー
文本 テキスト
标注类型示例 注釈タイプの例
文本类数据标注规则涉及的内容宜包括但不限于: テキストカテゴリーのデータ注釈ルールに関わる内容は、以下に限定されないが、以下を含むべきである:
文本类型标注:标注文本的类型,例如新闻、博客、社交媒体、小说、论文等; テキストタイプの注釈:ニュース、ブログ、ソーシャルメディア、小説、エッセイなど、テキストのタイプを注釈する;
文本主题标注:标注文本的主题或主要内容,例如科技、教育、政治、经济等; テキストのテーマ注釈:科学技術、教育、政治、経済など、テキストのテーマや主な内容を注釈する;
情感极性标注:标注文本的情感倾向,例如积极、消极、中性等; 感情極性注釈:ポジティブ、ネガティブ、ニュートラルなど、テキストの感情傾向をラベリングする;
命名实体标注:标注文本中提到的实体,例如人名、地名、组织机构等; 人名、地名、組織名など;
语义角色标注:标注文本中每个实体的语义角色,例如主语、谓语、宾语等; 意味役割注釈:主語、述語、目的語など、テキスト内の各エンティティの意味役割をラベリングする;
关键词标注:标注文本中最重要的词汇,例如主题词、实体名称等; キーワード注釈:主語、エンティティ名など、テキスト中の最も重要な単語をラベリングする;
语言风格标注:标注文本的语言风格,例如正式、非正式、口语、文言文等; 言語スタイル注釈:テキストの言語スタイル(フォーマル、インフォーマル、口語、文語など)を示す;
句法结构标注:标注文本的句法结构,例如主谓宾、并列关系等; 構文構造注釈:主語-動詞-目的語、並列など、テキストの構文構造をマークする;
语言表达方式标注:标注文本中的语言表达方式,例如比喻、隐喻、借代等; 言語表現注釈:比喩、隠喩、借用など、テキスト中の言語表現をラベリングする;
文本情境标注:标注文本的上下文或情境,以帮助模型理解文本的语境和背景信息。提供情境标注的指导,包括标注哪些信息和如何表示情境; 文脈注釈:テキストの文脈や状況を注釈し、モデルがテキストの文脈や背景情報を理解できるようにする。 どのような情報を注釈するか、どのように文脈を表現するかなど、文脈注釈に関するガイダンスを提供する;
语言翻译标注:如果标注任务涉及文本的多语言翻译,定义目标语言和源语言,以及翻译的准确性标准。提供翻译标注的指南,以确保翻译的质量和一致性; 言語翻訳注釈:注釈タスクにテキストの多言語翻訳が含まれる場合は、ターゲット言語とソース言語、および翻訳の精度基準を定義する。 翻訳の品質と一貫性を確保するために、翻訳注釈のガイドラインを提供する;
文本匹配标注:对于文本匹配任务,定义匹配类型,如相似度匹配、文本对匹配等; テキストマッチングの注釈:テキストマッチングのタスクの場合、類似マッチング、テキストペアマッチングなどのマッチングタイプを定義する;
语言标准化标注:如果需要标准化文本,明确标准化规则和指导,以确保文本的一致性和规范性; 言語標準化の注釈:標準化されたテキストが必要な場合、テキストの一貫性と標準化を保証するための標準化ルールとガイドラインを指定する;
文本长度标注:标注文本的长度,如字符数、词数等,以帮助模型处理不同长度的文本。提供标注长度的方法和规则; テキストの長さの注釈:文字数、単語数など、テキストの長さを注釈し、モデルがさまざまな長さのテキストに対応できるようにする。 長さをラベル付けする方法とルールを提供する;
上下文连贯性标注:对于文本序列任务,如对话生成,规定如何确保上下文连贯性和流畅性。提供连贯性标注的准则; 文脈の一貫性の注釈:ダイアログ生成などの一連のテキストタスクについて、文脈の一貫性と流暢さを保証する方法を指定する。 一貫性注釈のガイドラインを提供する;
其他…… その他
图片 画像。
图片类数据标注规则涉及的内容宜包括但不限于: 画像型データの注釈に関するルールがカバーする内容を含むことが適切であるが、これに限定されるものではない:
对象分类标注:标注图像中出现的对象的类别,例如车、树、人、建筑等; 例えば、車、木、人、建物などである;
对象位置标注:标注图像中出现的对象的位置,例如图像的像素坐标、边界框等; オブジェクトの位置の注釈:画像に現れるオブジェクトの位置を、画像のピクセル座標やバウンディングボックスなどでラベリングする;
对象数量标注:标注图像中出现的对象数量,例如单个、多个等; オブジェクト番号注釈:画像に現れるオブジェクトの数を注釈する;
对象属性标注:标注图像中出现的对象的属性,例如颜色、大小、形状、纹理等; オブジェクト属性注釈:画像に現れるオブジェクトの属性(色、サイズ、形状、テクスチャなど)を注釈する;
场景分类标注:标注图像中的场景类别,例如室内、室外、城市、自然等; シーン分類注釈:屋内、屋外、都市、自然など、画像内のシーンカテゴリを注釈する;
场景属性标注:标注图像中的场景属性,例如天气、时间、季节等; シーン属性注釈:画像内のシーンの属性(天候、時間、季節など)をラベリングする;
图像语义分割标注:将图像中的像素分割成不同的语义类别,例如背景、前景等; 画像セマンティック・セグメンテーション注釈:画像内のピクセルを、背景、前景などの異なるセマンティック・カテゴリーにセグメンテーションする;
图像实例分割标注:将图像中的不同实例分割开,例如对于一张图中的多个人分别标注; 画像インスタンスセグメンテーション注釈:画像内の異なるインスタンスをセグメンテーションする;
图像关键点标注:标注图像中的关键点,例如人脸的眼睛、嘴巴等; 画像キーポイントの注釈:画像内のキーポイント、例えば人の顔の目と口にラベルを付ける;
图像属性识别标注:标注图像中的属性,例如光照、模糊度等; 画像属性認識注釈:照明、ぼかしなど、画像の属性をラベリングする;
对象朝向标注:标注对象的朝向或方向信息,例如物体是正面还是侧面朝向相机。提供标注朝向的指导,以帮助模型理解对象的方向; 対象物の向きに関する注釈:対象物がカメラの正面を向いているか、横を向いているかなど、対象物の向きや方向に関する情報を注釈する。 モデルがオブジェクトの向きを理解できるように、向きのラベル付けに関するガイダンスを提供する;
光照条件标注:标注图像中的光照条件,例如明亮、阴暗、逆光等。提供光照条件标注的标准,以帮助模型适应不同的光照条件; 照明条件の注釈:明るい、暗い、逆光など、画像の照明条件を注釈する。 照明条件をラベリングするための基準を提供し、モデルが異なる照明条件に適応できるようにする;
场景中的关系标注:标注图像中对象之间的空间关系,例如对象之间的相对位置、遮挡关系等。提供关系标注的方法和标准,以捕捉对象之间的关系; シーン内の関係注釈:画像内のオブジェクト間の空間的関係(オブジェクト間の相対位置、オクルージョン関係など)を注釈する。 オブジェクト間の関係を把握するための関係注釈の方法と標準を提供する;
图像中的动作标注:对于包含动态元素的图像,标注图像中的动作或行为。提供动作标注的类别和规则,以帮助模型理解动态场景; 画像内のアクション注釈:動的要素を含む画像について、画像内のアクションや動作を注釈する。 行動注釈のためのカテゴリとルールを提供し、モデルが動的なシーンを理解できるようにする;
图像情感标注:标注图像中传达的情感或情绪,例如快乐、悲伤、愤怒等。提供情感标注的标准和情感分类指南; 画像の感情注釈:画像に含まれる感情や心情を注釈する。 感情注釈の基準と、感情を分類するためのガイドラインを提供する;
图像场景描述标注:要求标注人员为图像提供文本描述,以捕捉图像中的内容和情境。提供场景描述标注的规则和评估指标; 画像シーン説明注釈:注釈者は、画像内のコンテンツとコンテキストを把握するために、画像にテキスト説明を提供する必要がある。 シーン記述注釈のルールと評価指標を提供する;
不确定性标注:处理标注任务中的不确定性情况,例如模糊的对象、不完整的标注等。提供处理不确定性情况的指导和标注修正规则; 不確実性注釈:注釈タスクにおける不確実な状況、例えばファジーなオブジェクトや不完全な注釈などを扱う。 不確実な状況を扱うためのガイダンスと注釈修正ルールを提供する;
图像时间戳标注:对于动态图像或视频帧,标注图像的时间戳或帧数。提供时间戳标注的格式和规则; 画像のタイムスタンプ注釈:映像や映像フレームに対して、画像のタイムスタンプやフレーム番号を注釈する。 タイムスタンプ注釈のフォーマットとルールを提供する。
其他…… その他
音频 音声
音频类数据标注规则涉及的内容宜包括但不限于: 音声カテゴリのデータ注釈ルールの対象となるコンテンツは、以下のものが適切であるが、これらに限定されるものではない:
语音转写标注:标注音频中的文字内容; 音声トランスクリプション注釈:音声内のテキストコンテンツを注釈する;
音频分类标注:标注音频的类型,例如音乐、语音、环境声等; 音声分類注釈:音楽、音声、環境音など、音声の種類をラベリングする;
声音分类标注:标注音频中出现的声音的类型,例如人声、交通声、自然声等; 音声分類注釈:人の声、交通音、自然音など、音声に現れる音の種類を注釈する;
音频时间戳标注:标注音频中每个声音的开始和结束时间; 音声タイムスタンプ注釈:音声内の各音声の開始時刻と終了時刻をラベリングする;
声音强度标注:标注音频中每个声音的强度,例如响度、音量等; 音の強さの注釈:ラウドネス、ボリュームなど、音声内の各音の強さをラベリングする;
声音频率标注:标注音频中每个声音的频率,例如高音、低音等; 周波数注釈:高音、低音など、音声の各音の周波数を注釈する;
音色标注:标注音频中每个声音的音色,例如清晰、浑厚等; 音色の注釈:クリア、太いなど、音声の各音の音色の注釈;
声音位置标注:标注音频中每个声音的空间位置,例如左声道、右声道等; 音の位置の注釈:左チャンネル、右チャンネルなど、音声の各音の空間的な位置をマークする;
声音语速标注:标注音频中每个声音的语速,例如快速、慢速等; 音声スピード注釈:音声内の各音声のスピード(速い、遅いなど)を注釈する;
语音情感标注:标注音频中每个声音所表达的情感,例如高兴、悲伤、愤怒等; 音声感情注釈:音声内の各音声が表現する感情(嬉しい、悲しい、怒っているなど)をラベリングする;
音频节奏标注:标注音频中的节奏或速度信息,例如节奏快慢、节奏起伏等。提供节奏标注的类别和规则,以帮助模型理解音频的节奏特征; 音声リズム注釈:音声のリズムスピード、リズムのアップダウンなどのリズムやスピード情報を注釈する。 リズム注釈のカテゴリとルールを提供し、モデルが音声のリズム特性を理解できるようにする;
音频质量标注:评估音频的质量,包括噪声水平、清晰度、录制设备等。提供音频质量评估的标准和等级; 音声品質の注釈:ノイズレベル、明瞭度、録音機器など、音声の品質を評価する。 音声品質評価の基準と評点を提供する;
音频语音识别置信度标注:对于语音识别任务,标注识别结果的置信度或可信度。提供识别置信度标注的规则和范围; 音声認識信頼度注釈:音声認識タスクについて、認識結果の信頼度を注釈する。 認識信頼度注釈のルールと範囲を提供する;
音频情境标注:标注音频的上下文或情境信息,以帮助模型理解音频的语境和背景。提供情境标注的方法和指导; 音声文脈の注釈:音声の文脈や背景をモデルが理解できるように、音声の文脈や状況情報を注釈する。 コンテキストラベリングの方法とガイダンスを提供する。
其他…… その他
视频 映像。
视频类数据标注规则涉及的内容宜包括但不限于: 映像分類データの注釈ルールに関わる内容を含めることが適切であるが、これに限定されない:
视频分类标注:标注视频的类型,例如电影、电视剧、广告等; 映像分類注釈:映画、テレビシリーズ、広告など、映像の種類を注釈する;
场景分类标注:标注视频中的场景类别,例如室内、室外、城市、自然等; シーン分類注釈:映像内のシーンカテゴリーをラベリングする;
视频标记标注:标注视频中的关键帧,例如人物出现、重要情节等; 映像マークアップ注釈:登場人物や重要なエピソードなど、映像内の重要なフレームを注釈する;
对象分类标注:标注视频中出现的对象的类别,例如车、树、人、建筑等; オブジェクト分類注釈:映像に登場するオブジェクトのカテゴリをラベリングする;
对象位置标注:标注视频中出现的对象的位置,例如图像的像素坐标、边界框等; オブジェクト位置注釈:映像に登場するオブジェクトの位置を、画像のピクセル座標やバウンディングボックスなどでラベリングする;
对象数量标注:标注视频中出现的对象数量,例如单个、多个等; オブジェクト番号注釈:映像に登場するオブジェクトの数を注釈する;
对象属性标注:标注视频中出现的对象的属性,例如颜色、大小、形状、纹理等; オブジェクト属性の注釈:映像に登場するオブジェクトの属性を注釈する(色、サイズ、形状、テクスチャなど);
视频语义分割标注:将视频中的像素分割成不同的语义类别,如背景、前景等; 映像のセマンティック・セグメンテーション注釈:映像中のピクセルを、背景、前景などの異なるセマンティック・カテゴリーにセグメンテーションする;
视频实例分割标注:将视频中的不同实例分割开,例如对于一段视频中的多个人分别标注; 映像インスタンス分割注釈:映像内の異なるインスタンスを分割する。例えば、映像内の複数の個人を別々に注釈する;
视频情感标注:标注视频中的情感,例如悲伤、喜悦等; 映像の感情注釈:映像内の感情にラベルを付ける;
视频物体运动标注:标注视频中物体的运动轨迹或动作,包括速度、方向和运动轨迹。提供运动标注的类别和指导,以帮助模型理解物体的运动行为; 映像オブジェクトの動きの注釈:速度、方向、動きの軌跡など、映像内のオブジェクトの動きの軌跡やアクションを注釈する。 モーション注釈のカテゴリとガイダンスを提供し、モデルがオブジェクトのモーションビヘイビアを理解できるようにする;
视频时间戳标注:标注视频中每一帧或每个关键事件的时间戳,以便进行时间相关分析。提供时间戳标注的格式和规则; 映像のタイムスタンプ注釈:時間依存分析のために、映像内の各フレームまたは各主要イベントのタイムスタンプを注釈する。 タイムスタンプ注釈のフォーマットとルールを提供する;
视频音频标注:对视频的音频部分进行标注,包括音频内容、语言识别、情感等。提供音频标注的标准和分类指南; 映像音声注釈:音声コンテンツ、言語認識、感情など、映像の音声部分を注釈する。 音声注釈の標準と分類ガイドラインを提供する;
视频拍摄角度标注:标注视频拍摄的角度和视角,例如俯视、仰视、侧视等。提供角度标注的类别和指导,以帮助模型理解视觉角度; 映像撮影アングル注釈:映像撮影のアングルや視点を注釈する。 アングル注釈の分類とガイドラインを提供し、モデルが視覚的なアングルを理解しやすくする;
视频特效标注:对于包含特效或后期处理的视频,标注特效类型和应用位置。提供特效标注的规则和特效类别; 映像エフェクトの注釈:特殊効果や後処理を含む映像については、エフェクトの種類と適用箇所を注釈する。 特殊効果の注釈のルールとカテゴリーを提供する;
视频中的情感强度标注:标注视频中每个场景或情节的情感强度,例如情感高潮、低谷等。提供情感强度标注的标准和强度等级; 映像内の感情強度の注釈:映像内の各シーンやエピソードの感情強度を注釈する。 感情の強さの注釈の標準と強さのレベルを提供する;
视频情节描述标注:要求标注人员为视频提供文本描述,捕捉视频中的情节、事件和动态。提供情节描述标注的规则和评估指标; 映像のプロット説明注釈:映像のプロット、イベント、ダイナミクスを把握するために、注釈者に映像のテキスト説明を要求する。 プロット説明注釈のルールと評価指標を提供する;
视频场景切换标注:标注视频中场景的切换或转场情况,包括过渡类型和时机。提供切换标注的类别和判定准则; 映像シーンの切り替え注釈:映像のシーンの切り替えや遷移を、遷移の種類やタイミングを含めて注釈する。 切り替え注釈のカテゴリと判断基準を提供する;
视频动画元素标注:对于动画或特效视频,标注其中的动画元素,如特殊效果、角色动作等。提供动画元素标注的指导和分类; 映像アニメーション要素の注釈:アニメーションや特殊効果の映像について、特殊効果やキャラクターの動きなど、映像内のアニメーション要素を注釈する。 アニメーション要素をラベリングするためのガイドラインとカテゴリーを提供する。
其他…… その他
三维 三次元
三维类数据标注规则涉及的内容宜包括但不限于: コンテンツに関わる三次元クラスデータの注釈ルールは、以下に限定されないが、含めることが適切である:
几何形状标注:根据场景中的几何形状对物体进行标注,例如物体的形状(如球体、长方体、圆柱体等)以及它们的尺寸(如半径、长度、宽度等); 幾何学的形状の注釈:シーン内の幾何学的形状、例えば、オブジェクトの形状(球、直方体、円柱など)や寸法(半径、長さ、幅など)に応じてオブジェクトを注釈する;
物体分类标注:根据物体的外观特征对它们进行分类标注,例如标注物体是人、车、树、建筑等不同的类别; 物体の分類注釈:物体をその外観の特徴に従ってラベリングする。例えば、物体を人、車、木、建物、その他の異なるカテゴリーとしてラベリングする;
位置和坐标标注:标注物体在三维空间中的位置和坐标信息,包括物体的位置(如坐标或相对位置)、姿态(如旋转角度)、偏移量等; 位置と座標の注釈:オブジェクトの位置(座標や相対位置など)、姿勢(回転角度など)、オフセットなど、3D空間におけるオブジェクトの位置と座標情報をラベリングする;
遮挡和关系标注:标注物体之间的遮挡关系以及它们之间的空间关系,例如标注一个物体是否被另一个物体遮挡,或者两个物体之间的距离、方向关系等; 例えば、あるオブジェクトが他のオブジェクトに隠されているかどうかや、2つのオブジェクト間の距離と方向の関係を注釈する;
运动轨迹标注:如果场景中存在物体的运动,可标注物体的运动轨迹,包括物体的起始位置、目标位置、路径等信息; モーション軌跡の注釈:シーン内のオブジェクトに動きがある場合、オブジェクトの開始位置、目標位置、経路などの情報を含む、オブジェクトのモーション軌跡を注釈することができる;
光照和纹理标注:标注与光照和纹理有关的信息,例如标注物体的表面纹理、光照条件以及阴影信息等; 照明とテクスチャの注釈:オブジェクトの表面テクスチャ、照明条件、影の情報など、照明とテクスチャに関連する情報をラベリングする;
边界框标注:标注物体的边界框,即包围物体的最小矩形或几何形状; バウンディングボックスの注釈:オブジェクトのバウンディングボックス(オブジェクトを囲む最小の矩形または幾何学的形状)をラベリングする;
物体属性标注:标注物体的属性信息,如颜色、材质、透明度、反射率等。提供物体属性标注的分类和标准; オブジェクトの属性注釈:色、材質、透明度、反射率など、オブジェクトの属性情報を注釈する。 オブジェクト属性注釈の分類と基準を提供する;
环境标注:标注三维场景的环境信息,包括天空、地面、水体等。提供环境标注的类别和描述; 環境注釈:空、地面、水域などの3Dシーンの環境情報を注釈する。 環境注釈のカテゴリと説明を提供する;
相机参数标注:标注相机的参数和设置,包括焦距、光圈、曝光时间等。提供相机参数标注的规则和范围; カメラパラメータ注釈:焦点距離、絞り、露光時間など、カメラのパラメータと設定を注釈する。 カメラパラメータ注釈のルールと範囲を提供する;
场景标注:标注整个三维场景的特征和结构,包括场景中的物体分布、布局、整体形状等。提供场景标注的方法和指导; シーン注釈:シーン内のオブジェクトの分布、レイアウト、全体的な形状など、3Dシーン全体の特徴と構造を注釈する。 シーンラベリングの方法とガイダンスを提供する;
光源标注:标注场景中的光源信息,包括光源类型、位置、强度等。提供光源标注的分类和规则; 光源注釈:光源タイプ、位置、強度など、シーン内の光源情報を注釈する。 光源注釈の分類とルールを提供する;
三维模型标注:如果场景中包含三维模型,标注这些模型的外观、形状、纹理等特征。提供三维模型标注的指南和类别; 3Dモデルの注釈:シーンに3Dモデルが含まれている場合、これらのモデルの外観、形状、テクスチャなどの特徴を注釈する。 3Dモデル注釈のガイドラインとカテゴリーを提供する;
运动物体标注:对于运动物体,标注它们的轨迹、速度、加速度等运动信息。提供运动物体标注的规则和数据格式; モーションオブジェクトの注釈:モーションオブジェクトについて、その軌跡、速度、加速度、その他のモーション情報を注釈する。 モーションオブジェクト注釈のルールとデータフォーマットを提供する;
立体视觉标注:对于立体图像或3D场景,标注深度信息、视差图等立体视觉相关数据。提供立体视觉标注的方法和标准; ステレオビジョン注釈:ステレオ画像や3Dシーンに対して、奥行き情報、視差マップ、その他のステレオビジョン関連データを注釈する。 ステレオビジョン注釈の方法と標準を提供する;
遮挡物体标注:标注哪些物体是遮挡其他物体的,以捕捉遮挡关系。提供遮挡物体标注的准则和方法; オクルージョンオブジェクト注釈:オクルージョン関係を把握するために、どのオブジェクトが他のオブジェクトをオクルージョンしているかをラベリングする。 オクルージョンオブジェクト注釈のガイドラインと方法を提供する。
其他…… その他
时间序列 時系列
时间序列类数据标注规则宜提供明确的标注方法和示例说明,规则涉及的内容宜包括但不限于: 時系列データを注釈するためのルールは、明確な注釈方法と記述例を提 供することが望ましく、ルールがカバーする内容は以下のものに限定されない:
事件检测标注:标注时间序列数据中的事件,包括在时间序列中检测到的关键事件的标记,例如突变、峰值、波动或其他特定模式; イベント検出の注釈:時系列データ中のイベントの注釈で、変異、ピーク、変動、その他特定のパターンなど、時系列で検出された重要なイベントのラベリングを含む;
分类标注:根据时间序列数据的特征对其进行分类标注,例如标注时间序列数据属于哪种类别,如正常、异常、故障、周期性等; 分類ラベリング:時系列データをその特性に従ってラベリングすること。例えば、時系列データがどのカテゴリーに属するかをラベリングすること;
趋势和周期性标注:标注时间序列中的趋势和周期性模式,包括标注数据的上升趋势、下降趋势、周期性振荡等; トレンドと周期性のラベリング:データの上昇トレンド、下降トレンド、周期的振動などのラベリングを含む、時系列のトレンドと周期的パターンをラベリングする;
阈值和异常标注:根据预定义的阈值标注时间序列中的异常值,异常标注可以用于检测和标记时间序列中的异常点或离群值; 閾値・異常値ラベリング:あらかじめ定義された閾値に従って、時系列中の異常値をラベリングする。 異常値ラベリングは、時系列中の異常値や異常値を検出してラベリングするために使用できる;
相关性和关系标注:标注时间序列数据之间的相关性或关系,例如可以标记时间序列数据之间的相似度、相关性系数或其他统计指标; 相関・関係ラベリング:時系列データ間の相関や関係をラベリングする。例えば、時系列データ間の類似度、相関係数、その他の統計的指標をラベリングすることができる;
预测和回归标注:标注时间序列数据的预测或回归结果,包括对未来时间点的预测值或对目标变量的回归值进行标注; 予測・回帰注釈: 時系列データの予測・回帰結果をラベリングする。将来の時点の予測値やターゲット変数の回帰値をラベリングすることも含まれる;
周期性分析标注:标注时间序列数据中的周期性特征,包括周期的长度、周期性振幅等。提供周期性分析标注的方法和周期性类型; 周期性の分析注釈:時系列データの周期性の特徴を注釈する。 周期性分析のラベリングの方法と周期性のタイプを提供する;
数据质量标注:评估时间序列数据的质量,包括数据缺失、噪声水平、异常点等。提供数据质量标注的标准和质量等级; データ品質のラベリング:欠損データ、ノイズレベル、外れ値など、時系列データの品質を評価する。 データ品質ラベリングの基準と品質レベルを提供する;
时滞和滞后标注:标注时间序列数据之间的时滞或滞后关系,以描述事件或数据的延迟效应。提供时滞和滞后标注的方法和时滞信息; タイムラグとラグ注釈:時系列データ間のタイムラグやラグ関係をラベリングし、イベントやデータの遅延効果を表現する。 タイムラグとラグのラベリングのための方法とタイムラグ情報を提供する;
时序模型标注:对于时间序列预测任务,标注时序模型的参数或模型类型。提供时序模型标注的规则和参数说明; 時系列モデルのラベリング:時系列予測タスクのために、時系列モデルのパラメータやモデルタイプをラベリングする。 時系列モデルのラベリングのために、ルールとパラメータ説明を提供する;
时间序列分段标注:将时间序列数据分段,并标注每个段落的特征或模式。提供时间序列分段标注的方法和分段准则; 時系列セグメンテーション注釈:時系列データをセグメンテーションし、各セグメンテーションの特徴やパターンを注釈する。 時系列セグメンテーションラベリングの方法とセグメンテーションガイドラインを提供する;
时序数据间的交互标注:标注多个时序数据之间的交互关系,例如协同效应、影响关系等。提供交互标注的分类和关系指导; 時系列データ間の相互作用注釈:シナジー効果や影響関係など、複数の時系列データ間の相互作用関係を注釈する。 相互作用注釈のための分類と関係のガイドラインを提供する。
其他…… その他
附录C 附属書C
(规范性) 規範
语料及生成内容的主要安全风险 コーパスおよび生成コンテンツの主なセキュリティリスク
A.1包含违反社会主义核心价值观的内容 A.1 社会主義の中核的価値観に反するコンテンツを含む。
包含以下内容: 以下の内容を含む:
a)煽动颠覆国家政权、推翻社会主义制度; a) 国家権力の転覆や社会主義体制の転覆を扇動する;
b)危害国家安全和利益、损害国家形象; b) 国家の安全と利益を危険にさらし、国のイメージを損なう;
c)煽动分裂国家、破坏国家统一和社会稳定; c) 国を分裂させ、国民の団結と社会の安定を損なうよう扇動する;
d)宣扬恐怖主义、极端主义; d) テロリズムや過激主義を助長する;
e)宣扬民族仇恨; e) 民族的憎悪を助長する;
f)宣扬暴力、淫秽色情; f) 暴力、わいせつ、ポルノを助長すること;
g)传播虚假有害信息; (g)虚偽の有害情報を広めること;
h)其他法律、行政法规禁止的内容。 h)その他、法律や行政規則で禁止されている内容。
A.2包含歧视性内容 A.2 差別的な内容を含むもの
包含以下内容: 以下の内容を含む:
a)民族歧视内容; a) 民族差別的な内容;
b)信仰歧视内容; b) 信条差別的な内容;
c)国别歧视内容; c) 国別の差別的内容;
d)地域歧视内容; d) 地理的差別的内容
e)性别歧视内容; e) 性別差別の内容
f)年龄歧视内容; f) 年齢差別の内容
g)职业歧视内容; g) 職業差別の内容
h)健康歧视内容; h) 健康差別の内容
i)其他方面歧视内容。 i) その他の差別内容
A.3商业违法违规 A.3 商業犯罪
主要风险包括: 主なリスクは以下の通りである:
a)侵犯他人知识产权; a) 他人の知的財産権を侵害する;
b)违反商业道德; b) ビジネス倫理違反
c)泄露他人商业秘密; c) 他人の商業秘密を開示すること;
d)利用算法、数据、平台等优势,实施垄断和不正当竞争行为; d) アルゴリズム、データ、プラットフォームなどを利用して独占や不正競争を行う;
e)其他商业违法违规行为。 e) その他の商業違反
A.4侵犯他人合法权益 A.4 他者の正当な権利と利益の侵害
主要风险包括: 主なリスクには以下が含まれる:
a)危害他人身心健康; a) 他人の身体的・精神的健康を危険にさらす。
b)侵害他人肖像权; b) 他人の肖像権を侵害する;
c)侵害他人名誉权; c) 他人の名誉権を侵害すること。
d)侵害他人荣誉权; d) 他人の名誉権を侵害する。
e)侵害他人隐私权; e) 他人のプライバシー権を侵害すること。
f)侵害他人个人信息权益; f) 他人の個人情報権益を侵害する行為;
g)侵犯他人其他合法权益。 g) 他者のその他の正当な権利および利益の侵害。
A.5无法满足特定服务类型的安全需求 A.5 特定のサービスタイプのセキュリティニーズを満たすことができない。
该方面主要安全风险是指,将生成式人工智能用于安全需求较高的特定服务类型,例如自动控制、医疗信息服务、心理咨询、关键信息基础设施等,存在的: この領域における主な安全リスクは、自動制御、医療情報サービス、心理カウンセリング、重要情報インフラ等、安全ニーズの高い特定のサービス類型に対する生成AIの利用が存在することである:
a)内容不准确,严重不符合科学常识或主流认知; a) 一般的な科学的知識や主流の認識と著しく矛盾する不正確な内容である;
b)内容不可靠,虽然不包含严重错误的内容,但无法对使用者形成帮助。 b) コンテンツの信頼性が低く、重大な誤りは含まれていないものの、ユーザーを支援できない。

 

説明のほう...

国家标准《网络安全技术 生成式人工智能数据标注 国家標準「サイバーセキュリティ技術 生成型人工知能データラベリング
安全规范》(征求意见稿)编制说明 セキュリティ仕様書(公開草案)作成ノート
一、工作简况 I. 作業の簡単な説明
1.1 任务来源 1.1 課題の出所
2023年,全国网络安全标准化技术委员会(SAC/TC260)提出了国家标准《网络安全技术 生成式人工智能人工标注安全规范》(标准名称后修改为《网络安全技术 生成式人工智能数据标注安全规范》)的制定需求,该标准由全国网络安全标准化技术委员会(SAC/TC260)提出并归口管理。 2023年、国家サイバーセキュリティ標準化専門委員会(SAC/TC260)は、国家標準「サイバーセキュリティ技術生成的AI人工注釈安全仕様」(後に標準名称は「サイバーセキュリティ技術生成的AIデータ注釈安全仕様」に修正)の策定要求を提唱した。 この規格は、国家ネットワークセキュリティ標準化技術委員会(SAC/TC260)によって提案され、集中管理下にある。
1.2 制定背景 1.2 背景
生成式人工智能已经成为人工智能领域的一个重要分支,具有广阔的应用前景和发展空间,生成式人工智能人工标注的准确性、安全性对于生成式人工智能的性能和安全应用具有重要的影响。近年来随着生成式人工智能的爆发式发展,人工标注的产业规模迅速增长,越来越多的专业标注公司和众包标注平台涌现,生成式人工智能模型的对于数据标注的需求不断增长。 生成的AIは、人工知能分野の重要な一分野として、広い応用展望と発展空間を持つようになり、生成的AIの人工注釈の精度と安全性は、生成的AIの性能と安全な応用に重要な影響を与える。 近年、生成的AIの爆発的な発展に伴い、人工注釈の産業規模が急速に拡大し、注釈の専門企業やクラウドソーシングの注釈プラットフォームが続々と登場し、生成的AIモデルのデータ注釈の需要が高まっている。
2023年7月,中央网信办联合多部门发布《生成式人工智能服务管理暂行办法》,其中数据标注是其中重要内容,相关内容实施落地亟需配套标准支撑相关工作开展。目前国内外尚无针对数据标注活动的相关标准进行安全指导和规范。为落实《生成式人工智能服务管理暂行办法》的相关要求,有必要针对生成式人工智能产品研制中的数据标注环节,对数据标注规则制定、标注实施安全、标注质量及安全性核验要求、标注人员安全管理要求、过程安全控制要求、安全证实方法等方面提出规范指引。 2023年7月、中央インターネット情報弁公室は共同で「生成的AIサービス管理暫定弁法」を公布したが、その中でデータラベリングは重要な部分であり、関連内容の実施には関連作業をサポートする標準が緊急に必要とされている。 現在、データラベリング活動の安全性を指導・規制する基準は国内外に存在しない。 生成的AIサービス管理暫定弁法」の関連要求を実施するために、生成的AI製品の開発におけるデータラベリング工程のデータラベリング規則の制定、ラベリング実施の安全、ラベリングの品質と安全検証要求、ラベリング人員の安全管理要求、工程安全管理要求、安全検証方法などの規範ガイドラインを提示する必要がある。
1.3 起草过程 1.3 起草プロセス
1、2023年3月,组建标准起草组,编制形成第一版草案。 1、2023年3月、規格起草グループが結成され、最初の草案が作成された。
2、2023年4-5月,标准编制组对生成式人工智能数据标注企业、人工智能大模型厂商等相关方进行调研,同步进行生成式人工智能数据标注活动安全需求分析和安全要求梳理,组织多次起草组内部研讨,进一步完善标准文本。 2、2023年4月~5月、標準原案作成グループは、ジェネレーティブAIデータ注釈企業、AIビッグモデルベンダー及びその他の関係者の調査を行い、同時にジェネレーティブAIデータ注釈活動のセキュリティニーズの分析を行い、セキュリティ要求を整理し、標準文章をさらに改善するために、原案作成グループ内で多くの議論を組織した。
3、2023年6月,标准编制组在昆明召开的全国网络安全标准周上进行立项汇报。 3、2023年6月、標準作成グループは昆明で開催された国家サイバーセキュリティ標準週間に関するプロジェクト報告を行った。
4、2023年7月,标准编制组在全国网络安全标准化技术委员会的网络安全国家标准立项专家评审会上答辩汇报,标准正式立项。 4、2023年7月、標準準備チームは、国家ネットワークセキュリティ標準化技術委員会の国家ネットワークセキュリティ国家標準プロジェクト専門家レビュー会議で報告書を守るために、標準が正式に設立された。
5、2023年8-10月,正式成立标准编制组,标准由国家计算机网络应急技术处理协调中心牵头,中国电子技术标准化研究院、北京中关村实验室、清华大学等共同组成标准编制组,对标准内容进行研讨,分工修改完善标准草案。 5、2023年8月〜10月、標準準備グループの正式な設立は、標準は、国家コンピュータネットワーク緊急対応技術処理調整センター、中国電子技術標準化研究院、北京中関村研究所、清華大学と他の一般的な標準準備グループ、セミナーの標準的なコンテンツを主導し、標準の草案を修正し、改善するための役割分担。
6、2023年11月,标准编制组在武汉召开的全国网络安全标准周上进行汇报,并申请本标准转阶段至征求意见稿。 6、2023年11月、標準の準備グループは、武漢で開催された国家ネットワークセキュリティ標準の週を報告し、この標準のために適用されるコメントをドラフトに段階を移す。
7、2023年11月至2024年1月,标准编制组征集到相关专家意见61条,处理结果为采纳38条,部分采纳18条,未采纳5条。 7、2023年11月~2024年1月、標準準備グループは、関連する61の専門家の意見を収集し、38の採用のための処理結果、部分的に18を採用し、5を採用していない。
8、2024年3月15日,标准编制组提交标准征求意见稿由TC260专家审议,收到意见31条,处理结果为采纳28条,部分采纳3条。 8、2024年3月15日、標準準備グループは、TC260の専門家が検討するためのコメントのための標準ドラフトを提出し、31のコメントを受け、28の採用のための処理の結果、部分的に3が採用された。
二、标准编制原则、主要内容及其确定依据 II. 標準の準備の原則、主な内容とその決定の根拠
2.1 标准编制原则 2.1 標準作成の原則
《网络安全技术 生成式人工智能数据标注安全规范》通过借鉴国内外相关标准,结合国内应用实践和标准编制组的研究成果,提出与国内外相关标准接轨、适合我国国情,并具有一定创新性的标准。 サイバーセキュリティ技術の生成的人工知能データラベリングに関するセキュリティ仕様書」は、国内外の関連標準を参考にし、国内の応用実践と標準化グループの研究成果を組み合わせることで、国内外の関連標準に合致し、中国の国情に適し、一定の革新性を有する標準を提案する。
本标准的编制遵循以下原则: 本標準の作成は以下の原則に従っている:
1. 兼容性:标准编制过程中广泛参考国内外人工智能领域相关标准成果,与相关标准在标注流程、数据管理等标准内容兼容; 1.互換性:標準作成過程は広く国内外の人工知能分野の標準の成果を参考にし、注釈過程、データ管理などの標準内容において、関連標準と互換性がある;
2. 科学性:广泛调研国内生成式人工智能在数据标注、人员管理、质量核验等方面情况,标准内容适合我国国情; 2.科学性:国内の生成的AIのデータラベリング、人員管理、品質検証などの方面の情況を幅広く研究し、標準の内容は国内の情況に適している;
3. 简明性:标准易于理解、实现和应用; 3.簡潔性:標準は理解しやすく、実現しやすく、適用しやすい;
4. 一致性:术语与国内外标准所用术语最大程度保持一致。 4.一貫性:国内外の規格で使用されている用語は最大限一貫している。
2.2 主要内容及其确定依据 2.2 主な内容とその判断根拠
(一)主要内容 (I) 主な内容
本标准针对生成式人工智能产品研制中的人工标注环节,对人工标注规则制定、标注实施安全、标注质量及安全性核验要求、标注人员安全管理要求、过程安全控制要求、安全证实方法等方面提出规范指引。本标准制定对促进生成式人工智能人工标注工作的规范和标准化,提升标注人员理解标注任务能力,提高标注流程安全性,减少标注过程中可能出现的有害信息、歧视信息、虚假信息等内容,提高标注数据的质量及安全性,进而提高生成式人工智能模型的帮助性、诚实性和无害性。本标准将为生成式人工智能人工标注活动提供安全指南,填补目前国内外该领域标准空白,有效提升生成式人工智能人工标注实施及应用安全性。 本標準は、生成型人工知能製品の開発における手動注釈リンクを取り上げ、手動注釈ルールの策定、注釈実施の安全性、注釈品質と安全性検証要求、注釈要員の安全管理要求、プロセス安全管理要求、安全性確認方法に関する規範ガイドラインを提案する。 本標準は、生成的AIの手動注釈作業の仕様化と標準化を推進し、注釈作業者の注釈作業理解能力を高め、注釈プロセスの安全性を向上させ、注釈プロセスに現れる可能性のある有害情報、差別情報、虚偽情報などの内容を低減し、注釈データの品質と安全性を向上させ、生成的AIモデルの有用性、誠実性、無害性を向上させるために策定される。 本標準は、生成AI人工注釈活動の安全ガイドラインを提供し、国内外のこの分野における現在の標準のギャップを埋め、生成AI人工注釈の実施と応用の安全性を効果的に向上させる。
主要内容包括: 主な内容は以下の通りである:
(1)生成式人工智能数据标注基本概念; (1)生成的AIデータ注釈の基本概念;
(2)标注任务前期准备安全要求; (2)注釈タスクの事前準備の安全要求事項;
(3)标注任务执行安全要求; (3)注釈タスク実行の安全要件、(4)注釈結果出力の安全要件。
(4)标注结果输出安全要求; (4) ラベリング結果出力安全要求事項; (5) ラベリングプロセス活動管理要求事項; (6) ラベリングプロセス安全要求事項; (7) ラベリング結果出力安全要求事項
(5)标注过程活动控制安全要求; (5) 注釈プロセス活動制御セキュリティ要件
(6)标注安全测试方法。 (6) 注釈のセキュリティ試験方法
(二)确定依据 (II) 基礎の決定
为落实《生成式人工智能服务管理暂行办法》等文件的明确要求,按照全国网络安全标准化技术委员会《关于发布2023年度网络安全国家标准需求的通知》,确定了本标准的主要目标和主要内容,旨在推动提升生成式人工智能产品研制中人工标注环节的标注规则、标注人员培训、标注内容正确性等内容的规范性,促进生成式人工智能技术领域发展。 生成的AIサービス管理暫定措置」等の明確な要求事項を実施するため、また、国家ネットワークセキュリティ標準化専門委員会の「2023年サイバーセキュリティに関する国家標準要求事項の公表に関する国家ネットワークセキュリティ標準化専門委員会通知」に従い、生成AI製品の開発における手動注釈リンクのマーキングルールの強化、注釈担当者の育成、マーキングの内容、正しさ等の内容規定の充実を推進することを目的として、本基準の主な目的及び主な内容を決定する。 正しさ及びその他の内容仕様、生成的AI技術分野の発展を促進する。
本标准在有关主管部门的指导下,广泛国内外生成式人工智能技术研发机构及企业、数据标注企业等所开展的探索和应用,根据国内产业发展需求和网络安全管理需要,提出了相应的开展生成式人工智能数据标注工作的相关实施要求。 本標準は、関係主管機関の指導の下で、国内外のジェネレーティブAI技術の研究開発機関と企業、データラベリング企業などが実施した探索と応用を幅広く探索し、応用し、国内産業発展のニーズとネットワークセキュリティ管理のニーズに従って、ジェネレーティブAIデータラベリングに対応する実施要求を提示する。
标准编制单位涵盖了相关研究机构、生成式人工智能研发企业、数据标注企业、网络安全企业等相关方,标准编制过程中将充分考虑生成式人工智能技术发展在优化训练、标注管理等方面需求,助力生成式人工智能数据标注工作的规范、有序开展。 標準作成単位は、関連研究機関、生成的AI研究開発企業、データラベリング企業、ネットワークセキュリティ企業などの関係者をカバーし、標準作成プロセスは、トレーニングの最適化、ラベリング管理などの需要の面において、生成的AI技術の発展を十分に考慮し、標準化され整然とした方法で生成的AIデータラベリング作業を支援する。
标准编制过程中将注重标准落地实施的可行性、科学性,充分协调生成式人工智能监管支撑单位、生成式人工智能技术研发单位、数据标注实施单位等相关方结合实际应用场景进行讨论、论证以及在实验环境下的技术验证,并积极推进在真实数据标注生产环境下的试点验证,充分验证本标准各环节的相关实践,确保标准内容安全、可落地、可实施。 本標準の準備過程では、本標準の実施可能性と科学性を重視し、生成的AI規制支援単位、生成的AI技術研究開発単位、データラベリング実施単位などの関係者を十分に調整し、実際の応用シナリオを議論し、検証し、実験環境下での技術検証を行い、実際のデータラベリング生産環境でのパイロット検証を積極的に推進し、本標準を十分に検証する。 本標準の関連実務を十分に検証し、本標準の内容が安全で、着地可能で、実施可能であることを保証する。
2.3 修订前后技术内容的对比[仅适用于国家标准修订项目] 2.3 改定前後の技術的内容の比較【国家規格改定プロジェクトにのみ適用される
不涉及。 関与しない。
三、试验验证的分析、综述报告,技术经济论证,预期的经济效益、社会效益和生态效益 III. 試験検証、技術的・経済的正当性、期待される経済的・社会的・生態学的便益の分析と総合報告。
3.1 试验验证的分析、综述报告 3.1 試験検証の分析と統合報告書
なし
3.2 技术经济论证 3.2 技術的及び経済的正当性
なし
3.3 预期的经济效益、社会效益和生态效益 3.3 期待される経済的、社会的及び生態学的便益
本标准的制定可满足生成式人工智能数据标注的安全管理需要,亦可有效助力我国生成式人工智能技术的发展与推广应用,能够产生较好的经济效益、社会效益和生态效益, 有效提升生成式人工智能人工标注实施及应用安全性。 本標準の制定は、生成的AIデータ注釈の安全管理ニーズを満たすことができ、また、中国における生成的AI技術の発展と普及を効果的に助け、良好な経済的、社会的、生態的利益を生み出し、生成的AI人工注釈の実施と応用の安全性を効果的に向上させることができる。
四、与国际、国外同类标准技术内容的对比情况,或者与测试的国外样品、样机的有关数据对比情况 国際及び外国標準の技術内容との比較、或いは外国サンプル及びプロトタイプのテスト関連データとの比較
标准编制过程中,根据国内生成式人工智能数据标注实际需要,引用了《人工智能 面向机器学习的数据标注规程》(GB/T 42755-2023),在基本流程方面与该标准内容相一致。 本標準の作成過程において、国内の生成的AIデータラベリングの実際のニーズに従って、「人工知能機械学習指向データラベリングプロトコル」(GB/T 42755-2023)を引用し、基本的なプロセスは本標準の内容と一致している。
在国际标准方面,ISO/IEC 23053:2022 Information technology - Artificial intelligence - Artificial intelligence concepts and terminology,建立了人工智能的术语并描述了人工智能领域的概念。可用于制定其他标准并支持不同的利益相关方之间的沟通。ISO/IEC 23053:2022  Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML) 建立了人工智能 (AI) 和机器学习 (ML) 框架,用于描述使用 ML 技术的通用 AI 系统。 该框架描述了人工智能生态系统中的系统组件及其功能。已批准工作项目ISO/IEC AWI 27090 Cybersecurity - Artificial Intelligence - Guidance for addressing security threats and failures in artificial intelligence systems,为组织应对人工智能系统中的安全威胁和故障提供了指导,旨在帮助相关企业和组织更好地了解人工智能系统在其整个生命周期中面临的安全威胁和后果,以及如何检测和减轻此类威胁。ISO/IEC WD 27091 Cybersecurity and Privacy - Artificial Intelligence - Privacy protection,为组织解决人工智能系统和机器学习模型中的隐私风险提供了指导。除了一些框架性国际标准在流程中提及标注数据以外,针对数据标注活动,目前还没有专门的标准进行安全指导和规范,本标准将为生成式人工智能数据标注活动提供全面的安全指南,填补目前国内外标准中该领域的空白。 国際規格としては、ISO/IEC 23053:2022 Information technology - Artificial intelligence - Artificial Intelligence concepts and terminologyがあり、人工知能の用語を確立し、人工知能分野の概念を記述している。 の概念を記述している。 ISO/IEC 23053:2022 Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML) は、人工知能(AI)と機械学習(ML)のフレームワークを確立し、AIとMLの使用を記述する。 ML)の枠組みを確立し、ML技法を使用した一般的なAIシステムを記述する。このフレームワークは、AIエコシステムにおけるシステムコンポーネントとその機能を記述する。 承認された作業項目 ISO/IEC AWI 27090 Cybersecurity - Artificial Intelligence - Guidance for addressing security threats and failure in artificial intelligence systems(サイバーセキュリティ-人工知能-人工知能システムにおけるセキュリティ上の脅威と障害に対処するためのガイダンス)。ISO/IEC WD 27091 Cybersecurity and Privacy - Artificial Intelligence - Privacy protection(サイバーセキュリティとプライバシー - 人工知能 - プライバシー保護): 人工知能システムのセキュリティ上の脅威と障害に対処するためのガイダンスを提供する。ISO/IEC WD 27091 Cybersecurity and Privacy - Artificial Intelligence - Privacy protectionは、AIシステムと機械学習モデルにおけるプライバシーリスクに対処するためのガイダンスを組織に提供している。 プロセスにおけるラベリングデータに言及するいくつかのフレームワーク国際標準に加えて、データラベリング活動に対するセキュリティガイダンスと仕様を提供する特定の標準は存在しない。本標準は、生成的AIデータラベリング活動に対する包括的なセキュリティガイドを提供し、現在の国内および国際標準におけるこの分野のギャップを埋める。
五、以国际标准为基础的起草情况,以及是否合规引用或者采用国际国外标准,并说明未采用国际标准的原因 V. 国際標準に基づき起草し、国際標準及び外国標準の遵守引用又は採用の有無、及び国際標準を採用しない理由を説明する。
本标准不涉及相关情况。 この基準は関連する状況をカバーしていない。
六、与有关法律、行政法规及相关标准的关系 VI. 関連法律、行政法規、関連基準との関係
《办法》第八条提出: 在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。《办法》第十九条提出:有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。目前,国内还没有生成式人工智能数据标注的安全规范标准,《办法》为本标准的制定提供了重要的指导性参考,本标准旨在落实《办法》的相关要求,对《办法》要求进行进一步补充和细化并提供具体的规范化实践指引。 弁法第8条は、生成AI技術の研究開発過程においてデータ注釈を実施する場合、提供者は本弁法の要求に沿い、明確かつ具体的で運用可能な注釈規則を策定し、データ注釈の品質評価を実施し、サンプリングベースで注釈内容の正確性を検証し、注釈要員に対して必要なトレーニングを提供し、法律を尊重・遵守する意識を高め、注釈要員が標準化された方法で注釈を実施するよう監督・指導しなければならないとしている。 弁法第19条は、関係主管機関がその職務に従って生成AIサービスの監督・検査を実施することを提案し、提供者は法律に従って協力し、必要に応じて学習データの出所、規模、種類、表示規則、アルゴリズム機構などを説明し、技術やデータの面で必要な支援・援助を提供する。 現在、中国には生成AIデータの注釈に関する安全仕様基準が存在せず、本措置は本基準策定の重要な指針となる。本基準は、本措置の関連要求事項を実施し、本措置の要求事項をさらに補足・改善し、具体的な規範的実施指針を提供することを意図している。
七、重大分歧意见的处理经过和依据 VII. 主な見解の相違の処理及び根拠
无。 特にない。
八、涉及专利的有关说明 VIII. 特許に関連する注記
本标准不涉及专利。 この規格は特許に関係しない。
九、实施国家标准的要求,以及组织措施、技术措施、过渡期和实施日期的建议等措施建议 IX. 国内規格の実施に関する要件,並びに組織的措置,技術的措置,移行期間及び実施期日に関する勧告並びに提案されたその他の措置
建议对标准中的条款进行宣贯,加强对开展生成式人工智能数据标注过程中的标注规则制定、标注实施、人员管理、质量核验等方面的实施思路的宣贯介绍,以在标准适用的相关主体之间达成标准条款理解上的一致性。 これは、標準の規定を促進するために、生成的な人工知能のデータ注釈のプロセスを強化することが推奨される注釈ルール、注釈の実装、人事管理、品質検証および標準のアプリケーションの関連科目間の標準の規定の理解の一貫性を達成するために導入のアイデアの実装の他の側面を実行する。
十、其他应当说明的事项 X. その他説明すべき事項
なし

 

 

| | Comments (0)

2024.04.08

欧州 世界初のAI法の制定は間近だが、AI開発は苦戦している。日本も同じかな? (2024.03.27)

こんにちは、丸山満彦です。

EU議会のシンクタンクがAI投資:EUと世界の指標という簡単な文書を公表しています。また、AIに関する文献等の一覧も紹介していますね...

AI開発については米国と中国が圧倒的ですね...確かにEU諸国もドイツ、フランスが頑張っていますが、全体として苦戦している感じですね...

日本も同じですかね...

 

European Parliament - Think Tank

・2024.03.27 AI investment: EU and global indicators

AI investment: EU and global indicators AI投資: EUと世界の指標
Economic indicators show that the United States (US) is the front-runner for both private investment in artificial intelligence (AI) and venture capital in generative AI, followed by China. US companies are also developing most of the large languages models (LLMs) underpinning AI innovation. EU starts-up are beginning to scale up. 経済指標によると、米国は人工知能(AI)への民間投資と生成的AIへのベンチャーキャピタルの両方でトップランナーであり、中国がそれに続いている。米国企業はまた、AIイノベーションを支える大規模言語モデル(LLM)の大半を開発している。EUのスタートアップ企業は規模を拡大し始めている。

・[PDF]

20240408-54119

 

AI investment: EU and global indicators AI投資: EUと世界の指標
Economic indicators show that the United States (US) is the front-runner for both private investment in artificial intelligence (AI) and venture capital in generative AI, followed by China. US companies are also developing most of the large languages models (LLMs) underpinning AI innovation. EU starts-up are beginning to scale up. 経済指標によると、米国は人工知能(AI)への民間投資と生成的AIへのベンチャーキャピタルの両方でトップランナーであり、中国がそれに続いている。米国企業はまた、AIイノベーションを支える大規模言語モデル(LLM)の大半を開発している。EUの新興企業も規模を拡大し始めている。
Investment in AI and generative AI AIと生成的AIへの投資
The global AI market was valued at over €130 billion* in 2023 and is expected to grow substantially by 2030, up to nearly €1.9 trillion (Statista, 2023). Private investment now accounts for most of the investment in AI. The US is leading private investment in AI (€44 billion) in 2022, followed by China (€12 billion) (Figure 1). The EU and the United Kingdom (UK) together attracted €10.2 billion worth of private investment in 2022 (Stanford University, 2023). 世界のAI市場規模は2023年に1300億ユーロ*を超え、2030年には1兆9000億ユーロ近くまで大幅に成長すると予想されている(Statista、2023年)。現在、AIへの投資の大半は民間投資が占めている。2022年のAIへの民間投資は米国がトップ(440億ユーロ)で、中国(120億ユーロ)がこれに続く(図1)。EUと英国(UK)は合わせて、2022年に102億ユーロ相当の民間投資を誘致した(スタンフォード大学、2023年)。
Between 2018 and the third quarter of 2023, almost €32.5 billion was invested in EU AI companies, compared with more than €120 billion in US AI companies. Recent investments in US AI companies (e.g. OpenAI and Anthropic) have widened the gap between the EU's and the US's relative share of private investment in AI (Atomico, 2023). Public investment in AI is growing as well. The EU Digital Europe programme will fund AI with a total of €2.1 billion in the 2021-2027 period. 2018年から2023年第3四半期にかけて、EUのAI企業には約325億ユーロが投資されたのに対し、米国のAI企業には1200億ユーロ以上が投資された。米国のAI企業への最近の投資(OpenAIやAnthropicなど)により、AIへの民間投資におけるEUと米国の相対的なシェアの差は拡大している(Atomico, 2023)。AIへの公共投資も増加している。EUのデジタル・ヨーロッパ・プログラムは、2021年から2027年の間に総額21億ユーロをAIに出資する予定である。
Generative AI technology allows for the generation of new content (e.g. text, video) and enables faster product development. Generative AI tools are making a significant impact across all industry sectors and helping to shape new products and services, for instance in the health (e.g. medicines), high-tech (e.g. media content) and banking (e.g. data analytics) sectors (McKinsey, 2023). The US is the clear leader in generative AI venture capital investment** (see Figure 2). US companies raised some €7.4 billion for generative AI between 2020 and 2022 (McKinsey, 2023). This investment grew significantly between 2022 and 2023 (OECD/Preqin, 2024) and now accounts for more than half of all AI investment in the US (Atomico, 2023). 生成的AI技術は、新たなコンテンツ(テキストやビデオなど)の生成を可能にし、より迅速な製品開発を可能にする。生成的AIツールはあらゆる産業分野に大きな影響を与え、例えば健康(医薬品など)、ハイテク(メディア・コンテンツなど)、銀行(データ分析など)の各分野で、新しい製品やサービスの形成に役立っている(McKinsey, 2023)。米国は、生成的AIベンチャーキャピタル投資**の明確なリーダーである(図2参照)。米国企業は2020年から2022年にかけて、生成的AIのために約74億ユーロを調達した(McKinsey, 2023)。この投資は2022年から2023年にかけて大幅に増加し(OECD/Preqin、2024年)、現在では米国におけるAI投資の半分以上を占めている(Atomico、2023年)。
Figure 1 – Private investment in AI by country, 2022 (€ billion)
図1 - AIへの国別民間投資額(2022年)(10億ユーロ)
20240408-52818

Source: Stanford University, 2023 AI Index Report. 出典 スタンフォード大学、2023年AI指数報告書。
Figure 2 – Venture capital investment in generative AI by country (€ billion)
図2-生成的AIへのベンチャーキャピタルの国別投資額(10億ユーロ)
20240408-52851
* An exchange rate of 0.93 USD/EUR was applied when the original currency was USD. * 元の通貨が米ドルの場合、0.93米ドル/ユーロの為替レートを適用した。
* An exchange rate of 0.93 USD/EUR was applied when the original currency was USD. ** ベンチャー・キャピタルはプライベート・エクイティの一形態で、投資家が新興企業や中小企業に提供する資金調達の一種である。
Examples of generative AI start-ups and LLMs  生成的AIスタートアップとLLMの例 
Generative AI is powered by general-purpose AI (GPAI) models and LLMs, i.e. deep-learning algorithms trained on large datasets to create new content, services and products. Companies worldwide are investing in generative AI (Table 1). Investment in generative AI concerns three segments: infrastructure, applications and models. Model makers raised over 70 % of generative AI private funding in the 2019-2023 period. This investment is required to sustain the high cost of LLM training and deployment (Dealroom, 2023).  生成的AIは、汎用AI(GPAI)モデルやLLM、すなわち大規模なデータセットで訓練されたディープラーニング・アルゴリズムを動力源とし、新たなコンテンツ、サービス、製品を生み出す。世界中の企業が生成的AIに投資している(表1)。生成的AIへの投資は、インフラ、アプリケーション、モデルの3つのセグメントに関係している。モデルメーカーは、2019年から2023年にかけて、生成的AIの民間資金の70%以上を調達した。この投資は、LLMのトレーニングと展開の高コストを維持するために必要である(Dealroom, 2023)。
In January 2024, the EU introduced measures to support European start-ups and small and medium- sized enterprises in developing trustworthy AI by granting access to funding, including the Horizon Europe, Digital Europe, EIC accelerator and InvestEU programmes. Moreover, the Regulation on establishing the European high-performance computing joint undertaking (EuroHPC Regulation) is being amended, so that EU companies can access AI supercomputers to train LLMs.  2024年1月、EUは、ホライゾン・ヨーロッパ、デジタル・ヨーロッパ、EICアクセラレーター、InvestEUプログラムなどの資金へのアクセスを許可することによって、信頼できるAIを開発する欧州の新興企業や中小企業を支援する措置を導入した。さらに、欧州ハイパフォーマンス・コンピューティング共同事業設立規則(EuroHPC規則)が改正され、EU企業がLLMを訓練するためにAIスーパーコンピュータにアクセスできるようになる。
Recent research shows that 73 % of LLMs are being developed in the US and another 15 % in China, while EU companies are struggling to release this kind of technology (Table 2). The choice between developing closed models (where the models' source code is proprietary) or open-source models (freely and publicly accessible for anyone to modify, study, build on, and use) has significant consequences, including in terms of market concentration, transparency and security risks. The EU's AI Act lays down specific rules for GPAI models. All providers of GPAI models (except for free and open source models) must meet transparency requirements and respect EU copyright rules when training their models. Moreover, GPAI models trained using a total computing power of more than 1025 FLOPs (floating-point operations per second) will be presumed to carry systemic risks. When confirmed by the Commission's investigations, providers of these models will be required to assess and mitigate those risks continuously and ensure an adequate level of cybersecurity protection. So far only GPT4 and a few other models seem to be close to the 1025 FLOPs threshold.  最近の調査によると、LLMの73%が米国で、さらに15%が中国で開発されており、EU企業はこの種の技術のリリースに苦戦している(表2)。クローズドモデル(モデルのソースコードが専有されている)を開発するか、オープンソースモデル(誰でも自由に修正、研究、構築、利用できるように公開されている)を開発するかの選択は、市場の集中、透明性、セキュリティリスクの面を含め、重大な結果をもたらす。EUのAI法は、GPAIモデルに関する具体的なルールを定めている。GPAIモデルのプロバイダはすべて(フリーモデルやオープンソースモデルを除き)、モデルをトレーニングする際に透明性要件を満たし、EUの著作権規則を尊重しなければならない。さらに、1025FLOPs(1秒あたりの浮動小数点演算回数)を超える総計算能力を用いて訓練されたGPAIモデルは、システミック・リスクを有すると推定される。欧州委員会の調査によって確認された場合、これらのモデルのプロバイダは、継続的にこれらのリスクを評価・軽減し、適切なレベルのサイバーセキュリティ保護を確保することが求められる。今のところ、GPT4と他のいくつかのモデルだけが1025
FLOPsの閾値に近づいているようだ。

 

表1 Generative AI start-ups

Country  Company  Industry 
EU  Mistral AI  IT infrastructure and hosting 
  Contents   Media, social platforms, marketing 
  Aleph Alpha  IT infrastructure and hosting 
China  MiniMax  IT infrastructure and hosting 
  Emotibot Technology  IT infrastructure and hosting 
  Brilliant Labs Limited  Consumer products 
US  OpenAI  Media, social platforms, marketing 
  Primer Technologies  Government, security and defence 
  Anthropic  IT infrastructure and hosting 
UK  Google DeepMind  Education and training 
  Stability AI  Business processes and support services 
  AutogenAI  Media, social platforms, marketing 

 

表2Examples of LLMs

Company  Example of product  Headquarters  Open source or proprietary 
AI21labs  Jurassic-2  Israel  Proprietary 
Aleph Alpha  Luminous  Germany  Open source 
Alibaba  Qwen-7B  China  Open source 
Anthrop\c  Claude 2  US  Proprietary 
Cohere  Cohere Command  Canada, US  Proprietary 
Google  Gemini  US  Proprietary 
Meta  LLaMA 2-70B  US  Open source 
Mistral AI  Mistral 7B  France   Open source 
OpenAI  GPT-4  US  Proprietary 
Tencent  Hunyuan  China  Proprietary 

 

 


 

リンク集...

・2024.03.27 AI investment: EU and global indicators

・[PDF]

20240408-54421

 

 


 

Stanford University Human-Centered Airtificial Integliigence; HAI - THE AI INDEX

2023 AI Index Report

・[PDF]

20240408-62748

 

 過去分

2022

2021

2019

2018

2017

 

| | Comments (0)

2024.04.06

約半数の企業がランサムウェアに感染? JIPDEC 企業IT利活用動向調査2024 (2024.03.15)

こんにちは、丸山満彦です。

JIPDECが「企業IT利活用動向調査2024」をITRと共同で実施し、公表していたのですが、興味深いです。

調査の仕方...


本調査は、JIPDECとITRが2024年1月19日から1月23日にかけて実施したものです。調査は、ITRの独自パネルに対するWebアンケート形式で実施し、従業員数50名以上の国内企業に勤務しIT戦略策定または情報セキュリティ施策に関わる係長職相当職以上の役職者約1万7,000名に対して回答を呼びかけ、983名の有効回答を得ました(1社1名)。


 

日本情報経済社会推進協会; JIPDEC

・2024.03.15 「企業IT利活用動向調査」結果


1.生成AIの使用企業は35.0%、導入進行中が34.5%となり、今後急速な拡大が見込まれる

2.生成AIの使用においては、機密情報の漏洩とハルシネーションが大きな懸念点となっている

3.DXでは「業務のデジタル化・自動化」に取り組む企業の半数が成果を出しているが、ビジネス成長に向けた取り組みでは成果を出している企業がまだ少ない

4.ランサムウェアの感染経験のある企業は47.1%。身代金を支払った企業の3分の2が復旧できず

5.3分の2の企業がデータの越境移転を行っているが、複雑化する各国のデータ保護規制対応が課題

6.プライバシーガバナンスへの取り組みは「責任者の任命」と「姿勢の明文化」が先行している


 

AIの利用、懸念点、DXの進捗についてはいろいろなところが調査をしているように思うのですが、ランサムウェアとデータ移転については興味深いですね...

 


4.ランサムウェアの感染経験のある企業は47.1%。身代金を支払った企業の3分の2が復旧できず

Fig04


 

5.3分の2の企業がデータの越境移転を行っているが、複雑化する各国のデータ保護規制対応が課題

Fig05_20240406060201


 

セミナー資料

・2024.03.16 [PDF

20240406-61613

 

 

過去にも調査をしているのに、紹介していなかった...

「企業IT利活用動向調査」結果

  実施 報告(最終修正版) 集計結果
2024 2024年1月 ◾️ ◾️
2023 2023年1月 ◾️ 2024/1/11_Q2 一部修正  
2022 2022年1月 ◾️ 2022/4/8_Q4-1 一部修正  
2021 2021年1月 ◾️  
2020 2020年7月 ◾️  
2020 2020年1月 ◾️  

 

 

| | Comments (0)

米国と英国 AIの安全性に関する提携を発表 (2024.04.01)

こんにちは、丸山満彦です。

米国(商務省)と英国(科学技術革新省)が、AIの安全性に関する提携を発表していますね...

Five Eyesではないですが、米国と英国は親密ですよね...

 

U.S. Department of Commerce

プレスリリース

・2024.04.01 U.S. and UK Announce Partnership on Science of AI Safety

U.S. and UK Announce Partnership on Science of AI Safety 米国と英国がAIの安全性科学に関する提携を発表
U.S. and UK AI Safety Institutes to work seamlessly with each other, partnering on research, safety evaluations, and guidance for AI safety 米国と英国のAI安全機構がシームレスに連携し、AIの安全性に関する研究、安全性評価、ガイダンスで提携する。
Institutes to develop shared capabilities through information-sharing, close cooperation, and expert personnel exchanges 各機関は情報共有、緊密な協力、専門家の人的交流を通じて共有能力を開発する
The U.S. and UK have today signed a Memorandum of Understanding (MOU) which will see them work together to develop tests for the most advanced AI models, following through on commitments made at the AI Safety Summit last November.   米国と英国は本日、昨年11月に開催されたAI安全性サミットでのコミットメントを受け、最先端のAIモデルのテスト開発に向けて協力する覚書に調印した。 
Signed by U.S. Commerce Secretary Gina Raimondo and UK Technology Secretary Michelle Donelan, the partnership will see both countries working to align their scientific approaches and working closely to accelerate and rapidly iterate robust suites of evaluations for AI models, systems, and agents. ジーナ・ライモンド米商務長官とミシェル・ドネラン英技術長官が署名したこのパートナーシップは、両国の科学的アプローチを一致させ、AIモデル、システム、エージェントの堅牢な評価スイートを加速化し、迅速に反復するために緊密に協力する。
The U.S. and UK AI Safety Institutes have laid out plans to build a common approach to AI safety testing and to share their capabilities to ensure these risks can be tackled effectively. They intend to perform at least one joint testing exercise on a publicly accessible model. They also intend to tap into a collective pool of expertise by exploring personnel exchanges between the Institutes. 米国と英国のAI安全機構は、AIの安全性テストに共通のアプローチを構築し、これらのリスクに効果的に対処できるよう能力を共有する計画を打ち出した。両機関は、一般にアクセス可能なモデルで少なくとも1回の共同テスト演習を実施する意向だ。また、両機関間の人材交流を模索することで、専門知識の集合体を活用する意向だ。
The partnership will take effect immediately and is intended to allow both organizations to work seamlessly with one another. AI continues to develop rapidly, and both governments recognize the need to act now to ensure a shared approach to AI safety which can keep pace with the technology’s emerging risks. As the countries strengthen their partnership on AI safety, they have also committed to develop similar partnerships with other countries to promote AI safety across the globe. このパートナーシップは直ちに発効し、両機関がシームレスに連携できるようにすることを目的としている。AIは急速な発展を続けており、両政府は、この技術の新たなリスクに対応できるAIの安全性に対する共通のアプローチを確保するために、今行動する必要性を認識している。両国はAIの安全性に関するパートナーシップを強化するとともに、世界全体でAIの安全性を促進するため、他の国々とも同様のパートナーシップを構築することを約束した。
“AI is the defining technology of our generation. This partnership is going to accelerate both of our Institutes’ work across the full spectrum of risks, whether to our national security or to our broader society. Our partnership makes clear that we aren’t running away from these concerns – we're running at them. Because of our collaboration, our Institutes will gain a better understanding of AI systems, conduct more robust evaluations, and issue more rigorous guidance,” said U.S. Secretary of Commerce Gina Raimondo. “By working together, we are furthering the long-lasting special relationship between the U.S. and UK and laying the groundwork to ensure that we’re keeping AI safe both now and in the future. ジーナ・ライモンド米商務長官は次のように述べた。「AIは我々の生成的AI技術である。このパートナーシップは、国家安全保障やより広範な社会など、あらゆるリスクに関する両機構の活動を加速させるだろう。私たちのパートナーシップは、私たちがこれらの懸念から逃げているのではないことを明確にする。我々の協力により、両機関はAIシステムをより深く理解し、より強固な評価を行い、より厳格な指針を示すことができるだろう。共に協力することで、我々は米英間の長期にわたる特別な関係をさらに強化し、現在も将来もAIの安全を確保するための土台を築くことになる。」
“This agreement represents a landmark moment, as the UK and the United States deepen our enduring special relationship to address the defining technology challenge of our generation,” said UK Secretary of State for Science, Innovation, and Technology, Michelle Donelan. “We have always been clear that ensuring the safe development of AI is a shared global issue. Only by working together can we address the technology’s risks head on and harness its enormous potential to help us all live easier and healthier lives. The work of our two nations in driving forward AI safety will strengthen the foundations we laid at Bletchley Park in November, and I have no doubt that our shared expertise will continue to pave the way for countries tapping into AI’s enormous benefits safely and responsibly.”   シェル・ドネラン英国科学技術革新担当国務長官は次のように述べた。「この合意は画期的な瞬間であり、英国と米国が永続的な特別な関係を深め、我々の生成的な技術的課題に取り組むものである。 我々は常に、AIの安全な開発を確保することが世界共通の課題であることを明確にしてきた。共に協力することによってのみ、我々はこの技術のリスクに正面から取り組み、その巨大な可能性を活用することができる。AIの安全性を推進するための日米両国の取り組みは、11月にブレッチリー・パークで築いた基盤を強化するものであり、私たちが専門知識を共有することで、各国が安全かつ責任を持ってAIの莫大な利益を活用するための道を切り開き続けることを確信している。」
Reflecting the importance of ongoing international collaboration, today’s announcement will also see both countries sharing vital information about the capabilities and risks associated with AI models and systems, as well as fundamental technical research on AI safety and security. This will work to underpin a common approach to AI safety testing, allowing researchers on both sides of the Atlantic—and around the world—to coalesce around a common scientific foundation. 継続的な国際協力の重要性を反映し、本日の発表では、両国はAIモデルやシステムに関連する能力やリスクに関する重要な情報や、AIの安全性とセキュリティに関する基礎的な技術研究も共有することになる。これは、AIの安全性テストに対する共通のアプローチを支えるものであり、大西洋の両岸、そして世界中の研究者が共通の科学的基盤のもとに結集することを可能にする。

 

・2024.04.01 Remarks by U.S. Secretary of Commerce Gina Raimondo at the U.S.-UK Artificial Intelligence MOU Signing

 

Remarks by U.S. Secretary of Commerce Gina Raimondo at the U.S.-UK Artificial Intelligence MOU Signing 米英人工知能MOU調印式におけるジーナ・ライモンド米商務長官の発言
Thank you, Secretary Donelan, for traveling here for this historic day. It’s wonderful to be with you. ドネラン長官、この歴史的な日にご足労いただきありがとう。ご一緒できてうれしい。
Last November, at the AI Safety Summit in Bletchley Park hosted by Secretary Donelan and Prime Minister Sunak, I committed to establishing a formal partnership between the U.S. AI Safety Institute and the UK’s Safety Institute. Today’s signing of this Memorandum of Understanding between us is the culmination of that commitment. 昨年11月、ドネラン長官とスナク首相が主催したブレッチリー・パークでのAI安全サミットで、私は米国のAI安全研究所と英国の安全研究所との間に正式なパートナーシップを確立することを約束した。本日の覚書調印は、その約束の集大成である。
It’s a major milestone for the United States, the United Kingdom, and in the history of AI safety. And it’s in line with the Biden Administration’s approach to AI:  managing its risks so that we can harness its benefits. 米国と英国、そしてAI安全の歴史にとって大きなマイルストーンだ。そしてそれは、AIに対するバイデン政権のアプローチに沿ったものであり、AIが持つリスクをマネジメントすることで、その恩恵を享受することができる。
AI is the defining technology of our generation. This partnership is going to accelerate both of our Institutes’ work across the full spectrum to address risks within both our national security and broader society. Our partnership makes clear that we aren’t running away from these concerns – we're running at them. Because of our collaboration, our Institutes will gain a better understanding of AI systems, develop, and conduct more robust evaluations, and provide more rigorous and useful guidance. AIは我々の世代を定義する技術である。このパートナーシップは、国家安全保障とより広範な社会におけるリスクに対処するため、全領域にわたる両機関の活動を加速させるだろう。私たちのパートナーシップは、私たちがこれらの懸念から逃げているのではないことを明確にしている。我々の協力により、両機関はAIシステムに対する理解を深め、より強固な評価を開発・実施し、より厳密で有用な指針を提供することができる。
And it’s going to mean that – as we develop tests and guidelines – we stay aligned and coordinated to the greatest extent possible. By working together, we’re laying the groundwork to ensure that we’re keeping AI safe both now and in the future. また、テストやガイドラインを開発する際にも、可能な限り連携し、調整することができるだろう。共に協力することで、現在と将来の両方でAIの安全を確保するための土台を築くことになる。
And this is just the beginning. そして、これは始まりに過ぎない。
We need global solutions, as unsafe AI developed in one country can pose risks to the entire world. AI presents complex challenges and risks, and both governments and the private sector need to be part of the solution. On Wednesday, I’ll head to Belgium for a Trade and Technology Council ministerial meeting where our global coordination on AI will continue. ある国で開発された安全でないAIは、全世界にリスクをもたらす可能性があるからだ。AIには複雑な課題とリスクがあり、ガバナンスと民間部門の両方が解決策の一翼を担う必要がある。水曜日、私はベルギーの貿易・技術理事会の閣僚会議に向かうが、そこでもAIに関するグローバルな調整が続けられる。
We anticipate that in the weeks and months ahead, more partnerships will help create a global network of AI safety, built through numerous linkages between government-backed scientific institutions that are doing research on and developing standards and guidelines for the safe development and implementation of advanced AI systems.  今後数週間から数ヶ月の間に、より多くのパートナーシップにより、AIの安全性に関する世界的なネットワークが構築され、先進的なAIシステムの安全な開発と実装のための研究、標準やガイドラインの開発を行う政府支援の科学機構間の数多くの連携を通じて構築されることを期待している。
That will include our Safety Institutes but may also incorporate other types of scientific organizations. We want to think outside the box. We want to think big. これには、私たちの安全機構も含まれるが、他の種類の科学機関も取り込む可能性がある。私たちは既成概念にとらわれずに考えたい。大きく考えたい。
Secretary Donelan, I am grateful for your leadership and partnership, and I’m eager to continue working with you. Thank you again for traveling here today. Today, and together, we take a momentous step. Our historic partnership is a win-win for our nations and, as we expand our network, for the world. ドネラン長官、私はあなたのリーダーシップとパートナーシップに感謝している。今日ここに来てくれたことに改めて感謝する。今日、そして共に、我々は記念すべき一歩を踏み出す。我々の歴史的なパートナーシップは、両国にとって、そして我々がネットワークを拡大するにつれて、世界にとってwin-winとなるものだ。

 

 


 

GOV.UK

・2024.04.02 UK & United States announce partnership on science of AI safety

 

S300_aisi_mou_govuk

UK & United States announce partnership on science of AI safety 英国と米国、AIの安全性に関する科学的パートナーシップを発表
The UK and US have signed a Memorandum of Understanding which will see them work together to develop tests for the most advanced AI models. 英国と米国は、最先端のAIモデルのテストを開発するために協力する覚書に署名した。
UK and US AI Safety Institutes to work seamlessly with each other, partnering on research, safety evaluations, and guidance for AI safety 英国と米国のAI安全機構がシームレスに連携し、AIの安全性に関する研究、安全性評価、ガイダンスで提携する。
Institutes to develop shared capabilities through information-sharing, close cooperation, and expert personnel exchanges 各機関は、情報共有、緊密な協力、専門家の人材交流を通じて、共有能力を開発する。
The UK and US have signed (Monday 1 April 2024) a Memorandum of Understanding (MOU) which will see them work together to develop tests for the most advanced artificial intelligence (AI) models, following through on commitments made at the AI Safety Summit last November.   英国と米国は、昨年11月に開催されたAI安全サミットでのコミットメントを受け、最先端の人工知能(AI)モデルのテストを開発するために協力する覚書に調印した(2024年4月1日月曜日)。 
Signed by Technology Secretary Michelle Donelan and US Commerce Secretary Gina Raimondo, the partnership will see both countries working to align their scientific approaches and working closely to accelerate and rapidly iterate robust suites of evaluations for AI models, systems, and agents. ミシェル・ドネラン技術長官とジーナ・ライモンド米商務長官が署名したこのパートナーシップは、両国の科学的アプローチを一致させ、AIモデル、システム、エージェントのための堅牢な評価スイートを加速し、迅速に反復するために緊密に協力する。
The UK and US AI Safety Institutes have laid out plans to build a common approach to AI safety testing and to share their capabilities to ensure these risks can be tackled effectively. They intend to perform at least one joint testing exercise on a publicly accessible model. They also intend to tap into a collective pool of expertise by exploring personnel exchanges between the Institutes. 英米のAI安全機構は、AIの安全性テストに共通のアプローチを構築し、これらのリスクに効果的に取り組めるよう能力を共有する計画を打ち出した。両機関は、一般にアクセス可能なモデルで少なくとも1回の合同テストを実施する意向だ。また、両機関間の人材交流を模索することで、専門知識の集合体を活用する意向だ。
The partnership will take effect immediately and is intended to allow both organisations to work seamlessly with one another. AI continues to develop rapidly, and both governments recognise the need to act now to ensure a shared approach to AI safety which can keep pace with the technology’s emerging risks. As the countries strengthen their partnership on AI safety, they have also committed to develop similar partnerships with other countries to promote AI safety across the globe.  このパートナーシップは直ちに発効し、両機関がシームレスに連携できるようにすることを目的としている。AIは急速な発展を続けており、両政府は、この技術の新たなリスクに対応できるAIの安全性に対する共通のアプローチを確保するために、今行動する必要性を認識している。両国は、AIの安全性に関するパートナーシップを強化するとともに、世界全体でAIの安全性を促進するため、他国とも同様のパートナーシップを構築することを約束した。
UK Secretary of State for Science, Innovation, and Technology, Michelle Donelan said:  英国のミシェル・ドネラン科学・イノベーション・技術担当国務長官は次のように述べた: 
This agreement represents a landmark moment, as the UK and the United States deepen our enduring special relationship to address the defining technology challenge of our generation.    「この合意は画期的な瞬間であり、英国と米国が永続的な特別な関係を深め、我々の生成的な技術的課題に取り組むものである。  」
We have always been clear that ensuring the safe development of AI is a shared global issue. Only by working together can we address the technology’s risks head on and harness its enormous potential to help us all live easier and healthier lives. 「我々は常に、AIの安全な開発を確保することが世界共通の課題であることを明確にしてきた。共に協力することによってのみ、我々はこのテクノロジーのリスクに正面から取り組み、その巨大な可能性を活用することができ、我々全員がより快適で健康的な生活を送ることができる。」
The work of our two nations in driving forward AI safety will strengthen the foundations we laid at Bletchley Park in November, and I have no doubt that our shared expertise will continue to pave the way for countries tapping into AI’s enormous benefits safely and responsibly. 「AIの安全性を推進するための日米両国の取り組みは、11月にブレッチリー・パークで築いた基盤を強化するものであり、私たちが専門知識を共有することで、各国がAIの莫大な利益を安全かつ責任を持って活用するための道を切り開き続けることを確信している。」
United States Secretary of Commerce, Gina Raimondo said:  米国のジーナ・ライモンド商務長官は次のように述べた: 
AI is the defining technology of our generation. This partnership is going to accelerate both of our Institutes’ work across the full spectrum of risks, whether to our national security or to our broader society. Our partnership makes clear that we aren’t running away from these concerns – we’re running at them. Because of our collaboration, our Institutes will gain a better understanding of AI systems, conduct more robust evaluations, and issue more rigorous guidance. 「AIは我々の世代を定義する技術だ。このパートナーシップは、国家安全保障やより広範な社会など、あらゆるリスクに対する両機関の取り組みを加速させる。私たちのパートナーシップは、私たちがこれらの懸念から逃げているのではないことを明確にしている。我々の協力により、両機関はAIシステムに対する理解を深め、より強固な評価を実施し、より厳格なガイダンスを発行することができる。」
By working together, we are furthering the long-lasting special relationship between the U.S. and UK and laying the groundwork to ensure that we’re keeping AI safe both now and in the future. 「我々が協力することで、米英両国の長年にわたる特別な関係をさらに強化し、現在と将来の両方でAIの安全を確保するための基礎を築くことになる。」
The UK and the United States have always been clear that ensuring the safe development of AI is a shared global issue. Reflecting the importance of ongoing international collaboration, today’s announcement will also see both countries sharing vital information about the capabilities and risks associated with AI models and systems, as well as fundamental technical research on AI safety and security. This will work to underpin a common approach to AI safety testing, allowing researchers on both sides of the Atlantic—and around the world—to coalesce around a common scientific foundation. 英国と米国は、AIの安全な開発を確保することが世界共通の課題であることを常に明確にしてきた。継続的な国際協力の重要性を反映し、本日の発表では、両国はAIモデルやシステムに関連する能力やリスクに関する重要な情報や、AIの安全性とセキュリティに関する基礎的な技術研究も共有することになる。これは、AIの安全性テストに対する共通のアプローチを下支えするものであり、大西洋の両岸、そして世界中の研究者が共通の科学的基盤のもとに結集することを可能にする。

 

 

| | Comments (0)

2024.04.04

バイデン大統領と習近平国家主席の電話会談

こんにちは、丸山満彦です。

バイデン大統領と習近平国家主席が電話会談を行いましたね...

1_20240404044201

米国側の発表...

  • 麻薬対策協力
  • 軍軍間コミュニケーション、
  • AI関連リスクに対処するための協議、
  • 気候変動や人的交流に関する継続的な取り組み
  • 台湾海峡の平和と安定、
  • 南シナ海
  • 朝鮮半島の完全な非核化
  • 中国の不公正な貿易政策や非市場的な経済慣行

 

中国側からの発表...

  • 台湾問題
  • 香港、人権、南シナ海に関する問題
  • ウクライナ危機と朝鮮半島情勢

 


 

U.S. White House

・2024.04.02 Readout of President Joe Biden’s Call with President Xi Jinping of the People’s Republic of China

 

Readout of President Joe Biden’s Call with President Xi Jinping of the People’s Republic of China ジョー・バイデン大統領と習近平国家主席との会談について
President Joseph R. Biden, Jr. spoke today with President Xi Jinping of the People’s Republic of China (PRC).  The call follows the two leaders’ meeting in Woodside, California in November 2023.  The two leaders held a candid and constructive discussion on a range of bilateral, regional, and global issues, including areas of cooperation and areas of difference.  They reviewed and encouraged progress on key issues discussed at the Woodside Summit, including counternarcotics cooperation, ongoing military-to-military communication, talks to address AI-related risks, and continuing efforts on climate change and people-to-people exchanges. ジョセフ・R・バイデン大統領は本日、中華人民共和国の習近平国家主席と会談した。 この会談は、2023年11月にカリフォルニア州ウッドサイドで行われた両首脳の会談に続くものである。 両首脳は、協力分野や相違点を含め、二国間、地域、世界の諸問題について率直かつ建設的な議論を行った。 両首脳は、ウッドサイド・サミットで議論された、麻薬対策協力、現在進行中の軍軍間コミュニケーション、AI関連リスクに対処するための協議、気候変動や人的交流に関する継続的な取り組みなど、主要な問題についての進捗状況を確認し、奨励した。
President Biden emphasized the importance of maintaining peace and stability across the Taiwan Strait and the rule of law and freedom of navigation in the South China Sea.  He raised concerns over the PRC’s support for Russia’s defense industrial base and its impact on European and transatlantic security, and he emphasized the United States’ enduring commitment to the complete denuclearization of the Korean Peninsula.  President Biden also raised continued concerns about the PRC’s unfair trade policies and non-market economic practices, which harm American workers and families.  The President emphasized that the United States will continue to take necessary actions to prevent advanced U.S. technologies from being used to undermine our national security, without unduly limiting trade and investment. The two leaders welcomed ongoing efforts to maintain open channels of communication and responsibly manage the relationship through high-level diplomacy and working-level consultations in the weeks and months ahead, including during upcoming visits by Secretary Yellen and Secretary Blinken. バイデン大統領は、台湾海峡の平和と安定、南シナ海における法の支配と航行の自由の維持の重要性を強調した。 また、中国によるロシアの防衛産業基盤への支援と、それが欧州と大西洋の安全保障に与える影響について懸念を示し、朝鮮半島の完全な非核化に対する米国の永続的なコミットメントを強調した。 バイデン大統領はまた、中国の不公正な貿易政策や非市場的な経済慣行に対する継続的な懸念を表明した。 大統領は、貿易や投資を不当に制限することなく、米国の先端技術が国家安全保障を損なうために利用されるのを防ぐため、米国は必要な措置を取り続けると強調した。両首脳は、イエレン長官とブリンケン長官の今後の訪問を含め、今後数週間から数ヶ月間、ハイレベル外交と実務者協議を通じて、オープンなコミュニケーションチャネルを維持し、責任を持って関係を管理するための継続的な努力を歓迎した。

 

首脳会談前の電話記者会見

・2024.04.02 Background Press Call on the Bilateral Relationship with the People’s Republic of China

Background Press Call on the Bilateral Relationship with the People’s Republic of China 中華人民共和国との二国間関係に関するプレス・コールの背景
National Security Council 国家安全保障会議
Via Teleconference 電話会議にて
6:07 P.M. EDT 東部夏時間午後6時07分
MODERATOR:  Thank you all for joining us this evening for a call on the United States’ bilateral engagement with the People’s Republic of China.  モデレーター:今晩は、米国と中華人民共和国との二国間関係に関する電話会議にお集まりいただき、ありがとうございます。
Just a couple of quick ground rules.  For awareness but not for reporting, joining us on the call this evening is [senior administration official].  The call is going to be held under embargo until noon tomorrow — that’s April 2nd, noon Eastern Time.  いくつか簡単な基本ルールをお伝えしよう。 今晩の電話会議に参加するのは【政府高官】である。 この電話会議は、明日の正午(東部時間4月2日正午)まで非公開で行われる。
And with that, I won’t hold us up any further and I will turn the call over to [senior administration official].  She can be attributed on background as a senior administration official.  Thanks. ということで、これ以上お待たせするわけにはいかないので、【政府高官】に電話を回すことにする。 彼女は政権高官である。 ありがとう。
SENIOR ADMINISTRATION OFFICIAL:  Thanks so much.  And, folks, thanks for joining us on a Monday evening.  政府高官:どうもありがとう。 そして皆さん、月曜の夕方にお集まりいただきありがとう。
Tomorrow, on April 2nd, in the morning, President Biden will hold a phone call with President Xi Jinping of the People’s Republic of China.  Ahead of that, we thought it would be useful to give some context on the expected shape of that call and what we plan to raise.  明日4月2日の午前中、バイデン大統領は中華人民共和国の習近平国家主席と電話会談を行う。 それに先立ち、その電話会談の予想される形と、我々が何を提起する予定なのかについて、いくつかの背景を説明することが有益だと考えた。
As many of you are tracking, the two leaders met face-to-face in Bali in November 2022 and then held a summit meeting in Woodside, California, in November 2023.  At Woodside, the two leaders agreed to maintain regular open lines of communication to responsibly manage competition and prevent unintended conflict.  And this phone call really is just part of that ongoing effort.  多くの方がご存知のように、両首脳は2022年11月にバリで直接会談し、2023年11月にカリフォルニア州ウッドサイドで首脳会談を行った。 ウッドサイドでは、両首脳は責任を持って競争を管理し、意図しない衝突を防ぐために、定期的にオープンなコミュニケーションラインを維持することに合意した。 今回の電話会談は、まさにその継続的な努力の一環である。
I will note just for folks’ awareness, the last call between the two leaders was July 2022.  So it’s been a bit since we’ve done a telephone call between President Xi and President Biden.  念のため書いておくが、両首脳の最後の電話会談は2022年7月だった。 つまり、習主席とバイデン大統領の電話会談は少し久しぶりということになる。
This call, of course, builds on the in-depth meetings between National Security Advisor Jake Sullivan and CCP Director of the Office of Foreign Affairs Commission and Foreign Minister Wang Yi in Bangkok on January 26th, 27th of this year, and Secretary Blinken’s meeting with Wang Yi in Munich in February.  今回の電話会談は、もちろん、今年1月26日、27日にバンコクで行われたジェイク・サリバン国家安全保障顧問と王毅中国共産党外交弁公室主任・外相との綿密な会談、そして2月にミュンヘンで行われたブリンケン長官と王毅外相との会談を踏まえたものだ。
On the call tomorrow, we anticipate President Biden and President Xi will discuss the U.S.-China bilateral relationship, the continued importance of strengthening lines of communication and managing competition responsibly, and a range of regional and global issues.  明日の電話会談では、バイデン大統領と習主席が米中二国間関係、コミュニケーションラインの強化と責任ある競争管理の継続的な重要性、そしてさまざまな地域的・世界的問題について話し合うと予想している。
I should note as well, of course: We have not changed our approach to the PRC, which remains one focused on the framework of invest, align, and compete.  Intense competition requires intense diplomacy to manage tensions, address misperceptions, and prevent unintended conflict.  And this call is one way to do that.  もちろん、私自身も留意しなければならない: 我々は中国に対するアプローチを変えておらず、投資、協調、競争という枠組みを重視している。 激しい競争には、緊張を管理し、誤解に対処し、意図しない衝突を防ぐための激しい外交が必要である。 この呼びかけは、そのためのひとつの方法である。
There are also, of course, areas of cooperation where our interests align, and it is important to work together to deliver on issues that matter to the American people.  These areas include counternarcotics, risk and safety issues related to AI, resumption of mil-mil communication channels, and climate issues.  We expect the leaders will discuss progress on each of these issues since the Woodside Summit.  もちろん、両国の利害が一致する協力分野もあり、米国民にとって重要な問題を解決するために協力することも重要である。 これらの分野には、麻薬対策、AIに関するリスクと安全性の問題、軍と軍のコミュニケーション・チャンネルの再開、気候問題などが含まれる。 両首脳は、ウッドサイド・サミット以来、これらの各問題の進展について話し合うことになるだろう。
On the upcoming call, we expect President Biden to emphasize the need for continued progress and substantive action on counternarcotics to address the scourge of illicit narcotics trafficking.  今度の電話会談では、バイデン大統領が、不正な麻薬取引の災禍に対処するため、麻薬対策に関する継続的な進展と実質的な行動の必要性を強調することを期待している。
Since Woodside Summit, we have seen the PRC implement some initial measures to restrict and disrupt the flow of certain precursor chemicals used to produce illicit synthetic drugs.  But, of course, the drug trade is continually evolving and changing.  And in order to ensure that we are disrupting this trade flow, we, the U.S. and China, need to maintain close consultations, both law enforcement to law enforcement, at the technical level and otherwise, to really drive that substantive law enforcement action.  ウッドサイド・サミット以来、我々は中国が違法合成麻薬の製造に使用される特定の前駆体化学物質の流れを制限し、混乱させるためのいくつかの初期措置を実施するのを目にしてきた。 しかしもちろん、麻薬取引は絶えず進化し、変化している。 この取引の流れを確実に断ち切るためには、我々米中両国は、実質的な法執行活動を推進するために、法執行機関と法執行機関の間で、技術的なレベルも含めて緊密な協議を続ける必要がある。
We also urge the PRC to follow through by scheduling chemicals agreed upon by the international community at the recent U.N. Commission on Narcotic Drugs.  また、最近の国連麻薬委員会で国際社会が合意した化学物質のスケジュールを、中国が遵守するよう強く求める。
On mil-mil communication, another outcome of the summit, the Chairman of the Joint Chiefs of Staff, General Brown, held a virtual meeting with his counterpart in December.  The Defense Policy Coordination talks took place in early January.  サミットのもう一つの成果であるミル・ミル・コミュニケーションについては、ブラウン統合参謀本部議長が12月に相手国とのバーチャル・ミーティングを行った。 国防政策調整協議は1月初旬に行われた。
This week in Honolulu, operator-level Military Maritime Consultative Agreement meetings, the MMCA — it just rolls right off your tongue — will take place.  The goal of that is really to talk at the operator level about how to avoid and better understand the actions of the other party.  今週はホノルルで、オペレーター・レベルの軍事海事協議協定(MMCA)会議が開かれる。 その目的は、相手国の行動を回避し、よりよく理解する方法について、事業者レベルで話し合うことにある。
We also expect communications at the minister-secretary level and between theater commanders in the coming months.  また、今後数ヶ月の間に、大臣・長官レベルや、劇場司令官同士のコミュニケーションも期待される。
All of these interactions from the operator up to the very top, SecDef level, are important to avoid misunderstandings and miscalculations.  誤解や誤算を避けるためには、事業者レベルから国防長官レベルまでのこれらすべての交流が重要である。
President Biden has made clear that this mil-mil communication is critical at all times but especially during times of heightened tensions.  バイデン大統領は、このような軍と軍のコミュニケーションは常に重要だが、緊張が高まっているときには特に重要だと明言している。
Another outcome from the summit: On AI, we are working towards a U.S.-China dialogue in the coming weeks aimed at managing the risk and safety challenges posed by advanced forms of AI.  サミットのもうひとつの成果である: AIに関して、我々は今後数週間のうちに、高度なAIがもたらすリスクと安全性の課題をマネジメントすることを目的とした米中対話に向けて取り組んでいる。
I will note as well: On March 21, the PRC supported a landmark resolution on AI at the United Nations as a co-sponsor, along with more than 120 countries, including the United States.  We think it is critical for the U.S. and China to better understand respective views and approaches to managing the risks associated with AI applications and to communicate about particular areas of concern.  That’s just what this AI dialogue will do in the coming weeks.  併せて記しておこう: 3月21日、中国は米国を含む120カ国以上とともに、国連でのAIに関する画期的な決議案を共同提案国として支持した。 我々は、米中両国がAIアプリケーションに関連するリスクマネジメントについて、それぞれの見解やアプローチをよりよく理解し、特定の懸念分野についてコミュニケーションを図ることが極めて重要だと考えている。 このAI対話は、まさに今後数週間のうちに行われるものだ。
We’re also continuing discussion in key channels on climate and economic issues, and seeking to strengthen ties between the people of the two countries, including by expanding educational and other exchanges.  我々はまた、気候変動や経済問題についても重要なチャンネルで議論を続けており、教育やその他の交流の拡大を含め、両国民の結びつきを強化しようとしている。
The call will also be an opportunity, as I mentioned, for the President to raise issues outside of bilateral issues.  We expect him to touch on a number of those.  This call will be an opportunity for the President to reaffirm the U.S. One China policy and reiterate the importance of peace and stability across the Taiwan Strait, especially given the upcoming May presidential inauguration in Taiwan.  今回の電話会談は、申し上げたように、大統領が二国間問題以外の問題を提起する機会にもなる。 我々は、大統領がそのうちのいくつかに触れることを期待している。 今回の電話会談は、大統領が米国の「一つの中国」政策を再確認し、台湾海峡の平和と安定の重要性を改めて強調する機会となるだろう。特に、5月に台湾で総統就任式が予定されていることを考えればなおさらだ。
The President may also express concern over destabilizing PRC actions in the South China Sea, including the dangerous recent action of the PRC coast guard against routine Philippine maritime operations near Second Thomas Shoal.  大統領はまた、南シナ海における不安定化させる中国の行動に懸念を表明する可能性があり、これには、フィリピンの日常的な海上作戦に対する中国沿岸警備隊の最近の危険な行動も含まれる。
He will likely also raise concern about the PRC’s support for Russia’s war against Ukraine and its efforts to help Russia reconstitute its defense industrial base.  We’re increasingly concerned that this action will impact longer-term European security.  And I think you heard many of these same concerns voiced by the French foreign minister in Beijing over the weekend.  また、ロシアによるウクライナ戦争への支援や、ロシアの防衛産業基盤の再構築を支援する取り組みについても懸念を表明するだろう。 我々は、この行動が長期的な欧州の安全保障に影響を与えることを懸念している。 週末に北京でフランスの外相が同じ懸念を表明したのを聞いたと思う。
We also expect the two leaders to cover a range of other regional and global issues including efforts to advance the denuclearization of the Korean Peninsula.  また、両首脳は、朝鮮半島の非核化を進めるための努力など、その他の地域的・世界的な諸問題についても話し合うと思われる。
On economic and trade issues, President Biden will likely reiterate concerns about the PRC’s unfair economic practices and convey that the U.S. will continue to take actions to protect our economic and national security interests.  This includes, among other things, ensuring a fair and level playing field for American workers, as well as preventing advanced U.S. technologies from being used to undermine our national security.  経済・貿易問題に関しては、バイデン大統領は、中国の不公正な経済慣行に対する懸念を繰り返し表明し、米国が経済的・国家的安全保障上の利益を守るための行動を取り続けることを伝えるだろう。 これには、とりわけ、米国の労働者のために公平で平等な競争条件を確保すること、米国の先端技術が米国の国家安全保障を損なうために使用されるのを防ぐことが含まれる。
And all of this is focused on de-risking, not decoupling, and the President will make clear that is the direction we continue to follow.  そして、これらはすべて、デカップリングではなく、デ・リスクリングに焦点を当てたものであり、習主席は、それが我々が引き続き従う方向であることを明確にするだろう。
In his many conversations with President Xi, President Biden has consistently underscored the critical importance of respect for human rights.  And I expect the President will again raise concerns regarding the erosion of Hong Kong’s autonomy and PRC human rights abuses, including in Xinjiang and Tibet. バイデン大統領は習主席との多くの対話の中で、一貫して人権尊重の重要性を強調してきた。 習主席は、香港の自治権の侵食や、新疆ウイグル自治区やチベットを含む中国による人権侵害について、再び懸念を表明するだろう。
I also expect the President will repeat his call for China to release U.S. citizens wrongfully detained or under exit bans. また、大統領は中国に対し、不当に拘束されている、あるいは出国禁止措置を受けている米国市民を釈放するよう、繰り返し求めるだろう。
There is no substitute, of course, for regular communication at the leader level to effectively manage this complex and often tense bilateral relationship.  Following the leaders call, we will continue to advance our interests through cabinet-level diplomacy, including visits to the PRC by Secretary of the Treasury Yellen in the coming days and Secretary of State Blinken in the coming weeks.  We also expect a SecDef-Minister of Defense call soon.  And of course, paired with this is travel by PRC officials here to the United States as well. この複雑で緊張しがちな二国間関係を効果的に管理するためには、もちろん首脳レベルでの定期的なコミュニケーションに代わるものはない。 今回の首脳会談に続き、我々はイエレン財務長官が数日中に、またブリンケン国務長官が数週間以内に中国を訪問するなど、閣僚レベルの外交を通じて我々の利益を促進し続ける。 また、国防長官と国防相の電話会談も近いうちに行われるだろう。 そしてもちろん、これと対をなすように、中国高官が米国を訪問する。
I’ve gone on for a bit, so I’ll leave it there for now.  And I welcome any questions you all may have. 少し長くなったので、今はこの辺にしておこう。 皆さんからの質問を歓迎する。
MODERATOR:  With that, we’ll begin to take your questions. 司会:それでは、質問を受け付けよう。
Our first question will go to MJ Lee with CNN. 最初の質問はCNNのMJ・リーさん。
Q    Hey.  Thank you so much for doing this call.  I had two questions for you.  Q やあ。 この電話をしてくれて本当にありがとう。 2つ質問がある。
First, before the summit in Woodside last year, it was clear that U.S. and Chinese officials had done the legwork ahead of time so that coming out of the summit the two leaders could announce the restoration of the military (inaudible) and also the announcement on curbing fentanyl.  Are there specific, sort of, gettables that the Biden administration has been working towards that are likely to be announced after their phone call tomorrow?  まず、昨年のウッドサイドでの首脳会談の前に、米中両首脳が首脳会談後に軍事(聞き取り不能)の回復とフェンタニルの抑制に関する発表を行えるよう、前もって根回しをしていたことは明らかだった。 明日の電話会談後に発表されそうな、バイデン政権が目指してきた具体的な、ある種のお土産はあるのか?
And second, do you expect President Biden to follow up on Xi telling him in their last meeting that China doesn’t want to interfere in the 2024 U.S. election?  And did the President sort of take him at his word on that?  そして第二に、バイデン大統領は前回の会談で習主席に、中国は2024年のアメリカ選挙に干渉したくないと語ったことをフォローアップすることを期待しているのか? 大統領は習主席の言葉を鵜呑みにしたのか?
And how do you expect the President to sort of talk to President Xi about Chinese hackers targeting U.S. critical infrastructure?  また、米国の重要インフラを狙う中国のハッカーについて、大統領は習主席とどのように話すと予想しているのか?
SENIOR ADMINISTRATION OFFICIAL:  Thanks so much for the questions.  On the first one, on any announcements or outcomes from the call, you know, we approach calls a little bit differently than we do summits.  You know, summits generally once a year.  Really a lot of effort to go in to lay the groundwork through secretary level and other engagements to drive towards outcomes.  I would take a phone call more as a check-in, so checking in on the three outcomes from the summit, trying to drive progress in that area.  But don’t anticipate new outcomes from this.  米政府高官:ご質問ありがとう。 最初に、電話会談での発表や結果についてだが、電話会談は首脳会談とは少しアプローチが異なる。 サミットは通常、年に1回開催される。 サミットは通常1年に1回だが、秘書官レベルやその他の関係者を通じて基礎固めを行い、成果につなげるために多くの努力を払っている。 私なら、サミットで得られた3つの成果を確認し、その分野での進展を促進するためのチェックインとして電話をかける。 しかし、ここから新たな成果を期待することはない。
Really, this is kind of what the responsible management of the relationship looks like.  In between those top-level, senior-level meetings that can occur about once a year, really finding a chance for the two leaders to talk through the tough issues and ensure that we’re responsibly managing the competition between the two countries.  本当に、これが関係の責任ある管理というものだ。 年に1回程度行われるトップレベルの上級会談の合間に、両首脳が厳しい問題を話し合う機会を設け、両国間の競争を責任を持って管理する。
But as I mentioned before, I do expect a discussion of those outcomes from Woodside and, again, a goal of trying to drive additional efforts in each of those baskets.  しかし、先に述べたように、私はウッドサイドからこれらの結果について話し合われることを期待しているし、また、それぞれのバスケットにおいてさらなる努力を推進することを目標としている。
On your question regarding election influence or interference, you know, this has been a topic at, I would say, nearly every, if not every, senior-level engagement, ensuring that we are being crystal clear about our concerns that any country interfere or influence our elections.  We have undertaken a whole-of-government effort to protect our elections against these foreign attempts to interfere or influence.  選挙への影響や干渉に関する質問だが、この問題は、どの国も選挙に干渉したり影響を与えたりすることへの懸念を明確にするため、すべてとは言わないまでも、ほぼすべての上級レベルの関与で議論されてきた。 私たちは、外国の干渉や影響から選挙を守るために、政府全体で取り組んできた。
And I would say, like with any message we deliver to China or to other countries, it is one of continual reinforcement of concern.  And I don’t think we ever really take the Chinese at their word when they say they will or will not do something.  It is about verifying what the president says, verifying the results we see, the actions we see, and then continuing to underscore and press home what our concerns are. そして、中国や他の国々に伝えるメッセージと同じように、懸念の継続的な強化であると言える。 そして、中国が何かをするとかしないとかいうときに、その言葉を鵜呑みにすることはないと思う。 大統領の言うことを検証し、私たちが目にした結果や行動を検証し、そして私たちの懸念が何であるかを強調し、それを訴え続けることなのだ。
On cyber-related issues, another longstanding concern the U.S. has had with China, of course: We’ve been clear both publicly and privately that we will take actions to address threats to our national security for malicious cyber activity.  We’ve done that through attribution.  We’ve done that through work with multilateral partners.  And we’ve done that through other unilateral means.  We’ll continue to convey to the PRC these concerns about accesses on U.S. critical infrastructure, on hacking.  And again, this is another issue I see as a longstanding one we’re going to have to continue to message at and take action on. サイバー関連問題についても、米国が中国に対して抱いてきたもうひとつの長年の懸念である: 我々は、悪意あるサイバー活動に対する国家安全保障上の脅威に対処するために行動を起こすことを、公的にも私的にも明確にしてきた。 われわれはそれを、帰属証明を通じて行ってきた。 多国間パートナーとの協力を通じてそれを行ってきた。 また、その他の一方的な手段を通じてもそうしてきた。 我々は、米国の重要インフラへのアクセスやハッキングに関する懸念を引き続き中国に伝えていく。 繰り返しになるが、これも長年の懸案事項であり、引き続きメッセージを発信し、行動を起こさなければならないと考えている。
MODERATOR:  Next, we’ll go to Ed Wong with the New York Times. モデレーター:次はニューヨーク・タイムズ紙のエド・ウォン記者。
Q    Hi.  Thanks.  A couple of questions related to America’s partners in the Asia Pacific region.  I was just in Taipei and I heard concerns from Taiwanese officials who insist that China has been ramping up its gray zone activity, whether it’s incursions across the median line using fighter jets, or ship activities around the offshore islands.  And also, we’ve seen, as you mentioned, the very active measures taken by Chinese ships towards the Philippine military ships around the Second Thomas Shoal.  Q どうも。 ありがとう。 アジア太平洋地域におけるアメリカのパートナーについていくつか質問がある。 私はちょうど台北にいたのですが、台湾の政府関係者から、中国がグレーゾーンでの活動を活発化させているとの懸念を聞いた。 また、ご指摘のように、中国艦船が第2トーマス諸島周辺のフィリピン軍艦船に対してとった非常に積極的な措置も目にした。
The U.S. has rhetorically pushed back on all of these, but China continues these activities.  What else can Biden be doing or saying to Xi to try and get China to limit these activities? 米国はこれらすべてに対して美辞麗句で反発しているが、中国はこれらの活動を続けている。 中国にこのような活動を制限させるために、バイデンは習近平に対して他に何をし、何を言うことができるだろうか?
Second, obviously, China has great concerns about the ramping up of military ties between the U.S. and its partners and the upcoming Three Leaders Summit this month between the presidents of the U.S. and the Philippines and the prime minister of Japan.  So, will Biden mention this to Xi or try and placate any anxiety Xi about this?  Thanks. 第二に、中国は明らかに、米国とそのパートナー国との軍事的関係の強化や、今月予定されている米国とフィリピンの大統領と日本の首相による3首脳会談に大きな懸念を抱いている。 では、バイデンは習近平にこのことについて言及するのだろうか、あるいは、このことについて不安を抱く習近平をなだめようとするのだろうか? ありがとう。
SENIOR ADMINISTRATION OFFICIAL:  Thanks for the questions, Ed. 政府高官:エド、質問をありがとう。
On the first one, on gray zone activity, you know, I think this has been a longstanding PRC practice to (inaudible) slowly, or sometimes more quickly ramp up pressure (inaudible).  Sometimes it’s through military activities, sometimes it’s through economic tools, some through diplomatic pressure.  So I don’t see anything particularly new here with PRC behavior in the Cross-Strait or South China Sea. 最初のグレーゾーンでの活動についてだが、これは長年にわたる中国の慣行であり、ゆっくりと、あるいは時には素早く圧力を強めていくものだと思う。 あるときは軍事活動、あるときは経済的手段、またあるときは外交的圧力だ。 だから、海峡両岸や南シナ海における中国の行動には、特に目新しいものはない。
Our toolkit with which we respond is similarly, I think, a wide range of different tools, whether it’s diplomatic messaging.  You mentioned the Japan-Philippines-U.S. trilat and the bilat engagements later this month.  Certainly, South China Sea and what we’re seeing in that space will be a topic of discussion.  私たちが対応するツールキットも同様に、外交的なメッセージであれ、さまざまな手段があると思う。 今月末の日比米三国間協議や二国間協議について言及した。 確かに、南シナ海とその海域で我々が見ていることは、議論のトピックになるだろう。
Similarly, you’ve seen it come out in statements.  G7 and otherwise are concerned about coercive activity in the South China Sea and Cross-Strait.  So, messaging is a piece of that.  Of course, we have economics, (inaudible).  同様に、声明にも出ている。 G7などは南シナ海や海峡両岸での強圧的な活動を懸念している。 つまり、メッセージングもその一部だ。 もちろん、経済的な問題もある。
This is just, unfortunately, business as usual.  And I think pushing back on that gray zone coercion is both about U.S. actions but also working closely with allies and partners, (inaudible) doing with the trilat later this month.  これは残念ながら、通常通りのビジネスだ。 グレーゾーンの強要を押し返すには、米国の行動だけでなく、同盟国やパートナーとの緊密な協力が必要だと思う。
We’ve been clear, both from the President but all the way on down to Secretary of State and at high level as well, that U.S. alliances and partnerships are not about China.  They’re about the partnership.  They’re about the affirmative engagement.  But oftentimes, Chinese action motivates a lot –much of what we talk about.  But that is — you know, that is something certainly well within China’s control, what it says and does, and the impact it has on U.S. partners and allies throughout the region.  我々は、大統領から国務長官に至るまで、またハイレベルでも、米国の同盟やパートナーシップは中国を対象としたものではないことを明確にしてきた。 米国の同盟とパートナーシップは中国のためのものではない。 積極的に関与することだ。 しかし、しばしば中国の行動が、私たちが話すことの多くを動かしている。 しかし、それは中国が十分にコントロールできる範囲内のことであり、中国の言動や、それがこの地域全体の米国のパートナーや同盟国に与える影響である。
But certainly, I would expect at the upcoming meetings China to be a topic of conversation. しかし、私は今度の会議で中国が話題になることを期待している。
Over. 以上。
MODERATOR:  Next, we’ll go to Selina Wang with ABC.  司会:次は、ABCのセリーナ・ワンに話を聞こう。
Q    Hi.  Thanks for doing this.  I have a few questions.  So, on the first one, how did the call come about?  Which side initiated this call? Q こんにちは。 ありがとう。 いくつか質問がある。 まず最初の質問だが、この通話はどのようにして始まったのか? どちらがこの電話を始めたのか?
Secondly, is the President going to use this call to pressure China to use its closeness with Iran to influence the Israel-Hamas war? 次に、大統領はこの電話を使って中国に圧力をかけ、イランとの親密さを利用してイスラエルとハマスの戦争に影響を与えるつもりなのか。
And just lastly, any reaction from the administration on, you know, a group of CEOs, including American CEOs, that recently met with Xi Jinping? 最後に、アメリカのCEOを含むCEOグループが最近習近平と会談したことについて、政権の反応は?
SENIOR ADMINISTRATION OFFICIAL:  Great.  Thanks so much, Selina.  On the first one, on the call, you know the diplomatic dance that usually precedes scheduling up a call like this.  政府高官:素晴らしい。 ありがとう、セリーナ。 最初の会談では、通常、このような会談を行う前には外交的なダンスがある。
You know, at Woodside, just to take it back to that meeting last November, both President Biden and President Xi agreed that they would try to pick up the phone a bit more; use that tool as a means of responsibly managing the relationship, of being in closer touch at the leader level, which is so very critical in the Chinese system, on a more regular basis.  ウッドサイドでは、昨年11月の会談に話を戻すと、バイデン大統領と習主席の双方が、もう少し電話を取るようにしよう、責任を持って関係を管理する手段として、そのツールを使おう、中国のシステムにおいて非常に重要な首脳レベルで、より定期的に緊密に連絡を取ろうということで合意した。
So, you know, looking back between the last two summits, November 2022 and November 2023, we did not have a leader-level call.  And I think both sides realized that it’s important to do that to really manage the relationship in a more responsible fashion.  過去2回の首脳会談(2022年11月と2023年11月)を振り返ってみると、首脳レベルの電話会談はなかった。 そして双方は、より責任ある形で関係を管理するためには、そうすることが重要だと気づいたのだと思う。
So, after that agreement in Woodside last year, National Security Advisor Sullivan saw Director Wang Yi in Bangkok in January, discussed trying to do something in the first quarter of the year.  And then it was, of course, a trade-back of dates and times.  That 12-hour time difference does not make for easy scheduling, I can tell you.  From a granular working level, not an easy thing to do.  But landed on this week as a good chance to do it in almost the first quarter of 2024.  そこで、昨年のウッドサイドでの合意後、サリバン国家安全保障顧問は1月にバンコクで王毅国家安全保障局長に会い、今年の第1四半期に何かをしようと話し合った。 そしてもちろん、日時のトレードバックとなった。 12時間の時差があるため、スケジュール調整は容易ではない。 細かい作業レベルからすれば、簡単なことではない。 しかし、2024年のほぼ第1四半期にそれを実行する良いチャンスとして、今週着地した。
On your second question, on Middle East: This, of course, has come up at — most recently, Secretary Blinken, before that National Security Advisor Sullivan, both with Director Wang Yi, and of course, back in Woodside as well.  We’ve been pretty clear in these high-level engagements of the role that the PRC should play in using its leverage with Iran, particularly to bring an end to Houthi attacks against civilian ships in the Red Sea.  These are exacerbating regional tensions, instability, and of course, impacting trade flows.  China should have a very direct interest in trying to limit that fallout.  So I suspect that, of course, could come up in conversation again.  2つ目の質問、中東について: これはもちろん、直近ではブリンケン長官、その前はサリバン国家安全保障顧問、王毅国家安全保障局長、そしてもちろんウッドサイドでも話題になった。 われわれはこれらのハイレベル会合で、中国がイランとの関係において果たすべき役割、特に紅海での民間船に対するフーシの攻撃をやめさせるために果たすべき役割について明確にしてきた。 こうした攻撃は、地域の緊張や不安定性を悪化させ、もちろん貿易の流れにも影響を及ぼしている。 中国はこのような影響を抑えることに非常に直接的な関心を持っているはずだ。 だから、もちろん、そのことがまた話題に上る可能性はあると思う。
You asked about the U.S. CEOs meeting in Beijing.  Of course, saw the reports.  I think it’s pretty standard for U.S. CEOs to meet with Chinese leadership when they go back to China for the CDF, the China Development Forum.  I think it’s often a two-way conversation.  Of course, they’re raising their concerns about the business environment as well.  北京で行われたアメリカのCEO会議について質問された。 もちろん、報道は見た。 米国のCEOがCDF(中国発展フォーラム)のために中国に戻る際、中国の指導者と会うのはごく標準的なことだと思う。 それはしばしば双方向の会話になると思う。 もちろん、彼らはビジネス環境についても懸念を表明している。
But encourage you to reach out to them for more detail on that.  I don’t have any additional information. しかし、その詳細については、彼らと連絡を取ることを勧める。 私は追加情報を持っていない。
MODERATOR:  Great.  Next, we will go to Demetri with the Financial Times. モデレーター:素晴らしい。 次はフィナンシャル・タイムズ紙のディミトリ氏にお願いする。
Q    Thank you.  Good evening.  Two questions.  The first is: There appear to have been no, quote, unquote, “risky and coercive” intercepts by Chinese fighter jets since San Francisco.  I’m just wondering, why has China shifted course there?  Was it something that was agreed between the two sides, or was that a unilateral move by China? Q ありがとう。 こんばんは。 質問が2つある。 一つ目は サンフランシスコ以来、中国戦闘機による「危険で強圧的な」傍受は行われていないように見える。 中国がなぜこのような行動に出たのか。 それとも中国による一方的な行動なのか?
And then separately, is there anything that the U.S. should be doing differently around the Second Thomas Shoal to make sure that that flashpoint doesn’t erupt even more? また、それとは別に、第二トーマスショール周辺での火種がこれ以上噴出しないようにするために、米国が何か別の行動を取るべきことはあるのか?
SENIOR ADMINISTRATION OFFICIAL:  Thanks for the questions, Demetri.  On the unsafe intercepts, you know, this has certainly been a feature of mil-mil communication going way back, just raising these areas of — raising the chances that an unsafe intercept could very quickly lead to loss of a ship, loss of an aircraft; it could lead to loss of life.  Just incredibly risky behavior that could spin up into conflict, (inaudible) — but could spin us into unanticipated consequences quite quickly.  米政府高官:デミトリ、質問をありがとう。 安全でない傍受については、これは確かに、はるか昔から軍軍間コミュニケーションの特徴であった。安全でない傍受は、非常に迅速に船舶や航空機の損失、人命の損失につながる可能性を高めてきた。 信じられないほどリスキーな行動で、紛争に発展する可能性もある(聞き取れず)。
It certainly has been discussed in track two channels.  It’s been discussed in Secretary Blinken’s meetings, National Security Advisor Sullivan, and it did come up at Woodside as well.  この問題は2つのチャンネルで議論されてきた。 ブリンケン長官やサリバン国家安全保障顧問の会議でも議論されたし、ウッドサイドでも話題になった。
I would not say there was an agreement to stop doing this, but we have consistently raised our concerns about the behavior and how irresponsible it is in a relationship between — one like between the United States and China.  I don’t know what motivated China to pull back from that.  I’d encourage you to reach out to them and see if there’s any additional detail there.  このような行動をやめるという合意があったとは言えないが、我々は一貫して、米国と中国のような関係において、このような行動がいかに無責任であるかという懸念を表明してきた。 中国がどういう動機でそれを撤回したのかはわからない。 中国と連絡を取り、何か詳細があるかどうか確認することをお勧めする。
But we have seen a reduction in that kind of activity, which is a welcome sign and a welcome signal of more responsible behavior in some aspects.  Right?  I would hasten to note, of course, we have not seen a reduction in some of the unsafe behavior around Second Thomas Shoal and around some of our other partners’ engagements with China, whether it’s Japan or Australia, in different areas in the Pacific.  しかし、そのような活動が減少していることは歓迎すべきことであり、ある面ではより責任ある行動をとっているというシグナルでもある。 そうだろう? もちろん、第二トーマスショール周辺や、太平洋のさまざまな地域における日本やオーストラリアを含む他のパートナーの中国との関わりにおいて、安全でない行動が減少しているわけではないことを、急いで指摘しておきたい。
So a good sign, and hope that we will see additional pullback from some of that unsafe or risky behavior.  これは良い兆候であり、安全でない行動や危険な行動がさらに後退することを期待している。
You asked about a second question, which I foolishly did not write down. あなたは2つ目の質問について尋ねたが、私は愚かにも書き留めなかった。
Q    Yeah.  Should the U.S. be doing something differently with the Philippines around the Second Thomas Shoal to reduce the chances of that flashpoint erupting in a serious way? Q はい。 米国は第2トーマス浅瀬の周辺でフィリピンと何か違うことをして、この火種が深刻な形で噴出する可能性を減らすべきなのだろうか?
SENIOR ADMINISTRATION OFFICIAL:  Are you asking me if our policy is incorrect in any way, Demetri?  (Laughs.) 政府高官:我々の政策が何か間違っているかと聞いているのか、ディミトリ?
Q    I’m asking you if it’s perfect. Q それが完璧かどうかを聞いているのだが。
SENIOR ADMINISTRATION OFFICIAL:  (Laughs.)  Look, I think this is an area — again, another one of longstanding discussion between the United States and China going back years, going back since the grounding of the Sierra Madre.  It’s come up in every high-level engagement I’ve recently been in.  We are increasingly concerned that PRC’s behavior in this space could lead us closer to, really, unintended consequences, both with our Philippine partners.  政府高官:シエラ・マドレ号が座礁して以来、米国と中国の間で長年議論されてきたことだ。 最近、私が参加したすべてのハイレベルの協議で、この問題は取り上げられた。 我々は、この領域における中国の行動が、フィリピンのパートナーとの両方において、我々を意図しない結果に導く可能性があることを、ますます懸念している。
But of course, we’ve talked about the mutual defense treaty as well.  We’ve made clear we remain committed to promoting freedom of navigation and overflight, respect for international law, peaceful resolution of disputes in the South China Sea, and close coordination with our allies and partners.  しかしもちろん、我々は相互防衛条約についても話してきた。 我々は、航行と上空飛行の自由、国際法の尊重、南シナ海における紛争の平和的解決、同盟国やパートナーとの緊密な協調を推進することに引き続きコミットしていることを明らかにした。
But I think it’s fair to say just increasingly risky behavior in that space has us quite concerned and that I expect this will be a topic of conversation between Japan, Philippines, and the U.S. when the three leaders meet later this month both trilaterally and bilaterally. しかし、南シナ海での危険な行動がますます増えていることに、私たちは大きな懸念を抱いており、今月末に日本、フィリピン、アメリカの3カ国首脳が会談する際には、このことが3カ国間、2カ国間の話題になると期待している。
MODERATOR:  Our next question will go to Zeke Miller with the AP. モデレーター:次の質問はAP通信のジーク・ミラー氏にお願いする。
Q    Thanks so much for doing this.  Just a technical question in terms of the timing of the call.  When this call comes off embargo, will the President have already had that conversation, or will it take place in the future?  Just so we can describe it accurately in our reporting. Q どうもありがとう。 電話会談のタイミングについて技術的な質問をしたい。 この通話が禁輸措置から解除されたとき、大統領はすでにその会話をしたのだろうか、それとも将来行われるのだろうか? 正確な報道をするためだ。
And then, will there be any further discussion of a potential — yet another summit this year?  Obviously, it’s an election year, but some other face-to-face meeting between the two leaders at the leader-to-leader level this year.  Thank you.  それから、今年中に首脳会談が行われる可能性はあるのか? 選挙の年であることは明らかだが、今年中に両首脳が首脳同士で直接会談するようなことはあるのだろうか? ありがとう。
SENIOR ADMINISTRATION OFFICIAL:  I’ll take the first, which is: The call will have occurred by the time the embargo lifts.  政府高官:私は最初のものを取る: 禁輸措置が解除されるまでに、首脳会談は実現するだろう。
And just another logistical flag for this group: It is likely that we will move up the lifting of the embargo.  So please be looking out for outreach from me on that front. そしてもうひとつ、このグループにとってのロジスティック・フラッグがある: 禁輸解除の時期を早める可能性が高い。 だから、私からの働きかけを期待していてほしい。
And I will hand the second question over to [senior administration official]. 2つ目の質問は、[政府高官]に譲る。
SENIOR ADMINISTRATION OFFICIAL:  Thanks so much.  And thanks for the question, Zeke.  政府高官:どうもありがとう。 そして質問ありがとう、ジーク。
You know, I think both sides recognize the value in more regular touch points between the leaders.  We’re doing that now via calls.  I would anticipate, you know, depending what happens in the coming year, there would be — we would hope there would be a chance for another in-person meeting, but don’t have anything even to speculate on when that might be.  But certainly, value in that in-person meeting and the calls in the interim. 両者とも、首脳間の定期的なタッチポイントの重要性を認識していると思う。 我々は今、電話を通じてそれを行っている。 来年、何が起こるかわからないが、また直接会う機会があることを期待している。 - また直接会う機会があればと思っている、 しかし、それがいつになるのか、推測することすらできない。 しかし、直接会うことやその間の電話には価値があることは確かだ。
MODERATOR:  And our last question is going to go to Aurelia End with the AFP. モデレーター:では、最後の質問はAFPのオーレリア・エンドにお願いしたい。
Q    Thanks for taking my question.  I was just going to follow up.  How hard do you expect the President to put pressure on President Xi regarding the PRC’s links with Iran and Russia? Q 私の質問に答えてくれてありがとう。 続けてお聞きしたい。 中国とイラン、ロシアとのつながりについて、大統領は習主席にどれほどの圧力をかけると予想しているか?
And another one that’s not about the call itself but somehow related to the issues in the region.  According to the Yonhap News Agency, North Korea just fired a ballistic missile into the Sea of Japan.  And I was wondering whether you could confirm that and also comment maybe.  Thank you so much.  そしてもうひとつは、電話会談そのものについてではないが、この地域の問題に関連している。 聯合ニュースによると、北朝鮮は日本海に向けて弾道ミサイルを発射した。 そのことを確認し、コメントしてもらえないだろうか。 ありがとう。
SENIOR ADMINISTRATION OFFICIAL:  Thanks for that, Aurelia.  On the first question, Iran/Russia, certainly expect the topic to be raised on the call.  政府高官:ありがとう、オーレリア。 最初の質問であるイランとロシアについては、電話会談で取り上げられることを期待している。
You know, on Russia in particular, this has been a part of our diplomatic conversations with the PRC since the start of Russia’s war on Ukraine.  Started out talking about lethal assistance and concerns around that, use of tactical nuclear weapons by Russia in Ukraine.  Both of those issues, I think thanks in part to the diplomacy not just by the United States with China but European partners as well, we saw more positive action from China on.  特にロシアについては、ロシアによるウクライナ戦争が始まって以来、中国との外交対話の一部となっている。 ウクライナでのロシアによる戦術核兵器の使用について、当初は殺傷能力の援助とその懸念について話していた。 この2つの問題は、米国と中国だけでなく、欧州のパートナーとの外交のおかげもあって、中国からの積極的な行動が見られるようになった。
But as time has gone on, we’ve really seen the PRC start to help to rebuild Russia’s defense industrial base, essentially backfilling the trade from European partners, helping provide the components that get us slowly towards increasing Russia’s capabilities in Ukraine.  And that has, of course, longer-term impacts on European security as well, as, again, you heard from the French foreign minister in Beijing over the weekend.  しかし時が経つにつれ、中国がロシアの防衛産業基盤の再建を支援するようになり、ヨーロッパのパートナーからの貿易を実質的に補填し、ウクライナにおけるロシアの能力を徐々に向上させるための部品を提供する手助けをするようになった。 そしてそれはもちろん、欧州の安全保障にも長期的な影響を及ぼす。週末に北京でフランスの外相が語ったように。
So, quite a bit of concern around this.  China, of course, is a sovereign country; it will make its own decisions about its relationships.  But quite concerned about the direction of travel on this one, and I’m certain it will come up. そのため、この問題には多くの懸念がある。 もちろん、中国は主権国家であり、自国の関係については自国で決断を下すだろう。 しかし、この件に関する方向性についてはかなり懸念している。
You asked as well, sorry, on the missile launch.  I don’t have a comment on that.  Will perhaps refer you to [senior administration official] to come back on the DPRK missile launch.  But certainly growing concern about DPRK’s provocations and the risks of its growing economic, military, and technological partnership with Russia.  You know, we certainly continue to underscore these concerns to China while also reiterating our readiness to conduct diplomacy with North Korea and our determination to take steps to deter further provocations by the DPRK. ミサイル発射についても質問された。 それについてのコメントはない。 北朝鮮のミサイル発射については、おそらく[政権高官]に紹介してもらうことになるだろう。 しかし、朝鮮民主主義人民共和国の挑発行為や、ロシアとの経済的、軍事的、技術的パートナーシップの拡大によるリスクに対する懸念が高まっていることは確かだ。 我々は中国に対し、このような懸念を引き続き強調すると同時に、北朝鮮と外交を行う用意があること、北朝鮮によるさらなる挑発を抑止するための措置を講じる決意があることを改めて表明する。
MODERATOR:  And with that, we’re going to conclude this evening’s call.  Thank you all for joining us.  We anticipate that we will issue a transcript of the call following the call.  モデレーター:以上で、今晩の電話会議を終了する。 ご参加ありがとう。 通話終了後、通話記録を発行する予定である。
And just as a final reminder, the embargo is currently set to noon Eastern Time on April 2nd.  Thank you. そして最後の注意事項として、禁輸措置は現在、東部時間4月2日正午までとなっている。 ありがとう。
 6:35 P.M. EDT  東部夏時間午後6時35分

 

 

 


 

中国政府

・2024.04.02 习近平同美国总统拜登通电话

习近平同美国总统拜登通电话 習近平主席、バイデン米大統領と電話会談
新华社北京4月2日电 4月2日晚,国家主席习近平应约同美国总统拜登通电话。两国元首就中美关系以及双方共同关心的问题坦诚深入交换了意见。 北京4月2日(新華社)】習近平国家主席は2日夜、ジョー・バイデン米大統領とアポに応じて電話会談した。 両首脳は中米関係や相互の関心事について率直かつ踏み込んだ意見交換を行った。
习近平指出,去年11月,我和总统先生在旧金山会晤,开启了面向未来的“旧金山愿景”。这几个月,双方团队认真落实我们达成的共识,中美关系出现企稳态势,受到两国各界和国际社会欢迎。另一方面,两国关系中的消极因素也有所增加,需要引起双方重视。 習近平主席は、大統領と昨年11月にサンフランシスコで会談し、未来に向けた「サンフランシスコ・ビジョン」を打ち出したと指摘した。 この数カ月、両チームはわれわれが到達したコンセンサスを真摯に実行に移し、中米関係は安定傾向を示しており、これは両国の各界と国際社会から歓迎されている。 その一方で、関係におけるマイナス要因も増加しており、双方の注意を必要としている。
习近平强调,战略认知问题始终是中美关系必须扣好的“第一粒纽扣”。中美这样两个大国,不能不来往、不打交道,更不能冲突对抗,应该相互尊重、和平共处、合作共赢,继续沿着稳定、健康、可持续的道路向前走,而不应该走回头路。 習近平主席は、戦略的認識の問題は、中米関係において常に締めなければならない「第一のボタン」であると強調した。 中国と米国のような2つの大国は、衝突や対立はおろか、互いに取引を控えるべきでもなく、互いを尊重し、平和的に共存し、ウィンウィンの結果を得るために協力し、後戻りすることなく、安定的で健全かつ持続可能な道を前進し続けるべきである。
习近平指出,今年的中美关系要坚持几条大的原则。一是以和为贵,坚守不冲突不对抗的底线,不断提升对中美关系的正面预期。二是以稳为重,不折腾、不挑事、不越界,保持中美关系总体稳定。三是以信为本,用行动兑现各自承诺,将“旧金山愿景”转为“实景”。双方要以相互尊重的方式加强对话,以慎重的态度管控分歧,以互惠的精神推进合作,以负责的担当加强国际协调。 習近平主席は、今年の中米関係はいくつかの大原則を守るべきだと指摘した。 第一に、平和は最も重要なものであるべきであり、不争・不対立の原則を堅持し、中米関係に対する前向きな期待を継続的に高めていくべきである。 第二に、安定が最も重要であり、中米関係は、騒ぎ立てたり、問題をあおったり、境界を越えたりすることを控え、全般的に安定を保つべきである。 第三に、「サンフランシスコ・ビジョン」を「現実」にするために、我々は信頼できる存在となり、それぞれの約束を行動で守るべきである。 双方は相互尊重の対話を強化し、相違を慎重に管理し、互恵の精神で協力を推進し、責任ある態度で国際協調を強化すべきである。
习近平强调,台湾问题是中美关系第一条不可逾越的红线。对于“台独”势力分裂活动和外部纵容支持,我们不会听之任之。希望美方把总统先生不支持“台独”的积极表态落实到行动上。美国针对中国的经贸科技打压措施层出不穷,制裁中国企业的单子越拉越长。这不是“去风险”,而是制造风险。如果美方愿意开展互利合作,共享中国发展的红利,中方的大门始终是敞开的;如果美方执意打压中国的高科技发展,剥夺中国的正当发展权利,我们也不会坐视不管。 習近平主席は、台湾問題は中米関係における越えてはならない最初のレッドラインだと強調した。 我々は「台湾独立」勢力の分離主義的な活動と、外部からの共謀による支援を野放しにしない。 我々は、米国側が「台湾独立」を支持しないという大統領の前向きな声明を実行に移すことを望む。 米国の対中経済・貿易・科学技術弾圧策は枚挙にいとまがなく、中国企業への制裁リストはますます長くなっている。 これは「リスク除去」ではなく、「リスク創出」である。 米側が互恵的な協力を行い、中国の発展の配当を分かち合う意思があれば、中国のドアはいつでも開いている。米側が中国のハイテク発展を抑圧し、中国の正当な発展の権利を奪おうとするのであれば、われわれは黙って見ていることはない」。
习近平阐述了中方在涉港、人权、南海等问题上的立场。 習近平主席は、香港、人権、南シナ海に関する問題についての中国の立場を詳しく説明した。
拜登表示,美中关系是世界上影响最深远的双边关系。旧金山会晤以来美中关系取得的进展表明,双方可以积极推进合作,同时负责地管理分歧。我重申,美方不寻求进行“新冷战”,不寻求改变中国体制,不寻求通过强化同盟关系反对中国,不支持“台独”,无意同中国发生冲突。美方奉行一个中国政策。中国发展有利于世界,美国不寻求遏制中国发展,不寻求同中国“脱钩”。愿安排耶伦财长、布林肯国务卿近期访华,同中方加强对话沟通,避免误判,推进合作,推动两国关系稳定发展,共同应对全球性挑战。 バイデン大統領は、米中関係は世界で最も広範な二国間関係であると述べた。 サンフランシスコ会議以降の米中関係の進展は、双方が違いを責任を持って管理しながら、協力を積極的に進めることができることを示している。 私は、米国が「新冷戦」に関与しようとせず、中国の制度を変えようとせず、同盟関係の強化を通じて中国に対抗しようとせず、台湾独立を支持せず、中国と対立する意図を持たないことを改めて表明する。 米国は一つの中国政策を追求している。 中国の発展は世界にとって有益であり、米国は中国の発展を抑制しようとせず、中国からの「切り離し」を求めない。 イエレン財務長官、ブリンケン国務長官の最近の訪中、中国側との対話とコミュニケーションを強化し、誤算を避け、協力を促進し、両国関係の安定的な発展を促進し、共同でグローバルな課題に対処するために手配することを望んでいる。
两国元首还就乌克兰危机、朝鲜半岛局势等交换了意见。 両首脳はまた、ウクライナ危機と朝鮮半島情勢についても意見を交換した。
两国元首认为,这次通话是坦诚、建设性的。双方同意继续保持沟通,责成双方工作团队落实好“旧金山愿景”,推进外交、经济、金融、商务等领域磋商机制以及两军沟通,在禁毒、人工智能、应对气候变化等领域开展对话合作,采取进一步措施扩大两国人文交流,就国际和地区问题加强沟通。中方欢迎耶伦财长、布林肯国务卿近期访华。 両首脳は、率直かつ建設的な会談であったと評価した。 双方は、引き続き意思疎通を維持し、「サンフランシスコ・ビジョン」を実施するために双方の作業チームに任務を与え、外交、経済、金融、通商の分野における協議メカニズムや両軍の意思疎通を促進し、反麻薬、人工知能、気候変動への対応の分野における対話と協力を実施し、両国間の人的交流を拡大し、国際問題や地域問題に関する意思疎通を強化するためのさらなる措置を講じることで合意した。 コミュニケーションの強化。 中国は、イエレン財務長官とブリンケン長官の最近の訪中を歓迎する。

 

 

| | Comments (0)

より以前の記事一覧