欧州 欧州委員会 AI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始 (2025.11.05)
こんにちは、丸山満彦です。
欧州委員会が、AI法第50条に関連した透明性要件として、AI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始していますね...機械読み取り可能な形式でコンテンツに埋め込む感じですかね...
中国でも人工智能生成合成内容标识办法(人工知能生成合成コンテンツ識別弁法)で同様の規制が課されていますね(このブログ)...
● European Commission
・2025.11.05 Commission launches work on a code of practice on marking and labelling AI-generated content
| Commission launches work on a code of practice on marking and labelling AI-generated content | 欧州委員会、AI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始 |
| On 5 November 2025, the Commission launched work on a code of practice on the marking and labelling of AI-generated content. | 2025年11月5日、欧州委員会はAI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始した。 |
| Under the AI Act, content such as deepfakes and certain AI-generated text and other synthetic material must be clearly marked as such. This requirement reflects the growing difficulty in distinguishing AI-generated content from authentic, human-produced material. | AI法に基づき、ディープフェイクや特定のAI生成テキスト、その他の合成素材などのコンテンツは、その旨を明確に表示しなければならない。この要件は、AI生成コンテンツと本物の人間が制作した素材との区別がますます困難になっている現状を反映している。 |
| The AI Act sets out transparency requirements for providers and deployers of certain AI systems, including generative and interactive AI. These rules aim to reduce the risk of misinformation, fraud, impersonation, and consumer deception by fostering trust in the information ecosystem. | AI法は、生成的AIや対話型AIを含む特定のAIシステムのプロバイダおよび展開者に対する透明性要件を定めている。これらの規則は、情報エコシステムへの信頼を促進することで、誤情報、詐欺、なりすまし、消費者欺瞞のリスクを低減することを目的としている。 |
| Today's kick-off plenary meeting, bringing together the independent experts appointed by the European AI Office, marks the beginning of an inclusive, seven-month, stakeholder-driven process to draft the code. Independent experts will lead the process, using input from the public consultation and stakeholders selected through an open call. | 本日開催されたキックオフ全体会議には欧州AI事務局が任命した独立専門家が集結し、包括的で7ヶ月間にわたるステークホルダー主導の規範策定プロセスの始まりを告げた。独立専門家が主導するこのプロセスでは、公開協議からの意見と公募で選ばれたステークホルダーからの入力を活用する。 |
| The upcoming code of practice on transparency of AI-generated content will be a voluntary instrument to help providers of generative AI systems effectively meet their transparency obligations. It will support the marking of AI-generated content, including synthetic audio, images, video and text, in machine-readable formats to enable detection. The Code will also assist deployers using deepfakes or AI-generated content in clearly disclosing AI involvement, particularly when informing the public on matters of public interest. | AI生成コンテンツの透明性に関する今後の行動規範は、生成的AIシステムプロバイダが透明性義務を効果的に履行するための自主的枠組みとなる。合成音声・画像・動画・テキストを含むAI生成コンテンツを機械可読形式でマーク付けし、検知を可能にする。またディープフェイクやAI生成コンテンツを利用する展開者は、特に公共の利益に関わる事項を公表する際、AI関与を明確に開示するよう支援する。 |
| These obligations will become applicable in August 2026, complementing existing rules such as high-risk AI systems or general-purpose AI models. | これらの義務は2026年8月に適用開始され、高リスクAIシステムや汎用AIモデルなど既存規則を補完する。 |
| Read more information on the Code of Practice on transparency of AI-generated content. | AI生成コンテンツの透明性に関する行動規範の詳細はこちら。 |
・2025.11.05 Code of Practice on transparency of AI-generated content
| Code of Practice on transparency of AI-generated content | AI生成コンテンツの透明性に関する行動規範 |
| Page Contents | ページ内容 |
| Transparency of AI-generated content | AI生成コンテンツの透明性 |
| Scope of the working groups | 作業部会の範囲 |
| Drafting process | ドラフトプロセス |
| Timeline | タイムライン |
| This Code of Practice aims to support compliance with the AI Act transparency obligations related to marking and labelling of AI-generated content. | 本行動規範は、AI生成コンテンツの表示・ラベル付けに関連するAI法の透明性義務の遵守を支援することを目的とする。 |
| Transparency of AI-generated content | AI生成コンテンツの透明性 |
| The obligations under Article 50 of the AI Act (transparency obligations for providers and deployers of generative AI systems) aim to ensure transparency of AI-generated or manipulated content, such as deep fakes. The article addresses risks of deception and manipulation, fostering the integrity of the information ecosystem. These transparency obligations will complement other rules like those for high-risk AI systems or general-purpose AI models. | AI法第50条(生成的AIシステムプロバイダ・展開者に対する透明性義務)は、ディープフェイクなどのAI生成・改変コンテンツの透明性確保を目的とする。同条項は欺瞞・操作リスクに対処し、情報エコシステムの健全性を促進する。これらの透明性義務は、高リスクAIシステムや汎用AIモデルに関する規則を補完する。 |
| To assist with compliance with these transparency obligations, the AI Office has kick started the process of drawing up a code of practice on transparency of AI-generated content. The Code will be drafted by independent experts appointed by the AI Office in an inclusive process. Eligible stakeholders will be involved contribute to the drafting of the Code. If approved by the Commission, the final Code will serve as a voluntary tool for providers and deployers of generative AI systems to demonstrate compliance with their respective obligations under Article 50(2) and (4) AI Act. These obligations pertain to marking and detection of AI generated content and labeling of deep fakes and certain AI generated publications. | これらの透明性義務の遵守を支援するため、AI事務局はAI生成コンテンツの透明性に関する行動規範の策定プロセスを開始した。規範はAI事務局が任命した独立専門家が包括的なプロセスで起草する。適格な利害関係者は規範の起草に参画する。欧州委員会が承認した場合、最終規範は生成的AIシステムのプロバイダ及び展開者が、AI法第50条(2)項及び(4)項に基づく各自の義務(AI生成コンテンツの表示・検知義務、ディープフェイク及び特定AI生成出版物の表示義務)への遵守を示すための自主的ツールとして機能する。 |
| Scope of the working groups | 作業部会の範囲 |
| The drafting of the code is centered around 2 working groups, following the structure of the transparency obligations for AI generated content in Article 50. | 規範の起草は、第50条のAI生成コンテンツに関する透明性義務の構造に沿い、2つの作業部会を中心に進められる。 |
| Working group 1: Providers | 作業部会1:プロバイダ |
| Focuses on obligations, requiring providers of generative AI systems to ensure: | 生成的AIシステムプロバイダに以下の義務を課すことに焦点を当てる: |
| ・Outputs of AI systems (audio, image, video, text) are marked in a machine-readable format and detectable as artificially generated or manipulated. | ・生成的AIシステムの出力(音声、画像、動画、テキスト)が機械可読形式で表示され、人工的に生成または操作されたものと検知可能であること。 |
| ・The employed technical solutions are effective, interoperable, robust, and reliable as far as technically feasible. These must take into account the specificities and limitations of various types of content, the costs of implementation and the generally acknowledged state of the art, as may be reflected in relevant technical standards. | ・採用する技術的解決策は、技術的に実現可能な範囲で効果的、相互運用可能、堅牢かつ信頼性が高いこと。これらは、様々なコンテンツの特性と限界、実装コスト、関連技術標準に反映される可能性のある一般に認められた技術水準を考慮しなければならない。 |
| Working group 2: Deployers | 作業部会2:展開者 |
| Focuses on obligations, requiring deployers of generative AI systems to disclose: | 生成的AIシステムの展開者に開示を義務付ける事項に焦点を当てる: |
| Content that is artificially generated or manipulated, constituting a deep fake (image, audio, or video which resembles existing persons, objects, places, entities or events and would falsely appear to a person to be authentic or truthful). | ・人工的に生成または操作されたコンテンツ(既存の人物、物体、場所、事業体、事象に似て、人々に本物または真実であると誤認させるディープフェイクとなる画像、音声、動画)。 |
| ・AI generated/manipulated text publications informing the public on matters of public interest, unless the publication has undergone a process of human review and is subject to editorial responsibility. | ・公共の利益に関わる事項について公衆に情報を提供するAI生成/操作テキスト出版物(ただし、人間による審査プロセスを経て編集責任の対象となっている出版物は除く)。 |
| Both groups will also consider cross-cutting issues, including horizontal requirements for the information to be provided to the natural persons under Article 50(5) and aim to promote cooperation between relevant actors across the value chain to achieve the AI Act’s objectives on transparency of AI-generated content. | 両グループはまた、横断的課題(第50条(5)に基づく自然人への情報提供に関する水平的要件を含む)を検討し、AI生成コンテンツの透明性に関するAI法の目的達成に向け、バリューチェーン全体の関係主体間の協力を促進することを目指す。 |
| Each working group will be led by independent chairs and vice-chairs., who are expected to provide strategic leadership and guidance, ensuring that discussions remain focused and productive. | 各作業部会は独立した議長と副議長が主導する。彼らは戦略的リーダーシップと指導を提供し、議論が焦点化され生産的であることを確保することが期待される。 |
| Drafting process | ドラフトプロセス |
| The drafting of the Code involves eligible stakeholders who replied to a public call launched by the AI Office. Within this group are providers of specific generative AI systems, developers of marking and detection techniques, associations of deployers of generative AI systems, civil society organisations, academic experts, and specialised organisation with expertise in transparency and very large online platforms. | 行動規範のドラフトには、AI事務局が公募した公募に応じた適格な利害関係者が関与する。このグループには、特定の生成的AIシステムプロバイダ、マーキング・検出技術開発者、生成AIシステム展開者団体、市民社会組織、学術専門家、透明性に関する専門知識を有する専門機関、および超大規模オンラインプラットフォームが含まれる。 |
| In its role as a facilitator, the AI Office also invited international and European observers to join the drawing up of Code of Practice. These organisations did not meet the eligibility criteria of the call, but can still contribute with valuable expertise and submit written input. All participants and observers will be invited to take part in plenary sessions, working group meetings, and thematic workshops dedicated to discussing technical aspects of the Code. | 調整役としてのAI事務局は、国際的・欧州のオブザーバーにも行動規範策定への参加を要請した。これらの組織は公募の適格規準を満たさないが、貴重な専門知識を提供し書面による意見提出が可能である。全参加者とオブザーバーは、行動規範の技術的側面を議論する全体会議、作業部会、テーマ別ワークショップへの参加を招請される。 |
| The drafting process will consider: | ドラフトプロセスでは以下を考慮する: |
| ・Feedback from the multi-stakeholder consultation on transparency requirements for certain AI systems | ・特定AIシステムの透明性要件に関するマルチステークホルダー協議からのフィードバック |
| ・Expert studies commissioned by the AI Office and input from eligible stakeholders participating in the drawing up of Code of Practice | ・AI事務局が委託した専門家研究及び行動規範策定に参加する適格ステークホルダーからの意見 |
| The full exercise is expected to last for 7 months. This timeline allows sufficient time for providers and deployers to prepare for compliance before the rules take effect in August 2026. The transparency obligations in Article 50 AI Act will complement other rules like those for high-risk AI systems or general-purpose AI models. | 全プロセスは7ヶ月間を要する見込みである。このタイムラインにより、2026年8月の規則発効前に、プロバイダ及び展開者が遵守準備を整える十分な時間が確保される。AI法第50条の透明性義務は、高リスクAIシステムや汎用AIモデルに関する規則など他の規定を補完するものである。 |
| The Commission will prepare in parallel guidelines to clarify the scope of the legal obligations and addressing aspects not covered by the Code. | 欧州委員会は並行してガイドラインを策定し、法的義務の範囲を明確化するとともに、行動規範でカバーされない側面に対処する。 |
| Timeline | タイムライン |
| The working group meetings and workshops with participants, chairs and vice-chairs will take place between November 2025 and May 2026. | 参加者、議長、副議長を交えた作業部会会議及びワークショップは、2025年11月から2026年5月にかけて実施される。 |
| The dates below are indicative and may need to be confirmed (TBC). | 以下の日程は暫定であり、確定が必要となる場合がある(TBC)。 |
| 25-Sep | 2025年9月 |
| Consultation to develop guidelines and Code of Practice on transparent AI systems | 透明性のあるAIシステムに関するガイドライン及び行動規範策定のための協議 |
| Call for expression of interest to participate in the Code of Practice | 行動規範参加意向表明の募集 |
| 25-Oct | 2025年10月 |
| Eligibility checks and selection of applications for chairs and vice-chairs | 議長・副議長候補の適格性審査及び選考 |
| 5-Nov-25 | 2025年11月5日 |
| Kick-off Plenary | キックオフ総会 |
| Start of the first drafting round | 第1次草案作成ラウンド開始 |
| December 2025 (TBC) | 2025年12月 (TBC) |
| Publication of the first draft | 第1次ドラフトの公表 |
| January 2026 (TBC) | 2026年1月 (TBC) |
| Working groups meetings | 作業部会会議 |
| Start of the second drafting round | 第2次ドラフト作成ラウンド開始 |
| March 2026 (TBC) | 2026年3月 (TBC) |
| Publication of the second draft | 第2次ドラフトの公表 |
| Start of the final drafting round | 最終ドラフト作成ラウンド開始 |
| April 2026 (TBC) | 2026年4月 (TBC) |
| Working groups meetings | 作業部会会議 |
| May-June 2026 | 2026年5月~6月 |
| Closing Plenary | 閉会総会 |
| Publication of the final Code of Practice | 最終版行動規範の公表 |
・2025.09.04 Commission launches consultation to develop guidelines and Code of Practice on transparent AI systems
| Commission launches consultation to develop guidelines and Code of Practice on transparent AI systems | 欧州委員会、透明性のあるAIシステムに関するガイドラインと行動規範策定のための協議を開始 |
| The European Commission will help deployers and providers of generative AI systems to detect and label AI generated or manipulated content. | 欧州委員会は、生成的AIシステムの展開者およびプロバイダが、AIによって生成または操作されたコンテンツを検知し、ラベル付けすることを支援する。 |
| This will help to ensure that users are informed when they are interacting with an AI system. To that end, the Commission has launched a consultation to develop guidelines and a code of practice on AI transparency obligations, based on the provisions of the Artificial Intelligence Act (AI Act). | これにより、ユーザーがAIシステムとやり取りする際、その旨が通知されることが保証される。この目的のため、欧州委員会は人工知能法(AI法)の規定に基づき、AI透明性義務に関するガイドライン及び行動規範を策定するための協議を開始した。 |
| The AI Act obliges deployers and providers of generative AI to inform people when they are interacting with an AI system, as well as when they are exposed to emotion recognition or biometric categorisation systems, and to content generated or manipulated by an AI system. | AI法は、生成的AIの展開者及びプロバイダに対し、人々がAIシステムとやり取りしている時、感情認識や生体認証分類システムに晒されている時、またAIシステムによって生成または操作されたコンテンツに晒されている時に、人々に通知することを義務付けている。 |
| The Commission invites providers and deployers of interactive and generative AI models and systems as well as biometric categorisation and emotion recognition systems, private and public sector organisations, academic and research experts, civil society representatives, supervisory authorities and citizens to share their views by 9 October 2025. | 欧州委員会は、対話型・生成的AIモデル・システム、生体認証分類システム、感情認識システムのプロバイダ・展開者、官民組織、学術研究専門家、市民社会代表者、監督当局、市民に対し、2025年10月9日までに意見を提出するよう呼びかけている。 |
| The consultation is accompanied by a call for expression of interest, for stakeholders to participate, by 9 October 2025, in the creation of the Code of Practice. | 本協議には、2025年10月9日までに実施規範策定への参加を希望する関係者からの関心表明募集が併せて実施される。 |
| The deadline was extended for both the public consultation and the call for expression of interest, from 2 October to 9 October 2025. | パブリックコンサルテーションと参加意向表明の締切は、2025年10月2日から10月9日に延長された。 |
| The AI Act, which entered into force on 1 August 2024, will foster responsible and trustworthy AI development and deployment in the EU. The transparency obligations will be applicable from 2 August 2026. | 2024年8月1日に発効したAI法は、EU域内における責任ある信頼性の高いAIの開発・展開を促進する。透明性に関する義務は2026年8月2日から適用される。 |
| Find more information on the AI Act transparency provisions | AI法の透明性規定に関する詳細情報はこちら |
・[PDF] Stakeholder consultation on transparency requirements for certain AI systems under Article 50 AI Act
・[DOCX][PDF] 仮訳
ちなみにAI法第50条の内容
| CHAPTER IV | 第4章 |
| TRANSPARENCY OBLIGATIONS FOR PROVIDERS AND DEPLOYERS OF CERTAIN AI SYSTEMS | 特定の人工知能システムのプロバイダ及び展開者に対する透明性義務 |
| Article 50 | 第50条 |
| Transparency obligations for providers and deployers of certain AI systems | 特定の人工知能システムのプロバイダ及び展開者に対する透明性義務 |
| 1. Providers shall ensure that AI systems intended to interact directly with natural persons are designed and developed in such a way that the natural persons concerned are informed that they are interacting with an AI system, unless this is obvious from the point of view of a natural person who is reasonably well-informed, observant and circumspect, taking into account the circumstances and the context of use. This obligation shall not apply to AI systems authorised by law to detect, prevent, investigate or prosecute criminal offences, subject to appropriate safeguards for the rights and freedoms of third parties, unless those systems are available for the public to report a criminal offence. | プロバイダは、自然人と直接的に相互作用することを意図したAIシステムが、当該自然人がAIシステムと相互作用していることを認識できるよう設計・開発されることを確保しなければならない。ただし、状況及び使用環境を考慮した上で、合理的によく情報に通じ、注意深く慎重な自然人の観点から明らかな場合はこの限りではない。この義務は、サードパーティの権利及び自由に対する適切な保護措置を条件として、犯罪の検知、防止、調査又は訴追を法律により許可されたAIシステムには適用されない。ただし、当該システムが公衆による犯罪の通報に利用可能な場合はこの限りではない。 |
| 2. Providers of AI systems, including general-purpose AI systems, generating synthetic audio, image, video or text content, shall ensure that the outputs of the AI system are marked in a machine-readable format and detectable as artificially generated or manipulated. Providers shall ensure their technical solutions are effective, interoperable, robust and reliable as far as this is technically feasible, taking into account the specificities and limitations of various types of content, the costs of implementation and the generally acknowledged state of the art, as may be reflected in relevant technical standards. This obligation shall not apply to the extent the AI systems perform an assistive function for standard editing or do not substantially alter the input data provided by the deployer or the semantics thereof, or where authorised by law to detect, prevent, investigate or prosecute criminal offences. | 2. 合成音声、画像、動画またはテキストコンテンツを生成する汎用AIシステムを含むAIシステムのプロバイダは、AIシステムの出力結果が機械可読形式でマークされ、人工的に生成または操作されたものであることが検知可能であることを確保しなければならない。プロバイダは、技術的に実現可能な範囲で、様々なコンテンツの特性や制約、実装コスト、関連技術標準に反映される一般的な技術水準を考慮し、自社の技術的解決策が効果的、相互運用可能、堅牢かつ信頼性のあるものであることを確保しなければならない。この義務は、AIシステムが標準的な編集のための補助機能を果たす場合、または展開者がプロバイダとして提供する入力データやその意味論を実質的に変更しない場合、もしくは犯罪の検知、防止、調査、起訴のために法律で認められる場合には適用されない。 |
| 3. Deployers of an emotion recognition system or a biometric categorisation system shall inform the natural persons exposed thereto of the operation of the system, and shall process the personal data in accordance with Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680, as applicable. This obligation shall not apply to AI systems used for biometric categorisation and emotion recognition, which are permitted by law to detect, prevent or investigate criminal offences, subject to appropriate safeguards for the rights and freedoms of third parties, and in accordance with Union law. | 3. 感情認識システムまたは生体認証分類システムの展開者は、当該システムに晒される自然人に対し、システムの運用について通知し、適用される規則(EU)2016/679、規則(EU)2018/1725、指令(EU)2016/680に従って個人データを処理しなければならない。この義務は、サードパーティの権利と自由に対する適切な保護措置を条件とし、かつ連合法に従って、犯罪の検知、防止、調査のために法律で許可されている生体認証分類および感情認識に使用されるAIシステムには適用されない。 |
| 4. Deployers of an AI system that generates or manipulates image, audio or video content constituting a deep fake, shall disclose that the content has been artificially generated or manipulated. This obligation shall not apply where the use is authorised by law to detect, prevent, investigate or prosecute criminal offence. Where the content forms part of an evidently artistic, creative, satirical, fictional or analogous work or programme, the transparency obligations set out in this paragraph are limited to disclosure of the existence of such generated or manipulated content in an appropriate manner that does not hamper the display or enjoyment of the work. | 4. ディープフェイクを構成する画像、音声、動画コンテンツを生成または操作するAIシステムの展開者は、そのコンテンツが人工的に生成または操作されたものであることを開示しなければならない。この義務は、犯罪の検知、防止、調査または起訴のために法律で認められた使用には適用されない。当該コンテンツが明らかに芸術的、創造的、風刺的、虚構的または類似の著作物もしくは番組の一部を構成する場合、本項に定める透明性義務は、当該著作物の表示または享受を妨げない適切な方法で、生成または操作されたコンテンツの存在を開示することに限定される。 |
| Deployers of an AI system that generates or manipulates text which is published with the purpose of informing the public on matters of public interest shall disclose that the text has been artificially generated or manipulated. This obligation shall not apply where the use is authorised by law to detect, prevent, investigate or prosecute criminal offences or where the AI-generated content has undergone a process of human review or editorial control and where a natural or legal person holds editorial responsibility for the publication of the content. | 公共の利益に関する事項について公衆に情報を提供することを目的として公開されるテキストを生成または操作するAIシステムの展開者は、当該テキストが人工的に生成または操作されたものであることを開示しなければならない。この義務は、犯罪の検知、防止、調査または訴追のために法律により使用が許可されている場合、またはAI生成コンテンツが人間のレビューまたは編集管理プロセスを経ており、かつ自然人または法人が当該コンテンツの公開について編集責任を有する場合には適用されない。 |
| 5. The information referred to in paragraphs 1 to 4 shall be provided to the natural persons concerned in a clear and distinguishable manner at the latest at the time of the first interaction or exposure. The information shall conform to the applicable accessibility requirements. | 5. 第1項から第4項までに規定する情報は、遅くとも最初の相互作用またはエクスポージャーの時点で、関係する自然人に対して明確かつ識別可能な方法で提供されなければならない。当該情報は、適用されるアクセシビリティ要件に適合しなければならない。 |
| 6. Paragraphs 1 to 4 shall not affect the requirements and obligations set out in Chapter III, and shall be without prejudice to other transparency obligations laid down in Union or national law for deployers of AI systems. | 6. 第1項から第4項までの規定は、第III章に定める要件及び義務に影響を与えず、また、AIシステムの展開者に対してEU法または国内法で定められたその他の透明性義務を害するものではない。 |
| 7. The AI Office shall encourage and facilitate the drawing up of codes of practice at Union level to facilitate the effective implementation of the obligations regarding the detection and labelling of artificially generated or manipulated content. The Commission may adopt implementing acts to approve those codes of practice in accordance with the procedure laid down in Article 56 (6). If it deems the code is not adequate, the Commission may adopt an implementing act specifying common rules for the implementation of those obligations in accordance with the examination procedure laid down in Article 98(2). | 7. AI事務局は、人工的に生成または操作されたコンテンツの検知及び表示に関する義務の効果的な実施を促進するため、EUレベルでの行動規範の策定を奨励し、促進するものとする。委員会は、第56条(6)に定める手続に従い、当該行動規範を承認するための実施法令を採択することができる。委員会が当該規範が不十分であると判断した場合、第98条(2)に定める審査手続に従い、当該義務の実施に関する共通規則を定める実施法令を採択することができる。 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2025.03.16 中国 人工知能生成合成コンテンツ識別弁法 (2025.03.14)
Comments