欧州議会 Think Tank 生成的 AI と著作権 - トレーニング、作成、規制 (2025.07.09)
こんにちは、丸山満彦です。
この検討は、生成的 AI が EU の著作権法の核心的な原則にどのような課題をもたらすかを検証しているとのことです。
AI のトレーニング手法と、現在のテキストおよびデータマイニングの例外規定との法的ミスマッチや、AI によって生成されたコンテンツの不安定な地位に焦点を当てているようです。
欧州だけでなく、著作権法は日本においても大きな収益源(海外では、自動車に次いでアニメやゲームが有名ですかね...もはや電化製品はかなり駆逐されてしまったし...)となっていますから、日本でも重要な問題ですよね...
● European Parliament - Think Tank
・2025.07.09 Generative AI and Copyright - Training, Creation, Regulation
| Generative AI and Copyright - Training, Creation, Regulation | 生成的 AI と著作権 - トレーニング、作成、規制 |
| This study examines how generative AI challenges core principles of EU copyright law. It highlights the legal mismatch between AI training practices and current text and data mining exceptions, and the uncertain status of AI-generated content. These developments pose structural risks for the future of creativity in Europe, where a rich and diverse cultural heritage depends on the continued protection and fair remuneration of authors. The report calls for clear rules on input/output distinctions, harmonised opt-out mechanisms, transparency obligations, and equitable licensing models. To balance innovation and authors’ rights, the European Parliament is expected to lead reforms that reflect the evolving realities of creativity, authorship, and machine-generated expression. This study was commissioned by the European Parliament’s Policy Department for Justice, Civil Liberties and Institutional Affairs at the request of the Committee on Legal Affairs. | この調査では、生成的 AI が EU の著作権法の核心的な原則にどのような課題をもたらすかを検証している。AI のトレーニング手法と、現在のテキストおよびデータマイニングの例外規定との法的ミスマッチ、および AI によって生成されたコンテンツの不安定な地位に焦点を当てている。こうした動きは、豊かで多様な文化遺産が著者の継続的な保護と公正な報酬に依存しているヨーロッパの創造性の将来に構造的なリスクをもたらす。本報告書は、入力と出力の区別に関する明確な規則、調和のとれたオプトアウトメカニズム、透明性義務、および公平なライセンスモデルを求めている。イノベーションと著者の権利のバランスをとるため、欧州議会は、創造性、著作、および機械生成表現の現実の進化に反映した改革を主導することが期待されている。本調査は、法務委員会の要請により、欧州議会の司法・市民の自由・機関問題政策部によって委託された。 |
・[PDF]
目次。。。
| CONTENTS | 目次 |
| LIST OF ABBREVIATIONS | 略語一覧 |
| LIST OF TABLES | 表一覧 |
| LIST OF FIGURES | 図一覧 |
| EXECUTIVE SUMMARY | エグゼクティブサマリー |
| 1. INTRODUCTION AND CONTEXT | 1. 序論と背景 |
| 1.1. Purpose and scope of the study | 1.1. 本調査の目的と範囲 |
| 1.2. What is generative AI | 1.2. 生成的 AI とは |
| 1.3. Copyright Law in the EU: key principles | 1.3. EU の著作権法:重要な原則 |
| 1.4. The challenge: copyright law and generative AI | 1.4. 課題:著作権法と生成的 AI |
| 2. USING COPYRIGHT-PROTECTED WORKS TO TRAIN GENERATIVE AI (INPUT SIDE) | 2. 著作権で保護された著作物を生成的 AI のトレーニングに使用する場合(入力側) |
| 2.1. Text and Data Mining (TDM) in the CDSM Directive | 2.1. CDSM 指令におけるテキストおよびデータマイニング(TDM) |
| 2.1.1. Understanding the technical distinction between TDM and Generative AI | 2.1.1. TDM と生成的 AI の技術的な違いの理解 |
| 2.1.2. Does Generative AI Training really qualify as Text and Data Mining? | 2.1.2. 生成的 AI のトレーニングは、本当にテキストおよびデータマイニングに該当するのでしょうか? |
| 2.1.3. Unauthorised Training and Its Legal Consequences | 2.1.3. 無断トレーニングとその法的影響 |
| 2.1.4. Beyond TDM: Structural Gaps in the CDSM Directive Framework | 2.1.4. TDM を超えて:CDSM 指令の枠組みにおける構造的なギャップ |
| 2.1.5. Anticipating the CJEU’s Ruling in Case C-250/25 | 2.1.5. 事件 C-250/25 における CJEU の判決の予測 |
| 2.1.6. Comparative Jurisdictional Approaches to TDM: Lessons for EU Policy Reform | 2.1.6. TDM に対する比較法域的アプローチ:EU 政策改革の教訓 |
| 2.2. Implementation across Member States | 2.2. 加盟国における実施 |
| 2.3. Impact on rightsholders | 2.3. 権利者への影響 |
| 2.4. Author’s Rights and remuneration for AI training uses | 2.4. AI トレーニング利用に関する著者の権利と報酬 |
| 2.4.1. Regulatory Gaps and Remuneration Challenges | 2.4.1. 規制のギャップと報酬に関する課題 |
| 2.5. The AI Act and transparency obligations | 2.5. AI 法と透明性に関する義務 |
| 3. LEGAL STATUS OF AI-GENERATED OUTPUTS (OUTPUT SIDE) | 3. AI 生成物の法的地位(出力側) |
| 3.1. Originality and authorship under EU law | 3.1. EU 法における独創性と著作 |
| 3.1.1. Does the Human-Centric Approach Still Make Sense in the Era of Advanced Generative AI? | 3.1.1. 先進的な生成的 AI の時代において、人間中心のアプローチは依然として意味があるか? |
| 3.2. AI-assisted vs AI-generated: where to draw the line | 3.2. AI 支援と AI 生成:その境界線 |
| 3.3. Economic and Legal Challenges of AI-Generated Outputs: Disrupting Value Chains and Market Dynamics | 3.3. AI 生成出力の経済的・法的課題:バリューチェーンと市場ダイナミクスの破壊 |
| 3.4. Infringement and liability | 3.4. 侵害と責任 |
| 4. POLICY OPTIONS AND RECOMMENDATIONS | 4. 政策オプションと提言 |
| 4.0. Three-Pillar Accountability Test (orientation tool for Sections 4.1–4.6) | 4.0. 3 本柱の責任テスト(4.1~4.6 の指針となるツール |
| 4.1. Governance and enforcement: Fragmented responsibilities | 4.1. ガバナンスと執行:分断された責任 |
| 4.2. Improve implementations of TDM exceptions | 4.2. TDM の例外規定の実施の改善 |
| 4.3. Possible mechanisms for remuneration | 4.3. 報酬の可能な仕組み |
| 4.4. Clarify protection status of AI-assisted vs AI-created works | 4.4. AI 支援作品と AI 作成作品の保護状況の明確化 |
| 4.5. Support safeguards and content traceability | 4.5. 保護措置とコンテンツのトレーサビリティの支援 |
| 4.6. Foster collaborative governance and legal coherence | 4.6. 協調的なガバナンスと法的整合性の促進 |
| 4.7. Conclusion | 4.7. 結論 |
| REFERENCES | 参考文献 |
エグゼクティブサマリー...
| EXECUTIVE SUMMARY | エグゼクティブサマリー |
| The integration of Generative Artificial Intelligence (GenAI) systems into creative workflows is transforming how content is processed, distributed, and accessed across the European Union. These large-scale, general-purpose computational models enable new forms of automation and synthesis, but their deployment also disrupts the established balance of rights and responsibilities within the copyright framework. While innovation is nothing new to copyright law, generative AI presents an unprecedented test of scale, opacity, and economic impact. | 生成的人工知能(GenAI)システムが創造的なワークフローに統合されることで、欧州連合(EU)全域におけるコンテンツの処理、配信、アクセス方法が大きく変化している。これらの大規模で汎用的な計算モデルは、新しい形の自動化と統合を可能にするが、その展開は、著作権枠組みにおける権利と責任の確立されたバランスを乱すものとなっている。イノベーションは著作権法にとって決して新しいものではないが、生成的 AI は、その規模、不透明性、経済的な影響という点で、これまでにない試練を課している。 |
| This study identifies five key findings: | この調査では、5 つの重要な発見を明らかにしている。 |
| (1) The current EU text-and-data mining (TDM) exception was not designed to accommodate the expressive and synthetic nature of generative AI training, and its application to such systems risks distorting the purpose and limits of EU copyright exceptions. | (1) 現在の EU のテキストおよびデータマイニング(TDM)の例外規定は、生成的 AI トレーニングの表現力および合成的な性質に対応するようには設計されておらず、このようなシステムに適用すると、EU の著作権例外の目的および制限が歪められるリスクがある。 |
| (2) Fully machine-generated outputs should remain unprotected; AI-assisted works require harmonised protection criteria. | (2) 完全に機械によって生成された出力は、保護の対象から除外すべきだ。AI を支援した作品には、調和のとれた保護規準が必要である。 |
| (3) A statutory remuneration scheme is essential to bridge the growing value gap between creators and AI developers. | (3) クリエイターと AI 開発者の間の価値格差の拡大を埋めるためには、法定の報酬制度が不可欠である。 |
| (4) The fragmented governance landscape underscores the need for more coherent, cross-sector institutional responses. | (4) ガバナンスの断片化により、より一貫性のある、セクター横断的な制度的対応の必要性が強調されている。 |
| (5) Without timely reform, the EU risks legal uncertainty, market concentration, and cultural homogenisation. | (5) タイムリーな改革が行われない場合、EU は法的不安定、市場集中、文化の均質化というリスクに直面する。 |
| The primary challenge today is not technological innovation, but the instrumental reinterpretation of legal principles that undermines their coherence. The proper response is not to make copyright law fit AI, but to ensure that AI development respects the core legal and policy principles of EU copyright, including authorship, originality, and fair remuneration. | 現在の主な課題は、技術革新ではなく、法的原則の一貫性を損なうその目的的な再解釈である。適切な対応は、著作権法をAIに適合させることではなく、AIの開発がEUの著作権法の核心的な法的・政策原則(著作者、独創性、公正な報酬など)を尊重することを確保することである。 |
| Against this backdrop, this study—commissioned by the European Parliament’s Committee on Legal Affairs (JURI)—examines the implications of generative AI systems for EU copyright law[1] and proposes policy options to ensure fairness, transparency, and legal clarity in the face of rapid technological change. | このような背景から、欧州議会の法務委員会(JURI)の委託を受けて、本調査では、生成的 AI システムが EU の著作権法[1] に与える影響を検証し、急速な技術変化に直面する中で、公平性、透明性、法的明確性を確保するための政策オプションを提案する。 |
| Copyright and Training Data: Legal Gaps and Industry Workarounds | 著作権とトレーニングデータ:法的ギャップと業界の回避策 |
| A central focus of this study is the use of copyright-protected content as training data for generative AI systems. Article 4 of the Copyright in the Digital Single Market (CDSM) Directive provides a textand-data-mining (TDM) exception that allows use of such content unless the rightsholder has opted out. However, the mechanism for reserving rights lacks a harmonised, machine-readable standard and presents significant scalability challenges. No current tagging protocol can reliably track duplicates or respond to evolving extraction techniques, which undermines effective implementation. In this context, the study considers whether restoring prior authorisation for generative AI training may offer a more sustainable and enforceable framework. Already, major developers are moving toward direct licensing arrangements with publishers, image banks, and other rightsholders, reflecting growing recognition of the limitations of the current exception. These developments raise important questions about legal certainty, equity, and transparency. | この調査の主な焦点は、生成的 AI システムのトレーニングデータとしての著作権で保護されたコンテンツの使用だ。デジタル単一市場における著作権(CDSM)指令の第 4 条は、権利者がオプトアウトしない限り、そのようなコンテンツの使用を認めるテキストおよびデータマイニング(TDM)の例外規定を定めている。しかし、権利を留保する仕組みには、調和のとれた機械可読の標準が欠けており、スケーラビリティの面で大きな課題がある。現在のタグ付けプロトコルでは、重複を確実に追跡したり、進化する抽出技術に対応したりすることができないため、効果的な実施が妨げられている。このような状況において、本調査では、生成的 AI のトレーニングについて事前の許可制を復活させることが、より持続可能で実施可能な枠組みとなるかどうかを検討している。すでに、大手開発者は、現在の例外規定の限界が認識されるようになったことを受け、出版社、画像バンク、その他の権利者との直接的なライセンス契約への移行を進めている。こうした動きは、法的確実性、公平性、透明性に関する重要な問題を引き起こしている。 |
| AI-Generated Outputs: Authorship, Protection, and Legal Uncertainty | AI によって生成された出力:著作者、保護、および法的不安定性 |
| The outputs of generative AI models challenge traditional notions of authorship and originality.[2] Under EU law, works generated entirely by machines without human intervention do not benefit from copyright protection. However, many outputs emerge from iterative human use of algorithmic tools, raising questions about authorship boundaries. Member States differ in how they interpret such hybrid authorship, leading to legal uncertainty and fragmentation across the internal market. | 生成的 AI モデルの出力は、著作者および独創性に関する従来の概念に疑問を投げかけている[2]。EU 法では、人間の介入を一切受けずに機械によって完全に生成された著作物は、著作権による保護の対象とはならない。しかし、アルゴリズムツールを人間が繰り返し使用して生成される出力も多く、著作者に関する境界の問題が浮上している。加盟国は、このようなハイブリッドな著作者の解釈について見解が分かれており、域内市場全体に法的不安定さと断片化が生じている。 |
| The study argues that clarity is urgently needed. Fully machine-generated content should remain in the public domain, while criteria for protecting AI-assisted works should be codified in EU law. The introduction of new, sui generis rights for machine-generated content is not recommended, as it risks undermining the coherence of the copyright system. In addition to legal uncertainty around hybrid authorship, AI-generated outputs resulting from automated processing raise significant economic challenges: they introduce market displacement risks, undermine traditional licensing structures, and risk concentrating value in the hands of a few dominant platforms, thereby destabilising incentives for professional creators. In addition, the study warns that moral-rights protection (attribution and integrity) is fragmented across Member States; without minimum EU alignment, authors may resort to forum-shopping to stop reputational distortions in AI outputs. The study also identifies two structural risks: the erosion of fair bargaining conditions for authors and the displacement of human creativity through automated content saturation. Both represent market failures that must be addressed to preserve a diverse, sustainable creative economy. | この調査では、明確化が急務であると主張している。完全に機械によって生成されたコンテンツはパブリックドメインのままとし、AI を支援して作成された著作物を保護するための規準を EU 法に規定すべきです。機械によって生成されたコンテンツに対する新たな固有の権利の導入は、著作権制度の整合性を損なうリスクがあるため、推奨されない。ハイブリッドな著作者の法的地位に関する不確実性に加え、自動処理によって生成された AI による成果物は、市場での置き換えリスクをもたらし、従来のライセンス構造を損ない、少数の支配的なプラットフォームに価値が集中するリスクがあり、それによってプロのクリエイターに対するインセンティブが不安定になるなど、重大な経済的課題を引き起こす。さらに、この調査では、著作者人格権(帰属および完全性)の保護が加盟国間で統一されていないことを指摘している。EU での最低限の整合性が確保されない場合、著作者は AI 成果物の評判の低下を防ぐために、裁判管轄の選択に訴える可能性がある。また、この調査では、著作者に対する公正な交渉条件の悪化と、コンテンツの自動化による人間の創造性の置き換えという 2 つの構造的リスクも指摘している。これらはいずれも、多様で持続可能な創造経済を維持するために解決すべき市場機能の失敗である。 |
| Fair Remuneration: Addressing the Value Gap | 公正な報酬:価値のギャップへの対処 |
| A key policy concern is the absence of any mechanism that ensures creators are remunerated when their works are used to train AI models. As things stand, the economic benefits generated by AI training are not currently accompanied by clear mechanisms for compensating rightsholders. This undermines the incentive structure on which copyright is based. | 重要な政策課題は、AI モデルのトレーニングに著作物が使用された場合に、創作者に報酬が確実に支払われるような仕組みがないことである。現状では、AI トレーニングによって生み出される経済的利益に対して、権利者に報酬を支払う明確な仕組みは存在しない。これは、著作権の基本であるインセンティブ構造を損なうものである。 |
| The study explores possible responses, including the establishment of a statutory remuneration scheme. Such a scheme could take the form of a collective licence or levy on AI outputs, administered by collective management organisations and based on transparent, auditable usage data. However, such a solution would require strong safeguards, including enforceable disclosure obligations and public oversight. In parallel, the study also considers whether certain forms of AI-generated outputs— particularly where they displace human-authored content—could justify output-linked remuneration schemes as a means to preserve fair market conditions. | この調査では、法定報酬制度の創設など、考えられる対応策を検討している。このような制度は、集団管理機関が、透明性が高く監査可能な使用データに基づいて、AI の出力に対して集団ライセンスまたは課徴金を課すという形をとることができる。ただし、このような解決策には、執行可能な開示義務や公的監督など、強力な保護措置が必要となる。同時に、この研究では、AI によって生成された出力のうち、特に人間が作成したコンテンツに取って代わるものについて、公正な市場条件を維持するための手段として、出力に連動した報酬制度を正当化できるかどうかについても検討している。 |
| Governance and Enforcement: Fragmented Responsibilities | ガバナンスと執行:責任の分散 |
| The institutional landscape for copyright and AI is currently fragmented. Responsibility is shared among national courts and authorities, collective management organisations (CMOs), the European Parliament (EP), the European Commission, the European Union Intellectual Property Office (EUIPO), and the AI Office. This diffusion of competences contributes to slow enforcement, jurisdictional gaps, and regulatory uncertainty. | 著作権と AI に関する制度的枠組みは、現在、分散している。責任は、各国の裁判所や当局、集団管理機関(CMO)、欧州議会(EP)、欧州委員会、欧州連合知的財産庁(EUIPO)、AI 事務局に分散している。このように権限が分散していることは、執行の遅れ、管轄のギャップ、規制の不確実性につながっている。 |
| In order to address immediate coordination gaps, the study recommends that the JURI Committee establish a dedicated Working Group on AI and Copyright to ensure political follow-up and structured inter-committee dialogue. In parallel, a six-month High-Level Expert Group (HLEG) could be convened to deliver enforceable technical standards and pilot remuneration prototypes—including assessing whether a machine-readable interim opt-out tag is a workable solution. Together, these two mechanisms would offer a dual track of expert input and parliamentary oversight, paving the way toward a more robust institutional framework. | 当面の調整のギャップに対処するため、この調査では、JURI 委員会が AI と著作権に関する専門作業部会を設立し、政治的なフォローアップと構造的な委員会間対話を確保することを推奨している。これと並行して、6 ヶ月間のハイレベル専門家グループ(HLEG)を招集し、執行可能な技術標準と報酬のパイロットプロトタイプ(機械可読の一時的なオプトアウトタグが実行可能な解決策であるかどうかの評価を含む)を策定することができる。この 2 つのメカニズムを組み合わせることで、専門家の意見と議会の監督という 2 つのトラックが提供され、より強固な制度的枠組みへの道が開かれる。 |
| For longer-term governance, the study proposes creating a specialised AI & Copyright Unit within the EU AI Office, operating in coordination with EUIPO, the European Parliament, the European Commission, and CMOs. This unit would support copyright-related audits, compliance verification, and policy alignment—ensuring legal coherence while minimising administrative costs. | 長期的なガバナンスについては、EU AI 事務局内に、EUIPO、欧州議会、欧州委員会、CMO と連携して活動する AI および著作権に関する専門ユニットを設置することを提案している。このユニットは、著作権関連の監査、コンプライアンスの検証、政策の整合化を支援し、法的整合性を確保しながら行政コストを最小限に抑える。 |
| A Framework for Accountability | 説明責任の枠組み |
| The study proposes a ‘Three-Pillar Accountability Test’ to evaluate policy options, with three criteria: epistemic accountability (transparency about if and how copyrighted content is used in AI training), normative accountability (fair allocation of rights and revenues), and systemic accountability (effective institutional oversight). Chapter 4 maps each reform against these criteria to check its legal soundness and practical feasibility. | この研究では、政策オプションを評価するための「3 つの柱からなる説明責任テスト」を提案している。このテストでは、認識的説明責任(AI トレーニングで著作権で保護されたコンテンツが使用されているかどうか、および使用方法に関する透明性)、規範的説明責任(権利と収益の公正な配分)、および体系的説明責任(効果的な制度的監督)の 3 つの規準を採用している。第 4 章では、これらの規準に対して各改革をマッピングし、その法的妥当性と実用性を検証している。 |
| Policy Outlook | 政策の見通し |
| The study outlines a rights-centered reform pathway aimed at strengthening authorial control and enhancing legal clarity in the evolving landscape of generative AI. Among the proposed measures is the recalibration of Article 4 of the CDSM Directive, exploring a transition toward a default system of prior authorisation—supported by a unified, machine-readable permissions registry, potentially overseen by EUIPO. In parallel, developers of AI models would be expected to maintain standardised dataset logs and implement traceability tools (such as watermarking or fingerprinting), allowing for end-to-end auditing of protected content use. To address the value gap, the study proposes also a statutory remuneration mechanism that would allocate a fair share of AI-generated value to rightsholders, with compliance monitored through randomised corpus audits conducted by the EU AI Office. Additionally, a proportionate moral rights framework would aim to safeguard authors against reputational harm. A tiered compliance structure would ensure that non-profit and open-source GPAI projects are not unduly burdened. This “yellow-label” relief (up to certain compute or revenue thresholds) would help maintain openness and innovation beyond the dominant commercial actors. | この研究では、進化する生成的 AI の分野において、著者のコントロールを強化し、法的明確性を高めることを目的とした、権利中心の改革の道筋を概説している。提案されている措置の中には、CDSM 指令の第 4 条の再調整があり、EUIPO が監督する、統一された機械可読型の許可登録簿によってサポートされる、事前の許可をデフォルトとするシステムへの移行が検討されている。これと並行して、AI モデルの開発者は、標準化されたデータセットログを維持し、トレーサビリティツール(電子透かしやフィンガープリントなど)を導入して、保護されたコンテンツの使用をエンドツーエンドで監査できるようにすることが求められる。価値のギャップに対処するため、この研究では、AI によって生成された価値の公正な分配を権利者に保証する法定の報酬メカニズムも提案している。その遵守は、EU AI 事務局が実施するランダムなコーパス監査によって監視される。さらに、比例的な著作者人格権の枠組みにより、著者の評判の毀損を防ぐことを目指す。段階的なコンプライアンス体制により、非営利およびオープンソースの GPAI プロジェクトに過度の負担がかからないようにする。この「イエローラベル」の緩和措置(一定の計算能力または収益のしきい値まで)は、支配的な商業主体以外の開放性とイノベーションの維持に役立つだろう。 |
| Depending on the level of regulatory action taken by the EU, this study outlines three strategic scenarios for the creative sector by 2030. In the most favourable outcome (Optimistic scenario – Guided Progress), harmonised transparency rules, enforceable remuneration mechanisms, and active EU participation in model development foster legal certainty and a thriving creative economy. A middle-ground scenario (Intermediate – Litigious Status Quo) emerges from fragmented or partial implementation, leading to legal ambiguity, uneven enforcement, and stagnant revenues. In the worstcase scenario (Regressive – Creative Erosion), continued inaction enables unchecked AI use, eroding rights, undermining creator income, and flattening cultural diversity. These scenarios illustrate what is at stake—and why timely, coordinated intervention is essential. | EUが講じる規制措置のレベルに応じて、本研究は2030年までのクリエイティブセクターに関する3つの戦略的シナリオを提示している。最も望ましい結果(楽観的シナリオ – 指導的な進展)では、調和された透明性ルール、強制可能な報酬メカニズム、およびEUのモデル開発への積極的な参加が、法的確実性と活気あるクリエイティブ経済を促進する。中間的なシナリオ(中間 – 訴訟の続く現状)は、断片的な実施や部分的な実施から生じ、法的曖昧さ、不均一な施行、収益の停滞につながる。最悪のシナリオ(後退 – 創造性の衰退)では、何もしないままの状態が続き、AI の使用が野放しになり、権利が侵食され、クリエイターの収入が損なわれ、文化の多様性が失われる。これらのシナリオは、何が問題であり、なぜタイムリーで協調的な介入が不可欠なのかを明らかにしている。 |
| Conclusion | 結論 |
| Exploring a transition toward a structured permission-based model may represent a necessary step toward restoring coherence and legal certainty within the EU copyright framework. Generative AI systems operate at a scale and opacity that EU copyright law was never designed to address. To uphold core copyright values, the EU should pursue targeted, proportionate reforms that reinforce its existing legal architecture. A phased approach could support this evolution: first, by reinforcing authors’ existing rights and halting the erosion of foundational copyright principles; and then, by introducing statutory mechanisms that promote legal certainty, traceability, and fair remuneration without imposing unworkable transactional burdens. | 構造化された許可ベースのモデルへの移行を検討することは、EU の著作権枠組みの整合性と法的確実性を回復するために必要なステップとなるかもしれない。生成的 AI システムは、EU の著作権法が対処するようには設計されていない規模と不透明性で動作している。著作権の基本的価値を維持するため、EU は、既存の法的枠組みを強化する、的を絞った、均衡の取れた改革を推進すべきだ。この進化には、段階的なアプローチが有効だ。まず、著者の既存の権利を強化し、著作権の基本原則の侵食を食い止める。次に、実行不可能な取引上の負担を課すことなく、法的確実性、トレーサビリティ、および公正な報酬を促進する法定のメカニズムを導入する。 |
| This study outlines a path toward such reform—grounded in transparency, proportionality, and systemic coherence—so that Europe can remain both innovation-friendly and protective of creators. While there will be reasonable disagreement over the optimal regulatory path, the proposals aim to offer a balanced response that aligns technological development with cultural and legal sustainability. By reintroducing a permission-based approach, ensuring fair remuneration, and strengthening oversight, the EU can position itself as a global leader in fostering an AI-and-copyright regime that is both responsible and resilient for the future. | 本調査では、透明性、比例性、および体系的な一貫性に基づく、このような改革への道筋を概説している。これにより、ヨーロッパはイノベーションに優しい環境を維持しつつ、クリエイターを保護し続けることができるだろう。最適な規制の道筋については合理的な意見の相違があるでしょうが、この提案は、技術開発と文化および法的持続可能性との調和を図ったバランスのとれた対応を目的としている。許可ベースのアプローチを再導入し、公正な報酬を確保し、監督を強化することで、EU は、将来に向けて責任あるレジリエンシーのある AI と著作権に関する体制の構築において、世界的なリーダーとしての地位を確立することができるだろう。 |
| [1] Strictly speaking, “European copyright law” is a shorthand expression, as no single unified copyright system exists at the European Union level. Rather, each of the twenty-seven EU Member States retains its own national copyright legislation. The EU’s role has primarily been to harmonize specific aspects of these national laws through a series of directives, resulting in a partially convergent legal framework across the Union. | [1] 厳密に言えば、「欧州の著作権法」は、欧州連合(EU)レベルでは単一の統一された著作権制度が存在しないため、略語である。むしろ、EU 加盟 27 カ国は、それぞれ独自の国内著作権法を有している。EU の役割は、主に一連の指令を通じてこれらの国内法の特定の側面を調和させ、EU 全体で部分的に整合性のある法的枠組みを構築することである。 |
| [2] For the sake of readability, this study occasionally uses expressions such as ‘AI-generated content’ or ‘generative outputs.’ These should be understood as shorthand for ‘outputs resulting from automated computational processes using AI models,’ and do not imply authorship, intentionality, or agency. | [2] 読みやすさを考慮し、本稿では「AI 生成コンテンツ」や「生成的出力」などの表現を時折使用している。これらは「AI モデルを用いた自動化された計算プロセスによって生じる出力」の略語として理解すべきであり、著作権、意図、または主体性を意味するものではない。 |
日本の場合...
● 文化庁 - AIと著作権について
・[PDF] 2024.07.31 AI と著作権に関するチェックリスト&ガイダンス
・2024.04.18 文化庁、「AIと著作権に関する考え方について」を公表
・・2024.03.15 [PDF] AI と著作権に関する考え方について
2024年度
2023年度
● 内閣府 - AI戦略会議
● 官邸 - AI時代の知的財産権検討会
● 文化庁 - 著作権分科会 法制度小委員会
« 各国の中小企業向けセキュリティガイダンス | Main | 米国 NIST SP 1334( 初期公開ドラフト) OT 環境における可搬保管媒体のサイバーセキュリティリスクの軽減 (2025.07.15) »







Comments