| General-Purpose AI Models in the AI Act – Questions & Answers |
AI 法における汎用 AI モデル – 質問と回答 |
| With this Q&A, the AI Office seeks to facilitate the interpretation of certain provisions of the AI Act. This Q&A does not constitute an official position of the Commission, and it is without prejudice to any decision or position of the Commission. Only the Court of Justice of the European Union is competent to authoritatively interpret the AI Act. |
この Q&A は、AI 法の一部の規定の解釈を容易にするために AI 事務局が作成したものです。この Q&A は、欧州委員会の公式見解を構成するものではなく、欧州委員会の決定や立場を妨げるものではない。AI 法を正式に解釈する権限は、欧州連合司法裁判所のみが有している。 |
| General questions about the code of practice |
実践規範に関する一般的な質問 |
| Why do we need rules for general-purpose AI models? |
汎用 AI モデルに関する規則が必要な理由 |
| Artificial Intelligence (“AI”) promises huge benefits to our economy and society. General-purpose AI models play an important role in that regard, as they can be used for a variety of tasks and therefore form the basis for a range of downstream AI systems, used in Europe and worldwide. |
人工知能(AI)は、経済および社会に大きなメリットをもたらすと期待されている。汎用 AI モデルは、さまざまなタスクに使用できるため、欧州および世界中で使用されるさまざまな下流 AI システムの基盤となる、その点で重要な役割を果たしている。 |
| The AI Act aims to ensure that general-purpose AI models are safe and trustworthy. |
AI 法は、汎用 AI モデルの安全性と信頼性を確保することを目的としている。 |
| To achieve that aim, it is crucial that providers of general-purpose AI models ensure a good understanding of their models along the entire AI value chain, so as to allow downstream providers both to integrate such models into AI systems and to fulfil their own obligations under the AI Act. More specifically, and as explained in more detail below, providers of general-purpose AI models must draw up technical documentation of their models to make available to downstream providers and to provide upon request to the AI Office and national competent authorities, put in place a copyright policy, and publish a training content summary. In addition, providers of general-purpose AI models posing systemic risks, which may be the case either because the models are very capable or because they have a significant impact on the internal market for other reasons, must notify those models to the Commission, assess and mitigate systemic risks stemming from those models, including via performing model evaluations, reporting serious incidents, and ensuring adequate cybersecurity of these models. |
その目的を達成するためには、汎用 AI モデルプロバイダが、AI バリューチェーン全体を通じて自社のモデルを十分に理解し、下流のプロバイダが AI システムに当該モデルを統合し、AI 法に基づく自らの義務を履行できるようにすることが重要である。より具体的には、以下で詳しく説明するように、汎用 AI モデルのプロバイダは、下流のプロバイダが利用できるように、また AI 事務局および各国の管轄当局の要請に応じて提供できるように、自社のモデルの技術文書を作成し、著作権ポリシーを策定し、トレーニングコンテンツの概要を公開しなければならない。 さらに、その能力が非常に高い、あるいはその他の理由により域内市場に重大な影響を及ぼすため、システミックリスクをもたらす可能性のある汎用 AI モデルのプロバイダは、そのモデルを欧州委員会に通知し、モデル評価の実施、重大なインシデントの報告、モデルの適切なサイバーセキュリティの確保などを通じて、そのモデルに起因するシステミックリスクを評価し、緩和しなければならない。 |
| In this way, the AI Act contributes to safe and trustworthy innovation in the European Union. |
このようにして、AI法は欧州連合における安全で信頼できるイノベーションに貢献する。 |
| What are general-purpose AI models? |
汎用AIモデルとは何か? |
| The AI Act defines a general-purpose AI model as “an AI model, including where such an AI model is trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable of competently performing a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications” (Article 3(63) AI Act). |
AI 法では、汎用 AI モデルを「大規模な自己監督を用いて大量のデータで訓練された AI モデルを含め、市場での上市方法に関係なく、幅広い異なるタスクを適切に実行することができ、さまざまな下流のシステムやアプリケーションに統合できる、著しい汎用性を示す AI モデル」と定義している(AI 法第 3 条(63))。 |
| The recitals to the AI Act further clarify which models should be deemed to display significant generality and to be capable of performing a wide range of distinct tasks. |
AI 法の前文では、どのモデルが「高い汎用性を示し、幅広い異なるタスクを遂行することができる」とみなされるべきかをさらに明確にしている。 |
| According to recital 98 AI Act, “whereas the generality of a model could, inter alia, also be determined by a number of parameters, models with at least a billion of parameters and trained with a large amount of data using self-supervision at scale should be considered to display significant generality and to competently perform a wide range of distinctive tasks.” |
AI 法前文 98 項では、「モデルの汎用性は、とりわけ、パラメータの数によっても決定される可能性があるが、少なくとも 10 億個のパラメータを有し、大規模な自己監督を用いて大量のデータで訓練されたモデルは、高い汎用性を有し、幅広い多様なタスクを適切に実行できるとみなすべきである」と規定されている。 |
| Recital 99 AI Act adds that “large generative AI models are a typical example for a general-purpose AI model, given that they allow for flexible generation of content, such as in the form of text, audio, images or video, that can readily accommodate a wide range of distinctive tasks.” |
AI 法前文 99 では、「大規模な生成的 AI モデルは、テキスト、音声、画像、動画などのコンテンツを柔軟に生成でき、幅広い特徴的なタスクに容易に対応できることから、汎用 AI モデルの典型的な例である」と付け加えられている。 |
| Note that significant generality and ability to competently perform a wide range of distinctive tasks may be achieved by models within a single modality, such as text, audio, images, or video, if the modality is flexible enough. This may also be achieved by models that were developed, fine-tuned, or otherwise modified to be particularly good at a specific task or at a number of tasks in a specific domain. |
なお、そのモダリティが十分に柔軟であれば、テキスト、音声、画像、動画などの単一のモダリティのモデルでも、かなりの汎用性と幅広い特徴的なタスクを適切に実行できる能力を実現できることに留意してください。これは、特定のタスクまたは特定の分野における複数のタスクに特に優れるように開発、微調整、またはその他の方法で変更されたモデルでも実現できる。 |
| Different stages of the development of a model do not constitute different models. |
モデルの開発の段階は、異なるモデルを構成するものではない。 |
| The AI Office intends to provide further clarifications on what should be considered a general-purpose AI model, drawing on insights from the Commission’s Joint Research Centre, which is currently working on a scientific research project addressing this and other questions. |
AI 事務局は、この問題やその他の問題に取り組む科学研究プロジェクトを現在進行中の欧州委員会の共同研究センターからの知見を参考にし、汎用 AI モデルとみなすべきものについてさらに明確化を図る予定である。 |
| What are general-purpose AI models with systemic risk? |
システミックリスクを伴う汎用 AI モデルとは何か? |
| Systemic risks are risks of large-scale harm from the most advanced (i.e. state-of-the-art) models at any given point in time or from other models that have an equivalent impact (see Article 3(65) AI Act). Such risks can manifest themselves, for example, through the lowering of barriers for chemical or biological weapons development, or unintended issues of control over autonomous general-purpose AI models (recital 110 AI Act). The most advanced models at any given point in time may pose systemic risks, including novel risks, as they are pushing the state of the art. At the same time, some models below the threshold reflecting the state of the art may also pose systemic risks, for example through reach, scalability, or scaffolding. |
システミックリスクとは、ある時点における最先端(すなわち、最新鋭)のモデル、または同等の影響力を持つ他のモデルによって生じる大規模な被害のリスクを指します(AI 法第 3 条(65)参照)。このようなリスクは、例えば、化学兵器や生物兵器の開発の障壁の低下、または自律型汎用 AI モデルの制御に関する意図しない問題として現れる可能性がある(AI 法前文 110)。ある時点における最先端のモデルは、その最先端の技術をさらに押し進めているため、新たなリスクを含むシステミックリスクをもたらす可能性がある。同時に、最先端の技術を反映した基準値を下回る一部のモデルも、その到達範囲、拡張性、または足場構築力などを通じて、システミックリスクをもたらす可能性がある。 |
| Accordingly, the AI Act classifies a general-purpose AI model as a general-purpose AI model with systemic risk if it is one of the most advanced models at that point in time or if it has an equivalent impact (Article 51(1) AI Act). Which models are considered general-purpose AI models with systemic risk may change over time, reflecting the evolving state of the art and potential societal adaptation to increasingly advanced models. Currently, general-purpose AI models with systemic risk are developed by a handful of companies, although this may change in the future. |
したがって、AI 法では、その時点で最も先進的なモデルの一つである、あるいは同等の影響力を持つ汎用 AI モデルを、システムリスクのある汎用 AI モデルとして分類している(AI 法第 51 条第 1 項)。システムリスクのある汎用 AI モデルとみなされるモデルは、技術の進歩や、ますます高度化するモデルに対する社会の適応の程度に応じて、時間の経過とともに変化する可能性がある。現在、システムリスクのある汎用 AI モデルは、ごく一部の企業によって開発されているが、将来は変化する可能性がある。 |
| To capture the most advanced models, i.e. models that match or exceed the capabilities recorded in the most advanced models so far, the AI Act lays down a threshold of 10^25 floating-point operations (FLOP) used for training the model (Article 51(1)(a) and (2) AI Act). Training a model that meets this threshold is currently estimated to cost tens of millions of Euros (Epoch AI, 2024). The AI Office is continuously monitoring technological and industrial developments, and the Commission may update the threshold, through the adoption of a delegated act (Article 51(3) AI Act), to ensure that it continues to single out the most advanced models as the state of the art evolves. For example, the value of the threshold itself could be adjusted and/or additional thresholds introduced. |
最も高度なモデル、すなわちこれまで記録された最も高度なモデルと同等またはそれ以上の能力を有するモデルを捕捉するため、AI法は、モデルの訓練に用いられる浮動小数点演算(FLOP)の閾値を10^25と定めている(AI法第51条第1項(a)および(2))。この閾値を満たすモデルの訓練には、現在、数千万ユーロのコストがかかるものと推定されている(Epoch AI、2024年)。AI事務局は、技術的・産業的な動向を継続的に監視しており、委員会は、委任行為の採択(AI法第51条第3項)を通じて、閾値を更新し、最先端技術が進化するにつれて、最も高度なモデルを最先端技術として特定し続けるよう確保することができる。例えば、閾値自体の値を調整したり、追加の閾値を導入したりすることが考えられる。 |
| To capture models with an impact equivalent to the most advanced models, the AI Act empowers the Commission to designate additional models as posing systemic risk, based on criteria such as the evaluations of capabilities of the model, number of users, scalability, or access to tools (Article 51(1)(b) and Annex XIII AI Act). |
最先端のモデルと同等の影響力を持つモデルを捕捉するため、AI 法は、モデルの機能の評価、ユーザー数、拡張性、ツールへのアクセスなどの規準に基づき、システムリスクをもたらす追加のモデルを指定する権限を委員会に与えている(AI 法第 51 条(1)(b) および附属書 XIII)。 |
| The AI Office intends to provide further clarifications on how general-purpose AI models will be classified as general-purpose AI models with systemic risk, drawing on insights from the Commission’s Joint Research Centre which is currently working on a scientific research project addressing this and other questions. |
AI 事務局は、この問題やその他の問題に取り組む科学研究プロジェクトを現在進行中の欧州委員会の共同研究センターからの知見を参考にし、汎用 AI モデルが、システムリスクのある汎用 AI モデルとしてどのように分類されるかについて、さらに明確化を行う予定である。 |
| What is a provider of a general-purpose AI model? |
汎用 AI モデルのプロバイダとは何か? |
| The AI Act rules on general-purpose AI models apply to providers placing such models on the market in the Union, irrespective of whether those providers are established or located within the Union or in a third country (Article 2(1)(a) AI Act). |
汎用 AI モデルに関する AI 法の規定は、そのプロバイダが EU 域内に設立または所在するか、あるいは第三国に設立または所在するかに関わらず、EU 域内でそのようなモデルを上市するプロバイダに適用されます(AI 法第 2 条(1)(a))。 |
| A provider of a general-purpose AI model means a natural or legal person, public authority, agency or other body that develops a general-purpose AI model or that has such a model developed and places it on the market, whether for payment or free or charge (Article 3(3) AI Act). |
汎用 AI モデルのプロバイダとは、汎用 AI モデルを開発する、またはその開発を委託し、有償または無償で上市する自然人、法人、公的機関、機関、その他の団体をいう(AI 法第 3 条(3))。 |
| To place a model on the market means the first making available of the model on the Union market (Article 3(9) AI Act), that is, to supply it for distribution or use on the Union market for the first time in the course of a commercial activity, whether in return for payment or free of charge (Article 3(10) AI Act). Note that a general-purpose AI model is also considered to be placed on the market if that model’s provider integrates the model into its own AI system which is made available on the market or put into service, unless the model is (a) used for purely internal processes that are not essential for providing a product or a service to third parties, (b) the rights of natural persons are not affected, and (c) the model is not a general-purpose AI model with systemic risk (recital 97 AI Act). |
モデルを市場に上市とは、そのモデルを EU 市場で初めて入手可能にすることをいう(AI 法第 3 条(9))。つまり、有償または無償を問わず、商業活動において EU 市場で流通または使用するために、そのモデルを初めて供給することをいう(AI 法第 3 条(10))。なお、汎用 AI モデルは、そのモデルの提供者が、市場で入手可能または使用可能な自社の AI システムに当該モデルを統合した場合も、上市されたものとみなされます。ただし、以下の条件を満たす場合を除きます。(a) サードパーティに製品またはサービスを提供するために不可欠ではない、純粋に内部的なプロセスに使用されている場合 (b) 自然人の権利が影響を受けない場合、および(c) モデルが、システムリスクを伴う汎用 AI モデルではない場合(AI 法前文 97)。 |
| What are the obligations for providers of general-purpose AI models? |
汎用 AI モデルのプロバイダにはどのような義務があるか? |
| Providers of general-purpose AI models must document technical information about their models for the purpose of providing that information upon request to the AI Office and national competent authorities (Article 53(1)(a) AI Act) and making it available to downstream providers (Article 53(1)(b) AI Act). They must also put in place a policy to comply with Union law on copyright and related rights (Article 53(1)(c) AI Act) and draw up and make publicly available a sufficiently detailed summary about the content used for training the model (Article 53(1)(d) AI Act). |
汎用 AI モデルのプロバイダは、AI 事務局および各国の管轄当局からの要請に応じてその情報を提供するため(AI 法第 53 条(1)(a))、また下流のプロバイダが利用できるようにするため(AI 法第 53 条(1)(b))、そのモデルに関する技術情報を文書化しなければならない。また、著作権および関連する権利に関する連合法令に準拠するためのポリシーを策定し(AI法53条1項(c))、モデルの訓練に使用されたコンテンツに関する十分な詳細な要約を作成し、公開しなければならない(AI法53条1項(d))。 |
| The General-Purpose AI Code of Practice should provide signatories with further detail on how to ensure compliance with these obligations in the sections dealing with transparency and copyright (led by Working Group 1). |
汎用 AI 実践規範は、透明性および著作権に関するセクション(ワーキンググループ 1 が主導)において、これらの義務の遵守を確保する方法について、署名者にさらに詳細な情報を提供すべきである。 |
| Under the AI Act, providers of general-purpose AI models with systemic risk have additional obligations. They must assess and mitigate systemic risks, in particular by performing model evaluations, keeping track of, documenting, and reporting serious incidents, and ensuring adequate cybersecurity protection for the model and its physical infrastructure (Article 55 AI Act). |
AI 法に基づき、システミックリスクのある汎用 AI モデルのプロバイダには追加の義務が課せられる。彼らは、特に、モデル評価の実施、重大なインシデントの追跡、文書化、報告、およびモデルとその物理的インフラストラクチャの適切なサイバーセキュリティ保護の確保により、システミックリスクを評価し、緩和しなければならない(AI 法第 55 条)。 |
| The General-Purpose AI Code of Practice should provide signatories with further detail on how to ensure compliance with these obligations in the sections dealing with systemic risk assessment, technical risk mitigation, and governance risk mitigation (led by Working Groups 2, 3, and 4 respectively). |
汎用 AI 実践規範は、システミックリスクの評価、技術的リスクの緩和、およびガバナンスリスクの緩和に関するセクション(それぞれワーキンググループ 2、3、4 が主導)において、これらの義務の遵守を確保する方法について、署名者にさらなる詳細情報を提供すべきである。 |
| The obligations for providers of general-purpose AI models apply from 2 August 2025 (Article 113(b) AI Act), with special rules for general-purpose AI models placed on the market before that date (Article 111(3)) AI Act. |
汎用 AI モデルのプロバイダに対する義務は、2025 年 8 月 2 日から適用される(AI 法第 113 条(b))。ただし、その日付より前に上市された汎用 AI モデルについては、特別規則が適用される(AI 法第 111 条(3))。 |
| What if someone open-sources a model, do they have to comply with the obligations for providers of general-purpose AI models? |
誰かがモデルをオープンソース化した場合、その人は汎用 AI モデルのプロバイダに対する義務を遵守しなければならないのか? |
| The obligations to draw up and provide documentation to the AI Office, national competent authorities, and downstream providers (Article 53(1)(a) and (b) AI Act) do not apply if the model is released under a free and open-source license and its parameters, including the weights, the information on the model architecture, and the information on model usage, are made publicly available (Article 53(2) AI Act). Recitals 102 and 103 AI Act further clarify what constitutes a free and open-source license and the AI Office intends to provide further clarifications on questions concerning open-sourcing general-purpose AI models. |
AI 事務局、国の管轄当局、および下流プロバイダに対して文書を作成し、提供するという義務(AI 法第 53 条(1)(a)および(b))は、モデルがフリーでオープンソースのライセンスに基づいて公開され、そのパラメータ(重み、モデルアーキテクチャに関する情報、モデル使用に関する情報など)が一般に公開されている場合には適用されない(AI 法第 53 条(2))。AI 法前文 102 項および 103 項では、フリーでオープンソースのライセンスとは何であるかをさらに明確化しており、AI 事務局は、汎用 AI モデルのオープンソース化に関する質問について、さらに明確化を図る予定である。 |
| The exemption does not apply to general-purpose AI models with systemic risk. After the open-source model release, measures necessary to ensure compliance with the obligations of Article 55 may be more difficult to implement (Recital 112 AI Act). Consequently, providers of general-purpose AI models with systemic risk may need to assess and mitigate systemic risks before releasing their models as open-source. |
この適用除外は、システミックリスクのある汎用 AI モデルには適用されない。オープンソースモデルがリリースされた後、第 55 条の義務を確実に遵守するために必要な措置の実施がより困難になる可能性がある(AI 法前文 112)。したがって、システミックリスクのある汎用 AI モデルのプロバイダは、モデルをオープンソースとしてリリースする前に、システミックリスクを評価し、緩和する必要があるかもしれない。 |
| The General-Purpose AI Code of Practice should provide signatories with further detail on how to comply with the obligations in Articles 53 and 55 in relation to the different ways of releasing general-purpose AI models, including open-sourcing. |
汎用 AI 実践規範は、オープンソース化を含む汎用 AI モデルのさまざまな公開方法に関して、第 53 条および第 55 条に定める義務を遵守する方法について、署名者にさらに詳細な情報を提供すべきである。 |
| An important but difficult question underpinning the process of drawing up the Code of Practice is that of finding a balance between pursuing the benefits and mitigating the risks from the open-sourcing of advanced general-purpose AI models: open-sourcing advanced general-purpose AI models may indeed yield significant societal benefits, including through fostering AI safety research; at the same time, when such models are open-sourced, risk mitigations are more easily circumvented or removed. |
実践規範の策定プロセスにおける重要かつ困難な課題は、高度な汎用 AI モデルのオープンソース化によるメリットの追求とリスクの緩和とのバランスを見出すことである。高度な汎用 AI モデルをオープンソース化することで、AI の安全性に関する研究の推進など、社会的に大きなメリットが得られる可能性がある一方で、こうしたモデルがオープンソース化されると、リスクの緩和策が回避されたり、無効化されたりする可能性が高まる。 |
| Do the obligations for providers of general-purpose AI models apply in the development phase? |
汎用 AI モデルのプロバイダに対する義務は、開発段階にも適用されるのか? |
| Article 2(8) AI Act provides that, as a general matter, the AI Act “does not apply to any research, testing or development activity regarding AI systems or AI models prior to their being placed on the market or put into service.” |
AI 法第 2 条(8) は、AI 法は、原則として、「AI システムまたは AI モデルが上市または使用開始される前の、AI システムまたは AI モデルに関する研究、試験、開発活動には適用されない」と規定している。 |
| At the same time, certain obligations for providers of general-purpose AI models (with and without systemic risk) explicitly or implicitly pertain to the development phase of models intended for, but prior to, the placing on the market. This is the case, for example, for the obligations for providers to notify the Commission that their general-purpose AI model meets or will meet the training compute threshold (Articles 51 and 52 AI Act), to document information about training and testing (Article 53 AI Act), and to assess and mitigate systemic risk (Article 55 AI Act). In particular, Article 55(1)(b) AI Act explicitly provides that “providers of general-purpose AI models with systemic risk shall assess and mitigate possible systemic risks at Union level, including their sources, that may stem from the development (...) of general-purpose AI models with systemic risk. |
同時に、汎用 AI モデル(システミックリスクの有無を問わず)のプロバイダに対する一定の義務は、上市前のモデルの開発段階にも明示的または黙示的に適用される。例えば、プロバイダは、汎用 AI モデルがトレーニング計算のしきい値を満たしているか、または満たす予定であることを委員会に通知する義務(AI 法第 51 条および第 52 条)、トレーニングおよびテストに関する情報を文書化する義務(AI 法第 53 条)、およびシステミックリスクを評価し、緩和する義務(AI 法第 55 条)がある。特に、AI 法第 55 条 (1) (b) は、「システミックリスクのある汎用 AI モデルのプロバイダは、システミックリスクのある汎用 AI モデルの開発から生じる可能性のある、その発生源を含む、EU レベルでのシステミックリスクを評価し、緩和しなければならない」と明示的に規定している。 |
| The AI Office expects discussions with providers of general-purpose AI models with systemic risk to start early in the development phase. This is consistent with the obligation for providers of general-purpose AI models that meet the training compute threshold laid down in Article 51(2) AI Act to “notify the Commission without delay and in any event within two weeks after that requirement is met or it becomes known that it will be met” (Article 52(1) AI Act). Indeed, training of general-purpose AI models takes considerable planning, which includes the upfront allocation of compute resources, and providers of general-purpose AI models are therefore able to know if their model will meet the training compute threshold before the training is complete (recital 112 AI Act). |
AI 事務局は、開発段階の早い段階で、システムリスクのある汎用 AI モデルのプロバイダとの協議を開始することを期待している。これは、AI 法第 51 条(2)で規定されているトレーニング計算のしきい値を満たす汎用 AI モデルのプロバイダが、「その要件を満たした、またはその要件を満たすことが判明した場合は、遅滞なく、かつ、いかなる場合でもその要件を満たしてから 2 週間以内に、欧州委員会に通知する」という義務と一致している(AI 法第 52 条(1))。実際、汎用 AI モデルのトレーニングには、計算リソースの事前割り当てなど、かなりの計画が必要であり、汎用 AI モデルのプロバイダは、トレーニングが完了する前に、そのモデルがトレーニング計算のしきい値を満たすかどうかを知ることができる(AI 法前文 112)。 |
| The AI Office intends to provide further clarifications on this question. |
AI 事務局は、この問題についてさらに明確化を行う予定である。 |
| If someone fine-tunes or otherwise modifies a model, do they have to comply with the obligations for providers of general-purpose AI models? |
モデルを微調整またはその他の方法で変更した場合、汎用 AI モデルのプロバイダとしての義務を遵守しなければならないか? |
| General-purpose AI models may be further modified or fine-tuned into new models (recital 97 AI Act). Accordingly, downstream entities that fine-tune or otherwise modify an existing general-purpose AI model may become providers of new models. The specific circumstances in which a downstream entity becomes a provider of a new model is a difficult question with potentially large economic implications, since many organisations and individuals fine-tune or otherwise modify general-purpose AI models developed by another entity. |
汎用 AI モデルは、さらに変更または微調整して新しいモデルにすることができる(AI 法前文 97)。したがって、既存の汎用 AI モデルを微調整またはその他の方法で変更する下流事業体は、新しいモデルのプロバイダとなる可能性がある。下流事業体が新しいモデルのプロバイダとなる具体的な状況は、多くの組織や個人が他の事業体が開発した汎用 AI モデルを微調整またはその他の方法で変更しているため、経済的に大きな影響をもたらす可能性のある難しい問題である。 |
| In the case of a modification or fine-tuning of an existing general-purpose AI model, the obligations for providers of general-purpose AI models in Article 53 AI Act should be limited to the modification or fine-tuning, for example, by complementing the already existing technical documentation with information on the modifications (Recital 109). The obligations for providers of general-purpose AI models with systemic risk in Article 55 AI Act should only apply in clearly specified cases. The AI Office intends to provide further clarifications on this question. |
既存の汎用 AI モデルを変更または微調整する場合、AI 法第 53 条における汎用 AI モデルのプロバイダの義務は、例えば、既存の技術文書に変更に関する情報を追加するなど、その変更または微調整に限定すべきである。(前文 109)。AI 法第 55 条における、システミックリスクを伴う汎用 AI モデルのプロバイダの義務は、明確に規定された場合にのみ適用されるべきである。AI 事務局は、この問題についてさらに明確化を図る予定である。 |
| Regardless of whether a downstream entity that incorporates a general-purpose AI model into an AI system is deemed to be a provider of the general-purpose AI model, that entity must comply with the relevant AI Act requirements and obligations for AI systems. |
汎用 AI モデルを AI システムに組み込む下流の事業体が、汎用 AI モデルのプロバイダとみなされるかどうかに関わらず、その事業体は、AI 法における AI システムに関する要件および義務を遵守しなければならない。 |
| What is the General-Purpose AI Code of Practice? |
汎用 AI 実践規範とは何か? |
| Based on Article 56 of the AI Act, the General-Purpose AI Code of Practice should detail the manner in which providers of general-purpose AI models and of general-purpose AI models with systemic risk may comply with their obligations under the AI Act. The AI Office is facilitating the drawing-up of this Code of Practice, with four working groups chaired by independent experts and involving nearly 1000 stakeholders, EU Member States representatives, as well as European and international observers. |
AI 法第 56 条に基づき、汎用 AI 実践規範は、汎用 AI モデルおよびシステムリスクを伴う汎用 AI モデルのプロバイダが AI 法に基づく義務を遵守する方法を詳細に規定するものとする。AI 事務局は、独立した専門家が議長を務める 4 つの作業部会と、1000 人近くの利害関係者、EU 加盟国の代表者、欧州および国際的なオブザーバーが参加して、この規範の策定を推進している。 |
| More precisely, the Code of Practice should detail at least how providers of general-purpose AI models may comply with the obligations laid down in Articles 53 and 55 AI Act. This means that the Code of Practice can be expected to have two parts: one that applies to providers of all general-purpose AI models (Article 53), and one that applies only to providers of general-purpose AI models with systemic risk (Article 55). |
より正確には、実践規範には、汎用 AI モデルの提供者が AI 法第 53 条および第 55 条に規定される義務をどのように遵守すべきかを、少なくとも詳細に規定すべきである。つまり、実践規範は 2 つの部分で構成されることが予想されます。1 つは、すべての汎用 AI モデルのプロバイダに適用される部分(第 53 条)、もう 1 つは、システムリスクのある汎用 AI モデルのプロバイダにのみ適用される部分(第 55 条)です。 |
| What is not part of the Code of Practice? |
実践規範には何が含まれないのか? |
| The Code of Practice should not address inter alia the following issues: defining key concepts and definitions from the AI Act (such as “general-purpose AI model”), updating the criteria or thresholds for classifying a general-purpose AI model as a general-purpose AI model with systemic risk (Article 51), outlining how the AI Office will enforce the obligations for providers of general-purpose AI models (Chapter IX Section 5), and questions concerning fines, sanctions, and liability. |
実践規範は、とりわけ以下の事項については扱わないものとする。AI 法における重要な概念や定義(「汎用 AI モデル」など)の定義、汎用 AI モデルをシステムリスクのある汎用 AI モデルとして分類するための規準や閾値の更新(第 51 条)、AI 事務局が汎用 AI モデルのプロバイダに対する義務をどのように執行するかについての概要(第 IX 章第 5 節)、罰金、制裁、責任に関する問題。 |
| These issues may instead be addressed through other means (decisions, delegated acts, implementing acts, further communications from the AI Office, etc.). |
これらの事項は、他の手段(決定、委任行為、実施行為、AI 事務局からのさらなるコミュニケーションなど)によって対処することができる。 |
| Nevertheless, the Code of Practice may include commitments by providers of general-purpose AI models that sign the Code to document and report additional information, as well as to involve the AI Office and third parties throughout the entire model lifecycle, in so far as this is considered necessary for providers to effectively comply with their obligations under the AI Act. |
ただし、実践規範には、AI 法に基づく義務を効果的に遵守するために必要と認められる限り、実践規範に署名する汎用 AI モデルの提供者が、追加情報を文書化し報告すること、およびモデルのライフサイクル全体を通じて AI 事務局およびサードパーティを関与させることを約束する条項を含めることができる。 |
| Do AI systems play a role in the Code of Practice? |
AI システムは実践規範において何らかの役割を果たすのか? |
| The AI Act distinguishes between AI systems and AI models, imposing requirements for certain AI systems (Chapters II-IV) and obligations for providers of general-purpose AI models (Chapter V). While the provisions of the AI Act concerning AI systems depend on the context of use of the system, the provisions of the AI Act concerning general-purpose AI models apply to the model itself, regardless of what is or will be its ultimate use. The Code of Practice should only pertain to the obligations in the AI Act for providers of general-purpose AI models. |
AI 法は、AI システムと AI モデルを区別し、特定の AI システムに要件(第 II 章から第 IV 章)を課し、汎用 AI モデルのプロバイダに義務を課している (第 V 章)を規定している。AI 法における AI システムに関する規定は、システムの使用状況に応じて適用されるが、汎用 AI モデルに関する規定は、その最終的な使用目的にかかわらず、モデル自体に適用される。実践規範は、汎用 AI モデルのプロバイダに対する AI 法の義務のみに関係する。 |
| Nevertheless, there are interactions between the two sets of rules, as general-purpose AI models are typically integrated into and form part of AI systems. If a provider of a general-purpose AI model integrates that model into an AI system, that provider must comply with the obligations for providers of general-purpose AI models and, if the AI system falls within the scope of the AI Act, with the requirements for AI systems. If a downstream provider integrates a general-purpose AI model into an AI system, the provider of the general-purpose AI model must cooperate with the downstream provider of the AI system to ensure that the latter can comply with its obligations under the AI Act if the AI system falls within the scope of the AI Act (for example by providing certain information to the downstream provider). |
ただし、汎用 AI モデルは通常 AI システムに統合され、その一部を構成するため、2 つの規則セット間には相互作用がある。汎用 AI モデルの提供者がそのモデルを AI システムに統合する場合、その提供者は、汎用 AI モデルの提供者に課せられる義務、および AI システムが AI 法の適用範囲に該当する場合には AI システムに関する要件を遵守しなければならない。下流のプロバイダが汎用 AI モデルを AI システムに統合する場合、 AI システムが AI 法の適用範囲に該当する場合には、汎用 AI モデルの提供者は、AI システムのダウンストリームプロバイダが AI 法に基づく義務を確実に遵守できるよう、AI システムのダウンストリームプロバイダと協力しなければならない (例えば、下流のプロバイダに特定の情報を提供するなど)。 |
| Given these interactions between models and systems, and between the obligations and requirements for each, an important question underlying the Code of Practice concerns which measures are appropriate at the model layer, and which need to be taken at the system layer instead. |
モデルとシステム、およびそれぞれの義務と要件の間にこのような相互作用があることから、実践規範の根底にある重要な問題は、モデル層で適切な措置はどれか、そしてシステム層で講じるべき措置はどれかということだ。 |
| How does the Code of Practice take into account the needs of start-ups? |
実践規範は、スタートアップのニーズをどのように考慮しているか? |
| The Code of Practice should set out its objectives, commitments, measures and, as appropriate, key performance indicators (KPIs) to measure the achievement of its objectives. Commitments, measures and KPIs related to the obligations applicable to providers of all general-purpose AI models should take due account of the size of the provider and allow simplified ways of compliance for SMEs, including start-ups, that should not represent an excessive cost and not discourage the use of such models (Recital 109 AI Act). Moreover, the reporting commitments related to the obligations applicable to providers of general-purpose AI models with systemic risk should reflect differences in size and capacity between various providers (Article 56(5) AI Act), while ensuring that they are proportionate to the risks (Article 56(2)(d) AI Act). |
実践規範は、その目的、コミットメント、措置、および必要に応じて、その目的達成度を測定するための主要業績評価指標(KPI)を定めるべきである。すべての汎用 AI モデルのプロバイダに適用される義務に関連するコミットメント、措置、および KPI は、プロバイダの規模を十分に考慮し、スタートアップを含む中小企業に対して、過度のコストを課すことなく、またそのようなモデルの使用を妨げるようなことのない、簡素化された遵守方法を認めるべきである(AI 法前文 109)。さらに、システミックリスクのある汎用 AI モデルのプロバイダに適用される義務に関する報告のコミットメントは、さまざまなプロバイダの規模や能力の違いを反映するとともに、リスクに見合ったものであることを確保すべきである(AI 法第 56 条(5))。 |
| When will the Code of Practice be finalised? |
実践規範はいつ確定するのか? |
| After the publication of the third draft of the Code of Practice, it is expected that there will be one more drafting round over the coming months. Thirteen Chairs and Vice-Chairs, drawn from diverse backgrounds in computer science, AI governance and law, are responsible for synthesizing submissions from a multi-stakeholder consultation and discussions with the Code of Practice Plenary consisting of around 1000 stakeholders. This iterative process will lead to a final Code of Practice which should reflect the various submissions whilst ensuring an appropriate reflection of how to comply with the AI Act. |
実践規範の 3 番目のドラフトが公表された後、今後数カ月にわたってさらに 1 回、草案の策定作業が行われる予定である。コンピュータサイエンス、AI ガバナンス、法律などのさまざまな分野から選ばれた 13 人の議長および副議長が、多国間協議で寄せられた意見や、約 1000 人の利害関係者で構成される実践規範総会での議論をまとめます。この反復プロセスを経て、さまざまな意見が反映され、AI 法への遵守方法を適切に反映した最終的な実践規範が策定される予定である。 |
| Based on Article 56(9), “codes of practice shall be ready at the latest by 2 May 2025” in order to give providers sufficient time before the GPAI rules become applicable on 2 August 2025. |
第 56 条 (9) 項に基づき、「実践規範は、GPAI 規則が 2025 年 8 月 2 日に適用されるまでに、プロバイダに十分な時間を確保するため、2025 年 5 月 2 日までに策定される」ことになっている。 |
| Once the Code is finalised “the AI Office and the Board shall assess whether the codes of practice cover the obligations provided for in Articles 53 and 55 (...). They shall publish their assessment of the adequacy of the codes of practice. The Commission may, by way of an implementing act, approve a code of practice and give it a general validity within the Union.” (Article 56(6) AI Act). |
実践規範が確定すると、「AI 事務局および委員会は、実践規範が第 53 条および第 55 条で規定される義務を網羅しているかどうかを評価する。彼らは、実践規範の妥当性に関する評価を公表する。委員会は、実施法によって、実践規範を承認し、EU 域内でその一般的有効性を付与することができる」と規定されている(AI 法第 56 条(6))。 |
| What are the legal effects of the Code of Practice? |
実践規範の法的効力とは何か? |
| If approved via implementing act, the Code of Practice obtains general validity, meaning that adherence to the Code of Practice becomes a means to demonstrate compliance with the AI Act, while not providing a presumption of conformity with the AI Act. Providers may also demonstrate compliance with the AI Act in other ways. In that case, providers would be expected to adopt measures to ensure compliance with their AI Act obligations that are adequate, effective, and proportionate, and which may include reporting to the AI Office. |
実施法令により承認された場合、実践規範は一般的な効力を有することになり、実践規範の遵守は AI 法への準拠を示す手段となるが、AI 法への準拠を推定するものではない。プロバイダは、他の方法でも AI 法への準拠を証明することができる。その場合、プロバイダは、AI 法に基づく義務を遵守するために、適切かつ効果的かつ均衡のとれた措置を講じることを期待される。その措置には、AI 事務局への報告も含まれる。 |
| Based on the AI Act, additional legal effects of the Code of Practice are that the AI Office may take a provider’s adherence to the Code of Practice into account when monitoring its effective implementation and compliance with the AI Act (Article 89(1) AI Act) and may favourably take into account commitments made in the Code of Practice when fixing the amount of fines depending on the specific circumstances (Article 101(1) AI Act). |
AI 法に基づき、実践規範の追加的な法的効果としては、AI 事務局が、その効果的な実施および AI 法への遵守を監視する際に、プロバイダの実践規範の遵守を考慮することができる(AI 法第 89 条(1))、および特定の状況に応じて罰金の額を決定する際に、実践規範におけるコミットメントを有利に考慮することができる(AI 法第 101 条(1))ことが挙げられる。 |
| Finally, “If, by 2 August 2025, a code of practice cannot be finalised, or if the AI Office deems it is not adequate following its assessment under paragraph 6 of this Article, the Commission may provide, by means of implementing acts, common rules for the implementation of the obligations provided for in Articles 53 and 55, including the issues set out in paragraph 2 of this Article.” (Article 56(9) AI Act). |
最後に、「2025 年 8 月 2 日までに実践規範が確定できない場合、または AI 事務局が本条第 6 項に基づくアセスメントの結果、実践規範が適切でないと判断した場合、委員会は、実施法令により、本条第 2 項で規定する事項を含む、第 53 条および第 55 条に規定する義務の実施に関する共通規則を定めることができる」と規定されている。(AI 法第 56 条(9))。 |
| How will the Code of Practice be reviewed and updated? |
実践規範はどのように見直され、更新されるのか? |
| Based on Article 56(8) AI Act, “the AI Office shall, as appropriate, also encourage and facilitate the review and adaptation of the codes of practice, in particular in light of emerging standards”. The third draft of the Code of Practice includes a suggested mechanism for its review and updating. |
AI 法第 56 条(8)に基づき、「AI 事務局は、必要に応じて、特に新たな標準の出現を踏まえて、実践規範の見直しと適応を奨励し、促進するものとする」。実践規範の 3 番目のドラフトには、その見直しと更新のための仕組み案が含まれている。 |
| Which enforcement powers does the AI Office have? |
AI 事務局にはどのような執行権限があるか? |
| The AI Office will supervise and enforce the obligations laid down in the AI Act for providers of general-purpose AI models (Article 88 AI Act) and, exceptionally, the obligations for providers of AI systems based on general purpose AI models if the provider of the model and the system are the same (Article 75, (1) AI Act). The AI Office will support the relevant market surveillance authorities of the Member States in their enforcement of the requirements for AI systems (Article 75 (2) and (3) AI Act), among other tasks. Enforcement by the AI Office is underpinned by the powers given to it by the AI Act, namely the powers to request information (Article 91 AI Act), conduct evaluations of general-purpose AI models (Article 92 AI Act), request measures from providers, including implementing risk mitigations, and recalling the model from the market (Article 93 AI Act), and to impose fines of up to 3% of global annual turnover or 15 million Euros, whichever is higher (Article 101 AI Act). |
AI 事務局は、汎用 AI モデルの提供者に AI 法で定められた義務の監督および執行を行う(AI 法第 88 条)。また、例外的に、モデルとシステムの提供者が同一である場合は、汎用 AI モデルに基づく AI システムの提供者に義務の監督および執行を行う(AI 法第 75 条(1))。AI 事務局は、加盟国の関連市場監視当局が AI システムに関する要件を執行する支援を行う(AI 法第 75 条(2)および(3))。AI 事務局による執行は、AI 法により AI 事務局に付与された権限、すなわち、情報要求権限 (AI 法第 91 条)、汎用 AI モデルの評価(AI 法第 92 条)、プロバイダに対するリスクの緩和措置の実施や市場からのモデルの回収などの措置の要請(AI 法第 93 条)、および世界全体の年間売上高の 3% または 1,500 万ユーロのうちいずれか高い方の罰金の賦課(AI 法第 101 条)である。 |
Recent Comments