欧州委員会 AI法における汎用AIモデル - Q&A (2024.11.20)
こんにちは、丸山満彦です。
欧州委員会が、AI法における汎用AIモデル - Q&Aを公表しています。今後追加等されていくのでしょうかね...
欧州AI法の理解を深めるにはよいかもですね...
・2024.11.20 General-Purpose AI Models in the AI Act – Questions & Answers
General-Purpose AI Models in the AI Act – Questions & Answers | AI法における汎用AIモデル - Q&A |
The AI Office is facilitating the interpretation of certain provisions of the AI Act with this dedicated Q&A. | AI事務局は、この専用Q&Aにより、AI法の特定条項の解釈を促進している。 |
Note that only EU Courts can interpret the AI Act. | なお、AI法を解釈できるのはEU裁判所のみである。 |
General FAQ | 一般的なFAQ |
Why do we need rules for general-purpose AI models? | なぜ汎用AIモデルのルールが必要なのか? |
AI promises huge benefits to our economy and society. General-purpose AI models play an important role in that regard, as they can be used for a variety of tasks and therefore form the basis for a range of downstream AI systems, used in Europe and worldwide . | AIは、経済や社会に大きな利益をもたらすことが期待されている。汎用AIモデルは、さまざまなタスクに使用できるため、欧州をはじめ世界中で使用されているさまざまな下流のAIシステムの基礎となり、その点で重要な役割を果たしている。 |
The AI Act aims to ensure that general-purpose AI models are safe and trustworthy. | AI法は、汎用AIモデルの安全性と信頼性を確保することを目的としている。 |
To achieve that aim, it is crucial that providers of general-purpose AI models possess a good understanding of their models along the entire AI value chain, both to enable the integration of such models into downstream AI systems and to fulfil their obligations under the AI Act. As explained in more detail below, providers of general-purpose AI models must draw up and provide technical documentation of their models to the AI Office and downstream providers, must put in place a copyright policy, and must publish a training content summary. In addition, providers of general-purpose AI models posing systemic risks, which may be the case either because they are very capable or because they have a significant impact on the internal market for other reasons, must notify the Commission, assess and mitigate systemic risks, perform model evaluations, report serious incidents, and ensure adequate cybersecurity of their models. | その目的を達成するためには、汎用AIモデルのプロバイダが、そのモデルを下流のAIシステムに統合できるようにするため、またAI法に基づく義務を果たすために、AIのバリューチェーン全体を通じて、そのモデルについて十分な理解を持つことが極めて重要である。以下に詳しく説明するように、汎用AIモデルのプロバイダは、そのモデルの技術文書を作成し、AI事務局や川下プロバイダに提供しなければならず、著作権ポリシーを定め、トレーニング内容の概要を公表しなければならない。さらに、システミック・リスクをもたらす汎用AIモデルのプロバイダは、その能力が非常に高いためか、あるいはその他の理由で域内市場に重大な影響を与えるためか、欧州委員会に通知し、システミック・リスクをアセスメントし緩和し、モデル評価を実施し、重大なインシデントを報告し、モデルの適切なサイバーセキュリティを確保しなければならない。 |
In this way, the AI Act contributes to safe and trustworthy innovation in Europe. | このように、AI法は欧州における安全で信頼できるイノベーションに貢献している。 |
What are general-purpose AI models? | 汎用AIモデルとは何か? |
The AI Act defines a general-purpose AI model as “an AI model, including where such an AI model is trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable of competently performing a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications” (Article 3(63)). | AI法は、汎用AIモデルを「大規模な自己監視を使用して大量のデータで学習される場合を含め、有意な汎用性を示し、モデルが上市される方法に関係なく広範で明確なタスクを適切に実行でき、様々な下流のシステムやアプリケーションに統合できるAIモデル」と定義している(第3条63項)。 |
The Recitals to the AI Act further clarify which models should be deemed to display significant generality and to be capable of performing a wide range of distinct tasks. | AI法の前文では、どのようなモデルが重要な汎用性を示し、広範で明確なタスクを実行できるとみなされるべきかをさらに明確にしている。 |
According to Recital 98, “whereas the generality of a model could, inter alia, also be determined by a number of parameters, models with at least a billion of parameters and trained with a large amount of data using self-supervision at scale should be considered to display significant generality and to competently perform a wide range of distinctive tasks.” | 前文98によれば、「モデルの汎用性は、特に、パラメータの数によっても決定され得るが、少なくとも10億個のパラメータを有し、大規模な自己監視を使用して大量のデータで訓練されたモデルは、有意な汎用性を示し、広範囲の特徴的なタスクを有能に実行するとみなされるべきである」。 |
Recital 99 adds that “large generative AI models are a typical example for a general-purpose AI model, given that they allow for flexible generation of content, such as in the form of text, audio, images or video, that can readily accommodate a wide range of distinctive tasks.” | 前文99は、「大規模な生成的AIモデルは、テキスト、音声、画像、映像などのコンテンツの柔軟な生成を可能にし、幅広い特徴的なタスクに容易に対応できることから、汎用AIモデルの典型的な例である 」と付け加えている。 |
Note that significant generality and ability to competently perform a wide range of distinctive tasks may be achieved by models within a single modality, such as text, audio, images, or video, if the modality is flexible enough. This may also be achieved by models that were developed, fine-tuned, or otherwise modified to be particularly good at a specific task. | モダリティが十分に柔軟であれば、テキスト、音声、画像、動画など、単一のモダリティ内のモデルによって、重要な汎用性と幅広い特徴的なタスクを有能に実行する能力が達成される可能性があることに留意されたい。また、特定のタスクを特に得意とするように開発、微調整、またはその他の方法で修正されたモデルによって達成される場合もある。 |
The AI Office intends to provide further clarifications on what should be considered a general-purpose AI model, drawing on insights from the Commission’s Joint Research Centre, which is currently working on a scientific research project addressing this and other questions. | AI室は、現在、この問題やその他の問題に取り組む科学的研究プロジェクトに取り組んでいる欧州委員会の共同研究センターからの知見を活用しながら、何が汎用AIモデルとみなされるべきかについて、さらに明確にしていくつもりである。 |
What are general-purpose AI models with systemic risk? | システミック・リスクを伴う汎用AIモデルとは何か? |
Systemic risks are risks of large-scale harm from the most advanced (i.e. state-of-the-art) models at any given point in time or from other models that have an equivalent impact (see Article 3(65)). Such risks can manifest themselves, for example, through the lowering of barriers for chemical or biological weapons development, unintended issues of control over autonomous general-purpose AI models, or harmful discrimination or disinformation at scale (Recital 110). The most advanced models at any given point in time may pose systemic risks, including novel risks, as they are pushing the state of the art. At the same time, some models below the threshold reflecting the state of the art may also pose systemic risks, for example, through reach, scalability, or scaffolding. | システミックリスクとは、ある時点で最も先進的な(すなわち最先端の)モデル、あるいは同等の影響を及ぼす他のモデルから、大規模な被害が発生するリスクのことである(第3条65項参照)。このようなリスクは、例えば、化学兵器や生物兵器の開発障壁の低下、自律型汎用AIモデルの制御に関する意図せざる問題、あるいは規模に応じた有害な識別や偽情報を通じて顕在化する可能性がある(前文110)。ある時点で最も先進的なモデルは、最先端の技術を押し進めるため、新規リスクを含むシステミック・リスクを引き起こす可能性がある。同時に、最先端技術を反映する閾値以下のモデルも、例えば、リーチ、拡張性、足場によって、システミック・リスクをもたらす可能性がある。 |
Accordingly, the AI Act classifies a general-purpose AI model as a general-purpose AI model with systemic risk if it is one of the most advanced models at that point in time or if it has an equivalent impact (Article 51(1)). Which models are considered general-purpose AI models with systemic risk may change over time, reflecting the evolving state of the art and potential societal adaptation to increasingly advanced models. Currently, general-purpose AI models with systemic risk are developed by a handful of companies, although this may also change over time. | 従って、AI法は、汎用AIモデルが、その時点で最も先進的なモデルの一つである場合、または同等の影響力を有する場合、システミック・リスクを有する汎用AIモデルとして分類している(51条1項)。どのモデルがシステミック・リスクを伴う汎用AIモデルとみなされるかは、進化する技術の状況や、高度化するモデルへの社会の潜在的な適応を反映して、時間の経過とともに変化する可能性がある。現在、システミック・リスクを伴う汎用AIモデルは一握りの企業によって開発されているが、これも時間の経過とともに変化する可能性がある。 |
To capture the most advanced models, the AI Act initially lays down a threshold of 10^25 floating-point operations (FLOP) used for training the model (Article 51(1)(a) and (2)). Training a model that meets this threshold is currently estimated to cost tens of millions of Euros (Epoch AI, 2024). The AI Office will continuously monitor technological and industrial developments and the Commission may update the threshold to ensure that it continues to single out the most advanced models as the state of the art evolves by way of delegated act (Article 51(3)). For example, the value of the threshold itself could be adjusted, and/or additional thresholds introduced. | 最も高度なモデルを捕捉するため、AI法は当初、モデルの訓練に使用する浮動小数点演算(FLOP)の閾値を10^25と定めている(第51条1項(a)および(2))。この閾値を満たすモデルのトレーニングには、現在、数千万ユーロの費用がかかると見積もられている(Epoch AI, 2024)。AI事務局は、技術および産業の発展を継続的に監視し、欧州委員会は、委任法(第51条第3項)により、技術状況の進展に応じて、最先端モデルを選別し続けることができるよう、閾値を更新することができる。例えば、閾値自体の値を調整したり、追加の閾値を導入したりすることができる。 |
To capture models with an impact equivalent to the most advanced models, the AI Act empowers the Commission to designate additional models as posing systemic risk, based on criteria such as number of users, scalability, or access to tools (Article 51(1)(b), Annex XIII). | 最先端モデルと同等の影響力を持つモデルを捕捉するため、AI法は、欧州委員会に対し、ユーザー数、拡張性、ツールへのアクセスなどの規準に基づいて、システミック・リスクをもたらすモデルを追加指定する権限を与えている(第51条1項(b)、附属書XIII)。 |
The AI Office intends to provide further clarifications on how general-purpose AI models will be classified as general-purpose AI models with systemic risk, drawing on insights from the Commission’s Joint Research Centre which is currently working on a scientific research project addressing this and other questions. | AI室は、現在、この問題やその他の問題に取り組む科学的研究プロジェクトに取り組んでいる欧州委員会の共同研究センターからの知見を活用し、汎用AIモデルがシステミック・リスクを有する汎用AIモデルとしてどのように分類されるかについて、さらなる明確化を行う意向である。 |
What is a provider of a general-purpose AI model? | 汎用AIモデルのプロバイダとは何か? |
The AI Act rules on general-purpose AI models apply to providers placing such models on the market in the Union, irrespective of whether those providers are established or located within the Union or in a third country (Article 2(1)(a)). | 汎用AIモデルに関するAI法の規則は、当該モデルを域内で上市するプロバイダに適用され、プロバイダが域内に設立されているか、域内に所在しているか、第三国に所在しているかは問わない(第2条1項a)。 |
A provider of a general-purpose AI model means a natural or legal person, public authority, agency or other body that develops a general-purpose AI model or that has such a model developed and places it on the market, whether for payment or free or charge (Article 3(3)). | 汎用AIモデルのプロバイダとは、汎用AIモデルを開発する、又はそのようなモデルを開発させ、有償であるか無償であるかを問わず、上市する自然人又は法人、公的機関、代理店その他の団体を意味する(第3条(3))。 |
To place a model on the market means to first make it available on the Union market (Article 3(9)), that is, to supply it for distribution or use on the Union market in the course of a commercial activity, whether in return for payment or free of charge (Article 3(10)). Note that a general-purpose AI model is also considered to be placed on the market if that model’s provider integrates the model into its own AI system which is made available on the market or put into service, unless the model is (a) used for purely internal processes that are not essential for providing a product or a service to third parties, (b) the rights of natural persons are not affected, and (c) the model is not a general-purpose AI model with systemic risk (Recital 97). | モデルを上市するとは、まずそれを連合市場で入手可能にすること(3条9項)、すなわち、商業活動の過程において、有償であるか無償であるかを問わず、連合市場で頒布又は使用するためにそれを供給することを意味する(3条10項)。ただし、(a) 製品やサービスを第三者に提供するために不可欠でない純粋な内部処理に使用される場合、(b) 自然人の権利に影響を与えない場合、(c) システミック・リスクを伴う汎用AIモデルでない場合はこの限りではない(前文97)。 |
What are the obligations for providers of general-purpose AI models? | 汎用AIモデルのプロバイダの義務は何か? |
The obligations for providers of general-purpose AI models apply from 2 August 2025 (Article 113(b)), with special rules for general-purpose AI models placed on the market before that date (Article 111(3)). | 汎用AIモデルのプロバイダに対する義務は2025年8月2日から適用され(113条b)、それ以前に上市された汎用AIモデルについては特別規定が設けられている(111条3)。 |
Based on Article 53 of the AI Act, providers of general-purpose AI models must document technical information about the model for the purpose of providing that information upon request to the AI Office and national competent authorities (Article 53(1)(a)) and making it available to downstream providers (Article 53(1)(b)). They must also put in place a policy to comply with Union law on copyright and related rights (Article 53(1)(c)) and draw up and make publicly available a sufficiently detailed summary about the content used for training the model (Article 53(1)(d)). | AI法第53条に基づき、汎用AIモデルのプロバイダは、AI事務局および各国所轄官庁の要求に応じて情報を提供し(第53条第1項(a))、川下プロバイダが利用できるようにする(第53条第1項(b))ことを目的として、モデルに関する技術情報を文書化しなければならない。また、著作権および関連する権利に関する連邦法を遵守するための方針を定め(第53条1項(c))、モデルの訓練に使用されるコンテンツについて十分に詳細な要約を作成し、一般に公開しなければならない(第53条1項(d))。 |
The General-Purpose AI Code of Practice should provide further detail on these obligations in the sections dealing with transparency and copyright (led by Working Group 1). | 汎用AI実施規範は、透明性と著作権を扱うセクション(第1作業部会が主導)において、これらの義務に関するさらなる詳細を提供すべきである。 |
Based on Article 55 of the AI Act, providers of general-purpose AI models with systemic risk have additional obligations. They must assess and mitigate systemic risks, in particular by performing model evaluations, keeping track of, documenting, and reporting serious incidents, and ensuring adequate cybersecurity protection for the model and its physical infrastructure. | AI法第55条に基づき、システミック・リスクを有する汎用AIモデルのプロバイダには、さらなる義務がある。特に、モデル評価の実施、重大インシデントの追跡、文書化、報告、モデルとその物理的インフラに対する適切なサイバーセキュリティ保護の確保によって、システミック・リスクをアセスメントし緩和しなければならない。 |
The General-Purpose AI Code of Practice should provide further detail on these obligations in the sections dealing with systemic risk assessment, technical risk mitigation, and governance risk mitigation (led by Working Groups 2, 3, and 4 respectively). | 汎用AIコード・オブ・プラクティスでは、システミックリスクのアセスメント、テクニカルリスクの緩和、ガバナンスリスクの緩和(それぞれワーキンググループ2、3、4が主導)を扱うセクションで、これらの義務についてさらに詳しく説明する必要がある。 |
If someone open-sources a model, do they have to comply with the obligations for providers of general-purpose AI models? | 誰かがモデルをオープンソース化した場合、彼らは汎用AIモデルのプロバイダに対する義務を遵守しなければならないのか? |
The obligations to draw up and provide documentation to the AI Office, national competent authorities, and downstream providers (Article 53(1)(a) and (b)) do not apply if the model is released under a free and open-source license and its parameters, including the weights, the information on the model architecture, and the information on model usage, are made publicly available. This exemption does not apply to general-purpose AI models with systemic risk (Article 53(2)). Recitals 102 and 103 further clarify what constitutes a free and open-source license and the AI Office intends to provide further clarifications on questions concerning open-sourcing general-purpose AI models. | AI事務局、各国所轄官庁、川下プロバイダに対して文書を作成し提供する義務(第53条(1)(a)及び(b))は、モデルが無償のオープンソースライセンスの下でリリースされ、重み、モデルアーキテクチャに関する情報、モデルの使用状況に関する情報を含むパラメータが一般に公開されている場合には適用されない。この適用除外は、システミック・リスクを伴う汎用AIモデルには適用されない(第53条2項)。前文102および103は、何が無償かつオープンソースのライセンスを構成するかをさらに明確にしており、AI事務局は、汎用AIモデルのオープンソース化に関する疑問について、さらなる明確化を提供する意向である。 |
By contrast, providers of general-purpose AI models with systemic risk must comply with their obligations under the AI Act regardless of whether their models are open-source. After the open-source model release, measures necessary to ensure compliance with the obligations of Articles 53 and 55 may be more difficult to implement (Recital 112). Therefore, providers of general-purpose AI models with systemic risk may need to assess and mitigate systemic risks before releasing their models as open-source. | 一方、システミック・リスクを有する汎用AIモデルのプロバイダは、そのモデルがオープンソースであるか否かにかかわらず、AI法に基づく義務を遵守しなければならない。オープンソースモデル公開後は、第53条および第55条の義務の遵守を確保するために必要な措置を実施することがより困難になる可能性がある(前文112)。したがって、システミック・リスクを伴う汎用AIモデルのプロバイダは、モデルをオープンソースとしてリリースする前に、システミック・リスクをアセスメントし緩和する必要があるかもしれない。 |
The General-Purpose AI Code of Practice should provide further detail on what the obligations in Articles 53 and 55 imply for different ways of releasing general-purpose AI models, including open-sourcing. | 汎用AIコード・オブ・プラクティスは、オープンソースを含む汎用AIモデルのさまざまな公開方法について、第53条と第55条の義務が何を意味するのかについて、さらなる詳細を示すべきである。 |
An important but difficult question underpinning this process is that of finding a balance between pursuing the benefits and mitigating the risks from the open-sourcing of advanced general-purpose AI models: open-sourcing advanced general-purpose AI models may indeed yield significant societal benefits, including through fostering AI safety research; at the same time, when such models are open-sourced, risk mitigations are more easily circumvented or removed. | このプロセスの根底にある重要だが難しい問題は、高度な汎用AIモデルのオープンソース化による利益の追求とリスクの緩和のバランスを見つけることである。高度な汎用AIモデルをオープンソース化することは、AIの安全性研究の促進を含め、確かに大きな社会的利益をもたらすかもしれないが、同時に、そのようなモデルがオープンソース化されると、リスクの緩和が回避または除去されやすくなる。 |
Do the obligations for providers of general-purpose AI models apply in the Research & Development phase? | 汎用AIモデルのプロバイダに対する義務は、研究開発段階でも適用されるのか? |
Article 2(8) specifies that the AI Act “does not apply to any research, testing or development activity regarding AI systems or AI models prior to their being placed on the market or put into service.” | 第2条8項では、AI法は「AIシステムまたはAIモデルが上市または実用化される前の研究、試験または開発活動には適用されない」と規定している。 |
At the same time, many of the obligations for providers of general-purpose AI models (with and without systemic risk) explicitly or implicitly pertain to the Research & Development phase of models intended for but prior to the placing on the market. For example, this is the case for the obligations for providers to notify the Commission that their general-purpose AI model meets or will meet the training compute threshold (Articles 51 and 52), to document information about training and testing (Article 53), and to assess and mitigate systemic risk (Article 55). In particular, Article 55(1)(b) explicitly specifies that “providers of general-purpose AI models with systemic risk shall assess and mitigate possible systemic risks at Union level, including their sources, that may stem from the development (...) of general-purpose AI models with systemic risk.” | 同時に、汎用AIモデル(システミックリスクの有無にかかわらず)のプロバイダに対する義務の多くは、明示的または黙示的に、上市前のモデルの研究開発段階に関係している。例えば、プロバイダが、その汎用AIモデルがトレーニング計算の閾値を満たすこと、または満たす予定であることを欧州委員会に通知する義務(第51条および第52条)、トレーニングおよびテストに関する情報を文書化する義務(第53条)、システミック・リスクを評価し緩和する義務(第55条)がそうである。特に、第55条1項(b)は、「システミック・リスクを伴う汎用AIモデルのプロバイダは、システミック・リスクを伴う汎用AIモデルの開発(...)に起因する可能性のあるシステミック・リスクを、その発生源を含め、連合レベルで評価し緩和しなければならない 」と明示している。 |
In any case, the AI Office expects discussions with providers of general-purpose AI models with systemic risk to start early in the development phase. This is consistent with the obligation for providers of general-purpose AI models that meet the training compute threshold laid down in Article 51(2) to “notify the Commission without delay and in any event within two weeks after that requirement is met or it becomes known that it will be met”(Article 52(1)). Indeed, training of general-purpose AI models takes considerable planning, which includes the upfront allocation of compute resources, and providers of general-purpose AI models are therefore able to know if their model will meet the training compute threshold before the training is complete (Recital 112). | いずれにせよ、AI事務局は、システミック・リスクを伴う汎用AIモデルのプロバイダとの話し合いが、開発段階の早い段階で開始されることを期待している。これは、第51条2項に規定されているトレーニング計算の閾値を満たす汎用AIモデルのプロバイダが、「その要件が満たされた後、または満たされることが判明した後、遅滞なく、いかなる場合にも2週間以内に欧州委員会に通知する」(第52条1項)義務と整合的である。実際、汎用AIモデルのトレーニングには、前もって計算資源を割り当てるなど、かなりの計画が必要であり、そのため、汎用AIモデルのプロバイダは、トレーニングが完了する前に、そのモデルがトレーニング計算量の閾値を満たすかどうかを知ることができる(前文112)。 |
The AI Office intends to provide further clarifications on this question. | AI事務局は、この問題についてさらなる明確化を行う予定である。 |
If someone fine-tunes or otherwise modifies a model, do they have to comply with the obligations for providers of general-purpose AI models? | 誰かがモデルの微調整やその他の変更を行った場合、その人は汎用AIモデルのプロバイダに対する義務を遵守しなければならないのか。 |
General-purpose AI models may be further modified or fine-tuned into new models (Recital 97). Accordingly, downstream entities that fine-tune or otherwise modify an existing general-purpose AI model may become providers of new models. The specific circumstances in which a downstream entity becomes a provider of a new model is a difficult question with potentially large economic implications, as many organisations and individuals fine-tune or otherwise modify general-purpose AI models developed by another entity. The AI Office intends to provide further clarifications on this question. | 汎用AIモデルは、新たなモデルにさらに修正または微調整することができる(前文97)。したがって、既存の汎用AIモデルを微調整またはその他の方法で修正する川下事業体は、新たなモデルのプロバイダになる可能性がある。多くの組織や個人が、他の事業体によって開発された汎用AIモデルを微調整またはその他の方法で修正するため、川下企業が新しいモデルのプロバイダになる具体的な状況は、経済的に大きな影響を及ぼす可能性のある難しい問題である。AI事務局は、この問題についてさらなる明確化を行う予定である。 |
In the case of a modification or fine-tuning of an existing general-purpose AI model, the obligations for providers of general-purpose AI models in Article 53 should be limited to the modification or fine-tuning, for example, by complementing the already existing technical documentation with information on the modifications (Recital 109). The obligations for providers of general-purpose AI models with systemic risk in Article 55 may be limited in similar ways. The General-Purpose AI Code of Practice could reflect differences between providers that initially develop general-purpose AI models and those that fine-tune or otherwise modify an existing model. | 既存の汎用AIモデルの修正又は微調整の場合、第53条の汎用AIモデルのプロバイダに対する義務は、例えば、既に存在する技術文書を修正に関する情報で補完することにより、修正又は微調整に限定すべきである(前文109)。第55条のシステミック・リスクを伴う汎用AIモデルのプロバイダに対する義務も、同様の方法で制限される可能性がある。汎用AIコード・オブ・プラクティスには、汎用AIモデルを最初に開発するプロバイダと、既存のモデルを微調整またはその他の方法で修正するプロバイダとの違いを反映させることができる。 |
Note that regardless of whether a downstream entity that incorporates a general-purpose AI model into an AI system is deemed to be a provider of the general-purpose AI model, that entity must comply with the relevant AI Act requirements and obligations for AI systems. | なお、汎用AIモデルをAIシステムに組み込む川下の事業体が汎用AIモデルのプロバイダとみなされるか否かにかかわらず、その事業体はAIシステムに関するAI法の関連する要件と義務を遵守しなければならない。 |
What is the General-Purpose AI Code of Practice? | 汎用AI規範とは何か? |
Based on Article 56 of the AI Act, the General-Purpose AI Code of Practice should detail the manner in which providers of general-purpose AI models and of general-purpose AI models with systemic risk may comply with their obligations under the AI Act. The AI Office is facilitating the drawing-up of this Code of Practice, with four working groups chaired by independent experts and involving nearly 1000 stakeholders, EU Member States representatives, as well as European and international observers. | AI法第56条に基づき、汎用AIコード・オブ・プラクティスは、汎用AIモデルおよびシステミック・リスクを有する汎用AIモデルのプロバイダがAI法に基づく義務を遵守するための方法を詳述する必要がある。AI事務局は、独立した専門家を議長とし、1000人近い利害関係者、EU加盟国の代表者、欧州および国際的なオブザーバーが参加する4つの作業部会で、この実施規範の作成を促進している。 |
More precisely, the Code of Practice should detail at least how providers of general-purpose AI models may comply with the obligations laid down in Articles 53 and 55. This means that the Code of Practice can be expected to have two parts: one that applies to providers of all general-purpose AI models (Article 53), and one that applies only to providers of general-purpose AI models with systemic risk (Article 55). Another obligation that may be covered by the Code of Practice is the obligation to notify the Commission for providers of general-purpose AI models that meet or are expected to meet the conditions listed in Article 51 for being classified as a general-purpose AI model with systemic risk (Article 52(1)). | より正確には、実施規範は、汎用AIモデルのプロバイダが第53条と第55条に規定された義務を遵守する方法を少なくとも詳述するものでなければならない。すなわち、すべての汎用AIモデルのプロバイダに適用されるもの(第53条)と、システミック・リスクを伴う汎用AIモデルのプロバイダのみに適用されるもの(第55条)である。システミック・リスクを有する汎用AIモデルとして分類されるための第51条に列挙された条件を満たす、または満たすことが予想される汎用AIモデルのプロバイダについては、欧州委員会に通知する義務がある(第52条1項)。 |
What is not part of the Code of Practice? | 実施基準には何が含まれないのか? |
The Code of Practice should not address inter alia the following issues: defining key concepts and definitions from the AI Act (such as “general-purpose AI model”), updating the criteria or thresholds for classifying a general-purpose AI model as a general-purpose AI model with systemic risk (Article 51), outlining how the AI Office will enforce the obligations for providers of general-purpose AI models (Chapter IX Section 5), and questions concerning fines, sanctions, and liability. | 特に、AI法における主要な概念や定義(「汎用AIモデル」など)の定義、汎用AIモデルをシステミック・リスクを有する汎用AIモデルとして分類するための規準や閾値の更新(第51条)、AI事務局が汎用AIモデルのプロバイダに対する義務をどのように執行するかの概要(第IX章第5節)、罰金、制裁、責任に関する問題などについては、実施規範は取り上げるべきではない。 |
These issues may instead be addressed through other means (decisions, delegated acts, implementing acts, further communications from the AI Office, etc.). | これらの問題は、代わりに他の手段(決定、委任法、実施法、AI事務局からのさらなるコミュニケーションなど)を通じて対処することができる。 |
Nevertheless, the Code of Practice may include commitments by providers of general-purpose AI models to document and report additional information, as well as to involve the AI Office and third parties throughout the entire model lifecycle, in so far as this is considered necessary for providers to effectively comply with their obligations under the AI Act. | とはいえ、実施基準には、プロバイダがAI法に基づく義務を効果的に遵守するために必要であると考えられる限りにおいて、汎用AIモデルのプロバイダが、追加情報を文書化して報告すること、及びモデルのライフサイクル全体を通じてAI事務局やサードパーティを関与させることを約束することを含めることができる。 |
Do AI systems play a role in the Code of Practice? | AIシステムは実施規範の中で役割を果たすのか? |
The AI Act distinguishes between AI systems and AI models, imposing requirements for certain AI systems (Chapters II-IV) and obligations for providers of general-purpose AI models (Chapter V). While the provisions of the AI Act concerning AI systems depend on the context of use of the system, the provisions of the AI Act concerning general-purpose AI models apply to the model itself, regardless of what is or will be its ultimate use. The Code of Practice should only pertain to the obligations in the AI Act for providers of general-purpose AI models. | AI法は、AIシステムとAIモデルを区別し、特定のAIシステムには要件を課し(第II章から第IV章)、汎用AIモデルのプロバイダには義務を課している(第V章)。AIシステムに関するAI法の規定がシステムの使用状況に依存するのに対し、汎用AIモデルに関するAI法の規定は、その最終的な用途が何であるか、あるいは何になるかにかかわらず、モデル自体に適用される。実施規範は、汎用AIモデルのプロバイダに対するAI法の義務にのみ関係するはずである。 |
Nevertheless, there are interactions between the two sets of rules, as general-purpose AI models are typically integrated into and form part of AI systems. If a provider of the general-purpose AI model integrates a general-purpose AI model into an AI system, that provider must comply with the obligations for providers of general-purpose AI models and, if the AI system falls within the scope of the AI Act, must comply with the requirements for AI systems. If a downstream provider integrates a general-purpose AI model into an AI system, the provider of the general-purpose AI model must cooperate with the downstream provider of the AI system to ensure that the latter can comply with its obligations under the AI Act if the AI system falls within the scope of the AI Act (for example by providing certain information to the downstream provider). | とはいえ、汎用AIモデルは一般的にAIシステムに統合され、その一部を構成するため、2つのルールセットの間には相互作用が存在する。汎用AIモデルのプロバイダが汎用AIモデルをAIシステムに統合する場合、そのプロバイダは汎用AIモデルのプロバイダに対する義務を遵守しなければならず、AIシステムがAI法の適用範囲に含まれる場合には、AIシステムに対する要求事項を遵守しなければならない。川下プロバイダが汎用AIモデルをAIシステムに統合する場合、汎用AIモデルのプロバイダは、AIシステムの川下プロバイダがAI法に基づく義務を遵守できるように協力しなければならない(例えば、川下プロバイダに一定の情報を提供するなど)。 |
Given these interactions between models and systems, and between the obligations and requirements for each, an important question underlying the Code of Practice concerns which measures are appropriate at the model layer, and which need to be taken at the system layer instead. | このようなモデルとシステム、そしてそれぞれの義務と要件の相互関係を考えると、実施規範の根底にある重要な問題は、どのような措置がモデル層で適切であり、代わりにどのような措置をシステム層で講じる必要があるのかということにある。 |
How does the Code of Practice take into account the needs of start-ups? | 実施規範は、新興企業のニーズをどのように考慮しているか? |
The Code of Practice should set out its objectives, measures and, as appropriate, key performance indicators (KPIs) to measure the achievement of its objectives. Measures and KPIs related to the obligations applicable to providers of all general-purpose AI models should take due account of the size of the provider and allow simplified ways of compliance for SMEs, including start-ups, that should not represent an excessive cost and not discourage the use of such models (Recital 109). Moreover, the KPIs related to the obligations applicable to providers of general-purpose AI models with systemic risk should reflect differences in size and capacity between various providers (Article 56(5)), while ensuring that they are proportionate to the risks (Article 56(2)(d)). | 実施規範は、目的、対策、そして必要に応じて、目的の達成度を測るための主要業績評価指標(KPI)を定めなければならない。すべての汎用AIモデルのプロバイダに適用される義務に関する措置とKPIは、プロバイダの規模を十分に考慮し、新興企業を含む中小企業にとって簡素化された遵守方法を認めるべきである。さらに、システミック・リスクを伴う汎用AIモデルのプロバイダに適用される義務に関連するKPIは、リスクに見合ったものであることを確保しつつ(第56条2項(d))、様々なプロバイダ間の規模や能力の違いを反映したものでなければならない(第56条5項)。 |
When will the Code of Practice be finalised? | 実施規範はいつ確定するのか? |
After the publication of the first draft of the Code of Practice, it is expected that there will be three more drafting rounds over the coming months. Thirteen Chairs and Vice-Chairs, drawn from diverse backgrounds in computer science, AI governance and law, are responsible for synthesizing submissions from a multi-stakeholder consultation and discussions with the Code of Practice Plenary consisting of around 1000 stakeholders. This iterative process will lead to a final Code of Practice which should reflect the various submissions whilst ensuring a convincing implementation of the legal framework. | 実施規範の最初のドラフトが公表された後、今後数ヶ月の間にさらに3回のドラフト作業が行われる予定である。コンピュータサイエンス、AIガバナンス、法律など、多様なバックグラウンドを持つ13人の委員長と副委員長が、マルチステークホルダーによる協議や、約1000人のステークホルダーで構成される「行動規範」全体会議での議論を経て、提出された内容を統合する。この反復プロセスは、法的枠組みの説得力のある実施を確保しつつ、様々な提出物を反映した最終的な実施規範につながる。 |
What are the legal effects of the Code of Practice? | 実施規範の法的効果は? |
If approved via implementing act, the Code of Practice obtains general validity, meaning that adherence to the Code of Practice becomes a means to demonstrate compliance with the AI Act. Nevertheless, compliance with the AI Act can also be demonstrated in other ways. | 実施法によって承認されれば、実施規範は一般的妥当性を確認することができ、実施規範の遵守がAI法の遵守を証明する手段となる。とはいえ、AI法の遵守は他の方法でも証明できる。 |
Based on the AI Act, additional legal effects of the Code of Practice are that the AI Office can enforce adherence to the Code of Practice (Article 89(1)) and should take into account commitments made in the Code of Practice when fixing the amount of fines (Article 101(1)). | AI法に基づき、実施規範の追加的な法的効果として、AI事務局は実施規範の遵守を強制することができ(第89条1項)、罰金額を定める際には実施規範の公約を考慮すべきである(第101条1項)。 |
How will the Code of Practice be reviewed and updated? | 実施規範はどのように見直され、更新されるのか? |
While the first draft of the Code of Practice does not yet contain details on its review and updating, further iterations of the draft, and any implementing act adopted to approve the final Code of Practice, can be expected to include this information. | 実施規範の第1草案には、その見直しと更新に関する詳細はまだ記載されていないが、草案のさらなる見直しや、最終的な実施規範を承認するために採択される施行法には、この情報が含まれることが期待される。 |
Which enforcement powers does the AI Office have? | AI事務局はどのような執行権限を有するのか? |
The AI Office will enforce the obligations for providers of general-purpose AI models (Article 88), as well as support governance bodies within Member States in their enforcement of the requirements for AI systems (Article 75), among other tasks. Enforcement by the AI Office is underpinned by the powers given to it by the AI Act, namely the powers to request information (Article 91), conduct evaluations of general-purpose AI models (Article 92), request measures from providers, including implementing risk mitigations and recalling the model from the market (Article 93), and to impose fines of up to 3% of global annual turnover or 15 million Euros, whichever is higher (Article 101). | AI事務局は、汎用AIモデルのプロバイダに対する義務(第88条)を実施するほか、AIシステムに対する要求事項(第75条)を実施する加盟国のガバナンス団体を支援する。AI事務局による施行は、AI法によってAI事務局に与えられた権限、すなわち、情報要求権(第91条)、汎用AIモデルの評価実施権(第92条)、リスク緩和の実施やモデルの市場からの回収を含むプロバイダへの措置要求権(第93条)、および全世界の年間売上高の3%または1500万ユーロのいずれか高い方を上限とする罰金(第101条)によって支えられている。 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2024.12.04 欧州評議会 AIシステムの人権への影響を評価する新しいツールを発表 (2024.12.02)
・2024.10.30 欧州 AI法の調和標準の策定について...
・2024.10.18 オランダ AI利用ガイド (2024.10.16)
・2024.08.05 欧州AI法が施行された... (2024.08.01)
・2024.07.20 EU EDPB GDPRとEU-AI法関連
・2024.07.19 ドイツ BfDI フランス CNIL オランダ AP EU AI法関連
・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された
« 米国 ホワイトハウス 「サイバー人材と教育のエコシステムツールキット - 地域をつなぐ人をつなぐ」 (2024.12.02) | Main | 欧州 EDPB 第三国当局へのデータ移転に関するGDPR第48条に関するガイドラインを発表し、新しい欧州データ保護シールを承認 »
Comments