| EDPB-EDPS JOINT OPINION 1/2026 |
EDPB-EDPS共同意見書 1/2026 |
| On the Proposal for a Regulation as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI) |
人工知能に関する調和された規則の実施の簡素化に関する規則案(AIに関するデジタルオムニバス)について |
| Adopted on 20 January 2026 |
2026年1月20日採択 |
| Table of Contents |
目次 |
| 1 BACKGROUND |
1 背景 |
| 2 GENERAL REMARKS |
2 総括的見解 |
| 3 PROCESSING OF SPECIAL CATEGORIES OF PERSONAL DATA FOR BIAS DETECTION AND CORRECTION |
3 バイアス検出及び是正のための特別カテゴリーの個人データの処理 |
| 4 REGISTRATION AND DOCUMENTATION |
4 登録及び文書化 |
| 5 AI REGULATORY SANDBOXES AT UNION LEVEL |
5 連合レベルにおけるAI規制サンドボックス |
| 6 SUPERVISION AND ENFORCEMENT BY THE AI OFFICE |
6 AI事務局による監督及び執行 |
| 7 POWERS OF AUTHORITIES/BODIES PROTECTING FUNDAMENTAL RIGHTS AND COOPERATION WITH MSA |
7 基本権保護団体の権限及びMSAとの協力 |
| 8 AI LITERACY |
8 AIリテラシー |
| 9 IMPLEMENTATION TIMELINE OF HIGH-RISK RULES |
9 高リスク規則の実施スケジュール |
| Executive summary |
エグゼクティブサマリー |
| On 19 November 2025, the European Commission issued a Proposal for a Regulation of the European Parliament and of the Council amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI) (hereafter, ‘the Proposal’). On 25 November 2025, the Commission formally consulted the EDPB and the EDPS in accordance with Article 42(2) of Regulation (EU) 2018/1725. |
2025年11月19日、欧州委員会は、人工知能に関する調和規則の実施簡素化に関する規則(EU)2024/1689及び(EU)2018/1139を改正する欧州議会及び理事会規則の提案(以下「本提案」という)を発表した。2025年11月25日、欧州委員会は規則(EU)2018/1725第42条(2)に基づき、欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)に対し正式な意見照会を行った。 |
| The EDPB and the EDPS support the Proposal’s general objective to address certain implementation challenges of Regulation (EU) 2024/1689 (the ‘AI Act’), with a view to the effective application of the relevant rules. In the same spirit, they recall that the EDPB and the European Commission are working on joint guidelines on the interplay between the GDPR and the AI Act to be issued later this year. |
EDPB及びEDPSは、関連規則の効果的な適用を目的として、規則(EU)2024/1689(「AI法」)の特定の実施上の課題に対処するという本提案の一般的な目的を支持する。同様の観点から、EDPBと欧州委員会は今年後半に発表予定の、GDPRとAI法の相互関係に関する共同ガイドラインの策定を進めていることを想起する。 |
| Processing of special categories of personal data for bias detection and correction |
バイアス検出・修正のための特別カテゴリーの個人データ処理 |
| The EDPB and the EDPS support in principle the proposed extension of the legal basis allowing the exceptional processing of special categories of personal data for purposes of bias detection and correction. At the same time, to avoid potential abuse, the cases where providers and deployers would be able to rely on this legal ground in the context of non-high risk AI systems and models should be clearly circumscribed and limited to cases where the risk of adverse effects caused by such bias is sufficiently serious. In the same vein, the EDPB and the EDPS recommend maintaining the standard of strict necessity currently applying for the processing of special categories of personal data for bias detection and correction in relation to high-risk AI systems. |
EDPBとEDPSは、バイアス検出・修正を目的とした特別カテゴリーの個人データの例外的な処理を認める法的根拠の拡大案を原則として支持する。同時に、潜在的な濫用を回避するため、非高リスクAIシステム・モデルにおいてプロバイダ及び展開者がこの法的根拠に依拠できるケースは、当該バイアスによる悪影響のリスクが十分に深刻な場合に限定し、明確に範囲を定めるべきである。同様に、EDPBとEDPSは、高リスクAIシステムに関連するバイアス検知・修正のための特別カテゴリー個人データの処理に現在適用されている厳格な必要性の標準を維持することを推奨する。 |
| Registration and documentation |
登録と文書化 |
| The EDPB and the EDPS support the general aim of the Proposal to ease administrative burdens for operators. However, they recommend maintaining the obligation for providers to register AI systems in the EU database for high-risk systems also in the cases where the provider has concluded the system is - despite being referred to in Annex III AI Act - not highrisk. The proposed deletion of such registration obligation would significantly decrease the accountability of providers of AI systems and would provide an undesirable incentive for providers to unduly invoke this exemption. |
EDPBとEDPSは、提案が事業者の行政負担軽減を目指すという一般的な目的を支持する。ただし、プロバイダがAIシステムをEUの高リスクシステムデータベースに登録する義務については、プロバイダが当該システムが(AI法附属書IIIに言及されているにもかかわらず)高リスクではないと結論付けた場合でも維持すべきだと勧告する。この登録義務の削除は、AIシステムプロバイダの説明責任を著しく低下させ、プロバイダが不当にこの免除を主張する望ましくない動機を与える。 |
| AI regulatory sandboxes at EU level |
EUレベルにおけるAI規制サンドボックス |
| The EDPB and the EDPS support the creation of EU-level AI regulatory sandboxes to promote innovation and help small and medium-sized enterprises (‘SMEs’) across the EEA. However, they suggest improvements to ensure better legal certainty: |
EDPBとEDPSは、イノベーションを促進しEEA全域のエンタープライズ(SME)を支援するため、EUレベルでのAI規制サンドボックス創設を支持する。ただし、法的確実性を高めるため以下の改善を提案する: |
| - competent Data Protection Authorities (DPAs) should be involved in the operation and supervision of the corresponding data processing carried out in these sandboxes, in line with Regulation (EU) 2016/679 (‘the GDPR’); |
- 管轄データ保護当局(DPA)は、EU規則2016/679(GDPR)に沿い、これらのサンドボックス内で行われるデータ処理の運用・監督に関与すべきである; |
| - the competence of DPAs in these sandboxes and its interplay with the GDPR cooperation mechanism should be clarified; |
- これらのサンドボックスにおけるDPAの権限と、GDPR協力メカニズムとの相互関係は明確化されるべきである。 |
| - the EDPB should have (1) an advisory role to ensure consistency on data protection aspects, specifically in cases where several DPAs would be concerned by the EU-level AI sandbox, and (2) the status of observer at the European Artificial Intelligence Board. |
- EDPBは(1)データ保護面での一貫性を確保するための助言的役割(特にEUレベルの人工知能サンドボックスに関与する複数のDPAが存在する場合)、および(2)欧州人工知能委員会におけるオブザーバーとしての地位を有するべきである。 |
| Supervision and enforcement by the AI Office |
AI事務局による監督と執行 |
| The EDPB and the EDPS welcome the introduction of the requirement for active cooperation between the AI Office and authorities involved in the application of AI Act for the supervision of AI systems based on a general-purpose AI model, where the provider of the model is also the provider of the system. Whenever necessary, close cooperation should take place, as well as close coordination with the competent DPAs where there are risks to the fundamental rights to privacy and data protection. Moreover, the EDPB and the EDPS recommend to clearly delimitate the types of general-purpose AI models that would trigger the exclusive competence of the AI Office, to ensure effective supervision of such AI systems. |
欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)は、汎用AIモデルに基づくAIシステムの監督において、AI事務局とAI法の適用に関わる当局との積極的な協力が義務付けられたことを歓迎する。この場合、モデルのプロバイダがシステムのプロバイダでもある。必要に応じて緊密な協力を行うとともに、プライバシー及びデータ保護に関する基本的権利へのリスクが存在する場合、管轄データ保護当局との緊密な調整を図るべきである。さらに、EDPB及びEDPSは、当該AIシステムの効果的な監督を確保するため、AI事務局の専属的管轄権が発生する汎用AIモデルの種類を明確に限定することを推奨する。 |
| In addition, the EDPB and the EDPS positively note the recital clarifying that the AI Office would not be competent for AI systems placed on the market, put into service or used by Union institutions, bodies, offices or agencies, which are under the supervision of the EDPS. In the interest of legal certainty and independence of the supervision, the EDPB and the EDPS recommend introducing such clarification in the enacting terms. |
さらに、EDPBとEDPSは、AI事務局がAIシステムを上市し、欧州連合の機構・団体・事務所・機関が使用し、EDPSの監督下にあるAIシステムについては管轄権を持たないことを明確化する前文を肯定的に評価する。法的確実性と監督機関の独立性を考慮し、EDPBとEDPSは、この明確化を本条文に盛り込むことを推奨する。 |
| Powers of authorities/bodies protecting fundamental rights and cooperation with MSA |
基本権保護機関の権限及び市場監視当局との連携 |
| The EDPB and the EDPS support the goal of streamlining cooperation between fundamental rights authorities or bodies (‘FRABs’) and market surveillance authorities (‘MSAs’). They welcome the idea of a central point of contact to increase efficiency, but recommend: |
基本権保護機関(FRAB)と市場監視当局(MSA)間の連携効率化という目標を支持する。効率性向上のための単一窓口設置の構想を歓迎するが、以下の点を推奨する: |
| - clarifying the role of the MSAs as administrative points of contact for the execution and transmission of requests to providers and deployers; |
- プロバイダ及び展開者への要請の執行・伝達における行政連絡窓口としてのMSAの役割を明確化すること; |
| - ensuring that the proposed change does not affect the independence and powers of DPAs; |
- 提案された変更がDPAの独立性及び権限に影響を与えないことを確保すること; |
| - adding details to the Proposal, such as requiring MSAs to provide the information requested by FRABs without undue delay; |
- 提案書に、MSAがFRABからの要請情報を不当な遅延なく提供することを義務付けるなど、詳細を追加すること; |
| - further clarifying the new obligation for cooperation and mutual assistance between MSAs and FRABs, particularly for cross-border cases. |
- 特に越境事例において、MSAとFRAB間の協力・相互支援に関する新たな義務をさらに明確化すること。 |
| AI literacy |
AIリテラシー |
| The EDPB and the EDPS consider that AI systems providers and deployers should not be released from their obligation to ensure that their staff have a sufficient level of AI literacy, as it helps raising ethical and social awareness on AI benefits and risks. If the co-legislators decide to maintain the new obligation for the Commission and Member States to foster AI literacy, it should apply in addition to the current obligation applying to AI systems providers and deployers, instead of replacing it. |
EDPBとEDPSは、AIシステムのプロバイダと展開者が、従業員に十分なAIリテラシーを確保する義務を免除されるべきではないと考える。これはAIの利点とリスクに関する倫理的・社会的認識を高めるのに役立つからである。共同立法者が、欧州委員会及び加盟国に対するAIリテラシー促進の新たな義務を維持することを決定した場合、それはAIシステムプロバイダ及び展開者に対する現行の義務に追加して適用されるべきであり、これに取って代わるべきではない。 |
| Implementation timeline of high-risk rules |
高リスク規則の実施スケジュール |
| With regard to the implementation timeline of high-risk rules and the proposed postponement of a number of core provisions, the EDPB and the EDPS acknowledge that some of the reasons for the delay of the application might be deemed at least partially objective, however they express concerns about the potential impact on the protection of fundamental rights in the fast-evolving AI landscape. In this regard, the Joint Opinion invites the co-legislators to consider whether it would be appropriate and feasible to maintain the current timeline for certain obligations, e.g. on transparency. In case the proposed delay of the timeline for entry into application is nevertheless adopted by the co-legislators, the EDPB and the EDPS call for concerted actions by all relevant stakeholders, and in particular by the Commission, in order to minimise the delay to the extent possible. |
高リスク規則の実施スケジュール及び主要規定の延期提案に関し、EDPB及びEDPSは、適用遅延の理由の一部が少なくとも部分的に客観的とみなされる可能性を認める。しかしながら、急速に進化するAI環境における基本権保護への潜在的影響について懸念を表明する。この点に関して、共同意見は共同立法者に対し、透明性に関する義務など特定の義務について現行のスケジュールを維持することが適切かつ実現可能かどうかを検討するよう要請している。仮に共同立法機関が施行時期の延期案を採用する場合、欧州データ保護会議と欧州データ保護監察機関は、遅延を可能な限り最小限に抑えるため、すべての関係当事者、特に欧州委員会による協調的な行動を求める。 |
| The European Data Protection Board and the European Data Protection Supervisor |
欧州データ保護会議(EDPB)及び欧州データ保護監察機関(EDPS) |
| Having regard to Article 42(2) of the Regulation 2018/1725 of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC. |
2018年10月23日付規則2018/1725(欧州連合の機構、団体、事務所及び機関によるパーソナルデータの処理及び当該データの自由な移動に関する自然人の保護、並びに規則(EC)No 45/2001及び決定No 1247/2002/ECの廃止に関する規則)第42条(2)を参照する。 |
| HAVE ADOPTED THE FOLLOWING JOINT OPINION (the ‘Opinion’) |
以下の共同意見(以下「本意見」)を採択した。 |
| 1 BACKGROUND |
1 背景 |
| 1. On 19 November 2025, the European Commission (‘the Commission’) issued a Proposal for a Regulation of the European Parliament and of the Council amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI) (‘the Proposal’). On 25 November 2025, the Commission formally consulted the EDPB and the EDPS in accordance with Article 42(2) of Regulation (EU) 2018/1725 (‘EUDPR’)[1]. |
1. 2025年11月19日、欧州委員会(以下「委員会」)は、人工知能に関する調和規則の実施簡素化に関する規則(EU)2024/1689及び(EU)2018/1139の改正を目的とした欧州議会及び理事会規則の提案(人工知能に関するデジタルオムニバス法案、以下「提案」)を発表した。2025年11月25日、欧州委員会は規則(EU)2018/1725(「EUDPR」)[1]第42条(2)に基づき、欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)に正式に諮問を行った。 |
| 2. The Proposal aims to amend Regulation 2024/1689[2] (the ‘AI Act’ or ‘AIA’) to address certain implementation challenges by way of targeted simplification measures. The proposed amendments relate to various topics, ranging from the implementation timeline of the rules for high-risk AI systems, to reducing the registration burden for certain AI systems and extending regulatory simplifications granted to small and medium-sized enterprises (‘SMEs’) to small mid-caps (‘SMCs’) [3]. |
2. 本提案は、特定の対象を絞った簡素化措置を通じて、実施上の課題に対処するため、規則2024/1689[2](「AI法」または「AIA」)を改正することを目的としている。提案された改正は、高リスクAIシステムに関する規則の実施スケジュールから、特定のAIシステムに対する登録負担の軽減、中小企業(SME)に認められている規制上の簡素化措置を中小中堅企業(SMC)に拡大することまで、様々な主題に関わるものである。 |
| 3. The aim of this Joint Opinion is not to provide an assessment of all the proposed amendments, but instead, to address the most relevant aspects of the Proposal which are of particular importance for the protection of individuals’ rights and freedoms with regard to the processing of personal data. |
3. 本共同意見書の目的は、提案された改正案の全てをアセスメントすることではなく、個人データの処理に関する個人の権利と自由の保護にとって特に重要な、提案の最も関連性の高い側面に対処することである。 |
| 2 GENERAL REMARKS |
2 総括的見解 |
4. The EDPB and the EDPS support the Proposal’s general objective to address certain implementation challenges of the AI Act, with a view to the effective application of the relevant rules. In the same spirit, the EDPB and the EDPS recall that the EDPB and the European Commission are working on joint guidelines on the interplay between the GDPR and the AI Act to be issued later this year. This echoes the commitments of the EDPB in its Helsinki Statement to take up initiatives to facilitate GDPR compliance and strengthen consistency, in order to empower responsible innovation and reinforce competitiveness in Europe[4].
|
4. EDPBとEDPSは、AI法の特定の実施上の課題に対処し、関連規則の効果的な適用を図るという本提案の一般的な目的を支持する。同様の精神に基づき、EDPBとEDPSは、EDPBと欧州委員会がGDPRとAI法の相互作用に関する共同ガイドラインを今年後半に発行すべく作業中であることを想起する。これは、責任あるイノベーションを促進し欧州の競争力を強化するため、GDPR遵守を促進し一貫性を強化する取り組みを推進するという、EDPBのヘルシンキ声明における公約を反映している[4]。 |
| 5. Another aim of the Proposal is to significantly reduce the administrative burden for businesses, national administrations, and the public at large[5]. The EDPB and the EDPS support this general objective of the Proposal, as long as pursuing this objective does not result in lowering the protection of fundamental rights of individuals, in particular the fundamental right to protection of personal data. The EDPB and the EDPS also wish to recall that, already during the initial drafting of the AI Act, several amendments were introduced to help reduce administrative burdens while still protecting the fundamental rights of individuals[6]. A careful balance needs to be kept between reducing administrative burden where possible, without undermining the protection of fundamental rights in the context of AI. Therefore, the EDPB and the EDPS warn against reducing the existing protection offered under the AI Act without careful consideration of the protection of the rights of individuals. In the remainder of this Joint Opinion, the EDPB and the EDPS highlight specific aspects of the Proposal that warrant further consideration and provide specific recommendations to help ensure that the final text of the Proposal maintains a high level of protection of the fundamental rights of individuals, and with a view of providing greater legal certainty for all actors involved. |
5. 本提案の別の目的は、企業、国家行政機関、そして一般市民に対する行政負担を大幅に軽減することである[5]。EDPBとEDPSは、この提案の一般的な目的を支持する。ただし、この目的の追求が個人の基本的権利、特に個人データの保護という基本的権利の保護水準を低下させる結果とならない限りにおいてである。EDPBとEDPSはまた、AI法の初期ドラフト段階ですでに、個人の基本的権利を保護しつつ行政負担を軽減するための複数の修正が導入されたことを想起したい[6]。AIの文脈において、基本権の保護を損なうことなく、可能な範囲で行政負担を軽減する慎重なバランスが求められる。したがって、EDPBとEDPSは、個人の権利保護を慎重に考慮せずに、AI法が提供する既存の保護水準を低下させることに対して警告する。本共同意見書の残りの部分では、EDPBとEDPSは、提案の特定の側面についてさらなる検討が必要であることを強調し、提案の最終案が個人の基本的権利を高度に保護し、関係する全ての主体にとってより大きな法的確実性を提供することを確保するための具体的な提言を行う。 |
| 6. The references to Data Protection Authorities (‘DPAs’) in this Joint Opinion should be understood as the supervisory authorities within the meaning of Article 4(21) GDPR and Article 3(15) Law Enforcement Directive (‘LED’)[7], regardless of whether they have been entrusted with additional tasks or powers under the AI Act, as market surveillance authorities (‘MSAs’). |
6. 本共同意見におけるデータ保護当局(DPA)への言及は、AI法の下で市場監視当局(MSA)としての追加的任務または権限を付与されているか否かにかかわらず、GDPR第4条(21)および法執行指令(LED)[7]第3条(15)の意味における監督当局として理解されるべきである。 |
| 3 PROCESSING OF SPECIAL CATEGORIES OF PERSONAL DATA FOR BIAS DETECTION AND CORRECTION |
3 バイアス検知・修正のための特別カテゴリーの個人データの処理 |
| 7. According to Article 10(5) AI Act, providers of high-risk systems may exceptionally process special categories of personal data to the extent that it is strictly necessary for the purpose of ensuring bias detection and correction in accordance with the requirements of Article 10(2)(f) and (g) AI Act. Such processing must be subject to appropriate safeguards for the fundamental rights and freedoms of natural persons. |
7. AI法第10条(5)によれば、高リスクシステムのプロバイダは、AI法第10条(2)(f)及び(g)の要件に従い、バイアス検知及び修正を確保する目的で厳密に必要な範囲において、例外的に特別カテゴリーの個人データを処理することができる。かかる処理は、自然人の基本的権利及び自由に対する適切な保護措置の対象とならなければならない。 |
| 8. The Proposal would introduce a new Article 4a, replacing Article 10(5), that would allow, where necessary, processing of special categories of personal data by providers and deployers of all AI systems and models, subject to appropriate safeguards as specified in the draft Proposal that complement the GDPR, EUDPR and LED, as applicable. Thus, the Proposal would extend the material and personal scope of Article 10(5) AI Act to all AI systems and models and would also cover deployers. |
8. 本提案は、必要に応じて、全てのAIシステム及びモデルのプロバイダ及び展開者による特別カテゴリーの個人データの処理を、GDPR、EUDPR及びLED(該当する場合)を補完する本提案ドラフトで規定される適切な保護措置を条件として認める新たな第4a条を導入し、第10条(5)に代わるものである。したがって、本提案はAI法の10条(5)の適用範囲を、すべてのAIシステム及びモデルに拡大するとともに、展開者も対象とする。 |
| 9. While the processing of special categories of personal data for bias detection and correction can entail additional risks to the fundamental rights and freedoms of the affected data subjects, it is also true that if bias detection and correction are unsuccessful or insufficient, bias in AI systems may present a wider risk to those whose personal data would be processed by the AI system after it has been put on the market, and even to society as a whole. |
9. バイアス検出・修正のための特別カテゴリーの個人データ処理は、影響を受けるデータ対象者の基本的権利・自由に対する追加的リスクを伴う可能性がある。しかし同時に、バイアス検出・修正が不成功または不十分な場合、AIシステム内のバイアスは、当該システムが市場投入後に個人データを処理する対象者、さらには社会全体に対してより広範なリスクをもたらす可能性があることも事実である。 |
| 10. The EDPB and the EDPS also understand that the list of high-risk AI systems can never be exhaustive in referencing all possible AI systems that present substantial risks to the rights and freedoms of individuals. Consequently, systems that have not been identified as high-risk could still lead, in certain cases, to negative consequences for individuals. |
10. EDPBとEDPSは、個人の権利と自由に対して重大なリスクをもたらす可能性のある全てのAIシステムを網羅することは不可能であるため、高リスクAIシステムのリストが完全なものではないことも理解している。したがって、高リスクと識別されていないシステムであっても、特定の状況下では個人に悪影響を及ぼす可能性がある。 |
| 11. At the same time, the EDPB and the EDPS recall that processing special categories of personal data is in principle prohibited under EU data protection law and the exceptions to this prohibition should be narrowly defined. To avoid potential abuse, the cases where providers and deployers would be able to rely on this legal ground in the context of non-high risk AI systems and models should be clearly circumscribed and limited to cases where the risk of adverse effects caused by such bias is sufficiently serious to justify the processing of special categories of personal data. |
11. 同時に、EDPB及びEDPSは、EUデータ保護法の下では原則として特別な種類の個人データの処理が禁止されており、この禁止の例外は厳格に定義されるべきであることを想起する。潜在的な濫用を避けるため、非高リスクAIシステム・モデルにおいてプロバイダや展開者がこの法的根拠に依拠できるケースは、明確に限定されなければならない。具体的には、当該バイアスによる悪影響のリスクが、特別の種類の個人データの処理を正当化するほど十分に深刻な場合にのみ適用されるべきである。 |
| 12. The current text of Article 10(5) AI Act refers to processing of special categories of personal data that is ‘strictly necessary’ to detect and correct biases. The proposed new provision of Article 4a(1) refers only to ‘necessary’, while the new Article 4a(2) refers to ‘necessary and proportionate’. The EDPB and the EDPS recommend (re)instating the standard of strict necessity, which currently applies for high-risk AI systems, for all providers and deployers of AI systems and models referred in Article 4a, for the processing of special categories of personal data for the purpose of ensuring bias detection and correction. |
12. 現行のAI法第10条(5)項は、バイアスの検知・修正に「厳密に必要な」特別カテゴリーの個人データ処理を規定している。提案された新条項である第4a条(1)項は単に「必要な」処理に言及し、新第4a条(2)項は「必要かつ比例的な」処理に言及している。欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)は、第4a条に規定されるAIシステム及びモデルの全てのプロバイダ・展開者に対し、バイアス検知及び是正を目的とした特別の種類の個人データの処理について、現在高リスクAIシステムに適用されている厳格な必要性の標準を(再)導入することを推奨する。 |
| 13. Current Article 10(5) AI Act limits the possibility to process special categories of personal data to cases where it is necessary to comply with the obligations under Article 10(2)(f) and (g) AI Act. The EDPB and the EDPS stress that the scope of the new Article 4a(2) should be understood as similarly limited to the detection, prevention and mitigation of biases that are likely to affect the health and safety of persons, have a negative impact on fundamental rights or lead to discrimination prohibited under Union law, as provided for by the current Article 10(2)(f) and (g) AI Act, and as already referred to in paragraph 1 of the proposed Article 4a[8]. However, currently, neither the Proposal, nor the Staff Working Document[9] accompanying it, provide any specific guidance or examples. |
13. 現行のAI法第10条(5)は、特別のカテゴリーの個人データを処理する可能性を、AI法第10条(2)(f)および(g)に基づく義務を遵守するために必要な場合に限定している。欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)は、新規第4a条(2)の適用範囲は現行第10条(2)(f)及び(g)並びに提案第4a条[8]第1項で規定される通り、人の健康・安全に影響を及ぼす可能性のあるバイアス、基本権への悪影響、または連合法で禁止される差別に繋がるバイアスの検知・予防・緩和に限定されるべきだと強調する。(g)の規定と同様に限定的に解釈されるべきであると強調する。ただし、現時点では、提案書も、それに付随するスタッフ作業文書も、具体的なガイダンスや事例を提供していない。 |
| 14. The EDPB and the EDPS recommend providing, by way of a recital, more detailed justifications for the envisaged extension of the scope of the exception by indicating specific examples of non-high-risk AI systems or models that could adversely affect individuals based on protected characteristics that would warrant processing of special categories of data to counter such bias. |
14. EDPB及びEDPSは、例外の適用範囲拡大を想定するにあたり、保護特性に基づく個人への悪影響を及ぼす可能性があり、そのようなバイアスに対抗するために特別カテゴリーのデータ処理を正当化できる、非高リスクAIシステムまたはモデルの具体例を示すことで、より詳細な根拠を前文によって提供することを推奨する。 |
| 15. The wording used in Article 4a(2) Proposal should also be revised to enhance legal certainty as regards the application of Articles 6 and 9 GDPR which require a clear legal basis and derogation for the processing of special categories of personal data. In this regard, the EDPB and the EDPS note that the wording used in Article 4a(2), in particular the use of ‘may’, is likely to give rise to legal uncertainty. If it is the intention of the co-legislators to extend the duty under current Article 10(2)(f) and (g) AI Act (and the corresponding derogation under Article 9 GDPR[10]) to providers and deployers of all AI systems and models, this should be clearly stated[11]. |
15. 提案第4a条(2)項の文言も、GDPR第6条及び第9条の適用に関する法的確実性を高めるため修正すべきである。同条項は、特別な種類の個人データの処理について明確な法的根拠と例外規定を要求している。この点に関して、EDPB及びEDPSは、第4a条(2)項の文言、特に「may」の使用が法的不確実性を招く可能性が高いと指摘する。共同立法者が、現行のAI法第10条(2)(f)および(g)(ならびにGDPR第9条[10]に基づく対応する例外規定)に基づく義務を、あらゆるAIシステムおよびモデルのプロバイダおよび展開者に拡大する意図であるならば、これを明確に明記すべきである[11]。 |
| 16. Finally, the EDPB and the EDPS recall that, as explained in Recital 70 AI Act, the current provision of Article 10(5) AI Act and thus the new Article 4a, regulate a specific case of processing of special categories of personal data as a matter of substantial public interest within the meaning of Article 9(2)(g) GDPR and Article 10(2)(g) EUDPR. Consequently, all the conditions laid down in the GDPR and the EUDPR would fully apply whenever a developer or a deployer relies on this legal ground. Moreover, the Commission explicitly clarifies that the aim of the amendment is ‘facilitating compliance with the data protection laws’ by providers and deployers of AI systems[12]. Against this background, the EDPB and the EDPS stress that DPAs would first and foremost be competent to supervise the processing of personal data pursuant to Article 4a AIA, also in line with Article 2(7) AIA. |
16. 最後に、EDPB及びEDPSは、AI法前文70項で説明されている通り、現行のAI法第10条(5)項、ひいては新設の第4a条は、GDPR第9条(2)(g)及びEUDPR第10条(2)(g)の意味における「重要な公共の利益」に基づく、特定の種類の個人データの処理を規制するものであることを想起する。したがって、開発者または展開者がこの法的根拠に依拠する場合、GDPRおよびEUDPRに定められた全ての条件が完全に適用される。さらに、欧州委員会は改正の目的が「AIシステムのプロバイダおよび展開者によるデータ保護法への順守を促進すること」であると明示的に説明している[12]。こうした背景を踏まえ、EDPBとEDPSは、AIA第4a条に基づくパーソナルデータの処理の監督については、AIA第2条(7)にも沿い、何よりもまずデータ保護当局(DPA)が管轄権を有すると強調している。 |
| 4 REGISTRATION AND DOCUMENTATION |
4 登録と文書化 |
| 17. The EDPB and the EDPS support the general aim of the Proposal to ease administrative burdens for operators. However, the EDPB and the EDPS recommend maintaining the obligation for providers to register AI systems in the EU database for high-risk systems also in the cases where the provider has concluded the system is - despite being referred to in Annex III AI Act - not high-risk, under the conditions set by Article 6(3) AIA[13]. |
17. EDPBとEDPSは、事業者の行政負担を軽減するという本提案の一般的な目的を支持する。ただし、EDPBとEDPSは、プロバイダがAI法附属書IIIに記載されているにもかかわらず、AIA第6条(3)[13]の条件に基づき当該システムが高リスクではないと判断した場合においても、プロバイダがEUの高リスクシステムデータベースにAIシステムを登録する義務を維持することを推奨する。 |
| 18. The registration obligation, as envisaged by the current text of the AIA [14] , ensures the transparency and traceability of these systems towards the public as well as the national competent authorities[15]. Given that the AI systems in question could still pose potentially significant risks, the registration obligation does not seem unreasonable or disproportionate. The proposed deletion of the existing obligation [16] would significantly decrease the accountability of providers of AI systems and would provide an undesirable incentive for providers to unduly invoke this exemption without critical analysis. |
18. 現行のAIA条文[14]で想定されている登録義務は、これらのシステムが公衆および国内管轄当局[15]に対して透明性と追跡可能性を確保するものである。当該AIシステムが依然として潜在的に重大なリスクをもたらし得ることを考慮すれば、登録義務は不合理でも不均衡でもない。既存の義務[16]の削除案は、AIシステムプロバイダの説明責任を著しく低下させ、プロバイダが批判的分析なしに不当にこの免除を主張する望ましくない動機を与えることになる。 |
| 19. First, the registration obligation allows the public to be informed about the grounds under which the provider considers that the AI system ‘does not pose a significant risk of harm to the health, safety or fundamental rights of natural persons’[17], despite it being referred to in Annex III AI Act. The public registration further allows deployers to carry out proper due diligence (before deciding whether to make use of the exempted AI system) and risk-management of these AI systems (in the context of the deployment of the AI system). The public disclosure of the assessment conducted by providers that is mandated by the current text, and the related possible reputational risks for providers, are better aligned with the possible risks posed by these AI systems. |
19. 第一に、登録義務により、一般公衆は、プロバイダがAIシステムを「自然人の健康、安全または基本的権利に対する重大なリスクをもたらさない」[17]と考える根拠について、AI法附属書IIIで言及されているにもかかわらず、情報を得ることができる。公開登録はさらに、導入者が(免除対象AIシステムの利用可否決定前に)適切なデューデリジェンスを実施し、これらのAIシステム(展開の文脈において)のリスクマネジメントを行うことを可能にする。現行条文で義務付けられているプロバイダによるアセスメントの公開開示、およびそれに関連するプロバイダの評判リスクの可能性は、これらのAIシステムがもたらす可能性のあるリスクとの整合性がより高い。 |
| 20. Second, such registration also serves the purpose of informing national competent authorities and national public authorities or bodies which supervise or enforce the respect of obligations under Union law protecting fundamental rights (‘FRABs’) before these systems are placed in the market or put into service[18], which in turns may lead them to requesting the documentation and possibly engaging in enforcement activities where appropriate [19] . The registration obligation enables a timely response by national competent authorities and FRABs to mitigate risks. Moreover, the leeway afforded to providers of high-risk AI systems does not appear to be justified by the negligible savings that would arise from this proposed modification[20]. |
20. 第二に、この登録は、当該システムが市場に投入されるか運用開始される前に[18]、基本権保護に関する連合法上の義務の遵守を監督・執行する国内管轄当局及び国内公的団体(以下「FRABs」)に情報を提供するという目的も果たす。これにより、FRABsは文書提出を要求し、必要に応じて執行活動を行う可能性がある[19]。登録義務により、国家管轄当局及びFRABはリスク緩和のため適時に対応できる。さらに、高リスクAIシステムプロバイダに与えられる猶予期間は、本改正案[20]により生じるわずかなコスト削減では正当化されないと考えられる。 |
| 21. While providers would still be obliged to document their assessment that the AI system referred to in Annex III AIA is not high-risk before that system is placed on the market or put into service, and to make the documentation available to the national competent authorities upon request[21], this does not appear to be sufficient if not accompanied by the registration. The exemption foreseen by Article 6(3) and 6(4) AIA must remain counter-balanced by appropriate accountability, also considering the existing differing interpretations of the relevant provisions and risks of incorrect assessment[22]. |
21. プロバイダは、AIA附属書IIIに規定されるAIシステムが上市または使用される前に、当該システムが高リスクではないとのアセスメントを文書化し、要請に応じて国内管轄当局に提出する義務を負う[21]。しかし、登録を伴わない場合、この措置だけでは不十分である。AIA第6条(3)および(4)で規定される免除は、関連規定の解釈の相違や誤ったアセスメントのリスクも考慮し、適切な説明責任によって相殺され続けなければならない[22]。 |
| 22. Finally, the EDPB and the EDPS note that the Proposal extends certain regulatory privileges to SMEs and SMCs, defined on the basis of staff headcount and turnover or balance sheet numbers[23]. |
22. 最後に、EDPBおよびEDPSは、本提案が従業員数および売上高または貸借対照表の数値に基づいて定義される中小企業(SME)および小規模企業(SMC)に対して特定の規制上の特権を拡大していることに留意する[23]。 |
| 23. In this regard, it should be recalled that, in light of AI’s features of scalability and autonomy, the headcount and more generally the company size may not be a decisive factor to assess the possible harm posed by high-risk AI systems placed on the market by such enterprises. |
23. この点に関して、AIの拡張性と自律性という特性を踏まえると、従業員数やより一般的な企業規模は、こうしたエンタープライズが上市する高リスクAIシステムがもたらす可能性のある危害を評価する上で決定的な要素とはならないことを想起すべきである。 |
| 24. As a consequence, the EDPB and the EDPS express concerns as to the approach of simplifying the obligations relating to product safety of AI systems on the basis of the size of the company and especially headcount. |
24. したがって、EDPBとEDPSは、企業の規模、特に従業員数に基づいてAIシステムの製品安全に関する義務を簡素化するアプローチについて懸念を表明する。 |
| 5 AI REGULATORY SANDBOXES AT UNION LEVEL |
5 連合レベルにおけるAI規制サンドボックス |
| 25. The EDPB and the EDPS welcome the introduction of AI regulatory sandboxes at EU level, to support innovation and SMEs across the EEA (new Article 57(3a) AIA). The proposed changes to Articles 57 and 58 AIA introduce the possibility for the AI Office to establish such sandboxes with regard to certain AI systems, such as those based on a general-purpose AI model (subject to the specifications provided under Article 1(25), para.1, Proposal)[24]. These sandboxes would be established in addition to those at national level that should be established on the basis of Article 57 AIA[25]. |
25. EDPBとEDPSは、EEA全域におけるイノベーションと中小企業を支援するため、EUレベルでのAI規制サンドボックスの導入を歓迎する(AIA新第57条(3a))。AIA第57条及び第58条への改正案は、汎用AIモデルに基づくものなど特定のAIシステムに関して、AI事務局がこのようなサンドボックスを設置する可能性を導入する(提案第1条(25)項1号に規定される要件に従うものとする)[24]。これらのサンドボックスは、AIA第57条[25]に基づき設立されるべき国家レベルのサンドボックスに追加して設立されるものである。 |
| 26. With respect to national sandboxes, Article 57(10) AIA currently requires national competent authorities to ensure that, to the extent the AI systems involve personal data processing, the national DPAs are associated with the operation of the national sandbox and involved in the supervision of those aspects to the extent of their respective tasks and powers. There is no similar provision in relation to EU-level sandboxes, even though they may involve processing of personal data which is subject to the oversight of DPAs. The EDPB and the EDPS recommend clarifying, directly in the AI Act, that competent DPAs should be associated with the operation of EU-level sandboxes and involved in the supervision and enforcement of the corresponding data processing[26] in line with Articles 55 et seq. GDPR. |
26. 国内サンドボックスに関しては、AIA 第 57 条(10) は現在、AI システムが個人データの処理を伴う場合、国内 DPA が国内サンドボックスの運用に関与し、それぞれの任務と権限の範囲内で、それらの側面の監督に関与することを国内管轄当局が確保することを要求している。EUレベルでのサンドボックスに関しては、DPAの監督対象となる個人データの処理を伴う可能性があるにもかかわらず、同様の規定は存在しない。欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)は、GDPR第55条以下に沿い、EUレベルサンドボックスの運用に管轄データ保護当局を関与させ、対応するデータ処理[26]の監督・執行に関与させることを、AI法において直接明記するよう勧告している。 |
| 27. Further, it is unclear how the competent DPA would be identified in the context of EU-level sandboxes and how this relates to the cooperation mechanism under the GDPR. The amended Article 58(1)(d) AIA requires the Commission to address, in an implementing act, ‘common principles’ on ‘the detailed rules applicable to the governance of AI regulatory sandboxes covered under Article 57, including as regards the exercise of the tasks of the competent authorities and the coordination and cooperation at national and EU level’. Since association to a sandbox involves significant limitations to the powers of the competent DPAs[27], the issue of the competence of DPAs and its interplay with the GDPR cooperation mechanism should be addressed directly in the AI Act to avoid any legal uncertainty. |
27. さらに、EUレベルでのサンドボックスにおいて管轄DPAをどのように識別するか、またこれがGDPRに基づく協力メカニズムとどのように関連するかは不明確である。改正されたAIA第58条(1)(d)は、欧州委員会に対し、実施法令において 「第57条に規定されるAI規制サンドボックスのガバナンスに適用される詳細な規則に関する共通原則」を、主たる監督機関の任務の遂行及び国内・EUレベルでの調整・協力に関して含む形で、実施法令において定めることを求めている。サンドボックスへの参加は、管轄DPAの権限に重大な制限を伴うため[27]、DPAの権限問題とGDPR協力メカニズムとの相互作用は、法的な不確実性を回避するため、AI法において直接規定すべきである。 |
| 28. In addition, the EDPB and the EDPS consider that the EDPB should be involved in order to ensure a coordinated and consistent approach[28]. To that end, the EDPB and the EDPS recommend modifying Article 57 AIA to specifically refer to the advisory role of the EDPB for ensuring consistency on data protection aspects, specifically in cases where several DPAs would be concerned by the AI system developed in the EU-level AI sandbox pursuant to Article 57(3a) AIA. |
28. さらに、EDPBとEDPSは、調整された一貫性のあるアプローチを確保するため、EDPBの関与が必要であると考えている[28]。この目的のため、EDPBとEDPSは、AIA第57条を改正し、特にAIA第57条(3a)に基づきEUレベルAIサンドボックスで開発されたAIシステムに関与する複数のDPAが存在する場合において、データ保護面での一貫性を確保するためのEDPBの助言的役割を明示的に言及するよう勧告する。 |
| 29. Additionally, the EDPB should be granted, directly in the AI Act, the status of observer at the European Artificial Intelligence Board (‘AI Board’) [29] . This could ensure the continuous involvement of the EDPB when matters related to the application of data protection law, such as in the context of EU-level sandboxes[30], are discussed within the AI Board. |
29. さらに、欧州人工知能委員会(以下「AI委員会」)[29]において、EDPBにオブザーバーとしての地位をAI法で直接付与すべきである。これにより、EUレベルでのサンドボックス[30]の文脈など、データ保護法の適用に関連する事項がAI委員会内で議論される際、EDPBの継続的な関与が確保される。 |
| 30. The new obligation of national competent authorities to support the joint establishment and operation of AI regulatory sandboxes in the revised Article 57(14) AIA is welcomed by the EDPB and the EDPS. This new obligation, which does not affect the possibility of additional sandboxes according to Article 57(2) AIA, and could ensure coordinated cross-border approaches among authorities. However, how such obligation will be operationalised in practice remains unclear, hence the EDPB and the EDPS recommend clarifying these aspects. |
30. 改正AIA第57条(14)で定められた、AI規制サンドボックスの共同設立・運営を支援する新たな国内管轄当局の義務は、EDPB及びEDPSが歓迎するものである。この新たな義務は、AIA第57条(2)に基づく追加サンドボックスの可能性に影響を与えず、当局間の調整された越境的アプローチを確保し得る。しかしながら、この義務が実際にどのように運用されるかは依然不明確であるため、EDPB及びEDPSはこれらの点を明確化するよう勧告する。 |
| 31. Lastly, a clear distinction should be made between AI sandboxes for Union institutions, bodies, offices or agencies, which may be established by the EDPS pursuant to Article 57(3) AIA, and the EU-level AI sandbox established by the AI Office pursuant to Article 57(3a) AIA, which would in any event remain limited to AI systems covered by Article 75(1) AIA. In line with Recital 14 Proposal (see also Section 6 of the Joint Opinion below), the EDPB and the EDPS understand that AI systems placed on the market, put into service or used by Union institutions, bodies, offices or agencies would not be involved in the AI regulatory sandbox at EU-level within the meaning of Article 57(3a) AIA, as the EDPS is the sole competent authority under the AI Act for such AI systems, pursuant to Article 74(9) AIA. Moreover, the EDPB and the EDPS recall that the EDPS remains the competent authority under Regulation (EU) 2018/1725 to supervise any processing of personal data by the AI Office itself, as EU body, including in the context of EU-level sandboxes. |
31. 最後に、EDPSが人工知能法(AIA)第57条(3)に基づき設置する可能性のある、連合の機構、団体、事務所または機関向けのAIサンドボックスと、AI事務局がAIA第57条(3a)に基づき設置するEUレベルのAIサンドボックスとは、明確に区別すべきである。後者はいずれにせよ、AIA第75条(1)の対象となるAIシステムに限定される。前文14(下記の共同意見第6節も参照)に沿い、EDPB及びEDPSは、EU機構・団体・事務所・機関が上市、運用開始、または使用するAIシステムは、AIA第57条(3a)の意味におけるEUレベルでのAI規制サンドボックスの対象外であると理解する。さらに、EDPBとEDPSは、EU機関であるAI事務局自身による個人データの処理(EUレベルでのサンドボックスを含む)を監督する権限は、規則(EU)2018/1725に基づきEDPSが保持していることを改めて指摘する。 |
| 6 SUPERVISION AND ENFORCEMENT BY THE AI OFFICE |
6 AI庁による監督と執行 |
| 32. Pursuant to Article 75 AI Act, the AI Office is competent to monitor and supervise compliance of AI systems based on a general-purpose AI model, when the model and the system are developed by the same provider. The Proposal further extends this exclusive competence to AI systems that constitute or are integrated into a designated very large online platform (‘VLOP’) or very large online search engine (‘VLOSE’) within the meaning of Regulation (EU) 2022/2065 (‘DSA’)[31]. |
32. AI法第75条に基づき、AI庁は汎用AIモデルに基づくAIシステムの適合性を監視・監督する権限を有する。ただし、当該モデルとシステムが同一プロバイダによって開発された場合に限る。本提案はさらに、この専属的権限を、規則(EU)2022/2065(「DSA」)[31]の定義に基づく指定超大規模オンラインプラットフォーム(「VLOP」)または超大規模オンライン検索エンジン(「VLOSE」)を構成する、もしくはそれらに統合されるAIシステムにまで拡大する。 |
| 33. The EDPB and the EDPS acknowledge that the monitoring, supervision, and enforcement of such systems would benefit from centralising competencies at the EU level. In this regard, they welcome the fact that Article 75(1), last subparagraph AIA, requires active cooperation between the authorities involved in the application of AI Act in the exercise of these powers. However, the EDPB and the EDPS consider this active cooperation provision may not be sufficient to guarantee the ability of national competent authorities to initiate actions if the AI Office has not already acted or does not want to, given the exclusivity of the authority granted to the AI Office. Finally, the AI Office should coordinate closely with the competent national data protection authorities when the aforementioned AI systems present risks to the fundamental rights to privacy and data protection, in compliance with Article 8(3) of the Charter of Fundamental Rights of the EU and in line with Article 2(7) AIA. Moreover, the EDPB and the EDPS recommend to clearly delimitate the types of general-purpose AI models that trigger ’exclusive competence’ to ensure effective supervision of AI systems. |
33. EDPB及びEDPSは、こうしたシステムの監視・監督・執行にはEUレベルでの権限集中が有益であると認める。この点において、AIA第75条(1)項最終項が、AI法の適用に関わる当局間の積極的な協力関係をこれらの権限行使において要求している事実を歓迎する。しかしながら、欧州データ保護委員会及び欧州データ保護監督官は、AI庁に付与された権限の排他性を考慮すると、AI庁が既に措置を講じていない場合、あるいは講じようとしていない場合に、各国の管轄当局が措置を開始する能力を保証するには、この積極的な協力規定だけでは不十分である可能性があると考えている。最後に、前述の人工知能システムがプライバシー及びデータ保護に関する基本的権利にリスクをもたらす場合、EU基本権憲章第8条(3)及びAIA第2条(7)に準拠し、人工知能庁は各国のデータ保護主管当局と緊密に連携すべきである。さらに、EDPBおよびEDPSは、AIシステムの効果的な監督を確保するため、「専属的権限」を発動させる汎用AIモデルの種類を明確に区別することを推奨する。 |
| 34. In addition, the EDPB and the EDPS positively note that Recital 14 Proposal clarifies that the AI Office would not be competent for AI systems placed on the market, put into service or used by Union institutions, bodies, offices or agencies, which are under the supervision of the EDPS pursuant to Article 74(9) AI Act. However, this clarification is not provided in the operative part of the draft Regulation. Therefore, in the interest of legal certainty, as well as to ensure the necessary independent character of the supervision by the competent authority, the EDPB and the EDPS consider it necessary that, in addition to Recital 14, the amended Article 75 should expressly exclude from the competence of the AI Office the supervision of AI systems developed or used by Union institutions, bodies, offices or agencies and covered by Article 74(9) AI Act. |
34. さらに、EDPB及びEDPSは、提案された前文第14項が、欧州連合(EU)の機構、団体、事務所又は機関が上市し、使用を開始し、又は使用するAIシステムについては、AI法第74条(9)に基づきEDPSの監督下に置かれるため、AI事務局の管轄権が及ばないことを明確にしている点を評価する。しかしながら、この明確化は規則案の本文部分には記載されていない。したがって、法的確実性の観点から、また管轄当局による監督に必要な独立性を確保するため、EDPB及びEDPSは、前文に加え、改正後の第75条において、EU機構・団体・事務所・機関が開発または使用するAIシステムで、AI法第74条(9)の適用対象となるものについて、AI事務局の監督権限から明示的に除外することが必要であると考える。 |
| 7 POWERS OF AUTHORITIES/BODIES PROTECTING FUNDAMENTAL RIGHTS AND COOPERATION WITH MSA |
7 基本権保護団体の権限及び市場監視当局との協力 |
| 35. The EDPB and the EDPS support the general objective of clarifying the scope of the cooperation between market surveillance authorities (‘MSAs’) and FRABs. This is also in line with the EDPB’s recommendations included in its Statement 3/2024 on data protection authorities’ role in the AIA[32]. |
35. EDPB及びEDPSは、市場監視当局(MSA)と基本権保護団体(FRAB)との協力範囲を明確化するという一般的な目的を支持する。これは、AIAにおけるデータ保護当局の役割に関するEDPBの声明3/2024[32]に含まれる勧告とも一致するものである。 |
| 36. Article 77 AIA currently allows FRABs to directly request documentation produced for the purpose of AIA compliance to deployers or providers, and the proposed change would, in practice, place the MSAs as an intermediary between the FRABs on one side, and the deployers or providers on the other. The establishment of a centralised point of contact with the objective of increasing efficiency is welcomed by the EDPB and the EDPS as this would reduce the administrative burden for companies. However, the EDPB and the EDPS note that, requiring FRABs to obtain information or documentation produced for the purpose of AIA compliance from providers or deployers solely through MSAs may actually result in inefficiencies. Therefore, they recommend ensuring that the establishment of a centralised point of contact achieves, in practice, the objective of making the procedure more efficient. |
36. 第77条 AIAは現在、FRABがAIA遵守のために作成された文書をデプロイヤーまたはプロバイダに直接要求することを認めている。提案された変更は、実際にはMSAをFRABとデプロイヤーまたはプロバイダの間の仲介者として位置づけることになる。効率性向上を目的とした一元的な連絡窓口の設置は、企業の事務負担を軽減するため、EDPB及びEDPSはこれを歓迎する。しかしながら、EDPB及びEDPSは、FRABがAIA遵守のために作成された情報または文書を、プロバイダまたは展開業者からMSAを通じてのみ取得することを義務付けることは、実際には非効率を招く可能性があることに留意する。したがって、中央連絡窓口の設置が、実務上、手続きの効率化という目的を達成することを確保すべきであると勧告する。 |
| 37. The EDPB and the EDPS recommend further clarifying the competence and the role of MSAs under Article 77 AIA. In this regard, the EDPB and the EDPS consider it important to explicitly clarify that the role of MSAs should be strictly that of an administrative point of contact for the execution and transmission of requests of information or documentation to providers and deployers, and should not lead to MSAs assessing the necessity or proportionality of the request. |
37. EDPB および EDPS は、AIA 第 77 条に基づく MSA の権限と役割をさらに明確化することを勧告する。この点に関して、EDPB および EDPS は、MSA の役割は、プロバイダおよびデプロイヤーに対する情報または文書の要求の実行および伝達のための管理上の連絡窓口に厳密に限られるべきであり、要求の必要性または比例性を評価することにはつながらないことを明示的に明確化することが重要であると考える。 |
| 38. Moreover, the Proposal should clarify that it does not affect the independence and existing powers of DPAs, in particular, the powers of DPAs to obtain, from the controller and the processor, access to all information necessary for the purpose of monitoring compliance with data protection law[33]. |
38. さらに、本提案は、データ保護当局(DPA)の独立性及び既存の権限、特にデータ保護法遵守の監視目的に必要な全ての情報をデータ管理者とデータ処理者から取得するDPAの権限に影響を与えないことを明確にすべきである[33]。 |
| 39. Article 77(1a) AIA, added by the Proposal, should be more specific in order to build a workable information exchange system in case of cross-border cooperation[34]. In addition, the Proposal should specify that MSAs should provide the information requested by FRABs without undue delay, where the information is exchanged at national level, and also in cross-border cases. These additional elements would ensure legal certainty and smooth cooperation between the relevant authorities. |
39. 提案により追加されるAIA第77条(1a)は、越境協力の場合に運用可能な情報交換システムを構築するため、より具体的にすべきである[34]。加えて、提案は、国内レベルで情報が交換される場合、また越境事例においても、MSAがFRABから要求された情報を不当な遅滞なく提供すべきことを明記すべきである。これらの追加要素は、法的確実性と関連当局間の円滑な協力を確保するものである。 |
| 40. Should the proposed changes to Article 6(4) AIA (registration obligation for providers of AI systems, see Section 4 of the Joint Opinion) be maintained in spite of the opinion of the EDPB and the EDPS on this matter, the clarifications mentioned above would all the more be beneficial as these latter changes would reduce the information publicly available. |
40. EDPB及びEDPSの意見にかかわらず、人工知能法(AIA)第6条(4)項(人工知能プロバイダの登録義務、共同意見書第4節参照)への提案変更を維持する場合、前述の明確化は一層有益となる。なぜなら、後者の変更は公開される情報を減少させるからである。 |
| 41. Lastly, the EDPB and the EDPS positively note the addition of Article 77(1b) AIA, which creates a new obligation of cooperation and mutual assistance between MSAs and FRABs. This proposed addition could be beneficial in case of cross-border cooperation[35] (e.g. in case one FRAB sends a request to an MSA, which needs the assistance of an MSA from another Member State[36] to answer it), provided that it aligns with the principle of sincere cooperation provided by Article 4(3) of the TEU. This new obligation could be further completed by clarifying how this mutual assistance under the added Article 77(1b) AIA interplays, for AI systems, with the cross-border mutual assistance for market surveillance and compliance of products[37] under Regulation (EU) 2019/1020 and Article 75 AIA. |
41. 最後に、EDPB および EDPS は、MSA と FRAB 間の新たな協力および相互支援義務を創設する AIA 第 77 条 (1b) の追加を肯定的に評価する。この追加規定は、EU基本条約第4条(3)が定める誠実な協力の原則に沿う限り、国境を越えた協力[35](例えば、あるFRABがMSAに要請を送り、そのMSAが回答するために別の加盟国のMSAの支援を必要とする場合[36])において有益となり得る。この新たな義務は、追加されたAIA第77条(1b)に基づく相互支援が、AIシステムに関して、市場監視及び製品の適合性に関する越境相互支援[37](EU規則2019/1020及びAIA第75条に基づく)とどのように連携するかを明確化することで、さらに補完され得る。 |
| 8 AI LITERACY |
8 AIリテラシー |
| 42. The EDPB and the EDPS recommend maintaining the obligation, for providers and deployers of AI systems, to take measures to ensure a sufficient level of AI literacy of their staff and other relevant persons (Article 4 AIA). |
42. EDPB及びEDPSは、AIシステムのプロバイダ及び展開者が、従業員及びその他の関係者に対して十分なAIリテラシーを確保するための措置を講じる義務(AIA第4条)を維持することを推奨する。 |
| 43. AI literacy ensures an understanding of AI concepts and helps raising ethical and social awareness about the benefits and risks of AI. It plays a key role in empowering individuals that develop, deploy, or otherwise work or decide on working with AI systems and allows them to develop critical thinking with regard to this new technology and inform their decision-making. AI literacy is therefore crucial to ensure appropriate knowledge and skills across the AI lifecycle in order to protect fundamental rights, including the right to data protection, and support compliance with AI rules, including the provisions on processing of personal data. |
43. AIリテラシーは、AIの概念に対する理解を確保し、AIの利点とリスクに関する倫理的・社会的認識を高めるのに役立つ。これは、AIシステムを開発・展開する者、あるいはAIシステムに関わる業務や意思決定を行う者を支援する上で重要な役割を果たし、この新技術に対する批判的思考を育み、意思決定の根拠となる情報を提供する。したがってAIリテラシーは、データ保護権を含む基本的権利を保護し、パーソナルデータの処理に関する規定を含むAI規則の遵守を支援するため、AIライフサイクル全体にわたる適切な知識と技能を確保する上で不可欠である。 |
| 44. Transforming the current obligation into an obligation for the European Commission and the Member States to ‘encourage’ providers and deployers to do so would significantly soften this obligation and ultimately undermine its very objective. |
44. 現行の義務を欧州委員会及び加盟国がプロバイダ・展開者に「奨励」する義務へと転換することは、この義務を大幅に緩和し、最終的にその目的そのものを損なうことになる。 |
| 45. To help providers and deployers comply with their AI-literacy obligation, the European Commission and regulators could be required to issue guidance on how this obligation may be implemented in practice, instead of removing the AI literacy requirement on providers and deployers. |
45. プロバイダ・展開者がAIリテラシー義務を遵守できるよう支援するため、欧州委員会及び規制当局は、プロバイダ・展開者に対するAIリテラシー要件を撤廃する代わりに、この義務を実務でどのように実施すべきかに関するガイダンスを発行することが求められる可能性がある。 |
| 46. Lastly, if the new obligation for the European Commission and Member States to ‘encourage’ providers and deployers to take measures to ensure a sufficient AI literacy would be kept, it should apply in parallel with the current obligation in Article 4 AI Act, as opposed to replacing it. |
46. 最後に、欧州委員会と加盟国がプロバイダと展開者に十分なAIリテラシーを確保する措置を講じるよう「奨励」する新たな義務を維持する場合、それは現行のAI法第4条の義務に取って代わるのではなく、並行して適用されるべきである。 |
| 9 IMPLEMENTATION TIMELINE OF HIGH-RISK RULES |
9 高リスク規則の実施スケジュール |
| 47. Under the current Article 113 AI Act, the provisions governing high-risk AI systems included in Annex III[38] will start to apply from 2 August 2026. For high-risk AI systems under Annex I[39], the starting date is 2 August 2027. |
47. 現行のAI法第113条によれば、附属書III[38]に規定される高リスクAIシステムに関する条項は2026年8月2日から適用開始となる。附属書I[39]に該当する高リスクAIシステムについては、適用開始日は2027年8月2日である。 |
| 48. Pursuant to the Proposal, the rules on high-risk AI systems should start to apply 6 or 12 months following the decision of the Commission confirming that adequate measures in support of compliance with Chapter III are available, but not later than 2 December 2027 for high-risk AI systems in Annex III, and 2 August 2028 as regards high-risk AI systems in Annex I. The Commission justifies the proposed delay with implementation challenges such as delays in designating national competent authorities and conformity assessment bodies, as well as a lack of harmonised standards for the AI Act’s high-risk requirements, guidance, and compliance tools. |
48. 提案によれば、高リスクAIシステムに関する規則は、第III章の遵守を支援する適切な措置が利用可能であることを委員会が決定してから6か月または12か月後に適用を開始すべきである。ただし、附属書IIIの高リスクAIシステムについては2027年12月2日までに、附属書Iの高リスクAIシステムについては2028年8月2日までに適用を開始しなければならない。欧州委員会は、提案された遅延の理由として、国家管轄当局及び適合性評価団体の指定遅延、AI法のハイリスク要件・ガイダンス・遵守ツールに関する調和された標準の欠如といった実施上の課題を挙げている。 |
| 49. The proposed postponement of the application of a number of core provisions of AI Act should also be considered in the context of the extension of the temporal scope of the existing ‘grandfathering clause’ of Article 111(2) AI Act, pursuant to which high-risk AI systems already placed in the EU market would largely be excluded from the scope of the Act unless they are subject to significant changes in their design. According to the Proposal, the cut-off date would be changed from 2 August 2026 to 2 December 2027, thus allowing an increased number of high-risk AI systems to benefit from the exception as ‘legacy’ systems. |
49. AI法の中核的規定の適用延期提案は、既存の「経過措置条項」(AI法第111条(2))の時間的適用範囲の拡大という文脈でも検討されるべきである。同条項によれば、EU市場に既に流通している高リスクAIシステムは、設計に重大な変更が加えられない限り、同法の適用範囲からほぼ除外される。提案によれば、適用除外となる基準日は2026年8月2日から2027年12月2日に変更される。これにより、より多くの高リスクAIシステムが「レガシー」システムとして例外措置の恩恵を受けられるようになる。 |
| 50. While the EDPB and the EDPS acknowledge that some of the reasons for the delay of the application might be deemed at least partially objective and not fully under the control of the Commission, they are nevertheless sincerely concerned about the potential impact on the protection of fundamental rights in the fast-evolving and transformative AI landscape. In addition, it should be assessed whether the introduction of a moveable deadline would not also undermine legal certainty. The EDPB and the EDPS also recall that, in their Joint Opinion 5/2021 on the proposal for Artificial Intelligence Act, they had already objected to the exemption from the obligations of AI systems already placed on the market[40]. |
50. EDPBとEDPSは、申請遅延の一部の理由が少なくとも部分的には客観的であり、欧州委員会の完全な管理下にはない可能性があることを認める。しかしながら、急速に進化し変革を遂げるAI環境における基本権保護への潜在的影響について、両機関は真摯な懸念を抱いている。加えて、移動可能な期限の導入が法的確実性を損なう可能性についてもアセスメントすべきである。EDPBとEDPSはまた、人工知能法案に関する共同意見書5/2021において、既に上市されているAIシステムに対する義務の免除に反対していたことを想起する[40]。 |
| 51. Furthermore, given the different nature of the obligations for providers and deployers of highrisk AI systems laid down in Chapter III, Sections 1, 2, and 3 AI Act, the EDPB and the EDPS invite the co-legislators to consider whether it would be appropriate and feasible to maintain the current timeline for certain obligations, e.g. on transparency. |
51. さらに、AI法第III章第1節、第2節、第3節に定められた高リスクAIシステムのプロバイダと展開者に対する義務の性質が異なることを踏まえ、EDPBとEDPSは共同立法者に対し、透明性に関する義務など特定の義務について現行のタイムラインを維持することが適切かつ実現可能かどうかを検討するよう要請する。 |
| 52. Finally, if the proposed delay of the timeline for entry into application is nevertheless adopted by the co-legislators, the EDPB and the EDPS call for concerted actions by all relevant stakeholders, and in particular by the Commission, in order to minimise the delay to the extent possible. |
52. 最後に、仮に共同立法機関が適用開始時期の延期案を採用する場合、EDPB及びEDPSは、遅延を可能な限り最小限に抑えるため、全ての関係当事者、特に欧州委員会による協調的な行動を求める。 |
| |
|
| [1] Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC, OJ L 295, 21.11.2018, pages 39–98. |
[1] 欧州議会及び理事会規則(EU)2018/1725(2018年10月23日)— 連合機構、団体、事務所及び機関によるパーソナルデータの処理及び当該データの自由な移動に関する自然人の保護、並びに規則 (EC) No 45/2001 および決定 No 1247/2002/EC を廃止する、OJ L 295、2018年11月21日、39–98頁。 |
| [2] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act), OJ L, 2024/1689, 12.7.2024. |
[2] 欧州議会及び理事会規則(EU)2024/1689(2024年6月13日)は、人工知能に関する調和規則を定め、規則(EC)No 300/2008、(EU) No 167/2013、(EU) No 168/2013、 (EU) 2018/858、(EU) 2018/1139、(EU) 2019/2144、並びに指令2014/90/EU、(EU) 2016/797、(EU) 2020/1828を改正する規則(人工知能法)、OJ L、 2024/1689、2024年7月12日。 |
| [3] Recital 3 Proposal. Also see COM(2025) 836 final, p.2, in the Explanatory Memorandum accompanying the Proposal. |
[3] 前文3。提案に付随する説明文書(COM(2025) 836 final、p.2)も参照のこと。 |
| [4] EDPB’s Helsinki Statement on enhanced clarity, support and engagement, A fundamental rights approach to innovation and competitiveness, adopted on 2 July 2025. |
[4] 欧州データ保護委員会(EDPB)による「明確化・支援・関与の強化に関するヘルシンキ声明」、イノベーションと競争力に対する基本的権利アプローチ、2025年7月2日採択。 |
| [5] COM(2025) 836 final, p. 6. |
[5] COM(2025) 836 final、p. 6。 |
| [6] For example, Article 6(3) AI Act already provides a derogation for AI systems that do not pose a significant risk to the health, safety or fundamental rights. |
[6] 例えば、AI法6条(3)は既に、健康・安全・基本権に重大なリスクをもたらさないAIシステムに対する例外規定を設けている。 |
| [7] Directive (EU) 2016/680 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data by competent authorities for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, and on the free movement of such data, and repealing Council Framework Decision 2008/977/JHA, OJ L 119, 4.5.2016, pp. 89–131. |
[7] 欧州議会及び理事会指令(EU)2016/680(2016年4月27日)犯罪の予防、捜査、発見又は追訴、又は刑事罰の執行を目的として、管轄当局による個人データの処理に関する自然人の保護、並びに当該データの自由な移動について、及び理事会枠組み決定2008/977/JHAの廃止に関するもの OJ L 119, 2016年5月4日, pp. 89–131. |
| [8] In this regard, the EDPB and the EDPS consider it of utmost importance in order to avoid potential inconsistencies and confusion as to the scope of the derogation and the requirements for the providers and deployers of non-high-risk AI systems or models, and to ensure that the scope of Article 4a remains clearly circumscribed. |
[8] この点に関して、欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)は、例外規定の適用範囲及び非高リスクAIシステム・モデルのプロバイダ・展開者に対する要件に関する潜在的な矛盾や混乱を回避し、第4a条の適用範囲が明確に限定された状態を維持するために、これが極めて重要であると考える。 |
| [9] Commission Staff Working Document accompanying the documents Proposal for a Regulation of the European Parliament and the Council amending Regulations (EU) 2016/679, (EU) 2018/1724, (EU) 2018/1725, (EU) 2023/2854 and Directives 2002/58/EC, (EU) 2022/2555 and (EU) 2022/2557 as regards the simplification of the digital legislative framework, and repealing Regulations (EU) 2018/1807, (EU) 2019/1150, (EU) 2022/868, and Directive (EU) 2019/1024 (Digital Omnibus), amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI), COM(2025) 837 final, COM(2025) 836 final, SWD/2025/836 final, 19.11.2025. |
[9] 欧州議会及び理事会規則(EU)2016/679、(EU) 2018/1724、(EU) 2018/1725、(EU) 2023/2854、指令2002/58/EC、(EU) 2022/2555、(EU) 2022/2557を改正し、デジタル立法枠組みの簡素化を図るとともに、規則(EU) 2018/1807、(EU) 2019/1150、 (EU) 2022/868、および指令 (EU) 2019/1024(デジタルオムニバス)を廃止する。また、人工知能に関する調和規則の実施簡素化に関して、規則 (EU) 2024/1689 および (EU) 2018/1139 を改正する(AI に関するデジタルオムニバス)。COM(2025) 837 final、COM(2025) 836 final、SWD/2025/836 final、2025年11月19日。 |
| [10] See Recital 70 AI Act. |
[10] AI法の前文70を参照せよ。 |
| [11] If that is the case, the EDPB and the EDPS further recommend replacing the wording ‘paragraph 1 may apply’ by ‘paragraph 1 shall also apply’. In addition, the EDPB and the EDPS recommend replacing the wording ‘if the processing occurs’ by ‘where such processing occurs’. |
[11] その場合、欧州データ保護委員会(EDPB)及び欧州データ保護監督官(EDPS)は、「第1項が適用される場合がある」という表現を「第1項も適用される」に置き換えることをさらに推奨する。加えて、EDPB及びEDPSは、「処理が行われる場合」という表現を「そのような処理が行われる場合」に置き換えることを推奨する。 |
| [12] COM(2025) 836 final, p.2, see the Explanatory Memorandum accompanying the Proposal. |
[12] COM(2025) 836 final, p.2, 提案に付随する説明覚書を参照せよ。 |
| [13] Article 6(3) and Recital 53 AIA. |
[13] AIA第6条(3)及び前文53項。 |
| [14] Articles 6(3) and 49(2) AIA; Section B in Annex VIII AIA (points 6 and 7). |
[14] AIA第6条(3)及び第49条(2);AIA附属書VIIIセクションB(第6項及び第7項)。 |
| [15] See Recital 131 AIA. |
[15] AIA前文131項参照。 |
| [16] Article 1(6) Proposal (modifying Article 6(4) AIA), Article 1(14) Proposal (deleting Article 49(2) AIA) and Article 1(32) Proposal (deleting Section B in Annex VIII AIA). |
[16] 提案第1条(6)(AIA第6条(4)を修正)、提案第1条(14)(AIA第49条(2)を削除)、提案第1条(32)(AIA附属書VIIIセクションBを削除)。 |
| [17] Article 6(3) AIA. |
[17] AIA第6条(3)。 |
| [18] See Article 6(4) AIA. |
[18] AIA第6条(4)参照。 |
| [19] See Article 80 AIA. |
[19] AIA第80条参照。 |
| [20] According to the documents supporting the Proposal, this change would benefit a maximum of 1485 companies, saving each EUR 100, thus providing for total savings up to EUR 148,500 per year. Commission Staff Working Document accompanying the Proposal for a Regulation of The European Parliament and of the Council Amending Regulations (EU) 2016/679, (EU) 2018/1724, (EU) 2018/1725, (EU) 2023/2854 and Directives 2002/58/EC, (EU) 2022/2555 and (EU) 2022/2557 as regards the simplification of the digital legislative framework, and repealing Regulations (EU) 2018/1807, (EU) 2019/1150, (EU) 2022/868, and Directive (EU) 2019/1024 (Digital Omnibus) and the Proposal for a Regulation of the European Parliament and of the Council Amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI), SWD/2025/836 final, p. 78. |
[20] 提案を裏付ける文書によれば、この変更により最大1485社が恩恵を受け、各社100ユーロの節約となり、年間総節約額は最大148,500ユーロとなる。欧州議会及び理事会規則(EU)2016/679、(EU) 2018/1724、(EU) 2018/1725、(EU) 2023/2854、指令2002/58/EC、(EU) 2022/2555、(EU) 2022/2557の改正、ならびに規則(EU) 2018/1807、 (EU) 2019/1150、(EU) 2022/868、指令 (EU) 2019/1024 (デジタルオムニバス)及び欧州議会及び理事会規則案(人工知能に関する調和規則の実施簡素化に関する規則(EU)2024/1689及び(EU)2018/1139の改正)(人工知能に関するデジタルオムニバス)、SWD/2025/836最終版、78頁。 |
| [21] Article 6(4) AIA. See also Recital 53 AIA. |
[21] AIA第6条(4)。AIA前文53項も参照。 |
| [22] Fundamental Rights Agency (FRA): “Assessing High-risk Artificial Intelligence: Fundamental Rights Risk”, 2025, p. 8, 28. |
[22] 基本権庁(FRA):「高リスク人工知能のアセスメント:基本権リスク」、2025年、8頁、28頁。 |
| [23] More specifically, the Proposal extends certain regulatory privileges to SMEs and SMCs, relating to simplified technical documentation (Article 1(8) Proposal), proportionate implementation of quality management systems (QMS) (Article 1(9) Proposal), complying with certain elements of the QMS in a simplified manner (SME only) (Article 1(21) Proposal), the facilitation and acceleration of access to the sandbox (Article 1(17) Proposal) and specific support from authorities, Member States or the Commission (e.g. Article 1(23), (27), (28) Proposal)). |
[23] 具体的には、本提案は中小企業(SME)及び小規模企業(SMC)に対し、以下の規制上の特権を拡大する:簡素化された技術文書(提案第1条(8))、品質管理システム(QMS)の比例原則に基づく実施(提案第1条(9))、簡素化された方法によるQMS特定要素の遵守 (提案第1条(21))、サンドボックスへのアクセス促進・加速(提案第1条(17))、当局・加盟国・欧州委員会による特定支援(例:提案第1条(23)、(27)、(28))である。 |
| [24] See in particular Articles 57 and 58 AI Act. These systems are those identified under Article 1(25), para. 1, Proposal (modifying Article 75(1) AI Act), which establishes that “Where an AI system is based on a general-purpose AI model, with the exclusion of AI systems related to products covered by the Union harmonisation legislation listed in Annex I, and that model and that system are developed by the same provider, the AI Office shall be exclusively competent for the supervision and enforcement of that system with the obligations of this Regulation in accordance with the tasks and responsibilities assigned by it to market surveillance authorities. The AI Office shall also be exclusively competent for the supervision and enforcement of the obligations under this Regulation in relation to AI system that constitute or that are integrated into a designated very large online platform or very large online search engine within the meaning of Regulation (EU) 2022/2065.” |
[24] 特にAI法第57条及び第58条を参照のこと。これらのシステムは、提案第1条(25)第1項(AI法第75条(1)を改正)で特定されるものであり、以下のように定めている。「AIシステムが汎用AIモデルに基づく場合(附属書Iに記載されたEU調和立法の対象製品に関連するAIシステムを除く)、かつ当該モデルとシステムが同一のプロバイダによって開発された場合、AI庁は、市場監視当局に割り当てられた任務及び責任に基づき、本規則の義務に関する当該システムの監督及び執行について専属的な権限を有する。また、AI庁は、規則(EU)2022/2065の定義に基づく指定された超大規模オンラインプラットフォームまたは超大規模オンライン検索エンジンを構成する、もしくはそれらに統合されたAIシステムに関する本規則の義務の監督及び執行についても専属的権限を有する。」 |
| [25] Based on Article 57(2) and (3) AIA, AI regulatory sandboxes at regional or local level may also be established by competent authorities, as well as AI regulatory sandbox for Union institutions, bodies, offices and agencies which may be established by the EDPS. |
[25] AIA第57条(2)及び(3)に基づき、地域または地方レベルにおけるAI規制サンドボックスは、管轄当局によって設立される可能性がある。また、EU機構、団体、事務所及び機構向けのAI規制サンドボックスは、EDPSによって設立される可能性がある。 |
| [26] The EDPB and the EDPS note that if a national DPA is actively involved in the supervision of the AI system in the sandbox and provided guidance for compliance with respect to the GDPR, no administrative fines can be imposed under the GDPR, pursuant to Article 57(12) AI Act. |
[26] EDPB及びEDPSは、国家データ保護機関がサンドボックス内の人工知能システムの監督に積極的に関与し、GDPR遵守に関するガイダンスを提供した場合、AI法第57条(12)に基づき、GDPRに基づく行政罰金を科すことはできないと指摘する。 |
| [27] As per Article 57(12) AI Act. |
[27] AI法第57条(12)に基づく。 |
| [28] As per Article 70(1) GDPR, the EDPB’s mission is to ensure the consistent application of the GDPR. |
[28] GDPR第70条(1)に基づき、EDPBの使命はGDPRの一貫した適用を確保することである。 |
| [29] This status is for example already granted to the EDPS in Article 65(1) AI Act, which is the supervisor for the EU institutions. |
[29] この地位は、例えばEU機構の監督者であるEDPSに対し、AI法第65条(1)で既に付与されている。 |
| [30] According to Article 57(14) AIA, as modified by Article 1(17) Proposal, coordination and cooperation on sandboxes should be done within the AI Board. |
[30] 提案第1条(17)により修正されたAI法57条(14)によれば、サンドボックスに関する調整と協力はAI理事会内で行うべきである。 |
| [31] Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market for Digital Services and amending Directive 2000/31/EC (Digital Services Act), OJ L 277, 27.10.2022, p. 1. |
[31] 欧州議会及び理事会規則(EU)2022/2065(2022年10月19日)デジタルサービス単一市場に関する規則及び指令2000/31/EC(デジタルサービス法)の改正、OJ L 277、2022年10月27日、p. 1。 |
| [32] EDPB Statement 3/2024 on data protection authorities’ role in the Artificial Intelligence Act framework, adopted on 16 July 2024, paragraphs 11, 13 and 15. |
[32] 人工知能法枠組みにおけるデータ保護当局の役割に関する欧州データ保護委員会声明3/2024(2024年7月16日採択)、パラグラフ11、13及び15。 |
| [33] Article 58(1)(e) GDPR and Art. 47(1) LED. See also Recital 157 of the current AIA. |
[33] GDPR第58条(1)(e)及びLED第47条(1)。現行AIAの前文157も参照。 |
| [34] An example of an elaborate procedure for information exchange in case of cross-border cooperation is for example Article 61 GDPR. |
[34] 国境を越えた協力における情報交換のための精巧な手続きの一例としては、例えばGDPR第61条がある。 |
| [35] Judgment of 4 July 2023, Bundeskartellamt, C-252/21, EU:C:2023:537, paragraphs 54, 58 and 63. |
[35] 2023年7月4日付判決、Bundeskartellamt、C-252/21、EU:C:2023:537、54項、58項及び63項。 |
| [36] Or needs assistance from the AI Office in the circumstances addressed in Article 75(3) AIA. |
[36] あるいは、AIA第75条(3)で規定される状況においては、AI事務局の支援を必要とする。 |
| [37] See Chapter VI of Regulation (EU) 2019/1020 of the European Parliament and of the Council of 20 June 2019 on market surveillance and compliance of products and amending Directive 2004/42/EC and Regulations (EC) No 765/2008 and (EU) No 305/2011. |
[37] 製品市場監視及び適合性に関する欧州議会及び理事会規則(EU)2019/1020(2019年6月20日)第VI章を参照。同規則は指令2004/42/EC及び規則(EC)No 765/2008並びに(EU)No 305/2011を改正するものである。 |
| [38] High-risk AI systems in the areas of, among others, biometrics, law enforcement, migration, asylum and border control management, education, employment, judiciary, etc. |
[38] 生体認証、法執行、移民・難民・国境管理、教育、雇用、司法などの分野における高リスクAIシステム。 |
| [39] High-risk AI systems covered by Union harmonisation legislation, related, among others, to civil aviation, medical devices, toys, etc. |
[39] 民間航空、医療機器、玩具などに関連する、連合の調和化法規の対象となる高リスクAIシステム。 |
| [40] EDPB-EDPS Joint Opinion 5/2021 on the proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence, adopted on 18 June 2021, para. 41. |
[40] 欧州議会及び理事会による人工知能に関する調和化規則の提案に関するEDPB-EDPS共同意見書5/2021(2021年6月18日採択)、パラグラフ41。 |
Recent Comments