« 欧州データ保護委員会が、Facebook、Instagram、WhatsAppに対するアイルランドのデータ保護委員会の決定に対する他のデータ保護委員会からの異議申し立てに対して調整することに。。。 | Main | 金融庁 財務報告に係る内部統制の評価及び監査の基準並びに財務報告に係る内部統制の評価及び監査に関する実施基準の改訂について... »

2022.12.08

EU理事会 AI法に関する見解を採択

こんにちは、丸山満彦です。

EUのAI法案の行方が注目されていますね。。。EU理事会がAI法に関する見解を採択したというプレスがありましたね。。。

これをベースに欧州理事会は欧州議会と議論をする感じですね。。。それが同意に達したら、あとは議会での採択、、、という感じになっていくのでしょうかね。。。

 

Council of the EU

・2022.12.06 Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights

 

Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights 人工知能法:理事会、基本的権利を尊重した安全なAIの推進を要請
The Council has adopted its common position (‘general approach’) on the Artificial Intelligence Act. Its aim is to ensure that artificial intelligence (AI) systems placed on the EU market and used in the Union are safe and respect existing law on fundamental rights and Union values. 理事会は、人工知能法に関する共通の見解(「一般的なアプローチ」)を採択した。その目的は、EU市場に投入され、EU内で使用される人工知能(AI)システムの安全性を確保し、基本的人権とEUの価値観に関する現行法を尊重することである。
Artificial Intelligence is of paramount importance for our future. Today, we managed to achieve a delicate balance which will boost innovation and uptake of artificial intelligence technology across Europe. With all the benefits it presents, on the one hand, and full respect of the fundamental rights of our citizens, on the other. 人工知能は、私たちの未来にとって最も重要なものである。今日、我々は、欧州全体の人工知能技術の革新と取り込みを後押しする、微妙なバランスを達成することができた。一方では、人工知能がもたらすあらゆる利点を享受し、他方では、市民の基本的権利を完全に尊重することができる。
Ivan Bartoš, Czech Deputy Prime Minister for digitalisation and minister of regional development イワン・バルトシュ、チェコ共和国副首相(デジタル化担当)兼地域開発担当大臣
The draft regulation presented by the Commission in April 2021 is a key element of the EU’s policy to foster the development and uptake across the single market of safe and lawful AI that respects fundamental rights. 2021年4月に欧州委員会が提示した規制案は、基本的権利を尊重した安全かつ合法的なAIの開発と単一市場全体での普及を促進するというEUの政策の重要な要素である。
The proposal follows a risk-based approach and lays down a uniform, horizontal legal framework for AI that aims to ensure legal certainty.  It promotes investment and innovation in AI, enhances governance and effective enforcement of existing law on fundamental rights and safety, and facilitates the development of a single market for AI applications. It goes hand in hand with other initiatives, including the Coordinated Plan on Artificial Intelligence which aims to accelerate investment in AI in Europe. この提案は、リスクベースのアプローチに従い、法的確実性を確保することを目的とした、AIに関する統一的で水平な法的枠組みを定めている。  AIへの投資とイノベーションを促進し、基本的権利と安全性に関する既存の法律のガバナンスと効果的な執行を強化し、AIアプリケーションの単一市場の発展を促進するものである。欧州におけるAIへの投資を加速させることを目的とした「人工知能に関する調整計画」など、他のイニシアチブとも連動している。
Definition of an AI system AIシステムの定義
To ensure that the definition of an AI system provides sufficiently clear criteria for distinguishing AI from simpler software systems, the Council’s text narrows down the definition to systems developed through machine learning approaches and logic- and knowledge-based approaches. AIシステムの定義が、AIをより単純なソフトウェア・システムと区別するための十分明確な基準を提供することを確実にするため、理事会の文書は、機械学習アプローチと論理および知識ベースのアプローチによって開発されたシステムに定義を絞り込んでいる。
Prohibited AI practices 禁止されるAI行為
Concerning prohibited AI practices, the text extends to private actors the prohibition on using AI for social scoring. Furthermore, the provision prohibiting the use of AI systems that exploit the vulnerabilities of a specific group of persons now also covers persons who are vulnerable due to their social or economic situation. 禁止されるAI行為については、AIを社会的採点に使用することの禁止を民間事業者にも拡大した。また、特定の集団の脆弱性を利用するAIシステムの利用を禁止する規定が、社会的・経済的状況により脆弱性を有する者も対象とするようになった。
As regards the prohibition of the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces by law enforcement authorities, the text clarifies the objectives where such use is strictly necessary for law enforcement purposes and for which law enforcement authorities should therefore be exceptionally allowed to use such systems. 法執行機関による、公共のアクセス空間での「リアルタイム」遠隔生体認証システムの使用禁止に関しては、その使用が法執行目的のために厳密に必要であり、したがって法執行機関がそのシステムの使用を例外的に許可されるべき目的を明確にしている。
Classification of AI systems as high-risk AIシステムの高リスクへの分類
Regarding the classification of AI systems as high-risk, the text adds a horizontal layer on top of the high-risk classification, to ensure that AI systems that are not likely to cause serious fundamental rights violations or other significant risks are not captured. AIシステムの高リスク分類については、高リスク分類の上に水平レイヤーを追加し、重大な基本的権利侵害やその他の重大なリスクを引き起こす可能性のないAIシステムが捕捉されないように配慮している。
Requirements for high-risk AI systems 高リスクのAIシステムに対する要件
Many of the requirements for high-risk AI systems have been clarified and adjusted in such a way that they are more technically feasible and less burdensome for stakeholders to comply with, for example as regards the quality of data, or in relation to the technical documentation that should be drawn up by SMEs to demonstrate that their high-risk AI systems comply with the requirements. 高リスクAIシステムの要件の多くは、例えば、データの品質や、高リスクAIシステムが要件に準拠していることを示すために中小企業が作成すべき技術文書に関して、より技術的に実現可能で、関係者にとってより負担の少ない方法で、明確化され調整されている。
Since AI systems are developed and distributed through complex value chains, the text includes changes clarifying the allocation of responsibilities and roles of the various actors in those chains, in particular providers and users of AI systems. It also clarifies the relationship between responsibilities under the AI Act and responsibilities that already exist under other legislation, such as the relevant Union data protection or sectorial legislation, including as regards the financial services sector. AIシステムは複雑なバリューチェーンを通じて開発・流通するため、そのバリューチェーンにおける様々な関係者、特にAIシステムの提供者と利用者の責任と役割の配分を明確にする変更が盛り込まれている。また、AI法に基づく責任と、金融サービス分野を含む関連するEUデータ保護法やセクター法などの他の法律に既に存在する責任との関係も明確にしている。
General purpose AI systems 汎用AIシステム
New provisions have been added to account of situations where AI systems can be used for many different purposes (general purpose AI), and where general purpose AI technology is subsequently integrated into another high-risk system. AIシステムが多くの異なる目的(汎用AI)に使用され、汎用AI技術がその後別の高リスクシステムに統合される状況を考慮し、新たな規定が追加された。
The text specifies that certain requirements for high-risk AI systems would also apply to general purpose AI systems in such cases. However, instead of direct application of these requirements, an implementing act would specify how they should be applied in relation to general purpose AI systems, based on a consultation and detailed impact assessment and considering specific characteristics of these systems and related value chain, technical feasibility and market and technological developments. このような場合、高リスクのAIシステムに対する一定の要件が、汎用AIシステムにも適用されることが明記された。ただし、これらの要件を直接適用するのではなく、協議と詳細な影響評価に基づき、これらのシステムと関連するバリューチェーンの特定の特性、技術的実現可能性、市場と技術開発を考慮して、汎用AIシステムに関してどのように適用すべきかを実施法が規定することになろう。
Scope and provisions relating to law enforcement authorities 法執行機関に関連する範囲と規定
An explicit reference has been made to the exclusion of national security, defence, and military purposes from the scope of the AI Act. Similarly, it has been clarified that the AI Act should not apply to AI systems and their outputs used for the sole purpose of research and development and to obligations of people using AI for non-professional purposes, which would fall outside the scope of the AI Act, except for the transparency obligations. 国家安全保障、防衛、軍事目的のAI法の範囲からの除外について明確に言及された。同様に、研究開発のみを目的とするAIシステムおよびその成果物や、非専門的な目的でAIを使用する人々の義務については、透明性義務を除き、AI法の適用範囲外となることが明確化された。
Considering the specificities of law enforcement authorities, several changes have been made to provisions relating to the use of AI systems for law enforcement purposes. Notably, subject to appropriate safeguards, these changes are meant to reflect the need to respect the confidentiality of sensitive operational data in relation to their activities. 法執行機関の特殊性を考慮し、法執行目的でのAIシステムの使用に関連する規定にいくつかの変更が加えられている。特に、適切な保護措置を講じることを条件として、これらの変更は、その活動に関連する機密性の高い業務データの機密性を尊重する必要性を反映することを意図している。
Compliance framework and AI Board コンプライアンスフレームワークとAIボード
To simplify the compliance framework for the AI Act, the text contains several clarifications and simplifications to the provisions on the conformity assessment procedures. AI法の遵守の枠組みを簡素化するため、本文には適合性評価手続きに関する条項の明確化と簡素化がいくつか含まれている。
The provisions related to market surveillance have also been clarified and simplified to make them more effective and easier to implement. The text also substantially modifies the provisions concerning the AI Board, aiming to ensure that it has greater autonomy and to strengthen its role in the governance architecture for the AI Act. In order to ensure the involvement of the stakeholders in relation to all issues related to the implementation of the AI Act, including the preparation of implementing and delegated acts, a new requirement has been added for the Board to create a permanent subgroup serving as a platform for a wide range of stakeholders. 市場監視に関する規定も明確化・簡素化され、より効果的で実施しやすくなっている。また、AI委員会の自律性を高め、AI法のガバナンス体制におけるその役割を強化することを目的として、AI委員会に関する規定も大幅に修正されている。施行法や委任法の作成を含むAI法の施行に関連するすべての問題への関係者の関与を確保するため、理事会が幅広い関係者のためのプラットフォームとして機能する常設サブグループを設置することが新たに要求されている。
As regards penalties for infringements of the provisions of the AI Act, the text provides for more proportionate caps on administrative fines for SMEs and start-ups. AI法の規定に違反した場合の罰則については、中小企業や新興企業に対する行政罰の上限をより公平にすることが規定された。
Transparency and other provisions in favour of the affected persons 透明性および関係者に有利なその他の規定
The text includes several changes that increase transparency regarding the use of high-risk AI systems. Notably, some provisions have been updated to indicate that certain users of a high-risk AI system that are public entities will also be obliged to register in the EU database for high-risk AI systems. この条文には、リスクの高いAIシステムの使用に関する透明性を高めるいくつかの変更が含まれている。特に、いくつかの条項が更新され、公的機関である高リスクAIシステムの特定のユーザーは、高リスクAIシステムに関するEUデータベースへの登録も義務付けられることが示された。
Moreover, a newly added provision puts emphasis on an obligation for users of an emotion recognition system to inform natural persons when they are being exposed to such a system. さらに、新たに追加された条項では、感情認識システムの利用者が、自然人にそのようなシステムにさらされていることを知らせる義務が強調されている。
The text also makes it clear that a natural or legal person may make a complaint to the relevant market surveillance authority concerning non-compliance with the AI Act and may expect that such a complaint will be handled in line with the dedicated procedures of that authority. また、自然人または法人は、AI法の不遵守に関して関連する市場監視当局に苦情を申し立てることができ、そのような苦情が当該当局の専用手続きに沿って処理されることを期待できることを明示している。
Measures in support of innovation 技術革新を支援するための措置
With a view to creating a legal framework that is more innovation-friendly and to promoting evidence-based regulatory learning, the provisions concerning measures in support of innovation have been substantially modified in the text. よりイノベーションに適した法的枠組みの構築と、根拠に基づく規制の学習を促進する観点から、イノベーションを支援する措置に関する規定が大幅に修正された。
Notably, it has been clarified that AI regulatory sandboxes, which are supposed to establish a controlled environment for the development, testing and validation of innovative AI systems, should also allow for testing of innovative AI systems in real world conditions. 特に、革新的なAIシステムの開発、テスト、検証のための制御された環境を確立することになっているAI規制サンドボックスは、現実世界の条件下での革新的なAIシステムのテストも可能にすべきことが明確にされた。
Furthermore, new provisions have been added allowing unsupervised real-world testing of AI systems, under specific conditions and safeguards. In order to alleviate the administrative burden for smaller companies, the text includes a list of actions to be undertaken to support such operators, and it provides for some limited and clearly specified derogations. さらに、特定の条件と保護措置の下で、AIシステムの監視されていない実世界でのテストを可能にする新しい条項が追加された。また、中小企業の管理負担を軽減するため、そのような事業者を支援するために実施すべき措置のリストを盛り込み、いくつかの限定的かつ明確に指定された例外措置を規定している。
Next steps 次のステップ
The adoption of the general approach will allow the Council to enter negotiations with the European Parliament (‘trilogues’) once the latter adopts its own position with a view to reaching an agreement on the proposed regulation. 一般的アプローチの採択により、欧州議会が独自の見解を示した後、理事会は欧州議会との交渉(「三者協議」)に入り、規制案について合意に達することができるようになる。
General approach 一般的アプローチ
General approach - Statement by Germany 一般的アプローチ - ドイツの声明
Draft regulation (Commission proposal) 規制案(欧州委員会提案)
A European approach to artificial intelligence (European Commission information) 人工知能に対する欧州のアプローチ(欧州委員会情報)
A digital future for Europe (background information) 欧州のデジタルな未来 (背景情報)
Visit the meeting page  会議のページ

 

General approach

20221208-151748

・[DOCX] 仮訳

 


 

まるちゃんの情報セキュリティきまぐれ日記

・2022.09.30 欧州委員会 AI責任指令案

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

 

|

« 欧州データ保護委員会が、Facebook、Instagram、WhatsAppに対するアイルランドのデータ保護委員会の決定に対する他のデータ保護委員会からの異議申し立てに対して調整することに。。。 | Main | 金融庁 財務報告に係る内部統制の評価及び監査の基準並びに財務報告に係る内部統制の評価及び監査に関する実施基準の改訂について... »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 欧州データ保護委員会が、Facebook、Instagram、WhatsAppに対するアイルランドのデータ保護委員会の決定に対する他のデータ保護委員会からの異議申し立てに対して調整することに。。。 | Main | 金融庁 財務報告に係る内部統制の評価及び監査の基準並びに財務報告に係る内部統制の評価及び監査に関する実施基準の改訂について... »