« 米国 欧州 米欧サイバー対話(第9回@ブリュッセル) | Main | 米国 国防総省 内部監察官室 請負業者ネットワーク上の国防総省管理対象非機密情報保護に関するサイバーセキュリティの共通の不備 (2023.12.04) »

2023.12.10

欧州委員会、欧州議会がAI法について政治的合意

こんにちは、丸山満彦です。

欧州理事会、欧州議会がAI法について政治的合意をしたと報道されていますね。。。

サイバーレジリエンス法に続いてAI法ですね。。。

 

1-152235

 

 


欧州委員会

European Commission

・2023.12.09 Commission welcomes political agreement on Artificial Intelligence Act

Commission welcomes political agreement on Artificial Intelligence Act 欧州委員会、人工知能法に関する政治合意を歓迎する
The Commission welcomes the political agreement reached between the European Parliament and the Council on the Artificial Intelligence Act (AI Act), proposed by the Commission in April 2021. 欧州委員会は、欧州委員会が2021年4月に提案した人工知能法(AI法)に関する欧州議会と理事会の政治的合意を歓迎する。
Ursula von der Leyen, President of the European Commission, said: “Artificial intelligence is already changing our everyday lives. And this is just the beginning. Used wisely and widely, AI promises huge benefits to our economy and society. Therefore, I very much welcome today's political agreement by the European Parliament and the Council on the Artificial Intelligence Act. The EU's AI Act is the first-ever comprehensive legal framework on Artificial Intelligence worldwide. So, this is a historic moment. The AI Act transposes European values to a new era. By focusing regulation on identifiable risks, today's agreement will foster responsible innovation in Europe. By guaranteeing the safety and fundamental rights of people and businesses, it will support the development, deployment and take-up of trustworthy AI in the EU. Our AI Act will make a substantial contribution to the development of global rules and principles for human-centric AI.”  欧州委員会のウルスラ・フォン・デア・ライエン委員長は、次のように述べた: 「人工知能はすでに我々の日常生活を変えつつある。そして、これは始まりに過ぎない。賢く広く使われることで、AIは我々の経済と社会に大きな利益をもたらす。したがって、欧州議会と欧州理事会が本日、人工知能法について政治的合意に達したことを大いに歓迎する」と述べた。EUのAI法は、人工知能に関する世界初の包括的な法的枠組みである。これは歴史的な瞬間である。AI法は、欧州の価値観を新しい時代に移管するものだ。識別可能なリスクに規制を集中させることで、本日の合意は欧州における責任ある技術革新を促進する。人々と企業の安全と基本的権利を保証することで、EUにおける信頼できるAIの開発、展開、利用を支援する。われわれのAI法は、人間中心のAIに関する世界的なルールと原則の発展に大きく貢献するだろう」。
The European approach to trustworthy AI 信頼できるAIに対する欧州のアプローチ
The new rules will be applied directly in the same way across all Member States, based on a future-proof definition of AI. They follow a risk-based approach: 新ルールは、AIに関する将来性のある定義に基づき、すべての加盟国で同じ方法で直接適用される。リスクベースのアプローチに従う:
Minimal risk: The vast majority of AI systems fall into the category of minimal risk. Minimal risk applications such as AI-enabled recommender systems or spam filters will benefit from a free-pass and absence of obligations, as these systems present only minimal or no risk for citizens' rights or safety. On a voluntary basis, companies may nevertheless commit to additional codes of conduct for these AI systems. 最小リスク:大半のAIシステムは最小リスクのカテゴリーに分類される。AIを活用したレコメンダーシステムやスパムフィルターのような極小リスクアプリケーションは、市民の権利や安全に対するリスクが極小または皆無であるため、フリーパスと義務の不存在の恩恵を受ける。それでも、企業は自主的に、これらのAIシステムに対する追加的な行動規範を約束することができる。
High-risk: AI systems identified as high-risk will be required to comply with strict requirements, including risk-mitigation systems, high quality of data sets, logging of activity, detailed documentation, clear user information, human oversight, and a high level of robustness, accuracy and cybersecurity. Regulatory sandboxes will facilitate responsible innovation and the development of compliant AI systems. 高リスク: 高リスクと識別されたAIシステムは、リスク低減システム、高品質のデータセット、活動のロギング、詳細な文書化、明確なユーザー情報、人間による監視、高水準の堅牢性、正確性、サイバーセキュリティなど、厳格な要件に準拠することが求められる。規制のサンドボックスは、責任あるイノベーションとコンプライアンスに準拠したAIシステムの開発を促進する。
Examples of such high-risk AI systems include certain critical infrastructures for instance in the fields of water, gas and electricity; medical devices; systems to determine access to educational institutions or for recruiting people; or certain systems used in the fields of law enforcement, border control, administration of justice and democratic processes. Moreover, biometric identification, categorisation and emotion recognition systems are also considered high-risk.  このようなリスクの高いAIシステムの例としては、例えば水道、ガス、電力などの重要インフラ、医療機器、教育機関へのアクセスや人材募集のためのシステム、法執行、国境管理、司法行政、民主主義プロセスの分野で使用されるシステムなどがある。さらに、バイオメトリクス識別、分類、感情認識システムも高リスクとみなされる。
Unacceptable risk: AI systems considered a clear threat to the fundamental rights of people will be banned. This includes AI systems or applications that manipulate human behaviour to circumvent users' free will, such as toys using voice assistance encouraging dangerous behaviour of minors or systems that allow ‘social scoring' by governments or companies, and certain applications of predictive policing. In addition, some uses of biometric systems will be prohibited, for example emotion recognition systems used at the workplace and some systems for categorising people or real time remote biometric identification for law enforcement purposes in publicly accessible spaces (with narrow exceptions). 許容できないリスク: 人々の基本的権利を明らかに脅かすと考えられるAIシステムは禁止される。これには、未成年者の危険な行動を促す音声アシスタントを使った玩具や、政府や企業による「ソーシャル・スコアリング」を可能にするシステム、予測的取り締まりの特定のアプリケーションなど、ユーザーの自由意志を回避するために人間の行動を操作するAIシステムやアプリケーションが含まれる。さらに、バイオメトリクス・システムの一部の使用は禁止される。例えば、職場で使用される感情認識システム、人を分類するための一部のシステム、公共のアクセス可能な空間における法執行目的のリアルタイム遠隔バイオメトリクス識別などである(狭い例外を除く)。
Specific transparency risk: When employing AI systems such as chatbots, users should be aware that they are interacting with a machine. Deep fakes and other AI generated content will have to be labelled as such, and users need to be informed when biometric categorisation or emotion recognition systems are being used. In addition, providers will have to design systems in a way that synthetic audio, video, text and images content is marked in a machine-readable format, and detectable as artificially generated or manipulated. 特定の透明性リスク: チャットボットなどのAIシステムを採用する場合、ユーザーは機械とやりとりしていることを認識すべきである。ディープフェイクやその他のAIが生成したコンテンツは、そのようにラベル付けする必要があり、生体認証分類や感情認識システムが使用されている場合は、ユーザーに知らせる必要がある。さらにプロバイダは、合成音声、動画、テキスト、画像のコンテンツが機械可読形式で表示され、人工的に生成または操作されたものであることを検知できるようにシステムを設計しなければならなくなる。
Companies not complying with the rules will be fined. ルールに従わない企業には罰金が科される。
General purpose AI 汎用AI
The AI Act introduces dedicated rules for general purpose AI models that will ensure transparency along the value chain. For very powerful models that could pose systemic risks, there will be additional binding obligations related to managing risks and monitoring serious incidents, performing model evaluation and adversarial testing. These new obligations will be operationalised through codes of practices developed by industry, the scientific community, civil society and other stakeholders together with the Commission. AI法は、バリューチェーンに沿った透明性を確保するため、汎用AIモデル専用のルールを導入する。システミック・リスクを引き起こす可能性のある非常に強力なモデルについては、リスクマネジメントと重大インシデントの監視、モデル評価と敵対的テストの実施に関する拘束力のある義務が追加される。これらの新たな義務は、産業界、科学界、市民社会、その他の利害関係者が欧州委員会とともに策定する実施規範を通じて運用される。
In terms of governance, national competent market surveillance authorities will supervise the implementation of the new rules at national level, while the creation of a new European AI Office within the European Commission will ensure coordination at European level. The new AI Office will also supervise the implementation and enforcement of the new rules on general purpose AI models. Along with the national market surveillance authorities, the AI Office will be the first body globally that enforces binding rules on AI and is therefore expected to become an international reference point. For general purpose models, a scientific panel of independent experts will play a central role by issuing alerts on systemic risks and contributing to classifying and testing the models. ガバナンスの面では、各国の市場監視担当当局が国内レベルで新規則の実施を監督する一方、欧州委員会内に欧州AI事務局を新設し、欧州レベルでの調整を図る。新AI事務局は、汎用AIモデルに関する新規則の実施と施行も監督する。各国の市場監視当局とともに、AI事務局はAIに関する拘束力のある規則を施行する世界初の団体となるため、国際的な基準点となることが期待される。汎用モデルについては、独立した専門家からなる科学的パネルが、システミック・リスクに関する警告を発し、モデルの分類とテストに貢献することで、中心的な役割を果たすことになる。
Next Steps 次のステップ
The political agreement is now subject to formal approval by the European Parliament and the Council. この政治的合意は、欧州議会と欧州理事会による正式な承認が必要となる。
Once the AI Act is adopted, there will be a transitional period before the Regulation becomes applicable. To bridge this time, the Commission will be launching an AI Pact. It will convene AI developers from Europe and around the world who commit on a voluntary basis to implement key obligations of the AI Act ahead of the legal deadlines. AI法が採択されれば、同規則が適用されるまでの経過措置期間が設けられる。この期間を埋めるため、欧州委員会はAI Pactを立ち上げる予定である。同協定は、法的期限に先駆けてAI法の主要な義務を履行することを自発的に約束する欧州および世界中のAI開発者を招集する。
To promote rules on trustworthy AI at international level, the European Union will continue to work in fora such as the G7, the OECD, the Council of Europe, the G20 and the UN. Just recently, we supported the agreement by G7 leaders under the Hiroshima AI process on International Guiding Principles and a voluntary Code of Conduct for Advanced AI systems. 信頼に足るAIに関するルールを国際レベルで推進するため、欧州連合(EU)はG7、OECD、欧州評議会、G20、国連などの場で引き続き活動していく。つい最近も、広島AIプロセスの下で、G7首脳が国際指導原則と先進AIシステムの自主行動規範に合意したことを支援した。
Background 背景
For years, the Commission has been facilitating and enhancing cooperation on AI across the EU to boost its competitiveness and ensure trust based on EU values.  欧州委員会は、EUの競争力を高め、EUの価値観に基づく信頼を確保するため、長年にわたり、AIに関するEU域内の協力を促進・強化してきた。
Following the publication of the European Strategy on AI in 2018 and after extensive stakeholder consultation, the High-Level Expert Group on Artificial Intelligence (HLEG) developed Guidelines for Trustworthy AI in 2019, and an Assessment List for Trustworthy AI in 2020. In parallel, the first Coordinated Plan on AI was published in December 2018 as a joint commitment with Member States. 2018年にAIに関する欧州戦略を発表した後、広範な利害関係者の協議を経て、人工知能に関するハイレベル専門家グループ(HLEG)は2019年に「信頼できるAIのためのガイドライン」を、2020年には「信頼できるAIのための評価リスト」を策定した。これと並行して、加盟国との共同コミットメントとして、AIに関する最初の調整計画が2018年12月に発表された。
The Commission's White Paper on AI, published in 2020, set out a clear vision for AI in Europe: an ecosystem of excellence and trust, setting the scene for today's political agreement. The public consultation on the White Paper on AI elicited widespread participation from across the world. The White Paper was accompanied by a ‘Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics' concluding that the current product safety legislation contains a number of gaps that needed to be addressed, notably in the Machinery Directive. 2020年に発表された欧州委員会のAI白書は、欧州におけるAIの明確なビジョン、すなわち卓越性と信頼のエコシステムを示し、今日の政治的合意の舞台となった。AI白書に関する公開協議には、世界各国から幅広い参加があった。白書には「人工知能、モノのインターネット、ロボット工学の安全性と責任への影響に関する報告書」が添付され、現行の製品安全法制には、特に機械指令において対処すべき数多くのギャップがあると結論づけられた。
Independent, evidence-based research produced by the Joint Research Centre (JRC) has been fundamental in shaping the EU's AI policies and ensuring their effective implementation. Through rigorous research and analysis, the JRC has supported the development of the AI Act, informing AI terminology, risk classification, technical requirements and contributing to the ongoing development of harmonised standards.    共同研究センター(JRC)が作成した独立した証拠に基づく研究は、EUのAI政策を形成し、その効果的な実施を確保する上で基本的な役割を果たしてきた。厳格な調査と分析を通じて、JRCはAI法の策定を支援し、AIの用語、リスク分類、技術的要件に情報を提供し、現在進行中の整合規格の策定に貢献している。  
For More Information 詳細情報
New rules for Artificial Intelligence – Questions and Answers (update available shortly) 人工知能に関する新しいルール - Q&A (近日中に更新予定)
New rules for Artificial Intelligence – Facts page 人工知能に関する新規則 - 事実のページ
Hiroshima AI Process: Guiding Principles and a Code of Conduct on Artificial Intelligence 広島AIプロセス: 人工知能に関する指導原則と行動規範
Coordinated Plan on Artificial Intelligence 人工知能に関する調整計画
Regulation on Machinery Products 機械製品に関する規制
Liability Rules for Artificial Intelligence 人工知能の責任に関する規則
European Centre for Algorithmic Transparency, Joint Research Centre 欧州アルゴリズム透明性センター、共同研究センター
Quote(s) 引用
Artificial intelligence is already changing our everyday lives. And this is just the beginning. Used wisely and widely, AI promises huge benefits to our economy and society. Therefore, I very much welcome today's political agreement by the European Parliament and the Council on the Artificial Intelligence Act. The EU’s AI Act is the first-ever comprehensive legal framework on Artificial Intelligence worldwide. So, this is a historic moment. The AI Act transposes European values to a new era. By focusing regulation on identifiable risks, today’s agreement will foster responsible innovation in Europe. By guaranteeing the safety and fundamental rights of people and businesses, it will support the development, deployment and take-up of trustworthy AI in the EU. Our AI Act will make a substantial contribution to the development of global rules and principles for human-centric AI. 人工知能はすでに私たちの日常生活を変えつつある。そして、これは始まりに過ぎない。賢く広く使われることで、AIは我々の経済と社会に大きな利益をもたらす。したがって、本日、欧州議会と欧州理事会が人工知能法について政治的合意に達したことを大いに歓迎する。EUのAI法は、人工知能に関する世界初の包括的な法的枠組みである。これは歴史的な瞬間である。AI法は、欧州の価値観を新しい時代に移管するものだ。識別可能なリスクに規制を集中させることで、本日の合意は欧州における責任あるイノベーションを促進する。人々と企業の安全と基本的権利を保証することで、EUにおける信頼できるAIの開発、展開、利用を支援する。我々のAI法は、人間中心のAIに関する世界的なルールと原則の発展に大きく貢献するだろう
Ursula von der Leyen, President of the European Commission - 09/12/2023 ウルスラ・フォン・デア・ライエン 欧州委員会委員長 - 09/12/2023
I warmly welcome the agreement reached on the AI Act – the first comprehensive legislation addressing the risk of AI technologies. AI is already truly transformative, and we, the Europeans, must have a legal way to protect themselves from the most harmful impacts of AI. Our approach is risk-based and innovation-friendly. We simply want the people to retain their rights and uphold the fundamental rights in the digital age. We can do that not only by having laws, but also cherishing tech developers and working with them, so they have human-centric approach when they design and implement AI technology. AI技術のリスクに対処する初の包括的な法律であるAI法が合意に達したことを心から歓迎する。AIはすでに真に変革をもたらすものであり、我々欧州の人々は、AIの最も有害な影響から自らを守る法的手段を持たなければならない。我々のアプローチは、リスクベースでイノベーションに優しいものだ。私たちは、デジタル時代において、国民が権利を保持し、基本的権利を維持することを望んでいる。法律を制定するだけでなく、技術開発者を大切にし、彼らと協力することで、彼らがAI技術を設計・実装する際に人間中心のアプローチをとることができるのだ。
Věra Jourová, Vice-President for Values and Transparency - 09/12/2023 ヴィエラ・ジュロヴァー、価値と透明性担当副会長 - 09/12/2023
I welcome this historic deal. The EU becomes the first continent to set clear rules for the use of AI. The AI Act is much more than a rulebook — it's a launchpad for EU startups and researchers to lead the global race for trustworthy AI. This Act is not an end in itself; it's the beginning of a new era in responsible and innovative AI development – fuelling growth and innovation for Europe. この歴史的な合意を歓迎する。EUは、AIの使用について明確なルールを定めた最初の大陸となる。AI法は、ルールブック以上のものであり、EUの新興企業や研究者が、信頼できるAIの世界的な競争をリードするための発射台となる。この法律はそれ自体が目的ではなく、責任ある革新的なAI開発の新時代の始まりであり、欧州の成長と革新を促進するものである」。
Thierry Breton, Commissioner for Internal Market - 09/12/2023 ティエリー・ブルトン欧州委員会域内市場担当委員 - 09/12/2023

 

 

ライアン委員長のコメント

・2023.12.09 Statement by President von der Leyen on the political agreement on the EU AI Act

Statement by President von der Leyen on the political agreement on the EU AI Act EUのAI法に関する政治的合意に関するフォン・デル・ライエン委員長の声明
Artificial intelligence is already changing our everyday lives. And this is just the beginning. Used wisely and widely, AI promises huge benefits to our economy and society. 人工知能はすでに我々の日常生活を変えつつある。そして、これは始まりにすぎない。賢く広く使用されることで、AIは我々の経済と社会に大きな利益をもたらす。
Therefore, I very much welcome today's political agreement by the European Parliament and the Council on the Artificial Intelligence Act. The EU's AI Act is the first-ever comprehensive legal framework on Artificial Intelligence worldwide. So, this is a historic moment. The AI Act transposes European values to a new era. A commitment we took in our political guidelines for this Commission mandate – and we delivered. したがって、欧州議会と欧州理事会が本日、人工知能法に関する政治合意に達したことを大いに歓迎する。EUのAI法は、人工知能に関する世界初の包括的な法的枠組みである。これは歴史的な瞬間である。AI法は、欧州の価値観を新しい時代に移し替えるものだ。これは、欧州委員会の権限に関する政治指針の中で私たちが約束したことであり、私たちはそれを実現した。
Today's agreement focuses regulation on identifiable risks, provides legal certainty and opens the way for innovation in trustworthy AI. By guaranteeing the safety and fundamental rights of people and businesses, the Act will support the human-centric, transparent and responsible development, deployment and take-up of AI in the EU. 本日の合意は、規制を特定可能なリスクに集中させ、法的確実性を提供し、信頼できるAIの革新への道を開くものである。この法律は、人々と企業の安全と基本的権利を保証することにより、EUにおける人間中心の、透明で責任あるAIの開発、導入、利用を支援する。
That vision guided us when we first put forward the AI Act in April 2021 – and again just a few weeks ago, when we decided to open our world-class supercomputers to European AI start-ups and SMEs. By accelerating AI training and testing, reducing training time from months to weeks, this will help the EU AI community to scale up in a responsible manner. At the same time, we are investing more than 1 billion euros per year from the Horizon Europe and Digital Europe programmes in AI research and innovation. このビジョンは、2021年4月に初めてAI法を提唱した際にも、そしてつい数週間前、欧州のAIベンチャー企業や中小企業に世界最高水準のスーパーコンピューターを開放することを決定した際にも、私たちを導いてくれた。AIのトレーニングとテストを加速させ、トレーニングにかかる時間を数ヶ月から数週間に短縮することで、EUのAIコミュニティが責任ある方法でスケールアップするのに役立つだろう。同時に、ホライゾン・ヨーロッパとデジタル・ヨーロッパのプログラムから、AIの研究と革新に年間10億ユーロ以上を投資している。
Until the Act will be fully applicable, we will support businesses and developers to anticipate the new rules. Around 100 companies have already expressed their interest to join our AI Pact, by which they would commit on a voluntary basis to implement key obligations of the Act ahead of the legal deadline. 同法が完全に適用されるまでの間、われわれは企業や開発者が新しい規則を予期できるよう支援していく。すでに約100社が我々のAI協定に参加する意向を示しており、この協定により、法的期限に先駆けて同法の主要な義務を履行することを自主的に約束することになる。
Our AI Act will also make a substantial contribution to the development of global guardrails for trustworthy AI. We will continue our work at international level, in the G7, the OECD, the Council of Europe, the G20 and the UN. Just recently, we supported the agreement by G7 leaders under the Hiroshima AI process on International Guiding Principles and a voluntary Code of Conduct for Advanced AI systems. 我々のAI法はまた、信頼できるAIのためのグローバルなガードレールの開発にも大きく貢献するだろう。我々は、G7、OECD、欧州評議会、G20、国連といった国際レベルでの活動を継続する。つい最近も、広島AIプロセスの下、G7首脳が国際指導原則と先進AIシステムの自主行動規範に合意したことを支援した。
I would like to thank both the European Parliament and the Council for their hard and diligent work to arrive to today's agreement. 本日の合意に至るまでの欧州議会と欧州理事会の懸命な努力に感謝したい。

 

 

ブルトン委員長の声明

・2023.12.08 Statement by Commissioner Breton - The European AI Act is here!

Statement by Commissioner Breton - The European AI Act is here! ブルトン委員長による声明 - 欧州AI法はここにある!
Historic! 歴史的なことだ!
With the political deal on the AI Act sealed tonight, the EU becomes the first continent to set clear rules for the use of AI. AI法に関する政治的合意が今夜成立し、EUは、AIの利用に関する明確なルールを定めた最初の大陸となった。
The final negotiation round—known as a "trilogue" in Brussels jargon—between the EU Parliament, EU Council, and EU Commission, spanned no less than 37 hours ! ブリュッセルの専門用語で「トリローグ」と呼ばれる、EU議会、EU理事会、EU委員会による最終交渉は、37時間にも及んだ!
This ultramarathon session demonstrates the vibrancy of our democracy and the commitment of EU leaders to find the right balance in the general European interest. このウルトラマラソンのようなセッションは、EUの民主主義の活力と、欧州全体の利益のために適切なバランスを見出そうとするEU首脳のコミットメントを示している。
The AI Act is much more than a rulebook—it's a launchpad for EU startups and researchers to lead the global race for trustworthy AI. AI法はルールブック以上のものであり、EUの新興企業や研究者が信頼できるAIの世界的な競争をリードするための発射台なのだ。
Balancing user safety and innovation for startups, while respecting fundamental rights and European values, was no easy feat. But we managed. 基本的権利と欧州の価値観を尊重しつつ、ユーザーの安全と新興企業のイノベーションのバランスを取ることは容易なことではなかった。しかし、我々は何とかやり遂げた。
When I joined the European Commission in 2019, I embarked on a mission to organise our “information space” and to invest in our technological leadership – including in AI. 2019年に欧州委員会に就任した私は、我々の「情報空間」を整理し、AIを含む技術的リーダーシップに投資するという使命に着手した。
“Too complicated, will take too much time, it's anti-innovation, let developers self-regulate…” A number of companies, backed by non-EU countries, tried to discourage us. They knew that the first to establish rules has a first-mover advantage in setting the global standard. This made the legislative process particularly complex – but not impossible. 「複雑すぎる、時間がかかりすぎる、反イノベーションだ、開発者に自主規制させろ......」。非EU諸国の支援を受けた多くの企業が、私たちを落胆させようとした。彼らは、世界標準を設定するには、最初にルールを確立したほうが先行者利益を得られることを知っていた。そのため、立法プロセスは特に複雑なものとなったが、不可能ではなかった。
Over these past four years, we engaged in extensive consultations and a democratic process to make AI regulation a reality, with the European Parliament and the 27 Member States. この4年間、我々は欧州議会と27の加盟国との間で、AI規制を実現するための広範な協議と民主的なプロセスに従事した。
During this time, technology and its applications evolved rapidly. So did our approach. For instance, large general-purpose AI models gained prominence, and business-to-consumer applications, non-existent in 2019, rapidly gained a vast user base. Our democratic bodies adjusted the legal proposal to these changes, always aiming to balance safety with innovation. この間、テクノロジーとその応用は急速に進化した。我々のアプローチも同様だった。例えば、大規模な汎用AIモデルが脚光を浴び、2019年には存在しなかった企業対消費者向けアプリケーションが急速に膨大なユーザーベースを獲得した。我々の民主団体は、常に安全性とイノベーションの両立を目指しながら、これらの変化に合わせて法律案を調整していった。
This culminated in today's final, successful trilogue. その結果、本日の最終的な鼎談が成功裏に終了した。
Highlights of the trilogue 鼎談のハイライト
Large AI Models (e.g. GPT4) 大型AIモデル(GPT4など)
With today's agreement, we are the first to establish a binding but balanced framework for large AI models (“general-purpose AI models”), promoting innovation along the AI value chain. 本日の合意により、我々は、大型AIモデル(「汎用AIモデル」)に対する拘束力を持ちながらもバランスの取れた枠組みを初めて確立し、AIのバリューチェーンに沿ったイノベーションを促進する。
We agreed on a two-tier approach, with transparency requirements for all general-purpose AI models and stronger requirements for powerful models with systemic impacts across our EU Single Market. 我々は、すべての汎用AIモデルに対する透明性要件と、EU単一市場全体にシステミックな影響を及ぼす強力なモデルに対するより強い要件という、2段階のアプローチで合意した。
For these systemic models, we developed an effective and agile system to assess and tackle their systemic risks. これらのシステミック・モデルについては、そのシステミック・リスクを評価し、対処するための効果的かつ機動的なシステムを開発した。
During the trilogue we carefully calibrated this approach, in order to avoid excessive burden, while still ensuring that developers share important information with downstream AI providers (including many SMEs). And we aligned on clear definitions that give legal certainty to model developers. 三者協議の間、我々は、過度な負担を回避しつつ、開発者が(多くの中小企業を含む)下流のAIプロバイダと重要な情報を共有できるよう、このアプローチを慎重に調整した。そして、モデル開発者に法的な確実性を与える明確な定義について足並みを揃えた。
Protecting fundamental rights 基本的権利の保護
We spent a lot of time on finding the right balance between making the most of AI potential to support law enforcement while protecting our citizens' fundamental rights. We do not want any mass surveillance in Europe. 我々は、法執行を支援するためにAIの可能性を最大限に活用する一方で、市民の基本的権利を保護するという適切なバランスを見つけることに多くの時間を費やした。我々はヨーロッパにおいて、いかなる大量監視も望んでいない。
My approach is always to regulate as little as possible, as much as needed. Which is why I promoted a proportionate risk-based approach. This makes the EU AI Act unique – it allows us to ban AI uses that violate fundamental rights and EU values, set clear rules for high-risk use cases, and promote innovation without barriers for all low-risk use cases. 私のアプローチは常に、可能な限り規制を少なく、必要な限り規制するというものだ。これが、私が比例的なリスクベースのアプローチを推進した理由である。基本的権利やEUの価値観に反するAIの利用を禁止し、リスクの高いユースケースについては明確なルールを定め、リスクの低いユースケースについては障壁なくイノベーションを促進することができる。
During the trilogue, we defined the specifics of this risk-based approach. In particular, we agreed on a set of well-balanced and well-calibrated bans, such as real-time facial recognition, with a small number of well-defined exemptions and safeguards. 今回の鼎談では、このリスクベースのアプローチの具体的な内容を定義した。特に、リアルタイムの顔認証のような、少数の明確に定義された適用除外とセーフガードを伴う、バランスの取れた、よく調整された禁止事項のセットについて合意した。
We also defined various high-risk use cases, such as certain uses of AI in law enforcement, workplace and education, where we see a particular risk for fundamental rights. And we ensured that the high-risk requirements are effective, proportionate and well-defined. また、法執行、職場、教育におけるAIの特定の使用など、基本的権利に対する特別なリスクがあると考えられる様々な高リスクのユースケースを定義した。そして、リスクの高い要件が効果的、比例的、かつ明確に定義されていることを確認した。
Innovation イノベーション
We developed tools to promote innovation. Beyond the previously agreed regulatory sandboxes, we aligned on the possibility to test high-risk AI systems in real-world conditions (outside the lab, with the necessary safeguards). 我々はイノベーションを促進するツールを開発した。以前合意された規制上のサンドボックスに加え、我々はリスクの高いAIシステムを(必要な保護措置を講じた上で、研究室の外で)実世界の条件下でテストする可能性について足並みを揃えた。
We also agreed that future-proof technical standards are at the heart of the regulation. また、将来を見据えた技術標準を規制の中心に据えることでも合意した。
This also includes certain environmental standards. これには一定の環境標準も含まれる。
Enforcement 執行
And finally, we agreed on a robust enforcement framework for the AI Act (distinguishing it from the many voluntary frameworks around the world). 最後に、我々はAI法の強固な執行枠組みについて合意した(世界中の多くの自主的な枠組みとは異なる)。
It involves market surveillance at national level and a new EU AI Office, to be established in my services in the European Commission. これには、国レベルでの市場監視と、欧州委員会の私の部署に新設されるEU AI事務局が含まれる。
And it includes tough penalties for companies that do not comply with the new rules. また、新規則を遵守しない企業には厳しい罰則を科すことが盛り込まれている。
*** ***
Europe has positioned itself as a pioneer, understanding the importance of its role as global standard-setter. 欧州は自らをパイオニアと位置づけ、世界標準の設定者としての役割の重要性を理解している。
Now, we embark on a new journey. 今、私たちは新たな旅に出る。
That's why I refer to the AI Act as a "launchpad". It provides startups and researchers with the opportunity to flourish by ensuring legal certainty for their innovations. 私がAI法を「発射台」と呼ぶのはそのためだ。この法律は、新興企業や研究者のイノベーションに法的確実性を確保することで、彼らが活躍する機会を提供するものである。
This Act is not an end in itself; it's the beginning of a new era in responsible and innovative AI development – fueling growth and innovation for Europe. この法律はそれ自体が目的ではなく、責任ある革新的なAI開発の新時代の始まりであり、欧州の成長とイノベーションを促進するものである。

 

 


欧州議会

European Parliament

・2023.12.09 Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI

 

Sanctions and entry into force制裁と発効

Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI 人工知能法:信頼できるAIのための包括的ルールに関する取り決め
・Safeguards agreed on general purpose artificial intelligence ・汎用人工知能に関するセーフガードに合意
・Limitation for the of use biometric identification systems by law enforcement ・法執行機関による生体認証システムの使用制限
・Bans on social scoring and AI used to manipulate or exploit user vulnerabilities ・ソーシャル・スコアリングと、ユーザーの脆弱性を操作または悪用するために使用されるAIの禁止
・Right of consumers to launch complaints and receive meaningful explanations ・消費者が苦情を申し立て、有意義な説明を受ける権利
・Fines ranging from 35 million euro or 7% of global turnover to 7.5 million or 1.5% of turnover ・罰金額は3500万ユーロ(世界売上高の7%)から750万ユーロ(売上高の1.5%)となる。
MEPs reached a political deal with the Council on a bill to ensure AI in Europe is safe, respects fundamental rights and democracy, while businesses can thrive and expand. 欧州議会は、欧州におけるAIの安全性を確保し、基本的権利と民主主義を尊重するとともに、企業の繁栄と拡大を図るための法案について、理事会と政治的合意に達した。
On Friday, Parliament and Council negotiators reached a provisional agreement on the Artificial Intelligence Act. This regulation aims to ensure that fundamental rights, democracy, the rule of law and environmental sustainability are protected from high risk AI, while boosting innovation and making Europe a leader in the field. The rules establish obligations for AI based on its potential risks and level of impact. 金曜日、欧州議会と理事会の交渉担当者は、人工知能法に関する暫定合意に達した。この規則は、基本的権利、民主主義、法の支配、環境の持続可能性がリスクの高いAIから確実に守られるようにする一方、イノベーションを後押しし、欧州をこの分野のリーダーにすることを目的としている。この規則では、AIの潜在的リスクと影響の度合いに基づいて、AIに対する義務を定めている。
Banned applications 禁止されるアプリケーション
Recognising the potential threat to citizens’ rights and democracy posed by certain applications of AI, the co-legislators agreed to prohibit: 共同立法者は、AIの特定の用途が市民の権利と民主主義にもたらす潜在的脅威を認識し、以下を禁止することで合意した:
・biometric categorisation systems that use sensitive characteristics (e.g. political, religious, philosophical beliefs, sexual orientation, race); ・センシティブな特性(政治的、宗教的、哲学的信条、性的指向、人種など)を利用したバイオメトリクス分類システム;
・untargeted scraping of facial images from the internet or CCTV footage to create facial recognition databases; ・顔認識データベースを作成するために、インターネットやCCTVの映像から顔画像を無作為にスクレイピングすること;
・emotion recognition in the workplace and educational institutions; ・職場や教育機関における感情認識;
・social scoring based on social behaviour or personal characteristics; ・社会的行動や個人的特徴に基づく社会的スコアリング;
・AI systems that manipulate human behaviour to circumvent their free will; ・人間の自由意志を回避するために人間の行動を操作するAIシステム;
・AI used to exploit the vulnerabilities of people (due to their age, disability, social or economic situation). ・年齢、障害、社会的または経済的状況による)人の脆弱性を利用するために使用されるAI。
Law enforcement exemptions 法執行の免除
Negotiators agreed on a series of safeguards and narrow exceptions for the use of biometric identification systems (RBI) in publicly accessible spaces for law enforcement purposes, subject to prior judicial authorisation and for strictly defined lists of crime. “Post-remote” RBI would be used strictly in the targeted search of a person convicted or suspected of having committed a serious crime. 交渉者たちは、法の執行を目的とし、事前に司法当局の許可を得た上で、厳密に定義された犯罪のリストに対して、公共のアクセス可能なスペースで生体認証システム(RBI)を使用するための一連のセーフガードと狭い例外について合意した。"ポスト・リモート "RBIは、重大犯罪を犯したと有罪判決を受けた、またはその疑いのある人物の標的を絞った捜査に厳格に使用される。
“Real-time” RBI would comply with strict conditions and its use would be limited in time and location, for the purposes of: 「リアルタイム」RBIは、以下の目的のために、厳格な条件を遵守し、時間と場所を限定して使用される:
・targeted searches of victims (abduction, trafficking, sexual exploitation), ・被害者(誘拐、人身売買、性的搾取)を対象とした捜査、
・prevention of a specific and present terrorist threat, or ・具体的かつ現在のテロリストの脅威の防止。
・the localisation or identification of a person suspected of having committed one of the specific crimes mentioned in the regulation (e.g. terrorism, trafficking, sexual exploitation, murder, kidnapping, rape, armed robbery, participation in a criminal organisation, environmental crime). ・規則で言及されている特定の犯罪(例:テロ、人身売買、性的搾取、殺人、誘拐、強姦、武装強盗、犯罪組織への参加、環境犯罪)のいずれかを犯した疑いのある人物の位置特定または身元確認。
Obligations for high-risk systems リスクの高いシステムに対する義務
For AI systems classified as high-risk (due to their significant potential harm to health, safety, fundamental rights, environment, democracy and the rule of law), clear obligations were agreed. MEPs successfully managed to include a mandatory fundamental rights impact assessment, among other requirements, applicable also to the insurance and banking sectors. AI systems used to influence the outcome of elections and voter behaviour, are also classified as high-risk. Citizens will have a right to launch complaints about AI systems and receive explanations about decisions based on high-risk AI systems that impact their rights. 高リスク(健康、安全、基本的権利、環境、民主主義、法の支配に重大な害を及ぼす可能性があるため)に分類されるAIシステムについては、明確な義務が合意された。欧州議会は、保険や銀行部門にも適用される、基本的人権の影響評価の義務化を盛り込むことに成功した。選挙結果や有権者の行動に影響を与えるために使用されるAIシステムも、ハイリスクに分類される。市民は、AIシステムに関して苦情を申し立てたり、権利に影響を与えるリスクの高いAIシステムに基づく決定について説明を受けたりする権利を持つことになる。
Guardrails for general artificial intelligence systems 一般的な人工知能システムのガードレール
To account for the wide range of tasks AI systems can accomplish and the quick expansion of its capabilities, it was agreed that general-purpose AI (GPAI) systems, and the GPAI models they are based on, will have to adhere to transparency requirements as initially proposed by Parliament. These include drawing up technical documentation, complying with EU copyright law and disseminating detailed summaries about the content used for training. AIシステムが達成できるタスクの幅の広さと、その能力の急速な拡大を考慮し、汎用AI(GPAI)システムおよびそのベースとなるGPAIモデルは、国会が当初提案した透明性要件を遵守しなければならないことが合意された。これには、技術文書を作成すること、EU著作権法を遵守すること、トレーニングに使用されたコンテンツに関する詳細な要約を普及させることなどが含まれる。
For high-impact GPAI models with systemic risk, Parliament negotiators managed to secure more stringent obligations. If these models meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency. MEPs also insisted that, until harmonised EU standards are published, GPAIs with systemic risk may rely on codes of practice to comply with the regulation. システミック・リスクを伴う影響力の大きいGPAIモデルについては、議会の交渉担当者は、より厳しい義務を確保することに成功した。これらのモデルが一定の基準を満たせば、モデル評価の実施、システミックリスクの評価と軽減、敵対的テストの実施、重大インシデントに関する欧州委員会への報告、サイバーセキュリティの確保、エネルギー効率の報告などが義務付けられる。また、欧州議会議員は、統一されたEU標準が公表されるまでは、システミック・リスクを抱えるGPAIは、この規制を遵守するための実践規範に頼ることができると主張した。
Measures to support innovation and SMEs イノベーションと中小企業を支援する措置
MEPs wanted to ensure that businesses, especially SMEs, can develop AI solutions without undue pressure from industry giants controlling the value chain. To this end, the agreement promotes so-called regulatory sandboxes and real-world-testing, established by national authorities to develop and train innovative AI before placement on the market. 欧州議会は、企業、特に中小企業が、バリューチェーンを支配する巨大企業から不当な圧力を受けることなく、AIソリューションを開発できるようにすることを望んだ。この目的のため、この協定は、いわゆる規制上のサンドボックスと実世界テストを推進する。これは、市場に投入される前に革新的なAIを開発・訓練するために、各国当局が設置するものである。
Sanctions and entry into force
制裁措置と発効
Non-compliance with the rules can lead to fines ranging from 35 million euro or 7% of global turnover to 7.5 million or 1.5 % of turnover, depending on the infringement and size of the company. 規則に違反した場合、違反の内容や企業の規模に応じて、3,500万ユーロまたは全世界の売上高の7%から750万ユーロまたは売上高の1.5%までの罰金が科せられる可能性がある。
Quotes 引用
Following the deal, co-rapporteur Brando Benifei (S&D, Italy) said: “It was long and intense, but the effort was worth it. Thanks to the European Parliament’s resilience, the world’s first horizontal legislation on artificial intelligence will keep the European promise - ensuring that rights and freedoms are at the centre of the development of this ground-breaking technology. Correct implementation will be key - the Parliament will continue to keep a close eye, to ensure support for new business ideas with sandboxes, and effective rules for the most powerful models. 合意を受けて、共同報告者のブランド・ベニフェイ(S&D、イタリア)は次のように述べた: 「長く厳しいものだったが、その努力は報われた。欧州議会のレジリエンスのおかげで、人工知能に関する世界初の水平法は、欧州の約束、すなわち、権利と自由がこの画期的な技術の開発の中心にあることを保証する。議会は引き続き注視を続け、サンドボックスによる新しいビジネスアイデアの支援と、最も強力なモデルに対する効果的なルールを確保する」と述べた。
Co-rapporteur Dragos Tudorache (Renew, Romania) said: “The EU is the first in the world to set in place robust regulation on AI, guiding its development and evolution in a human-centric direction. The AI Act sets rules for large, powerful AI models, ensuring they do not present systemic risks to the Union and offers strong safeguards for our citizens and our democracies against any abuses of technology by public authorities. It protects our SMEs, strengthens our capacity to innovate and lead in the field of AI, and protects vulnerable sectors of our economy. The European Union has made impressive contributions to the world; the AI Act is another one that will significantly impact our digital future”. 共同報告者のドラゴス・トゥドラチェ(Renew、ルーマニア)は次のように述べた: 「EUは、AIに関する強固な規制を世界で初めて導入し、AIが人間中心の方向に発展・進化するよう導いている。AI法は、大規模で強力なAIモデルに対する規則を定め、それらがEUにシステミック・リスクをもたらさないことを保証し、公的機関による技術の乱用から市民と民主主義を守るための強力なセーフガードを提供する。また、中小企業を保護し、AIの分野における革新と先導のための我々の能力を強化し、経済の脆弱性を保護する。欧州連合(EU)は世界に対して素晴らしい貢献をしてきたが、AI法もまた、我々のデジタルの未来に大きな影響を与えるものである」と述べた。
Press conference 記者会見
Lead MEPs Brando Benifei (S&D, Italy) and Dragos Tudorache (Renew, Romania), the Secretary of State for digitalisation and artificial intelligence Carme Artigas, and Commissioner Thierry Breton held a joint press conference after the negotiations. The statement of Mr Benifei is available here and Mr Tudorache's here. More extracts are available here 主席欧州議会議員のブランド・ベニフェイ氏(S&D、イタリア)とドラゴス・トゥドラチェ氏(刷新、ルーマニア)、カルメ・アルティガス国務大臣(デジタル化・人工知能担当)、ティエリー・ブルトン委員は交渉終了後、共同記者会見を行った。ベニフェイ氏の声明はこちらに、トゥドラチェ氏の声明はこちらに掲載されている。その他の抜粋はこちら
Next steps 次のステップ
The agreed text will now have to be formally adopted by both Parliament and Council to become EU law. Parliament’s Internal Market and Civil Liberties committees will vote on the agreement in a forthcoming meeting. 合意された文書がEU法となるためには、今後、議会と理事会の双方で正式に採択される必要がある。議会の域内市場委員会と自由権委員会は、近日中に開催される会議でこの合意について採決を行う予定である。

 

 


欧州理事会

European Council

・2023.12.09 Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world

 

Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world 人工知能法: 理事会と欧州議会、世界初のAIに関する規則で合意
Following 3-day ‘marathon’ talks, the Council presidency and the European Parliament’s negotiators have reached a provisional agreement on the proposal on harmonised rules on artificial intelligence (AI), the so-called artificial intelligence act. The draft regulation aims to ensure that AI systems placed on the European market and used in the EU are safe and respect fundamental rights and EU values. This landmark proposal also aims to stimulate investment and innovation on AI in Europe. 3日間の「マラソン」協議を経て、欧州理事会議長と欧州議会の交渉担当者は、人工知能(AI)に関する調和のとれた規則、いわゆる人工知能法に関する提案について暫定合意に達した。このドラフト規則は、欧州市場に投入され、EU域内で使用されるAIシステムが安全で、基本的権利とEUの価値観を尊重したものであることを保証することを目的としている。また、この画期的な提案は、欧州におけるAIへの投資と技術革新を促進することを目的としている。
This is a historical achievement, and a huge milestone towards the future! Today’s agreement effectively addresses a global challenge in a fast-evolving technological environment on a key area for the future of our societies and economies. And in this endeavour, we managed to keep an extremely delicate balance: boosting innovation and uptake of artificial intelligence across Europe whilst fully respecting the fundamental rights of our citizens. これは歴史的な成果であり、未来に向けた大きなマイルストーンである!本日の合意は、私たちの社会と経済の将来にとって重要な分野において、急速に進化する技術環境におけるグローバルな課題に効果的に対処するものである。そしてこの努力において、我々は極めて微妙なバランスを保つことに成功した。それは、ヨーロッパ全体の人工知能のイノベーションと普及を促進する一方で、市民の基本的権利を完全に尊重することである。
Carme Artigas, Spanish secretary of state for digitalisation and artificial intelligence カルメ・アルティガス、スペインのデジタル化・人工知能担当国務長官
The AI act is a flagship legislative initiative with the potential to foster the development and uptake of safe and trustworthy AI across the EU’s single market by both private and public actors. The main idea is to regulate AI based on the latter’s capacity to cause harm to society following a ‘risk-based’ approach: the higher the risk, the stricter the rules. As the first legislative proposal of its kind in the world, it can set a global standard for AI regulation in other jurisdictions, just as the GDPR has done, thus promoting the European approach to tech regulation in the world stage. AI法は、EUの単一市場全体において、安全で信頼できるAIの開発と普及を促進する可能性を秘めた、民間と公的機関の双方を対象とする主要な立法措置である。主な考え方は、「リスクベース」のアプローチに従って、社会に害を及ぼす可能性に基づいてAIを規制することである。この種の世界初の立法案として、GDPRがそうであったように、他の管轄区域におけるAI規制の世界標準を設定することができる。
The main elements of the provisional agreement 暫定合意の主な要素
Compared to the initial Commission proposal, the main new elements of the provisional agreement can be summarised as follows: 欧州委員会の当初の提案と比較して、暫定協定の主な新要素は以下のようにまとめられる:
・rules on high-impact general-purpose AI models that can cause systemic risk in the future, as well as on high-risk AI systems ・将来的にシステミック・リスクを引き起こす可能性のある、インパクトの大きい汎用AIモデル、およびリスクの高いAIシステムに関する規則
・a revised system of governance with some enforcement powers at EU level ・EUレベルでの強制力を持つガバナンスの見直し
・extension of the list of prohibitions but with the possibility to use remote biometric identification by law enforcement authorities in public spaces, subject to safeguards ・禁止リストを拡大するが、セーフガードを条件として、法執行当局による公共空間での遠隔バイオメトリクス認証の利用を可能にする。
・better protection of rights through the obligation for deployers of high-risk AI systems to conduct a fundamental rights impact assessment prior to putting an AI system into use. ・リスクの高いAIシステムの導入者は、AIシステムを使用する前に基本的人権の影響アセスメントを実施する義務を負うことにより、権利の保護を強化する。
In more concrete terms, the provisional agreement covers the following aspects: より具体的には、暫定合意は以下の側面をカバーしている:
Definitions and scope 定義と範囲
To ensure that the definition of an AI system provides sufficiently clear criteria for distinguishing AI from simpler software systems, the compromise agreement aligns the definition with the approach proposed by the OECD. AIシステムの定義が、AIをより単純なソフトウェアシステムと区別するための十分明確な基準を提供することを確実にするため、妥協的合意は、OECDが提案したアプローチに定義を合わせる。
The provisional agreement also clarifies that the regulation does not apply to areas outside the scope of EU law and should not, in any case, affect member states’ competences in national security or any entity entrusted with tasks in this area. Furthermore, the AI act will not apply to systems which are used exclusively for military or defence purposes. Similarly, the agreement provides that the regulation would not apply to AI systems used for the sole purpose of research and innovation, or for people using AI for non-professional reasons.  暫定合意はまた、この規則はEU法の範囲外の領域には適用されず、いかなる場合にも、加盟国の国家安全保障に関する権限や、この分野の業務を委託された事業体に影響を及ぼすべきではないことを明確にしている。さらに、AI法は軍事・防衛目的にのみ使用されるシステムには適用されない。同様に、研究・技術革新のみを目的とするAIシステムや、非専門的な理由でAIを使用する人々には、この規制は適用されないと協定は定めている。
Classification of AI systems as high-risk and prohibited AI practices リスクの高いAIシステムの分類と禁止されるAI行為
The compromise agreement provides for a horizontal layer of protection, including a high-risk classification, to ensure that AI systems that are not likely to cause serious fundamental rights violations or other significant risks are not captured. AI systems presenting only limited risk would be subject to very light transparency obligations, for example disclosing that the content was AI-generated so users can make informed decisions on further use. 妥協案では、重大な基本的権利侵害やその他の重大なリスクを引き起こす可能性のないAIシステムが捕捉されないようにするため、高リスク分類を含む水平的な保護レイヤーを規定している。限定的なリスクしか示さないAIシステムには、非常に軽い透明性義務が課される。例えば、コンテンツがAIによって生成されたものであることを開示し、利用者が十分な情報を得た上で今後の利用について判断できるようにする。
A wide range of high-risk AI systems would be authorised, but subject to a set of requirements and obligations to gain access to the EU market. These requirements have been clarified and adjusted by the co-legislators in such a way that they are more technically feasible and less burdensome for stakeholders to comply with, for example as regards the quality of data, or in relation to the technical documentation that should be drawn up by SMEs to demonstrate that their high-risk AI systems comply with the requirements. リスクの高い幅広いAIシステムは認可されるが、EU市場に参入するための一連の要件と義務が課される。これらの要件は、より技術的に実現可能で、例えばデータの品質や、高リスクのAIシステムが要件に適合していることを証明するために中小企業が作成すべき技術文書など、関係者にとって遵守の負担が少ないように、共同立法者によって明確化され、調整されている。
Since AI systems are developed and distributed through complex value chains, the compromise agreement includes changes clarifying the allocation of responsibilities and roles of the various actors in those chains, in particular providers and users of AI systems. It also clarifies the relationship between responsibilities under the AI Act and responsibilities that already exist under other legislation, such as the relevant EU data protection or sectorial legislation. AIシステムは複雑なバリューチェーンを通じて開発・流通されるため、今回の妥協案では、バリューチェーンにおける様々な関係者、特にAIシステムのプロバイダとユーザーの責任と役割分担を明確にする変更が盛り込まれている。また、AI法に基づく責任と、関連するEUのデータ保護法や分野別法などの他の法律の下ですでに存在する責任との関係も明確化されている。
For some uses of AI, risk is deemed unacceptable and, therefore, these systems will be banned from the EU. The provisional agreement bans, for example, cognitive behavioural manipulation, the untargeted scrapping of facial images from the internet or CCTV footage, emotion recognition in the workplace and educational institutions, social scoring, biometric categorisation to infer sensitive data, such as sexual orientation or religious beliefs, and some cases of predictive policing for individuals. AIの一部の用途については、リスクは容認できないと判断されるため、これらのシステムはEUから禁止されることになる。暫定合意では、例えば、認知行動操作、インターネットやCCTV映像からの顔画像の非標的化、職場や教育機関における感情認識、ソーシャルスコアリング、性的指向や宗教的信条などの機密データを推測するための生体分類、個人に対する予測的取り締まりの一部のケースなどが禁止されている。
Law enforcement exceptions 法執行機関の例外
Considering the specificities of law enforcement authorities and the need to preserve their ability to use AI in their vital work, several changes to the Commission proposal were agreed relating to the use of AI systems for law enforcement purposes. Subject to appropriate safeguards, these changes are meant to reflect the need to respect the confidentiality of sensitive operational data in relation to their activities. For example, an emergency procedure was introduced allowing law enforcement agencies to deploy a high-risk AI tool that has not passed the conformity assessment procedure in case of urgency. However, a specific mechanism has been also introduced to ensure that fundamental rights will be sufficiently protected against any potential misuses of AI systems. 法執行当局の特殊性と、その重要な業務においてAIを使用する能力を維持する必要性を考慮し、法執行目的でのAIシステムの使用に関して、欧州委員会の提案に対するいくつかの変更が合意された。適切な保護措置が講じられることを前提に、これらの変更は、法執行当局の活動に関連する機密性の高い業務データの機密性を尊重する必要性を反映したものとなっている。例えば、緊急の場合、法執行機関は適合性アセスメントに合格していないリスクの高いAIツールを導入することができる緊急手順が導入された。しかし、AIシステムの潜在的な悪用から基本的権利が十分に保護されることを保証するための特定のメカニズムも導入された。
Moreover, as regards the use of real-time remote biometric identification systems in publicly accessible spaces, the provisional agreement clarifies the objectives where such use is strictly necessary for law enforcement purposes and for which law enforcement authorities should therefore be exceptionally allowed to use such systems. The compromise agreement provides for additional safeguards and limits these exceptions to cases of victims of certain crimes, prevention of genuine, present, or foreseeable threats, such as terrorist attacks, and searches for people suspected of the most serious crimes. さらに、公にアクセス可能な空間におけるリアルタイムの遠隔生体認証システムの使用に関して、暫定協定は、その使用が法執行目的に厳密に必要であり、それゆえ法執行当局が例外的にそのようなシステムの使用を許可されるべき目的を明確にしている。妥協案では、さらなる保護措置をプロバイダが提供し、これらの例外を、特定の犯罪の被害者、テロ攻撃などの真正、現在、または予見可能な脅威の防止、最も重大な犯罪の容疑者の捜索の場合に限定している。
General purpose AI systems and foundation models 汎用AIシステムと基礎モデル
New provisions have been added to take into account situations where AI systems can be used for many different purposes (general purpose AI), and where general-purpose AI technology is subsequently integrated into another high-risk system. The provisional agreement also addresses the specific cases of general-purpose AI (GPAI) systems. AIシステムがさまざまな目的に使用できる場合(汎用AI)や、汎用AI技術がその後別のリスクの高いシステムに統合される場合を考慮した新たな規定が追加された。暫定合意は、汎用AI(GPAI)システムの特定のケースにも対処している。
Specific rules have been also agreed for foundation models, large systems capable to competently perform a wide range of distinctive tasks, such as generating video, text, images, conversing in lateral language, computing, or generating computer code. The provisional agreement provides that foundation models must comply with specific transparency obligations before they are placed in the market. A stricter regime was introduced for ‘high impact’ foundation models. These are foundation models trained with large amount of data and with advanced complexity, capabilities, and performance well above the average, which can disseminate systemic risks along the value chain. ビデオ、テキスト、画像の生成、横文字での会話、計算、コンピュータコードの生成など、幅広い特徴的なタスクを有能に実行できる大型システムである基盤モデルについても、具体的なルールが合意されている。暫定合意では、ファウンデーション・モデルは市場に投入される前に特定の透明性義務を遵守しなければならないと規定されている。インパクトの大きい」基礎モデルには、より厳しい制度が導入された。これらの基礎モデルは、大量のデータを用いて訓練され、平均を大きく上回る複雑性、能力、性能を持ち、バリューチェーンに沿ってシステミック・リスクを拡散させる可能性がある。
A new governance architecture 新たなガバナンス・アーキテクチャー
Following the new rules on GPAI models and the obvious need for their enforcement at EU level, an AI Office within the Commission is set up tasked to oversee these most advanced AI models, contribute to fostering standards and testing practices, and enforce the common rules in all member states. A scientific panel of independent experts will advise the AI Office about GPAI models, by contributing to the development of methodologies for evaluating the capabilities of foundation models, advising on the designation and the emergence of high impact foundation models, and monitoring possible material safety risks related to foundation models. GPAIモデルに関する新たな規則と、EUレベルでのその執行の必要性が明らかになったことを受け、欧州委員会内にAI事務局が設置され、これらの最先端のAIモデルを監督し、標準とテスト手法の育成に貢献し、全加盟国で共通の規則を執行する役割を担う。独立した専門家で構成される科学委員会は、基礎モデルの能力を評価する方法論の開発に貢献し、インパクトの高い基礎モデルの指定と出現について助言し、基礎モデルに関連する物質的安全リスクの可能性を監視することにより、GPAIモデルについてAI事務局に助言する。
The AI Board, which would comprise member states’ representatives, will remain as a coordination platform and an advisory body to the Commission and will give an important role to Member States on the implementation of the regulation, including the design of codes of practice for foundation models. Finally, an advisory forum for stakeholders, such as industry representatives, SMEs, start-ups, civil society, and academia, will be set up to provide technical expertise to the AI Board. 加盟国の代表者で構成されるAI理事会は、調整プラットフォームおよび欧州委員会の諮問機関として存続し、基礎モデルに関する実施基準の策定を含め、規制の実施に関して加盟国に重要な役割を与える。最後に、業界代表者、中小企業、新興企業、市民社会、学界などの利害関係者のための諮問フォーラムが設置され、AI委員会に技術的な専門知識を提供する。
Penalties 罰則
The fines for violations of the AI act were set as a percentage of the offending company’s global annual turnover in the previous financial year or a predetermined amount, whichever is higher. This would be €35 million or 7% for violations of the banned AI applications, €15 million or 3% for violations of the AI act’s obligations and €7,5 million or 1,5% for the supply of incorrect information. However, the provisional agreement provides for more proportionate caps on administrative fines for SMEs and start-ups in case of infringements of the provisions of the AI act. AI法違反に対する罰金は、違反企業の前会計年度における全世界の年間売上高に対する割合、またはあらかじめ定められた金額のいずれか高い方とされた。禁止されているAIアプリケーションの違反に対しては3500万ユーロ(7%)、AI法の義務違反に対しては1500万ユーロ(3%)、不正確な情報の提供に対しては750万ユーロ(1.5%)となる。ただし、暫定合意では、AI法の規定に違反した場合の中小企業や新興企業に対する行政罰金について、より比例的な上限を設けることをプロバイダに定めている。
The compromise agreement also makes clear that a natural or legal person may make a complaint to the relevant market surveillance authority concerning non-compliance with the AI act and may expect that such a complaint will be handled in line with the dedicated procedures of that authority. 妥協案ではまた、自然人または法人は、AI法の不遵守に関して関連市場監視当局に苦情を申し立てることができ、そのような苦情が当該当局の専用手続きに沿って処理されることを期待できることを明確にしている。
Transparency and protection of fundamental rights 透明性と基本的権利の保護
The provisional agreement provides for a fundamental rights impact assessment before a high-risk AI system is put in the market by its deployers. The provisional agreement also provides for increased transparency regarding the use of high-risk AI systems. Notably, some provisions of the Commission proposal have been amended to indicate that certain users of a high-risk AI system that are public entities will also be obliged to register in the EU database for high-risk AI systems.  Moreover, newly added provisions put emphasis on an obligation for users of an emotion recognition system to inform natural persons when they are being exposed to such a system. 暫定協定は、リスクの高いAIシステムが導入者によって市場に投入される前に、基本的権利の影響アセスメントを行うことを規定している。暫定協定はまた、リスクの高いAIシステムの使用に関する透明性の向上についても規定している。注目すべきは、欧州委員会提案のいくつかの条項が修正され、公共事業体である高リスクAIシステムの特定のユーザーは、EUの高リスクAIシステム用データベースへの登録も義務付けられることが示されたことである。 さらに、新たに追加された規定は、感情認識システムの利用者が、そのようなシステムにさらされている場合、自然人に通知する義務を強調している。
Measures in support of innovation イノベーション支援措置
With a view to creating a legal framework that is more innovation-friendly and to promoting evidence-based regulatory learning, the provisions concerning measures in support of innovation have been substantially modified compared to the Commission proposal. よりイノベーションに配慮した法的枠組みの構築と、エビデンスに基づく規制の学習を促進する観点から、イノベーション支援措置に関する規定は、欧州委員会の提案と比較して大幅に修正された。
Notably, it has been clarified that AI regulatory sandboxes, which are supposed to establish a controlled environment for the development, testing and validation of innovative AI systems, should also allow for testing of innovative AI systems in real world conditions. Furthermore, new provisions have been added allowing testing of AI systems in real world conditions, under specific conditions and safeguards. To alleviate the administrative burden for smaller companies, the provisional agreement includes a list of actions to be undertaken to support such operators and provides for some limited and clearly specified derogations.  特に、革新的なAIシステムの開発、テスト、検証のための管理された環境を構築することになっているAI規制のサンドボックスは、現実の世界における革新的なAIシステムのテストも可能にすべきであることが明確にされた。さらに、特定の条件と保護措置の下で、現実世界でのAIシステムのテストを可能にする新たな規定が追加された。中小企業の管理負担を軽減するため、暫定協定には、そのような事業者を支援するために実施すべき措置のリストが含まれ、限定的かつ明確に規定されたいくつかの適用除外が規定されている。
Entry into force 発効
The provisional agreement provides that the AI act should apply two years after its entry into force, with some exceptions for specific provisions. 暫定協定は、AI法の発効から2年後に適用されることを定めているが、特定の条項については例外もある。
Next steps 次のステップ
Following today’s provisional agreement, work will continue at technical level in the coming weeks to finalise the details of the new regulation. The presidency will submit the compromise text to the member states’ representatives (Coreper) for endorsement once this work has been concluded. 本日の暫定合意を受けて、今後数週間、技術レベルで新規則の詳細を詰める作業が続けられる。議長国は、この作業が終了次第、妥協案を加盟国代表者(Coreper)に提出し、承認を求める。
The entire text will need to be confirmed by both institutions and undergo legal-linguistic revision before formal adoption by the co-legislators. 共同立法者による正式な採択に先立ち、全文が両機構によって確認され、法文上の修正を受ける必要がある。
Background information 背景情報
The Commission proposal, presented in April 2021, is a key element of the EU’s policy to foster the development and uptake across the single market of safe and lawful AI that respects fundamental rights. 2021年4月に発表された欧州委員会の提案は、基本的権利を尊重する安全かつ合法的なAIの開発と単一市場全体での普及を促進するEUの政策の重要な要素である。
The proposal follows a risk-based approach and lays down a uniform, horizontal legal framework for AI that aims to ensure legal certainty.  The draft regulation aims to promote investment and innovation in AI, enhance governance and effective enforcement of existing law on fundamental rights and safety, and facilitate the development of a single market for AI applications. It goes hand in hand with other initiatives, including the coordinated plan on artificial intelligence which aims to accelerate investment in AI in Europe. On 6 December 2022, the Council reached an agreement for a general approach (negotiating mandate) on this file and entered interinstitutional talks with the European Parliament (‘trilogues’) in mid-June 2023. 同提案は、リスクベースのアプローチに従い、法的確実性を確保することを目的とした、AIに関する統一的で水平的な法的枠組みを定めている。 このドラフト規制は、AIへの投資とイノベーションを促進し、基本的権利と安全性に関する現行法のガバナンスと効果的な執行を強化し、AIアプリケーションの単一市場の発展を促進することを目的としている。これは、欧州におけるAIへの投資を加速させることを目的とした人工知能に関する協調計画など、他のイニシアチブとも密接な関係にある。2022年12月6日、理事会はこの問題に関する一般的なアプローチ(交渉権限)について合意に達し、2023年6月中旬に欧州議会との機関間協議(「三者協議」)に入った。
Artificial intelligence act, Council’s General Approach, 6 December 2022 人工知能法、理事会の一般的アプローチ、2022年12月6日
Artificial intelligence act, Commission proposal, 14 April 2021 人工知能法、欧州委員会提案、2021年4月14日
A European approach to artificial intelligence (European Commission information) 人工知能に対する欧州のアプローチ(欧州委員会情報)
A digital future for Europe (background information) 欧州のデジタルな未来(背景情報)
Your life online: how the EU is making it easier and safer for you (feature story) あなたのオンライン生活:EUはいかにしてより簡単で安全な生活を実現するか(特集記事)
Artificial intelligence (background information) 人工知能(背景情報)

 

 


 

EUの政治的合意を見越して、米国の情報技術産業協議会 (Information Technology Industry Council: IHI) がコメントを出していますね。。。リスクに応じた規制についてちゃんとしてほしいのでしょうね。。。

Information Technology Industry Council: IHI

1_20231210181601

 

・2023.12.05 ITI: Final EU AI Act Needs to Be Proportionate, Risked-Based, and Future-Proof

 

米国にも同日にコメントしています。。。

・2023.12.05 ITI to White House: U.S. Government Must Leverage Commercial AI and Adopt Standards-Based Approaches

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

サイバーレジリエンス法

・2023.12.04 欧州委員会、欧州議会がサイバーレジリエンス法について政治的合意

 

AI法

・2022.12.08 EU理事会 AI法に関する見解を採択

・2022.09.30 欧州委員会 AI責任指令案

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

 

参考に...

・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)


 

   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   

|

« 米国 欧州 米欧サイバー対話(第9回@ブリュッセル) | Main | 米国 国防総省 内部監察官室 請負業者ネットワーク上の国防総省管理対象非機密情報保護に関するサイバーセキュリティの共通の不備 (2023.12.04) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 欧州 米欧サイバー対話(第9回@ブリュッセル) | Main | 米国 国防総省 内部監察官室 請負業者ネットワーク上の国防総省管理対象非機密情報保護に関するサイバーセキュリティの共通の不備 (2023.12.04) »