« 米国 GAO 重要インフラ保護:国家サイバーセキュリティ戦略は情報共有のパフォーマンス指標と方法に取り組む必要がある | Main | 米国 NSA サーバー、ノートパソコン、デスクトップパソコンの調達および受入テストガイド »

2023.10.05

米国 IT産業協議会 (ITI) がEUのAI法案に対する提言

こんにちは、丸山満彦です。

Information Technology Industry Council (ITI) [wikipedia]、日本語で言えば、IT産業協議会ですかね、、、が、EUのAI法案について提言を述べていますね。。。

リスクベースアプローチに従い、問題ないAIについての過剰な規制は、産業の発展に問題になるからあかんで。。。ということでしょうかね。。。

あと、他の法律等で規制されていることに対して、二重規制とかやめてよ。。。とか。。。

継続的に、関与しているのはよいことですね。。。

日本のIT連盟とかもすればよいのにね。。。

ちなみに、経団連はAI法案(2021年)が出た時にコメントをだしています。。。

 

Information Technology Industry Council (ITI) 

・2023.09.29 ITI, Industry Associations Outline Priorities for EU AI Act

ITI, Industry Associations Outline Priorities for EU AI Act ITIと業界団体、EUのAI法に対する優先事項を概説
BRUSSELS – Today, global tech trade association ITI and 14 industry groups who represent developers, deployers, and users of artificial intelligence (AI) issued a joint statement calling for a risk-based EU AI Act that truly fosters and harnesses innovation in Europe. ブリュッセル発 - 本日、世界的なハイテク業界団体であるITIと、人工知能(AI)の開発者、導入者、利用者の代表者である14の業界団体は共同声明を発表し、欧州におけるイノベーションを真に育成し、活用するためのリスクベースのEU AI法の制定を求めた。
The coalition raised concerns with certain proposed provisions that would negatively impact European businesses and consumers and depart from the AI Act’s risk-based approach that industry broadly has supported. 同連合は、欧州の企業や消費者に悪影響を与え、産業界が広く支持してきたAI法のリスクベースのアプローチから逸脱する特定の条項案に懸念を示した。
“The departure from the AI Act’s original risk-based and technology-neutral approach risks inhibiting the development and use of AI in Europe. Moreover, the multiplication of overlapping rules in the AI Act, as well as the broad extension of the list of high-risk use cases and the list of prohibited AI systems, would create unnecessary red tape and legal uncertainty,” the coalition wrote. “Europe has a unique opportunity to define sensible rules for the development, deployment, and use of AI for the next decade, and to set a strong example for the world on how to best regulate AI.” 「AI法本来のリスクベースかつ技術中立的アプローチからの逸脱は、欧州におけるAIの開発と利用を阻害するリスクがある。さらに、AI法における重複する規則の増加や、リスクの高いユースケースのリストや禁止されるAIシステムのリストの広範な拡張は、不必要なお役所仕事と法的不確実性を生み出すだろう」と連合は書いている。「欧州は、今後10年間のAIの開発、展開、使用に関する賢明なルールを定義し、AIを規制する最善の方法について世界に強い模範を示すまたとない機会を持っている。
As policymakers prepare the trilogue negotiations next week, ITI and the industry coalition urged the Council of the EU and European Parliament to: ITIと業界連合は、政策立案者らが来週の三者協議を準備する中、EU理事会と欧州議会に対し、以下を要請した:
・Maintain the AI Act’s risk-based approach by focusing on foundation models and general purpose AI only if used in high-risk applications; ・AI法のリスクベースアプローチを維持し、高リスクの用途に使用される場合に限り、基礎モデルと汎用AIに焦点を当てる;
・Ensure a fair balance of responsibilities across the AI ecosystem; ・AIエコシステム全体の責任の公平なバランスを確保する;
・Limit regulation to truly high-risk use cases; ・規制を真にリスクの高いユースケースに限定する;
・Avoid duplicating existing or upcoming legal requirements such as the Political Advertisement Regulation or the Digital Services Act (DSA); ・政治広告規制やデジタルサービス法(DSA)など、既存または今後予定されている法的要件との重複を避ける;
・Apply workable rules and reduce red tape to a minimum; and ・実行可能な規則を適用し、お役所仕事を最小限に抑える。
・Support and preserve Europe’s thriving open-source AI ecosystem. ・欧州の活発なオープンソースAIエコシステムを支援し、維持する。
Read the full statement here. 声明全文はこちら
This week, ITI Senior Policy Manager Marco Leto Barone released a blog proposing key recommendations for the EU AI Act to ensure legislators craft a balanced, proportionate, and pro-innovation regulatory framework. 今週、ITIのシニア・ポリシー・マネジャーであるマルコ・レト・バローネは、EUのAI法について、バランスの取れた、適切で、イノベーションを促進する規制の枠組みを作るための重要な提言をブログで発表した。

 

で、声明全文

・[PDF]

20231005-100406

 

Joint industry call for a risk-based AI Act that truly fosters innovation イノベーションを真に促進するリスクベースのAI法を業界共同で求める
Brussels, 29 September 2023 ブリュッセル、2023年9月29日
We, the undersigned industry associations, represent developers, deployers, and users of artificial intelligence (AI). Since the presentation of the AI Act by the European Commission, our associations have consistently supported a risk-based approach to AI regulation. 我々、以下に署名する業界団体は、人工知能(AI)の開発者、導入者、利用者の代表者である。欧州委員会がAI法を提示して以来、当協会は一貫してAI規制に対するリスクベースのアプローチを支持してきた。
We support the AI Act’s overarching objectives of promoting trust and innovation in AI, and our members are all committed to the safe and responsible development, deployment and use of AI. 我々は、AIにおける信頼とイノベーションを促進するというAI法の包括的な目的を支持し、我々の会員は皆、AIの安全かつ責任ある開発、展開、利用に尽力している。
While we recognise and welcome the efforts of European co-legislators to improve the AI Act, we are concerned that some of the proposed measures would run counter to the objectives of the regulation and would disproportionately impact European businesses and consumers. In particular, the departure from the AI Act’s original risk-based and technology-neutral approach risks inhibiting the development and use of AI in Europe. Moreover, the multiplication of overlapping rules in the AI Act, the introduction of vague concepts, as well as the broad extension of the list of high-risk use cases and the list of prohibited AI systems, would create unnecessary red tape and legal uncertainty. 我々は、AI法を改善しようとする欧州の共同立法者の努力を認め、歓迎するが、提案された措置の中には、規制の目的に反し、欧州の企業や消費者に不釣り合いな影響を与えるものがあることを懸念している。特に、AI法本来のリスクベースかつ技術中立的アプローチからの逸脱は、欧州におけるAIの開発と利用を阻害するリスクがある。さらに、AI法における重複する規則の増加、曖昧な概念の導入、リスクの高いユースケースのリストや禁止されるAIシステムのリストの広範な拡張は、不必要なお役所仕事と法的不確実性を生み出すことになる。
As acknowledged by European Institutions and Member States, AI is expected to massively contribute to the growth of the EU economy, as well as to improve healthcare, boost productivity, and address climate change. 欧州機構や加盟国が認めているように、AIはEU経済の成長に大きく貢献するだけでなく、医療の改善、生産性の向上、気候変動への対応にも貢献すると期待されている。
As the co-legislators aim to find an agreement on the AI Act before the end the year, our associations urge the EU Council and Parliament to: 共同立法者が年内にAI法に関する合意を見出すことを目指すなか、当協会はEU理事会および議会に対し、以下を強く要請する:
●      Maintain the AI Act’s risk-based approach, and focus on GPAIS and foundation model if used for high-risk applications; ・AI法のリスクベースアプローチを維持し、リスクの高い用途に使用される場合はGPAISと基盤モデルに焦点を当てる;
●      Allow developers of such systems to forbid high-risk uses or to limit liability for actions by third parties; ・そのようなシステムの開発者が、リスクの高い用途を禁止したり、サードパーティによる行為に対する責任を制限したりできるようにする;
●      Ensure a fair balance of responsibilities and sharing of relevant information across the AI value chain; ・AIのバリューチェーン全体で、責任の公正なバランスと関連情報の共有を確保する;
●      Limit Annex III to truly high-risk use cases; ・附属書IIIを本当にリスクの高いユースケースに限定する;
●      Steer clear of duplicating existing legal requirements (e.g. DSA, political ads regulation, Copyright Directive, GDPR, DMA, PWD); ・既存の法的要件(DSA、政治広告規制、著作権指令、GDPR、DMA、PWDなど)との重複を避ける;
●      Avoid unintentionally banning legitimate practices (such as biometric categorisation); ・合法的な慣行(バイオメトリクスの分類など)を意図せずに禁止しないようにする;
●      Apply workable rules and reduce red tape to a minimum; ・実行可能な規則を適用し、お役所仕事を最小限に抑える;
●      Support and preserve Europe’s thriving open source AI ecosystem; ・欧州のオープンソースAIエコシステムの繁栄を支援し、維持する;
Europe has a unique opportunity to define sensible rules for the development, deployment, and use of AI for the next decade, and to set a strong example for the world on how to best regulate AI. Industry is hopeful that the co-legislators will strike the right balance between trust and innovation in AI. 欧州は、今後10年間のAIの開発、配備、使用に関する賢明なルールを定め、AIを規制する最善の方法について世界に強い模範を示すまたとない機会を得た。産業界は、共同立法者がAIの信頼とイノベーションの間で適切なバランスを取ることを期待している。

 

ブログ記事

・2023.09.28 Five Recommendations for the EU AI Act Trilogue Negotiations

Five Recommendations for the EU AI Act Trilogue Negotiations EUのAI法交渉における5つの提言
The EU AI Act negotiations are back in full swing as EU legislators prepare for the next political trilogue on 2 and 3 October. The European Commission, Council of the EU, and European Parliament are expected to discuss the key provisions concerning the designation of the high-risk AI use cases which will be subject to the Act and proposed requirements for foundation models and general-purpose AI systems. EUの議員たちが10月2日と3日に開催される次回の政治対話に向けて準備を進めている中、EUのAI法交渉が再び本格化している。欧州委員会、EU理事会、欧州議会は、同法の対象となる高リスクのAIユースケースの指定や、基盤モデルおよび汎用AIシステムの要件案に関する主要条項を協議する予定である。
As first movers in AI governance globally, EU policymakers have the crucial responsibility to deliver a future-proof legislative framework that increases trust in this key technology. The final AI Act should be a clear, legal framework that helps companies in Europe harness the potential of AI and bring transformative products to the market. It should not overly burden innovators with disproportionate requirements that are not motivated by clear and specific risks. AIガバナンスの世界的な第一人者として、EUの政策立案者には、この重要な技術に対する信頼を高める、将来性のある法的枠組みを提供する重大な責任がある。最終的なAI法は、欧州の企業がAIの可能性を活用し、変革的な製品を市場に送り出すことを支援する明確な法的枠組みであるべきだ。明確かつ具体的なリスクによって動機づけられたものではない不釣り合いな要件で、イノベーターに過度の負担を強いるものであってはならない。
The upcoming October trilogue is an opportunity to deliver additional clarifications and craft a balanced, proportionate and pro-innovation regulatory framework. Here are five ways policymakers can achieve that goal: 来る10月の三者協議は、さらなる明確化を行い、バランスの取れた、比例した、イノベーションを促進する規制の枠組みを構築する機会である。以下は、政策立案者がその目標を達成するための5つの方法である:
Establish clear and practical rules for the classification of high-risk AI systems リスクの高いAIシステムを分類するための明確かつ実用的なルールを確立する
The original Commission proposal identified a broad list of high-risk AI use cases, which made the scope of the regulation vague. For instance, the inclusion of AI used in recruitment potentially applied to all uses of AI in this field, including riskier uses such as evaluating candidates, but also lower risk uses like placing any type of job ads. This would be disproportionate. We welcomed both the Council and the Parliament’s updated proposals to better define and tailor the application of high-risk AI systems. 欧州委員会の当初の提案では、リスクの高いAIのユースケースを広範に挙げていたため、規制の範囲が曖昧になっていた。例えば、人材採用に使用されるAIは、候補者の評価などリスクの高い用途だけでなく、あらゆる種類の求人広告の掲載などリスクの低い用途も含め、この分野におけるAIのすべての用途に適用される可能性があった。これは不釣り合いである。我々は、リスクの高いAIシステムの適用をより適切に定義し、調整するための理事会および国会の最新の提案を歓迎する。
Under both proposals, companies would assess if their AI use case mentioned on the list, such as certain uses in employment or management of critical infrastructure, meets specific risk criteria and comply with the EU AI Act only if that is the case. This is the right approach, but clarification is still required. For example, the Parliament’s proposal to notify public authorities of the result of a company’s self-assessment is disproportionate, it would overburden companies and authorities and risk fragmenting the single market due to diverging interpretations from national authorities. 両提案の下では、企業は、雇用や重要インフラのマネジメントにおける特定の用途など、リストに記載されているAIのユースケースが特定のリスク基準を満たしているかどうかを評価し、その場合にのみEU AI法に準拠することになる。これは正しいアプローチだが、まだ明確化が必要だ。例えば、企業の自己アセスメントの結果を公的機関に通知するという議会の提案は不釣り合いであり、企業と当局に過度の負担を強いることになり、各国当局の解釈が分かれることで単一市場が分断されるリスクもある。
Companies should be able to self-assess against clear criteria whether their system falls in the high-risk category, and directly release their product in the market if it is not high risk. The assessment could consider risks to fundamental rights and safety, the degree of human supervision or the type of output delivered by AI. If necessary, relevant documentation about this assessment could be provided to the authorities. Regulators should also offer guidance to companies about how to properly perform this assessment. 企業は、自社のシステムが高リスクのカテゴリーに入るかどうかを明確な基準に照らして自己評価し、高リスクでなければ製品を直接市場に出すことができるようにすべきである。アセスメントでは、基本的人権や安全性に対するリスク、人間による監督の程度、AIが提供するアウトプットの種類などを考慮することができる。必要であれば、この評価に関する関連文書を当局に提供することもできる。また規制当局は、このアセスメントの適切な実施方法について、企業にガイダンスを提供すべきである。
Craft a Targeted List of High-Risk AI Systems and Avoid Overlap with other Regulations リスクの高いAIシステムの対象リストを作成し、他の規制との重複を避ける
In addition to establishing clear and practical rules for the classification of high-risk AI systems, the list of uses itself needs to be as precise and targeted as possible. A broad list of high-risk use cases would create legal uncertainty for companies and increase regulatory risks. For example, the Parliament’s text would include AI systems used to make inferences based on biometrics data which could bring in scope a variety of ancillary uses of AI such as AR tools in photo applications or filters used to improve quality in video calls. 高リスクAIシステムの分類に関する明確かつ実用的なルールを確立することに加え、用途リスト自体も可能な限り正確で的を絞ったものにする必要がある。リスクの高い使用例を幅広くリストアップすることは、企業に法的不確実性をもたらし、規制リスクを高めることになる。例えば、国会の条文では、生体データに基づいて推論を行うためのAIシステムが含まれているが、これは、写真アプリケーションのARツールやビデオ通話の品質改善に使用されるフィルターなど、AIの様々な補助的用途を範囲に含める可能性がある。
Legislators should also avoid duplication with existing or upcoming legislation such as the DSA or the regulation on Political Advertisement. Issues related to AI used in elections or recommender systems used by social media platforms are already tackled in these frameworks, which would be undermined by overlapping requirements under the EU AI Act. 立法者はまた、DSAや政治広告に関する規制など、既存または今後制定される法律との重複を避けるべきである。選挙で使用されるAIやソーシャルメディア・プラットフォームが使用するレコメンダー・システムに関する問題は、すでにこれらの枠組みで取り組まれており、EUのAI法のもとで要件が重複することによって損なわれることになる。
Ensure Relevant Information is Shared Along the AI Value Chain AIのバリューチェーンに沿って関連情報が共有されるようにする
General Purpose AI (GPAI) systems and foundation models do not have a specific intended purpose and can be adapted to a variety of low or high risk use cases: they can be used in systems capable of image captioning or object recognition or question answering. 汎用AI(GPAI)システムと基盤モデルは、特定の意図された目的を持たず、様々な低リスクまたは高リスクのユースケースに適応することができる。
Therefore, it is key to make sure whoever uses GPAI or foundation models to build high-risk AI systems has the right information to comply with the AI Act. As proposed by Council and Parliament, we support a duty to share this information for providers of GPAI and foundation models. This will support holistic risk-management across the value chain by appropriately considering the capabilities and responsibilities of different actors. したがって、高リスクのAIシステムを構築するためにGPAIやファウンデーションモデルを使用する者が、AI法を遵守するために正しい情報を持っていることを確認することが重要である。理事会と議会が提案したように、我々はGPAIと基盤モデルのプロバイダに対してこの情報を共有する義務を支持する。これにより、様々な主体の能力と責任を適切に考慮することで、バリューチェーン全体にわたる総合的なリスクマネジメントを支援することができる。
Ensure Requirements for Developers of Foundation Models are Realistic ファウンデーションモデルの開発者に対する要件が現実的であることを確認する。
Foundation models can be used for myriads of downstream tasks - from chatbots to healthcare or education. While developers of foundation models can take certain measures prior to release to increase safety and security and mitigate risks stemming from their application, foreseeing risks arising from every use is not realistic at the development stage. Effective risk management is highly dependent on context of deployment or use. Requirements for foundation model developers should thus be outcome-oriented, proportionate, practicable and only extend to what developers can reasonably address during design and development. ファウンデーションモデルは、チャットボットからヘルスケアや教育まで、無数の下流タスクに使用することができる。ファウンデーションモデルの開発者は、リリース前に安全性とセキュリティを高め、その適用から生じるリスクを軽減するために一定の対策を講じることができるが、すべての使用から生じるリスクを予見することは、開発段階では現実的ではない。効果的なリスクマネジメントは、配備や使用の状況に大きく依存する。したがって、基礎モデルの開発者に対する要求事項は、成果志向であり、比例的であり、実際的であり、開発者が設計・開発中に合理的に対処できる範囲に限定されるべきである。
Several requirements proposed by the Parliament are not realistic and take an overly prescriptive approach. These include the requirement to identify ‘reasonably foreseeable risks’ or to reach specific performance levels. A prescriptive approach here would undermine ongoing research around controls and guardrails for foundation models and risk stifling innovation. 国会が提案したいくつかの要件は現実的ではなく、過度に杓子定規なアプローチをとっている。これには、「合理的に予見可能なリスク」を特定する要求や、特定の性能レベルに到達する要求が含まれる。ここでの杓子定規なアプローチは、基礎モデルのコントロールやガードレールに関する現在進行中の研究を弱体化させ、イノベーションを阻害するリスクとなる。
The Risk-Based Approach Should Also Apply to Foundation Models リスクベースアプローチは、基盤モデルにも適用されるべきである。
The AI Act should not regulate an entire technology, but rather its use, in line with the risk-based approach. Foundation models that are not intended for use in high-risk applications - as long as that is explicitly stated in the terms of service, documentation or instructions of use - should thus not be targeted by specific requirements. AI法は、リスクベースアプローチに沿って、技術全体を規制するのではなく、その使用を規制すべきである。利用規約、文書、使用説明書に明示されている限り、リスクの高い用途での使用を意図していない基盤モデルは、特定の要件の対象とすべきではない。
This clarification would also better recognize the diversity among foundation models, for example those that are not made available to the public or only released for business-to-business enterprise uses. This is rightly recognized by the Council in its GPAI provisions, and we strongly urge legislators to support it in the final text. この明確化により、例えば、一般に公開されていないものや、企業間エンタープライズ用途にのみリリースされているものなど、基盤モデルの多様性もよりよく認識されることになる。このことは、GPAIの規定において理事会が当然に認めていることであり、最終文書においてこれを支持するよう、議員に強く要請する。

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2022.12.08 EU理事会 AI法に関する見解を採択

・2022.09.30 欧州委員会 AI責任指令案

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

 

参考に...

・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)

 

|

« 米国 GAO 重要インフラ保護:国家サイバーセキュリティ戦略は情報共有のパフォーマンス指標と方法に取り組む必要がある | Main | 米国 NSA サーバー、ノートパソコン、デスクトップパソコンの調達および受入テストガイド »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 GAO 重要インフラ保護:国家サイバーセキュリティ戦略は情報共有のパフォーマンス指標と方法に取り組む必要がある | Main | 米国 NSA サーバー、ノートパソコン、デスクトップパソコンの調達および受入テストガイド »