EU Ethics Guidelines for Trustworthy AI(信頼できるAIのためのEU倫理ガイドライン)
こんにちは、丸山満彦です。
タイムリーな話題というわけではないのですが、EUのEthics Guidelines for Trustworthy AIのウェブページ。。。
・Ethics Guidelines for Trustworthy AI
・[PDF] Guidelines
EXECUTIVE SUMMARY | エグゼクティブ・サマリー |
A. INTRODUCTION | A. はじめに |
B. A FRAMEWORK FOR TRUSTWORTHY AI | B. 信頼性の高いAIのためのフレームワーク |
I. Chapter I: Foundations of Trustworthy AI | I. 第1章:信頼できるAIの基礎知識 |
II. Chapter II: Realising Trustworthy AI | II. 第II章 信頼できるAIの実現 信頼できるAIの実現 |
1. Requirements of Trustworthy AI | 1. 信頼できるAIの要件 |
2. Technical and non-technical methods to realise Trustworthy AI | 2. 信頼できるAIを実現するための技術的・非技術的手法 |
III. Chapter III: Assessing Trustworthy AI | III. 第III章 信頼できるAIの評価 |
C. EXAMPLES OF OPPORTUNITIES AND CRITICAL CONCERNS RAISED BY AI | C. AIがもたらす機会と重大な懸念の例 |
D. CONCLUSION | D. おわりに |
GLOSSARY | 用語集 |
EXECUTIVE SUMMARY
The aim of the Guidelines is to promote Trustworthy AI. Trustworthy AI has three components, which should be met throughout the system's entire life cycle:
(1) it should be lawful, complying with all applicable laws and regulations
(2) it should be ethical, ensuring adherence to ethical principles and values and
(3) it should be robust, both from a technical and social perspective since, even with good intentions, AI systems can cause unintentional harm.
Each component in itself is necessary but not sufficient for the achievement of Trustworthy AI. Ideally, all three components work in harmony and overlap in their operation. If, in practice, tensions arise between these components, society should endeavour to align them.
These Guidelines set out a framework for achieving Trustworthy AI. The framework does not explicitly deal with Trustworthy AI’s first component (lawful AI).1 Instead, it aims to offer guidance on the second and third components: fostering and securing ethical and robust AI. Addressed to all stakeholders, these Guidelines seek to go beyond a list of ethical principles, by providing guidance on how such principles can be operationalised in sociotechnical systems. Guidance is provided in three layers of abstraction, from the most abstract in Chapter I to the most concrete in Chapter III, closing with examples of opportunities and critical concerns raised by AI systems.
I. Based on an approach founded on fundamental rights, Chapter I identifies the ethical principles and their correlated values that must be respected in the development, deployment and use of AI systems.
Key guidance derived from Chapter I:
- Develop, deploy and use AI systems in a way that adheres to the ethical principles of: respect for human autonomy, prevention of harm, fairness and explicability. Acknowledge and address the potential tensions between these principles.
- Pay particular attention to situations involving more vulnerable groups such as children, persons with disabilities and others that have historically been disadvantaged or are at risk of exclusion, and to situations which are characterised by asymmetries of power or information, such as between employers and workers, or between businesses and consumers.2
- Acknowledge that, while bringing substantial benefits to individuals and society, AI systems also pose certain risks and may have a negative impact, including impacts which may be difficult to anticipate, identify or measure (e.g. on democracy, the rule of law and distributive justice, or on the human mind itself.) Adopt adequate measures to mitigate these risks when appropriate, and proportionately to the magnitude of the risk.
II. Drawing upon Chapter I, Chapter II provides guidance on how Trustworthy AI can be realised, by listing seven requirements that AI systems should meet. Both technical and non-technical methods can be used for their implementation.
Key guidance derived from Chapter II:
- Ensure that the development, deployment and use of AI systems meets the seven key requirements for Trustworthy AI: (1) human agency and oversight, (2) technical robustness and safety, (3) privacy and data governance, (4) transparency, (5) diversity, non-discrimination and fairness, (6) environmental and societal well-being and (7) accountability.
- Consider technical and non-technical methods to ensure the implementation of those requirements.
- Foster research and innovation to help assess AI systems and to further the achievement of the requirements; disseminate results and open questions to the wider public, and systematically train a new generation of experts in AI ethics.
- Communicate, in a clear and proactive manner, information to stakeholders about the AI system’s capabilities and limitations, enabling realistic expectation setting, and about the manner in which the requirements are implemented. Be transparent about the fact that they are dealing with an AI system.
- Facilitate the traceability and auditability of AI systems, particularly in critical contexts or situations.
- Involve stakeholders throughout the AI system’s life cycle. Foster training and education so that all stakeholders are aware of and trained in Trustworthy AI.
- Be mindful that there might be fundamental tensions between different principles and requirements.
- Continuously identify, evaluate, document and communicate these trade-offs and their solutions.
III. Chapter III provides a concrete and non-exhaustive Trustworthy AI assessment list aimed at operationalising the key requirements set out in Chapter II. This assessment list will need to be tailored to the specific use case of the AI system.
Key guidance derived from Chapter III:
- Adopt a Trustworthy AI assessment list when developing, deploying or using AI systems, and adapt it to the specific use case in which the system is being applied.
- Keep in mind that such an assessment list will never be exhaustive. Ensuring Trustworthy AI is not about ticking boxes, but about continuously identifying and implementing requirements, evaluating solutions, ensuring improved outcomes throughout the AI system’s lifecycle, and involving stakeholders in this.
A final section of the document aims to concretise some of the issues touched upon throughout the framework, by offering examples of beneficial opportunities that should be pursued, and critical concerns raised by AI systems that should be carefully considered.
While these Guidelines aim to offer guidance for AI applications in general by building a horizontal foundation to achieve Trustworthy AI, different situations raise different challenges. It should therefore be explored whether, in addition to this horizontal framework, a sectorial approach is needed, given the context-specificity of AI systems.
These Guidelines do not intend to substitute any form of current or future policymaking or regulation, nor do they aim to deter the introduction thereof. They should be seen as a living document to be reviewed and updated over time to ensure their continuous relevance as the technology, our social environments, and our knowledge evolve.
This document is a starting point for the discussion about “Trustworthy AI for Europe”.
Beyond Europe, the Guidelines also aim to foster research, reflection and discussion on an ethical framework for AI systems at a global level.
エグゼクティブ・サマリー
本ガイドラインの目的は、Trustworthy AIを推進することである。信頼できるAIには3つの要素があり、システムのライフサイクル全体を通して満たされるべきである。
(1) 適用されるすべての法律や規制を遵守し、合法的であること。
(2) 倫理的な原則と価値観を確実に遵守し、倫理的であること
(3) AIシステムは善意であっても意図しない損害を引き起こす可能性があるため、技術的および社会的な観点から堅牢であるべきである。
信頼できるAIを実現するためには、それぞれの要素が必要ですが、十分ではありません。理想的には、3つの構成要素が調和し、重なり合って動作することです。実際には、これらの構成要素の間に緊張が生じる場合、社会はこれらの構成要素を調整するよう努めるべきである。
本ガイドラインは、「信頼できるAI」を実現するための枠組みを示している。このフレームワークは、「信頼できるAI」の第一の構成要素である「合法的なAI」を明示的に取り扱うものではなく1、第二および第三の構成要素である「倫理的で堅牢なAIの育成と確保」に関するガイダンスを提供することを目的としている。本ガイドラインは、すべてのステークホルダーに向けて、倫理原則のリストにとどまらず、そのような原則が社会工学的システムにおいてどのように運用されるかについてのガイダンスを提供することを目的としている。ガイダンスは、第1章の最も抽象的なものから、第3章の最も具体的なものまで、3つの層で提供され、最後にAIシステムによってもたらされる機会と重大な懸念の例を示している。
I. 第1章では、基本的人権に基づくアプローチに基づき、AIシステムの開発、展開、使用において尊重されるべき倫理原則とその相関価値を明らかにしている。
第I章から導かれる主な指針
- 人間の自律性の尊重、危害の防止、公平性、説明可能性という倫理原則を遵守して、AIシステムを開発、展開、使用する。これらの原則の間の潜在的な緊張関係を認識し、対処すること。
- 歴史的に不利益を被ってきた、あるいは排除される危険性のある子どもや障害者などの脆弱な集団が関与する状況、および、雇用者と労働者、企業と消費者など、力や情報の非対称性が特徴的な状況に特に注意を払う2。
- AIシステムは、個人や社会に多大な利益をもたらす一方で、一定のリスクを伴い、予測、特定、測定が困難な影響(民主主義、法の支配、分配的正義、人の心そのものへの影響など)を含む負の影響を与える可能性があることを認識する。適切な場合には、これらのリスクを軽減するための適切な措置を、リスクの大きさに比例して採用する。
II. 第1章を受けて、第2章では、AIシステムが満たすべき7つの要件を挙げ、信頼できるAIを実現するための指針を示している。その実現のためには、技術的な手法と非技術的な手法の両方を用いることができる。
第二章から導き出される主な指針
- AIシステムの開発、展開、使用において、信頼できるAIの7つの主要な要件を満たすようにする:(1)人間の主体性と監視、(2)技術的な堅牢性と安全性、(3)プライバシーとデータガバナンス、(4)透明性、(5)多様性、無差別性と公平性、(6)環境と社会的な幸福、(7)説明責任。
- それらの要求事項の実施を確実にするために、技術的および非技術的な方法を検討する。
- AIシステムの評価を助け、要件の達成を促進するための研究とイノベーションを促進し、その結果とオープンクエスチョンを広く一般に普及させ、AI倫理の新世代の専門家を体系的に育成する。
- AIシステムの能力と限界に関する情報を明確かつ積極的にステークホルダーに伝え、現実的な期待値の設定を可能にし、要求事項の実施方法に関する情報を提供する。AIシステムを扱っているという事実を透明にする。
- 特に重要な状況下では、AIシステムのトレーサビリティーと監査を容易にする。
- AIシステムのライフサイクルを通して、ステークホルダーを巻き込む。すべての利害関係者が「信頼できるAI」について認識し、訓練を受けられるように、訓練と教育を促進する。
- 異なる原則や要求事項の間には、根本的な緊張関係があるかもしれないことを念頭に置く。
これらのトレードオフとその解決策を継続的に特定、評価、文書化、伝達する。
III. 第3章では、第2章で示した主要な要求事項の運用を目的とした、具体的かつ非網羅的な「信頼できるAI」の評価リストを提供する。この評価リストは、AIシステムの具体的なユースケースに合わせて作成する必要がある。
第III章からの主要なガイダンス
- AIシステムを開発、導入、使用する際には、信頼できるAI評価リストを採用し、システムが適用される特定のユースケースに合わせる。
- このような評価リストは決して網羅的ではないことに留意する。信頼できるAIを確保することは、ボックスにチェックを入れることではなく、継続的に要件を特定して実施し、ソリューションを評価し、AIシステムのライフサイクルを通じて改善された成果を確保し、これにステークホルダーを参加させることである。
本書の最後のセクションでは、追求すべき有益な機会や、慎重に検討すべきAIシステムが提起する重大な懸念事項の例を示すことで、フレームワーク全体で触れられた問題のいくつかを具体化することを目的としている。
本ガイドラインは、信頼できるAIを実現するための水平な基盤を構築することで、AIアプリケーション全般に対する指針を提供することを目的としていますが、状況によっては異なる課題が生じる。したがって、AIシステムの状況の特異性を考慮して、この水平的な枠組みに加えて、分野別のアプローチが必要かどうかを検討する必要がある。
本ガイドラインは、現在または将来の政策立案や規制に代わるものではなく、その導入を妨げるものでもない。本ガイドラインは、技術、社会環境、知識の進化に伴い、継続的な妥当性を確保するために、時間をかけて見直し、更新される生きた文書であるとみなされるべきである。
この文書は、「欧州のための信頼できるAI」を議論するための出発点となる。
また、本ガイドラインは、欧州だけでなく、グローバルなレベルでAIシステムの倫理的枠組みに関する研究、考察、議論を促進することを目的としている。
« Europol 犯罪者がCOVID-19パンデミックを使ってどうやって稼ぐか? | Main | 経済産業省 総務省 内閣官房 - 「政府情報システムのためのセキュリティ評価制度(ISMAP)における各種基準(案)」に対する意見公募 »
Comments