« 外務省 第3回北朝鮮サイバー脅威に関する日米韓外交当局間作業部会の開催 | Main | 米国 国防総省 NSAのAI安全保障センター長の話... »

2024.09.08

欧州評議会 AI条約の署名開始... (2024.09.05)

こんにちは、丸山満彦です。

AI評議会がEU以外も含めてAI条約を提案し、締結作業を始めていますね...

欧州連合と米国、イスラエルなどすでに署名している国もありますね。。。日本はこれから条文内容の最終確認をして、内部で手順を踏んで署名に向かうのでしょうかね...

 

Council of Europe

・2024.09.05 The Framework Convention on Artificial Intelligence

The Framework Convention on Artificial Intelligence 人工知能枠組み条約
The Council of Europe Framework Convention on Artificial Intelligence and human rights, democracy and the rule of law is the first-ever international legally binding treaty in this field. It aims to ensure that activities within the lifecycle of artificial intelligence systems are fully consistent with human rights, democracy and the rule of law, while being conducive to technological progress and innovation. 欧州評議会の「人工知能と人権、民主主義、法の支配に関する枠組み条約」は、この分野で初の国際的な法的拘束力のある条約である。同条約は、人工知能システムのライフサイクルにおける活動が、技術の進歩と革新に資するものであると同時に、人権、民主主義、法の支配に完全に合致したものであることを保証することを目的としている。
Framework Convention and its Explanatory Report 枠組み条約その解説書
The Framework Convention complements existing international standards on human rights, democracy and the rule of law, and aims to fill any legal gaps that may result from rapid technological advances. In order to stand the test of time, the Framework Convention does not regulate technology and is essentially technology-neutral. 枠組み条約は、人権、民主主義、法の支配に関する既存の国際基準を補完するものであり、急速な技術の進歩によって生じる可能性のある法的ギャップを埋めることを目的としている。時の試練に耐えるため、枠組み条約は技術を規制せず、基本的に技術に中立である。
 How was the Framework Convention elaborated?  枠組み条約はどのように作成されたのか?
Work was initiated in 2019, when the ad hoc Committee on Artificial Intelligence (CAHAI) was tasked with examining the feasibility of such an instrument. Following its mandate, it was succeeded in 2022 by the Committee on Artificial Intelligence (CAI) which drafted and negotiated the text. 作業は2019年に開始され、人工知能に関する特別委員会(CAHAI)がこのような制度の実現可能性を検討する任務を負った。その後、2022年に人工知能委員会(CAI)がその任務を引き継ぎ、条約の草案作成と交渉が行われた。
The Framework Convention was drafted by the 46 member states of the Council of Europe, with the participation of all observer states: Canada, Japan, Mexico, the Holy See and the United States of America, as well as the European Union, and a significant number of non-member states: Australia, Argentina, Costa Rica, Israel, Peru and Uruguay. 枠組み条約は、欧州評議会の46の加盟国によって起草され、すべてのオブザーバー国が参加した: カナダ、日本、メキシコ、ローマ教皇庁、アメリカ合衆国、欧州連合、そして多数の非加盟国が参加した: オーストラリア、アルゼンチン、コスタリカ、イスラエル、ペルー、ウルグアイである。
In line with the Council of Europe’s practice of multi-stakeholder engagement, 68 international representatives from civil society, academia and industry, as well as several other international organisations were also actively involved in the development of the Framework Convention. また、欧州評議会のマルチステークホルダー参画の慣行に従い、市民社会、学界、産業界から68名の国際的な代表者、その他いくつかの国際機関も枠組み条約の策定に積極的に関与した。
What does the Framework Convention require states to do?  枠組み条約は各国に何を求めているのか?
Fundamental principles 基本原則
Activities within the lifecycle of AI systems must comply with the following fundamental principles: AIシステムのライフサイクルにおける活動は、以下の基本原則に従わなければならない:
・Human dignity and individual autonomy ・人間の尊厳と個人の自律
・Equality and non-discrimination ・平等と非差別
・Respect for privacy and personal data protection ・プライバシーと個人情報保護の尊重
・Transparency and oversight ・透明性と監視
・Accountability and responsibility ・説明責任と責任
・Reliability ・信頼性
・Safe innovation ・安全な技術革新
Remedies, procedural rights and safeguards 救済措置、手続き上の権利、保護措置
・Document the relevant information regarding AI systems and their usage and to make it available to affected persons; ・AIシステムとその利用に関する関連情報を文書化し、影響を受ける人々が利用できるようにする;
・The information must be sufficient to enable people concerned to challenge the decision(s) made through the use of the system or based substantially on it, and to challenge the use of the system itself; ・その情報は、関係者がシステムの使用を通じて、あるいは実質的にシステムに基づいて下された決定に異議を唱えたり、システムの使用そのものに異議を唱えたりするのに十分なものでなければならない;
・Effective possibility to lodge a complaint to competent authorities; ・管轄当局に苦情を申し立てることができる;
・Provide effective procedural guarantees, safeguards and rights to affected persons in connection with the application of an artificial intelligence system where an artificial intelligence system significantly impacts upon the enjoyment of human rights and fundamental freedoms; ・人工知能システムが人権および基本的自由の享有に重大な影響を及ぼす場合、人工知能システムの適用に関連して、影響を受ける人に効果的な手続き上の保証、保護措置、権利を提供すること;
・Provision of notice that one is interacting with an artificial intelligence system and not with a human being. ・人工知能システムと相互作用しているのであって、人間と相互作用しているのではないことを通知すること。
Risk and impact management requirements リスクおよび影響管理の要件
・Carry out risk and impact assessments in respect of actual and potential impacts on human rights, democracy and the rule of law, in an iterative manner; ・人権、民主主義、法の支配に対する実際および潜在的な影響に関して、リスクと影響の評価を反復的に実施すること;
・Establishment of sufficient prevention and mitigation measures as a result of the implementation of these assessments; ・これらの評価を実施した結果、十分な予防策と緩和策を確立すること;
・Possibility for the authorities to introduce ban or moratoria on certain application of AI systems (“red lines”). ・AIシステムの特定の適用について、当局が禁止またはモラトリア(「レッドライン」)を導入する可能性。
Who is covered by the Framework Convention? 枠組み条約の対象となるのは誰か?
The Framework Convention covers the use of AI systems by public authorities – including private actors acting on their behalf – and private actors. 枠組み条約は、公的機関(それを代行する民間団体を含む)と民間団体によるAIシステムの使用を対象としている。
The Convention offers Parties two modalities to comply with its principles and obligations when regulating the private sector: Parties may opt to be directly obliged by the relevant Convention provisions or, as an alternative, take other measures to comply with the treaty’s provisions while fully respecting their international obligations regarding human rights, democracy and the rule of law. 条約は締約国に対し、民間部門を規制する際に、その原則と義務を遵守するための2つの方法を提示している: 締約国は、条約の関連条項によって直接義務を負うことを選択することもできるし、別の方法として、人権、民主主義、法の支配に関する国際的義務を十分に尊重しつつ、条約の条項を遵守するための他の措置をとることもできる。
Parties to the Framework Convention are not required to apply the provisions of the treaty to activities related to the protection of their national security interests but must ensure that such activities respect international law and democratic institutions and processes. The Framework Convention does not apply to national defence matters nor to research and development activities, except when the testing of AI systems may have the potential to interfere with human rights, democracy, or the rule of law. 枠組み条約の締約国は、自国の安全保障上の利益の保護に関連する活動に条約の規定を適用する必要はないが、そのような活動が国際法および民主的制度・プロセスを尊重することを確保しなければならない。枠組み条約は、AIシステムのテストが人権、民主主義、法の支配を妨げる可能性がある場合を除き、国防問題や研究開発活動には適用されない。
How is the implementation of the Framework Convention monitored?  枠組み条約の実施はどのように監視されるのか?
The Framework Convention establishes a follow-up mechanism, the Conference of the Parties, composed of official representatives of the Parties to the Convention to determine the extent to which its provisions are being implemented. Their findings and recommendations help to ensure States’ compliance with the Framework Convention and guarantee its long-term effectiveness. The Conference of the Parties shall also facilitate co-operation with relevant stakeholders, including through public hearings concerning pertinent aspects of the implementation of the Framework Convention. 枠組み条約は、締約国の公式代表で構成される締約国会議というフォローアップ・メカニズムを設け、条約の条項がどの程度履行されているかを判断する。その結果および勧告は、締約国が枠組み条約を遵守し、その長期的有効性を保証するのに役立つ。締約国会議はまた、枠組み条約の実施に関する適切な側面に関する公聴会などを通じて、関連する利害関係者との協力を促進する。

 

条約見出し...

Chapter I – General provisions 第1章 一般規定
Article 1 – Object and purpose 第1条 目的および目標
Article 2 – Definition of artificial intelligence systems 第2条 人工知能システムの定義
Article 3 – Scope 第3条 範囲
Chapter II – General obligations 第2章 一般義務
Article 4 – Protection of human rights 第4条 人権の防御
Article 5 – Integrity of democratic processes and respect for the rule of law 第5条 民主的プロセスの完全性と法の支配の尊重
Chapter III – Principles related to activities within the lifecycle of artificial intelligence systems 第3章 人工知能システムのライフサイクルにおける活動に関連する原則
Article 6 – General approach 第6条 一般的なアプローチ
Article 7 – Human dignity and individual autonomy 第7条 人間の尊厳と個人の自治
Article 8 – Transparency and oversight 第8条 透明性と監督
Article 9 – Accountability and responsibility 第9条 説明責任
Article 10 – Equality and non-discrimination 第10条 平等と非差別
Article 11 – Privacy and personal data protection 第11条 プライバシーおよび個人データ保護
Article 12 – Reliability 第12条 信頼性
Article 13 – Safe innovation 第13条 安全な技術革新
Chapter IV – Remedies 第4章 救済措置
Article 14 – Remedies 第14条 救済
Article 15 – Procedural safeguards 第15条 手続上の保護措置
Chapter V – Assessment and mitigation of risks and adverse impacts 第5章 リスクと悪影響のアセスメントと低減
Article 16 – Risk and impact management framework 第16条 リスクおよび影響マネジメントの枠組み
Chapter VI – Implementation of the Convention 第6章 条約の実施
Article 17 – Non-discrimination 第17条 識別的差別の禁止
Article 18 – Rights of persons with disabilities and of children 第18条 障害者および子どもの権利
Article 19 – Public consultation 第19条 コンサルテーション
Article 20 – Digital literacy and skills 第20条 デジタル・リテラシーとスキル
Article 21 – Safeguard for existing human rights 第21条 既存の人権の保護
Article 22 – Wider protection 第22条 より広範な保護
Chapter VII – Follow-up mechanism and co-operation 第7章 フォローアップの仕組みと協力
Article 23 – Conference of the Parties 第23条 締約国会議
Article 24 – Reporting obligation 第24条 報告義務
Article 25 – International co-operation 第25条 国際協力
Article 26 – Effective oversight mechanisms 第26条 効果的な監督メカニズム
Chapter VIII – Final clauses 第8章 最終条項
Article 27 – Effects of the Convention 第27条 条約の効力
Article 28 – Amendments 第28条 改正
Article 29 – Dispute settlement 第29条 紛争解決
Article 30 – Signature and entry into force 第30条 署名と発効
Article 31 – Accession 第31条 加盟
Article 32 – Territorial application 第32条 適用地域
Article 33 – Federal clause 第33条 連邦条項
Article 34 – Reservations 第34条 予約
Article 35 – Denunciation 第35条 告訴
Article 36 – Notification 第36条 通知

 

枠組条約

・2024.09.05 [PDF] Council of Europe Treaty Series - No. 225 Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law

20240907-163639

・[DOCX][PDF] 仮訳

 

解説書

・2024.09.05 [PDF] Council of Europe Treaty Series - No. 225 Explanatory Report to the Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law

20240907-163647

・[DOCX][PDF] 仮訳

 

 

 

関連ウェブ...

Council of Europe

 

批准の状況は...

Chart of signatures and ratifications of Treaty 225

 

 

事前の告知...

・2024.08.30 Justice Ministers discuss accountability for crimes committed in Ukraine and open AI Convention for signature at meeting in Vilnius

 

カンファレンス案内...

Conference of Justice Ministers and opening for signature of AI Convention

 

 

 

仮対訳...

枠組条約...

Council of Europe Treaty Series - No. 225  欧州評議会条約シリーズ第225号 
Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law  欧州評議会 人工知能と人権、民主主義、法の支配に関する枠組み条約 
Vilnius, 5.IX.2024  ヴィリニュス、2024年9月5日 
Preamble  前文 
The member States of the Council of Europe and the other signatories hereto,  欧州評議会の加盟国およびその他の署名国、 
Considering that the aim of the Council of Europe is to achieve greater unity between its members, based in particular on the respect for human rights, democracy and the rule of law;  欧州評議会の目的は、特に人権、民主主義、法の支配の尊重に基づき、加盟国間の結束を高めることであり; 
Recognising the value of fostering co-operation between the Parties to this Convention and of extending such co-operation to other States that share the same values;  この条約の締約国間の協力を促進し、そのような協力を同じ価値を共有する他の国に拡大することの価値を認識し; 
Conscious of the accelerating developments in science and technology and the profound changes brought about through activities within the lifecycle of artificial intelligence systems, which have the potential to promote human prosperity as well as individual and societal wellbeing, sustainable development, gender equality and the empowerment of all women and girls, as well as other important goals and interests, by enhancing progress and innovation;  科学技術の加速度的な発展と、人工知能システムのライフサイクルの中での活動を通じてもたらされる重大な変化を意識し、進歩やイノベーションを強化することによって、人類の繁栄だけでなく、個人や社会の福利、持続可能な開発、男女平等、すべての女性と女児のエンパワーメント、その他の重要な目標や利益を促進する可能性を持ち; 
Recognising that activities within the lifecycle of artificial intelligence systems may offer unprecedented opportunities to protect and promote human rights, democracy and the rule of law;  人工知能システムのライフサイクルにおける活動が、人権、民主主義、法の支配を保護し促進するための、これまでにない機会を提供する可能性があることを保護し; 
Concerned that certain activities within the lifecycle of artificial intelligence systems may undermine human dignity and individual autonomy, human rights, democracy and the rule of law;  人工知能システムのライフサイクルにおける特定の活動が、人間の尊厳や個人の自律性、人権、民主主義、法の支配を損なう可能性があることを懸念し; 
Concerned about the risks of discrimination in digital contexts, particularly those involving artificial intelligence systems, and their potential effect of creating or aggravating inequalities, including those experienced by women and individuals in vulnerable situations, regarding the enjoyment of their human rights and their full, equal and effective participation in economic, social, cultural and political affairs;  デジタルの文脈における識別的リスク、特に人工知能システムが関係するもの、および、女性や脆弱な状況にある個人が経験する不平等を含め、その人権の享受や、経済的、社会的、文化的、政治的問題への完全かつ平等で効果的な参加に関して、不平等を生じさせたり、悪化させたりする潜在的影響について懸念し; 
Concerned by the misuse of artificial intelligence systems and opposing the use of such systems for repressive purposes in violation of international human rights law, including through arbitrary or unlawful surveillance and censorship practices that erode privacy and individual autonomy;  人工知能システムの悪用を懸念し、プライバシーと個人の自主性を侵食する恣意的または違法な監視や検閲行為など、国際人権法に違反する抑圧的な目的での使用に反対し; 
Conscious of the fact that human rights, democracy and the rule of law are inherently interwoven;  人権、民主主義、法の支配が本質的に織り成すものであることを意識し; 
Convinced of the need to establish, as a matter of priority, a globally applicable legal framework setting out common general principles and rules governing the activities within the lifecycle of artificial intelligence systems that effectively preserves shared values and harnesses the benefits of artificial intelligence for the promotion of these values in a manner conducive to responsible innovation;  優先事項として、人工知能システムのライフサイクル内の活動を統制する共通の一般原則とルールを定めた、世界的に適用可能な法的枠組みを確立する必要性を確信する。この枠組みは、責任あるイノベーションに資する方法で、共有された価値を効果的に保持し、これらの価値の促進のために人工知能の利点を活用するものであり; 
Recognising the need to promote digital literacy, knowledge about, and trust in the design, development, use and decommissioning of artificial intelligence systems;  人工知能システムの設計、開発、使用、廃止において、デジタルリテラシー、知識、信頼を促進する必要性を認識し; 
Recognising the framework character of this Convention, which may be supplemented by further instruments to address specific issues relating to the activities within the lifecycle of artificial intelligence systems;  この条約は、人工知能システムのライフサイクルにおける活動に関連する特定の問題に対処するため、さらなる文書によって補足される可能性があり; 
Underlining that this Convention is intended to address specific challenges which arise throughout the lifecycle of artificial intelligence systems and encourage the consideration of the wider risks and impacts related to these technologies including, but not limited to, human health and the environment, and socio-economic aspects, such as employment and labour;  この条約は、人工知能システムのライフサイクル全体を通じて生じる特定の課題に対処することを意図しており、人間の健康や環境、雇用や労働といった社会経済的側面を含むがこれらに限定されない、これらの技術に関連する広範なリスクや影響への配慮を促すものであることを強調し; 
Noting relevant efforts to advance international understanding and co-operation on artificial intelligence by other international and supranational organisations and fora;  他の国際的・超国家的組織やフォーラムによる、人工知能に関する国際的理解と協力の促進に向けた関連する取り組みに留意し; 
Mindful of applicable international human rights instruments, such as the 1948 Universal Declaration of Human Rights, the 1950 Convention for the Protection of Human Rights and Fundamental Freedoms (ETS No. 5), the 1966 International Covenant on Civil and Political Rights, the 1966 International Covenant on Economic, Social and Cultural Rights, the 1961  1948年の世界人権宣言、1950年の人権及び基本的自由の保護に関する条約(ETS第5号)、1966年の市民的及び政治的権利に関する国際規約、1966年の経済的、社会的及び文化的権利に関する国際規約、1961年の国際人権規約、1966年の経済的、社会的及び文化的権利に関する国際規約など、適用可能な国際人権文書に留意し。 
European Social Charter (ETS No. 35), as well as their respective protocols, and the 1996 European Social Charter (Revised) (ETS No. 163);  Mindful also of the 1989 United Nations Convention on the Rights of the Child and the 2006 United Nations Convention on the Rights of Persons with Disabilities; 欧州社会憲章(ETS No.35)とそれぞれの議定書、および1996年欧州社会憲章(改訂版)(ETS No.163); 1989年の国連子どもの権利条約と2006年の国連障害者権利条約にも留意し; 
Mindful also of the privacy rights of individuals and the protection of personal data, as applicable and conferred, for example, by the 1981 Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data (ETS No. 108) and its protocols;  また、1981年の「個人データの自動処理に関する個人の保護に関する条約」(ETS108号)およびその議定書などにより、個人のプライバシー権およびパーソナルデータの保護が適用され、付与されていることにも留意し; 
Affirming the commitment of the Parties to protecting human rights, democracy and the rule of law, and fostering trustworthiness of artificial intelligence systems through this Convention,  この条約を通じて、人権、民主主義、法の支配を保護し、人工知能システムの信頼性を育成することへの締約国のコミットメントを確認し、 
Have agreed as follows:  以下のように合意した: 
Chapter I – General provisions  第1章 一般規定 
Article 1 – Object and purpose  第1条 目的および目標 
1 The provisions of this Convention aim to ensure that activities within the lifecycle of artificial intelligence systems are fully consistent with human rights, democracy and the rule of law.  1 この条約の規定は、人工知能システムのライフサイクルにおける活動が、人権、民主主義、法の支配と完全に一致することを保証することを目的としている。 
2 Each Party shall adopt or maintain appropriate legislative, administrative or other measures to give effect to the provisions set out in this Convention. These measures shall be graduated and differentiated as may be necessary in view of the severity and probability of the occurrence of adverse impacts on human rights, democracy and the rule of law throughout the lifecycle of artificial intelligence systems. This may include specific or horizontal measures that apply irrespective of the type of technology used.  2 各締約国は、この条約に定める規定を実施するため、適当な立法上、行政上その他の措置を採用し、又は維持する。これらの措置は、人工知能システムのライフサイクル全体を通じて、人権、民主主義および法の支配に対する悪影響の重大性および発生の蓋然性を考慮して、必要な場合には段階的かつ差別的なものとする。これには、使用される技術の種類に関係なく適用される特定的または水平的措置を含めることができる。 
3 In order to ensure effective implementation of its provisions by the Parties, this Convention establishes a follow-up mechanism and provides for international co-operation.  3 締約国による規定の効果的な実施を確保するため、この条約はフォローアップのメカニズムを確立し、国際協力を規定している。 
Article 2 – Definition of artificial intelligence systems  第2条 人工知能システムの定義 
For the purposes of this Convention, “artificial intelligence system” means a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations or decisions that may influence physical or virtual environments. Different artificial intelligence systems vary in their levels of autonomy and adaptiveness after deployment.  本条約において、「人工知能システム」とは、明示的または暗黙的な目的のために、物理的または仮想的な環境に影響を与える可能性のある予測、コンテンツ、推奨、または決定などの出力を生成する方法を、受け取った入力から推測する機械ベースのシステムを意味する。人工知能システムは、導入後の自律性と適応性のレベルが異なる。 
Article 3 – Scope  第3条 範囲 
1 The scope of this Convention covers the activities within the lifecycle of artificial intelligence systems that have the potential to interfere with human rights, democracy and the rule of law as follows:  1 この条約の適用範囲は、人工知能システムのライフサイクルの中で、人権、民主主義、法の支配を阻害する可能性のある以下のような活動を対象とする: 
a Each Party shall apply this Convention to the activities within the lifecycle of artificial intelligence systems undertaken by public authorities, or private actors acting on their behalf.  a 各締約国は、この条約を、公的機関又はそのために行動する民間団体が行う人工知能システムのライフサイクル内の活動に適用する。 
b Each Party shall address risks and impacts arising from activities within the lifecycle of artificial intelligence systems by private actors to the extent not covered in subparagraph a in a manner conforming with the object and purpose of this Convention.  b 各締約国は、この条約の目的及び趣旨に適合する方法で、a号に含まれない範囲で、民間の主体による人工知能システムのライフサイクル内の活動から生じるリスク及び影響に対処するものとする。 
Each Party shall specify in a declaration submitted to the Secretary General of the Council of Europe at the time of signature, or when depositing its instrument of ratification, acceptance, approval or accession, how it intends to implement this obligation, either by applying the principles and obligations set forth in Chapters II to VI of this Convention to activities of private actors or by taking other appropriate measures to fulfil the obligation set out in this subparagraph. Parties may, at any time and in the same manner, amend their declarations.  各締約国は、署名の際又は批准書、受諾書、承認書若しくは加入書を寄託する際に欧州評議会事務総長に提出する宣言において、この条約の第二章から第六章までに定める原則及び義務を私的行為者の活動に適用することにより、又は本号に定める義務を履行するための他の適当な措置をとることにより、この義務をどのように履行する意図を有するかを明示する。締約国は、いつでも、同じ方法で、その宣言を修正することができる。 
When implementing the obligation under this subparagraph, a Party may not derogate from or limit the application of its international obligations undertaken to protect human rights, democracy and the rule of law.  この号に基づく義務を実施する場合には、締約国は、人権、民主主義及び法の支配を保護するために引き受けた国際的義務の適用を逸脱し、又は制限してはならない。 
2 A Party shall not be required to apply this Convention to activities within the lifecycle of artificial intelligence systems related to the protection of its national security interests, with the understanding that such activities are conducted in a manner consistent with applicable international law, including international human rights law obligations, and with respect for its democratic institutions and processes.  2 締約国は、自国の国家安全保障上の利益の保護に関連する人工知能システムのライフサイクル内の活動にこの条約を適用することを要しないものとする。ただし、そのような活動が、国際人権法の義務を含む適用法である国際法に合致し、かつ、自国の民主的機構及びプロセスを尊重する方法で行われることを条件とする。 
3 Without prejudice to Article 13 and Article 25, paragraph 2, this Convention shall not apply to research and development activities regarding artificial intelligence systems not yet made available for use, unless testing or similar activities are undertaken in such a way that they have the potential to interfere with human rights, democracy and the rule of law.  3 第十三条及び第二十五条第二項を害することなく、この条約は、試験又はこれに類する活動が人権、民主主義及び法の支配を妨げるおそれがあるような方法で行われる場合を除き、まだ利用可能になっていない人工知能システムに関する研究開発活動には適用されない。 
4 Matters relating to national defence do not fall within the scope of this Convention.  4 国防に関する事項は、この条約の適用範囲には含まれない。 
Chapter II – General obligations  第2章 一般義務 
Article 4 – Protection of human rights  第4条 人権の防御 
Each Party shall adopt or maintain measures to ensure that the activities within the lifecycle of artificial intelligence systems are consistent with obligations to protect human rights, as enshrined in applicable international law and in its domestic law.  各締約国は、人工知能システムのライフサイクル内の活動が、適用される国際法及び国内法に明記されている人権を保護する義務に合致することを確保するための措置を採択又は維持する。 
Article 5 – Integrity of democratic processes and respect for the rule of law  第5条 民主的プロセスの完全性と法の支配の尊重 
1 Each Party shall adopt or maintain measures that seek to ensure that artificial intelligence systems are not used to undermine the integrity, independence and effectiveness of democratic institutions and processes, including the principle of the separation of powers, respect for judicial independence and access to justice.  1 各締約国は、三権分立の原則、司法の独立の尊重及び司法へのアクセスを含む民主的機構及び手続の完全性、独立性及び有効性を損なうために人工知能システムが使用されないことを確保しようとする措置を採用し又は維持する。 
2 Each Party shall adopt or maintain measures that seek to protect its democratic processes in the context of activities within the lifecycle of artificial intelligence systems, including individuals’ fair access to and participation in public debate, as well as their ability to freely form opinions.  2 各締約国は、人工知能システムのライフサイクルの中での活動において、民主的プロセスを保護しようとする措置を採用し、又は維持するものとし、これには、個人の公的議論への公正なアクセス及び公的議論への参加並びに自由に意見を形成する能力も含まれる。 
Chapter III – Principles related to activities within the lifecycle of artificial intelligence systems  第3章 人工知能システムのライフサイクルにおける活動に関連する原則 
Article 6 – General approach  第6条 一般的なアプローチ 
This chapter sets forth general common principles that each Party shall implement in regard to artificial intelligence systems in a manner appropriate to its domestic legal system and the other obligations of this Convention.  本章は、人工知能システムに関し、各締約国が自国の国内法制度及びこの条約のその他の義務に適した方法で実施する一般的共通原則を定める。 
Article 7 – Human dignity and individual autonomy  第7条 人間の尊厳と個人の自治 
Each Party shall adopt or maintain measures to respect human dignity and individual autonomy in relation to activities within the lifecycle of artificial intelligence systems.  各締約国は、人工知能システムのライフサイクル内の活動に関連して、人間の尊厳及び個人の自主性を尊重するための措置を採用し、又は維持するものとする。 
Article 8 – Transparency and oversight  第8条 透明性と監督 
Each Party shall adopt or maintain measures to ensure that adequate transparency and oversight requirements tailored to the specific contexts and risks are in place in respect of activities within the lifecycle of artificial intelligence systems, including with regard to the identification of content generated by artificial intelligence systems.  各締約国は、人工知能システムによって生成されたコンテンツの識別に関するものを含め、人工知能システムのライフサイクル内の活動に関し、特定の状況及びリスクに合わせた適切な透明性及び監視の要件が設けられていることを確保するための措置を採択又は維持するものとする。 
Article 9 – Accountability and responsibility  第9条 説明責任 
Each Party shall adopt or maintain measures to ensure accountability and responsibility for adverse impacts on human rights, democracy and the rule of law resulting from activities within the lifecycle of artificial intelligence systems.  各締約国は、人工知能システムのライフサイクル内の活動に起因する人権、民主主義、法の支配に対する悪影響について、説明責任と責任を確保するための措置を採用または維持するものとする。 
Article 10 – Equality and non-discrimination  第10条 平等と非差別 
1 Each Party shall adopt or maintain measures with a view to ensuring that activities within the lifecycle of artificial intelligence systems respect equality, including gender equality, and the prohibition of discrimination, as provided under applicable international and domestic law.  1 各締約国は、人工知能システムのライフサイクル内の活動が、適用される国際法及び国内法の下で規定される男女平等及び識別的差別の禁止を含む平等を尊重することを確保する観点から、措置を採用し又は維持する。 
2 Each Party undertakes to adopt or maintain measures aimed at overcoming inequalities to achieve fair, just and equitable outcomes, in line with its applicable domestic and international human rights obligations, in relation to activities within the lifecycle of artificial intelligence systems.  2 各締約国は、人工知能システムのライフサイクル内の活動に関連して、適用される国内及び国際的な人権義務に沿って、公平、公正かつ衡平な結果を達成するために、不平等を克服することを目的とした措置を採用又は維持することを約束する。 
Article 11 – Privacy and personal data protection  第11条 プライバシーおよび個人データ保護 
Each Party shall adopt or maintain measures to ensure that, with regard to activities within the lifecycle of artificial intelligence systems:  各締約国は、人工知能システムのライフサイクル内の活動に関し、以下のことを確保するための措置を採用し又は維持するものとする: 
a privacy rights of individuals and their personal data are protected, including through applicable domestic and international laws, standards and frameworks; and  a 適用される国内法・国際法・標準・枠組みを含め、個人とその個人データのプライバシーの権利が保護される。 
b effective guarantees and safeguards have been put in place for individuals, in accordance with applicable domestic and international legal obligations.  b 適用される国内および国際的な法的義務に従い、個人に対して効果的な保証と保護措置が講じられている。 
Article 12 – Reliability  第12条 信頼性 
 Each Party shall take, as appropriate, measures to promote the reliability of artificial intelligence systems and trust in their outputs, which could include requirements related to adequate quality and security throughout the lifecycle of artificial intelligence systems.   各締約国は、適宜、人工知能システムの信頼性及びその出力に対する信頼を促進するための措置をとるものとし、これには、人工知能システムのライフサイクル全体を通じて適切な品質及びセキュリティに関する要求事項を含めることができる。 
Article 13 – Safe innovation  第13条 安全な技術革新 
 With a view to fostering innovation while avoiding adverse impacts on human rights, democracy and the rule of law, each Party is called upon to enable, as appropriate, the establishment of controlled environments for developing, experimenting and testing artificial intelligence systems under the supervision of its competent authorities.   人権、民主主義、法の支配に対する悪影響を回避しつつイノベーションを促進する観点から、各締約国は、自国の所管当局の監督の下、人工知能システムの開発、実験、試験のための管理された環境の設置を、適宜、可能にするよう求められる。 
Chapter IV – Remedies  第4章 救済措置 
Article 14 – Remedies  第14条 救済 
1 Each Party shall, to the extent remedies are required by its international obligations and consistent with its domestic legal system, adopt or maintain measures to ensure the availability of accessible and effective remedies for violations of human rights resulting from the activities within the lifecycle of artificial intelligence systems.  1 各締約国は、自国の国際的義務によって要求され、かつ、自国の国内法制度と整合する救済措置の範囲内において、人工知能システムのライフサイクル内の活動に起因する人権侵害について、アクセス可能かつ効果的な救済措置の利用可能性を確保するための措置を採用し、又は維持するものとする。 
2 With the aim of supporting paragraph 1 above, each Party shall adopt or maintain measures including:  2 上記1の支持を目的として、各締約国は、以下を含む措置を採用し又は維持する: 
a measures to ensure that relevant information regarding artificial intelligence systems which have the potential to significantly affect human rights and their relevant usage is documented, provided to bodies authorised to access that information and, where appropriate and applicable, made available or communicated to affected persons;  a 人権に重大な影響を及ぼす可能性のある人工知能システムおよびその関連する使用方法に関する関連情報が文書化され、その情報にアクセスする権限を有する団体に提供され、適切かつ該当する場合には、影響を受ける人が利用または伝達されることを確保するための措置; 
b measures to ensure that the information referred to in subparagraph a is sufficient for the affected persons to contest the decision(s) made or substantially informed by the use of the system, and, where relevant and appropriate, the use of the system itself; and  b a号で言及される情報が、影響を受ける者が、当該システムの使用によってなされ た、または実質的に知らされた決定に異議を唱えるのに十分なものであることを確 保するための措置、および、関連し適切な場合には、当該システムの使用自体。 
c an effective possibility for persons concerned to lodge a complaint to competent authorities.  c 関係者が管轄当局に苦情を申し立てるための効果的な可能性。 
Article 15 – Procedural safeguards  第15条 手続上の保護措置 
1 Each Party shall ensure that, where an artificial intelligence system significantly impacts upon the enjoyment of human rights, effective procedural guarantees, safeguards and rights, in accordance with the applicable international and domestic law, are available to persons affected thereby.  1 各締約国は、人工知能システムが人権の享有に重大な影響を与える場合には、適用される国際法及び国内法に従って、効果的な手続的保障、保護措置及び権利が、それによって影響を受ける者に利用可能であることを確保する。 
2 Each Party shall seek to ensure that, as appropriate for the context, persons interacting with artificial intelligence systems are notified that they are interacting with such systems rather than with a human.  2 各締約国は、文脈に応じて、人工知能システムと相互作用する者が、人間ではなく当該システムと相互作用していることを通知されるようにする。 
Chapter V – Assessment and mitigation of risks and adverse impacts  第5章 リスクと悪影響のアセスメントと低減 
Article 16 – Risk and impact management framework  第16条 リスクおよび影響マネジメントの枠組み 
1 Each Party shall, taking into account the principles set forth in Chapter III, adopt or maintain measures for the identification, assessment, prevention and mitigation of risks posed by artificial intelligence systems by considering actual and potential impacts to human rights, democracy and the rule of law.  1 各締約国は、第三章に定める原則を考慮し、人権、民主主義及び法の支配に対する実際及び潜在的な影響を考慮することにより、人工知能システムがもたらすリスクを特定し、アセスメントし、防止し及び低減するための措置を採択し、又は維持する。 
2 Such measures shall be graduated and differentiated, as appropriate, and:  2 このような措置は、適宜、段階的かつ差別化されたものでなければならない: 
a take due account of the context and intended use of artificial intelligence systems, in particular as concerns risks to human rights, democracy, and the rule of law;  a 特に人権、民主主義、法の支配に対するリスクに関しては、人工知能システムの背景と使用目的を十分に考慮すること; 
b take due account of the severity and probability of potential impacts;  b 潜在的な影響の重大性と確率を十分に考慮する; 
c consider, where appropriate, the perspectives of relevant stakeholders, in particular persons whose rights may be impacted;  c 適切な場合には、関連する利害関係者、特に権利に影 響を与える可能性のある人々の視点を考慮する; 
d apply iteratively throughout the activities within the lifecycle of the artificial intelligence system;  d 人工知能システムのライフサイクル内の活動を通して、反復的に適用される; 
e include monitoring for risks and adverse impacts to human rights, democracy, and the rule of law;  e 人権、民主主義、法の支配に対するリスクや悪影響を監視することも含まれる; 
f include documentation of risks, actual and potential impacts, and the risk management approach; and  f リスク、実際の影響、潜在的影響、リスクマネジメント手法の文書化を含む。 
g require, where appropriate, testing of artificial intelligence systems before making them available for first use and when they are significantly modified.  g 人工知能システムを最初に使用できるようにする前や、システムに大幅な変更が加えられた場合に、適切な場合にはテストを行うことを義務付ける。 
3 Each Party shall adopt or maintain measures that seek to ensure that adverse impacts of artificial intelligence systems to human rights, democracy, and the rule of law are adequately addressed. Such adverse impacts and measures to address them should be documented and inform the relevant risk management measures described in paragraph 2.  3 各締約国は、人権、民主主義及び法の支配に対する人工知能システムの悪影響が適切に対処されることを確保しようとする措置を採択又は維持するものとする。そのような悪影響およびそれに対処するための措置は、文書化され、パラグラフ2に記載されている関連リスクマネジメント措置に反映されるべきである。 
4 Each Party shall assess the need for a moratorium or ban or other appropriate measures in respect of certain uses of artificial intelligence systems where it considers such uses incompatible with the respect for human rights, the functioning of democracy or the rule of law.  4 各締約国は、人工知能システムの特定の使用に関し、その使用が人権の尊重、民主主義の機能又は法の支配と両立しないと考える場合には、モラトリアム又は禁止その他の適切な措置の必要性をアセスメントする。 
Chapter VI – Implementation of the Convention  第6章 条約の実施 
Article 17 – Non-discrimination  第17条 識別的差別の禁止 
The implementation of the provisions of this Convention by the Parties shall be secured without discrimination on any ground, in accordance with their international human rights obligations.  締約国によるこの条約の規定の実施は、国際人権義務に従い、いかなる理由による差別もなく確保されるものとする。 
Article 18 – Rights of persons with disabilities and of children  第18条 障害者および子どもの権利 
Each Party shall, in accordance with its domestic law and applicable international obligations, take due account of any specific needs and vulnerabilities in relation to respect for the rights of persons with disabilities and of children.  各締約国は、国内法及び適用される国際的義務に従い、障害者及び児童の権利の尊重に関し、特定のニーズ及び脆弱性を十分に考慮する。 
Article 19 – Public consultation  第19条 コンサルテーション 
Each Party shall seek to ensure that important questions raised in relation to artificial intelligence systems are, as appropriate, duly considered through public discussion and multistakeholder consultation in the light of social, economic, legal, ethical, environmental and other relevant implications.  各締約国は、人工知能システムに関連して提起された重要な問題が、社会的、経済的、法的、倫理的、環境的及びその他の関連する影響に照らして、適宜、公開討論及びマルチステークホルダー協議を通じて適正に検討されることを確保するよう努める。 
Article 20 – Digital literacy and skills  第20条 デジタル・リテラシーとスキル 
Each Party shall encourage and promote adequate digital literacy and digital skills for all segments of the population, including specific expert skills for those responsible for the identification, assessment, prevention and mitigation of risks posed by artificial intelligence systems.  各締約国は、人工知能システムによってもたらされるリスクの特定、アセスメント、予防及び軽減に責任を有する者のための特定の専門的技能を含め、国民のすべての層に対する十分なデジタルリテラシー及びデジタル技能を奨励し、かつ、促進する。 
Article 21 – Safeguard for existing human rights  第21条 既存の人権の保護 
Nothing in this Convention shall be construed as limiting, derogating from or otherwise affecting the human rights or other related legal rights and obligations which may be guaranteed under the relevant laws of a Party or any other relevant international agreement to which it is party.  この条約のいかなる規定も、締約国の関連する法律又は締約国が締結している他の関連する国際協定の下で保障され得る人権又は他の関連する法的権利及び義務を制限し、これを軽減し、その他これに影響を及ぼすものと解釈してはならない。 
Article 22 – Wider protection  第22条 より広範な保護 
None of the provisions of this Convention shall be interpreted as limiting or otherwise affecting the possibility for a Party to grant a wider measure of protection than is stipulated in this Convention.  この条約のいずれの規定も、締約国がこの条約に定めるよりも広い保護の措置を与える可能性を制限し、又はその他の形で影響を及ぼすものとして解釈してはならない。 
Chapter VII – Follow-up mechanism and co-operation  第7章 フォローアップの仕組みと協力 
Article 23 – Conference of the Parties  第23条 締約国会議 
1 The Conference of the Parties shall be composed of representatives of the Parties to this Convention.  1 締約国会議は、この条約の締約国の代表者で構成する。 
2 The Parties shall consult periodically with a view to:  2 両当事者は、定期的に協議するものとする: 
a facilitating the effective application and implementation of this Convention, including the identification of any problems and the effects of any reservation made in pursuance of Article 34, paragraph 1, or any declaration made under this Convention;  a この条約の効果的な適用及び実施を促進すること(第34条第1項に基づき行われた留保又はこの条約に基づき行われた宣言の問題及び影響の特定を含む; 
b considering the possible supplementation to or amendment of this Convention;  b この条約の補足または改正の可能性を検討する; 
c considering matters and making specific recommendations concerning the interpretation and application of this Convention;  c この条約の解釈と適用に関する事項を検討し、具体的な勧告を行う; 
d facilitating the exchange of information on significant legal, policy or technological developments of relevance, including in pursuit of the objectives defined in Article 25, for the implementation of this Convention;  d 第25条に規定する目的の追求を含め、この条約の実施に関連する重要な法律、政策又は技術の発展に関する情報の交換を促進すること; 
e facilitating, where necessary, the friendly settlement of disputes related to the application of this Convention; and  e 必要な場合には、この条約の適用に関する紛争を友好的に解決すること。 
f facilitating co-operation with relevant stakeholders concerning pertinent aspects of the implementation of this Convention, including through public hearings where appropriate.  f 適切な場合には公聴会を通じてなど、この条約の実施に関連する側面に関する関係者との協力を促進する。 
3 The Conference of the Parties shall be convened by the Secretary General of the Council of Europe whenever necessary and, in any case, when a majority of the Parties or the Committee of Ministers requests its convocation.  3 締約国会議は、欧州評議会事務総長が必要なときに招集するものとし、いかなる場合においても、締約国の過半数または閣僚委員会が招集を要請したときに招集するものとする。 
4 The Conference of the Parties shall adopt its own rules of procedure by consensus within twelve months of the entry into force of this Convention.  4 締約国会議は、この条約の発効後12箇月以内に、総意により、独自の手続規則を採択する。 
5 The Parties shall be assisted by the Secretariat of the Council of Europe in carrying out their functions pursuant to this article.  5 締約国は、本条に基づく機能の遂行にあたり、欧州評議会事務局の援助を受けるものとする。 
6 The Conference of the Parties may propose to the Committee of Ministers appropriate ways to engage relevant expertise in support of the effective implementation of this Convention.  6 締約国会議は、この条約の効果的な実施を支援するため、関連する専門知識を関与させる適切な方法を閣僚委員会に提案することができる。 
7 Any Party which is not a member of the Council of Europe shall contribute to the funding of the activities of the Conference of the Parties. The contribution of a non-member of the Council of Europe shall be established jointly by the Committee of Ministers and that non-member.  7 欧州評議会に加盟していない締約国は、締約国会議の活動の資金に拠出する。欧州評議会の非加盟国の拠出は、閣僚委員会及び当該非加盟国が共同で定める。 
8 The Conference of the Parties may decide to restrict the participation in its work of a Party that has ceased to be a member of the Council of Europe under Article 8 of the Statute of the Council of Europe (ETS No. 1) for a serious violation of Article 3 of the Statute. Similarly, measures can be taken in respect of any Party that is not a member State of the Council of Europe by a decision of the Committee of Ministers to cease its relations with that State on grounds similar to those mentioned in Article 3 of the Statute.  8 締約国会議は、欧州評議会規約(ETS No.1)第3条の重大な違反について、同規約第8条に基づき欧州評議会の加盟国でなくなった締約国の作業への参加を制限することを決定することができる。同様に、欧州評議会の加盟国でない締約国についても、規約第3条に記載された理由と同様の理由により、閣僚委員会の決定により、当該国との関係を停止する措置をとることができる。 
Article 24 – Reporting obligation  第24条 報告義務 
1 Each Party shall provide a report to the Conference of the Parties within the first two years after becoming a Party, and then periodically thereafter with details of the activities undertaken to give effect to Article 3, paragraph 1, sub-paragraphs a and b.  1 各締約国は、締約国となってから最初の2年以内に、その後定期的に、締約国会議に対し、第3条第1項第a号及び第b号を実施するために行われた活動の詳細を記載した報告書を提出する。 
2 The Conference of the Parties shall determine the format and the process for the report in accordance with its rules of procedure.  2 締約国会議は、その手順規則に従い、報告書の書式とプロセスを決定する。 
Article 25 – International co-operation  第25条 国際協力 
1 The Parties shall co-operate in the realisation of the purpose of this Convention. Parties are further encouraged, as appropriate, to assist States that are not Parties to this Convention in acting consistently with the terms of this Convention and becoming a Party to it.  1 締約国は、この条約の目的の実現に協力する。締約国は、この条約の条項に従って行動し、この条約の締約国となることについて、この条約の締約国でない国を適当な場合には援助することがさらに奨励される。 
2 The Parties shall, as appropriate, exchange relevant and useful information between themselves concerning aspects related to artificial intelligence which may have significant positive or negative effects on the enjoyment of human rights, the functioning of democracy and the observance of the rule of law, including risks and effects that have arisen in research contexts and in relation to the private sector. Parties are encouraged to involve, as appropriate, relevant stakeholders and States that are not Parties to this Convention in such exchanges of information.  2 締約国は、適切な場合には、研究の文脈及び民間部門との関連において生じたリスク及び影響を含め、人権の享有、民主主義の機能及び法の支配の遵守に重大な肯定的影響又は否定的影響を及ぼす可能性のある人工知能に関連する側面に関し、自国間で関連する有益な情報を交換する。締約国は、このような情報交換に、適宜、関連する利害関係者およびこの条約の締約国でない国を参加させることが奨励される。 
3 The Parties are encouraged to strengthen co-operation, including with relevant stakeholders where appropriate, to prevent and mitigate risks and adverse impacts on human rights, democracy and the rule of law in the context of activities within the lifecycle of artificial intelligence systems.  3 締約国は、人工知能システムのライフサイクル内の活動において、人権、民主主義、法の支配に対するリスクや悪影響を防止・緩和するため、適切な場合には関連する利害関係者との協力を含め、協力を強化することが奨励される。 
Article 26 – Effective oversight mechanisms  第26条 効果的な監督メカニズム 
1 Each Party shall establish or designate one or more effective mechanisms to oversee compliance with the obligations in this Convention.  1 各締約国は、この条約の義務の遵守を監督するための一つ以上の効果的な機構を設置又は指定する。 
2 Each Party shall ensure that such mechanisms exercise their duties independently and impartially and that they have the necessary powers, expertise and resources to effectively fulfil their tasks of overseeing compliance with the obligations in this Convention, as given effect by the Parties.  2 各締約国は、このような機構が独立かつ公平にその任務を遂行し、かつ、締約国によって効力を与えられたこの条約の義務の遵守を監督する任務を効果的に遂行するために必要な権限、専門知識及び資源を有することを確保する。 
3 If a Party has provided for more than one such mechanism, it shall take measures, where practicable, to facilitate effective cooperation among them.  3 締約国が複数のこのようなメカニズムをプロバイダしている場合には、それらのメカニズム間の効果的な協力を促進するための措置を、実行可能な場合にはとるものとする。 
4 If a Party has provided for mechanisms different from existing human rights structures, it shall take measures, where practicable, to promote effective cooperation between the mechanisms referred to in paragraph 1 and those existing domestic human rights structures.  4 締約国が既存の人権機構とは異なる機構を定めている場合には、第1項にいう機構と既存の国内人権機構との間の効果的な協力を促進するための措置を、実行可能な場合にはとる。 
Chapter VIII – Final clauses  第8章 最終条項 
Article 27 – Effects of the Convention  第27条 条約の効力 
1 If two or more Parties have already concluded an agreement or treaty on the matters dealt with in this Convention, or have otherwise established relations on such matters, they shall also be entitled to apply that agreement or treaty or to regulate those relations accordingly, so long as they do so in a manner which is not inconsistent with the object and purpose of this Convention.  1 二以上の締約国は、この条約で取り扱われる事項に関する協定若しくは条約を既に締結している場合又はそのような事項に関する関係を他の方法で確立している場合には、この条約の目的及び趣旨に反しない限り、その協定若しくは条約を適用し、又はその関係をそのように規制する権利を有する。 
2 Parties which are members of the European Union shall, in their mutual relations, apply European Union rules governing the matters within the scope of this Convention without prejudice to the object and purpose of this Convention and without prejudice to its full application with other Parties. The same applies to other Parties to the extent that they are bound by such rules.  2 欧州連合の加盟国である政府は、相互の関係において、この条約の目的及び趣旨を損なうことなく、かつ、他の締約国との間におけるこの条約の完全な適用を妨げることなく、この条約の適用範囲内の事項に関する欧州連合の規則を適用する。他の締約国についても、当該規則に拘束される限りにおいて同様とする。 
Article 28 – Amendments  第28条-改正 
1 Amendments to this Convention may be proposed by any Party, the Committee of Ministers of the Council of Europe or the Conference of the Parties.  1 この条約の改正は、いずれかの締約国、欧州評議会閣僚委員会又は締約国会議が提案することができる。 
2 Any proposal for amendment shall be communicated by the Secretary General of the Council of Europe to the Parties.  2 修正案は、欧州評議会事務総長から締約国に通知されるものとする。 
3 Any amendment proposed by a Party, or the Committee of Ministers, shall be communicated to the Conference of the Parties, which shall submit to the Committee of Ministers its opinion on the proposed amendment.  3 締約国又は閣僚委員会が提案した修正案は、締約国会議に通知されるものとし、同会議は、提案された修正案に関する意見を閣僚委員会に提出する。 
4 The Committee of Ministers shall consider the proposed amendment and the opinion submitted by the Conference of the Parties and may approve the amendment.  4 閣僚委員会は、改正案及び締約国会議が提出した意見を検討し、改正案を承認することができる。 
5 The text of any amendment approved by the Committee of Ministers in accordance with paragraph 4 shall be forwarded to the Parties for acceptance.  5 第 4 項に従って閣僚委員会により承認された修正文は、受諾のため締約国に送付される。 
6 Any amendment approved in accordance with paragraph 4 shall come into force on the thirtieth day after all Parties have informed the Secretary General of their acceptance thereof.  6 第四項に従って承認された改正は、すべての締約国がその受諾を事務総長に通知した後三十日目に効力を生ずる。 
Article 29 – Dispute settlement  第29条 -紛争解決 
In the event of a dispute between Parties as to the interpretation or application of this Convention, these Parties shall seek a settlement of the dispute through negotiation or any other peaceful means of their choice, including through the Conference of the Parties, as provided for in Article 23, paragraph 2, sub-paragraph e.  この条約の解釈又は適用に関して締約国間で紛争が生じた場合には、これらの締約国は、第二十三条第二項第e号に規定する締約国会議を通じてを含む、交渉又はその他の平和的手段の選択を通じて紛争の解決を図るものとする。 
Article 30 – Signature and entry into force  第30条 署名と発効 
1 This Convention shall be open for signature by the member States of the Council of Europe, the non-member States which have participated in its elaboration and the European Union.  1 この条約は、欧州評議会の加盟国、この条約の作成に参加した非加盟国および欧州連合が署名することができる。 
2 This Convention is subject to ratification, acceptance or approval. Instruments of ratification, acceptance or approval shall be deposited with the Secretary General of the Council of Europe.  2 この条約は、批准、受諾又は承認の対象となる。批准書、受諾書又は承認書は、欧州評議会事務総長に寄託する。 
3 This Convention shall enter into force on the first day of the month following the expiration of a period of three months after the date on which five signatories, including at least three member States of the Council of Europe, have expressed their consent to be bound by this Convention in accordance with paragraph 2.  3 この条約は、少なくとも三の欧州評議会加盟国を含む五の署名国が第二項に従ってこの条約に拘束されることに同意する旨を表明した日から三箇月を経過した日の翌月一日に効力を生ずる。 
4 In respect of any signatory which subsequently expresses its consent to be bound by it, this Convention shall enter into force on the first day of the month following the expiration of a period of three months after the date of the deposit of its instrument of ratification, acceptance or approval.  4 この条約は、その後にこの条約に拘束されることに同意を表明した署名国については、その批准書、受諾書又は承認書の寄託の日から三箇月を経過した日の翌月一日に効力を生ずる。 
Article 31 – Accession  第31条 加盟 
1 After the entry into force of this Convention, the Committee of Ministers of the Council of Europe may, after consulting the Parties to this Convention and obtaining their unanimous consent, invite any non-member State of the Council of Europe which has not participated in the elaboration of this Convention to accede to this Convention by a decision taken by the majority provided for in Article 20.d of the Statute of the Council of Europe, and by unanimous vote of the representatives of the Parties entitled to sit on the Committee of Ministers.  1 この条約の発効後、欧州評議会の閣僚委員会は、この条約の締約国と協議し、かつ、その全会一致の同意を得た後、欧州評議会規約第20条dに規定する多数決により、かつ、閣僚委員会の委員となる資格を有する締約国の代表者の全会一致により決定することにより、この条約の作成に参加していない欧州評議会の非加盟国に対し、この条約への加盟を要請することができる。 
2 In respect of any acceding State, this Convention shall enter into force on the first day of the month following the expiration of a period of three months after the date of deposit of the instrument of accession with the Secretary General of the Council of Europe.  2 この条約は、いずれの加盟国についても、欧州評議会事務総長に加盟文書を寄託した日から三箇月を経過した日の翌月一日に効力を生ずる。 
Article 32 – Territorial application  第32条 適用地域 
1 Any State or the European Union may, at the time of signature or when depositing its instrument of ratification, acceptance, approval or accession, specify the territory or territories to which this Convention shall apply.  1 いずれの国又は欧州連合も、署名の際又は批准書、受諾書、承認書若しくは加入書を寄託する際に、この条約が適用される領域又は地域を指定することができる。 
2 Any Party may, at a later date, by a declaration addressed to the Secretary General of the Council of Europe, extend the application of this Convention to any other territory specified in the declaration. In respect of such territory, this Convention shall enter into force on the first day of the month following the expiration of a period of three months after the date of receipt of the declaration by the Secretary General.  2 いずれの締約国も、後日、欧州評議会事務総長にあてた宣言により、この条約の適用をその宣言で指定された他の地域に拡大することができる。この条約は、当該領域に関し、事務総長が宣言を受理した日から三箇月を経過した日の翌月一日に効力を生ずる。 
3 Any declaration made under the two preceding paragraphs may, in respect of any territory specified in said declaration, be withdrawn by a notification addressed to the Secretary General of the Council of Europe. The withdrawal shall become effective on the first day of the month following the expiration of a period of three months after the date of receipt of such notification by the Secretary General.  3 前2項の規定に基づいて行われた宣言は、当該宣言において特定された領域については、欧州評議会事務総長あての通告により撤回することができる。その取下げは、事務総長がその通告を受理した日から3箇月を経過した日の翌月1日に効力を生ずる。 
Article 33 – Federal clause  第33条 連邦条項 
1 A federal State may reserve the right to assume obligations under this Convention consistent with its fundamental principles governing the relationship between its central government and constituent states or other similar territorial entities, provided that this Convention shall apply to the central government of the federal State.  1 連邦国は、その中央政府と構成州又はその他の類似の領域事業体との関係を規律する基本原則に合致するこの条約に基づく義務を負う権利を留保することができる。ただし、この条約は、連邦国の中央政府に適用される。 
2 With regard to the provisions of this Convention, the application of, which come under the jurisdiction of constituent states or other similar territorial entities that are not obliged by the constitutional system of the federation to take legislative measures, the federal government shall inform the competent authorities of such states of the said provisions with its favourable opinion, and encourage them to take appropriate action to give them effect.  2 この条約の規定のうち、連邦の憲法上の制度により立法措置をとる義務を負わない構成州又はこれに準ずる事業体の管轄の下にあるものについては、連邦政府は、当該州の権限ある当局に対し、好意的な意見を付して当該規定を通知し、かつ、その効力を生じさせるための適当な措置をとるよう奨励しなければならない。 
Article 34 – Reservations  第34条 予約 
1 By a written notification addressed to the Secretary General of the Council of Europe, any State may, at the time of signature or when depositing its instrument of ratification, acceptance, approval or accession, declare that it avails itself of the reservation provided for in Article 33, paragraph 1.  1 欧州評議会事務総長宛の書面による通告により、いずれの国も、署名の際又は批准書、受諾書、承認書若しくは加入書を寄託する際に、第33条第1項に規定する留保を援用することを宣言することができる。 
2 No other reservation may be made in respect of this Convention.  2 この条約に関し、他の留保を付すことはできない。 
Article 35 – Denunciation  第35条 告訴 
1 Any Party may, at any time, denounce this Convention by means of a notification addressed to the Secretary General of the Council of Europe.  1 いずれの締約国も、欧州評議会事務総長あての通告により、この条約をいつでも批准することができる。 
2 Such denunciation shall become effective on the first day of the month following the expiration of a period of three months after the date of receipt of the notification by the Secretary General.  2 このような糾弾は、事務総長が通知を受領した日から3ヶ月を経過した翌月の1日に発効する。 
Article 36 – Notification  第36条 通知 
The Secretary General of the Council of Europe shall notify the member States of the Council of Europe, the non-member States which have participated in the elaboration of this Convention, the European Union, any signatory, any contracting State, any Party and any other State which has been invited to accede to this Convention, of:  欧州評議会事務総長は、欧州評議会の加盟国、この条約の作成に参加した非加盟国、欧州連合、いずれかの署名国、いずれかの締約国及びこの条約に加入するよう招請されたその他の国に対し、次の事項を通知する: 
a any signature;  a どんなサインでもよい; 
b the deposit of any instrument of ratification, acceptance, approval or accession;  b 批准書、受諾書、承認書、加盟書の寄託; 
c any date of entry into force of this Convention, in accordance with Article 30, paragraphs 3 and 4, and Article 31, paragraph 2;  c 第30条第3項及び第4項並びに第31条第2項に従い、この条約の発効日を含む; 
d any amendment adopted in accordance with Article 28 and the date on which such an amendment enters into force;  d 第28条に従って採択された改正と、その改正の発効日; 
e any declaration made in pursuance of Article 3, paragraph 1, sub-paragraph b;  e 第3条第1項b号に従って行われた宣言; 
f any reservation and withdrawal of a reservation made in pursuance of Article 34;  f 第34条に従って行われた留保および留保の撤回; 
g any denunciation made in pursuance of Article 35;  g 第35条の規定に従って行われた異議申し立て; 
h any other act, declaration, notification or communication relating to this Convention.  h このコミュニケーションに関するその他の行為、宣言、通告又は連絡 
In witness whereof the undersigned, being duly authorised thereto, have signed this Convention.  その証として、下名は、正当な権限を有し、この条約に署名する。 
 Done in Vilnius, this 5th day of September 2024, in English and in French, both texts being equally authentic, in a single copy which shall be deposited in the archives of the Council of Europe. The Secretary General of the Council of Europe shall transmit certified copies to each member State of the Council of Europe, to the non-member States which have participated in the elaboration of this Convention, to the European Union and to any State invited to accede to this Convention.   2024年9月5日、ヴィリニュスにおいて、英語及びフランス語で、両文書は等しく認証されるものとし、一通を作成し、欧州評議会の文書館に寄託する。欧州評議会事務総長は、認証した写しを、欧州評議会の各加盟国、この条約の作成に参加した非加盟国、欧州連合及びこの条約に加入するよう招請された国に送付する。 
   

 

解説書

Council of Europe Treaty Series - No. 225  欧州評議会条約シリーズ第225号 
Explanatory Report  解説書 
to the Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law  人工知能と人権、民主主義、法の支配に関する欧州評議会枠組み条約へ 
Vilnius, 5.IX.2024  ヴィリニュス、2024年9月5日 
I. The Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, drawn up within the Council of Europe, was adopted by the Committee of Ministers on 17 May 2024 on the occasion of its 133rd Session.  I. 欧州評議会内で作成された「人工知能と人権、民主主義および法の支配に関する欧州評議会枠組み条約」は、2024年5月17日、第133回会合の際に閣僚委員会によって採択された。 
II. The text of the explanatory report submitted to the Committee of Ministers of the Council of Europe does not constitute an instrument providing an authoritative interpretation of the text of the Framework Convention although it may facilitate the understanding of it's provisions.  II. 欧州評議会閣僚委員会に提出された説明報告書の文章は、枠組み条約の条文の理解を容易にすることはあっても、その条文の権威ある解釈を提供する文書ではない。 
I. Introduction  I. 序文 
1. The Council of Europe, through the work of its various bodies and of the ad hoc Committee on Artificial Intelligence (CAHAI), later succeeded by the Committee on Artificial Intelligence (CAI), has long concerned itself with the problems confronting humankind as a result of advances in information and digital technologies, and in particular algorithmic and artificial intelligence (AI) systems.  1. 欧州評議会は、そのさまざまな団体や、後に人工知能委員会(CAI)に引き継がれたアドホック人工知能委員会(CAHAI)の活動を通じて、情報技術やデジタル技術、特にアルゴリズムや人工知能(AI)システムの進歩によって人類が直面する問題に長い間取り組んできた。 
2. Having taken note of the CAHAI’s final paper on the “Possible elements of a legal framework on artificial intelligence, based on Council of Europe’s standards on human rights, democracy and the rule of law” adopted in December 2021, the Committee of Ministers of the Council of Europe instructed the CAI to elaborate a Framework Convention on the activities within the lifecycle of artificial intelligence systems, “based on the Council of Europe’s standards on human rights, democracy and the rule of law, and conducive to innovation, which can be composed of a binding legal instrument of a transversal character, including notably general common principles”.  2. 2021年12月に採択された「人権、民主主義、法の支配に関する欧州評議会の標準に基づく、人工知能に関する法的枠組みの可能な要素」に関するCAHAIの最終文書に留意し、欧州評議会閣僚委員会はCAIに対し、人工知能システムのライフサイクルにおける情報活動に関する枠組み条約を作成するよう指示した、「人権、民主主義、法の支配に関する欧州評議会の標準に基づき、技術革新に資するものであり、特に一般的な共通原則を含む横断的な性格を持つ拘束力のある法的文書で構成することができる」とした。
3. The Committee of Ministers also decided to allow for the inclusion in the negotiations of the European Union and interested non-European States sharing the values and aims of the Council of Europe – States from around the globe, namely Argentina, Australia, Canada, Costa Rica, the Holy See, Israel, Japan, Mexico, Peru, the United States of America and Uruguay, joined the process of negotiations in the CAI and participated in the elaboration of this Framework Convention as observer States.  3. また閣僚委員会は、欧州連合(EU)と、欧州評議会の価値観と目的を共有する関心のある非欧州諸国(アルゼンチン、オーストラリア、カナダ、コスタリカ、ローマ教皇庁、イスラエル、日本、メキシコ、ペルー、米国、ウルグアイ)の交渉参加を認めることを決定した。 
4. It was also important for the Council of Europe to closely involve relevant non-State actors in these negotiations. A total of 68 civil society and industry representatives were involved in the CAI as observers, participating in the negotiations together with States and representatives of other international organisations, such as the Organisation for Security and Co-operation in Europe (OSCE), the Organisation for Economic Co-operation and Development (OECD), the United Nations Educational, Scientific and Cultural Organisation (UNESCO) and relevant Council of Europe bodies and committees. The European Union also participated in the negotiations represented by the European Commission, including in its delegation also representatives from the European Union Agency for Fundamental Rights (FRA) and the European Data Protection Supervisor (EDPS).  4. また、欧州評議会にとって、こうした交渉に国家以外の関係事業者を緊密に関与させることも重要であった。合計68名の市民社会および産業界の代表者がオブザーバーとしてCAIに参加し、米国や、欧州安全保障協力機構(OSCE)、経済協力開発機構(OECD)、国連教育科学文化機関(UNESCO)、欧州評議会の関連団体・委員会などの国際機関の代表者と共に交渉に参加した。欧州連合も欧州委員会を代表して交渉に参加し、その代表団には欧州連合基本権機関(FRA)と欧州データ保護監察機関(EDPS)の代表者も含まれていた。 
5. This Framework Convention focuses on the protection and furtherance of human rights , democracy and the rule of law, and does not expressly regulate the economic and market aspects of artificial intelligence systems. Taken as a whole, it provides a common legal framework at the global level in order to apply the existing international and domestic legal obligations that are applicable to each Party in the sphere of human rights, democracy and the rule of law of each Party and aims to ensure that the activities within the lifecycle of artificial intelligence systems by both public and private actors comply with these obligations, standards and commitments.  5. この枠組み条約は、人権( )、民主主義、法の支配の保護と促進に重点を置いており、人工知能システムの経済的・市場的側面を明確に規制するものではない。全体としてみれば、各締約国の人権、民主主義、法の支配の領域において、各締約国に適用される既存の国際法および国内法の義務を適用するために、世界レベルで共通の法的枠組みを提供するものであり、官民双方の主体による人工知能システムのライフサイクル内の活動が、これらの義務、標準、公約を遵守することを確保することを目的としている。 
II. Commentary on the Preamble and the provisions of the Framework Convention  II. 枠組み条約の前文と条項の解説 
Preamble  前文 
6. The Preamble reaffirms the commitment of the Parties to protecting human rights, democracy and the rule of law and recalls international legal instruments and treaties of the Council of Europe and the United Nations which directly deal with topics within the scope of this Framework Convention.  6. 前文は、人権、民主主義、法の支配の保護に対する締約国のコミットメントを再確認し、この枠組み条約の範囲内のトピックを直接扱う欧州評議会および国際連合の国際法的文書および条約を想起する。 
7. During the negotiation and subsequent adoption of this Framework Convention, the following international legal and policy instruments on artificial intelligence, in particular those prepared by the Council of Europe and other international organisations and processes, were taken into account:  7. この枠組み条約の交渉とその後の採択に際しては、人工知能に関する以下の国際的な法的・政策的文書、特に欧州評議会やその他の国際的な組織やプロセスによって作成された文書が考慮された: 
a) Declaration of the Committee of Ministers of the Council of Europe on the manipulative capabilities of algorithmic processes, adopted on 13 February 2019 - Decl(13/02/2019)1; a) 2019年2月13日に採択された、アルゴリズムによるプロセスの操作能力に関する欧州評議会閣僚委員会の宣言 - Decl(13/02/2019)1; 
 b) Recommendation on Artificial Intelligence adopted by the OECD Council on 22 May 2019 (the “OECD AI Principles”);  b) b2019年5月22日にOECD理事会で採択された人工知能に関する勧告(「OECD AI原則」); 
c) Recommendation of the Committee of Ministers of the Council of Europe to member States on the human rights impacts of algorithmic systems, adopted on 8 April 2020 - CM/Rec(2020)1;  c) アルゴリズミック・システムの人権への影響に関する欧州評議会閣僚委員会の加盟国への勧告(2020年4月8日採択) - CM/Rec(2020)1; 
d) Resolutions and Recommendations of the Parliamentary Assembly of the Council of Europe, examining the opportunities and risks of artificial intelligence for human rights, democracy, and the rule of law and endorsing a set of core ethical principles that should be applied to AI systems;  d) 人権、民主主義、法の支配にとっての人工知能の機会とリスクを検討し、AIシステムに適用されるべき一連の中核的倫理原則を支持する欧州評議会議会の決議と勧告 
e) UNESCO Recommendation on the Ethics of Artificial Intelligence adopted on 23 November 2021;  e) 2021年11月23日に採択された人工知能の倫理に関するユネスコ勧告; 
f) G7 Hiroshima Process International Guiding Principles for Organisations Developing Advanced AI Systems and Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems (adopted on 30 October 2023); and  f) G7広島プロセス 先進的AIシステムを開発する組織のための国際指導原則および広島プロセス 先進的AIシステムを開発する組織のための国際行動規範(2023年10月30日採択)。 
g) EU Regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) adopted on 13 March 2024.  g) 2024年3月13日に採択された、人工知能に関する調和規則を定めたEU規則(人工知能法)。 
8. Furthermore, the negotiations were inspired by elements of the following political declarations:  8. さらに、交渉は以下の政治宣言の要素に触発された: 
a) Declaration by Heads of State and Government made at the 4th Council of Europe Summit in Reykjavík on 16-17 May 2023;  a) 2023年5月16~17日にレイキャビクで開催された第4回欧州評議会首脳会議で採択された首脳宣言; 
b) G7 Leaders’ Statement on the Hiroshima AI Process of 30 October and 6 December 2023; and  b) 2023年10月30日と12月6日の広島AIプロセスに関するG7首脳声明 
c) The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023.  c) 2023年11月1-2日、AIセーフティ・サミット出席国によるブレッチリー宣言。 
9. The Preamble sets out the basic aim of the Framework Convention – to ensure that the potential of artificial intelligence technologies to promote human prosperity, individual and societal wellbeing and to make our world more productive, innovative and secure, is harnessed in a responsible manner that respects, protects and fulfils the shared values of the Parties and is respectful of human rights, democracy and the rule of law.  9. 人間の繁栄、個人と社会の福利を促進し、世界をより生産的で革新的で安全なものにする人工知能技術の可能性が、締約国が共有する価値を尊重し、保護し、履行し、人権、民主主義、法の支配を尊重する責任ある方法で活用されることを確保することである。 
10. The Drafters wished to emphasise that artificial intelligence systems offer unprecedented opportunities to protect and promote human rights, democracy and the rule of law. At the same time, they also wished to acknowledge that there are serious risks and perils arising from certain activities within the lifecycle of artificial intelligence such as, for instance, discrimination in a variety of contexts, gender inequality, the undermining of democratic processes, impairing human dignity or individual autonomy, or the misuses of artificial intelligence systems by some States for repressive purposes, in violation of international human rights law. The Drafters also wanted to draw attention to human dignity and individual autonomy as foundational values and principles that are essential for the full realisation of human rights, democracy and the rule of law and that can also be adversely impacted by certain activities within the lifecycle of artificial intelligence systems. The Drafters wished to emphasise that when referring to individuals that can be affected by artificial intelligence systems creating or aggravating inequalities, these include individuals discriminated based on their “race” or ethnicity, including indigenous individuals. They also wished to emphasise the need to avoid discrimination on grounds of sex, bias or other systemic harms, in accordance with international obligations and in line with relevant United Nations declarations. Furthermore, trustworthy artificial intelligence systems will embody principles such as those set out in Chapter III of the Framework Convention that should apply to activities within the lifecycle of artificial intelligence systems. Finally, the Drafters were fully aware that the increasing use of artificial intelligence systems, due to their transformative nature for societies, brings new challenges for human rights, democracy and the rule of law which are not yet foreseeable at the time of drafting.  10. 起草者らは、人工知能システムが人権、民主主義、法の支配を保護・促進するための前例のない機会を提供することを強調したいと考えた。同時に、人工知能のライフサイクルの中で、例えば、さまざまな文脈における識別的差別、ジェンダー不平等、民主的プロセスの弱体化、人間の尊厳や個人の自律性の侵害、あるいは国際人権法に違反する抑圧的な目的での国家による人工知能システムの悪用など、特定の活動から生じる深刻なリスクや危険性があることも認めたいと考えた。起草者たちはまた、人権、民主主義、法の支配の完全な実現に不可欠であり、人工知能システムのライフサイクルにおける特定の情報活動によっても悪影響を受けうる基礎的な価値と原則としての人間の尊厳と個人の自主性に注意を喚起したいと考えた。起草者たちは、人工知能システムが不平等を生み出したり悪化させたりすることによって影響を受ける可能性のある個人について言及する際、先住民族を含め、「人種」 、民族性に基づいて識別的に差別される個人が含まれることを強調したいと考えた。また、国際的な義務に従い、関連する国連宣言に沿って、性別、バイアス、その他の体系的な害を理由とする差別を回避する必要性も強調したいとしている。さらに、信頼に足る人工知能システムは、枠組み条約第3章に規定されているような、人工知能システムのライフサイクル内の活動に適用されるべき原則を具体化するものである。最後に、ドラフト作成者は、人工知能システムの利用の増加は、その社会に対する変革的性質のために、人権、民主主義、法の支配に新たな課題をもたらすが、それはドラフト作成時点ではまだ予見できないことを十分に認識していた。 
11. Consequently, the Preamble sets the scene for a variety of legally binding obligations contained in the Framework Convention that aim to ensure that the activities within the lifecycle of artificial intelligence systems that have the potential to interfere with the respect for human rights, the functioning of democracy, or the observance of rule of law in both the public and private sectors are in full compliance with this Framework Convention.  11. その結果、前文は、人権尊重、民主主義の機能、または官民両部門における法の支配の遵守を妨げる可能性のある人工知能システムのライフサイクル内の活動が、この枠組み条約を完全に遵守していることを保証することを目的とした、枠組み条約に含まれるさまざまな法的拘束力のある義務の舞台を設定している。 
Chapter I: General provisions  第1章 一般規定 
Article 1 – Object and purpose  第1条 目的および目標 
 On the object and purpose of the Framework Convention and its relationship with the existing human rights protection regimes and mechanisms  枠組み条約の目的と目標、および既存の人権保護制度やメカニズムとの関係について 
12. Paragraphs 1 and 2 set out the object and purpose of the Framework Convention, which is to ensure that activities within the lifecycle of artificial intelligence systems are fully consistent with human rights, democracy and the rule of law. At the same time, it is important to underline that the Framework Convention does not intend to regulate all aspects of the activities within the lifecycle of artificial intelligence systems, nor artificial intelligence technologies as such. Both its object and purpose are confined to questions pertaining to the mandate of the Council of Europe with a focus on artificial intelligence systems which have the potential to interfere with human rights, democracy and the rule of law.  12. 第1項と第2項では、人工知能システムのライフサイクルにおける活動が、人権、民主主義、法の支配と完全に一致することを保証する、という枠組み条約の目的と目標が示されている。同時に、枠組み条約は、人工知能システムのライフサイクルにおける活動や人工知能技術のあらゆる側面を規制することを意図しているわけではないことを強調しておきたい。その目的も対象も、人権、民主主義、法の支配を阻害する可能性のある人工知能システムに焦点を当てた、欧州評議会の職務権限に関わる問題に限定されている。 
13. The Framework Convention ensures that each Party’s existing applicable obligations on human rights, democracy and the rule of law are also applied to activities within the lifecycle of artificial intelligence systems. In this sense, the Framework Convention is aligned with the applicable human rights protection systems and mechanisms of each Party, including their international law obligations and other international commitments and their applicable domestic law. As such, no provision of this Framework Convention is intended to create new human rights or human rights obligations or undermine the scope and content of the existing applicable protections, but rather, by setting out various legally binding obligations contained in its Chapters II to VI, to facilitate the effective implementation of the applicable human rights obligations of each Party in the context of the new challenges raised by artificial intelligence. At the same time, the Framework Convention reinforces the role of international human rights law and relevant aspects of domestic legal frameworks in relation to activities within the lifecycle of artificial intelligence systems that have the potential to interfere with human rights, democracy and rule of law.  13. 枠組み条約は、人権、民主主義、法の支配に関する各締約国の既存の適用義務が、人工知能システムのライフサイクル内の活動にも適用されることを保証する。この意味で、枠組み条約は、各締約国の国際法上の義務その他の国際公約および適用される国内法を含め、各締約国の適用される人権保護制度およびメカニズムと整合している。そのため、本枠組み条約のいかなる規定も、新たな人権もしくは人権義務を創設したり、既存の適用可能な保護の範囲および内容を損なうことを意図したものではなく、むしろ、第Ⅱ章から第Ⅵ章に含まれる様々な法的拘束力のある義務を定めることにより、人工知能が提起する新たな課題の文脈において、各締約国の適用可能な人権義務の効果的な実施を促進することを意図したものである。同時に枠組み条約は、人権、民主主義、法の支配を妨げる可能性のある人工知能システムのライフサイクル内の活動に関連して、国際人権法および国内法の枠組みの関連する側面の役割を強化している。 
Regarding activities within the lifecycle of artificial intelligence systems  人工知能システムのライフサイクルにおける活動について 
14. Throughout its text the Framework Convention creates various obligations in relation to the activities within the lifecycle of artificial intelligence systems. This reference to the lifecycle ensures a comprehensive approach towards addressing AI-related risks and adverse impacts on human rights, democracy and the rule of law by capturing all stages of activities relevant to artificial intelligence systems. Applying these obligations to the entirety of the lifecycle ensures that the Convention can cover not only current but future risks, which is one of the ways in which the Drafters sought to make the Framework Convention future proof in view of rapid and often unpredictable technological developments. It is important to clarify that, throughout the Framework Convention, “within” is not used as a technical term and is not meant to have a limiting effect on the concept of the lifecycle.  14. 枠組み条約は、その条文全体を通じて、人工知能システムのライフサイクル内の活動に関連するさまざまな義務を定めている。このライフサイクルへの言及は、人工知能システムに関連する活動の全段階を捉えることで、AI関連のリスクや、人権、民主主義、法の支配に対する悪影響への対処に向けた包括的なアプローチを保証するものである。これらの義務をライフサイクル全体に適用することで、条約が現在のリスクだけでなく将来のリスクもカバーすることができる。枠組み条約全体を通して、"枠内 "は専門用語として使われているわけではなく、ライフサイクルの概念に限定的な影響を与えることを意図しているわけではないことを明確にすることが重要である。 
15. With that in mind, and without giving an exhaustive list of activities within the lifecycle which are specific to artificial intelligence systems, the Drafters aim to cover any and all activities from the design of an artificial intelligence system to its retirement, no matter which actor is involved in them. It is the intentional choice of the Drafters not to specify them explicitly as they may depend on the type of technology and other contextual elements and change over time, but drawing inspiration from the latest work of OECD, at the time of the drafting, the Drafters give as examples of relevant activities: (1) planning and design, (2) data collection and processing, (3) development of artificial intelligence systems, including model building and/or fine-tuning existing models for specific tasks, (4) testing, verification and validation, (5) supply/making the systems available for use, (6) deployment, (7) operation and monitoring, and (8) retirement. These activities often take place in an iterative manner and are not necessarily sequential. They may also start all over again when there are substantial changes in the system or its intended use. The decision to retire an artificial intelligence system from operation may occur at any point during the operation and monitoring phase.  15. このことを念頭に置き、人工知能システムに特有なライフサイクル内の活動を網羅的に列挙することなく、起草者は、人工知能システムの設計から引退までのあらゆる活動を、どの行為者がそれらに関与しているかにかかわらず、網羅することを目指している。これらの活動は、技術の種類やその他の文脈的要素に依存し、また時間の経過とともに変化する可能性があるため、明確に規定しないことはドラフト作成者の意図的な選択であるが、ドラフト作成時にOECDの最新の作業からヒントを得て、関連する活動の例としてドラフト作成者は挙げている:(1) 計画と設計、(2) データ収集と処理、(3) モデル構築および/または特定のタスクのための既存モデルの微調整を含む人工知能システムの開発、(4) テスト、検証、妥当性確認、(5) システムの供給/使用可能化、(6) 配備、(7) 運用と監視、(8) 撤去。これらの活動は反復的に行われることが多く、必ずしも連続的なものではない。また、システムやその使用目的に大幅な変更があった場合、最初からやり直すこともある。人工知能システムを運用から引退させるという決定は、運用・監視段階のどの時点でも起こりうる。 
Regarding the implementation of the Framework Convention  枠組み条約の実施について 
16. Paragraph 2 of Article 1 sets out the approach to implementation agreed upon by the States which negotiated the Framework Convention. This provision requires Parties to give effect to the provisions of this Framework Convention, but also provides that they enjoy a certain margin of flexibility as to how exactly to give effect to the provisions of the Framework Convention, in view of the underlying diversity of legal systems, traditions and practices among the Parties and the extremely wide variety of contexts of use of artificial intelligence systems in both public and private sectors.  16. 第1条第2項は、枠組み条約を取り決めた国によって合意された実施方法を定めている。この規定は、締約国に対し、この枠組み条約の規定を実施することを要求しているが、同時に、締約国間の法制度、伝統および慣行の根本的な多様性、ならびに、官民両部門における人工知能システムの使用の文脈が極めて多様であることを考慮し、枠組み条約の規定を具体的にどのように実施するかについて、締約国が一定の柔軟性を享受することを規定している。 
17. In order to account for existing rules and mechanisms in the domestic legal system of each Party, paragraph 2 of Article 1 and many of the obligations require Parties to “adopt or maintain” certain measures to address the risks of artificial intelligence. In using “adopt or maintain”, the Drafters wished to provide flexibility for Parties to fulfil their obligations by adopting new measures or by applying existing measures such as legislation and mechanisms that existed prior to the entry into force of the Framework Convention. Use of both of these terms acknowledges that, for the purpose of domestic implementation, either of these approaches may be equally sufficient. Paragraph 2 of Article 1 further provides that such measures should be “graduated and differentiated as may be necessary in view of the severity and probability of the occurrence of adverse impacts on human rights, democracy and the rule of law”. This provision conveys that measures pursuant to the Framework Convention need to be tailored to the level of risk posed by an artificial intelligence system within specific spheres, activities and contexts, as appropriate, and that this task falls on Parties to the Framework Convention to decide how to balance the relevant competing interests in each sphere, taking into account specificities of activities in the private sector, their domestic regulatory framework and national agenda for artificial intelligence while ensuring the protection and promotion of human rights, democracy and the rule of law. The Parties may also take into account specificities of public sector activities such as law enforcement, migration, border control, asylum and the judiciary.  17. 各締約国の国内法制度における既存の規則およびメカニズムを考慮するため、第 1 条第 2 項および義務の多くは、締約国に対し、人工知能のリスクに対処するための特定の措置を「採用または維持」することを求めている。採択または維持」を使用することで、起草者は、締約国が新たな措置を採用することによって、または枠組み条約の発効前に存在した法律やメカニズムなどの既存の措置を適用することによって、義務を果たすことができる柔軟性を提供することを望んだ。これら両方の用語を使用することで、国内実施の目的においては、これらのアプローチのいずれでも同様に十分であることを認めている。第1条第2項はさらに、そのような措置は「人権、民主主義および法の支配に対する悪影響の重大性および発生の蓋然性を考慮して、必要な場合には段階的かつ差別的」でなければならないと定めている。この規定は、枠組み条約に基づく措置は、特定の領域、活動、文脈の中で人工知能システムがもたらすリスクのレベルに合わせて適宜調整される必要があること、そしてこの課題は、人権、民主主義、法の支配の保護と促進を確保しつつ、民間部門での活動の特殊性、国内規制の枠組み、人工知能に関する国家課題を考慮し、各領域において関連する競合する利益のバランスをどのようにとるかを決定する枠組み条約の締約国に課されることを伝えている。また締約国は、法の執行、移民、国境管理、亡命、司法といった公共部門の活動の特殊性も考慮することができる。 
18. It is crucial that in accordance with Article 1, paragraph 2, the consideration of the mentioned issues should start with an assessment by each Party of risks and potential impacts on human rights, democracy and the rule of law in a given context and consideration of maintaining or establishing appropriate measures to address those impacts. In reaching an understanding of such potential impacts of activities within the lifecycle of artificial intelligence systems, Parties should consider the broader context, including power asymmetries that could further widen existing inequalities and societal impacts. Given the wide range of sectors and use cases in which artificial intelligence systems are used and could be deployed in the future, such as the distribution of social welfare benefits, decisions on the creditworthiness of potential clients, staff recruitment and retention processes, criminal justice procedures, immigration, asylum procedures and border control, policing, and targeted advertising and algorithmic content selection, some adverse impacts could translate into human rights violations throughout the whole society. They could also potentially impact social justice, alter the relationship and affect the trust between citizens and government, and affect the integrity of democratic processes.  18. 第1条第2項に従い、言及された問題の検討は、各締約国による、与えられた文脈における人権、民主主義、法の支配に対するリスクと潜在的影響のアセスメント、およびそれらの影響に対処するための適切な措置の維持または確立の検討から始めることが極めて重要である。人工知能システムのライフサイクルにおける活動の潜在的影響について理解を深めるにあたり、締約国は、既存の不平等や社会的影響をさらに拡大しかねない力の非対称性など、より広範な状況を考慮すべきである。社会福祉給付金の分配、潜在的な顧客の信用度に関する判断、職員の採用・雇用維持プロセス、刑事司法手続き、出入国管理、亡命手続き、国境管理、警察、標的を絞った広告やアルゴリズムによるコンテンツ選択など、人工知能システムが使用され、将来的に展開される可能性のある分野や使用事例が多岐にわたることを考えると、何らかの悪影響が社会全体の人権侵害につながる可能性がある。また、社会正義に影響を与えたり、市民と政府との信頼関係を変化させたり、民主的プロセスの整合性に影響を与えたりする可能性もある。 
19. After careful consideration of the respective risks and other relevant factors, each Party will need to decide whether it will fulfil its obligations by applying existing measures or updating its domestic regulatory framework and, if so, how. It must be borne in mind that by virtue of the respective international human rights obligations and commitments, each Party already has in place various human rights protection and conflict adjudication mechanisms as well as specific manner(s) of administering the relevant rules and regulations.  19. 各締約国は、それぞれのリスクおよびその他の関連要因を慎重に検討した上で、既存の措置を適用することで義務を果たすのか、それとも国内規制の枠組みを更新することで義務を果たすのか、また、そうであればどのようにするのかを決定する必要がある。各締約国は、それぞれの国際人権義務および防御の約束により、さまざまな人権保護および紛争裁定メカニズム、ならびに関連規則および規制を管理する具体的な方法をすでに導入していることを念頭に置かなければならない。 
20. Parties could therefore, for example, decide to keep making use of existing regulation, simplify, clarify or improve it, or they could work on improving its enforcement or supporting the making available of existing remedies more accessible or more available (see the commentary regarding Articles 14-15 in paragraph 95 - 104 below). Parties could also consider the adoption of new or additional measures, which could take the shape of rulebased, principle-based or goal-based legislation, policy or regulation; the establishment of compliance mechanisms and standards; co-regulation and industry agreements to facilitate self-regulation; or resort to various combinations of the above. Measures to be adopted or maintained pursuant to the Framework Convention may also consist of administrative and non-legally binding measures, interpretative guidance, circulars, internal mechanisms and processes, or judicial case-law, as each Party deems appropriate in line with the “graduated and differentiated approach” described in Article 1, paragraph 2. Any mention of adopting or maintaining "measures” in this Framework Convention may also be satisfied by appropriate administrative measures.  20. したがって、締約国は、例えば、既存の規制を利用し続け、簡素化、明確化、改善することを決定することもでき るし、その執行を改善したり、既存の救済措置がより利用しやすく、またはより利用しやすくなるよう支援することに 取り組むこともできる(下記パラグラフ 95~104 の第 14 条~15 条に関する解説を参照)。また、締約国は、規則に基づく、原則に基づく、または目標に基づく立法、政策または規制、遵守メカニズムおよび標準の確立、自主規制を促進するための共同規制および業界協定、または上記のさまざまな組み合わせに頼ることができる、新たなまたは追加的な措置の採択を検討することもできる。枠組み条約に従って採択または維持される措置は、第1条第2項に記載される「段階的かつ差別的なアプローチ」に沿って、各締約国が適切と考える行政的かつ法的拘束力のない措置、解釈指針、通達、内部メカニズムおよびプロセス、または司法判例から構成されることもある。この枠組み条約における「措置」の採択又は維持に関する言及は、適切な行政措置によっても満たすことができる。 
21. Furthermore, to implement the principles and obligations set forth in the Framework Convention a Party may adopt AI-specific measures or maintain and update so-called “horizontal” measures that are applicable irrespective of the type of technology used, such as for example non-discrimination, data protection and other legislation that could be relied upon to implement specific principles and obligations of this Framework Convention.  21. さらに、枠組み条約に定められた原則と義務を履行するために、締約国はAIに特化した措置を採用することもできるし、この枠組み条約の特定の原則と義務を履行するために依拠しうる非差別、データ保護、その他の法律など、使用される技術の種類に関係なく適用される、いわゆる「水平的」措置を維持・更新することもできる。 
Regarding the follow-up mechanism  フォローアップ・メカニズムについて 
22. Paragraph 3 notes that, to ensure effective implementation of the Framework Convention, the Framework Convention establishes a follow-up mechanism, which is set out in Chapter VII, see the commentary in paragraphs 129-135, and provides for international co-operation, see the commentary to Article 25 in paragraphs 137-140.  22. パラグラフ3は、枠組み条約の効果的な実施を確保するため、枠組み条約はフォローアップ・メカニズムを設けており、このメカニズムは第VII章に規定されている(パラグラフ129~135の解説を参照)。 
Article 2 – Artificial intelligence systems  第2条 人工知能システム 
23. The definition of an artificial intelligence system prescribed in this article is drawn from the latest revised definition adopted by the OECD on 8 November 2023. The choice of the Drafters to use this particular text is significant not only because of the high quality of the work carried out by the OECD and its experts, but also in view of the need to enhance international cooperation on the topic of artificial intelligence and facilitate efforts aimed at harmonising governance of artificial intelligence at a global level, including by harmonising the relevant terminology, which also allows for the coherent implementation of different instruments relating to artificial intelligence within the domestic legal systems of the Parties.  23. 本条で規定する人工知能システムの定義は、OECDが2023年11月8日に採択した最新の定義改訂版から引用している。起草者らがこの特定の条文を使用することを選択したのは、OECDとその専門家によって行われた作業の質が高いからというだけでなく、人工知能のテーマに関する国際協力を強化し、関連する用語の調和を含め、人工知能のガバナンスを世界的なレベルで調和させることを目的とした取り組みを促進する必要性に鑑みたものであり、これにより、締約国の国内法制度内で人工知能に関連するさまざまな文書を首尾一貫して実施することも可能になる。 
24. The definition reflects a broad understanding of what artificial intelligence systems are, specifically as opposed to other types of simpler traditional software systems based on the rules defined solely by natural persons to automatically execute operations. It is meant to ensure legal precision and certainty, while also remaining sufficiently abstract and flexible to stay valid despite future technological developments. The definition was drafted for the purposes of the Framework Convention and is not meant to give universal meaning to the relevant term. The Drafters took note of the Explanatory Memorandum accompanying the updated definition of an artificial intelligence system in the OECD Recommendation on Artificial Intelligence (OECD/LEGAL/0449, 2019, amended 2023) for a more detailed explanation of the various elements in the definition. While this definition provides a common understanding between the Parties as to what artificial intelligence systems are, Parties can further specify it in their domestic legal systems for further legal certainty and precision, without limiting its scope.  24. この定義は、人工知能システムとは何かという広範な理解を反映したものであり、特に、自然人のみが定義したルールに基づき操作を自動的に実行する、より単純な従来のソフトウェアシステムとは異なるものである。この定義は、法的な正確性と確実性を確保すると同時に、将来の技術発展にもかかわらず有効であり続けるよう、十分に抽象的で柔軟なものであることを意図している。この定義は枠組み条約の目的のためにドラフトされたものであり、関連用語に普遍的な意味を与えるものではない。起草者は、定義に含まれる様々な要素のより詳細な説明については、人工知能に関する OECD 勧告(OECD/LEGAL/0449, 2019, 改正 2023)における人工知能システムの定義の更新に伴う説明文書に留意した。この定義は、人工知能システムとは何かについての締約国間の共通理解を提供するものであるが、 締約国は、その範囲を限定することなく、さらなる法的確実性と精度のために、国内法制度においてこ れをさらに規定することができる。 
25. This definition must be read in light of other relevant provisions of the Framework Convention, which refer to (1) the systems with potential to interfere with human rights, democracy, or the rule of law and (2) the graduated and differentiated approach in Article 1 and contextual elements in the Framework Convention’s individual provisions (Articles 4 and 5, see the respective commentaries in paragraphs 37-41, 42-48 below).  25. この定義は、(1)人権、民主主義、または法の支配を妨げる可能性のある制度、(2)第1条の段階的かつ差別的アプローチ、および枠組み条約の個別規定における文脈的要素(第4条および第5条、以下の第37~41、42~48項の各解説を参照)に言及する枠組み条約の他の関連規定に照らして読まれなければならない。 
Article 3 – Scope  第3条 範囲 
26. This Framework Convention has a broad scope to encompass the activities within the lifecycle of article intelligence systems that have the potential to interference with human rights, democracy and rule of law.  26. この枠組み条約は、人権、民主主義、法の支配に干渉する可能性のある条文情報システムのライフサイクル内の活動を包含する広い範囲を持っている。 
27. Consistent with Recommendation No. R (84) 15 of the Committee of Ministers to member States Relating to Public Liability of 18 September 1984, the Drafters’ shared understanding is that the term "public authority" means any entity of public law of any kind or any level (including supranational, State, regional, provincial, municipal, and independent public entity) and any private person when exercising prerogatives of official authority.  27. 1984年9月18日の「公的責任に関する閣僚委員会の加盟国への勧告R(84)15号」に準拠し、起草者らの共通認識は、「公的機関」という用語は、あらゆる種類またはあらゆるレベルの公法上の事業体(超国家、国、地域、州、市町村、および独立した公的機関を含む)、および公的権限の特権を行使する私人を意味するというものである。 
28. Subparagraph 1 (a) obliges the Parties to ensure that such activities within the lifecycle of artificial intelligence systems comply with the provisions of this Framework Convention when undertaken by public authorities as well as private actors acting on their behalf. This would include an obligation to comply with the provisions of this Framework Convention in regard to activities for which public authorities delegate their responsibilities to private actors or direct them to act, such as activities by private actors operating pursuant to a contract with a public authority or other private provision of public services, as well as public procurement and contracting.  28. 第 1 項(a)は、締約国に対し、人工知能システムのライフサイクルの中で、公的機関およびそのために行動する私的行為者が行う活動が、この枠組み条約の規定を遵守することを確保することを義務付けている。これには、公的機関がその責任を民間行為者に委任し、または民間行為者に行動を指示する活動、例えば公的機関との契約に従って行動する民間行為者による活動、その他公的サービスの民間提供、公的調達および契約などに関して、この枠組み条約の規定を遵守する認可義務が含まれる。 
29. Subparagraph 1 (b) obliges all Parties to address risks and impacts to human rights, democracy and the rule of law in the private sector also for private actors to the extent these are not already covered under subparagraph 1 (a). Further, references to object and purpose have the effect of importing all of the concepts of Article 1, i.e. addressing risks is not merely acknowledging those risks, but requires the adoption or maintaining of appropriate legislative, administrative or other measures to give effect to this provision as well as co-operation between the Parties as in the provisions on the follow-up mechanism and international cooperation. However, the obligation does not necessarily require additional legislation and Parties may make use of other appropriate measures, including administrative and voluntary measures. So while the obligation is binding and all Parties should comply with it, the nature of the measures taken by the Parties could vary. In any case, when implementing the obligation under paragraph 1, subparagraph (b), a Party may not derogate from or limit the application of its international obligations undertaken to protect human rights, democracy and rule of law.  29. 第 1 項(b)は、第 1 項(a)でカバーされていない限りにおいて、すべての締約国に対し、民間部門における人権、民主主義、法の支配に対するリスクと影響に対処することを義務付けている。すなわち、リスクへの対処とは、単にそれらのリスクを認識することではなく、この規定を実現するための適切な立法上、行政上またはその他の措置の採択または維持、ならびにフォローアップ・メカニズムおよび国際協力に関する規定のような締約国間の協力を必要とする。しかし、この義務は必ずしも追加的な立法を必要とするものではなく、締約国は行政措置や自主的な措置を含む他の適切な措置を利用することができる。したがって、この義務には拘束力があり、すべての締約国はこれを遵守すべきであるが、締約国がとる措置の性質はさまざまでありうる。いかなる場合においても、第1項第(b)号に基づく義務を履行する際、締約国は、人権、民主主義および法の支配を保護するために引き受けた国際的義務の適用を逸脱または制限してはならない。 
30. To ensure legal certainty and transparency, each Party is obliged to set out in a declaration how it intends to meet the obligation set out in this paragraph, either by applying the principles and obligations set forth in Chapters II to VI of the Framework Convention to activities of private actors or by taking other appropriate measures to fulfil the obligation set out in this paragraph. For Parties that have chosen not to apply the principles and the obligations of the Framework Convention in relation to activities of other private actors, the Drafters expect the approaches of those Parties to develop over time as their approaches to regulate the private sector evolve.  30. 法的確実性と透明性を確保するため、各締約国は、枠組み条約の第 II 章から第 VI 章に規定される原則と義務を民間行為者の活動に適用するか、またはこの段落に規定される義務を履行するための他の適切な措置をとることにより、この段落に規定される義務をどのように履行するつもりであるかを宣言で示す義務がある。他の民間主体の活動に関連して枠組み条約の原則および義務を適用しないことを選択した締約国については、起草者は、民間部門を規制するためのアプローチが進化するにつれて、それらの締約国のアプローチが時とともに発展することを期待している。 
31. All Parties should submit their declarations to the Secretary General of the Council of Europe at the time of signature, or when depositing an instrument of ratification, acceptance, approval or accession. Since it is important for Parties to the Framework Convention to know what declarations have been formulated, the Secretary General of the Council of Europe will immediately share the declarations received with the other Parties. Parties may, at any time and in the same manner, amend their declarations.  31. すべての締約国は、署名の際、または批准書、受諾書、承認書、加盟書を寄託する際に、宣言書を欧州評議会事務総長に提出しなければならない。枠組み条約の締約国にとって、どのような宣言がなされたかを知ることは重要であるため、欧州評議会事務総長は、受け取った宣言を直ちに他の締約国と共有する。締約国は、いつでも同じ方法で宣言を修正することができる。 
32. While maintaining a broad scope of the Framework Convention, paragraph 2 envisages that a Party is not required to apply this Framework Convention to the activities within the lifecycle of artificial intelligence systems related to the protection of its national security interests, regardless of the type of entities carrying out the corresponding activities. Such activities must nevertheless be conducted in a manner consistent with the applicable international law obligations, since national security is included in the scope of many international human rights treaties, such as but not limited to the Council of Europe Convention for the Protection of Human Rights and Fundamental Freedoms (ETS No. 5, ECHR), the American Convention on Human Rights (Pact of San José), the United Nations (UN) International Covenant on Civil and Political Rights (ICCPR) and the UN International Covenant on Economic, Social and Cultural Rights (ICESCR). Activities to protect national security interests that interfere with human rights must be provided for by law, respect the essence of the human rights and, as applicable within the scope of the aforementioned obligations, constitute a necessary and proportionate measure in a democratic society. These activities must also be conducted with respect for the Parties’ democratic processes and institutions, as provided for in their domestic legislation in compliance with applicable international law. This exception from the scope of the Framework Convention applies only if and insofar the activities relate to the protection of national security interests. This maintains in the scope of the Framework Convention activities regarding ‘dual use’ artificial intelligence systems insofar as these are intended to be used for other purposes not related to the protection of the Parties’ national security interests and are within the Party’s obligations under Article 3. All regular law enforcement activities for the prevention, detection, investigation, and prosecution of crimes, including threats to public security, also remain within the scope of the Framework Convention if and insofar as the national security interests of the Parties are not at stake.  32. 枠組み条約の広範な範囲を維持する一方で、第2項は、対応する活動を実施する事業体の種類にかかわらず、締約国は、自国の国家安全保障上の利益の保護に関連する人工知能システムのライフサイクル内の活動に、この枠組み条約を適用する必要はないことを想定している。というのも、国家安全保障は、人権および基本的自由の保護に関する欧州評議会条約(ETS第5号、ECHR)、アメリカ人権条約(サンホセ条約)、市民的および政治的権利に関する国際規約(ICCPR)、経済的、社会的および文化的権利に関する国際規約(ICESCR)など、多くの国際人権条約の適用範囲に含まれているからである。人権を妨害する国家安全保障上の利益を保護するための活動は、法律によって規定され、人権の本質を尊重し、前述の義務の範囲内で適用される場合、民主主義社会における必要かつ相応の措置を構成するものでなければならない。また、これらの活動は、適用される国際法を遵守し、国内法に規定されているとおり、締約国の民主的なプロセスおよび機構を尊重して実施されなければならない。この枠組み条約の適用範囲からの例外は、その活動が国家安全保障上の利益の保護に関連する場合にのみ適用される。これにより、「デュアルユース」人工情報システムに関する活動が、締約国の国家安全保障上の利益の保護に関連しない他の目的のために使用されることを意図しており、かつ第3条に基づく締約国の義務の範囲内である限り、枠組み条約の適用範囲に維持される。公共の安全に対する脅威を含む犯罪の予防、検知、捜査、訴追のためのすべての通常の法執行活動も、締約国の国家安全保障上の利益が問題とならない限り、枠組み条約の範囲内にある。 
33. As regards paragraph 3, the wording reflects the intent of the Drafters to exempt research and development activities from the scope of the Framework Convention under certain conditions, namely that the artificial intelligence systems in question have not been made available for use, and that the testing and other similar activities do not pose a potential for interference with human rights, democracy and the rule of law. Such activities excluded from the scope of the Framework Convention should in any case be carried out in accordance with applicable human rights and domestic law as well as recognised ethical and professional standards for scientific research.  33. 第3項に関して、この文言は、研究開発活動を枠組み条約の適用範囲から除外するという起草者の意図を反映している。枠組み条約の適用範囲から除外されるこのような活動は、いかなる場合においても、適用される人権法や国内法、また科学研究のための倫理的・専門的標準として認められている基準に従って実施されなければならない。 
34. It is also the intent of the Drafters to consider that artificial intelligence systems that are made available for use as a result of such research and development activities would need in principle to comply with the Framework Convention, including in regard to their design and development.  34. また、このような研究開発活動の結果として利用可能となる人工知能システムは、原則として、その設計や開発に関しても枠組み条約を遵守する必要があると考えるのが起草者の意図である。 
35. The exemption for research and development activities contained in paragraph 3 should be implemented without prejudice to the principle of “safe innovation”, see Article 13, and the exchange between Parties on information about risks, as well as significant positive or negative effects on human right, democracy and the rule of law, arising in research contexts, see Article 25, paragraph 2, on “international co-operation”.  35. 第3項に含まれる研究開発活動の免除は、「安全なイノベーション」の原則(第13条参照)、および研究の文脈で生じるリスクや人権、民主主義、法の支配に対する重大なプラスまたはマイナスの影響に関する締約国間の情報交換(「国際協力」に関する第25条第2項参照)を損なうことなく実施されるべきである。 
36. For the exemption of “matters relating to national defence” from the scope of the Framework Convention, the Drafters decided to use language taken from Article 1, d, of the Statute of the Council of Europe (ETS No. 1) which states that “[m]atters relating to national defence do not fall within the scope of the Council of Europe”. This exemption does not imply that activities within the lifecycle of artificial intelligence systems relating to national defence are not covered by international law.  36. 枠組み条約の適用範囲から「国防に関する事項」を除外するために、起草者は、「国防に関する事項は欧州評議会の適用範囲に含まれない」とする欧州評議会規約(ETS No.1)第1条dの文言を使用することを決定した。この適用除外は、人工知能システムのライフサイクルにおける国防に関連する活動が国際法の対象外であることを意味するものではない。 
Chapter II: General obligations  第2章 一般的義務 
Article 4 – Protection of human rights  第4条 人権の防御 
37. This provision refers to the obligations of each Party in the sphere of human rights protection, as enshrined in applicable international and domestic law, with respect to activities within the lifecycle of artificial intelligence systems.  37. この規定は、人工知能システムのライフサイクル内の活動に関し、適用される国際法および国内法に明記されている人権保護の分野における各締約国の義務に言及している。 
38. Under international law, the Parties have the duty to ensure that their domestic law is in conformity with their international legal obligations, which includes obligations under international treaties which are binding on them. International human rights law establishes the obligation for each Party to respect, protect, and fulfil human rights. Each Party has an obligation to ensure that its domestic law is in conformity with its applicable international human rights obligations. At the same time, Parties are free to choose the ways and means of implementing their international legal obligations, provided that the result is in conformity with those obligations. This is an obligation of result and not an obligation of means. In this respect, the principle of subsidiarity is essential, putting upon the Parties the primary responsibility to ensure respect for human rights and to provide redress for violations of human rights.  38. 国際法の下で、締約国は国内法が自国の国際法的義務に適合していることを確認する義務があり、これには自国を拘束する国際条約上の義務も含まれる。国際人権法は、各締約国が人権を尊重し、保護し、履行する義務を定めている。各締約国は、その国内法が適用される国際人権義務に適合することを確保する義務を負う。同時に、締約国は、国際的な法的義務を履行する方法と手段を自由に選択することができる。これは結果の義務であり、手段の義務ではない。この点で、補完性の原則は不可欠であり、締約国には、人権の尊重を確保し、人権侵害に対する救済を提供する第一義的な責任が課される。 
39. Below is a list of the main global and regional international human rights instruments and treaties to which various States that negotiated the Framework Convention may be Parties to (in chronological order):  39. 以下は、枠組み条約を交渉したさまざまな国が締約国となりうる、世界的および地域的な国際人権に関する主な文書や条約のリストである(時系列順): 
 United Nations instruments:  国連文書: 
1. The 1965 United Nations International Convention on the Elimination of All Forms of Racial Discrimination (ICERD);  1. 1965年に国連で採択された「あらゆる形態の人種差別の撤廃に関する国際条約」(ICERD)である; 
2. The 1966 United Nations International Covenant on Civil and Political Rights and its Optional Protocols (ICCPR);  2. 1966年の国連市民的及び政治的権利に関する国際規約とその選択議定書(ICCPR)である; 
3. The 1966 United Nations International Covenant on Economic, Social and Cultural Rights (ICESCR) and its Optional Protocol;  3. 1966年の国連経済的、社会的及び文化的権利に関する国際規約(ICESCR)とその選択議定書である; 
4. The 1979 United Nations Convention on the Elimination of All Forms of Discrimination Against Women (CEDAW) and its Optional Protocol;  4. 1979年の国連女性差別撤廃条約(CEDAW)とその選択議定書; 
5. The 1984 United Nations Convention against Torture and Other Cruel, Inhuman or Degrading Treatment or Punishment and its Optional Protocol;  5. 1984年の国連拷問等禁止条約とその選択議定書; 
6. The 1989 United Nations Convention on the Rights of the Child (UNCRC) and its Optional Protocols;  6. 1989年の国連子どもの権利条約(UNCRC)とその選択議定書; 
7. The 2006 United Nations Convention for the Protection of All Persons from Enforced Disappearance; and  7. 強制的失踪からすべての人を保護するための2006年国連条約。 
8. The 2006 United Nations Convention on the Rights of Persons with Disabilities (UNCRPD) and its Optional Protocol.  8. 2006年の国連障害者権利条約(UNCRPD)とその選択議定書。 
 Council of Europe and EU instruments:  欧州評議会およびEUの文書: 
1. The 1950 Council of Europe Convention for the Protection of Human Rights and Fundamental Freedoms (ETS No. 5, ECHR) and its Protocols;  1. 人権および基本的自由の防御に関する1950年の欧州評議会条約(ETS第5号、ECHR)とその議定書; 
2. The 1961 European Social Charter (ETS No. 35, ESC) and its protocols and the 1996 Revised European Charter (ETS No. 163);  2. 1961年の欧州社会憲章(ETS35号、ESC)とその議定書、1996年の改正欧州憲章(ETS163号)である; 
3. The 1981 Convention for the Protection of Individuals with Regard to Automatic Processing Personal Data, as amended (ETS No.108, CETS No 223) and its Protocols;  3. 1981年に改正された「個人データの自動処理に関する個人保護条約」(ETS No.108, CETS No.223)とその議定書; 
4. The 1987 European Convention for the Prevention of Torture and Inhuman or Degrading Treatment or Punishment (ETS No. 126) and its Protocols;  4. 1987年の拷問及び非人道的又は品位を傷つける取扱い又は刑罰の防止に関する欧州条約(ETS126号)とその議定書; 
5. The 1997 Convention for the Protection of Human Rights and Dignity of the Human Being with regard to the Application of Biology and Medicine: Convention on Human Rights and Biomedicine (ETS No. 164, the Oviedo Convention) and its Protocols;  5. 生物学および医学の応用に関する人間の人権および尊厳を保護するための1997年条約:人権と生物医学に関する条約(ETS164号、オビエド条約)とその議定書; 
6. The 1998 Framework Convention for the Protection of National Minorities (ETS No. 157);  6. 1998年少数民族保護枠組条約(ETS157号); 
7. The 2000 Charter of Fundamental Rights of the European Union (CFR, recognised with the same legal value as the Treaties pursuant to Article 6 (1) of the Treaty on EU);  7. 2000年の欧州連合基本権憲章(CFR、EU条約第6条1項により条約と同等の法的価値が認められている); 
8. The 2005 Council of Europe Convention on Action against Trafficking in Human Beings (CETS No. 197);  8. 人身売買に対する行動に関する2005年欧州評議会条約(CETS No.197); 
9. The 2007 Council of Europe Convention on the Protection of Children against Sexual Exploitation and Sexual Abuse (CETS No. 201, the Lanzarote Convention); and  9. 性的搾取および性的虐待からの児童の保護に関する2007年欧州評議会条約(CETS No.201、ランサローテ条約)。 
10. The 2011 Council of Europe Convention on Preventing and Combating Violence Against Women and Domestic Violence (CETS No. 210, the Istanbul Convention);  10. 女性に対する暴力及び家庭内暴力の防止及び防止に関する2011年欧州評議会条約(CETS第210号、イスタンブール条約); 
 Other regional instruments:   その他の地域的手段: 
1. The 1969 American Convention on Human Rights (Pact of San José) and its first additional Protocols;  1. 1969年のアメリカ人権条約(サンホセ条約)とその最初の追加議定書; 
2. The 1985 Inter-American Convention to Prevent and Punish Torture;  2. 拷問を防止し処罰するための1985年米州条約; 
3. The 1994 Inter-American Convention on the Forced Disappearance of Persons;  3. 1994年米州人強制失踪条約; 
4. The 1994 Inter-American Convention on the Prevention, Punishment and Eradication of Violence against Women;  4. 女性に対する暴力の防止、処罰及び根絶に関する1994年米州条約; 
5. The 1999 Inter-American Convention on the Elimination of All Forms of Discrimination against Persons with Disabilities;  5. 1999年の「障害者に対するあらゆる形態の差別の撤廃に関する米州条約」である; 
6. The 2013 Inter-American Convention against Racism, Racial Discrimination, and Related Forms of Intolerance; and  6. 人種主義、人種差別および関連のある形態の不寛容に対する2013年米州条約。 
7. The 2015 Inter-American Convention on Protecting the Human Rights of Older Persons.  7. 高齢者の人権の防御に関する2015年米州条約。 
40. In addition to the legal obligations resulting from international human rights law, Article 4 of the Framework Convention also refers to the protection of human rights in each Party’s domestic law. These typically include constitutional and other subordinate norms and rules, as well as mechanisms for supervision and enforcement of their implementation, which aim to protect human rights. The Drafters wished to clarify that reference to domestic law in this provision and elsewhere is not intended to serve as providing for an exemption from the obligations of the Parties to comply with their international law obligations.  40. 国際人権法から生じる法的義務に加えて、枠組み条約第4条は、各締約国の国内法における人権保護にも言及している。これらの国内法には通常、人権保護を目的とする憲法その他の下位規範および規則、ならびにそれらの履行の監督および執行のためのメカニズムが含まれる。起草者は、この規定およびその他の箇所における国内法への言及は、国際法の義務を遵守する締約国の義務からの免除を規定するものではないことを明確にしたいと考えた。 
41. Against the above background, the general obligation in Article 4 of the Framework Convention requires Parties to take stock of their existing human rights obligations, frameworks and mechanisms in their domestic legal system and, in line with the approach described in Article 1, paragraph 2, ensure that the existing frameworks, rules and mechanisms continue to protect and promote human rights, consistent with international human rights obligations, and are sufficient and effective to respond to the evolving artificial intelligence landscape.  41. 以上の背景から、枠組み条約第4条の一般的義務は、締約国に対し、国内法体系における既存の人権義務、枠組みおよびメカニズムを把握し、第1条第2項に記載されたアプローチに沿って、既存の枠組み、規則およびメカニズムが、国際人権義務に合致して、引き続き人権を保護および促進し、進化する人工知能の状況に対応するのに十分かつ効果的であることを確保することを求めている。 
Article 5 – Integrity of democratic processes and respect for the rule of law  第5条 民主的プロセスの完全性と法の支配の尊重 
42. Artificial intelligence technologies possess significant potential to enhance democratic values, institutions, and processes. Potential impacts include the development of a deeper comprehension of politics among citizens, enabling increased participation in democratic debate or improving the integrity of information in online civic space. Similarly, political representatives, candidates, public officials or public representatives can establish closer connections with individuals, ultimately enhancing the ability of political representatives, public officials or public representatives to represent the public more effectively. This alignment between political representatives, public officials or public representatives and citizens has the potential to transform electoral campaigns and significantly enhance the policymaking process, fostering greater inclusiveness, transparency and efficiency.  42. 人工知能技術は、民主主義の価値、機構、プロセスを強化する大きな可能性を秘めている。潜在的な影響としては、市民が政治をより深く理解し、民主的な議論への参加を増やしたり、オンライン上の市民空間における情報の完全性を改善したりすることが挙げられる。同様に、政治代表者、候補者、公職者、公的代表者は、個人とより緊密なつながりを築くことができ、最終的には、政治代表者、公職者、公的代表者がより効果的に市民を代表する能力を高めることができる。このような政治代表者、公務員、公的代表者と市民との連携は、選挙キャンペーンを変革し、政策決定プロセスを大幅に強化し、より大きな包摂性、透明性、効率性を促進する可能性を秘めている。 
43. Concerns regarding the use of artificial intelligence in politics have long been present, but those specifically associated with democracies and the electoral process have intensified with recent technological advancements. The recently introduced applications of this emerging technology could pose numerous threats to democracy and human rights, serving as a potent tool for fragmenting the public sphere and undermining civic participation and trust in democracy. Such tools could enable users, including malicious actors, to disseminate disinformation and misinformation that could undermine information integrity (including through the use of AI-generated content or AI-enabled manipulation of authentic content) and, where applicable, the right of access to information; make prejudiced decisions about individuals, potentially resulting in discriminatory practices; influence court rulings, with potential implications for the integrity of the justice system; and undertake illegal or arbitrary surveillance, leading to restrictions on the freedom of assembly or freedom of expression, and privacy.  43. 政治における人工知能の使用に関する懸念は以前から存在していたが、特に民主主義国家と選挙プロセスに関連する懸念は、最近の技術の進歩とともに強まっている。最近登場したこの新技術の応用は、民主主義と人権に多くの脅威をもたらす可能性があり、公共圏を分断し、市民参加と民主主義への信頼を損なう強力なツールとして機能する。このようなツールは、悪意ある行為者を含むユーザーが偽情報や誤報を広めることを可能にし、情報の完全性(AIが生成したコンテンツや、AIが可能にした真正なコンテンツの操作の利用を含む)や、該当する場合には情報へのアクセス権を損ない、個人について偏見に満ちた判断を下し、差別的行為をもたらす可能性があり、裁判の判決に影響を及ぼし、司法制度の完全性に影響を及ぼす可能性があり、違法または恣意的な監視を行い、集会や表現の自由、プライバシーの制限につながる可能性がある。 
44. The use of artificial intelligence technology in the above-described manner could escalate tensions or undermine public trust which is a main element of an effective democratic government. Artificial intelligence has the capability to generate false information or lead to the exclusion of individuals or those who may be underrepresented or in a vulnerable situation from the democratic processes. It could also exacerbate manipulative content curation. Despite its advantageous aspects, artificial intelligence carries the significant risk to negatively impact the democratic process and the exercise of relevant human rights. However, with the implementation of appropriate safeguards, these technologies may prove beneficial to democracy.  44. 上記のような人工知能技術の使用は、緊張をエスカレートさせたり、効果的な民主政府の主要要素である国民の信頼を損なったりする恐れがある。人工知能は虚偽の情報を生成したり、民主的なプロセスから、個人または代表者が少ない、あるいは脆弱な状況にある可能性のある人々を排除することにつながる能力を持つ。また、操作的なコンテンツのキュレーションを悪化させる可能性もある。人工知能は、その有利な側面にもかかわらず、民主的プロセスと関連する人権の行使に悪影響を及ぼす重大なリスクを抱えている。しかし、適切なセーフガードを導入することで、これらの技術は民主主義にとって有益なものとなる可能性がある。 
45. In Article 5, the Drafters wished to point towards specific sensitive contexts (paragraph 1 covering mainly the relevant institutional aspects and paragraph 2 covering principally the relevant democratic processes) where a potential use of artificial intelligence should be preceded by a careful consideration of risks to democracy and the rule of law and accompanied with appropriate rules and safeguards. Despite the lack of a commonly agreed upon definition of the term “democratic institutions and processes”, the reference is being made to all systems of government with certain basic features and institutions which are common to all democratic countries.  45. 第5条において起草者たちは、人工知能の潜在的な利用が、民主主義と法の支配に対するリスクを慎重に検討し、適切な規則と保護措置を伴うべき、特定の微妙な文脈(第1項は主に関連する制度的側面を、第2項は主に関連する民主的プロセスを対象としている)を指し示したいと考えたのである。民主的な機構とプロセス」という用語の定義が一般的に合意されていないにもかかわらず、すべての民主主義国に共通する一定の基本的特徴と制度を持つすべての政府制度に言及している。 
46. In implementing its obligations to protect democratic institutions and processes under Article 5, Parties may wish to focus, for example, on the risks of artificial intelligence systems to:  46. 第5条に基づく民主的機構とプロセスを保護する義務を履行するにあたり、締約国は、例えば、人工知能システムのリスクに焦点を当てることを望むかもしれない: 
a) the principle of separation of powers (in executive, legislative and judicial branches);  a) 行政、立法、司法の)三権分立の原則; 
b) an effective system of checks and balances between the three branches of government, including effective oversight of the executive branch;  b) 行政府の効果的な監視を含む、政府三部間の効果的なチェック・アンド・バランスのシステム; 
c) where applicable, a balanced distribution of powers between different levels of government (so-called vertical separation of powers);  c) 該当する場合は、異なるレベルの政府間でバランスの取れた権限分配を行う(いわゆる垂直的三権分立); 
d) political pluralism (ensured in large part by the protection of human rights the respect of which is essential for a thriving democracy, such as freedom of expression, freedom of association and freedom of peaceful assembly; and existence of pluralist and independent media and a range of political parties representing different interests and views) and fair access to and participation in public debate;  d) 政治的多元主義(表現の自由、結社の自由、平和的集会の自由など、民主主義の繁栄に不可欠な人権の尊重、多元的で独立したメディアの存在、さまざまな利害や見解を代表する政党の存在など、人権の防御によって確保される部分が大きい)と、公的議論への公正なアクセスと参加; 
e) participation in democratic processes through free and fair elections, and a plurality of forms of meaningful civil and political participation;  e) 自由で公正な選挙を通じた民主的プロセスへの参加、意味のある市民的・政治的参加の多様な形態; 
f) political majority rule coupled with respect of the rights of political minority(ies);  f) 政治的多数決は、政治的少数派の権利の尊重と結びついている; 
g) respect for the rule of law (generally encompassing the principles of legality, legal certainty and non-arbitrariness) and the principle of access to justice and its proper administration; and  g) 法の支配(一般的に合法性、法的確実性、非恣意性の原則を含む)、司法へのアクセスとその適切な運営の原則を尊重する。 
h) respect for the principle of judicial independence.  h) 司法の独立の原則を尊重する。 
47. Furthermore, the integrity of democracy and its processes is based on two important assumptions referred to in Article 7, namely that individuals have agency (capacity to form an opinion and act on it) as well as influence (capacity to affect decisions made on their behalf). Artificial intelligence technologies can strengthen these abilities but, conversely, can also threaten or undermine them. It is for this reason that paragraph 2 of the provision refers to the need to adopt or maintain measures that seek to protect “the ability [of individuals] to freely form opinions”. With respect to public sector uses of artificial intelligence, this could refer to, for example, general cybersecurity measures against malicious foreign interference in the electoral process or measures to address the spreading of misinformation and disinformation.  47. さらに、民主主義とそのプロセスの完全性は、第7条で言及されている2つの重要な前提、すなわち個人が主体性(意見を形成し、それに基づいて行動する能力)と影響力(自分のために下された決定に影響を与える能力)を持っていることに基づいている。人工知能技術はこれらの能力を強化することができるが、逆に脅かしたり弱体化させたりすることもある。同規定第2項が「(個人が)自由に意見を形成する能力」を保護しようとする措置を採用または維持する必要性に言及しているのは、このためである。公共部門における人工知能の利用に関して、これは例えば、選挙プロセスへの悪意ある外国からの干渉に対する一般的なサイバーセキュリティ対策や、誤情報や偽情報の拡散に対処するための対策を指すことができる。 
48. At the same time, this provision is not intended to create, reduce, extend or otherwise modify the existing applicable standards regarding any human rights, including freedom of expression (such as for instance regarding political advertising), freedom of association and freedom of assembly, as provided for in each Party’s applicable international obligations and domestic human rights law.  48. 同時に、この規定は、各締約国の適用される国際的義務および国内人権法に規定される表現の自由(例えば政治的広告に関するものなど)、結社の自由および集会の自由を含む人権に関する既存の適用標準を創設、縮小、拡大、またはその他の方法で修正することを意図するものではない。 
Chapter III: Principles related to activities within the lifecycle of artificial intelligence systems  第3章 人工知能システムのライフサイクルにおける活動に関連する原則 
Article 6 – General approach  第6条 一般的なアプローチ 
49. This provision makes clear that the principles contained in this Chapter should be incorporated into the Parties’ domestic approaches to the regulation of artificial intelligence systems. As such, they are purposefully drafted at a high level of generality, with the intention that they should be overarching requirements that can be applied flexibly in a variety of rapidly changing contexts. They are also purposive, expressing the reason behind the rule and have very broad application to a diverse range of circumstances.  49. この規定は、本章に含まれる原則を、人工知能システムの規制に関する締約国の国内アプローチに組み込むべきであることを明確にしている。そのため、急速に変化するさまざまな状況において柔軟に適用できる包括的な要件となることを意図し、意図的に一般性の高いドラフトとなっている。また、ルールの背景にある理由を表現する目的論的なものであり、多様な状況に対して非常に幅広く適用される。 
50. The Drafters wished to make it clear that the implementation of this Chapter, in line with the obligations set out in Articles 4 and 5, should be carried out by each Party in line with the approach described in Article 1, paragraph 2, in a manner appropriate to its domestic legal system, and also taking into account the other obligations contained in this Framework Convention.  50. 起草者は、第 4 条及び第 5 条に定める義務に沿った本章の実施は、各締約国が、第 1 条第 2 項に記載するアプローチに従い、自国の国内法制度に適した方法で、本枠組み条約に含まれるその他の義務も考慮に入れながら行うべきであることを明確にしたいと考えた。 
51. This point is particularly important insofar as, as already mentioned earlier, by virtue of their respective international human rights obligations each Party already has a detailed legal regime of human rights protection with its own set of rules, principles and practices regarding the scope, content of rights and possible restrictions, derogations or exceptions to these rights as well as the functioning of the applicable supervision and enforcement mechanisms.  51. この点は、すでに述べたように、各締約国がそれぞれの国際人権義務により、権利の範囲、内容、これらの権利に対する可能な制限、逸脱、例外、および適用される監督・執行メカニズムの機能に関する独自の規則、原則、慣行を備えた人権保護の詳細な法体系をすでに有している以上、特に重要である。 
52. Furthermore, nothing in this Framework Convention is intended to impact existing human rights obligations whenever they overlap with the principles in Chapter III.  52. さらに、この枠組み条約のいかなる条項も、既存の人権義務が第III章の原則と重複している場合には、それに影響を与えることを意図していない。 
Article 7 – Human dignity and individual autonomy  第7条 人間の尊厳と個人の自治 
53. This provision emphasises the importance of human dignity and individual autonomy as part of human-centric regulation and governance of the activities within the lifecycle of artificial intelligence systems that fall in the scope of the Framework Convention. Activities within the lifecycle of artificial intelligence systems should not lead to the dehumanization of individuals, undermine their agency or reduce them to mere data points, or anthropomorphise artificial intelligence systems in a way which interferes with human dignity. Human dignity requires acknowledging the complexity and richness of human identity, experience, values, and emotions.  53. この規定は、枠組み条約の適用範囲に含まれる人工知能システムのライフサイクル内の活動に対する人間中心の規制とガバナンスの一環として、人間の尊厳と個人の自律性の重要性を強調している。人工知能システムのライフサイクルの中で行われる情報活動は、個人の非人間化を招いたり、個人の主体性を損なったり、単なるデータポイントに貶めてはならず、人間の尊厳を阻害するような形で人工知能システムを擬人化してはならない。人間の尊厳とは、人間のアイデンティティ、経験、価値観、感情の複雑さと豊かさを認めることを必要とする。 
54. Upholding human dignity implies respecting the inherent value and worth of each individual, regardless of their background, characteristics, or circumstances and refers in particular to the manner in which all human beings should be treated. Since the dignity of the human person is universally agreed as constituting the basis of human rights , the reference to it as the first principle of Chapter III highlights the global character of the Framework Convention since all Parties recognise the inherent dignity of the human person as an underlying basis of human rights, democratic participation and the rule of law.  54. 人間の尊厳を守ることは、背景、特性、または状況にかかわらず、各個人の固有の価値と価値を尊重することを意味し、特にすべての人間が扱われるべき方法について言及する。人間の尊厳は、人権の基礎を構成するものとして普遍的に合意されているため、 、第III章の第1原則としてのこの言及は、すべての締約国が人権、民主的参加、法の支配の基礎として人間の固有の尊厳を認識していることから、枠組み条約のグローバルな性格を浮き彫りにしている。 
55. Individual autonomy is one important aspect of human dignity and refers to the capacity of individuals for self-determination; that is, their ability to make choices and decisions, including without coercion, and live their lives freely. In the context of artificial intelligence, individual autonomy requires that individuals have control over the use and impact of artificial intelligence technologies in their lives, and that their agency and autonomy are not thereby diminished. Human-centric regulation acknowledges the significance of allowing individuals to shape their experiences with artificial intelligence, ensuring that these technologies enhance rather than infringe upon their autonomy. The Drafters considered that referring to this concept in this Framework Convention is particularly appropriate in view of the capacity of artificial intelligence systems for imitation and manipulation.  55. 個人の自律性とは、人間の尊厳の重要な側面のひとつであり、個人の自己決定能力、つまり、強制されることなく、選択と決定を行い、自由に生活する能力を指す。人工知能の文脈では、個人の自律性とは、個人の生活における人工知能技術の使用と影響を個人がコントロールできること、そしてそれによって個人の主体性と自律性が低下しないことを必要とする。人間中心の規制は、個人が人工知能との経験を形成できるようにすることの重要性を認識し、これらの技術が個人の自律性を侵害するのではなく、むしろ高めることを保証するものである。起草者は、人工知能システムが模倣や操作を行う能力を持つことを考慮すると、この枠組み条約でこの概念に言及することは特に適切であると考えた。 
Article 8 – Transparency and oversight  第8条 透明性と監督 
56. Due to certain features that distinguish artificial intelligence systems from traditional computing systems, which may include complexity, opacity, adaptability, and varying degrees of autonomy, activities within the lifecycle of artificial intelligence systems falling within the scope of the Framework Convention require appropriate safeguards in the form of transparency and oversight mechanisms.  56. 人工知能システムは、複雑性、不透明性、適応性、さまざまな自律性など、従来のコンピューティング・システムとは異なる特徴があるため、枠組み条約の適用範囲に含まれる人工知能システムのライフサイクル内の活動には、透明性と監視メカニズムの形で適切な保護措置が必要である。 
57. The principle of transparency in Article 8 refers to openness and clarity in the governance of activities within the lifecycle of artificial intelligence systems and means that the decisionmaking processes and general operation of artificial intelligence systems should be understandable and accessible to appropriate artificial intelligence actors and, where necessary and appropriate, relevant stakeholders. In certain cases, this could also refer to providing additional information, including, for example, on the algorithms used, subject to security, commercial and intellectual property and other considerations, as detailed in paragraph 62 below. The means of ensuring transparency would depend on many different factors such as, for instance, the type of artificial intelligence system, the context of its use or its role, and the background of the relevant actor or affected stakeholder. Moreover, relevant measures include, as appropriate, recording key considerations such as data provenance, training methodologies, validity of data sources, documentation and transparency on training, testing and validation data used, risk mitigation efforts, and processes and decisions implemented, in order to aid a comprehensive understanding of how the artificial intelligence system’s outputs are derived and impact human rights, democracy and the rule of law. This will in particular help to ensure accountability and enable persons concerned to contest the use or outcomes of artificial intelligence system, where and as applicable (see the commentary to Article 14, in paragraphs 95-102).  57. 第8条における透明性の原則とは、人工知能システムのライフサイクル内の活動のガバナンスにおける公開性と明確性を指し、意思決定プロセスおよび人工知能システムの一般的な運用が、適切な人工知能関係者、および必要かつ適切な場合には関連する利害関係者にとって理解可能かつアクセス可能であるべきことを意味する。場合によっては、以下の第62段落に詳述されているように、セキュリティ、商業的、知的財産権その他の考慮事項に従って、例えば使用されているアルゴリズムなどの追加情報をプロバイダとして提供することも意味する。透明性を確保する手段は、例えば人工知能システムの種類、その使用またはその役割の文脈、関連する行為者または影響を受ける利害関係者の背景など、様々な要因によって異なる。さらに、関連する措置としては、人工知能システムのアウトプットがどのように導き出され、人権、民主主義、法の支配にどのような影響を与えるかを包括的に理解するために、データの出所、トレーニング方法、データソースの妥当性、使用されるトレーニング、テスト、検証データに関する文書化と透明性、リスク軽減の取り組み、実施されたプロセスや決定など、重要な検討事項を記録することが適宜含まれる。これは特に、説明責任を確保し、該当する場合、関係者が人工知能システムの使用や結果に異議を唱えることを可能にするのに役立つ(第14条の解説、パラグラフ95~102を参照)。 
58. Providing transparency about an artificial intelligence system could thus require communicating appropriate information about the system (such as, for instance, purpose(s), known limitations, assumptions and engineering choices made during design, features, details of the underlying models or algorithms, training methods and quality assurance processes). The term ‘algorithmic transparency’ is often used to describe openness about the purpose, structure and underlying actions of an algorithm-driven system. Additionally, transparency may involve, as appropriate, informing persons concerned or the wider public about the details of data used to create, train and operate the system and the protection of personal data along with the purpose of the system and how it was designed, tested and deployed. Transparency should also include informing persons concerned about the processing of information and the types and level of automation used to make consequential decisions, and the risks associated with the use of the artificial intelligence system. Providing transparency could in addition facilitate the possibility for parties with legitimate interests, including copyright holders, to exercise and enforce their intellectual property rights.  58. したがって、人工知能システムに関する透明性を提供するには、システムに関する適切な情報(例えば、目的、既知の制限、設計時の仮定と工学的選択、機能、基礎となるモデルやアルゴリズムの詳細、トレーニング方法、品質保証プロセスなど)をコミュニケーションする必要がある。アルゴリズムの透明性」という用語は、アルゴリズム駆動型システムの目的、構造、基本的な動作に関するオープン性を表すためによく使用される。さらに、透明性には、適切な場合、システムの作成、訓練、運用に使用されたデータの詳細や、個人データの保護について、システムの目的、設計、テスト、配備の方法とともに、関係者または広く一般に知らせることも含まれる。透明性には、情報の処理、結果的な意思決定に使用される自動化の種類とレベル、人工知能システムの使用に伴うリスクについて、関係者に通知することも含まれるべきである。透明性をプロバイダが提供することで、著作権者など正当な利益を有する当事者が、知的財産権を行使・執行する可能性も促進される。 
59. The provision also provides for measures with regards to the identification of AI-generated content in order to avoid the risk of deception and enable distinction between authentic, human-generated content and AI-generated content as it becomes increasingly hard for people to identify. Such measures could include techniques such as labelling and watermarking – which usually involves embedding a recognisable signature into the output of artificial intelligence system – subject to the availability of these technologies and their proven effectiveness, the generally acknowledged state of the art, and specificities of different types of content. Promoting the use of technical standards, open-source licences and the collaboration of researchers and developers supports the development of more transparent artificial intelligence systems in the long run.  59. 同規定はまた、欺瞞のリスクを回避し、人間が生成した真正なコンテンツとAIが生成したコンテンツとの識別を可能にするため、AIが生成したコンテンツの識別に関する措置についても定めている。このような対策には、ラベリングや電子透かし(通常、人工知能システムの出力に認識可能な署名を埋め込むことを含む)といった技術を含めることができるが、これは、これらの技術の利用可能性とその有効性が実証されていること、一般に認められている技術の状況、およびさまざまな種類のコンテンツの特殊性による。技術標準、オープンソースライセンス、研究者と開発者の協力の促進は、長期的には、より透明性の高い人工知能システムの開発を支援する。 
60. It is important to underline two important aspects of the principle of transparency, notably explainability and interpretability. The term “explainability” refers to the capacity to provide, subject to technical feasibility and taking into account the generally acknowledged state of the art, sufficiently understandable explanations about why an artificial intelligence system provides information, produces predictions, content, recommendations or decisions, which is particularly crucial in sensitive domains such as healthcare, finance, immigration, border services and criminal justice, where understanding the reasoning behind decisions produced or assisted by an artificial intelligence system is essential. In such cases transparency could, for instance, take the form of a list of factors which the artificial intelligence system takes into consideration when informing or making a decision.  60. 透明性の原則の2つの重要な側面、特に説明可能性と解釈可能性を強調することが重要である。説明可能性」とは、人工知能システムが情報を提供し、予測、コンテンツ、推奨、または決定を生み出す理由について、技術的な実現可能性を前提とし、一般的に認められている技術状況を考慮した上で、十分に理解可能な説明を提供する能力を指す。このような場合、透明性は、例えば、人工知能システムが情報を提供したり決定を下す際に考慮する要因のリストという形をとることができる。 
61. Another important aspect of transparency is interpretability, which refers to the ability to understand how an artificial intelligence system makes its predictions or decisions or, in other words, the extent to which the outputs of artificial intelligence systems can be made accessible and understandable to experts and non-experts alike. It involves making the internal workings, logic, and decision-making processes of artificial intelligence systems understandable and accessible to human users, including developers, stakeholders, and end-users, and persons affected. Both aspects are also crucial in meeting the requirements mentioned in Articles 12, 13 and 14 in general and paragraph (b) in particular, and in Article 16. Additionally, the Drafters wished to underline that transparency in the context of artificial intelligence systems is subject to technological limitations – often the precise pathway to a particular outcome of an artificial intelligence system is not readily accessible even to those who design or deploy it. The realisation of the principle of transparency in such circumstances is a question of degree, the state of the art, circumstances and context.  61. 透明性のもう一つの重要な側面は、解釈可能性である。解釈可能性とは、人工知能システムがどのように予測や決定を行うかを理解する能力、言い換えれば、人工知能システムの出力が、専門家にも非専門家にもアクセス可能で理解可能なものにできる度合いを指す。人工知能システムの内部構造、ロジック、意思決定プロセスを、開発者、利害関係者、エンドユーザーを含む人間のユーザーや、影響を受ける人々が理解しやすく、利用しやすくすることも含まれる。この2つの側面は、一般的には第12条、第13条、第14条、特に(b)項、および第16条で言及されている要件を満たす上でも極めて重要である。さらに起草者らは、人工知能システムの透明性には技術的な限界があることを強調したかった。人工知能システムの特定の結果に至る正確な経路は、それを設計または配備する者でさえ容易にアクセスできないことが多い。このような状況下で透明性の原則を実現するかどうかは、程度、技術の現状、状況、文脈の問題である。 
62. Since the disclosure of some of this information in pursuit of transparency may run counter to privacy, confidentiality (including, for instance, trade secrets), national security, protection of the rights of third parties, public order, judicial independence as well as other considerations and legal requirements, in implementing this principle Parties are required to strike a proper balance between various competing interests and make the necessary adjustments in the relevant frameworks without altering or modifying the underlying regime of the applicable human rights law.  62. 透明性を追求するためにこれらの情報の一部を開示することは、プライバシー、守秘義務(例えば企業秘密を含む)、国家安全保障、第三者の権利の保護、公序良俗、司法の独立、その他の考慮事項や法的要件に反する可能性があるため、この原則を実施する際には、適用法の基本的な体制を変更または修正することなく、さまざまな競合する利益の間で適切なバランスをとり、関連する枠組みにおいて必要な調整を行うことが締約国に求められる。 
63. As regards the second principle referred to in this provision, oversight in the context of artificial intelligence systems refers to various mechanisms, processes, and frameworks designed to monitor, evaluate, and guide activities within the lifecycle of artificial intelligence systems. These can potentially consist of legal, policy and regulatory frameworks, recommendations, ethical guidelines, codes of practice, audit and certification programmes, bias detection and mitigation tools. They could also include oversight bodies and committees, competent authorities such as sectoral supervisory authorities, data protection authorities, equality and human rights bodies, National Human Rights Institutions (NHRIs) or consumer protection agencies, continuous monitoring of current developing capabilities and auditing, public consultations and engagement, risk and impact management frameworks and human rights impact assessment frameworks, technical standards, as well as education and awareness programmes.  63. 本規定で言及されている2つ目の原則に関して、人工知能システムの文脈における監視とは、人工知能システムのライフサイクル内の活動を監視、評価、指導するために設計された様々なメカニズム、プロセス、枠組みを指す。これらは潜在的に、法的、政策的、規制的枠組み、勧告、倫理ガイドライン、行動規範、監査・認証プログラム、バイアス検知・低減ツールで構成される可能性がある。また、監視機関や委員会、部門別監督当局、データ保護当局、平等・人権団体、国内人権機構(NHRI)、消費者保護機関などの所轄当局、現在開発中の能力の継続的モニタリングと監査、公開協議とエンゲージメント、リスク・影響マネジメントの枠組み、人権影響評価の枠組み、技術標準、教育・啓発プログラムなども含まれる。 
64. One option, in some cases, could be to provide for some form of protection from retaliation for internal whistleblowers who report misconduct and the veracity of public statements by artificial intelligence actors. In this regard, the Drafters wished to make particular reference to Recommendation CM/Rec(2014)7 of the Committee of Ministers to member States on the protection of whistleblowers.  64. 場合によっては、不正行為や人工知能関係者による公的発言の真実性を報告する内部告発者に対して、報復からの保護を何らかの形で規定することも選択肢のひとつとなり得る。この点に関して、起草者は、内部告発者の保護に関する加盟国に対する閣僚委員会の勧告CM/Rec(2014)7を特に参照することを希望した。 
65. Given the complexity of artificial intelligence systems and difficulty of overseeing them, Parties are encouraged to implement measures ensuring that these systems are designed, developed and used in such a way that there are effective and reliable oversight mechanisms, including human oversight , within the lifecycle of artificial intelligence systems. The principle of oversight is more general and thus different from the specific substantive obligation set out in Article 26 of the Framework Convention, which requires Parties to establish or designate effective mechanisms to oversee compliance with the obligations in the Framework Convention, as given effect by the Parties in their domestic legal system (see the commentary to Article 26 in paragraphs 141-144 below).  65. 人工知能システムの複雑さと監視の難しさを考慮すると、締約国は、人工知能システムのライフサイクルの中で、人間の監視 を含む効果的で信頼できる監視メカニズムが存在するように、これらのシステムが設計され、開発され、使用されることを確保する措置を実施することが奨励される。監視の原則はより一般的なものであり、枠組み条約第26条に規定されている特定の実体的義務とは異なる。 
Article 9 – Accountability and responsibility  第9条 説明責任 
66. The principle of accountability and responsibility in this provision refers to the need to provide mechanisms in order for individuals, organisations, or entities responsible for the activities within the lifecycle of artificial intelligence systems to be answerable for the adverse impacts on human rights, democracy or the rule of law resulting from the activities within the lifecycle of those systems. Namely, the provision requires Parties to establish new frameworks and mechanisms, or to maintain existing frameworks and mechanisms as may then be applied to activities within the lifecycle of artificial intelligence systems to give effect to that requirement. This also may include judicial and administrative measures, civil, criminal and other liability regimes and, in the public sector, administrative and other procedures so that decisions can be contested, or the placement of specific responsibilities and obligations on operators.  66. この規定における説明責任と責任の原則とは、人工知能システムのライフサイクル内の活動に責任を持つ個人、組織、事業体が、それらのシステムのライフサイクル内の活動から生じる人権、民主主義、法の支配への悪影響に責任を持つためのメカニズムを提供する必要性を指す。すなわち、この規定は、締約国に対し、人工知能システムのライフサイクル内の活動に適用される可能性のある新たな枠組みやメカニズムを構築し、あるいは既存の枠組みやメカニズムを維持し、この要件を実現することを求めている。これには、司法・行政措置、民事・刑事・その他の責任体制、公共部門においては、決定を争うことができるような行政・その他の手続き、あるいは事業者に対する特定の責任と義務の付与も含まれる。 
67. In line with the approach described in the commentary to Article 4 in paragraphs 37-41 and the commentary to Article 6 in paragraphs 50-51 above, the terms “adverse impacts on human rights, democracy and the rule of law” used in this provision refer principally to the human rights obligations and commitments applicable to each Party’s existing frameworks on human rights, democracy and the rule of law. These standards, insofar as applicable, include the notion of a “violation of human rights” contained in Article 2 of the ICCPR, Articles 13, 34, 41 and 46 of the ECHR and Articles 25 and 63 of the Pact of San José. As regards democracy and the rule of law, see in particular the contexts mentioned in the commentary to Article 5 (paragraphs 45 and 46 above) and the relevant applicable existing domestic frameworks regarding the protection of the integrity of democratic processes and institutions.  67. 上記第 37-41 項の第 4 条の解説及び第 50-51 項の第 6 条の解説に記載されたアプローチに沿い、本規定で使用される「人権、民主主義及び法の支配に対する悪影響」という用語は、主として、人権、民主主義及び法の支配に関する各締約国の既存の枠組みに適用される人権義務及び公約を指す。これらの標準には、適用可能な限りにおいて、国際人権規約(ICCPR)第2条、欧州人権規約(ECHR)第13条、第34条、第41条、第46条、サンホセ協定第25条、第63条に含まれる「人権の侵害」という概念が含まれる。民主主義と法の支配に関しては、特に第5条の解説(上記第45項と第46項)で言及されている文脈と、民主的プロセスと機構の完全性の保護に関する、関連する適用可能な既存の国内枠組みを参照されたい。 
68. This principle emphasises the need for clear lines of responsibility and the ability to trace actions and decisions back to specific individuals or entities in a way that recognises the diversity of the relevant actors and their roles and responsibilities. This is important to ensure that, for example, in case the use of an artificial intelligence system results in an adverse impact on human rights, democracy or the rule of law, there is a mechanism to identify such outcomes and attribute responsibility in an appropriate manner. In other words, all actors responsible for the activities within the lifecycle of artificial intelligence systems, irrespective of whether they are public or private organisations, must be subject to each Party’s existing framework of rules, legal norms and other appropriate mechanisms so as to enable effective attribution of responsibility applied to the context of artificial intelligence systems.  68. この原則は、責任の所在を明確にし、関連する主体やその役割・責任の多様性を認識した上で、行動や決定を特定の個人や事業体に遡及できるようにする必要性を強調するものである。これは、例えば人工知能システムの利用が人権、民主主義、法の支配に悪影響を及ぼす結果となった場合、そのような結果を特定し、適切な方法で責任を帰属させる仕組みがあることを保証するために重要である。言い換えれば、人工知能システムのライフサイクル内の活動に責任を負うすべての主体は、それが公的組織であるか民間組織であるかにかかわらず、人工知能システムの文脈に適用される責任の効果的な帰属を可能にするように、各締約国の既存の規則の枠組み、法的規範、その他の適切なメカニズムに従わなければならない。 
69. The principle of accountability and responsibility is inseparable from the principle of transparency and oversight, since the mechanisms of transparency and oversight enable accountability and responsibility by making clearer how artificial intelligence systems function and produce outputs. When the relevant stakeholders understand the underlying processes and algorithms, it becomes easier to trace and assign responsibility in the event of adverse impacts on human rights, democracy or the rule of law, including violations of human rights.  69. 説明責任と責任の原則は、透明性と監視の原則と不可分である。なぜなら、透明性と監視のメカニズムは、人工知能システムがどのように機能し、どのようなアウトプットを生み出すかを明確にすることによって、説明責任と責任を可能にするからである。関連する利害関係者が根本的なプロセスとアルゴリズムを理解すれば、人権侵害を含め、人権、民主主義、または法の支配に悪影響が及んだ場合の責任の所在を追跡し、割り当てることが容易になる。 
70. Finally, due to the previously described features of an artificial intelligence lifecycle, the principle of accountability and responsibility also includes the requirement for States to adopt or maintain measures aimed at ensuring that those responsible for artificial intelligence systems consider the potential risks to human rights, democracy and the rule of law resulting from the activities within the lifecycle of artificial intelligence systems. This includes proactive action in preventing and mitigating both the risks and adverse impacts to human rights, democracy or the rule of law (see the commentary to Article 16 in paragraphs 105-112).  70. 最後に、先に述べた人工知能のライフサイクルの特徴により、説明責任と責任の原則には、人工知能システムの責任者が、人工知能システムのライフサイクル内の活動から生じる人権、民主主義、法の支配に対する潜在的なリスクを考慮することを確保することを目的とした措置を、国家が採用または維持することを求める要件も含まれる。これには、人権、民主主義、法の支配に対するリスクと悪影響の両方を予防・低減するための積極的な行動も含まれる(パラグラフ105~112の第16条の解説を参照)。 
Article 10 – Equality and non-discrimination  第10条 平等と非差別 
71. In formulating Article 10, paragraph 1, which mentions “equality, including gender equality and the prohibition of discrimination, as provided under applicable international and domestic law”, the Drafters’ intention was to refer specifically to the body of the existing human rights law consisting of international (at both global and regional levels) and domestic legal instruments applicable to each Party, which together provide a solid legal basis and guidance for each Party to consider what measures to adopt or maintain, with a view to ensuring equality and prohibition of discrimination in respect of the issues in the relevant spheres in the context of activities within the lifecycle of artificial intelligence systems.  71. 適用される国際法および国内法の下で規定される男女平等および差別の禁止を含む平等」に言及する第10条第1項を策定するにあたり、起草者の意図は、各締約国に適用される国際法(世界レベルおよび地域レベルの両方)および国内法文書からなる既存の人権法体系に具体的に言及することであった。これらの法体系は一体となって、各締約国が、人工知能システムのライフサイクル内の活動という文脈における関連領域の問題に関して、平等および差別の禁止を確保する観点から、どのような措置を採用または維持すべきかを検討するための確かな法的根拠および指針を提供するものである。 
72. At the global level, frameworks relevant to each Party may include the following provisions:  72. 世界レベルでは、各締約国に関連する枠組みには、以下の条項が含まれる: 
a) Article 2, 24 and 26 of the ICCPR;  a) 国際人権規約第2条、第24条、第26条; 
b) Articles 2, 3 and Article 7 of the ICESCR; and  b) ICESCRの第2条、第3条、第7条。 
c) Specialised legal instruments such as the ICERD, the CEDAW, the UNCRC and the UNCRPD.  c) ICERD、CEDAW、UNCRC、UNCRPDといった専門的な法的文書。 
73. At the regional level, frameworks relevant to each Party may include:  73. 地域レベルでは、各締約国に関連する枠組みが含まれる: 
a) Article 14 of the ECHR and its Protocol No. 12;  a) ECHR第14条とその第12議定書; 
b) Paragraphs 20 and 27 of Part I, Article 20 of Part II and Article E of Part V of the ESC;  b) ESC第1部第20条および第27条、第2部第20条、第5部E条; 
c) Specialised legal instruments of the Council of Europe such as Article 4 of the Framework Convention for the Protection of National Minorities and Article 4 of the Istanbul Convention;  c) マイノリティ保護枠組み条約第4条やイスタンブール条約第4条など、欧州評議会の専門的な法的文書; 
d) Title III of the EU Charter of Fundamental Rights, EU Treaties (e.g., Article 2 of the Treaty on the European Union, Article 10 of the Treaty on the Functioning of the European Union), EU secondary legislation and the relevant case-law of the Court of Justice of the European Union;  d) EU基本権憲章のタイトルIII、EU条約(欧州連合条約第2条、欧州連合機能条約第10条など)、EU二次法 、欧州連合司法裁判所の関連判例; 
e) Article 24 of the Pact of San José; and  e) サンホセ協定第24条、および 
f) Specialised legal instruments, such as the 1999 Inter-American Convention on the Elimination of All Forms of Discrimination against Persons with Disabilities; the 2013 Inter-American Convention against Racism, Racial Discrimination, and Related Forms of Intolerance and the 2015 Inter-American Convention on Protecting the Human Rights of Older Persons.  f) 1999年の「障害者に対するあらゆる形態の差別の撤廃に関する米州条約」、2013年の「人種主義、人種差別及び関連する形態の不寛容に関する米州条約」、2015年の「高齢者の人権の防御に関する米州条約」などの専門的な法的文書がある。 
74. Parties should consider relevant elements of their domestic law, which could include constitutional law, statutes, and jurisprudence.  74. 締約国は、憲法、法令、法学を含む国内法の関連要素を検討すべきである。 
75. The Drafters also reflected on the real and well-documented risk of bias that can constitute unlawful discrimination arising from the activities within the lifecycle of artificial intelligence systems. The Framework Convention requires the Parties to consider appropriate regulatory, governance, technical or other solutions to address the different ways through which bias can intentionally or inadvertently be incorporated into artificial intelligence systems at various stages throughout their lifecycle. The following issues have been well-documented with regard to some artificial intelligence systems:  75. 起草者はまた、人工知能システムのライフサイクル内の活動から生じる、不法な識別的差別を構成しうるバイアスの現実的かつ十分に立証されたリスクについても考察した。枠組み条約は、締約国に対し、人工知能システムのライフサイクルを通じて、さまざまな段階で、意図的または不注意にバイアスが人工知能システムに組み込まれる可能性のあるさまざまな方法に対処するため、適切な規制、ガバナンス、技術的またはその他の解決策を検討するよう求めている。いくつかの人工知能システムに関しては、以下のような問題が十分に文書化されている: 
a) potential bias of the algorithm’s developers (e.g. due to the conscious or unconscious stereotypes or biases of developers);  a) アルゴリズム開発者の潜在的バイアス(開発者の意識的または無意識的なステレオタイプやバイアスによるものなど); 
b) potential bias built into the model upon which the systems are built;  b) システムを構築するモデルに潜在的なバイアスが組み込まれている; 
c) potential biases inherent in the training data sets used (e.g. when the data-set is accurate or not sufficiently representative), or in the aggregation or evaluation of data (e.g. where groups are inappropriately combined, or if benchmark data used to compare the model to other models does not adequately represent the population that the model would serve);  c) 使用したトレーニングデータセットに内在する潜在的バイアス(データセットが正確でない、または十分に代表者でない場合など)、またはデータの集計や評価に内在する潜在的バイアス(グループが不適切に組み合わされている場合、またはモデルを他のモデルと比較するために使用したベンチマークデータが、そのモデルが対象とする母集団を適切に表していない場合など); 
d) biases introduced when such systems are implemented in real world settings (e.g. exposure to a biased environment once it is being used, or due to a biased use of the artificial intelligence system, malicious use or attacks that intentionally introduce bias by manipulating the artificial intelligence system) or as artificial intelligence evolves by selflearning due to errors and deficiencies in determining the working and learning parameters of the algorithm, or  d) そのようなシステムが実世界で実装される際に導入されるバイアス(例えば、一度使用されると偏った環境にエクスポージャーされる、または人工知能システムの偏った使用、人工知能システムを操作することで意図的にバイアスを導入する悪意のある使用や攻撃によるもの)、または人工知能がアルゴリズムの作業パラメーターや学習パラメーターを決定する際のエラーや欠陥により自己学習によって進化する際に導入されるバイアス、または 
e) automation or confirmation biases, whereby humans may place unjustified trust in machines and technological artefacts or situations where they select information that supports their own views, in both cases ignoring their own potentially contradictory judgment and validating algorithmic outputs without questioning them.  e) 自動化バイアスや確証バイアスとは、人間が機械や技術的人工物に不当な信頼を置いたり、自分の意見を支持する情報を選択するような状況のことで、どちらの場合も自分自身の矛盾しかねない判断を無視し、アルゴリズムによる出力を疑うことなく正当化する。 
76. The issues of equality in the specific artificial intelligence context include relatively new categories of problems such as ‘technical bias’, which occurs from problems in applying machine learning that results in additional biases that are not present in the data used to train the system or make decisions; and ‘social bias’, i.e. failures to properly account for historical or current inequalities in society in the activities within the lifecycle of artificial intelligence systems such as designing and training models. These inequalities include, for example, historical and structural barriers to gender equality and to fair and just treatment for persons belonging to groups that have been or are still partly underserved, discriminated against, or otherwise subject to persistent inequality. These issues also include the recognition that various individuals experience different impacts based on factors which are linked to their personal characteristics, circumstances or membership of a group, including those covered by the relevant and applicable instruments included in paragraphs 72 and 73 of the Explanatory Report as interpreted by the relevant jurisprudence and practices of international human rights treaty bodies.  76. 具体的な人工知能の文脈における平等の問題には、「技術的バイアス」といった比較的新しいカテゴリーの問題が含まれる。これは、機械学習を適用する際の問題から発生するもので、システムの訓練や意思決定に使用されるデータには存在しないバイアスが追加される。このような不平等には、例えば、ジェンダーの平等に対する歴史的・構造的な障壁や、部分的に十分なサービスを受けられなかったり、識別的に差別されたり、その他永続的な不平等にさらされている集団に属する人々に対する公平で公正な待遇に対する障壁が含まれる。これらの問題には、国際人権条約団体の関連法理および慣行によって解釈される説明報告書第72段および第73段に含まれる関連かつ適用可能な文書の対象となるものを含め、さまざまな個人が、その個人的特性、状況、または集団の一員であることに関連する要因に基づいて、異なる影響を経験するという認識も含まれる。 
77. The provision makes clear that the required approach under this article should not stop at simply requiring that a person not be treated less favourably “without objective and reasonable justification” based on one or more protected characteristics that they possess in relevant matters of a protected sector. Parties undertake to adopt new or maintain existing measures aimed at overcoming structural and historical inequalities, to the extent permitted by its domestic and international human rights obligations, and moreover these processes should be, where appropriate, informed by the views of those impacted.  77. この規定は、本条に基づき要求されるアプローチが、単に、保護される分野の関連事項において、その人が有する1つ以上の保護される特性に基づいて、「客観的かつ合理的な正当化なしに」不利な扱いを受けないことを要求することにとどまるべきでないことを明確にしている。締約国は、国内および国際的な人権義務によって許される範囲において、構造的かつ歴史的な不平等の克服を目的とした新たな措置を採用し、または既存の措置を維持することを約束する。 
78. Mindful of conceptual, doctrinal, legal and technical differences between the ways these issues are addressed in the domestic legal systems of various Parties and in order to provide the Parties with the necessary flexibility in this regard, the Drafters inserted a formulation which enables each Party to comply with the obligation set out in paragraph 2 of Article 10 in line with its own applicable domestic and international human rights obligations and commitments by applying the applicable existing frameworks to the context of activities within the lifecycle of artificial intelligence systems.  78. 様々な締約国の国内法制度において、これらの問題に対処する方法間の概念的、教義的、法的、技術的な差異に留意し、この点で必要な柔軟性を締約国に提供するため、起草者は、人工知能システムのライフサイクル内の活動の文脈に適用可能な既存の枠組みを適用することにより、各締約国が自国に適用可能な国内および国際的な人権義務および公約に沿って第10条第2項に定める義務を遵守することを可能にする定式化を挿入した。 
Article 11 – Privacy and personal data protection  第11条 プライバシーおよび個人データ保護 
79. The protection of privacy rights and personal data protection is a common principle required for effectively realising many other principles in this Framework Convention. Personal data collection is already ubiquitous not only as the basis of business models across many industries, but also as one of the key activities of government agencies, including law enforcement authorities, which use a variety of technologies and automated systems that collect, process and generate personal data in decision-making processes that directly impact people’s lives. With artificial intelligence systems being principally data-driven, in the absence of appropriate safeguards the activities falling within the lifecycle of such systems could pose serious risks to the privacy of individuals.  79. プライバシー権の保護と個人データ保護は、この枠組み条約の他の多くの原則を効果的に実現するために必要な共通の原則である。個人データの収集は、多くの産業におけるビジネスモデルの基盤としてだけでなく、法執行当局を含む政府機関の主要な活動の1つとしても、すでにユビキタスになっている。政府機関は、人々の生活に直接影響を与える意思決定プロセスにおいて、個人データを収集、処理、生成するさまざまなテクノロジーや自動化システムを使用している。人工知能システムは主にデータ駆動型であるため、適切な保護措置がない場合、そのようなシステムのライフサイクルに含まれる活動は、個人のプライバシーに深刻なリスクをもたらす可能性がある。 
80. Despite some differences in the legal traditions, specific rules and protection mechanisms, the States which negotiated the Framework Convention share a strong commitment to the protection of privacy, for example, as enshrined at the global level in Article 17 of the ICCPR and regionally in Article 8 of the ECHR, Article 8 of the EU Charter and Article 11 of the Pact of San José.  80. 法的伝統、具体的な規則、保護メカニズムには多少の違いがあるものの、枠組み条約を交渉した国々は、世界レベルではICCPR第17条、地域レベルではECHR第8条、EU憲章第8条、サン・ジョゼ協定第11条に明記されているように、プライバシーの保護に対する強いコミットメントを共有している。 
81. At its core, privacy rights of individuals entail partially overlapping elements with varying degrees of legal recognition and protection across jurisdictions, such as: (1) protected interest in limiting access to an individual’s life experiences and engagements (2) protected interest in secrecy of certain personal matters (3) degree of control over personal information and data (4) protection of personhood (individuality or identity, dignity, individual autonomy) and (5) protection of intimacy and physical, psychological or moral integrity. The provision underlines these various approaches by pointing at some of the key commonalities in this sphere, even though it is not intended to endorse or require any particular regulatory measures in any given jurisdiction.  81. その核心において、個人のプライバシー権は、法域によって法的認識や保護の程度が異なる、以下のような部分的に重複する要素を含んでいる:(1)個人の人生経験や関与へのアクセスを制限する保護された利益 (2)特定の個人的事項の秘密保持に対する保護された利益 (3)個人情報やデータに対するアクセス管理の程度 (4)個人性(個性やアイデンティティ、尊厳、個人の自律性)の保護 (5)親密さや身体的、心理的、道徳的完全性の保護などである。この規定は、この分野における重要な共通点を指摘することにより、これらの様々なアプローチを強調するものである。 
82. In view of the key role that the protection of personal data plays in safeguarding privacy rights and other human rights in the digital world, the Drafters made a specific mention in the text of the provision of the domestic and international laws, standards and frameworks in the sphere of personal data protection. In order to underline their importance in ensuring effective protection in the artificial intelligence context, Article 11, subparagraph (b) also explicitly refers to other “guarantees and safeguards” that individuals (also called “data subjects” in some jurisdictions) usually enjoy by virtue of such laws, standards and frameworks. The Drafters consider this obligation to require Parties to take measures to protect privacy.  82. デジタル社会におけるプライバシー権およびその他の人権の保護において個人データの防御が果たす重要な役割に鑑み、起草者は本文中で、個人データ保護の分野における国内法および国際法、基準、枠組みについて具体的に言及した。人工知能の文脈における効果的な保護を確保する上でのそれらの重要性を強調するため、第11条(b)項は、個人(法域によっては「データ対象者」とも呼ばれる)が通常そのような法律、基準、枠組みによって享受するその他の「保証および保護措置」にも明確に言及している。起草者は、この義務は締約国に対してプライバシーを保護するための措置を講じることを求めるものであると考える。 
83. One such instrument is the Council of Europe’s Convention 108+, which covers both the public and private sectors and it is open to accession by States at a global level. At the EU level, the General Data Protection Regulation (Regulation (EU) 2016/679, “GDPR”) is a comprehensive data protection law that applies to natural or legal persons that process personal data belonging to natural persons in the European Union regardless of whether the processing takes place in the European Union or not. At the domestic level, most of the States which negotiated the Framework Convention have dedicated personal data or privacy protection laws and often specialised authorities responsible for the proper supervision of the relevant rules and regulations.  83. このような文書のひとつが欧州評議会の条約108+であり、公共部門と民間部門の両方をカバーし、世界レベルで各国の加盟を認めている。EUレベルでは、一般データ保護規則(規則(EU)2016/679、「GDPR」)は包括的なデータ保護法であり、処理がEU内で行われるか否かにかかわらず、EU内の自然人に属する個人データを処理する自然人または法人に適用される。国内レベルでは、枠組み条約を取り決めた国のほとんどが、個人データまたはプライバシー保護に関する専用法を制定しており、関連規則や規制の適切な監督を担当する専門当局が設置されていることが多い。 
Article 12 – Reliability  第12条 信頼性 
84. This provision points to the potential role to be played by standards, technical specifications, assurance techniques and compliance schemes in evaluating and verifying the trustworthiness of artificial intelligence systems and for transparently documenting and communicating evidence for this process. Standards, in particular, could provide a reliable basis to share common expectations about certain aspects of a product, process, system or service with a view to building justified confidence in the trustworthiness of an artificial intelligence system if its development and use are compliant with these standards.  84. この規定は、人工知能システムの信頼性を評価・検証し、このプロセスの証拠を透明性をもって文書化し、コミュニケーションする上で、標準、技術仕様、保証技術、コンプライアンス制度が果たしうる役割を指摘している。特に標準は、人工知能システムの開発と使用がこれらの標準に準拠している場合、その人工知能システムの信頼性に対する正当な信頼を構築することを目的として、製品、プロセス、システムまたはサービスの特定の側面について共通の期待を共有するための信頼できる基盤を提供することができる。 
85. This provision highlights the importance of establishing measures that seek to assure the reliability of artificial intelligence systems through measures addressing key aspects of functioning such as robustness, safety, security, accuracy and performance as well as functional prerequisites such as data quality and accuracy, data integrity, data security, and cybersecurity. Relevant standards, requirements, assurance and compliance schemes may cover these elements as a precondition for successfully building justified public trust in artificial intelligence technologies.  85. この規定は、堅牢性、安全性、セキュリティ、正確性、性能といった機能の重要な側面や、データの品質と正確性、データの完全性、データセキュリティ、サイバーセキュリティといった機能上の前提条件に対処する措置を通じて、人工知能システムの信頼性を保証しようとする措置を確立することの重要性を強調している。関連する標準、要件、保証、コンプライアンス方式は、人工知能技術に対する正当な社会的信頼を成功裏に構築するための前提条件として、これらの要素をカバーすることができる。 
86. Technical standards can help deliver mutually understood and scalable artificial intelligence assurance and compliance, while it must be ensured that they are developed in a transparent and inclusive process that encourages consistency with applicable international and domestic human rights instruments.  86. 技術標準は、相互に理解され、拡張可能な人工知能の保証とコンプライアンスを実現するのに役立つが、一方で、適用される国際人権文書や国内人権文書との整合性を促す透明で包括的なプロセスで開発されることが保証されなければならない。 
87. In addition, measures to be adopted or maintained under this provision should aim at ensuring that, like any other software system, artificial intelligence systems are “secure and safe by design”, which means that the relevant artificial intelligence actors should consider the security and safety as core requirements, not just technical features. They should prioritise security and safety throughout the entire lifecycle of the artificial intelligence system.  87. さらに、この規定に基づいて採用または維持される措置は、他のソフトウェア・システムと同様、人工知能システムも「設計による安全性と安全性」を確保することを目指すべきである。人工知能システムのライフサイクル全体を通じて、セキュリティと安全性を優先すべきである。 
88. In some cases, it may not be enough to set out standards and rules about the activities within the lifecycle of artificial intelligence systems. Measures to promote reliability may therefore include, depending on the context, providing relevant stakeholders with clear and reliable information about whether artificial intelligence actors have been following those requirements in practice. This means ensuring, as appropriate, end-to-end accountability through process transparency and documentation protocols. There is a clear connection between this principle and the principle of transparency and oversight in Article 8 and the principle of accountability and responsibility in Article 9.  88. 場合によっては、人工知能システムのライフサイクル内の活動に関する標準やルールを定めるだけでは十分でないこともある。そのため、信頼性を促進するための対策として、文脈によっては、人工知能のアクターが実際にそれらの要件に従っているかどうかについて、関連する利害関係者に明確で信頼できる情報を提供することが考えられる。これは、適宜、プロセスの透明性と文書化プロトコルを通じて、エンド・ツー・エンドの説明責任を確保することを意味する。この原則と、第8条の透明性と監視の原則、第9条の説明責任と責任の原則との間には、明確なつながりがある。 
89. Assurance and compliance schemes are important both for securing compliance with rules and regulations, and also for facilitating the assessment of more open-ended risks where rules and regulations alone do not provide sufficient guidance to ensure that a system is trustworthy. There is an important role for consensus based, technical standards in this context to fill gaps and also to provide guidance on mitigating risks from a technical standpoint (see also the commentary to Article 16 in paragraphs 105 and 112 below).  89. アセスメント及び遵守スキームは、規則及び規制の遵守を確保するためにも、また、規則及び規 制だけではシステムの信頼性を確保するための十分な指針が得られないような、より自由なリスクの評 価を容易にするためにも重要である。このような状況において、コンセンサスに基づく技術標準は、ギャップを埋めるとともに、技術的見地からリスク低減のガイダンスを提供する重要な役割がある(下記パラグラフ105および112の第16条の解説も参照)。 
Article 13 – Safe innovation  第13条 安全な技術革新 
90. This provision points at an important theme which lies at the heart of the approach of the Framework Convention: Parties should seek to promote and foster innovation in line with human rights, democracy and the rule of law. One suitable way to stimulate responsible innovation with regard to artificial intelligence is by enabling the authorities in the relevant sector of activity to set up “controlled environments” or “frameworks” to allow development, training, live experimentation and testing of innovations under the competent authorities’ direct supervision, in particular to encourage the incorporation of quality, privacy and other human rights concerns, as well as security and safety concerns in the early stages. This is especially important as certain risks associated with artificial intelligence systems can only be effectively addressed at the design stage.  90. この規定は、枠組み条約のアプローチの中心にある重要なテーマを指摘している:締約国は、人権、民主主義、法の支配に沿ったイノベーションの促進と育成を目指すべきである。人工知能に関する責任あるイノベーションを促進するための適切な方法のひとつは、関連する活動分野の認可当局が「管理された環境」または「枠組み」を設定し、所轄当局の直接監督の下でイノベーションの開発、訓練、実地実験、テストを行えるようにすることである。人工知能システムに関連する特定のリスクは、設計段階でのみ効果的に対処できるため、これは特に重要である。 
91. It is also important to recognise that some artificial intelligence developers, including those with a public interest mission, cannot proceed with their innovation unless they can be reasonably sure that it will not have harmful implications and incorporate appropriate safeguards to mitigate risks in a controlled environment. Given that innovation is essentially collaborative and path dependent, with new systems building on what has taken place before, there is a risk that this innovation may be impeded because it cannot equally use or build on existing innovations that are not sufficiently secure. This provision is not meant to stifle innovation but recognises that innovation may be shaped as much by regulation as by the absence of it. Failure to create an environment in which responsible innovation can flourish risks stifling such innovation and leaving the playing field open to more reckless approaches.  91. また、公益的な使命を持つ人工知能開発者を含め、一部の人工知能開発者は、それが有害な影響を及ぼさないことを合理的に確信し、管理された環境でリスクを軽減するための適切なセーフガードを組み込むことができない限り、イノベーションを進めることができないことを認識することも重要である。イノベーションは基本的に協調的で経路依存的なものであり、新しいシステムは以前に行われたことを基に構築されるものであることを考えると、十分に安全でない既存のイノベーションを同等に利用したり構築したりすることができないため、このイノベーションが阻害されるリスクがある。この規定はイノベーションを阻害することを意図しているのではなく、イノベーションは規制がない場合と同様に、規制によって形成される可能性があることを認識している。責任あるイノベーションが花開くような環境づくりに失敗すれば、そのようなイノベーションを阻害し、より無謀なアプローチに土俵を明け渡すリスクがある。 
92. In view of the diversity and underlying complexity of legal systems and regulatory traditions in the States which negotiated the Framework Convention, the provision leaves the specific details of the relevant arrangements up to the Parties provided that the regimes set up under this provision comply with the requirement to “avoid adverse impacts on human rights, democracy and the rule of law”. One approach to achieve these goals is, for instance, “regulatory sandboxes” that aim to foster innovation, provide legal certainty and enable regulatory learning. Other approaches include special regulatory guidance or no-action letters to clarify how regulators will approach the design, development, or use of artificial intelligence systems in novel contexts.  92. 枠組み条約を交渉した国々における法制度と規制の伝統の多様性と根底にある複雑性を考慮し、この規定に基づいて設定される制度が「人権、民主主義、法の支配に対する悪影響を回避する」という要件を遵守することを条件に、関連する取り決めの具体的な詳細は締約国に委ねられている。これらの目標を達成するための一つのアプローチは、例えば、イノベーションを促進し、法的確実性を提供し、規制の学習を可能にすることを目的とした「規制のサンドボックス」である。その他のアプローチとしては、特別な規制ガイダンスやノーアクションレターによって、斬新な文脈における人工知能システムの設計、開発、利用に規制当局がどのようにアプローチするかを明確にすることが挙げられる。 
93. The approaches pointed at by this provision offer many advantages particularly suitable in the case of artificial intelligence systems, the fast pace of their development and the ubiquitous character of their use:  93. この規定が指摘するアプローチは、特に人工知能システムの場合に適した多くの利点を提供し、その開発速度は速く、その使用はユビキタスである: 
1) By allowing controlled development and testing, validating and verifying of artificial intelligence systems, such approaches may help identify potential risks and issues associated with artificial intelligence systems early in the development process. This proactive approach may enable developers to address concerns before widespread deployment. Sandboxes or the issuance of informal regulatory guidance, for example, provide an environment that simulates real-world conditions, allowing for development and rather realistic testing of artificial intelligence applications. This may help uncover challenges that might not be apparent in isolated testing environments and enables cooperation with the competent authorities in earlier states of the innovation lifecycle.  1) 人工知能システムの制御された開発とテスト、検証と妥当性確認を可能にすることで、このようなアプローチは、人工知能システムに関連する潜在的なリスクや問題を開発プロセスの早い段階で特定するのに役立つ可能性がある。このような積極的なアプローチにより、開発者は広く普及する前に懸念事項に対処できる可能性がある。サンドボックスや非公式の規制ガイダンスの発行などは、現実の状況をシミュレートする環境を提供し、人工知能アプリケーションの開発や、むしろ現実的なテストを可能にする。これは、孤立したテスト環境では明らかにならない課題を発見するのに役立ち、イノベーション・ライフサイクルの初期段階における所轄当局との協力を可能にする。 
2) Such approaches facilitate knowledge-sharing among private entities, regulators, and other stakeholders. These collaborative environments may foster a better understanding of artificial intelligence technologies, their implications, and potential governance approaches and provide legal certainty to innovators and support them in their compliance journey.  2) このようなアプローチは、民間事業体、規制当局、その他の利害関係者間での知識の共有を促進する。このような協力的な環境は、人工知能技術、その意味合い、潜在的なガバナンスアプローチに対する理解を深め、イノベーターに法的確実性を提供し、コンプライアンスの旅路をサポートする。 
3) Artificial intelligence technologies evolve rapidly, and traditional regulatory frameworks may struggle to keep pace. Such approaches make it possible to learn about the opportunities and risks of an innovation at an early stage and provide evidence for regulatory learning purposes and may provide flexibility for regulations and technologies to be tested to check their adaptability to the changing landscape of artificial intelligence. Based on the result obtained, the framework can be interpreted to take into account these novel challenges and specific contexts, implemented more effectively or, where needed, adjusted.  3) 人工知能技術は急速に進化しており、従来の規制の枠組みでは追いつくのに苦労する可能性がある。このようなアプローチは、イノベーションの機会とリスクを早い段階で知ることを可能にし、規制の学習目的のためのエビデンスを提供する。また、人工知能の変化する状況への適応性を確認するために、規制と技術を柔軟にテストすることができる。得られた結果に基づいて、このフレームワークを解釈し、こうした新たな課題や特定の文脈を考慮に入れ、より効果的に実施したり、必要に応じて調整したりすることができる。 
4) Such environments may allow regulators to experiment with different regulatory approaches and evaluate their effectiveness in ensuring respect for human rights, democracy and the rule of law, as well as the prevention and mitigation of adverse impact on them. This iterative process may help regulators develop informed policies which strike a balance between fostering innovation and protecting the public interest.  4) このような環境は、規制当局がさまざまな規制アプローチを試し、人権、民主主義、法の支配の尊重、そしてそれらへの悪影響の防止と軽減を確保する上での有効性を評価することを可能にするかもしれない。このような反復的なプロセスは、規制当局が、イノベーションの促進と公共の利益の保護の間でバランスを取る、情報に基づいた政策を策定するのに役立つだろう。 
5) The existence of such approaches can boost public and industry confidence by demonstrating that regulators are actively engaged in understanding and overseeing artificial intelligence technologies to ensure respect for human rights, democracy and the rule of law. This transparency contributes to building trust in the responsible development and deployment of artificial intelligence.  5) このような情報活動の存在は、規制当局が人権、民主主義、法の支配の尊重を確保するため、人工知能技術の理解と監督に積極的に取り組んでいることを示すことで、社会と業界の信頼を高めることができる。この透明性は、人工知能の責任ある開発と展開に対する信頼の構築に貢献する。 
6) Such approaches allow organisations developing and deploying artificial intelligence systems, which could also include other stakeholders, as appropriate, to work closely with regulators to understand and meet compliance requirements. This collaborative approach helps streamline the regulatory process and compliance that is particularly helpful for smaller companies who lack the necessary resources.  6) このようなアプローチにより、人工知能システムを開発・導入する組織は、必要に応じて他の利害関係者も含め、規制当局と緊密に連携してコンプライアンス要件を理解し、満たすことができる。この協力的なアプローチは、規制プロセスやコンプライアンスの合理化に役立ち、必要なリソースを持たない中小企業にとっては特に有益だ。 
Chapter IV: Remedies  第4章 救済措置 
94. Since the obligations in this Chapter are intended to complement each Party’s applicable international and domestic legal regime of human rights protection, which includes not only specific rules and procedures but also diverse institutions and supervisory and enforcement mechanisms, the implementation of the obligations in this Chapter should be carried out by each Party applying their existing frameworks to the context of artificial intelligence systems. In doing so, Parties should have in mind the object and purpose of the Framework Convention, which is to ensure that activities within the lifecycle of artificial intelligence systems are fully consistent with human rights, democracy and the rule of law.  94. 本章の義務は、各締約国に適用される人権保護に関する国際的及び国内的な法体系を補完することを意図しており、これには、特定の規則及び手続だけでなく、多様な機構並びに監督及び執行のメカニズムも含まれるため、本章の義務の履行は、各締約国が既存の枠組みを人工知能システムの文脈に適用することによって行われるべきである。その際、締約国は、人工知能システムのライフサイクル内の情報活動が人権、民主主義、法の支配と完全に一致することを確保するという枠組み条約の目的および趣旨を念頭に置くべきである。 
Article 14 – Remedies  第14条 救済 
95. As already mentioned, each Party already has in place existing frameworks in relation to human rights, democracy and the rule of law. The Framework Convention requires Parties to apply those existing frameworks to the context of activities within the lifecycle of artificial intelligence systems.  95. すでに述べたように、各締約国は、人権、民主主義、法の支配に関する既存の枠組みをすでに有している。枠組み条約は締約国に対し、人工知能システムのライフサイクルにおける活動の文脈に、そうした既存の枠組みを適用することを求めている。 
96. Due to certain unique characteristics of artificial intelligence systems, such as their technical complexity, their data-driven character and the relative opaqueness of the operations of some such systems, human interactions with artificial intelligence systems have been affected by the problem of opaqueness of artificial intelligence systems and information asymmetry, i.e. a significant imbalance in the access to, understanding of, or control over information between different parties involved in the activities within the lifecycle of artificial intelligence systems.  96. 人工知能システムの技術的な複雑さ、データ駆動型であること、人工知能システムの運用が相対的に不透明であることなど、人工知能システムに特有の特性のために、人工知能システムと人間の相互作用は、人工知能システムの不透明性と情報の非対称性、すなわち人工知能システムのライフサイクル内の活動に関与する異なる当事者間の情報へのアクセス、理解、または情報管理の著しい不均衡という問題に影響を受けてきた。 
97. This problem is particularly acute in situations where human rights are adversely impacted by the activities within the lifecycle of artificial intelligence systems, as the affected or potentially affected persons may not become aware of such impacts or have the necessary information to exercise their rights in this connection or avail themselves of relevant procedures and safeguards.  97. この問題は、人工知能システムのライフサイクル内の活動によって人権が悪影響を受けるような状況において特に深刻である。なぜなら、影響を受ける、または受ける可能性のある人たちは、そのような影響に気づかなかったり、この関連で権利を行使したり、関連する手続きやセーフガードを利用したりするために必要な情報を持っていなかったりするからである。 
98. That is why this provision recalls the principle that a remedy needs to be both effective and accessible. In order to be effective, the remedy must be capable of directly remedying the impugned situations, and in order to be accessible, it has to be available with sufficient procedural safeguards in place to make the remedy meaningful for the person concerned. In order to underline the link and ensure complementarity with the applicable international and domestic human rights protection mechanisms, the provision uses the legal terminology referenced in Article 2 of the ICCPR, Article 13 of the ECHR and Article 25 of the Pact of San José. The term of “violations of human rights” used in the first paragraph of this provision refers to the well-established notions contained in Article 2 of the ICCPR, Articles 13, 34, 41 and 46 of the ECHR and Articles 25 and 63 of the Pact of San José, if and as applicable to respective future Parties of this Framework Convention (see the commentary in paragraph 67 above).  98. だからこそこの規定は、救済は効果的であると同時に利用しやすいものでなければならないという原則を想起させるのである。効果的であるためには、その救済措置は問題とされた状況を直接的に改善できるものでなければならず、利用しやすいものであるためには、その救済措置が関係者にとって有意義なものとなるよう、十分な手続き上の保護措置が講じられた上で利用できるものでなければならない。適用される国際的および国内的な人権保護メカニズムとの関連性を強調し、相互補完性を確保するため、この規定では、国際人権規約(ICCPR)第2条、欧州人権規約(ECHR)第13条、サン・ジョゼ協定(Pact of San José)第25条で言及されている法律用語を使用している。本規定の第1段落で使用される「人権侵害」という用語は、この枠組み条約の将来の締約国それぞれに適用される場合、および適用されるものとして、ICCPR第2条、ECHR第13条、第34条、第41条および第46条、ならびにサンホセ協定第25条および第63条に含まれる確立された概念を指す(上記第67段落の解説を参照)。 
99. Consistent with the principles in Articles 8 (Principle of transparency and oversight) and 9 (Principle of accountability and responsibility), Article 14 of the Framework Convention requires Parties to adopt or maintain specific measures to document and make available certain information to the affected persons in order to support the aim of making available, accessible and effective remedies for violations of human rights in the context of activities in the lifecycle of an artificial intelligence system. The relevant content in the information-related measures should be context-appropriate, sufficiently clear and meaningful, and critically, provide a person concerned with an effective ability to use the information in question to exercise their rights in the proceedings in respect of the relevant decisions affecting their human rights. It is also important to recall that exceptions, limitations or derogations from such transparency obligations are possible in the interest of public order, security and other important public interests as provided for by applicable international human rights instruments and, where necessary, to meet these objectives.  99. 第8条(透明性と監視の原則)および第9条(説明責任と責任の原則)の原則に沿って、枠組み条約第14条は、人工知能システムのライフサイクルにおける活動の文脈における人権侵害に対して、利用可能でアクセスしやすく、かつ効果的な救済を行うという目的を支援するために、締約国に対し、特定の情報を文書化し、影響を受ける者が利用できるようにするための特定の措置を採択または維持することを求めている。情報関連措置における関連する内容は、文脈に応じたものでなければならず、十分に明確で意味のあるものでなければならず、また決定的なことは、人権に影響を及ぼす関連決定に関する手続において、関係者がその権利を行使するために当該情報を利用する効果的な能力を提供することである。また、適用される国際人権文書に規定されているように、公序良俗、安全、その他の重要な公共の利益のために、また必要な場合には、これらの目的を達成するために、このような透明性義務からの例外、制限、または免除が可能であることを想起することも重要である。 
100. For violations of human rights resulting from the activities within the lifecycle of artificial intelligence systems, it is also important to provide the persons concerned with an effective possibility to lodge a complaint to competent authorities, as specified in Article 14, paragraph 2, subparagraph (c) of the Framework Convention. This may include the oversight mechanism(s) referred to in Article 25. In some situations, effective redress may include complaints by public interest organisations, in accordance with a Party’s domestic legal system.  100. 人工知能システムのライフサイクル内の活動に起因する人権侵害については、枠組み条約第14条第2項(c)に規定されているように、関係者が管轄当局に苦情を申し立てる効果的な可能性を提供することも重要である。これには第25条で言及されている監視機構も含まれる。状況によっては、効果的な救済には、締約国の国内法制度に従った公益団体による苦情が含まれる場合がある。 
101. The Drafters wished to underline that the expressions “significantly affect human rights” in subparagraph (a) of paragraph 2 of Article 14 and “significantly impact(s) upon the enjoyment of human rights” in paragraph 1 of Article 15 both introduce a threshold requirement, which means that (1) the relevant requirements of Articles 14 and 15 do not apply automatically to all artificial intelligence systems falling within the scope of Article 3 of the Framework Convention; (2) that the artificial intelligence systems which have no significant effect or impact on human rights do not fall within the scope of the specific new obligations in this Article; and (3) it is up to the Parties of the Framework Convention to examine whether, in view of their existing international and domestic human rights law and the context and other relevant circumstances in relation to a given artificial intelligence system, such system can be said to have “significant effect” or “significant impact” on human rights.  101. 起草者は、第14条第2項(a)の「人権に著しく影響を与える」、第15条第1項の「人権の享有に著しく影響を与える」という表現が、いずれも閾値要件を導入していることを強調したかった。つまり、(1)第14条と第15条の関連要件は、枠組み条約第3条の範囲に入るすべての人工知能システムに自動的に適用されるわけではない;(2)人権に重大な影響や影響を与えない人工知能システムは、本条における具体的な新たな義務の範囲に含まれない。(3)ある人工知能システムに関して、自国の既存の国際人権法および国内人権法、ならびに文脈やその他の関連事情を考慮して、そのようなシステムが人権に「重大な影響」や「重大な影響」を与えると言えるかどうかを検討するのは、枠組み条約の締約国次第である。 
102. Likewise, the expression “substantially informed by the use of the [artificial intelligence] system” in subparagraph (b) of Article 14 is meant to introduce a threshold requirement which underlines that not every use of an artificial system in decision-making triggers the application of subparagraph (b), and these measures should apply only in cases where the decision has been at least “substantially informed” by the use of the system. It is at the discretion of the Parties to the Framework Convention to define the meaning of this expression, consistent with its applicable international and domestic human rights law.  102. 同様に、第14条(b)項の「[人工知能]システムの使用によって実質的に知らされた」という表現は、意思決定における人工システムのすべての使用が(b)項の適用を引き起こすわけではないことを強調する閾値要件を導入することを意図しており、これらの措置は、少なくとも意思決定がシステムの使用によって「実質的に知らされた」場合にのみ適用されるべきである。この表現の意味を、適用される国際法および国内人権法と整合性を保ちながら定義することは、枠組み条約の締約国の裁量に委ねられている。 
Article 15 – Procedural safeguards  第15条 手続上の保護措置 
103. Paragraph 1 of Article 15 sets out a separate obligation for the Parties to ensure that the existing procedural guarantees, safeguards and rights prescribed in the applicable international and domestic human rights law remain available and effective in the artificial intelligence context. Where an artificial intelligence system substantially informs or takes decisions impacting on human rights, effective procedural guarantees should, for instance, include human oversight, including ex ante or ex post review of the decision by humans. Where appropriate, such human oversight measures should guarantee that the artificial intelligence system is subject to built-in operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role.  103. 第15条第1項は、適用される国際人権法および国内人権法に規定されている既存の手続的保障、保護措置、権利を、人工知能の文脈においても引き続き利用可能かつ有効なものとすることを締約国に求める別の義務を定めている。人工知能システムが人権に影響を与える決定を実質的に通知または行う場合、効果的な手続保障には、例えば、人間による決定の事前または事後のレビューを含む人間による監視が含まれるべきである。適切な場合、このような人間による監視措置は、人工知能システムが、システム自身によって覆すことのできない組み込みの運用上の制約を受け、人間の操作者に反応すること、および人間による監視が割り当てられた自然人が、その役割を遂行するために必要な能力、訓練および権限を有していることを保証すべきである。 
104. Paragraph 2 of Article 15 deals specifically with situations of direct human interaction with an artificial intelligence system. In such cases and where appropriate taking into account the circumstances and context of use, and with a view in particular to avoiding the risk of manipulation and deception, persons interacting with an artificial intelligence system should be duly notified that they are interacting with an artificial intelligence system rather than with a human. For example, interactions with AI-enabled chatbots on government websites would likely trigger the notification obligation under this provision. At the same time, this obligation is not intended, for instance, to cover situations where the very purpose of the use of the system would be counteracted by the notification (law enforcement scenarios) or where the use of the system is obvious from the context, which renders notification unnecessary.  104. 第15条第2項は、特に人工知能システムと人間が直接相互作用する状況を扱っている。このような場合、また使用の状況や文脈を考慮して適切な場合、特に操作や欺瞞のリスクを回避する観点から、人工知能システムと相互作用する者は、人間ではなく人工知能システムと相互作用していることを正当に通知されるべきである。例えば、政府のウェブサイトにおけるAI対応チャットボットとの対話は、この規定に基づく通知義務を誘発する可能性が高い。同時に、この義務は、例えば、システムの使用目的そのものが通知によって反故にされるような状況(法執行のシナリオ)や、システムの使用が文脈から明らかで、通知が不要になるような状況をカバーすることを意図したものではない。 
Chapter V: Assessment and mitigation of risks and adverse impacts  第5章 リスクと悪影響のアセスメントと低減 
Article 16 – Risk and impact management framework  第16条 リスクおよび影響マネジメントの枠組み 
105. In order to take into account the iterative character of the activities within the lifecycle of artificial intelligence systems and also to ensure the effectiveness of the measures undertaken by the Parties, the Framework Convention contains a dedicated provision prescribing the need to identity, assess, prevent and mitigate ex ante and, as appropriate, iteratively throughout the lifecycle of the artificial intelligence system the relevant risks and potential impacts to human rights, democracy and the rule of law by following and enabling the development of a methodology with concrete and objective criteria for such assessments. These obligations are one of the key tools for enabling the implementation of the requirements of the Framework Convention and Chapters II and III in particular and should be implemented by the Parties in light of all relevant principles, including the principles of transparency and oversight as well as the principle of accountability and responsibility.  105. 人工知能システムのライフサイクルにおける活動の反復性を考慮し、また締約国が実施する措置の有効性を確保するため、枠組み条約には、人工知能システムのライフサイクル全体を通じて、人権、民主主義、法の支配に関連するリスクと潜在的な影響を事前に、また必要に応じて反復的に特定し、アセスメントし、予防し、緩和する必要性を規定する専用の条項が含まれている。これらの義務は、特に枠組み条約と第2章および第3章の要求事項の実施を可能にするための重要な手段のひとつであり、透明性と監視の原則、説明責任と責任の原則を含むすべての関連原則に照らして、締約国によって実施されるべきである。 
106. The purpose of this provision is to ensure a uniform approach towards the identification, analysis, and evaluation of these risks and the assessment of impacts of such systems. At the same time, it is based on the assumption that the Parties are best placed to make relevant regulatory choices, taking into account their specific legal, political, economic, social, cultural, and technological contexts, and that they should accordingly enjoy a certain flexibility when it comes to the actual governance and regulation which accompany the processes.  106. この規定の目的は、このようなリスクの特定、分析、評価、およびこのようなシステムの影響アセスメントに対する統一的なアプローチを確保することである。同時に、締約国は、それぞれの法的、政治的、経済的、社会的、文化的、技術的背景を考慮した上で、関連する規制を選択するのが最も適切であり、それに応じて、プロセスに付随する実際のガバナンスや規制に関しては、一定の柔軟性を享受すべきであるという前提に基づいている。 
107. This is the principal reason why the provision mentions graduated and differentiated measures which should take due account of “the context and intended use of artificial intelligence systems” that allows flexibility to the Parties in the approaches and methodologies they choose to carry out this assessment. In particular, the Parties may choose to implement this assessment at the different levels, such as at regulatory level by prescribing different categories of risk classification and/or at operational level by relevant actors assigned with responsibilities for the activities within the lifecycle of artificial intelligence systems. Parties may also choose to focus at the operational level only on certain pre-defined categories of artificial intelligence systems in line with the graduated and differentiated approach to keep the burden and obligations proportionate to the risks (Article 16, paragraph 2, subparagraph (a)). Parties could also consider the capacity of various categories of private sector actors to respond to these requirements, in particular those regarding documentation and communication with relevant authorities and stakeholders, and where possible and appropriate, adjust them accordingly.  107. これが、この規定が「人工知能システムの文脈と意図される使用」を十分に考慮すべき段階的かつ差別化された措置に言及している主な理由であり、締約国がこのアセスメントを実施するために選択するアプローチと方法論に柔軟性を持たせている。特に、締約国は、異なるカテゴリーのリスク分類を規定することによる規制レベル、および/または人工知能システムのライフサイクル内の活動に責任を割り当てられた関係者による運用レベルなど、異なるレベルでこのアセスメントを実施することを選択することができる。また、締約国は、負担と義務をリスクに見合ったものとするために、段階的かつ差別的なアプローチに則り、運用レベルでは、あらかじめ定義された特定のカテゴリーの人工知能システムのみに焦点を当てることを選択することもできる(第16条第2項(a))。また、コミュニケーションは、特に文書化および関連当局や利害関係者とのコミュニケーションに関する要件など、さまざまなカテゴリーの民間セクターの主体がこれらの要件に対応する能力を検討し、可能かつ適切な場合には、それに応じて調整することもできる。 
108. The Drafters also wished to clarify that along with the risks to human rights, democracy and the rule of law, the assessments can, where appropriate, take due account of the need to preserve a healthy and sustainable environment, as well as projected benefits for society as a whole and positive impacts on human rights, democracy and the rule of law. Such factors as “severity”, “probability”, duration and reversibility of risks and impacts are also very important in the artificial intelligence context and should be taken into account in the risk management framework (Article 16, paragraph 2, subparagraph (b)), specifically when identifying and assessing risks and potential impacts. Moreover, it is important to specify that the requirement to take into account the perspective of persons whose rights may be impacted, depending on context, to the extent practicable and where appropriate, entails considering the perspective of a variety of relevant stakeholders, such as outside technical experts and civil society (Article 16, paragraph 2, subparagraph (c)).  108. 起草者はまた、人権、民主主義、法の支配に対するリスクとともに、適切な場合には、アセスメントにおいて、健全で持続可能な環境を保全する必要性や、社会全体に対する予測される便益、人権、民主主義、法の支配に対するプラスの影響も考慮に入れることができることを明確にしたいと考えた。リスクと影響の「重大性」、「確率」、期間、可逆性といった要素も、人工知能の文脈では非常に重要であり、リスクマネジメントの枠組み(第16条第2項(b))において、特にリスクと潜在的影響を特定し評価する際に考慮されるべきである。さらに、文脈に応じて、実践可能な範囲で、適切な場合には、権利に影響を与える可能性のある者の視点を考慮するという要件は、外部の技術専門家や市民社会など、様々な関係者の視点を考慮することを伴うことを明記することが重要である(第16条第2項(c))。 
109. The provision is also based on the understanding that carrying out risk assessment at the beginning of the artificial intelligence system lifecycle is only a first, albeit critical, step in a much longer, end-to-end process of responsible evaluation and re-assessment (Article 16, paragraph 2, subparagraph (d)). In the risk and impact assessment process, attention should be paid both to the dynamic and changing character of activities within the lifecycle of artificial intelligence systems and to the shifting conditions of the real-world environments in which systems are intended to be deployed. The provision further introduces requirements regarding not only the documenting of the relevant information during the risk management processes, but also the application of sufficient preventive and mitigating measures in respect of the risks and impacts identified. It is important for the requirement of proper documentation of the risk and impact management processes in Article 16, paragraph 2, subparagraph (f) to play its role in the identification, assessment, prevention and mitigation of risks or adverse impacts to human rights, democracy or the rule of law arising throughout the lifecycle of artificial intelligence systems. Both technical documentation and documentation of risks and adverse impacts should be properly drawn up and regularly updated. Where appropriate, the documentation may include public reporting of adverse impacts. Testing (Article 16, paragraph 2, subparagraph (g)) may include providing independent auditors with access to aspects of artificial intelligence systems.  109. また、この規定は、人工知能システムのライフサイクルの初期にリスクアセスメントを実施することは、責任ある評価と再アセスメント(第16条第2項(d))というはるかに長いエンド・ツー・エンドのプロセスにおける、重要ではあるが最初のステップに過ぎないという理解に基づいている。リスクアセスメントと影響アセスメントのプロセスにおいては、人工知能システムのライフサイクルの中でダイナミックに変化する活動の特徴と、システムが配備されることを意図している現実世界の環境の移り変わる状況の両方に注意を払うべきである。この規定はさらに、リスクマネジメントプロセスにおける関連情報の文書化だけでなく、特定されたリスクと影響に関して十分な予防策と緩和策を適用することに関する要件も導入している。第16条第2項第(f)号におけるリスクと影響の管理プロセスの適切な文書化の要件が、人工知能システムのライフサイクル全体を通じて生じる人権、民主主義、法の支配に対するリスクや悪影響の特定、アセスメント、予防、低減においてその役割を果たすことは重要である。技術文書もリスクや悪影響に関する文書も、適切に作成され、定期的に更新されるべきである。適切な場合、文書化には悪影響の公開報告を含めることができる。テスト(第16条第2項第(g)号)には、独立監査人に人工知能システムの側面へのアクセスを提供することを含めることができる。 
110. Paragraph 3 of Article 16 also prescribes the application of measures in respect of the risks and impacts identified, in order to adequately address the adverse impacts of artificial intelligence systems to human rights, democracy and the rule of law.  110. 第16条第3項はまた、人権、民主主義、法の支配に対する人工知能システムの悪影響に適切に対処するため、特定されたリスクと影響に関する措置の適用を規定している。 
111. Paragraph 4 of Article 16 states that Parties to the Framework Convention shall assess the need for moratoria, bans, or other appropriate measures regarding uses of artificial intelligence systems that they consider “incompatible” with the respect of human rights, democracy, and the rule of law. The determination of what is “incompatible” in this context is made by each Party, as is the assessment of whether such a scenario would require a moratorium or ban, on the one hand, or another appropriate measure, on the other. Without measures prohibiting, limiting or otherwise regulating the use of artificial intelligence systems in these circumstances, such uses could pose excessive risks to human rights, democracy, and the rule of law.  111. 第16条4項は、枠組み条約の締約国は、人権、民主主義、法の支配の尊重と「両立しない」と考える人工知能システムの使用について、モラトリアム、禁止、その他の適切な措置の必要性を評価しなければならないとしている。この文脈における「両立しない」とは何かという判断は、各締約国が行うものであり、そのようなシナリオが、一方ではモラトリアムや禁止を必要とするのか、他方では他の適切な措置を必要とするのかというアセスメントも同様である。このような状況での人工知能システムの使用を禁止、制限、またはその他の方法で規制する措置がなければ、そのような使用は人権、民主主義、法の支配に過度のリスクをもたらす可能性がある。 
112. While this provision leaves the details of how to address moratoria, bans or other appropriate measures to each Party, given their gravity, measures like moratoria or bans should only be considered in circumstances where a Party assesses that a particular use of an artificial intelligence system poses an unacceptable risk to human rights, democracy or the rule of law. Further consideration may include, for example, careful examination of whether there are any measures available for mitigating that risk. These measures should also be accompanied with appropriately organised review procedures in order to enable their update, including possible reversal (for example, once relevant risks have been sufficiently reduced or appropriate mitigation measures have become available, or new unacceptable practices have been identified). The Drafters also note the importance of public consultations when discussing measures set out under this provision.  112. この規定では、モラトリアム、禁止、その他の適切な措置にどのように対処するかの詳細は各締約国に委ねられているが、その重大性を考慮すれば、モラトリアムや禁止のような措置は、人工知能システムの特定の使用が人権、民主主義、法の支配に対して容認できないリスクをもたらすと締約国がアセスメントする状況においてのみ検討されるべきである。さらなる検討には、例えば、そのリスクを低減するために利用可能な措置があるかどうかを慎重に検討することが含まれる。これらの措置はまた、(例えば、関連するリスクが十分に低減されたり、適切な緩和措置が利用可能になったり、新たな容認できない慣行が特定されたりした場合に)取り消しの可能性を含め、その更新を可能にするために、適切に組織化されたレビュー手続きを伴うべきである。輸入事業者はまた、この規定に基づいて設定された措置について議論する際、市民協議が重要であることに留意する。 
Chapter VI: Implementation of the Convention  第6章 条約の実施 
Article 17 – Non-discrimination  第17条 識別的差別の禁止 
113. This article prohibits discrimination in the Parties’ implementation of the Framework Convention. The meaning of discrimination in Article 17 is identical to that laid out in the applicable international law, such as, inter alia, Article 26 of the ICCPR, Article 2 of the ICESCR, Article 14 of the ECHR and its Protocol No. 12, Article 24 of the Pact of San José, and Article E of the ESC, if and as applicable to Parties to the Framework Convention.  113. この条文は、締約国による枠組み条約の実施における識別的差別を禁止する。第17条における識別の意味は、適用法である国際人権規約(ICCPR)第26条、国際人権規約(ICESCR)第2条、欧州人権規約(ECHR)第14条およびその第12議定書、サンホセ協定第24条、欧州緊急事態管理条約(ESC)E条(枠組み条約の締約国に適用される場合、および適用される場合)と同一である。 
114. Taken together, these provisions cover a broad range of non-discrimination grounds which are linked to individuals’ personal characteristics, circumstances or membership of a group, including those covered by the relevant and applicable instruments included in paragraphs 72 and 73 of the Explanatory Report as interpreted by the relevant jurisprudence and practices of international human rights treaty bodies.  114. これらの規定を総合すると、個人の個人的特徴、境遇、集団の一員であることに関連する幅広い非差別的事由が網羅されており、これには、国際人権条約団体の関連法理および慣行によって解釈される、説明報告書第72項および第73項に含まれる関連および適用可能な文書によってカバーされているものも含まれる。 
115.Not all of these grounds are explicitly stated or identically formulated in the human rights treaties by which the Parties to the present Framework Convention may be bound. Those treaties usually contain open-ended lists of such grounds, as interpreted by the jurisprudence of competent international courts such as the European and the Inter-American Courts of Human Rights and in the relevant practice of competent international bodies, such as the United Nations Human Rights Committee. There may thus be variations between the various international human rights regimes applicable to different Parties. As with other human rights conventions and treaties, here too the approach of the Framework Convention is not to create new human rights obligations or to reduce, extend or otherwise modify the scope or content of the international human rights obligations applicable to a Party (see the comment to Article 1, in paragraph 13 above).  115. これらの根拠のすべてが、本枠組み条約の締約国が拘束されうる人権諸条約に明示的に記載されているわけでも、同一に定式化されているわけでもない。これらの条約は通常、欧州人権裁判所や米州人権裁判所のような管轄権を有する国際裁判所の法理や、国連人権委員会のような管轄権を有する国際団体の関連する慣行によって解釈される、そのような根拠のオープンエンドなリストを含んでいる。そのため、異なる締約国に適用されるさまざまな国際人権体制間で差異が生じる可能性がある。他の人権条約や条約と同様に、ここでも枠組み条約のアプローチは、新たな人権義務を創設することでも、締約国に適用される国際人権義務の範囲や内容を縮小、拡張、その他の方法で修正することでもない(上記第13項の第1条に対するコメント参照)。 
Article 18 – Rights of persons with disabilities and of children  第18条 障害者および子どもの権利 
116. This provision sets out an obligation for the Parties, in the context of the activities within the lifecycle of artificial intelligence systems, to take due account of “specific needs and vulnerabilities in relation to respect of the rights of persons with disabilities and of children” and in this regard it correlates directly with the provisions and the legal regime of the UNCRPD and the UNCRC as well as the applicable domestic law of each Party on the rights of persons with disabilities and the rights of the child. Explicit reference to the applicable domestic law on the rights of the child and the rights of persons with disabilities has been inserted, in particular, with a view to take into consideration the situation of any Party to the Framework Convention which did not ratify the UNCRC or the UNCRPD, but nevertheless has domestic legislation securing the enjoyment of such rights.  116. この規定は、人工知能システムのライフサイクル内の活動において、「障害者および子どもの権利の尊重に関する特定のニーズおよび脆弱性」を十分に考慮する締約国の義務を定めており、この点で、UNCRPDおよびUNCRCの規定および法体系、ならびに障害者および子どもの権利に関する各締約国の適用法と直接的に関連している。特に、UNCRCまたはUNCRPDを批准していないが、それにもかかわらず、そのような権利の享有を確保する国内法を有する枠組み条約の締約国の状況を考慮する観点から、子どもの権利および障害者の権利に関する適用法への明示的な言及が挿入されている。 
117. The reference to domestic law in this provision is meant solely to point at provisions of domestic law which provide the level of protection in the relevant context similar or supplementary to the UNCRPD or the UNCRC, and such reference cannot be invoked by a Party as justification for its failure to perform this treaty obligation. The objective is thus to guarantee the highest possible level of consideration for any specific needs and vulnerabilities in relation to respect of the rights of persons with disabilities and of children, including training on digital literacy, as explained in relation to Article 20 in the Explanatory Report.  117. この規定における国内法への言及は、関連する文脈においてUNCRPDまたはUNCRCと同様または補足的な保護レベルを提供する国内法の規定を指し示すことのみを意図しており、このような言及は、締約国がこの条約上の義務を履行しないことの正当化として持ち出すことはできない。したがって、その目的は、説明報告書の第20条との関連で説明されているように、デジタルリテラシーに関する訓練を含め、障害者および子どもの権利の尊重に関連する特定のニーズや脆弱性に対する最高レベルの配慮を保証することである。 
118. In view of the serious risk that artificial intelligence technologies could be used to facilitate sexual exploitation and sexual abuse of children, and the specific risks that it poses to children, in the context of the implementation of this provision the Drafters considered the obligations set forth in the Lanzarote Convention, the Optional Protocol to the UN Convention on the Rights of the Child on the sale of children, child prostitution and child pornography, and General Comment No. 25 to the UNCRC on children’s rights in relation to the digital environment.  118. 人工知能技術が児童の性的搾取や性的虐待を助長するために使用される深刻なリスクと、それが児童にもたらす特定のリスクを考慮し、起草者は本規定の実施に当たり、ランサローテ条約、児童の売買、児童買春、児童ポルノに関する国連児童の権利に関する条約の選択議定書、およびデジタル環境に関連する児童の権利に関する国連児童委員会一般的意見第25号に定められた義務を考慮した。 
Article 19 – Public consultation  第19条 コンサルテーション 
119. The purpose of this article is to prompt the Parties, insofar as appropriate, to foster civic engagement, empower individuals and experts to partake in public discussion on issues of broad social and political importance, and create greater public awareness of the fundamental and emerging questions, including issues applicable to the early stages of design, raised by the activities within the lifecycle of artificial intelligence systems. Views of society and various perspectives should be ascertained and taken into due consideration as far as possible with regard to the relevant problems, which could include, for example, risks as well as positive and adverse impacts. To this end, meaningful “public discussion and multi-stakeholder consultation” are recommended.  119. この条の目的は、適切な限りにおいて、締約国に対し、市民参加を促進し、個人及び専門家が広範な社会的及び政治的重要性のある問題について公開討論に参加する権限を与え、人工知能システムのライフサイクルの中で行われる活動によって提起される、設計の初期段階に適用される問題を含む基本的かつ新たな問題に対する国民の認識を高めるよう促すことである。例えば、リスクや好影響・悪影響などを含む関連する問題については、社会の見解や様々な視点を可能な限り把握し、十分に考慮すべきである。そのためには、有意義な「公開討論とマルチステークホルダー協議」が推奨される。 
120. Engagement should involve engaging a diverse range of stakeholders, including the general public, industry experts, academics, National Human Rights Institutions (NHRIs), and civil society. For the Drafters of the Framework Convention, these discussions and consultations play a crucial role in ensuring that artificial intelligence systems align with universal human rights and address relevant concerns regarding human rights, democracy and the rule of law, by reflecting a broad range of perspectives and thus informing the relevant policy-making and regulatory initiatives.  120. 一般市民、産業界の専門家、学者、国内人権機構(NHRI)、市民社会など、多様な利害関係者を巻き込んだ関与が必要である。枠組み条約の起草者にとって、このような議論や協議は、人工知能システムが普遍的人権に合致し、人権、民主主義、法の支配に関する関連する懸念に対処することを保証する上で、重要な役割を果たす。 
121. The expression “as appropriate” leaves it to the Parties to determine the topics, frequency and other modalities of such consultations in the light of social, economic, legal, ethical, environmental and other relevant implications. For example, States may organise surveys and questionnaires, public workshops, focus groups, citizen juries and deliberative polling, expert panels and consultative committees, public hearings, national and international conferences, or combinations of the above. Final assessment and incorporation of the outcomes of such discussions and consultations into the relevant policy initiatives could also be adequately and appropriately communicated to the relevant stakeholders.  121. 適切な場合」という表現は、社会的、経済的、法的、倫理的、環境的、その他関連する意味合いに照らして、そのような協議のテーマ、頻度、その他の方法を決定することを締約国に委ねるものである。例えば、締約国は、調査やアンケート、公開ワークショップ、フォーカスグループ、市民陪審員や熟議投票、専門家パネルや協議委員会、公聴会、国内会議、国際会議、またはこれらの組み合わせを開催することができる。このような議論や協議の成果を最終的にアセスメントし、関連する政策イニシャティブに反映させることも、関連する利害関係者に適切かつ適切に伝えることができる。 
Article 20 – Digital literacy and skills  第20条 デジタル・リテラシーとスキル 
122. The provision draws the attention of the Parties to the fact that promotion of digital literacy and digital skills for all segments of the population is critically important in today's technologydriven world. The two terms refer to the ability to use, understand, and engage with digital, including artificial intelligence and other data-based technologies effectively and thus contribute to promoting broad awareness and understanding in the general population and to preventing and mitigating risks or adverse impacts on human rights, democracy or the rule of law, as well as other societal harms such as malicious or criminal use of such technologies. The Drafters also wished to mention particularly beneficial effects of such programmes for individuals from diverse backgrounds and those who may be underrepresented or in vulnerable situations, which may include, for example, women, girls, indigenous peoples, elderly people and children, with due respect for safeguards regarding the use of artificial intelligence systems for people in situations of vulnerability.  122. 本規定は、今日の技術主導の世界において、国民のあらゆる層に対するデジタルリテラシーとデジタルスキルの推進が決定的に重要であるという事実に、締約国の注意を喚起するものである。この2つの用語は、人工知能やその他のデータに基づく技術を含むデジタル技術を効果的に使用し、理解し、関与する能力を指すものであり、その結果、一般住民の幅広い認識と理解を促進し、人権、民主主義、法の支配に対するリスクや悪影響のほか、そのような技術の悪意ある利用や犯罪的利用など、その他の社会的危害の防止と軽減に貢献する。起草者らはまた、脆弱な状況にある人々に対する人工知能システムの使用に関するセーフガードを十分に尊重した上で、多様な背景を持つ個人や、例えば女性、女児、先住民、高齢者、子どもなど、社会的地位の低い人々や脆弱な状況にある人々にとって、このようなプログラムが特に有益な効果をもたらすことにも言及したいと考えた。 
123. Owing to the object and purpose of the Framework Convention, the specific training programmes regarding artificial intelligence technologies referred to under Article 20 could include enhancing awareness of and the ability to manage the potential risks and adverse impacts of artificial intelligence systems in the context of human rights, democracy or the rule of law and, depending on context, could cover such topics as:  123. 枠組み条約の目的および趣旨から、第20条で言及されている人工知能技術に関する具体的なトレーニングプログラムには、人権、民主主義または法の支配の文脈における人工知能システムの潜在的なリスクおよび悪影響を管理する意識および能力の向上が含まれる可能性があり、文脈によっては、以下のようなトピックを取り上げることができる: 
a. the concept of artificial intelligence;  a. 人工知能の概念である; 
b. the purpose of particular artificial intelligence systems;  b. 特定の人工知能システムの目的である; 
c. capabilities and limitations of different types of artificial intelligence models and the assumptions underlying them;  c. さまざまなタイプの人工知能モデルの能力と限界、そしてそれらの基礎となる仮定; 
d. socio-cultural factors associated with the design, development, and use of artificial intelligence systems, including in relation to data used to train them;  d. 人工知能システムの設計、開発、使用に関連する社会文化的要因(人工知能システムの訓練に使用されるデータとの関連も含む); 
e. human factors relevant to the use of artificial intelligence systems, such as how end users may interpret and use outputs;  e. エンドユーザーが出力をどのように解釈し使用するかなど、人工知能システムの使用に関連する人間的要因; 
f. domain expertise relevant to the context in which artificial intelligence systems are used;  f. 人工知能システムが使用されるコンテクストに関連する領域の専門知識; 
g. legal and policy considerations;  g. 法律および政策上の考慮事項 
h. perspectives of individuals or communities that disproportionately experience adverse impacts of artificial intelligence systems.  h. 人工知能システムの悪影響を不当に受けている個人またはコミュニティの視点。 
124. In view of how essential training is to those responsible for the identification, assessment, prevention and mitigation of risks posed by artificial intelligence, the provision refers additionally to this specific group of addressees (such actors include, for instance, judiciary, national supervisory authorities, data protection authorities, equality and human rights bodies, ombuds, consumer protection authorities, artificial intelligence providers and artificial intelligence users), in particular with reference to the application of the methodology set out in Article 16.  124. 人工知能がもたらすリスクの特定、アセスメント、予防、低減に責任を負う人々にとって、訓練がいかに不可欠であるかを考慮し、この規定は、特に第16条に定める方法の適用に関して、この特定の対象者グループ(このような対象者には、例えば、司法、国内監督当局、データ保護当局、平等・人権団体、オンブズ、消費者保護当局、人工知能プロバイダ、人工知能ユーザーが含まれる)に追加的に言及している。 
Article 21 – Safeguard for existing human rights  第21条 既存の人権の保護 
125.Consistent with the 1969 Vienna Convention on the Law of Treaties, this article seeks to ensure that the Framework Convention harmoniously coexists with other international human rights treaties and instruments, such as those listed in paragraph 39 above.  125. 1969年の条約法に関するウィーン条約に則り、この条文は、枠組み条約が、上記パラグラフ39に列挙されたような他の国際人権条約や文書と調和的に共存することを確保しようとするものである。 
126. This provision reinforces that the overall aim of this Framework Convention is to ensure the highest level of protection of human rights, democracy and the rule of law in the context of the activities within the lifecycle of artificial intelligence systems. In this context, all references to domestic law in this Framework Convention should be read as limited to cases where domestic law provides for a higher standard of human rights protection than applicable international law.  126. この規定は、本枠組み条約の全体的な目的が、人工知能システムのライフサイクル内の活動において、人権、民主主義、法の支配の最高レベルの保護を確保することにあることを補強するものである。この文脈において、この枠組み条約における国内法への言及はすべて、国内法が適用法である国際法よりも高い水準の人権保護を規定している場合に限定して読まれるべきである。 
Article 22 – Wider protection  第22条 より広範な保護 
127. This provision safeguards those provisions of domestic law and existing and future binding international instruments, which provide supplementary protection in respect of activities within the lifecycle of artificial intelligence systems in sensitive contexts from the point of view of human rights, democracy and the rule of law, going beyond the level secured by this Framework Convention; this Framework Convention shall not be interpreted so as to restrict such protection. The phrase “wider measure of protection” can be interpreted as providing the possibility of putting a person, for example, in a more favourable position than provided for under the Framework Convention.  127. この規定は、人権、民主主義、法の支配の観点から、センシティブな文脈における人工知能システムのライフサイクル内の活動に関して、この枠組み条約によって確保されるレベルを超える補足的な保護を提供する、国内法および既存および将来の拘束力のある国際文書の規定を保護するものであり、この枠組み条約は、このような保護を制限するように解釈されてはならない。この枠組み条約は、そのような保護を制限するように解釈してはならない。「より広範な保護の措置」という表現は、例えば、枠組み条約に規定されているよりも有利な立場に人を置く可能性をプロバイダに提供するものと解釈できる。 
Chapter VII: Follow-up mechanism and co-operation  第7章 フォローアップの仕組みと協力 
128. Chapter VII of the Framework Convention contains provisions which aim at ensuring the effective implementation of the Framework Convention by the Parties through a follow-up mechanism and co-operation. This is the mechanism announced in Article 1 paragraph 3.  128. 枠組み条約第7章には、フォローアップの仕組みと協力を通じて、締約国による枠組み条約の効果的な実施を確保することを目的とした規定が含まれている。これが第1条第3項で発表されたメカニズムである。 
Article 23 – Conference of the Parties  第23条 締約国会議 
129. This article provides for the setting-up of a body under the Framework Convention, the Conference of the Parties, composed of representatives of the Parties.  129. この条文は、枠組み条約の下で、締約国の代表者で構成される団体、締約国会議の設置を規定している。 
130. The establishment of this body will ensure equal participation of all Parties in the decisionmaking process and in the Framework Convention follow-up procedure and will also strengthen co-operation between the Parties to ensure proper and effective implementation of the Framework Convention.  130. この団体の設立は、意思決定プロセスおよび枠組み条約のフォローアップ手続きへの全締約国の平等な参加を確保し、また、枠組み条約の適切かつ効果的な実施を確保するために、締約国間の協力を強化する。 
131. The flexibility of the follow-up mechanism established by this Framework Convention is reflected by the fact that there is no temporal requirement for its convocation. It will be convened by the Secretary General of the Council of Europe (paragraph 3) as appropriate and periodically (paragraph 2). However, it can only be convened at the request of the majority of the Parties or at the request of the Committee of Ministers of the Council of Europe (paragraph 3).  131. 本枠組み条約によって設立されたフォローアップ・メカニズムの柔軟性は、その招集に時間的要件がないという事実に反映されている。同メカニズムは、欧州評議会事務総長が適宜(第3項)、定期的に招集する(第2項)。ただし、締約国の過半数の要請または欧州評議会閣僚委員会の要請があった場合にのみ招集できる(パラグラフ3)。 
132. With respect to this Framework Convention, the Conference of the Parties has the traditional follow-up competencies and plays a role in respect of:  132. この枠組み条約に関して、締約国会議は伝統的なフォローアップの権限を有し、次のような役割を果たす: 
a) the effective implementation of the Framework Convention, by making proposals to facilitate or improve the effective use and implementation of this Framework Convention, including the identification of any problems therein, and the effects of significant legal, policy or technological developments pertaining to the activities within the lifecycle of artificial intelligence systems, as well as the effects of any declaration or reservation made under this Framework Convention;  a) この枠組み条約の効果的な実施を促進または改善するための提案を行うことで、この枠組み条約の効果的な使用および実施を促進または改善することで、この枠組み条約に含まれるあらゆる問題の特定、人工知能システムのライフサイクル内の活動に関連する重要な法的、政策的または技術的発展の影響、ならびにこの枠組み条約に基づいて行われた宣言または留保の影響を含む; 
b) the amendment of the Framework Convention, by making proposals for amendment in accordance with Article 28, paragraph 1 and formulating its opinion on any proposal for amendment of this Framework Convention which is referred to it in accordance with Article 28, paragraph 3;  b) 第28条第1項に従って改正案を作成し、第28条第3項に従って付託されたこの枠組み条約の改正案について意見を述べる; 
c) a general advisory role in respect of the Framework Convention by expressing specific recommendations on any question concerning its interpretation or application, including, for instance, suggesting interpretations of legal terms contained in the Framework Convention. Although not legally binding in nature, these recommendations may be seen as a joint expression of opinion by the Parties on a given subject which should be taken into account in good faith by the Parties in their application of the Framework Convention.  c) 枠組み条約の解釈または適用に関するあらゆる問題につい て具体的な勧告を表明することにより、枠組み条約に関 する一般的な助言的役割を果たす。その性質上、法的拘束力はないが、これらの勧告は、締約国が枠組条約を適用する際に誠実に考慮すべき、特定のテーマに関する締約国の共同意見表明とみなすことができる。 
d) serving as a forum for facilitating the exchange of information on significant legal, societal, policy or technological developments in relation to the application of the provisions of the Framework Convention, including in relation to the international cooperation activities described in Article 25;  d) 第25条に記載された国際協力活動に関連するものを含め、枠組み条約の規定の適用に関連する重要な法律的、社会的、政策的又は技術的発展に関する情報交換を促進するためのフォーラムとしての役割を果たす; 
e) in accordance with Article 29 of the Framework Convention, facilitating, where necessary, the friendly settlement of disputes related to the application of its provisions, in a non-binding, consultative capacity;  e) 枠組み条約第29条に従い、必要な場合には、拘束力のない協議の立場で、その規定の適用に関する紛争の友好的解決を促進する; 
f) facilitating co-operation with stakeholders, including non-governmental organisations and other bodies which can improve the effectiveness of the follow-up mechanism. In view of the highly technical subject matter of the Framework Convention, paragraph 6 of Article 23 expressly points at the possibility for the Conference of the Parties to seek, where appropriate, relevant expert advice.  f) フォローアップ・メカニズムの効果を改善できる非政府組織その他の団体を含む利害関係者との協力 を促進する。枠組み条約の主題が高度に専門的であることに鑑み、第23条第6項は、締約国会議が適切な場 合、関連する専門家の助言を求める可能性を明示的に指摘している。 
133. The Conference of the Parties must adopt rules of procedure establishing the way in which the follow-up system of the Framework Convention operates, on the understanding that its rules of procedure must be drafted in such a way that such follow-up is effectively ensured. The rules of procedure shall be adopted by consensus, namely a decision taken in the absence of sustained objection and without a formal vote. Article 23, paragraph 4 further stipulates that the Conference of the Parties shall adopt such rules within twelve months of the entry into force of the Framework Convention.  133. 締約国会議は、枠組条約のフォローアップ制度の運用方法を確立する手順規則を採択しなければならないが、その手順規則は、そのようなフォローアップが効果的に確保されるような形で作成されなければならないと理解する。手続規則は、コンセンサス、すなわち、継続的な異議申し立てがなく、正式な投票がない場合の決定によって採択されるものとする。さらに第23条4項は、締約国会議は枠組条約の発効から12カ月以内にかかる規則を採択しなければならないと規定する。 
134. Paragraph 7 concerns the contribution of Parties which are not member States of the Council of Europe to the financing of the activities of the Conference of the Parties. The contributions of member States to these activities are covered collectively by the ordinary budget of the Council of Europe, whereas non-member States contribute individually, in a fair manner. The Framework Convention does not stipulate the form in which the contributions, including the amounts and modalities, of Parties which are not members of the Council of Europe shall be established. The legal basis for the contribution of such Parties will be the Framework Convention itself and the act(s) establishing that contribution. The Framework Convention does not affect domestic laws and regulations of Parties governing budgetary competencies and procedures for budgetary appropriations. Without prejudice to the agreement referred to above, one of the ways for a Party which is not a member of the Council of Europe to make its payment of contribution is to pay within the limit of budget approved by the legislative branch.  134. 第7項は、締約国会議の活動資金に対する欧州評議会の加盟国以外の締約国の拠出に関するものである。これらの活動に対する加盟国の拠出は、欧州評議会の通常予算で一括して賄われるが、非加盟国は公正な方法で個別に拠出する。枠組み条約は、欧州評議会に加盟していない締約国の拠出について、その金額や方法を含め、どのような形で拠出するかを規定していない。そのような締約国の拠出金の法的根拠は、枠組み条約そのものと、その拠出金を定める行為である。ガバナンス条約は、予算権限および予算充当の手続きを規定する締約国の国内法および規則に影響を与えない。上記の協定を損なうことなく、欧州評議会に加盟していない締約国が拠出金を支払う方法の一つは、立法府によって承認された予算の範囲内で支払うことである。 
135. Paragraph 8 of this provision gives the Conference of the Parties the authority to deliberate on the limitation of involvement in its proceedings by any Party that has been disqualified from membership of the Council of Europe pursuant to Article 8 of the Statute of the Council of Europe for a serious violation of Article 3 of the Statute. Similar action can be undertaken regarding any Party that is a non-member of the Council of Europe by a decision of the Committee of Ministers of the Council of Europe.  135. 本規定第8項は、欧州評議会規約第3条の重大な違反により、同規約第8条に基づき欧州評議会の加盟資格を剥奪された締約国に対し、その手続への関与の制限を審議する権限を締約国会議に与えるものである。同様の措置は、欧州評議会の閣僚委員会の決定により、欧州評議会の非加盟国であるいかなる締約国に対してもとることができる。 
Article 24 – Reporting obligation  第24条 報告義務 
136.To enable co-operation and regularly update on the implementation of the Framework Convention, each Party should provide a report to the Conference of the Parties within the first two years after becoming a Party and then periodically thereafter, with details of the activities undertaken to give effect to Article 3, paragraph 1, subparagraphs (a) and (b). The Conference of the Parties will determine the format and the process for the report in accordance with its rules of procedure. The Drafters strongly encourage the Parties to invite signatories not yet Parties to the Framework Convention to share information on the steps and measures taken to address risks to human rights, democracy and the rule of law and to facilitate exchanges.  136. 枠組み条約の実施に関する協力と定期的な更新を可能にするため、各締約国は、締約国となってから最初の2年以内に、その後定期的に、第3条第1項第(a)号および第(b)号を実施するために行われた活動の詳細を記載した報告書を締約国会議に提出すべきである。締約国会議は、その手続規則に従い、報告書の書式とプロセスを決定する。起草者らは、締約国に対し、人権、民主主義、法の支配に対するリスクに対処するためにとられた措置や措置に関する情報を共有し、交流を促進するよう、枠組み条約の未締約国に呼びかけることを強く奨励する。 
Article 25 – International co-operation  第25条 国際協力 
137. This article sets out the provisions on international co-operation between Parties to the Framework Convention. It starts by mentioning the obligation applicable among Parties to afford one another the greatest measure of assistance in connection with the realisation of the purpose of this Framework Convention, which is to ensure that activities within the lifecycle of artificial intelligence systems are fully consistent with human rights, democracy and the rule of law.  137. この条文では、枠組み条約の締約国間の国際協力に関する規定を定めている。まず、人工知能システムのライフサイクルにおける活動が、人権、民主主義、法の支配に完全に合致することを確保するという枠組み条約の目的の実現に関連して、締約国間で適用される最大限の援助を与え合う義務について言及する。 
138. This general obligation is supplemented by an important point regarding the need for the Parties to offer support, as deemed suitable, to States that have not yet become Parties to this Framework Convention. This assistance should be aimed at guiding these States in aligning their actions with the principles outlined in this Framework Convention and ultimately encouraging their accession to it. This collaborative effort should seek to promote a collective commitment to the goals and provisions of the Framework Convention, fostering a broader and more inclusive adherence to its terms among States globally. Such support and guidance do not necessarily imply financial assistance.  138. この一般的義務は、この枠組み条約の締約国にまだなっていない国に対し、締約国が適切と思われる支援を提供する必要性に関する重要な指摘によって補足される。この支援は、これらの国がこの枠組み条約に概説された原則に沿って行動するよう指導し、最終的にはこの枠組み条約への加盟を促すことを目的とすべきである。この協力的な努力は、枠組み条約の目標と条項に対する集団的なコミットメントを促進し、世界各国の間でより広範かつ包括的な条約条項の遵守を促進することを目指すべきである。このような支援と指導は、必ずしも資金援助を意味するものではない。 
139. Furthermore, the co-operation setup by the Framework Convention should include facilitation of the sharing of pertinent information regarding various aspects of artificial intelligence between the Parties, including measures adopted to prevent or mitigate risks and impacts on human rights, democracy and the rule of law. This information exchange should encompass elements that could exert substantial positive or adverse impacts on the enjoyment of human rights, the functioning of democratic processes, and the respect of the rule of law, including risks and effects that have arisen in research contexts and in relation to the private sector. This sharing also extends to risks and effects that have surfaced within the contexts of research on artificial intelligence, promoting a comprehensive understanding of the multifaceted implications of these technologies across these critical domains. In this regard, the provision also points at the need for the Parties to include relevant non-State actors, such as academics, industry representatives, and civil society organisations, with a view to ensure multi-stakeholder view of the relevant topics.  139. さらに、枠組み条約が定める協力には、人権、民主主義および法の支配に対するリスクおよび影響を防止または軽減するために採用された措置を含め、締約国間の人工知能の様々な側面に関する適切な情報の共有を促進することが含まれるべきである。この情報交換は、人権享有、民主的プロセスの機能、および法の支配の尊重に実質的なプラスの影響またはマイナスの影響を及ぼしうる要素を包含すべきであり、これには、研究の文脈および民間部門との関係で生じたリスクおよび影響も含まれる。この共有は、人工知能の研究の文脈で表面化したリスクや影響にも及び、これらの重要な領域におけるこれらの技術の多面的な影響の包括的な理解を促進する。この点に関して、この規定は、関連するトピックに関するマルチステークホルダーの視点を確保する観点から、締約国が、学者、産業界の代表者、市民社会組織など、関連する非国家主体を含める必要性も指摘している。 
140. Lastly, the provision directly specifies that, for the follow-up of the application of the Framework Convention to be truly effective, the Parties’ efforts in co-operation should aim specifically at the prevention and mitigation of risks and adverse impacts resulting from the activities within the lifecycle of artificial intelligence systems and that such co-operation should moreover include a possibility of involving representatives of non-governmental organisations and other relevant bodies.  140. 最後に、枠組み条約の適用フォローアップが真に効果的であるためには、締約国の協力努力は、人工知能システムのライフサイクル内の活動から生じるリスクと悪影響の予防と軽減を特に目指すべきであり、そのような協力には、さらに非政府組織やその他の関連団体の代表者が参加する可能性を含めるべきであると、同条項は直接明記している。 
Article 26 – Effective oversight mechanisms  第26条 効果的な監督メカニズム 
141. This provision requires Parties to adopt or maintain effective mechanisms to oversee compliance with the obligations in the Framework Convention. In view of the ubiquitous character of the use of artificial intelligence systems and the fact all Parties already have various regulations and supervising mechanisms in place for the protection of human rights in various sectors, the provision emphasises the need for the Parties to review the already existing mechanisms to apply to the context of activities within the lifecycle of artificial intelligence systems. Parties may also choose to expand, reallocate, adapt, or redefine their functions or, if appropriate, set up entirely new structures or mechanisms. The provisions under this article leave these decisions expressly to the Parties’ discretion, subject to the conditions in paragraphs 2 and 3, with an understanding that the relevant bodies should be vested with the sufficient powers to effectively pursue their oversight activities.  141. この規定は、締約国に対し、枠組み条約の義務の遵守を監督する効果的なメカニズムを採用または維持することを求めている。人工知能システムの利用がユビキタスであること、およびすべての締約国がすでにさまざまな分野で人権保護のためのさまざまな規制および監督メカニズムを設けているという事実に鑑み、この規定は、締約国が人工知能システムのライフサイクル内の活動の文脈に適用するために、すでに存在するメカニズムを見直す必要性を強調している。締約国はまた、その機能を拡大、再配置、適応、再定義すること、あるいは適切であれば、まったく新しい機構やメカニズムを設置することを選択することもできる。本条に基づく規定は、第2項および第3項の条件に従い、これらの決定を締約国の裁量に明示的に委ねるものであり、関連団体がその監視活動を効果的に遂行するために十分な権限を与えられるべきであることを理解するものである。 
142. Whether established, newly setup or designated, such bodies should satisfy the criteria set out in paragraph 2 of the provision insofar as they should be functionally independent from the relevant actors within the executive and legislative branches. The reference to “independently and impartially” in paragraph 2 denotes a sufficient degree of distance from relevant actors within both executive and legislative branches, subject to oversight enabling the relevant body(ies) to carry out their functions effectively. This term accommodates a variety of types of functional independence that could be implemented in different legal systems. For example, this may include oversight functions embedded within particular government bodies that assess or supervise the development and use of artificial intelligence systems.  142. このような団体は、設立、新設、指定のいずれにせよ、行政府および立法府の関連主体から機能的に独立しているべきであるという点で、同規定第2項に定める規準を満たすべきである。第2項における「独立かつ公平に」という言及は、関連機関がその機能を効果的に遂行することを可能にする監視を前提として、行政府および立法府の両方の関連主体から十分な程度離れていることを意味する。この用語は、異なる法体系で実施されうる、さまざまなタイプの機能的独立に対応するものである。例えば、人工知能システムの開発と利用をアセスメントまたは監督する特定の政府団体に組み込まれた監督機能などがこれに含まれる。 
143. A number of further elements mentioned in the provision contribute to safeguarding the required level of functional independence: the bodies should have the necessary powers, expertise, including in human rights, technical knowledge and proficiency, as well as other resources to fulfil their tasks effectively.  143. 団体には、その任務を効果的に遂行するために必要な権限、人権を含む専門知識、技術的知識、熟練度、その他の資源がなければならない。 
144. Given the shared subject matter and a real possibility that the oversight of the activities within the lifecycle of artificial intelligence systems is shared by multiple authorities across a range of sectors (this is particularly true for Parties with existing specialised human rights mechanisms, such as for example data protection, equality bodies, or National Human Rights Institutions (NHRIs), acting in a given sector or across sectors), the provision requires the Parties to promote effective communication and co-operation between them.  144. 人工知能システムのライフサイクル内の活動の監視が、さまざまな部門にわたる複数の当局によって共有される(これは、たとえばデータ保護、平等団体、国内人権機関(NHRI)など、特定の部門で、または部門を超えて活動する、既存の専門的な人権機構を有する認可締約国にとって特に当てはまる)という共通の対象者および現実的な可能性を考慮すると、この規定は、締約国に対し、それらの間の効果的なコミュニケーションと協力を促進することを求めている。 
Chapter VIII: Final clauses  第8章 最終条項 
145. With some exceptions, the provisions in Article 27 to 36 are essentially based on the Model Final Clauses for Conventions, Additional Protocols and Amending Protocols concluded within the Council of Europe adopted by the Committee of Ministers at its 1291st meeting of the Ministers’ Deputies, on 5 July 2017.  145. 一部の例外を除き、第27条から第36条までの規定は基本的に、2017年7月5日に開催された第1291回閣僚委員会において採択された、欧州評議会内で締結された条約、追加議定書および改正議定書のモデル最終条項に基づいている。 
Article 27 – Effects of the Convention  第27条 条約の効力 
146. Paragraph 1 of Article 27 provides that Parties are free to apply agreements or treaties concluded prior to this Framework Convention, including international trade agreements, that regulate activities within the lifecycle of artificial intelligence systems falling within the scope of this Framework Convention. However, Parties must respect the object and purpose of the Framework Convention when doing so and therefore cannot have obligations that would defeat its object and purpose.  146. 第27条第1項は、締約国は、この枠組み条約の範囲に含まれる人工知能システムのライフサイクル内の活動を規制する国際貿易協定を含め、この枠組み条約以前に締結された協定または条約を自由に適用することができると規定している。しかし、締約国は、その際、枠組み条約の目的および趣旨を尊重しなければならず、したがって、その目的および趣旨を破壊するような義務を負うことはできない。 
147. Paragraph 2 of this article also acknowledges the increased integration of the European Union, particularly as regards regulation of artificial intelligence systems. This paragraph, therefore, permits European Union member States to apply European Union law that governs matters dealt with in this Framework Convention between themselves. The Drafters intended European Union law to include measures, principles and procedures provided for in the European Union legal order, in particular laws, regulations or administrative provisions as well as other requirements, including court decisions. Paragraph 2 is intended, therefore, to cover the internal relations between European Union member States and between European Union member States and institutions, bodies, offices and agencies of the European Union. The same clause should also apply to other Parties that apply European Union rules to the extent they are bound by these rules in view of their participation in the European Union internal market or being subject to internal market treatment.  147. 本条第2項はまた、特に人工知能システムの規制に関して、欧州連合の統合が進んでいることを認めている。したがって本項は、欧州連合加盟国が、この枠組み条約で扱われる事項を規定する欧州連合法を、加盟国間で適用することを認めるものである。起草者らは、欧州連合法には、欧州連合の法秩序、特に法律、規則、行政規定、および判決を含むその他の要件に規定される措置、原則、および手続きが含まれることを意図している。したがって第2項は、欧州連合加盟国間および欧州連合加盟国と欧州連合の機構、団体、事務所および機関との間の内部関係を対象とすることを意図している。同条項は、欧州連合域内市場への参加または域内市場待遇の適用を受けるという観点から、欧州連合規則を適用する他の締約国にも適用されるものとする。 
148. This provision does not affect the full application of this Framework Convention between the European Union or Parties that are members of the European Union, and other Parties. This provision similarly does not affect the full application of this Framework Convention between Parties that are not members of the European Union to the extent they are also bound by the same rules and other Parties to the Framework Convention.  148. この規定は、欧州連合又は欧州連合の加盟国である締約国と他の締約国との間におけるこの枠組み条約の完全な適用に影響を及ぼすものではない。この規定は、同様に、欧州連合に加盟していない締約国も同じ規則に拘束される限りにおいて、欧州連合に加盟していない締約国とその他の枠組み条約の締約国との間のこの枠組み条約の完全な適用に影響を与えない。 
Article 28 Amendments  第28条 改正 
149.This article provides for a possibility of amending the Framework Convention and establishes the mechanism for such process. This amendment procedure is primarily intended to be for relatively minor changes of a procedural and technical character. The Drafters considered that major changes to the Framework Convention could be made in the form of amending protocols.  149. 149.本条は、枠組み条約を改正する可能性をプロバイダとして規定し、そのためのメカニズムを確立する。この改正手続きは主に、手続き的・技術的性格の比較的小さな変更を意図している。起草者は、枠組み条約の大きな変更は、議定書の改正という形で行うことができると考えた。 
150. Amendments to the provisions of the Framework Convention may be proposed by a Party, the Committee of Ministers of the Council of Europe or the Conference of the Parties. These amendments shall then be communicated to the Parties to the Framework Convention.  150. 枠組み条約の規定の改正は、締約国、欧州評議会閣僚委員会または締約国会議が提案することができる。これらの改正は、その後、枠組み条約の締約国に通知される。 
151. On any amendment proposed by a Party or the Committee of Ministers, the Conference of the Parties shall submit to the Committee of Ministers its opinion on the proposed amendment.  151. 締約国又は閣僚委員会が提案した修正案について、締約国会議は、閣僚委員会にその修正案についての意見を提出する。 
152. The Committee of Ministers shall consider the proposed amendment and any opinion submitted by the Conference of the Parties and may approve the amendment.  152. 閣僚委員会は、改正案及び締約国会議が提出した意見を検討し、改正案を承認することができる。 
153. In accordance with paragraphs 5 and 6, any amendment approved by the Committee of Ministers would come into force only when all Parties have informed the Secretary General of the Council of Europe of their acceptance. This requirement seeks to ensure equal participation in the decision-making process for all Parties and that the Framework Convention will evolve in a uniform manner.  153. 第5項および第6項に従い、閣僚委員会で承認された改正は、すべての締約国が欧州評議会事務総長に受諾を通知した場合にのみ発効する。この要件は、すべての締約国の意思決定プロセスへの平等な参加を確保し、枠組み条約が統一された形で発展することを目指すものである。 
Article 29 – Dispute settlement  第29条 紛争解決 
154. The Drafters considered it important to include in the text of the Framework Convention an article on dispute settlement, which imposes an obligation on the Parties to seek a peaceful settlement of any dispute concerning the application or the interpretation of the Framework Convention through negotiation or any other peaceful means of their choice.  154. 起草者は、枠組み条約の条文に紛争解決に関する条項を盛り込むことが重要であると考えた。この条項では、締約国に対し、枠組み条約の適用または解釈に関するいかなる紛争についても、交渉またはその他自らが選択する平和的手段を通じて平和的解決を図る義務を課している。 
155. In addition to negotiation as specifically mentioned in the first paragraph of this article, Parties may have recourse to any other peaceful means of their choice, as referred to in Article 33 of the Charter of the United Nations. As provided in Article 23, they may also, by mutual consent, turn to the Conference of the Parties at any stage. The provision does not speak further about any specific procedures to be adopted in the context of a potential disputes. Any procedure for solving disputes shall be agreed upon by the Parties concerned.  155. 締約国は、本条第一項に具体的に規定する交渉のほか、国際連合憲章第三十三条にいう選択する他の平和的手段に訴えることができる。第23条に規定されているとおり、締約国は、相互の合意により、いかなる段階においても、締約国会議に訴えることもできる。同条項は、潜在的な紛争との関連で採用される具体的な手続きについ ては、これ以上触れていない。紛争解決のための手続きは、関係締約国が合意するものとする。 
Article 30 – Signature and entry into force  第30条 署名と発効 
156. Paragraph 1 states that the Framework Convention is open for signature by Council of Europe member States, non-member States that participated in its elaboration (Argentina, Australia, Canada, Costa Rica, the Holy See, Israel, Japan, Mexico, Peru, the United States and Uruguay) and the European Union. Once the Framework Convention enters into force, in accordance with paragraph 3, other non-member States not covered by this provision may be invited to accede to the Framework Convention in accordance with Article 31, paragraph 1.  156. 第1項では、枠組み条約は欧州評議会加盟国、その作成に参加した非加盟国(アルゼンチン、オーストラリア、カナダ、コスタリカ、ローマ教皇庁、イスラエル、日本、メキシコ、ペルー、米国、ウルグアイ)、および欧州連合が署名することができるとしている。枠組み条約の発効後は、第3項に従い、この規定の適用を受けない他の非加盟国に対し、第31条第1項に従い、枠組み条約への加盟を求めることができる。 
157. Paragraph 2 states that the Secretary General of the Council of Europe is the depositary of the instruments of ratification, acceptance or approval of this Framework Convention.  157. 第2項では、欧州評議会事務総長がこの枠組み条約の批准書、受諾書または承認書の寄託者であるとしている。 
158. Paragraph 3 sets the number of ratifications, acceptances or approvals required for the Framework Convention’s entry into force at five. At least three of these must be made by Council of Europe members, in accordance with the treaty-making practice of the Organisation.  158. 第3項では、枠組み条約の発効に必要な批准、受諾、承認の数を5つと定めている。このうち少なくとも3件は、欧州評議会の条約制定慣行に従い、欧州評議会の加盟国が批准しなければならない。 
Article 31 Accession  第31条 加盟 
159.After the entry into force of this Framework Convention, the Committee of Ministers of the Council of Europe may, after consulting the Parties to this Framework Convention and obtaining their unanimous consent, invite any non-member State of the Council of Europe which has not participated in the elaboration of the Framework Convention to accede to it. This decision requires the two-third majority provided for in Article 20.d of the Statute of the Council of Europe, and the unanimous vote of the representatives of the Parties entitled to sit on the Committee of Ministers.  159. この枠組条約の発効後、欧州評議会の閣僚委員会は、この枠組条約の締約国と協議し、その全会一致の同意を得た後、この枠組条約の作成に参加していない欧州評議会の非加盟国に対し、この枠組条約への加盟を要請することができる。この決定には、欧州評議会規約第20条dに規定されるサードパーティーの過半数、および閣僚委員会に出席する権利を有する締約国の代表者の全会一致による投票が必要である。 
Article 32 – Territorial application  第32条 適用地域 
160. Paragraph 1 is a clause on territorial application such as those often used in international treaty practice, including in the conventions elaborated within the Council of Europe. Any Party may specify the territory or territories to which the Framework Convention applies. It is well understood that it would be incompatible with the object and purpose of the Framework Convention for any Party to exclude parts of its territory from application of the Framework Convention without valid reason (such as the existence of different legal status or different legal systems applying in matters dealt with in the Framework Convention).  160. 第1項は、欧州評議会内で作成された条約を含め、国際条約の慣行でしばしば用いられるような、領域適用に関する条項である。いずれの締約国も、枠組み条約を適用する領土を指定することができる。いずれの締約国も、正当な理由(枠組み条約で扱われる事項において適用される法的地位や法制度が異なるなど)なしに、自国の領土の一部を枠組み条約の適用から除外することは、枠組み条約の目的および趣旨と相容れないことがよく理解されている。 
161. Paragraph 2 is concerned with the extension of application of the Framework Convention to territories for whose international relations the Parties are responsible or on whose behalf they are authorised to give undertakings.  161. 第2項は、締約国が国際関係に責任を負い、または締約国に代わって約束する権限を有する地域への枠組み条約の適用拡大に関するものである。 
Article 33 – Federal clause  第33条 連邦条項 
162. Consistent with the goal of enabling the largest possible number of States to become Parties to the Framework Convention, Article 33 allows for a reservation which is intended to accommodate the difficulties federal States may face as a result of their characteristic distribution of power between central and regional authorities and the fact that in some systems federal governments of the particular country may not be constitutionally competent to fulfil the treaty obligations. Precedents exist for federal declarations or reservations to other international agreements , including, within the framework of the Convention on Cybercrime (ETS No.185) on enhanced co-operation and disclosure of electronic evidence of 23 November2001 (Article 41).  162. 可能な限り多くの国が枠組み条約の締約国となることを可能にするという目標に沿い、第33条は、連邦国家が、中央当局と地域当局との間の権力分配の特徴や、特定の国の連邦政府が憲法上条約義務を履行する能力がない場合があるという事実の結果として直面する可能性のある困難に対応することを意図した留保を認めている。2001年11月23日のサイバー犯罪に関する条約(ETS No.185)の協力強化および電子証拠の開示に関する枠組み(第41条)を含め、他の国際協定( )に対する連邦政府の宣言または留保の前例は存在する。 
163. Article 33 recognises that some variations in coverage may occur as a result of wellestablished domestic law and practice of a Party which is a federal State. Such variations must be based on its Constitution or other fundamental principles and practices concerning the division of powers in relation to the matters covered by the Framework Convention between the central government and the constituent States or territorial entities of a federal State.  163. 第33条は、連邦国家である締約国の確立された国内法および慣行の結果として、適用範囲にいくつかの差異が生じる可能性があることを認めている。そのような変動は、中央政府と連邦国家の構成州または領域事業体との間の枠組み条約の対象事項に関する権限の分割に関する、その国の憲法またはその他の基本原則および慣行に基づいていなければならない。 
164. Some articles of the Framework Convention contain requirements to adopt or maintain legislative, administrative or other measures that a federal State may be unable to require its constituent States or other similar territorial entities to adopt or maintain.  164. 枠組み条約のいくつかの条文には、連邦国がその構成国や他の類似の領域事業体に対して採用や維持を要求できない可能性のある立法、行政、その他の措置の採用や維持の要求が含まれている。 
165. In addition, paragraph 2 of Article 33 provides that, in respect of provisions the implementation of which falls within the legislative jurisdiction of the constituent States or other similar territorial entities, the federal government shall refer the provisions to the authorities of these entities with a favourable endorsement, encouraging them to take appropriate action to give them effect.  165. さらに、第33条第2項は、その実施が構成国またはその他の類似の事業体の立法管轄権に属する条項については、連邦政府は、これらの事業体の当局に好意的な支持を与え、これらの事業体がその効力を発揮するための適切な措置をとるよう促すものとする、と定めている。 
Article 34 Reservations  第34条 予約 
166.Article 34 specifies that a State may make use of the reservation provided for in Article 33, paragraph 1, either at the moment of signing or upon depositing its instrument of ratification, acceptance, approval, or accession.  166. 第34条は、第33条第1項に規定される留保は、署名の時点、または批准書、受諾書、承認書、加盟書を寄託する時点のいずれにおいても利用できると規定している。 
167. Paragraph 2 specifies that no reservation may be made in relation to any provision of this Framework Convention, with the exceptions provided for in paragraph 1 of this article.  167. 第2項は、本条第1項に規定する例外を除き、この枠組み条約のいかなる規定に関しても留保を行うことができないことを規定している。 
Article 35 – Denunciation  第35条 告訴 
168. In accordance with the United Nations Vienna Convention on the Law of Treaties, Article 35 allows any Party to denounce the Framework Convention at any time. The sole requirement is that the denunciation be notified to the Secretary General of the Council of Europe who shall act as depository of the Framework Convention.  168. 国際連合条約法に関するウィーン条約に従い、第35条では、いかなる締約国もいつでも枠組み条約を破棄することができる。唯一の要件は、枠組み条約の寄託機関として機能する欧州評議会事務総長に、その放棄を通知することである。 
169. This denunciation takes effect three months after it has been received by the Secretary General.  169. この糾弾は、事務総長が受理してから3カ月後に発効する。 
Article 36 – Notification  第36条 通知 
170. Article 36 lists the notifications that, as the depositary of the Framework Convention, the Secretary General of the Council of Europe is required to make, and also designates the recipients of these notifications (States and the European Union).  170. 第36条には、枠組み条約の寄託者である欧州評議会事務総長が行うべき通達が列挙されており、また、これらの通達の取得者(国および欧州連合)も指定されている。 
   

 

 

|

« 外務省 第3回北朝鮮サイバー脅威に関する日米韓外交当局間作業部会の開催 | Main | 米国 国防総省 NSAのAI安全保障センター長の話... »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 外務省 第3回北朝鮮サイバー脅威に関する日米韓外交当局間作業部会の開催 | Main | 米国 国防総省 NSAのAI安全保障センター長の話... »