« 米国 連邦取引委員会 (FTC) 消費者をだまし、罠にかける巧妙なダークパターンが増加している | Main | 米国 デジタル資産の責任ある開発に関する包括的フレームワーク (2022.09.16) »

2022.09.20

米国 ITI AIシステムの透明性を実現するためのグローバルな政策原則 (2022.09.15)

こんにちは、丸山満彦です。

Information Technology Industry Council (ITI) [wikipedia]、日本語で言えば、IT産業協議会ですかね、、、が、AIシステムの透明性を実現するためのグローバルな政策原則を公表していますね。。。

透明性が重要と言っていますね。。。ただ、全てのAIシステムにそれが必要というわけではなく、特定のリスクの高いAIシステムの用途に透明性要件を適用することであると説明していますね。。。特定のリスクの高いAIシステムの用途というのは、特に健康、安全、自由、差別、人権に関連し、負の結果が人々に大きな影響を与える可能性がある用途という感じですね。。。

  1. 透明性要求の究極の目的は何かを検討する。
  2. 透明性要求の対象者と、AIシステムのライフサイクルのどの時点で適用されるかを検討する。
  3. 要求事項を検討する際には、透明性に関してリスクベースのアプローチをとる。
  4. 規制や政策提案の文脈で、透明性とは何を意味するのか、明確な定義を含める。
  5. 透明性にアプローチし、信頼を向上させるには様々な方法があり、説明可能性は1つの要素に過ぎないことを考慮する。
  6. 基本的権利に悪影響を及ぼす可能性のある AI システムの決定を理解するために十分な情報を利用者に提供し、利用者がそのような決定を見直し、異議を申し立てることができるようにすることを意図した規定を、法律内に含めることを検討する。
  7. 透明性要件が、機密性の高いIPやソースコードの開示、あるいは機密性の高い個人データの開示を企業に要求しないことを確認する。
  8. 様々なAIの透明性要件の相互運用性を維持するために、可能な限り任意の国際基準を活用する。
  9. AIシステムが利用者と直接対話する場合、その事実を容易に発見できるようにすべきであり、開示要件がこれを促進するのに役立つことを考慮する。
  10. 開示に係る規制は柔軟であるべきであり、含まれるべき特定の情報や技術的な詳細を規定することは避けるべきである。
  11. AIシステムの実際の導入者のみが情報開示の責任を負うべきである。

 

Information Technology Industry Council (ITI) 

・2022.09.15 ITI Publishes Global Policy Principles for Enabling Transparency of AI Systems

ITI Publishes Global Policy Principles for Enabling Transparency of AI Systems ITI、AIシステムの透明性を実現するためのグローバルな政策原則を発表
WASHINGTON – Today, global tech trade association ITI published new Policy Principles for Enabling Transparency of AI Systemsto help inform and guide policymaking. In its principles, ITI underscores that transparency is a critical part of developing accountable and trustworthy AI systems and avoiding unintended outcomes or other harmful impacts. At the highest level, transparency is about being clear about how an AI system is built, operated, and functions. When executed well, AI transparency can help to analyze outputs and hold appropriate AI stakeholders accountable. ワシントン - 本日、世界的な技術業界団体である ITI は、政策立案の情報提供と指針として、AI システムの透明性を実現するための新しいポリシー原則を発表した。ITIはその原則の中で、透明性は、説明可能で信頼できるAIシステムを開発し、意図しない結果やその他の有害な影響を回避するための重要な要素であることを強調している。最も高いレベルでは、透明性とは、AIシステムがどのように構築され、運用され、機能するかを明確にすることである。うまく実行されれば、AIの透明性は、アウトプットを分析し、適切なAI関係者に説明責任を負わせるのに役立つ。
Among its principles, ITI recommends policymakers empower users by including provisions within legislation that provide sufficient information to understand decisions of an AI system that may negatively affect users’ fundamental rights and give them the ability to review and/or challenge such decisions. ITI also outlines the need to make it clear to users when they are interacting directly with an AI system. ITIは、その原則の中で、政策立案者が利用者の基本的権利に悪影響を及ぼす可能性のあるAIシステムの決定を理解するのに十分な情報を提供し、そのような決定を見直し、異議を申し立てる能力を与える条項を法律内に盛り込むことによって、利用者に権限を与えることを推奨している。また、ITIは、利用者がAIシステムと直接対話する際に、それを明確にする必要があることを概説している。
“Transparency of AI systems has rightfully been a prime focus for policymakers in the U.S. and across the globe,” said ITI’s President and CEO Jason Oxman. “Regulations must effectively mitigate risk for users while preserving innovation of AI technologies and encouraging their uptake. ITI’s Policy Principles for Enabling Transparency of AI Systems offer a clear guide for policymakers to learn about and facilitate greater transparency of AI systems.” ITIの会長兼CEOであるJason Oxmanは、「AIシステムの透明性は、米国および世界中の政策立案者にとって当然のことながら主要な焦点となっている」と述べている。 「規制は、AI技術のイノベーションを維持し、その普及を促進しながら、利用者のリスクを効果的に軽減するものでなければならない。ITIの「AIシステムの透明性を実現するための政策原則」は、政策立案者がAIシステムについて学び、その透明性を高めることを促進するための明確な指針を提供する。"と述べている。
AI systems are comprised of sets of algorithms, which are capable of learning and evolving, whereas an algorithm alone is usually more simplistic, often executing a finite set of instructions. ITI’s Policy Principles for Enabling Transparency of AI Systems suggest that the most effective way to approach policymaking around transparency is to apply transparency requirements to specific, high-risk uses of AI systems – which are applications in which a negative outcome could have a significant impact on people — especially as it pertains to health, safety, freedom, discrimination, or human rights. AIシステムは、学習と進化が可能なアルゴリズムの集合で構成されているが、アルゴリズムだけでは通常もっと単純で、有限の命令セットを実行することが多い。ITIのAIシステムの透明性を実現するためのグローバルな政策原則は、透明性に関する政策立案にアプローチする最も効果的な方法は、特定のリスクの高いAIシステムの用途に透明性要件を適用することであると示唆している。これは、特に健康、安全、自由、差別、人権に関連し、負の結果が人々に大きな影響を与える可能性がある用途のことである。
ITI’s Policy Principles for Enabling Transparency of AI Systems advise policymakers to: ITIの「AIシステムの透明性を実現するための政策原則」は、政策立案者に次のように助言している。
・Consider what the ultimate objective of transparency requirements are. ・透明性要求の究極の目的は何かを検討する。
・Consider the intended audience of any transparency requirements and at what point of the AI system lifecycle they would apply. ・透明性要求の対象者と、AIシステムのライフサイクルのどの時点で適用されるかを検討する。
・Take a risk-based approach to transparency when considering requirements. ・要求事項を検討する際には、透明性に関してリスクベースのアプローチをとる。
・Include clear definitions of what is meant by transparency in the context of a regulation or policy proposal. ・規制や政策提案の文脈で、透明性とは何を意味するのか、明確な定義を含める。
・Consider that there are different ways to approach transparency and improve trust, and that explainability is only one component. ・透明性にアプローチし、信頼を向上させるには様々な方法があり、説明可能性は1つの要素に過ぎないことを考慮する。
・Consider including provisions within legislation that are intended to provide users with sufficient information to understand decisions of an AI system that may negatively affect their fundamental rights and provide users with the ability to review and/or challenge such decisions. ・基本的権利に悪影響を及ぼす可能性のある AI システムの決定を理解するために十分な情報を利用者に提供し、利用者がそのような決定を見直し、異議を申し立てることができるようにすることを意図した規定を、法律内に含めることを検討する。
・Ensure that transparency requirements do not require companies to divulge sensitive IP or source code or otherwise reveal sensitive individual data. ・透明性要件が、機密性の高いIPやソースコードの開示、あるいは機密性の高い個人データの開示を企業に要求しないことを確認する。
・Leverage voluntary international standards in order to maintain interoperability of various AI transparency requirements to the extent possible. ・様々なAIの透明性要件の相互運用性を維持するために、可能な限り任意の国際基準を活用する。
・Consider that when an AI system is directly interacting with a user, that fact should be easily discoverable and that disclosure requirements can help facilitate this. ・AIシステムが利用者と直接対話する場合、その事実を容易に発見できるようにすべきであり、開示要件がこれを促進するのに役立つことを考慮する。
・Regulations pertaining to disclosure should be flexible and avoid prescribing specific information or technical details to be included. ・開示に係る規制は柔軟であるべきであり、含まれるべき特定の情報や技術的な詳細を規定することは避けるべきである。
・Only the actual deployer of the AI system should be responsible for disclosure. ・AIシステムの実際の導入者のみが情報開示の責任を負うべきである。
These principles build on ITI’s Global AI Policy Recommendations, released in 2021, which offered a comprehensive set of policy recommendations for global policymakers seeking to foster innovation in AI while also addressing specific harms. この原則は、2021年に発表されたITIのグローバルAI政策提言に基づくもので、特定の害悪に対処しつつAIのイノベーションを促進しようとする世界の政策立案者に包括的な政策提言を提供するものである。

 

・[PDF] ITI Policy Principles for Enabling Transparency of AI Systems

20220920-33756

 

 

 

 

 

As Artificial Intelligence (AI) continues to evolve, policymakers are increasingly focused on how to best approach potential risks stemming from use of the technology.  人工知能(AI)が進化を続ける中、政策立案者は、この技術の利用から生じる潜在的なリスクにどのようにアプローチするのが最善であるかにますます注目している。
In 2021, ITI released our Global AI Policy Recommendations, which offered a comprehensive set of policy recommendations for global policymakers seeking to foster innovation in AI while also addressing specific harms. A key tenet of those recommendations was that fostering acceptance and trust in AI systems1 is a shared responsibility and requires developers, industry, and policymakers to work together to collectively achieve that trust. Therefore, in those recommendations, we focused on facilitating public trust in and understanding of AI systems. 2021年、ITIは「グローバルAI政策提言」を発表し、AIにおけるイノベーションを促進しつつ、特定の危害に対処しようとする世界の政策立案者に向けた包括的な政策提言セットを提供した。これらの提言の主要な考え方は、AIシステム1に対する受容と信頼を醸成することは、共通の責任であり、開発者、産業界、政策立案者が協力して、その信頼を総体的に達成することが必要である、というものであった。そのため、これらの提言では、AIシステムに対する国民の信頼と理解を促進することに焦点を当てた。
We encouraged governments to consider how to best promote the development of meaningfully explainable AI systems as one way to foster accountability, which therefore builds trust. Indeed, understanding how and/or why a system made the decision it did is critical to facilitating accountability. However, the broader concept of transparency is an important aspect of and necessary to developing accountable and trustworthy AI systems and avoiding unintended outcomes or other harmful impacts. 私たちは、説明責任を果たし、信頼を築くための一つの方法として、意味のある説明が可能なAIシステムの開発を促進する最善の方法を検討するよう政府に呼びかけた。実際、システムがどのように、あるいはなぜそのような判断をしたのかを理解することは、説明責任を果たす上で非常に重要である。しかし、より広範な透明性の概念は、説明責任を果たし信頼できるAIシステムを開発し、意図しない結果やその他の有害な影響を回避するために重要な側面であり必要なものである。
Accountability generally refers to the commitment that organizations (or individuals) will work to ensure that the AI systems they design, develop, or deploy function properly throughout their lifecycle and that they will implement mechanisms to demonstrate responsible AI systems development through their actions, including governance at the organizational level.2 In the context of transparency, accountability refers to the need for organizations to make sure users are aware of the fact that they are interacting with an AI system, including, where appropriate, to provide them with an explanation and justification for a particular decision or outcome.3 説明責任とは、一般に、組織(または個人)が、設計、開発、または配備したAIシステムがそのライフサイクルを通じて適切に機能するよう努めること、および組織レベルでのガバナンスを含め、自らの行動を通じて責任あるAIシステム開発を実証するメカニズムを導入することを意味する2。
As policymakers increasingly consider applying broad transparency requirements, they should be aware of the complexity inherent within that concept, as well as understand the various different types of transparency that can be achieved. They should also consider the ultimate objective of and audience for transparency requirements; take a risk-based approach to transparency requirements; include clear definitions of what is meant by transparency; consider that there are different ways to approach transparency; consider including provisions within legislation that are intended to provide users with sufficient information to understand decisions of an AI system that may negatively affect their fundamental rights and provide users with the ability to review and/or challenge such decisions; ensure transparency requirements do not implicate sensitive IP or source code; leverage voluntary international standards; and consider the role of disclosure requirements. 政策立案者は、広範な透明性要件の適用をますます検討するようになっているが、この概念に内在する複雑さを認識し、達成可能なさまざまな種類の透明性を理解する必要がある。また、透明性要件の最終的な目的と利用者を考慮し、透明性要件にリスクベースのアプローチを取り、透明性が意味するものの明確な定義を含み、透明性にアプローチする様々な方法があることを考慮し、利用者の基本的権利に悪影響を与える可能性のある AI システムの決定を理解するために十分な情報を利用者に提供し、利用者に当該決定をレビュー及び/又は異議を申し立てる権利を提供するための条項を法律内に含めることを検討し、透明性要件は機密性の高い IP やソースコードには関係しないこと、任意の国際規格を活用し、開示要件の役割について考察することが必要である。
The purpose of this document is twofold – first, to educate policymakers about transparency in the context of AI systems, and second, to offer suggested policy approaches to facilitating greater transparency of AI systems. We stress that the better policymaking approach is to apply transparency requirements to specific, highrisk uses of AI systems, as opposed to imposing requirements on the transparency of algorithms which, although an important part of AI systems, are also an integral component of a much broader set of technologies used in a wide variety of settings. Indeed, it is the context in and purpose for which the algorithm is used that matters—not the fact that an algorithm is used in and of itself— and policymakers should recognize that there are many contexts in which providing transparency is likely not necessary. 本書の目的は2つある。1つは、AIシステムの文脈における透明性について政策立案者を教育すること、もう1つは、AIシステムの透明性向上を促進するための政策アプローチを提案することである。私たちは、より良い政策立案アプローチとは、AIシステムの重要な部分でありながら、様々な場面で使用されるより幅広い技術の不可欠な構成要素でもあるアルゴリズムの透明性に要件を課すのではなく、リスクの高い特定の使用法に透明性要件を適用することであると強調している。実際、重要なのはアルゴリズムが使用される文脈と目的であり、アルゴリズムが使用されることそれ自体ではなく、政策立案者は透明性を提供する必要がないと思われる多くの文脈があることを認識する必要がある。
What is transparency? 透明性とは何か?
At the highest level, transparency is about being clear about how an AI system is built, operated, and functions. When executed well, AI transparency can help analyze outputs and hold appropriate AI stakeholders accountable. 最も高いレベルでは、透明性とは、AIシステムがどのように構築され、運用され、機能するかを明確にすることである。うまく機能すれば、AIの透明性は、アウトプットを分析し、適切なAI関係者に説明責任を持たせるのに役立つ。
Transparency in the context of an AI system can take many forms, including explainability, interpretability, and disclosure. Transparency can mean making a user aware that they are interacting with an AI system, or that appropriate information about an AI system is made available to relevant stakeholders. Transparency can also enable a user or a regulator to understand the way that a system has made a particular prediction, decision or series of decisions. While the term transparency is sometimes used interchangeably with its component parts, which are further elaborated on below, the terms are not synonymous. In considering how to facilitate transparency of AI systems, it is thus important that policymakers understand the difference between these key terms, including to what and to whom they apply. AIシステムの文脈における透明性は、説明可能性、解釈可能性、開示など、多くの形態を取ることができる。透明性とは、利用者がAIシステムとやりとりしていることを認識させること、あるいはAIシステムに関する適切な情報が関係者に提供されることを意味する。また、透明性は、システムが特定の予測、判断、一連の判断を行った方法を、利用者や規制当局が理解できるようにすることもできる。透明性という用語は、以下に詳しく説明するその構成要素と互換的に使用されることがあるが、この用語は同義ではありません。したがって、AIシステムの透明性を高める方法を検討する際には、政策立案者がこれらの重要な用語の違いを理解することが重要であり、何を、誰に適用するのかを含めて検討する必要がある。
Understanding Explainability 説明可能性の理解
Explainability is the property of an AI system to express important factors influencing the AI system results in a way that humans can understand. It is intended to answer the question “why” an AI system made the decision it did without arguing that the course of action that was taken was necessarily optimal. While the term interpretability is oftentimes used interchangeably with the term explainability, for the purposes of driving interoperability and alignment, we use the term “explainability” as defined and published in the applicable ISO standard.4 説明可能性とは、AIシステムの結果に影響を与える重要な要素を、人間が理解できる形で表現できるAIの特性のことである。これは、AIシステムが「なぜ」そのような判断をしたのかという問いに答えるためのもので、必ずしもその判断が最適であったとは言い切れない。解釈可能性という用語は、しばしば説明可能性という用語と同じ意味で使用されるが、相互運用性と整合性を高めるため、適用されるISO規格で定義され公開されている「説明可能性」という用語を使用している4。
Disclosure generally refers to making a user aware of the fact that they are interacting with or using an AI system – usually in “real time” or during the use of the system. 情報開示とは、一般に、利用者がAIシステムと相互作用していること、またはAIシステムを使用していることを、通常「リアルタイム」で、またはシステムの使用中に認識させることを指す。
A helpful conceptual distinction may be viewing explainability as explaining the outputs of an AI model in a way that humans understand, focused more on the how, and interpretability as allowing humans to understand the inputs and outputs of the AI model, focusing more on the cause of the decision. 概念的な区別として、説明可能性とは、AIモデルの出力を人間が理解できるように説明することであり、より方法に重点を置くこと、解釈可能性とは、AIモデルの入力と出力を人間が理解できるようにし、より判断の原因に重点を置くことであると考えると分かりやすいかもしれない。
Policy Principles for Enabling Transparency of AI Systems AIシステムの透明性を実現するための政策原則
Consider what the ultimate objective of transparency requirements are. To the extent that policymakers are considering including transparency requirements in a policy proposal, we encourage them to think about what the ultimate objective of such requirements are. Is it to ensure that the user knows that they are interacting with an AI system? Is it to provide a post-hoc explanation to users about a decision that was made and provide them with an appropriate redress mechanism should the decision negatively impact them? Is it to help researchers and developers5 test and validate the AI model or system? Is it to enable the AI system deployer to investigate an incident? 透明性要求の究極の目的は何かを考える。政策立案者が政策提案に透明性要件を含めることを検討している範囲では、そのような要件の究極の目的は何かについて考えることを勧める。それは、利用者がAIシステムとインタラクトしていることを確実に知るためか?利用者に対して、行われた決定についてその場しのぎの説明を行い、その決定が利用者に悪影響を与えた場合に適切な救済メカニズムを提供するためか?研究者や開発者5がAIモデルやシステムをテストし、検証するのを助けるためか?AIシステムの配備者がインシデントを調査できるようにするためか?
Is it to enable and authorize regulators or third parties such as auditors to evaluate a system’s safety features? Or is it something else? Understanding the answers to these questions is critical to determining the ultimate direction of the policy proposal and what approach is most appropriate to help achieve that objective. 規制当局や監査人などの第三者が、システムの安全機能を評価することを可能にし、権限を与えるためか?それとも、それ以外のためか?これらの質問に対する答えを理解することは、政策提案の最終的な方向性と、その目的の達成を助けるためにどのようなアプローチが最も適切かを決定するために重要である。
Consider the intended audience of any transparency requirements and at what point of the AI system lifecycle they would apply. Policymakers should also consider the target audience at which transparency requirements are directed, including their level of expertise. They should also consider when such requirements would apply (e.g., pre-deployment or postdeployment). For example, transparency could be useful to several different audiences (e.g., regulators, consumers, developers, etc.), which will in turn influence requirements. 透明性要求の対象者と、AIシステムのライフサイクルのどの時点で適用されるかを検討する。政策立案者は、透明性要件が対象とする読者について、その専門知識のレベルも含めて検討する必要がある。また、そのような要件がいつ適用されるのか(例えば、配備前、配備後)についても検討する必要がある。例えば、透明性は複数の異なる対象者(例えば、規制当局、消費者、開発者など)にとって有用であり、その結果、要件に影響を与えることになる。
Understanding the intended audience will also inform the type of information presented, the manner in which it is presented, and the amount of information presented. Indeed, if the purpose of a transparency requirement is to allow a user to understand how or why a decision was made and allow for redress, that will result in a very different set of information being provided than if such information is being provided to allow a regulator to evaluate a system for safety. 意図する対象者を理解することは、提示する情報の種類、提示の方法、および提示する情報の量にも影響する。実際、透明性要件の目的が、利用者がどのように、またはなぜ決定がなされたかを理解し、救済を可能にすることである場合、規制当局がシステムの安全性を評価するために提供される情報とは、非常に異なる情報のセットが提供されることになる。
Additionally, policymakers should ensure that their objectives align with post-deployment requirements, rather than pre-deployment requirements, which will likely be difficult, if not impossible, to efficiently implement. さらに、政策立案者は、その目的が、効率的に実施することが不可能ではないにしても困難である可能性が高い、展開前の要件ではなく、展開後の要件と一致することを確認する必要がある。
Finally, in thinking about the target audience, policymakers should also consider who will ultimately be required to comply with transparency requirements, and what information they may be required to provide. For instance, in the case of general purpose AI (GPAI) (i.e., general tools without an intended purpose and that can be used in a variety of usecases and end products), the deployer of the end products with a high-risk use case would likely be best placed to implement potential transparency requirements, rather than the original GPAI developer, who would not have access to key information such as the context in which the system is deployed, its final use, the input data, the group(s) on which the system’s outputs will have an impact, etc. 最後に、対象者を考える上で、政策立案者は、最終的に誰が透明性要件に従うことになるのか、また、どのような情報を提供することが求められるのかも考慮する必要がある。例えば、汎用 AI(GPAI)(すなわち、意図的な目的を持たず、様々なユースケースや最終製品で使用可能な汎用ツール) の場合、システムが展開される状況、その最終用途、入力データ、システムの出力が影響を与えるグループな ど、主要な情報にアクセスできないオリジナルの GPAI 開発者ではなく、リスクの高いユースケースを持つ最終 製品の展開者が、潜在する透明性の要件を実施する上で最も適していると思われる。
Take a risk-based approach to transparency when considering requirements. In devising any requirements around transparency, policymakers should consider the diversity of AI applications and what their ultimate usecase will be, given the level of need and desire for transparency requirements from various users may significantly vary based on the AI application or intended use. Many use cases present little to no risk to the user, and so imposing transparency requirements in such situations will likely add little value to the user and hinder innovation by adding onerous, disproportionate requirements. 要件を検討する際には、透明性に関してリスクベースのアプローチをとる。透明性に関する要件を考案する際、政策立案者は AI アプリケーションの多様性と、その最終的なユースケースが何であるかを考慮する必要がある。多くのユースケースは、利用者にとってほとんどリスクをもたらさないため、そのような状況で透明性要件を課すことは、利用者にとってほとんど価値をもたらさず、負担が大きく不釣り合いな要件を加えることによってイノベーションを妨げる可能性がある。
With this in mind, and in the context of postdeployment explainability requirements, we urge policymakers to remember that not all AI systems need to be explainable. It is our view that high-risk AI applications6 are a more appropriate target for post-hoc explainability requirements. このことを念頭に置き、配備後の説明可能性要件という文脈で、我々は政策立案者に、すべてのAIシステムが説明可能である必要はないことを記憶しておくよう促す。リスクの高いAIアプリケーション6が、事後的な説明可能性要件の対象としてより適切であるというのが、私たちの考えである。
Include clear definitions of what is meant by transparency in the context of a regulation or policy proposal.7 As a foundational matter, policymakers must take care to make clear what is meant by transparency in a regulation or policy proposal. Specifically, policymakers should include a definition of the term, what it applies to, who it applies to, and in what context it applies, including to clearly articulate any associated requirements. As outlined above, transparency can mean different things, so the lack of a clear definition of transparency in a policy or regulatory proposal may engender confusion and ultimately make it difficult for organizations to comply with or otherwise understand what it is they should be addressing. Policymakers should also be clear that when discussing transparency in the context of AI they are referring to the transparency of AI systems, as opposed to algorithmic transparency, which could apply more broadly. 規制や政策提案の文脈で、透明性とは何かを明確に定義する7 基礎的な問題として、政策立案者は、規制や政策提案において透明性とは何かを明確にするよう注意しなければならない。具体的には、政策立案者は、この用語の定義、適用対象、適用者、どのような文脈で適用されるのか、また、関連する要件を明確に説明することを含め、これを含める必要がある。上述のように、透明性にはさまざまな意味があるため、政策や規制の提案に透明性の明確な定義がないと、混乱を招き、最終的には組織が遵守すべき内容や、その他の面で理解することが困難になる可能性がある。また、政策立案者は、AIの文脈で透明性について議論する場合、より広範に適用できるアルゴリズムの透明性とは対照的に、AIシステムの透明性に言及していることを明確にする必要がある。
Consider that there are different ways to approach transparency and improve trust, and that explainability is only one component. While explainability is one way to approach transparency and therefore, engender trust, policymakers should recognize that it is not the only tool, nor is it a silver bullet solution.8 Indeed, there are other ways that can help to create trust and deploy AI responsibly, including, for example, using technical, procedural, or educational tools to ensure that AI systems are fair and robust.9 Another way one may approach transparency is to encourage certain stakeholders in the AI lifecycle to examine raw input data to understand the limitations of the dataset and account for and help manage potential bias, while respecting privacy. Policymakers should also understand there are limits to explainability in a variety of different contexts. For instance, in many cases explainability deployments are intended for machine-learning engineers to fix bugs in the model, as opposed to explaining the outcome to the users of those AI systems.10 Another limitation to consider is that explainability does not necessarily equate to a higher confidence level and could in some cases lead to a misplaced sense of confidence in or understanding of the AI system. Keeping the above in mind, we expand upon several of the points we set forth in our Global AI Policy Recommendations. 11 透明性と信頼性の向上には様々な方法があり、説明可能性はその1つの要素に過ぎないことを考慮すること。実際、信頼を築き、責任を持ってAIを導入するのに役立つ方法は他にもある。例えば、技術的、手続き的、または教育的なツールを使用して、AIシステムが公正かつ堅牢であることを確認することなどが挙げられる9。政策立案者は、様々な異なる文脈における説明可能性には限界があることも理解する必要がある。例えば、多くの場合、説明可能性の導入は、機械学習エンジニアがモデルのバグを修正することを目的としており、それらのAIシステムの利用者に結果を説明することとは対照的である。10 もう一つの考慮すべき限界は、説明可能性が必ずしも高い信頼レベルに相当せず、場合によってはAIシステムに対する誤った信頼感や理解をもたらす可能性があることである。以上のことを念頭に置きながら、「グローバルAI政策提言」で掲げたいくつかの点を発展させる。11
Consider including provisions within legislation that are intended to provide users with sufficient information to understand decisions of an AI system that may negatively affect their fundamental rights and provide users with the ability to review and/or challenge such decisions. Similar to provisions in privacy legislation that allow data subjects to request review of decisions taken solely on the basis of automated processing of data affecting their interests, we are supportive of provisions that would similarly allow users to request clear information regarding a decision that negatively impacted their fundamental rights and to challenge such decisions as appropriate, keeping in mind the below considerations on protecting sensitive IP and source code. As mentioned above, we are supportive of proactive disclosures that enable a consumer to understand if they are interacting with an AI system, and to access additional information about the AI system itself in situations where their fundamental rights may have been negatively impacted, keeping in mind the below considerations on protecting sensitive IP and source code, expectations on how the system will be used, and any known limitations associated with the system. That being said, policymakers should avoid being too prescriptive and allow flexibility so that organizations can tailor such information depending on context, use of, and level or risk associated with the system. 基本的権利に悪影響を及ぼす可能性のあるAIシステムの決定を理解するために十分な情報を利用者に提供し、そのような決定を見直し、異議を申し立てる能力を利用者に提供することを意図した規定を、法律内に含めることを検討する。データ主体が自分の利益に影響を与えるデータの自動処理のみに基づいて行われた決定の見直しを要求することを可能にするプライバシー法における規定と同様に、我々は、機密IPとソースコードの保護に関する以下の考慮事項を念頭に置き、利用者が自分の基本的権利に悪影響を与えた決定に関する明確な情報を要求し、適切にその決定に異議を申し立てることを可能にする規定を支持する。上記のとおり、我々は、消費者がAIシステムと相互作用しているかどうかを理解し、基本的権利に否定的な影響を与えた可能性がある状況においてAIシステム自体に関する追加情報にアクセスすることを可能にするプロアクティブな開示を支持し、機密性の高いIPおよびソースコードの保護、システムの使用方法に関する期待、およびシステムに関連するあらゆる既知の制限を念頭に置いている。とはいえ、政策立案者はあまりに規範的すぎるのは避け、組織が文脈、用途、システムに関連するリスクのレベルに応じてそうした情報を調整できるよう、柔軟性を認めるべきである。
Ensure that transparency requirements do not require companies to divulge sensitive IP or source code or otherwise reveal sensitive individual data. Any requirements around transparency should avoid requiring companies to divulge sensitive IP or source code. Disclosure of source code could seriously put at risk trade secrets, undermine IP rights, and contravene widely accepted best practices for digital trade. It could also pose risks to safety and security and allow malicious actors to manipulate an AI system. Moreover, providing access to source code would not yield the information necessary to understand the way in which an AI system made a decision. One way to ensure that sensitive IP or source code is protected is to insist that any AI transparency requirements are post-deployment only, and not imposed as predeployment requirements, and that any requests to access source code clearly outline why such access is necessary and by who. 透明性に関する要件が、機密性の高いIPやソースコードの開示、あるいは機密性の高い個人データの公開を企業に要求しないことを確認する。透明性に関するいかなる要件も、機密性の高いIPやソースコードの開示を企業に要求することを避けるべきである。ソースコードの開示は、企業秘密を著しく危険にさらし、IP権を弱体化させ、デジタル取引において広く受け入れられているベストプラクティスに反する可能性がある。また、安全性とセキュリティにリスクをもたらし、悪意のある行為者がAIシステムを操作することを可能にする可能性もある。さらに、ソースコードへのアクセスを提供しても、AIシステムがどのように意思決定を行ったかを理解するために必要な情報は得られないでしょう。機密性の高い知的財産やソースコードを確実に保護する方法として、AIの透明性要件は配備後のみとし、配備前の要件として課さないこと、ソースコードへのアクセス要求は、なぜそのようなアクセスが必要で、誰が行うのかを明確に説明することを主張することが挙げられます。
Leverage voluntary international standards in order to maintain interoperability of various AI transparency requirements to the extent possible. Seeking to participate in and leveraging international, consensusbased standards will be useful in helping to increase alignment, interoperability, and trust in AI systems. In particular, ISO/IEC SC 42 is in the process of developing several standards, including on transparency taxonomy and objectives for explainability of ML models and AI systems.12 様々なAI透明性要件の相互運用性を維持するために、可能な限り自主的な国際標準を活用すること。国際的なコンセンサスベースの規格に参加し活用することは、AI システムの整合性、相互運用性、信頼性を高めるために有効である。特に、ISO/IEC SC 42では、MLモデルやAIシステムの説明可能性に関する透明性分類や目標など、いくつかの規格を策定している最中である12。
Consider that when an AI system is directly interacting with a user, that fact should be easily discoverable and that disclosure requirements can help facilitate this. AI systems should be disclosed when they are playing a significant role in decision-making or interacting directly with users. Below, we offer three recommendations specific to transparency requirements as they relate to disclosure. AIシステムが利用者と直接対話する場合、その事実を容易に発見できるようにすべきであり、開示要件がこれを促進するのに役立つことを考慮する。AIシステムが意思決定において重要な役割を果たす場合や、利用者と直接対話する場合には、開示されるべきである。以下では、開示に関連する透明性要件に特化した3つの提言を行う。
• Ensure that disclosures use plain, clear language that is understandable to the user. Because the primary purpose of disclosure is to make users aware of the fact that they are interacting with an AI system, language should be plain and clear so that it is understandable to a wide audience. Disclosure should generally include high-level information, including a topline explanation of how an AI system works, known limitations on performance, and expectations around how the system will be used.13 ・開示には、利用者が理解できる平易で明確な言語を使用することを保証する。開示の主目的は、利用者がAIシステムと相互作用しているという事実を認識させることであるため、言語は、幅広いオーディエンスに理解できるよう、平易で明確であるべきである。情報開示は、一般に、AIシステムの仕組みの概要説明、性能に関する既知の制限、システムの使用方法に関する期待など、ハイレベルな情報を含むべきである13。
In some cases, it may be beneficial to provide more technical information within a disclosure – for example, if the user is a regulator reviewing the AI system. This information might include things like how well the AI system performs for industry standard evaluation datasets measured against key metrics; providing an indication of the frequency and cost weighting assigned to different errors (e.g., false negatives/false positives); and, if relevant, how the AI system’s performance compares to existing human performance benchmarks. 場合によっては、より技術的な情報を開示することが有益なこともある。例えば、利用者がAIシステムをレビューする規制当局である場合などである。この情報には、業界標準の評価データセットに対してAIシステムがどの程度のパフォーマンスを示すか、異なるエラー(例えば、偽陰性/偽陽性)に割り当てられた頻度とコストの重み付けの表示、および関連する場合、AIシステムのパフォーマンスが既存の人間のパフォーマンスベンチマークとどのように比較されるか、などが含まれるかもしれない。
• Regulations pertaining to disclosure should be flexible and avoid prescribing specific information or technical details to be included. Although we have offered some thoughts around what may be useful to include in a disclosure, it is important that regulation allows for flexibility because it may not be appropriate or useful to provide the same type of details in every context or for every target audience.14 開示に関する規制は柔軟であるべきで、含まれるべき特定の情報や技術的な詳細を規定することは避けなければならない。我々は、情報開示に含めると便利なものについていくつかの考えを示したが、あらゆる状況や対象者ごとに同じ種類の詳細を提供することが適切または有益であるとは限らないため、規制は柔軟性を持たせることが重要である14。
• Only the actual deployer of the AI system should be responsible for disclosure. The developer of an AI system cannot anticipate every single possible use case for its system, and as such, it should be the responsibility of the ultimate deployer – that is, the user that is deciding the means by and purpose for which the AI system is being used—to ensure that disclosure and other consumer-facing obligations are met. That said, the developer of the AI system should ensure that terms of sale do not prohibit disclosure. AIシステムの実際の導入者のみが開示の責任を負うべきである。AIシステムの開発者は,そのシステムのあらゆる可能なユースケースを予想することはできないため,開示やその他の消費者向け義務が満たされるようにするのは,最終的な導入者,すなわち,AIシステムを使用する手段や目的を決定するユーザーの責任であるべきである。とはいえAIシステムの開発者は、販売条件が開示を禁止していないことを確認する必要がある。
References  参考資料 
1. We define an AI system as a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments. AI systems are designed to operate with varying levels of autonomy. This is based on the OECD definition of AI.  1. 我々は、AIシステムを、人間が定義した特定の目的に対して、現実または仮想環境に影響を与える予測、推奨、または決定を行うことができる機械ベースのシステムとして定義している。AIシステムは、様々なレベルの自律性を持って動作するように設計されている。これは、OECDのAIの定義に基づくものである。
2. OECD AI Principles, available here :  2. OECD AI原則 
3.  A user means the person or entity who is ultimately interacting with or utilizing the AI system.  3. 利用者とは、最終的にAIシステムと対話する、または利用する個人または団体を意味する。
4. See ISO/IEC 22989: 2022 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology, which defines key AI terminology, including explainability. Available here. We also highlight additional ongoing work in ISO/IEC that will be useful for policymakers to stay abreast of in order to foster additional alignment moving forward, including ISO/IEC IS 12792 Artificial Intelligence – Transparency taxonomy of AI systems, ISO/IEC TS 5471 Artificial Intelligence – Quality evaluation for AI systems and ISO/IEC TS 6254 Artificial intelligence – Objectives and approaches for explainability of ML models and AI systems.  4. ISO/IEC 22989: 2022 Information technology - Artificial intelligence - Artificial intelligence concepts and terminologyを参照。説明可能性を含む主要なAI用語が定義されている。こちらで入手可能:  ISO/IEC IS 12792 Artificial Intelligence - Transparency taxonomy of AI systems, ISO/IEC TS 5471 Artificial Intelligence - Quality evaluation for AI systems, ISO/IEC TS 6254 Artificial intelligence - Objectives and approaches for explainability of ML models and AI systems など、政策立案者が常に把握しておくと、今後さらに連携を図る上で有用な、現在行われているその他の作業を取り上げている。
5. A developer (sometimes used interchangeably with producer) is the entity that is producing the AI system. In some cases, the AI system can be built into other products that are then deployed by a different entity. A deployer is the entity (sometimes used interchangeably with provider) that is deciding the means by and purpose for which the AI system is ultimately being used and puts the AI system into operation.  5. 開発者(プロデューサーと同じ意味で使われることもある)とは、AIシステムを生産している主体である。場合によっては、AIシステムは他の製品に組み込まれ、別の主体によってデプロイされることがある。展開者(provider)とは、AIシステムを最終的に利用する手段や目的を決定し、AIシステムを運用する主体(providerと同じ意味で使われることもある)のことである。
6. We consider an AI application to be high-risk when a negative outcome could have a significant impact on people — especially as it pertains to health, safety, freedom, discrimination, or human rights..  6. 私たちは、否定的な結果が人々に大きな影響を与える可能性がある場合、特に健康、安全、自由、差別、または人権に関連する場合、AIアプリケーションを高リスクと見なする。
7. For example, transparency is construed in different ways in the European Commission’s proposal for Regulation on AI (i.e. EU AI Act). Both Article 13 (1) and Article 52 (1) implicate transparency. Article 13(1) applies to deployers of a high-risk AI system and Article 52 (1) applies to deployers of a system that interact with natural persons. It is not clear how the provisions are related to each other, especially because 13(1) appears to implicate interpretability, whereas 52 (1) is more focused on disclosure. As such, we do not believe that the text sufficiently differentiates between the component parts of transparency and may therefore cause confusion. It is important to note that at the time of publication of this document, amendments to the text are being proposed, and so this issue may be resolved in the future..  7. 例えば、欧州委員会のAIに関する規制案(EU AI Act)では、透明性が異なる形で解釈されている。第13条1項と第52条1項の両方が透明性を意味する。第13条1項はリスクの高いAIシステムのデプロイメントに適用され、第52条1項は自然人と相互作用するシステムのデプロイメントに適用される。特に、13 条 1 項は解釈可能性に関わる規定と思われるが、52 条 1 項は開示に重点を置いているため、両規定がどのように関連しているかは明確ではない。このように、透明性の構成要素を十分に区別しているとは思えず、混乱を招きかねない。なお、本書の発行時点では、条文の修正が提案されているため、この問題は将来的に解決される可能性がある。
8. We encourage policymakers to review the OECD’s Tools for Trustworthy AI: A framework to compare implementation tools for trustworthy AI systems, available here. This may offer insight into other tools that are available to facilitate trustworthiness.  8. 我々は、政策立案者がOECDの「Tools for Trustworthy AI: A framework to compare implementation tools for trustworthy AI systems」を検討することを推奨する。これは、信頼性を促進するために利用可能な他のツールについての洞察を提供する可能性がある。
9. See the OECD Tools for Trustworthy AI: A framework to compare implementation tools for trustworthy AI systems, available here. The framework outlines various tools that can be used to facilitate trustworthiness as laid out in the OECD AI Principles, as well as ways to compare said tools.  9. OECD Tools for Trustworthy AI: A framework to compare implementation tools for trustworthy AI systems, available hを参照。このフレームワークでは、OECD AI原則で規定されている信頼性を促進するために使用できる様々なツールの概要と、当該ツールを比較する方法が示されている。
10. See Bhatt, et. al, Explainable Machine Learning in Deployment, available here: 10. Bhatt, et.al, Explainable Machine Learning in Deployment, available here: 
11. See ITI’s Global AI Policy Recommendations here:  11. ITI のグローバル AI 政策提言はこちらを参照。
12. ISO  12. ISO 
13. It is not possible to anticipate every single potential use-case for an AI system. However, AI systems are designed with particular use-cases in mind and disclosing that information can be helpful to a user in understanding what it was tested/marketed for.  13. AIシステムの潜在的なユースケースをすべて予想することは不可能である。しかし、AIシステムは特定のユースケースを想定して設計されており、その情報を開示することは、それが何のためにテスト/マーケティングされたかを理解する上で、利用者にとって有用である。
14. Using AI to limit fraud, spam, illegal, 14. 詐欺、スパム、違法行為を制限するためにAIを使用する。

|

« 米国 連邦取引委員会 (FTC) 消費者をだまし、罠にかける巧妙なダークパターンが増加している | Main | 米国 デジタル資産の責任ある開発に関する包括的フレームワーク (2022.09.16) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 連邦取引委員会 (FTC) 消費者をだまし、罠にかける巧妙なダークパターンが増加している | Main | 米国 デジタル資産の責任ある開発に関する包括的フレームワーク (2022.09.16) »