« 内閣官房 (NISC) 重要インフラのサイバーセキュリティ部門におけるリスクマネジメント等手引書 | Main | 総務省 「ICTサイバーセキュリティ総合対策2023」(案)に対する意見募集 »

2023.07.07

英国 Ada Lovelace 協会 AIサプライチェーンにおける説明責任の分担 (2023.06.29)

こんにちは、丸山満彦です。

英国 Ada Lovelace 協会 AIサプライチェーンにおける説明責任の分担という報告書を公表していますね。。。

アルゴリズム開発者、学習データ提供者、AI利用者という構造があるわけですのでいろいろと検討をする必要はありそうですよね。。。

 

Ada Lovelace Institute - Library - Reports

・2023.06.29 Expert explainer: Allocating accountability in AI supply chains

Expert explainer: Allocating accountability in AI supply chains 専門家による解説 AIサプライチェーンにおける説明責任の分担
This paper aims to help policymakers and regulators explore the challenges and nuances of different AI supply chains 本稿は、政策立案者や規制当局が様々なAIサプライチェーンの課題やニュアンスを探る一助となることを目的としている。

 

・[PDF]

20230706-125250

 

 

エグゼクティブサマリー

Executive summary 要旨
Creating an artificial intelligence (AI) system is a collaborative effort that involves many actors and sources of knowledge. Whether simple or complex, built in-house or by an external developer, AI systems often rely on complex supply chains, each involving a network of actors responsible for various aspects of the system’s training and development. 人工知能(AI)システムの構築は、多くの関係者や知識源が関与する共同作業である。単純なものであれ複雑なものであれ、社内で構築されたものであれ外部の開発者によるものであれ、AIシステムは多くの場合複雑なサプライチェーンに依存しており、それぞれのサプライチェーンにはシステムの訓練と開発の様々な側面を担う関係者のネットワークが関与している。
As policymakers seek to develop a regulatory framework for AI technologies, it will be crucial for them to understand how these different supply chains work, and how to assign relevant, distinct responsibilities to the appropriate actor in each supply chain. Policymakers must also recognise that not all actors in supply chains will be equally resourced, and regulation will need to take account of these realities. 政策立案者がAI技術に対する規制の枠組みを構築しようとする際、こうしたさまざまなサプライチェーンがどのように機能するのか、また、各サプライチェーンの適切なアクターに適切かつ明確な責任をどのように割り当てるのかを理解することが極めて重要になる。また、政策立案者は、サプライチェーンのすべての関係者が等しくリソースを確保できるわけではないことを認識しなければならず、規制はこうした現実を考慮する必要がある。
Depending on the supply chain, some companies (perhaps UK small businesses) supplying services directly to customers will not have the power, access or capability to address or mitigate all risks or harms that may arise. サプライチェーンによっては、顧客に直接サービスを提供する企業(おそらく英国の中小企業)が、発生しうるすべてのリスクや危害に対処・緩和する力、アクセス、能力を持たない場合もある。
This paper aims to help policymakers and regulators explore the challenges and nuances of different AI supply chains, and provides a conceptual framework for how they might apply different responsibilities in the regulation of AI systems. The paper seeks to address the following: 本稿の目的は、政策立案者や規制当局が様々なAIのサプライチェーンにおける課題や微妙な差異を探り、AIシステムの規制において異なる責任をどのように適用するかについての概念的枠組みを提供することである。本稿では、以下の点に取り組む:
1. Set out what is or is not distinctive about AI supply chains compared with other technologies. 1. AIサプライチェーンについて、他の技術と比較して何が特徴的で、何が特徴的でないかを明らかにする。
2. Examine high-level examples of different kinds of AI supply chains. Examples include: 2. 様々な種類のAIサプライチェーンのハイレベルな例を検証する。例には以下が含まれる:
 a. systems built in-house  a. 社内で構築されたシステム
 b. systems relying on another application programming interface (API)  b. 別のアプリケーション・プログラミング・インターフェース(API)に依存するシステム
c. systems built for a customer (or fine-tuned for one).  c. 顧客のために構築された(あるいは顧客のために微調整された)システム。
3. Provide the components for a general conceptual framework for how regulators could apply relevant, distinctive responsibilities to different actors in an AI supply chain. 3. 規制当局がAIのサプライチェーンにおける様々な主体に対して、どのように関連性のある独自の責任を適用しうるかについて、一般的な概念的枠組みのための構成要素を提供する。
4. Explore the unique complexities that ‘foundation models’ raise for assigning responsibilities to different actors in their supply chain, and how different mechanisms for releasing these models may complicate allocations of responsibility. 4. 「基礎モデル」が、サプライチェーンにおける様々な関係者に責任を割り当てるためにもたらす独特の複雑さと、これらのモデルをリリースするための様々なメカニズムが、責任の割り当てをどのように複雑にする可能性があるかを探る。
In this explainer we use the term ‘foundation models’ – which are also known as ‘general-purpose AI’ or ‘GPAI’. Definitions of GPAI and foundation models are similar and sometimes overlapping. We have chosen to use ‘foundation models’ as the core term to describe these technologies. We use the term ‘GPAI’ in quoted material, and where it’s necessary for a particular explanation. この解説では、「汎用AI」または「GPAI」とも呼ばれる「基盤モデル」という用語を使用する。GPAIと基礎モデルの定義は似ており、時には重複することもある。GPAIと基盤モデルの定義は類似しており、時には重複することもある。私たちは、これらの技術を説明する中核的な用語として「基盤モデル」を使用することにした。引用資料や特定の説明のために必要な場合には、「GPAI」という用語を使用する。
Key findings 主な調査結果
Our evidence review suggests that AI system supply chains have many commonalities with other types of digital technologies, for example raw material mining for smart device hardware. However, there are some significant differences in the novelty, complexity and speed of ongoing change and adaptation of AI models, which make it difficult to standardise or even precisely specify their features. The scale and wide range of potential uses of AI systems can also make it more challenging to attribute responsibility (and legal liability) for harms resulting from complex supply chains. 我々のエビデンスレビューによれば、AIシステムのサプライチェーンは、例えばスマートデバイスのハードウェアの原材料採掘など、他の種類のデジタル技術と多くの共通点がある。しかし、AIモデルの新規性、複雑性、継続的な変化と適応のスピードには大きな違いがあり、その特徴を標準化したり、正確に特定したりすることは困難である。また、AIシステムの規模や潜在的な用途の広さは、複雑なサプライチェーンから生じる損害に対する責任(および法的責任)を帰属させることをより困難にしている。
After discussing various types of AI supply chains, we describe a conceptual framework for assigning responsibility that focuses on principles of transparency, incentivisation, efficacy and accountability. 様々なタイプのAIサプライチェーンについて論じた後、透明性、インセンティブ、有効性、説明責任といった原則に焦点を当てた、責任を負わせるための概念的枠組みを説明する。
To support this framework, regulators should mandate the use of various mechanisms that enable a flow of critical information. These mechanisms should also enable modes of redress up and down an AI system’s supply chain and identify new ways to incentivise these practices in supply chains. この枠組みを支えるために、規制当局は重要な情報の流れを可能にする様々な仕組みの利用を義務付けるべきである。また、これらの仕組みは、AIシステムのサプライチェーンの上下において救済手段を可能にし、サプライチェーンにおけるこうした慣行にインセンティブを与える新たな方法を特定すべきである。
The advent of foundation models (such as OpenAI’s GPT-4) complicate the challenge of allocating responsibility. These systems enable a single model to act as a ‘foundation’ for a wide range of uses. We discuss how various aspects of these nascent systems (including who is designing them, how they are released and what information is made available about them) may impact the allocation of responsibilities for addressing potential risks. 基盤モデル(OpenAIのGPT-4など)の登場は、責任分担の課題を複雑にしている。これらのシステムは、単一のモデルが幅広い用途のための「基盤」として機能することを可能にする。このような新しいシステムの様々な側面(誰が設計しているのか、どのようにリリースされるのか、どのような情報が利用可能なのか等)が、潜在的なリスクに対処するための責任配分にどのような影響を与えるのかについて議論する。
Finally, we discuss some of the challenges that open-source technologies raise for AI supply chains. We suggest policymakers focus on how AI systems are released into public use, which can help inform the allocation of responsibilities for addressing harms throughout an identified supply chain. 最後に、オープンソース技術がAIのサプライチェーンにもたらす課題について述べる。政策立案者は、AIシステムがどのように一般利用されるようにリリースされるかに注目することを提言する。このことは、識別されたサプライチェーン全体を通して、危害に対処する責任の配分に情報を提供するのに役立つ。

 

目次的...

Executive summary エグゼクティブサマリー
Key findings 主な調査結果
Introduction 序文
What is or is not distinctive about AI supply? AIの供給について何が特徴的で、何が特徴的でないか?
Similarities between AI and other technology supply chains AIと他のテクノロジー・サプライチェーンとの類似点
Capital intensity and high returns to scale 資本集約度と高い規模利益率
Scarce inputs 希少なインプット
Example: illegally mined gold in hardware supply chains 例:ハードウェアのサプライチェーンにおける違法に採掘された金
Reliance on third-party software components and libraries サードパーティのソフトウェア・コンポーネントやライブラリへの依存
Data protection データ保護
Copyright 著作権
Human rights 人権
Distinctive features of AI supply AI供給の特徴
Features of models and systems モデルとシステムの特徴
Impact on companies, people and society 企業、人々、社会への影響
Examples of different kinds of AI supply chains 様々な種類のAIサプライチェーンの例
Systems built in-house 自社で構築したシステム
Systems relying on an API APIに依存するシステム
Systems built for a customer (or fine-tuned for one) 顧客のために構築されたシステム(または顧客のために微調整されたシステム)
Open-source components オープンソースのコンポーネント
Assurance intermediaries 保証仲介機関
A conceptual framework for regulators to apply to AI supply chains in their sector 規制当局が自部門のAIサプライチェーンに適用するための概念的枠組み
Transparency 透明性
Transparency in a supply chain: Supply Chain 1 サプライチェーンにおける透明性 サプライチェーン1
Incentives, penalties and value chains インセンティブ、罰則、バリューチェーン
Incentives in a value chain: Supply Chain 2 バリューチェーンにおけるインセンティブ サプライチェーン2
Efficacy up and down the AI supply chain AIのサプライチェーンにおける有効性
Considering efficacy in the supply chain: Supply Chain 3 サプライチェーンにおける有効性を考える サプライチェーン3
Accountability through contracts 契約による説明責任
Accountability through contracts: Supply Chain 4 契約による説明責任 サプライチェーン4
Foundation models 基盤モデル
Supply chains and market dynamics for foundation models 基盤モデルのサプライチェーンと市場力学
How EU regulators are assigning responsibility to foundation models EUの規制当局は、どのようにファウンデーションモデルに責任を割り当てているか
Considerations for assigning responsibility for foundation models 基盤モデルの責任分担に関する検討事項
AI system release strategies AIシステムのリリース戦略
Examples of risks from generative models 生成モデルによるリスクの例
Conclusion 結論
Further questions さらなる質問
Methodology 方法論
Partner information and acknowledgements パートナー情報と謝辞
About the author 著者について
Footnotes 脚注
Related content 関連コンテンツ
The value​​​ ​​​chain of general-purpose AI​​ 汎用AIのバリューチェーン
Sign up for updates 最新情報を受け取る
Main menu メインメニュー
Contact us お問い合わせ
Quick Links クイックリンク

 

 

|

« 内閣官房 (NISC) 重要インフラのサイバーセキュリティ部門におけるリスクマネジメント等手引書 | Main | 総務省 「ICTサイバーセキュリティ総合対策2023」(案)に対する意見募集 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 内閣官房 (NISC) 重要インフラのサイバーセキュリティ部門におけるリスクマネジメント等手引書 | Main | 総務省 「ICTサイバーセキュリティ総合対策2023」(案)に対する意見募集 »