OECD プライバシー強化技術を用いた信頼性の高い AI モデルの共有
こんにちは、丸山満彦です。
2025.06.17-20にかけてOECDがAIについてのいくつかの報告書を公表していますが、その1つで、プライバシー強化技術(PETs)についてです...
とてもユースケースがたくさん紹介されていて、とても参考になると思います。
ユースケースは大きく2つにわけていて
- 信頼可能な実行環境、連合学習、安全な多者間計算などの技術を用いて、入力データを機密保持し、最小限に利用することで AI モデルのパフォーマンスを向上させる
- 差分プライバシー、信頼可能な実行環境、準同型暗号などのツールを用いて、AI モデルの機密保持された共同作成と共有を可能にする
● OECD
・2025.06.17 Sharing trustworthy AI models with privacy-enhancing technologies
| Sharing trustworthy AI models with privacy-enhancing technologies | プライバシー強化技術を用いた信頼性の高い AI モデルの共有 |
| Abstract | 概要 |
| Privacy-enhancing technologies (PETs) are critical tools for building trust in the collaborative development and sharing of artificial intelligence (AI) models while protecting privacy, intellectual property, and sensitive information. This report identifies two key types of PET use cases. The first is enhancing the performance of AI models through confidential and minimal use of input data, with technologies like trusted execution environments, federated learning, and secure multi-party computation. The second is enabling the confidential co-creation and sharing of AI models using tools such as differential privacy, trusted execution environments, and homomorphic encryption. PETs can reduce the need for additional data collection, facilitate data-sharing partnerships, and help address risks in AI governance. However, they are not silver bullets. While combining different PETs can help compensate for their individual limitations, balancing utility, efficiency, and usability remains challenging. Governments and regulators can encourage PET adoption through policies, including guidance, regulatory sandboxes, and R&D support, which would help build sustainable PET markets and promote trustworthy AI innovation. | プライバシー強化技術(PET)は、プライバシー、知的財産、機密情報を保護しながら、人工知能(AI)モデルの共同開発と共有における信頼を構築するための重要なツールである。この報告書では、PET の 2 つの主な使用例を特定していつ。1 つ目は、信頼可能な実行環境、連合学習、安全な多者間計算などの技術を用いて、入力データを機密保持し、最小限に利用することで AI モデルのパフォーマンスを向上させることである。2 つ目は、差分プライバシー、信頼可能な実行環境、準同型暗号などのツールを用いて、AI モデルの機密保持された共同作成と共有を可能にするものである。PET は、追加のデータ収集の必要性を減らし、データ共有のパートナーシップを促進し、AI ガバナンスのリスクに対処するのに役立つ。ただし、PET は万能薬ではない。さまざまな PET を組み合わせることで、それぞれの限界を補うことはできるが、有用性、効率性、使いやすさのバランスを取ることは依然として難しい。政府や規制当局は、ガイダンス、規制のサンドボックス、研究開発支援などの政策を通じて PET の採用を促進することで、持続可能な PET 市場の構築と信頼性の高い AI イノベーションの推進に貢献することができる。 |
・[PDF]
目次...
| genn | まえがき |
| Executive summary | エグゼクティブサマリー |
| 1 Introduction | 1 序論 |
| 2 Use Case Archetypes: PETs enabling trustworthy collaborative development and sharing of artificial intelligence models | 2 ユースケースの原型:人工知能モデルの信頼できる共同開発と共有を可能にする PETs |
| Use case archetype 1: Enhancing AI model performance through minimal and confidential use of input and test data | ユースケース原型1:入力データとテストデータの最小限の秘密使用によるAIモデルの性能強化 |
| Use case archetype 2: Co-creating or sharing AI models while preserving confidentiality | ユースケース原型2:機密性を保持しながらAIモデルを共同作成または共有する |
| 3 Policy initiatives on PETs and AI | 3 PETsとAIに関する政策イニシアティブ |
| Regulatory sandboxes and other sandboxes | 規制のサンドボックスとその他のサンドボックス |
| Innovation contests | イノベーション・コンテスト |
| Research and development (R&D) support | 研究開発(R&D)支援 |
| Collaboration initiatives | 共同イニシアチブ |
| Government procurement | 政府調達 |
| Annex A. PET functions across AI lifecycle stages and use cases | 附属書A.AIのライフサイクル段階とユースケースにおけるPET機能 |
| References | 参考文献 |
エグゼクティブサマリー...
| Executive summary | エグゼクティブサマリー |
| Privacy-enhancing technologies (PETs) play a crucial role in enabling trust for the collaborative development and sharing of artificial intelligence (AI) models by protecting privacy rights, but also other rights and interests such as intellectual property rights. PETs do so by ensuring: (i) data minimisation (i.e. limiting data collection and processing to what is directly relevant and necessary for the purpose of training or testing the AI model) and (ii) confidentiality (i.e. preventing unauthorised access to information contained in input data or the AI model). | プライバシー強化技術(PETs)は、プライバシーの権利だけでなく、知的財産権など他の権利や利益も保護することで、人工知能(AI)モデルの共同開発と共有の信頼を可能にする上で重要な役割を果たす。PETは、(i)データの最小化(すなわち、データの収集と処理を、AIモデルの訓練またはテストの目的に直接関連し必要なものに限定すること)、および(ii)機密性(すなわち、入力データやAIモデルに含まれる情報への不正アクセスを防止すること)を確保することによって、これを実現する。 |
| This report highlights two primary use case archetypes derived mainly from a set of use cases discussed at two OECD expert workshops on PETs and AI held between May and July 2024 (hereafter “the OECD expert workshops on PETs and AI”). These use case archetypes include, using PETs for: | 本報告書では、主に、2024 年 5 月から 7 月にかけて開催された PET と AI に関する 2 つの OECD 専門家ワークショップ(以下、「PET と AI に関する OECD 専門家ワークショップ」)で議論された一連のユースケースから導き出された 2 つの主要なユースケースの原型を取り上げる。これらのユースケースの原型には、以下のものが含まれる: |
| • Use case archetype 1 — Enhancing AI model performance through minimal and confidential use of input and test data: Often, no single organisation will have access to the necessary variety or volume of data, making external data access critical yet complex due to confidentiality, trust, or regulatory concerns. In the use cases highlighted during the OECD expert workshops on PETs and AI, two main functions of PETs stand out in relation to input and test data: (i) ensuring confidential preprocessing of input data, notably through the use of secured data processing environments such as trusted execution environments (TEEs); and (ii) minimising the collection and use of personal data, and of non-personal but otherwise sensitive data, for AI model training and performance testing, where a variety of PETs are typically combined to protect data and maintain control during their collaborative use. For the latter function, for instance, PETs like federated learning and (secure) multi-party computation (MPC) are often used for the collaborative use of input data as they allow distributed data processing while keeping data under the control of their holders. Meanwhile, synthetic data are predominantly used for sharing test data. All these approaches are typically used in combination with other PETs such as differential privacy to mitigate their respective drawbacks. | • ユースケース原型 1 - 入力データとテストデータの最小限の秘密使用による AI モデル性能の向上:多くの場合、単一の組織では必要な種類のデータや大量のデータにアクセスできず、機密性、信頼性、規制上の懸念から、外部からのデータアクセスが重要でありながら複雑なものとなる。PETとAIに関するOECD専門家ワークショップで強調されたユースケースでは、入力データとテス トデータに関するPETの2つの主な機能が際立っている:(i) 特に信頼可能な実行環境(TEE)のようなセキュアなデータ処 理環境の使用を通じて、入力データの機密前処理を確保すること、(ii) AIモデルの学習と性能テストのために、パーソナルデータの収集と使用を最小化すること、お よび非個人データであるがその他の機密データの収集と使用を最小化すること。後者の機能では、例えば連合学習や(セキュアな)マルチパーティ計算(MPC)のようなPETが、データを保持者の管理下に置きながら分散データ処理を可能にするため、入力データの共同利用によく使われる。一方、合成データは主にテストデータの共有に使われる。これらのアプローチはすべて、それぞれの欠点を緩和するために、差分プライバシーなどの他のPETと組み合わせて使用されるのが一般的である。 |
| • Use case archetype 2 — Enabling confidential co-creation and sharing of AI models: In addition to the collaborative use of input and test data, the joint development of AI models by multiple parties as well as their joint re-use (AI model sharing) can drive innovation by e.g. democratising access to powerful AI models, including by smaller actors such as small and medium-sized enterprises (SMEs). However, co-creating or sharing AI models presents heightened confidentiality risks, as shared models can be the target of unauthorised access, manipulation, or extraction of confidential proprietary or personal information (through e.g. reverse engineering from model weights) with negative effects on privacy and other rights and interests. Under this archetype, PETs are primarily used to: (i) confidentially co-create AI models, with PETs enabling distributed confidential data processing, such as MPC and federated learning, being the most prominent PETs; and (ii) protect AI models and their outputs (inferences) by providing complementary layers of protection. For example, differential privacy helps reduce the identifiability of output data, while trusted execution environments (TEEs) and (fully) homomorphic encryption (HE) protect the confidentiality of data and models during computation. | • ユースケース原型2 - AIモデルの機密の共創と共有を可能にする:入力データやテストデータの共同利用に加え、複数の関係者によるAIモデルの共同開発やその共同再利用(AIモデルの共有)は、例えば中小企業(SMEs)のような小規模な関係者を含め、強力なAIモデルへのアクセスを民主化することによってイノベーションを促進することができる。しかし、AIモデルの共創や共有は、プライバシーやその他の権利や利益に悪影響を及ぼす(モデル・ウェイトからのリバースエンジニアリングなどによる)無許可のアクセス、操作、機密の専有情報や個人情報の抽出の対象となりうるため、機密性のリスクが高まる。この原型のもとでは、PETは主に以下の目的で使用される:(i)MPCや連合学習などの分散機密データ処理を可能にするPETが最も顕著なPETであり、(ii)相補的な保護層を提供することによってAIモデルとその出力(推論)を保護する。例えば、差分プライバシーは出力データの識別可能性( )を低減するのに役立ち、信頼可能な実行環境(TEEs)と(完全な)準同型暗号(HE)は計算中のデータとモデルの機密性を保護する。 |
| In both use case archetypes, PETs are used to minimise or eliminate the need for an organisation training an AI model to collect and process additional personal data or otherwise sensitive or confidential information. In so doing, PETs help reduce the risk of trust violations between parties, which in turn facilitates “data-sharing partnerships” as called for in the OECD Recommendation on Enhancing Access to and Sharing of Data. In contrast with use case archetype 1, where a single entity typically controls the data collection and model creation process, in use case archetype 2, each party has shared ownership and control over the model creation process, as well as the resulting AI model, unless access to the latter (the AI model) is restricted through complementary layers of PETs to further enhance confidentiality and trust. | どちらのユースケースにおいても、PETは、AIモデルをトレーニングする組織が、個人データやその他の機密情報を追加で収集・処理する必要性を最小化または排除するために使用される。そうすることで、PETは当事者間の信頼侵害のリスクを低減し、OECDの「データへのアクセスと共有の強化に関する勧告」で求められている「データ共有パートナーシップ」を促進する。通常、単一の事業体がデータ収集とモデル作成プロセスを管理するユースケース原型 1 とは対照的に、ユースケース原型 2 では、各当事者は、モデル作成プロセスだけでなく、結果として得られる AI モデルに対する所有権と制御権を共有する。ただし、後者(AI モデル)へのアクセスは、機密性と信頼性をさらに高めるために、補完的なレイヤーの PET によって制限される。 |
| It is widely acknowledged that PETs are not a silver bullet despite the crucial role they play in addressing data governance and privacy challenges in the context of AI. Different PETs can often be combined to compensate for their respective limitations, but challenges remain in balancing utility, efficiency and usability. For example, synthetic data and differential privacy help reduce re-identification risks but may introduce bias or degrade model accuracy. Homomorphic encryption can help ensure secure computation but comes with higher computational costs, while MPC can mitigate data leakage risks in federated learning but may suffer from high communication overhead. As PETs evolve, addressing these trade-offs and operational constraints will be essential to maximising their potential while ensuring truly privacypreserving AI innovation. | PETは、AIの文脈におけるデータ・ガバナンスとプライバシーの課題に対処する上で極めて重要な役割を果たすにもかかわらず、銀の弾丸ではないことは広く認められている。さまざまなPETを組み合わせることで、それぞれの限界を補うことができる場合が多いが、実用性、効率性、使いやすさのバランスをとるという課題は残っている。例えば、合成データと差分プライバシーは、再識別リスクの低減に役立つが、バイアスを導入したり、モデルの精度を低下させたりする可能性がある。準同型暗号は安全な計算を保証するのに役立つが、計算コストが高くなる。MPCは連合学習におけるデータ漏洩リスクを緩和できるが、通信オーバーヘッドが高くなる可能性がある。PETが進化するにつれて、これらのトレードオフと運用上の制約に対処することは、真にプライバシーを保護するAIイノベーションを確保しながら、その可能性を最大限に引き出すために不可欠となる。 |
| With PET adoption remaining a major policy challenge however, including in the context of AI, governments and regulators have an active role to play to ensure the appropriate adoption of PETs. A wide variety of policy measures can be considered to promote innovation in and with PETs and AI from both a demand and supply side. On the demand side (aimed directly at increasing the adoption and use of PETs), framework and guidance for responsible adoption of PETs, regulatory sandboxes and innovation contests are among the most prominent policy tools used by governments and regulators. Other key approaches include collaboration initiatives, awareness raising and training, and government procurement of PETs. On the supply side (aimed directly at fostering the availability of PET solutions and services), research and development (R&D) support is crucial to ensuring that PETs are not only efficient but also cost-effective and user-friendly. | しかし、PETの採用は、AIの文脈も含め、依然として大きな政策課題であるため、政府と規制当局は、PETの適切な採用を確保するために積極的な役割を担っている。PETとAIのイノベーションを促進するために、需要側と供給側の両方から、様々な政策手段を検討することができる。需要側(PETs の採用と使用を直接的に増加させることを目的とする)では、PETs の責任ある採用のための枠組みやガイダンス、規制のサンドボックス、イノベーショ ンコンテストが、政府とガバナンスによって使用される最も顕著な政策手段の一つである。その他の主要なアプローチには、連携イニシアティブ、意識向上およびトレーニング、 PETs の政府調達などがある。供給側(PETソリューションとサービスの利用可能性を促進することを直接の目的とする)では、研究開発(R&D)支援は、PETが効率的であるだけでなく、費用対効果も高く、使い勝手のよいものであることを保証するために極めて重要である。 |
| The demand and supply side measures complement each other. This interdependence is particularly critical for PET product and service providers, especially startups and SMEs, which depend on a growing market to sustain their operations and ensure the viability of their business models. Low demand can hinder market entry and growth, making it difficult for these firms to scale, which in turn limits incentives for supply-side innovation including the development of new, more effective PET solutions. This can in turn negatively affect demand for PETs. | 需要側と供給側の対策は、互いに補完し合うものである。この相互依存は、PET製品・サービスプロバイダ、特に新興企業や中小企業にとって特に重要であり、これらのプロバイダは、事業を維持し、ビジネスモデルの実行可能性を確保するために、市場の成長に依存している。需要が低いと、市場参入と成長が妨げられ、これらの企業が規模を拡大することが難しくなり、その結果、より効果的な新しいPETソリューションの開発など、供給側の技術革新のインセンティブが制限されることになる。これは、ひいてはPETの需要に悪影響を及ぼす可能性がある。 |
« 金融庁 スチュワードシップ・コード(第三次改訂版)の確定について (2025.06.26) | Main | フランス ANSSI ゼロトラスト・モデル - 基本事項 (2025.06.20) »

Comments