OECD AIとデータ・ガバナンス、プライバシー (2024.06.27)
こんにちは、丸山満彦です。
OECDが、AIとデータ・ガバナンス、プライバシーに関する報告書を公表していますね...
・2024.06.27 AI, data governance and privacy
AI, data governance and privacy | AI、データ・ガバナンス、プライバシー |
Synergies and areas of international co-operation | 相乗効果と国際協力の分野 |
Recent AI technological advances, particularly the rise of generative AI, have raised many data governance and privacy questions. However, AI and privacy policy communities often address these issues independently, with approaches that vary between jurisdictions and legal systems. These silos can generate misunderstandings, add complexities in regulatory compliance and enforcement, and prevent capitalising on commonalities between national frameworks. This report focuses on the privacy risks and opportunities stemming from recent AI developments. It maps the principles set in the OECD Privacy Guidelines to the OECD AI Principles, takes stock of national and regional initiatives, and suggests potential areas for collaboration. The report supports the implementation of the OECD Privacy Guidelines alongside the OECD AI Principles. By advocating for international co-operation, the report aims to guide the development of AI systems that respect and support privacy. | 最近のAI技術の進歩、特に生成的AIの台頭は、多くのデータ・ガバナンスとプライバシーに関する問題を提起している。しかし、AIとプライバシー政策のコミュニティは、しばしば独立してこれらの問題に取り組んでおり、法域や法制度によってアプローチが異なっている。このような縦割りは、誤解を生み、規制の遵守と執行に複雑さをもたらし、各国の枠組み間の共通点を生かすことを妨げる。本レポートは、最近の AI の発展から生じるプライバシーのリスクと機会に焦点を当てている。OECDプライバシー・ガイドラインに定められた原則をOECD AI原則に対応させ、各国・各地域のイニシアティブを把握し、潜在的な協力分野を示唆している。本報告書は、OECD AI原則とともにOECDプライバシー・ガイドラインの実施を支援するものである。国際協力を提唱することで、プライバシーを尊重し支援するAIシステムの開発を導くことを目的としている。 |
目次...
Foreword | まえがき |
Acronyms and abbreviations | 頭字語および略語 |
Abstract | 概要 |
Executive summary | エグゼクティブサマリー |
Introduction | 序文 |
1 Generative AI: a catalyst for collaboration on AI and privacy | 1 生成的AI:AIとプライバシーに関する協力のきっかけとなる |
The opportunities and risks of generative AI for privacy | 生成的AIがプライバシーにもたらす機会とリスク |
Privacy concerns emerging from generative AI: Privacy Enforcement Authorities step in | 生成的AIから浮かび上がるプライバシーの懸念:プライバシー執行当局が踏み込む |
Generative AI enhances the urgency to work on the interplay between AI and privacy regulations | 生成的AIは、AIと プライバシー規制の相互作用に取り組む緊急性を高めている。 |
2 Mapping existing OECD principles on privacy and on AI: key policy considerations | 2 プライバシーと AI に関する OECD の現行原則のマッピング:政策上の重要な検討事項 |
The five values-based principles in the OECD AI Recommendation | OECD AI勧告の価値観に基づく5原則 |
Key policy considerations from mapping AI and privacy principles | AIとプライバシーの原則をマッピングし、政策上考慮すべき主要事項を明らかにする |
Overview of possible commonalities and divergences in AI and privacy principles | AIとプライバシー原則の共通点と相違点の概要 |
3 National and regional developments on AI and privacy | 3 AIとプライバシーに関する国や地域の動き |
International responses by Privacy Enforcement Authorities | プライバシー執行機関による国際的な対応 |
Guidance provided by Privacy Enforcement Authorities on the application of privacy laws to AI | プライバシー法のAIへの適用に関するプライバシー執行当局によるガイダンスの提供 |
PEA enforcement actions in AI, including generative AI | 生成的AIを含むAIにおけるPEAの強制措置 |
4 Conclusion | 4 結論 |
References | 参考文献 |
Notes | 備考 |
概要とエグゼクティブサマリー...
Abstract | 概要 |
Recent AI technological advances, particularly the rise of generative AI, have raised many data governance and privacy questions. However, AI and privacy policy communities often address these issues independently, with approaches that vary between jurisdictions and legal systems. These silos can generate misunderstandings, add complexities in regulatory compliance and enforcement, and prevent capitalising on commonalities between national frameworks. This report focuses on the privacy risks and opportunities stemming from recent AI developments. It maps the principles set in the OECD Privacy Guidelines to the OECD AI Principles, takes stock of national and regional initiatives, and suggests potential areas for collaboration. The report supports the implementation of the OECD Privacy Guidelines alongside the OECD AI Principles. By advocating for international co-operation, the report aims to guide the development of AI systems that respect and support privacy. | 最近のAI技術の進歩、特に生成的AIの台頭は、多くのデータ・ガバナンスとプライバシーに関する問題を提起している。しかし、AIとプライバシーポリシーのコミュニティは、これらの問題に独立して取り組むことが多く、法域や法制度によってアプローチが異なる。このような縦割りは、誤解を生み、規制の遵守と執行に複雑さをもたらし、各国の枠組み間の共通点を生かすことを妨げる。本レポートは、最近の AI の発展から生じるプライバシーのリスクと機会に焦点を当てている。OECDプライバシー・ガイドラインに定められた原則をOECD AI原則に対応させ、各国・各地域のイニシアティブを把握し、潜在的な協力分野を示唆している。本報告書は、OECD AI原則とともにOECDプライバシー・ガイドラインの実施を支援するものである。国際協力を提唱することで、プライバシーを尊重し支援するAIシステムの開発を導くことを目的としている。 |
Executive summary | エグゼクティブサマリー |
Recent AI technological advances—particularly the rise of generative AI— raise both opportunities and risks related to data protection and privacy. As a general-purpose technology, AI is wide-reaching and rapidly permeating products, sectors, and business models across the globe. Recent progress in generative AI owes its progress in large part to the availability and use of vast training data stored worldwide. Like the data, actors involved in the AI lifecycle are distributed across jurisdictions, underscoring the need for global synchronisation, clear guidance and cooperative efforts to address the challenges posed by AI’s impact on privacy. | 最近のAI技術の進歩、特に生成的AIの台頭は、データ保護とプライバシーに関するチャンスとリスクの両方を提起している。汎用的な技術として、AIは広範囲に及び、世界中の製品、分野、ビジネスモデルに急速に浸透している。生成的AIにおける最近の進歩は、世界中に蓄積された膨大な学習データの利用可能性と活用に負うところが大きい。データと同様に、AIのライフサイクルに関与する関係者も法域を越えて分散しており、AIがプライバシーに与える影響によってもたらされる課題に対処するためには、グローバルな同期、明確な指針、協力的な取り組みが必要であることを強調している。 |
However, the AI and privacy policy communities currently tend to address challenges separately, without much co-operation, such that their approaches vary across jurisdictions and legal systems. For instance, the practice of scraping personal data to train generative AI raises significant privacy questions and is attracting increasing regulatory attention as a consequence. However, discussions on practical solutions to align data scraping practices with Privacy Guidelines have been limited. Likewise, the practical implementation of individual data protection and privacy rights in the development of Generative AI is not yet the subject of collective in-depth reflection. As more countries move to regulate AI, lack of co-operation between these communities could result in misunderstandings as to the actual reach of data protection and privacy laws, as well as in conflicting and/or duplicative requirements that could lead to additional complexity in regulatory compliance and enforcement. As both communities consider possible responses to the opportunities and risks of AI, they could benefit from each other’s knowledge, experience, and priorities through greater collaboration, aligning policy responses and improving complementarity and consistency between AI policy frameworks on the one hand, and data protection and privacy frameworks on the other. | しかし、AIとプライバシーポリシーのコミュニティは現在、あまり協力することなく、別々に課題に取り組む傾向にあり、そのアプローチは法域や法制度によって異なっている。例えば、生成的AIを訓練するために個人データをスクレイピングする行為は、プライバシーに関する重大な問題を提起しており、その結果として規制当局の注目が高まっている。しかし、データ・スクレイピングの実践をプライバシーガイドラインに合わせるための現実的な解決策に関する議論は限られている。同様に、生成的AIの開発における個人データ保護とプライバシーの権利の実践は、まだ集団的な綿密な考察の主体ではない。AIを規制しようとする国が増えるにつれ、これらのコミュニティ間の協力が不足すると、データ・プライバシー法の実際の適用範囲について誤解が生じたり、規制の遵守や執行がさらに複雑になる可能性がある矛盾した要件や重複した要件が生じたりする可能性がある。両コミュニティがAIの機会とリスクに対する可能な対応を検討する際、両コミュニティは、より大きな協力を通じて互いの知識、経験、優先事項から恩恵を受け、政策対応を調整し、一方のAI政策枠組みと他方のデータ保護・プライバシー枠組みとの間の補完性と一貫性を改善することができる。 |
With their differences in history, profiles and approaches, the AI and privacy policy communities have lessons to learn from each other. In recent years, the AI community, including AI researchers and developers, from academia, civil society, and the public and private sectors, has formed dynamic and strong networks. Many in the AI community have taken an innovation-driven approach, while the privacy community has been generally adopting a more cautious approach marked by decades of implementation of long-standing privacy and data protection laws. The privacy community is also often characterised as more established because of long-standing privacy and data protection laws and has evolved over time to include a diverse array of stakeholders such as regulators, privacy and data protection officers, technologists, lawyers, public policy professionals, civil society groups, and regulatory technology providers, among others. This community is focused on establishing privacy safeguards and mitigating risks assessed within often sophisticated and firmly established regulatory frameworks. Despite these differences, synergies exist, and co-operation is essential. | その歴史、プロフィール、アプローチの違いから、AIコミュニティとプライバシーポリシーコミュニティは互いに学ぶべきことがある。近年、学術界、市民社会、官民のAI研究者や開発者を含むAIコミュニティは、ダイナミックで強力なネットワークを形成している。AIコミュニティの多くはイノベーション主導のアプローチをとっているが、プライバシー・コミュニティは一般的に、長年にわたるプライバシー・データ保護法の数十年にわたる施行に特徴づけられる、より慎重なアプローチを採用してきた。プライバシー・コミュニティはまた、長年のプライバシー・データ保護法のために、より確立されたものとして特徴付けられることが多く、規制当局、プライバシー・データ保護担当者、技術者、弁護士、公共政策の専門家、市民社会グループ、規制技術プロバイダなど、多様な利害関係者を含むように時間をかけて発展してきた。このコミュニティは、しばしば高度で強固に確立された規制の枠組みの中で評価されるプライバシーのセーフガードの確立とリスクアセスメントの低減に焦点を当てている。こうした違いにもかかわらず、相乗効果は存在し、協力は不可欠である。 |
This report identifies areas that would benefit from further synergy and complementarity, including key terminological differences between the two policy communities. It maps existing privacy and data protection considerations to the AI values-based principles set in the OECD’s 2019 Recommendation on AI to identify relevant areas for closer coordination. This mapping illustrates the different interpretations of the privacy and AI communities around key concepts – including fairness, transparency and explainability. Understanding these differences is essential for building sustainable co-operation actions. | 本報告書は、2つの政策コミュニティ間の主要な用語の違いを含め、さらなる相乗効果と補完性から恩恵を受けるであろう分野を特定する。OECDの2019年AIに関する勧告で設定されたAIの価値観に基づく原則に、既存のプライバシー・データ保護の考慮事項をマッピングし、より緊密な協調のための関連分野を特定する。このマッピングは、公平性、透明性、説明可能性などの重要な概念をめぐるプライバシーとAIのコミュニティの異なる解釈を示している。これらの違いを理解することは、持続可能な協力行動を構築するために不可欠である。 |
Actors in both the AI and privacy communities have implemented measures at the national, regional, and global levels to tackle opportunities and risks posed by AI. The report provides a snapshot of national and regional developments on AI and privacy, including guidance provided by privacy regulators on the application of privacy laws to AI and related enforcement actions, specifically regarding generative AI. It finds that while many actions have been taken, including policy initiatives and enforcement actions by Privacy Enforcement Authorities, they could benefit from further coordination as AI-specific laws emerge worldwide. | AIとプライバシーの両コミュニティの関係者は、AIがもたらす機会とリスクに取り組むために、国、地域、そして世界レベルで対策を実施してきた。本レポートは、AIとプライバシーに関する国や地域の動向のスナップショットを提供するもので、特に生成的AIに関する、AIへのプライバシー法の適用や関連する執行措置に関するプライバシー規制当局によるガイダンスを含む。この報告書では、政策的な取り組みやプライバシー執行当局による強制措置など、多くの行動が取られている一方で、世界中でAIに特化した法律が登場するにつれて、さらなる協調から恩恵を受ける可能性があることを明らかにしている。 |
With its international reach and substantive expertise in both AI and data protection and privacy, the OECD appears as a key forum to strengthen synergies and areas of international co-operation in this area. It can draw on well-established policy work in both areas, including the leading principles included in the 1980 OECD Privacy Guidelines, updated in 2013, and the 2019 OECD Recommendation on AI, updated in 2024. Moreover, in 2024, the OECD has established a unique Expert Group on AI, Data, and Privacy, which convenes leading voices in both communities to explore key questions and policy solutions at the intersection of AI and data protection and privacy. | AIとデータ保護・プライバシーの両分野における国際的なリーチと実質的な専門性を有するOECDは、この分野における相乗効果と国際協力の分野を強化するための重要なフォーラムである。OECDは、2013年に更新された1980年のOECDプライバシー・ガイドラインや、2024年に更新された2019年のAIに関するOECD勧告に含まれる主要な原則を含め、両分野で確立された政策活動を活用することができる。さらに2024年、OECDはAI、データ・プライバシーに関する独自の専門家グループを設立し、AIとデータ保護・プライバシーの交差点における重要な疑問と政策的解決策を探るため、両分野の第一人者を招集した。 |
Despite the challenges, both this policy work and the ongoing activities within this expert group showcase that broad and lasting co-operation, as well as mutual understanding, are achievable. To provide a common reference framework for these co-operation opportunities and highlight the OECD’s distinctive role, the report aligns the OECD AI Principles—the first intergovernmental standard on AI—with the well-established OECD Privacy Guidelines, which serve as the foundation for data protection laws globally. | このような課題にもかかわらず、この政策作業とこの専門家グループにおける進行中の活動は、広範かつ永続的な協力と相互理解が達成可能であることを示している。このような協力の機会に共通の参照枠組みを提供し、OECDの際立った役割を強調するため、本報告書は、AIに関する初の政府間標準であるOECD AI原則を、世界的なデータ保護法の基礎として定着しているOECDプライバシー・ガイドラインと整合させている。 |
The report assesses national and regional initiatives related to AI and privacy and identifies areas for collaboration, such as in the area of Privacy Enhancing Technologies (PETs), that can help address privacy concerns, particularly regarding the “explainability” of AI algorithms. The joint expert group on AI, data, and privacy will play a crucial role, in more precisely articulating the concrete opportunities for innovative, technological and regulatory developments of AI that respect privacy and personal data protection rules. | この報告書は、AIとプライバシーに関連する国や地域のイニシアティブをアセスメントし、プライバシー強化技術(PETs)の分野など、特にAIアルゴリズムの「説明可能性」に関するプライバシーの懸念に対処するのに役立つ協力分野を特定している。 AI・データ・プライバシーに関する合同専門家グループは、プライバシーと個人データ保護規則を尊重したAIの革新的・技術的・規制的発展の具体的な機会をより正確に明示する上で、極めて重要な役割を果たすだろう。 |
ブログ...
・2024.06.26 Six crucial policy considerations for AI, data governance, and privacy: Insights from the OECD
Six crucial policy considerations for AI, data governance, and privacy: Insights from the OECD | AI、データ・ガバナンス、プライバシーに関する6つの重要な政策的検討事項: OECDからの洞察 |
The rapid evolution of artificial intelligence (AI) presents unprecedented opportunities and significant challenges, particularly in data governance and privacy. | 人工知能(AI)の急速な進化は、特にデータ・ガバナンスとプライバシーにおいて、前例のない機会と重大な課題をもたらしている。 |
A new report by the OECD delves into these complexities, including the implications of generative AI driven by vast amounts of training data that often includes personal data. Written with the contributions of two working groups with representatives from OECD and partner economies, and an expert group of representatives from industry, regulators, civil society, and academia, the report highlights the need for global coordination to address these challenges. | OECDの新しい報告書は、個人データを含むことが多い膨大な学習データによって駆動される生成的AIの意味を含め、これらの複雑性を掘り下げている。OECDとパートナー経済圏の代表者からなる2つのワーキンググループと、産業界、規制当局、市民社会、学界の代表者からなる専門家グループの貢献によって書かれたこの報告書は、これらの課題に対処するための世界的な協調の必要性を強調している。 |
Here are six crucial policy considerations to harmonise AI’s advancements with privacy principles and how they relate to the report’s main takeaways. | 以下は、AIの進歩とプライバシー原則を調和させるための6つの重要な政策的検討事項であり、それらが報告書の主要な要点とどのように関連しているかを示している。 |
1. Privacy and AI | 1. プライバシーとAI |
While privacy frameworks have always applied to AI, they play an increasingly important role in the age of Generative AI. A growing number of actions from regulators and the courts remind us that privacy must be considered at conception and during AI’s development and deployment stages. | プライバシーの枠組みは常にAIに適用されてきたが、生成的AIの時代にはますます重要な役割を果たしている。規制当局や裁判所からの多くの措置は、AIの構想段階や開発・展開ステージにおいてプライバシーを考慮しなければならないことを思い起こさせる。 |
Challenges abound. For instance, informing people in advance about how their data might be used can be impossible. If trained on unbalanced datasets, AI-generated data may also lead to inaccurate outcomes or bias. Access to modify or delete personal data can also be challenging for both individuals to obtain and organisations to provide, given the nature of AI systems. This can lead people to face privacy harms and AI developers or users to violate privacy laws. | 課題は山積している。例えば、自分のデータがどのように利用されるかを事前に知らせることは不可能かもしれない。偏ったデータセットで学習させた場合、AI生成的データは不正確な結果やバイアスにつながる可能性もある。個人データの修正や削除へのアクセスは、AIシステムの性質上、個人にとってもプロバイダにとっても困難な場合がある。このため、人々はプライバシー侵害に直面し、AIの開発者や利用者はプライバシー法に違反する可能性がある。 |
Given these challenges, ensuring AI developments align with privacy rules from the outset and by design requires proactive efforts to identify common ground and bridge gaps. The report therefore emphasises the crucial need to build bridges between AI and privacy policy communities. This integration should ensure that privacy safeguards get embedded into AI systems throughout their lifecycle, promoting innovation based on privacy. | このような課題を考えると、AIの開発が当初から、そして設計上、確実にプライバシー・ルールと整合するようにするには、共通の基盤を特定し、ギャップを埋めるための積極的な取り組みが必要である。したがって、本報告書は、AIとプライバシー政策のコミュニティの間に橋を架ける極めて重要な必要性を強調している。この統合によって、プライバシーの保護措置がライフサイクルを通じてAIシステムに組み込まれ、プライバシーに基づくイノベーションが促進されることが保証されるべきである。 |
2. Mutual understanding and collaboration between policy communities | 2. 政策コミュニティ間の相互理解と協力 |
Terminology and conceptual differences between privacy and AI policy communities can lead to misunderstandings and create uncertainties regarding compliance with existing privacy and AI regulations for AI developers and deployers. | プライバシーとAIの政策コミュニティ間の用語や概念の違いは、誤解を招き、AIの開発者や導入者にとって、既存のプライバシーとAIの規制の遵守に関する不確実性を生み出す可能性がある。 |
Key concepts such as fairness, transparency, and explainability may have different meanings in the AI and privacy policy communities depending on the context, for instance. A key value-add of the report is that it not only acknowledges the different interpretations of essential concepts between the AI and privacy communities but also analyses these differences and discusses how these concepts are interrelated. | 例えば、公平性、透明性、説明可能性といった重要な概念は、AIとプライバシー政策のコミュニティにおいて、文脈によって異なる意味を持つことがある。この報告書の重要な付加価値は、AIとプライバシーのコミュニティ間で本質的な概念の解釈が異なることを認めているだけでなく、これらの違いを分析し、これらの概念がどのように相互に関連しているかを論じていることである。 |
The report highlights the importance of sustained interactions between these communities to foster awareness and improve mutual understanding. Doing so can effectively align their approaches and help to develop AI that embeds privacy considerations from the outset. | この報告書は、これらのコミュニティ間の持続的な交流が、認識を促進し、相互理解を改善するために重要であることを強調している。そうすることで、両者のアプローチを効果的に整合させ、プライバシーへの配慮を最初から組み込んだAIの開発に役立てることができる。 |
In practice, however, AI and privacy policy communities still often operate in silos, which can lead to varied approaches across policy streams, jurisdictions, and legal systems. The report thus calls for collaboration to align policy responses, leveraging each community’s knowledge and experience to effectively align approaches. | しかし、実際には、AIとプライバシー政策のコミュニティは、いまだにサイロの中で活動することが多く、その結果、政策の流れ、管轄区域、法制度によってアプローチが異なることがある。そのため、本報告書では、各コミュニティの知識と経験を活用し、効果的にアプローチを調整することで、政策対応を一致させるための協力を呼びかけている。 |
3. Fairness | 3. 公平性 |
Ensuring that AI systems process personal data fairly and lead to fair outcomes is paramount in both AI and privacy principles. The report discusses principles such as collection limitation, purpose specification, use limitation, openness, and data quality as fundamental to achieving fairness. | AIシステムが個人データを公正に処理し、公正な結果を導くことを保証することは、AIとプライバシーの原則の両方において最も重要である。本報告書では、収集の制限、目的の特定、利用の制限、公開性、データの質といった原則を、公正さを達成するための基本的なものとして論じている。 |
4. Transparency and explainability | 4. 透明性と説明可能性 |
Transparency is essential to inform individuals about how their personal data is used in AI systems and is also a prerequisite condition for processing personal data based on informed consent. Transparency builds trust and should enable users to make informed decisions regarding their data. The report mentions practical initiatives like model cards to enhance AI interpretability, ensuring that the information provided is meaningful and that AI outcomes are understandable. | 透明性は、AIシステムにおいて個人データがどのように利用されるかを個人に知らせるために不可欠であり、インフォームド・コンセントに基づいて個人データを処理するための前提条件でもある。透明性は信頼を築き、利用者が自分のデータに関して十分な情報を得た上で意思決定できるようにすべきである。報告書は、AIの解釈可能性を高めるためのモデルカードのような実用的な取り組みについて言及しており、提供される情報が意味のあるものであり、AIの結果が理解できるものであることを保証している。 |
5. Accountability | 5. 説明責任 |
Integrating AI and privacy risk management frameworks is crucial for addressing attendant risks in designing or adopting AI systems, and accountability mechanisms as they have been developed in the two communities can ensure that AI systems comply with data protection laws across jurisdictions and ethical standards. As well, well-established privacy management programmes can help identify, prevent and mitigate potential discrimination by AI systems. | AIとプライバシー・リスクマネジメントの枠組みを統合することは、AIシステムの設計や導入に伴うリスクに対処する上で極めて重要であり、2つのコミュニティで開発されてきた説明責任の仕組みは、AIシステムが法域を超えたデータ保護法や倫理標準に準拠していることを保証することができる。また、確立されたプライバシー管理プログラムは、AIシステムによる潜在的な識別的差別を特定、防止、軽減するのに役立つ。 |
![]() |
|
Note: These tables represent preliminary analysis and are not exhaustive. | 注:これらの表は予備的な分析であり、網羅的なものではない。 |
6. Global synergies and cooperation | 6. グローバルな相乗効果と協力 |
AI’s global reach necessitates international regulatory cooperation to address privacy challenges effectively. The report underscores the need for global synchronisation, clear guidance, and cooperative efforts to tackle AI’s impact on privacy. Indeed, cooperation can help prevent regulatory fragmentation and ensure consistent application of privacy principles across jurisdictions. | AIのグローバルな広がりは、プライバシーの課題に効果的に対処するための国際的な規制協力を必要とする。報告書は、AIがプライバシーに与える影響に取り組むためには、グローバルな同期、明確な指針、協力的な取り組みが必要であることを強調している。実際、協力は規制の分断を防ぎ、司法管轄区を超えたプライバシー原則の一貫した適用を確保するのに役立つ。 |
To help, the report provides a snapshot of national and regional developments in AI and privacy, indicating that while significant steps have been taken, more coordination is needed. Among other domains, the report identifies Privacy Enhancing Technologies (PETs) as a promising area of cooperation for addressing data governance and privacy concerns in AI. While not foolproof, PETs can help bridge the gap between developing safe AI models and protecting individuals’ privacy rights. | その一助として、本報告書はAIとプライバシーに関する各国・地域の動向のスナップショットを提供し、重要な一歩が踏み出された一方で、より多くの協調が必要であることを示している。他の領域の中で、報告書はAIにおけるデータ・ガバナンスとプライバシーの懸念に対処するための協力の有望な領域として、プライバ シー向上技術(PETs)を挙げている。確実ではないが、PETsは安全なAIモデルの開発と個人のプライバシー権保護のギャップを埋めるのに役立つ。 |
The OECD can play a pivotal role in fostering coordination, drawing on its extensive substantive expertise and established policy work in AI, data protection, and privacy. | OECDは、その広範な実質的専門知識と、AI・データ保護・プライバシーにおける確立された政策活動を活用し、協調を促進する上で極めて重要な役割を果たすことができる。 |
Integrating AI and privacy | AIとプライバシーの統合 |
The challenges at the intersection of AI, data governance and privacy are significant and the sheer interest in the new Expert Group on AI, Data and Privacy shows that the concern of striking a balance between innovative AI and privacy is global. | AI、データ・ガバナンス、プライバシーの交差点における課題は重大であり、新しい「AI、データ、プライバシーに関する専門家グループ」への関心の高さは、革新的なAIとプライバシーのバランスを取るという懸念が世界的なものであることを示している。 |
With its extensive experience in the areas of privacy and AI, the OECD is ready to help stakeholders develop AI systems that respect and protect privacy, thus ensuring that technological advancements benefit society while protecting individual rights. | プライバシーとAIの分野における豊富な経験を持つOECDは、関係者がプライバシーを尊重し保護するAIシステムを開発するのを支援する用意がある。 |
The authors would like to acknowledge the contribution of Sergi Gálvez Duran, Celine Caira, Sarah Berube, Andras Molnar, Limor Shmerling Magazanik and other members of the OECD Secretariat, in the writing of this blog post. | 本ブログ記事の執筆にあたり、Sergi Gálvez Duran、Celine Caira、Sarah Berube、Andras Molnar、Limor Shmerling Magazanik、その他OECD事務局メンバーの貢献に認可を謝意を表したい。 |
Comments