« 各国代表の新年の挨拶 2026年 | Main | 個人情報保護委員会 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)(2026.01.09) »

2026.01.10

英国 データとAIの倫理フレームワークの改訂 (2025.12.18)

こんにちは、丸山満彦です。

昨年の話ですが、栄光のデータとAIの倫理フレームワークが改訂されています。

前回の改訂が2020年9月でしたから、5年3ヶ月ぶりの改訂となります。この間、いろいろとありましたよね。。。

ということで、今回の改訂から、

・表題が、「Data Ethics Framework」から「Data and AI Ethics Framework」に変わりました。

・実装ツールとなるData and AI Ethics Self-Assessment Tool(自己評価ツール) を追加し、実際のプロジェクト計画やレビューに活用できるようになっていますね。

・原則についても透明性、説明責任、公平性からプライバシー、環境持続可能性、社会的影響、安全性の4つが加わり7原則となりました...

Transparency 透明性
Accountability 説明責任
Fairness 公平性
Privacy プライバシー
Environmental sustainability 環境持続可能性
Societal impact 社会的影響
Safety 安全性

 

Principle Definition 原則 定義
Transparency Transparency means that information about your project, actions, processes and data are communicated to relevant parties in an understandable, easily accessible and free way. Transparency includes the concept of explainability, which refers to the ability to understand and communicate how a system makes decisions, including how it arrived at an individual decision. 透明性 透明性とは、プロジェクトや行動、プロセス、データに関する情報を、関係者に理解しやすく、容易にアクセス可能で、かつ無料で伝達することを意味する。透明性には説明可能性の概念が含まれ、これはシステムが意思決定を行う仕組み、個々の決定に至った過程を含む、その理解と伝達能力を指す。
Accountability Accountability means that data and AI projects have appropriate and effective governance, oversight, and routes to challenge decisions in place, where this is necessary. It involves setting clear roles and responsibilities, and being transparent about the system and the processes around it. 説明責任 説明責任とは、データ及びAIプロジェクトにおいて、必要に応じて適切かつ効果的なガバナンス、監視体制、決定への異議申し立て手段が整備されていることを意味する。これには明確な役割と責任の設定、システム及び関連プロセスに関する透明性の確保が含まれる。
Fairness Fairness means avoiding unfair biases and impacts, and addressing accessibility barriers, while actively maximising positive impacts. You should assess data representativeness, bias, and the different potential impacts that can result from data use. You should mitigate model biases and aim for outputs and decisions generated with the help of automated processes to: * be non-discriminatory * be just * respect dignity * align with the public interest, human rights and democratic values * comply with the Equality Act 2010 and the Public Sector Equality Duty (PSED) 公平性 公平性とは、不当なバイアスや影響を回避し、アクセシビリティの障壁に対処しつつ、積極的に好影響を最大化することを指す。データの利用から生じうる代表性の欠如、バイアス、様々な潜在的影響をアセスメントすべきである。モデルバイアスを緩和し、自動化プロセスで生成される出力や決定が以下を満たすよう目指す必要がある:* 差別的でないこと* 公正であること* 尊厳を尊重すること* 公共の利益、人権、民主主義的価値観に沿うこと* 2010年平等法および公共部門平等義務(PSED)
Privacy Privacy means that personal data is respected and handled responsibly, ensuring it’s used only for intended purposes with an appropriate legal basis. It also means adhering to UK data protection regulation, including principles of data minimisation, purpose limitation and informed consent. プライバシー に準拠すること。プライバシーとは、個人データが尊重され責任を持って取り扱われ、適切な法的根拠のもとで意図された目的のみに使用されることを意味する。また、データ最小化、目的限定、情報に基づく同意といった原則を含む、英国のデータ保護規制を順守することも意味する。
Safety Safety refers to the use of data or development of a system without causing harm to people, organisations, wider social institutions or the environment. Data-driven systems such as AI should be robust, secure and safe at every stage of their life cycle. This means ensuring that they operate properly and reliably, without causing unnecessary safety or security risks. 安全性 安全性とは、個人、組織、広範な社会機構、環境に害を及ぼさずにデータを利用したりシステムを開発したりすることを指す。AIなどのデータ駆動型システムは、ライフサイクルのあらゆる段階で堅牢で安全かつ安心であるべきだ。これは、不必要な安全・セキュリティリスクを引き起こさず、適切かつ確実に動作することを保証することを意味する。
Societal impact Societal impact is about how the development and use of data and data-driven technologies impact wider society. For example, by helping to solve societal challenges and deliver public good. 社会的影響 社会的影響とは、データ及びデータ駆動型技術の開発・利用が広範な社会に与える影響を指す。例えば、社会的課題の解決や公共の利益の提供に寄与することなどが挙げられる。
Environmental sustainability Sustainability calls for responsible design and use of data and AI that minimises environmental impact, and supports long-term wellbeing for people and the planet. This means considering biospheric consequences when scoping potential AI and data projects, and building tools and systems that are robust and energy efficient. Biospheric consequences are the effects a project can have not only on the planet’s ecosystems but also its climate and the entire biosphere. 環境持続可能性 持続可能性とは、環境への影響を最小限に抑え、人と地球の長期的な健全性を支える、データとAIの責任ある設計・利用を求めるものである。これは、AIやデータプロジェクトの可能性を検討する際に生物圏への影響を考慮し、堅牢でエネルギー効率の高いツールやシステムを構築することを意味する。生物圏への影響とは、プロジェクトが地球の生態系だけでなく、気候や生物圏全体に及ぼしうる影響を指す。

 

GOV.UK

・2025.12.15 Data and AI Ethics Framework

ガイダンス

・[HTML] Data and AI Ethics Framework

・[ODT] Data and AI Ethics Self-Assessment Tool

 

序論の一部...

Introduction 序論
This framework provides a set of principles and activities to guide the responsible development, procurement and use of data and artificial intelligence (AI) in the public sector. It helps public servants understand ethical considerations and how to address these in their work. この枠組みは、公共部門におけるデータと人工知能(AI)の責任ある開発、調達、利用を導く一連の原則と活動を提供する。公務員が倫理的配慮を理解し、業務でこれらに対処する方法を助けるものである。
Data and AI ethics is about using data and data-driven technologies responsibly, including: データとAIの倫理とは、データおよびデータ駆動型技術を責任を持って使用することを意味し、以下を含む:
・respecting privacy ・プライバシーの尊重
・promoting fairness ・公平性の促進
・protecting individuals, communities and society from harm ・個人、コミュニティ、社会を危害から防御すること
This includes ensuring that data is collected, shared and used in appropriate, fair, safe, sustainable and transparent ways. これには、データが適切、公平、安全、持続可能かつ透明性のある方法で収集、共有、使用されることを確保することが含まれる。
The framework applies to any project that involves: 本枠組みは、以下のいずれかを伴うあらゆるプロジェクトに適用される:
・data (collection, sharing or use) ・データ(収集、共有、または使用)
・data-driven technologies ・データ駆動型技術
・AI ・AI
・automated decision-making and algorithmic tools ・自動化された意思決定およびアルゴリズムツール
In this guidance, this is what we mean when we refer to ‘data and AI’. 本ガイドラインにおいて「データとAI」とは、この意味を指す。
Who this guidance is for 対象者
The framework is for people who work in government and other public sector organisations. It’s mainly written for people who are designing, building, maintaining, using or updating projects that use data and AI. 本枠組みは、政府及びその他の公共部門組織で働く者を対象とする。主に、データとAIを利用するプロジェクトの設計、構築、維持、利用、更新に携わる者を想定している。
This may include: 具体的には以下のような立場の者が含まれる:
・developers ・開発者
・project managers ・プロジェクトマネージャー
・analysts ・アナリスト
・statisticians ・統計学者
・policy makers ・政策立案者
・commercial or procurement professionals ・商業・調達担当者
We also encourage anyone who works directly or indirectly with data and AI to read this guidance and apply it to their work. This includes operational staff and anyone helping to produce data-informed insight. また、データとAIに直接的・間接的に関わる全ての関係者にも、本ガイドラインを読み、業務に適用することを推奨する。これには運用スタッフやデータに基づく知見の創出を支援する者も含まれる。
How to use this guidance 本ガイドラインの活用方法
Your team should work through the framework together as you plan, implement and evaluate a project. You should regularly revisit it throughout your project, especially when you make changes to your work or project. プロジェクトの計画・実施・評価の過程で、チーム全体で本枠組みを順を追って適用すべきである。プロジェクト全体を通じて、特に作業内容やプロジェクトに変更を加える際には、定期的に見直すべきだ。
The framework covers a broad range of use cases and challenges that you might encounter. Some projects may be limited to certain aspects – for example, data collection and processing – while others may cover a full AI development life cycle. This means you might find certain parts of this guidance more or less relevant to your project. 本枠組みは、遭遇する可能性のある幅広いユースケースと課題を網羅している。プロジェクトによっては、データ収集や処理といった特定の側面に限定される場合もあれば、AI開発ライフサイクル全体をカバーする場合もある。つまり、本ガイダンスの特定の部分が、プロジェクトとの関連性の度合いが異なる可能性があるということだ。
Data and AI Ethics Self-Assessment Tool データ・AI倫理アセスメントツール
If your team is working on an AI or data-driven technology project, then as well as reading this guidance you should use the Data and AI Ethics Self-Assessment Tool. チームがAIまたはデータ駆動型技術プロジェクトに取り組む場合、本ガイダンスの読解に加え、データ・AI倫理アセスメントツールを使用すべきである。
The tool will help you capture information, and share learnings, challenges and progress with colleagues. We recommend that you maintain it along with your other project documentation to record decision making across the life cycle of a project. このツールは情報の収集を支援し、同僚との学び・課題・進捗の共有を可能にする。プロジェクトライフサイクル全体の意思決定を記録するため、他のプロジェクト文書と共に維持することを推奨する。
Why this guidance is important 本ガイダンスの重要性
Government guidance needs to address the rapidly evolving ethical challenges and risks posed by data and AI technologies. We’ve updated the previous version of this guidance to meet this need. 政府のガイダンスは、データとAI技術がもたらす急速に進化する倫理的課題とリスクに対処する必要がある。この必要性に応えるため、以前のガイダンスを更新した。
The Data and AI Ethics Framework bridges the gap between high-level ethical principles and practical actions. It considers themes such as safety, security and privacy through an ethical lens. It does not replace technical or regulatory guidance in these areas, but instead complements and connects to them. データとAI倫理枠組みは、高次元の倫理原則と実践的行動の間のギャップを埋める。安全性、セキュリティ、プライバシーといったテーマを倫理的観点から考察する。これらの分野における技術的・規制的ガイダンスに取って代わるものではなく、それらを補完し連携するものである。
It complements existing tools, standards and guidance, including the: 本指針は、以下の既存のツール、標準、指針を補完するものである:
・AI Playbook for the UK Government ・英国政府向けAIプレイブック
・Model for Responsible Innovation ・責任あるイノベーションのためのモデル
・Algorithmic Transparency Recording Standard (ATRS) ・アルゴリズム透明性記録標準(ATRS)
This guidance does not replace: 本指針は以下に代わるものではない:
・existing ethics guidance and tools for statisticians and social researchers, such as the UKSA’s Ethics Self-Assessment Tool ・統計学者や社会調査研究者向けの既存の倫理指針やツール(例:英国統計庁の倫理自己評価ツール)
・bespoke guidance provided by individual departments, devolved administrations or for specific professions ・個別省庁、地方分権行政機関、または特定職業向けに提供される特注の指針

 

序論の最後にトレードオフについての留意点?が記載されています。一般的な内容なので参考になるかもです...


トレードオフ

複数の倫理原則が互いに矛盾する場合がある。例えば、より多くの人口統計情報を使用すればバイアスを識別し公平性を促進できるが、個人のプライバシーを犠牲にする可能性がある。こうした状況ではトレードオフを考慮する必要がある。倫理的なトレードオフは本質的に複雑であり、慎重に対処しなければならない。

適切なトレードオフを確立するためのアプローチ例は以下の通りだ:

  • 影響を受けるコミュニティと関わり、価値観や影響を理解することでステークホルダーの視点を組み込む
  • 法的・人権的枠組みを参照し、決定が国内および国際標準に沿うことを確保する
  • 比例性と必要性のバランスを取る
  • 有意義かつ包括的な審議を確保する
  • 結果を監視する仕組みを確立し、必要に応じて調整する

 

1_20260110064901

 


 

 まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.06 英国 議会 政府におけるAIの活用 (2025.03.26)

・2025.02.12 英国 英国政府のためのAIプレイブック(2025.02.10)

・2025.02.03 英国 AI安全報告書 2025

・2025.01.27 英国 現代的デジタル政府のための青写真 (2025.01.21)

・2025.01.26 英国 AI機会行動計画 (2025.01.13)

 

 

 

|

« 各国代表の新年の挨拶 2026年 | Main | 個人情報保護委員会 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)(2026.01.09) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 各国代表の新年の挨拶 2026年 | Main | 個人情報保護委員会 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)(2026.01.09) »