法律 / 犯罪

2026.04.10

経済産業省 AI利活用における民事責任の解釈適用に関する手引き (2026.04.09)

こんにちは、丸山満彦です。

経済産業省が「AI利活用における民事責任の解釈適用に関する手引き」を公表していますね...

主な検討対象...

1_20260410064101

想定事例として、配送ルート最適化AI、弁護士業務支援AI、取引審査AI、外観検査AI、自律走行ロボット(AMR)と補論としてAIエージェントを挙げています...

AIエージェントを入れたのは時代ですね...ただ、よく読むとこれをAIエージェントと呼ぶのかなぁ...という気がしますね...

 

● 経済産業省

・2026.04.09「AI利活用における民事責任の解釈適用に関する手引き」を公表しました

 

関連資料

20260410-64343

20260410-64504

 

関連リンク

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.04.01 総務省 「AI事業者ガイドライン第1.2版」と「AI事業者ガイドライン活用の手引き(案)」(2026.03.31)

Agentic AI & AI Agent

・2026.03.28 Codex CLI Hardening Cheatsheet これは興味深い...

・2026.03.27 OWASP 2026年版 エージェント型アプリケーション向けOWASP Top 10 (2025.12.09)

・2026.03.25 Claude Code Hardening Cheatsheet これは興味深い...

・2026.03.15 米国 財務省 FSSCC CRI AIレキシコン、金融サービス向けAIリスク管理フレームワーク (2026.02.19)


・・Artificial Intelligence Executive Oversight Group AI Lexicon February 2026

Agentic AI – A category of AI systems capable of independently making decisions, interacting with their environment, and optimizing processes without direct human intervention. (https://doi.org/10.1016/j.array.2025.100399, https://doi.org/10.3390/fi17090404)

AI Agent – A system that autonomously perceives its environment, decides what to do, and takes actions to achieve its goals. (https://www.mdpi.com/1999-5903/17/9/404)


・2026.03.08 OECD エージェンティックAIの展望とその概念的基盤

Agentic AIとAI Agentを使い分けようとする試みとも言える。さまざまな文献から定義を抜き出し、その特徴を分析しています...

・・The agentic AI landscape and its conceptual foundations

AI agents are systems that can perceive and act upon their environment with a degree of autonomy, using tools as needed to achieve specific goals and adapt to changing inputs and contexts.

Agentic AI generally refers to systems composed of multiple co-ordinated AI agents that can break down tasks, collaborate, and pursue complex objectives autonomously over extended periods. Agentic AI systems are designed to operate in more open-ended, less predictable physical or virtual environments and to function with minimal human supervision.


 

2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進


・・New Concept Paper on Identity and Authority of Software Agents

AI agents—systems that have the capability for autonomous decision-making and taking action to operate with limited human supervision to achieve complex goals—


・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)


・・ Request for Information Regarding Security Considerations for Artificial Intelligence Agents

AI Agent Systemという使い方をしています...

AI agent systems are capable of planning and taking autonomous actions that impact real-world systems or environments. AI agent systems consist of at least one generative AI model and scaffolding software that equips the model with tools to take a range of discretionary actions. 


2025.11.13 OpenID Japan 「Identity Management for Agentic AI」の翻訳版公開 (2025.11.09)


・・「Identity Management for Agentic AI」の翻訳版

AIエージェントと呼ぶものは、モデル推論時の「決定」をもとに、特定の目標に向けた「行動」を実行する能力を持つAIベースのシステムを指す。


・2025.10.09 英国 ICOの内部AI利用規定が公表され、多くの人が参考にできるようになっていますね...

・2025.04.18 米国 AI政策戦略研究所(IAPS)AIエージェントのガバナンス: フィールドガイド (2025.04.17)


・・AI Agent Governance: A Field Guide

Agents—AI systems that can autonomously achieve goals in the world, with little to no explicit human instruction about how to do so—

 

| | Comments (0)

内閣官房 国家情報会議設置法案他 (2028.03.13-04.07)

こんにちは、丸山満彦です。

今回(第221回)の国会に内閣官房から提出される法案...

 

法律案 国会提出日 担当部局 資料
国家情報会議設置法案 R8.3.13 内閣情報調査室 概要
要綱
法律案・理由
新旧対照表
参照条文
防災庁設置法案 R8.3.6 防災庁設置準備室 概要
要綱
法律案・理由
参照条文
防災庁設置法の施行に伴う関係法律の整備等に関する法律案 R8.3.6 防災庁設置準備室 概要
要綱
法律案・理由
新旧対照表
参照条文1/3
参照条文2/3
参照条文3/3
現在掲載している資料は、令和8年3月18日に更新しております。それ以前に掲載していた資料は、新旧対照表に一部誤りがありましたので、正誤表のとおり修正しております。
正誤表
情報通信技術を活用した行政の推進等に関する法律及び情報処理の促進に関する法律の一部を改正する法律案 R8.4.7 デジタル行財政改革会議事務局 概要
要綱
法律案・理由
新旧対照表
参照条文

 

法律案 概要
国家情報会議設置法案 20260409-94051
防災庁設置法案 20260409-94124
防災庁設置法の施行に伴う関係法律の整備等に関する法律案
情報通信技術を活用した行政の推進等に関する法律及び情報処理の促進に関する法律の一部を改正する法律案 20260409-94158

 

 

| | Comments (0)

2026.04.09

米国 FBI 2025年インターネット犯罪レポート (2025.04.07)

こんにちは、丸山満彦です。

米国のFBIが2025年のインターネット犯罪レポートを公表していますね...サイバー犯罪の通報窓口としての中核機関として25周年を迎えたとのことです...

  • 2025年の損失額:208億ドル(3.3兆円)<<< 166億ドル(約2.4兆円)
  • 対前年比 25%増 <<< 33%増
  • 2025年の苦情受付件数:1,008,597件 << 859,532件

 

2025年の上位10位の犯罪タイプについて過去10年間のグラフにしてみました

件数はフィッシング・なりすましが多いのは例年どおりだが、恐喝が増えている。投資も増えている。

1_20260408191201

 

 

被害額は、圧倒的に投資詐欺が多い。そして昨年より増えている分は投資詐欺の増加分。

投資詐欺は高齢者を狙った犯罪が多いようですね...

Photo_20260408191201

 

日本で話題のランサムがない!!!ということではないのですが...

2025のデータでみてみると...

件数は3,611件。日本は226件だから日本の16倍...

3_20260408191801

 

 

被害額でいうと、ランサムは32百万ドル(51億円)。全体から見ると誤差...

4_20260408191901

 

 


 

 

 


 

⚫︎ Internet Crime Complaint Center (IC3) - Annual Reports

 

2025 IC3 Annual Report

20260408-192455

 

2025 State Reports
2025 Complainants 17 Years Old or Younger State Reports
2025 Cryptocurrency State Reports
2025 Elder Fraud State Reports

 

 

2011年からの年報告書がそろっています...

 

2001年からのレポートを載せておきますね...

2025_ic3report.pdf

2024_ic3report.pdf

2023_ic3report.pdf

2022_ic3report.pdf

2021_ic3report.pdf

2020_ic3report.pdf

2019_ic3report.pdf

2018_ic3report.pdf

2017_ic3report.pdf

2016_ic3report.pdf

2015_ic3report.pdf

2014_ic3report.pdf

2013_ic3report.pdf

2012_ic3report.pdf

2011_ic3report.pdf

2010_ic3report.pdf

2009_ic3report.pdf

2008_ic3report.pdf

2007_ic3report.pdf

2006_ic3report.pdf

2005_ic3report.pdf

2004_ic3report.pdf

2003_ic3report.pdf

2002_ifccreport.pdf

2001_ifccreport.pdf


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.27 米国 FBI 2024年インターネット犯罪レポート (2025.04.23)

・2024.03.13 米国 FBI 2023年インターネット犯罪レポート (2024.03.11)

・2023.04.14 米国 FBI 2022年インターネット犯罪レポート (2023.03.22)

・2022.03.23 米国 FBI 2021年インターネット犯罪レポート

・2021.04.11 FBI インターネット犯罪レポート2020を発表

 

日本...

・2026.03.19 警察庁 令和7年におけるサイバー空間をめぐる脅威の情勢等 (2026.03.12)

・2025.03.22 警察庁 サイバー空間をめぐる脅威の情勢等 (2025.03.13)

・2024.12.30 公安調査庁 サイバー空間における脅威の概況2024 (2024.12)

・2024.10.31 警察庁 令和5年の犯罪 (2024.10)

・2023.10.31 警察庁 令和4年の犯罪 (2023.10.20)

・2023.06.08 公安調査庁 サイバー空間における脅威の概況2023 (2023.05.25)

・2023.03.17 警察庁 令和4年におけるサイバー空間をめぐる脅威の情勢等について

・2022.04.17 公安調査庁 サイバー空間における脅威の概況2022

・2022.04.12 警察庁 令和3年におけるサイバー空間をめぐる脅威の情勢等について (2022.04.07)

 

日米の警察にきているサイバー犯罪の苦情件数の差ってなんなんでしょうね。。。ということでこの委員会なんでしょうかね。。。

・2023.04.11 警察庁 サイバー事案の被害の潜在化防止に向けた検討会報告書 (2023.04.06)

・2022.12.05 警察庁 「サイバー事案の被害の潜在化防止に向けた検討会」の開催

 

 

| | Comments (0)

2026.04.08

個人情報保護委員会 個人情報の保護に関する法律等の一部を改正する法律案 (2026.04.07)

こんにちは、丸山満彦です。

個人情報保護法案が閣議決定され、公表されていますね...

ウェブ上にはつぎの3つのことが書かれています...

  • 身体の一部の特徴に係る情報が含まれる個人情報等について違法な取扱い等がなくとも本人による利用停止等の請求を可能とする
  • 個人情報の違法な取扱い等によって財産上の利益を得た場合に個人情報保護委員会が課徴金納付を命ずる制度を設ける
  • 統計等の作成を行う第三者に個人情報を提供する場合等について本人の同意を不要とする

AI Agent等についてはこれからですかね...一歩ずつ一歩ずつ (^^)...

 

個人情報保護委員会

・2026.04.07 「個人情報の保護に関する法律等の一部を改正する法律案」の閣議決定について

20260407-163816

 

子供の個人情報の取り扱い顔特徴データ等に関する規律

20260407-163954

 

個人情報取扱事業者等からデータ処理等の委託を受けた事業者に対する規律の在り方漏えい等報告・本人通知

20260407-164312

 

「具体的には、自らが講ずべき安全管理措置と同等の措置が講じられるよう、監督を行う必要がある(①適切な委託先の選定、②委託契約の締結、③委託先における個人データ取扱状況の把握)。」というのは私が関わった経済産業省の最初のガイドラインの時からの考え方でわたしがいった内容でもあるのですが、「同等の措置」というのは、全く同じではなく、同じ程度のリスクが低減された状態であれば良いということになるのですが、、、果たして外部からそれがどこまでわかるのか???というのは疑問ではありますね...(自分で言うな (^^)

経済産業省のサプライチェーン・サイバーセキュリティ対策評価制度(SCS制度)もできましたし、どのように活用しますかね...

 

横書き条文を吉井先生が作ってくれています (^^)

note 吉井和明

・2026.04.07 個人情報保護法改正案の横書き

 

これは便利!!

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.01 個人情報保護委員会 第2回 個人情報保護政策に関する懇談会 (2026.02.02)

・2026.01.11 個人情報保護委員会 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)(2026.01.09)


・2025.09.25 個人情報保護委員会 第1回個人情報保護政策に関する懇談会

・2025.04.26 個人情報保護委員会 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要 (2025.04.16) と個人情報保護政策に関する懇談会の開催 (2025.04.21)

・2025.03.12 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第315 - 316回委員会)(2025.03.05)

・2025.02.10 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会)

・2025.01.23 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第311-312回委員会)

・2024.12.20 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第310回委員会、第6-7回検討会)

・2024.11.26 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第304回委員会、第3-5回検討会)

・2024.09.06 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第299回委員会、第2回検討会)

・2024.08.04 個人情報保護委員会 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会

・2024.06.28 個人情報保護委員会 意見募集 いわゆる3年ごと見直しに係る検討の中間整理

・2024.06.04 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中... (2)

・2024.04.25 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中...

・2024.01.06 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング中...



 

 

 

| | Comments (0)

2026.04.07

英国 ICO プロファイリングを含む自動化された意思決定に関するドラフトガイダンス案についてのICOの意見募集 (2026.03.31)

こんにちは、丸山満彦です。

英国の情報コミッショナー事務局(ICO)がプロファイリングを含む自動化された意思決定(ADM)に関するドラフトガイダンス案について意見募集をしていますね...

ADMについての現在のバージョンは2022年のものです...

2025年の法改正(Data Use and Access Act 2025)に伴う構造的な再定義といえますね...

2022年:「原則禁止」アプローチ 
・ADMは例外場合にのみ実施可能 
・組織は実施自体を慎重に検討

から、

2026年:「責任あるイノベーション」アプローチ 
・ADM実施は可能だが、保護措置が法的義務 
・透明性・公平性・説明責任の実践的担保が核心

という感じですかね...

変更点はこんな感じ...

項目 2022年版(旧ガイドライン) 2026年版(新ガイドライン) 変更のポイント・実務への影響
① 根拠法規の刷新 改正前UK GDPR 第22条「原則禁止+例外許可」 改正後UK GDPR 第22A〜22D条へ再編「権利ベース+セーフガード」 **2025年改正法(DUAA)**を全面反映。ADM実施自体は可能に。ただし透明性・保護措置の適用が法的義務となり、コンプライアンス設計の見直しが必要
② 規制の対象(3要素テスト) 「完全に自動化された決定」を個別概念で説明 「3要素テスト」の明示
①個人に関する決定 +
②法的効果または同様に重大な影響 +
③意味のある人間の関与を欠く完全自動化
3要素を**相互に関連付けて評価(in tandem)**することを明文化。単に「重大な影響」があるだけでは規制対象とならず、3条件が全て揃った場合にのみ適用。適用除外の誤判断防止のため、処理フローの再マッピングと文書化が必須
③ 「意味のある人間の関与」の5要件 「人間が介在すれば自動決定ではない」という概括的説明 「実質的な人間による関与」の5要件を具体化
①実質的影響力
②変更権限
③裁量権
④適切な訓練
⑤関連データ考慮
形式的な承認(ラバースタンプ)を否定。設計段階の参画は「関与」とみなされないため、決定直前のレビュー体制を構築。各候補者・各決定・各プロセス段階で一貫した人間の関与を確保する必要がある
④ 「関与」と「介入」の概念区別 両者の区別が曖昧で混同のリスク 「人間の関与」=ADM該当性判断要素(決定プロセス中)
人間の介入」=事後保護措置(ケースバイケースレビュー)
規制適用の有無と権利行使の要件を混同しないよう、内部トレーニングと手順書の整備が不可欠。レビュー結果の記録保持も説明責任の証拠として必須
⑤ 適法性根拠の新制限 7種類の根拠を列挙するのみ 「承認された正当な利益」はADMに使用不可と明記。通常の「正当な利益」は三段階テスト+説明責任を強化 既存の根拠見直しと正当性評価(LIA)の更新。特に採用・マーケティング処理で「承認された正当な利益」を誤用しないよう注意。三段階テスト(目的・必要性・均衡性)の文書化が必須
⑥ セーフガードの法定化(第22C条) 第22条に基づく一般的な原則論 第22C条で4措置を法定化:
①決定情報の提供
②意見表明
③人間介入
④異議申立。恣意的適用禁止・一貫性確保が義務
4措置の運用手順・チャネル・記録体制を整備。個人が権利行使しやすい設計と、対応ログの保持が監査対応に必須。原則1ヶ月以内の対応が求められる
⑦ AIガバナンスとの統合 ITシステム一般としての扱い 将来の「AI・ADM法定実務規範」の基礎として位置付け 本ガイダンスを基に策定されるコードに備え、バイアス監査・品質診断・是正措置等の実践的ガバナンスを事前に要求。技術的対策と組織的対策の統合的実施が実務的に要求
⑧ 特別カテゴリデータの取扱条件(第22B条) 第22(4)条で「明示的同意」または「実質的公共利益」のいずれかを要求 第22B条で3条件に再編+実質的公共利益条件の特定を義務化:
①個人の明示的同意 /
②契約の履行に必要+実質的公共利益 /
③法令により要求/許可+実質的公共利益
使用条件が厳格化。推論によって特別カテゴリデータが生成された場合も、意図的に差別目的で使用すれば規制対象。実務では各条件の適用要件を文書化し、データの使用有無を慎重に評価する必要がある
⑨ 透明性義務の3時点での明確化 収集時・アクセス時の説明を一般的に推奨 3時点での情報提供を明確に区分:
①収集時:プライバシー通知による「存在・論理の概要・予想される影響」の開示(第13・14条)
②アクセス権行使時:主体アクセス請求への回答として同情報を提供(第15条)
③ADM実施時:セーフガードとして、実際の決定・要因・影響についての具体的説明を事前提供(第22C条)
決定ごとの具体的説明が新たに義務化。抽象的説明では不十分。「意味のある情報」の提供には、平易な言語・個人の理解力・年齢に応じた配慮が求められる。実務では各時点での情報提供内容を設計・文書化する必要がある
⑩ 児童の保護の強化 Recital 38の引用程度 児童特有のリスク評価と説明方法を義務的要素として強調:
• 行動プロファイリングによる過度なナッジ・依存パターン形成のリスク評価
• 年齢適正設計コード(Children's Code)に準拠した説明方法の採用
児童にとって「重大な影響」の判断基準を大人とは別に評価
児童対象処理では「重大な影響」の判断基準を大人とは別に評価し、説明方法を最適化する必要がある。実務では児童向け処理のリスク評価と年齢適正設計への準拠が必須。特にマーケティング・プロファイリング処理では追加的な配慮が求められる

 

Information Commissioner's Office: ICO

・2026.03.31 ICO consultation on the draft guidance about automated decision-making, including profiling

ICO consultation on the draft guidance about automated decision-making, including profiling プロファイリングを含む自動化された意思決定に関するドラフトガイダンス案についてのICOの意見募集
Overview  概要 
The Information Commissioner’s Office (ICO) is consulting on draft guidance about automated decision-making, including profiling. This guidance serves as an update to existing guidance on automated decision-making and profiling.   情報コミッショナー事務局(ICO)は、プロファイリングを含む自動化された意思決定に関するドラフトガイダンス案について意見募集を行っている。このガイダンスは、自動化された意思決定およびプロファイリングに関する既存のガイダンスを改訂するものである。
The updates to our guidance follow the introduction of the Data (Use and Access) Act 2025. Your responses will help us provide any further clarity needed in the final guidance update.   本ガイダンスの更新は、2025年データ(利用およびアクセス)法の施行を受けたものである。皆様からの回答は、最終的なガイダンス更新において必要なさらなる明確化を図る上で役立つ。
The guidance focuses on the provisions specific to automated decision-making. It isn’t intended to cover every data protection concept and provides links to more information on our website. This guidance is aimed at data protection officers, compliance professionals, and technical leads with oversight of your organisation’s use or procurement of ADM systems. Despite this, we are happy to receive submissions from everyone, including members of the public.   本ガイダンスは、自動化された意思決定に特化した規定に焦点を当てている。すべてのデータ保護の概念を網羅することを意図したものではなく、当ウェブサイトの詳細情報へのリンクを提供している。本ガイダンスは、組織におけるADMシステムの使用または調達を監督するデータ保護責任者、コンプライアンス担当者、および技術責任者を対象としている。とはいえ、一般市民を含むすべての方からのご意見をお待ちしている。
In due course, we will also update the “in brief” guidance, which provides a shorter overview: Rights related to automated decision making including profiling, and guidance for the public: Your rights relating to decisions being made about you without human involvement.   追って、より簡潔な概要をまとめた「概要」ガイダンスも更新する予定だ。その内容は、「プロファイリングを含む自動化された意思決定に関連する権利」および「一般市民向けガイダンス:人間の関与なしに行われるあなたに関する決定に関連する権利」である。

 

ガイド案

・Automated decision-making, including profiling

Automated decision-making, including profiling プロファイリングを含む自動化された意思決定
We are consulting on the Data (Use and Access) Act updates to this guidance. 本ガイダンスの「データ(利用およびアクセス)法」に基づく改訂について、現在意見募集を行っている。
The previous version of this ADM guidance is available as a PDF. We will withdraw this when we’ve finalised the updated guidance after the consultation. 本ADMガイダンスの旧バージョンはPDF形式で入手可能だ。意見募集終了後、改訂版ガイダンスが確定次第、旧バージョンは削除する。
About this guidance 本ガイダンスについて
These chapters sit alongside our brief guidance and provide more detailed guidance for organisations on ADM, including profiling.  これらの章は、簡潔なガイダンスと併せて利用され、プロファイリングを含むADMについて組織向けに詳細な指針を提供するものである。
If you haven’t yet read the brief guidance, read that first. It introduces this topic and sets out the key points you need to know. まだ簡潔なガイダンスを読んでいない場合は、まずそちらを参照すること。そこでは本トピックが紹介され、知っておくべき重要なポイントが示されている。
When we use the term ‘ADM’ in this guidance, we specifically refer to automated decision-making as defined in article 22A of the UK GDPR. This is where a decision: 本ガイダンスにおいて「ADM」という用語を使用する場合、英国GDPR第22A条で定義される自動意思決定を特に指す。これは、以下の条件を満たす意思決定を指す:
is “based solely on automated processing”, including profiling (ie there is no meaningful human involvement in the decision); and 「プロファイリングを含む、自動処理のみに基づいて行われる」(すなわち、意思決定に有意義な人的関与がない);および
has a “legal or similarly significant effect” on a person (which the UK GDPR refers to as a 'significant decision'). 個人に対して「法的またはそれに準ずる重大な影響」を及ぼす(英国GDPRではこれを「重大な決定」と呼ぶ)。
We also use the term ‘the ADM provisions’ to describe articles 22A-22D of the UK GDPR. また、英国GDPRの第22A条から第22D条を指すために、「ADM規定」という用語も使用する。
Read this detailed guidance if you have questions not answered in the brief guidance, or if you need more information to help you apply the rules relating to ADM in practice. 簡易ガイダンスで回答されていない質問がある場合、または実務においてADMに関連する規則を適用するためのさらなる情報が必要な場合は、この詳細なガイダンスを参照すること。
This guidance will inform the statutory code of practice on artificial intelligence (AI) and ADM that we will develop.      このガイダンスは、我々が策定する人工知能(AI)およびADMに関する法定実務指針の基礎となるものである。
Why have you produced this guidance? なぜこのガイダンスを作成したのか?
The purpose of this guidance is to help organisations understand and meet your obligations when you carry out ADM. It explains the relevant provisions of the UK GDPR and provides advice on good practice. Read it to understand the law, our interpretation, and recommendations for compliance. このガイダンスの目的は、組織がADMを実施する際に、その義務を理解し、これを履行できるよう支援することにある。本ガイダンスでは、英国GDPRの関連規定を解説し、適切な実践に関する助言を提供する。法律、当機関の解釈、およびコンプライアンスのための推奨事項を理解するために、本ガイダンスを参照すること。
This guidance is not an exhaustive manual. It focuses on the ADM provisions. While it addresses the key considerations, you remain responsible for ensuring you comply with any other provisions that apply to your processing, as well as any other applicable laws and regulations. 本ガイダンスは網羅的なマニュアルではない。ADMに関する規定に焦点を当てている。主要な考慮事項については言及しているが、自組織の処理に適用されるその他の規定や、その他の適用法への遵守を確保する責任は、依然として各組織にある。
Who is this guidance for? 本ガイダンスの対象者は誰か?
This guidance is aimed at you if you are planning to carry out ADM. This includes deploying in-house-developed ADM tools or solutions offered by external vendors. 本ガイダンスは、ADMの実施を計画している組織を対象としている。これには、自社開発のADMツールの展開や、外部ベンダーが提供するソリューションの展開が含まれる。
This guidance is aimed at data protection officers, compliance professionals, and technical leads with oversight of your organisation’s use or procurement of ADM systems. 本ガイダンスは、組織におけるADMシステムの使用または調達を監督するデータ保護責任者、コンプライアンス担当者、および技術責任者を対象としている。
The DPA 2018 contains similar provisions in part 3 (law enforcement processing) and part 4 (intelligence services processing). This guidance is specifically about the ADM provisions in the UK GDPR. If part 3 or part 4 apply to your processing, read our guide to law enforcement processing or our guide to intelligence services processing.  2018年データ保護法(DPA 2018)の第3部(法執行機関による処理)および第4部(情報機関による処理)には、同様の規定が含まれている。本ガイダンスは、特に英国GDPRにおけるADMに関する規定について扱っている。自組織の処理に第3部または第4部が適用される場合は、法執行機関による処理に関するガイド、または情報機関による処理に関するガイドを参照すること。
Must, should, could - using this guidance to comply 「必須」、「推奨」、「可能」-本ガイダンスを活用したコンプライアンス
About the ICO ICOについて
Contents 目次
What is ADM? ADMとは何か?
What is automated decision-making about people? 個人に関する自動意思決定とは何か?
What is profiling? プロファイリングとは何か?
What is AI and how does it relate to ADM and profiling? AIとは何か、またADMやプロファイリングとどう関係するのか?
What are the benefits of ADM? ADMの利点とは何か?
What are the risks? リスクとは何か?
What does the UK GDPR say about ADM? 英国GDPRはADMについてどう定めているか?
When do the ADM provisions apply? ADMに関する規定はいつ適用されるか?
What is a decision? 「決定」とは何か?
What is a ‘significant decision’? 「重要な決定」とは何か?
What is a ‘solely’ automated decision? 「完全に」自動化された意思決定とは何か?
Can we carry out ADM? ADMを実施することは可能か?
How do we carry out ADM lawfully? ADMを合法的に実施するにはどうすればよいか?
What does it mean for our ADM to be lawful? ADMが合法的であるとはどういう意味か?
When can we rely on consent? いつ同意を根拠とすることができるか?
When can we rely on contract? いつ契約を根拠とすることができるか?
When can we rely on public task? いつ公的任務を根拠とすることができるか?
When can we rely on legitimate interests? いつ正当な利益を根拠とすることができるか?
What about the other lawful bases? その他の法的根拠についてはどうなのか?
When can we use special category data in our ADM? ADMにおいて、いつ特別カテゴリーのデータを使用できるのか?
What is special category data? 特別カテゴリーのデータとは何か?
What are the special category data conditions for ADM? ADMにおける特別カテゴリーのデータに関する条件とは何か?
When can we rely on the ‘explicit consent’ condition for ADM? ADMにおいて、いつ「明示的な同意」の条件に依拠できるのか?
When can we rely on the ‘contract’ condition for ADM? ADMにおいて、いつ「契約」の条件に依拠できるのか?
When can we rely on the ‘required or authorised by law’ condition for ADM? ADMにおいて、いつ「法律で要求または許可されている」という条件に依拠できるのか?
What are the ADM safeguards? ADMのセーフガードとは何か?
What are the safeguards in the ADM provisions? ADM規定における保護措置とは何か。
What ‘information about decisions’ do we have to provide? どのような「決定に関する情報」を提供しなければならないのか。
How do we enable people to make representations? どのようにして人々が意見を表明できるようにするのか。
What is ‘human intervention’? 「人的介入」とは何か。
How do we enable people to contest decisions? どのようにして人々が決定に異議を申し立てられるようにするのか。
What do we do if someone exercises their rights under the ADM provisions? 誰かがADM規定に基づく権利を行使した場合、どう対応すべきか。
What rights do people have? 人々にはどのような権利があるのか。
What do we need to tell people and when? いつ、どのような情報を人々に伝える必要があるのか。
What do we need to tell people under the right to be informed? 「通知を受ける権利」に基づき、人々に何を伝える必要があるか?
What do we need to tell people under the right of access? 「アクセス権」に基づき、人々に何を伝える必要があるか?
What do we need to tell people under the ADM safeguards? ADMのセーフガードに基づき、人々に何を伝える必要があるか?
How should the information be delivered? 情報はどのように提供すべきか?
What else do we need to consider? 他に何を考慮する必要があるか?
Do we have to do a data protection impact assessment (DPIA)? データ保護影響評価(DPIA)を実施する必要があるか?
Do we need to make any other changes to our systems? システムにその他の変更を加える必要があるか?

 

・[PDF] 

20260406-170443

 

 


 

Legislation.gov.uk

Regulation (EU) 2016/679 of the European Parliament and of the Council

 

Section 4AAutomated individual decision-making 第4A節 自動化された個別意思決定
Article 22AAutomated processing and significant decisions 第22A条 自動化された処理および重要な意思決定
1.For the purposes of Articles 22B and 22C— 1.第22B条及び第22C条の目的上—
(a)a decision is based solely on automated processing if there is no meaningful human involvement in the taking of the decision, and (a)決定の採択に有意義な人的関与がない場合、その決定は自動処理のみに基づくものとみなされる。
(b)a decision is a significant decision, in relation to a data subject, if— (b)決定がデータ対象者に関して重要な決定であるとは、次のいずれかに該当する場合をいう—
(i)it produces a legal effect for the data subject, or (i)当該決定がデータ対象者に対して法的効果を生じさせる場合、または
(ii)it has a similarly significant effect for the data subject. (ii)当該決定がデータ対象者に対して同様の重要な効果をもたらす場合。
2.When considering whether there is meaningful human involvement in the taking of a decision, a person must consider, among other things, the extent to which the decision is reached by means of profiling. 2. 意思決定に有意義な人的関与があるかどうかを検討する際、当該者は、とりわけ、その意思決定がプロファイリングによってどの程度行われているかを考慮しなければならない。
Article 22BRestrictions on automated decision-making 第22B条 自動化された意思決定の制限
1.A significant decision based entirely or partly on processing described in Article 9(1) (processing of special categories of personal data) may not be taken based solely on automated processing, unless one of the following conditions is met. 1.第9条第1項(特別の種類の個人データの処理)に規定する処理に完全または部分的に基づく重要な意思決定は、以下の条件のいずれかが満たされない限り、自動化された処理のみに基づいて行ってはならない。
2.The first condition is that the decision is based entirely on processing of personal data to which the data subject has given explicit consent. 2. 第1の条件は、当該決定が、データ対象者が明示的に同意したパーソナルデータの処理に完全に基づいていることである。
3.The second condition is that— 3. 第2の条件は、以下のとおりである。
(a)the decision is— (a) 当該決定が、
(i)necessary for entering into, or performing, a contract between the data subject and a controller, or (i) データ対象者とデータ管理者との間の契約の締結または履行のために必要であるか、または
(ii)required or authorised by law, and (ii) 法律により要求または許可されているものであり、かつ
(b)point (g) of Article 9(2) applies. (b) 第9条第2項(g)号が適用されること。
4.A significant decision may not be taken based solely on automated processing if the processing of personal data carried out by, or on behalf of, the decision-maker for the purposes of the decision is carried out entirely or partly in reliance on Article 6(1)(ea). 4. 意思決定者によって、または意思決定者のために、当該決定の目的で行われるパーソナルデータの処理が、第6条第1項(ea)に基づき、全部または一部が行われている場合、自動処理のみに基づいて重要な決定を行うことはできない。
Article 22CSafeguards for automated decision-making 第22条C 自動意思決定のための保護措置
1.Where a significant decision taken by or on behalf of a controller in relation to a data subject is— 1.データ対象者に関して、データ管理者によって、またはデータ管理者に代わってなされた重要な決定が、
(a)based entirely or partly on personal data, and (a)個人データに完全または部分的に基づくものであり、かつ
(b)based solely on automated processing, (b)自動処理のみに基づくものである場合、
the controller must ensure that safeguards for the data subject’s rights, freedoms and legitimate interests are in place which comply with paragraph 2 and any regulations under Article 22D(3). データ管理者は、第2項および第22D条第3項に基づく規則に準拠した、データ対象者の権利、自由および正当な利益のための保護措置が講じられていることを確保しなければならない。
2.The safeguards must consist of or include measures which— 2. 当該保護措置は、以下の措置から成るか、またはこれらを含むものでなければならない。
(a)provide the data subject with information about decisions described in paragraph 1 taken in relation to the data subject; (a) データ対象者に対し、当該データ対象者に関して行われた第1項に規定する決定に関する情報を提供すること。
(b)enable the data subject to make representations about such decisions; (b) データ対象者が当該決定について意見を述べることを可能とすること。
(c)enable the data subject to obtain human intervention on the part of the controller in relation to such decisions; (c) データ対象者が、当該決定に関してデータ管理者の側による人的介入を得られるようにすること。
(d)enable the data subject to contest such decisions. (d) データ対象者が当該決定に異議を申し立てられるようにすること。
Article 22DFurther provision about automated decision-making 第22D条 自動化された意思決定に関する追加規定
1.The Secretary of State may by regulations provide that, for the purposes of Article 22A(1)(a), there is, or is not, to be taken to be meaningful human involvement in the taking of a decision in cases described in the regulations. 1.国務大臣は、規則により、第22A条第1項(a)の目的上、当該規則に規定される場合において、意思決定の過程に有意義な人的関与があるか、又はないものとみなす旨を定めることができる。
2.The Secretary of State may by regulations provide that, for the purposes of Article 22A(1)(b)(ii), a description of decision is, or is not, to be taken to have a similarly significant effect for the data subject. 2. 国務大臣は、規則により、第22A条(1)(b)(ii)の目的上、決定の説明が、データ対象者に対して同様の重大な影響を及ぼすものとみなされるか否かを定めることができる。
3.The Secretary of State may by regulations make the following types of provision about the safeguards required under Article 22C(1)— 3. 国務大臣は、規則により、第22C条(1)で要求される保護措置について、以下の種類の規定を設けることができる。
(a)provision requiring the safeguards to include measures in addition to those described in Article 22C(2), (a)保護措置に、第22C条(2)に規定される措置に加えて、さらなる措置を含めることを求める規定、
(b)provision imposing requirements which supplement what Article 22C(2) requires the safeguards to consist of or include (including, for example, provision about how and when things described in Article 22C(2) must be done or be capable of being done), and (b)第22C条(2)が保護措置の構成または包含を要求する内容を補完する要件を課す規定(例えば、第22C条(2)に規定される事項をいつ、どのように行わなければならないか、または行えるようにしなければならないかに関する規定を含む)、および
(c)provision about measures which are not to be taken to satisfy one or more of points (a) to (d) of Article 22C(2). (c)第22C条(2)の(a)から(d)までのいずれか一つ以上の要件を満たすために講じてはならない措置に関する規定。
4.Regulations under paragraph 3 may not amend Article 22C. 4.第3項に基づく規則は、第22C条を改正してはならない。
5.Regulations under this Article are subject to the affirmative resolution procedure.] 5.本条に基づく規則は、承認決議手続の対象となる。

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.06.26 英国 データ(利用とアクセス)法 (DUAA) 2025 (2025.06.19)

 

| | Comments (0)

2026.04.05

英国 科学技術革新省 年齢保証データへのアクセスに関する調査 (2025.03.26)

こんにちは、丸山満彦です。

英国の科学技術革新省が年齢保証データへのアクセスに関する調査をしていて、その報告書を公表しています...

概要はざっというと

顔年齢推定(FAE)ツールの精度・公平性を高めるために必要な顔画像データ(特に子供の)が不足している。政府主導でデータベースを整備する価値はあるが、コストと法的ハードルが高く、慎重な設計と段階的な実施が必要ということですかね...

 

・オンライン安全法(OSA)の実施を背景に、年齢保証(AA)ツール、特に顔年齢推定(FAE)ツールの精度・公平性を高めるためのデータアクセス課題と解決策を探索的に検討した報告書...

研究の対象は、統計的な年齢推定手法の中でも、市場普及率が最も高い「顔年齢推定(FAE)」

主な問題意識は、FAEツールの精度向上には高品質で代表性のある学習・テスト用顔画像データセットが必要であるが、特に子どもや少数民族のデータが著しく不足している。倫理的・法的に適切なデータ収集には多大なコストと困難が伴い、民間企業(主にスタートアップ)には対応が難しい状況である

提案する解決策は、政府主導による顔画像データベースの構築。次の3つのオプションが検討されている

 

  1. 過小代表グループ(特に子ども)にフォーカスした外部検証用データセット
  2. より広い人口を代表する外部検証用データセット
  3. 学習・内部検証・外部検証まで含む包括的データベース

 

コスト面からは段階的アプローチが現実的

主な課題は例えば、

  • 子どもの顔画像収集の倫理的・実務的な困難
  • UK GDPRに基づく同意管理(特に13歳未満には親権者の同意が必要)、
  • 商業的な採算性の低さ、
  • 便益の実証データ不足
  • 生物学的・技術的制約により、データを増やしても精度向上には限界がある可能性
  • 実世界での影響に関するエビデンスギャップ

推奨される次のステップとしては、

  • NISTなど既存ベンチマーク活動との重複回避
  • ステークホルダーとの多段階協議
  • 費用便益分析の実施
  • 包括的な法的評価とDPIAの完了

 

UK Department for Science, Innovation & Technology

・2026.03.26 Age Assurance Data Access Study

Executive summary エグゼクティブサマリー
1.Introduction and overview of the study 1.序論と研究の概要
2.Scale and nature of the issue 2.問題の規模と性質
3.Facial image database solution 3.顔画像データベースの解決策
4.Alternative solution: funding innovation in AA 4.代替案:AAにおけるイノベーションへの資金提供
5.Conclusion 5.結論
Annexes 付録
Bibliography 参考文献

 

エグゼクティブサマリ

Executive summary エグゼクティブサマリー
This report presents findings from an exploratory study on data gaps affecting age assurance (AA) tools and potential solutions to improve their effectiveness. The primacy of issues related to training and testing data access led the study to concentrate on statistical age estimation (AE). The focus was further narrowed to facial age estimation (FAE) due to its status as the most widely adopted statistical AE method and the one with the clearest evidence base of data-related performance gaps. The findings are based on a literature review, expert consultations across sectors, and legal input to assess the feasibility of proposed solutions. 本報告書は、年齢保証(AA)ツールに影響を与えるデータの不備に関する予備調査の結果と、その有効性を改善するための潜在的な解決策を提示するものである。トレーニングデータおよびテストデータへのアクセスに関する問題が最重要課題であったことから、本調査では統計的年齢推定(AE)に焦点を当てた。さらに、顔年齢推定(FAE)は、統計的AE手法の中で最も広く採用されており、データに関連する性能格差について最も明確なエビデンスがあることから、焦点をFAEに絞り込んだ。調査結果は、文献レビュー、各分野の専門家へのヒアリング、および提案された解決策の実現可能性を評価するための法的見解に基づいている。
Data access issues データアクセスに関する課題
A key challenge in advancing FAE tools is the limited availability of high-quality, representative training and testing datasets, especially for children. Despite significant progress in FAE accuracy, tools still struggle to distinguish users within narrow age bands (e.g. under 13 or under 18) and exhibit bias across gender, skin tone, ethnicity. These limitations are rooted in data gaps and compounded by ethical, legal, and financial challenges in collecting diverse facial images, with collecting images of children posing a particular challenge. Improved datasets could reduce bias and enhance accuracy, but some accuracy limitations may persist due to biological and technical constraints. There are evidence gaps around the real-world impact of limitations in FAE performance attributable to data gaps. This impact is likely to vary across sectors: in some (e.g., online gambling), regulatory requirements render FAE inapplicable, while in others (e.g., retail or online gaming), improved FAE could support safer, more inclusive AA provision and contribute to reducing online harms and improving digital access. FAEツールの発展における主要な課題は、特に児童を対象とした、高品質で代表的な訓練用および評価用データセットが入手困難であることだ。FAEの精度は大幅に向上したものの、ツールは依然として狭い年齢帯(例:13歳未満や18歳未満)内のユーザーを区別するのに苦労しており、性別、肌の色、民族性においてバイアスを示している。これらの制約はデータの不足に起因しており、多様な顔画像の収集における倫理的、法的、財政的な課題によってさらに悪化している。特に子どもの画像の収集は大きな課題となっている。データセットの改善によりバイアスを低減し精度を高めることは可能だが、生物学的および技術的な制約により、精度面での限界が一部残る可能性がある。データの不足に起因するFAE性能の限界が実社会に与える影響については、エビデンスが不足している。この影響は業種によって異なる可能性が高い。オンラインギャンブルなどの分野では、規制要件によりFAEが適用できない一方、小売やオンラインゲームなどの分野では、FAEの改善により、より安全で包括的なAA(アクセス支援)の提供が可能となり、オンライン上の害の低減やデジタルアクセスの改善に寄与し得る。
Potential solutions 潜在的な解決策
Facial image database 顔画像データベース
The study explored the feasibility and design of a facial image database solution that enables access to high-quality, representative training and testing data. The market alone is unlikely to develop such a database solution. Ethical and legal constraints, along with substantial cost barriers, mean that most AA vendors, especially smaller or early-stage companies, lack the resources to collect facial images, in particular of children, at the scale and quality required. This creates a clear case for considering the desirability of public intervention. Three design options for a potential database solution were explored: 本研究では、高品質で代表的なトレーニングデータおよびテストデータへのアクセスを可能にする顔画像データベースソリューションの実現可能性と設計について検討した。市場のみでは、このようなデータベースソリューションが開発される可能性は低い。倫理的・法的な制約に加え、多大なコストの障壁があるため、ほとんどのAAベンダー、特に小規模または創業間もない企業は、必要な規模と品質で顔画像、とりわけ子どもの顔画像を収集するためのリソースを欠いている。これにより、公的介入の妥当性確認の明確な根拠が生まれる。潜在的なデータベースソリューションとして、以下の3つの設計案が検討された:
Option 1: An external validation dataset focused on demographic groups underrepresented in the data, notably children. 案1:データ内で過小評価されている人口統計グループ、特に子どもに焦点を当てた外部妥当性確認データセット。
Option 2: An external validation dataset representative of the wider population. 案2:より広範な人口を代表する外部妥当性確認データセット。
Option 3: A comprehensive solution including training, internal validation and external validation datasets. 案3:トレーニング、内部妥当性確認、および外部妥当性確認データセットを含む包括的なソリューション。
While Option 3 could deliver the most far-reaching benefits, it would require significant investment, estimated in the millions, and faces major commercial viability challenges. There are also critical legal considerations applicable to the development and operationalisation of this database solution. Consent is the only viable legal basis for collecting and processing facial data, particularly when children are involved. Strong data minimisation practices, clear governance roles, and robust technical safeguards would be essential to meet UK GDPR requirements. A full Data Protection Impact Assessment (DPIA) would also be necessary before proceeding. オプション3は最も広範な利益をもたらし得るものの、数百万ポンド規模と推定される多額の投資を必要とし、商業的な実現可能性において大きな課題に直面する。また、このデータベースソリューションの開発および運用には、重要な法的考慮事項が存在する。特に子どもが関与する場合、同意こそが顔データの収集および処理における唯一の有効な法的根拠である。英国のGDPR要件を満たすためには、徹底したデータ最小化の実践、明確なガバナンスの役割分担、そして堅牢な技術的保護措置が不可欠となる。また、着手前に完全なデータ保護影響アセスメント(DPIA)を行う必要がある。
While, a facial image database could offer important benefits in improving the accuracy and fairness of FAE tools, particularly for safeguarding children online, these benefits are not well evidenced. A database solution would require careful design, phased development, strong safeguards and significant public leadership to overcome the many practical and legal hurdles. A roadmap for further action would involve: 顔画像データベースは、FAEツールの精度と公平性を向上させる上で、特にオンライン上の児童保護において重要なメリットをもたらし得るが、これらのメリットは十分に実証されていない。データベースソリューションは、多くの実務的・法的なハードルを乗り越えるために、慎重な設計、段階的な開発、強力な保護措置、そして強力な公的リーダーシップを必要とする。今後の行動に向けたロードマップには以下が含まれる:
Coordinating with existing benchmarking efforts to avoid duplication 重複を避けるため、既存のベンチマーク活動との調整
Clearly defining the database’s purpose, potential applications, governance structure and legal basis データベースの目的、潜在的な用途、ガバナンス構造、法的根拠を明確に定義すること
Refining data requirements and collection strategies データ要件と収集戦略を精緻化すること
Engaging with stakeholders to validate cost assumptions and expected benefits ステークホルダーと連携し、コストの想定と期待される便益の妥当性確認を実施すること
Undertaking a comprehensive legal assessment and DPIA 包括的な法的アセスメントとDPIAを実施すること
Funding in novation in AA AA(年齢確認)分野のイノベーションへの資金提供
In parallel, the study considered a lower-cost alternative: an open innovation challenge aimed at supporting innovation in the development of age assurance tools. This approach offers a flexible and scalable way to foster innovation across a wider range of technical solutions. While promising, this type of intervention may not address efficiently and fully key research gaps, as there is no evidence to suggest that funding is the primary barrier to further research and solutions often still depend on access to high-quality, representative datasets for validation and refinement. 並行して、本調査では低コストの代替案として、年齢保証ツールの開発におけるイノベーションを支援することを目的としたオープンイノベーション・チャレンジを検討した。このアプローチは、より幅広い技術的ソリューションにおいてイノベーションを促進するための、柔軟かつ拡張性のある方法を提供する。有望ではあるものの、資金がさらなる研究の主な障壁であることを示唆する証拠はなく、またソリューションの妥当性確認や改良には依然として高品質で代表的なデータセットへのアクセスが不可欠であるため、この種の介入では主要な研究の空白を効率的かつ完全に埋めることはできない可能性がある。

 

1_20260403171401

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.04.03 英国 ICO Ofcom 年齢保証(Age Assurance)のための共同声明 (2026.03.25)

・2026.04.03 スペイン DSA第28条の解説:オンラインプラットフォームにおける年齢確認とサービス設計 (2026.03.24)

・2026.03.23 オーストラリア 情報委員会 年齢確認技術に関するプライバシー指針 (2026.03.17)

・2026.02.01 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る

・2025.11.24 ドイツ DSK 国際子どもの権利デー:子どものデータ保護改善に向けた10の提案 (2025.11.20)

・2025.10.18 欧州議会 EUには未成年者向けのオンラインサービスをより安全にするための新たな対策が必要

・2025.07.28 欧州委員会 未成年者の保護に関するガイドライン - デジタルサービス法関係(2025.07.14)

・2025.04.03 英国 ICO 金融サービスにおける子どものデータについてのレビュー報告書 (2025.04.01)

・2025.03.02 EU議会 シンクタンク 子供と生成的AI(AIネイティブ?世代)(2025.02.18)

・2025.02.13 EDPB 年齢保証 (Age Assurance) に関する声明を採択 (2025.02.11)

・2024.11.22 ノルウェー 消費者評議会 オンラインにおける児童・青少年の商業的搾取 (2024.11.14)

・2024.01.20 米国 FTC 児童オンラインプライバシー保護規則 の改正案の意見募集 (2024.01.11)

・2023.03.24 OECD 先進のプライバシー強化技術 - 現在の規制・政策アプローチ (2023.03.08)

・2023.02.19 英国 情報コミッショナー事務局 (ICO) がゲーム開発者向けに、子どもの保護に関する業界向けのガイダンスを発行

 

 

 

 

| | Comments (0)

日本弁護士連合会 SNS型投資詐欺等による被害を防止するため、消費者の権利・利益を侵害するデジタル広告に対する法規制を求める意見書 (2026.03.19)

こんにちは、丸山満彦です。

日本弁護士連合会が、SNS型投資詐欺等による被害を防止するため、消費者の権利・利益を侵害するデジタル広告に対する法規制を求める意見書を総務大臣に提出していますね...

● 日本弁護士連合会

・2026.03.19 SNS型投資詐欺等による被害を防止するため、消費者の権利・利益を侵害するデジタル広告に対する法規制を求める意見書


1 大規模プラットフォーム提供者について、以下の義務を定めること

  (1) 大規模プラットフォーム上に掲載される広告(以下「DPF広告」という。)が消費者権利侵害デジタル広告に該当するか否かについて必要な調査を行い、これに該当すると判断した場合には当該広告の掲載・送信をしないこと

  (2) 消費者からの申出等を契機として、掲載・送信中の広告が消費者権利侵害デジタル広告に該当するとの判断に至った場合には、遅滞なく当該広告の掲載・送信を停止・防止する措置を講じること

  (3) DPF広告を掲載しようとする者に対し、その所在に関する情報その他のその者の特定に資する情報の提供を求めること

  (4) 前記(1)及び(4)の措置の実施状況等を公表すること

2 前項の各規制の実効性を確保するため、国の大規模プラットフォーム提供者に対する報告徴収、勧告、措置命令、課徴金納付命令等の権限を定めること


 

・[PDF]

20260404-150606

 

 

| | Comments (0)

2026.04.04

欧州議会 人工知能法:適用延期、ヌード化アプリの禁止 (2026.03.26)

こんにちは、丸山満彦です。

いろいろ重なって、、、いろいろ遅れております...

さて、これはAI法の改正に関する欧州議会の投票結果についての発表です...人工知能法(AIA)を改正する簡素化(「オムニバス」)提案についてはを、賛成569票、反対45票、棄権23票で採択されています...

主な提案内容は、2026.03.18に公表されています...

  • 高リスクAIルールの適用延期
    • 高リスクAIシステム(生体認証、重要インフラ、教育、雇用、法執行などで使用されるもの):2027122まで延期。
    • 既存のEU安全規則でカバーされるAIシステム:202882まで延期

  • AI生成コンテンツへの「透かし」(ウォーターマーク)義務
    • 事業者に対し、AIで作成された音声、画像、動画、テキストにその出典を示す「透かし」を入れる義務の遵守期限:2026112

  • 「ヌード化アプリ」の禁止)
    • 本人の同意なく性的に露骨な画像を作成・改変する「ヌード化」システムの禁止を新たに導入

  • 中小企業への柔軟な対応と支援
    • AIシステムのバイアス検出・修正のための個人データ処理を厳格な条件付きで許可
    • 中小企業向けの支援措置を「小規模中堅企業(SMCs)」にも拡大
    • 他のセクター別法(医療機器、玩具など)ですでに規制されている製品については、AI法上の義務を緩和可

 

● European Parliament

・2026.03.26 Artificial Intelligence Act: delayed application, ban on nudifier apps

Artificial Intelligence Act: delayed application, ban on nudifier apps 人工知能法:適用延期、ヌード化アプリの禁止
・Clear date for activation of certain rules on high-risk AI systems ・高リスクAIシステムに関する特定の規則の発効日を明確化
・Flexibility for companies on certain rules and support for small mid-cap enterprises ・特定の規則におけるエンタープライズへの柔軟な対応と、中小・中堅企業への支援
・AI Act obligations can be less stringent for products governed by sectoral laws ・セクター別法が適用される製品については、AI法の義務を緩和可能
MEPs have agreed on proposals to simplify artificial intelligence rules and propose clear application dates for high-risk system requirements and a ban on AI “nudifier” systems. 欧州議会議員らは、人工知能に関する規則を簡素化する提案に合意し、高リスクシステム要件の明確な適用日およびAI「ヌディファイア」システムの禁止を提案した。
On Thursday, the European Parliament adopted its position on a simplification (“omnibus”) proposal amending the Artificial Intelligence Act (AIA), by 569 votes in favour, 45 against, and with 23 abstentions. 木曜日、欧州議会は、人工知能法(AIA)を改正する簡素化(「オムニバス」)提案に関する立場を、賛成569票、反対45票、棄権23票で採択した。
The proposal would delay the application of certain rules on high-risk artificial intelligence (AI) systems, to ensure that guidance and standards to help companies with implementation are ready. この提案は、企業が実施を支援するためのガイダンスや標準が整うよう、高リスク人工知能(AI)システムに関する特定の規則の適用を延期するものである。
In their amendments, MEPs introduce fixed dates for application to ensure predictability and legal certainty. 欧州議会議員らは修正案において、予測可能性と法的確実性を確保するため、適用開始の明確な期日を定めた。
- For high-risk AI systems specifically listed in the regulation (including those involving biometrics, and those used in critical infrastructure, education, employment, essential services, law enforcement, justice and border management), MEPs propose 2 December 2027. - 規則に具体的に列挙された高リスクAIシステム(生体認証を伴うもの、および重要インフラ、教育、雇用、必須サービス、法執行、司法、国境管理で使用されるものを含む)については、2027年12月2日を適用開始日とすることを提案している。
- For AI systems that are covered by EU sectoral legislation on safety and market surveillance, MEPs propose 2 August 2028. - 安全および市場監視に関するEUのセクター別法規の対象となるAIシステムについては、2028年8月2日を提案している。
MEPs are also in favour of giving providers until 2 November 2026 to comply with rules on watermarking AI-created audio, image, video or text content to indicate its origin. また、欧州議会議員らは、AIによって生成された音声、画像、動画、またはテキストコンテンツの起源を示すための電子透かし(ウォーターマーク)に関する規則への準拠期限を、2026年11月2日までとする案を支持している。
Ban on nudifier apps ヌディファイアアプリの禁止
MEPs want to introduce a new ban on “nudifier” systems that use AI to create or manipulate images that are sexually explicit or intimate and resemble an identifiable real person without that person’s consent. 欧州議会議員らは、AIを用いて、性的または親密な画像を作成・操作し、本人の同意なしに特定可能な実在の人物に似せた画像を生成する「ヌード化」システムに対する新たな禁止措置を導入したいと考えている。
The ban would not apply to AI systems with effective safety measures preventing users from creating such images. この禁止措置は、ユーザーがそのような画像を作成できないよう効果的な安全対策を講じているAIシステムには適用されない。
Measures to increase flexibility and support small mid-cap enterprises 柔軟性の向上と中小・中堅エンタープライズへの支援策
MEPs are in favour of allowing service providers to process personal data to detect and correct biases in AI systems, but they introduced safeguards to ensure this is done only when strictly necessary. 欧州議会議員らは、プロバイダがAIシステム内のバイアスを検知・是正するために個人データを処理することを認める方針だが、これが厳格に必要とされる場合にのみ行われるよう、安全措置を導入した。
To help EU companies scale up as they outgrow small and medium-sized enterprise (SME) status, where they enjoy certain support measures, MEPs backed the proposed extension of these measures to small mid-cap enterprises (SMCs). EU企業が中小企業(SME)の枠を超え、一定の支援措置を受けられる段階から成長する際、その規模拡大を支援するため、欧州議会議員らは、これらの措置を中小中堅企業(SMC)にまで拡大する提案を支持した。
To prevent overlapping application of sector-specific EU product safety rules and the AI Act, MEPs argue that obligations under the AI Act can be less stringent for products already regulated under sectoral laws (e.g. medical devices, radio equipment, toy safety, and others). セクター固有のEU製品安全規則とAI法の適用が重複するのを防ぐため、欧州議会議員らは、セクター別法(医療機器、無線機器、玩具の安全性など)ですでに規制されている製品については、AI法に基づく義務を緩和できると主張している。
For statements from the co-rapporteurs after the committee vote, see here. 委員会投票後の共同報告者による声明については、こちらを参照のこと。
Next steps 今後の手順
Negotiations with the Council on the final form of the law can now begin. 法律の最終的な形をめぐる理事会との交渉が、これから開始される。
Background 背景
The legislation voted today is part of the seventh omnibus package on simplification proposed by the European Commission on 19 November 2025 (“the digital omnibus”). Parliament is also currently working on the other proposals in the package: the digital omnibus on amending laws on data use and data protection, and the proposal establishing European business wallets. 本日採決された法案は、欧州委員会が2025年11月19日に提案した簡素化に関する第7次オムニバス・パッケージ(「デジタル・オムニバス」)の一部である。欧州議会は現在、同パッケージに含まれる他の提案、すなわちデータ利用およびデータ保護に関する法律の改正に関するデジタル・オムニバス、ならびに欧州ビジネス・ウォレットを創設する提案についても審議を進めている。

 

事前の公表...

・2026.03.18 MEPs support postponement of certain rules on artificial intelligence

 

1_20260403161901

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.12 欧州委員会 AI生成コンテンツの表示・ラベル付けに関する行動規範のドラフト第2版 (2025.03.05)

・2026.02.14 欧州 EDPB EDPS デジタルオムニバス規制案に関する共同意見書 (2026.02.11)

・2026.01.27 欧州 EDPB EDPS 欧州委員会の「AIに関するデジタルオムニバス」提案に関する共同意見書

・2025.11.22 欧州委員会 EU企業の成長を支援する簡素化されたデジタル規則 (オムニバス法)

 

| | Comments (0)

2026.04.03

英国 ICO Ofcom 年齢保証(Age Assurance)のための共同声明 (2026.03.25)

こんにちは、丸山満彦です。

ICO (情報コミッショナー事務局)と Ofcom(放送通信省)が共同で、年齢保証(Age Assurance)のための共同声明を公表していますね...

 

● ICO

・2026.03.25 Joint statement from ICO and Ofcom on age assurance

Joint statement from ICO and Ofcom on age assurance 年齢保証に関するICOとOfcomの共同声明
We have published a joint statement with Ofcom about the main areas of interaction between online safety and data protection as they relate to age assurance. We are working closely together on our shared goal of protecting children from harm online.   我々は、年齢保証に関連するオンラインの安全性とデータ保護の主な接点について、Ofcomと共同声明を発表した。我々は、オンライン上の危害から子供たちを守るという共通の目標に向け、緊密に連携している。  
The statement is aimed at services likely to be accessed by children that are in scope of the Online Safety Act and UK data protection legislation. It summarises key aspects of existing ICO and Ofcom age assurance policy in a practical way to help organisations comply with both online safety and data protection obligations.  本声明は、『オンライン安全法』および英国のデータ保護法の適用対象となり、かつ子供たちが利用する可能性のあるサービスを対象としている。これは、組織がオンライン安全とデータ保護の両方の義務を遵守できるよう、既存のICOおよびOfcomの年齢保証方針の主要な側面を実践的な形でまとめたものである。

 

・[PDF]

20260403-70114

・[DOCX][PDF] 仮訳

 

 


 

 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.04.03 スペイン DSA第28条の解説:オンラインプラットフォームにおける年齢確認とサービス設計 (2026.03.24)

・2026.03.23 オーストラリア 情報委員会 年齢確認技術に関するプライバシー指針 (2026.03.17)

・2026.02.01 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る

・2025.11.24 ドイツ DSK 国際子どもの権利デー:子どものデータ保護改善に向けた10の提案 (2025.11.20)

・2025.10.18 欧州議会 EUには未成年者向けのオンラインサービスをより安全にするための新たな対策が必要

・2025.07.28 欧州委員会 未成年者の保護に関するガイドライン - デジタルサービス法関係(2025.07.14)

・2025.04.03 英国 ICO 金融サービスにおける子どものデータについてのレビュー報告書 (2025.04.01)

・2025.03.02 EU議会 シンクタンク 子供と生成的AI(AIネイティブ?世代)(2025.02.18)

・2025.02.13 EDPB 年齢保証 (Age Assurance) に関する声明を採択 (2025.02.11)

・2024.11.22 ノルウェー 消費者評議会 オンラインにおける児童・青少年の商業的搾取 (2024.11.14)

・2024.01.20 米国 FTC 児童オンラインプライバシー保護規則 の改正案の意見募集 (2024.01.11)

・2023.03.24 OECD 先進のプライバシー強化技術 - 現在の規制・政策アプローチ (2023.03.08)

・2023.02.19 英国 情報コミッショナー事務局 (ICO) がゲーム開発者向けに、子どもの保護に関する業界向けのガイダンスを発行

 

 

 

 

 

| | Comments (0)

スペイン DSA第28条の解説:オンラインプラットフォームにおける年齢確認とサービス設計 (2026.03.24)

こんにちは、丸山満彦です。

スペインのデータ保護庁と国家市場競争委員会が共同で、デジタルサービス法第28条の解説(オンラインプラットフォームにおける年齢確認とサービス設計)という文書を公開していますね...

DSA第28条は、未成年保護を目的とした「比例的措置」を求める規定で、年齢確認はその一手段としてプライバシーと両立させつつ設計段階からリスクベースで実装すべきとですね...

 

Agencia Española de Protección de Datos: AEPD

・2026.03.24 Decoding Article 28 of the DSA: Age assurance and service design for online platforms

Decoding Article 28 of the DSA: Age assurance and service design for online platforms DSA第28条の解説:オンラインプラットフォームにおける年齢確認とサービス設計
This article has been produced jointly by the Spanish National Markets and Competition Commission (CNMC) and the Spanish Data Protection Authority (AEPD) 本記事は、スペイン国家市場競争委員会(CNMC)とスペインデータ保護庁(AEPD)が共同で作成したものである
With children rapidly adopting digital technologies, the European Commission’s Guidelines under Article 28(4) of the Digital Services Act (DSA) address how providers of online platforms accessible to minors shall put in place appropriate and proportionate measures to ensure a high level of privacy, safety, and security of minors on their service.  子どもたちが急速にデジタル技術を取り入れる中、欧州委員会のデジタルサービス法(DSA)第28条第4項に基づくガイドラインは、未成年者がアクセス可能なオンラインプラットフォームのプロバイダが、自社のサービスにおいて未成年者のプライバシー、安全、およびセキュリティを高い水準で確保するために、適切かつ均衡のとれた措置を講じるべき方法について定めている。
This post, published jointly by the CNMC and the AEPD as Digital Services Coordinator and as the competent authority for the application of Article 28.2 of the DSA in Spain respectively, specifically explores Age assurance. By navigating the interplay between DSA protection mandates and GDPR principles and requirements, the Guidelines promote non-linkable, privacy-preserving solutions, such as anonymous tokens and the EU Digital Identity Wallet, to ensure the best interests of the child are secured without compromising all users’ rights and freedoms.        本記事は、デジタルサービス調整機関としてのCNMCと、スペインにおけるDSA第28条第2項の適用に関する管轄当局としてのAEPDが共同で公開したものであり、特に「年齢確認」について詳しく考察している。DSAの保護義務とGDPRの原則・要件との相互関係を考慮しつつ、本ガイドラインは、匿名トークンやEUデジタルIDウォレットといった、個人を特定できないプライバシー保護型のソリューションを推奨している。これにより、すべてのユーザーの権利と自由を損なうことなく、子どもの最善の利益が確保されるよう図っている。 
The Digital Services Act (DSA) aims to contribute to the proper functioning of the internal market and create a safer, more predictable, and more reliable digital environment. To this end, it establishes harmonized rules for intermediary services, particularly online platforms. デジタルサービス法(DSA)は、域内市場の適切な機能に貢献し、より安全で、予測可能かつ信頼性の高いデジタル環境を構築することを目的としている。この目的のため、同法は仲介サービス、特にオンラインプラットフォームに対する統一された規則を定めている。
A key part of this framework is Article 28(a), which specifically mandates that platforms accessible to minors must implement “appropriate and proportionate” measures to ensure a high level of privacy, safety, and security for them. Crucially, Article 28(3) clarifies that this safety obligation does not require platforms to collect additional personal data to prove a user's age, effectively resolving the “privacy-safety paradox” by encouraging safety and privacy by design and by default solutions. In practice, this means platforms must prioritise the best interests of the child when designing their interfaces, ensuring that younger users are protected, without compromising all users’ fundamental rights and freedoms. この枠組みの重要な部分は第28条(a)であり、ここでは未成年者がアクセス可能なプラットフォームに対し、未成年者に対して高いレベルのプライバシー、安全、およびセキュリティを確保するために「適切かつ均衡のとれた」措置を講じることを具体的に義務付けている。重要な点として、第28条(3)は、この安全確保の義務が、ユーザーの年齢を証明するために追加の個人データを収集することをプラットフォームに要求するものではないことを明確にしている。これにより、「プライバシーと安全のパラドックス」を効果的に解決し、設計段階およびデフォルト設定における安全とプライバシーの確保を促進している。実務上、これはプラットフォームがインターフェースを設計する際、すべてのユーザーの基本的権利と自由を損なうことなく、若年ユーザーが保護されるよう、子どもの最善の利益を優先しなければならないことを意味する。
The Guidelines on measures to ensure a high level of privacy, safety and security for minors online aims to support providers of online platforms in addressing the different risks younger users face in the digital environment. Thus, they provide a comprehensive set of the types of risks that may threaten minors and of the measures to help these providers comply with their obligations under Article 28(1) of the DSA. Additionally, these guidelines aim to help Digital Services Coordinators (DSCs) such as the CNMC, and other competent national authorities such as the AEPD, when they apply, interpret, or enforce the rules regarding the protection of minors under the DSA. 「オンライン上の未成年者に対する高いレベルのプライバシー、安全、およびセキュリティを確保するための措置に関するガイドライン」は、デジタル環境において若年ユーザーが直面する様々なリスクに対処する上で、オンラインプラットフォームのプロバイダを支援することを目的としている。したがって、本ガイドラインは、未成年者を脅かす可能性のあるリスクの種類と、プロバイダがDSA第28条第1項に基づく義務を遵守するための措置について、包括的なセットを提供する。さらに、本ガイドラインは、CNMCなどのデジタルサービス調整機関(DSC)や、AEPDなどのその他の管轄国内当局が、DSAに基づく未成年者保護に関する規則を適用、解釈、または執行する際に役立つことを目的としている。
The Guidelines cover several key operational areas for platforms, including risk reviews, service design, user reporting, feedback and complaints, and internal governance. While specifically tailored for minors, the Commission encourages platforms to adopt these measures for all users to create a globally safer online ecosystem.  本ガイドラインは、リスク評価、サービス設計、ユーザーからの報告、フィードバックおよび苦情、内部ガバナンスなど、プラットフォームにとって重要な運用分野を網羅している。未成年者を対象として策定されたものであるが、欧州委員会は、より安全なオンライン環境を構築するため、プラットフォームに対し、すべてのユーザーに対してこれらの措置を適用するよう奨励している。
Essential for these guidelines is Section 6.1, which addresses Age assurance, the process of determining a user’s age to ensure adequate protection. The term “age assurance” is an umbrella term for three different technical approaches: 本ガイドラインにおいて不可欠なのは、第6.1節である。同節では、適切な保護を確保するためにユーザーの年齢を判定するプロセスである「年齢確認」について扱っている。「年齢確認」という用語は、以下の3つの異なる技術的アプローチを包括する総称である:
Self-declaration: Solutions asking the user simply to state their age or confirm their age range. While easy to implement and to use, they are unreliable and easily bypassed. ・自己申告:ユーザーに単に年齢を申告させたり、年齢層を確認させたりするソリューション。実装や利用は容易だが、信頼性が低く、容易に回避され得る。
Age estimation: Algorithmic methods (like facial analysis or behavioural profiling) that establish a likelihood that a user falls within an age range or is above or below an age threshold. ・年齢推定:ユーザーが特定の年齢層に属する可能性、あるいは特定の年齢閾値を上回るか下回るかを判定するアルゴリズム的手法(顔分析や行動プロファイリングなど)。
Age verification: Solutions that rely on verified and trusted sources (such as government IDs or driver's licenses) to establish age with a high degree of certainty. ・年齢確認:政府発行の身分証明書や運転免許証など、検証済みで信頼できる情報源に基づき、高い確度で年齢を特定するソリューション。
As mentioned before, Article 28(1) of the DSA requires platforms accessible to minors to implement appropriate and proportionate measures to ensure a high level of privacy, safety, and security. This obligation does not mean they need to know who the user is. 前述の通り、DSA第28条第1項は、未成年者がアクセス可能なプラットフォームに対し、高いレベルのプライバシー、安全、およびセキュリティを確保するための適切かつ均衡のとれた措置を講じることを求めている。この義務は、プラットフォームがユーザーの身元を知る必要があることを意味するものではない。
 On the other hand, the GDPR mandates the principle of data minimisation (Article 5(1)(c)), meaning platforms should collect as little personal data as possible in relation to the purposes for which they are processed. To comply with this principle, as well as others related to the protection of personal data, the Guidelines recommend taking into account the European Data Protection Board (EDPB) statement on Age Assurance. 一方、GDPRはデータ最小化の原則(第5条第1項(c))を定めており、プラットフォームは処理の目的に照らして、可能な限り少ない個人データを収集すべきである。この原則および個人データ保護に関連するその他の原則に準拠するため、本ガイドラインでは、欧州データ保護会議(EDPB)の「年齢確認」に関する声明を考慮に入れることを推奨している。
If a platform starts collecting IDs or scanning faces under the pretext of protecting minors without the necessary justification of proportionality, considering the risks that its service represents for minors, and without the appropriate privacy safeguards, it runs the risk of violating the fundamental rights and freedoms of all its users and Article 28.3 of the DSA. プラットフォームが、未成年者に対する自社のサービスがもたらすリスクを考慮せず、比例性の原則に基づく正当な根拠も示さず、適切なプライバシー保護措置も講じないまま、未成年者保護を口実として身分証明書の収集や顔認証を開始した場合、すべてのユーザーの基本的権利と自由、およびDSA第28条第3項に違反するリスクを負うことになる。
As already mentioned, Article 28(3) of the DSA explicitly states that platforms are not obliged to process additional personal data solely to determine whether someone is a minor. Instead of requiring users’ identities or processing children’s personal data, the Guidelines encourage age assurance solutions that allow users to prove they are above an age threshold without revealing any other information. 前述の通り、DSA第28条第3項は、プラットフォームが単に誰かが未成年であるか否かを判断するためだけに、追加の個人データを処理する義務を負わないことを明示している。ガイドラインは、ユーザーの身元を要求したり、児童の個人データを処理したりする代わりに、ユーザーが他の情報を一切開示することなく、年齢基準を超えていることを証明できる年齢検証ソリューションを推奨している。
According to the Guidelines, access restrictions supported by age verification solutions are necessary when accessing to high-risk products or content (for example drugs, alcohol, tobacco, nicotine products, pornographic content or gambling), when a platform’s Terms and Conditions require users to be at least 18 years old, when a risk review identifies significant content, conduct, contact or consumer risks that less intrusive measures cannot effectively manage, and when Union or national law prescribes a specific minimum age to access certain products or services displayed on the platform.  ガイドラインによれば、高リスクな製品やコンテンツ (例:薬物、アルコール、タバコ、ニコチン製品、ポルノコンテンツ、ギャンブル)、プラットフォームの利用規約で18歳以上であることが求められている場合、リスク評価において、より侵襲性の低い措置では効果的に管理できない重大なコンテンツ、行動、接触、または消費者リスクが特定された場合、およびEU法または国内法が、プラットフォーム上に表示される特定の製品やサービスへのアクセスに特定の最低年齢を規定している場合である。
In this high-risk scenario, age estimation methods can complement age verification solutions or serve as a temporary alternative (this transitory period should not extend beyond the first review of the Guidelines). These estimation methods are also suitable when a risk review identifies medium risks that are not high enough to mandate strict verification (but cannot be resolved by simple self-declaration) or when a platform’s Terms and Conditions require a minimum age lower than 18 (e.g., 13 or 16) based on the provider's assessment of risks. このような高リスクのシナリオにおいて、年齢推定手法は年齢検証ソリューションを補完したり、一時的な代替手段として機能したりすることができる(この移行期間は、本ガイドラインの初回見直しを超えて延長すべきではない)。これらの推定手法は、リスクアセスメントにおいて、厳格な検証を義務付けるほど高くないが(単純な自己申告では解決できない)中程度のリスクが特定された場合、またはプラットフォームの利用規約において、プロバイダのリスクアセスメントに基づき18歳未満(例:13歳または16歳)の最低年齢が定められている場合にも適している。
Online platforms accessible to minors with only some content, sections, or functions that pose a risk to them do not need to apply a blanket age limit to the entire site. Platforms should identify specific risky areas, such as adult sections, restricted advertisements, or influencer product placement, and use age verification only for those parts. In this way, children are protected by default, and risky areas are made available only to adult users whose age has been verified accordingly. 未成年者がアクセス可能であり、かつ未成年者にとってリスクとなるコンテンツ、セクション、または機能が一部のみ存在するオンラインプラットフォームは、サイト全体に一律の年齢制限を適用する必要はない。プラットフォームは、成人向けセクション、制限付き広告、インフルエンサーによるプロダクトプレイスメントなど、具体的なリスクのある領域を識別し、それらの部分のみに年齢検証を適用すべきである。このようにして、子供たちはデフォルトで防御され、リスクのある領域は、年齢が適切に検証された成人ユーザーにのみ利用可能となる。
Once a platform determines that an age assurance solution is necessary, verification or estimation, it must evaluate its chosen method against five rigorous criteria: プラットフォームが年齢確認ソリューション(検証または推定)が必要であると判断した場合、選択した手法について以下の5つの厳格な規準に基づいて評価しなければならない:
1. Accuracy: How correctly does the solution determine if the user is above the age threshold? 1. 正確性:ソリューションは、ユーザーが年齢基準を超えているかどうかをどの程度正確に判断できるか?
2. Reliability: Does the solution work consistently in real-world conditions, not just in a lab? 2. 信頼性:ソリューションは、実験室だけでなく実環境においても一貫して機能するか?
3. Robustness: How easy is it for a tech-savvy teen to circumvent the age restriction? 3. 堅牢性:技術に精通した10代の若者が、年齢制限を回避するのはどの程度容易か?
4. Non-intrusiveness: Does it respect users’ rights and freedoms? 4. 非侵襲性:ユーザーの権利と自由を尊重しているか?
5. Non-discrimination: Does it work for all users, regardless of skin tone, disability, or socio-economic status (e.g., lacking a passport)? 5. 非差別性:肌の色、障害、社会経済的地位(例:パスポートの未所持)にかかわらず、すべてのユーザーに対して機能するか?
The Guidelines establish that self-declaration is generally insufficient for these high- and medium-risk identified scenarios because it lacks the accuracy and robustness required to ensure a high level of safety. For the remaining age-assurance methods, the Guidelines promote tokenised, double-blind methods that minimise the processing of users' personal data. 本ガイドラインでは、高い安全性レベルを確保するために必要な精度と堅牢性を欠いているため、特定された高リスクおよび中リスクのシナリオにおいて、自己申告は一般的に不十分であると定めている。残りの年齢確認手法については、本ガイドラインは、ユーザーの個人データの処理を最小限に抑えるトークン化された二重盲検方式を推奨している。
These methods are based on the issuance by the age assurance solution of an anonymised age token, which is basically a digital “YES” or “OK” received by the platform where it must be demonstrated that an age threshold is exceeded: the platform receives the guarantee it needs without accessing an identification or learning anything else about the user, while the provider that verifies or estimates the age and generates the token knows the age, but does not know which specific platform they are accessing. これらの手法は、年齢確認ソリューションによる匿名化された年齢トークンの発行に基づいている。これは基本的に、年齢閾値を超えていることを証明する必要があるプラットフォームが受け取るデジタル上の「YES」または「OK」に相当する。プラットフォームは、身分証明にアクセスしたりユーザーに関するその他の情報を取得したりすることなく、必要な保証を受け取ることができる。一方、年齢を検証または推定しトークンを生成するプロバイダは、年齢は把握しているが、ユーザーがどの特定のプラットフォームにアクセスしているかは知らない。
The EU Digital Identity Wallet, expected to be available to all citizens by 2026, is designed to be the “gold standard” for privacy-preserving assurance. In the interim, the Commission is promoting a standalone EU age verification solution so that there is a provisional harmonised solution in the different Member States that, eventually, will be easily integrated into the EU Digital Wallet.      2026年までに全市民が利用できるようになる見込みのEUデジタルIDウォレットは、プライバシーを保護する保証の「ゴールド標準」となるよう設計されている。それまでの間、欧州委員会は独立型のEU年齢検証ソリューションを推進しており、これにより加盟国間で暫定的な統一ソリューションが確立され、最終的にはEUデジタルウォレットへ容易に統合されることになる。 
Finally, age assurance is not a “set it and forget it” task. Section 8 of the Guidelines mandates that platforms appoint a dedicated safety team with direct access to senior management and conduct regular Child Rights Impact Assessments (CRIAs) to evaluate how design changes affect younger users. The EDPB statement also establishes that age assurance should operate under a governance framework, ensuring that all processes and systems are designed, implemented, revised, documented, assessed, used, maintained, tested or audited in a way that meets data protection regulations and other legal requirements. 最後に、年齢検証は「一度設定すればそれで終わり」というものではない。ガイドラインの第8条では、プラットフォームに対し、経営陣と直接連携できる専任の安全チームを設置し、設計変更が若年ユーザーに与える影響を評価するための「児童の権利アセスメント(CRIA)」を定期的に実施することを義務付けている。EDPBの声明ではさらに、年齢確認はガバナンスの枠組みの下で運用されるべきであり、すべてのプロセスとシステムが、データ保護規制やその他の法的要件を満たす方法で設計、実装、改訂、文書化、評価、使用、維持、テスト、または監査されることを確保すべきであると定めている。
For platforms, the message is simple: always prioritise the best interests of the child, safety cannot be achieved at the expense of privacy, protect both by design and by default. The goal is to design digital services safe enough for minors to thrive in; without compromising their safety, protection, and rights.  プラットフォームにとってのメッセージは単純だ。常に子どもの最善の利益を優先し、プライバシーを犠牲にして安全を確保してはならず、設計時およびデフォルトの両方で両者を防御しなければならない。目標は、未成年者が安全に成長できるほど十分に安全なデジタルサービスを設計することであり、その安全、保護、および権利を損なうことなく実現することだ。
Since access restrictions and age assurance alone cannot serve as substitutes for other measures recommended in the Guidelines, we will explain the content and scope of the remaining measures in future joint posts. アクセス制限や年齢確認だけでは、ガイドラインで推奨される他の措置の代わりにはなり得ないため、残りの措置の内容と範囲については、今後の共同投稿で説明する。

 

1_20250104115101

 


 

DSA 第28条

Article 28 第28条
Online protection of minors 未成年者のオンライン上の保護
1. Providers of online platforms accessible to minors shall put in place appropriate and proportionate measures to ensure a high level of privacy, safety, and security of minors, on their service. 1. 未成年者がアクセス可能なオンラインプラットフォームのプロバイダは、そのサービスにおいて、未成年者のプライバシー、安全、およびセキュリティを高い水準で確保するため、適切かつ均衡のとれた措置を講じなければならない。
2. Providers of online platform shall not present advertisements on their interface based on profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679 using personal data of the recipient of the service when they are aware with reasonable certainty that the recipient of the service is a minor. 2. オンラインプラットフォームのプロバイダは、サービスの取得者が未成年者であることを合理的な確実性をもって認識している場合、規則(EU)2016/679第4条第4項に定義されるプロファイリングに基づき、サービスの取得者の個人データを使用して、そのインターフェース上に広告を表示してはならない。
3. Compliance with the obligations set out in this Article shall not oblige providers of online platforms to process additional personal data in order to assess whether the recipient of the service is a minor. 3. 本条に定める義務の遵守は、オンラインプラットフォームのプロバイダに対し、サービスの取得者が未成年者であるか否かをアセスメントするために、追加の個人データを処理することを義務付けるものではない。
4. The Commission, after consulting the Board, may issue guidelines to assist providers of online platforms in the application of paragraph 1. 4. 欧州委員会は、理事会と協議した上で、オンラインプラットフォームのプロバイダが第1項を適用するのを支援するための指針を発出することができる。

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2026.04.03 英国 ICO Ofcom 年齢保証(Age Assurance)のための共同声明 (2026.03.25)

・2026.03.23 オーストラリア 情報委員会 年齢確認技術に関するプライバシー指針 (2026.03.17)

・2026.02.01 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る

・2025.11.24 ドイツ DSK 国際子どもの権利デー:子どものデータ保護改善に向けた10の提案 (2025.11.20)

・2025.10.18 欧州議会 EUには未成年者向けのオンラインサービスをより安全にするための新たな対策が必要

・2025.07.28 欧州委員会 未成年者の保護に関するガイドライン - デジタルサービス法関係(2025.07.14)

・2025.04.03 英国 ICO 金融サービスにおける子どものデータについてのレビュー報告書 (2025.04.01)

・2025.03.02 EU議会 シンクタンク 子供と生成的AI(AIネイティブ?世代)(2025.02.18)

・2025.02.13 EDPB 年齢保証 (Age Assurance) に関する声明を採択 (2025.02.11)

・2024.11.22 ノルウェー 消費者評議会 オンラインにおける児童・青少年の商業的搾取 (2024.11.14)

・2024.01.20 米国 FTC 児童オンラインプライバシー保護規則 の改正案の意見募集 (2024.01.11)

・2023.03.24 OECD 先進のプライバシー強化技術 - 現在の規制・政策アプローチ (2023.03.08)

・2023.02.19 英国 情報コミッショナー事務局 (ICO) がゲーム開発者向けに、子どもの保護に関する業界向けのガイダンスを発行

 

 

 

| | Comments (0)

より以前の記事一覧