| Decoding Article 28 of the DSA: Age assurance and service design for online platforms |
DSA第28条の解説:オンラインプラットフォームにおける年齢確認とサービス設計 |
| This article has been produced jointly by the Spanish National Markets and Competition Commission (CNMC) and the Spanish Data Protection Authority (AEPD) |
本記事は、スペイン国家市場競争委員会(CNMC)とスペインデータ保護庁(AEPD)が共同で作成したものである |
| With children rapidly adopting digital technologies, the European Commission’s Guidelines under Article 28(4) of the Digital Services Act (DSA) address how providers of online platforms accessible to minors shall put in place appropriate and proportionate measures to ensure a high level of privacy, safety, and security of minors on their service. |
子どもたちが急速にデジタル技術を取り入れる中、欧州委員会のデジタルサービス法(DSA)第28条第4項に基づくガイドラインは、未成年者がアクセス可能なオンラインプラットフォームのプロバイダが、自社のサービスにおいて未成年者のプライバシー、安全、およびセキュリティを高い水準で確保するために、適切かつ均衡のとれた措置を講じるべき方法について定めている。 |
| This post, published jointly by the CNMC and the AEPD as Digital Services Coordinator and as the competent authority for the application of Article 28.2 of the DSA in Spain respectively, specifically explores Age assurance. By navigating the interplay between DSA protection mandates and GDPR principles and requirements, the Guidelines promote non-linkable, privacy-preserving solutions, such as anonymous tokens and the EU Digital Identity Wallet, to ensure the best interests of the child are secured without compromising all users’ rights and freedoms. |
本記事は、デジタルサービス調整機関としてのCNMCと、スペインにおけるDSA第28条第2項の適用に関する管轄当局としてのAEPDが共同で公開したものであり、特に「年齢確認」について詳しく考察している。DSAの保護義務とGDPRの原則・要件との相互関係を考慮しつつ、本ガイドラインは、匿名トークンやEUデジタルIDウォレットといった、個人を特定できないプライバシー保護型のソリューションを推奨している。これにより、すべてのユーザーの権利と自由を損なうことなく、子どもの最善の利益が確保されるよう図っている。 |
| The Digital Services Act (DSA) aims to contribute to the proper functioning of the internal market and create a safer, more predictable, and more reliable digital environment. To this end, it establishes harmonized rules for intermediary services, particularly online platforms. |
デジタルサービス法(DSA)は、域内市場の適切な機能に貢献し、より安全で、予測可能かつ信頼性の高いデジタル環境を構築することを目的としている。この目的のため、同法は仲介サービス、特にオンラインプラットフォームに対する統一された規則を定めている。 |
| A key part of this framework is Article 28(a), which specifically mandates that platforms accessible to minors must implement “appropriate and proportionate” measures to ensure a high level of privacy, safety, and security for them. Crucially, Article 28(3) clarifies that this safety obligation does not require platforms to collect additional personal data to prove a user's age, effectively resolving the “privacy-safety paradox” by encouraging safety and privacy by design and by default solutions. In practice, this means platforms must prioritise the best interests of the child when designing their interfaces, ensuring that younger users are protected, without compromising all users’ fundamental rights and freedoms. |
この枠組みの重要な部分は第28条(a)であり、ここでは未成年者がアクセス可能なプラットフォームに対し、未成年者に対して高いレベルのプライバシー、安全、およびセキュリティを確保するために「適切かつ均衡のとれた」措置を講じることを具体的に義務付けている。重要な点として、第28条(3)は、この安全確保の義務が、ユーザーの年齢を証明するために追加の個人データを収集することをプラットフォームに要求するものではないことを明確にしている。これにより、「プライバシーと安全のパラドックス」を効果的に解決し、設計段階およびデフォルト設定における安全とプライバシーの確保を促進している。実務上、これはプラットフォームがインターフェースを設計する際、すべてのユーザーの基本的権利と自由を損なうことなく、若年ユーザーが保護されるよう、子どもの最善の利益を優先しなければならないことを意味する。 |
| The Guidelines on measures to ensure a high level of privacy, safety and security for minors online aims to support providers of online platforms in addressing the different risks younger users face in the digital environment. Thus, they provide a comprehensive set of the types of risks that may threaten minors and of the measures to help these providers comply with their obligations under Article 28(1) of the DSA. Additionally, these guidelines aim to help Digital Services Coordinators (DSCs) such as the CNMC, and other competent national authorities such as the AEPD, when they apply, interpret, or enforce the rules regarding the protection of minors under the DSA. |
「オンライン上の未成年者に対する高いレベルのプライバシー、安全、およびセキュリティを確保するための措置に関するガイドライン」は、デジタル環境において若年ユーザーが直面する様々なリスクに対処する上で、オンラインプラットフォームのプロバイダを支援することを目的としている。したがって、本ガイドラインは、未成年者を脅かす可能性のあるリスクの種類と、プロバイダがDSA第28条第1項に基づく義務を遵守するための措置について、包括的なセットを提供する。さらに、本ガイドラインは、CNMCなどのデジタルサービス調整機関(DSC)や、AEPDなどのその他の管轄国内当局が、DSAに基づく未成年者保護に関する規則を適用、解釈、または執行する際に役立つことを目的としている。 |
| The Guidelines cover several key operational areas for platforms, including risk reviews, service design, user reporting, feedback and complaints, and internal governance. While specifically tailored for minors, the Commission encourages platforms to adopt these measures for all users to create a globally safer online ecosystem. |
本ガイドラインは、リスク評価、サービス設計、ユーザーからの報告、フィードバックおよび苦情、内部ガバナンスなど、プラットフォームにとって重要な運用分野を網羅している。未成年者を対象として策定されたものであるが、欧州委員会は、より安全なオンライン環境を構築するため、プラットフォームに対し、すべてのユーザーに対してこれらの措置を適用するよう奨励している。 |
| Essential for these guidelines is Section 6.1, which addresses Age assurance, the process of determining a user’s age to ensure adequate protection. The term “age assurance” is an umbrella term for three different technical approaches: |
本ガイドラインにおいて不可欠なのは、第6.1節である。同節では、適切な保護を確保するためにユーザーの年齢を判定するプロセスである「年齢確認」について扱っている。「年齢確認」という用語は、以下の3つの異なる技術的アプローチを包括する総称である: |
| ・Self-declaration: Solutions asking the user simply to state their age or confirm their age range. While easy to implement and to use, they are unreliable and easily bypassed. |
・自己申告:ユーザーに単に年齢を申告させたり、年齢層を確認させたりするソリューション。実装や利用は容易だが、信頼性が低く、容易に回避され得る。 |
| ・Age estimation: Algorithmic methods (like facial analysis or behavioural profiling) that establish a likelihood that a user falls within an age range or is above or below an age threshold. |
・年齢推定:ユーザーが特定の年齢層に属する可能性、あるいは特定の年齢閾値を上回るか下回るかを判定するアルゴリズム的手法(顔分析や行動プロファイリングなど)。 |
| ・Age verification: Solutions that rely on verified and trusted sources (such as government IDs or driver's licenses) to establish age with a high degree of certainty. |
・年齢確認:政府発行の身分証明書や運転免許証など、検証済みで信頼できる情報源に基づき、高い確度で年齢を特定するソリューション。 |
| As mentioned before, Article 28(1) of the DSA requires platforms accessible to minors to implement appropriate and proportionate measures to ensure a high level of privacy, safety, and security. This obligation does not mean they need to know who the user is. |
前述の通り、DSA第28条第1項は、未成年者がアクセス可能なプラットフォームに対し、高いレベルのプライバシー、安全、およびセキュリティを確保するための適切かつ均衡のとれた措置を講じることを求めている。この義務は、プラットフォームがユーザーの身元を知る必要があることを意味するものではない。 |
| On the other hand, the GDPR mandates the principle of data minimisation (Article 5(1)(c)), meaning platforms should collect as little personal data as possible in relation to the purposes for which they are processed. To comply with this principle, as well as others related to the protection of personal data, the Guidelines recommend taking into account the European Data Protection Board (EDPB) statement on Age Assurance. |
一方、GDPRはデータ最小化の原則(第5条第1項(c))を定めており、プラットフォームは処理の目的に照らして、可能な限り少ない個人データを収集すべきである。この原則および個人データ保護に関連するその他の原則に準拠するため、本ガイドラインでは、欧州データ保護会議(EDPB)の「年齢確認」に関する声明を考慮に入れることを推奨している。 |
| If a platform starts collecting IDs or scanning faces under the pretext of protecting minors without the necessary justification of proportionality, considering the risks that its service represents for minors, and without the appropriate privacy safeguards, it runs the risk of violating the fundamental rights and freedoms of all its users and Article 28.3 of the DSA. |
プラットフォームが、未成年者に対する自社のサービスがもたらすリスクを考慮せず、比例性の原則に基づく正当な根拠も示さず、適切なプライバシー保護措置も講じないまま、未成年者保護を口実として身分証明書の収集や顔認証を開始した場合、すべてのユーザーの基本的権利と自由、およびDSA第28条第3項に違反するリスクを負うことになる。 |
| As already mentioned, Article 28(3) of the DSA explicitly states that platforms are not obliged to process additional personal data solely to determine whether someone is a minor. Instead of requiring users’ identities or processing children’s personal data, the Guidelines encourage age assurance solutions that allow users to prove they are above an age threshold without revealing any other information. |
前述の通り、DSA第28条第3項は、プラットフォームが単に誰かが未成年であるか否かを判断するためだけに、追加の個人データを処理する義務を負わないことを明示している。ガイドラインは、ユーザーの身元を要求したり、児童の個人データを処理したりする代わりに、ユーザーが他の情報を一切開示することなく、年齢基準を超えていることを証明できる年齢検証ソリューションを推奨している。 |
| According to the Guidelines, access restrictions supported by age verification solutions are necessary when accessing to high-risk products or content (for example drugs, alcohol, tobacco, nicotine products, pornographic content or gambling), when a platform’s Terms and Conditions require users to be at least 18 years old, when a risk review identifies significant content, conduct, contact or consumer risks that less intrusive measures cannot effectively manage, and when Union or national law prescribes a specific minimum age to access certain products or services displayed on the platform. |
ガイドラインによれば、高リスクな製品やコンテンツ (例:薬物、アルコール、タバコ、ニコチン製品、ポルノコンテンツ、ギャンブル)、プラットフォームの利用規約で18歳以上であることが求められている場合、リスク評価において、より侵襲性の低い措置では効果的に管理できない重大なコンテンツ、行動、接触、または消費者リスクが特定された場合、およびEU法または国内法が、プラットフォーム上に表示される特定の製品やサービスへのアクセスに特定の最低年齢を規定している場合である。 |
| In this high-risk scenario, age estimation methods can complement age verification solutions or serve as a temporary alternative (this transitory period should not extend beyond the first review of the Guidelines). These estimation methods are also suitable when a risk review identifies medium risks that are not high enough to mandate strict verification (but cannot be resolved by simple self-declaration) or when a platform’s Terms and Conditions require a minimum age lower than 18 (e.g., 13 or 16) based on the provider's assessment of risks. |
このような高リスクのシナリオにおいて、年齢推定手法は年齢検証ソリューションを補完したり、一時的な代替手段として機能したりすることができる(この移行期間は、本ガイドラインの初回見直しを超えて延長すべきではない)。これらの推定手法は、リスクアセスメントにおいて、厳格な検証を義務付けるほど高くないが(単純な自己申告では解決できない)中程度のリスクが特定された場合、またはプラットフォームの利用規約において、プロバイダのリスクアセスメントに基づき18歳未満(例:13歳または16歳)の最低年齢が定められている場合にも適している。 |
| Online platforms accessible to minors with only some content, sections, or functions that pose a risk to them do not need to apply a blanket age limit to the entire site. Platforms should identify specific risky areas, such as adult sections, restricted advertisements, or influencer product placement, and use age verification only for those parts. In this way, children are protected by default, and risky areas are made available only to adult users whose age has been verified accordingly. |
未成年者がアクセス可能であり、かつ未成年者にとってリスクとなるコンテンツ、セクション、または機能が一部のみ存在するオンラインプラットフォームは、サイト全体に一律の年齢制限を適用する必要はない。プラットフォームは、成人向けセクション、制限付き広告、インフルエンサーによるプロダクトプレイスメントなど、具体的なリスクのある領域を識別し、それらの部分のみに年齢検証を適用すべきである。このようにして、子供たちはデフォルトで防御され、リスクのある領域は、年齢が適切に検証された成人ユーザーにのみ利用可能となる。 |
| Once a platform determines that an age assurance solution is necessary, verification or estimation, it must evaluate its chosen method against five rigorous criteria: |
プラットフォームが年齢確認ソリューション(検証または推定)が必要であると判断した場合、選択した手法について以下の5つの厳格な規準に基づいて評価しなければならない: |
| 1. Accuracy: How correctly does the solution determine if the user is above the age threshold? |
1. 正確性:ソリューションは、ユーザーが年齢基準を超えているかどうかをどの程度正確に判断できるか? |
| 2. Reliability: Does the solution work consistently in real-world conditions, not just in a lab? |
2. 信頼性:ソリューションは、実験室だけでなく実環境においても一貫して機能するか? |
| 3. Robustness: How easy is it for a tech-savvy teen to circumvent the age restriction? |
3. 堅牢性:技術に精通した10代の若者が、年齢制限を回避するのはどの程度容易か? |
| 4. Non-intrusiveness: Does it respect users’ rights and freedoms? |
4. 非侵襲性:ユーザーの権利と自由を尊重しているか? |
| 5. Non-discrimination: Does it work for all users, regardless of skin tone, disability, or socio-economic status (e.g., lacking a passport)? |
5. 非差別性:肌の色、障害、社会経済的地位(例:パスポートの未所持)にかかわらず、すべてのユーザーに対して機能するか? |
| The Guidelines establish that self-declaration is generally insufficient for these high- and medium-risk identified scenarios because it lacks the accuracy and robustness required to ensure a high level of safety. For the remaining age-assurance methods, the Guidelines promote tokenised, double-blind methods that minimise the processing of users' personal data. |
本ガイドラインでは、高い安全性レベルを確保するために必要な精度と堅牢性を欠いているため、特定された高リスクおよび中リスクのシナリオにおいて、自己申告は一般的に不十分であると定めている。残りの年齢確認手法については、本ガイドラインは、ユーザーの個人データの処理を最小限に抑えるトークン化された二重盲検方式を推奨している。 |
| These methods are based on the issuance by the age assurance solution of an anonymised age token, which is basically a digital “YES” or “OK” received by the platform where it must be demonstrated that an age threshold is exceeded: the platform receives the guarantee it needs without accessing an identification or learning anything else about the user, while the provider that verifies or estimates the age and generates the token knows the age, but does not know which specific platform they are accessing. |
これらの手法は、年齢確認ソリューションによる匿名化された年齢トークンの発行に基づいている。これは基本的に、年齢閾値を超えていることを証明する必要があるプラットフォームが受け取るデジタル上の「YES」または「OK」に相当する。プラットフォームは、身分証明にアクセスしたりユーザーに関するその他の情報を取得したりすることなく、必要な保証を受け取ることができる。一方、年齢を検証または推定しトークンを生成するプロバイダは、年齢は把握しているが、ユーザーがどの特定のプラットフォームにアクセスしているかは知らない。 |
| The EU Digital Identity Wallet, expected to be available to all citizens by 2026, is designed to be the “gold standard” for privacy-preserving assurance. In the interim, the Commission is promoting a standalone EU age verification solution so that there is a provisional harmonised solution in the different Member States that, eventually, will be easily integrated into the EU Digital Wallet. |
2026年までに全市民が利用できるようになる見込みのEUデジタルIDウォレットは、プライバシーを保護する保証の「ゴールド標準」となるよう設計されている。それまでの間、欧州委員会は独立型のEU年齢検証ソリューションを推進しており、これにより加盟国間で暫定的な統一ソリューションが確立され、最終的にはEUデジタルウォレットへ容易に統合されることになる。 |
| Finally, age assurance is not a “set it and forget it” task. Section 8 of the Guidelines mandates that platforms appoint a dedicated safety team with direct access to senior management and conduct regular Child Rights Impact Assessments (CRIAs) to evaluate how design changes affect younger users. The EDPB statement also establishes that age assurance should operate under a governance framework, ensuring that all processes and systems are designed, implemented, revised, documented, assessed, used, maintained, tested or audited in a way that meets data protection regulations and other legal requirements. |
最後に、年齢検証は「一度設定すればそれで終わり」というものではない。ガイドラインの第8条では、プラットフォームに対し、経営陣と直接連携できる専任の安全チームを設置し、設計変更が若年ユーザーに与える影響を評価するための「児童の権利アセスメント(CRIA)」を定期的に実施することを義務付けている。EDPBの声明ではさらに、年齢確認はガバナンスの枠組みの下で運用されるべきであり、すべてのプロセスとシステムが、データ保護規制やその他の法的要件を満たす方法で設計、実装、改訂、文書化、評価、使用、維持、テスト、または監査されることを確保すべきであると定めている。 |
| For platforms, the message is simple: always prioritise the best interests of the child, safety cannot be achieved at the expense of privacy, protect both by design and by default. The goal is to design digital services safe enough for minors to thrive in; without compromising their safety, protection, and rights. |
プラットフォームにとってのメッセージは単純だ。常に子どもの最善の利益を優先し、プライバシーを犠牲にして安全を確保してはならず、設計時およびデフォルトの両方で両者を防御しなければならない。目標は、未成年者が安全に成長できるほど十分に安全なデジタルサービスを設計することであり、その安全、保護、および権利を損なうことなく実現することだ。 |
| Since access restrictions and age assurance alone cannot serve as substitutes for other measures recommended in the Guidelines, we will explain the content and scope of the remaining measures in future joint posts. |
アクセス制限や年齢確認だけでは、ガイドラインで推奨される他の措置の代わりにはなり得ないため、残りの措置の内容と範囲については、今後の共同投稿で説明する。 |
Recent Comments