世界経済フォーラム (WEF) デジタルセーフティの推進:グローバルアクションを調整するためのフレームワーク
こんにちは、丸山満彦です。
世界経済フォーラム (WEF)が、「デジタルセーフティの推進:グローバルアクションを調整するためのフレームワーク」という白書を把握します。
詳細な分析はしていませんが、、、セキュリティの話ではないのですが、気になったので、、、
● World Economic Forum
・2021.06.28 Advancing Digital Safety: A Framework to Align Global Action
・[PDF]
Executive summary | エグゼクティブサマリー |
1 The global challenge of digital safety | 1 デジタルセーフティという世界的課題 |
1.1 Impacts of a global lockdown to online safety | 1.1 世界的ななロックダウンがオンラインの安全性に与える影響 |
1.2 Balancing fundamental rights and addressing challenging trade‑offs | 1.2 基本的権利のバランスと困難なトレードオフへの対処 |
1.3 The complications of hybrid communication technology | 1.3 ハイブリッド・コミュニケーション技術の複雑さ |
1.4 The difficulty of regulating | 1.4 規制の難しさ |
2 The absence of a safety baseline enabling informed participation | 2 インフォームド・コンセントを得るための安全基準の欠如 |
2.1 The key challenge of safety | 2.1 安全性という重要な課題 |
2.2 Deficiencies in safety baselines | 2.2 安全ベースラインの不備 |
2.3 A user‑centric framework for safety | 2.3 ユーザを中心とした安全のためのフレームワーク |
3 The need for public‑private cooperation | 3 官民協力の必要性 |
3.1 Developing industry standards | 3.1 業界標準の策定 |
3.2 An ethical and fiduciary responsibility | 3.2 倫理的、受託者的責任 |
4 An agenda for action | 4 行動のためのアジェンダ |
5 Business incentives and market competition | 5 ビジネス上のインセンティブと市場競争 |
6 Conclusion | 6 おわりに |
Appendix: Coalition considerations | 附属書 連合の検討事項 |
Practical considerations for duties and responsibilities on social platforms | ソーシャルプラットフォームにおける義務と責任に関する実践的考察 |
Considerations for implementing standards | 基準を導入する際の検討事項 |
Contributors | 貢献者 |
Endnotes | 巻末資料 |
Executive summary | 要旨 |
A user-centric framework establishing a safety baseline coupled with a regulatory framework to govern its enforcement can help mitigate exposure to harms online. | ユーザを中心とした安全基準の枠組みと、その実施を管理する規制の枠組みがあれば、オンライン上の被害を軽減することができます。 |
The past year and a half has put a spotlight on the role of digital platforms. The pandemic created immense challenges for countering misinformation on COVID‑19 and vaccines. Social platforms set new precedents for curating content to promote scientific and authoritative sources, yet false information about the virus gained in speed and reach. In the United States, the 6 January Capitol insurrection necessitated a deeper look into the relationship between social platforms and extremist activity. | この1年半は、デジタルプラットフォームの役割にスポットライトを当ててきました。パンデミックの発生により、COVID-19やワクチンに関する誤った情報に対抗するための膨大な課題が生じました。ソーシャルプラットフォームは、科学的で権威のある情報源を促進するために、コンテンツを選別するという新しい前例を作りましたが、ウイルスに関する誤った情報はスピードとリーチを増していきました。米国では、1月6日に起きた国会議事堂での暴動をきっかけに、ソーシャルプラットフォームと過激派の活動との関係をより深く考える必要が出てきました。 |
During the pandemic, child sexual exploitation and abuse material (CSEAM) activity has increased according to INTERPOL1 and Europol2 reports. | インターポールやユーロポールの報告書によると、パンデミックの間、児童の性的搾取や虐待に関する資料(CSEAM)の活動が増加しています。 |
The World Economic Forum has led the Advancing Global Digital Content Safety initiative since September 2019 to better understand the role of content practices, regulation and business dynamics in improving online safety from a user perspective. Key questions addressed include: | 世界経済フォーラムは、2019年9月からデジタルセーフティのためのグローバル連合イニシアチブを主導し、ユーザの視点からオンラインの安全性を向上させる上でのコンテンツの慣行、規制、ビジネスダイナミクスの役割をよりよく理解しています。扱う主要な問題は以下の通りです。 |
* How should the safety of digital platforms be assessed? | * デジタルプラットフォームの安全性はどのように評価されるべきか? |
* What is the responsibility of the private and public sectors? | * デジタルプラットフォームの安全性はどのように評価されるべきか、民間部門と公共部門の責任は何か。 |
* What new regulatory schemes are needed? How should content liability laws be updated, if at all, to enhance safety? | * どのような新しい規制スキームが必要か?安全性を高めるために、コンテンツ責任法を更新する必要があるとすれば、それはどのようなものか? |
* How can industry‑wide progress be measured? | * 業界全体の進歩をどのように評価すればよいのか? |
Through consultation with over 50 experts from academia, civil society, government and business, the Forum explored these questions through a mix of one‑on‑one interviews, workshops and a survey. | 本フォーラムでは、学界、市民社会、政府、企業から50名以上の専門家が参加し、1対1のインタビュー、ワークショップ、アンケートなどを通じて、これらの問題を検討しました。 |
What became clear is that harm is a principle embedded in different national, regional and international legal frameworks and is a moral category that is context and culturally dependent.3 While its definition is a matter of public concern, private industry action is needed to create and support safe online environments. | 明らかになったのは、危害は、国や地域、国際的な法的枠組みに組み込まれた原則であり、文脈や文化に依存する道徳的カテゴリーであるということです。 |
In industries such as transportation or energy, adherence to clear safety standards is required. Digital platforms that enable social communications should also have baseline safety thresholds, industry‑wide standards and protocols, which do not currently exist.4 This White Paper distils a user‑centric framework for advancing digital safety. Tensions between privacy, free expression, innovation, business incentives, private power and safety are all explored. Deficiencies are highlighted in thresholds for meaningful protection, auditable recommendation systems, complaint protocols and the use of personal details to minimize harm. A framework that answers the following questions is proposed as a path forward to crafting solutions that enhance user safety: | 交通機関やエネルギーなどの業界では、明確な安全基準を守ることが求められます。ソーシャル・コミュニケーションを可能にするデジタル・プラットフォームにも、現在は存在していない基本的な安全基準、業界全体の基準やプロトコルが必要です。この白書では、デジタル・セーフティを推進するためのユーザ中心のフレームワークを抽出しています。この白書では、デジタルセーフティを推進するためのユーザ中心のフレームワークを構築しています。プライバシー、表現の自由、イノベーション、ビジネス上のインセンティブ、私的権力、安全性の間の緊張関係がすべて検討されています。また、意味のある保護のための閾値、監査可能な推奨システム、苦情処理プロトコル、被害を最小限に抑えるための個人情報の利用などの欠陥が強調されています。ユーザの安全性を高めるためのソリューションを構築するための道筋として、以下の質問に答えるフレームワークを提案します。 |
1. How much harm am I exposed to within this product? | 1. この製品の中で、自分はどの程度の被害に遭うのか? |
2. Does this product have an undue influence over me or people I care for? | 2. この製品は、私や私が大切にしている人に過度の影響を与えていないか? |
3. What avenues of remedy – public or private – are available if I am harmed? | 3. 私が被害を受けた場合、公的または私的にどのような救済手段がありますか? |
4. Which details about me are being shared or exposed, and are they safe? | 4. 私に関するどのような情報が共有または公開されるのか、そしてそれは安全なのか? |
Industry standards that establish a safety baseline together with a regulatory framework to govern enforcement can help better protect users online. | 安全性のベースラインを確立する業界標準と、実施を管理する規制の枠組みがあれば、オンライン上のユーザをよりよく保護することができます。 |
Collaboration across the public and private sectors must be urgently accelerated to counter false health narratives, deter coordinated acts of violence, and better protect children and adults online. It is vital that such collaboration be rooted in international human rights law, with a focus on protecting all rights for disadvantaged and marginalized communities. The UN Guiding Principles on Business and Human Rights provide a unifying framework on which to build.5 The Forum’s newly launched Global Coalition for Digital Safety will drive closer collaboration on solutions in this area. | 健康に関する誤った報道に対抗し、組織的な暴力行為を抑止し、オンライン上の子どもと大人をよりよく保護するためには、官民を超えた協力体制を早急に構築する必要があります。このような協力体制は、国際人権法に基づき、不利な立場に置かれたコミュニティのすべての権利を保護することに重点を置くことが不可欠です。当フォーラムが新たに立ち上げた「デジタルセーフティのためのグローバル連合」は、この分野の解決策についてより緊密な協力関係を構築することを目指しています。 |
A majority (75%) of the experts surveyed agree or strongly agree that too much harmful content meets inadequate action on the part of platforms. | 調査対象となった専門家の過半数(75%)が、有害なコンテンツが多すぎるためにプラットフォーム側の対応が不十分であることに同意または強く同意しています。 |
As many as 90% of those surveyed believe that content with a less clear definition of harm is tackled somewhat or highly ineffectively. Aligning on clear and consistent definitions of harmful content in these areas is a priority. | また、調査対象者の90%もの人が、有害性の定義が明確でないコンテンツへの対応は、やや非効率的、あるいは非常に非効率的であると考えています。これらの分野における有害コンテンツの定義を明確かつ一貫したものにすることが優先されます。 |
« Cloud Security Alliance Hyperledger Fabric 2.0 のセキュリティ報告書とチェックリスト (CSF対応) | Main | 金融庁 「金融機関のITガバナンス等に関する調査結果レポート」及び「金融機関のシステム障害に関する分析レポート」の公表について »
Comments