« 個人情報保護委員会 改正個人情報保護法の英訳 | Main | NIST SP 1271 NISTサイバーセキュリティフレームワーク入門:クイックスタートガイド »

2021.08.10

EU議会 STUDY ヨーロッパの政策におけるディープフェイクへの取り組み at 2021.07.30

こんにちは、丸山満彦です。

EU議会が「ヨーロッパの政策におけるディープフェイクへの取り組み」という調査報告書を公開していますね。。。

制作手段として、5つの側面に分けて整理しているのが参考になるかもですね。。。

20210810-35148

1. the technology dimension 1.技術の側面
2. the creation dimension 2.創造の側面
3. the circulation dimension 3.流通の側面
4. the target dimension 4.標的の側面
5. the audience dimension 5.視聴者の側面

 

European Parliament - Think Tank

・2021.07.30 Tackling deepfakes in European policy

・[PDF] BRIEFING

20210810-35033

 

・[PDF] STUDY

20210810-35240

 

1. Introduction 1 はじめに
1.1. Background 1.1. 背景
1.2. Research questions 1.2. リサーチクエスチョン
1.3. Definitions 1.3. 定義
1.3.1. Deepfakes 1.3.1. ディープフェイク
1.3.2. Synthetic media 1.3.2. 合成メディア
1.4. Outline 1.4. 概要
2. Methodology 2 方法論
2.1. Literature review and analysis 2.1. 文献調査と分析
2.2. Expert interviews 2.2. 専門家インタビュー
2.3. Expert review 2.3. 専門家によるレビュー
3. Deepfake and synthetic media technologies 3 ディープフェイクと合成メディア技術
3.1. Photo- and video-graphic deepfake technology 3.1. 写真や動画を使ったディープフェイク技術
3.2. Specific graphical deepfake techniques 3.2. グラフィカルなディープフェイクの具体的な手法
3.3. Voice cloning technology 3.3. ボイスクローニング技術
3.4. Text synthesis technology 3.4. テキスト合成技術
3.5. Trends in deepfake videos, voice cloning and text synthesis 3.5. ディープフェイク動画、ボイスクローニング、テキスト合成の動向
3.5.1. Five-year future scenario and risk development 3.5.1 5年後の未来シナリオとリスク展開
3.6. Detection software and technical prevention strategies 3.6検知ソフトと技術的な防止策 24
3.6.1. Detection technology 3.6.1 検出技術
3.6.2. Detection limits 3.6.2. 検出限界
3.6.3. Technical prevention strategies 3.6.3 技術的な防止策
4. Societal context 4 社会的背景
4.1. Relevant factors and trends 4.1. 関連する要因と傾向
4.2. Welcoming environment for deepfakes 4.2. ディープフェイクを歓迎する環境
4.3. Deepfakes are a catalyst for greater gender inequality 4.3. ディープフェイクは、ジェンダーの不平等を拡大させるきっかけになる
4.4. Deepfakes bring a new dimension to disinformation 4.4. ディープフェイクがもたらす偽情報の新次元
4.5. Truth becomes blurry 4.5. 真実がぼやける
5. Benefits, risks and impacts of deepfakes 5 ディープフェイクのメリット、リスク、影響
5.1. Benefits 5.1. メリット
5.2. Risks, harms and impact 5.2. リスク、ハーム、インパクト
5.3. Risk of psychological harms 5.3. 心理的危害のリスク
5.4. Risk of financial harms 5.4. 金銭的被害のリスク
5.5. Risk of societal harms 5.5. 社会的弊害のリスク
5.6. Cascading impacts 5.6. カスケード・インパクト
6. Regulatory landscape 6 規制の状況
6.1. AI regulatory framework proposal 6.1. AI規制フレームワーク提案
6.2. General Data Protection Regulation (GDPR) 6.2. 一般データ保護規則(GDPR)
6.3. Copyright law 6.3. 著作権法
6.4. Image rights 6.4. 肖像権について
6.5. e-Commerce Directive and the digital services act 6.5. e-コマース指令とデジタルサービス法
6.5.1. e-Commerce Directive 6.5.1. e-コマース指令
6.5.2. Digital services act 6.5.2. デジタルサービス法
6.6. Audio Visual Media Services Directive 6.6. オーディオビジュアルメディアサービス指令
6.7. Measures against disinformation 6.7. 偽情報への対策
6.7.1. Code of Practice on Disinformation 6.7.1. 偽情報に関する行動規範
6.7.2. EU action plan against disinformation 6.7.2. 偽情報に対するEUの行動計画
6.7.3. European democracy action plan 6.7.3. 欧州民主化行動計画
6.8. European Parliament resolutions related to deepfakes 6.8. ディープフェイクに関連する欧州議会の決議
6.9. Regulatory debates in selected countries 6.9. 特定の国における規制の議論
6.9.1. United States 6.9.1. 米国
6.9.2. India 6.9.2. インド
6.9.3. China 6.9.3. 中国
6.9.4. Taiwan 6.9.4. 台湾
7. Regulatory gaps 7 規制のギャップ
7.1. Deepfake pornography 7.1. ディープフェイク・ポルノ
7.2. False political statement 7.2. 虚偽の政治声明
7.3. Manipulated court evidence 7.3. 裁判所の証拠を操作する
7.4. Conclusion 7.4. 結論
8. Regulatory options 8 規制の選択肢
9. Conclusions 9 結論
Annex 1 – List of interviewed experts and reviewers 附属書1 - インタビューを受けた専門家とレビュアーのリスト
Annex 2 – Interview questions first phase 附属書2 - 第一段階のインタビュー質問
Annex 3 – Interview questions second phase 附属書3 - 第二段階のインタビュー質問
Annex 4 – GANs and Autoencoders 附属書4 - GANとオートエンコーダー

 

上記の目次の訳と整合はとっていないのですが、、、仮訳です。。。

・[DOCX]

・[PDF] BRIEFING

Tackling deepfakes in European policy 欧州政策におけるディープフェイクへの取り組み
Novel artificial intelligence (AI) and other contemporary digital advances have given rise to a new generation of manipulated media known as deepfakes. Their emergence is associated with a wide range of psychological, financial and societal impacts occurring at individual, group and societal levels. The Panel for the Future of Science and Technology (STOA) requested a study to examine the technical, societal and regulatory context of deepfakes and to develop and assess a range of policy options, focusing in particular upon the proposed AI (AIA) and digital services acts (DSA), as well as the General Data Protection Regulation (GDPR). This briefing summarises the policy options developed in the study. They are organised into five dimensions – technology, creation, circulation, target and audience – and are complemented by some overarching institutional measures. 新しい人工知能(AI)をはじめとする現代のデジタル技術の進歩は、「偽物」と呼ばれる新世代の操作されたメディアを生み出している。その出現は、個人、グループ、社会の各レベルで、心理的、経済的、社会的にさまざまな影響を及ぼしています。科学技術の未来に関するパネル(STOA)は、ディープフェイクの技術的、社会的、規制的な背景を調査し、特に提案されているAI法(AIA)とデジタルサービス法(DSA)、および一般データ保護規則(GDPR)に焦点を当てて、一連の政策オプションを策定・評価するための研究を要請しました。本報告書は、本研究で策定された政策オプションをまとめたものです。これらは、技術、創造、流通、ターゲット、視聴者という5つの次元に整理されており、いくつかの包括的な制度的措置によって補完されています。
Technology dimension 技術の側面
The technology dimension concerns the underlying technologies and tools that are used to generate deepfakes, and the actors that develop deepfake production systems. 技術の側面は、深層偽装の生成に使用される基本的な技術とツール、および深層偽装生成システムを開発するアクターに関するものである。
Clarify which AI practices should be prohibited under the AIA: The proposed AIA mentions four types of prohibited AI practices that could relate to certain applications of deepfake technology. However, the formulation of these sections is open to interpretation. Some deepfake applications appear to fulfil the criteria of high-risk applications, such as enabling deceptive manipulation of reality, inciting violence or causing violent social unrest. AIAで禁止されるべきAI行為を明確にする。AIA案では、ディープフェイク技術の特定のアプリケーションに関連する可能性のある、4種類の禁止されるAI行為について言及しています。しかし、これらの項目の策定には解釈の余地があります。一部のディープフェイクアプリケーションは、現実の欺瞞的な操作を可能にしたり、暴力を扇動したり、暴力的な社会不安を引き起こしたりするなど、高リスクのアプリケーションの基準を満たしているように見えます。
Create legal obligations for deepfake technology providers: As proposed, the AIA would not oblige technology providers to label deepfake content, so the responsibility for labelling deepfakes currently lies with deepfake creators. The AIA could be extended to oblige the producers of deepfake creation tools to incorporate labelling features. ディープフェイク技術提供者に法的義務を課す。提案されているように、AIAは技術提供者にディープフェイクコンテンツのラベリングを義務付けるものではないため、現在、ディープフェイクのラベリングの責任はディープフェイクの作成者にあります。AIAを拡張して、ディープフェイク作成ツールの製作者に表示機能を組み込むことを義務付けることができる。
Regulate deepfake technology as high risk: Deepfake applications of AI could be defined as high risk by including them in annex III of the proposed AIA. This may be justified by risks to fundamental rights and safety, a criterion that is used to determine whether AI systems are high risk. Doing so would place explicit legal requirements on the providers of deepfake technologies, including risk-assessment, documentation, human oversight and ensuring high-quality datasets. ディープフェイク技術を高リスクとして規制する。ディープフェイクによるAIの応用は、AIA案の付属書IIIに含めることで、高リスクと定義することができる。これは、AIシステムが高リスクであるかどうかを判断する基準として、基本的な権利や安全性に対するリスクが正当化される可能性があります。そうすることで、ディープフェイク技術の提供者に対して、リスク評価、文書化、人間による監督、高品質なデータセットの確保など、明確な法的要件を課すことができます。
Limit the spread of deepfake detection technology: While detection technology is crucial in halting the circulation of malicious deepfakes, knowledge of how they work can help deepfake producers to circumvent detection. Limiting the diffusion of the latest detection tools could give those that possess them an advantage in the 'cat-and-mouse game' between deepfake production and detection. However, limiting detection technology to too narrow a group of actors could also restrict others from legitimate use. ディープフェイク検出技術の普及を制限する。検知技術は、悪意のある偽物の流通を阻止するために不可欠ですが、検知技術の仕組みを知ることは、偽物製作者が検知を回避するために役立ちます。最新の検知ツールの普及を制限すれば、それを保有する者は、ディープフェイクの製作と検知の間の「いたちごっこ」において優位に立つことができます。しかし、検出技術をあまりにも狭い範囲のアクターに限定すると、他のアクターの正当な利用を制限することにもなりかねない。
Invest in the development of AI systems that restrict deepfake attacks: While technology solutions cannot address all deepfake risks, mechanisms such as Horizon Europe could be mobilised to invest in the development of AI systems that prevent, slow, or complicate deepfake attacks. ディープフェイク攻撃を制限するAIシステムの開発に投資する。技術的な解決策ですべてのディープフェイクのリスクに対処することはできませんが、Horizon Europeのようなメカニズムを利用して、ディープフェイク攻撃を防止したり、遅らせたり、複雑にしたりするAIシステムの開発に投資することができます。
Invest in education and raise awareness amongst IT professionals: Familiarity with the impacts of deepfakes (and other AI applications) could become a standard part of the curriculum for information technology professionals, in particular AI researchers and developers. This may also provide an opportunity to equip them with a greater understanding and appreciation of the ethical and societal impacts of their work, as well as the legal standards and obligations in place. 教育に投資し、IT専門家の意識を高める。ディープフェイク(およびその他のAIアプリケーション)の影響を熟知することは、情報技術の専門家、特にAI研究者や開発者にとって、標準的なカリキュラムの一部となる可能性があります。また、自分の仕事が倫理的・社会的に与える影響や、法的な基準や義務について、より深く理解・認識する機会にもなるでしょう。
Creation dimension 創造の側面
While the technology dimension concerns the production of deepfake generation systems, the creation dimension concerns those that actually use such systems to produce deepfakes. Those that do so for malicious purposes mayactively evadeidentification and enforcement efforts. 技術的側面が深層偽装生成システムの製造に関わるものであるのに対し、創造の側面は、そのようなシステムを実際に使用して深層偽装を生成する者に関わるものである。悪意のある目的でこれを行う者は、実際には識別や実施の努力を回避することができる。
Clarify the guidelines for labelling: While standardised labels may help audiences to identify deepfakes, the proposed AIA does not state what information should be provided in the labels, or how it should be presented. ラベル付けのガイドラインを明確にする。標準化されたラベルは視聴者が偽物を識別するのに役立つかもしれないが、AIA案ではラベルにどのような情報を提供すべきか、またどのように表示すべきかについては述べられていない。
Limit the exceptions for the deepfake labelling requirement: The proposed AIA places a labelling obligation on users of deepfake technology. However, it also creates exemptions when deepfakes are used for law enforcement, in arts, sciences, and where the use 'is needed for freedom of expression'. Liberal interpretation of these exceptions may allow many deepfakes to remain un-labelled. ディープフェイクの表示義務の例外を制限する。AIA案は、ディープフェイク技術のユーザーに表示義務を課している。しかし、ディープフェイクが法執行、芸術、科学、および「表現の自由のために必要」な場合に使用される場合には、例外が設けられています。これらの例外を自由に解釈すると、多くのディープフェイクがラベル付けされないままになる可能性がある。
Ban certain applications: Transparency obligations alone may be insufficient to address the severe negative impacts of specific applications of deepfakes such as non-consensual deepfake pornography or political disinformation campaigns. While an outright ban may be disproportionate, certain applications could be prohibited, as seen in some jurisdictions including the United States of America, the Netherlands and the United Kingdom. Given the possible strong manipulative effect of deepfakes in the context of political advertising and communications, a complete moratorium on such applications could be considered. However, any such bans should be sensitive to potential impacts upon freedom of expression. 特定のアプリケーションを禁止する。透明性の義務だけでは、非合意的なフェイクポルノや政治的な偽情報キャンペーンなど、特定の用途におけるディープフェイクの深刻な負の影響に対処するには不十分かもしれない。完全に禁止することは不均衡かもしれませんが、米国、オランダ、英国などのいくつかの国で見られるように、特定のアプリケーションを禁止することは可能です。政治的な広告やコミュニケーションの文脈では、ディープフェイクが強い操作効果を発揮する可能性があることから、そのようなアプリケーションの完全なモラトリアムを検討することもできます。ただし、そのような禁止措置は、表現の自由への潜在的な影響に配慮すべきである。
Diplomatic actions and international agreements: The use of disinformation and deepfakes by foreign states, intelligence agencies and other actors contributes to increasing geopolitical tension. While some regional agreements are in place, there are no binding global agreements to deal with information conflicts and the spreading of disinformation. Intensified diplomatic actions and international cooperation could help to prevent and de-escalate such conflicts, and economic sanctions could be considered when malicious deepfakes are traced back to specific state actors. 外交活動と国際協定。外国国家、情報機関、その他のアクターによる偽情報や偽物の使用は、地政学的な緊張を高める要因となる。いくつかの地域的な合意がなされているものの、情報紛争や偽情報の拡散に対処するための拘束力のある世界的な合意は存在しない。また、悪意のある偽情報が特定の国のアクターにたどり着いた場合には、経済制裁を検討することもできます。
Lift some degree of anonymity for using online platforms: Anonymity serves as protection for activists and whistle-blowers, but can also provide cover for malicious users. Users of online platforms in China need to register with their identity (ID). If some degree of platform anonymity is considered essential, more nuanced approaches could require users to identify themselves before uploading certain types of content, but not when using platforms in other ways. オンライン・プラットフォームを利用する際に、ある程度の匿名性を確保する。匿名性は、活動家や内部告発者を保護する役割を果たす一方で、悪意あるユーザーの隠れ蓑にもなり得ます。中国のオンラインプラットフォームの利用者は、自分の身分証明書(ID)を登録する必要がある。ある程度のプラットフォームの匿名性が必要であると考えられる場合には、より微妙なアプローチとして、ユーザーが特定の種類のコンテンツをアップロードする際には本人確認を求め、それ以外の方法でプラットフォームを利用する際には本人確認を求めないようにすることができます。
Invest in knowledge and technology transfer to developing countries: The negative impacts of deepfakes may be stronger in developing countries. Embedding deepfake knowledge and technology transfer into foreign and development policies could help improve these countries' resilience. 発展途上国への知識と技術の移転に投資する。ディープフェイクの悪影響は、発展途上国でより強く現れる可能性があります。ディープフェイクの知識や技術の移転を外交政策や開発政策に組み込むことで、これらの国の回復力を高めることができる。
Circulation dimension 流通の側面
Policy options in the circulation dimension are particularly relevant in the context of the proposed DSA, which provides opportunities to limit the dissemination and circulation of deepfakes and, in doing so, to reduce the scale and the severity of their impact. 流通的側面における政策オプションは、提案されているDSAの文脈では特に関連性が高く、深層偽物の普及と循環を制限し、そうすることでその影響の規模と深刻さを軽減する機会を提供する。
Detecting deepfakes and authenticity: Platforms and other intermediaries could be obliged to embed deepfake detection software and enforce labelling, or to detect the authenticity of users to counteract amplification in the dissemination of deepfakes and disinformation. ディープフェイクと真正性の検出。プラットフォームやその他の仲介者は、ディープフェイクや偽情報の拡散の増幅を抑制するために、ディープフェイク検出ソフトウェアを組み込み、ラベリングを実施することや、ユーザの真正性を検出することを義務付けられる可能性がある。
Establish labelling and take-down procedures: Platforms could be obliged to label content detected as a deepfake and to remove it when notified by a victim or trusted flagger. This could be done transparently, under human oversight, and with proper notification and appeal procedures. A distinction could be made between reporting by any person and reporting by persons directly affected. ラベル付けと削除の手順を確立する。プラットフォームは、ディープフェイクとして検出されたコンテンツにラベルを付け、被害者や信頼するフラッガーから通知を受けた場合には、そのコンテンツを削除することを義務付けることができます。これは、人間の監視のもと、適切な通知と異議申し立ての手続きを経て、透明性のある形で行われます。また、誰でも通報できる場合と、直接被害を受けた人が通報する場合を区別することもできます。
Limit platforms' decision-making authority decide unilaterally on the legality and harmfulness of content: Independent oversight of content moderation decisions could limit the influence of platforms on freedom of expression and the quality of social communication and dialogue. コンテンツの合法性と有害性を一方的に決定するプラットフォームの意思決定権を制限する。コンテンツ・モデレーションの決定を独立して監視することで、表現の自由や社会的コミュニケーション・対話の質に対するプラットフォームの影響を制限することができる。
Increase transparency: To support monitoring activities, the DSA's reporting obligations could be extended to include deepfake detection systems, their results and any subsequent decisions. 透明性を高める。監視活動を支援するために、DSAの報告義務を、ディープフェイク検出システム、その結果、その後の決定を含むように拡張することができる。
Slow the speed of circulation: While freedom of speech is a fundamental right, freedom of reach is not. Platforms could be obliged to slow the circulation of deepfakes by limiting the number of users in groups, the speed and dynamics of sharing patterns, and the possibilities for micro-targeting. 流通の速度を遅くする。言論の自由は基本的な権利ですが、配信の自由はそうではありません。プラットフォームは、グループ内のユーザー数、共有パターンのスピードとダイナミクス、マイクロターゲティングの可能性を制限することで、ディープフェイクの流通を遅らせる義務を負う可能性があります。
Target dimension 標的の側面
Malicious deepfakes can have severe impacts on targeted individuals, and these may be more profound and long-lasting than many traditional patterns of crime. 悪意のあるディープフェイクは、標的となった個人に深刻な影響を与える可能性があり、その影響は従来の多くの犯罪パターンよりも深刻かつ長期的なものとなる可能性があります。
Institutionalise support for victims of deepfakes: National advisory bodies could provide accessible judicial support to help victims ensure take-downs, identify perpetrators, launch civil or criminal proceedings, and access psychological support. They could also contribute to the long-term monitoring of deepfakes and their impacts. ディープフェイクの被害者に対する支援を制度化する。国家諮問機関は、被害者がテイクダウンを確実に行い、加害者を特定し、民事・刑事手続を開始し、心理的支援を受けることができるよう、利用しやすい司法支援を提供することができる。諮問機関は、偽装事件とその影響の長期的なモニタリングにも貢献できる。
Strengthen the capacity of data protection authorities (DPAs) to respond to the use of personal data for deepfakes: Since deepfakes tend to make use of personal data, DPAs could be equipped with specific resources to respond to the challenges they raise. データ保護当局(DPA)の能力を強化し、個人データの偽装使用に対応する。Deepfakeは個人データを利用する傾向があるため、DPAはDeepfakeが提起する課題に対応するための特定のリソースを備えることができる。
Provide guidelines on GDPR in the context of deepfakes: DPAs could develop guidelines on how the GDPR framework applies to deepfakes, including the circumstances in which a data protection impact assessment is required and how freedom of expression should be interpreted in this context. Deepfakesの文脈におけるGDPRに関するガイドラインを提供する。DPAは、データ保護影響評価が必要となる状況や、この文脈で表現の自由をどのように解釈すべきかなど、GDPRの枠組みがディープフェイクにどのように適用されるかについてのガイドラインを作成することができる。
Extend the list of special categories of personal data with voice and facial data: The GDPR could be extended to include voice and facial data, to specify the circumstances under which their use is permitted and clarify how freedom of expression should be interpreted in the context of deepfakes. 音声や顔データを含む個人データの特別なカテゴリーのリストを拡張する。GDPRを音声および顔データを含むように拡張し、その使用が許可される状況を特定し、ディープフェイクの文脈で表現の自由をどのように解釈すべきかを明確にすることができる。
Develop a unified approach for the proper use of personality rights. Personality rights are comprised of many different laws including various rights of publicity, privacy and dignity. The 'right to the protection of one's image' could be developed and clarified in light of deepfake developments. 人格権の適切な使用のための統一的なアプローチを開発する。人格権は、パブリシティ権、プライバシー権、尊厳権など様々な法律で構成されています。自分のイメージを保護する権利」は、ディープフェイクの進展に照らして開発され、明確化される可能性がある。
Protect personal data of deceased persons. Deepfakes can present deceased persons in misleading wayswithouttheirconsent.A'datacodicil'could be introduced to help people control how their data and image is used after their death. 亡くなった人の個人情報を保護する。ディープフェイクは、故人の同意を得ずに、故人を誤解を招くような方法で表現することができる。データコディシ ル」を導入し、故人の死後、そのデータや画像がどのように使用されるかを人々が管理できるようにする。
Address authentication and verification procedures for court evidence: Various types of digital evidence, such as electronic seals, time stamps and electronic signatures, have been established as admissible as evidence in legal proceedings. Guidelines could be provided to help address authentication and verification issues and support courts when dealing with digital evidence of questionable authenticity. 法廷証拠のための認証・検証手続きに対応する。電子印鑑、タイムスタンプ、電子署名など、様々な種類のデジタル証拠が法的手続きの証拠として認められるようになっている。認証・検証の問題に対処し、真正性に疑問のあるデジタル証拠を扱う際に裁判所を支援するためのガイドラインを提供することができる。
Audience dimension 視聴者の視点
Audience response is a key factor in the extent to which deepfakes can transcend the individual level and have wider group or societal impacts. 視聴者の反応は、偽物が個人のレベルを超えて、より広いグループや社会に影響を与えることができるかどうかの重要な要素である。
Establish authentication systems: In parallel to labelling measures, authentication systems could help recipients of messages to verify their authenticity. These could require raw video data, digital watermarks or information to support traceability. 認証システムの確立。ラベリング対策と並行して、認証システムは、メッセージの受信者がその真偽を確認するのに役立つ。これには、生のビデオデータ、デジタル透かし、トレーサビリティーをサポートする情報などが必要となる。
Invest in media literacy and technological citizenship: Awareness and literacy of deepfake technologies could increase the resilience of citizens, organisations and institutions against the risks of deepfakes. These could target different profiles, such as young children, professionals, journalists and social media users. メディアリテラシーとテクノロジーシチズンシップに投資する。ディープフェイク技術に対する認識とリテラシーを高めることで、市民、組織、団体がディープフェイクの脅威に対抗する力を高めることができる。そのためには、幼い子どもたち、専門家、ジャーナリスト、ソーシャルメディアの利用者など、さまざまな人を対象にすることが必要です。
Invest in a pluralistic media landscape and high quality journalism: The European democracy action plan recognised a pluralistic media landscape as a prerequisite for access to truthful information, and to counter disinformation. Support for journalism and media pluralism at European and national levels could help maintain this. 多元的なメディア環境と質の高いジャーナリズムに投資する。欧州民主主義行動計画では、真実の情報を入手し、偽情報に対抗するためには、多元的なメディア環境が必須であるとしています。ジャーナリズムとメディアの多元性を欧州および各国レベルで支援することで、これを維持することができる。
Institutional and organisational measures 制度的・組織的措置
Overarching options for institutional and organisational action could support and complement measures in all five dimensions discussed above. 制度的・組織的措置のための包括的なオプションは、上述した5つの側面すべてにおける措置を支援し、補完することができる。
Systematise and institutionalise the collection of information with regards to deepfakes: ディープフェイクに関する情報収集を体系化し、制度化する。
Systemic collection and analysis of data about the development, detection, circulation and impact of deepfakes could inform the further development of policies and standards, enable institutional control of deepfake creation, and may even transform deepfake creation culture. This option corresponds with the European democracy action plan, the European action plan against disinformation and the European Digital Media Observatory that is currently being formed. The European Union Agency for Cybersecurity (ENISA) and European Data Protection Board (EDPB) could also play a role in this. ディープフェイクの開発、検出、流通、影響に関するデータの体系的な収集と分析は、 政策と基準のさらなる開発に役立ち、ディープフェイク作成の組織的管理を可能にし、さらには ディープフェイク作成文化を変革する可能性がある。この選択肢は、欧州民主主義行動計画、偽情報に対する欧州行動計画、および現在形成されている欧州デジタルメディア観測所に対応するものである。また、欧州連合サイバーセキュリティ機関(ENISA)や欧州データ保護委員会(EDPB)も、その役割を果たすことができるでしょう。
Protecting organisations against deepfake fraud: Organisations could be supported to perform risk assessments for reputational or financial harm caused by malicious deepfakes, to prepare staff and establish appropriate strategies and procedures. ディープフェイクによる不正行為からの組織の保護。組織は、悪意のあるディープフェイクによって引き起こされる風評被害や金銭的被害に対するリスク評価を行い、スタッフを準備し、適切な戦略と手順を確立するための支援を受けることができる。
Identify weaknesses and share best practices: Assessments of national regulations in the context of deepfakes could reveal weaknesses to be addressed, as well as best-practices to be shared. An EU-wide comparative study could be promoted within the framework of Horizon Europe. 弱点を特定し、ベストプラクティスを共有する。ディープフェイクに関する各国の規制を評価することで、対処すべき弱点や共有すべきベストプラクティスを明らかにすることができる。EU全体の比較研究は、Horizon Europeの枠組みの中で進めることができる。
This document is based on the STOA study 'Tackling deepfakes in European policy' (PE 690.039) published in July 2021. The study was written by Mariëtte van Huijstee, Pieter van Boheemen and Djurre Das (Rathenau Institute), Linda Nierling and Jutta Jahnel (Institute for Technology Assessment and Systems Analysis), Murat Karaboga (Fraunhofer Institute for Systems and InnovationResearch) and Martin Fatun (Technology Centre ASCR), with the assistance of Linda Kool (Rathenau Institute) and Joost Gerritsen (Legal Beetle). It was requested by the Panel for the Future of Science and Technology (STOA) and managed by the Scientific Foresight Unit, within the Directorate-General for Parliamentary Research Services (EPRS) of the Secretariat of the European Parliament. STOA administrator responsible: Philip Boucher. 本文書は、2021年7月に発表されたSTOAの研究「Tackling deepfakes in European policy」(PE 690.039)に基づいています。本研究は、Mariëtte van Huijstee、Pieter van Boheemen、Djurre Das(Rathenau Institute)、Linda Nierling、Jutta Jahnel(Institute for Technology Assessment and Systems Analysis)、Murat Karaboga(Fraunhofer Institute for Systems and InnovationResearch)、Martin Fatun(Technology Centre ASCR)が執筆し、Linda Kool(Rathenau Institute)、Joost Gerritsen(Legal Beetle)が協力しました。これは、科学技術の未来に関するパネル(STOA)の要請を受け、欧州議会事務局の議会研究サービス総局(EPRS)内の科学的予見ユニットが管理しています。STOA管理者責任者 Philip Boucher

|

« 個人情報保護委員会 改正個人情報保護法の英訳 | Main | NIST SP 1271 NISTサイバーセキュリティフレームワーク入門:クイックスタートガイド »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 個人情報保護委員会 改正個人情報保護法の英訳 | Main | NIST SP 1271 NISTサイバーセキュリティフレームワーク入門:クイックスタートガイド »