« バージニア州 消費者データ保護法案 | Main | JC3 Forum 2021 - サイバー犯罪の特定・軽減・無効化 (2021.03.12午後) »

2021.01.26

RAND研究所 真実の崩壊に対抗するためのメディアリテラシー標準についての報告

こんにちは、丸山満彦です。

RAND研究所 [wikipedia] が ソーシャルメディアを利用したり、Deep Fakeの技術が進んでいる現在におけるメディアリテラシー教育に関する報告書を公表していますね。。。

2021.01.18にこのブログで、新聞紙学的(平和博さんのブログ) の「ディープフェイクスにどれだけ騙される? 意外な実験結果とは」を紹介したのですが、その後、平教授との簡単なやり取りの中で、対策は結局ぐるっと回ってリテラシーの話に戻るという話になったりしました。

その通りで、「情報発信側への対策」、「情報受信側の対策」の2つが必要で、情報受信側の対策としては、リテラシー教育という話になりますね。。。と思っていたら、ちょうどランド研究所からメディアリテラシーに関する新しい報告書が出ていました。。。

真実の崩壊 (Trust decay) に対抗するためのメディアリテラシー教育をする場合にどのようなことを教えれば良いかという標準を提案しているものです。

RAND Corporation

・2021.01.19 Media Literacy Standards to Counter Truth Decay

論文とその付録

・[PDF] Media Literacy Standards to Counter Truth Decay

・[PDF] Appedix

 

この中で4つのカテゴリについて15の標準を示しているので、簡単に訳しておきます。。。 1コマで1つ説明すれば半期の講義になりますね。。。

 

Seeking a complete understanding of the facts 事実の完全な理解を求めて
TREND: increasing disagreement about facts and analytical interpretations of facts and data 傾向:事実とデータの分析的解釈に関する不一致の増加
1. Recognize limitations of one’s own knowledge or understanding of the facts. 1. 自分自身の知識や事実の理解に限界があることを認識する。
2. Use strategies to fill gaps in knowledge (e.g., connecting with experts on a topic; seeking information in a library; using search engines to find additional information). 2. 知識のギャップを埋めるための戦略を用いる(例: トピックに関する専門家と連絡を取る、図書館で情報を探す、検索エンジンを使って追加情報を見つける)。
3. Understand how modern information sources and tools can limit available facts and perspectives (e.g., search engine algorithms; specialized discussion groups; selection in social media connections). 3. 現代の情報源やツールが、利用可能な事実や視点をどのように制限しているかを理解する(検索エンジンのアルゴリズム、専門的なディスカッショングループ、ソーシャルメディアでのつながりの中での選択など)。
   
Identifying trustworthy sources of information 信頼できる情報源の特定
TREND: declining trust in formerly respected sources of facts 傾向:かつて一目置かれていた事実の情報源への信頼の低下
4. Identify the expertise (e.g., academic, office held, firsthand knowledge) and consider the motivations (e.g., political, financial) of the creator of an information product. 4. 専門性(例:学歴、役職、直接の知識)を特定し、情報製品の作成者の動機(例:政治的、金銭的)を検討する。
5. Evaluate whether information products meet established standards for process and presentation (e.g., scientific process, journalistic standards, peer review). 5. 情報製品が確立されたプロセスやプレゼンテーションの基準(科学的プロセス、ジャーナリスティックな基準、ピアレビューなど)を満たしているかどうかを評価する。
6. Analyze information for bias, deception, or manipulation. 6. 情報に偏りがないか、欺瞞がないか、または操作されていないか分析する。
7. Consider the social, political, and historical contexts of an information product and how those contexts influence meaning. 7. 情報製品の社会的、政治的、歴史的な文脈を考慮し、それらの文脈がどのように意味に影響を与えるかを検討する。
   
Evaluating the credibility of information and soundness of arguments 情報の信頼性と議論の健全性の評価
TREND: a blurring of the line between opinion and fact TREND:意見と事実の境界線の曖昧さ
8. Understand the ways in which technology has the capability to undermine formerly trustworthy information products (e.g., audio and video “deep fakes”). 8. テクノロジーが、かつて信頼されていた情報製品(音声や映像の「ディープフェイク」など)を弱体化させる能力を持っている方法を理解する。
9. Analyze whether evidence provided for an argument is adequate and can be independently confirmed; identify gaps in support or reasoning. 9. ある議論のために提供された証拠が適切であり、独立して確認できるかどうかを分析し、支持や推論のギャップを特定する。
10. Compare multiple viewpoints on a topic and use evidence to determine how to manage discrepancies. 10. あるトピックについて複数の視点を比較し、証拠を用いて矛盾をどのように管理するかを判断する。
11. Recognize the ways that media and information products might trigger emotional responses that influence attitudes or elicit specific behaviors. 11. メディアや情報製品が感情的な反応を引き起こし、態度に影響を与えたり、特定の行動を誘発したりする可能性があることを認識する。
   
Responsible engagement to counter Truth Decay 真実の崩壊に対抗するための責任ある関与
TREND: the increasing relative volume and resulting influence of opinion and personal experience over fact トレンド:相対的な量の増加と、結果として事実よりも意見や個人的な経験が及ぼす影響
12. Anticipate and monitor intended and unintended consequences of what is shared in digital spaces. 12. デジタル空間で共有されるものの意図した結果と意図しない結果を予測し、監視する。
13. Recognize personal and cultural perspectives, particularly on controversial topics, and how those can influence interpretations of information. 13. 個人的、文化的な視点、特に議論の多いトピックについて、それらが情報の解釈にどのような影響を与えうるかを認識する。
14. Maintain openness to updating one’s own views when presented with new facts or evidence. 14. 新しい事実や証拠が提示されたときには、自分の見解を更新することに寛容であることを保つ。
15. Take action rooted in evidence (e.g., construct new knowledge, create and share media, engage in informed conversations and decisions about important issues). 15. 証拠に基づいた行動をとる(例:新しい知識を構築する、メディアを作成して共有する、重要な問題についての情報に基づいた会話や意思決定に参加する)。

 

 

111_20210126042701

 


■ Deep Fake等、関連情報

● まるちゃんの情報セキュリティ気まぐれ日記

・2021.01.18 新聞紙学的(平和博さんのブログ) - ディープフェイクスにどれだけ騙される? 意外な実験結果とは

・2020.12.07 民主主義を守るための偽情報との戦い

・2020.11.28 国連(UNICRI) テロリスト、過激派、組織犯罪グループがソーシャルメディアを悪用しCOVID-19対応中の政府への信頼失墜をさせようとしている

・2020.11.24 フェイク画像はここまで来たのか・・・ (The New York Times)+IDF辻井先生のコラム

・2020.11.10 中国 TC260 パブコメ AI倫理に関するガイドライン案

・2020.11.04 情報ネットワーク法学会 第20回研究大会

・2020.10.25 『スマートサイバー AI活用時代のサイバーリスク管理』第24回 コンピュータ犯罪に関する白浜シンポジウムの発表資料

・2020.10.12 欧州議会は「人工知能、ロボットおよび関連技術の倫理的側面の枠組み」を採択しましたね。。。

・2020.09.04 マイクロソフトがDeepfake検出ツールを発表してました。。。

・2020.08.28 人工知能と感情知性に関する倫理(2020.07.30)

・2020.08.10 DeepfakeについてのNATO, CSET, Partnership on AI, GAOの報告書(少し前ですが・・・)

・2020.07.02 ディズニーがメガピクセルのディープフェイクで映画?

・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。

・2020.04.20 別人になりきってオンラインビデオ会議に参加できるオープンソースのディープフェイクツール「Avatarify」...

・2020.03.28 EU Ethics Guidelines for Trustworthy AI

・2020.03.08 AIで手塚治虫作品をつくる?

・2020.03.02 AIが権利能力の主体となるのであれば、それは法人ですね。。。

・2020.02.27 「AI倫理に関する現状」芳田千尋氏

・2020.02.09 なりすまし問題

・2020.01.27 Deepfake



 

 

 

 

|

« バージニア州 消費者データ保護法案 | Main | JC3 Forum 2021 - サイバー犯罪の特定・軽減・無効化 (2021.03.12午後) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« バージニア州 消費者データ保護法案 | Main | JC3 Forum 2021 - サイバー犯罪の特定・軽減・無効化 (2021.03.12午後) »