« NIST FIPS 201-3 連邦職員および委託業者のアイデンティティの検証(PIV) | Main | 英国 政府のサイバーセキュリティ戦略:2022年 - 2030年 »

2022.01.26

英国王立学会 オンライン情報環境(フェイク情報は削除すべき、削除すべきでない?)at 2022.01.19

こんにちは、丸山満彦です。

平さんのブログから知った内容。。。

● 新聞紙学的

・2022.01.24 「フェイクの削除は有害」?それでも削除すべき理由とは

 

英国王立学会が「オンライン情報環境」を公開していますね。。。

The Royal Society

・2022.01.19 The online information environment

misinformationという言葉ですが、この報告書では、悪意のあるなしに関わらず誤った情報という意味で、使っていますね。。。なので、disinformationという意味も含む概念で使っているようです。。。

The online information environment オンライン情報環境
How are digital technologies changing the way people interact with information?  What technologies are there that can fabricate and detect misinformation?  And what role does technology have to play in creating a better information environment? デジタル技術は、人々の情報との関わり方をどのように変えているのでしょうか?  誤った情報を捏造し、それを検知する技術にはどのようなものがあるのでしょうか。  また、より良い情報環境を作るために、技術はどのような役割を果たすべきなのでしょうか。
The online information environment (PDF) report addresses these questions, providing an overview of how the internet has changed, and continues to change, the way society engages with scientific information, and how it may be affecting people’s decision-making behaviour – from taking up vaccines to responding to evidence on climate change. It highlights key challenges for creating a healthy online information environment and makes a series of recommendations for policymakers, academics, and online platforms. オンライン情報環境(PDF)レポートでは、これらの疑問を解決するために、インターネットが社会の科学情報への関わり方をどのように変えてきたのか、また変え続けているのか、そして、ワクチンの摂取から気候変動に関する証拠への対応まで、人々の意思決定行動にどのような影響を与えているのかを概観しています。本レポートでは、健全なオンライン情報環境を構築するための主要な課題を明らかにし、政策立案者、学術関係者、オンラインプラットフォームに対する一連の提言を行っています。
How are digital technologies shaping the information people encounter? デジタル技術は、人々が出会う情報をどのように変えているのでしょうか?
Patterns of information consumption are changing: individuals increasingly look to the online environment for news, and search engines and social media platforms play an increasingly important role in shaping access to information and participation in public debates. New technologies and uses of data are shaping this online information environment, whether through micro-targeting, filter bubbles, or sophisticated synthetic text, videos and images.  情報消費のパターンは変化しています。個人がオンライン環境にニュースを求めるようになり、検索エンジンやソーシャルメディアのプラットフォームは、情報へのアクセスや公共の議論への参加を形成する上で、ますます重要な役割を果たすようになっています。マイクロターゲティング、フィルターバブル、高度に合成されたテキスト、ビデオ、画像など、新しい技術やデータの利用がこのオンライン情報環境を形成しています。 
These technologies have great potential and are already being deployed in a range of contexts from entertainment through to education.  At the same time, there are increasing concerns about new forms of online harm and erosion of trust that these could enable. これらの技術は大きな可能性を秘めており、すでにエンターテインメントから教育まで、さまざまな場面で展開されています。  その一方で、これらの技術が可能にする新たなオンライン上の被害や信頼の低下に対する懸念も高まっています。
While misinformation isn’t a new problem—and uncertainty and debate are intrinsic parts of science--the internet has drastically magnified the speed and scale at which poor quality information can spread. 誤った情報は新しい問題ではありません。不確実性や議論は科学の本質的な部分ですが、インターネットは質の低い情報を広めるスピードと規模を飛躍的に拡大しました。
The report highlights how online misinformation on scientific issues, like climate change or vaccine safety, can harm individuals and society.   It stresses that censoring or removing inaccurate, misleading and false content, whether it’s shared unwittingly or deliberately, is not a silver bullet and may undermine the scientific process and public trust.  Instead, there needs to be a focus on building resilience against harmful misinformation across the population and the promotion of a “healthy” online information environment. 本報告書では、気候変動やワクチンの安全性など、科学的な問題に関するオンラインの誤った情報が、個人や社会にどのような損害を与えるかを明らかにしています。   本報告書では、不正確な情報、誤解を招くような情報、虚偽の情報を検閲したり削除したりすることは、それが無意識にあるいは意図的に共有されたものであるかどうかにかかわらず、銀の弾丸のようなものではなく、科学的プロセスや社会の信頼を損なう可能性があることを強調しています。  むしろ、有害な誤った情報に対する回復力を国民全体で高め、「健全な」オンライン情報環境を促進することに焦点を当てる必要があります。
The edge of error 誤りの端緒
Professor Frank Kelly FRS, Professor of the Mathematics of Systems at the Statistical Laboratory, University of Cambridge, and Chair of the report said, “Science stands on the edge of error and the nature of the scientific endeavour at the frontiers means there is always uncertainty. 報告書の議長を務めるケンブリッジ大学統計研究所システム数学教授のフランク・ケリー教授(FRS)は、以下のように述べています。「科学は誤りの縁に立っており、フロンティアでの科学的試みの性質上、常に不確実性がある」。
“In the early days of the pandemic, science was too often painted as absolute and somehow not to be trusted when it corrects itself, but that prodding and testing of received wisdom is integral to the advancement of science, and society. 「パンデミックの初期には、科学は絶対的なものであり、自らを修正するときには信用できないものであると考えられがちでしたが、科学や社会の発展のためには、既成概念を掘り下げて検証することが不可欠です」。
“This is important to bear in mind when we are looking to limit scientific misinformation’s harms to society. Clamping down on claims outside the consensus may seem desirable, but it can hamper the scientific process and force genuinely malicious content underground.” 「このことは、科学的に誤った情報による社会への悪影響を抑えるためにも重要なことです。コンセンサスから外れた主張を取り締まることは望ましいことのように見えますが、それは科学的プロセスを妨げ、真に悪意のあるコンテンツを地下に追いやることになりかねません」。
Perspectives 展望
Alongside the publication of this report, the Society is launching a blog series of weekly perspective pieces offering personal takes from leading figures on specific aspects of this topic, from potential regulatory approaches to what the media is doing to combat fake news to the role of knowledge institutions. 本報告書の発行と並行して、本学会ではブログシリーズを立ち上げ、潜在的な規制アプローチから、メディアがフェイクニュースに対抗するために何をしているか、知識機関の役割など、このテーマの特定の側面について、著名人の個人的な見解を毎週紹介しています。
Common questions よくある質問
What is scientific misinformation? 科学的に誤った情報とは何ですか?
Scientific misinformation is defined as information which is presented as factually true but directly counters, or is refuted by, established scientific consensus. This includes concepts such as ‘disinformation’ which relates to the deliberate sharing of misinformation content. 科学的に誤った情報とは、事実に基づいて提示された情報でありながら、確立された科学的コンセンサスに真っ向から反論したり、反論されたりするものと定義されます。これには、誤った情報を意図的に共有する「偽情報」のような概念も含まれます。
Why do people share misinformation? なぜ人々は誤った情報を共有するのか?
The actors involved in producing and disseminating misinformation content can be broadly categorised as intentional or unintentional actors, and further differentiated by motivation. These actors can exist across all sections of society and often include those in positions of power and influence (e.g. political leaders, public figures, and media outlets). We identify four types of misinformation actors: 誤った情報のコンテンツの作成と発信に関わるアクターは、意図的なアクターと非意図的なアクターに大別され、さらに動機によっても区別されまあす。これらのアクターは、社会のあらゆるセクションに存在する可能性があり、多くの場合、権力や影響力を持つ立場の人々(政治指導者、公人、メディアなど)が含まれます。私たちは、4つのタイプの誤報行為者を特定しました。
Good Samaritans: These users unknowingly produce and share misinformation content. Their motivation is to help others by sharing useful information which they believe to be true. Examples of this could include unknowingly sharing an ineffective health treatment or an inaccurate election schedule. 善きサマリア人:これらのユーザーは、無意識のうちに誤った情報のコンテンツを作成し、共有しています。彼らの動機は、自分が真実だと信じている有益な情報を共有することで、他の人を助けたいというものです。例えば、効果のない健康法や不正確な選挙日程などを無意識のうちに共有してしまうことが挙げられます。
Profiteers: These users either knowingly share misinformation content or are ambivalent about the content’s veracity. The consumption of their content generates profit for them with greater engagement resulting in higher profit. Examples include writers for explicitly false news outlets being paid directly to a Google Ads account, companies selling fraudulent health treatments, and video content creators profiting from advertising revenue. Profit, in this context, is not restricted to monetary value and can include other forms of personal gain (e.g. more votes or greater reach). 儲け主義者:このようなユーザーは、誤った情報を故意に共有しているか、コンテンツの信憑性について曖昧な態度をとっています。彼らのコンテンツが消費されることで、彼らは利益を得ることができ、エンゲージメントが高ければ高い利益を得ることができます。例えば、明らかに虚偽のニュースを提供するライターには、Google Adsのアカウントに直接報酬が支払われ、詐欺的な健康法を販売する企業や、広告収入で利益を得る動画コンテンツ制作者などが挙げられます。ここでいう利益とは、金銭的な価値に限らず、他の形態の個人的な利益(例えば、より多くの投票やより多くのリーチ)を含むこともあります。
Coordinated influence operators: These users knowingly produce and share misinformation content. Their motivation is to sway public opinion in a manner that will benefit the agenda of their organisation, industry, or government. The aim is to either convince consumers of an alternate story or to undermine faith in trusted institutions. Examples include successfully publishing political opinion pieces by a fabricated expert in reputable online news outlets and using automated social media accounts (bots) to promote climate change denialism. 協調的影響力行使者:このようなユーザーは、意図的に誤った情報のコンテンツを作成し、共有します。彼らの動機は、自分の所属する組織、業界、または政府のアジェンダに利益をもたらす方法で世論を動かすことです。その目的は、消費者に別のストーリーを納得させることや、信頼できる機関への信頼を損なうことです。例えば、捏造した専門家による政治的意見を評判の高いオンラインニュースに掲載することに成功したり、ソーシャルメディアの自動アカウント(ボット)を使って気候変動の否定論を広めることなどが挙げられます。
Attention hackers: These users knowingly produce and share misinformation content. Their motivation is personal joy. Sometimes referred to as ‘trolling’, these users devise outlandish or divisive content and take steps to maximise attention for them. Examples include sending messages to mainstream talk shows in the hope they will read out the content on air, fooling high profile figures into resharing content on their social media accounts, and sharing conspiracy theories on unsuspecting television and radio phone-ins (known as groyping). アテンションハッカー:このようなユーザーは、故意に誤った情報のコンテンツを制作し、共有します。彼らの動機は個人的な喜びです。トローリング」と呼ばれることもありますが、このようなユーザーは、突拍子もない、あるいは分裂を招くようなコンテンツを考案し、その注目度を最大限に高めるための手段を講じます。例えば、主流のトークショーにメッセージを送り、放送中にその内容を読み上げてもらうことを期待したり、著名人を騙して自分のソーシャルメディアアカウントでコンテンツを再共有させたり、疑うことなくテレビやラジオの電話で陰謀論を披露したりすることが挙げられます(グロウピングと呼ばれます)。
What is malinformation? 悪意のある情報とは?
Genuine, unedited content can be shared without context to provide a misleading narrative. This is made easier in the online information environment as content can be disseminated between people without intermediaries (e.g. news outlets, government officials). This has been referred to as ‘malinformation’. Examples include sharing real images and claiming that they represent something that they do not. They can also involve sharing images of different events from a different date to create a false narrative and discredit targets. 真の意味で編集されていないコンテンツが、文脈を無視して共有され、誤解を招くような物語を提供することがあります。ネット上の情報環境では、コンテンツを仲介者(報道機関や政府関係者など)なしに人々の間で広めることができるため、このようなことが容易に起こります。これは「悪意のある情報」と呼ばれています。例えば、実物の画像を共有して、それが実際にはないものを表していると主張することなどが挙げられます。また、異なる日付の異なるイベントの画像を共有することで、誤ったストーリーを作り、ターゲットの信用を落とすこともあります。
What is a deepfake? ディープフェイクとは?
Originating from a Reddit user who shared edited videos of celebrity faces swapped into pornographic videos, deepfakes refer to novel audio and/or visual content generated using artificial intelligence techniques such as generative adversarial networks (GANs). GANs involve two neural networks competing against each other – one creating false content and the other trying to detect it. The GANs can be trained using images, sounds, and videos of the target. The result is convincingly edited ‘new’ audio and/or visual content. ディープフェイクとは、有名人の顔をポルノビデオにすり替えて編集した動画をRedditで公開したことに端を発し、GAN(Generative Adversarial Network)などの人工知能技術を用いて生成された新しい音声・映像コンテンツのことです。GANでは、2つのニューラルネットワークが互いに競い合い、一方が偽のコンテンツを作成し、もう一方がそれを検出しようとします。GANは、ターゲットの画像や音声、動画などを使って学習させることができます。その結果、説得力のある編集された「新しい」オーディオおよび/またはビジュアルコンテンツが得られます。
Deepfakes can involve portraying individuals doing or saying things which they never did or said. They can also involve the generation of a new ‘person’ – a still image of a novel face to be used in the creation of a fabricated online persona.  Research has found that the majority of the thousands of deepfakes currently in existence are of a pornographic nature, however other examples have included deepfakes of politicians, campaigners, celebrities, and the Queen. ディープフェイクでは、実際にはやったことも言ったこともないことをやったり言ったりしている個人を描写することができる。また、新たな「人物」、つまり、ネット上で捏造されたペルソナを作成するために使用される斬新な顔の静止画を生成することもあります。  調査によると、現在存在する何千ものディープフェイクの大半はポルノ的な性質のものですが、政治家、運動家、有名人、女王などのディープフェイクも存在します。
What are shallowfakes? シャローフェイクとは?
A form of malinformation content, shallowfakes refer to videos which have been presented out of context or crudely edited. These effects are achieved by using video-editing software or smartphone applications to change the speed of video segments or crop together clips in order to omit relevant context. 悪意のある情報のコンテンツの一つである浅い偽情報とは、文脈を無視して提示されたり、粗雑に編集されたビデオを指します。このような効果は、ビデオ編集ソフトやスマートフォンのアプリケーションを使用して、ビデオセグメントの速度を変更したり、関連する文脈を省略するためにクリップを切り取ったりすることで得られます。
What is provenance enhancing technology? プロミネンス・エンハンシング・テクノロジーとは?
Focusing instead on the origins of content rather than its value, organisations developing provenance enhancing technologies aim to equip information consumers with the means to help them decide whether a piece of content is genuine and not manipulated. This is achieved by applying the content’s metadata (e.g. sender, recipient, time stamp, location) to determine who created it, how it was created, and when it was created. コンテンツの価値ではなく、その起源に着目し、情報消費者がコンテンツが加工されていない本物であるかどうかを判断するための手段を提供することを目的としたのが、出所証明技術です。これは、コンテンツのメタデータ(送信者、受信者、タイムスタンプ、場所など)を利用して、誰が、どのように作成したのか、いつ作成したのかを判断することで達成されます。
This is the primary aim of the Coalition for Content Provenance and Authenticity (an initiative led by Adobe, ARM, the BBC, Intel, Microsoft, TruePic, and Twitter) which is developing a set of technical specifications on content provenance. If sufficiently enabled, platforms would be able to better address or label problematic content and information consumers will be able to determine the veracity of a claim, image, or video. これは、Coalition for Content Provenance and Authenticity(Adobe、ARM、BBC、Intel、Microsoft、TruePic、Twitterが主導するイニシアチブ)の主な目的であり、コンテンツの証明に関する一連の技術仕様を策定しています。十分な機能を備えれば、プラットフォームは問題のあるコンテンツに対してより適切な対処やラベル付けができるようになり、情報消費者は主張や画像、動画の信憑性を判断できるようになるでしょう。
What are bots? ボットとは何ですか?
Bots are pre-programmed online accounts that engage with and respond to online content in an automated fashion. They take many forms in the online information environment. Chatbots can act as customer service operators for large companies (e.g. retail banks) or as false personas on social media platforms. Voice assistants recognise and respond verbally to spoken requests made by a user to a smart device. Bot crawlers undertake basic administrative tasks for owners such as indexing web pages or countering minor acts of vandalism on wikis. Traffic bots exist to inflate the number of views for a piece of online content to boost revenue derived from online advertising. ボットとは、あらかじめプログラムされたオンラインアカウントで、オンラインコンテンツに自動で関わり、反応するものです。オンラインの情報環境では、さまざまな形で利用されています。チャットボットは、大企業(リテールバンクなど)の顧客サービスオペレーターとして機能したり、ソーシャルメディアのプラットフォーム上で偽のペルソナとして機能したりします。音声アシスタントは、ユーザーがスマートデバイスに対して行った音声による要求を認識し、口頭で応答します。ボット・クローラーは、ウェブページのインデックスを作成したり、ウィキ上の小さな破壊行為に対処するなど、オーナーのために基本的な管理作業を行います。トラフィックボットは、オンラインコンテンツの閲覧数を増加させ、オンライン広告から得られる収益を増加させるために存在する。
Positive applications of bots include their use to counter misinformation, to support people with disabilities, and to disseminate news updates. Negative applications include the use of bots to deceptively influence public opinion, to suppress news stories, and to abuse people. ボットのポジティブな用途としては、誤った情報に対抗するため、障害者を支援するため、ニュースの更新情報を発信するためなどがある。一方、ネガティブな用途としては、世論への影響力を偽装したり、ニュース記事を抑制したり、人々を虐待したりすることが挙げられます。
Method 方法
Alongside the report, the Society has published a series of independent commissioned literature reviews and surveys which have helped inform the thinking of the expert working group on these issues. These include: 本報告書と並行して、本会は、これらの問題に関する専門家ワーキンググループの考えを伝えるために、独自に委託した一連の文献レビューや調査を発表しました。その内容は以下の通りです。
a literature review on anti-vaccine misinformation in the C20th (PDF) 1920年代の反ワクチンの誤報に関する文献調査 (PDF)
a literature review on historic misinformation about water fluoridation (PDF) ウォーターフロリデーションに関する歴史的な誤報についての文献調査 (PDF)
a literature review on the science behind how people navigate the information environment (PDF) 人々が情報環境をどのようにナビゲートするかについての科学に関する文献調査 (PDF)
a literature review on the evidence behind echo chambers and filter bubbles (PDF) エコーチェンバーとフィルターバブルの背後にある証拠についての文献調査 (PDF)
a survey of people’s capacity for deepfake detection (PDF) ディープフェイクを検知する人々の能力に関する調査 (PDF)

 

・[PDF]

20220125-163501

 

目次...

Foreword   序文  
Executive summary  エグゼクティブ・サマリー 
Recommendations  提言 
Chapter one: Why do we need trustworthy information?  第1章 なぜ信頼できる情報が必要なのか?
Evidence of impact  インパクトのある証拠 
Case study: Vaccine misinformation  ケーススタディ:ワクチンの誤った情報
Chapter two: How the information environment is shaped and navigated  第2章:情報環境はどのように形成され、ナビゲートされるか 
How do our minds process information?  私たちの心はどのように情報を処理するのか?
Types of misinformation actors  誤った情報のアクターの種類 
Incentives for information production and consumption 情報の生産と消費のインセンティブ
How the internet facilitates access to information  インターネットが情報へのアクセスを容易にする仕組み 
Policies adopted by major online platforms   主要なオンラインプラットフォームが採用するポリシー  
Case study: 5G misinformation   ケーススタディ:5Gの誤情報
Chapter three: Techniques for creating and countering misinformation  第3章 誤情報の作成とそれに対抗するテクニック 
Synthetic content  合成コンテンツ 
Techniques used to promote misinformation  誤った情報を広めるためのテクニック 
Tools and approaches for countering misinformation  誤った情報に対抗するためのツールとアプローチ 
Chapter four: Trustworthy institutions  第4章 信頼できる機関 
Decontextualisation  脱文脈化 
Quantity of information  情報の量 
Hallmarks of trustworthiness  信頼できる機関の特徴 
The importance of curatorship  キュレーターシップの重要性 
Case study: Water fluoridation misinformation  ケーススタディ:水道水フッ化物添加の誤情報
Chapter five: The future landscape  第5章 今後の展望 
Conclusion   結論
Appendix   附属書  
Index of figures and boxes  図とボックスの索引 
Working Group members  ワーキンググループメンバー 
Royal Society staff  英国王立協会スタッフ 
Acknowledgments  謝辞 
Survey methodologies  調査方法 
Commissioned literature reviews  委託文献調査 

 

序文あたりを

Foreword 序文
I Foreword It is arguably one of the most abundant resources of our age – never before has so much information been available to so many people. Wherever access to the internet is possible, individuals can access entire libraries-worth of knowledge, decades of news reports, vaults-full of documents and records, speeches, images and videos; and, in the current pandemic, the genome sequence of a novel coronavirus and a torrent of research preprints released before peer review. Once it would take days for news to pass from town to town, but the last century saw a speeding up of information transmission, from the early growth of telephony through to the advent of the World Wide Web in the 1990s and the popularity of social media from the early 2010s. Digital technology has transformed our ability to be informed and to inform others.  序文 現代の最も豊かな資源の一つと言っても過言ではありません。これほど多くの情報をこれほど多くの人が利用できる時代はかつてありませんでした。インターネットへのアクセスが可能な場所であれば、個人が図書館全体の知識、数十年分のニュース報道、金庫いっぱいの文書や記録、スピーチ、画像、ビデオにアクセスできるほか、現在のパンデミックでは、新型コロナウイルスのゲノム配列や、査読前に発表された研究のプレプリントが大量に公開されています。かつては、町から町へニュースが伝わるのに何日もかかっていましたが、前世紀には、初期の電話の普及から、1990年代のWorld Wide Webの出現、2010年代初頭のソーシャルメディアの人気に至るまで、情報伝達のスピードが速くなりました。デジタル技術は、私たちが情報を得たり、人に伝えたりする能力を大きく変えました。
But it is not just high-quality information that is being shared.  しかし、共有されているのは質の高い情報だけではありません。
Inaccurate, misleading and completely false information is shared online in large volumes – both unintentionally by some and maliciously by others. Fictional stories end up being passed around as truth, conspiracies gain weight as they pass through the rumour mill and science becomes mangled beyond recognition.  不正確な情報、誤解を招くような情報、まったくの虚偽の情報が、一部の人が意図せずに、また他の人が悪意を持って、オンラインで大量に共有されています。架空の話が真実のように流布され、陰謀は噂の域を超えて重みを増し、科学は見分けがつかないほどこじつけられてしまいます。
Misinformation and fake news is not new (see the quote from George Eliot’s Middlemarch). Alongside this report, we are publishing two literature reviews looking at the spread of misinformation about water fluoridation and vaccination in the 20th century, well before the emergence of the modern information environment. What online technologies have changed, however, is the scale and speed of spread.  誤報やフェイクニュースは、今に始まったことではありません(ジョージ・エリオットの『ミドルマーチ』からの引用を参照)。本報告書と並行して、現代の情報環境が出現する前の20世紀に、ウォーターフロリデーションやワクチン接種に関する誤報が広まったことを調べた2つの文献レビューを発表しています。しかし、オンライン技術が変えたのは、拡散の規模とスピードです。
The Royal Society’s mission since it was established in 1660 has been to promote science for the benefit of humanity, and a major strand of that is to communicate accurately. But false information is interfering with that goal. It is accused of fuelling mistrust in vaccines, confusing discussions about tackling the climate crisis and influencing the debate about genetically modified crops.  1660年に設立された英国王立協会の使命は、人類のために科学を振興することであり、そのためには正確な情報を伝えることが重要です。しかし、誤った情報がその目的を妨げています。ワクチンへの不信感を煽り、気候危機への取り組みに関する議論を混乱させ、遺伝子組み換え作物に関する議論に影響を与えていると非難されています。
Science stands on the edge of error. It is a process of dealing with uncertainties, prodding and testing received wisdom. Science challenges us to continually assess and revise our understanding of the world. What we believed 100 years ago has been replaced with new knowledge. Some people think science is absolute and when it corrects itself it is somehow not to be trusted or believed. We must work to help people recognise that the core ability to correct itself is a strength, not a weakness, of the scientific method. This ability requires the prioritisation of the best data and most trustworthy information, as well as a safe and healthy online information environment which allows robust and open scientific debate. Balancing these necessities is one of the key aims of this report. 科学は誤りの端に立っています。それは不確実性に対処するプロセスであり、既成概念を突いて検証するものです。科学は、私たちの世界に対する理解を継続的に評価し、修正することを求めます。100年前に信じていたことは、新しい知識に置き換えられています。人によっては、科学は絶対的なものであり、それが修正されると信用できない、信じられない、と考える人もいます。私たちは、自己修正能力が科学的手法の弱点ではなく強みであることを人々に認識してもらうよう努力しなければなりません。この能力を高めるためには、最高のデータと最も信頼できる情報を優先的に提供することに加えて、堅牢でオープンな科学的議論を可能にする安全で健全なオンライン情報環境が必要です。これらの必要条件のバランスをとることが、本報告書の重要な目的の一つです。
Of course, this report can only consider part of a problem as broad and complicated as how to improve the quality of the information environment. Misinformation problems are in part irreducibly political and social in nature. In free and diverse societies we will always have some version of them. In this report we have focused on the part of this where the Royal Society, as the national academy of science, speaks with the greatest authority: on issues pertaining to how science is communicated online, and the technologies underpinning that.   もちろん、本報告書では、情報環境の質をいかに向上させるかという、広範で複雑な問題の一部しか検討できません。誤報の問題は、政治的・社会的に避けられない部分があります。自由で多様性のある社会では、常に何らかのバージョンが存在する。本報告書では、英国王立協会が国立科学アカデミーとして最も権威ある発言をする部分、すなわち、科学がオンラインでどのように伝達されるかという問題と、それを支える技術に焦点を当てました。 
Fact-checking is especially important, and this is an area where the scientific community can help.  National academies and learned societies can react to new misinformation threats by quickly providing accurate summaries of what we know. To do this, better access to data is needed for researchers to identify topics of misinformation early in the process of amplification. 特にファクトチェックは重要であり、科学界が協力できる分野でもあります。 各国のアカデミーや学会は、新たな誤報の脅威に対応するために、私たちが知っていることを正確にまとめた情報を迅速に提供することができます。そのためには、研究者が誤報の話題を増幅の過程の初期段階で特定できるよう、データへのアクセスを改善する必要がある。
This, in itself, will not be enough to counteract the algorithmic amplification of polarising misinformation in an attention economy which incentivises the spread of sensational stories rather than sound understanding. Ultimately, we will need to see legislation which can address the incentives of business models that shape the algorithms determining the spread of content. Scientists will need to work with lawyers and economists to make sure that the particular sensitivities of scientific misinformation are considered when legislation is framed.   しかし、それだけでは、センセーショナルな記事の拡散を促す注目度の高い経済の中で、偏った誤報がアルゴリズムによって増幅されることに対抗するには十分ではありません。最終的には、コンテンツの拡散を決定するアルゴリズムを形成するビジネスモデルのインセンティブに対処するための法律が必要になります。科学者は、弁護士や経済学者と協力して、科学的な誤報に対する特別な配慮が法制化されるようにしなければなりません。 
The scientific community has its own issues to address in this regard. The incentives for scientific publication and communication need careful consideration, to ensure that novelty isn’t overstated simply to grab attention. Open access has been a boon, but in an age of information overload we need tools to identify questionable publishers or platforms. Furthermore, scientists need to be clear and transparent about their own motivations and whether they are seeking to inform or seeking to persuade.  科学界には、この点で対処すべき独自の問題があります。注目を集めるために新規性が誇張されることのないよう、科学的な出版やコミュニケーションのインセンティブを慎重に検討する必要があります。オープンアクセスは大きな恩恵をもたらしましたが、情報過多の時代には、疑わしい出版社やプラットフォームを見分けるためのツールが必要です。さらに、科学者は自らの動機や、情報を提供しようとしているのか、説得しようとしているのかを明確にし、透明性を確保する必要があります。
This report represents continuing development of, rather than a final chapter in, the Royal Society’s consideration of these issues. Further work going into more detail on some areas covered is planned. An example of this is the Society’s ambitious new programme, Reimagining science, which seeks to improve the narratives of science in society. Future work will also examine the role of digital technologies, and data access, in scientific research.  Professor Frank Kelly CBE FRS 本報告書は、英国王立協会がこれらの問題を検討する上での最終章ではなく、継続的に発展させたものです。いくつかの分野では、より詳細な調査が予定されています。その一例として、王立協会の野心的な新プログラム「Reimagining science」は、社会における科学の物語を改善することを目指しています。また、科学研究におけるデジタル技術やデータアクセスの役割についても検討していきます。 フランク・ケリー教授 CBE FRS
Executive summary 要約
The internet has transformed the way people consume, produce, and disseminate information about the world. In the online information environment, internet users can tailor unlimited content to their own needs and desires. This shift away from limited, gatekept, and pre-scheduled content has democratised access to knowledge and driven societal progress. The COVID-19 pandemic exemplifies this, with global researchers collaborating virtually across borders to mitigate the harms of the disease and vaccinate populations. インターネットは、人々が世界の情報を消費、生産、発信する方法を大きく変えました。オンラインの情報環境では、インターネットユーザーは無制限のコンテンツを自分のニーズや欲求に合わせて調整することができます。このように、限定された、門番のいる、予定されたコンテンツからの移行は、知識へのアクセスを民主化し、社会の進歩を促しました。COVID-19のパンデミックを例にとると、世界中の研究者が国境を越えて事実上協力し、病気の害を軽減したり、人々にワクチンを投与したりしています。
The unlimited volume of content, however, means that capturing attention in the online information environment is difficult and highly competitive. This heightened competition for attention presents a challenge for those who wish to communicate trustworthy information to help guide important decisions. The poor navigation or, even, active exploitation of this environment by prominent public figures and political leaders has, on many occasions, led to detrimental advice being disseminated amongst the public. This challenge has caused significant concern with online ‘misinformation’ content being widely discussed as a factor which impacts democratic elections and incites violence. In recent years, misinformation has also been identified as a challenge in relation to a range of scientific topics, including vaccine safety, climate change, and the rollout of 5G technology. しかし、コンテンツの量が無限であることは、オンラインの情報環境で注目を集めることが難しく、競争が激しいことを意味しています。このような競争の激化は、重要な意思決定に役立つ信頼性の高い情報を伝えたいと願う人々にとっての課題となっています。著名人や政治家がこの環境をうまく利用しない、あるいは積極的に利用することで、有害なアドバイスが一般の人々に広まってしまうことが多々ありました。この問題は、ネット上の「誤報」コンテンツが、民主的な選挙に影響を与えたり、暴力を誘発したりする要因として広く議論され、大きな関心を呼んでいます。近年では、ワクチンの安全性、気候変動、5G技術の導入など、さまざまな科学的トピックについても誤報が問題視されています。
The Royal Society’s mission is to promote excellence in science and support its use for the benefit of humanity. The consumption and production of online scientific information is, therefore, of great interest. This report, The online information environment, provides an overview of how the internet has changed, and continues to change, the way society engages with scientific information, and how it may be affecting people’s decision-making behaviour – from taking up vaccines to responding to evidence on climate change. It highlights key challenges for creating a healthy online information environment and makes a series of recommendations for policymakers, academics, and online platforms.  英国王立協会は、卓越した科学を推進し、人類の利益のためにその利用を支援することを使命としています。そのため、オンライン科学情報の消費と生産には大きな関心が寄せられています。本報告書「オンライン情報環境」では、インターネットが社会の科学情報への関わり方をどのように変化させてきたか、また今後も変化させていくのか、そして、ワクチンの摂取から気候変動に関する証拠への対応まで、人々の意思決定行動にどのような影響を与えているのかを概観しています。本レポートでは、健全なオンライン情報環境を構築するための主要な課題を明らかにし、政策立案者、学術関係者、オンラインプラットフォームに向けた一連の提言を行っています。
These recommendations, when taken together, are intended to help build collective resilience to harmful misinformation content and ensure access to high quality information on both public and private forums. これらの提言は、有害な誤った情報のコンテンツへの耐性を高め、公的・私的なフォーラムで質の高い情報にアクセスできるようにすることを目的としています。
The report has been guided by a working group of leading experts in this field and informed by a series of activities commissioned by the Royal Society. Firstly, literature reviews were commissioned on historical examples of scientific misinformation; the evidence surrounding echo chambers, filter bubbles, and polarisation; and the effects of information on individuals and groups. Secondly, the Society hosted various workshops and roundtables with prominent academics, fact-checking organisations, and online platforms. Finally, two surveys were commissioned – the first on people’s attitudes and behaviours towards online scientific misinformation and the second on people’s ability to detect deepfake video content. 本報告書は、この分野の第一人者で構成されるワーキンググループの指導のもと、英国王立協会の依頼による一連の活動によって作成されました。まず、科学的な誤った情報の歴史的な例、エコーチェンバー、フィルターバブル、水道水フッ化添加物をめぐる証拠、情報が個人やグループに与える影響についての文献調査が行われました。次に、著名な学者、ファクトチェック機関、オンラインプラットフォームとの間で様々なワークショップやラウンドテーブルを開催しました。最後に、2つの調査を実施しました。1つ目は、オンライン上の科学的誤報に対する人々の態度と行動について、2つ目は、人々の偽装ビデオコンテンツを検出する能力についてです。
The chapters of the report are focused on understanding and explaining essential aspects of the online information environment. They explore a broad range of topics including the ways our minds process information and how this is impacted by accessing information online; how information is generated in a digital context and the role of incentives for content production; and types of synthetic online content and their potential uses, both benign and malicious. However, there are important areas that are not covered in this report, outlined in box 1, which are part of the wider questions around trust in science, in the internet and in institutions. These include the role of traditional science communicators and the wider research community in enabling access to trustworthy information; the issue of online anonymity; and the impact that the online information environment can have on democracy and political events (eg elections). 本報告書の各章は、オンライン情報環境の重要な側面を理解し、説明することに重点を置いています。本報告書の各章では、私たちの心がどのように情報を処理しているのか、それがオンライン上の情報にアクセスすることでどのような影響を受けるのか、デジタル環境下でどのように情報が生成されるのか、コンテンツ制作におけるインセンティブの役割、合成されたオンラインコンテンツの種類と、良性・悪性を問わずそれらがどのように利用されるのかなど、幅広いトピックを取り上げています。しかし、本報告書では取り上げていない重要な分野があります。ボックス1に概要を示していますが、これらは、科学、インターネット、機関に対する信頼をめぐる幅広い問題の一部です。これらの分野には、信頼できる情報へのアクセスを可能にする、従来の科学コミュニケーターや幅広い研究コミュニティの役割、オンライン上の匿名性の問題、オンライン上の情報環境が民主主義や政治的イベント(選挙など)に与える影響などが含まれます。
Within this report, ‘scientific misinformation’ is defined as information which is presented as factually true but directly counters, or is refuted by, established scientific consensus. This usage includes concepts such as ‘disinformation’ which relates to the deliberate sharing of misinformation content. 本報告書では、「科学的に誤った情報」を、事実に基づいて提示されているが、確立された科学的コンセンサスに真っ向から反論している、あるいは反論されている情報と定義しています。この定義には、誤った情報を意図的に共有する「偽情報」などの概念も含まれます。
Key findings 主な調査結果
•            Although misinformation content is prevalent online, the extent of its impact is questionable1. For example, the Society’s survey of members of the British public2 found that the vast majority of respondents believe the COVID-19 vaccines are safe, that human activity is responsible for climate change, and that 5G technology is not harmful. The majority believe the internet has improved the public’s understanding of science, report that they are likely to fact-check suspicious scientific claims they read online and state that they feel confident to challenge their friends and family on scientific misinformation. ・誤った情報のコンテンツはネット上に蔓延しているが、その影響の大きさは疑問視されています1。例えば、本会が英国の一般市民を対象に行った調査2では、大多数の回答者がCOVID-19ワクチンの安全性、気候変動の原因は人間の活動にあること、5G技術は有害ではないことを信じていることがわかりました。また、大多数の回答者は、インターネットが科学に対する一般市民の理解を向上させたと考えており、オンラインで読んだ疑わしい科学的主張を事実確認する可能性があると報告し、科学的な誤報について友人や家族に異議を唱える自信があると述べています。
•            The existence of echo chambers (where people encounter information that reinforces their own beliefs, online and offline) is less widespread than may be commonly assumed and there is little evidence to support the filter bubble hypothesis (where algorithms cause people to only encounter information that reinforces their own beliefs)3, 4. ・エコーチェンバー(オンラインでもオフラインでも、人々が自分の信念を強化するような情報に出会うこと)の存在は、一般的に考えられているよりも広まっておらず、フィルターバブル仮説(アルゴリズムによって人々が自分の信念を強化するような情報にしか出会わなくなる)を支持する証拠はほとんどありません3, 4。
•            Uncertainty is a core aspect of scientific method, but significant dispute amongst experts can spill over to the wider public5. This can be particularly challenging when this uncertainty is prolonged, and the topic has no clear authority. This gap between uncertainty and certainty creates information ‘deserts’ online with platforms being unable to clearly guide users to trustworthy sources6. For example, during the COVID-19 pandemic, organisations such as the World Health Organization and the National Health Service were able to act as authoritative voices online. However, with topics such as 5G telecommunications, it has been more difficult for platforms to quickly identify trustworthy sources of evidence and advice. ・不確実性は科学的手法の中核を成すものですが、専門家の間で大きな論争があると、それが一般の人々にも波及してしまいます5。このような不確実性が長期化し、明確な権威がないテーマの場合には、特に困難を伴います。このような不確実性と確実性のギャップは、プラットフォームがユーザーを信頼できる情報源へと明確に導くことができず、オンライン上に情報の「砂漠」を生み出します6。例えば、COVID-19のパンデミックの際には、世界保健機関(WHO)や米国保健省(National Health Service)などの組織が、オンライン上で権威ある発言をすることができました。しかし、5G通信などのトピックでは、プラットフォームが信頼できる証拠やアドバイスの情報源を迅速に特定することが難しくなっています。
•            The concept of a single ‘anti-vax’ movement is misleading and does not represent the range of different reasons for why some people are reluctant to be vaccinated7. Those with anti-vaccination sentiments can have distinct concerns including child safety, or act not out of scepticism about the evidence, but out of distrust of governments. In addition, there are various actors involved in creating and spreading anti-vaccination material. These include political actors, particularly when a relevant event (eg a pandemic) is dominating the news cycle8, 9. ・単一の「反ワクチン」運動という概念は誤解を招く恐れがあり、ワクチン接種に消極的な人がいるさまざまな理由を表していません7。ワクチン反対派の人々は、子どもの安全性などの明確な懸念を持っていたり、証拠に対する懐疑心からではなく、政府に対する不信感から行動していたりします。さらに、反ワクチン療法の資料を作成し、広めることには様々な関係者が関わっている。その中には政治家も含まれており、特に関連する出来事(例:パンデミック)がニュースサイクルを支配している場合には、そのような行動が見られます8, 9。
•            Technology can play an important though limited role in addressing misinformation content online. In particular, it can be useful in areas such as rapid detection of harmful misinformation content. Provenance enhancing technology, which provides information on the origins of online content and how it may have been altered, shows promise and will become increasingly important as misinformation content grows more sophisticated. Even now, expertly manipulated content appears to be difficult to detect. Survey experiments conducted for this report indicates that most people struggle to identify deepfake video content even when prompted11. ・テクノロジーは、限定的ではあるが、オンライン上の誤報コンテンツに対処する上で重要な役割を果たすことができる。特に有害な誤報コンテンツを迅速に検知するなどの分野で有用です。オンライン・コンテンツの出所やどのように改変されたかについての情報を提供するプロベナンス強化技術は有望であり、誤った情報コンテンツがより洗練されたものになるにつれ,その重要性は増していくだろう。現在でも巧妙に操作されたコンテンツを検知することは難しいようです。本報告書のために実施した調査実験によると、ほとんどの人は促されても偽物のビデオコンテンツを見分けることができないという結果が出ています11。
•            Incentives for content production and consumption are the most significant factor to consider when evaluating the online information environment. These incentives can occur on a macro and micro level (affecting both platforms and individual users) and have been described in this report as content which exists for public benefit (eg helping others) or private benefit (eg generating financial profit). ・コンテンツの制作と消費に対するインセンティブは、オンライン情報環境を評価する際に考慮すべき最も重要な要素です。これらの誘因は、マクロ的にもミクロ的にも(プラットフォームと個々のユーザーの両方に影響を与える)発生する可能性があり、本報告書では、公共の利益(例:人助け)または私的な利益(例:金銭的な利益を得る)のために存在するコンテンツとして説明しています。
 Understanding how to mitigate the role of these incentives in the spread of misinformation content requires further consideration on the economic and legal aspects of the online information environment.  誤った情報のコンテンツの拡散におけるこれらのインセンティブの役割を軽減する方法を理解するには、オンライン情報環境の経済的・法的側面についてさらに検討する必要があります。
1.           Cabrera Lalinde I. 2021 How misinformation affected the perception of vaccines in the 20th century based on the examples of polio, pertussis and MMR vaccines. The Royal Society. See https://royalsociety.org/topics-policy/projects/ online-information-environment 1.           Cabrera Lalinde I. 2021 ポリオ、百日咳、MMRワクチンの例に基づいて、20世紀に誤報がワクチンの認識にどのように影響したか。The Royal Society. 参照 https://royalsociety.org/topics-policy/projects/ online-information-environment
2.           85% consider the Pfizer-BioNTech vaccine to be safe. AstraZeneca = 80%, Moderna = 74%. 4-5% believe the vaccines are ‘not at all safe’. Royal Society / YouGov, July 2021. 2.           85%がファイザー・バイオンテック社のワクチンを安全と考えている。アストラゼネカ社=80%、モデナ社=74%。4-5%がワクチンは「全く安全ではない」と考えている。英国王立協会/YouGov、2021年7月。
3.           Arguedas A, Robertson C, Fletcher R, Nielsen R. 2021 Echo chambers, filter bubbles, and polarisation.  The Royal Society. See https://royalsociety.org/topics-policy/projects/online-information-environment 3.           Arguedas A, Robertson C, Fletcher R, Nielsen R. 2021年 エコーチェンバー、フィルターバブル、ポラリゼーション。 The Royal Society. https://royalsociety.org/topics-policy/projects/online-information-environment を参照。
4.           Röttger P, Vedres B. The Information Environment and its Effects on Individuals and Groups. The Royal Society.  See https://royalsociety.org/topics-policy/projects/online-information-environment 4.           Röttger P, Vedres B. The Information Environment and its Effects on Individuals and Groups. The Royal Society(英国王立協会)。 https://royalsociety.org/topics-policy/projects/online-information-environment を参照。
5.           Royal Society roundtable on Telecommunications and Misinformation, November 2020. 5.           Royal Society roundtable on Telecommunications and Misinformation, November 2020.
6.           Royal Society roundtable with Major Technology Organisations, March 2021. 6.           Royal Society roundtable with Major Technology Organisations(王立協会の円卓会議)、2021年3月。
7.           Royal Society workshop on Vaccines and Misinformation, July 2020. 7.           Royal Society workshop on Vaccines and Misinformation, July 2020.
8.           Royal Society workshop on Horizon Scanning and Scientific Misinformation, March 2021. 8.           王立協会ワークショップ「Horizon Scanning and Scientific Misinformation」、2021年3月。
9.           Arguedas A, Robertson C, Fletcher R, Nielsen R. 2021 Echo chambers, filter bubbles, and polarisation.  The Royal Society. See https://royalsociety.org/topics-policy/projects/online-information-environment 9.           Arguedas A, Robertson C, Fletcher R, Nielsen R. 2021 Echo chambers, filter bubbles, and polarisation.  The Royal Society(英国王立協会)。https://royalsociety.org/topics-policy/projects/online-information-environment を参照。
10.         Royal Society roundtable with Major Technology Organisations, March 2021. 10.         Royal Society roundtable with Major Technology Organisations, March 2021.
11.         Lewis A, Vu P, Duch R. 2021 Deepfake detection and content warnings: Evidence from two experiments.  The Royal Society. See https://royalsociety.org/topics-policy/projects/online-information-environment 11.         Lewis A, Vu P, Duch R. 2021年 Deepfakeの検出とコンテンツの警告。Evidence from two experiments.  The Royal Society(英国王立協会)。https://royalsociety.org/topics-policy/projects/online-information-environment を参照。
Recommendations 提言
AREA FOR ACTION: PROTECTING ONLINE SAFETY  行動分野:オンラインの安全性を守る 
RECOMMENDATION 1 提言 1
As part of its online harms strategy, the UK Government must combat misinformation which risk societal harm as well as personalised harm, especially when it comes to a healthy environment for scientific communication. 英国政府は、オンライン上の有害性戦略の一環として、特に科学的コミュニケーションのための健全な環境に関して、個人的な有害性だけでなく、社会的な有害性をもたらす危険性のある誤った情報と闘わなければならない。
RECOMMENDATION 2 提言 2
Governments and social media platforms should not rely on content removal as a solution to online scientific misinformation. 政府とソーシャルメディア・プラットフォームは、オンラインでの科学的誤報の解決策として、コンテンツの削除に頼ってはならない。
RECOMMENDATION 3 提言 3
To support the UK’s nascent fact-checking sector, programmes which foster independence and financial sustainability are necessary. To help address complex scientific misinformation content and ‘information deserts’, fact checkers could highlight areas of growing scepticism or dispute, for deeper consideration by organisations with strong records in carrying out evidence reviews, such as the UK’s national academies and learned societies. 英国で生まれたばかりのファクトチェック部門を支援するためには、独立性と財政的な持続可能性を育成するプログラムが必要である。複雑な科学的誤報コンテンツや「情報砂漠」に対処するために、ファクトチェッカーは、懐疑的な意見や論争が高まっている分野を強調し、英国の国立アカデミーや学識経験者協会など、エビデンスレビューの実施に実績のある組織による検討を深めることができる。
RECOMMENDATION 4 提言 4
Ofcom must consider interventions for countering misinformation beyond high-risk, high-reach social media platforms. Ofcomは、高リスク・高リーチのソーシャルメディア・プラットフォーム以外の誤報に対抗するための介入方法を検討しなければならない。
RECOMMENDATION 5 提言 5
Online platforms and scientific authorities should consider designing interventions for countering misinformation on private messaging platforms. オンラインプラットフォームと科学的な当局は、プライベートメッセージングプラットフォーム上の誤報に対抗するための介入策を検討すべきである。
RECOMMENDATION 6 提言 6
Social media platforms should establish ways to allow independent researchers access to data in a privacy compliant and secure manner. ソーシャルメディアプラットフォームは、独立した研究者がプライバシーに準拠した安全な方法でデータにアクセスできるようにする方法を確立すべきである。
RECOMMENDATION 7 提言 7
Focusing solely on the needs of current online platforms risks a repetition of existing problems, as new, underprepared, platforms emerge and gain popularity. To promote standards and guide startups, interested parties need to collaborate to develop examples of best practice for countering misinformation as well as datasets, tools, software libraries, and standardised benchmarks. 現在のオンラインプラットフォームのニーズのみに焦点を当てると、準備不足の新しいプラットフォームが出現し、人気を博したときに、既存の問題が繰り返される危険性があります。標準化を進め、新興企業を導くためには、関係者が協力して、誤報対策のベストプラクティスの例や、データセット、ツール、ソフトウェアライブラリ、標準化されたベンチマークなどを開発する必要がある。
RECOMMENDATION 8 提言 8
Governments and online platforms should implement policies that support healthy and sustainable media plurality. 政府とオンラインプラットフォームは、健全で持続可能なメディアの多元性を支える政策を実施すべきである。
RECOMMENDATION 9 提言 9
The UK Government should invest in lifelong, nationwide, information literacy initiatives. 英国政府は、生涯にわたる、全国的な情報リテラシーの取り組みに投資すべきである。
RECOMMENDATION 10 提言 10
Academic journals and institutions should continue to work together to enable open access publishing of academic research. 学術雑誌と機関は、学術研究のオープンアクセス出版を可能にするために協力を続けるべきである。
RECOMMENDATION 11 提言 11
The frameworks governing electronic legal deposit should be reviewed and reformed to allow better access to archived digital content. 電子的な法的寄託を管理する枠組みを見直し、アーカイブされたデジタルコンテンツへのより良いアクセスを可能にするための改革を行うべきである。

|

« NIST FIPS 201-3 連邦職員および委託業者のアイデンティティの検証(PIV) | Main | 英国 政府のサイバーセキュリティ戦略:2022年 - 2030年 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« NIST FIPS 201-3 連邦職員および委託業者のアイデンティティの検証(PIV) | Main | 英国 政府のサイバーセキュリティ戦略:2022年 - 2030年 »