« 米国 NIST IR 8446 乱数生成標準間の隔たりを埋める:SP 800-90シリーズとAIS 20/31の比較 | Main | Q-STAR 量子リテラシー標準(QSS‑L)ver.1.0 (2026.02.03) »

2026.02.06

NATO戦略的コミュニケーション能力向上センター

こんにちは、丸山満彦です。

NATO Strategic Communications Centre of Excellence(NATO戦略的コミュニケーション能力向上センター)が、6回目になるソーシャルメディアの評価に関する報告書を公表していますね。。。

NATO戦略的コミュニケーション能力向上センターは、情報環境における脅威を理解し、対抗し、NATOの政治・軍事目標の達成を支えるために、同盟全体の戦略的コミュニケーション能力を体系的に強化することを目的としている、NATOの研究機関のようなものですかね...

AIによる偽情報の利用も含め、ソーシャルメディアは思想操作のためのツールとして使われる側面がありますよね。。。

どんどん偽情報はSNSで作られ、拡散されていきますよね。AIがそれを作り出すようになると、あっという間に、そういう情報で溢れてしまいますよね。。。商品をうるためのツールは、思想を売るためのツールにもなり得るわけですから、まぁ、1つ1つの広告をつぶしていくというのは、構造的に無理がありますよね。。。

となると、SNS事業者への規制、資金フローも含めて総合的に対応をしていく必要がありますよね。。。

ということで、AI時代の偽情報対策は、コンテンツ削除だけではなく、 行動・関係性・資金フローを統合的に監視する 「社会システムとしての安全保障設計」が重要となるという感じでしょうか???

で、これらのSNS事業者への規制については国際連携が重要となってくるでしょうね...

DXやWeb3などといろいろと新しい技術による産業育成というのは重要だし、それで儲ける人もいるので、利権がからんでいるのは理解するのですが、負の側面を適切に社会的にコントロールできないと結果的に社会的には普及しないことになるので、産業育成にはつながらないということを理解する必要があり、論点は規制すべきか、規制すべきでないか?ではなく、どのように規制するべきか?が問題だと思うんですよね。。。で、結果的に規制不要ということもあり得る。。。市場原理ですべてが解決するわけではないのは、ミクロ経済学の基本ですからね...

 

NATO Strategic Communications Centre of Excellence

・2026.01 30 Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement

Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement ソーシャルメディア操作の実験:2025年、プラットフォームの偽物のソーシャルメディアエンゲージメント検知・対策能力に関する実験
This sixth annual evaluation of social media, conducted since 2019, tests the resilience of major social media platforms against manipulation by commercial service providers. The experiment measures platforms’ ability to detect and remove inauthentic engagement that is commercially purchased for deliberately created inauthentic posts in non-political scenarios. 2019年から実施されているソーシャルメディアの年次評価(第6回)は、主要ソーシャルメディアプラットフォームが商業プロバイダによる操作に対してどれほどレジリエンスを持つかを検証する。この実験では、非政治的なシナリオにおいて、意図的に作成された非本物の投稿に対して商業的に購入された偽物のエンゲージメントを、プラットフォームが検知・除去する能力を測定する。

 

・[PDF]

20260203-174835

 

エグゼクティブサマリー...

Executive summary エグゼクティブサマリー
This sixth annual evaluation of social media, conducted since 2019, tests the resilience of major social media platforms against manipulation by commercial service providers. The experiment measures platforms’ ability to detect and remove inauthentic engagement that is commercially purchased for deliberately created inauthentic posts in non-political scenarios. 2019年から実施されているソーシャルメディアに関する第6回年次評価では、主要ソーシャルメディアプラットフォームが商業サービスプロバイダによる操作に対してどれほどのレジリエンスを持つかを検証した。本実験では、非政治的なシナリオにおいて意図的に作成された不自然な投稿に対して商業的に購入された不自然なエンゲージメントを、プラットフォームが検知・除去する能力を測定した。
Despite the introduction of the European Union’s Digital Services Act and Digital Markets Act, and two and a half years after Russia’s full-scale invasion of Ukraine, commercial manipulation remains widely available across platforms. The experiment continues to identify persistent vulnerabilities, including the amplification of politically sensitive content. Although X showed notable improvement, removing approximately half of the identified fake accounts and interactions, enforcement outcomes across other platforms remained limited. The persistence of low-cost, easily accessible commercial manipulation services raises concerns about their potential use in amplifying politically sensitive content, even beyond the non-political scenarios tested in this experiment. 欧州連合のデジタルサービス法およびデジタル市場法の導入、ならびにロシアによるウクライナ全面侵攻から2年半が経過したにもかかわらず、商業的操作は依然として各プラットフォームで広く利用可能である。本実験では、政治的に敏感なコンテンツの拡散を含む、持続的な脆弱性が引き続き確認された。X(旧Twitter)は約半数の偽アカウントと偽のインタラクションを削除するなど顕著な改善を示したものの、他のプラットフォームにおける対策効果は限定的であった。低コストで容易に入手可能な商業的操作サービスが持続していることは、本実験で検証した非政治的シナリオを超えて、政治的に敏感なコンテンツを増幅させる潜在的な利用可能性について懸念を強めている。
This year’s findings indicate a mixed picture: enforcement is improving in some areas, but systemic vulnerabilities persist. Several major platforms increased removal activity compared with previous iterations of the experiment, yet commercial manipulation remains inexpensive and easy to obtain. This year, the experiment expanded to seven platforms and added tests involving sponsored content, AI-generated posts, and a larger set of manipulation providers. Across the tests, more than 30,000 inauthentic accounts delivered1 over 100,000 units of inauthentic engagement, providing the clearest evidence to date in this series of how manipulation manifests at scale. 今年の調査結果は複雑な状況を示している。一部の分野では対策が改善されているが、構造的な脆弱性は依然として残っている。主要プラットフォームのいくつかは、前回の実験と比較して削除活動を強化したものの、商業的な操作は依然として低コストで容易に入手可能だ。今年の実験は7つのプラットフォームに拡大され、スポンサー付きコンテンツ、AI生成投稿、より大規模なプロバイダ群を対象としたテストが追加された。全テストを通じて、3万以上の不正アカウントが10万単位を超える不正エンゲージメントを生み出し、本シリーズにおいて操作が大規模に現れる様子をこれまでで最も明確に示した。
Although platforms removed fake accounts at the highest rate recorded so far, averaging just over half of identified accounts, results varied substantially. Platform performance varied substantially across both account removal and engagement removal. VKontakte and X removed a higher proportion of inauthentic accounts than other platforms, while Instagram and TikTok removed only a small share. A similar pattern was observed for engagement itself: X and YouTube removed the largest proportion of inauthentic activity, whereas Facebook, VKontakte, Instagram, TikTok, and f left the majority of purchased engagement in place. プラットフォームはこれまでで最高率となる偽アカウントの削除を実施し、識別されたアカウントの平均約半数を削除したが、結果は大きく異なった。プラットフォームごとの対応は、アカウント削除とエンゲージメント削除の両面で大きく異なった。VKontakteとXは他プラットフォームより偽アカウントの削除率が高く、InstagramとTikTokはごく一部しか削除しなかった。エンゲージメント自体についても同様の傾向が見られた:XとYouTubeが偽アクティビティの大部分を削除した一方、Facebook、VKontakte、Instagram、TikTok、fは購入されたエンゲージメントの大半を残したままだった。
This year, we expanded the scope of the experiment to include sponsored (advertising) content on Facebook, Instagram, X, TikTok, and YouTube. For a total cost of €252, the campaign generated 206,234 views, 200 likes, and 17,442 inauthentic comments2. We also identified a market for ready-to-use inauthentic advertising accounts, successfully purchased for Meta, TikTok, and YouTube. This indicates that commercial manipulation is not limited to organic content and can extend into paid advertising, with the potential for platform ad systems to contribute to the distribution of inauthentic material. Strategically, this shift to paid manipulation allows actors to bypass the skepticism users often apply to organic posts while leveraging platform algorithms to deliver inauthentic narratives to precisely targeted audiences. Although advertisement manipulation appears more expensive and operationally demanding than standard engagement manipulation, it remains feasible at relatively low cost. Observed outcomes varied by platform: Instagram showed the lowest resistance, delivering the highest average volume of inauthentic comments on ad posts (reaching 340% of the expected number3 after 72 hours). X and YouTube showed partial delivery (approximately 25% and 21%, respectively). 今年、我々は実験の範囲を拡大し、Facebook、Instagram、X、TikTok、YouTubeにおけるスポンサー付き(広告)コンテンツを対象に含めた。総費用252ユーロで、このキャンペーンは206,234回の視聴、200の「いいね」、17,442件の不自然なコメントを生み出した。また、Meta、TikTok、YouTube向けに即戦力の不正広告アカウント市場を識別し、購入に成功した。これは商業的操作がオーガニックコンテンツに限定されず、有料広告へ拡大し得ることを示唆している。プラットフォーム広告システムが不正コンテンツの拡散に寄与する可能性もある。戦略的には、有料操作への移行により、行為者はユーザーがオーガニック投稿に抱く懐疑心を回避しつつ、プラットフォームのアルゴリズムを活用して不正な物語を精密にターゲティングされたオーディエンスへ届けられる。広告操作は標準的なエンゲージメント操作より費用と運用負荷が高いように見えるが、比較的低コストで実行可能だ。プラットフォームごとに結果が異なった:Instagramは抵抗が最も低く、広告投稿への不自然なコメント平均配信量が最大(72時間後に予想数の340%に達した)。XとYouTubeは部分配信(それぞれ約25%と21%)を示した。
Facebook and TikTok showed stronger resistance in this test, with TikTok showing 0% delivery. Platform transparency and enforcement reporting across major social media platforms remains inconsistent. TikTok stands out in this regard, as it was the only platform to engage directly with the findings of this experiment and to publish detailed information on covert influence operations and enforcement practices during the reporting period. By contrast, other platforms provide limited or outdated transparency reporting, which constrains meaningful cross-platform comparison: FacebookとTikTokはこのテストでより強い抵抗を示し、TikTokは配信率が0%だった。主要ソーシャルメディアプラットフォームにおける透明性と執行報告は依然として一貫性を欠いている。この点でTikTokは際立っており、本実験の結果に直接対応し、報告期間中の隠密影響工作と執行慣行に関する詳細情報を公開した唯一のプラットフォームだった。対照的に、他のプラットフォームは限定的あるいは古い透明性報告しか提供しておらず、これが有意義なクロスプラットフォーム比較を妨げている。
・X has not released any transparency or enforcement updates during the period covered by this experiment. ・Xはこの実験期間中、透明性や執行に関する更新情報を一切公開していない。
・Meta reports removal actions for Facebook, but does not provide equivalent reporting for Instagram, limiting assessment across Meta-owned platforms. ・MetaFacebookの削除措置を報告しているが、Instagramについては同等の報告を行っておらず、Meta傘下プラットフォーム全体のアセスメントを制限している。
・YouTube and Bluesky publish only partial annual figures, restricting visibility into enforcement activity and trends over time. YouTubeBlueskyは年次数値の一部しか公表しておらず、執行活動や経時的な傾向の可視性を制限している。
A significant gap persists between reported enforcement capabilities and routine detection outcomes. While TikTok successfully removed inauthentic activity from posts that were directly escalated to the platform, similar activity was observed to persist on posts that were not escalated. This suggests that reported enforcement capabilities are not yet consistently reflected in routine, at-scale detection. Ultimately, this uneven transparency obscures the true extent of platform vulnerability and prevents an independent, comprehensive assessment of cross-platform resilience against coordinated manipulation. 報告されている執行能力と日常的な検知結果の間には、依然として大きな隔たりが存在する。TikTokはプラットフォームに直接報告された投稿から不正な活動を効果的に排除できた一方で、報告されていない投稿では同様の活動が継続していることが確認された。これは、報告されている執行能力が日常的な大規模検知にまだ一貫して反映されていないことを示唆している。結局のところ、この不均一な透明性はプラットフォームの脆弱性の真の程度を覆い隠し、組織的な操作に対するクロスプラットフォームのレジリエンスを独立かつ包括的にアセスメントすることを妨げている。
Manipulation services remain easy to obtain and relatively inexpensive, with prices becoming more consistent across platforms. Alongside this emerging behaviour, we observed a notable change in the type of content amplified. While the majority of content amplified by commercial bots still relates to cryptocurrency scams, commercial promotions, and other non-political material, we continue to observe an annual increase in the use of spam bots for promoting political narratives and nation-related issues. Additionally, a significant increase in military and pro-China themes appeared across several platforms, with Instagram standing out as the only environment where no such amplification was detected. 操作サービスは依然として入手が容易で比較的安価であり、価格もプラットフォーム間でより均一化しつつある。この新たな動向と並行して、拡散されるコンテンツの種類にも顕著な変化が確認された。商業ボットによって拡散されるコンテンツの大半は依然として仮想通貨詐欺、商業プロモーション、その他の非政治的素材に関連するものの、政治的ナラティブや国家関連問題の宣伝にスパムボットが利用される事例が年々増加している。さらに、軍事および親中国テーマが複数のプラットフォームで顕著に増加した。Instagramだけがこうした拡散が検知されなかった唯一の環境として際立っている。
According to Cyabra’s findings, the behaviour of inauthentic accounts has also emerged in more sophisticated operations. Instead of legacy (such as classical spam bot amplification or commenting) behaviours, where spam bots rely on high-volume spam, new types of inauthentic accounts are now able to blend into ongoing conversations, using AI-generated text and visuals to appear more convincing and thus appear more authentic. Cyabraの調査によると、不正アカウントの行動はより洗練された作戦でも確認されている。従来のスパムボット増幅やコメント投稿といった大量スパムに依存する手法に代わり、新たなタイプの不正アカウントはAI生成のテキストやビジュアルを用いて会話に溶け込み、より説得力のある本物らしい振る舞いを可能にしている。
Cryptocurrency analysis indicates that commercial manipulation providers continue to rely on cryptocurrency as their primary payment mechanism due to its speed, cross-border nature, and limited enforceability. Providers predominantly use custodial wallets and high-risk exchanges, routing customer funds through virtual asset service provider (VASP) hot wallets (e.g., Cryptomus and Heleket) where transactions are commingled, significantly reducing on-chain attribution and making full transaction traceability difficult with only four of ten transactions in the experiment could be reliably traced end-to-end. Despite this low-visibility financial architecture, several operators exhibited substantial transaction volumes, underscoring the scale and persistence of the manipulation market; between November 2023 and November 2025, one Russia-based provider we hereafter referred to as RU1 received an estimated USD 265,261 and another based in UK (referred to as UK2) approximately USD 123,714. The largely unmonitored nature of this infrastructure reinforces the resilience of the manipulation economy and raises potential sanctions compliance concerns, particularly regarding suspected Russia-based operators using major exchange custody under Council Regulation (EU) No. 833/2014, Article 5b(2). 仮想通貨分析によれば、商業的操作を行うプロバイダは、その迅速性、越境性、および執行可能性の低さから、主要な決済手段として仮想通貨に依存し続けている。プロバイダは主にカストディアルウォレットと高リスク取引所を利用し、顧客資金を仮想資産サービスプロバイダー(VASP)のホットウォレット(例:Cryptomus、Heleket)経由で送金する。この過程で取引が混在するため、オンチェーンでの帰属特定が大幅に困難となり、実験対象の10件中4件のみがエンドツーエンドで確実に追跡可能だった。こうした低可視性の金融構造にもかかわらず、複数の事業者が膨大な取引量を示しており、操作市場の規模と持続性を裏付けている。2023年11月から2025年11月にかけて、ロシア拠点のプロバイダ(以下RU1)は推定265,261米ドル、英国拠点のプロバイダ(以下UK2)は約123,714米ドルを受け取った。このインフラの大半が監視対象外であることは、操作経済のレジリエンスを強化し、特に理事会規則(EU)第833/2014号第5b条(2)に基づき主要取引所の保管サービスを利用する疑いのあるロシア拠点事業者に関して、制裁順守上の懸念を引き起こす。
Taken together, the findings indicate that platform defences are improving but remain insufficient. Manipulation remains easy to execute and difficult to reliably prevent. The increasing sophistication of AI-enabled inauthentic accounts allows them to influence conversations with a lower likelihood of detection, particularly when activity is divided into small, distributed actions. The financial infrastructure supporting these services also remains largely unmonitored, reinforcing the resilience of the manipulation economy. これらの調査結果を総合すると、プラットフォームの防御体制は改善されているものの、依然として不十分であることが示されている。操作行為は実行が容易であり、確実に防止することは困難だ。AIを活用した不正アカウントの高度化が進むことで、特に活動を小規模で分散した行動に分割した場合、検知される可能性が低くなりながら会話に影響を与えることが可能となっている。これらのサービスを支える金融インフラも依然としてほとんど監視されておらず、操作経済のレジリエンスを強化している。
The findings of this experiment suggest that effectively countering these trends requires a shift towards behavioural detection methods focused on timing patterns, account relationships, and coordinated activity across platforms and environments. Analysis indicates that enforcement is more effective when shifting from isolated campaign responses to continuous, context-driven monitoring. Furthermore, the data highlight the importance of analysing entire conversations rather than individual posts to identify bots operating within genuine discussions. Finally, the results underscore that stronger cooperation with financial intelligence units represents a strategic pathway to identifying manipulation providers and limiting their operational capacity. 本実験の結果は、こうした傾向に効果的に対抗するには、タイミングパターン、アカウント間の関係性、プラットフォームや環境を跨いだ協調的活動に焦点を当てた行動検知手法への転換が必要であることを示唆している。分析によれば、個別のキャンペーン対応から継続的かつ状況に応じた監視へ移行することで、対策の有効性が高まる。さらにデータは、本物の議論の中で活動するボットを識別するには、個々の投稿ではなく会話全体を分析することが重要であることを強調している。最後に、金融情報機関との連携強化が、操作行為のプロバイダを識別し、その活動能力を制限する戦略的手段であることを結果は強調している。

 

 

 


 

過去の報告書

・2024.11.04 Social Media Manipulation for Sale: Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement

 ・[PDF]

・2023.12.14 Virtual Manipulation Brief 2023/2: Verified Propagandists and the Hamas - Israel War

 ・[PDF]

・2023.06.05 Virtual Manipulation Brief 2023/1: Generative AI and its Implications for Social Media Analysis

 ・[PDF

・2023.03.03 Social Media Manipulation 2022/2023: Assessing the Ability of Social Media Companies to Combat Platform Manipulation

 ・[PDF]

・2022.04.27 Social Media Manipulation 2021/2022: Assessing the Ability of Social Media Companies to Combat Platform Manipulation

 ・[PDF]

・2020.12.21 Social Media Manipulation Report 2020

 ・[PDF

・2020.05.08 Manipulation Ecosystem of Social Messaging Platforms

 ・[PDF]

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2021.07.12 NATO関連機関が分析したサイバー空間におけるロシアの戦略 at 2021.06.11

・2020.08.10 DeepfakeについてのNATO, CSET, Partnership on AI, GAOの報告書(少し前ですが・・・)

 

|

« 米国 NIST IR 8446 乱数生成標準間の隔たりを埋める:SP 800-90シリーズとAIS 20/31の比較 | Main | Q-STAR 量子リテラシー標準(QSS‑L)ver.1.0 (2026.02.03) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 NIST IR 8446 乱数生成標準間の隔たりを埋める:SP 800-90シリーズとAIS 20/31の比較 | Main | Q-STAR 量子リテラシー標準(QSS‑L)ver.1.0 (2026.02.03) »