AI/Deep Learning

2026.03.08

OECD エージェンティックAIの展望とその概念的基盤

こんにちは、丸山満彦です。

OECDがエージェンティックAIの展望とその概念的基盤という報告書を公表していますね...

(明確な定義があるわけではないが、)よく似ている言葉なので、Agentic AIとAI Agentを使い分けて使っていかないといけないということですね...

比較表を作るとこんな感じ?

  AIエージェント エージェンティックAI
      
意訳すると 自律型AIエージェント 協調型AIシステム
  中核的概念    
定義 特定の目標を達成するために、必要に応じてツールを使用しながら、環境を認識・作用する一定の自律性を持つシステム。変化する入力や文脈に適応する。 複数の協調するAIエージェントで構成され、タスクを分解・委任し、長期間にわたって複雑な目標を自律的に追求するシステム。
スコープ 単独・自己完結型のユニット 複数エージェントのネットワーク/システム
用語の起源 AI研究における数十年来の概念(ルールベースからLLM対応まで進化) LLMベースのマルチエージェント・アーキテクチャを背景に2025年に急浮上
  主要な特徴    
目標・ゴール 目標指向;特定の明確なタスクを追求する 複雑な目標を扱い、ゴールをサブタスクに分解して委任する
自律性 一定の自律性で動作;人間のチェックポイントが必要な場合もある 高い自律性;逐次的な人間の監視への依存が低い
適応性 変化する入力や文脈に応じて行動を調整する 環境の変化やタスクの部分的な失敗にリアルタイムで適応する
推論・推定 入力から出力を生成;計画能力が含意される システムレベルの推論;LLMアーキテクチャ経由でエージェントを協調させる
出力 意思決定、行動、タスク実行 より広範な領域・タスク種別にわたる複雑・多段階の出力
環境 定義された物理的または仮想的環境内で動作する オープンエンドで予測不可能な、より複雑な環境で動作する
時間軸 主に短期または単一セッションのタスク 長期にわたる目標を追求;延長されたタイムフレームで動作
  アーキテクチャと技術    
構造 単一エージェントユニット(ツール/APIを使用することもある) マルチエージェント・アーキテクチャ;オーケストレーター+専門エージェント
インタラクション 環境や人間ユーザーと対話する エージェント同士、人間、AI、そして広範な環境と相互作用する
プロトコル 特定のプロトコルは定義されていない 共有プロトコルに依存(例:MCP、Agent-to-Agent / A2Aプロトコル)
ツール使用 タスク完了に必要に応じてツールを使用する エージェントがツールを専門的に担当;ツール使用はシステム全体に分散
  社会的・政策的側面    
パラダイム 主として技術的構成物 社会技術的パラダイム——社会的文脈や制度に組み込まれた存在
説明責任 単一エージェントへの帰属が比較的明確 複数エージェントに分散した説明責任;帰属が複雑
透明性 行動の追跡が比較的容易 マルチエージェントの創発的相互作用により説明が困難
ガバナンス上の重要性 重要だが政策的スコープは比較的狭い 安全性・整合性・労働・社会的影響など広範な政策的含意を持つ
  普及と活用    
開発者による採用 Stack Overflowの開発者の約50%がAIエージェントを使用中または使用予定(2025年) GitHub上のエージェンティックAIフレームワーク関連リポジトリが920%増加(2023年初〜2025年半ば)
主な用途 ソフトウェアエンジニアリング、データ分析、タスク自動化 複雑なクロスドメインワークフロー、研究、長期的計画策定
主な懸念事項 個々のエージェント出力の精度・プライバシー・セキュリティ 整合性、説明責任のギャップ、創発的行動、システミックリスク
  直感的な例え    
例え 割り当てられたタスクをこなす熟練した個人の作業者 複雑なプロジェクトを自律的に管理する協調したプロジェクトチーム

 

● OECD

・2026.02.13 The agentic AI landscape and its conceptual foundations

Abstract 要旨
This paper identifies the most frequently cited features in existing definitions of agentic AI and AI agents, examines how these features are described across sources, and maps them to the key elements of the OECD definition of an AI system. By highlighting both shared traits and differences, the paper aims to support clearer conceptual understanding and inform future research and policymaking. It also provides descriptive data on recent trends in the uptake of AI agents and agentic AI. 本稿は、既存のエージェンティックAIおよびAIエージェントの定義において最も頻繁に言及される特徴を識別し、これらの特徴が各情報源でどのように記述されているかを検証し、それらをOECDのAIシステム定義の主要要素に照合する。共通点と相違点の両方を明らかにすることで、本稿はより明確な概念的理解を支援し、将来の研究や政策立案に寄与することを目的とする。また、AIエージェントとエージェンティックAIの最近の普及動向に関する記述的データも提供する。

 

目次...

Abstract 要約
Acknowledgements 謝辞
Executive Summary エグゼクティブサマリー
1 Background 1 背景
2 What is an AI system? 2 AIシステムとは何か?
2.1. OECD definition of an AI system 2.1. OECDによるAIシステムの定義
2.2. Main elements of the OECD definition of an AI system 2.2. OECDのAIシステム定義の主要要素
3 What are AI agents and agentic AI? 3 AIエージェントとエージェンティックAIとは何か?
3.1. AI Agents 3.1. AIエージェント
3.2. Agentic AI 3.2. エージェンティックAI
3.3. Key elements and distinct characteristics 3.3. 主要要素と特徴
3.4. Agentic AI as a socio-technical paradigm 3.4. 社会的技術的パラダイムとしてのエージェンティックAI
4 Recent trends in the uptake of AI agents and agentic AI 4 AIエージェントとエージェンティックAIの導入における最近の動向
5 Discussion 5 考察
References 参考文献

 

Executive summary  エグゼクティブサマリー
AI agents and agentic AI are receiving growing attention as artificial intelligence (AI) systems based on large language models (LLMs) become more autonomous and capable of interacting with their environments. While related concepts have long been studied in academic research, recent advances introduce new capabilities that challenge existing conceptual boundaries and highlight the need for a clearer, shared understanding of what constitutes an “agentic” AI system.  大規模言語モデル(LLM)に基づく人工知能(AI)システムが自律性を高め、環境との相互作用が可能になるにつれ、AIエージェントとエージェンティックAIへの注目が高まっている。関連概念は学術研究で長年研究されてきたが、近年の進歩は既存の概念的境界に挑戦する新たな能力をもたらし、「エージェント型」AIシステムを構成する要素についての明確で共有された理解の必要性を浮き彫りにしている。
This report contributes to that clarity by examining how the terms “AI agents” and “agentic AI” are defined and used across the literature. By analysing definitions of both terms and highlighting their key features and points of overlap and distinction, and relating them to the core elements of the OECD AI system definition, the report supports more precise and consistent use of terminology and establishes a basis for further analytical work.  本報告書は、文献における「AIエージェント」と「エージェンティックAI」の定義と使用法を検証することで、この明確化に貢献する。両概念の定義を分析し、その主要な特徴、重複点、相違点を明らかにするとともに、OECDのAIシステム定義の中核要素との関連性を示すことで、用語のより正確かつ一貫した使用を支援し、さらなる分析作業の基盤を確立する。
The analysis finds that both concepts share foundational characteristics, including a degree of autonomy, goal-directed behaviour, and the ability to perceive and act within their physical or virtual environment. However, agentic AI places greater emphasis on co-ordination among multiple agents, task decomposition and delegation, sustained operation over time, and functioning in more complex and less predictable environments with limited human oversight. Based on the analysis, the report provides the following common understanding:  分析の結果、両概念には基礎的な共通特性があることが判明した。具体的には、一定の自律性、目標指向的な行動、物理的または仮想環境を認識し行動する能力などである。しかし、エージェンティックAIは、複数のエージェント間の協調、タスクの分解と委譲、時間を超えた持続的な運用、そして人間の監視が限定的な、より複雑で予測困難な環境下での機能性に、より重点を置いている。この分析に基づき、本報告書は以下の共通認識を示す:
• AI agents are systems that can perceive and act upon their environment with a degree of autonomy, using tools as needed to achieve specific goals and adapt to changing inputs and contexts.  • AIエージェントとは、特定の目標達成と変化する入力・状況への適応のために必要なツールを用い、一定の自律性をもって環境を認識し行動できるシステムである。
• Agentic AI generally refers to systems composed of multiple co-ordinated AI agents that can break down tasks, collaborate, and pursue complex objectives autonomously over extended periods. Agentic AI systems are designed to operate in more open-ended, less predictable physical or virtual environments and to function with minimal human supervision.  • エージェンティックAIとは、一般的に、タスクを分解し、協調し、長期間にわたり自律的に複雑な目標を追求できる複数の協調型AIエージェントで構成されるシステムを指す。エージェンティックAIシステムは、より開放的で予測困難な物理的または仮想環境において、最小限の人間監視で機能するよう設計されている。
Agentic AI systems are more than technical tools; they are increasingly regarded as systems embedded in social contexts and interactions, operating in a socio-technical paradigm. The value of agentic AI systems comes from their ability to act autonomously and interact with other agents – human, artificial, or institutional – through co-ordination and negotiation. Supporting these interactions requires advanced reasoning capabilities as well as robust infrastructure and communication protocols. This relational perspective is essential to designing agentic AI systems that can function responsibly and effectively in physical and virtual environments.  エージェンティックAIシステムは単なる技術的ツールを超え、社会技術的パラダイムにおいて、社会的文脈や相互作用に埋め込まれたシステムとして認識されつつある。その価値は、自律的に行動し、調整や交渉を通じて人間・人工・組織といった他のエージェントと相互作用する能力に由来する。 こうした相互作用を支えるには、高度な推論能力に加え、堅牢なインフラと通信プロトコルが必要だ。この関係性重視の視点は、物理的・仮想環境において責任を持って効果的に機能するエージェンティックAIシステムを設計する上で不可欠である。
Many developers have integrated AI agents into their toolkits, and survey data indicate that nearly half of Stack Overflow respondents are using them or plan to do so. However, adoption does not indicate full technological maturity: respondents still highlight opportunities to further strengthen security, privacy, and accuracy, underscoring the need for continued progress toward more trustworthy AI agents.  多くの開発者がAIエージェントをツールキットに組み込んでおり、調査データによればStack Overflow回答者のほぼ半数が既に使用中か導入予定である。しかし採用が進んでいるからといって技術的成熟度が十分とは言えない。回答者は依然としてセキュリティ、プライバシー、精度のさらなる強化の必要性を指摘しており、より信頼性の高いAIエージェントに向けた継続的な進歩の必要性を強調している。
Overall, the report provides a descriptive overview of the agentic AI landscape, clarifying key concepts and characteristics and establishing a shared analytical foundation. Going forward, improved understanding of use cases and technical architectures can help identify where safeguards and standards are most needed. Further analytical work could build on this foundation by developing policy-relevant typologies based on features such as level of autonomy, adaptiveness, domain of operation, and system impact, as well as by improving empirical evidence on adoption and use across different contexts.  全体として、本報告書はエージェンティックAIの現状を記述的に概観し、主要な概念と特性を明確化するとともに、共通の分析基盤を確立している。 今後、ユースケースと技術的アーキテクチャの理解を深めることで、安全対策や基準が最も必要な領域を特定できるだろう。さらなる分析作業では、自律性のレベル、適応性、 の運用領域、システムへの影響といった特徴に基づく政策関連分類体系の開発や、様々な状況における導入・利用の実証的証拠の改善を通じて、この基盤を構築できる可能性がある。 

 

・[PDF]

20260307-140916

・[DOCX][PDF] 仮訳

 

 

| | Comments (0)

2026.03.07

米国 トランプ大統領のアメリカのためのサイバー戦略 (2026.03.06)

こんにちは、丸山満彦です。

トランプ大統領が米国のサイバー戦略を公表していますね...バイデン時代のサイバーセキュリティ戦略のアップデートになるのでしょうね...ちょうど3年を経て更新というかんじです。

トランプ大統領が筆をかなり入れたのではないかと思う前半部分の文章は、昔のソビエト連邦の公式文書の香りがなんとなくしますね...

後半の行動の柱の内容については、戦略というか、方針を示すようなものですが、表現の仕方はともかく内容は真っ当に感じました...

 

Pillars of Action 行動の柱
1. Shape Adversary Behavior 1. 敵対者の行動を形作る
2. Promote Common Sense Regulation 2. 常識的な規制の推進
3. Modernize and Secure Federal Government Networks 3. 連邦政府ネットワークと情報システムの近代化と安全確保
4. Secure Critical Infrastructure 4. 重要インフラの保護
5. Sustain Superiority in Critical and Emerging Technologies 5. 重要技術・新興技術における優位性の維持
6. Build Talent and Capacity 6. 人材と能力の構築

 

6つの柱の内容

1. 敵対者の行動を形作る アメリカ市民、企業、同盟国は、サイバー空間において高度な軍事・諜報・犯罪的敵対者から単独で身を守るべきではない。我々は米国政府の防御的・攻撃的サイバー作戦の全手段を展開する。民間セクターが敵対者ネットワークを特定・妨害するインセンティブを創出し、国家能力を拡大させることで民間セクターの力を解き放つ。我々は、敵対勢力がネットワークやシステムに侵入する前に、検知し、対峙し、撃破しなければならない。敵対勢力の能力を弱体化させ、国家のあらゆる手段を用いてその攻撃の代償を高める。市民を監視・抑圧する監視国家や権威主義的技術の拡散に対抗する。サイバー犯罪と知的財産窃盗は、世界経済に対する最大の脅威の一つである。我々は犯罪インフラを根絶し、資金逃避と安全な避難場所を断つ。サイバー空間の防衛と自由の保護は共同の努力である——費用と責任の分担は、民主主義的価値観を共有する米国と同盟国間で公平でなければならない。我々は協力して、我々に危害を加えようとする敵対者に現実的なリスクを創出し、実際に我々に対して行動を起こした者には結果を課す。
2. 常識的な規制の推進 サイバー防衛は、準備・行動・対応を遅らせる高コストなチェックリストに堕してはならない。我々は規制を合理化し、コンプライアンス負担を軽減し、責任問題を解決し、世界的に規制当局と産業界の連携を強化する。データ及びサイバーセキュリティ規制を合理化し、民間部門が急速に進化するサイバー脅威に対応する俊敏性を確保する。米国市民及び米国データのプライバシー権を重視する。
3. 連邦政府ネットワークと情報システムの近代化と安全確保 サイバーセキュリティのベストプラクティス、耐量子暗号、ゼロトラストアーキテクチャ、クラウド移行を実施し、連邦情報システムの近代化、防御力、レジリエンスを加速する。政府指導部や取締役会においてサイバーの重要性を高めるよう取り組む。最先端技術と専門チームを活用し、連邦ネットワーク上の悪意ある行為者を継続的に検知・追跡する。軍事・情報・民間エンタープライズを支える国家安全保障システムの安全性とレジリエンスを最優先する。連邦ネットワーク防衛と大規模侵入抑止のため、AIを活用したサイバーセキュリティソリューションの導入を推進する。政府横断で調達プロセスの近代化と競争力強化を図り、参入障壁を撤廃することで最良の技術調達を実現する。
4. 重要インフラの保護 米国における重要インフラを識別・優先順位付けし、防御を強化する。防衛関連重要インフラ及び関連ベンダー、民間企業、ネットワーク、サービス(電力網、金融・通信システム、データセンター、水道事業、病院など)のサプライチェーンを保護し、情報技術及び運用技術(OT)のサプライチェーンを安全に保つ。敵対的なベンダーや製品からの脱却を図り、米国技術を推進・採用する。敵対勢力への初期アクセスを阻止し、万一インシデントが発生した場合でも迅速な復旧を可能とする。州・地方・部族・領土当局の役割を強化し、国家サイバーセキュリティ対策の補完として機能させる(代替ではない)。
5. 重要技術・新興技術における優位性の維持 米国のイノベーションを保護し、国家的な知的優位性を守ることは最重要課題である。設計段階から展開までユーザープライバシーを保護する安全な技術とサプライチェーンを構築する。これには暗号通貨やブロックチェーン技術のセキュリティ支援も含まれる。耐量子暗号技術と安全な量子コンピューティングの普及を促進する。
さらに、データセンターを含むAI技術スタックの安全性を確保し、AIセキュリティ分野の革新を促進する。脅威アクターを検知・誘導・欺瞞するためのAI搭載サイバーツールを迅速に導入する。ネットワーク防御と妨害を安全に拡張する形で、エージェンティックAIを迅速に採用・推進する。サイバー外交を通じ、AI(特に生成的AIとエージェンティックAI)が革新と世界的安定を促進するよう確保する。米国がAI分野で主導権を握る基盤となるデータ、インフラ、モデルを保護する。同時に、ユーザーを検閲し、監視し、誤導する外国のAIプラットフォームの拡散を糾弾し、阻止する。
6. 人材と能力の構築 トランプ大統領は米国のサイバー人材を「米国国民、国土、そして米国の生活様式を防御する」戦略的資産と呼んだ。これは巨額の投資に値する資産であり、我が国の経済的繁栄と安全保障に不可欠である。人材を育成・共有するパイプラインが必要だ。それは実用的でアクセス可能なものでなければならない——学術界、職業訓練校、企業、ベンチャーキャピタルの機会など既存の経路を調整し活用しつつ——産業や職種を超えた既存のサイバー人材を教育・訓練し、次世代を募集して精巧なサイバー技術とソリューションを設計・展開させるのだ。産業界、学界、政府、軍がインセンティブを調整し、高度な技能を持つサイバー人材を育成する上での障害を排除する。アメリカを偉大たらしめる既存の資源、認可、人材、創意工夫を活用する。

 

 

2018年のトランプ政権、2023年のバイデン政権、2026年のトランプ政権を比較すると次のような感じ。。。

項目 2018戦略 2023戦略 2026戦略(最新)
1 基本目的 国家安全保障と経済保護 デジタル生態系の構造的改革 America First in Cyberspace
2 基本思想 抑止・防衛・影響力拡大 レジリエンス+責任再配分 攻勢+国家競争
3 政府の役割 主導的調整役 国家主導強化・規制権限拡大 攻勢主導・脱規制
4 民間企業 協力主体 法的責任・セキュア設計義務 規制緩和・民間自律
5 重要インフラ 保護を強化 制度化・規制強化 国家防衛対象
6 サイバー犯罪 国際協力・捜査 法執行+ランサムウェア国際包囲網 作戦・摘発・資産没収
7 サイバー軍事 抑止・Defend Forward 防御重視+統合解体作戦 積極的攻勢・非サイバー手段も活用
8 国際政策 インターネット自由 民主国家連携+権威主義対抗 費用分担要求+権威主義技術排除
9 技術政策 R&D投資+量子・5G セキュア設計+耐量子・IoT Agentic AI即時実装+外国技術排除
10 政策キーワード deterrence resilience dominance

 

 

 

U.S. White House

・2026.03.06 [PDF] President Trump’s CYBER STRATEGY for America

20260307-144259

 

President Trump’s CYBER STRATEGY for America トランプ大統領のアメリカのためのサイバー戦略
March 2026 2026年3月
Over the past year, the United States has shown the entire world that we have the most powerful, sophisticated, and technologically advanced military on earth and it is not even close. This includes not only our overwhelming conventional military strength, but also our unparalleled non-kinetic powers. この1年間、米国は世界に示した。我々が地球上で最も強力で洗練され、技術的に進んだ軍隊を有しており、その差は圧倒的だ。これは圧倒的な通常戦力だけでなく、比類なき非物理的戦力も含む。
The National Cyber Strategy outlines my priorities for ensuring that America remains unrivaled in cyberspace. It calls for unprecedented coordination across government and the private sector to invest in the best technologies and continue world-class innovation, and to make the most of America's cyber capabilities for both offensive and defensive missions. 国家サイバー戦略は、米国がサイバー空間で比類なき地位を維持するための優先事項を定めている。政府と民間セクターの未曾有の連携を求め、最先端技術への投資と世界最高水準のイノベーションを継続し、攻撃・防御両任務において米国のサイバー能力を最大限活用する。
Our cyber tools and operators are the best in the world-and we are empowering them to defend America by disrupting and disorienting our adversaries, and denying them a safe haven. The United States has capabilities that the rest of the world can only begin to imagine. Our warriors in cyberspace are working everyday to ensure that anyone who would seek to harm America will pay the steepest and most terrible price. 我々のサイバーツールとオペレーターは世界最高水準であり、敵対勢力を混乱させ方向感覚を喪失させ、安全な避難場所を否定することで米国を守る力を彼らに与えている。米国が有する能力は、世界の他の国々が想像し始めたばかりの領域である。サイバー空間の戦士たちは日々、アメリカに害をなそうとする者には最も高く恐ろしい代償を払わせるべく活動している。
This strategy is about defending the safety, security, and prosperity of the American People. As we approach the 250th anniversary of American Independence, the strategy laid out in this document will help ensure that America remains the strongest, freest, and greatest country in the history of the world, long into the future. American Power will finally stand up in cyberspace. この戦略はアメリカ国民の安全と繁栄を守るものだ。独立250周年を迎えるにあたり、この文書に示された戦略は、アメリカが今後も世界史上最強・最自由・最高の国であり続けることを保証する。アメリカの力はついにサイバー空間で立ち上がる。
Sign 署名
Cyberspace was born in America. American talent, innovation, research, and powerful government capabilities combined to create a dynamic, thriving, digital world that every American relies on for information, economic opportunity, and our basic way of life. Indeed, the cyber domain is key to President Trump’s actions to ensure America leads the world in finance, innovation and emerging technology, military power, and manufacturing. サイバー空間はアメリカで生まれた。アメリカの才能、革新性、研究、そして強力な政府能力が結びつき、ダイナミックで繁栄するデジタル世界を生み出した。これは全てのアメリカ人が情報、経済的機会、そして基本的な生活様式に依存する世界である。実際、サイバー領域はトランプ大統領がアメリカを金融、革新と新興技術、軍事力、製造事業者において世界をリードさせるための行動の鍵である。
Freedom and safety in cyberspace, however, cannot be taken for granted. Adversaries and cybercriminals exploit cyberspace to advance authoritarianism, suppress democracy, and undermine our national and economic security. しかし、サイバー空間における自由と安全は当然のものとは言い難い。敵対勢力やサイバー犯罪者は、サイバー空間を悪用して権威主義を推進し、民主主義を抑圧し、我々の国家安全保障と経済安全保障を損なっている。
Unlike other Administrations, the Trump Administration will not tinker at the edges and apply partial measures and ambiguous strategies that neglect the growing number and severity of cyber threats. President Trump will continue to address threats in cyberspace directly. トランプ政権は、他の政権とは異なり、増大するサイバー脅威の数と深刻さを無視した中途半端な対策や曖昧な戦略で小手先の対応をするつもりはない。トランプ大統領は今後もサイバー空間の脅威に直接対処し続ける。
America enjoys unrivalled technological and economic innovation, unmatched military power, and a society devoted to free and open expression. Every American should take practical steps to protect themselves and their families in cyberspace, but America’s citizens do not stand alone. President Trump has demonstrated time and again that he is determined to make Americans secure and prosperous by harnessing all of our comparative advantages. This strategy is a continuation of President Trump’s actions, and directly supports the National Security Strategy by putting America first in cyberspace. アメリカは比類なき技術革新と経済的革新、無敵の軍事力、そして自由で開放的な表現に捧げられた社会を享受している。全てのアメリカ国民は、自身と家族をサイバー空間で防御するための実践的措置を取るべきだ。しかしアメリカ国民は孤立していない。トランプ大統領は、我々の比較優位性を全て活用して国民の安全と繁栄を実現する決意を繰り返し示してきた。この戦略はトランプ大統領の行動の継続であり、サイバー空間においてアメリカを最優先に置くことで国家安全保障戦略を直接支援するものである。
Our adversaries and cyber criminals target our families, neighbors, small businesses, farmers, first responders, patients, and senior citizens in cyberspace. They disrupt critical services like healthcare, banking, food supply, and water treatment. They impose tremendous costs on our economy and make everyday goods less affordable. 我々の敵対者やサイバー犯罪者は、サイバー空間において我々の家族、近隣住民、中小企業、農家、初動対応者、患者、高齢者を標的にする。彼らは医療、銀行、食料供給、水処理といった重要サービスを妨害する。彼らは我々の経済に莫大なコストを強いると同時に、日用品を手頃な価格で入手できなくする。
President Trump’s actions, however, send a clear message: we will act to defend our interests in cyberspace. Whether destroying online scammers’ networks and seizing $15 billion of their stolen money, supporting a globe-spanning operation to obliterate Iran’s nuclear infrastructure, or leaving our adversaries blind and uncomprehending during a flawless military operation to bring international narco-terrorist Nicolas Maduro to justice, adversaries are on notice that America’s cyber operators and tools are the best in the world and can be swiftly and effectively deployed to defend America’s interests. しかしトランプ大統領の行動は明確なメッセージを発している。我々はサイバー空間における自国の利益を守るために行動する。オンライン詐欺師のネットワークを破壊し150億ドルの盗金を押収するにせよ、イランの核インフラを壊滅させる世界規模作戦を支援するにせよ、国際的な麻薬テロリストであるニコラス・マドゥロを裁く完璧な軍事作戦で敵を盲目にし理解不能に陥れるにせよ、敵対勢力は警告を受けている。米国のサイバー要員とツールは世界最高水準であり、米国の利益を守るために迅速かつ効果的に展開できるのだ。
Americans re-elected President Trump to put America first. This strategy communicates the Trump Administration’s cyber vision and approach to the American people, to Congress, to our partners in industry and allies across the globe—and also to adversaries. It explains the Administration’s priorities, summarized in six policy pillars, which will guide action and resourcing through the follow-on policy vehicles. This strategy builds on President Trump’s actions to date, and requires a level of coordination, commitment, and political will never before marshalled against cyber threats.  President Trump’s leadership has created a new era in cyberspace. アメリカ国民はトランプ大統領を再選し、アメリカ第一主義を支持した。本戦略はトランプ政権のサイバービジョンとアプローチを、アメリカ国民、議会、産業界のパートナー、世界中の同盟国、そして敵対勢力にも伝えるものである。六つの政策柱にまとめられた政権の優先事項を説明し、これらが今後の政策手段を通じた行動と資源配分の指針となる。本戦略はトランプ大統領のこれまでの行動を基盤とし、サイバー脅威に対してこれまでにないレベルの調整、コミットメント、政治的意思を要求する。トランプ大統領のリーダーシップはサイバー空間に新たな時代を創出した。
Moving Forward 今後の展開
Our resolve is absolute. We will act swiftly, deliberately, and proactively to disable cyber threats to America. We will not confine our responses to the “cyber” realm. We will undertake an unprecedented effort, operating in a coordinated and sustained fashion across the U.S. government. Working with allies across the globe, we will promote U.S. interests and security. We will fight the curtailment of free speech. We will outcompete adversaries who sell “low cost” AI and digital technologies that carry embedded censorship, surveillance, and ideological bias. We will partner closely with industry and academia, at the speed and scale commensurate with the threats we face, and in accordance with our values. 我々の決意は絶対である。アメリカに対するサイバー脅威を無力化するため、迅速かつ慎重に、そして積極的に行動する。対応を「サイバー」領域に限定しない。我々は前例のない取り組みを、米国政府全体で協調的かつ持続的に展開する。世界中の同盟国と連携し、米国の利益と安全保障を推進する。言論の自由の制限と戦う。検閲・監視・イデオロギー的バイアスを組み込んだ「低コスト」AI・デジタル技術を販売する敵対者を圧倒する。我々は産業界や学界と緊密に連携する。直面する脅威に見合った速度と規模で、我々の価値観に沿って行動する。
President Trump has made targeting Americans a hazardous business. Our adversaries have and will increasingly feel the consequences of their actions; we will dismantle networks, pursue hackers and spies, and sanction lawless foreign hacking companies. We will unveil and embarrass online espionage, destructive propaganda and influence operations, and cultural subversion. トランプ大統領は米国人を標的にすることを危険な行為にした。敵対勢力は自らの行動の結果を既に感じ始めており、今後さらに強く実感するだろう。我々はネットワークを解体し、ハッカーやスパイを追跡し、無法な外国ハッカー企業に制裁を加える。オンライン諜報活動、破壊的なプロパガンダや影響工作、文化的破壊工作を暴露し、恥をかかせる。
By disrupting adversaries’ cyber campaigns, and making our networks more defensible and resilient, we will unleash innovation, accelerate economic growth, and secure American technology dominance. We will remove burdensome, ineffective regulations so that our industry partners innovate quickly in emerging technologies. Partners in the private sector must be able to respond and recover quickly to ensure continuity of the American economy. We will defend our federal systems, critical infrastructure, and supply chains by putting security at the foundation of innovation. We will modernize our information systems so that old infrastructure does not choke innovation. We will engage internationally through diplomacy, commerce, and operations to ensure norms and standards reflect our values. We will leverage the immense talents and ingenuity of our private sector research base. We will establish a new level of relationship between the public and private sectors to defend America in peace and war. 敵対勢力のサイバーキャンペーンを妨害し、自国のネットワークをより防御可能かつレジリエントにすることで、我々はイノベーションを解き放ち、経済成長を加速させ、アメリカの技術的優位性を確保する。産業パートナーが新興技術で迅速に革新できるよう、煩雑で非効率な規制を撤廃する。民間セクターのパートナーは、アメリカ経済の継続性を確保するため、迅速に対応し回復できる能力を持たねばならない。イノベーションの基盤にセキュリティを据えることで、連邦システム、重要インフラ、サプライチェーンを防衛する。古いインフラが革新を阻害しないよう、情報システムを近代化する。外交、商業、作戦活動を通じて国際的に関与し、規範と標準が我々の価値観を反映するよう確保する。民間セクターの研究基盤が持つ膨大な才能と創意工夫を活用する。平時と戦時においてアメリカを守るため、官民セクター間の新たな関係性を確立する。
Pillars of Action 行動の柱
Six Policy Pillars underpin this strategy and will guide implementation and measures for success. この戦略を支える六つの政策柱が、実施と成功の指標となる。
1. Shape Adversary Behavior 1. 敵対者の行動を形作る
American citizens, companies, and our allies should not have to fend off sophisticated military, intelligence, and criminal adversaries in cyberspace alone. We will deploy the full suite of U.S. government defensive and offensive cyber operations. We will unleash the private sector by creating incentives to identify and disrupt adversary networks and scale our national capabilities. We must detect, confront, and defeat cyber adversaries before they breach our networks and systems. We will erode their capacity and capabilities, and use all instruments of national power to raise the costs for their aggression. We will counter the spread of the surveillance state and authoritarian technologies that monitor and repress citizens. Cybercrime and intellectual property theft are some of the greatest threats to global economies. We will uproot criminal infrastructure and deny financial exit and safe haven. Defending cyberspace and safeguarding freedom is a collective effort—the distribution of cost and responsibility must be fair across the U.S. and allies who share our democratic values. We will work together to create real risk for adversaries who seek to harm us, and impose consequences on those who do act against us. アメリカ市民、企業、同盟国は、サイバー空間において高度な軍事・諜報・犯罪的敵対者から単独で身を守るべきではない。我々は米国政府の防御的・攻撃的サイバー作戦の全手段を展開する。民間セクターが敵対者ネットワークを特定・妨害するインセンティブを創出し、国家能力を拡大させることで民間セクターの力を解き放つ。我々は、敵対勢力がネットワークやシステムに侵入する前に、検知し、対峙し、撃破しなければならない。敵対勢力の能力を弱体化させ、国家のあらゆる手段を用いてその攻撃の代償を高める。市民を監視・抑圧する監視国家や権威主義的技術の拡散に対抗する。サイバー犯罪と知的財産窃盗は、世界経済に対する最大の脅威の一つである。我々は犯罪インフラを根絶し、資金逃避と安全な避難場所を断つ。サイバー空間の防衛と自由の保護は共同の努力である——費用と責任の分担は、民主主義的価値観を共有する米国と同盟国間で公平でなければならない。我々は協力して、我々に危害を加えようとする敵対者に現実的なリスクを創出し、実際に我々に対して行動を起こした者には結果を課す。
2. Promote Common Sense Regulation 2. 常識的な規制の推進
Cyber defense should not be reduced to a costly checklist that delays preparedness, action, and response. We will streamline cyber regulations to reduce compliance burdens, address liability, and better align regulators and industry globally. We will streamline data and cybersecurity regulations to ensure that the private sector has the agility necessary to keep pace with rapidly evolving threats. We will emphasize the right to privacy for Americans and American data. サイバー防衛は、準備・行動・対応を遅らせる高コストなチェックリストに堕してはならない。我々は規制を合理化し、コンプライアンス負担を軽減し、責任問題を解決し、世界的に規制当局と産業界の連携を強化する。データ及びサイバーセキュリティ規制を合理化し、民間部門が急速に進化するサイバー脅威に対応する俊敏性を確保する。米国市民及び米国データのプライバシー権を重視する。
3. Modernize and Secure Federal Government Networks 3. 連邦政府ネットワークと情報システムの近代化と安全確保
We will accelerate the modernization, defensibility, and resilience of federal information systems by implementing cybersecurity best practices, post-quantum cryptography, zero-trust architecture, and cloud transition. We will work to elevate the importance of cyber in government leadership and in the board room. We will use the best technologies and teams to constantly test and hunt for malicious actors on federal networks. We will prioritize the security and resilience of the National Security Systems that underpin our military, intelligence, and civilian enterprises. We will work to adopt AI-powered cybersecurity solutions to defend federal networks and deter intrusions at scale. Working across the government to modernize and create competitive procurement processes, we will remove barriers to entry so that the government can buy and use the best technology. サイバーセキュリティのベストプラクティス、耐量子暗号、ゼロトラストアーキテクチャ、クラウド移行を実施し、連邦情報システムの近代化、防御力、レジリエンスを加速する。政府指導部や取締役会においてサイバーの重要性を高めるよう取り組む。最先端技術と専門チームを活用し、連邦ネットワーク上の悪意ある行為者を継続的に検知・追跡する。軍事・情報・民間エンタープライズを支える国家安全保障システムの安全性とレジリエンスを最優先する。連邦ネットワーク防衛と大規模侵入抑止のため、AIを活用したサイバーセキュリティソリューションの導入を推進する。政府横断で調達プロセスの近代化と競争力強化を図り、参入障壁を撤廃することで最良の技術調達を実現する。
4. Secure Critical Infrastructure 4. 重要インフラの保護
We will identify, prioritize, and harden America’s critical infrastructure and secure its supply chains, including defense critical infrastructure and adjacent vendors, private companies, networks, and services—such as the energy grid, financial and telecommunication systems, data centers, water utilities, and hospitals—securing information and operational technology supply chains. We must move away from adversary vendors and products, promoting and employing U.S. technologies. We will deny our adversaries initial access, and in the event of an incident, we must be able to recover quickly. We will galvanize the role of state, local, Tribal, and territorial authorities as a complement to—not a substitute for—our national cybersecurity efforts. 米国における重要インフラを識別・優先順位付けし、防御を強化する。防衛関連重要インフラ及び関連ベンダー、民間企業、ネットワーク、サービス(電力網、金融・通信システム、データセンター、水道事業、病院など)のサプライチェーンを保護し、情報技術及び運用技術(OT)のサプライチェーンを安全に保つ。敵対的なベンダーや製品からの脱却を図り、米国技術を推進・採用する。敵対勢力への初期アクセスを阻止し、万一インシデントが発生した場合でも迅速な復旧を可能とする。州・地方・部族・領土当局の役割を強化し、国家サイバーセキュリティ対策の補完として機能させる(代替ではない)。
5. Sustain Superiority in Critical and Emerging Technologies 5. 重要技術・新興技術における優位性の維持
Securing American innovation and protecting our national intellectual advantage will be paramount. We will build secure technologies and supply chains that protect user privacy from design to deployment, including supporting the security of cryptocurrencies and blockchain technologies. We will promote the adoption of post-quantum cryptography and secure quantum computing. 米国のイノベーションを保護し、国家的な知的優位性を守ることは最重要課題である。設計段階から展開までユーザープライバシーを保護する安全な技術とサプライチェーンを構築する。これには暗号通貨やブロックチェーン技術のセキュリティ支援も含まれる。耐量子暗号技術と安全な量子コンピューティングの普及を促進する。
And we will secure the AI technology stack—including our data centers—and promote innovation in AI security. We will swiftly implement AI-enabled cyber tools to detect, divert, and deceive threat actors. We will rapidly adopt and promote agentic AI in ways that securely scale network defense and disruption. Through cyber diplomacy, we will ensure that AI—particularly generative AI and agentic AI—advances innovation and global stability. We will secure the data, infrastructure, and models that underpin U.S. leadership in AI and we will call out and frustrate the spread of foreign AI platforms that censor, surveil, and mislead their users. さらに、データセンターを含むAI技術スタックの安全性を確保し、AIセキュリティ分野の革新を促進する。脅威アクターを検知・誘導・欺瞞するためのAI搭載サイバーツールを迅速に導入する。ネットワーク防御と妨害を安全に拡張する形で、エージェンティックAIを迅速に採用・推進する。サイバー外交を通じ、AI(特に生成的AIとエージェンティックAI)が革新と世界的安定を促進するよう確保する。米国がAI分野で主導権を握る基盤となるデータ、インフラ、モデルを保護する。同時に、ユーザーを検閲し、監視し、誤導する外国のAIプラットフォームの拡散を糾弾し、阻止する。
6. Build Talent and Capacity 6. 人材と能力の構築
President Trump has called America’s cyber workforce a strategic asset that “protects the American people, the homeland, and the American way of life.” It is an asset worthy of great investment and essential to our nation’s economic prosperity and security. We need a pipeline that develops and shares talent. It must be pragmatic and accessible—reconciling and taking advantage of existing avenues within academia, vocational and technical schools, corporations, and venture capital opportunities—to educate and train our existing cyber workforce across industries and occupations, and to recruit the next generation to design and deploy exquisite cyber technologies and solutions. We will eliminate roadblocks that prevent industry, academia, government, and the military from aligning incentives and building a highly skilled cyber workforce. We will harness the existing resources, authorities, talents, and ingenuity that make America great. トランプ大統領は米国のサイバー人材を「米国国民、国土、そして米国の生活様式を防御する」戦略的資産と呼んだ。これは巨額の投資に値する資産であり、我が国の経済的繁栄と安全保障に不可欠である。人材を育成・共有するパイプラインが必要だ。それは実用的でアクセス可能なものでなければならない——学術界、職業訓練校、企業、ベンチャーキャピタルの機会など既存の経路を調整し活用しつつ——産業や職種を超えた既存のサイバー人材を教育・訓練し、次世代を募集して精巧なサイバー技術とソリューションを設計・展開させるのだ。産業界、学界、政府、軍がインセンティブを調整し、高度な技能を持つサイバー人材を育成する上での障害を排除する。アメリカを偉大たらしめる既存の資源、認可、人材、創意工夫を活用する。
Conclusion 結論
This strategy makes clear the course President Trump has pursued in cyberspace, and the direction the U.S. government will pursue with increasing impact. President Trump has acted to ensure that Americans—especially future generations—will have a strong country where they are secure and defended, and a future defined by individual freedom, economic prosperity, and opportunity. President Trump will continue showing those who harm our interests and attack our values in cyberspace place themselves at risk. 本戦略は、トランプ大統領がサイバー空間で追求してきた方針と、米国政府が今後一層の影響力を持って推進する方向性を明確に示すものである。トランプ大統領は、米国国民、特に将来の世代が、安全と防衛が確保された強固な国家と、個人の自由、経済的繁栄、機会に定義づけられる未来を享受できるよう行動してきた。トランプ大統領は今後も、サイバー空間において我々の利益を損ない、価値観を攻撃する者たちが自らをリスクに晒すことを示し続ける。

 

 


 

参考 各国のサイバーセキュリティ戦略

 

■ EUの場合

 European Commission

・2020.12.16 The EU’s Cybersecurity Strategy for the Digital Decade

・[PDF] JOINT COMMUNICATION TO THE EUROPEAN PARLIAMENT AND THE COUNCIL - The EU's Cybersecurity Strategy for the Digital Decade

20250108-182710

 

・2020.12.16 The EU's Cybersecurity Strategy in the Digital Decade

・[PDF] Factsheet

20210513-120625

 

欧州各国のサイバーの国家戦略はENISAがまとめてみられるようにしていますね...

 

 ENISA

・2025.06.04 National Cyber Security Strategies Interactive map

 

 

■ ドイツの場合

 Bundesministerium des Innern, für Bau und Heimat 

プレス

・2021.09.08 (press) Cybersicherheitsstrategie für Deutschland 2021 beschlossen

戦略本文

・[PDF] Cybersicherheitsstrategie für Deutschland 2021

20210926-60648

 

■ フランスの場合

・2026.01.29 National cybersecurity strategy 2026-2030

20260210-130528

・2019.11 [PDF] stratégie nationale pour la sécurité du numérique

20260210-204628

 

 

■ オランダの場合

・2022.10.10 Kabinet presenteert nieuwe cybersecuritystrategie

● 戦略

・2022.10.10 Nederlandse Cybersecuritystrategie 2022 - 2028

・[PDF

20221016-52157

 

● 活動計画 2022-2023

・2022.10.10 Actieplan Nederlandse Cybersecuritystrategie 2022 - 2023

・[PDF

20221016-52520

 

■ UKの場合

 National Cyber Security Centre

2021.12.15 (news) Government publishes blueprint to protect UK from cyber threats

・2021.12.15 Policy paper National Cyber Strategy 2022

・[heml] National Cyber Strategy 2022

 ・[PDF] National Cyber Strategy 2022

20211217-55613

日本語訳 [Downloded]

20230221-170849

 

■ U.S. の場合

・2026.03.06 [PDF] President Trump’s CYBER STRATEGY for America

20260307-144259

 

・2023.03.02 FACT SHEET: Biden-⁠Harris Administration Announces National Cybersecurity Strategy

・[PDF] National Cybersecurity Strategy 

20230304-72820

 

・2018.09.20 President Trump Unveils America’s First Cybersecurity Strategy in 15 Years

・[PDF] NATIONAL CYBER STRATEGY of the United States of America


20210513-121917

・仮訳 [DOCX

 

■ 日本の場合

 

 内閣官房 - サイバーセキュリティセンター - サイバーセキュリティ戦略本部

今回のもの

・2025.12.23 サイバーセキュリティ戦略(閣議決定)

20251223-182424

 

前回のもの

・2021.09.28 [PDF] サイバーセキュリティ戦略

20230820-153236

・2023.07.04 サイバーセキュリティ戦略本部 第36回会合

・2022.06.17 サイバーセキュリティ戦略本部 第34回会合

・2021.09.27 第31回会合

 

 

🔳オーストラリアの場合

 AU - Department of Home Affairs - Cyber security - Strategy

・2023.11.22 [PDF] 

20241130-23843

実行計画

・2023.11.22 [PDF] 

20241130-24959

 

・2020.08.06 [PDF] AUSTRALIA’S CYBER SECURITY STRATEGY 2020

20230520-150216

2016年の前回のバージョン

・[PDF] Australia's Cyber Security Strategy

20230520-150443

 

■ 中国の場合

  中央网络安全和信息化委员会办公室 (Cyberspace Administration of China)

 プレス発表

戦略全文

・2016.12.27 国家网络空间安全战略

・英語訳

 ・2016.12.27 National Cyberspace Security Strategy

 

 

■ ロシアの場合(NATO CCDCOEの論文)

● NATO CCDCOE

2020 [PDF] The Past, Present, and Future of Russia’s Cyber Strategy and Forces by Bilyana Lilly and Joe Cheravitch



■ インドの場合

 Data Security Council of India

・2020.08.15 [PDF] National Cyber Security Strategy 2020

20210513-131956

 

■ シンガポールの場合

● Cyber Security Agency of Singapore

・2021.10.05 Singapore Updates National Cybersecurity Strategy

The Singapore Cybersecurity Strategy 2021

・[PDF]

20211011-134730

 

◾️ 韓国の場合...

・2024.02.01

・[PDF]

20240307-182652

 

2019年の国家サイバーセキュリティ戦略

・韓国語 [PDF] 국가사이버안보전략

20240307-194050


・英語 [PDF] National Cyberseuciry Strategy

20240307-194144

 

----

 

 

 

| | Comments (0)

2026.03.06

国家サイバー統括室 国際文書「AI・機械学習のサプライチェーンリスクと緩和策」への共同署名 (2026.03.05)

こんにちは、丸山満彦です。

国家サイバー統括室 (NCO) が、国際文書「AI・機械学習のサプライチェーンリスクと緩和策」へに共同署名したと発表していますね...

オーストラリアのACSCが2025.10.16に策定した「Artificial intelligence and machine learning: Supply chain risks and mitigations」の改訂に合わせて、日本のNCOも共同署名し、名前を連ねていますね...

このブログでは見逃していましたね...

AI/ML の安全性は、個々の技術要素ではなく、サプライチェーン全体の健全性に依存するということを強調していますね...

データ、モデル、ソフトウェア、インフラ、第三者サービスのいずれか一つでも脆弱であれば、AI システム全体が攻撃に晒され、性能低下や情報漏えい、悪意ある挙動を引き起こすことになりますよね...

特に外部データやモデル、クラウドサービスの利用は利便性と同時に重大なリスクを伴うため、透明性の確保、検証、継続的監視が必須と言えますね...

AI/ML を通常の IT 以上に厳格なサプライチェーン管理の対象として扱い、多層防御を通じて全体の強靭性を高めることが重要ということですかね...

なお、変更点については、説明の拡充、既存内容の明確化、追加的なリスク管理・軽減に関する新たなセクションが盛り込まれているということのようです。

主な追加事項...

• AIおよびMLシステム導入時のリスク管理の見直し

• 内部環境での使用前にAIデータを隔離・テストする

• MLモデルが期待通りに動作することを確認するための性能テスト

 

 

国家サイバー統括室 (NCO)

・2026.03.05 [PDF] 国際文書「AI・機械学習のサプライチェーンリスクと緩和策」への共同署名について

 

Australian Cyber Security Centre: ACSC

・2026.03.05 Artificial intelligence and machine learning: Supply chain risks and mitigations

目次...

Introduction はじめに
Overview 概要
AI data AIデータ
Machine learning models 機械学習モデル
AI software AIソフトウェア
AI infrastructure and hardware AIインフラストラクチャとハードウェア
Third-party services サードパーティサービス
Conclusion 結論
More information 詳細情報

 

・[PDF

20260306-01213

 

変更点...

・[PDF]

20260306-01312

 

ちなみに署名をしているのは、、、

Five Eyesに日本、韓国、シンガポールを追加した計8カ国。。。

 

 

| | Comments (0)

2026.03.05

ちょっと思うこと AI時代の法制度のあり方ってどうなるのかなぁ...

こんにちは、丸山満彦です。

AI時代、特にAgentic AIがAIを含む他のシステムと連携をして物事を進めていってしまう時代における法制度のあり方についてそろそろ考えるべきなのではないかと思います...

最近気になっているのは、技術進歩が早いというか、技術進歩が与える社会への影響の変化速度が早いために、既存の社会前提の法制度の改善が必要となってくるわけですが、法律改定のスピードと社会変化のスピードの差が広がってきているのではないかということです。

法律を変えないといけない立法事実が顕在化した時には、すでにその問題が社会全体を覆うようになってしまうのではないかと思います。法律は、立法事実を認識してから国会審議を経て成立し、施行する頃には、別の立法事実が顕在化し、準備した法律では十分ではない、あるいは不要となってしまっているということもあり得るように思います。

このような社会になった場合の法制度はどうあるべきか?これを考える必要があるのではないかと思います。

具体的な法制度の改善の方向性というのは見えていないのですが、

なんとなくこうなるだろうというのは、

・法律というのは段々基本法的なものが増えていく。大きな方向性や具体性をイメージさせるための例示はは法律に書かれるものの、より詳細なものは、政省令、告示や、JIS等の技術仕様に移行していく。

・具体的な立法事実が社会に的に問題となってから法規制をするのではなく、新しい社会的インパクトの大きな技術が現れた婆には、早期に法律案を作成し、具体的にそれが必要となった場合に、審議をし、成立させるという方法。

みたいなことはあり得るかもと思いました。

人間が理解をする時間、社会のコンセンサスを形成する時間をはるかにAIは超えてくるようになったので、人間が疲れる感じです...

難しいですね...

 

1_20260305012901

| | Comments (0)

2026.03.04

論文 モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、管理策、ガバナンス (2025.11.25)

こんにちは、丸山満彦です。

モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、管理策、ガバナンスという論文の紹介です...

少し古いですが、おそらく読んでおく方が良いかもと思いまして...

MCPに限っていますが...

脅威(攻撃者)

  1. コンテンツ注入型
  2. サプライチェーン型
  3. 意図せぬエージェント

攻撃ベクトル

  1. データ駆動型攻撃:ユーザー生成コンテンツ注入
  2. サプライチェーン攻撃:信頼できないMCPサーバーのインストール
  3. 構成とガバナンスのリスクTrustedMCPサーバー
  4. 運用セキュリティ:データの機密性と実行時監視

セキュリティ制御

  1. 認証と認可
  2. エンドツーエンドの由来追跡
  3. コンテキスト分離とサンドボックス化
  4. インラインポリシー適用
  5. 集中型セキュリティガバナンス

 

 

Cournell University - arXiv

・2025.11.25 Securing the Model Context Protocol (MCP): Risks, Controls, and Governance

Securing the Model Context Protocol (MCP): Risks, Controls, and Governance モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、制御、ガバナンス
The Model Context Protocol (MCP) replaces static, developer-controlled API integrations with more dynamic, user-driven agent systems, which also introduces new security risks. As MCP adoption grows across community servers and major platforms, organizations encounter threats that existing AI governance frameworks (such as NIST AI RMF and ISO/IEC 42001) do not yet cover in detail. We focus on three types of adversaries that take advantage of MCP s flexibility: content-injection attackers that embed malicious instructions into otherwise legitimate data; supply-chain attackers who distribute compromised servers; and agents who become unintentional adversaries by over-stepping their role. Based on early incidents and proof-of-concept attacks, we describe how MCP can increase the attack surface through data-driven exfiltration, tool poisoning, and cross-system privilege escalation. In response, we propose a set of practical controls, including per-user authentication with scoped authorization, provenance tracking across agent workflows, containerized sandboxing with input/output checks, inline policy enforcement with DLP and anomaly detection, and centralized governance using private registries or gateway layers. The aim is to help organizations ensure that unvetted code does not run outside a sandbox, tools are not used beyond their intended scope, data exfiltration attempts are detectable, and actions can be audited end-to-end. We close by outlining open research questions around verifiable registries, formal methods for these dynamic systems, and privacy-preserving agent operations. モデルコンテキストプロトコル(MCP)は、静的で開発者が制御するAPI統合を、より動的でユーザー主導のエージェントシステムに置き換える。これにより新たなセキュリティリスクも生じる。コミュニティサーバーや主要プラットフォームでMCPの採用が広がるにつれ、組織は既存のAIガバナンスフレームワーク(NIST AI RMFやISO/IEC 42001など)がまだ詳細にカバーしていない脅威に直面する。我々は、MCPの柔軟性を悪用する3種類の攻撃者に焦点を当てる。正当なデータに悪意のある指示を埋め込むコンテンツ注入攻撃者、侵害されたサーバーを配布するサプライチェーン攻撃者、そして役割を超越することで意図せず敵対者となるエージェントである。初期のインシデントや概念実証攻撃に基づき、MCPがデータ駆動型情報漏洩、ツールポイズニング、クロスシステム特権昇格を通じて攻撃対象領域を拡大する仕組みを説明する。これに対応するため、我々は実用的な制御策を提案する。具体的には、スコープ限定認証によるユーザー単位認証、エージェントワークフロー全体の出所追跡、入出力チェック付きコンテナ化サンドボックス、DLPと異常検知によるインラインポリシー適用、プライベートレジストリやゲートウェイ層を用いた集中管理などである。目的は、未検証コードがサンドボックス外で実行されないこと、ツールが意図された範囲を超えて使用されないこと、データ漏洩の試みが検知可能であること、そしてアクションがエンドツーエンドで監査可能であることを組織が保証できるようにすることである。最後に、検証可能なレジストリ、これらの動的システムに対する形式手法、プライバシー保護型エージェント運用に関する未解決の研究課題を概説する。

 

・[PDF] [HTML]

 

20260303-62605

・[DOCX][PDF] 仮訳

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.04 論文 モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、管理策、ガバナンス (2025.11.25)

・2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 スペイン データ保護庁 エージェント型人工知能に関するガイド (2026.02.18)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

 

 

| | Comments (0)

2026.03.03

NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…

こんにちは、丸山満彦です。

デジタル・フォレンジック研究会にコラムを載せました。

 IDF - Column

・2026.03.02 コラム第914号:Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…

 

「AIが自律的に連携し動き始めた社会になると、デジタルフォレンジックスで培った技術や考え方が重要となっていくのではないか...知らんけど...」と言う話です (^^)

1_20260219172601

 

 

みなさんも、時間がある時にちょっと考えておいてください...

 


 

私が書いた「NPO デジタル・フォレンジック研究会」の「コラム」の一覧

 

No Date Title
34 914 2025.03.02 Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…
33 869 2025.09.01 公正な司法におけるデジタル・フォレンジックスの役割
32 864 2025.03.10 ものを分解すればわかるのか?「還元論的発想とシステム論的発想」
31 841 2024.09.26 親分でまとまる集団とルールでまとまる集団とIDFに対するちょっとした提案
30 806 2024.01.25 気候風土と社会
29 780 2023.07.31 国家安全保障戦略 ― 何をだれから守るのか? 国益 (National Interests) とは何か?
28 754 2023.01.31 「木を見て森を見ず」にならず、「神は細部に宿る」を忘れない
27 731 2022.08.22 サイバー空間の安全に向けて: All for one, One for all
26 702 2022.01.31 サイバーセキュリティは空気のように社会全体に拡がる
25 678 2021.08.16 ティラノサウルスとスズメ
24 650 2021.02.01 データを科学的に分析する
23 627 2020.08.17 若者のサイバー犯罪を無くしたい。。。
22 600 2020.02.03 デジタルフォレンジックスと多様性
21 578 2019.08.26 未来を考えようと思うとき、人は過去を振り返る
20 551 2019.02.11 とらわれずに物事をみつめる
19 521 2018.07.09 AIは科学捜査を騙せるか?
18 493 2017.12.18 セキュリティ・デバイド?
17 474 2017.08.07 『デジタル・フォレンジック』という言葉を今更考える
16 451 2017.02.20 相手を知ることが重要
15 425 2016.08.15 本質を理解する
14 383 2015.10.12 名ばかりCSIRTで良いのか?
13 357 2015.04.13 IoT時代は明るいか暗いか
12 335 2014.11.03 頭を下げるのは社長です
11 308 2014.04.30 標的型攻撃には内部不正対応が重要?
10 286 2013.11.14 セキュリティガバナンスはできる範囲だけやればよいのか?
09 261 2013.05.23 セキュリティの基本はずっとかわっていない
08 240 2012.12.25 さらに組織化が進むサイバー攻撃集団
07 207 2012.05.10 外部から侵入されている想定で情報セキュリティを考える
06 173 2011.09.08 想定外に対応するのが危機管理ではないか
05 139 2011.01.13 データ分析を使った不正発見手法
04 131 2010.11.11 発見的統制の重要性
03 084 2009.12.10 クラウドコンピューティングがもたらす光と影
02 058 2009.06.11 不正をさせない
01 021 2008.09.25 ニーズとシーズ、目的と手段

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.02.24 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…

・2025.09.01 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 公正な司法におけるデジタル・フォレンジックスの役割

・2025.03.10 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 ものを分解すればわかるのか?「還元論的発想とシステム論的発想」

・2024.09.30 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「親分でまとまる集団とルールでまとまる集団とIDFに対するちょっとした提案」

・2024.01.30 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「気候風土と社会」

・2023.08.01 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「「国家安全保障戦略 ― 何をだれから守るのか? 国益 (National Interests) とは何か?」

・2023.01.31 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「「木を見て森を見ず」にならず、「神は細部に宿る」を忘れない」

・2022.08.22 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「サイバー空間の安全に向けて: All for one, One for all」

・2022.01.31 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「サイバーセキュリティは空気のように社会全体に拡がる」

・2021.08.17 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「ティラノサウルスとスズメ」

・2021.02.03 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「データを科学的に分析する」

・2020.08.19 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦

・2020.06.11 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦

 

 

 

 

| | Comments (0)

2026.03.02

論文 インテリジェントAI委任 (2026.02.12)

こんにちは、丸山満彦です。

AIエージェントが実装される社会に向けての論文という感じですかね...

いろいろと考えさせられますね... AI エージェントが高度化するほど、タスクの委任(delegation)は技術問題ではなく“組織設計”の問題になるということですかね...

委任の失敗は単なる特定のタスクの不達成ではなく、失敗の連鎖的な波及によりシステム全体の崩壊につながる可能性があるため、委任の設計には動的適応、信頼校正、監視、責任の明確化が不可欠であるとしていますね...

制度的な実装も必要ですが、技術的にも実行可能でなければならないし、経済的にも合理的でなければならない...

例えば、動的適応や、適時の信頼校正や監視も簡単ではないだろうし、実際は技術的な課題はあるように思うんですが、AIエージェントの問題はつながってしまえるだけに、社会に網の目のように広がってしまう前に、設計図を示しておかなければならないと思うんですよね...リスクを緩和させる機構がないままに社会に実装されるべきものではないという感じがしますよね...

 

Cournell University - arXiv

・2026.02.12 Intelligent AI Delegation

Intelligent AI Delegation  インテリジェントAI委任
AI agents are able to tackle increasingly complex tasks. To achieve more ambitious goals, AI agents need to be able to meaningfully decompose problems into manageable sub-components, and safely delegate their completion across to other AI agents and humans alike. Yet, existing task decomposition and delegation methods rely on simple heuristics, and are not able to dynamically adapt to environmental changes and robustly handle unexpected failures. Here we propose an adaptive framework for intelligent AI delegation - a sequence of decisions involving task allocation, that also incorporates transfer of authority, responsibility, accountability, clear specifications regarding roles and boundaries, clarity of intent, and mechanisms for establishing trust between the two (or more) parties. The proposed framework is applicable to both human and AI delegators and delegatees in complex delegation networks, aiming to inform the development of protocols in the emerging agentic web. AI エージェントは、ますます複雑化するタスクに取り組むことができる。より野心的な目標を達成するためには、AI エージェントは、問題を管理可能なサブコンポーネントに意味のある形で分解し、その完了を他の AI エージェントや人間にも安全に委任できる必要がある。しかし、既存のタスク分解および委任の手法は、単純なヒューリスティックに依存しており、環境の変化に動的に適応したり、予期せぬ障害に堅牢に対処したりすることはできない。 ここでは、インテリジェントな AI 委任のための適応型フレームワークを提案する。これは、タスクの割り当てを含む一連の決定であり、権限、責任、説明責任、役割と境界に関する明確な仕様、意図の明確性、および 2 つ(またはそれ以上)の当事者間の信頼を確立するためのメカニズムも組み込まれている。提案されたフレームワークは、複雑な委任ネットワークにおける人間と AI の委任者と被委任者の両方に適用可能であり、新たなエージェントウェブにおけるプロトコルの開発に情報を提供することを目的としている。

 

・[PDF

20260302-03046

・[DOCX][PDF] 仮訳

 

1. Introduction 1. 序論
2. Foundations of Intelligent Delegation 2. インテリジェントな委任の基礎
2.1. Definition 2.1. 定義
2.2. Aspects of Delegation 2.2. 委任の側面
2.3. Delegation in Human Organizations 2.3. 人間組織における委任
3. Previous Work on Delegation 3. 委任に関する先行研究
4. Intelligent Delegation: A Framework 4. インテリジェント委任:フレームワーク
4.1. Task Decomposition 4.1. タスク分解
4.2. Task Assignment 4.2. タスク割り当て
4.3. Multi-objective Optimization 4.3. 多目的最適化
4.4. Adaptive Coordination 4.4. 適応的調整
4.5. Monitoring 4.5. モニタリング
4.6. Trust and Reputation 4.6. 信頼と評判
4.7. Permission Handling 4.7. 権限処理
4.8. Verifiable Task Completion 4.8. 検証可能なタスク完了
4.9. Security 4.9. セキュリティ
5. Ethical Delegation 5. 倫理的委任
5.1. Meaningful Human Control 5.1. 意味のある人間の制御
5.2. Accountability in Long Delegation Chains 5.2. 長い委任チェーンにおける説明責任
5.3. Reliability and Efficiency 5.3. 信頼性と効率性
5.4. Social Intelligence 5.4. 社会的知性
5.5. User Training 5.5. ユーザートレーニング
5.6. Risk of De-skilling 5.6. 技能低下のリスク
6. Protocols 6. プロトコル
6.1. Towards Delegation-centered Protocols 6.1. 委任中心プロトコルに向けて
7. Conclusion 7. 結論
References 参考文献

 

キセルです...序論と結論 (^^)

1. Introduction 1. 序論
As advanced AI agents evolve beyond queryresponse models, their utility is increasingly defined by how effectively they can decompose complex objectives and delegate sub-tasks. This coordination paradigm underpins applications ranging from personal use, where AI agents can act as personal assistants (Gabriel et al., 2024), to commercial, enterprise deployments where AI agents can provide support and automate workflows (Huang and Hughes, 2025; Shao et al., 2025; Tupe and Thube, 2025). Large language models (LLMs) have already shown promise in robotics (Li et al., 2025a; Wang et al., 2024a), by enabling more interactive and accurate goal specification and feedback. Recent proposals have also highlighted the possibility of large-scale AI agent coordination in virtual economies (Tomasev et al., 2025). Modern agentic AI systems implement complex control flows across differentiated sub-agents, coupled with centralized or decentralized orchestration protocols (Hong et al., 2023; Rasal and Hauer, 2024; Song et al., 2025; Zhang et al., 2025a). This can already be seen as a sort of a microcosm of task decomposition and delegation, where the process is hard-coded and highly constrained. Managing dynamic web-scale interactions requires us to think beyond the approaches that are currently employed by more heuristic multi-agent frameworks. 高度なAIエージェントが問い合わせ応答モデルを超えて進化するにつれ、その有用性は複雑な目標をいかに効果的に分解し、サブタスクを委任できるかで定義されるようになってきている。この調整パラダイムは、AIエージェントがパーソナルアシスタントとして機能する個人利用(Gabriel et al., 2024)から、AIエージェントがサポートを提供しワークフローを自動化する商業・企業導入(Huang and Hughes, 2025; Shao et al., 2025; Tupe and Thube, 2025)。大規模言語モデル(LLM)は、より対話的で正確な目標指定とフィードバックを可能にすることで、ロボット工学分野ですでに有望性を示している(Li et al., 2025a; Wang et al., 2024a)。 最近の提案では、仮想経済における大規模AIエージェントの協調の可能性も強調されている(Tomasev et al., 2025)。現代のエージェント型AIシステムは、差別化されたサブエージェント間で複雑な制御フローを実装し、集中型または分散型のオーケストレーションプロトコルと連動している(Hong et al., 2023; Rasal and Hauer, 2024; Song et al., 2025; Zhang et al., 2025a)。これは既に、プロセスがハードコード化され高度に制約されたタスク分解と委任の縮図と見なせる。動的なウェブ規模の相互作用を管理するには、よりヒューリスティックなマルチエージェントフレームワークが現在採用している手法を超えた思考が求められる。
Delegation (Castelfranchi and Falcone, 1998) is more than just task decomposition into manageable sub-units of action. Beyond the creation of sub-tasks, delegation necessitates the assignment of responsibility and authority (Mueller and Vogelsmeier, 2013; Nagia, 2024) and thus implicates accountability for outcomes. Delegation thus involves risk assessment, which can be moderated by trust (Griffiths, 2005). Delegation further involves capability matching and continuous performance monitoring, incorporating dynamic adjustments based on feedback, and ensuring completion of the distributed task under the specified constraints. Current approaches tend to fail to account for these factors, relying more on heuristics and/or simpler parallelization. This may be sufficient for early prototypes, but real world AI deployments need to move beyond ad hoc, brittle, and untrustworthy delegation. There is a pressing need for systems that can dynamically adapt to changes (Acharya et al., 2025; Hauptman et al., 2023) and recover from errors. The absence of adaptive and robust deployment frameworks remains one of the key limiting factors for AI applications in high-stakes environments. 委任(Castelfranchi and Falcone, 1998)は、単にタスクを管理可能なサブユニットに分解するだけのものではない。サブタスクの作成に加えて、委任には責任と権限の割り当てが必要であり(Mueller and Vogelsmeier, 2013; Nagia, 2024)、その結果に対する説明責任も伴う。 したがって、委任にはリスク評価が伴い、それは信頼によって緩和される(Griffiths, 2005)。 委任にはさらに、能力のマッチングと継続的なパフォーマンスのモニタリング、フィードバックに基づく動的な調整の組み込み、指定された制約条件の下での分散タスクの完了の確保も伴う。現在のアプローチは、これらの要素を考慮に入れず、よりヒューリスティックや単純な並列化に依存する傾向がある。これは初期のプロトタイプでは十分かもしれないが、現実世界での AI の導入には、その場しのぎで脆弱、信頼性の低い委任を超えるものが必要だ。 変化に動的に適応し(Acharya et al., 2025; Hauptman et al., 2023)、エラーから回復できるシステムが緊急に必要とされている。適応性があり堅牢な導入フレームワークがないことは、リスクの高い環境における AI アプリケーションの重要な制限要因の一つであり続けている。
To fully utilize AI agents, we need intelligent delegation: a robust framework centered around clear roles, boundaries, reputation, trust, transparency, certifiable agentic capabilities, verifiable task execution, and scalable task distribution. Here we introduce an intelligent task delegation framework aimed at addressing these limitations, informed by historical insights from human organizations, and grounded in key agentic safety requirements. AIエージェントを最大限に活用するには、知的な委任が必要だ。明確な役割、境界、評判、信頼、透明性、証明可能なエージェント能力、検証可能なタスク実行、スケーラブルなタスク分配を中核とする堅牢な枠組みである。ここでは、これらの制限に対処することを目的とした知的なタスク委任フレームワークを紹介する。これは人間の組織からの歴史的知見に学び、主要なエージェント安全要件に基づいている。
... ...
7. Conclusion 7. 結論
Significant components of the future global economy will likely be mediated by millions of specialized AI agents, embedded within firms, supply chains, and public services, handling everything from routine transactions to complex resource allocation. However, the current paradigm of adhoc, heuristic-based delegation is insufficient to support this transformation. To safely unlock the potential of the agentic web, we must adopt a dynamic and adaptive framework for intelligent delegation, that prioritizes verifiable robustness and clear accountability alongside computational efficiency. 将来のグローバル経済の重要な構成要素は、企業、サプライチェーン、公共サービスに組み込まれた数百万の専門AIエージェントによって仲介され、日常的な取引から複雑な資源配分まであらゆる業務を処理するようになるだろう。しかし、現在のアドホックでヒューリスティックに基づく委任のパラダイムでは、この変革を支えるには不十分である。エージェントウェブの可能性を安全に解き放つためには、計算効率と並行して検証可能な堅牢性と明確な説明責任を優先する、動的で適応的な知的委任の枠組みを採用しなければならない。
When an AI agent is faced with a complex objective whose completion requires capabilities and resources beyond its own means, this agent must assume the role of a delegator within the intelligent task delegation framework. This delegator would subsequently decompose this complex task into manageable subcomponents that can be mapped onto the capabilities available on the agentic market, at the level of granularity that lends itself to high verifiability. The task allocation would be decided based on the incoming bids, and a number of key considerations including trust and reputation, monitoring of dynamic operational states, cost, efficiency, and others. Tasks with high criticality and low reversibility may require further structured permissions and tiered approvals, with a clear structure of accountability, and under appropriate human oversight as defined by the applicable institutional frameworks. AIエージェントが、自らの能力や資源を超えた複雑な目標に直面した場合、そのエージェントは知的タスク委任フレームワーク内で委任者の役割を担わねばならない。この委任者は、複雑なタスクを管理可能なサブコンポーネントに分解し、高い検証可能性をもたらす粒度レベルで、エージェント市場で利用可能な能力にマッピングする。 タスクの割り当ては、信頼性と評判、動的な運用状態の監視、コスト、効率性など、複数の重要要素と入札内容に基づいて決定される。重要度が高く可逆性が低いタスクには、適用される制度的枠組みで定義された適切な人的監督のもと、明確な説明責任構造を備えた構造化された権限付与と階層的な承認プロセスが追加で必要となる場合がある。
At web-scale, safety and accountability cannot be an afterthought. They need to be baked into the operational principles of virtual agentic economies, and act as central organizing principles of the agentic web. By incorporating safety at the level of delegation protocols, we would be aiming to avoid cumulative errors and cascading failures, and attain the ability to react to malicious or misaligned agentic or human behavior rapidly, limiting the adverse consequences. What we propose is ultimately a paradigm shift from largely unsupervised automation to verifiable, intelligent delegation, that allows us to safely scale towards future autonomous agentic systems, while keeping them closely tethered to human intent and societal norms. ウェブ規模において、安全性と説明責任は後付けではならない。これらは仮想エージェント経済の運用原則に組み込まれ、エージェントウェブの中核的組織原理として機能する必要がある。委任プロトコルレベルで安全性を組み込むことで、累積的エラーや連鎖的障害を回避し、悪意ある/不整合なエージェント行動や人間行動に迅速に対応し、悪影響を限定する能力の獲得を目指す。 我々が提案するのは、最終的には、ほとんど監督されない自動化から検証可能な知的な委任へのパラダイムシフトである。これにより、将来の自律的なエージェントシステムに向けて安全にスケールアップしつつ、それらを人間の意図や社会的規範に緊密に結びつけた状態を維持できる。

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 スペイン データ保護庁 エージェント型人工知能に関するガイド (2026.02.18)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

| | Comments (0)

論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

こんにちは、丸山満彦です。

MCP、A2A、Agora、ANPを比較分析した、AIエージェントプロトコル向けセキュリティ脅威モデリングについての論文の紹介です。

AI エージェント時代が来ますよね。。。その時AIエージェントの基盤となるプロトコルは、そもそも「設計レベルでの安全性」を確立しなければ、社会全体の信頼性が根底から揺らぎますよね...

最近では、MCP、A2A、Agora、ANPといったAIエージェントプロトコルが急速に普及しつつありますが、認証、サプライチェーン、運用整合性といった基本的な安全要件が体系的に検証されているわけではないかもですね...

その結果、新たな攻撃面を生まれているように思います...

これは単なる実装上の問題ではなくて、プロトコルそのものが安全性を担保する仕組みを持たない限り、どんなに機能的に高度なエージェントであっても安全に運用できないことになりますよね...

したがって、AIエージェントの時代の向けて、プロトコルを跨いだ脅威モデル、強制的な検証、署名、命名空間管理、ライフサイクル全体を対象としたリスク評価といった「セキュリティインフラの標準化」が必要となりますよね...

今後どうなりますかね...

 

ちなみにこの論文での分類...

脅威

Security Threats in AI Agent Protocols AIエージェントプロトコルにおけるセキュリティ脅威    
Authentication & Access Control  認証とアクセス制御 Lack of authentication 認証の欠如
Weak or limited access control 脆弱または限定的なアクセス制御
Naming Collision & Impersonation 命名衝突となりすまし
Absence of limitations on token lifetime トークン有効期間の制限の欠如
Insufficiently granular token scopes 不十分なトークンスコープの細分化
Supply Chain & Ecosystem Integrity サプライチェーンとエコシステムの完全性 Installer Spoofing インストーラー偽装
Code Injection and Backdoors コードインジェクションとバックドア
Tool Poisoning ツールポイズニング
Rug Pulls ラグプル
Operational Integrity & Reliability 運用上の完全性と信頼性 Slash Command Overlap スラッシュコマンドの重複
Sandbox Escape サンドボックス脱走
Shadowing Attacks シャドーイング攻撃
Post-update Privilege Persistence 更新後の特権永続化
Re-deployment of Vulnerable Versions 脆弱なバージョンの再デプロイ
Configuration Drift 設定ドリフト

 

プロトコル設計とアーキテクチャに由来する潜在的脅威

1. Authentication & Access Control 1. 認証とアクセス制御 1. Replay Attack 1. リプレイ攻撃
2. Token Scope Escalation 2. トークンスコープの昇格
3. Privilege Escalation 3. 権限昇格
4. Identity Forgery and Impersonation 4. 身元偽造となりすまし
5. Sybil Attacks 5. シビル攻撃
6. Cross-Vendor Trust Boundary Exploitation 6. クロスベンダー信頼境界の悪用
2. Supply Chain & Ecosystem Integrity 2. サプライチェーンとエコシステムの完全性 1. Supply-Chain Compromise 1. サプライチェーン侵害
2. PD Spoofing and Repository Poisoning 2. PDスプーフィングとリポジトリポイズニング
3. Protocol Fragmentation Risk 3. プロトコル断片化のリスク
4. Version Rollback 4. バージョンのロールバック
5. Onboarding Exploitation 5. オンボーディングの悪用
3. Operational Integrity & Reliability 3. 運用上の完全性と信頼性 1. Cross-Protocol Interaction Risks 1. プロトコル間相互作用リスク
2. Cross-protocol confusion attacks 2. プロトコル間混同攻撃
3. Context Explosion and Resource Exhaustion 3. コンテキスト爆発とリソース枯渇
4. Intent Deception 4. 意図の欺瞞
5. Collusion and Free-Riding 5. 共謀とフリーライダー
6. Semantic Drift Exploitation 6. 意味的ドリフトの悪用

 

Cournell University - arXiv

・2026.02.11 Security Threat Modeling for Emerging AI-Agent Protocols: A Comparative Analysis of MCP, A2A, Agora, and ANP

Security Threat Modeling for Emerging AI-Agent Protocols: A Comparative Analysis of MCP, A2A, Agora, and ANP 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、アゴラ、ANPの比較分析
The rapid development of the AI agent communication protocols, including the Model Context Protocol (MCP), Agent2Agent (A2A), Agora, and Agent Network Protocol (ANP), is reshaping how AI agents communicate with tools, services, and each other. While these protocols support scalable multi-agent interaction and cross-organizational interoperability, their security principles remain understudied, and standardized threat modeling is limited; no protocol-centric risk assessment framework has been established yet. This paper presents a systematic security analysis of four emerging AI agent communication protocols. First, we develop a structured threat modeling analysis that examines protocol architectures, trust assumptions, interaction patterns, and lifecycle behaviors to identify protocol-specific and cross-protocol risk surfaces. Second, we introduce a qualitative risk assessment framework that identifies twelve protocol-level risks and evaluates security posture across the creation, operation, and update phases through systematic assessment of likelihood, impact, and overall protocol risk, with implications for secure deployment and future standardization. Third, we provide a measurement-driven case study on MCP that formalizes the risk of missing mandatory validation/attestation for executable components as a falsifiable security claim by quantifying wrong-provider tool execution under multi-server composition across representative resolver policies. Collectively, our results highlight key design-induced risk surfaces and provide actionable guidance for secure deployment and future standardization of agent communication ecosystems. モデルコンテキストプロトコル(MCP)、Agent2AgentA2A)、Agora、エージェントネットワークプロトコル(ANP)を含むAIエージェントコミュニケーションプロトコルの急速な発展は、AIエージェントがツールやサービス、そして相互にコミュニケーションする方法を再構築している。 これらのプロトコルはスケーラブルなマルチエージェント相互作用や組織横断的な相互運用性を支える一方で、そのセキュリティ原則は十分に研究されておらず、標準化された脅威モデリングも限定的である。プロトコル中心のリスクアセスメントフレームワークは未だ確立されていない。本論文は、4つの新興AIエージェントコミュニケーションプロトコルに対する体系的なセキュリティ分析を提示する。まず、プロトコル固有およびプロトコル横断的なリスク表面を識別するため、プロトコルアーキテクチャ、信頼前提、相互作用パターン、ライフサイクル挙動を検証する構造化された脅威モデリング分析を開発する。 次に、定性的リスクアセスメントフレームワークを導入する。これは12のプロトコルレベルリスクを識別し、発生確率・影響度・プロトコル全体のリスクを体系的に評価することで、作成・運用・更新フェーズにおけるセキュリティ態勢を評価する。これにより安全な導入と将来の標準化に向けた示唆を得る。 第三に、MCPに関する測定主導型ケーススタディを提供する。これは、代表的な解決者ポリシーを跨いだマルチサーバー構成下での不正プロバイダーツール実行を定量化することで、実行可能コンポーネントに対する必須検証/認証の欠落リスクを反証可能なセキュリティ主張として形式化するものである。総合的に、我々の結果は設計に起因する主要なリスク表面を浮き彫りにし、エージェントコミュニケーションエコシステムの安全な展開と将来の標準化に向けた実践的な指針を提供する。

 

・[PDF]

20260301-151317

・[DOCX][PDF] 仮訳

 

・[HTML]

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 スペイン データ保護庁 エージェント型人工知能に関するガイド (2026.02.18)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

 

| | Comments (0)

2026.02.24

世界61のデータ保護機関がAI生成画像とプライバシー保護に関する共同声明を発表 (2026.02.23)

こんにちは、丸山満彦です。

61のデータ保護機関がAI生成画像とプライバシー保護に関する共同声明を発表していますね...

AIが生成する人物画像・動画、とくに本人の同意なく作られるリアルなイメージは、世界的に深刻なプライバシー侵害と人権侵害を引き起こしていて、各国の規制当局は強い危機感を共有している。規制当局としては、企業に対して適切な対応をするように国際的に協調して示す文書という感じですかね...

AIで画像を作って楽しむだけでなく、そのAI画像がその後どのような被害を引き起こしうるのかも考えることが重要ですよね...作成者の問題だけでなく、それを拡散する人、そして拡散を支えるプラットフォーム事業者も「掲示板のような中立的な場にすぎない」として責任を免れることは難しくなってきているように思います。欧州では、DSAで有害コンテンツの削除義務がありますしね...

ところで、61のデータ機関についてですが...

国のなかでも州等により独自に署名しているところもあり、また、国では署名していないが、州等で署名しているところもあり、61カ国というわけではないです...

署名者で先進国では

  • ・欧州EDPB
  • ・欧州機関EDPS
  • ・フランス
  • ・イタリア
  • ・ドイツ
  • ・英国
  • ・カナダ
  • ・ドイツ

といっところですかね。

アジア・太平洋では、

  • ・韓国
  • ・シンガポール
  • ・香港(PRC/CCPは署名していないですね...)
  • ・ニュージーランド
  • ・クイーンズ州(オーストラリア)

中南米、アフリカからもいくつか署名しています...

 

米国、日本は署名していませんね...

 

欧州EDPSのウェブページから...

EDPS

・2026.02.23 Joint Statement on AI-Generated Imagery and the Protection of Privacy

・[PDF]

20260224-63751

 

Joint Statement on AI-Generated Imagery and the Protection of Privacy AI生成画像とプライバシー保護に関する共同声明
23-Feb-26 2026年2月23日
The co-signatories below are issuing this Joint Statement in response to serious concerns about artificial intelligence (AI) systems that generate realistic images and videos depicting identifiable individuals without their knowledge and consent. 下記署名団体は、本人の知らぬ間に同意なく特定可能な個人を描写する現実的な画像・動画を生成する人工知能(AI)システムに対する深刻な懸念に応え、本共同声明を発表する。
While AI can bring meaningful benefits for individuals and society, recent developments - particularly AI image and video generation integrated into widely accessible social media platforms - have enabled the creation of non-consensual intimate imagery, defamatory depictions, and other harmful content featuring real individuals. We are especially concerned about potential harms to children and other vulnerable groups, such as cyber-bullying and/or exploitation. AIは個人や社会に有意義な利益をもたらし得るが、最近の進展、特に広く利用可能なソーシャルメディアプラットフォームに統合されたAI画像・動画生成技術は、実在の人物を題材とした同意のない性的画像、名誉毀損的な描写、その他の有害なコンテンツの作成を可能にした。特に、サイバーいじめや搾取など、子どもやその他の脆弱なグループへの潜在的な危害を懸念している。
Expectations for Organisations 組織に対する期待
The co-signatories remind all organisations developing and using AI content generation systems that such systems must be developed and used in accordance with applicable legal frameworks, including data protection and privacy rules. 共同署名団体は、AIコンテンツ生成システムを開発・利用する全ての組織に対し、データ保護やプライバシー規則を含む適用される法的枠組みに従ってシステムを開発・利用すべきであることを改めて指摘する。
We also highlight that the creation of non-consensual intimate imagery can constitute a criminal offence in many jurisdictions. また、同意を得ていない親密な画像の作成は、多くの法域において刑事犯罪を構成し得ることを強調する。
Whilst specific legal requirements vary by jurisdiction, fundamental principles should guide all organisations developing and using AI content generation systems, including: 具体的な法的要件は管轄区域によって異なるが、AIコンテンツ生成システムを開発・利用する全ての組織は、以下の基本原則に則るべきである:
• Implement robust safeguards to prevent the misuse of personal information and generation of non-consensual intimate imagery and other harmful materials, particularly where children are depicted. • 個人情報の悪用や、特に児童が描写された非同意の性的画像・その他の有害素材の生成を防ぐための強固な安全対策を実装すること。
• Ensure meaningful transparency about AI system capabilities, safeguards, acceptable uses and the consequences of misuse. • AIシステムの能力、安全対策、許容される利用方法、悪用の結果について実質的な透明性を確保すること。
• Provide effective and accessible mechanisms for individuals to request the removal of harmful content involving personal information and respond rapidly to such requests. • 個人情報が含まれる有害コンテンツの削除を個人が請求できる効果的かつ利用しやすい仕組みを提供し、そのような請求に迅速に対応すること。
• Address specific risks to children through implementing enhanced safeguards and providing clear, age-appropriate information to children, parents, guardians and educators. • 強化された安全対策の実施と、子ども、保護者、教育者に対する明確で年齢に応じた情報の提供を通じて、子どもに対する特定のリスクに対処すること。
Coordinated Response 協調的対応
The harms arising from non-consensual generation of intimate, defamatory, or otherwise harmful content depicting real individuals are significant and call for urgent regulatory attention. 実在の人物を描写した、同意のない性的、誹謗中傷的、その他の有害コンテンツの生成から生じる害は甚大であり、緊急の規制上の対応を必要とする。
To encourage the development of innovative and privacy-protective AI, the co-signatories of this statement are united in expressing their concern about the potential harms from the misuse of AI content generation systems. The co-signatories aim to share information on their approaches to addressing these concerns that can include enforcement, policy and education, as appropriate and to the extent that such sharing is consistent with applicable laws. This reflects our shared commitment and joint effort in addressing a global risk. 革新的かつプライバシー保護型のAI開発を促進するため、本声明の共同署名者は、AIコンテンツ生成システムの悪用による潜在的な危害について懸念を表明する。共同署名者は、適用法に合致する範囲で、執行、政策、教育など適切な手段による懸念への対応アプローチに関する情報を共有することを目指す。これは、世界的なリスクに対処する我々の共通の決意と共同の取り組みを反映している。
Conclusion 結論
We call on organisations to engage proactively with regulators, implement robust safeguards from the outset, and ensure that technological advancement does not come at the expense of privacy, dignity, safety, and other fundamental rights - particularly for the most vulnerable of our global society.  我々は、各組織が規制当局と積極的に連携し、当初から強固な保護措置を実施し、特にグローバル社会で最も脆弱な立場にある人々について、技術の進歩がプライバシー、尊厳、安全、その他の基本的権利を犠牲にして行われないよう確保することを求める。
Signatories 署名者
This Joint Statement has been coordinated by the Global Privacy Assembly's (GPA) International Enforcement Cooperation Working Group (IEWG) and is signed by the following co-signatories: この共同声明は、グローバルプライバシーアセンブリ(GPA)の国際執行協力ワーキンググループ(IEWG)によって調整され、以下の共同署名者によって署名されている。
Albania アルバニア
Information and Data Protection Office of the Republic of Albania アルバニア共和国情報・データ保護局
Andorra アンドラ
Andorran Data Protection Agency アンドラデータ保護庁
Argentina アルゼンチン
Agency of Access to Public Information – DPA Argentina 公共情報アクセス庁 – DPA アルゼンチン
Autonomous City of Buenos Aires (Argentina) ブエノスアイレス自治市(アルゼンチン
Ombudsman’s Office of the Autonomous City of Buenos Aires ブエノスアイレス自治市オンブズマン事務所
State of Queensland (Australia) クイーンズランド州(オーストラリア)
Office of the Information Commissioner, Queensland クイーンズランド州情報コミッショナー事務所
Basque (Spain) バスク(スペイン
Basque Data Protection Authority バスクデータ保護機関
Belgium ベルギー
Data Protection Authority データ保護機関
Bermuda バミューダ
Office of the Privacy Commissioner of Bermuda バミューダプライバシーコミッショナー事務所
Brazil ブラジル
National Data Protection Agency 国家データ保護機関
Bulgaria ブルガリア
Commission for Personal Data Protection of the Republic of Bulgaria ブルガリア共和国個人データ保護委員会
Burkina Faso ブルキナファソ
Commission for Information Technology and Freedoms 情報技術・自由委員会
Canada カナダ
Office of the Privacy Commissioner of Canada  カナダプライバシーコミッショナー事務所
Province of Alberta (Canada) アルバータ州(カナダ
Office of the Information and Privacy Commissioner of Alberta  アルバータ州情報・プライバシーコミッショナー事務所
Province of British Columbia (Canada) ブリティッシュコロンビア州 (カナダ)
Office of the Information and Privacy Commissioner for British Columbia  ブリティッシュコロンビア州情報・プライバシー保護庁
Province of Newfoundland and Labrador (Canada) ニューファンドランド・ラブラドール州(カナダ)
Office of the Information and Privacy Commissioner for Newfoundland and Labrador  ニューファンドランド・ラブラドール州情報・プライバシー保護庁
Province of Quebec (Canada) ケベック州(カナダ)
Commission on Access to Information of Quebec ケベック州情報アクセス委員会
Republic of Cabo Verde カーボベルデ共和国
National Commission of Data Protection 国家データ保護委員会
Catalonia (Spain) カタルーニャ(スペイン)
Catalan Data Protection Authority カタルーニャデータ保護庁
Colombia コロンビア
Superintendence of Industry and Commerce of Colombia コロンビア産業商業監督庁
Croatia クロアチア
Croatian Personal Data Protection Agency クロアチア個人情報保護庁
Cyprus キプロス
Commissioner for Personal Data Protection, Cyprus キプロス個人情報保護委員会
Ecuador エクアドル
Superintendence of Personal Data Protection of Ecuador エクアドル個人情報保護監督庁
European Data Protection Board 欧州データ保護委員会
European Data Protection Board 欧州データ保護委員会
European Data Protection Supervisor 欧州データ保護監督官
European Data Protection Supervisor 欧州データ保護監督官
France フランス
National Commission for Information Technology and Civil Liberties 情報技術・市民的自由に関する国家委員会
Germany ドイツ
Federal Commissioner for Data Protection and Freedom of Information 連邦データ保護・情報自由監督官
Ghana ガーナ
Data Protection Commission Ghana ガーナデータ保護委員会
Gibraltar ジブラルタル
Gibraltar Regulatory Authority ジブラルタル規制当局
Bailiwick of Guernsey ガーンジー島
Office of the Data Protection Authority データ保護庁
Hong Kong (SAR), China 香港(特別行政区)、中国
Office of the Privacy Commissioner for Personal Data  個人データ保護委員会
Iceland アイスランド
The Icelandic Data Protection Authority アイスランドデータ保護庁
Ireland アイルランド
Data Protection Commission データ保護委員会
Isle of Man マン島
Isle of Man Information Commissioner マン島情報コミッショナー
Israel イスラエル
Israeli Privacy Protection Authority イスラエル個人情報保護庁
Italy イタリア
Italian Data Protection Authority イタリアデータ保護庁
Bailiwick of Jersey ジャージー島
Jersey Office of the Information Commissioner  ジャージー島情報コミッショナー事務所
Kenya ケニア
Office of the Data Protection Commissioner  データ保護コミッショナー事務所
Kosovo コソボ
Information and Privacy Agency 情報・プライバシー庁
Malta マルタ
Office of the Information and Data Protection Commissioner of Malta マルタ情報・データ保護コミッショナー事務所
Mauritius モーリシャス
Mauritius Data Protection Office モーリシャスデータ保護事務所
State of Mexico and Municipalities (Mexico) メキシコ州及び自治体(メキシコ)
Institute for Transparency, Access to Public Information and Personal Data Protection of the State of Mexico and Municipalities メキシコ州及び自治体透明性・公共情報アクセス・個人情報保護研究所
State of Nuevo León (Mexico) ヌエボ・レオン州(メキシコ)
Institute for Transparency, Access to Public Information and Personal Data Protection of Nuevo León ヌエボ・レオン州情報公開・個人情報保護研究所
Mexico メキシコ
Personal Data Protection Unit of the Anti-Corruption and Good Government Secretariat  腐敗防止・良政省 個人情報保護ユニット
Monaco モナコ
Personal Data Protection Authority 個人情報保護庁
Netherlands オランダ
Dutch Data Protection Authority オランダ個人情報保護庁
New Zealand ニュージーランド
Office of the Privacy Commissioner, New Zealand  ニュージーランド個人情報保護委員会
Nigeria ナイジェリア
Nigeria Data Protection Commission ナイジェリア個人情報保護委員会
Norway ノルウェー
Norwegian Data Protection Authority ノルウェー個人情報保護庁
Panama パナマ
The National Authority for Transparency and Access to Information 国家透明性・情報アクセス庁
Peru ペルー
National Authority for the Protection of Personal Data 国家個人情報保護庁
Philippines フィリピン
National Privacy Commission, Philippines 国家プライバシー委員会
Poland ポーランド
Personal Data Protection Office 個人情報保護局
Portugal ポルトガル
Portuguese Data Protection Supervisory Authority ポルトガルデータ保護監督庁
Singapore シンガポール
Personal Data Protection Commission of the Republic of Singapore  シンガポール共和国個人情報保護委員会
Slovenia スロベニア
Information Commissioner of the Republic of Slovenia スロベニア共和国情報コミッショナー
Republic of Korea 大韓民国
Personal Information Protection Commission  個人情報保護委員会
Switzerland スイス
Federal Data Protection and Information Commissioner 連邦データ保護・情報コミッショナー
Emirate of Abu Dhabi (United Arab Emirates) アブダビ首長国(アラブ首長国連邦)
ADGM Office of Data Protection ADGMデータ保護局
Emirate of Dubai (United Arab Emirates) ドバイ首長国(アラブ首長国連邦)
Dubai International Financial Centre Authority ドバイ国際金融センター庁
United Kingdom イギリス
UK Information Commissioner’s Office 英国情報コミッショナー事務所
Uruguay ウルグアイ
Regulatory and Control Unit for Personal Data 個人情報規制・管理ユニット

 

 

| | Comments (0)

OECD AI 指標 (2026.02.19)

こんにちは、丸山満彦です。

OECDが「責任ある人工知能のためのデュー・ディリジェンス指針」と「OECD.AI 指標」を公表しています。前者は企業向け、後者は政府向けといった位置づけになるかと思います。

今回は、後者の「AI指標」...

OECD AI指標は、OECD AI 推奨事項の実施状況を定量的かつ比較可能な形で可視化し、AIガバナンスと政策形成を支える「測定フレームワーク」を提供することにあるようです...

このAI指標は、5つのカテゴリー、その下に3つずつ計15のサブカテゴリーに分けられ、それぞれに指標を定めています...

  Components   Sub-component   
1 AI Research and Development AI研究開発 AI innovations  AI研究成果 
AI models development  AIイノベーション 
AI models development  AIモデルの開発数 
2 Jobs and Skills AI基盤整備 Accessibility  アクセシビリティ 
Data  データ 
Compute infrastructure  計算インフラ 
3 AI Policy Environment AI政策環境 Government use  政府による利用 
Investment  投資 
AI governance structures  AIガバナンス構造 
4  Jobs and Skills 雇用とスキル Skill attraction  スキル誘致 
Skill supply  スキル供給 
Knowledge  知識 
5 International Co-operation 国際協力 International AI initiatives  国際的なAIイニシアチブ 
AI research co-operation  AI研究協力 
International AI standards  国際的なAI標準 

 

 

  Components Sub-component  Indicators  Data Source 
1 AI Research and Development AI research output  Number of high-quality AI research publications  OECD.AI: Scopus/Elsevier
OECD.AI: OpenAlex 
AI innovations  Number of AI patent applications  OECD (2025[16]) 
AI models development  Number of AI models developed OECD.AI: AIKoD
Number of large-scale AI models developed  Epoch AI (2025[17]) 
2  AI Enabling Infrastructure Accessibility  Fibre connections per 100 inhabitantsi OECD Broadband statistics 
Fixed subscriptions above 100mbps over total advertised fixed broadband plans 
Data  Open datasets available by language OECD.AI: Hugging Face
Availability of high-value datasets OECD (2026[19]) 
Accessibility of high-value datasets  
Availability of an open data strategy   
Compute infrastructure  Capacity of supercomputers TOP500 list (2025[20])
Strategic approach to cloud infrastructure OECD (2026[19]) 
GPU clusters  Epoch AI (Pilz et al., n.d.[21]) 
3 AI Policy Environment Government use  Use of AI by government bodies  OECD (2026[19]) 
Investment  Venture capital investments in AI  OECD.AI: Preqin 
AI governance structures  AI regulatory sandboxes OECD.AI
Membership to the International Network of AI Safety Institutes OECD.AI
Existence of National Strategy on AI  OECD.AI 
4  Jobs and Skills Skill attraction  Net AI talent migration  OECD.AI: LinkedIn 
Skill supply  AI talent concentration  OECD.AI: LinkedIn 
Knowledge  Number of high impact AI software projects OECD.AI: GitHub
Awareness of AI concepts  OECD.AI: Google Trends 
5 International Co-operation International AI initiatives  Legally binding instruments OECD.AI: Policy Navigator 
Voluntary multilateral initiatives
Non-binding declarations and political commitments 
AI research co-operation  Number of research papers in AI with cross-country collaboration  OECD.AI: Elsevier/Scopus 
International AI standards  Participation in international standardisation committees for AI  ISO/IEC JTC 1/SC 42 

 

2024年に調査した結果...の国別比較...G7に印をつけ、日本のところに線をひいたもの...

1_20260223111101

日本は、G7では、6位(7位はイタリア)。R&DとAI政策環境の点が相対的に低いように見えますね。。。

 

● OECD

・2026.02.19 The OECD.AI Index

Abstract 概要
The OECD.AI Index provides governments with a robust framework to measure national AI capabilities and track progress in implementing the OECD AI Recommendation. Using a composite measurement framework, the Index combines existing AI-specific indicators from the OECD.AI Policy Observatory with newly developed metrics to provide a holistic view of national AI ecosystems. 国政府に対し、国家のAI能力を測定し、OECD AI勧告の実施進捗を追跡するための強固な枠組みを提供する。複合測定枠組みを用い、本インデックスはOECD.AI政策観測所が持つ既存のAI特化指標と新たに開発された指標を組み合わせ、国家のAIエコシステムを包括的に把握する視座を提供する。

・[PDF]

20260223-113014

・[DOCX][PDF] 仮訳

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.02.23 OECD 責任ある人工知能のためのデュー・ディリジェンス指針 (2026.02.19)

 

| | Comments (0)

より以前の記事一覧