2026.02.13

米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

こんにちは、丸山満彦です。

NISTが、ソフトウェアとAIエージェントのID認証・認可の普及促進という文書を公表し、意見募集をしていますね...

AIエージェントは自律的に行動し、複数のデータ源やツールにアクセスするため、従来のソフトウェアよりもリスクが大きくなりますよね...

ということで、AIエージェントを安全に企業利用するためには、人間と同様に“識別・認証・認可”の枠組みを適用し、標準化された方法で管理する必要がありますよね...

そのため、OAuth、OIDC、SPIFFE、SCIM、NGACなど既存の標準をどう適用し、どこを拡張すべきかを明確することが重要ということで、この文書です...

 

● NIST 

発表...

・2026.02.05 New Concept Paper on Identity and Authority of Software Agents

New Concept Paper on Identity and Authority of Software Agents ソフトウェアエージェントのアイデンティティと認可に関する新たな概念文書
The NIST National Cybersecurity Center of Excellence is interested in launching a project to demonstrate how identity standards and best practices can be applied to software agents, with a focus on agentic AI applications. 米国国立標準技術研究所(NIST)国立サイバーセキュリティ・センター・オブ・エクセレンスは、エージェント型AIアプリケーションに焦点を当て、ソフトウェアエージェントへのアイデンティティ標準とベストプラクティスの適用方法を実証するプロジェクトの立ち上げを検討している。
Artificial Intelligence (AI) technology brings great opportunities to organizations. Specifically, AI agents—software systems that use data and algorithms to autonomously perform tasks—offer the promise of improved productivity, efficiency, and decision-making in complex scenarios. However, realizing these benefits requires understanding the potential risks from giving AI agents access to diverse data sets, tools, and applications, and applying appropriate identification and authorization controls to mitigate these risks.   人工知能(AI)技術は組織に大きな機会をもたらす。特に、データとアルゴリズムを用いて自律的にタスクを実行するソフトウェアシステムであるAIエージェントは、複雑なシナリオにおける生産性、効率性、意思決定の改善を約束する。しかし、これらの利点を実現するには、AIエージェントに多様なデータセット、ツール、アプリケーションへのアクセス権を与えることによる潜在的なリスクを理解し、これらのリスクを緩和するための適切な識別と認可の制御を適用する必要がある。
We Need Your Feedback 皆様のご意見をお待ちしています
To help the community provide input on this potential project, the NCCoE has released a concept paper, Accelerating the Adoption of Software and Artificial Intelligence Agent Identity and Authorization, outlining considerations for a potential NCCoE project focused on applying identity standards and best practices to AI agents. この潜在的なプロジェクトへのコミュニティの意見提供を支援するため、NCCoEはコンセプトペーパー『ソフトウェアおよび人工知能エージェントのアイデンティティと認可の普及促進』を公開した。これは、AIエージェントへのアイデンティティ標準とベストプラクティスの適用に焦点を当てたNCCoEプロジェクトの可能性に関する検討事項を概説している。
The concept paper provides an overview of the types of feedback that would be most helpful, such as: コンセプトペーパーでは、特に有益なフィードバックの種類について概説している。例えば:
Use Cases: How are organizations currently using or planning to use AI agents? ユースケース:組織は現在、AIエージェントをどのように使用しているか、または使用を計画しているか?
Challenges: What new and unique problems do AI agents bring compared to other software? 課題:他のソフトウェアと比較して、AIエージェントがもたらす新たな特有の問題は何か?
Standards: What current or emerging standards are being used to guide AI agent identity and access management? 標準:AIエージェントのアイデンティティおよびアクセス管理を導くために、現在または新興の標準は何か?
Technologies: What technology is being used or planned to support AI agents? ・技術:AIエージェントをサポートするために使用されている、または計画されている技術は何か?
・More detailed questions on the identification, authorization, auditing and non-repudiation of AI agents, as well as controls to prevent and mitigate prompt injection techniques. ・AIエージェントの識別、認可、監査、否認防止に関するより詳細な質問、およびプロンプト・インジェクションを緩和するための制御策。

 

 

Software and AI Agent Identity and Authorization

Software and AI Agent Identity and Authorization ソフトウェアおよびAIエージェントの識別と認可
The NCCoE is interested in exploring standards-based approaches to identify, manage, and authorize access and actions taken by software agents, including AI agents, and provide practical guidelines for organizations to securely implement AI agents and benefit from their improved productivity, efficiency, and decision-making.  NCCoEは、ソフトウェアエージェント(AIエージェントを含む)によるアクセスや実行されるアクションを識別・管理・認可するための標準ベースのアプローチを模索している。組織がAIエージェントを安全に実装し、生産性・効率性・意思決定の改善という恩恵を得られるよう、実践的なガイドラインを提供することを目的とする。
Applying identity standards and best practices to AI agents AIエージェントへのアイデンティティ標準とベストプラクティスの適用
As artificial intelligence evolves, enterprises are seeking to transition AI capabilities from basic generative outputs (e.g., text and graphics) to taking actions (e.g., deploy code to production). Agents offer enterprises the potential to scale autonomous decision-making with limited human supervision to achieve complex goals. This increased scale and autonomy brings new opportunities as well as new risks. 人工知能が進化するにつれ、エンタープライズはAI機能を基本的な生成出力(テキストやグラフィックなど)から行動の実行(コードの本番環境への展開など)へと移行させようとしている。エージェントは、限られた人的監視のもとで自律的な意思決定を拡張し、複雑な目標を達成する可能性をエンタープライズに提供する。この拡張性と自律性の向上は新たな機会をもたらす一方で、新たなリスクも伴う。
For well over a decade, code-based systems have been used to enable automation, cloud workloads, and the deployment of APIs. However, with the advancement of software and AI agents—systems that have the capability for autonomous decision-making and taking action to operate with limited human supervision to achieve complex goals—the scale and range of actions taken by these systems has the potential to increase exponentially. This increased scale and autonomy brings new opportunities as well as new risks. 10年以上前から、コードベースのシステムは自動化、クラウドワークロード、APIの展開を可能にしてきた。しかし、自律的な意思決定と行動を実行する能力を持ち、複雑な目標達成のために最小限の人間監視で動作するソフトウェアとAIエージェントの進歩に伴い、これらのシステムが実行する行動の規模と範囲は指数関数的に拡大する可能性がある。この拡大した規模と自律性は新たな機会をもたらす一方で、新たなリスクも伴う。
The concept paper Accelerating the Adoption of Software and AI Agent Identity and Authorization outlines considerations for a potential NCCoE project focused on applying identity standards and best practices to AI agents. The NCCoE is seeking feedback to help determine the scope, feasibility, and potential value of the project and inform whether a demonstration effort or other NCCoE outputs would best address the challenge. Community input will inform subsequent project planning activities, including the development of a draft project description. 概念文書『ソフトウェアおよびAIエージェントのアイデンティティと認可の導入加速』は、AIエージェントへのアイデンティティ標準とベストプラクティスの適用に焦点を当てたNCCoEプロジェクトの可能性に関する検討事項を概説している。NCCoEは、プロジェクトの範囲、実現可能性、潜在的な価値を判断し、実証活動やその他のNCCoE成果物が課題解決に最適かどうかを判断するためのフィードバックを求めている。コミュニティからの意見は、プロジェクト概要ドラフトの作成を含む、その後のプロジェクト計画策定活動に反映される。
With the advancement of software and AI agents—systems that have the capability for autonomous decision-making and taking action to operate with limited human supervision to achieve complex goals—the scale and range of actions taken by these systems has the potential to increase exponentially. ソフトウェアとAIエージェント(自律的な意思決定と行動能力を持ち、複雑な目標達成のために限定的な人的監視下で動作するシステム)の進歩に伴い、これらのシステムが実行する行動の規模と範囲は指数関数的に拡大する可能性がある。

 

AIエージェントのアーキテクチャ例

1_20260212215801

 

 

エージェントのフロー図

2_20260212220001

 


 

・[PDF]

20260212-220213

 

ACCELERATING THE ADOPTION OF SOFTWARE AND AI AGENT IDENTITY AND AUTHORIZATION¥ ソフトウェアとAIエージェントのID認証・認可の普及促進
ABSTRACT 概要
AI agents offer the promise of improved productivity, efficiency, and decision-making in complex scenarios. But these benefits cannot be realized without the ability to understand how identity principles such as identification, authentication, and authorization can apply to agents to provide appropriate protections while enabling business value. This concept paper seeks stakeholder input to inform a NIST National Cybersecurity Center of Excellence (NCCoE) project focused on applying existing identity standards and best practices to software and AI agents. Such a project would aim to reduce implementation risk related to agentic AI by demonstrating how identity and authorization standards and best practice can be applied to agentic architectures. Feedback received will help determine the scope, feasibility, and potential value of the project and inform whether a demonstration effort or other NCCoE outputs would best address the challenge. Community input will inform subsequent project planning activities, which could include development of a draft project description and a call for collaborators.  AIエージェントは、複雑なシナリオにおける生産性、効率性、意思決定の向上を約束する。しかし、識別、認証、認可といったアイデンティティ原則をエージェントに適用し、ビジネス価値を実現しつつ適切な保護を提供する方法が理解できなければ、これらの利点は実現できない。本概念文書は、既存のアイデンティティ標準とベストプラクティスをソフトウェアおよびAIエージェントに適用することに焦点を当てたNIST国立サイバーセキュリティ・センター・オブ・エクセレンス(NCCoE)プロジェクトに情報を提供するため、関係者の意見を求めるとともに、 本プロジェクトは、アイデンティティおよび認可の標準とベストプラクティスをエージェントアーキテクチャに適用する方法を実証することで、エージェント型AIに関連する実装リスクの低減を目指す。得られたフィードバックは、プロジェクトの範囲、実現可能性、潜在的な価値を判断し、実証活動やその他のNCCoE成果物が課題解決に最適かどうかを判断する材料となる。コミュニティからの意見は、プロジェクト概要案の作成や協力者募集など、今後のプロジェクト計画策定活動に反映される。
Note to Reviewers  査読者への注記
Artificial Intelligence (AI) technology brings great opportunities to organizations. Specifically, AI agents offer the promise of improved productivity, efficiency, and decision-making in complex scenarios. But these benefits cannot be realized without the ability to understand the security properties of deployed agents and apply appropriate controls as they access diverse data sets, tools, and applications to execute their mission. More specifically, organizations need to understand how identity principles such as identification, authentication, and authorization can apply to agents to provide appropriate protections while enabling business value.  人工知能(AI)技術は組織に大きな機会をもたらす。具体的には、AIエージェントは複雑なシナリオにおける生産性、効率性、意思決定の改善を約束する。しかし、これらの利点は、展開されたエージェントのセキュリティ特性を理解し、多様なデータセット、ツール、アプリケーションにアクセスして任務を遂行する際に適切な制御を適用する能力なしには実現できない。より具体的には、組織は、識別、認証、認可といったアイデンティティ原則をエージェントに適用し、ビジネス価値を実現しつつ適切な保護を提供する方法について理解する必要がある。
NIST recognizes the need to better understand these challenges as agencies and organizations consider adopting agentic capabilities. As such the National Cybersecurity Center of Excellence is considering a demonstration of how identity and authorization standards and best practices can be applied to AI agents. To inform its next steps, NIST is seeking input on the technical and operational considerations, standards and technology landscape, and overall scope, focus, and value of this project. In particular, NIST is interested in stakeholder perspectives on the following questions. These questions complement but are distinct from an RFI about securing AI agents issued by the Center for AI Standards and Innovation (CAISI) within NIST that will inform guidelines development for broader research agendas. Responses will be used to inform the scope, priorities and technical feasibility of a NCCoE demonstration project.  NISTは、政府機関や組織がエージェント機能の導入を検討する中で、これらの課題をより深く理解する必要性を認識している。このため、国立サイバーセキュリティ・センター・オブ・エクセレンス(NCCoE)は、アイデンティティと認可の標準およびベストプラクティスをAIエージェントに適用する方法を実証することを検討している。今後の対応を決定するため、NISTは本プロジェクトの技術的・運用上の考慮事項、標準と技術環境、全体的な範囲・焦点・価値に関する意見を求めている。特にNISTは、以下の質問に対する関係者の見解に関心を持っている。これらの質問は、NIST内のAI標準化・イノベーションセンター(CAISI)が発行したAIエージェントのセキュリティ確保に関するRFI(情報提供要請)を補完するものであるが、それとは別のものである。CAISIのRFIは、より広範な研究アジェンダのためのガイドライン策定に資するものである。回答は、NCCoE実証プロジェクトの範囲、優先順位、技術的実現可能性を判断する材料として活用される。 
1. General Questions to inform choice of Demonstration Use Case  1. 実証ユースケース選定のための一般的な質問
• What enterprise use-cases are organizations currently using agents for?  • 組織は現在、エージェントをどのようなエンタープライズユースケースに活用しているか?
• Which use-cases are in the near future?  • 近い将来に導入が予定されているユースケースは何か?
• What opportunities do agents present?  • エージェントがもたらす機会は何か?
• What risks worry you about agents?  • エージェントに関して懸念されるリスクは何か?
• What are the core characteristics of agentic architectures?  • エージェントアーキテクチャの中核的特徴は何か?
• What support are you seeing for new protocols such as Model Context Protocol (MCP)?  • モデルコンテキストプロトコル(MCP)などの新規プロトコルに対する支援状況はどうか?
• In what ways do agentic architectures introduce identity and authorization challenges?  • エージェントアーキテクチャは、どのような形でIDと認可の課題を提示するのか?
o How do AI agents differ from other forms of software agents?  o AIエージェントは他のソフトウェアエージェントとどう異なるか?
o How are agentic architectures different from current microservices architectures?  o エージェントアーキテクチャは現行のマイクロサービスアーキテクチャとどう異なるか?
• What current or roadmap technology does your organization have that supports agents?  • 組織がエージェントをサポートするために現在保有している、またはロードマップ上の技術は何か?
• What standards exist, or are emerging, to support identity and access management of agents? How might these need to be adapted to support new security risks or paradigms introduced by AI agents?  • エージェントのアイデンティティとアクセス管理をサポートする既存または新興の標準は何か?AIエージェントがもたらす新たなセキュリティリスクやパラダイムに対応するため、これらをどう適応させる必要があるか?
2. Identification  2. 識別
• How might agents be identified in an enterprise architecture?  • エンタープライズアーキテクチャにおいてエージェントをどのように識別するか?
o What metadata is essential for an AI agent's identity?  o AIエージェントのアイデンティティに不可欠なメタデータは何か?
o Should agent identity metadata be ephemeral (e.g. task dependent) or is it fixed?  o エージェントのアイデンティティメタデータは一時的(例:タスク依存)であるべきか、それとも固定されるべきか?
• Should agent identities be tied to specific hardware, software, or organizational boundaries? How would this be enforced?  • エージェントのアイデンティティは特定のハードウェア、ソフトウェア、または組織境界に紐付けるべきか?これをどのように強制するか?
3. Authentication  3. 認証
• What constitutes a strong authentication for an AI agent?  • AIエージェントに対する強固な認証とは何か?
• How do we handle key management for agents? Issuance, update, and revocation?  • エージェントの鍵管理をどう扱うか?発行、更新、失効は?
4. Authorization  4. 認可
• How can zero-trust principles be applied to agent authorization?  • エージェント認可にゼロトラスト原則をどう適用するか?
• Can authorization policies be dynamically updated when an agent context changes?  • エージェントのコンテキストが変化した際、認可ポリシーを動的に更新できるか?
○ For example, if an agent gets access to new tools and resources, how do we determine sensitivity levels of data when aggregated by an agent, and whether users are authorized to access the aggregated response?  ○ 例えば、エージェントが新たなツールやリソースにアクセスした場合、エージェントが集約したデータの機密レベルをどう判断するか。また、ユーザーが集約された応答に認可があるかどうかをどう判断するか。
• How do we establish "least privilege" for an agent, especially when its required actions might not be fully predictable when deployed?  • エージェントに対して「最小権限」をどう確立するか。特に、展開時に必要な動作が完全に予測できない場合、どうするか。
• What are the mechanisms for an agent to prove its authority to perform a specific action?  • エージェントが特定の動作を実行する認可を証明する仕組みは何か。
• How might an agent convey the intent of its actions?  • エージェントは自身の行動意図をどのように伝達するのか?
• How do we handle delegation of authority for “on behalf of” scenarios?  • 「代理」シナリオにおける権限委譲をどう扱うのか?
• How do we bind agent identity with human identity to support “human-in-theloop” authorizations?  • 「人間介在型」認可をサポートするため、エージェントの身元と人間の身元をどう紐付けるのか?
5. Auditing and non-repudiation  5. 監査と否認防止
• How can we ensure that agents log their actions and intent in a tamper-proof and verifiable manner?  • エージェントが自身の行動と意図を改ざん防止かつ検証可能な方法で記録することをどう保証するのか?
• How do we ensure non-repudiation for agent actions and binding back to human authorization?  • エージェントの行動に対する否認防止と、人間の認可への紐付けをどう保証するか?
6. Prompt Injection prevention and mitigation  6. プロンプト・インジェクションの防止と緩和策
• What controls help prevent both direct and indirect prompt injections?  • 直接的・間接的プロンプト・インジェクションを防止する制御手段は何か?
• After prompt injection occurs, what controls/practices can minimize the impact of the injection? • プロンプト・インジェクション発生後、その影響を最小限に抑える制御手段や対策は何か?
Feel free to share your thoughts with us via AI-Identity@nist.gov by April 2nd, 2026.  2026年4月2日までに、AI-Identity@nist.gov までご意見をお寄せください。
1. PROJECT CONCEPT  1. プロジェクト概要
The NIST National Cybersecurity Center of Excellence is planning a project focused on applying identity standards and best practices to AI agents. This concept paper introduces the technical focus and scope of the proposed project, including the nature of the challenge, the types of architectures considered, and the identity standards that could be applied as part of this effort. NIST is seeking feedback from stakeholders and technology collaborators on the technical reality and reasonableness of this concept and is open to suggestions on how standards and best practices can be applied to address this challenge.  NIST国立サイバーセキュリティ・センター・オブ・エクセレンスは、AIエージェントへのアイデンティティ標準とベストプラクティスの適用に焦点を当てたプロジェクトを計画している。本コンセプトペーパーでは、提案プロジェクトの技術的焦点と範囲を紹介する。これには課題の本質、検討対象となるアーキテクチャの種類、本取り組みで適用可能なアイデンティティ標準が含まれる。NISTは、このコンセプトの技術的実現可能性と妥当性について、関係者及び技術協力者からのフィードバックを求めている。また、この課題に対処するために標準とベストプラクティスを適用する方法に関する提案も歓迎する。
Challenge Overview  課題の概要
For well over a decade, code-based systems have been used to enable automation, cloud workloads, and the deployment of APIs. However, with the advancement of software and AI agents—systems that have the capability for autonomous decisionmaking and taking action with limited human supervision to achieve complex goals—the scale and range of actions taken by these systems has the potential to increase exponentially. This increased scale and autonomy brings new opportunities as well as new risks. To enable effective management of these risks and to securely capitalize on these opportunities, enterprises and individuals need to understand how foundational identity principles—identification, authentication, and authorization—can be applied to ensure that agents are known, trusted, and properly governed.  10年以上前から、コードベースのシステムは自動化、クラウドワークロード、APIの展開を可能にしてきた。しかし、ソフトウェアとAIエージェント(複雑な目標達成のために人間の監督を最小限に抑えながら自律的な意思決定と行動を実行する能力を持つシステム)の進歩に伴い、これらのシステムが実行する行動の規模と範囲は指数関数的に拡大する可能性がある。この規模と自律性の拡大は新たな機会をもたらす一方で、新たなリスクも生み出す。これらのリスクを効果的に管理し、機会を安全に活用するためには、エンタープライズや個人が、エージェントが認識され、信頼され、適切にガバナンスされることを保証するために、基礎的なアイデンティティ原則(識別、認証、認可)をどのように適用できるかを理解する必要がある。
 Scope  範囲
This project will focus on applying identity standards and best practices to agentic architectures as depicted in Figure 1. Agentic architectures are ones that take in some set of instructions, dynamically acquire additional context from other resources based on those instructions, process the results, potentially take some sort of action and return a response. Retrieval-Augmented Generation (RAG) and architectures using only an LLM with its associated training data are out of scope of our project. Appendix A offers a supplement flow diagram.  本プロジェクトは、図1に示すエージェント型アーキテクチャにアイデンティティ標準とベストプラクティスを適用することに焦点を当てる。エージェント型アーキテクチャとは、一連の指示を受け取り、それらの指示に基づいて他のリソースから動的に追加のコンテキストを取得し、結果を処理し、何らかの行動を実行し、応答を返すものである。検索拡張生成(RAG)およびLLMとその関連トレーニングデータのみを使用するアーキテクチャは、本プロジェクトの対象外である。附属書Aにフロー図が示されている。
Areas of Interest  関心領域
The areas below describe potential focus areas for exploration:  以下の領域は、探求の潜在的な焦点領域を記述する:
● Identification of AI and Software Systems. Leveraging existing standards, the project will explore available means to identify software and AI agents such that access management systems can distinguish between agent and human identities and effectively manage the range of actions an agent may take from controlled human-in-the-loop approval to autonomous action in response to an input.  AIおよびソフトウェアシステムの識別。既存の標準を活用し、本プロジェクトはソフトウェアとAIエージェントを識別する利用可能な手段を探求する。これにより、アクセス管理システムはエージェントと人間のアイデンティティを区別し、制御された人間介在型承認から入力への応答としての自律的行動まで、エージェントが取る可能性のある行動の範囲を効果的に管理できる。
● Authorization of AI Systems. Leveraging standards such as OAuth 2.0 and its extensions and policy-based access control mechanisms, to manage how rights and entitlements are granted to software and AI agents and to enforce access decisions based on the identity of the AI agent or software systems.  AIシステムの認可。OAuth 2.0とその拡張、ポリシーベースのアクセス管理メカニズムなどの標準を活用し、ソフトウェアおよびAIエージェントへの権利付与方法を管理する。AIエージェントまたはソフトウェアシステムのアイデンティティに基づいてアクセス決定を強制する。
● Access Delegation. Link specific user identities to AI agents or software systems to support effective delegation controls and maintain accountability for the actions of automated systems.  アクセス委任。特定のユーザーアイデンティティをAIエージェントまたはソフトウェアシステムに紐付け、効果的な委任制御を支援し、自動化システムの行動に対する説明責任を維持する。
● Logging and Transparency. Link specific AI agent and software systems actions to the identity of the non-human entity and enable effective visibility into the actions taken, data generated, and outcomes of automated activities within a given system, platform, or network.  ログ記録と透明性。特定のAIエージェントやソフトウェアシステムの動作を非人間事業体の識別情報に紐付け、特定のシステム・プラットフォーム・ネットワーク内における自動化活動の動作内容、生成データ、結果に対する効果的な可視性を実現する。
● Tracking Data Flows of an AI System. Track and maintain provenance of user prompts and data input sources to support risk determinations and policy decisions regarding actions to be taken by an AI Agent.  AIシステムのデータフロー追跡。ユーザープロンプトやデータ入力源の出所の来歴証明を追跡・維持し、AIエージェントが実行する動作に関するリスク判定やポリシー決定を支援する。
2. RELEVANT STANDARDS AND GUIDELINES  2. 関連する標準とガイドライン
This project is currently considering the implementation of the following standards and best practices:  本プロジェクトでは現在、以下の標準とベストプラクティスの実装を検討している:
● Model Context Protocol: Model Context Protocol (MCP) is a protocol that enables AI models and agentic systems to discover, access, and interact with external tools, data sources, and services in a consistent and structured manner. The MCP protocol relies on existing identity standards such as Open Authorization (OAuth) and Open ID Connect (OIDC) for rights delegation and authentication.  モデルコンテキストプロトコル:モデルコンテキストプロトコル(MCP)は、AIモデルとエージェントシステムが外部ツール、データソース、サービスを一貫した構造化された方法で発見、アクセス、相互作用することを可能にするプロトコルである。MCPプロトコルは、権限委譲と認証のためにOpen Authorization(OAuth)やOpen ID Connect(OIDC)といった既存のID標準に依存している。 
● OAuth 2.0/2.1 and extensions: OAuth is an authorization standard that can be used to support access control objectives. The standard defines a set of technical specifications for the generation, protection, and delivery of authorization tokens (JSON Web Tokens or JWT) to different connected endpoints (e.g., servers). There are multiple profiles and extensions of OAuth to support specific use cases, security properties, and features. At this time, OAuth is integrated into the MCP as the primary method for authorizing agentic access. The specification follows the draft OAuth 2.1 standard.  OAuth 2.0/2.1および拡張機能:OAuthはアクセス管理目標を支援するために使用できる認可標準である。この標準は、認証トークン(JSON Web TokensまたはJWT)を生成・防御・配信するための技術仕様を定義し、異なる接続エンドポイント(例:サーバー)に提供する。特定のユースケース、セキュリティ特性、機能をサポートするため、OAuthには複数のプロファイルと拡張が存在する。現時点では、OAuthはエージェントアクセスを認可する主要な方法としてMCPに統合されている。仕様はドラフト版OAuth 2.1標準に準拠している。
● OpenID Connect: OIDC is an interoperable authentication protocol based on the OAuth 2.0 framework of specifications. Essentially, it provides a consistent way for expressing authentication, consent, and authorization information through identity tokens that can support access outcomes related to Agents or users when interacting with Agents.  OpenID Connect: OIDCはOAuth 2.0枠組みに基づく相互運用可能な認証プロトコルである。本質的に、エージェントやエージェントとのやり取りにおけるユーザーに関連するアクセス結果をサポート可能なIDトークンを通じて、認証・同意・認可情報を表現する一貫した方法を提供する。
● SPIFFE/SPIRE: Secure Production Identity Framework for Everyone (SPIFFE) is a framework for issuing and managing cryptographic identities to workloads and SPIFFE Runtime Environment (SPIRE) is an implementation of SPIFFE that provides APIs for workload attestation. Together they represent one way in which agent workloads could be identified and authenticated.  SPIFFE/SPIRE: Secure Production Identity Framework for Everyone (SPIFFE) はワークロードに暗号アイデンティティを発行・管理する枠組みであり、SPIFFE Runtime Environment (SPIRE) はワークロード認証用APIを提供するSPIFFEの実装である。これらを組み合わせることで、エージェントワークロードを識別・認証する一つの方法が実現される。
● System for Cross-domain Identity Management: System for Cross-domain Identity Management (SCIM) is a standard that defines RESTful APIs and JSON schemas for automating the provisioning, deprovisioning, and lifecycle management of identities across systems. While SCIM does not provide authentication or authorization, it does provide a potential way to create, update and revoke agent identities across systems.  クロスドメインID管理システム:クロスドメインID管理システム(SCIM)は、システム間でのIDのプロビジョニング、デプロビジョニング、ライフサイクル管理を自動化するためのRESTful APIとJSONスキーマを定義する標準である。SCIMは認証や認可を提供しないが、システム間でエージェントIDを作成、更新、失効させる潜在的な方法を提供する。
● Next Generation Access Control: Next Generation Access Control (NGAC) is an attribute-based access control standard that represents access control policies in a unified graph of users, objects, attributes, and policy classes to enable fine grained access control across a wide breadth of policies and resources. NGAC also supports event driven policy updates, native delegation and least privilege making it suitable for agentic systems.  次世代アクセス管理:次世代アクセス管理(NGAC)は属性ベースのアクセス管理標準であり、ユーザー、オブジェクト、属性、ポリシークラスを統合したグラフでアクセス管理ポリシーを表現する。これにより広範なポリシーとリソースにわたるきめ細かいアクセス管理が可能となる。NGACはイベント駆動型ポリシー更新、ネイティブ委任、最小権限原則もサポートするため、エージェントシステムに適している。
NIST will also apply relevant guidelines from SP 800-207 Zero Trust Architecture, SP80063-4 Digital Identity Guidelines, NISTIR 8587 Protecting Tokens and Assertions from Forgery, Theft, and Misuse and other NIST guidelines as applicable.  NISTはまた、SP 800-207「ゼロトラストアーキテクチャ」、SP80063-4「デジタルIDガイドライン」、NISTIR 8587「トークンと主張の偽造・盗難・悪用からの防御」およびその他の適用可能なNISTガイドラインから関連する指針を適用する。 
We are open to feedback on other models, methodologies, protocols, best practices, or standards that might address this challenge.  この課題に対処し得る他のモデル、方法論、プロトコル、ベストプラクティス、標準に関するフィードバックを歓迎する。
3. POSSIBLE USE CASES  3. 想定されるユースケース
The focus of the project will be on enterprise use-cases where greater control and visibility can be maintained over agents and the systems they access. The challenge of identifying and managing access for external agents from untrusted sources will not be addressed under this initial effort, but use-cases focused on public facing or individual agents could be addressed in future iterations of the project.  本プロジェクトの焦点は、エージェントおよびアクセス対象システムに対する制御と可視性をより高く維持できるエンタープライズ内ユースケースに置かれる。信頼できないソースからの外部エージェントのアクセスを識別・管理する課題は、この初期段階では対象外とするが、対外向けまたは個人エージェントに焦点を当てたユースケースは、プロジェクトの将来的な展開で検討される可能性がある。
NIST is actively seeking feedback on real-world use cases being evaluated by agencies and enterprises. Potential use-cases could include the following:  NISTは、政府機関やエンタープライズが評価中の実世界のユースケースに関するフィードバックを積極的に求めている。潜在的なユースケースには以下が含まれる可能性がある: 
● Enterprise AI agents to improve work force efficiency and decision making. This use case would focus on implementing controls to address the use of AI agents and software to improve staff efficiency in everyday tasks (e.g., managing calendars, assessing and creating policy documents, generating decision recommendations). To support this use case, agents and software will need delegated and managed access to multiple data sources to take actions based on user prompts or inputs.  労働力効率と意思決定を改善するエンタープライズ向けAIエージェント。このユースケースは、日常業務(例:カレンダー管理、政策文書のアセスメント・作成、意思決定推奨事項の生成)におけるスタッフの効率向上を目的としたAIエージェント・ソフトウェアの使用に対処する制御手段の実装に焦点を当てる。このユースケースを支援するため、エージェントとソフトウェアは、ユーザーの指示や入力に基づいて行動を起こすために、複数のデータソースへの委任された管理アクセスを必要とする。
● Enterprise AI agents for security. This use case would focus on agents and software that analyze security information and either take or recommend security actions for an organization. As with use case #1, this will include nonhuman identities that access data from across a set of connected systems, but with an elevated risk due to the sensitivity of security data.  セキュリティのためのエンタープライズAIエージェント。このユースケースは、セキュリティ情報を分析し、組織に対してセキュリティ対策を実行または推奨するエージェントとソフトウェアに焦点を当てる。ユースケース#1と同様に、これは一連の接続システムからデータにアクセスする非人間的なアイデンティティを含むが、セキュリティデータの機密性によりリスクが上昇する。
● Enterprise AI agents for software development and deployment. This use case would focus on automated processes for developing and deploying software and how entitlements and authorization are supported in automated deployment pipelines that use AI Agents.  ソフトウェア開発・展開向けエンタープライズAIエージェント。このユースケースは、ソフトウェア開発・展開の自動化プロセスと、AIエージェントを利用する自動展開パイプラインにおける権限付与・認可の支援方法に焦点を当てる。
4. DESIRED OUTCOMES  4. 期待される成果
The planned NCCoE project on software and AI agent identity and authorization will focus on producing practical, implementation-oriented guidelines to help organizations adopt agentic capabilities while managing cybersecurity risk. Consistent with the NCCoE mission, the ultimate deliverable will be a practice guide detailing example implementation details built in the NCCoE laboratories using commercially available technologies, along with key lessons learned along the way. Similar to the recent Mobile Driver’s License project, this project intends to iteratively provide outputs that increase awareness of the overall technology and security space related to agentic AI identity and authorization.  ソフトウェアおよびAIエージェントのアイデンティティと認可に関するNCCoE計画プロジェクトは、組織がサイバーセキュリティリスクを管理しつつエージェント機能を採択できるよう、実践的で実装指向のガイドライン作成に焦点を当てる。NCCoEの使命に沿い、最終成果物として商用技術を用いてNCCoE研究所で構築した実装例の詳細と、その過程で得られた主要な教訓を記載した実践ガイドを提供する。最近のモバイル運転免許証プロジェクトと同様に、本プロジェクトはエージェント型AIのアイデンティティと認可に関連する技術・セキュリティ領域全体の認知度を高める成果を反復的に提供する。
Overall, this project seeks to:  全体として、本プロジェクトは以下の目的を追求する:
● Provide a better understanding of how agents can be deployed in line with identity and authorization standards and best practices to help agencies and enterprise maximize value and minimize risk  ● 機関やエンタープライズが価値を最大化しリスクを最小化できるよう、アイデンティティと認可の標準およびベストプラクティスに沿ったエージェントの展開方法に関する理解を深める
● Create relationships and mechanisms to provide feedback to standards development entities as they advance and evolve standards in the agentic ecosystem  ● エージェントエコシステムにおける標準の進展・進化に伴い、標準開発事業体へフィードバックを提供する関係性と仕組みを構築する 
● Identify and communicate risks and opportunities associated with real-world deployments of Agentic AI solutions  ● エージェント型AIソリューションの実世界展開に伴うリスクと機会を識別し、伝達する
● Provide detailed implementation resources that can enable more rapid adoption of agentic technology, consistent with risk management and organizational goals  ● リスクマネジメントと組織目標に沿いながら、エージェント技術の迅速な採用を可能にする詳細な実装リソースを提供する
Seeking Public Comment  パブリックコメント募集
The NCCoE is open to suggestions on how NCCoE resources may be able to advance the adoption of sound security principles and best practices relating to the identification, authentication, and authorization of AI agents.  NCCoEは、AIエージェントの識別・認証・認可に関する健全なセキュリティ原則とベストプラクティスの採用を促進するため、NCCoEリソースの活用方法に関する提案を広く受け付ける。
Based upon community feedback on these topics, the NCCoE will consider instantiating a project to engage in building an example solution using commercially available technology. Public comments on this concept paper will help the NCCoE understand specific challenges and needs and may be used to help define a project description.  これらのトピックに関するコミュニティからのフィードバックに基づき、NCCoEは市販技術を用いたサンプルソリューション構築プロジェクトの立ち上げを検討する。本コンセプトペーパーへの公開コメントは、NCCoEが具体的な課題やニーズを理解するのに役立ち、プロジェクト概要の定義に活用される可能性がある。 
Comments on this publication may be submitted to: AI-Identity@nist.gov  本公開資料へのコメントは以下へ提出可能:AI-Identity@nist.gov
APPENDIX A. EXAMPLE AGENTIC ARCHITECTURE FLOW DIAGRAM  附属書A. エージェントアーキテクチャ例フロー図
The below flow diagram offers a sequential view of how the different components of an agentic architecture might interact. Of note is the iterative nature of the interactions between the agent and the reasoning model (such as an LLM), where an agent may fetch tools and resources for the reasoning model multiple times to update the model with data, context or prompts.  以下のフロー図は、エージェントアーキテクチャの異なるコンポーネントがどのように相互作用するかを時系列で示している。特に注目すべきは、エージェントと推論モデル(LLMなど)間の反復的な性質である。エージェントは推論モデルにデータ、コンテキスト、プロンプトを提供するため、ツールやリソースを複数回取得することがある。
Figure 2. Example Agentic Flow Diagram 図2. エージェントフロー図の例
   

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

Agentic AI

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

| | Comments (0)

2026.02.12

金融庁 意見募集 暗号資産交換業等におけるサイバーセキュリティ強化に向けた取組方針(案)

こんにちは、丸山満彦です。

金融庁から、暗号資産交換業等におけるサイバーセキュリティ強化に向けた取組方針(案)が公表され、意見募集されていますね...

この取組方針(案)では暗号資産交換業等のサイバーセキュリティは「自助・共助・公助を組み合わせた官民一体の戦略課題として、質・量ともに一段引き上げなければならない」という感じにまとめられていますかね...

この取組方針(案)が興味深いのは、サイバーセキュリティへの取り組みについて事業者(自助)のみならず、業界(共助)、政府(公助)も含めた全体で取り組むことを前提にしていることですかね...

自助という点では、暗号資産交換業等に、金融庁がこれまで他の金融業態向けに実施しているサイバーセキュリティセルフアセスメント(CSSA)を暗号資産交換業者全社に実施することを求め、必要な対話を行っていくこととする。これにより、各事業者のサイバーセキュリティ管理態勢の状況を継続的に把握するとともに、高度化する脅威に対応するための必要な改善を促していくと記載していますね。。。 2025 年度実施のブロックチェーン「国際共同研究」等の結果を踏まえて、事務ガイドラインで暗号資産交換業者に求めてい
るサイバーセキュリティの水準の引上げを検討する、としていますね...

共助という点では、自主規制機関と情報共有機関の2つについて言及していますね...自主規制機関は、高度化する脅威に的確に対応して自主規制のアップデートを継続的に行うとともに、各事業者における遵守状況のモニタリングを実効的に行うことが求められるとし、金融庁が自主規制機関の体制整備について継続的にフォローアップを実施するとともに、必要に応じて改善を促していくとしていますね。情報共有機関については、企業のセキュリティ実務担当者同士が信頼関係を構築し、実効的な情報共有を行う文化を醸成することが極めて重要であるとし、JPCrypto-ISACなど情報共有機関への積極的な参加を促すとともに、代表的な暗号資産交換業界における情報共有機関である JPCrypto-ISAC との間で実効的な情報共有機関の在り方について意見交換を重ね、業界全体のサイバーセキュリティ強化に向けて取り組んでいくとしていますね...

公助という点では、ブロックチェーン「国際共同研究」プロジェクトによる代表的な攻撃事例の手法、リスク、対応策の分析、3年以内にに前事業者がDelta Wall に参加するようにする、脅威ベースのペネトレーションテスト(TLPT)実証事業が記載されていますね...

ちなみに、私もJPCrypto-ISACの設立時から関わっていますので、応援してくださいませ...



金融庁

・2026.02.10 「暗号資産交換業等におけるサイバーセキュリティ強化に向けた取組方針(案)」の公表について

・・(別紙2)暗号資産交換業等におけるサイバーセキュリティ強化に向けた取組方針(案)(概要)

20260211-214600

 

・・(別紙1)暗号資産交換業等におけるサイバーセキュリティ強化に向けた取組方針(案)

20260211-214717

 

 


 

金融審議会 暗号資産制度に関するワーキング・グループ 報告では、暗号資産が国内外で明確に「投資対象」として定着した現状を踏まえ、利用者保護と市場の健全性を確保するため、資金決済法中心の規制から、金商法を中心とした包括的な規制体系へ移行すべきであるというような報告書となっていましたよね...

暗号資産は匿名性・国境を越えた移転・高ボラティリティといった特性を持ち、詐欺的勧誘や無登録業者の横行、ハッキングによる流出など、既存の資金決済法だけでは十分に対応できない課題が顕在化してきているとして、「暗号資産の特性に応じた金融商品」としての規制を整備することにより、利用者保護の充実を図る」と述べ、情報提供規制の強化、業規制の金商法への統合、不公正取引規制(特にインサイダー取引規制)の導入、サイバーセキュリティの高度化など、従来の金融商品と同等の枠組みを適用する必要性を示していますね...

また、規制強化がイノベーションを阻害しないよう柔軟性を確保しつつ、国際的な規制動向との整合性を重視することも当然意識していますね..

で、具体的な規制として、

・情報提供規制:中央集権型暗号資産の発行者に開示義務を課し、交換業者にも審査・情報提供義務を課す。リスク・商品性のサマリー提供、適時開示、定期開示(年1回)も求められる。

・業規制:第一種金商業に準じた体制整備、利用者適合性確認、セキュリティ強化、責任準備金の積立て、委託先規制などを導入する。・不公正取引規制:インサイダー取引規制の導入、課徴金制度、証券監視委の調査権限付与を提案。

・その他:市場開設規制、DEXや海外無登録業者への対応、金融リテラシー向上策、業界共助(JPCrypto-ISAC)の強化など。

で、サイバーセキュリティに関する取組みについて次のように記載があります...


6.サイバーセキュリティに関する取組み

(1)サイバーセキュリティに関する取組みの基本的な方向性

暗号資産に係るサイバーセキュリティ対策は、攻撃者が常に高度化することに加えて、技術革新により自身のシステム構成も動的に変化するため、法令では必要な体制の確保に係る義務を規定し、技術や運用の要件等については柔軟に環境変化に対応できるようにガイドライン等で定めることが適当である。暗号資産に係る利用者財産の保護は、特に、サイバーセキュリティの高度化を通じて得られるとの考えに立って、適切なセキュリティ投資の下で各社のリスクマネジメントの PDCA が実効的に行われることが重要である。交換業者におけるこうした投資を行うインセンティブ付けとフィージビリティに留意して法令・ガイドラインの規定は検討されるべきである。

(2)業界の共助や金融庁における取組み

金融庁では、これまで、交換業者を含めた金融業界全般に対して、「金融分野におけるサイバーセキュリティに関するガイドライン」等のガイダンスの提供、モニタリングの実施や演習(Delta Wall)等、公助の取組みを進めており、こうした取組みについて今後も着実に実施していくことが重要である。

また、全世界で暗号資産の流出に繋がるサイバー事案が数多く発生しており、直近の事案では手口がより巧妙化しているため、交換業者等におけるサイバーセキュリティ体制の継続的な強化に向けた官民の対応が不可避となっている。個社が国家レベルの攻撃に日々さらされる中で、サイバーセキュリティ対応は、自助・共助・公助の組み合わせで対処すべき課題であり、特に業界共助の取組みの発展が不可欠であることから、JPCrypto-ISAC をはじめとする情報共有機関が適切に機能することが期待される。当局としてもそうした取組みを後押ししていくべきである。


 

 

目次...

Ⅰ はじめに
1.暗号資産に係るこれまでの法制度の整備について
2.暗号資産の投資対象化の進展を踏まえた今般の見直しについて

Ⅱ 暗号資産の取引の現状と課題
1.暗号資産の取引の現状
2.喫緊の課題

Ⅲ 求められる対応
1.規制見直しに当たっての考え方
(1)規制見直しの趣旨
(2)規制見直しに当たっての留意点
2.根拠法令の見直し
(1)金商法の規制枠組みの活用
(2)暗号資産の金商法における位置付け
(3)金商法で規制対象とする暗号資産の範囲
(4)資金決済法における暗号資産の規制
3.情報提供規制
(1)新規販売時の情報提供
(2)継続情報提供
(3)情報提供の内容の正確性・客観性の確保と『募集・売出し』時の利用者保護
4.業規制
(1)基本的な方向性
(2)個別論点
(3)銀行・保険会社やそのグループにおける取扱い
(4)無登録業者への対応等
(5)海外の無登録業者・DEX 等への対応
5.暗号資産取引に係るリテラシーの向上等
(1)利用者の慎重な取引を促す方策
(2)DEX や海外無登録業者での取引に係るリスク周知
(3)暗号資産取引に係る金融リテラシーの向上に向けた方策
6.サイバーセキュリティに関する取組み
(1)サイバーセキュリティに関する取組みの基本的な方向性
(2)業界の共助や金融庁における取組み
7.市場開設規制
8.不公正取引規制
(1)インサイダー取引規制
(2)その他の不公正取引規制
(3)課徴金制度・その他のエンフォースメント

Ⅳ おわりに

Ⅴ 参考資料

 

 

 

 

金融審議会「暗号資産制度に関するワーキング・グループ」

暗号資産制度に関するワーキング・グループ
2025.12.10 金融審議会「暗号資産制度に関するワーキング・グループ」報告の公表について
  (別紙) 金融審議会 暗号資産制度に関するワーキング・グループ 報告
  (参考) 金融審議会 暗号資産制度に関するワーキング・グループ 報告 概要
    (参考資料)
2025.11.26 第6回   
資料 資料1 ヒアリング資料①
  資料2 ヒアリング資料②
  資料3 金融審議会 暗号資産制度に関するワーキング・グループ報告(案)
2025.11.07 第5回  
資料 資料1 事務局説明資料①
  資料2 事務局説明資料②
2025.10.22 第4回  
資料 資料1 「暗号資産制度に関するワーキング・グループ」メンバー名簿
  資料2 事務局説明資料①
  資料3 ヒアリング資料
  資料4 事務局説明資料②
2025.09.29 第3回  
資料 資料1 ヒアリング資料①
  資料2 松尾真一郎委員説明資料
  資料3 ヒアリング資料②
  資料4 事務局説明資料
議事録    
2025.09.02 第2回  
資料 資料1 ヒアリング資料①ー1
  資料2 ヒアリング資料①ー2
  資料3 事務局説明資料①
  資料4 ヒアリング資料②
  資料5 事務局説明資料②
議事録    
2025.07.31 第1回  
資料 資料1 諮問文
議事録 資料2 「暗号資産制度に関するワーキング・グループ」メンバー名簿
  資料3 ヒアリング資料①
  資料4 事務局説明資料①
  資料5 ヒアリング資料②
  資料6 事務局説明資料②
  参考資料1 「暗号資産に関連する制度のあり方等の検証」(ディスカッション・ペーパー)
  参考資料2 御意見の概要

 

 

 

| | Comments (0)

米国 航空ISAC CISO調査報告書 2026 (2026.02)

こんにちは、丸山満彦です。

Aviation-ISAC(航空ISAC)がCISO調査報告書2025を公表していますね...

航空ISACは、航空会社、空港、OEM/関連サービス会社から構成されているようですが、毎年発行しています...

 

優先事項を時系列に並べてみるとこんな感じ...

2026年になってAI、AIのID管理ですね。。。先日紹介したCSAのAIのID管理も参考になるかもですね...

 

2021 2022 2023 2024 2025 2026
1 セキュリティオペレーションセンター(SOC) アイデンティティ管理(IDM) アイデンティティ管理(IDM) アイデンティティ管理(IDM) アイデンティティ管理(IDM) アイデンティティ管理(AI対応 IDM)
2 アイデンティティ管理・アクセス管理(IAM) 情報保護プロセスと手順(IPPP) データセキュリティ サプライチェーンリスク管理(SCRM) ガバナンス(組織コンテキスト) ガバナンス(組織コンテキスト)
3 文化・組織的セキュリティシフト サプライチェーンリスク管理(SCRM) 資産管理 ガバナンス 資産管理 サプライチェーンリスク管理(SCRM)
4 ネットワーク変革 データセキュリティ セキュリティ意識向上・トレーニング 情報保護プロセスと手順(IPPP) サプライチェーンリスク管理(SCRM) データセキュリティ(AI対応)
5 資産・脆弱性管理 異常検知・イベント管理 サプライチェーンリスク管理(SCRM) リスクアセスメント 継続的モニタリング 技術インフラのレジリエンス

 

ISACは、1997年のクリントン政権の大統領決定指令63(Presidential Decision Directive 63: PDD63)に基づき重要インフラ業界毎に組成された組織で、現在米国では、25あります...

 

Aviation ISAC

・2026.02 2026 CISO Survey Results

20260211-92232

・[DOCX][PDF] 仮訳

 

過去分...

2025 Ciso Survey Results

・[PDF

20250207-75111

・[DOCX][PDF] 仮訳

 

2024

[PDF]

20250207-75521

 

2023

[PDF]

 

2022

[PDF]

 

2021

[PDF]

 


 

 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.02.07 米国 航空ISAC CISO調査報告書 2025

 

米国のISACとISAOについてまとめています...

・2020.10.08 米国のISACとISAO (根拠指令、取りまとめ団体、ISAO標準文書など)

 

| | Comments (0)

バーゼル銀行監督委員会 パブコメ「機械可読性の高い開示(第3の柱)」の公表について (2025.12.05)

こんにちは、丸山満彦です。

バーゼル銀行監督委員会による市中協議文書「機械可読性の高い開示(第3の柱)」の公表していました...機械可読性はこれから重要となってきますよね...

データに基づく政策決定等が重要となってきます...

各国当局はXBRL-CSV/XBRL-JSON/SDMX-CSV/JSON Schemaのうち1つ以上の形式を義務化することが提案されていますね...

 Basel Committee on Banking Supervision

・2025.12.05 Basel Committee consults on standard format for machine-readable disclosures

Basel Committee consults on standard format for machine-readable disclosures バーゼル委員会、機械可読開示の標準フォーマットについて協議
・The Basel Committee has published a consultation on a standard format for machine-readable disclosures by banks. ・バーゼル委員会は、銀行による機械可読開示の標準フォーマットに関する協議文書を発表した。
・The proposed standard format would make existing disclosure by banks more accessible and easier to aggregate. ・提案された標準フォーマットにより、銀行の既存開示はよりアクセスしやすく、集計しやすくなる。
・Comments on the proposals are requested by 5 March 2026. ・提案への意見は2026年3月5日までに提出されることが求められている。
The Basel Committee on Banking Supervision today published a consultative document proposing additions to its disclosure standard to make the data disclosed by banks (so-called Pillar 3 disclosures) available in a machine-readable format. バーゼル銀行監督委員会は本日、銀行が開示するデータ(いわゆる第3の柱開示)を機械可読形式で利用可能とするため、標準への追加を提案する協議文書を発表した。
Pillar 3 disclosures by internationally active banks under the Basel Committee's standards are an important source of their key risk metrics. Most banks, however, currently publish their disclosures in PDF format only, which makes it difficult to aggregate, process and compare data across banks. バーゼル委員会の標準に基づく国際的に活動する銀行の柱3開示は、主要なリスク指標の重要な情報源である。しかし現在、大半の銀行は開示をPDF形式のみで公表しており、銀行間のデータ集計・処理・比較を困難にしている。
To make Pillar 3 disclosure data more accessible, the Committee is proposing that they should be made available in standardised machine-readable formats across its member jurisdictions. The proposed standard would introduce a requirement and technical specifications to produce machine-readable quantitative Pillar 3 disclosures, without changing the underlying disclosure requirements for banks. National supervisors would decide whether banks should publish machine-readable Pillar 3 disclosures on their own websites or via a centralised data repository. 第3の柱、開示データの利便性向上のため、委員会は加盟国・地域全体で標準化された機械可読形式での提供を提案している。提案基準は、銀行の開示要件そのものを変更せず、機械可読形式の定量的第3の柱、開示を作成する要件と技術仕様を導入する。各国監督当局は、銀行が機械可読ピラー3開示を自社ウェブサイトで公開するか、中央データリポジトリ経由で公開するかを決定する。
It is also envisaged that the proposed standard would not increase burdens on banks in jurisdictions where machine-readable Pillar 3 disclosures are already required. Instead, existing approaches would be integrated into the proposed global standard. また、機械可読な第3の柱開示が既に義務付けられている管轄区域では、提案された標準が銀行の負担を増大させないことも想定されている。代わりに、既存のアプローチが提案されたグローバル標準に統合される。
The Committee welcomes comments on the proposed additions to the standard covering machine-readable quantitative Pillar 3 disclosures, which should be submitted here by 5 March 2026. All submissions will be published on the BIS website unless a respondent specifically requests confidential treatment. 委員会は、機械可読な定量的第3の柱開示を扱う標準への追加提案について、2026年3月5日までにこちらへ提出されるべき意見を求めている。提出された意見は、回答者が特に機密扱いを要求しない限り、BISウェブサイトで公開される。 

 

・[PDF]

20260210-213723

 


 

金融庁

・2025.12.12 バーゼル銀行監督委員会による市中協議文書「機械可読性の高い開示(第3の柱)」の公表について

・[PDF] 金融庁・日本銀行作成説明資料

20260210-214113

 

 

 

 

| | Comments (0)

2026.02.11

フランス 2026-2030年国家サイバーセキュリティ戦略

こんにちは、丸山満彦です。

フランスの国防・国家安全保障総局(SGDSN Secrétariat général de la défense et de la sécurité nationale)が、2026-2030年国家サイバーセキュリティ戦略を公表していますね...

2021年の改訂版ということのようです...

改訂版の柱はこんな感じ...

Pillar 英語 フランス語 仮訳
Pillar 1 Making France the largest pool of cyber talent in Europe Faire de la France le plus grand vivier de talents cyber d'Europe フランスを欧州最大のサイバー人材基盤にする
Pillar 2 Strengthening the nation's cyber resilience Renforcer la résilience cyber de la Nation 国家のサイバー・レジリエンスを強化する
Pillar 3 Halting the expansion of cyber threats Entraver l’expansion de la cybermenace サイバー脅威の拡大を阻止する
Pillar 4 Maintaining control over the security of our digital foundations Garder la maîtrise de la sécurité de nos fondements numériques デジタル基盤の安全性を国家として掌握する
Pillar 5 Supporting the security and stability of cyberspace in Europe and internationally Soutenir la sécurité et la stabilité du cyberespace en Europe et à l’international 欧州および国際的なサイバー空間の安全と安定に貢献する

目標も加えるとこんな感じ...

Pillar 英語 フランス語 仮訳
Pillar 1 Making France the largest pool of cyber talent in Europe Faire de la France le plus grand vivier de talents cyber d'Europe フランスを欧州最大のサイバー人材基盤にする
Objective 1 Develop an inclusive culture of cybersecurity from an early age Développer dès le plus jeune âge une culture inclusive de la cybersécurité 幼少期から包摂的なサイバーセキュリティ文化を育成する
Objective 2 Invest in all areas of cybersecurity training Investir dans tous les pans de la formation en cybersécurité サイバーセキュリティ教育・訓練の全領域に投資する
Objective 3 Support the development of cyber human resources at European level Soutenir la dynamique des ressources humaines cyber au niveau européen 欧州レベルでのサイバー人材基盤の形成を支援する
Pillar 2 Strengthening the nation's cyber resilience Renforcer la résilience cyber de la Nation 国家のサイバー・レジリエンスを強化する
Objective 4 Prepare the nation for crises caused by cyberattacks Préparer la Nation aux crises dues aux cyberattaques サイバー攻撃による危機に国家として備える
Objective 5 Raise the overall level of cyber protection for the nation Rehausser le niveau global de cyber‑protection de la Nation 国家全体のサイバー防御水準を底上げする
Objective 6 Facilitate the path to better cybersecurity Faciliter les parcours vers une meilleure cybersécurité より良いサイバーセキュリティへの取り組みを容易にする
Pillar 3 Halting the expansion of cyber threats Entraver l’expansion de la cybermenace サイバー脅威の拡大を阻止する
Objective 7 Activate all levers to deter cyber attacks Activer l’ensemble des leviers pour décourager les agressions cyber サイバー攻撃を抑止するため国家の全手段を動員する
Objective 8 Mobilise private players in the cyber defence of the nation Mobiliser les acteurs privés dans la cyberdéfense de la Nation 国家のサイバー防衛に民間主体を動員する
Pillar 4 Maintaining control over the security of our digital foundations Garder la maîtrise de la sécurité de nos fondements numériques デジタル基盤の安全性を国家として掌握する
Objective 9 Invest in the security of digital technologies Investir dans la sécurité des technologies numériques デジタル技術の安全性に戦略的投資を行う
Objective 10 Support the structuring of a European market for cybersecurity products and services Soutenir la structuration d’un marché européen des produits et services de cybersécurité サイバー製品・サービスの欧州市場の形成を支援する
Objective 11 Control technological dependencies in the field of digital security Maîtriser les dépendances technologiques dans le champ de la sécurité numérique デジタルセキュリティ分野の技術的依存を管理する
Pillar 5 Supporting the security and stability of cyberspace in Europe and internationally Soutenir la sécurité et la stabilité du cyberespace en Europe et à l’international 欧州および国際的なサイバー空間の安全と安定に貢献する
Objective 12 Promote an international framework and governance guaranteeing the security and stability of cyberspace Promouvoir un cadre et une gouvernance internationaux garantissant la sécurité et la stabilité du cyberespace サイバー空間の安全と安定を保証する国際的枠組みとガバナンスを推進する
Objective 13 Act as an ally and cooperative and reliable partner within an international cyber community of interest Agir en allié et partenaire coopératif et fiable au sein d’une communauté d’intérêt cyber internationale 国際的なサイバー共同体において協調的で信頼できるパートナーとして行動する
Objective 14 Develop cyber solidarity capabilities Développer une capacité de cyber‑solidarité サイバー分野における連帯・支援能力を構築する

 

 

 

SGDSN Secrétariat général de la défense et de la sécurité nationale

・2026.01.29 Stratégie nationale de cybersécurité 2026-2030

 

Stratégie nationale de cybersécurité 2026-2030 2026-2030年国家サイバーセキュリティ戦略
Commandée par le Président de la République, la Stratégie nationale de cybersécurité 2026-2030 prolonge les ambitions de la Revue nationale stratégique et fixe la trajectoire de la France pour devenir une Nation cyber de premier rang. Élaborée sous l’égide du Secrétariat général de la défense et de la sécurité nationale, elle a été construite avec l’ensemble des ministères, ainsi qu’un panel d’experts représentatif du monde industriel, scientifique et académique. 共和国大統領の指示により策定された2026-2030年国家サイバーセキュリティ戦略は、国家戦略レビューの目標を継承し、フランスがサイバー分野における一流国家となるための道筋を示すものである。国防・国家安全保障事務局の主導のもと、すべての省庁、および産業界、科学界、学界を代表する専門家パネルが協力して策定された。
Face à une menace cyber croissante, qui touche désormais l’ensemble du tissu économique et social, la stratégie place le développement des compétences au cœur de l’action nationale, afin de faire de la France le plus grand vivier de talents cyber en Europe. Elle prévoit d’orienter la jeunesse vers ces métiers d’avenir et de renforcer toutes les voies de formation initiale, continue et de reconversion, tout en soutenant l’émergence d’un socle européen de compétences partagées. 経済・社会のあらゆる分野に影響を及ぼすサイバー脅威の高まりを受けて、この戦略は、フランスをヨーロッパ最大のサイバー人材の育成拠点とするため、技能開発を国家的な取り組みの中心に据えている。この戦略は、若者をこうした将来性のある職業に導き、初期教育、継続教育、再教育のあらゆる経路を強化すると同時に、欧州全体の共通スキル基盤の構築を支援することを目指している。
Pour consolider la résilience de la Nation, elle élève le niveau global de cybersécurité, en priorité celui des infrastructures critiques et du socle numérique de l’État, prépare l’ensemble des acteurs aux crises, et facilite l’accès à la cybersécurité par un accompagnement renforcé des victimes, un portail national et un cadre simplifié. 国家のレジリエンスを強化するため、サイバーセキュリティの全体的なレベル、特に重要インフラや国家のデジタル基盤のレベルを引き上げ、すべての関係者を危機に備えさせ、被害者への支援強化、全国ポータルサイト、簡素化された枠組みを通じてサイバーセキュリティへのアクセスを容易にする。
La France mobilisera également l’ensemble de ses leviers — judiciaires, diplomatiques, militaires, économiques et techniques — afin d’entraver l’expansion de la cybermenace et d’accroître la coopération avec les acteurs privés, notamment via le partage d’informations sur les menaces.  フランスはまた、司法、外交、軍事、経済、技術など、あらゆる手段を動員して、サイバー脅威の拡大を阻止し、特に脅威に関する情報の共有を通じて、民間関係者との協力を強化する。
Pour préserver sa liberté d’action, la stratégie investit dans les technologies critiques de cybersécurité, soutient la structuration d’un marché européen capable de rivaliser à l’échelle mondiale et vise à réduire les dépendances technologiques, notamment dans les domaines du chiffrement, du cloud et de l’évaluation de sécurité. 行動の自由を維持するため、この戦略は、サイバーセキュリティの重要な技術への投資、世界的に競争力のある欧州市場の構築の支援、特に暗号化、クラウド、セキュリティ評価の分野における技術的依存の低減を目指すものである。
Enfin, la stratégie inscrit pleinement l’action de la France dans un cadre européen et international fondé sur le droit, la stabilité et un cyberespace ouvert. Elle renforce les capacités collectives de cyberdéfense au sein de l’Union européenne, de l’OTAN et auprès de partenaires partageant les mêmes valeurs, et développe une capacité de cyber-solidarité à destination des États les plus vulnérables.  最後に、この戦略は、法の支配、安定性、開かれたサイバースペースに基づく欧州および国際的な枠組みの中で、フランスの取り組みを完全に位置づけるものである。欧州連合(EU)、北大西洋条約機構(NATO)、および同じ価値観を共有するパートナーとのサイバー防衛の共同能力を強化し、最も脆弱な国々に対するサイバー連帯の能力を開発する。
Stratégie nationale de cybersécurité 2026-2030 2026-2030年国家サイバーセキュリティ戦略(仏)
Télécharger PDF - 1 085.7 KB Download
National cybersecurity strategy 2026-2030 2026-2030年国家サイバーセキュリティ戦略(英)
Download  Download

 

20260210-130528

 

 

 


 

 

2019年版

・2019.11 [PDF] stratégie nationale pour la sécurité du numérique

20260210-204628

 

 


 

参考 各国のサイバーセキュリティ戦略

 

■ EUの場合

 European Commission

・2020.12.16 The EU’s Cybersecurity Strategy for the Digital Decade

・[PDF] JOINT COMMUNICATION TO THE EUROPEAN PARLIAMENT AND THE COUNCIL - The EU's Cybersecurity Strategy for the Digital Decade

20250108-182710

 

・2020.12.16 The EU's Cybersecurity Strategy in the Digital Decade

・[PDF] Factsheet

20210513-120625

 

欧州各国のサイバーの国家戦略はENISAがまとめてみられるようにしていますね...

 

 ENISA

・2025.06.04 National Cyber Security Strategies Interactive map

 

 

■ ドイツの場合

 Bundesministerium des Innern, für Bau und Heimat 

プレス

・2021.09.08 (press) Cybersicherheitsstrategie für Deutschland 2021 beschlossen

戦略本文

・[PDF] Cybersicherheitsstrategie für Deutschland 2021

20210926-60648

 

■ フランスの場合

・2026.01.29 National cybersecurity strategy 2026-2030

20260210-130528

・2019.11 [PDF] stratégie nationale pour la sécurité du numérique

20260210-204628

 

 

■ オランダの場合

・2022.10.10 Kabinet presenteert nieuwe cybersecuritystrategie

● 戦略

・2022.10.10 Nederlandse Cybersecuritystrategie 2022 - 2028

・[PDF

20221016-52157

 

● 活動計画 2022-2023

・2022.10.10 Actieplan Nederlandse Cybersecuritystrategie 2022 - 2023

・[PDF

20221016-52520

 

■ UKの場合

 National Cyber Security Centre

2021.12.15 (news) Government publishes blueprint to protect UK from cyber threats

・2021.12.15 Policy paper National Cyber Strategy 2022

・[heml] National Cyber Strategy 2022

 ・[PDF] National Cyber Strategy 2022

20211217-55613

日本語訳 [Downloded]

20230221-170849

 

■ U.S. の場合

・2023.03.02 FACT SHEET: Biden-⁠Harris Administration Announces National Cybersecurity Strategy

・[PDF] National Cybersecurity Strategy 

20230304-72820

 

・2018.09.20 President Trump Unveils America’s First Cybersecurity Strategy in 15 Years

・[PDF] NATIONAL CYBER STRATEGY of the United States of America


20210513-121917

・仮訳 [DOCX

 

■ 日本の場合

 

 内閣官房 - サイバーセキュリティセンター - サイバーセキュリティ戦略本部

今回のもの

・2025.12.23 サイバーセキュリティ戦略(閣議決定)

20251223-182424

 

前回のもの

・2021.09.28 [PDF] サイバーセキュリティ戦略

20230820-153236

・2023.07.04 サイバーセキュリティ戦略本部 第36回会合

・2022.06.17 サイバーセキュリティ戦略本部 第34回会合

・2021.09.27 第31回会合

 

 

🔳オーストラリアの場合

 AU - Department of Home Affairs - Cyber security - Strategy

・2023.11.22 [PDF] 

20241130-23843

実行計画

・2023.11.22 [PDF] 

20241130-24959

 

・2020.08.06 [PDF] AUSTRALIA’S CYBER SECURITY STRATEGY 2020

20230520-150216

2016年の前回のバージョン

・[PDF] Australia's Cyber Security Strategy

20230520-150443

 

■ 中国の場合

  中央网络安全和信息化委员会办公室 (Cyberspace Administration of China)

 プレス発表

戦略全文

・2016.12.27 国家网络空间安全战略

・英語訳

 ・2016.12.27 National Cyberspace Security Strategy

 

 

■ ロシアの場合(NATO CCDCOEの論文)

● NATO CCDCOE

2020 [PDF] The Past, Present, and Future of Russia’s Cyber Strategy and Forces by Bilyana Lilly and Joe Cheravitch



■ インドの場合

 Data Security Council of India

・2020.08.15 [PDF] National Cyber Security Strategy 2020

20210513-131956

 

■ シンガポールの場合

● Cyber Security Agency of Singapore

・2021.10.05 Singapore Updates National Cybersecurity Strategy

The Singapore Cybersecurity Strategy 2021

・[PDF]

20211011-134730

 

◾️ 韓国の場合...

・2024.02.01

・[PDF]

20240307-182652

 

2019年の国家サイバーセキュリティ戦略

・韓国語 [PDF] 국가사이버안보전략

20240307-194050


・英語 [PDF] National Cyberseuciry Strategy

20240307-194144

 

----

 

 

 

 

| | Comments (0)

欧州 ENISA EUサイバーセキュリティ・エコシステムを強化するための国際戦略の更新

こんにちは、丸山満彦です。

サイバーセキュリティ法の改正も検討されており、EUにおけるENISAの役割は高まっていくわけですが、それに合わせて、ENISAも外部ステークホルダーとの連携の仕組みを見直していると言う感じですかね...

限られた資源を、コミットすべきところにコミットし、本来的な任務との関係性が弱いことについてはリソース配分を弱める。そんな感じでしょうかね...

エコシステムを戦略的に考える...

最も重要なことはEUの価値観の実現...

任務については次の3つに分けていますね...

  • ① 戦略目的に基づく
  • ② 法定任務に基づく
  • ③ 外部からの要望

③については、EUの価値観にあるかどうか?①②の目的に必要かどうかということになるのですかね...

で、ステークホルダーについては、次の6種類...

  1. EU加盟国の国内当局
  2. EU機関(EUIBAs
  3. EUのサイバーセキュリティ産業及び民間セクターの関係者
  4. 第三国のサイバーセキュリティ当局・国際機関
  5. 学術機構及び研究・教育組織
  6. 市民社会・一般公衆

で、それらとの関係性についてはマッピングをつくっていますね...

 

  • partner(共同)
  • engage(関与)
  • consult(相談)
  • inform(情報提供)

20260210-95908

 

 

・2026.02.09 Updated International Strategy to empower the EU Cybersecurity Ecosystem

Updated International Strategy to empower the EU Cybersecurity Ecosystem EUサイバーセキュリティエコシステム強化に向けた国際戦略の更新
The revised ENISA International Strategy renews the Agency’s approach to engagement with its international partners. It strengthens the alignment to the EU’s international cybersecurity policies, the promotion of EU values, and fortifies our mission to achieve higher common level of cybersecurity across Europe. 改訂されたENISA国際戦略は、国際パートナーとの連携における当機関のアプローチを刷新する。EUの国際サイバーセキュリティ政策との整合性を強化し、EUの価値観の推進を図るとともに、欧州全域でより高い共通レベルのサイバーセキュリティを達成するという我々の使命を確固たるものとする。
The digital landscape we navigate today is increasingly interconnected. Cyber threats have no borders, and therefore cooperation is essential. ENISA therefore seeks to strategically engage with its international partners outside of the EU working within its mandate. The main objective of ENISA in doing so is to raise cybersecurity levels within the European Union. ENISA hence engages internationally when such cooperation supports this mission.  現代のデジタル環境はますます相互接続が進んでいる。サイバー脅威に国境はなく、したがって協力が不可欠である。ENISAは、その権限の範囲内で、EU域外の国際パートナーと戦略的に連携することを目指す。その主な目的は、欧州連合内のサイバーセキュリティ水準を高めることである。ENISAは、この使命を支える協力が得られる場合に限り、国際的に関与する。
ENISA Executive Director, Juhan Lepassaar stated: “International cooperation is essential in cybersecurity. It complements and strengthens the core tasks of ENISA, to achieve a high common level of cybersecurity across the Union. Together with our Management Board, ENISA determines how we engage at international level to achieve our mission and mandate. ENISA stands fully prepared to cooperate on the global stage to support the EU Member States in doing so.”  ENISA事務局長、ユハン・レパサーは次のように述べた。「サイバーセキュリティにおいて国際協力は不可欠である。これは、連合全体で高い共通のサイバーセキュリティ水準を達成するというENISAの中核的任務を補完し、強化するものである。ENISA は、理事会とともに、その使命と任務を達成するために、国際レベルでどのように関与するかを決定する。ENISA は、EU 加盟国を支援するために、世界的な舞台で協力する準備が完全に整っている」と述べた。
As an integrated part of ENISA’s overall strategy and in particular its recently renewed stakeholders’ strategy, the renewed international strategy focuses on international partners sharing the EU’s values, and with which the Union has strategic relationships. Cooperation currently covers: ENISA の総合戦略、特に最近更新されたステークホルダー戦略の統合的な一部として、更新された国際戦略は、EU の価値観を共有し、EU と戦略的関係にある国際的なパートナーに焦点を当てている。現在の協力内容は以下の通りである。
・More tailored working arrangements with specific countries (Ukraine, the US), focusing on capacity-building, best practice exchange and information / knowledge exchange; ・特定国(ウクライナ、米国)との、能力構築、ベストプラクティスの交換、情報・知識の交換に焦点を当てた、より個別に対応した作業協定。
・Supporting the European Commission and the European External Action Service (EEAS) in the EU’s cyber dialogues, for example with Japan or the UK; ・日本や英国などとの EU のサイバー対話において、欧州委員会および欧州対外活動庁(EEAS)を支援すること。
・Support for the EU candidate countries of the Western Balkans region. Starting in 2026, this is designed to extend specific ENISA frameworks and tools for instance through the development of comparative cyber indexes or exercise methodologies or by providing trainings; ・西バルカン地域の EU 加盟候補国を支援すること。2026 年からは、比較サイバー指標や演習方法論の開発、研修の提供などを通じて、ENISA の特定の枠組みやツールを拡張することを目指している。
・Making the EU Cybersecurity Reserve established through the 2025 EU Cyber Solidarity Act operational for third countries associated with the Digital Europe Programme such as Moldova; ・2025 年の EU サイバー連帯法によって設立された EU サイバーセキュリティ予備軍を、モルドバなど、デジタル・ヨーロッパ・プログラムに関連する第三国に対して運用可能にする。
・Support for the cybersecurity work of the G7 cybersecurity Working Group, providing EU level cybersecurity expertise where required and; ・G7 サイバーセキュリティ作業部会のサイバーセキュリティ活動を支援し、必要に応じて EU レベルのサイバーセキュリティの専門知識を提供する。
・Exploring cooperation with like-minded partners. ・志を同じくするパートナーとの協力の可能性を探ること。
The strategy confirms the principles which guide the international cooperation work of ENISA and the working modalities with the European Commission, the EEAS and EU Member States. These were put in place by the ENISA Management Board, following the adoption of the first international strategy in 2021 and have been further consolidated and clarified based on best practices.  この戦略は、ENISA の国際協力活動を導く原則、および欧州委員会、EEAS、EU 加盟国との協力の方法を確定するものである。これらは、2021 年に最初の国際戦略が採択された後、ENISA 理事会によって策定され、ベストプラクティスに基づいてさらに統合・明確化されてきた。
New ENISA International Strategy  新しい ENISA 国際戦略
ENISA International Cooperation ENISA 国際協力
ENISA International Strategy 2021-2025 ENISA 国際戦略 2021-2025

 

・2026.01.28 ENISA Stakeholder Strategy 2026-2028

ENISA Stakeholder Strategy 2026-2028 ENISA ステークホルダー戦略 2026-2028
The ENISA Stakeholder Strategy sets out ENISA’s approach to identifying and engaging stakeholders in a value-driven, coordinated, and transparent way. It establishes common principles and governance for stakeholder engagement, aligned with ENISA’s mandate and priorities, while ensuring effective outreach and avoiding duplication and stakeholder fatigue. ENISA ステークホルダー戦略は、価値主導的、協調的、かつ透明性のある方法でステークホルダーを識別し、関与させる ENISA のアプローチを定めている。ENISA の使命と優先事項に沿った、ステークホルダーの関与に関する共通原則とガバナンスを確立すると同時に、効果的なアウトリーチを確保し、重複やステークホルダーの疲労を回避する。

 

・[PDF]

20260210-92838

・[DOCX][PDF] 仮訳

 

 

 

 

 

 

 

| | Comments (0)

2026.02.10

中国 自動車データ越境セキュリティガイドライン(2026年版)(2026.02.03)

こんにちは、丸山満彦です。

中国の八つの中央省庁(工業情報化部 、国家インターネット情報弁公室、国家発展改革委、国家データ局など)が共同で自動車分野におけるデータの越境移転に関する安全管理の要求と指針についてのガイドラインを公表していますね...

対象データは、自動車の設計、生産、販売、使用、保守の全過程に関わる個人情報および重要データとなりますね...

対象企業は、自動車メーカー、部品・ソフトウェアサプライヤー、通信事業者、自動運転サービス会社、プラットフォーム運営者、販売店、整備業者など、データ処理を決定する全ての組織・個人

リスクに基づく3段階の管理方式がある。詳細は、本文を読む必要がありますが、ざっと重要なポイントを言うとこんな感じ...

管理方式 適用条件(主な例) 核心的な要求
1. データ越境安全評価の申請(最も厳格) ・ 重要データ を国外へ提供する場合 国家インターネット情報部門への申請と審査通過が必須。
累計で個人情報100万人以上を提供する場合
累計で機微な個人情報1万人以上を提供する場合
2. 個人情報越境標準契約の締結、または認証の取得(二者択一) (重要データを含まない)累計で個人情報10万人以上~100万人未満を提供する場合 ・ 標準契約:海外受領者と締結し、網信部門に備案。
・ 認証:有資格の認証機関から取得。
3. 手続きの免除 累計で個人情報10万人未満(センシティブ情報含まず)を提供する場合 上記の安全評価、標準契約、認証のいずれも不要。
・ 緊急時の生命・財産保護など、特定の限定された状況  

 

 

国家互联网信息办公室(国家サイバースペース管理局)

・2026.02.03 工业和信息化部等八部门关于印发《汽车数据出境安全指引(2026版)》的通知

工业和信息化部等八部门关于印发《汽车数据出境安全指引(2026版)》的通知 工業情報化部など八部門による「自動車データ越境安全ガイドライン(2026年版)」の公布に関する通知
工信部联网安〔2026〕27号 工信部联网安〔2026〕27号
各省、自治区、直辖市通信管理局,各省、自治区、直辖市及计划单列市、新疆生产建设兵团工业和信息化主管部门、网信办、发展改革委、数据管理部门、公安厅(局)、自然资源主管部门、交通运输厅(局、委)、市场监管局(厅、委),有关企业: 各省・自治区・直轄市通信管理局、各省・自治区・直轄市及び計画単列市・新疆生産建設兵団の工業情報化主管部門、ネット情報弁公室、発展改革委員会、データ管理部門、公安庁(局)、自然資源主管部門、交通運輸庁(局・委員会)、市場監督管理局(庁・委員会)、関係企業:
为贯彻落实《中华人民共和国数据安全法》《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《网络数据安全管理条例》等法律法规,推进数据高效便利安全跨境流动,在国家数据安全工作协调机制统筹指导下,工业和信息化部、国家互联网信息办公室、国家发展改革委、国家数据局、公安部、自然资源部、交通运输部、市场监管总局制定了《汽车数据出境安全指引(2026版)》。现印发给你们,请认真遵照执行。 『中華人民共和国データ安全法』『中華人民共和国サイバーセキュリティ法』『中華人民共和国個人情報保護法』『ネットワークデータ安全管理条例』等の法律法規を実施し、データの効率的・便利・安全な越境流通を推進するため、国家データ安全作業調整メカニズムの統括指導のもと、工業情報化部、国家サイバースペース管理局、国家発展改革委員会、国家データ局、公安部、自然資源部、交通運輸部、市場監督管理総局は『自動車データ越境安全ガイドライン(2026年版)』を制定した。ここに送付するので、厳格に遵守し実行すること。

 

・[PDF

20260209-203328

・[DOCX][PDF] 仮訳

 

 

 

| | Comments (0)

2026.02.09

英国 深刻なサイバー脅威への組織的対応準備と計画:重要インフラ(CNI)向けガイド (2026.01.28)

こんにちは、丸山満彦です。

英国のNCSCは英国のサイバーセキュリティの実務支援の中枢組織といったような位置付けで政府機関、重要インフラ事業者、民間事業者、市民等へガイダンスの提供、インシデント対応の支援等をしておりますね。国際連携も...

さて、そんなNCSCが重要インフラ向けのガイドを公表していますね...

サイバー攻撃を完全に防ぐことは無理ですから、平時の防御から「重大な脅威(Severe Threat)」に対応するための「危機態勢(Crisis Posture)」へと迅速に移行できるように準備を怠らないことが重要ですね...

重要なサービスを維持するために、ネットワークの「アイランディング(孤立化)」や手動運用への切り替えといった極端な措置を、混乱なく実行できるよう事前に計画し、訓練しておくことも重要ですよね...

事態が悪化してから判断するのではなく、冷静な判断が可能な平時に準備をしておくことが重要ですよね...リスク許容度を定義し、意思決定の権限を明確化し、技術的な要塞化を設計しておくことが、重要インフラ事業者には求められるのでしょうね...

レジリエンスの考え方が重要...

 

UK NCSC

・2026.01.28 How to prepare for and plan your organisation's response to severe cyber threat: a guide for CNI

How to prepare for and plan your organisation's response to severe cyber threat: a guide for CNI 深刻なサイバー脅威への組織的対応準備と計画:重要インフラ(CNI)向けガイド
Activity 1. Factor severe cyber threat response into your plans 活動1. 深刻なサイバー脅威対応を計画に組み込む
1.1 Why you should plan and prepare early and extensively 1.1 早期かつ広範な計画・準備が必要な理由
1.2 Know what you’re protecting and understand your attack surface 1.2 防御対象を把握し攻撃対象領域を理解する
1.3 Review your risk management activities 1.3 リスクマネジメント活動を検証する
1.4 Identify potential future threats 1.4 将来の潜在脅威を識別する
1.5 Test and exercise 1.5 テストと演習を実施する
Activity 2. Increase situational awareness 活動2. 状況認識を強化する
2.1 Increase monitoring of threats and network activity 2.1 脅威とネットワーク活動の監視を強化する
2.2 Increase quality of threat intelligence: focus on attacker tactics, techniques and procedures 2.2 脅威インテリジェンスの質を高める:攻撃者の戦術・技術・手順に焦点を当てる
2.3 Stay informed and use defender communities 2.3 防御コミュニティを活用し情報収集を継続する
2.4 Establish frameworks for sharing threat information 2.4 脅威情報共有の枠組みを構築する
Activity 3. Harden defences 活動3. 防御体制を強化する
3.1 Undertake immediate tactical measures to reduce threat exposure 3.1 脅威への曝露を減らす即時戦術的措置を実施する
3.2 Design robust defensive architectures for extreme hardening 3.2 徹底的な強化のための堅牢な防御アーキテクチャを設計する
3.3 Plan how to harden networks rapidly in event of severe cyber threat 3.3 深刻なサイバー脅威発生時の迅速なネットワーク強化計画を策定する
3.4 Document and rehearse defensive actions 3.4 防御行動を文書化し訓練する
Activity 4. Withstand and recover 活動 4. 耐性と回復
4.1 Prepare your organisation for adaptability 4.1 組織の適応性を準備する
4.2 Plan how you’ll recover while threats persist 4.2 脅威が継続する中での復旧計画を立てる
4.3 Integrate recovery plans with wider organisational planning 4.3 復旧計画を組織全体の計画と統合する
4.4 Test and exercise recovery plans 4.4 復旧計画をテストし演習する
4.5 Build long term resilience 4.5 長期的な回復力を構築する
Appendix 附属書
Scenario planning シナリオ計画
Counterfactuals 反事実検討

 

・[PDF]

20260209-55941

 

 

あと、こちらも最近追加されていました...

Operational Technology

 Examples to support organisations implementing OT guidance

・2026.01.14 Secure Connectivity - Operational OT Data Export Example



Operational Technology OT
Secure Connectivity - Operational OT Data Export Example セキュアな接続性 - 運用OTデータエクスポートの例
In this section このセクションでは
Meet 'Admin Corp' 「管理部門」を紹介する
Principle 1: Balance the risk and opportunities 原則1:リスクと機会のバランスを取る
Principle 2: Limit the exposure of your connectivity 原則2:接続のエクスポージャーを制限する
Principle 3: Centralise and standardise network connections 原則3:ネットワーク接続を集中化・標準化する
Principle 4: Use standardised and secure protocols 原則4:標準化され安全なプロトコルを使用する
Principle 5: Harden your OT boundary 原則5:OT境界を強化する
Principle 6: Limit the impact of compromise 原則6:侵害の影響を制限する
Principle 7: Ensure all connectivity is logged and monitored 原則7:全ての接続をログ記録・監視する
Principle 8: Establish an isolation plan 原則8:隔離計画を確立する
A fictional worked example exploring the application of our secure connectivity principles. 安全な接続原則の適用を探る架空の事例
If you design or maintain an operational technology (OT) network, the scenario below will help you navigate the cyber security issues related to external connectivity for your cyber-physical system.  運用技術(OT)ネットワークを設計または保守する場合、以下のシナリオはサイバーフィジカルシステムの外部接続に関連するサイバーセキュリティ問題の対処に役立つ。

 

 

| | Comments (0)

CSA 自律型AIエージェントのセキュリティ確保

こんにちは、丸山満彦です。

自律型AIエージェントが急速に普及しつつある...既存のIAMでAIエージェントを管理しようとしているが、人間のようにログインしないし、場合によっては自分でタスクを生成し、他のエージェントに権限を委譲する場合もあるAIは既存のIAMでは人間並みの厳格さで管理できない...

さあ、どうしよう...

静的なIAMではなく、動的・継続的・文脈依存のIAMへ変革していかないといけない...

 

ゼロトラストの導入、リアルタイムのエージェント発見、継続的認証、ランタイムのポリシー強制、完全なトレーサビリティ等が重要となるかんじですかね...

しかし、IAMができないと、セキュリティ管理できないですからね...ここがまずはポイントとなりますかね...

 

 

CSA 

・2026.02.04 Securing Autonomous AI Agents

 

Securing Autonomous AI Agents 自律型AIエージェントのセキュリティ確保
Autonomous AI agents are being embedded across cloud, hybrid, and on-prem environments. However, most identity systems were built for humans, not for self-directed, API-driven agents operating continuously at runtime. This comprehensive survey report, commissioned by Strata, explores the current state of autonomous AI agent security in enterprises and the associated Identity and Access Management (IAM) challenges. 自律型AIエージェントは、クラウド、ハイブリッド、オンプレミス環境全体に組み込まれている。しかし、ほとんどのIDシステムは人間向けに構築されており、実行時に継続的に動作する自律型でAPI駆動のエージェント向けではない。本包括的調査レポートは、ストラタの委託により作成され、エンタープライズにおける自律型AIエージェントのセキュリティ現状と、関連するIDおよびアクセス管理(IAM)の課題を検証する。
The report reveals a growing gap between agent adoption and enterprise readiness. Organizations are deploying hundreds of AI agents, yet they lack agentic identity governance policies to help manage them safely. The findings highlight widespread reliance on static credentials, fragmented authorization models, limited discovery, and weak traceability. 本報告書は、エージェント導入とエンタープライズ側の準備態勢との間に拡大するギャップを明らかにしている。組織は数百ものAIエージェントを展開しているにもかかわらず、それらを安全に管理するためのエージェント向けIDガバナンスポリシーが欠如している。調査結果は、静的認証情報の広範な依存、断片化した認可モデル、限定的な検出機能、脆弱な追跡可能性を浮き彫りにしている。
The report argues for securing autonomous agents with the same rigor historically reserved for human users. It examines confidence in IAM for agents, traceability and human-in-the-loop oversight, and emerging investment patterns. The results point to a “Time-to-Trust” phase, where organizations are balancing innovation with caution. 本報告書は、自律型エージェントを従来の人間ユーザーと同等の厳格さで保護すべきだと主張する。エージェント向けIAMへの信頼性、追跡可能性、人間による監視ループ、新興投資パターンを検証した結果、「信頼獲得までの時間」段階にあることが示された。組織はイノベーションと慎重さのバランスを取っている。
This research provides critical insight for organizations seeking to securely scale agentic systems while maintaining governance, compliance, and operational trust. 本調査は、ガバナンス・コンプライアンス・運用上の信頼を維持しつつ、エージェントシステムの安全な拡張を目指す組織にとって重要な知見を提供する。
Key Takeaways: 主なポイント:
・40% of organizations already have agents in production. Another 31% are running pilots or tests, with 19% planning deployment within the next year.  ・40%の組織が既にエージェントを本番環境で運用している。さらに31%がパイロット運用やテストを実施中であり、19%が今後1年以内の展開を計画している。
・Only 18% of respondents say they are “highly confident” their current IAM systems can manage agent identities effectively. 35% express only moderate confidence and 29% express slight confidence. Another 18% report no or uncertain confidence.  ・回答者のうち「現在のIAMシステムがエージェントのアイデンティティを効果的に管理できる」と「非常に確信している」と答えたのはわずか18%である。35%が「やや確信している」とし、29%が「やや確信している」と回答した。さらに18%が「確信していない」または「確信が持てない」と報告している。
・Many organizations are still relying on outdated credentialing and access patterns. The most common authentication methods are static API keys, username and password combinations, and shared service accounts. ・多くの組織が依然として旧式の認証・アクセス方式に依存している。最も一般的な認証方法は静的APIキー、ユーザー名とパスワードの組み合わせ、共有サービスアカウントである。
・Only 21% of organizations maintain a real-time registry or inventory of their agents. 32% rely on non-real-time records, another 32% plan to build one within the next year, and 8% have no registry at all.  ・エージェントのリアルタイム登録簿またはインベントリを維持している組織はわずか21%である。32%は非リアルタイム記録に依存し、さらに32%が今後1年以内に構築を計画している。8%は登録簿を全く持っていない。
・40% of organizations report increasing their overall identity and security budgets to accommodate AI agents. 34% are allocating a dedicated budget line and another 22% are reallocating funds from other security areas. Only 26% report no planned budget changes. ・40%の組織がAIエージェント対応のため、ID管理とセキュリティ予算全体を増額していると報告している。34%が専用予算枠を割り当て、さらに22%が他のセキュリティ領域から資金を再配分している。予算変更の予定がないと報告したのはわずか26%である。

 

20260207-180030

 

Executive Summary エグゼクティブサマリー
AI agents are rapidly moving from concept to operational reality, becoming autonomous digital actors embedded in enterprise workflows. As organizations scale from dozens to hundreds of agents—across clouds, platforms, and business units—the identity foundations inherited from human IAM are beginning to strain under new demands. The 2025 CSA Agentic Identity Survey reveals that while adoption is accelerating, enterprises lack the visibility, control, and governance required to manage these agents safely. The findings highlight an emerging identity discipline: securing autonomous agents with the same rigor and traceability long expected of human users. AIエージェントは概念から運用段階へ急速に移行し、エンタープライズワークフローに組み込まれた自律的なデジタルアクターとなりつつある。組織が数十から数百のエージェントへ規模を拡大するにつれ(クラウド、プラットフォーム、事業部門を跨いで)、人間のIAMから継承されたアイデンティティ基盤は新たな要求に耐えきれなくなっている。2025年CSAエージェントアイデンティティ調査によれば、導入は加速しているものの、企業はこれらのエージェントを安全に管理するために必要な可視性、制御、ガバナンスを欠いている。調査結果は新たなアイデンティティ分野の必要性を浮き彫りにしている。自律型エージェントを、従来から人間ユーザーに求められてきたのと同じ厳格さと追跡可能性をもって保護することだ。
1. Agent Adoption is Accelerating Faster Than Identity Can Adapt 1. エージェント導入の加速がアイデンティティ適応を上回る
Organizations are rapidly operationalizing AI agents, with deployments expected to multiply in the next 12 months. Agents already span public cloud, private cloud, and on-prem environments, creating a highly distributed identity surface. Yet definitions remain fluid, contributing to inconsistent security expectations and practices.  組織はAIエージェントの運用化を急速に進めており、今後12ヶ月で展開数が倍増すると予測される。エージェントは既にパブリッククラウド、プライベートクラウド、オンプレミス環境にまたがり、高度に分散したアイデンティティ領域を形成している。しかし定義は流動的であり、セキュリティへの期待と実践の不一致を招いている。
2. Confidence in IAM for Agents is Low 2. エージェント向けIAMへの信頼は低い
Only a minority of organizations trust their existing IAM systems to manage agent identities effectively. Ownership is fragmented across Security, IT, and emerging AI functions, and most have not formalized agent governance strategies. Audit readiness is weak, underscoring that traditional human-centric IAM architectures are misaligned with agentic behavior. 既存のIAMシステムがエージェントのアイデンティティを効果的に管理できると確信している組織は少数派だ。所有権はセキュリティ、IT、新興AI機能に分散しており、大半はエージェントガバナンス戦略を正式化していない。監査対応態勢は脆弱で、従来の人間中心のIAMアーキテクチャがエージェントの挙動と整合していないことを浮き彫りにしている。
3. Static Credentials and Fragmented Controls Expose Organizations to Risk 3. 静的認証情報と断片化した制御が組織をリスクに晒す
Static API keys, shared accounts, and username/password credentials remain common authentication methods for agents. Runtime authorization with fine-grained guardrails are sparsely implemented, leaving long-lived access pathways and inconsistent policy enforcement across environments. 静的APIキー、共有アカウント、ユーザー名/パスワード認証は、エージェント向け認証手段として依然一般的だ。細粒度のガードレールを備えた実行時認可はほとんど実装されておらず、長期間存続するアクセス経路や環境横断的なポリシー適用の一貫性欠如を招いている。
4. Discovery and Traceability are Major Blind Spots 4. 発見と追跡可能性が主要な盲点
Real-time agent inventories are rare, and cross-environment traceability remains limited. Many organizations cannot reliably map an agent’s actions back to a human sponsor, leading to accountability gaps. Heavy reliance on human-in-the-loop oversight reflects both limited visibility and insufficient trust in autonomous workflows. リアルタイムのエージェント在庫管理は稀であり、環境横断的な追跡可能性は依然として限定的だ。多くの組織はエージェントの行動を人間のスポンサーに確実に紐付けられず、説明責任の欠如を招いている。人間による監視への過度の依存は、可視性の限界と自律ワークフローへの信頼不足の両方を反映している。
5. Investment is Rising as Governance Gaps Become Clear 5. ガバナンスの欠如が明らかになるにつれ投資が増加
Organizations are increasing identity and security budgets to address agent risk, with more establishing formal strategies. Top concerns—including credential misuse, lack of auditability, and over-permissioning—mirror the structural weaknesses surfaced across IAM, visibility, and control. 組織はエージェントリスクに対処するため、IDとセキュリティの予算を増額し、正式な戦略を策定するケースが増えている。資格情報の悪用、監査可能性の欠如、過剰な権限付与といった主要な懸念事項は、IAM、可視性、制御の全領域で露呈した構造的弱点を反映している。
Takeaway 要点
Enterprises are embracing AI agents, but their security and governance models have not yet caught up. The current approach remains reactive and fragmented, relying on static credentials, inconsistent controls, and limited visibility. To safely unlock the potential of autonomous agents and accelerate AI program adoption, organizations must invest in unified identity orchestration—spanning discovery, authentication, authorization, and continuous traceability. Success in the agentic era will hinge on treating agent identity with the same rigor historically reserved for human users, enabling secure autonomy at enterprise scale. エンタープライズはAIエージェントを導入しているが、そのセキュリティとガバナンスモデルはまだ追いついていない。現在のアプローチは依然として事後対応的で断片的であり、静的な認証情報、一貫性のない制御、限られた可視性に依存している。自律型エージェントの可能性を安全に解き放ち、AIプログラムの導入を加速させるためには、組織は発見、認証、認可、継続的な追跡可能性を網羅する統合されたアイデンティティオーケストレーションに投資しなければならない。エージェント時代の成功は、従来人間ユーザーにのみ適用されてきた厳格な基準をエージェントのアイデンティティにも適用し、エンタープライズ規模での安全な自律性を実現できるかどうかにかかっている。

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

| | Comments (0)

2026.02.08

英国 AI機会行動計画:1年後の現状 (2026.01.29)

こんにちは、丸山満彦です。

英国が昨年1月13日にAI機会行動計画 (AI Opportunities Action Plan) を発表してから1年後の状況について、公表していますね...

「英国のAI機会行動計画は、1年で確実に成果を出し始めた。これからは“加速フェーズ”に入る。」って感じ?でも、国家の体力の問題ですかね...「計算資源の不足」、「人材不足」、「中小企業のAI導入の遅れ」、「EUにはならないけどEUを無視はできない」、「政府一丸で進めるのも意外と難しい」、「米国、中国、EUの前にはでられない」という感じで苦しんでいる感じなんですかね。。。

日本も似たようなところはありますね。。。きっと。。。日本の場合は、もっと連携が重要ですかね。。。政府だけでなく、政府と経済界の一体感も重要かもですが、米国、EU、中国、英国、韓国といった世界状況をみながら、熟慮をし、熟議をしないといけない。単細胞生物のような脳幹反応ではなく、大脳の前頭葉で考え、議論できなくてはならないのでしょうね。。。

 

UK.GOV

・2025.01.29 AI Opportunities Action Plan: One Year On

目次...

Foreword by the Prime Minister 首相まえがき
Foreword by the Secretary of State for Science, Innovation and Technology 科学・イノベーション・技術大臣まえがき
Introduction 序論
1.Lay the foundations to enable AI 1. AIを実現するための基盤を整える
2.Change lives by embracing AI 2. AIを受け入れることで生活を変える
3.Secure our future with homegrown AI 3. 自国開発のAIで未来を確かなものにする

 

 

 

ダッシュボード...

AI Opportunities Action Plan

20260208-62654

 

 

 

 

日本のAI計画

● 内閣府

人工知能計画

 

EUのAI計画

・2020.02.19 WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust

20260208-63923

EU AI法

・2024.07.12 Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) 

 

米国

U.S. White House

・2025.07.23 White House Unveils America’s AI Action Plan

20260208-64851

 

中国

AIを国家戦略に含める

・2016.11.29 “十三五”国家战略性新兴产业发展规划

AI戦略の原点

・2017.07.08 新一代人工智能发展规划

・2020.07.27 [PDF] 国家新一代人工智能标准体系建设指南

・2021.09.26 新一代人工智能伦理规范

・2021.12.21 “十四五”机器人产业发展规划 [PDF]

規制整備...

・2023.07.10 生成式人工智能服务管理暂行办法

社会展開

・2024.06.05 国家人工智能产业综合标准化体系建设指南(2024版) [PDF]

・2025.03.12 政府工作报告

・2025.08.21 国务院关于深入实施“人工智能+”行动的意见

 

ざっと比較すると...某AIによる分析

米国 英国 日本 EU 中国
AIの位置づけ 技術覇権・国家安全保障の中核 成長エンジン+安全性リーダー 社会適合性・慎重な技術 社会制度・人権保護の対象 国家統治・軍民融合・産業覇権
中心文書の性格 America’s AI Action Plan(行動計画) AI Opportunities Action Plan(行動計画) 年次AI戦略+省庁指針 AI Act(包括規制) 次世代AI計画+五カ年計画+AI+行動
推進主体 民間主導+国家安全保障 政府主導(中堅国モデル) 省庁分散・合意形成 法制度主導 国家主導(党・政府・地方)
規制スタイル デレギュレーション(規制撤廃)+セクター規制 原則ベース・柔軟 ソフトロー(ガイドライン) ハードロー(AI Act) 国家安全保障優先の統制型
価値観・ナラティブ 自由・競争・反規制・反DEI 安全性×成長の両立 人間中心・安心・社会受容性 人権・透明性・公平性 国家安全・社会安定・統治能力
インフラ(compute・半導体) 世界最大のcompute・半導体覇権 compute不足を自覚 compute不足が慢性化 compute不足・米国依存 国家投資で急拡大(制裁の影響あり)
産業政策 民間主導で爆速 中小企業支援が課題 産業界の圧力で加速中 規制が重く成長は遅い 国家主導の産業総動員
社会実装 市場が勝手に広げる 政府がユースケースを整理 分野別に慎重に導入 高リスク領域は厳格 「AI応用シーン」政策で全領域に展開
国際戦略 中国封じ込め+同盟国へのAI輸出 安全性外交で席を確保 国際協調・調和役 規制のブリュッセル効果 国際標準化で影響力拡大
軍事・安全保障 AI軍事化を明確化 NATO連携・安全性重視 防衛省は慎重 軍事色は薄い 軍民融合でAI軍事化を加速
国家の“心の声” 「AIで負けたら覇権を失う」 「中堅国として存在感を維持したい」 「社会に迷惑をかけずに進めたいが遅れたくない」 「AIが社会秩序を壊すなら成長はいらない」 「AIは国家統治と覇権の鍵。総動員せよ」

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

英国

・2025.08.09 英国 司法分野におけるAI行動計画(2025.07.31)

・2025.01.27 英国 現代的デジタル政府のための青写真 (2025.01.21)

・2025.01.27 英国 デジタル政府の現状 (2025.01.21)

・2025.01.26 英国 AI機会行動計画 (2025.01.13)

 

米国

・2025.07.25 米国 ホワイトハウス AI行動計画(2025.07.23)

2025.01.21 米国 トランプ大統領が大統領令14110 人工知能の安全、安心、信頼できる開発と利用を含む67の大統領令と11の覚書を撤回する大統領令を出しましたね...(2025.01.20)

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

 

| | Comments (0)

米国 CSET 物理AI 政策立案者向けAIとロボティクスの融合入門

こんにちは、丸山満彦です。

米国の安全保障・新興技術センターが物理AI (Physical AI) についての報告書が公表されていますね...

物理AI は「AI × ロボティクス」で、次のブーム?

技術的にも収斂が進んでいるが、依然として多くのボトルネックが存在するということのようです。

ボトルネックとしては、3次元認識、器用さ、標準化、大量生産...

米中を中心に競争が激化しており、政策的介入が重要になるという認識のようですね。日本もロボティックスの分野では優位性がまだあるような気がします...

 

Center for Security and Emerging Technology

・2026.02 Physical AI - A Primer for Policymakers on AI-Robotics Convergence

Physical AI A Primer for Policymakers on AI-Robotics Convergence 物理AI 政策立案者向けAIとロボティクスの融合入門
This paper examines the convergence of artificial intelligence and robotics, analyzing the emerging field of Physical AI. It provides a detailed overview of the supply chain challenges, competitive dynamics, and policy considerations that define this potentially transformative emerging technology. 本稿は人工知能とロボティクスの融合を検証し、新興分野である物理AIを分析する。この変革をもたらす可能性を秘めた新興技術を特徴づける、サプライチェーン上の課題、競争力学、政策上の考慮事項について詳細な概観を提供する。

 

・[PDF]

20260207-03050

・[DOCX][PDF] 仮訳

 

 

目次...

Executive Summary エグゼクティブサマリー
Introduction 序論
Scoping and Defining the AI-Robotics Supply Chain AI-ロボティクス供給網の範囲設定と定義
Manifesting Physical AI: Describing the Robotics Hardware Supply Chain 物理的AIの具現化:ロボティクスハードウェア供給網の記述
Building Sentient Silicon: AI Advances and the Robotics Software Supply Chain 知覚するシリコンの構築:AIの進歩とロボティクスソフトウェアのサプライチェーン
Competitiveness Assessment: AI-Robotics Convergence 競争力アセスメント:AIとロボティクスの融合
Innovation Ecosystem Mapping: AI-Robotics Research, Patents, and Investment イノベーション・エコシステムのマッピング:AI-ロボティクス研究、特許、投資
ETO Research Almanac: Publications and Patents ETOリサーチ年鑑:出版物と特許
ETO Country Activity Tracker: Investment Data ETO国別活動トラッカー:投資データ
Characterizing Relative National Standing: AI-Robotics Market Analysis 相対的な国家の立ち位置の特性化:AI-ロボティクス市場分析
AI-Robotics Foundation Models and the Software Ecosystem AIロボティクス基盤モデルとソフトウェアエコシステム
Robotics Hardware Components ロボティクスハードウェアコンポーネント
Robot Manufacturers ロボット製造事業者
Robot Deployment and End Users ロボット展開とエンドユーザー
Conclusion: Technology Trends Assessment 結論:技術動向のアセスメント
Author 著者
Acknowledgments 謝辞
Appendix 1. Template for Technology Competitiveness Assessment: Technical LevelSetting 附属書1. 技術競争力アセスメントテンプレート:技術レベル設定
Endnotes 脚注

 

エグゼクティブサマリー...

Executive Summary エグゼクティブサマリー
While the world has focused its attention for the last three years on generative artificial intelligence, chatbots, and new model releases coming from frontier AI labs, a quieter revolution is taking place that many believe represents the next stage in AI development: the arrival of Physical AI. Like the iPhone’s introduction in 2007, AlexNet’s victory in the 2012 ImageNet competition, and ChatGPT’s release in 2022, analysts and industry representatives believe a similar breakthrough is imminent. 過去3年間、世界は生成的人工知能、チャットボット、最先端AI研究所からの新モデル発表に注目してきたが、その陰で静かな革命が起きている。多くの専門家がAI発展の次なる段階と見なす「物理AI」の到来だ。 2007年のiPhone登場、2012年のImageNetコンテストにおけるAlexNetの勝利、2022年のChatGPTリリースと同様に、アナリストや業界代表者は、同様のブレークスルーが差し迫っていると確信している。 
Physical AI “lets autonomous systems like robots, self-driving cars, and smart spaces perceive, understand, and perform complex actions in the real (physical) world.”1 NVIDIA has declared “in the near future, everything that moves, or that monitors things that move, will be autonomous robotic systems.”2 OpenAI reportedly re-opened its robotics division in early 2025 to capitalize on the convergence of AI and robotics, while startups from Shanghai to Silicon Valley building the “brains” of robots are raising hundreds of millions of dollars.3 Electric vehicle makers Tesla and XPeng are racing to develop humanoid robots of their own.4 Meanwhile Amazon, which reports having one million robots in operation today, believes “Physical AI is about to change everything for robotics [including] autonomy, manipulation, sortation, and computer vision.”5 Adding to this enthusiasm, analysts at Morgan Stanley assert the market for humanoid robots will grow from tens of millions of dollars today to reach $5 trillion by 2050.6 物理AIとは「ロボット、自動運転車、スマート空間といった自律システムが、現実(物理)世界で複雑な行動を認識し、理解し、実行することを可能にする」技術だ1。NVIDIAは「近い将来、動くもの、あるいは動くものを監視するものは全て自律型ロボットシステムになる」と宣言している(2)。 OpenAIは2025年初頭にロボットディビジョンを再始動させ、AIとロボット工学の融合を推進していると報じられている。一方、上海からシリコンバレーまで、ロボットの「頭脳」を開発するスタートアップ企業は数億ドルの資金調達に成功している。3 電気自動車メーカーのテスラとXPengは、自社開発の人型ロボット開発を競っている。4 一方、現在100万台のロボットを稼働させていると報告するアマゾンは、「物理AIが自律性、操作、仕分け、コンピュータビジョンを含むロボット工学の全てを変えようとしている」と確信している。(5)この熱狂に拍車をかけるように、モルガン・スタンレーのアナリストは、ヒューマノイドロボット市場が現在の数千万ドル規模から2050年までに5兆ドルに達すると主張している。6
Yet the convergence of AI and robotics is so new that the field lacks a shared name, to say nothing of a mature technology stack. Some companies call this convergence “embodied AI” while others prefer “physical AI,” “embodied machine intelligence,” or “generative physical AI.”7 It is not at all clear if the hype around AI progress can translate into robots finding their way through the physical world: autonomous three-dimensional navigation of dynamic environments requires a mature software, hardware, and data ecosystem that simply does not exist at scale today. NVIDIA states part of the problem plainly: “Large language models are one-dimensional, able to predict the next token, in modes like letters or words. Image- and video-generation models are two-dimensional, able to predict the next pixel. None of these models can understand or interpret the 3D world.”8 しかしAIとロボティクスの融合は極めて新しく、分野全体で共通の名称すら存在せず、成熟した技術基盤などなおさらない。 この融合を「具現化されたAI」と呼ぶ企業もあれば、「物理AI」「具現化された機械知能」「生成的物理AI」を好む企業もある。7AI進歩への過剰な期待が、ロボットが物理世界で自律的に行動する能力に結びつくかは全く不透明だ。動的な環境における自律的な三次元ナビゲーションには、ソフトウェア・ハードウェア・データの成熟したエコシステムが必要だが、現時点で大規模に存在するものではない。 NVIDIAは問題の一部を明快に指摘している:「大規模言語モデルは一次元的で、文字や単語といったモードにおいて次のトークンを予測できる。画像・動画生成モデルは二次元的で、次のピクセルを予測できる。これらのモデルはいずれも3次元世界を理解したり解釈したりできない」8。 
The primary challenges facing Physical AI are the same ones that have troubled the robotics industry for generations: technology barriers and economic barriers. Parts of the robotics supply chain remain in their industrial infancy, key hardware technology breakthroughs remain elusive, and even recent advances are not ready for scalable manufacturing. Batteries, motors, sensors, and actuators evolve far more slowly than algorithms and software, and scalable manufacturing requires large amounts of patient capital. In addition, much of the supply chain for robotics components is commoditized, and the relatively slim margins dissuade innovative startups from competing with established incumbents. Adding to these challenges, each robotics company is pursuing its own unique approach, meaning the supply chain of components and parts remains largely non-standardized, hampering scalability and adding cost. The gap between impressive demonstrations in controlled environments and the promise of millions of affordable robots acting independently as they navigate the world is enormous. 物理AIが直面する主な課題は、ロボット産業が長年悩まされてきたものと同じだ。技術的障壁と経済的障壁である。ロボット産業のサプライチェーンの一部は未だ産業として未熟な段階にあり、ハードウェア技術の重要なブレークスルーは依然として実現しておらず、最近の進歩でさえも量産製造には対応できていない。バッテリー、モーター、センサー、アクチュエーターはアルゴリズムやソフトウェアに比べてはるかに進化が遅く、量産製造には大量の忍耐強い資本が必要だ。さらに、ロボット部品のサプライチェーンの大半はコモディティ化しており、比較的低い利益率は革新的なスタートアップが既存企業と競争する意欲を削ぐ。これらの課題に加え、各ロボット企業が独自のアプローチを追求しているため、部品・パーツのサプライチェーンは依然として非標準化が続き、スケーラビリティを阻害しコストを増大させている。制御された環境での印象的なデモンストレーションと、世界中で自律的に動作する数百万台の手頃な価格のロボットという約束との間には、巨大な隔たりがある。
The focus of this paper is on characterizing the convergence of Physical AI and robotics, its underlying supply chain, and identifying competitive advantages as well as constraints. This paper provides background on the technology and describes the ecosystem and supply chain of hardware and software suppliers supporting the technology. It then characterizes competitiveness worldwide using bibliometrics, patents, investment data, and industry reports to determine firm leadership, constraints, and breakthroughs across the technology ecosystem from AI foundation models and software to hardware component and robot manufacturers as well as end users. It concludes with a summary of drivers and positive trends, as well as constraints and limiting trends with an eye towards opportunities policymakers interested in promoting the tech industry’s next breakthrough moment can consider. 本稿の焦点は、物理AIとロボティクスの融合、その基盤となるサプライチェーンの特徴付け、競争優位性と制約の識別にある。本稿では技術の背景を説明し、この技術を支えるハードウェア・ソフトウェアプロバイダのエコシステムとサプライチェーンを記述する。 次に、文献計量学、特許、投資データ、業界レポートを用いて世界的な競争力を分析し、AI基盤モデルやソフトウェアからハードウェア部品・ロボット製造事業者、エンドユーザーに至る技術エコシステム全体における企業のリーダーシップ、制約、ブレークスルーを特定する。最後に、推進要因と好ましい傾向、制約と抑制的傾向をまとめ、技術産業の次のブレークスルーを促進したい政策立案者が考慮すべき機会を考察する。
This paper builds on previous CSET research looking at the robotics patent landscape to characterize competitiveness using CSET’s Map of Science and separate research that proposed a methodology for identifying and characterizing an emerging technology.9 It concludes by introducing a template that could be used by policymakers interested in global competitiveness assessment of other emerging technologies. 本論文は、ロボット工学特許の競争力分析に用いたCSETの「科学マップ」と、新興技術の識別・分析手法を提案した別研究9を基盤としている。最後に、他の新興技術におけるグローバル競争力アセスメントに関心を持つ政策立案者が活用可能なテンプレートを紹介する。
1. “What is Physical AI?” NVIDIA, [web] . 1 「物理AIとは何か?」NVIDIA
2. Madison Huang, “What is NVIDIA’s Three-Computer Solution for Robotics?” NVIDIA (blog), August 8, 2025, [web] 2 マディソン・ファン、「NVIDIAのロボット向け3コンピュータソリューションとは?」NVIDIA(ブログ)、2025年8月8日 
3. Michael J. de la Merced, “Physical Intelligence, a Robot A.I. Specialist, Raises Millions From Bezos,”The New York Times, November 4, 2024, [web] ; Amanda Greenwood, “OpenAI’s secret robot plans revealed,” The AI Report, January 13, 2025, [web] ; “Chinese embodied AI startup TARS raises $120m in angel funding,” Tech In Asia, March 25 2025, [web] . 3 Michael J. de la Merced、「ロボット AI 専門企業 Physical Intelligence、ベゾスから数百万ドルを調達」『ニューヨーク・タイムズ』2024年11月4日。 アマンダ・グリーンウッド、「OpenAI の秘密のロボット計画が明らかに」、『The AI Report』、2025年1月13日。 「中国の具現化 AI スタートアップ TARS、エンジェル投資で 1億2000万ドルを調達」、『Tech In Asia』、2025年3月25日。
4. Tom Carter, “Tesla’s Chinese EV competitors are racing to build their own Optimus rivals,” Business Insider, November 2024, [web] ; Aditi Bharade & Cheryl Teh, “China’s spring festival celebration featured a fleet of dancing robots that flexed the country’s advancements in robotics,” Yahoo!Tech, January 29, 2025, [web] ; Jack Ewing, “Elon Musk Shows Off Tesla ‘Robotaxi’ That Drives Itself,” The New York Times, October 10, 2024, [web] . 4 トム・カーター「テスラの中国EV競合他社は自社版オプティマス開発を急ぐ」ビジネスインサイダー、2024年11月; Aditi Bharade & Cheryl Teh, 「中国の春節のお祝いでは、ロボット工学の進歩を誇示するダンスロボットの群れが登場した」, Yahoo!Tech, 2025年1月29日, ; ジャック・ユーイング、「イーロン・マスク、自動運転のテスラ『ロボットタクシー』を披露」、ニューヨーク・タイムズ、2024年10月10日。
5. “Amazon VP shares his approach to the future of robotics innovation,” Amazon, April 10, 2025, [web] ; Scott Dresser, “Amazon launches a new AI foundation model to power its robotic fleet and deploys its 1 millionth robot,” Amazon Robotics, June 30, 2025, [web] . 5 「Amazon副社長がロボット工学の未来に対するアプローチを語る」、Amazon、2025年4月10日、; スコット・ドレッサー、「Amazonがロボット群を動かす新しいAI基盤モデルを発表、100万台目のロボットを展開」、Amazon Robotics、2025年6月30日. 
6. Pia Singh, “Morgan Stanley says humanoid robots will be a $5 trillion market by 2050. How to play it,” CNBC, April 29, 2025, [web] . 6 ピア・シン、「モルガン・スタンレーは、2050年までにヒューマノイドロボット市場が5兆ドル規模になると予測している。 投資戦略」CNBC、2025年4月29日。
7. The trend that appears to have gotten the most traction in the past year, as measured by Google Search, is “Physical AI.” See: “Search: Interest in Physical AI, Embodied AI, and Related Terms,” Google Trends, [web] . 7 Google検索で測定すると、過去1年間で最も注目を集めたトレンドは「物理AI」である。 参照:「検索:物理AI、具現化AI、および関連用語への関心」Google Trends、。 
8. Huang, “What is NVIDIA’s Three-Computer Solution?” 8 Huang, 「NVIDIAの3台コンピュータソリューションとは何か?」
9. Sara Abdulla, “China’s Robotics Patent Landscape,” Center for Security and Emerging Technology, August 2021, [web] . 9 サラ・アブドゥラ「中国のロボット特許動向」安全保障・新興技術センター、2021年8月。

 

 

 

 

| | Comments (0)

2026.02.07

EDPB 国際データ保護執行協力に関する報告書 (2026.02.02)

こんにちは、丸山満彦です。

EDPBが、「国際データ保護執行協力に関する報告書」を公表していますね...

越境データ保護執行の実効性と信頼性を高めることを目的として現状を分析しているものですかね...

EUのDPA間の国際的な執行協力は法的・実務的に未成熟で断片化しており、現行の条項やソフトローだけでは共同捜査、機密情報共有、外国での決定執行など高度な協力を十分に実現できないという判断のようですね...

そこで、消費者保護や競争法の成功事例を参考に、法的枠組みの強化、政府間条約、標準化テンプレート、安全な情報共有プラットフォーム、運用上の専門部隊設置などの包括的改革を提言していますね...

消費者保護、競争法の事例を見るというのは、確かに...

 

● EDPB

・2026.02.02 Report on International Data Protection Enforcement Cooperation

Report on International Data Protection Enforcement Cooperation 国際データ保護執行協力に関する報告書
The Report on International Data Protection Enforcement Cooperation focuses on the cooperation between EEA data protection authorities (DPAs) and DPAs in countries or organisations with an EU adequacy decision, while also exploring how insights from other regulatory fields may inspire improvements to strengthen cross-border enforcement cooperation. 国際データ保護執行協力に関する報告書は、EEA データ保護当局(DPA)と、EU の十分性認定を受けた国や組織の DPA 間の協力に焦点を当てると同時に、他の規制分野からの知見が、国境を越えた執行協力の強化に向けた改善にどのように役立つかを考察している。
The Report analyses the current state of international enforcement cooperation in data protection and assesses whether, and to what extent, useful lessons can be drawn from the related cooperation frameworks in consumer protection and competition law. To this end, the Report reviews both legally binding and “soft law” instruments currently available to DPAs, evaluates their practical use, and identifies the challenges that hinder more robust forms of cross-border cooperation. 本報告書は、データ保護における国際的な執行協力の現状を分析し、消費者保護および競争法に関する関連協力の枠組みから有用な教訓を引き出すことができるかどうか、またその程度について評価している。この目的のために、本報告書は、DPA が現在利用可能な法的拘束力のある手段と「ソフトロー」の両方を検討し、その実用性を評価し、より強固な形の国境を越えた協力を妨げる課題を特定している。
The EDPB launched this project in the context of the Support Pool of Experts programme as part of its cooperation with DPAs  from countries and organisations with an EU adequacy decision. 欧州データ保護委員会(EDPB)は、EUの十分性認定を受けた国・組織のデータ保護当局との協力の一環として、専門家支援プールプログラムの枠組みで本プロジェクトを開始した。
Project completed by the external expert Helena Kastlova in September 2025. 外部専門家ヘレナ・カストロヴァにより2025年9月に完了。
Objective 目的
The Report on International Data Protection Enforcement cooperation puts forward a comprehensive analysis on the state of play of international data protection enforcement cooperation, compares it with the cooperation practices among authorities in other regulatory fields and DPAS with a forward-looking set of recommendations for enhancing international enforcement cooperation in data protection. 国際データ保護執行協力に関する報告書は、国際データ保護執行協力の現状について包括的な分析を提示し、他の規制分野における当局間協力やデータ保護当局間の協力慣行と比較するとともに、データ保護分野における国際執行協力の強化に向けた将来を見据えた一連の提言を提示するものである。

 

・[PDF]

20260205-92112

・[DOCX][PDF] 仮訳

 

INTRODUCTION AND SCOPE 序論及び範囲
EXECUTIVE SUMMARY エグゼクティブサマリー
I. INTERNATIONAL ENFORCEMENT COOPERATION IN THE FIELD OF DATA PROTECTION I. データ保護分野における国際的な執行協力
1. Existing Legal Instruments Available for International Enforcement Cooperation among DPAs 1. データ保護機関間の国際的な執行協力のために利用可能な既存の法的手段
A. Legally Binding Instruments A. 法的拘束力のある手段
(1) National Law Provisions (1) 国内法の規定
(2)  Multilateral International Agreements (2)  多国間国際協定
(3) Bilateral International Agreements (3) 二国間国際協定
B. Soft Law Cooperation B. ソフトローによる協力
(1) Memoranda of Understanding (1) 覚書
(2) Other Forms of Bilateral Cooperation (2) その他の二国間協力
(3) Global Cooperation Fora (3) グローバル協力フォーラム
(4) Ad-hoc cooperation (4) 臨時の協力
2. Nature and Extent of Enforcement Cooperation with Other DPAs in Practice 2. 実務における他のデータ保護機関との執行協力の性質と範囲
3. Key Challenges and Limitations to Effective International Enforcement Cooperation 3. 効果的な国際的な執行協力における主な課題と制約
4. Specific Forms of Cooperation and Their Legal and Other Limitations 4. 具体的な協力形態と法的・その他の制約
A. Sharing of Personal Data A. 個人データの共有
B. Sharing of Confidential Information B. 機密情報の共有
C. Investigative Assistance C. 調査支援
D. Cross-regulatory Cooperation D. 規制機関間の協力
II. INTERNATIONAL ENFORCMENT COOPERATION IN OTHER REGULATORY FIELDS II. その他の規制分野における国際的な執行協力
II.1 CONSUMER PROTECTION II.1 消費者保護
1. Existing Legal Instruments Available for International Enforcement Cooperation among Consumer Protection Regulators 1. 消費者保護規制当局間の国際的な執行協力のために利用可能な既存の法的手段
A. Global Cooperation Fora A. グローバルな協力の枠組み
(1) International Consumer Protection and Enforcement Network (1) 国際消費者保護・執行ネットワーク
(2) Organization for Economic Cooperation and Development (2) 経済協力開発機構
(3) United Nations Trade and Development (3) 国連貿易開発会議
B. EU-level International Cooperation B. EU レベルの国際協力
C. Bilateral Cooperation C. 二国間協力
(1) Memoranda of Understanding (1) 覚書
(2) National Legal Frameworks Enabling Enforcement Cooperation: The Example of the United Kingdom (2) 執行協力を可能にする国内枠組み:英国の事例
2. Comparing Data Protection and Consumer Protection: Regulatory Approaches, Enforcement Challenges, and Cooperation Instruments 2. データ保護と消費者保護の比較:規制アプローチ、執行上の課題、協力手段
A. Regulatory and Enforcement Differences A. 規制と執行の違い
B. Key Challenges to Cross-border Enforcement Cooperation in the Consumer Protection Area B. 消費者保護分野における国境を越えた執行協力の主な課題
C. Instruments for International Cooperation C. 国際協力のための手段
II.2 COMPETITION II.2 競争
1. Existing Legal Instruments Available for International Enforcement Cooperation among Competition Regulators 1. 競争規制当局間の国際的な執行協力のために利用可能な既存の法的手段
A. Legally Binding Instruments A. 法的拘束力のある手段
(1) National Law Provisions (1) 国内法の規定
(2) Confidentiality Waivers (2) 守秘義務免除
(3) Intergovernmental Agreements (3) 政府間協定
B. Soft Law Cooperation B. ソフトロー協力
(1) Global Cooperation Fora (1) グローバル協力フォーラム
(2) EU-level International Cooperation (2) EU レベルでの国際協力
(3) Memoranda of Understanding (3) 覚書
2. Comparing Data Protection and Competition Fields: Regulatory Approaches, Enforcement Challenges, and Cooperation Instruments 2. データ保護と競争分野を比較する:規制アプローチ、施行上の課題、協力手段
A. Regulatory and Enforcement Differences A. 規制と執行の違い
B. Key Challenges to Cross-border Enforcement Cooperation in the Competition Area B. 競争分野における国境を越えた執行協力の主な課題
C. Instruments for International Cooperation C. 国際協力のための手段
III. RECOMMENDATIONS FOR IMPROVING INTERNATIONAL ENFORCEMENT COOPERATION BETWEEN DATA PROTECTION AUTHORITIES III. データ保護当局間の国際的な執行協力の改善に関する提言
A. Enhanced Legal Framework Development A. 法的枠組みの強化
(1) Maximizing Use of Existing Legal Frameworks (1) 既存の法的枠組みの最大限の活用
(2) Adoption of “Second Generation” Cooperation Agreements (2) 「第 2 世代」協力協定の採択
(3) Development of Data Protection-Specific Waivers (3) データ保護に関する免除規定の策定
B. Technical, Structural and Operational Improvements B. 技術的、構造的、運用上の改善
(1) Secure Information Sharing Platform (1) 安全な情報共有プラットフォーム
(2) Joint Investigations Frameworks (2) 共同捜査の枠組み
(3) Dedicated International Cooperation Units, Resource Pooling and Capacity Building (3) 国際協力専門ユニット、資源の共有、能力構築
(4) Research and Analysis (4) 調査と分析
(5) Global Cooperation Fora Engagement (5) グローバル協力フォーラムへの関与
(6) Integrating Cooperation Commitments into Adequacy Frameworks (6) 協力の約束を適正性枠組みに統合する
C. Addressing Specific Cooperation Challenges Through Government-Level Interventions C. 政府レベルの介入による具体的な協力課題への取り組み
(1) Ensure Adequate Resourcing (1) 適切な資源の確保
(2) Cross-Border Enforcement Mechanisms (2) 国境を越えた執行メカニズム
(3) Reciprocity and Dual Unlawfulness Solutions (3) 相互主義と二重違法性解決策
D. Guidance and Standard-Setting D. ガイダンスと標準の設定
(1) Comprehensive Enforcement Cooperation Guidance (1) 包括的な執行協力ガイダンス
(2) Model Agreements and Templates (2) モデル協定およびテンプレート
(3) Toolkit of Legislative Actions (3) 立法措置のツールキット
E. Strengthening Institutional Framework E. 機構の枠組みの強化
ANNEX 1: ABBREVIATIONS 附属書 1:略語
ANNEX 2: QUESTIONNAIRE 附属書 2:質問票
AUTHOR’S DISCLAIMER 著者の免責事項

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY  エグゼクティブサマリー 
Unlike the structured daily enforcement cooperation among EEA DPAs under the GDPR, enforcement cooperation between authorities at the international level is rather limited and primarily consists of soft forms of cooperation, such as informal exchanges of best practices, general information sharing, or participation in global fora. The analysis reveals that although a variety of legal instruments supports some forms of enforcement cooperation between DPAs, there is a substantial gap between the theoretical possibilities and their practical utilization, with most efforts concentrated among only a few countries. In addition, enhanced forms of cooperation— such as conducting joint investigations, providing investigative assistance, or enforcing DPA decisions abroad—often lack adequate legal support or require additional mechanisms, sometimes beyond the direct control of DPAs.   GDPRに基づくEEA域内データ保護当局間の日常的な執行協力とは異なり、国際レベルでの当局間執行協力は限定的であり、主にベストプラクティスの非公式な交換、一般的な情報共有、国際フォーラムへの参加といったソフトな協力形態に留まっている。分析によれば、様々な法的手段がデータ保護当局間の執行協力の一部形態を支えているものの、理論上の可能性と実際の活用には大きな隔たりがあり、その大半の取り組みはごく少数の国々に集中している。 さらに、共同調査の実施、調査支援の提供、国外でのDPA決定の執行といった強化された協力形態は、十分な法的裏付けを欠いているか、追加的な仕組みを必要とする場合が多く、時にはDPAの直接的な管理範囲を超えることもある。  
The findings of this Report confirm that DPAs face a number of legal and practical challenges: legal barriers to sharing confidential information and exercising investigatory powers on behalf of foreign DPAs, the existence of reciprocity requirements, the absence of mechanisms for enforcing DPA decisions in third countries, as well as resource and operational constraints. In addition, enforcement cooperation suffers from fragmentation into multiple overlapping multilateral fora with varying mandates, and some initiatives appear to have limited enforcement value.  本報告書の調査結果は、データ保護機関が多くの法的・実務的課題に直面していることを裏付けている。具体的には、機密情報の共有や外国のデータ保護機関に代わる調査権限の行使に対する法的障壁、相互主義要件の存在、第三国におけるデータ保護機関の決定執行メカニズムの欠如、そして資源や運用上の制約である。さらに、執行協力は、様々な権限を持つ複数の重複する多国間フォーラムに細分化されているため、一部の取り組みは執行上の価値が限定的であるように見える。 
Experience from consumer protection and competition law provides useful inspiration. In the consumer protection field, the International Consumer Protection and Enforcement Network (ICPEN) serves as the primary forum for multilateral enforcement cooperation, with participation from most regulators in EEA countries and countries with an EU adequacy decision. ICPEN’s econsumer.gov secure platform enables regulators worldwide to share consumer complaints and investigative information with the express consent of the data contributors. This model demonstrates how technological solutions, supported by consent mechanisms and confidentiality safeguards, may help overcome some barriers to information exchange. Further, the OECD’s “Implementation toolkit on legislative actions for consumer enforcement cooperation” illustrates how international organizations can assist regulators in reducing legal barriers to cross-border collaboration.  消費者保護と競争法の経験は有用な示唆を与える。消費者保護分野では、国際消費者保護・執行ネットワーク(ICPEN)が多国間執行協力の主要な場として機能しており、EEA加盟国およびEUの十分性認定を受けた国の規制当局の大半が参加している。 ICPENのeconsumer.govセキュアプラットフォームは、データ提供者の明示的な同意を得て、世界中の規制当局が消費者苦情や調査情報を共有することを可能にしている。このモデルは、同意メカニズムと機密保持措置によって支えられた技術的解決策が、情報交換の障壁の一部を克服するのに役立つことを示している。さらに、OECDの「消費者執行協力のための立法措置実施ツールキット」は、国際機関が規制当局の越境協力における法的障壁の低減をいかに支援できるかを示している。 
In the competition field, cooperation frameworks are even more mature and formalized. Bilateral “second-generation” intergovernmental agreements frequently include detailed provisions on investigative assistance, information exchange, and coordination of enforcement actions between competition authorities. Competition authorities also benefit from a welldeveloped body of practical cooperation tools, such as templates and best practice guidelines, produced through the International Competition Network (ICN). The widespread use of confidentiality waivers—particularly in merger investigations—demonstrates how voluntary mechanisms can effectively bypass legal obstacles to sharing confidential business information. Furthermore, the principles of negative comity (avoiding interference with other jurisdictions) and positive comity (actively assisting other jurisdictions) might help authorities to coordinate enforcement in a manner that avoids conflicts and allocates cases to the best-placed regulator.  競争分野では、協力枠組みはさらに成熟し形式化されている。二国間「第二世代」政府間協定には、競争当局間の調査支援、情報交換、執行措置の調整に関する詳細な規定が頻繁に含まれる。競争当局はまた、国際競争ネットワーク(ICN)を通じて作成されたテンプレートやベストプラクティスガイドラインなど、実践的な協力ツールの充実した体系からも恩恵を受けている。 (特に合併調査における)機密保持免除条項の広範な利用は、自発的メカニズムが機密ビジネス情報の共有における法的障害を効果的に回避できることを示している。さらに、ネガティブ・コミティ(他管轄区域への干渉回避)とポジティブ・コミティ(他管轄区域への積極的支援)の原則は、当局が衝突を避け、最適な規制当局に案件を割り当てる形で執行を調整するのに役立つ可能性がある。 
These tools, while developed in a different regulatory context, could be adapted to the data protection field.   これらの手法は異なる規制環境で開発されたものの、データ保護分野にも応用可能である。  
To overcome the identified obstacles and close the gap between theoretical cooperation possibilities and their practical implementation, the Report recommends a combination of legal, technical, and operational measures, drawing insights from successful practices in consumer and competition law while addressing the specific challenges DPAs are facing.  識別された障害を克服し、理論上の協力可能性と実践的実施の間のギャップを埋めるため、本報告書は法的・技術的・運用上の措置の組み合わせを推奨する。消費者法や競争法における成功事例から知見を得つつ、データ保護当局(DPA)が直面する特有の課題に対処するものである。 
From a legal standpoint, DPAs could make fuller use of existing frameworks and adopt less restrictive interpretations of relevant legal provisions, while governments could pursue comprehensive cooperation agreements possibly modeled on competition law practice. Model waivers adapted from competition practice could be developed to facilitate the cross-border sharing of certain confidential information across jurisdictions.   法的観点からは、DPAsは既存の枠組みをより十分に活用し、関連法規の解釈を制限的に行わないことが可能である。一方、政府は競争法実務をモデルとした包括的な協力協定の締結を追求できる。競争法実務から適応したモデル免除条項を開発し、管轄区域を越えた特定の機密情報の共有を促進することも考えられる。  
At the government-level, mutual recognition agreements or enforcement assistance treaties should be negotiated to address the absence of mechanisms for enforcing DPA decisions abroad— one of the most frequently cited cooperation gaps. Governments should also allocate sufficient resources for dedicated personnel, technical expertise, and operational infrastructure to enable meaningful participation in international cooperation. Furthermore, DPAs could encourage the European Commission to integrate cooperation commitments into adequacy frameworks.  政府レベルでは、相互承認協定や執行支援条約を交渉し、海外におけるDPA決定の執行メカニズムの欠如——最も頻繁に指摘される協力の空白の一つ——に対処すべきである。政府はまた、国際協力への実質的な参加を可能にするため、専任要員、技術的専門知識、運用インフラに十分な資源を配分すべきである。さらに、DPAは欧州委員会に対し、協力の約束を十分性認定枠組みに組み込むよう働きかけることができる。 
From a technical and operational perspective, DPAs should prioritize creation of a secure information-sharing platform, possibly modeled on econsumer.gov. Such a platform should allow for complaint submissions with clear indication of access rights, confidential information sharing with case-specific agreements, routine notifications, and language support features. The DPAs would also benefit from standardized frameworks for joint investigations. At the institutional level, establishing dedicated cooperation units, developing resource-pooling initiatives, creating joint training programs, and addressing the current fragmentation across multiple global enforcement cooperation fora—for example, by coordinating activities to avoid duplication—could strengthen cross-border collaboration.  技術・運用面では、DPAsはeconsumer.govをモデルとした安全な情報共有プラットフォームの構築を優先すべきだ。このプラットフォームは、アクセス権限を明確に示した苦情提出、事案別合意に基づく機密情報共有、定期的な通知、言語サポート機能を備える必要がある。共同調査のための標準化された枠組みもDPAsにとって有益だろう。 機構レベルでは、専任の協力部門の設置、資源プール化の取り組み、共同研修プログラムの創設、そして複数の国際執行協力フォーラムにまたがる現状の分断解消(例えば活動の調整による重複回避)が、国境を越えた連携強化につながる。 
The EDPB could further support these efforts by developing comprehensive guidance on international enforcement cooperation, including interpretation of Article 50 GDPR and clarification of confidentiality and professional secrecy obligations. DPAs in countries with an EU adequacy decision could also issue guidance clarifying these terms under their own legal frameworks. In addition, the EDPB and DPAs from countries with an EU adequacy decision could develop standardized templates and a legislative “toolkit,” modeled on OECD consumer protection initiatives, to provide governments and DPAs with practical instruments for enhancing cooperation.  欧州データ保護委員会(EDPB)は、GDPR第50条の解釈や守秘義務・職業上の秘密保持義務の明確化を含む、国際的な執行協力に関する包括的なガイダンスを策定することで、これらの取り組みをさらに支援できる。EUの十分性認定を受けた国のデータ保護当局も、自国の法的枠組みに基づきこれらの用語を明確化するガイダンスを発行できる。 さらに、EDPBとEUの十分性認定を受けた国のDPAsは、OECDの消費者保護イニシアチブをモデルにした標準化されたテンプレートと立法上の「ツールキット」を開発し、政府やDPAsに協力強化のための実践的な手段を提供できる。 
Implementing these recommendations requires a combination of leadership, concrete actions and operational reforms from DPAs, together with national governments’ engagement, but such measures are instrumental to maintaining the credibility and enforceability of data protection law in an increasingly interconnected global digital economy.  これらの提言を実施するには、データ保護当局によるリーダーシップ、具体的行動、運営改革と、各国政府の関与が組み合わされる必要がある。しかし、こうした措置は、相互接続が進むグローバルなデジタル経済において、データ保護法の信頼性と執行可能性を維持するために不可欠である。 

 

 

 

| | Comments (0)

2026.02.06

Q-STAR 量子リテラシー標準(QSS‑L)ver.1.0 (2026.02.03)

こんにちは、丸山満彦です。

一般社団法人量子技術による新産業創出協議会(Q-STAR)の監事をしております...で、昨日はPractives-SDGエグゼクティブセミナーにも参加しておりました...

・今年の日本政府の量子技術については、当初予算361億円で、補正で1,332億円、合計すると約1,700億円...

スーパーコンピュータと量子コンピュータの連携が世界の潮流になっている

・日本は政府主導の投資が目立つ...(アカデミックによっているかも)

・量子コンピュータは黎明期の汎用機とは違い、1社独占ではつくれないのではないか(クローズドなエコシステム?)

・量子コンピュータへの理解ができないと良いユースケースも思いつきにくいし、産業化も遅れる...

・AI for Quantum, Quantum for AI (AI for Quantumは現実的、Quantum for AIはこれから)

・量子コンピュータはエネルギー効率がよい

という感じでしたかね...

 

さて、そんなQ-STARが量子リテラシー標準(QSS‑L)ver.1.0を公表していますね...

 

一般社団法人量子技術による新産業創出協議会(Q-STAR)

・2026.02.03 量子時代に誰でも“量子の基本”が学べる指針 「量子リテラシー標準(QSS-L)ver.1.0」を策定・公開

・[PDF]

20260205-161516

 

20260205-163004

 

Why なぜ量子技術か
社会的背景 量子技術が今後の社会や経済の基盤技術として広く活用されていく可能性があることを知っている
量子技術がAI、セキュリティなど他の先端技術と結びつきながら、社会基盤を再構成しつつあることを知っている
教育、行政、金融、安全保障など、特定の産業にとどまらず社会全体に影響を及ぼしうることを知っている
技術の発展に先行して、社会理解と制度整備が求められる段階にあることを知っている
量子技術に対する過度な期待や誤解が、意思決定や投資判断に影響を与えるリスクがあることを知っている
国家戦略(例:日本政府の「量子未来社会ビジョン」)や、国際的な量子人材育成競争が進行していることを知っている
若年層から社会人まで、量子技術の理解がキャリア選択やリスキリングの契機になりうることを知っている
市民やビジネスパーソンとして、量子技術の意義を正しく捉え、社会との関係性を問い直す姿勢が求められていることを知っている
技術的変化 量子コンピュータや量子暗号、量子センシングなど、複数の量子関連技術が並行して発展していることを知っている
現在は研究・開発段階にある技術が、今後10年で社会実装フェーズに入ると見込まれていることを知っている
量子技術は既存のデジタル技術(AI、クラウド、IoTなど)と組み合わせて活用されることが多いことを知っている
技術ごとの成熟度に差があり、「実用化されつつある技術」と「長期的な研究段階にある技術」とを区別する視点が重要であることを知っている
直感とは異なる物理法則(重ね合わせ・もつれ等)を前提としており、それゆえに理解と判断のための新しい視点が求められることを知っている
社会的・産業的ニ ーズ 社会実装には研究者や技術者だけでなく、ビジネス、政策、教育など多様な現場にいる人々の関与が必要とされていることを知っている
創薬、物流、金融、エネルギー、材料開発など、産業ごとに異なる課題に対して適用し得る多様な可能性を持っていることを知っている
各産業において、量子技術を評価・翻訳・説明し、事業や政策と接続する中間的な役割が重要であることを知っている
社内外の関係者と共通言語で量子技術を語るための基盤的なリテラシーが必要とされていることを知っている
量子技術に関する基本的な理解があることで、他者との協業、新たな専門職との接点、技術の社会的翻訳などの可能性が広がることを知っている
What 量子技術とは
基本構造と原理 量子ビットの概念と重ね合わせ
量子もつれ(エンタングルメント)の原理
マクロ世界とミクロ世界の接続
古典物理学との比較と補完関係
古典コンピュータとの違いの理解
ゲート型とアニーリング型の違い
量子ハードウェアとソフトウェアの基本構造
量子ハードウェアの理解
量子暗号・量子通信の基礎概念
社会・産業応用 創薬・金融・物流等の応用可能性を把握している
AIやIoTなど他の先端技術と量子技術がどのように連携し、機能を補完し合うかを知っている
脱炭素・エネルギー・安全保障などの社会課題と、量子技術との接点について視野を持つことの重要性を知っている
技術の進展・展望 NISQ時代の技術的限界を理解している
エラー訂正の必要性と量子優位性の到達条件が存在することを理解している
実用化までのタイムラインを把握することが重要であることを知っている
How 量子技術の社会実装
社会実装事例から学ぶ量子技術の活用 量子技術の社会実装がどのような産業や社会課題に対して始まっているかということを知っている
企業・研究機関が量子技術を活用したPoC(概念実証)を国内外で進めていることを知っている
量子技術を活用する取り組みは、課題の明確化や現実的にできることへの適切な設定が重要であることを知っている
産業ごとに導入の進み具合や課題感が異なることを知っている
PoCを通じて技術の実用化に向けた現実的な課題(例:計算時間、誤差、インフラ整備等)があることを知っている
量子技術の価値 量子の原理や利点を平易な言葉で説明しようとする姿勢が社会的に広く理解させる上でに必要であることを知っている
自分の業務や関心分野に照らして量子技術の可能性を語る視点を持つことが求められていることを知っている
自社が求める量子技術に関連するテクノロジーを把握し、説明できるスキルが必要であることを知っている
抽象的な技術論でなく、具体的なユースケースと結びつける応用力が必要とされていることを知っている
社内外での関与・意思決定 非専門家であっても、量子技術に関する関連する事業や教育などの現場で関与することが可能であることを知っている
自らの役割や関心に応じた関与の仕方(企画、調整、翻訳など)があることを知っている
導入の意思決定にあたっては、ビジネス的視点・技術的視点・倫理的視点などを複合的に考慮する必要があることを知っている
専門的な判断は他者に委ねつつも、チームの一員として意味づけや方向性を議論する役割があることを知っている
技術過渡期における冷静な判断と期待管理 量子技術に対する過度な期待が社会に存在していることを知っており、正しい期待管理が、社会全体の信頼構築につながることを知っている
量子技術の制約や成熟度を正しく把握することが導入判断に必要であることを知っている
量子技術は過渡期にある技術ゆえに、長期視点での育成・準備が必要であることを知っている
量子技術を導入する目的や必要レベルが、業種や事業ごとに異なることを知っている
Mind/Stance マインド・スタンス
マインド・スタンス 変化への適応
自律的な学びと自己成長
多様性・協働・対話
課題志向と現場主義
倫理観と社会的配慮
量子技術=万能ではなく、現実的に考える姿勢
抽象的/未定義なものを扱う力

 

 

 

| | Comments (0)

NATO戦略的コミュニケーション能力向上センター

こんにちは、丸山満彦です。

NATO Strategic Communications Centre of Excellence(NATO戦略的コミュニケーション能力向上センター)が、6回目になるソーシャルメディアの評価に関する報告書を公表していますね。。。

NATO戦略的コミュニケーション能力向上センターは、情報環境における脅威を理解し、対抗し、NATOの政治・軍事目標の達成を支えるために、同盟全体の戦略的コミュニケーション能力を体系的に強化することを目的としている、NATOの研究機関のようなものですかね...

AIによる偽情報の利用も含め、ソーシャルメディアは思想操作のためのツールとして使われる側面がありますよね。。。

どんどん偽情報はSNSで作られ、拡散されていきますよね。AIがそれを作り出すようになると、あっという間に、そういう情報で溢れてしまいますよね。。。商品をうるためのツールは、思想を売るためのツールにもなり得るわけですから、まぁ、1つ1つの広告をつぶしていくというのは、構造的に無理がありますよね。。。

となると、SNS事業者への規制、資金フローも含めて総合的に対応をしていく必要がありますよね。。。

ということで、AI時代の偽情報対策は、コンテンツ削除だけではなく、 行動・関係性・資金フローを統合的に監視する 「社会システムとしての安全保障設計」が重要となるという感じでしょうか???

で、これらのSNS事業者への規制については国際連携が重要となってくるでしょうね...

DXやWeb3などといろいろと新しい技術による産業育成というのは重要だし、それで儲ける人もいるので、利権がからんでいるのは理解するのですが、負の側面を適切に社会的にコントロールできないと結果的に社会的には普及しないことになるので、産業育成にはつながらないということを理解する必要があり、論点は規制すべきか、規制すべきでないか?ではなく、どのように規制するべきか?が問題だと思うんですよね。。。で、結果的に規制不要ということもあり得る。。。市場原理ですべてが解決するわけではないのは、ミクロ経済学の基本ですからね...

 

NATO Strategic Communications Centre of Excellence

・2026.01 30 Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement

Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement ソーシャルメディア操作の実験:2025年、プラットフォームの偽物のソーシャルメディアエンゲージメント検知・対策能力に関する実験
This sixth annual evaluation of social media, conducted since 2019, tests the resilience of major social media platforms against manipulation by commercial service providers. The experiment measures platforms’ ability to detect and remove inauthentic engagement that is commercially purchased for deliberately created inauthentic posts in non-political scenarios. 2019年から実施されているソーシャルメディアの年次評価(第6回)は、主要ソーシャルメディアプラットフォームが商業プロバイダによる操作に対してどれほどレジリエンスを持つかを検証する。この実験では、非政治的なシナリオにおいて、意図的に作成された非本物の投稿に対して商業的に購入された偽物のエンゲージメントを、プラットフォームが検知・除去する能力を測定する。

 

・[PDF]

20260203-174835

 

エグゼクティブサマリー...

Executive summary エグゼクティブサマリー
This sixth annual evaluation of social media, conducted since 2019, tests the resilience of major social media platforms against manipulation by commercial service providers. The experiment measures platforms’ ability to detect and remove inauthentic engagement that is commercially purchased for deliberately created inauthentic posts in non-political scenarios. 2019年から実施されているソーシャルメディアに関する第6回年次評価では、主要ソーシャルメディアプラットフォームが商業サービスプロバイダによる操作に対してどれほどのレジリエンスを持つかを検証した。本実験では、非政治的なシナリオにおいて意図的に作成された不自然な投稿に対して商業的に購入された不自然なエンゲージメントを、プラットフォームが検知・除去する能力を測定した。
Despite the introduction of the European Union’s Digital Services Act and Digital Markets Act, and two and a half years after Russia’s full-scale invasion of Ukraine, commercial manipulation remains widely available across platforms. The experiment continues to identify persistent vulnerabilities, including the amplification of politically sensitive content. Although X showed notable improvement, removing approximately half of the identified fake accounts and interactions, enforcement outcomes across other platforms remained limited. The persistence of low-cost, easily accessible commercial manipulation services raises concerns about their potential use in amplifying politically sensitive content, even beyond the non-political scenarios tested in this experiment. 欧州連合のデジタルサービス法およびデジタル市場法の導入、ならびにロシアによるウクライナ全面侵攻から2年半が経過したにもかかわらず、商業的操作は依然として各プラットフォームで広く利用可能である。本実験では、政治的に敏感なコンテンツの拡散を含む、持続的な脆弱性が引き続き確認された。X(旧Twitter)は約半数の偽アカウントと偽のインタラクションを削除するなど顕著な改善を示したものの、他のプラットフォームにおける対策効果は限定的であった。低コストで容易に入手可能な商業的操作サービスが持続していることは、本実験で検証した非政治的シナリオを超えて、政治的に敏感なコンテンツを増幅させる潜在的な利用可能性について懸念を強めている。
This year’s findings indicate a mixed picture: enforcement is improving in some areas, but systemic vulnerabilities persist. Several major platforms increased removal activity compared with previous iterations of the experiment, yet commercial manipulation remains inexpensive and easy to obtain. This year, the experiment expanded to seven platforms and added tests involving sponsored content, AI-generated posts, and a larger set of manipulation providers. Across the tests, more than 30,000 inauthentic accounts delivered1 over 100,000 units of inauthentic engagement, providing the clearest evidence to date in this series of how manipulation manifests at scale. 今年の調査結果は複雑な状況を示している。一部の分野では対策が改善されているが、構造的な脆弱性は依然として残っている。主要プラットフォームのいくつかは、前回の実験と比較して削除活動を強化したものの、商業的な操作は依然として低コストで容易に入手可能だ。今年の実験は7つのプラットフォームに拡大され、スポンサー付きコンテンツ、AI生成投稿、より大規模なプロバイダ群を対象としたテストが追加された。全テストを通じて、3万以上の不正アカウントが10万単位を超える不正エンゲージメントを生み出し、本シリーズにおいて操作が大規模に現れる様子をこれまでで最も明確に示した。
Although platforms removed fake accounts at the highest rate recorded so far, averaging just over half of identified accounts, results varied substantially. Platform performance varied substantially across both account removal and engagement removal. VKontakte and X removed a higher proportion of inauthentic accounts than other platforms, while Instagram and TikTok removed only a small share. A similar pattern was observed for engagement itself: X and YouTube removed the largest proportion of inauthentic activity, whereas Facebook, VKontakte, Instagram, TikTok, and f left the majority of purchased engagement in place. プラットフォームはこれまでで最高率となる偽アカウントの削除を実施し、識別されたアカウントの平均約半数を削除したが、結果は大きく異なった。プラットフォームごとの対応は、アカウント削除とエンゲージメント削除の両面で大きく異なった。VKontakteとXは他プラットフォームより偽アカウントの削除率が高く、InstagramとTikTokはごく一部しか削除しなかった。エンゲージメント自体についても同様の傾向が見られた:XとYouTubeが偽アクティビティの大部分を削除した一方、Facebook、VKontakte、Instagram、TikTok、fは購入されたエンゲージメントの大半を残したままだった。
This year, we expanded the scope of the experiment to include sponsored (advertising) content on Facebook, Instagram, X, TikTok, and YouTube. For a total cost of €252, the campaign generated 206,234 views, 200 likes, and 17,442 inauthentic comments2. We also identified a market for ready-to-use inauthentic advertising accounts, successfully purchased for Meta, TikTok, and YouTube. This indicates that commercial manipulation is not limited to organic content and can extend into paid advertising, with the potential for platform ad systems to contribute to the distribution of inauthentic material. Strategically, this shift to paid manipulation allows actors to bypass the skepticism users often apply to organic posts while leveraging platform algorithms to deliver inauthentic narratives to precisely targeted audiences. Although advertisement manipulation appears more expensive and operationally demanding than standard engagement manipulation, it remains feasible at relatively low cost. Observed outcomes varied by platform: Instagram showed the lowest resistance, delivering the highest average volume of inauthentic comments on ad posts (reaching 340% of the expected number3 after 72 hours). X and YouTube showed partial delivery (approximately 25% and 21%, respectively). 今年、我々は実験の範囲を拡大し、Facebook、Instagram、X、TikTok、YouTubeにおけるスポンサー付き(広告)コンテンツを対象に含めた。総費用252ユーロで、このキャンペーンは206,234回の視聴、200の「いいね」、17,442件の不自然なコメントを生み出した。また、Meta、TikTok、YouTube向けに即戦力の不正広告アカウント市場を識別し、購入に成功した。これは商業的操作がオーガニックコンテンツに限定されず、有料広告へ拡大し得ることを示唆している。プラットフォーム広告システムが不正コンテンツの拡散に寄与する可能性もある。戦略的には、有料操作への移行により、行為者はユーザーがオーガニック投稿に抱く懐疑心を回避しつつ、プラットフォームのアルゴリズムを活用して不正な物語を精密にターゲティングされたオーディエンスへ届けられる。広告操作は標準的なエンゲージメント操作より費用と運用負荷が高いように見えるが、比較的低コストで実行可能だ。プラットフォームごとに結果が異なった:Instagramは抵抗が最も低く、広告投稿への不自然なコメント平均配信量が最大(72時間後に予想数の340%に達した)。XとYouTubeは部分配信(それぞれ約25%と21%)を示した。
Facebook and TikTok showed stronger resistance in this test, with TikTok showing 0% delivery. Platform transparency and enforcement reporting across major social media platforms remains inconsistent. TikTok stands out in this regard, as it was the only platform to engage directly with the findings of this experiment and to publish detailed information on covert influence operations and enforcement practices during the reporting period. By contrast, other platforms provide limited or outdated transparency reporting, which constrains meaningful cross-platform comparison: FacebookとTikTokはこのテストでより強い抵抗を示し、TikTokは配信率が0%だった。主要ソーシャルメディアプラットフォームにおける透明性と執行報告は依然として一貫性を欠いている。この点でTikTokは際立っており、本実験の結果に直接対応し、報告期間中の隠密影響工作と執行慣行に関する詳細情報を公開した唯一のプラットフォームだった。対照的に、他のプラットフォームは限定的あるいは古い透明性報告しか提供しておらず、これが有意義なクロスプラットフォーム比較を妨げている。
・X has not released any transparency or enforcement updates during the period covered by this experiment. ・Xはこの実験期間中、透明性や執行に関する更新情報を一切公開していない。
・Meta reports removal actions for Facebook, but does not provide equivalent reporting for Instagram, limiting assessment across Meta-owned platforms. ・MetaFacebookの削除措置を報告しているが、Instagramについては同等の報告を行っておらず、Meta傘下プラットフォーム全体のアセスメントを制限している。
・YouTube and Bluesky publish only partial annual figures, restricting visibility into enforcement activity and trends over time. YouTubeBlueskyは年次数値の一部しか公表しておらず、執行活動や経時的な傾向の可視性を制限している。
A significant gap persists between reported enforcement capabilities and routine detection outcomes. While TikTok successfully removed inauthentic activity from posts that were directly escalated to the platform, similar activity was observed to persist on posts that were not escalated. This suggests that reported enforcement capabilities are not yet consistently reflected in routine, at-scale detection. Ultimately, this uneven transparency obscures the true extent of platform vulnerability and prevents an independent, comprehensive assessment of cross-platform resilience against coordinated manipulation. 報告されている執行能力と日常的な検知結果の間には、依然として大きな隔たりが存在する。TikTokはプラットフォームに直接報告された投稿から不正な活動を効果的に排除できた一方で、報告されていない投稿では同様の活動が継続していることが確認された。これは、報告されている執行能力が日常的な大規模検知にまだ一貫して反映されていないことを示唆している。結局のところ、この不均一な透明性はプラットフォームの脆弱性の真の程度を覆い隠し、組織的な操作に対するクロスプラットフォームのレジリエンスを独立かつ包括的にアセスメントすることを妨げている。
Manipulation services remain easy to obtain and relatively inexpensive, with prices becoming more consistent across platforms. Alongside this emerging behaviour, we observed a notable change in the type of content amplified. While the majority of content amplified by commercial bots still relates to cryptocurrency scams, commercial promotions, and other non-political material, we continue to observe an annual increase in the use of spam bots for promoting political narratives and nation-related issues. Additionally, a significant increase in military and pro-China themes appeared across several platforms, with Instagram standing out as the only environment where no such amplification was detected. 操作サービスは依然として入手が容易で比較的安価であり、価格もプラットフォーム間でより均一化しつつある。この新たな動向と並行して、拡散されるコンテンツの種類にも顕著な変化が確認された。商業ボットによって拡散されるコンテンツの大半は依然として仮想通貨詐欺、商業プロモーション、その他の非政治的素材に関連するものの、政治的ナラティブや国家関連問題の宣伝にスパムボットが利用される事例が年々増加している。さらに、軍事および親中国テーマが複数のプラットフォームで顕著に増加した。Instagramだけがこうした拡散が検知されなかった唯一の環境として際立っている。
According to Cyabra’s findings, the behaviour of inauthentic accounts has also emerged in more sophisticated operations. Instead of legacy (such as classical spam bot amplification or commenting) behaviours, where spam bots rely on high-volume spam, new types of inauthentic accounts are now able to blend into ongoing conversations, using AI-generated text and visuals to appear more convincing and thus appear more authentic. Cyabraの調査によると、不正アカウントの行動はより洗練された作戦でも確認されている。従来のスパムボット増幅やコメント投稿といった大量スパムに依存する手法に代わり、新たなタイプの不正アカウントはAI生成のテキストやビジュアルを用いて会話に溶け込み、より説得力のある本物らしい振る舞いを可能にしている。
Cryptocurrency analysis indicates that commercial manipulation providers continue to rely on cryptocurrency as their primary payment mechanism due to its speed, cross-border nature, and limited enforceability. Providers predominantly use custodial wallets and high-risk exchanges, routing customer funds through virtual asset service provider (VASP) hot wallets (e.g., Cryptomus and Heleket) where transactions are commingled, significantly reducing on-chain attribution and making full transaction traceability difficult with only four of ten transactions in the experiment could be reliably traced end-to-end. Despite this low-visibility financial architecture, several operators exhibited substantial transaction volumes, underscoring the scale and persistence of the manipulation market; between November 2023 and November 2025, one Russia-based provider we hereafter referred to as RU1 received an estimated USD 265,261 and another based in UK (referred to as UK2) approximately USD 123,714. The largely unmonitored nature of this infrastructure reinforces the resilience of the manipulation economy and raises potential sanctions compliance concerns, particularly regarding suspected Russia-based operators using major exchange custody under Council Regulation (EU) No. 833/2014, Article 5b(2). 仮想通貨分析によれば、商業的操作を行うプロバイダは、その迅速性、越境性、および執行可能性の低さから、主要な決済手段として仮想通貨に依存し続けている。プロバイダは主にカストディアルウォレットと高リスク取引所を利用し、顧客資金を仮想資産サービスプロバイダー(VASP)のホットウォレット(例:Cryptomus、Heleket)経由で送金する。この過程で取引が混在するため、オンチェーンでの帰属特定が大幅に困難となり、実験対象の10件中4件のみがエンドツーエンドで確実に追跡可能だった。こうした低可視性の金融構造にもかかわらず、複数の事業者が膨大な取引量を示しており、操作市場の規模と持続性を裏付けている。2023年11月から2025年11月にかけて、ロシア拠点のプロバイダ(以下RU1)は推定265,261米ドル、英国拠点のプロバイダ(以下UK2)は約123,714米ドルを受け取った。このインフラの大半が監視対象外であることは、操作経済のレジリエンスを強化し、特に理事会規則(EU)第833/2014号第5b条(2)に基づき主要取引所の保管サービスを利用する疑いのあるロシア拠点事業者に関して、制裁順守上の懸念を引き起こす。
Taken together, the findings indicate that platform defences are improving but remain insufficient. Manipulation remains easy to execute and difficult to reliably prevent. The increasing sophistication of AI-enabled inauthentic accounts allows them to influence conversations with a lower likelihood of detection, particularly when activity is divided into small, distributed actions. The financial infrastructure supporting these services also remains largely unmonitored, reinforcing the resilience of the manipulation economy. これらの調査結果を総合すると、プラットフォームの防御体制は改善されているものの、依然として不十分であることが示されている。操作行為は実行が容易であり、確実に防止することは困難だ。AIを活用した不正アカウントの高度化が進むことで、特に活動を小規模で分散した行動に分割した場合、検知される可能性が低くなりながら会話に影響を与えることが可能となっている。これらのサービスを支える金融インフラも依然としてほとんど監視されておらず、操作経済のレジリエンスを強化している。
The findings of this experiment suggest that effectively countering these trends requires a shift towards behavioural detection methods focused on timing patterns, account relationships, and coordinated activity across platforms and environments. Analysis indicates that enforcement is more effective when shifting from isolated campaign responses to continuous, context-driven monitoring. Furthermore, the data highlight the importance of analysing entire conversations rather than individual posts to identify bots operating within genuine discussions. Finally, the results underscore that stronger cooperation with financial intelligence units represents a strategic pathway to identifying manipulation providers and limiting their operational capacity. 本実験の結果は、こうした傾向に効果的に対抗するには、タイミングパターン、アカウント間の関係性、プラットフォームや環境を跨いだ協調的活動に焦点を当てた行動検知手法への転換が必要であることを示唆している。分析によれば、個別のキャンペーン対応から継続的かつ状況に応じた監視へ移行することで、対策の有効性が高まる。さらにデータは、本物の議論の中で活動するボットを識別するには、個々の投稿ではなく会話全体を分析することが重要であることを強調している。最後に、金融情報機関との連携強化が、操作行為のプロバイダを識別し、その活動能力を制限する戦略的手段であることを結果は強調している。

 

 

 


 

過去の報告書

・2024.11.04 Social Media Manipulation for Sale: Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement

 ・[PDF]

・2023.12.14 Virtual Manipulation Brief 2023/2: Verified Propagandists and the Hamas - Israel War

 ・[PDF]

・2023.06.05 Virtual Manipulation Brief 2023/1: Generative AI and its Implications for Social Media Analysis

 ・[PDF

・2023.03.03 Social Media Manipulation 2022/2023: Assessing the Ability of Social Media Companies to Combat Platform Manipulation

 ・[PDF]

・2022.04.27 Social Media Manipulation 2021/2022: Assessing the Ability of Social Media Companies to Combat Platform Manipulation

 ・[PDF]

・2020.12.21 Social Media Manipulation Report 2020

 ・[PDF

・2020.05.08 Manipulation Ecosystem of Social Messaging Platforms

 ・[PDF]

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2021.07.12 NATO関連機関が分析したサイバー空間におけるロシアの戦略 at 2021.06.11

・2020.08.10 DeepfakeについてのNATO, CSET, Partnership on AI, GAOの報告書(少し前ですが・・・)

 

| | Comments (0)

2026.02.05

米国 NIST IR 8446 乱数生成標準間の隔たりを埋める:SP 800-90シリーズとAIS 20/31の比較

こんにちは、丸山満彦です。

乱数に関して報告書ですね...

乱数の評価は、米国のNISTではSP800-90シリーズ、ドイツのBSIでは、AIS 20/31がありますが、IR 8446はその比較ですかね...

分析は、検証・認証要件、アーキテクチャモデル、用語定義の3つで行われていますね。。。考え方の違いもあって、興味深い内容となっていますね...

 

● NIST - ITL

・2026.01.29 Bridging the Gap Between Standards on Random Number Generation: NIST releases IR 8446

Bridging the Gap Between Standards on Random Number Generation: NIST releases IR 8446 乱数生成に関する標準間のギャップを埋める:NISTがIR 8446を公表
Cryptographic systems rely on high-quality random number generation, and implementers often need to interpret and apply multiple standards and guidelines. NIST has published the final version of Interagency Report (IR) 8446, Bridging the Gap Between Standards on Random Number Generation: Comparison of SP 800-90 Series and AIS 20/31, which compares Germany’s BSI AIS 20/31 and NIST’s SP 800-90 series to help clarify similarities and differences in terminology, assumptions, and requirements. The report aims to improve communication among stakeholders, promote shared understanding, and reduce or resolve inconsistencies in related standards. 暗号システムは高品質な乱数生成に依存しており、実装者は複数の標準やガイドラインを解釈し適用する必要がある。NISTは「乱数生成に関する標準間の隔たりを埋める:SP 800-90シリーズとAIS 20/31の比較」と題する機関間報告書(IR)8446の最終版を公表した。本報告書はドイツ連邦情報セキュリティ庁(BSI)のAIS 20/31とNISTのSP 800-90シリーズを比較し、用語・前提条件・要求事項における類似点と相違点を明確化するものである。本報告書は、関係者の間のコミュニケーションを改善し、共通理解を促進し、関連標準における不整合を減少または解決することを目的としている。
Additional information is available on the CSRC Random Bit Generation project page. 追加情報はCSRC乱数生成プロジェクトページで入手可能である。

 

 

・2026.01.29 NIST IR 8446 Bridging the Gap Between Standards on Random Number Generation: Comparison of SP 800-90 Series and AIS 20/31

NIST IR 8446 Bridging the Gap Between Standards on Random Number Generation: Comparison of SP 800-90 Series and AIS 20/31 NIST IR 8446 乱数生成標準間の隔たりを埋める:SP 800-90シリーズとAIS 20/31の比較
Abstract 要約
This report studies the cryptographic random number generation standards and guidelines written by BSI and NIST, namely AIS 20/31 and the SP 800‐90 series. The aim of this report is to compare these publications, focusing on the similarities and differences of their terminol‐ogy, assumptions, and requirements. This report also aims to improve the communications between all involved parties, promote a shared understanding, and reduce and resolve inconsistencies in related standards. 本報告書は、BSIとNISTが作成した暗号学的乱数生成の標準およびガイドライン、すなわちAIS 20/31とSP 800-90シリーズを検証するものである。本報告書の目的は、これらの出版物を比較し、用語、前提条件、要件における類似点と相違点に焦点を当てることである。また、関係する全ての当事者間のコミュニケーションを強化し、共通理解を促進し、関連規格における不整合を軽減・解決することを目指す。

 

・[PDF] NIST.IR.8446

20260202-141017

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.09.30 米国 NIST SP 800-90C 乱数ビット生成器(RBG)構築に関する推奨事項 (2025.0925)

・2025.09.24 米国 NIST SP 800-90A Rev. 2 (初期ドラフト) 事前ドラフト コメント募集: 決定論的乱数ビット生成器を用いた乱数生成に関する推奨事項

・2024.10.07 米国 NIST IR 8446 (初公開ドラフト) 乱数生成に関する標準間のギャップを埋める: SP 800-90 シリーズと AIS 20/31 の比較 (2024.09.16)

 


 

 

 

 

| | Comments (0)

FBI オペレーション・ウィンターシールド

こんにちは、丸山満彦です。

FBIが、サイバーレジリエンスキャンペーン、「Operation Winter SHIELD」というのを発表していますね。。。

SHIELDは、Securing Homeland Infrastructure by Enhancing Layered Defense、多層防御の強化による国土インフラの安全確保

これは、FBI が産業界と協力してサイバー脅威を検知・対処・無力化するために開始したキャンペーンです。この取り組みは、国家サイバー戦略およびFBIサイバー戦略と連動していて、組織が今すぐ実施できる「最も効果的な10の対策」として、ITとOTの双方をより強固にするための実践的なロードマップを提供していますね...

ザクっと意訳すると...

  1. フィッシング耐性のある認証の導入

  2. リスクベースの脆弱性管理の実施

  3. EOL(サポート終了)技術の計画的な廃止

  4. サードパーティリスクの管理

  5. セキュリティログの保護と適切な保存

  6. オフラインかつ改ざん不能なバックアップの維持と復元テスト

  7. インターネット向けシステムの特定・管理・保護

  8. メール認証と悪性コンテンツ対策の強化

  9. 管理者権限の削減

  10. 全関係者を含むインシデント対応計画の演習

 

FBI

・2026.01.29 Operation Winter SHIELD

 

Operation Winter SHIELD オペレーション・ウィンターシールド
Brett Leatherman, assistant director of the FBI's Cyber Division, introduces Operation Winter SHIELD, a cyber resilience campaign that positions industry as critical allies alongside the FBI and our partners in detecting, confronting, and dismantling cyber threats. FBIサイバーディビジョンのブレット・レザーマン次長は、産業をFBIやパートナー機関と並ぶ重要な同盟者として位置付け、サイバー脅威の検知・対処・解体を目指すサイバーレジリエンスキャンペーン「オペレーション・ウィンターシールド」を紹介する。
Operation Winter SHIELD (Securing Homeland Infrastructure by Enhancing Layered Defense) distills the FBI’s 10 most impactful actions organizations can take to improve resilience against cyber intrusions. These recommendations were developed with domestic and international partners and draw on recent investigations to reflect adversary behavior and defensive gaps. ウィンター・シールド作戦(多層防御強化による国土インフラ保護)は、サイバー侵入に対するレジリエンスを高めるために組織が取るべきFBIの10の最重要対策をまとめたものだ。これらの提言は国内外のパートナーと連携して策定され、最近の捜査事例から敵対者の行動や防御上の弱点を反映している。
This campaign ties directly to the National Cyber Strategy and the FBI Cyber Strategy and positions industry not as passive victims or recipients of intelligence but as critical allies alongside the FBI and our partners in detecting, confronting, and dismantling cyber threats. 本キャンペーンは国家サイバー戦略及びFBIサイバー戦略と直結し、産業界を情報受動的被害者ではなく、FBI及びパートナー機関と肩を並べる重要な協力者として位置付ける。
Winter SHIELD provides industry with a practical roadmap to better secure information technology (IT) and operational technology (OT) environments, hardening the nation’s digital infrastructure and reducing the attack surface. ウィンターシールドは産業界に対し、情報技術(IT)及び運用技術(OT)環境の強化、国家デジタルインフラの堅牢化、攻撃対象領域の縮小に向けた実践的ロードマップを提供する。
Our goal is simple: to move the needle on resilience across industry by helping organizations understand where adversaries are focused and what concrete steps they can take now (and build toward in the future) to make exploitation harder. 我々の目標は単純だ。組織が敵対者の標的と、攻撃を困難にするための具体的措置(将来に向けた基盤構築も含む)を理解できるよう支援し、産業全体のレジリエンス向上に確実に寄与することである。
Roadmap to increased cyber resilience サイバーレジリエンス強化へのロードマップ
Adopt phish-resistant authentication フィッシング耐性認証の導入せよ
Why: Many breaches start with stolen passwords. Phish-resistant methods make it significantly harder for attackers to gain access. 理由:多くの侵害は盗まれたパスワードから始まる。フィッシング耐性手法は攻撃者のアクセスを著しく困難にする。
Implement a risk-based vulnerability management program リスクベースの脆弱性管理プログラムを実施せよ
Why: Adversaries often exploit known vulnerabilities that remain unaddressed due to a lack of ownership, an undefined mitigation process, and unclear deadlines for resolution. 理由:攻撃者は、責任の所在不明、緩和プロセスの未定義、解決期限の不明確さにより放置された既知の脆弱性を悪用することが多い。
Track and retire end-of-life technology on a defined schedule ライフサイクル終了技術(EOL)を定められたスケジュールで追跡・廃止せよ
Why: End-of-life systems no longer receive security updates and, as a result, are routinely targeted. 理由:EOLシステムはセキュリティ更新を受けられなくなり、結果として常に標的とされる。
Manage third-party risk サードパーティリスク管理せよ
Why: An organization’s security extends only as far as its least-protected vendor with network or data access. Adversaries often exploit these gaps to bypass stronger defenses. 理由:組織のセキュリティは、ネットワークやデータへのアクセス権を持つベンダーの中で最も保護が不十分な範囲までしか及ばない。敵対者はこうした隙を突いて強固な防御を迂回することが多い。
Protect security logs and preserve for an appropriate time period セキュリティログを防御し、適切な期間保存せよ
Why: Reliable, preserved logs are essential for detection, response, and attribution. Adversaries often attempt to erase them. 理由:信頼性のある保存済みログは、検知、対応、帰属の特定に不可欠である。敵対者はしばしばログの消去を試みる。
Maintain offline immutable backups and test restoration オフラインの不変バックアップを維持し、復元テストを実施せよ
Why: Backups are routinely targeted early in intrusions; resilience depends on isolation and tested recovery. 理由:侵入初期段階でバックアップは常に標的となる。レジリエンスは隔離とテスト済み復元機能に依存する。
Identify, inventory, and protect internet-facing systems and service インターネットに公開されているシステムとサービスを識別・棚卸し・防御せよ
Why: Unnecessary exposure creates low-effort entry points for attackers. 理由:不要なエクスポージャーは攻撃者にとって容易な侵入経路を生む。
Strengthen email authentication and malicious content protections 電子メール認証と悪意あるコンテンツ防御を強化せよ
Why: Email remains a favored initial access vector for intrusions and fraud. 理由:電子メールは侵入や詐欺の好まれる初期アクセス経路であり続けている。
Reduce administrator privileges 管理者権限を削減せよ
Why: Broad, persistent administrative access enables rapid escalation when credentials are compromised. 理由:広範かつ永続的な管理者アクセスは、認証情報が侵害された際の権限昇格を容易にする。
Exercise your incident response plan with all stakeholders 全関係者とインシデント対応計画を訓練せよ
Why: Practiced organizations respond faster, contain more effectively, and reduce impact. 理由:訓練された組織はより迅速に対応し、より効果的に封じ込め、影響を軽減する。

 

・[PDF]

20260203-143355

 

 

| | Comments (0)

2026.02.04

シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

こんにちは、丸山満彦です。

AIエージェントの利用が進んできていますが、シンガポールと韓国のAI安全研究所が共同で、現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテストをし、その結果を発表していますね。。。

 

興味深いです...

この結果から読み取れることは...

・安全性を高めるためには、能力を高める必要もある。

タスクが遂行できているかを見極めた上で、遂行過程が安全かを評価する2段階評価が必要

・AIエージェントが完全に成功している可能性は高くはない。

正常に動作しているように見えても、少し漏えいをしているケースがあり、かつそれに気づくことは困難である。

・悪意ある攻撃より、善意の誤判断が問題である

情報感度の誤認やポリシー適用の失敗といった「事故」を防ぐためには、アクセス制御だけでなく、文脈理解能力と、組織のルールを実務に適用する「社会的判断能力」を実装レベルでいかに担保するかが重要。

・モデル選定だけでなく、組み込み方の設計も重要である。

モデル固有の性能以上に、スキャフォルディング(プロンプトやツール連携の仕組み)に依存する可能性もある。

・評価の完全自動化は困難であり、人間によるチェックと社会的制度の組み合わせが必要である

AIによる安全性評価には、文脈や社会規範の解釈において限界があることを忘れてはならない。

 

こういう実験、検証のモデルをつくって、定期的に検証をし続ける必要がありますね。。。

AIの問題の本質は、

(1)プロセス複雑すぎるためインプットからアウトプットを人間が完全に予想できない

(2)予想できなさ加減が不安定

ということによるのかもしれません。昨日はそこそこ予測できていたのに、今日は急に人がかわったように予測があるくなるとか、、、依頼の仕方がよかったらほぼ完全な回答をしてくるのに、少し違った表現でいらいするとほぼ間違った回答をしてくるとか...

これを自動化していくと、

(3)誤りが累積していき、大きな誤りになりえる

 

考えさせられる問題ですね。。。

 

Singapore AI Safty Institute

・2026.01.19 Testing AI Agents for Data Leakage Risks in Realistic Tasks

 

 

1_20260203111601

 

 

 

| | Comments (0)

米国 司法省 元グーグル技術者、経済スパイ活動及び人工知能技術の機密窃盗で有罪判決 (2026.01.30)

こんにちは、丸山満彦です。

元Googleの技術者が特権を持っていることを悪用し、中国のためにAIに関するGoogleの営業秘密を含む数千ページの機密情報を窃取したとして、有罪判決をうけたと司法省が公表していますね...

 

Department of Justice - Office of Public Affairs

・2026.01.30 Former Google Engineer Found Guilty of Economic Espionage and Theft of Confidential AI Technology

Former Google Engineer Found Guilty of Economic Espionage and Theft of Confidential AI Technology 元グーグル技術者、経済スパイ活動及び人工知能技術の機密窃盗で有罪判決
Yesterday, a federal jury in San Francisco convicted former Google software engineer Linwei Ding, also known as Leon Ding, 38, on seven counts of economic espionage and seven counts of theft of trade secrets for stealing thousands of pages of confidential information containing Google’s trade secrets related to artificial intelligence technology for the benefit of the People’s Republic of China (PRC). The jury’s verdict follows an 11-day trial before U.S. District Judge Vince Chhabria for the Northern District of California. 昨日、サンフランシスコの連邦陪審は、元グーグルソフトウェア技術者である林偉(別名レオン・ディン、38歳)に対し、中華人民共和国(PRC)の利益のために人工知能技術に関連するグーグルの営業秘密を含む数千ページに及ぶ機密情報を窃取したとして、経済スパイ活動7件及び営業秘密窃盗7件の罪で有罪評決を下した。陪審員の評決は、カリフォルニア北部地区連邦地方裁判所のヴィンス・チャブリア判事による11日間の審理を経て下された。
“This conviction exposes a calculated breach of trust involving some of the most advanced AI technology in the world at a critical moment in AI development,” said Assistant Attorney General for National Security John A. Eisenberg. “Ding abused his privileged access to steal AI trade secrets while pursuing PRC government-aligned ventures. His duplicity put U.S. technological leadership and competitiveness at risk. I commend the trial team and investigators whose exceptional work resulted in this conviction.” 国家安全保障担当司法次官補のジョン・A・アイゼンバーグは次のように述べた。「この有罪判決は、AI開発の重要な局面において、世界最先端のAI技術の一部を巻き込んだ計画的な信頼裏切りを暴いたものだ。丁は中国政府と連携した事業を進める中で、特権的なアクセス権を悪用しAIの営業秘密を盗んだ。その二重性は米国の技術的リーダーシップと競争力のリスクを招いた。この有罪判決をもたらした卓越した仕事をした裁判チームと捜査官を称賛する」
“In today’s high-stakes race to dominate the field of artificial intelligence, Linwei Ding betrayed both the U.S. and his employer by stealing trade secrets about Google’s AI technology on behalf of China’s government,” said Assistant Director Roman Rozhavsky of the FBI's Counterintelligence and Espionage Division. “Not only does this case mark the first-ever conviction on AI-related economic espionage charges, but it also demonstrates the FBI’s unwavering dedication to protecting American businesses from the increasingly severe threat China poses to our economic and national security. We remain committed to working closely with our partners across the private sector to protect our nation’s innovation, safeguard our trade secrets, and hold our foreign adversaries accountable.” FBI対諜報・スパイ対策部のローマン・ロザフスキー副部長は次のように述べた。「人工知能分野の支配をめぐる今日のハイステークスな競争において、ディン・リンウェイは中国政府のためにGoogleのAI技術に関する営業秘密を盗み、米国と雇用主の双方を裏切った」 「本件はAI関連経済スパイ罪での初の有罪判決であるだけでなく、中国が米国の経済・国家安全保障に及ぼす深刻化する脅威から米国企業を防御するFBIの揺るぎない決意を示すものだ。我々は民間セクターのパートナーと緊密に連携し、国家のイノベーションを保護し、営業秘密を守り、外国の敵対勢力に責任を取らせることに引き続き取り組む」
“Silicon Valley is at the forefront of artificial intelligence innovation, pioneering transformative work that drives economic growth and strengthens our national security.  The jury delivered a clear message today that the theft of this valuable technology will not go unpunished. We will vigorously protect American intellectual capital from foreign interests that seek to gain an unfair competitive advantage while putting our national security at risk,” said U.S. Attorney Craig H. Missakian for the Northern District of California. 「シリコンバレーは人工知能革新の最前線であり、経済成長を牽引し国家安全保障を強化する変革的な取り組みを先導している。陪審団は本日、この貴重な技術の窃盗が罰せられないまま終わることはないという明確なメッセージを発した。我々は、国家安全保障のリスクを冒しながら不当な競争優位を得ようとする外国勢力の利益から、米国の知的資本を断固として守る」と、カリフォルニア州北部地区連邦検事クレイグ・H・ミサキアンは述べた。
“This conviction reinforces the FBI’s steadfast commitment to protecting American innovation and national security. The theft and misuse of advanced artificial intelligence technology for the benefit of the People’s Republic of China threatens our technological edge and economic competitiveness,” said FBI Special Agent in Charge Sanjay Virmani for the San Francisco Field Office. “The FBI San Francisco division serves Silicon Valley and the companies who lead the world in innovation, and we are committed to safeguarding their work. This case demonstrates the strength of collaboration between the FBI and the private sector, including leading companies like Google, whose partnership is critical to protecting sensitive U.S. technology. Today’s verdict affirms that federal law will be enforced to protect our nation’s most valuable technologies and hold those who steal them accountable.” 「この有罪判決は、FBIが米国のイノベーションと国家安全保障を防御するという揺るぎない決意を裏付けるものだ。中華人民共和国の利益のために高度な人工知能技術を盗み悪用することは、我々の技術的優位性と経済的競争力を脅かす」と、サンフランシスコ支局のサンジェイ・ヴィルマニFBI特別捜査官は述べた。「FBIサンフランシスコディビジョンはシリコンバレーと世界をリードする革新企業を管轄し、その活動を保護する責務を負っている。本件はFBIと民間セクター(グーグルのような主要企業を含む)の連携の強さを示しており、こうした協力関係は米国の機密技術を保護する上で不可欠だ。本日の判決は、国家の最も貴重な技術を保護し、窃取者を責任追及するために連邦法が執行されることを裏付けるものである」
Ding was originally indicted in March 2024. A superseding indictment returned in February 2025 described seven categories of trade secrets stolen by Ding and charged Ding with seven counts of economic espionage and seven counts of theft of trade secrets. 丁は当初2024年3月に起訴された。2025年2月に提出された追加起訴状では、丁が盗んだ営業秘密を7つのカテゴリーに分類し、経済スパイ行為7件と営業秘密窃盗7件で起訴した。
According to the evidence presented at trial, between approximately May 2022 and April 2023, while a Google employee, Ding stole more than two thousand pages of confidential information containing Google’s AI trade secrets from Google’s network and uploaded them to his personal Google Cloud account. Ding also secretly affiliated himself with two PRC-based technology companies while he was employed by Google: around June 2022, Ding was in discussions to be the Chief Technology Officer for an early-stage technology company based in the PRC; by early 2023, Ding was in the process of founding his own technology company in the PRC focused on AI and machine learning and was acting as the company’s CEO. In multiple statements to potential investors, Ding claimed that he could build an AI supercomputer by copying and modifying Google’s technology. In December 2023, less than two weeks before he resigned from Google, Ding downloaded the stolen Google trade secrets to his own personal computer. 裁判で提示された証拠によれば、丁は2022年5月頃から2023年4月頃にかけて、グーグル社員として勤務中に、同社のネットワークから人工知能(AI)に関する営業秘密を含む2000ページ以上の機密情報を盗み出し、自身の個人用グーグルクラウドアカウントにアップロードした。丁はまた、Google在籍中に密かに中国本土の2つの技術企業と関係を持っていた。2022年6月頃、丁は中国本土に拠点を置く初期段階の技術企業で最高技術責任者(CTO)となる交渉を行っていた。2023年初頭までに、丁は中国本土でAIと機械学習に特化した自身の技術会社を設立する過程にあり、同社の最高経営責任者(CEO)を務めていた。複数の投資家向け説明において、丁はGoogleの技術を模倣・改変することでAIスーパーコンピュータを構築可能だと主張した。2023年12月、Google退職のわずか2週間前、丁は盗んだGoogleの営業秘密を自身の個人用コンピュータにダウンロードした。
The jury found that Ding stole trade secrets relating to the hardware infrastructure and software platforms that allow Google’s supercomputing data center to train and serve large AI models. The trade secrets contained detailed information about the architecture and functionality of Google’s custom Tensor Processing Unit chips and systems and Google’s Graphics Processing Unit systems, the software that allows the chips to communicate and execute tasks, and the software that orchestrates thousands of chips into a supercomputer capable of training and executing cutting-edge AI workloads. The trade secrets also pertained to Google’s custom-designed SmartNIC, a type of network interface card used to facilitate high speed communication within Google’s AI supercomputers and cloud networking products.   陪審は、丁がGoogleのスーパーコンピューティングデータセンターにおける大規模AIモデルの訓練・運用を可能とするハードウェア基盤及びソフトウェアプラットフォームに関する営業秘密を窃取したと認定した。これらの営業秘密には、Google独自開発のTensor Processing Unit(TPU)チップ・システムとグラフィックス処理ユニット(GPU)システムの詳細な構造・機能、チップ間のコミュニケーション・タスク実行を可能にするソフトウェア、そして数千のチップを協調させて最先端AIワークロードの訓練・実行が可能なスーパーコンピュータを構築するソフトウェアに関する情報が含まれていた。また、グーグルの独自設計スマートNIC(AIスーパーコンピューターとクラウドネットワーク製品内の高速通信を可能にするネットワークインターフェースカード)に関する情報も含まれていた。
In presentations to investors, Ding called out the PRC’s national policies prioritizing AI development and innovation in the PRC, and in late 2023 Ding applied for a government sponsored “talent plan” in Shanghai, PRC. The jury heard evidence pertaining to the PRC government’s establishment of talent plans to encourage individuals to come to China to contribute to the PRC’s economic and technological growth. Ding’s application for this talent plan stated that he planned to “help China to have computing power infrastructure capabilities that are on par with the international level.” The evidence at trial also showed that Ding intended to benefit two entities controlled by the government of China by assisting with the development of an AI supercomputer and collaborating on the research and development of custom machine learning chips. 投資家向けプレゼンテーションで、丁は中国におけるAI開発・革新を優先する国家政策に言及し、2023年末には中国上海市の政府支援「人材計画」に応募した。陪審員は、中国政府が人材計画を設立し、個人の中国への移住を促して同国の経済・技術成長に貢献させる証拠を聞いた。丁氏のこの人材計画への申請書には、「中国が国際水準に匹敵するコンピューティングインフラ能力を獲得するのを支援する」と記されていた。裁判での証拠はさらに、丁が中国政府が支配する2つの事業体に利益をもたらす意図があったことを示した。具体的には、AIスーパーコンピューターの開発支援と、カスタム機械学習チップの研究開発における協力を通じてである。
Ding is next scheduled to appear at a status conference on Feb. 3, 2026. Ding faces a maximum sentence of 10 years in prison for each count of theft of trade secrets in violation of 18 U.S.C. § 1832 and 15 years in prison for each count of economic espionage in violation of 18 U.S.C § 1831. Any sentence following conviction would be imposed by the Court only after consideration of the U.S. Sentencing Guidelines and the federal statute governing the imposition of a sentence, 18 U.S.C. § 3553.   丁は次に2026年2月3日に状況確認会議に出廷する予定だ。丁は18 U.S.C. § 1832違反の営業秘密窃盗罪の各訴因につき最高10年の懲役、18 U.S.C. § 1831違反の経済スパイ活動罪の各訴因につき最高15年の懲役に直面している。有罪判決後の量刑は、米国量刑ガイドライン及び量刑規定を定める連邦法(18 U.S.C. § 3553)を考慮した上で裁判所が言い渡す。
Assistant U.S. Attorneys for the Northern District of California Casey Boome, Molly K. Priedeman, and Roland Chang are prosecuting this case, with assistance from Veronica Hernandez and Trial Attorney Yifei Zheng from the Counterintelligence and Export Control Section, National Security Division.  The prosecution is the result of an investigation by the FBI. 本件の起訴は、カリフォルニア州北部地区連邦検察局のケイシー・ブーム、モリー・K・プリーデマン、ローランド・チャン各連邦検事が担当し、国家安全保障局対諜報・輸出管理ディビジョンのベロニカ・ヘルナンデス及び公判担当弁護士イフェイ・ジェンが支援している。本起訴はFBIによる捜査の結果である。

 

1_20250315174901

 

 

| | Comments (0)

米国 Health-ISAC 年次脅威レポート – 医療セクター 2026

こんにちは、丸山満彦です。

米国の「Health-ISAC 年次脅威レポート – 医療セクター 2026」が公表されていますね...

ポイントとして次の3つが挙げられています...

  • サイバー攻撃が患者ケアに及ぼす最も重大な影響は、2025年においても2024年に報告されたものと同一であった。

  • 経営幹部とサイバーセキュリティ担当者は2026年へ向けて同様の懸念を報告しており、医療分野のサイバーセキュリティ全体にわたり一定の連携が確認された。

  • 2025年、サイバーセキュリティ予算が小さい加盟組織はフィッシング攻撃をより懸念していた。一方、予算が大きい組織はランサムウェアの展開をより懸念していた。

日本でも参考になる取り組みや取り組み方はあるでしょうね...

あと、これから事業継続の団体でも説明したのですが、これからは事業継続を一歩すすめたレジリエンスの実現により移行していく必要がありますね...

できれば、とまらない...

もちろん、日米の医療制度の違いやそれから派生する医療機関の構造の違いは理解が必要ですけどね・・・

例えば、米国の医療は民間保険が中心で、まず家庭医(プライマリケア)を受診し、必要に応じて専門医や病院に紹介される仕組みになっている。医療提供の中心はクリニックや専門医で、大規模病院チェーンも存在する。一方、日本は、皆保険による自由受診・非営利中心の医療機関構造で、米国と比較すると医療機関グループの規模は小さいですよね。。。

米国の医療機関のトップ20(2024)はこちらでわかります。最大収益のKaiser Permanente: $115.8 billion(約18兆円)(保険もありますが...)、最大病院チェーンといわれているHCA Healthcare$70.6B(約11兆円)で、日本の最大の営利病院の徳洲会で8,000億円くらい?ですからね...

 

Health-ISAC

・2026.01.26 Annual Threat Report – Health Sector 2026

Annual Threat Report – Health Sector 2026 年次脅威レポート – 医療セクター 2026
Top threats to organizations from a Cyber Threat Intelligence (CTI) perspective, and unique risks to the global health sector サイバー脅威インテリジェンス(CTI)の観点から見た組織への主要脅威、およびグローバル医療セクター特有のリスク
Health-ISAC published the 2026 Global Health Sector Threat Landscape report to members on January 21, 2026. Health-ISACは2026年1月21日、会員向けに「2026年グローバル医療セクター脅威状況レポート」を発表した。
The report features insights from the Health-ISAC Ransomware Events Database, Indicator Sharing program, Physical Security, and Targeted Alerts initiative, showcasing the community-felt impacts of major threats to the global health sector in 2025. 本報告書は、Health-ISACランサムウェア事象データベース、指標共有プログラム、物理的セキュリティ、標的型アラートイニシアチブからの知見を特集し、2025年にグローバル医療セクターが直面した主要脅威のコミュニティ全体への影響を明らかにしている。
The report features data-driven insights from the Health-ISAC Ransomware Events Database, Physical Security assessments, and the Targeted Alerts initiative, which distributed more than 1,200 warnings to the sector in 2025. These findings showcase the community-felt impacts of major threats, including the rise of AI-driven attacks and significant supply chain vulnerabilities. 本報告書は、Health-ISACランサムウェア事象データベース、物理的セキュリティアセスメント、および2025年に同セクターへ1,200件以上の警告を発出した標的型アラート・イニシアチブから得られたデータ駆動型知見を掲載している。これらの知見は、AI駆動型攻撃の増加や重大なサプライチェーン脆弱性を含む主要脅威がコミュニティに与えた影響を明らかにしている。
In November 2025, Health-ISAC surveyed executives and cybersecurity professionals to identify top concerns and emerging industry trends. The results of this survey, including projections that rank AI-enabled attacks as the #1 concern for 2026, are aggregated within the full report to help leaders move from reactive response to sustained business resilience. 2025年11月、Health-ISACは経営幹部とサイバーセキュリティ専門家を対象に調査を実施し、主要な懸念事項と新興業界トレンドを識別した。この調査結果(2026年の最大の懸念事項としてAI活用型攻撃を第1位に予測する内容を含む)は、リーダーが事後対応から持続的な事業レジリエンス構築へ移行する支援を目的として、本報告書に集約されている。

 

・[PDF](downloaded)

20260202-91844

・[DOCX][PDF] 仮訳

 

 

 

 

| | Comments (0)

2026.02.03

経済産業省 経済安全保障経営ガイドライン(第1版)(2026.01.23)

こんにちは、丸山満彦です。

経済産業省が、「経済安全保障経営ガイドライン(第1版)」を取りまとめていますよね...

国際情勢の変化に伴う経済安全保障リスクに対し、企業経営が中長期的視点で自社価値を守り高めるための実務的指針ということのようです...

核となる考えは「自律性」と「不可欠性」の強化。

以前から言われているとおり、特定国・地域・企業への過度な依存を避けつつ(サプライチェーン強靭化)、自社の技術・製品・サービスを国際社会にとって不可欠な存在に育てる(イノベーション投資と流出防止)ことを目指すという考え方ですね。。。

そして、経営者自らがリスクマネジメントと意思決定を主導し、サプライチェーン強靭化、技術流出防止、情報収集・分析、ステークホルダーとの対話、組織的ガバナンス整備を推進することを求めています。

具体的施策としては、取引・調達の可視化と代替策の準備、研究開発と流出対策の両立、社内横断の司令塔機能設置、モニタリングと検証、外部機関や政府との連携が挙げられる。付録のチェックリストにより実務の自己点検が可能であり、法令遵守に加え企業独自の創意工夫で対応を進めることが期待されていますね...

 

● 経済産業省

・2026.01.23「経済安全保障経営ガイドライン(第1版)」を取りまとめました

 

・[PDF] 経済安全保障経営ガイドライン(第1版)

20260202-222817

 

 

 

・[XLSX] 経済安全保障経営ガイドラインチェックリストの抜粋

・[PDF] 経済安全保障経営ガイドライン(第1版)(案)に対する意見公募の結果について

 

 

目次...

1. はじめに

2. 基本方針
(
) 本ガイドラインの位置付け
(
) 本ガイドラインで想定する企業
(
) 本ガイドラインの対象者
(
) 本ガイドラインで定める内容と範囲

3. 経営者等が認識すべき原則
(
) 自社ビジネスを正確に把握し、リスクシナリオを策定する
(
)経済安全保障への対応を単なるコストではなく、投資と捉える

4. 個別領域における取組の方向性

(1) 自律性確保の取組
① 自律性確保の重要性の高まり
② 経営者等が認識すべき推奨事項
(経営者等に期待される経営意識)
(自律性確保に向けた全体最適なサプライチェーン戦略の立案)
(自律性確保における組織体制の構築)
(ステークホルダーとの対話)

(2) 不可欠性確保の取組
① 不可欠性確保の重要性の高まり
② 経営者等が認識すべき推奨事項
(経営者等に期待される経営意識)
(不可欠性確保に向けた中長期的な経営戦略の立案)
(不可欠性確保における組織体制・風土の構築)
(ステークホルダーとの対話)
(技術等が流出した場合の対応)

(3) 経済安全保障対応におけるガバナンス強化
① 経済安全保障対応におけるガバナンスの定義
② ガバナンス強化の重要性の高まり
③ 経営者等が認識すべき推奨事項
(経済安全保障に関する情報収集)
(経済安全保障リスクおよび機会の特定・分析・評価)
(経済安全保障リスクへの対応策の検討・実行・モニタリング)
(経済安全保障対応における組織体制の構築)

付録:チェックリスト

A. 経営者等が念頭に置く原則
(1)自社ビジネスを正確に把握し、リスクシナリオを策定する
自社ビジネスのグローバル・バリューチェーンの全体像の把握に向けた調査を実施している
自社のコアとなる技術等の把握に向けた検討を進めている
ア及びイで把握した事実に基づき、リスクシナリオ及び対応策の検討を進めている
(2)経済安全保障への対応を投資と捉える
自社の経営戦略等の策定に際し、経済安全保障対応に係る検討を行っている
(3)マルチステークホルダーとの対話
自社の経済安全保障対応に関係する社内外のステークホルダーとの対話を行っている
B.個別領域における取組の方向性 
(1)自律性確保の取組 
 (経営者等に期待される経営意識) 
経営戦略等の策定に際し、自社の製品・サービスの供給安定性や信頼性等の価格だけでない要素に係る検討を行っている
自社サプライチェーンの特定の国・地域又は企業への過度な依存が孕むリスクについて検討している
社内において、製品の供給安定性等の価格だけでない要素の重要性を認識させるための取組や研修を行っている
 (自律性確保に向けた全体最適なサプライチェーン戦略の立案) 
平素から、自社にとって重要な原料・製品・サービス等に係るリスクシナリオや対応策(必要に応じて個社を超える取組を含む。)を検討している
サプライチェーン強靱化のための施策を進める際にも自社のコアとなる技術等に係る流出対策を行っている 
※1 途絶リスクが高い原料等について、使用の合理化、リサイクル・代替技術開発等の中長期的な対応を検討することも有用
 (自律性確保における組織体制の構築) 
社内横断的な体制の構築に留まらず、リスク発現時に経営者等が関連部門・機能に直接指示することを可能とする体制を構築している 
サプライチェーン途絶に係る対応策の検討に際しては、途絶の原因となる事案が継続・悪化する可能性も考慮している
※2 経済安全保障を管轄する専門部門・機能等を設置し、一定の経営判断の際の決裁ラインに当該専門部門・機能等を含めることも有用
 (ステークホルダーとの対話) 
平素より株主、金融機関、顧客企業等のステークホルダーと自社のサプライチェーンに係るリスク・対応策に係る意思疎通を行っている
サプライヤーとの間で、経営者等から現場までの各階層で、平素から重要な材料・製品等について密に情報共有できる体制を構築している
他国の国境措置等によってサプライチェーンの混乱等が発生した場合、必要に応じて経済産業省等へ速やかに相談を行うことができるよう、平素から連絡先等の確認や連携を図っている
※3 重要な材料・製品等のサプライヤーと供給途絶リスクシナリオを共有し、平素から代替供給確保のための計画を策定することも有用
(2)不可欠性確保の取組 
 (経営者等に期待される経営意識) 
自社において技術等の流出防止対策を実施するのみならず、自社の技術等に触れる取引先等においても実施されていることを確認している
取引先等の選定の際に、当該取引先等の技術等の管理体制を考慮している
自社のコアとなる技術等を特定し、同技術等の管理、流出リスクに係る評価及び流出対策を実施している
 (不可欠性確保に向けた中長期的な経営戦略の立案) 
中長期的な経営戦略等の策定に際して、既存のコアとなる技術等がコモディティ化した後も継続的なイノベーションによって新たな不可欠性を創出する方策を検討している
自社の経営戦略等の策定に際して、自社のコアとなる技術等の喪失・流出リスク及び同リスクへの対応を検討している
資本政策の検討に際して、買収や資本提携等を通じたノウハウや技術流出リスク等も考慮している
※1 技術等の協調領域を見極めた上で、業界全体や政府による育成プロジェクト等に参画することも有用
 (不可欠性確保における組織体制・風土の構築) 
技術等の流出対策に経営者等を含めて全社的に取り組んでいる
技術等の流出リスク低減の観点から、必要に応じて従業員の待遇の向上や退職者との良好な関係構築に繋がる施策を実施している
 (ステークホルダーとの対話) 
平素から、社内外の主要なステークホルダーに対し、自社における技術等の流出対策や管理体制について説明を行っている
技術等の流出対策の検討等に際して懸念が生じた場合には経済産業省に相談を行うとともに、相談結果を踏まえ、同分野の技術等を持つ他企業との対話を行っている 
 (技術等が流出した場合の対応) 
技術等が流出した場合に、迅速に原因分析や再発防止策を行うべく、経営者等自らが指示を行うことのできる体制を整備している 
技術等が流出した場合、技術等の重要度、影響等を考慮して対応するとともに、ステークホルダーとの対話を行うこととしている
(3)経済安全保障対応におけるガバナンス強化 
 (経済安全保障に関する情報収集) 
社内外のリソースを活用して経済安全保障に係る情報を収集する体制を整備している
経営者等が、現場レベルで得られた経済安全保障に係る情報を自ら把握するようにしている
 (経済安全保障上のリスクおよび機会の特定・分析・評価)
外部情報と自社保有情報の両方を考慮した上で、経済安全保障のリスク・機会を特定、評価している
定量化等の手法も用いて可能な限り客観的な形でリスク・機会に係る評価等を行っている
リスク・機会の評価に際しては、サプライチェーンや業界全体への影響をも考慮している
 (経済安全保障リスクへの対応策の検討・実行・モニタリング) 
カ  短期的な利潤最大化にとらわれず、中長期的かつ全体最適の観点から、経営判断を行っている
キ  対応策の効果検証に加え、経済安全保障対応に係る組織・運用の体制の適切性についてモニタリングを行っている
 (経済安全保障対応における組織体制の構築) 
経済安全保障対応について、社内横断的な体制を整えるとともに、必要に応じて経営者等が関連部門に直接指示し、迅速に対応を実施できる体制を整備している
経済安全保障について、リスクのみならず機会の側面も含めて対応策を検討できる体制を構築している
※1 役員間の連携を促進すること及び必要に応じて経営者等が自ら対応策実行の必要性や目指すべき姿等を示すことも有用
※2 経済安全保障を統括する司令塔部門・機能を定めるとともに、同部門・機能やリスク対応策の検討・実行を担当する組織に十分かつ適切な権限を与えることも有用
※3 部門長等を経済安全保障対応に係る責任者として定めるほか、経済安全保障を担当する執行役員相当以上の職責の者を定めることも有用
※4 経済安全保障に知見・経験を有する人材の育成も有用

 

 

| | Comments (0)

英国 ソフトウェアセキュリティ大使制度 (2026.01.15) でソフトウェアセキュリティ実践規範の推進

こんにちは、丸山満彦です。

2026.01.06に政府サイバー行動計画を公表していますね...その行動計画では、ソフトウェアとデジタルサプライチェーン(SolareWindsなど)の安全性向上の重要性がいわれていて、その実現のためにはSoftware Security Code of Practice の普及・実装が重要ということなのですが、それを推進していくのが、ソフトウェアセキュリティ大使制度ということですかね...

コンサル会社、セキュリティ製品ベンダー、ISACA、ISC2、銀行などがソフトウェアセキュリティ大使制度に参加していますね...

 

GOV.UK

・2026.01.15 Software Security Ambassadors Scheme

Software Security Ambassadors Scheme ソフトウェアセキュリティ大使制度
A scheme to champion secure software development and support a resilient cyber ecosystem. 安全なソフトウェア開発を推進し、強靭なサイバーエコシステムを支援する制度である。
Details 詳細
The Software Security Ambassador Scheme has been developed to help drive adoption of the Software Security Code of Practice, a voluntary set of principles designed to reduce software supply chain attacks and disruption, and improve cyber resilience across the economy.  ソフトウェアセキュリティ大使制度は、ソフトウェアセキュリティ行動規範の普及を促進するために開発された。この規範は、ソフトウェアサプライチェーンへの攻撃や混乱を減らし、経済全体のサイバーレジリエンスを向上させることを目的とした自主的な原則集である。
Software underpins the economy as a core component of all technologies that businesses rely on. Yet weaknesses in software can cause severe disruption to supply chains and the essential services the public use every day, with more than half (59%) of organisations experiencing software supply chain attacks in the past year. +B2 ソフトウェアは、企業が依存するあらゆる技術の中核的構成要素として経済を支えている。しかしソフトウェアの脆弱性は、サプライチェーンや国民が日常的に利用する重要サービスに深刻な混乱をもたらす可能性があり、過去1年間に組織の半数以上(59%)がソフトウェアサプライチェーン攻撃を経験している。
These issues can be addressed by embedding basic software security practices across the software market - as set out in the the Software Security Code of Practice.  これらの課題は、ソフトウェアセキュリティ行動規範に定められた基本的なソフトウェアセキュリティ慣行をソフトウェア市場全体に組み込むことで対処できる。
The Software Security Ambassadors scheme was announced on 6 January 2026 as part of the launch of the Government Cyber Action Plan. ソフトウェアセキュリティ大使制度は、政府サイバー行動計画の発表の一環として2026年1月6日に公表された。
Read the press notice. プレスリリースを参照のこと。
A range of industry parters (see full list below) have agreed to work with the government as the scheme’s ambassadors, championing the Software Security Code of Practice across sectors, showcasing practical implementation, and providing feedback to inform future policy improvements. 多様な業界パートナー(下記参照)が政府と連携し、本制度の大使として各分野でソフトウェアセキュリティ行動規範を推進し、実践的な導入事例を提示し、今後の政策改善に向けたフィードバックを提供する。
This scheme is part of the government’s wider work to improve UK cyber resilience and grow a secure and prosperous digital economy. 本制度は、英国のサイバーレジリエンス向上と安全で繁栄するデジタル経済の育成を目指す政府の包括的取り組みの一環である。

 

・2026.01.15 Software Security Ambassadors Scheme

Software Security Ambassadors Scheme ソフトウェアセキュリティ大使制度
Championing secure software development for a resilient cyber ecosystem  レジリエンスのあるサイバーエコシステムのための安全なソフトウェア開発を推進する
Software Security Ambassadors Scheme ソフトウェアセキュリティ大使制度
This is a commitment by the Department for Science, Innovation and Technology, the National Cyber Security Centre and signatory organisations to work together to endeavour to promote best practices in secure software development and to strengthen digital supply chains by improving transparency and facilitating risk management.    これは科学技術革新省、国家サイバーセキュリティセンター及び署名組織が共同で取り組む約束である。安全なソフトウェア開発におけるベストプラクティスの促進、透明性の向上とリスクマネジメントの促進によるデジタルサプライチェーンの強化を目指す。
Organisations that sign up to this Scheme are committing to become Ambassadors of the Software Security Code of Practice. They will role model the implementation of the code, champion awareness of the Code, encourage its adoption, and showcase and exchange information on their real-world success stories and use cases.   本スキームに署名する組織は、ソフトウェアセキュリティ行動規範の大使となることを約束する。規範の実施を模範的に示し、規範の認知度向上を推進し、その採用を奨励するとともに、実世界の成功事例やユースケースに関する情報を展示・交換する。
The Software Security Code of Practice is one of a series of Codes of Practice developed by the UK government to set clear expectations to help improve cyber security. These Codes, and the UK government’s Cyber Essentials scheme, set out good practices to reduce cyber security risks which are not being sufficiently addressed by industry. Organisations ideally should implement all applicable DSIT codes of practice as a minimum, but organisations signatory to this document are acting specifically as exemplars for the implementation of the Software Security Code of Practice. They have contributed to the development of this policy and are committed to endeavouring to promote the Code within relevant industries.  ソフトウェアセキュリティ行動規範は、サイバーセキュリティ向上を支援するため明確な期待値を設定するべく英国政府が策定した一連の行動規範の一つである。これらの規範と英国政府の「サイバーエッセンシャルズ」スキームは、業界で十分に対処されていないサイバーセキュリティリスクを低減するための優良事例を示すものである。組織は理想的には、適用可能なすべてのDSIT規範を最低限実施すべきであるが、本文書に署名する組織は特に「ソフトウェアセキュリティ規範」の実施における模範として行動する。彼らは本政策の策定に貢献し、関連業界内で規範を推進するよう努めることを約束している。
By acting as ambassadors, signatories are committing to a process of transparency, development and continuous improvement. The implementation of this code of practice will take time and, in doing so, may bring to light issues that need to be addressed. Signatories and policymakers will learn from these issues as well as the successes and challenges for each organisation and, where appropriate, will share information to help develop and strengthen this government policy.   大使としての役割を果たすことで、署名組織は透明性、発展、継続的改善のプロセスに取り組むことを約束する。この実践規範の実施には時間がかかり、その過程で対処すべき問題が明らかになる可能性がある。署名団体と政策立案者は、各組織の成功事例や課題、そしてこれらの問題点から学び、必要に応じて情報を共有し、本政府政策の発展と強化に寄与する。
Ambassadors include software vendors, organisations that procure software and organisations that act as expert advisors. Depending on their roles, these organisations agree to endeavour to lead by example in their development and sales practices, in their procurement and supplier management practices, or by promoting these measures in an advisory capacity.  大使には、ソフトウェアベンダー、ソフトウェア調達組織、専門アドバイザー組織が含まれる。役割に応じて、これらの組織は開発・販売慣行、調達・サプライヤー管理慣行において模範を示すこと、あるいは助言者としてこれらの施策を推進することに努めることに合意する。
The Scheme aligns with the government’s Plan for Change by ensuring a more resilient economy where we can safely benefit from digital technologies that are ‘secure by design’ and accessible to all. By better securing supply chains, these measures will help to give businesses confidence in the technologies they need to operate and innovate, helping to prevent costly incidents and supporting growth across all our sectors.  本スキームは政府の「変革計画」に沿い、「設計段階から安全性を考慮した」デジタル技術を安全に活用し、全ての人々がアクセス可能な、よりレジリエントな経済の実現を保証する。サプライチェーンの安全性を高めることで、企業は事業運営と革新に必要な技術に確信を持てるようになり、高額なインシデントの防止と全セクターの成長支援につながる。
Following best practice on secure software development makes digital ecosystems better placed to prevent the most common types of cyber-attacks and better withstand cyber incidents. Companies that develop and sell software should embed security into their practices at all stages of the software lifecycle, from development, through deployment, to ongoing maintenance, and should be transparent in the communication of risk and incident management to customers. Organisations procuring software will benefit from increased trust and confidence in the digital technologies and services that help them innovate and grow.   セキュアなソフトウェア開発のベストプラクティスに従うことで、デジタルエコシステムは最も一般的なサイバー攻撃を防止し、サイバーインシデントに耐える能力を高められる。ソフトウェアを開発・販売する企業は、開発から展開、継続的な保守に至るソフトウェアライフサイクルの全段階でセキュリティを実践に組み込み、リスクマネジメントやインシデント対応について顧客に透明性を持って伝えるべきだ。ソフトウェアを調達する組織は、自社の革新と成長を支えるデジタル技術やサービスに対する信頼と確信を高められる。
The public commitment 公約
My organisation makes a public commitment to achieve the following objectives in one year:  当組織は、以下の目標を1年以内に達成することを公に約束する:
All signatories 全署名組織
Promote the Software Security Code of Practice on our social media, websites and, where possible, at NCSC/DSIT events.  ソーシャルメディア、ウェブサイト、可能な場合はNCSC/DSITイベントにおいて、ソフトウェアセキュリティ実践規範を推進する。
Endeavor to showcase real-world success stories and use cases on our journey to achieve the below objectives and implementing the Software Security Code of Practice in our organisation and supply chains. 下記目標の達成と、組織及びサプライチェーンにおけるソフトウェアセキュリティ実践規範の実施に向けた取り組みにおいて、実世界の成功事例とユースケースを積極的に紹介する。
Reflect on incidents and lessons-learned to inform continuous improvement of organisational practices and government policy (where appropriate). インシデントと教訓を検証し、組織の実践と政府政策(適切な場合)の継続的改善に反映させる。
Software suppliers ソフトウェア供給者
Appoint a Senior Responsible Owner to hold accountability for the implementation of the Software Security Code of Practice.  ソフトウェアセキュリティ実践規範の実施責任を担う上級責任者を任命する。
Complete and publish the self-assessment form or third party verification to demonstrate compliance with the principles of the Software Security Code of Practice.  自己評価フォームまたはサードパーティ検証を完了・公開し、ソフトウェアセキュリティ実践規範の原則への準拠を証明する。
Put in place measures to ensure relevant teams develop the necessary skills and expertise on secure software development and provide access to appropriate learning and development opportunities.  関連チームがセキュアなソフトウェア開発に必要なスキルと専門知識を習得できるよう対策を講じ、適切な学習・開発機会へのアクセスを提供する。
[If a DSP/ consultant] Encourage clients and collaborators to adopt the Software Security Code of Practice and embed the principles of the Code into software developed collaboratively. [DSP/コンサルタントの場合] クライアントや協力者にソフトウェアセキュリティ行動規範の採用を促し、共同開発ソフトウェアに規範の原則を組み込む。
Software buyers ソフトウェア購入者
Incorporate the Software Security Code of Practice into procurement policies and procedures for supplier management of our software suppliers. ソフトウェアプロバイダの管理に関する調達方針・手順にソフトウェアセキュリティ行動規範を組み込む。
Expert advisors 専門アドバイザー
Promote the Software Security Code of Practice through advisory/ educational services and other business.  助言・教育サービスその他の事業を通じてソフトウェアセキュリティ行動規範を推進する。
If applicable, incorporate the Software Security Code of Practice into requirements for relevant partner organisations. 該当する場合、関連パートナー組織への要求事項にソフトウェアセキュリティ行動規範を組み込む。

 

 

2025.05.07に公開された、ソフトウェアセキュリティ行動規範...

Software Security Code of Practice

 

Voluntary Software Security Code of Practice  自主的なソフトウェアセキュリティ行動規範
The Software Security Code of Practice contains 14 principles split across 4 themes. A Senior Responsible Owner should be appointed at senior leadership level to hold accountability for the principles being followed within their organisations.   ソフトウェアセキュリティ行動規範は、4つのテーマに分けられた14の原則から成る。上級責任者を上級管理職レベルで任命し、組織内でこれらの原則が遵守される責任を負わせるべきである。
1.Secure design and development  1. 安全な設計と開発
These principles ensure that the software is appropriately secure when provided.   これらの原則は、ソフトウェアがプロバイダされる際に適切なセキュリティを確保するものである。
The Senior Responsible Owner in vendor organisations shall gain assurance that their organisation achieves the following in relation to any software or software services sold by their organisation:   ベンダー組織における上級責任者は、自組織が販売するソフトウェアまたはソフトウェアサービスに関して、以下の事項を達成していることを保証しなければならない。  
1.1 Follow an established secure development framework.   1.1 確立されたセキュア開発枠組みに従うこと。  
1.2 Understand the composition of the software and assess risks linked to the ingestion and maintenance of third-party components throughout the development lifecycle.   1.2 ソフトウェアの構成を理解し、開発ライフサイクル全体を通じてサードパーティ製コンポーネントの導入および保守に関連するリスクを評価すること。  
1.3 Have a clear process for testing software and software updates before distribution.   1.3 配布前のソフトウェアおよびソフトウェア更新プログラムのテストに関する明確なプロセスを有すること。
1.4 Follow secure by design and secure by default principles throughout the development lifecycle of the software.   1.4 ソフトウェアの開発ライフサイクル全体を通じて、設計段階からのセキュリティ確保(Secure by Design)およびデフォルトでのセキュリティ確保(Secure by Default)の原則に従うこと。  
2.Build environment security  2.ビルド環境のセキュリティ
These principles ensure that the appropriate steps are taken to minimise the risk of build environments becoming compromised and protect the integrity and quality of the software.  これらの原則は、ビルド環境が侵害されるリスクを最小限に抑え、ソフトウェアの完全性と品質を防御するための適切な措置が講じられることを保証するものである。
The Senior Responsible Owner in vendor organisations shall gain assurance that their organisation achieves the following in relation to any software or software services sold by their organisation:  ベンダー組織の最高責任者は、自組織が販売するソフトウェアまたはソフトウェアサービスに関して、以下の事項を達成していることを保証しなければならない:
2.1 Protect the build environment against unauthorised access.  2.1 ビルド環境を不正アクセスから防御する。
2.2 Control and log changes to the build environment.   2.2 ビルド環境への変更を管理し、記録する。
3.Secure deployment and maintenance  3.安全な展開と保守
These principles ensure that the software remains secure throughout its lifetime, to minimise the likelihood and impact of vulnerabilities.   これらの原則は、ソフトウェアのライフサイクル全体を通じて安全性を維持し、脆弱性の発生確率と影響を最小限に抑えることを保証する。
The Senior Responsible Owner in vendor organisations shall gain assurance that their organisation achieves the following in relation to any software or software services sold by their organisation:  ベンダー組織における最高責任者は、自組織が販売するソフトウェアまたはソフトウェアサービスに関して、以下の事項を達成していることを保証しなければならない:
3.1 Distribute software securely to customers.  3.1 顧客へのソフトウェアの安全な配布
3.2 Implement and publish an effective vulnerability disclosure process.  3.2 効果的な脆弱性開示プロセスの実施と公表
3.3 Have processes and documentation in place for proactively detecting, prioritising and managing vulnerabilities in software components.  3.3 ソフトウェアコンポーネントの脆弱性を積極的に検知、優先順位付け、管理するためのプロセスと文書化の実施
3.4 Report vulnerabilities to relevant parties where appropriate.  3.4 適切な場合には関係当事者への脆弱性の報告
3.5 Provide timely security updates, patches and notifications to customers.   3.5 顧客に対し、タイムリーなセキュリティ更新、パッチ、通知を提供する。  
4.Communication with customers  4.顧客とのコミュニケーション
These principles ensure that vendor organisations provide sufficient information to customers to enable effective risk and incident management.   これらの原則は、ベンダー組織が顧客に十分な情報を提供し、効果的なリスクマネジメントとインシデント管理を可能にすることを保証する。
The Senior Responsible Owner in vendor organisations shall gain assurance that their organisation achieves the following in relation to any software or software services sold by their organisation:  ベンダー組織のシニア・レスポンシブル・オーナーは、自組織が販売するソフトウェアまたはソフトウェアサービスに関して、以下の事項を達成していることを確認しなければならない:
4.1 Provide information to the customer specifying the level of support and maintenance provided for the software being sold.  4.1 販売するソフトウェアに対するサポートおよび保守のレベルを明記した情報を顧客に提供する。
4.2 Provides at least 1 year’s notice to customers of when the software will no longer be supported or maintained by the vendor.   4.2 ベンダーによるソフトウェアのサポートまたは保守が終了する時期について、顧客に対し少なくとも1年前の通知を行う。
4.3 Make information available to customers about notable incidents that may cause significant impact to customer organisations.  4.3 顧客組織に重大な影響を及ぼす可能性のある顕著なインシデントに関する情報を顧客が利用できるようにする。

 

・[HTML][PDF] Software Security Code of Practice

20251129-195230

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.01.08 英国 政府サイバー行動計画 (2026.01.06)

・2025.11.30 英国 自主的なソフトウェア・セキュリティ行動規範

 

 

 

 

| | Comments (0)

「サイバーセキュリティ月間」はじまっています... (02.01-03.18)

こんにちは、丸山満彦です。

毎年2月1日から3月18日までは「サイバーセキュリティ月間」としていますね...

今年は高市総理のビデオメッセージ(2分)がありますね...(昨年はのビデオメッセージは林内閣官房長官

 

● 国家サイバーセキュリティ - みんなで使おうサイバーセキュリティ・ポータルサイト

・2026.02.01 コラム(国家サイバー統括室 統括官 木村公彦)

コラム第1号は昨年と同じく、木村さんですね...

20260202-201055

 

 

● 総務省

・2026.01.30 「サイバーセキュリティ月間」における総務省の取組

1. 総務省の取り組み

1)セミナー等の開催

開催予定のセミナー等

2)オンライン講座の提供

・今すぐ学ぼう Wi-Fiセキュリティ対策

3)注意喚起の実施

ネットワークカメラ映像流出やストリーミング機器を悪用した攻撃に関する注意喚起を行うものである。

4)表彰の実施

「サイバーセキュリティに関する総務大臣奨励賞」により表彰

5eシール関連のロゴマーク公表

総務大臣認定を受けた事業者が利用可能なロゴマークを公表します。

2. 関係団体の取組

ICT-ISAC が通信事業者等と連携し、最新事例を踏まえた サイバー攻撃対処演習を実施

 

● IPA

・2026.02.02 2026年サイバーセキュリティ月間特集ページを公開しました

イベント 

Pickup コンテンツ

 


2025年~2021年

2020年~2016年

2015年~2011年

 


 

まるちゃんの情報セキュリティ気まぐれ日記

2025.02.05 NISC 2月はセキュリティ月間

・2024.10.06 10月は世界的なサイバーセキュリティ月間(日本は2月だけど)

・2023.02.01 NISC サイバーセキュリティ月間始まりました

 

・2021.10.05 米国・EU 10月はサイバーセキュリティ(意識向上)月間

 

・2011.02.20 IPA情報セキュリティ月間記念シンポジウム2011

・2011.02.03 情報セキュリティ月間はじまっています。。。(内閣官房)

・2010.01.30 今年から2月は「情報セキュリティ月間」

 

・2008.12.11 内閣官房 第19回情報セキュリティ政策会議の開催について

・2007.01.26 みんなで「情報セキュリティ」強化宣言!

・2006.10.28 毎年2月2日は情報セキュリティの日

| | Comments (0)

2026.02.02

IPA AIインシデントレスポンス・アプローチ (2025.01.09)

こんにちは、丸山満彦です。

IPAのAIセーフティ・インスティテュートがAIシステム特有のリスクに起因するインシデントに対応するための新たな枠組みとして「AI-IRS(AI Incident Response System)」を示したアプローチブックを公開していました...


AIは、業務効率化や意思決定支援を超え、社会や経済活動を支える基盤として活用が進みつつあります。一方で、その誤作動や想定外の挙動に起因するAIインシデントは、事業継続や社会的信頼に影響を及ぼす可能性があります。特に、業務を自律的に実行するAIエージェントの活用が進展する中、従来の情報システムを前提としたインシデント対応では、十分な対応が困難となっています。

本書では、AIインシデントは起こり得るものとの前提に立ち、被害を最小化する発見的統制の重要性を明確にしています。AI-IRSは、AIサプライチェーン全体を視野に入れたコンセプトを示しており、AIを信頼できる社会基盤として活用するためのアプローチを提供しています。


ということのようです...

これは非常に良い文書ですね...これからのAI開発から利用の側面で重要となると思います。

 

IPA - AISI

・2026.01.09 AIインシデントレスポンス・アプローチブックを公開

・[PDF] AIインシデントレスポンス・アプローチブック

20260201-110921

 

・[PDF] AIインシデントレスポンス・アプローチブック(概要版)

20260201-111120

 

セキュリティという文脈というよりも、AIの特性(動的、自律的)を踏まえたリスクマネジメントのあり方ですかね。。。

・予測できない領域が広くなるので、想定外(未知の脆弱性)のインシデントが起こりやすくなる

ということを踏まえて、

・インシデント対応が重要となる。

インシデント対応をするためには、

・インシデントの検知(観測性)

・インシデントの対応・復旧(制御性)

が重要となるが、AIの特性(動的、自律的)に実行してしまうということを踏まえるとこの検知(観測性)、対応・復旧(制御性)も自動実行できるようにしておかないとシステム全体を制御できなくなるということなのだろうと思います。

これからはシステム思考というのが重要となりそうですね...

個別のAIで考えると

・実行するAI

・それを観測し判定するAI(検知)

・判定した結果に基づいて制御するAI(対応・復旧)

をそれぞれ独立させて全体を制御するのが重要となるかもしれません。。。このような設計は事前に設計してから実装していくようにしないと、事後的に改善すると、システムが複雑になり制御が難しくなると思います。「最初の設計が重要」。

AIとAIがつながってくるシステム系も含めて考えていくと、3 lines of Defenseの考え方の導入も必要かもしれません。

・1st. Line: 実行するAI(事前に安全性を確認済みのAI)

・2nd. Line: それを観測し判定するAI

・2nd. Line: 判定した結果に基づいて制御するAI

・3rd. Line: このシステム全体が機能していることを判定し、修正できるAI(内部監査的)

ということも重要となるかもですね...

ただ、これらは1年に1回というようなものではなく、リアルタイムで実施する感じだと思います...

また組織を超えてAIとAIがつながっていくと責任の分担の話もより複雑になってきますよね...「最初の設計が重要」...広い意味で言うとガバナンスなのですが、よく考えないと、そこはスパゲッティーコードや拡張路線をとった老舗旅館の問題となり、建て替えたほうがはやい...ということにもなりかねません。

この文書はSP800-61を参考にしている部分があるのですが、SP800-61はRev.3からCSFを参照するアプローチになっていますね。。。セキュリティも含めてCSFベースでの整理が増えてきていますよね...運用における整理では昔からの整理学でもあり、わかりやすいのかもしれません。。。

SP800-61 Rev.3のインシデントレスポンスの考え方が先にあるとわかりやすいかもです...

1_20250406125801

図 2. CSF2.0 機能に基づくインシデント対応ライフサイクルモデル

 

ということを理解すると、次の図の考え方がよりわかりやすいかもです。。。

20260201-112216

SBOM for AIの重要性にも触れていますが、それは当然だと思います...

 


 

まるちゃんの情報セキュリティ気まぐれ日記

SP800-61関係...

2025.04.07 米国 NIST SP 800-61 Rev. 3 サイバーセキュリティリスク管理のためのインシデント対応に関する推奨事項および考慮事項:CSF 2.0 コミュニティプロファイル (2025.04.03)

 

SBOM for AI関係...

・2025.08.13 G7 人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン (2025.06.12)

 

Cyber AI Profile関係

・2025.12.26 米国 NIST IR 8596(初期ドラフト)人工知能向けサイバーセキュリティ枠組みプロファイル(Cyber AI Profile):NISTコミュニティプロファイル (2025.12.16)

 

 

AI関係は

AI/Deep Learning

 

よりぬき...

・2026.02.01 CSA 非人間アイデンティティとAIセキュリティの現状 (2026.01.26)

・2026.01.31 欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

・2026.01.10 英国 データとAIの倫理フレームワークの改訂 (2025.12.18)

・2026.01.07 米国 CSET AIによる被害のメカニズム - AIインシデントから得た教訓 (2025.10)

・2026.01.06 米国 CSET AIガイダンスの調和 - 自主標準とベストプラクティスを統一的枠組みに集約する (2025.09)

・2025.12.28 総務省 パブコメ「AIのセキュリティ確保のための技術的対策に係るガイドライン」(案) (2025.12.25)

・2025.12.26 米国 NIST IR 8596(初期ドラフト)人工知能向けサイバーセキュリティ枠組みプロファイル(Cyber AI Profile):NISTコミュニティプロファイル (2025.12.16)

・2025.12.05 米国 NIST AI 700-2 AIのリスクと影響の評価(ARIA) ARIA 0.1:パイロット評価報告書 (2025.11.17)

・2025.11.14 欧州 EDPS AIシステムのリスクマネジメントのためのガイダンス (2025.11.11)

・2025.11.13 OpenID Japan 「Identity Management for Agentic AI」の翻訳版公開 (2025.11.09)

・2025.11.11 欧州 欧州委員会 AI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始 (2025.11.05)

・2025.10.28 オーストラリア AI導入ガイダンス (2025.10.21) と AIポリシーガイドとテンプレート (2025.10.02) など

・2025.10.26 信頼できるAIになるためにはAIの連続性(一貫性)が保証されないとダメなんでしょうね...

・2025.10.26 Pew 世界中の人々は、日常生活におけるAIの台頭についてどう感じているのか?(2025.10.15)

・2025.09.24 OWASP AI成熟度アセスメント (2025.08.11)

・2025.09.17 内閣府 人工知能戦略本部(第1回)AI法に基づく適正性確保に関する指針(案)の概要他... (2025.09.12)

・2025.08.19 米国 NIST AI システムのセキュリティ確保のためのコントロールオーバーレイのコンセプトペーパー

・2025.08.18 IPA AISI AIシステムのセキュリティ 既知の攻撃とその影響についてのガイド (2025.07.09)

・2025.08.13 G7 人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン (2025.06.12)

・2025.08.11 葬送のフリーレンの魔族とAI

・2025.07.31 欧州委員会 AI法における汎用AIモデル提供者の義務範囲に関するガイドライン(2025.07.18)

・2025.07.28 中国 AIグローバルガバナンス行動計画(2025.07.26)

・2025.07.27 フランス CNIL AIシステムの開発:(2025.07.22)

・2025.07.25 米国 ホワイトハウス AI行動計画(2025.07.23)

・2025.07.25 欧州委員会 汎用 AI 実践規範 (2025.07.10)

・2025.06.21 監査(評価)はどんどん自動化される? CSAのAIをつかった妥当性確認 (Valid-AI-ted) (2025.06.09)

・2025.05.21 米国 MIT AIリスク・レポジトリー Ver.3(2025.03.26)

・2025.04.18 米国 AI政策戦略研究所(IAPS)AIエージェントのガバナンス: フィールドガイド (2025.04.17)

・2025.04.12 CSA STAR for AI 関係...

・2025.04.02 AIセキュリティポータル (2025.03.26)

・2025.03.25 米国 NIST AI 100-2 E2025 敵対的機械学習:攻撃と緩和策の分類と用語

・2025.02.19 英国 AI Safety Institute(AI安全機構)からAI Security Institute(AIセキュリティ機構)へ (2025.02.14)

・2025.02.19 英国 ANSI フロンティアAIの安全性にセーフティケースをどのように役立てるか? (2025.02.10)

・2025.02.18 英国 AISI セーフガード評価の原則 - 誤用セーフガードを評価するための基本原則の提言 (2025.02.04)

・2025.02.12 英国 英国政府のためのAIプレイブック(2025.02.10)

・2025.02.08 欧州委員会 規則(EU)2024/1689(AI法)が定める人工知能の禁止行為に関する欧州委員会ガイドライン

・2025.02.03 些細だが累積するバイアス

・2025.02.03 英国 AI安全報告書 2025

・2025.01.29 ドイツ BSI 生成的AIモデルV2.0 (2025.01.21)

・2025.01.24 ASEAN AIのガバナンスと倫理に関する拡張ASEANガイド - 生成的AI (2025.01.17)

・2025.01.21 米国 トランプ大統領が大統領令14110 人工知能の安全、安心、信頼できる開発と利用を含む67の大統領令と11の覚書を撤回する大統領令を出しましたね...(2025.01.20)

・2025.01.19 米国 NIST AI 800-1(第2ドラフト)デュアルユースの基盤モデルの悪用リスクの管理 (2025.01.15)

・2025.01.10 米国 連邦取引委員会 ブログ AIと消費者被害のリスク

・2025.01.08 列国議会同盟 議会におけるAIのガイドライン (2024.12.12)

・2024.12.31 欧州法研究所 AI法におけるAIシステムの定義の適用に関するガイドライン:三要素アプローチに関するELIの提案 (2024.12.12)

・2024.12.18 ブラジル 国家データ保護局 生成的AIについての一般向け説明 (2024.11.29)

・2024.12.17 英国 ICO 生成的AIに関するコンサルテーションに対する情報コミッショナー事務局の回答:生成的AIの開発者たちよ、あなたたちが人々の情報をどのように使っているのか伝える時だ(2024.12.12)

・2024.12.16 シンガポール金融管理局 人工知能(AI)モデル・リスクマネジメント (2024.12.05)

・2024.12.15 生成的AIについてふと思ったこと...金持ちはより金持ちに...

・2024.12.06 欧州委員会 AI法における汎用AIモデル - Q&A (2024.11.20)

・2024.12.04 欧州評議会 AIシステムの人権への影響を評価する新しいツールを発表 (2024.12.02)

・2024.12.01 欧州委員会 公共機関のAI導入に関する2つの報告書「どのような要因が公的管理者によるAI導入の認知に影響を与えるか?」「公共部門におけるAIのためのコンピテンシーとガバナンス慣行」 (2024.11.25)

・2024.12.01 備忘録 論文 法人としてのAI:過去、パターン、展望

・2024.11.29 米国 AI安全研究所 安全保障等に関わる政府タスクフォースの設立、AI安全機構国際ネットワークの設立総会で初代議長に、NIST AI 100-4の発表 (2024.11.20)

・2024.11.27 英国 国防省 JSP 936 V1.1 防衛における信頼できる人工知能(パート1: 指令) (2024.11.13)

・2024.11.23 CSA AIリスクマネジメント: 規制の枠を超えて考える

・2024.11.05 OECD AIの影響を最も受ける労働者は誰か?

・2024.10.28 シンガポール サイバーセキュリティ局 AIシステムのセキュリティ確保に関するガイドラインとコンパニオンガイド (2024.10.15)

・2024.10.28 米国 ホワイトハウス 人工知能(AI)に関する国家安全保障覚書 (NSM) と 国家安全保障におけるAIガバナンスとリスクマネジメントを前進させる枠組み(2024.10.24)

・2024.10.26 米国 ホワイトハウス 「人工知能における米国のリーダーシップの推進、国家安全保障上の目標を達成するための人工知能の活用、人工知能の安全性、セキュリティ、信頼性の育成に関する覚書」と「国家安全保障におけるガバナンスとリスクマネジメントを推進する枠組み」

・2024.10.18 オランダ AI利用ガイド (2024.10.16)

・2024.10.17 IPA AIセーフティ・インスティテュート AIセーフティに関するレッドチーミング手法ガイド (2024.09.25)

・2024.10.07 米国 NIST CSWP 31 重要AIシステムのための代理妥当性確認と検証;代理設計プロセス (2024.09.26)

・2024.10.05 CSA-JC AI ワーキンググループ AIレジリエンス:AIの安全性に関する革命的なベンチマークモデル (2024.09.20) +過去分も...

・2024.09.24 欧州 EUROPOL AIと警察業務 - 法執行機関における人工知能の利点と課題

・2024.09.22 中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)

・2024.09.21 IPA AIセーフティ・インスティテュート AIセーフティに関する評価観点ガイド (2024.09.18)

・2024.08.12 ドイツ BSI AIシステムの透明性に関する白書 (2024.08.05)

・2024.08.11 オランダ AI影響アセスメント (2023.03.02)

 

それ以外にもあるけど。。。

 

 

 

 

 

| | Comments (0)

個人情報保護委員会 不正アクセス発生時のフォレンジック調査の有効活用に向けた着眼点 (2026.01.16)

こんにちは、丸山満彦です。

個人情報保護委員会が「不正アクセス発生時のフォレンジック調査の有効活用に向けた着眼点」とその「概要」を公表していますね。。。


不正アクセスによる個人データ等の漏えい等事例を踏まえ、個人データ等の漏えい等の対策や留意すべき点について検討するとともに、効果的な普及啓発の方法に係る情報交換を実施しています。同連絡会で得られた知見を広く一般に普及する観点から、連絡会の議論を踏まえた、個人データ等の漏えい等対策における留意点などを分かりやすくまとめ、参加機関がそれぞれ有するチャネルを活用して、ワンボイスで周知啓発を行っております。


ということのようです...

デジタルフォレンジックといえば、NPOデジタルフォレンジック研究会(IDF)だが、関わって作成したのかなぁ...

 

 

個人情報保護委員会

・[PDF] 不正アクセス発生時のフォレンジック調査の有効活用に向けた着眼点(概要)

20260201-02808

 

・[PDF] 不正アクセス発生時のフォレンジック調査の有効活用に向けた着眼点

20260201-03004

 

 


 

IDFの証拠保全ガイドラインも是非参考にしてくだませ...

・2025.03.15 「証拠保全ガイドライン第10版」 (目次)

20260201-04539

 

・2025.05.20「クラウドフォレンジックについての参考情報」 (目次)

20260201-04633

 

| | Comments (0)

韓国 人工知能基本法が2026.01.22から施行されていますね...あわせてガイドラインも公表されています...

こんにちは、丸山満彦です。

韓国では2025.01.21に制定され、2026.01.20に一部改正された人工知能基本法が2026.01.22から施行されていますね...

EUのように法律での規制も規定されていますが、韓国の場合は産業振興を踏まえた規制ということを明確にしているように感じます。

罰則の最高額は3000万ウォン(300万円)ということで、EU-AI法の場合に3,500万ユーロまたは世界売上の7%の大きい方とは大きな差があります。(拘禁刑は最高3年です...)

規制については第4章

規制対象事業者はAI事業者(AI開発事業者とAI利用事業者)で、さらに「高影響AI」、「生成AI」、「大規模AIシステム」、「一定条件の国外事業者に関する義務」となりますね。。。

 

法律は国のデータベースから検索できます...

국가법령정보센터 (国家法令情報センター)

인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(人工知能の発展と信頼基盤の構築等に関する基本法)

인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 시행령(人工知能の発展と信頼基盤の構築等に関する基本法施行令)

 

ガイドライン...

한국지능정보사회진흥원 (National Information Society Agency: NIA) 韓国知能情報社会振興院

2026.01.26 인공지능_투명성_확보_가이드라인 人工知能_透明性_確保_ガイドライン
2026.01.22 인공지능_안전성_확보_가이드라인 人工知能_安全性_確保_ガイドライン
2026.01.29 고영향_인공지능_판단_가이드라인_최종_v.3 高影響_人工知能_判断_ガイドライン_最終版_v.3
2026.01.22 고영향_인공지능_사업자_책무_가이드라인 高影響_人工知能_事業者_責務_ガイドライン
2026.01.22 인공지능_영향평가_가이드라인 人工知能_影響評価_ガイドライン

 

 

サムソン、カカオなどの韓国企業が参加しているこちらでもしていますね...

한국인공지능소프트웨어산업협회(韓国インテリジェント情報ソサエティ振興院(KOSA:Korea Artificial Intelligence Software Industry Association/韓国人工知能ソフトウェア産業協会)

ガイドラインはこちらかも...

고영향 인공지능판단 가이드라인 高影響人工知能判断ガイドライン
고영향 인공지능사업자 책무 가이드라인 高影響人工知能事業者責務ガイドライン
고영향 인공지능영향평가 가이드라인 高影響人工知能影響評価ガイドライン
생성형 인공지능투명성 확보 가이드라인 生成型人工知能透明性確保ガイドライン
최첨단 인공지능안전성 확보 가이드라인 最先端人工知能安全性確保ガイドライン

 

AI国家戦略

2025.12.16 PDF 대한민국 인공지능 행동계획(안) 大韓民国人工知能行動計画(案)
2025.09.08 PDF 대한민국 AI액션플랜 추진방향 大韓民国AIアクションプラン推進方向
2025.11.24 hwpx AI 민생 10대 프로젝트 추진방안(안) AI民生10大プロジェクト推進方案(案)
2025.04.18 PDF 국가AI역량 강화방안 후속조치 国家AI能力強化計画のフォローアップ措置
2025.02.20 zip AI컴퓨팅 인프라 확충을 통한 국가AI역량강화방안 AIコンピューティングインフラ拡充による国家AI能力強化方案
2024.11.05 PDF 전국민 AI 일상화 실행 계획 全国民AI日常化実行計画
2024.11.05 PDF 인공지능 일상화 및 산업 고도화 계획(안) 人工知能の日常化及び産業高度化計画(案)
2024.11.05 PDF 대한민국 디지털 전략 大韓民国デジタル戦略

 

1_20260131155601

 

法令の仮対訳

↓↓↓↓↓↓

» Continue reading

| | Comments (0)

«FIRST 共通脆弱性評価システム バージョン4.0 利用者向け実装ガイド (2026.01.06)