案内(講演 / 書籍等)

2025.01.15

書籍 NISC編 サイバーセキュリティ関係法令Q&Aハンドブック

こんにちは、丸山満彦です。

商事法務から、「サイバーセキュリティ関係法令Q&Aハンドブック」内閣官房内閣サイバーセキュリティセンター(NISC)編が発刊されましたね。。。

Img_7843

 

これは、NISCの委員会で取りまとめたものを書籍化したものです。

https://security-portal.nisc.go.jp/guidance/law_handbook.html

 

私も作成に関わっていますが、 岡村委員長をはじめ、ワーキンググループの方、事務局がかなりご苦労をされてできたものです。。。

裁判例を含めて関連情報が厚いのが良いところですかね。。。そして、内閣官房謹製。。。

手元に1冊あると参考になることも多いし、PDFと違った良さもあるので、ぜひ1冊。。。

 

●2025.01.10「サイバーセキュリティ関係法令Q&Aハンドブック」内閣官房内閣サイバーセキュリティセンター(NISC)編

商事法務

全国官報販売協同組合

Amazon

e-hon

楽天book

 


まるちゃんの情報セキュリティ気まぐれ日記

・2023.09.26 内閣官房 NISC 関係法令Q&Aハンドブック Ver 2.0

・2020.03.03 NISC 「サイバーセキュリティ関係法令Q&Aハンドブック 」について

 

| | Comments (0)

2024.09.22

中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)

こんにちは、丸山満彦です。

中国が、AI安全ガバナンスフレームワーク(V1.0)を公表していますね。。。中国語版と英語版を策定していますね...

中国もAIの開発に力を入れていますが、同時にその標準にも力をいれていますね...

 

● 中央网安全和信息化委公室 (Cyberspace Administration of China: CAC)

・2024.09.09 《人工智能安全治理框架》1.0版发布

 

《人工智能安全治理框架》1.0版发布 「人工知能セキュリティガバナンスフレームワーク」バージョン1.0がリリースされた
9月9日,在2024年国家网络安全宣传周主论坛上,全国网络安全标准化技术委员会(以下简称“网安标委”)发布《人工智能安全治理框架》1.0版。 9月9日、2024年国家サイバーセキュリティ意識向上週間のメインフォーラムにおいて、国家サイバーセキュリティ標準化技術委員会(以下、「サイバーセキュリティ標準化委員会」と略す)は、「人工知能セキュリティガバナンスフレームワーク」のバージョン1.0をリリースした。
贯彻落实《全球人工智能治理倡议》,网安标委研究制定了《人工智能安全治理框架》(以下简称《框架》)。《框架》以鼓励人工智能创新发展为第一要务,以有效防范化解人工智能安全风险为出发点和落脚点,提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等人工智能安全治理的原则。《框架》按照风险管理的理念,紧密结合人工智能技术特性,分析人工智能风险来源和表现形式,针对模型算法安全、数据安全和系统安全等内生安全风险和网络域、现实域、认知域、伦理域等应用安全风险,提出相应技术应对和综合防治措施,以及人工智能安全开发应用指引。 国家ネットワークセキュリティ標準化技術委員会(以下「ネットワークセキュリティ標準化委員会」)は、グローバル人工知能ガバナンスイニシアティブを実施するために、「人工知能セキュリティガバナンスフレームワーク」(以下「フレームワーク」)を研究・策定した。フレームワークの第一の優先事項は、人工知能の革新的な発展を促すことであり、その出発点と最終目標は、人工知能のセキュリティリスクを効果的に防止・解決することである。同フレームワークは、包括的かつ慎重なガバナンスの原則を提案し、安全性を確保し、リスク志向で機敏なガバナンスを行い、技術的および管理的なアプローチを組み合わせ、協調的に対応し、共同ガバナンスと共有のためのオープンな協力を提案している。 このフレームワークは、リスク管理の概念に則り、人工知能の技術的特性と密接に連携しながら、人工知能のリスクの発生源と現れ方を分析している。モデルアルゴリズムのセキュリティ、データセキュリティ、システムセキュリティなどの内在的なセキュリティリスク、およびサイバー、物理、認知、倫理の各領域におけるアプリケーションのセキュリティリスクに対応する技術的対応策と包括的な予防・管理措置を提案している。また、人工知能の安全な開発と応用に関するガイドラインも提供している。
网安标委秘书处主要负责人表示,《框架》1.0版的发布,对推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。 ネットワークセキュリティ標準化委員会事務局の主要担当者は、フレームワークのバージョン1.0のリリースは、社会の各当事者の積極的な参加とAIセキュリティガバナンスの協調的な推進を促進する上で重要な役割を果たし、安全で信頼性が高く、公平かつ透明性の高いAI技術の研究開発と応用のためのエコシステムを育成し、AIの健全な発展と規範的な応用を促進するための基本的な枠組み技術ガイドラインを提供すると述べた。また、AIセキュリティガバナンスに関する国際協力のグローバルな推進にも役立ち、幅広い合意に基づくグローバルなAIガバナンスシステムの形成を促進し、AI技術が人類に恩恵をもたらすことを確実にする。

 

・[PDF] 人工智能安全治理框架

20240921-32507

 

 

・[PDF] AI Safety Governance Framework (V1.0)

20240921-32341

 

 

目次...

1. Principles for AI safety governance 1. AI安全ガバナンスの原則
2. Framework for AI safety governance 2. AI安全ガバナンスの枠組み
3. Classification of AI safety risks 3. AIの安全リスクの分類
3.1 AI's inherent safety risks 3.1 AIに内在する安全リスク
3.2 Safety risks in AI applications 3.2 AIの応用における安全リスク
4. Technological measures to address risks 4. リスクに対処するための技術的対策
4.1 Addressing AI’s inherent safety risks 4.1 AIに内在する安全リスクへの対応
4.2 Addressing safety risks in AI applications 4.2 AIアプリケーションにおける安全リスクへの対応
5. Comprehensive governance measures 5. 包括的なガバナンス対策
6. Safety guidelines for AI development and application 6. AIの開発と応用における安全ガイドライン
6.1 Safety guidelines for model algorithm developers 6.1 モデルアルゴリズム開発者向け安全ガイドライン
6.2 Safety guidelines for AI service providers 6.2 AIサービスプロバイダのための安全ガイドライン
6.3 Safety guidelines for users in key areas 6.3 重点分野における利用者向け安全ガイドライン
6.4 Safety guidelines for general users 6.4 一般ユーザー向け安全ガイドライン

 

 

 

 

AI Safety Governance Framework (V1.0) AI安全ガバナンスフレームワーク(V1.0)
Artificial Intelligence (AI), a new area of human development, presents significant opportunities to the world while posing various risks and challenges. Upholding a people-centered approach and adhering to the principle of developing AI for good, this framework has been formulated to implement the Global AI Governance Initiative and promote consensus and coordinated efforts on AI safety governance among governments, international organizations, companies, research institutes, civil organizations, and individuals, aiming to effectively prevent and defuse AI safety risks. 人類の新たな発展分野である人工知能(AI)は、世界に大きな機会をもたらす一方で、さまざまなリスクや課題も提起している。本フレームワークは、人間中心のアプローチを堅持し、AIを善のために発展させるという原則に則り、グローバルAIガバナンスイニシアティブを実施し、政府、国際機構、企業、研究機構、市民機構、個人間のAI安全ガバナンスに関するコンセンサスと協調的な取り組みを促進し、AIの安全リスクを効果的に防止・緩和することを目的として策定された。
1. Principles for AI safety governance 1. AI安全ガバナンスの原則
• Commit to a vision of common, comprehensive, cooperative, and sustainable security while putting equal emphasis on development and security • 開発と安全の両方に等しく重点を置きつつ、共通、包括的、協調的、持続可能なセキュリティというビジョンを追求する
• Prioritize the innovative development of AI • AIの革新的な発展を優先する
• Take effectively preventing and defusing AI safety risks as the starting point and ultimate goal  • AIの安全リスクの有効な防止と緩和を起点とし、究極の目標とする
• Establish governance mechanisms that engage all stakeholders, integrate technology and management, and ensure coordinated efforts and collaboration among them • すべてのステークホルダーを巻き込み、技術と管理を統合し、それらの協調と協力を確保するガバナンスメカニズムを構築する
• Ensure that all parties involved fully shoulder their responsibilities for AI safety • 関係するすべての当事者がAIの安全に対する責任を完全に担うことを確保する
• Create a whole-process, all-element governance chain • すべてのプロセス、すべての要素のガバナンスチェーンを構築する ガバナンスの連鎖を構築する
• Foster a safe, reliable, equitable, and transparent AI for the technical research, development, and application • 技術研究、開発、応用における安全で信頼性が高く、公平で透明性の高いAIを促進する
• Promote the healthy development and regulated application of AI • AIの健全な発展と規範的な応用を促進する
• Effectively safeguard national sovereignty, security and development interests • 国家の主権、安全、発展利益を効果的に保護する
• Protect the legitimate rights and interests of citizens, legal persons and other organizations • 国民、法人、その他の組織の正当な権利と利益を防御する
• Guarantee that AI technology benefits humanity • AI技術が人類に恩恵をもたらすことを保証する
1.1 Be inclusive and prudent to ensure safety 1.1 包括的かつ慎重に安全性を確保する
We encourage development and innovation and take an inclusive approach to AI research, development, and application. We make every effort to ensure AI safety, and will take timely measures to address any risks that threaten national security, harm the public interest, or infringe upon the legitimate rights and interests of individuals. AIの研究、開発、応用において、開発とイノベーションを奨励し、包括的なアプローチを取る。AIの安全性を確保するためにあらゆる努力を払い、国家安全保障を脅かし、公益を損ない、個人の正当な権利と利益を侵害するリスクに対しては、適時に対策を講じる。
1.2 Identify risks with agile governance 1.2 機敏なガバナンスによるリスクの識別
By closely tracking trends in AI research, development, and application, we identify AI safety risks from two perspectives: the technology itself and its application. We propose tailored preventive measures to mitigate these risks. We follow the evolution of safety risks, swiftly adjusting our governance measures as needed. We are committed to improving the governance mechanisms and methods while promptly responding to issues warranting government oversight.  AIの研究、開発、応用に関する動向を注視し、技術そのものとその応用の2つの観点からAIの安全リスクを識別する。 これらのリスクを低減するための個別にカスタマイズされた予防策を提案する。 安全リスクの進化を追跡し、必要に応じてガバナンス対策を迅速に調整する。 ガバナンスの仕組みと手法の改善に努めるとともに、政府の監督が必要な問題には迅速に対応する。
1.3 Integrate technology and management for coordinated response 1.3 技術とマネジメントを統合し、協調的な対応を実現する
We adopt a comprehensive safety governance approach that integrates technology and management to prevent and address various safety risks throughout the entire process of AI research, development, and application. Within the AI research, development, and application chain, it is essential to ensure that all relevant parties, including model and algorithm researchers and developers, service providers, and users, assume their respective responsibilities for AI safety. This approach well leverages the roles of governance mechanisms involving government oversight, industry selfregulation, and public scrutiny. AIの研究、開発、応用の全プロセスにおいて、さまざまな安全リスクを防止し、対処するために、技術とマネジメントを統合した包括的な安全ガバナンスのアプローチを採用する。AIの研究、開発、応用の連鎖において、モデルやアルゴリズムの研究者や開発者、サービス・プロバイダー、ユーザーなど、すべての関係者がAIの安全性に対してそれぞれの責任を担うことが不可欠である。このアプローチは、政府の監督、業界の自主規制、および公的監視を含むガバナンスメカニズムの役割を十分に活用する。
1.4 Promote openness and cooperation for joint governance and shared benefits 1.4 共同ガバナンスと利益共有のための開放性と協調の促進
We promote international cooperation on AI safety governance, with the best practices shared worldwide. We advocate establishing open platforms and advance efforts to build broad consensus on a global AI governance system through dialogue and cooperation across various disciplines, fields, regions, and nations. 我々は、AIの安全性ガバナンスに関する国際協力を推進し、ベストプラクティスを世界中で共有する。我々は、オープンなプラットフォームの構築を提唱し、さまざまな分野、領域、地域、国々における対話と協力を通じて、グローバルなAIガバナンスシステムに関する幅広い合意形成に向けた取り組みを推進する。
2. Framework for AI safety governance 2. AI安全ガバナンスの枠組み
Based on the notion of risk management, this framework outlines control measures to address different types of AI safety risks through technological and managerial strategies. As AI research, development, and application rapidly evolves, leading to changes in the forms, impacts, and our perception of safety risks, it is necessary to continuously update control measures, and invite all stakeholders to refine the governance framework. リスクマネジメントの考え方に基づき、この枠組みでは、技術的および経営的な戦略を通じて、さまざまなAI安全リスクに対処するための管理対策の概要を示している。AIの研究、開発、応用が急速に進展し、安全リスクの形態、影響、および我々の安全リスクに対する認識が変化するにつれ、管理対策を継続的に更新し、すべてのステークホルダーを招いてガバナンスの枠組みを改善していく必要がある。
2.1 Safety and security risks 2.1 安全・セキュリティリスク
By examining the characteristics of AI technology and its application scenarios across various industries and fields, we pinpoint safety and security risks and potential dangers that are inherently linked to the technology itself and its application. AI技術の特性と、さまざまな産業・分野における適用シナリオを検討し、技術そのものやその適用に内在する安全・セキュリティリスクや潜在的な危険性を特定する。
2.2 Technical countermeasures 2.2 技術的対策
Regarding models and algorithms, training data, computing facilities, products and services, and application scenarios, we propose targeted technical measures to improve the safety, fairness, reliability, and robustness of AI products and applications. These measures include secure software development, data quality improvement, construction and operations security enhancement, and conducting evaluation, monitoring, and reinforcement activities. モデルやアルゴリズム、学習データ、計算設備、製品・サービス、適用シナリオなどについて、AI製品やアプリケーションの安全性、公平性、信頼性、堅牢性を向上させるための技術的対策を提案する。これらの対策には、セキュアなソフトウェア開発、データ品質の改善、構築と運用におけるセキュリティ強化、評価、監視、強化活動の実施などが含まれる。
2.3 Comprehensive governance measures 2.3 包括的なガバナンス対策
In accordance with the principle of coordinated efforts and joint governance, we clarify the measures that all stakeholders, including technology research institutions, product and service providers, users, government agencies, industry associations, and social organizations, should take to identify, prevent, and respond to AI safety risks.  協調と共同ガバナンスの原則に従い、技術研究機関、製品およびサービスプロバイダ、ユーザー、政府機関、業界団体、社会組織など、すべてのステークホルダーがAIの安全リスクを識別、防止、対応するために取るべき対策を明確にする。
2.4 Safety guidelines for AI development and application 2.4 AIの開発と応用における安全ガイドライン
We propose several safety guidelines for AI model and algorithm developers, AI service providers, users in key areas, and general users, to develop and apply AI technology.  AIモデルおよびアルゴリズムの開発者、AIサービスプロバイダ、主要分野の利用者、一般利用者がAI技術を開発・応用するにあたり、いくつかの安全ガイドラインを提案する。
3. Classification of AI safety risks 3. AIの安全リスクの分類
Safety risks exist at every stage throughout the AI chain, from system design to research and development (R&D), training, testing, deployment, utilization, and maintenance. These risks stem from inherent technical flaws as well as misuse, abuse, and malicious use of AI. 安全リスクは、システム設計から研究開発(R&D)、訓練、テスト、展開、利用、保守に至るまで、AIのチェーンのすべてのステージに存在する。これらのリスクは、AIに内在する技術的な欠陥や、AIの誤用、乱用、悪用に起因する。
3.1 AI's inherent safety risks 3.1 AIに内在する安全リスク
3.1.1 Risks from models and algorithms 3.1.1 モデルとアルゴリズムに起因するリスク
(a) Risks of explainability  (a) 説明可能性のリスク
AI algorithms, represented by deep learning, have complex internal workings. Their black-box or grey-box inference process results in unpredictable and untraceable outputs, making it challenging to quickly rectify them or trace their origins for accountability should any anomalies arise. ディープラーニングに代表されるAIアルゴリズムは、複雑な内部構造を持つ。ブラックボックスまたはグレイボックスの推論プロセスは、予測不可能で追跡不可能な出力を生み出すため、異常が発生した場合に迅速に修正したり、説明責任を果たすために原因を追跡したりすることが困難になる。
(b) Risks of bias and discrimination (b) バイアスおよび差別のリスク
During the algorithm design and training process, personal biases may be introduced, either intentionally or unintentionally. Additionally, poor-quality datasets can lead to biased or discriminatory outcomes in the algorithm's design and outputs, including discriminatory content regarding ethnicity, religion, nationality and region. アルゴリズムの設計およびトレーニングの過程において、意図的または非意図的に個人のバイアスが導入される可能性がある。さらに、品質の低いデータセットは、アルゴリズムの設計および出力において、人種、宗教、国籍、地域に関する識別的なコンテンツを含む、バイアスまたは差別的な結果につながる可能性がある。
(c) Risks of robustness (c) 頑健性のリスク
As deep neural networks are normally non-linear and large in size, AI systems are susceptible to complex and changing operational environments or malicious interference and inductions, possibly leading to various problems like reduced performance and decision-making errors. ディープニューラルネットワークは通常、非線形かつ規模が大きいため、AIシステムは複雑かつ変化する運用環境や悪意のある干渉や誘導の影響を受けやすく、パフォーマンスの低下や意思決定エラーなどのさまざまな問題につながる可能性がある。
(d) Risks of stealing and tampering (d) 盗用や改ざんのリスク
Core algorithm information, including parameters, structures, and functions, faces risks of inversion attacks, stealing, modification, and even backdoor injection, which can lead to infringement of intellectual property rights (IPR) and leakage of business secrets. It can also lead to unreliable inference, wrong decision output and even operational failures. パラメータ、構造、機能などのコアアルゴリズム情報は、逆アタック、盗用、改ざん、さらにはバックドアの挿入のリスクにさらされており、知的財産権(IPR)の侵害や企業秘密の漏洩につながる可能性がある。また、信頼性の低い推論、誤った判断結果、さらには運用上の障害につながる可能性もある。
(e) Risks of unreliable output (e) 信頼性の低い出力のリスク
Generative AI can cause hallucinations, meaning that an AI model generates untruthful or unreasonable content, but presents it as if it were a fact, leading to biased and misleading information. 生成的AIは幻覚を引き起こす可能性があり、つまりAIモデルが真実ではない、または非合理的なコンテンツを生成し、あたかもそれが事実であるかのように提示することで、偏った誤解を招く情報につながる。
(f) Risks of adversarial attack (f) 敵対的攻撃のリスク
Attackers can craft well-designed adversarial examples to subtly mislead, influence and even manipulate AI models, causing incorrect outputs and potentially leading to operational failures. 攻撃者は、AIモデルを巧妙に欺き、影響を与え、場合によっては操作する巧妙に設計された敵対的サンプルを作成することができ、不正な出力を引き起こし、運用上の障害につながる可能性がある。
3.1.2 Risks from data 3.1.2 データに起因するリスク
(a)Risks of illegal collection and use of data (a) データの違法な収集と利用のリスク
The collection of AI training data and the interaction with users during service provision pose security risks, including collecting data without consent and improper use of data and personal information. AIの学習データの収集やサービス提供時のユーザーとのやりとりには、同意なしのデータ収集や、データや個人情報の不適切な利用など、セキュリティ上のリスクが伴う。
(b)Risks of improper content and poisoning in training data (b) 学習データにおける不適切なコンテンツやポイズニングのリスク
If the training data includes illegal or harmful information like false, biased and IPR-infringing content, or lacks diversity in its sources, the output may include harmful content like illegal, malicious, or extreme information. Training data is also at risk of being poisoned from tampering, error injection, or misleading actions by attackers. This can interfere with the model's probability distribution, reducing its accuracy and reliability. 学習データに虚偽、バイアス、知的財産権侵害などの違法または有害な情報が含まれていたり、ソースに多様性が欠けていたりすると、出力に違法、悪意のある、極端な情報などの有害なコンテンツが含まれる可能性がある。また、トレーニングデータは、攻撃者による改ざん、エラーの注入、誤解を招く行為などによってポイズニングされるリスクもある。これにより、モデルの確率分布が妨げられ、その精度と信頼性が低下する可能性がある。
(c)Risks of unregulated training data annotation (c) 規制されていないトレーニングデータ・アノテーションのリスク
Issues with training data annotation, such as incomplete annotation guidelines, incapable annotators, and errors in annotation, can affect the accuracy, reliability, and effectiveness of models and algorithms. Moreover, they can introduce training biases, amplify discrimination, reduce generalization abilities, and result in incorrect outputs. トレーニングデータ・アノテーションに関する問題、例えば、不完全なアノテーションガイドライン、アノテーターの能力不足、アノテーションのエラーなどは、モデルやアルゴリズムの精度、信頼性、有効性に影響を与える可能性がある。さらに、学習バイアスが生じたり、識別性が強まったり、汎化能力が低下したりして、誤った出力結果につながる可能性もある。
(d) Risks of data leakage  (d) データ漏洩のリスク
In AI research, development, and applications, issues such as improper data processing, unauthorized access, malicious attacks, and deceptive interactions can lead to data and personal information leaks.  AIの研究、開発、応用において、不適切なデータ処理、不正アクセス、悪意ある攻撃、欺瞞的なやりとりなどの問題は、データや個人情報の漏洩につながる可能性がある。
3.1.3 Risks from AI systems 3.1.3 AIシステムがもたらすリスク
(a)Risks of exploitation through defects and backdoors (a) 欠陥やバックドアによる悪用リスク
The standardized API, feature libraries, toolkits used in the design, training, and verification stages of AI algorithms and models, development interfaces, and execution platforms, may contain logical flaws and vulnerabilities. These weaknesses can be exploited, and in some cases, backdoors can be intentionally embedded, posing significant risks of being triggered and used for attacks. AIアルゴリズムやモデルの設計、訓練、検証段階で使用される標準化されたAPI、機能ライブラリ、ツールキット、開発インターフェース、実行プラットフォームには、論理的な欠陥や脆弱性が含まれている可能性がある。これらの弱点が悪用される可能性があり、場合によっては意図的にバックドアが仕掛けられることもあり、攻撃の引き金となり悪用されるリスクが大きい。
(b) Risks of computing infrastructure security  (b) コンピューティングインフラのセキュリティリスク
The computing infrastructure underpinning AI training and operations, which relies on diverse and ubiquitous computing nodes and various types of computing resources, faces risks such as malicious consumption of computing resources and cross-boundary transmission of security threats at the layer of computing infrastructure. AIのトレーニングと運用を支えるコンピューティングインフラは、多様かつユビキタスなコンピューティングノードとさまざまな種類のコンピューティングリソースに依存しているため、コンピューティングインフラのレイヤーにおいて、コンピューティングリソースの悪用やセキュリティ脅威の境界を越えた伝播などのリスクに直面している。
(c) Risks of supply chain security (c) サプライチェーンセキュリティのリスク
The AI industry relies on a highly globalized supply chain. However, certain countries may use unilateral coercive measures, such as technology barriers and export restrictions, to create development obstacles and maliciously disrupt the global AI supply chain. This can lead to significant risks of supply disruptions for chips, software, and tools. AI産業は高度にグローバル化されたサプライチェーンに依存している。しかし、一部の国が技術障壁や輸出規制などの一方的な強制措置を用いて開発上の障害を作り出し、グローバルなAIサプライチェーンを悪意を持って混乱させる可能性がある。これにより、チップ、ソフトウェア、ツールの供給が中断される重大なリスクが生じる可能性がある。
3.2 Safety risks in AI applications 3.2 AIアプリケーションにおける安全リスク
3.2.1 Cyberspace risks 3.2.1 サイバー空間におけるリスク
(a) Risks of information and content safety (a) 情報およびコンテンツの安全性に関するリスク
AI-generated or synthesized content can lead to the spread of false information, discrimination and bias, privacy leakage, and infringement issues, threatening the safety of citizens' lives and property, national security, ideological security, and causing ethical risks. If users’ inputs contain harmful content, the model may output illegal or damaging information without robust security mechanisms. AIが生成または合成したコンテンツは、誤った情報の拡散、差別やバイアス、プライバシー漏洩、権利侵害問題につながり、市民の生命や財産の安全、国家安全保障、イデオロギー上の安全を脅かし、倫理上のリスクを引き起こす可能性がある。ユーザーの入力に有害なコンテンツが含まれている場合、強固なセキュリティメカニズムがなければ、モデルが違法または有害な情報を出力する可能性がある。
(b) Risks of confusing facts, misleading users, and bypassing authentication (b) 事実の混同、ユーザーの誤解、認証の回避に関するリスク
AI systems and their outputs, if not clearly labeled, can make it difficult for users to discern whether they are interacting with AI and to identify the source of generated content. This can impede users' ability to determine the authenticity of information, leading to misjudgment and misunderstanding. Additionally, AI-generated highly realistic images, audio, and videos may circumvent existing identity verification mechanisms, such as facial recognition and voice recognition, rendering these authentication processes ineffective. AIシステムおよびその出力は、明確にラベル付けされていない場合、ユーザーがAIとやりとりしているのか、生成されたコンテンツのソースを識別しているのかを区別することが困難になる可能性がある。これにより、ユーザーが情報の真正性を判断する能力が妨げられ、誤った判断や誤解につながる可能性がある。さらに、AIが生成する極めて現実的な画像、音声、動画は、顔認識や音声認識などの既存の本人確認メカニズムを回避し、これらの認証プロセスを無効にしてしまう可能性がある。
(c) Risks of information leakage due to improper usage (c) 不適切な利用による情報漏洩のリスク
Staff of government agencies and enterprises, if failing to use the AI service in a regulated and proper manner, may input internal data and industrial information into the AI model, leading to leakage of work secrets, business secrets and other sensitive business data. 政府機関やエンタープライズのスタッフがAIサービスを適切に管理せずに利用した場合、内部データや産業情報をAIモデルに入力し、業務上の秘密や企業秘密、その他の機密性の高い業務データの漏洩につながる可能性がある。
(d) Risks of abuse for cyberattacks (d) サイバー攻撃悪用リスク
AI can be used in launching automatic cyberattacks or increasing attack efficiency, including exploring and making use of vulnerabilities, cracking passwords, generating malicious codes, sending phishing emails, network scanning, and social engineering attacks. All these lower the threshold for cyberattacks and increase the difficulty of security protection.  AIは、自動サイバー攻撃の実行や攻撃効率の向上に利用される可能性があり、これには脆弱性の探索と利用、パスワードのクラッキング、悪意のあるコードの生成、フィッシングメールの送信、ネットワークスキャン、ソーシャルエンジニアリング攻撃などが含まれる。これらのすべてがサイバー攻撃の敷居を下げ、防御の難易度を高める。
(e) Risks of security flaw transmission caused by model reuse (e) モデルの再利用によるセキュリティ欠陥伝播リスク
Re-engineering or fine-tuning based on foundation models is commonly used in AI applications. If security flaws occur in foundation models, it will lead to risk transmission to downstream models.  基礎モデルに基づく再エンジニアリングや微調整は、AIの応用において一般的に使用されている。基礎モデルにセキュリティ欠陥が発生した場合、下流のモデルへのリスク伝播につながる。
3.2.2 Real-world risks  3.2.2 現実世界のリスク
(a)Inducing traditional economic and social security risks (a) 従来の経済・社会のセキュリティリスクを誘発
AI is used in finance, energy, telecommunications, traffic, and people's livelihoods, such as self-driving and smart diagnosis and treatment. Hallucinations and erroneous decisions of models and algorithms, along with issues such as system performance degradation, interruption, and loss of control caused by improper use or external attacks, will pose security threats to users' personal safety, property, and socioeconomic security and stability. AIは、金融、エネルギー、通信、交通、自動運転やスマート診断・治療などの人々の生活に利用されている。モデルやアルゴリズムの幻覚や誤った判断、不適切な使用や外部からの攻撃によるシステム性能の低下、中断、制御不能などの問題は、ユーザーの生命、財産、社会経済の安全と安定に対するセキュリティ上の脅威となる。
(b) Risks of using AI in illegal and criminal activities (b) 違法・犯罪行為におけるAI利用のリスク
AI can be used in traditional illegal or criminal activities related to terrorism, violence, gambling, and drugs, such as teaching criminal techniques, concealing illicit acts, and creating tools for illegal and criminal activities. AIは、犯罪技術の伝授、違法行為の隠蔽、違法・犯罪行為のためのツールの作成など、テロ、暴力、賭博、麻薬などに関連する伝統的な違法・犯罪行為に利用される可能性がある。
(c) Risks of misuse of dual-use items and technologies (c) デュアルユースの物品および技術の悪用リスク
Due to improper use or abuse, AI can pose serious risks to national security, economic security, and public health security, such as greatly reducing the capability requirements for non-experts to design, synthesize, acquire, and use nuclear, biological, and chemical weapons and missiles; designing cyber weapons that launch network attacks on a wide range of potential targets through methods like automatic vulnerability discovering and exploiting. 不適切な使用や乱用により、AIは、核兵器、生物兵器、化学兵器、ミサイルの設計、合成、取得、使用に必要な能力要件を大幅に低下させること、自動脆弱性発見や悪用などの手法により、幅広い潜在的な標的に対するネットワーク攻撃を仕掛けるサイバー兵器を設計することなど、国家安全保障、経済安全保障、公衆衛生安全保障に深刻なリスクをもたらす可能性がある。
3.2.3 Cognitive risks  3.2.3 認知リスク
(a) Risks of amplifying the effects of "information cocoons" (a) 「情報繭」の影響を増幅するリスク
AI can be extensively utilized for customized information services, collecting user information, and analyzing types of users, their needs, intentions, preferences, habits, and even mainstream public awareness over a certain period. It can then be used to offer formulaic and tailored information and service, aggravating the effects of "information cocoons." AIは、カスタマイズされた情報サービス、ユーザー情報の収集、ユーザーの種類、ニーズ、意図、好み、習慣、さらには一定期間における主流の国民意識の分析に広く利用できる。そして、定型化された情報やサービスを提供し、カスタマイズされた情報やサービスを提供することで、「情報繭」の効果をさらに高めることができる。
(b) Risks of usage in launching cognitive warfare (b) 認知戦への利用リスク
AI can be used to make and spread fake news, images, audio, and videos, propagate content of terrorism, extremism, and organized crimes, interfere in internal affairs of other countries, social systems, and social order, and jeopardize sovereignty of other countries. AI can shape public values and cognitive thinking with social media bots gaining discourse power and agenda-setting power in cyberspace.  AIは、偽のニュース、画像、音声、動画を作成・拡散し、テロリズム、過激主義、組織犯罪のコンテンツを拡散し、他国の内政、社会システム、社会秩序に干渉し、他国の主権を脅かすために利用される可能性がある。AIは、サイバー空間で言説力やアジェンダ設定力を獲得したソーシャルメディア・ボットによって、公共の価値観や認知思考を形成することができる。
3.2.4 Ethical risks  3.2.4 倫理的リスク
(a)Risks of exacerbating social discrimination and prejudice, and widening the intelligence divide (a) 社会の差別や偏見を助長し、情報格差を拡大するリスク
AI can be used to collect and analyze human behaviors, social status, economic status, and individual personalities, labeling and categorizing groups of people to treat them discriminatingly, thus causing systematical and structural social discrimination and prejudice. At the same time, the intelligence divide would be expanded among regions.  AIは、人間の行動、社会的な地位、経済的な地位、個人の性格を収集・分析し、人々を識別し、カテゴリー分けして、識別的に扱うために使用される可能性があり、それによって、組織的かつ構造的な社会の差別や偏見が生じる。同時に、地域間の知能格差も拡大するだろう。 
(b)Risks of challenging traditional social order (b)従来の社会秩序への挑戦のリスク
The development and application of AI may lead to tremendous changes in production tools and relations, accelerating the reconstruction of traditional industry modes, transforming traditional views on employment, fertility, and education, and bringing challenges to stable performance of traditional social order.  AIの開発と応用は、生産手段と生産関係に大きな変化をもたらし、従来の産業形態の再構築を加速し、雇用、出生率、教育に対する従来の考え方を変え、従来の社会秩序の安定した運営に挑戦をもたらす可能性がある。
(c)Risks of AI becoming uncontrollable in the future (c) 将来、AIが制御不能になるリスク
With the fast development of AI technologies, there is a risk of AI autonomously acquiring external resources, conducting self-replication, become self-aware, seeking for external power, and attempting to seize control from humans.  AI技術が急速に発展するにつれ、AIが外部リソースを自律的に獲得し、自己複製を行い、自己認識力を持ち、外部の力を求め、人間から制御権を奪おうとするリスクがある。
4. Technological measures to address risks  4. リスクへの技術的対応策
Responding to the above risks, AI developers, service providers, and system users should prevent risks by taking technological measures in the fields of training data, computing infrastructures, models and algorithms, product services, and application scenarios. 上記リスクへの対応として、AI開発者、サービスプロバイダ、システム利用者は、学習データ、コンピューティングインフラ、モデル・アルゴリズム、製品サービス、適用シナリオの各分野において、技術的対応策を講じることにより、リスクを防止すべきである。
4.1 Addressing AI’s inherent safety risks  4.1 AIに内在する安全性リスクへの対応
4.1.1 Addressing risks from models and algorithms 4.1.1 モデルとアルゴリズムのリスクへの対応
(a) Explainability and predictability of AI should be constantly improved to provide clear explanation for the internal structure, reasoning logic, technical interfaces, and output results of AI systems, accurately reflecting the process by which AI systems produce outcomes. (a) AIの説明可能性と予測可能性を常に改善し、AIシステムの内部構造、推論ロジック、技術的インターフェース、出力結果について明確な説明を提供し、AIシステムが結果を生成するプロセスを正確に反映する。
(b) Secure development standards should be established and implemented in the design, R&D, deployment, and maintenance processes to eliminate as many security flaws and discrimination tendencies in models and algorithms as possible and enhance robustness.  (b) 設計、研究開発、展開、保守の各プロセスにおいて、モデルやアルゴリズムにおけるセキュリティ上の欠陥や識別的傾向を可能な限り排除し、ロバスト性を向上させるための安全な開発標準を策定し、実施すべきである。
4.1.2 Addressing risks from data 4.1.2 データに関するリスクへの対応
(a) Security rules on data collection and usage, and on processing personal information should be abided by in all procedures of training data and user interaction data, including data collection, storage, usage, processing, transmission, provision, publication, and deletion. This aims to fully ensure user’s legitimate rights stipulated by laws and regulations, such as their rights to control, to be informed, and to choose. (a) データ収集および利用、ならびにパーソナルデータの処理に関するセキュリティ規則は、データ収集、保存、利用、処理、送信、提供、公開、削除など、学習データおよびユーザーインタラクションデータのすべての処理手順において遵守されるべきである。これは、ユーザーの合法的な権利、例えば、制御、通知、選択の権利など、法律および規則で規定された権利を完全に確保することを目的としている。
(b) Protection of IPR should be strengthened to prevent infringement on IPR in stages such as selecting training data and result outputs.  (b) 知的財産権の防御を強化し、訓練データの選択や結果出力などの段階で知的財産権の侵害を段階的に防止すべきである。
(c) Training data should be strictly selected to ensure exclusion of sensitive data in high-risk fields such as nuclear, biological, and chemical weapons and missiles.  (c) 訓練データは厳格に選択し、核兵器、生物兵器、化学兵器、ミサイルなどリスクの高い分野の機微なデータを排除すべきである。
(d) Data security management should be strengthened to comply with data security and personal information protection standards and regulations if training data contains sensitive personal information and important data. (d) 訓練データに機微な個人情報や重要なデータが含まれる場合は、データセキュリティと個人情報保護の標準および規則を遵守し、データセキュリティ管理を強化すべきである。
(e) To use truthful, precise, objective, and diverse training data from legitimate sources, and filter ineffective, wrong, and biased data in a timely manner. (e) 合法的な情報源から取得した、正確かつ客観的で多様な学習データを使用し、効果のないデータ、誤ったデータ、バイアスのかかったデータを適時にフィルタリングすること。
(f) The cross-border provision of AI services should comply with the regulations on cross-border data flow. The external provision of AI models and algorithms should comply with export control requirements.  (f) AIサービスの国境を越えた提供は、国境を越えたデータフローに関する規制を遵守すべきである。AIモデルおよびアルゴリズムの外部提供は、輸出管理要件を遵守すべきである。
4.1.3 Addressing risks from AI system 4.1.3 AIシステムにおけるリスクへの対応
(a) To properly disclose the principles, capacities, application scenarios, and safety risks of AI technologies and products, to clearly label outputs, and to constantly make AI systems more transparent.  (a) AI技術および製品の原則、能力、適用シナリオ、安全リスクを適切に開示し、アウトプットを明確にラベル付けし、AIシステムの透明性を常に高めること。
(b) To enhance the risk identification, detection, and mitigation of platforms where multiple AI models or systems congregate, so as to prevent malicious acts or attacks and invasions that target the platforms from impacting the AI models or systems they support.  (b) 複数のAIモデルまたはシステムが集まるプラットフォームにおけるリスクの特定、検知、低減を強化し、プラットフォームを標的とした悪意のある行為や攻撃、侵入が、それらがサポートするAIモデルやシステムに影響を及ぼすことを防ぐこと。
(c) To strengthen the capacity of constructing, managing, and operating AI computing platforms and AI system services safely, with an aim to ensure uninterrupted infrastructure operation and service provision.   (c) AIコンピューティングプラットフォームおよびAIシステムサービスを安全に構築、管理、運用する能力を強化し、インフラの運用とサービス提供を中断させないことを目指す。
(d) To fully consider the supply chain security of the chips, software, tools, computing infrastructure, and data sources adopted for AI systems. To track the vulnerabilities and flaws of both software and hardware products and make timely repair and reinforcement to ensure system security.   (d) AIシステムに採用されるチップ、ソフトウェア、ツール、コンピューティングインフラ、データソースのサプライチェーンセキュリティを十分に考慮する。ソフトウェアおよびハードウェア製品の脆弱性と欠陥を追跡し、システムセキュリティを確保するために、適時に修復と強化を行う。 
4.2 Addressing safety risks in AI applications 4.2 AIアプリケーションの安全リスクへの対応
4.2.1 Addressing cyberspace risks 4.2.1 サイバー空間リスクへの対応
(a) A security protection mechanism should be established to prevent model from being interfered and tampered during operation to ensure reliable outputs. (a) 信頼性の高い出力を確保するため、運用中にモデルが干渉や改ざんを受けないよう、セキュリティ防御メカニズムを構築すべきである。
(b) A data safeguard should be set up to make sure that AI systems comply with applicable laws and regulations when outputting sensitive personal information and important data.  (b) 機密性の高い個人データや重要なデータをAIシステムが出力する際には、AIシステムが適用法や規制を遵守していることを保証するため、データ保護メカニズムを構築すべきである。
4.2.2 Addressing real-world risks  4.2.2 現実世界のリスクへの対応
(a) To establish service limitations according to users’ actual application scenarios and cut AI systems’ features that might be abused. AI systems should not provide services that go beyond the preset scope.  (a) ユーザーの実際の利用シナリオに応じてサービス制限を設け、悪用される可能性のあるAIシステムの機能を削減する。AIシステムは、あらかじめ設定された範囲を超えるサービスを提供してはならない。
(b) To improve the ability to trace the end use of AI systems to prevent high-risk application scenarios such as manufacturing of weapons of mass destruction, like nuclear, biological, chemical weapons and missiles.  (b) AIシステムの最終用途を追跡する能力を改善し、核兵器、生物兵器、化学兵器、ミサイルなどの大量破壊兵器の製造といった高リスクの適用シナリオを防止する。
4.2.3 Addressing cognitive risks 4.2.3 認知リスクへの対応
(a) To identify unexpected, untruthful, and inaccurate outputs via technological means, and regulate them in accordance with laws and regulations.  (a) 予期せぬ、虚偽の、不正確な出力を技術的手段で識別し、法律や規則に従って規制する。
(b) Strict measures should be taken to prevent abuse of AI systems that collect, connect, gather, analyze, and dig into users’ inquiries to profile their identity, preference, and personal mindset.  (b) ユーザーの問い合わせを収集、接続、収集、分析し、そのアイデンティティ、好み、個人的な考え方をプロファイリングするAIシステムの悪用を防ぐために、厳格な措置を取るべきである。
(c) To intensify R&D of AI-generated content (AIGC) testing technologies, aiming to better prevent, detect, and navigate the cognitive warfare. (c) 認知戦の防止、検知、回避をより効果的に行うことを目的として、AI生成コンテンツ(AIGC)のテスト技術の研究開発を強化する。
4.2.4 Addressing ethical risks 4.2.4 倫理的リスクへの対応
(a) Training data should be filtered and outputs should be verified during algorithm design, model training and optimization, service provision and other processes, in an effort to prevent discrimination based on ethnicities, beliefs, nationalities, region, gender, age, occupation and health factors, among others.  (a) アルゴリズムの設計、モデルの訓練と最適化、サービス提供、その他のプロセスにおいて、民族、信仰、国籍、地域、性別、年齢、職業、健康要因などに基づく識別を防止するために、訓練データはフィルタリングされ、出力は検証されるべきである。
(b) AI systems applied in key sectors, such as government departments, critical information infrastructure, and areas directly affecting public safety and people's health and safety, should be equipped with high-efficient emergency management and control measures.  (b) 政府部門、重要な情報インフラ、公共の安全や人々の健康と安全に直接影響する分野など、主要な分野で適用されるAIシステムには、高効率な緊急管理および制御手段を装備すべきである。
5. Comprehensive governance measures 5. 包括的なガバナンス対策
While adopting technological controls, we should formulate and refine comprehensive AI safety and security risk governance mechanisms and regulations that engage multi-stakeholder participation, including technology R&D institutions, service providers, users, government authorities, industry associations, and social organizations.  技術的コントロールを採用する一方で、技術研究開発機構、サービス・プロバイダー、ユーザー、政府当局、業界団体、社会組織など、多様なステークホルダーの参加を促す包括的なAIの安全およびセキュリティ・リスク・ガバナンスのメカニズムと規制を策定し、改善すべきである。
5.1 To implement a tiered and category-based management for AI application.  5.1 AIのアプリケーションに対して、段階的かつカテゴリー別の管理を実施する。
We should classify and grade AI systems based on their features, functions, and application scenarios, and set up a testing and assessment system based on AI risk levels. We should bolster enduse management of AI, and impose requirements on the adoption of AI technologies by specific users and in specific scenarios, thereby preventing AI system abuse. We should register AI systems whose computing and reasoning capacities have reached a certain threshold or those are applied in specific industries and sectors, and demand that such systems possess the safety protection capacity throughout the life cycle including design, R&D, testing, deployment, utilization, and maintenance. AIシステムをその特徴、機能、応用シナリオに基づいて分類・等級付けし、AIのリスクレベルに基づくテスト・アセスメントシステムを構築すべきである。AIのエンドユース管理を強化し、特定のユーザーや特定のシナリオにおけるAI技術の採用に要件を課すことで、AIシステムの悪用を防止すべきである。計算能力や推論能力が一定の水準に達したAIシステムや特定の産業・分野で応用されているAIシステムを登録し、設計、研究開発、テスト、展開、利用、保守といったライフサイクル全体を通じて安全保護能力を備えることを求めるべきである。

5.2 To develop a traceability management system for AI services.  5.2 AIサービスのトレーサビリティ管理システムを構築する。
We should use digital certificates to label the AI systems serving the public. We should formulate and introduce standards and regulations on AI output labeling, and clarify requirements for explicit and implicit labels throughout key stages including creation sources, transmission paths, and distribution channels, with a view to enable users to identify and judge information sources and credibility.  デジタル証明書を用いて、一般向けに提供されるAIシステムにラベルを付けるべきである。また、作成元、伝送経路、配信チャネルなど、主要な段階における明示的および暗示的なラベル付けの要件を明確にし、ユーザーが情報源や信頼性を識別・判断できるようにする。
5.3 To improve AI data security and personal information protection regulations.  5.3 AIデータのセキュリティと個人情報保護に関する規制を改善する。
We should explicate the requirements for data security and personal information protection in various stages such as AI training, labeling, utilization, and output based on the features of AI technologies and applications.  AI技術や応用分野の特徴を踏まえ、AIの訓練、ラベル付け、利用、アウトプットなど、さまざまな段階におけるデータセキュリティや個人情報保護の要件を明確化すべきである。 
5.4 To create a responsible AI R&D and application system.  5.4 責任あるAIの研究開発・応用体制の構築 
We should propose pragmatic instructions and best practices to uphold the people-centered approach and adhere to the principle of developing AI for good in AI R&D and application, and continuously align AI’s design, R&D, and application processes with such values and ethics. We should explore the copyright protection, development and utilization systems that adapt to the AI era and continuously advance the construction of highquality foundational corpora and datasets to provide premium resources for the safe development of AI. We should establish AI-related ethical review standards, norms, and guidelines to improve the ethical review system.  AIの研究開発と応用において、人間中心のアプローチを維持し、AIを善のために開発するという原則に従うための実用的な指示とベストプラクティスを提案し、AIの設計、研究開発、応用プロセスを継続的にそのような価値観や倫理観に沿うように調整すべきである。AI時代に適応した著作権保護、開発、利用システムを模索し、AIの安全な開発のための高品質な基礎コーパスとデータセットの構築を継続的に推進すべきである。AI関連の倫理審査基準、標準、ガイドラインを確立し、倫理審査システムを改善すべきである。
5.5 To strengthen AI supply chain security.  5.5 AIサプライチェーンのセキュリティを強化する。
We should promote knowledge sharing in AI, make AI technologies available to the public under open-source terms, and jointly develop AI chips, frameworks, and software. We should guide the industry to build an open ecosystem, enhance the diversity of supply chain sources, and ensure the security and stability of the AI supply chain. AIにおける知識共有を促進し、AI技術をオープンソース条件で公開し、AIチップ、フレームワーク、ソフトウェアを共同開発すべきである。業界を導いてオープンなエコシステムを構築し、サプライチェーンのソースの多様性を高め、AIサプライチェーンのセキュリティと安定性を確保すべきである。
5.6 To advance research on AI explainability.  5.6 AIの説明可能性に関する研究を推進する。
We should organize and conduct research on the transparency, trustworthiness, and error-correction mechanism in AI decision-making from the perspectives of machine learning theory, training methods and human-computer interaction. Continuous efforts should be made to enhance the explainability and predictability of AI to prevent malicious consequences resulting from unintended decisions made by AI systems. 機械学習理論、トレーニング方法、人間とコンピュータの相互作用の観点から、AIの意思決定における透明性、信頼性、エラー修正メカニズムに関する研究を組織し、実施すべきである。AIシステムの意図しない意思決定による悪意ある結果を防ぐため、AIの説明可能性と予測可能性を高めるための継続的な取り組みを行うべきである。
5.7 To share information, and emergency response of AI safety risks and threats.  5.7 AIの安全リスクと脅威に関する情報の共有と緊急対応を行う。
We should continuously track and analyze security vulnerabilities, defects, risks, threats, and safety incidents related to AI technologies, software and hardware products, services, and other aspects. We should coordinate with relevant developers and service providers to establish a reporting and sharing information mechanism on risks and threats. We should establish an emergency response mechanism for AI safety and security incidents, formulate emergency plans, conduct emergency drills, and handle AI safety hazards, AI security threats, and events timely, rapidly, and effectively. AI技術、ソフトウェアおよびハードウェア製品、サービス、その他の側面に関連するセキュリティ脆弱性、欠陥、リスク、脅威、安全インシデントを継続的に追跡・分析すべきである。関連する開発者およびサービスプロバイダと連携し、リスクおよび脅威に関する報告および情報共有の仕組みを構築すべきである。AIの安全およびセキュリティインシデントに対する緊急対応の仕組みを構築し、緊急対応計画を策定し、緊急対応訓練を実施し、AIの安全上の危険、AIのセキュリティ上の脅威、および事象に迅速かつ効果的に対応すべきである。
5.8 To enhance the training of AI safety  talents.  5.8 AI安全人材の育成を強化する。
We should promote the development of AI safety education in parallel with AI discipline. We should leverage schools and research institutions to strengthen talent cultivation in the fields of design, development, and governance for AI safety. Support should be given to cultivating top AI safety talent in the cutting-edge and foundational fields, and also expanding such talent pool in areas such as autonomous driving, intelligent healthcare, brain-inspired intelligence and brain-computer interface. AIの学問分野の発展と歩調を合わせて、AI安全教育の発展を推進すべきである。学校や研究機構を活用し、AI安全の設計、開発、ガバナンスの各分野における人材育成を強化すべきである。最先端分野および基盤分野におけるAI安全分野のトップ人材の育成を支援し、自動運転、インテリジェントヘルスケア、脳に着想を得たインテリジェンス、ブレイン・コンピュータ・インターフェースなどの分野における人材プールを拡大すべきである。
5.9 To establish and improve the mechanisms for AI safety education, industry self-regulation, and social supervision.  5.9 AI安全教育、業界の自主規制、社会監督のメカニズムを確立し、改善する。
We should strengthen education and training on the safe and proper use of AI among government, enterprises, and public service units. We should step up the promotion of knowledge related to AI risks and their prevention and response measures in order to increase public awareness of AI safety in all respects. We should guide and support industry associations in the fields of cybersecurity and AI to enhance industry self-regulation, and formulate self-regulation conventions that exceed regulatory requirements and serve exemplary roles. We should guide and encourage AI technology R&D institutions and service providers to continue to improve their safety capacity. A mechanism for handling public complaints and reports on AI risks and hazards should be established, forming an effective social supervision atmosphere for AI safety. 政府、エンタープライズ、公共サービス部門におけるAIの安全かつ適切な利用に関する教育と訓練を強化すべきである。AIのリスクと予防・対応策に関する知識の普及を強化し、AIの安全性に対する国民の意識をあらゆる面で高めるべきである。サイバーセキュリティとAIの分野における業界団体が業界の自主規制を強化し、規制要件を超える自主規制規約を策定し、模範的な役割を果たすよう、業界団体を指導・支援すべきである。AI技術の研究開発機構とサービスプロバイダが、安全性の能力を継続的に改善するよう指導・奨励すべきである。AIのリスクと危険性に関する公衆の苦情や報告に対応するメカニズムを構築し、AIの安全性に関する効果的な社会監督の環境を形成すべきである。
5.10 To promote international exchange and cooperation on AI safety governance.  5.10 AIの安全ガバナンスに関する国際交流と協力を推進する。
We should actively make efforts to conduct cooperation with countries, support the building of an international institution on AI governance within the United Nations framework to coordinate major issues related to AI development, safety, security, and governance. We should advance cooperation on AI safety governance under multilateral mechanisms such as APEC, G20 and BRICS, and strengthen cooperation with Belt and Road partner countries and Global South countries. Efforts should be made to study the matters relating to the construction of an AI safety governance alliance to increase the representation and voice of developing countries in global AI governance. AI enterprises and institutions should be encouraged to engage in international exchanges and cooperation, share their best practices, jointly develop international standards of AI safety.  AIの開発、安全性、セキュリティ、ガバナンスに関する主要な問題を調整するため、国連の枠組み内でAIガバナンスに関する国際機構の構築を支援し、各国との協力を積極的に行うべきである。我々は、APEC、G20、BRICSなどの多国間メカニズムの下でAI安全ガバナンスに関する協力を進め、一帯一路パートナー諸国およびグローバル・サウス諸国との協力を強化すべきである。AIのグローバルガバナンスにおける途上国の代表性と発言力を高めるために、AI安全ガバナンス同盟の構築に関する事項の研究に努めるべきである。AI企業および機構は、国際交流と協力を奨励し、ベストプラクティスを共有し、AI安全の国際標準を共同開発すべきである。 
6. Safety guidelines for AI development and application 6. AIの開発と応用に関する安全ガイドライン
6.1 Safety guidelines for model algorithm developers 6.1 モデルアルゴリズム開発者のための安全ガイドライン
(a) Developers should uphold a people-centered approach, adhere to the principle of AI for good, and follow science and technology ethics in key stages such as requirement analysis, project initiation, model design and development, and training data selection and use, by taking measures such as internal discussions, organizing expert evaluations, conducting technological ethical reviews, listening to public opinions, communicating and exchanging ideas with potential target audience, and strengthening employee safety education and training. (a) 開発者は、人間中心のアプローチを堅持し、AI for goodの原則を遵守し、要件分析、プロジェクト 内部での議論、専門家の評価の実施、技術倫理審査の実施、世論の聴取、潜在的な対象者とのコミュニケーションや意見交換、従業員の安全教育や研修の強化などの措置を講じることにより、要件分析、プロジェクトの開始、モデルの設計と開発、訓練データの選択と使用などの重要な段階において、人間中心のアプローチを維持し、AIの善用という原則に従い、科学技術倫理に従うべきである。
(b) Developers should strengthening data security and personal information protection, respect intellectual property and copyright, and ensure that data sources are clear and acquisition methods are compliant. Developers should establish a comprehensive data security management procedure, ensuring data security and quality as well as compliant use, to prevent risks such as data leakage, loss, and diffusion, and properly handle user data when terminating AI products. (b) 開発者は、データセキュリティと個人情報の保護を強化し、知的財産権と著作権を尊重し、データソースが明確であり、取得方法が適法であることを保証すべきである。開発者は、データ漏洩、損失、拡散などのリスクを防止し、AI製品の終了時にユーザーデータを適切に処理するために、データセキュリティと品質を確保し、コンプライアンスに準拠した利用を徹底した包括的なデータセキュリティ管理手順を確立すべきである。
(c) Developers should guarantee the security of training environment for AI model algorithms, including cybersecurity configurations and data encryption measures. (c) 開発者は、サイバーセキュリティ構成やデータ暗号化対策など、AIモデルアルゴリズムのトレーニング環境のセキュリティを保証すべきである。
(d) Developers should assess potential biases in AI models and algorithms, improve sampling and testing for training data content and quality, and come up with effective and reliable alignment algorithms to ensure risks like value and ethical risks are controllable. (d) 開発者は、AIモデルおよびアルゴリズムにおける潜在的なバイアスをアセスメントし、学習データのコンテンツおよび品質に関するサンプリングとテストを改善し、価値リスクや倫理リスクなどのリスクを制御可能なものとするために、効果的かつ信頼性の高いアラインメントアルゴリズムを考案すべきである。
(e) Developers should evaluate the readiness of AI products and services based on the legal and risk management requirements of the target markets. (e) 開発者は、対象市場の法的およびリスクマネジメント要件に基づいて、AI製品およびサービスの準備状況を評価すべきである。
(f) Developers should effectively manage different versions of AI products and related datasets. Commercial versions should be capable of reverting to previous versions if necessary. (f) 開発者は、AI製品および関連データセットの異なるバージョンを効果的に管理すべきである。商用バージョンは、必要に応じて以前のバージョンに戻せるようにすべきである。
(g) Developers should regularly conduct safety and security evaluation tests. Before testing, they should define test objectives, scope, safety and security dimensions, and construct diverse test datasets covering all kinds of application scenarios.  (g) 開発者は、安全性およびセキュリティ評価テストを定期的に実施すべきである。テスト実施前に、テストの目的、範囲、安全性およびセキュリティの次元を定義し、あらゆる種類のアプリケーションシナリオを網羅する多様なテストデータセットを構築すべきである。
(h) Developers should formulate clear test rules and methods, including manual testing, automated testing, and hybrid testing, and utilize technologies such as sandbox simulations to fully test and verify models.  (h) 開発者は、手動テスト、自動テスト、ハイブリッドテストを含む明確なテストルールと方法を策定し、サンドボックスシミュレーションなどの技術を活用して、モデルを十分にテストし検証すべきである。
(i) Developers should evaluate tolerance of AI products and services for external interferences and notify service providers and users in forms of application scope, precautions, and usage prohibitions.  (i) 開発者は、AI製品およびサービスが外部からの干渉に対してどの程度耐性があるかを評価し、適用範囲、注意事項、使用禁止などの形でサービスプロバイダおよびユーザーに通知すべきである。
(j) Developers should generate detailed test reports to analyze safety and security issues, and propose improvement plans.  (j) 開発者は、安全性とセキュリティの問題を分析し、改善計画を提案するために、詳細なテストレポートを作成すべきである。
6.2 Safety guidelines for AI service providers  6.2 AIサービスプロバイダの安全ガイドライン
(a) Service providers should publicize capabilities, limitations, target users, and use cases of AI products and services.  (a) サービスプロバイダは、AI製品およびサービスの機能、限界、対象ユーザー、および使用事例を公表すべきである。
(b) Service providers should inform users of the application scope, precautions, and usage prohibitions of AI products and services in a user-friendly manner within contracts or service agreements, supporting informed choices and cautious use by users. (b) サービスプロバイダは、契約またはサービス契約の中で、ユーザーにAI製品およびサービスの適用範囲、注意事項、および使用禁止事項をユーザーにわかりやすい方法で通知し、ユーザーによる情報に基づいた選択と慎重な使用を支援すべきである。
(c) Service providers should support users to undertake responsibilities of supervision and control within documents such as consent forms and service agreements. (c) サービスプロバイダは、同意書やサービス契約などの文書の中で、ユーザーが監督と制御の責任を負うことを支援すべきである。
(d) Service providers should ensure that users understand AI products' accuracy, and prepare explanatory plans when AI decisions exert significant impact. (d) サービスプロバイダは、ユーザーがAI製品の精度を理解していることを確認し、AIの判断が重大な影響を及ぼす場合は説明計画を準備すべきである。
(e) Service providers should review responsibility statements provided by developers to ensure that the chain of responsibility can be traced back to any recursively employed AI models. (e) サービスプロバイダは、開発者が提供する責任に関する声明を検証し、責任の連鎖が再帰的に使用されるAIモデルにまで遡って追跡できることを確認すべきである。
(f) Service providers should increase awareness of AI risk prevention, establish and improve a real-time risk monitoring and management mechanism, and continuously track operational security risks. (f) サービス・プロバイダは、AIリスクの予防に対する意識を高め、リアルタイムのリスクモニタリングおよびリスクマネジメントの仕組みを構築・改善し、運用上のセキュリティリスクを継続的に追跡すべきである。
(g) Service providers should assess the ability of AI products and services to withstand or overcome adverse conditions under faults, attacks, or other anomalies, and prevent unexpected results and behavioral errors, ensuring that a minimum level of effective functionality is maintained. (g) サービス・プロバイダは、AI製品およびサービスが、エラー、攻撃、その他の異常な状況下で、悪条件に耐える、または悪条件を克服する能力をアセスメントし、予期せぬ結果や動作エラーを防止し、最低限の有効な機能が維持されることを保証すべきである。
(h) Service providers should promptly report safety and security incidents and vulnerabilities detected in AI system operations to competent authorities. (h) サービスプロバイダは、AIシステムの運用において検知した安全およびセキュリティインシデント、ならびに脆弱性を、速やかに管轄当局に報告すべきである。
(i) Service providers should stipulate in contracts or service agreements that they have the right to take corrective measures or terminate services early upon detecting misuse and abuse not conforming to usage intention and stated limitations. (i) サービスプロバイダは、利用目的や規定された制限に適合しない誤用や乱用を検知した場合、是正措置を講じたり、早期にサービスを終了する権利を有することを、契約またはサービス契約に明記すべきである。
(j) Service providers should assess the impact of AI products on users, preventing harm to users' mental and physical health, life, and property.  (j) サービスプロバイダは、AI製品がユーザーに与える影響をアセスメントし、ユーザーの心身の健康、生命、財産への被害を防止すべきである。
6.3 Safety guidelines for users in key areas 6.3 主要分野におけるユーザーの安全ガイドライン
(a) For users in key sectors such as government departments, critical information infrastructure, and areas directly affecting public safety and people's health and safety, they should prudently assess the long-term and potential impacts of applying AI technology in the target application scenarios and conduct risk assessments and grading to avoid technology abuse. (a) 政府部門、重要な情報インフラ、公共の安全や人々の健康と安全に直接影響する分野など、主要分野のユーザーは、対象となるアプリケーションシナリオにAI技術を適用した場合の長期的および潜在的な影響を慎重にアセスメントし、リスクアセスメントと格付けを実施して、技術の悪用を回避すべきである。
(b) Users should regularly perform system audits on the applicable scenarios, safety, reliability, and controllability of AI systems, while enhancing awareness of risk prevention and response capabilities. (b) ユーザーは、リスク予防と対応能力に対する意識を高めつつ、該当するシナリオ、AIシステムの安全性、信頼性、制御可能性について、定期的にシステム監査を行うべきである。
(c) Users should fully understand its data processing and privacy protection measures before using an AI product. (c) ユーザーは、AI製品を使用する前に、そのデータ処理およびプライバシー保護対策を十分に理解すべきである。
(d) Users should use high-security passwords and enable multi-factor authentication mechanisms to enhance account security. (d) ユーザーは、アカウントのセキュリティを強化するために、安全性の高いパスワードを使用し、多要素認証メカニズムを有効にすべきである。
(e) Users should enhance their capabilities in areas such as network security and supply chain security to reduce the risk of AI systems being attacked and important data being stolen or leaked, as well as ensure uninterrupted business. (e) ユーザーは、AIシステムが攻撃を受け、重要なデータが盗難または漏洩されるリスクを低減し、かつ、事業の中断を防止するために、ネットワークセキュリティやサプライチェーンセキュリティなどの分野における能力を強化すべきである。
(f) Users should properly limit data access, develop data backup and recovery plans, and regularly check data processing flow. (f) ユーザーは、データアクセスを適切に制限し、データバックアップおよび復旧計画を策定し、データ処理の流れを定期的に確認すべきである。
(g) Users should ensure that operations comply with confidentiality provisions and use encryption technology and other protective measures when processing sensitive data. (g) ユーザーは、機密保持規定に準拠した運用を確保し、機密データを処理する際には暗号化技術やその他の防御策を使用すべきである。
(h) Users should effectively supervise the behavior and impact of AI, and ensure that AI products and services operate under human authorization and remain subject to human control. (h) ユーザーは、AIの行動と影響を効果的に監督し、AI製品およびサービスが人間の認可の下で運用され、人間の管理下にあることを確保すべきである。
(i) Users should avoid complete reliance on AI for decision making, monitor and record instances where users turn down AI decisions, and analyze inconsistencies in decision-making. They should have the capability to swiftly shift to human-based or traditional methods in the event of an accident. (i) 利用者は、意思決定においてAIに完全に依存することを避け、AIの判断を拒否する事例を監視・記録し、意思決定における矛盾を分析すべきである。また、事故が発生した場合には、迅速に人間による方法や従来の方法に切り替える能力を備えるべきである。
6.4 Safety guidelines for general users 6.4 一般利用者向けの安全ガイドライン
(a) Users should raise their awareness of the potential safety risks associated with AI products, and select AI products from reputable providers. (a) 利用者は、AI製品に関連する潜在的な安全リスクに対する認識を高め、信頼できるプロバイダのAI製品を選択すべきである。
(b) Before using an AI product, users should carefully review the contract or service terms to understand its functions, limitations, and privacy policies. Users should accurately recognize the limitations of AI products in making judgments and decisions, and set reasonable expectations. (b) 利用者は、AI製品を使用する前に、契約またはサービス条件を慎重に確認し、その機能、限界、プライバシーポリシーを理解すべきである。利用者は、AI製品が判断や決定を行う際の限界を正確に認識し、合理的な期待を設定すべきである。
(c) Users should enhance awareness of personal information protection and avoid entering sensitive information unnecessarily. (c) 利用者は、個人情報保護に対する意識を高め、不必要に機密情報を入力しないようにすべきである。
(d) Users should be informed about data processing practices and avoid using products that are not in conformity with privacy principles. (d) 利用者は、データ処理の慣行について知らされるべきであり、プライバシー原則に準拠していない製品を使用しないようにすべきである。
(e) Users should be mindful of cybersecurity risks when using AI products to prevent them from becoming targets of cyberattacks. (e) 利用者は、AI製品を使用する際にサイバーセキュリティリスクを意識し、サイバー攻撃の標的にならないようにすべきである。
(f) Users should be aware of the potential impact of AI products on minors and take steps to prevent addiction and excessive use. (f) 利用者は、AI製品が未成年者に与える潜在的な影響を認識し、依存や過剰利用を防ぐための措置を講じるべきである。
Table of AI Safety and Security Risks to Technical Countermeasures and Comprehensive Governance Measures 表 技術的対策と包括的ガバナンス対策のAIの安全性とセキュリティリスク

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

 中国

・2023.09.11 中国 生成的AIについての専門家の解釈 (2023.08.29)

・2023.07.14 中国 国家サイバースペース管理局他 生成的AIサービス管理暫定弁法 施行は2023.08.15

・2023.04.12 中国 意見募集 生成的人工知能サービス管理弁法

・2022.04.25 中国 人工知能白書 2022 (2022.04.12)

・2021.08.04 中国 通信院 信頼できる人工知能についての白書 at 2021.07.09

 

  日本...

・2024.04.20 経済産業省 AI事業者ガイドライン(第1.0版)

 

米国

・2024.03.31 米国 連邦政府機関の人工知能利用におけるガバナンス、イノベーション、リスク管理を推進するためのOMBの方針

・2023.12.15 連邦政府テクノロジー・リーダーがOMBのAI政策ドラフトについて知っておくべきことトップ10

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

 

その他

・2024.06.07 欧州委員会 安全で信頼できる人工知能におけるEUのリーダーシップを強化するため、AI事務局を設置 (2024.05.29)

・2024.05.07 OECD 閣僚会議声明とAI原則の改訂...

・2023.03.23 OECD AIにおけるアカウンタビリティの高度化 (2023.02.23)

・2024.02.07 ASEAN AIのガバナンスと倫理のガイド + 第4回デジタル大臣会合 シンガポール宣言...

・2024.02.06 経済産業省 AIマネジメントシステムの国際規格が発行されました (2024.01.15)

・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス

| | Comments (0)

2024.06.04

書籍紹介 経営に新たな視点をもたらす「統合知」の時代

こんにちは、丸山満彦です。

そういえば、PwC Intelligenceから「経営に新たな視点をもたらす「統合知」の時代」がダイヤモンド社から4月末に出版されたのですが、

20240603-182353

 

サイバーセキュリティーの部分を書いています...

サイバーセキュリティというか、インターネットが前提の社会でどのように社会の安全を確保するかということを意識して書いています...

技術の進歩が経済発展を支え、その結果が国力に反映され、価値観の競争に反映され、その競争の舞台がサイバーにも及ぶという感じですかね...なんですが、そこまで混みっては書いていません(^^)

 

全体としては、こんな感じ...


第1章 変化する世界、日本の立ち位置

世界のメガトレンド
今後、日本はどう行動すべきか
本書の構成
コラム:インテリジェンスを考えるにあたり重要な2つのポイント

第2章 変化する国際環境における日本と日本企業のあり姿

多極化する世界における日本のあり姿
「世界と組む日本」の実現に向けた方策
アジア新興国とのビジネス関係のあり方
コラム:DXで生き残りを図るパパママショップ

第3章 超高齢化社会の望ましい未来

過去とすでに起こった未来
人口減少・高齢化と経済成長
成長の3要素:労働・資本・生産性
無形資産の現状と課題
労働者と企業がアニマル・スピリッツを発揮した時の経済の姿

第4章 人間社会に溶け込むテクノロジーとのつきあい方

変わりゆく人間とテクノロジーの関係
日本ならではのテクノロジーの受容と活用のあり方
人生100年時代のテクノロジー活用
コラム:社会実装の横展開における日本の強み

第5章 サイバー空間の安全をいかに確保するか

サイバー空間の現状
サイバー空間の安全性と信頼性の現状
民主主義国家としてのサイバーセキュリティとの向き合い方
コラム:ランサムウェア被害

第6章 ビジネスで実現するネイチャーポジティブ

地球環境問題を、イノベーションで解く
環境問題とビジネスにおける課題とニーズを紐解く
ネイチャーポジティブ経済:暮らしを再考する新産業が生まれる
コラム:ネイチャーポジティブで期待される蝶の羽ばたき

第7章 問い直されるウェルビーイングのあり方

ウェルビーイングの歴史・経緯
ウェルビーイングの将来像
ウェルビーイングの追求:国家および企業に求められる方向性
コラム:人間とテクノロジーの共存の先に見える日本のあり方

第8章 【対談】悲観的なナラティブを排し、「ポジ出し」で日本の勝ち筋を見出す

対談者
・三治 信一朗  上席執行役員、パートナー
・片岡 剛士  執行役員、チーフエコノミスト


 

軽いビジネス書なので、頭を休める感じで眺めてもらえると良いかもです...

 

経営に新たな視点をもたらす「統合知」の時代

ダイヤモンド社

・・Amazon

・・丸善

 

 

 

 

 

| | Comments (0)

2024.01.16

金融庁 「Japan Fintech Week(JFW) 2024」を3月に東京で初開催

こんにちは、丸山満彦です。

日本のフィンテックの魅力を世界に発信し、フィンテックの更なる発展に向けたビジネス機会を創出するため、「Japan Fintech Week 2024」を3月4日(月)~8日(金)をコアウィークとし、 3月3日〜15日に開催するそうです。

今年で8回目となる金融庁主催の「FIN/SUM 2024」をコアウィーク に実施し、その前後にさまざまなイベントを合わせる感じですね。。。

金融(預金・借入、決済、証券・債券、保険、派生サービス等)はもともと情報の産業なので、コンピュータとの相性は非常によいですよね。。。大量データを正確に止めないということで、当時の最新技術であった汎用機で業務をこなしていたわけですが、技術革新に従って新しい技術(例えば、Open系システム)でもできるようになり、中央集権的な業務から、個別最適化したシステムに分散できるようになり、携帯端末の発展とともに個人と直接繋げられるようになったという感じですかね。。。

個人的には、AIに任せたら、好みのリスク選好に応じて資産の最適運用をしてくれるようなものがあれば、楽だと思っています(^^)。今まで企業を中心として、業務(資産運用等)の最適化をしていたものを、個人を中心として、資産運用等をAI等を使って最適化するような感じ。。。

企業側のアルゴリズム対個人側のアルゴリズムみたいな感じ...

でも、みんながそんなことを始めたら、システミックリスクが大きくなりますかね (^^)

 

そういえば、最近日本にいろいろと売り込みを強めているUKのコーナーもあるようですね。

 

金融庁

Japan Fintech Week 2024

Pic

開始日順にならべるとこんな感じです。。。

開催日 イベント
3.03-06 BGIN Block 10
3.04-08 Japan Fintech Festival 2024
3.04-08 4F(FINOPITCHその他.)
3.05-08 FIN/SUM 2024
3.05 Embedded Finance by sunabar
3.05-08 第2回金融データ活用チャレンジ
3.05-08 UK Fintech Mission
3.07-08 DeFi Retreat 24 APAC
3.08 Fintech Future @British Embassy
3.12 ITC Japan in collaboration with Plug and Play
3.14-15 デジタルバンキング展2024

 

 

 

 

| | Comments (0)

2023.12.04

書籍 デジタル証拠の法律実務 Q&A 第2版

こんにちは、丸山満彦です。

デジタル証拠の法律実務 Q&A 第2版を送っていただきました。ありがとうございました。こういう本は前から順番に読む本ではないのかもしれないですが、せっかくの機会なので前から順番に読みました(^^)

著者は、髙橋郁夫弁護士、吉峯耕平弁護士などの弁護士で構成されています。

内容的には専門的な内容があり、送っていただいてから時間がかかったのですが、(法律的な方も、技術的な方も、管理面の方も)実務家にとってとても参考になる本だと思いました。

特に、最近の判例を組み込んでくれているのでよいですね。。。参考になりますね。。。こういうのは弁護士の方が非常に知見があります。。。

技術的な説明は、法律を理解する上で必要な範囲ということだと思いますが、コンパクトな説明です。

インシデントが起こってから読んでいては間に合わないので、インシデントが起こる前に読んでおいて方がよいと思います(^^)

 

 

Amzon

第2版 デジタル証拠の法律実務Q&A [プリント・レプリカ] Kindle版

81aeomka8l_sl1500_

サンプル

 

 

次回の改訂がいつになるかわかりませんが、技術や実務も変わってくるでしょうし、判例が積み重ねられてくると思うので、次回の改訂も楽しみですね。。。

クラウドとか、さらに詳細になっていくのでしょうかね。。。

 

 

| | Comments (0)

2023.10.31

JNSA サイバー攻撃被害組織アンケート調査(速報版) (2023.10.24)

こんにちは、丸山満彦です。

JNSAが、2021年に公表した「インシデント損害額調査レポート」に続いて、今後作成する予定の「インシデント損害額調査レポート第二版」の速報版として、「サイバー攻撃被害組織アンケート調査(速報版)」を公開していますね。。。

ワーキンググループのリーダーをしている神山さんと話す機会があったのですが、なかなか調査に協力してもらえないという悩みを聞きました。

よくサイバーセキュリティは、自助、公助、共助という話が昔からありますが、こういうアンケートに調査に協力するのは、共助ですね。。。

みなさん、ぜひ協力してくださいね。。。共助!!!

 

JNSA

・2023.10.24 サイバー攻撃被害組織アンケート調査(速報版) 調査研究部会インシデント被害調査ワーキンググループ

・[PDF] 「サイバー攻撃被害組織アンケート調査」(速報版)

20231031-34331

2021年版...

・2021.08.18 インシデント損害額調査レポート

・[PDF] [downloaded

20231031-35020

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.10.30 いまさらですが... 10年間で900万件の個人データの持ち出し?NTTグループ (2023.10.17)

 

 

| | Comments (0)

2023.06.13

NATO COE 書籍紹介:NATOの集団防錆を可能にする:重要インフラとレジリエンス

こんにちは、丸山満彦です。

米国陸軍士官学校出版部から、NATOの集団防錆を可能にする:重要インフラとレジリエンスが、昨年の11月に発刊されていましたね。。。

これ、参考になる部分も多くあるような気がします。。。サマリーしか読んでいませんが。。。

 

⚫︎United States Army War College Press

・2022.11.15 Enabling NATO’s Collective Defense: Critical Infrastructure Security and Resiliency (NATO COE-DAT Handbook 1)

 

Enabling NATO’s Collective Defense: Critical Infrastructure Security and Resiliency (NATO COE-DAT Handbook 1) NATOの集団的防衛を可能にする: 重要インフラのセキュリティとレジリエンス (NATO COE-DAT Handbook 1)
In 2014 NATO’s Centre of Excellence-Defence Against Terrorism (COE-DAT) launched the inaugural course on “Critical Infrastructure Protection Against Terrorist Attacks.” As this course garnered increased attendance and interest, the core lecturer team felt the need to update the course in critical infrastructure (CI) taking into account the shift from an emphasis on “protection” of CI assets to “security and resiliency.” What was lacking in the fields of academe, emergency management, and the industry practitioner community was a handbook that leveraged the collective subject matter expertise of the core lecturer team, a handbook that could serve to educate government leaders, state and private-sector owners and operators of critical infrastructure, academicians, and policymakers in NATO and partner countries. Enabling NATO’s Collective Defense: Critical Infrastructure Security and Resiliency is the culmination of such an effort, the first major collaborative research project under a Memorandum of Understanding between the US Army War College Strategic Studies Institute (SSI), and NATO COE-DAT. 2014年、NATOの対テロ卓越防衛センター(COE-DAT)は、"テロ攻撃に対する重要インフラの保護 "に関する初回コースを開始した。このコースが受講者と関心を集めるにつれ、中心的な講師陣は、重要インフラ(CI)のコースを、CI資産の "保護 "の強調から "セキュリティとレジリエンス "へのシフトを考慮して更新する必要性を感じている。学術界、緊急事態管理、業界の実務家コミュニティに欠けていたのは、中核講師陣の専門知識を結集したハンドブックであり、NATOやパートナー国の政府指導者、国や民間企業の重要インフラ所有者や運営者、学術関係者、政策立案者を教育するのに役立つハンドブックであった。NATOの集団的防衛を可能にする: 重要インフラのセキュリティとレジリエンスはそのような努力の集大成であり、米国陸軍士官学校戦略研究所(SSI)とNATO COE-DATとの間の覚書に基づく最初の大規模共同研究プロジェクトである。
The research project began in October 2020 with a series of four workshops hosted by SSI. The draft chapters for the book were completed in late January 2022. Little did the research team envision the Russian invasion of Ukraine in February this year. The Russian occupation of the Zaporizhzhya nuclear power plant, successive missile attacks against Ukraine’s electric generation and distribution facilities, rail transport, and cyberattacks against almost every sector of the country’s critical infrastructure have been on world display. Russian use of its gas supplies as a means of economic warfare against Europe—designed to undermine NATO unity and support for Ukraine—is another timely example of why adversaries, nation-states, and terrorists alike target critical infrastructure. Hence, the need for public-private sector partnerships to secure that infrastructure and build the resiliency to sustain it when attacked. Ukraine also highlights the need for NATO allies to understand where vulnerabilities exist in host nation infrastructure that will undermine collective defense and give more urgency to redressing and mitigating those fissures. 研究プロジェクトは2020年10月、SSIが主催する4つのワークショップシリーズから始まった。書籍のドラフトは、2022年1月下旬に完成した。研究チームは、今年2月のロシアのウクライナ侵攻をほとんど想定していなかった。ロシアによるザポリツィヤ原子力発電所の占拠、ウクライナの発電・配電施設や鉄道輸送に対する相次ぐミサイル攻撃、同国の重要インフラのほぼすべての部門に対するサイバー攻撃は、世界にその存在を知らしめた。また、ロシアがNATOの結束とウクライナへの支援を弱めるために、ガス供給を欧州に対する経済戦争の手段として利用したことも、敵対する国家やテロリストが重要インフラを狙う理由を示すタイムリーな例である。そのため、重要インフラを保護し、攻撃されてもそれを維持できるレジリエンスを構築するために、官民のパートナーシップが必要なのである。ウクライナはまた、NATO同盟国がホスト国のインフラに存在する集団防衛を損なう脆弱性を理解し、その亀裂の是正と緩和をより緊急に行う必要性を強調している。

 

・[PDF]  26MB

20230613-190518

 

・[PDF] Executive Summary 

20230613-192517

 

・[mp3] Conversations on Strategy (14 min.)

 

目次...

Preface 序文
Acknowledgments 謝辞
Executive Summary エグゼクティブサマリー
Chapter 1  – Understanding Critical Infrastructure 第1章 重要インフラを理解する
What Is Critical Infrastructure? クリティカル・インフラストラクチャーとは何か?
Why Is Critical Infrastructure Important? なぜ重要インフラが重要なのか?
What Is the Difference between CIP and CISR? CIPとCISRは何が違うのか?
Key Work Streams in CISR Planning and Operations CISRの計画・運用における主要なワークストリーム
Looking Back and Looking Ahead 振り返りと先読み
Chapter 2 – Physical Threats to Critical Infrastructure 第2章 重要インフラに対する物理的脅威
Natural Threats 自然の脅威
Man-made Threats 人為的な脅威
Case Study: In Amenas, Algeria ケーススタディ アルジェリア、アメナスにて
Insider Threat インサイダーの脅威
CBRNE Threat CBRNE(核兵器)の脅威
Drone Threat ドローンの脅威
Threats of Precision Strike Weapons 精密打撃兵器の脅威
Electromagnetic Pulse Threat 電磁パルスの脅威
Accidents and Technical Threats 事故と技術的脅威
More to Consider: Threats to Port Facilities さらに考慮すべきこと 港湾施設に対する脅威
Increasing Sophistication and Outsourcing of Physical Threats 物理的脅威の高度化とアウトソーシングの進展
Nexus between Threat and Risk 脅威とリスクの関連性
Conclusion まとめ
Chapter 3 – Cyber Threats to Critical Infrastructure 第3章 重要インフラへのサイバー脅威
Technical Layers and Structures in Critical Infrastructure 重要インフラにおける技術的な層と構造
Connectedness and Technical Complexity 連結性と技術的複雑性
Layers of Technology: Information Technology, Operational Technology, and the Industrial Internet of Things 技術のレイヤー 情報技術、運用技術、産業用インターネットオブシングス
Social Complexity and Socio-technical Structures 社会的複雑性と社会技術的構造
Seeking Gaps in the Organization and Business Management Levels 組織・経営管理レベルのギャップを求める
 Human Capital, Culture, and Security  人的資本、文化、セキュリティ
 Business Management and Coordination in Critical Infrastructure  重要インフラにおけるビジネスマネジメントとコーディネーション
Mindsets and Threat Actors マインドセットと脅威の主体
 A Difference in Mentality: Attackers and Defenders  メンタリティの違い 攻撃者と防御者
 Threat Actors  脅威の担い手
Current and Emerging Cyber Threats 現在のサイバー脅威と新たな脅威
Ransomware ランサムウェア
Business E-mail Compromise (BEC) ビジネスメール詐欺(BEC)
Credential Stuffing クレデンシャル・スタッフィング
Supply Chain Attacks サプライチェーン攻撃
Conclusion まとめ
Chapter 4 – Hybrid Threats to US and NATO Critical Infrastructure 第4章 米国とNATOの重要インフラに対するハイブリッドの脅威
Kinetic-Cyber-Hybrid Threats to Critical Infrastructure 重要インフラに対するキネティック・サイバー・ハイブリッドの脅威
Prepping the Battlespace: Weaponizing Critical Infrastructure  to Challenge US and NATO Military Supremacy 戦場への準備 米国とNATOの軍事的優位に挑戦する重要インフラの兵器化
Hybrid Threats to the US Homeland and Warfighting Capabilities 米国の国土と戦闘能力に対するハイブリッドな脅威
Hybrid Threats to US and NATO Mobility and Sustainment Operations 米国とNATOの機動性と持続性作戦に対するハイブリッドな脅威
Hybrid Threats from the People’s Republic of China 中華人民共和国からのハイブリッドな脅威
Hybrid Threats to the US and European Defense Industrial Bases 米国と欧州の防衛産業基盤に対するハイブリッドな脅威
NATO Measures to Redress Vulnerabilities from Hybrid Threats ハイブリッド脅威による脆弱性を是正するためのNATOの対策
Conclusion おわりに
Chapter 5 – European Energy and the Case of Ukraine 第5章 欧州のエネルギーとウクライナのケース
Brief History of European Energy Security Concerns 欧州のエネルギー安全保障問題の簡単な歴史
The Case of Ukraine ウクライナの事例
Setting the Ukrainian Context: Early Energy Conflict ウクライナのコンテクストを設定する 初期のエネルギー紛争
The Russo-Ukraine War Begins ロシア・ウクライナ戦争が始まる
The Cyber War Begins (BlackEnergy and KillDisk) サイバー戦争が始まる(BlackEnergyとKillDisk)
The Cyber War Escalates (CrashOverride) 激化するサイバー戦争(CrashOverride)
Collateral Damage: A Cyberattack on the Ukrainian Economy (NotPetya) 巻き添え被害: ウクライナ経済へのサイバー攻撃(NotPetya)
Attribution Evolves アトリビューションの進化
Learning from Ukraine: Improving Infrastructure Safeguards . ウクライナから学ぶ: インフラストラクチャーのセーフガードを改善する .
Improving Ukraine: Vulnerabilities ウクライナを改善する: 脆弱性 .
Cyber Vulnerabilities サイバー脆弱性 .
Nuclear Vulnerabilities  核の脆弱性 
Improving Ukraine: Assistance  ウクライナの改善: 支援 
A Key Vulnerability Persists  重要な脆弱性が残っている 
Conclusion 結論
Epilogue . エピローグ
Chapter 6 – Civil Aviation 第6章 民間航空
Understanding the Civil Aviation Industry 民間航空業界を理解する
National and Global Critical Infrastructure 国家と世界の重要インフラ
A Volatile Industry 不安定な産業
An Attractive Target 魅力的なターゲット
The Aviation Industry Remains Vulnerable 航空産業は依然として脆弱である
Aviation Security Is Rigid 航空セキュリティは厳格である
Aviation Security Is Highly Predictable 航空セキュリティは予測可能性が高い
Aviation Security Has Often Struggled to Keep Up with the Threat 航空セキュリティは、しばしば脅威への対応に苦慮してきた。
Case Studies: AVSEC Responses and Lessons to Learn ケーススタディ AVSECの対応と学ぶべき教訓
Thwarted Liquids Plot, United Kingdom (2006) 英国で発生した液体テロ事件の阻止 (2006)
 Liquids Plot: Insights and Analyses  液体テロ事件:洞察と分析
Compliance or Threat-oriented Aviation Security Systems? コンプライアンス重視の航空保安システムか、脅威重視の航空保安システムか?
Need for Improved Physical Security Measures in Airport Public Areas 空港の公共エリアにおける物理的なセキュリティ対策強化の必要性
Recommendations and Best Practices to Reduce Vulnerability 脆弱性を軽減するための推奨事項とベストプラクティス
Develop a More Risk-based AVSEC Screening System よりリスクベースのAVSECスクリーニング・システムの開発
Develop and Implement Threat Definitions Aligned to Adversary Capabilities 敵の能力に合わせた脅威の定義の策定と導入
Utilize Airline Passenger Travel Data for Risk-based  Screening Purposes リスクベースのスクリーニングを目的とした航空旅客の旅行データの活用
Integrate Behavioral Detection Programs 行動検知プログラムの統合
Design and Implement Airport Community Security Programs 空港コミュニティセキュリティプログラムの設計と実施
Harden Airport Perimeters 空港の周辺を固める
Improve Regulation of the Airport’s Public Areas 空港の公共エリアに対する規制を強化する。
Avoid Over-reliance on Indications and Warning Intelligence 表示や警告情報に過度に依存しないようにする
Prioritize the Human Factor: Recruitment and Training ヒューマンファクターを優先させる: 採用およびトレーニング
Conclusion おわりに .
Chapter 7 – Mass Transit Railway Operations . 第7章 大衆交通機関である鉄道の運用 .
Railways Are Vulnerable by Design 鉄道は設計上脆弱である
Inherent Vulnerability and the Strategic Assessment of Risk . 内在する脆弱性とリスクの戦略的評価 .
Target of Choice or Opportunity? 選択の対象か、それとも機会か?
Multifaceted Nature of Railways 鉄道の多面的な性質
Complexity 複雑性
Regulation and Political Direction 規制と政治的方向性
Policing and Security 警察とセキュリティ
Media Impact メディアへの影響
Plausible Methods of Attack (MoA) in the Rail Environment 鉄道環境における攻撃方法(MoA)の可能性
Fear of Terrorism テロリズムへの恐怖
Exemplar 1: Exploding E-cigarette on the London Underground (2014) 例1:ロンドン地下鉄での電子タバコの爆発(2014年)
Sabotage and Attacks against the Line of Route (LoR) 路線(LoR)に対する妨害行為と攻撃
Exemplar 2: Specter of the Jihadi Derailer 例2:ジハード脱線犯の妖しさ
Exemplar 3: British Experience of LoR Attacks 例3:英国におけるLoR攻撃の経験
Physical Assaults against People 人に対する物理的な攻撃
Exemplar 4: UK Incident (2018) 例4:イギリスの事件(2018年)
Exemplar 5: French Incident (2017) 例5:フランスの事件(2017年)
Exemplars 6 and 7: German Incidents (2016) 例6、7:ドイツの事件(2016年)
Improvised Explosive Devices (IEDs) 即席爆発物(IED)
Exemplar 8: Low-level/Low-sophistication IED, London (2016) 例8:低レベル/低精巧なIED、ロンドン(2016年)
Exemplar 9: Expansive Attack, London (2005) 例9:拡大攻撃(ロンドン)(2005年
Exemplar 10: Expansive Attack, Madrid (2004) 例10:拡張型攻撃、マドリード(2004年)
Quick-acting Noxious Hazard 即効性のある有害なハザード
Exemplar 11: Tokyo Metro (1995) 例11:東京メトロ(1995年)
Firearms 火器類
Exemplar 12: Thalys Train Attack, Belgium and France (2015) 例12:タリス列車襲撃事件(ベルギー・フランス)(2015年
Social Engineering ソーシャルエンジニアリング
Exemplar 13: IRA Binary Terrorism, United Kingdom 模範13:IRAバイナリーテロ(イギリス
Mixed-methods Attacks ミックスメソッドによる攻撃
Exemplar 14: Adjacent to London Bridge Station (2017) 例14:ロンドン橋駅隣接(2017年)
Exemplar 15: Central Mumbai Station (2008) 例15:ムンバイ中央駅(2008年)
Developing the Lessons Available 利用可能な教訓を発展させる
Conclusion 結論
Chapter 8 – Water Sector Resilience and the Metropolitan Washington Case 第8章 水部門のレジリエンスとメトロポリタン・ワシントンの事例
Understanding the Water Sector . 水セクターの理解 .
Risks and Threats to the Water Sector . 水セクターのリスクと脅威 .
Water Sector Approaches to Resilience Planning 水セクターのレジリエンス計画へのアプローチ .
Metropolitan Washington Region Case Study メトロポリタン・ワシントン地域のケーススタディ
Background and Goals 背景と目標
Risk Assessment and Modeling リスクアセスメントとモデル化
 Step 1: Develop System Inventory  ステップ1:システムインベントリの作成
 Step 2: Define Levels of Service (LOS)  ステップ2: サービスレベル(LOS)の定義
 Step 3: Identify Failure Modes  ステップ3: 故障モードの特定
 Step 4: Define Likelihood of Occurrence (LOO)  ステップ4:発生可能性(LOO)の定義
 Step 5: Define Consequence of Occurrence (COO) to Meet Level of Service .  ステップ5:サービスレベルを満たすための発生結果(COO)の定義
 Step 6: Identify and Validate Feasible Alternatives  ステップ6: 実現可能な代替案の特定と妥当性確認
 Results  結果
Recommendations and Actions for Consideration  検討すべき推奨事項および行動 
Chapter 9 – Communications Resilience 第9章 通信のレジリエンス
Communications Sector Overview  通信セクターの概要 
Critical for National Security and Emergency Preparedness  国家安全保障と緊急事態への備えとして重要な役割を果たす 
Common Sector Characteristics  一般的なセクターの特徴 
Communications Industry Segments 通信産業セグメント
Threats to Communications 通信を脅かすもの
Natural Disasters 自然災害
Physical Attacks 物理的な攻撃
Cyberattacks サイバー攻撃
Case Studies ケーススタディ
Physical Attack: Bombing of a Central Office,  Nashville, United States  物理的な攻撃 米国ナッシュビル、セントラルオフィス爆破事件 
Physical Accident and Attack: Egyptian Undersea Cable Outages  (2008 and 2013)  物理的な事故と攻撃 エジプト海底ケーブル障害(2008年、2013年) 
Natural Disaster: 2017 US Hurricane Season 自然災害:2017年米国ハリケーンシーズン
Cyberattack on Communication Systems: TV5 Monde . 通信システムに対するサイバー攻撃 TV5 Monde .
Distributed Denial of Service (DDoS): Mirai Botnet 分散型サービス拒否(DDoS): Miraiボットネット
Conclusion まとめ
Blue-sky Coordination and Relationship Building 青空の下での調整と関係構築
Identification of Risks and Appropriate Mitigation Strategies リスクの特定と適切な緩和策
Communications Sector Resilience Enablers  通信セクターのレジリエンスを実現するもの 
Chapter 10 – Comparing Policy Frameworks: CISR in the United States and the European Union 第10章 政策の枠組みを比較する: 米国と欧州連合におけるCISR
US CISR Framework . 米国CISRのフレームワーク
What Guides US CISR Policy? 米国のCISR政策を導くものは何か?
Adopting a Sound Risk Management Framework 健全なリスクマネジメントのフレームワークの採用
A New Approach: Managing Cross-sector Risk to Critical Infrastructure 新しいアプローチ: 重要インフラに対するセクターを超えたリスクマネジメント
Who Is Responsible for CISR Efforts? 誰がCISRの取り組みに責任を持つのか?
Effective CISR: Built on Collaboration and Information Sharing . 効果的なCISR:コラボレーションと情報共有の上に成り立つ.
Moving Forward: Sustaining CISR Success for the Long Term 前進する: CISRの成功を長期的に維持するために
EU CISR Policy Framework EU CISR政策の枠組み
2004: Embryonic Stage Motivated by Fight against Terrorism 2004: テロとの闘いを動機とした萌芽的段階
2005: From the Fight against Terrorism to an All-hazards Approach 2005: テロとの闘いからオールハザード・アプローチへ
2006: EU Formally Creates EPCIP 2006: EU、EPCIPを正式に設立
2008: Identifying, Designating, and Protecting ECI 2008: ECIの特定、指定、保護
2013: EPCIP 2.0—A New Approach . 2013: EPCIP 2.0-新たなアプローチ.
2016: Directive on Network and Information Security . 2016: ネットワークと情報セキュリティに関する指令 .
2020: Proposal for Directive on Resilience of Critical Entities . 2020: 重要な事業体のレジリエンスに関する指令の提案.
EU’s Future: Continuous Improvement and Adapting  to New Threats  EUの未来: 継続的な改善と新たな脅威への適応 
Chapter 11 – Information and Intelligence Sharing 第11章 情報とインテリジェンスの共有
Information-sharing Foundational Concepts 情報共有の基礎的な概念
Value-added Partnerships 付加価値の高いパートナーシップ
Importance of Trusted Relationships 信頼関係の重要性
Multidirectional Sharing 多方向の共有
Timely Information to Those Who Can Act 行動できる人へのタイムリーな情報提供
Information-sharing Disincentives 情報共有の阻害要因
Information-sharing Subcategories 情報共有のサブカテゴリー
Cybersecurity. サイバーセキュリティ.
Physical Security . 物理的セキュリティ.
Risk Analysis and Mitigation  リスク分析および軽減 
Information-sharing Regimes and Programs  情報共有のための制度とプログラム 
Case Studies: Information Sharing in Action  ケーススタディ 情報共有の実践 
Cyber Health Working Group: Public-Private Information Sharing サイバーヘルスワーキンググループ 官民の情報共有
If You See Something, Say Something® . 何かを見たら、何か言え® .
Attack on the US Capitol: An Information-sharing Failure?  米国連邦議会議事堂への攻撃: 情報共有の失敗?
National Terrorism Advisory System  国家テロリズム諮問システム
National Special Security Events and Special Event Assessment Rating 国家特別安全保障イベントと特別イベント評価格付け
Summary and Actions for Consideration まとめと検討のための行動
Chapter 12 – Critical Infrastructure Interdependency Modeling and Analysis: Enhancing Resilience Management Strategies  第12章 重要インフラ相互依存のモデリングと分析: レジリエンス管理戦略の強化 
Risk, Resilience, and Interdependencies リスク、レジリエンス、相互依存性
Critical Infrastructure Interdependency Taxonomies and Concepts 重要インフラ相互依存の分類と概念
Critical Infrastructure Modeling 重要インフラストラクチャーのモデリング
Critical Infrastructure Interdependency Analysis Framework . 重要インフラ相互依存性分析フレームワーク.
Identification of Key Stakeholders’ Needs . 主要ステークホルダーのニーズの特定 .
Identification of Major Assets and Systems 主要な資産とシステムの特定
Data Collection データ収集
Infrastructure Analysis インフラ分析
Definition of Resilience Strategies レジリエンス戦略の定義
Operationalization of Critical Infrastructure Interdependencies 重要インフラ相互依存の運用化
Conclusion まとめ
Chapter 13 – Security Risk Assessment and Management . 第13章 セキュリティリスクの評価とマネジメント .
Defining Security Risk Management セキュリティリスクマネジメントの定義
Risk Management Frameworks リスクマネジメントのフレームワーク
National Risk Programs 国家リスクプログラム
Managing Security Risks . セキュリティリスクのマネジメント .
Building from the Bottom Up . ボトムアップで構築する .
Building a Common Understanding of Risks . リスクに関する共通理解の構築 .
Necessary Characteristics of High-quality Risk Programs 質の高いリスクプログラムに必要な特性
Transparency 透明性の確保
Risk Communication リスクコミュニケーション
Risk Governance リスクガバナンス
Chapter 14 – Enhancing Cybersecurity of Industrial Control Systems 第14章 産業用制御システムのサイバーセキュリティを強化する 
An Overview of Industrial Control Systems (ICS) 産業用制御システム(ICS)の概要
Security Concerns in ICS  ICSにおけるセキュリティ上の懸念 
Vulnerabilities in ICS Components ICSコンポーネントの脆弱性
ICS Components Exposed to the Internet インターネットに公開されたICSコンポーネント
Connection with Business Systems  業務システムとの接続 
Outdated Components  老朽化した部品 
Remote Access to Control Networks  制御ネットワークへのリモートアクセス 
Insecure Nature of ICS Protocols  ICSプロトコルの安全性の低さ 
Major Cyber Incidents 主なサイバーインシデント
Stuxnet (2010)  Stuxnet (2010) 
BlackEnergy (2011)  BlackEnergy (2011) 
Havex (2013) ハベックス (2013年)
German Steel Mill (2014) ドイツ製鉄所(2014年)
Ukraine Blackout (2015) ウクライナのブラックアウト(2015年)
RWE’s Nuclear Power Plant, Germany (2016) ドイツ・RWE社原子力発電所(2016年)
CrashOverride (2016)  クラッシュオーバーライド(2016年) 
TRITON (2017)  トリトン(2017年)
Water Treatment Plant, United States (2021) 米国・水処理プラント(2021年)
Colonial Pipeline (2021) コロニアルパイプライン(2021年)
Security Recommendations for ICS  ICSに対するセキュリティの推奨 
Basic Cyber Hygiene Practices サイバー衛生の基本的な実践
Essential Cybersecurity Measures Specific to ICS ICSに特化したサイバーセキュリティの必須対策
Risk Management for ICS Cybersecurity ICSサイバーセキュリティのためのリスクマネジメント
Risk Assessment Methodology for ICS ICSのリスクアセスメント方法論
Detailed Risk Assessment Approach 詳細なリスク評価アプローチ
Scenario-based Approach for Security Baseline セキュリティベースラインのためのシナリオベースアプローチ
Defending against Cyberattacks: Looking to the Future サイバー攻撃からの防御 未来への展望
National-level Efforts for CISR. CISRの国家レベルでの取り組み
International-level Efforts for CISR CISRのための国際的な取り組み
Conclusion おわりに
Chapter 15 – Crisis Management and Response 第15章 危機管理・対応
Critical Infrastructure  重要なインフラストラクチャー 
Why Is Crisis Management and Response Important? . なぜ危機管理と対応が重要なのか?
Incidents, Emergencies, and Crises: What Is the Difference? インシデント、エマージェンシー、クライシス: 何が違うのか?
Developing Crisis Management Capability . 危機管理能力の開発 .
Anticipate and Assess 予見と評価
Prepare 準備する
Response and Recovery 対応と復旧
Crisis Management Team and Leadership 危機管理チームとリーダーシップ
Training, Exercising, and Learning from Crises 訓練、演習、そして危機からの学習
NATO and Crisis Management NATOと危機管理
Developments in Crisis Management and Resilience 危機管理とレジリエンスの発展
Summary and Conclusion  まとめと結論 
About the Contributors 貢献者について



 

 

| | Comments (0)

2023.04.10

防衛省 防衛研究所 『大国間競争の新常態』

こんにちは、丸山満彦です。

防衛省の防衛研究所が、『大国間競争の新常態』という書籍を販売しています。が、その内容がPDFでウェブから読めますので、参考まで。。。

情報セキュリティよりも、安全保障の話が目立ってきているかもしれませんが、、、まぁ、Securityということで。。。

 

⚫︎ 防衛省 防衛研究所

・2023.03 『大国間競争の新常態』

1_20230410143701

著者:増田 雅之(編著)

発行年:20233

中国の台頭と米国の相対的衰退というパワーバランスの変化が生じ、パワー、利益、価値、規範そしてそれらを反映する国際秩序の在り方をめぐる米中競争が熾烈さを増している。米中戦略的競争の論理と構図、大国間競争におけるロシア・ファクターの実相、大国間競争のなかでの地域秩序の在り方を検討し、国際秩序の行く末を探る。

 

目次

はしがき

序 章   大国間競争のダイナミズム (増田 雅之

第1部   米中戦略的競争とロシア・ファクター

第1章  中国の国際秩序構想と大国間競争——自信と不満が交錯する「大国外交増田 雅之

コラム① サウジアラビアにとっての中国の戦略的価値とその限界 𠮷田智聡

第2章  米国と対中競争——固定化される強硬姿勢新垣

第3章  ロシアの古典的な大国構想——遠のく「勢力圏」山添 博史

第2部   大国間競争のなかの地域秩序

第4章  ASEANの「中立」——米中対立下のサバイバル戦略庄司 智孝

第5章  大国間競争のなかの豪州——同盟と地域の狭間で佐竹 知彦

コラム② 大国間競争のなかで復活したQUAD (小熊真也)

第6章  大国間競争下の南アジア——米中競争時代の到来と「対テロ戦争」の残滓栗田 真広

第7章  戦略的競争における欧州——国際秩序と地域秩序の相克田中 亮佑

奥付

著者(肩書は刊行時点)

編著者
増田 雅之 理論研究部 政治・法制研究室長

著者
新垣 拓  地域研究部 米欧ロシア研究室 主任研究官
山添 博史 地域研究部 米欧ロシア研究室 主任研究官
庄司 智孝 地域研究部 アジア・アフリカ研究室長
佐竹 知彦 政策研究部 防衛政策研究室 主任研究官
栗田 真広 政策シミュレーション室 主任研究官
田中 亮佑 地域研究部 米欧ロシア研究室 研究員

 

 

 

| | Comments (0)

2023.02.26

NHK 映像の世紀 バタフライエフェクト ロックが壊した冷戦の壁SP

こんにちは、丸山満彦です。

これ面白かったです。(David Bowieが好きだからだけではなく...David BowieのCDはほぼ全て持っていました。。。場所がなく捨てましたが。。。今はオンラインで聴けますからね...)

作品自体は過去の「映像の世紀」を再編集しているのでしょうが、、、時間がある方は是非...(NHK+で見られるのは、2023.03.04 16:17まで)

 

NHK 

・2023.02.25 バタフライエフェクト ロックが壊した冷戦の壁SP

20230226-02947

 

いつも時代は若者が作っていかないといけないのではないかなぁ...と思いました。。。年配者が過去の経験に基づいて若者を押さえつけてリードをしている国や組織というのは、やがて衰退していくのでしょうね。。。

若者がリードをする、年配者が少しアドバイスをする、くらいがちょうど良いのかもしれません、、、勢いよく前に進む、多少のミスはある。でも、何もできなくなり、前にも進んでいないよりも良い。。。

 

 

 

 

| | Comments (0)

2023.01.22

読みました! 「CISOのための情報セキュリティ戦略 - 危機から逆算して攻略せよ」

こんにちは、丸山満彦です。

プリファードネットワークのCISO, CPOを務める高橋正和さんの著書、「CISOのための情報セキュリティ戦略 - 危機から逆算して攻略せよ」[amazon] を読み終えました。。。

20230122-12623

 

本書がどんな本かは、前書きから、、、


セキュリティ事件・事故のシナリオに基づいた机上演習フレームワークをCISO-PRACTSIEと呼称し、経営者がセキュリティの文脈を理解し、CISOを始めとしたセキュリティ担当者が、経営視点や事業視点を身につける機会として事件・事故を想定し、そこから逆算して対策の検証を行う手法を提案します。


詳細に、丁寧に書かれていますね。。。

参考になるところが、あちこちにあると思います。是非是非。。。

 

 

ところで、この机上演習ですが、、、以下の資料を参考にしていますね。。。

JPCERT/CC

・2016.03.31 [PDF] 高度サイバー攻撃(APT)への備えと対応ガイド~企業や組織に薦める一連のプロセスについて

1_20230122014201

図 18:様々な演習と効果

ただ、このJPCERT/CCのガイドの図はどこからきたのですかね。。。

 

この辺り(国家安全保障省のHomeland Security Exercise and Evaluation Program)からですかね。。。これ自体は2020年のものですが、2013年発行の前のバージョンがあったのです。。。

Homeland Security Agency

Homeland Security Exercise and Evaluation Program (HSEEP)

Homeland Security Exercise and Evaluation Program 国土安全保障演習と評価プログラム
Exercises are a key component of national preparedness — they provide the whole community with the opportunity to shape planning, assess and validate capabilities, and address areas for improvement. HSEEP provides a set of guiding principles for exercise and evaluation programs, as well as a common approach to exercise program management, design and development, conduct, evaluation, and improvement planning. 演習は国家的な準備態勢の重要な要素であり、地域社会全体に計画を形成し、能力を評価・検証し、改善すべき分野に対処する機会を提供するものである。 HSEEPは、演習と評価プログラムのための一連の指導原則と、演習プログラムの管理、設計と開発、実施、評価、および改善計画に対する共通のアプローチを提供する。
Through the use of HSEEP, the whole community can develop, execute, and evaluate exercises that address the preparedness priorities. These priorities are informed by risk and capability assessments, findings, corrective actions from previous events, and external requirements.  These priorities guide the overall direction of an exercise program and the design and development of individual exercises. HSEEPの利用により、地域社会全体が準備の優先順位に対応した演習を開発、実施、評価することができる。 これらの優先事項は、リスクと能力の評価、所見、過去の事象からの是正措置、および外部要件によってもたらされる。  これらの優先順位は、演習プログラムの全体的な方向性と個々の演習の設計と開発の指針となる。
These priorities guide planners as they identify exercise objectives and align them to capabilities for evaluation during the exercise. Exercise evaluation assesses the ability to meet exercise objectives and capabilities by documenting strengths, areas for improvement, capability performance, and corrective actions in an After-Action Report/Improvement Plan (AAR/IP). Through improvement planning, organizations take the corrective actions needed to improve plans, build and sustain capabilities, and maintain readiness. これらの優先順位は、計画者が演習の目的を特定し、演習中に評価するための能力と整合させる際の指針となる。演習の評価では、演習の目的および能力を満たすために、強み、改善すべき点、能力のパフォーマンス、および是正措置を事後報告/改善計画(AAR/IP)に文書化することによって評価する。改善計画を通じて、組織は計画を改善し、能力を構築・維持し、即応性を維持するために必要な是正措置を講じる。
 ・[PDF] Homeland Security Exercise and Evaluation Program Doctrine 国土安全保障演習・評価プログラムのドクトリン
・[PDF] El Programa de Evaluación y Ejercicios de Seguridad Nacional 国土安全保障評価演習プログラム
・[PDF] HSEEP Information Sheet HSEEP情報シート
・[PDF] HSEEP Frequently Asked Questions 2020 HSEEPよくある質問2020

 

 

・[PDF] Homeland Security Exercise and Evaluation Program Doctrine

 

20230122-33035

 

演習は、大きく

  1. ディスカッションベース:セミナー、ワークショップ、机上演習(TTX)、ゲーム
  2. オペレーションベース:ドリル、機能演習 (FE) 、総合演習(FSE

の2パターンを示していますね。。。

 


1. ディスカッションベースの演習

ディスカッション形式の演習には、セミナー、ワークショップ、机上演習(TTX)、ゲームなどがある。この種の演習は、計画、方針、手順、および協定に慣れ親しんだり、新しいものを開発したりするものである。ディスカッションベースの演習は、戦略的、政策的な問題に焦点を当て、ファシリテーターやプレゼンターが議論をリードし、参加者が演習の目的を達成するために動き続けるものである。次の表(表2.3, 表2.4、表2.5、表2.6)にはそれぞれのタイプのディスカッションベースの演習の重要な情報が記載されている。

表2.3:ディスカッション型演習の種類:セミナー

セミナー
当局、戦略、計画、方針、手順、プロトコル、リソース、概念、およびアイデアについて参加者に説明する、または概要を提供するディスカッションベースの演習。 
要素  考察と活動 
目的  •        共通の理解の枠組みを提供する
•        既存の計画、方針、または手順を開発または大きく変更するための良い出発点を提供する。
構造  •        通常、複数のプレゼンテーション、主題専門家(SME)パネル、またはケーススタディ・ディスカッションの形式で行われる。
•        講義形式
•        セミナーのファシリテーター/プレゼンターが主導する
•        参加者からのフィードバックやインタラクションが少ない 
参加者の目標  •         省庁間の能力または管轄区域間の業務に対する認識を得る、または評価する。
•        将来の能力に関する目標を設定する
実施上の特徴  •        最小限の時間的制約
•        少人数でも大人数でも効果的
成果  •         議論、提起された問題、および(適切な場合)これらの問題に対処するためのアクションアイテムを記録した報告書
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

表2.4:ディスカッション型演習の種類:ワークショップ

ワークショップ
政策、計画、手順の策定によく用いられる議論ベースの演習。 
要素  考察と活動 
目的  •        製品の実現や構築にフォーカスした参加者同士の交流の活発化
•        目的、製品、または目標が明確に定義され、特定の問題に焦点を当てたものであること
構造  •        ディスカッションができる場での個人の集まり
•        講義、プレゼンテーション、パネルディスカッション、ケーススタディーディディスカッション、または意思決定支援ツール ワーキングブレイクアウトセッションのファシリテーション ワークショップのファシリテーター/プレゼンターがリードする 
参加者の目標  •        グループでの製品開発
•        コンセンサスを得る
•        情報の収集または共有 
実施上の特徴  •        少人数でも大人数でも効果的
•        関連するステークホルダーが幅広く参加
•        明確な目的・目標に基づく実施
•        講義形式ではなく、参加者同士のディスカッション形式
•        同じようなグループと課題の一部を探索するために、頻繁にブレイクアウトセッションを利用する 
成果  •        緊急時対応計画
•        相互援助協定
•        標準作業手順書
•         事業継続計画
•        ワークショップ概要報告
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

表2.5:ディスカッション型演習のタイプ:机上演習

机上演習 Tabletop Exdercise (TTX)
概念的な理解を促進し、長所と改善点を明らかにし、計画、政策、または手続きに関する認識の変化を達成するために、さまざまな問題について対話を行うことを目的とした、シナリオに応じたディスカッションベースの演習である。 
要素  考察と活動 
目的  •        演習シナリオに関する様々な課題についての議論を行う
•        概念的な理解を促進し、強みと改善点を明らかにする、または認識の変化を達成する
構造  •        シナリオを提示し、模擬的な時間における事象を説明する
•        プレイヤーは、ファシリテーターから提示された問題のリストに自分の知識とスキルを適用する
•         問題点をグループで話し合い、解決に至り、後の分析のために文書化することができる
•        全体会議または分科会(複数可)
•        ファシリテーター(複数)によるディスカッション
•        プレゼンテーション 
参加者の目標  •        一般的な認知度の向上
•        役割と責任の理解を深める
•        計画や手順の妥当性確認
•        定義されたインシデントにおけるシステムの種類を評価し、コンセプトを議論する 
実施上の特徴  •        経験豊富なファシリテーターが必要
•        徹底討論
•        問題解決型の環境
•        参加者全員が議論に貢献するよう奨励し、無過失責任な環境で意思決定していることを再認識させる必要がある 
成果  •        現行の計画、方針、手順の改訂を推奨する。
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

表2.6:ディスカッション型演習の種類:ゲーム

ゲーム
個人またはチーム向けに設計された、競技または非競争環境での構造化されたプレイであり、議論に基づいたエクササイズ。プレーヤーが参加するイベントであり、その実行には明確なルール、データ、手順が指導される。ゲームは、実際の状況または仮想の状況を描写し、参加者がもっともらしい意思決定と行動を確実に行えるように設計されている。ゲームは、トレーニングの強化、チームビルディングの活性化、作戦・戦術能力の向上などに利用することができる。 
要素  考察と活動 
目的  •        プレイヤーの意思決定や行動の帰結を探る操作シミュレーション
•        重要な意思決定ポイントの特定は、ゲーム評価の成功に大きく影響する 
構造  •        通常、2つ以上のチームが参加できる環境において、実際の状況または仮想の状況を想定したルール、データ、手順を使用する
•         意思決定は、演習のデザインと目的によって、ゆっくりじっくり行うことも、素早くストレスのかかることを行うこともできます
•        ゲームのオープンで意思決定に基づく形式は、エクササイズの効果を拡大する「もしも」の質問を取り入れることができる
•        ゲームのデザインによって、プレイヤーの行動の結果は、事前に記述される場合と動的に決定される場合がある 
参加者の目標  •        意思決定のプロセスと結果を探る
•        既存プランの「what-if」分析の実施
•        既存および潜在的な戦略を評価する 
実施上の特徴  •        実際に使用するリソースはない
•        多くの場合、2つ以上のチームが参加する
•        ゲームの進行に応じて複雑化するモデルやシミュレーションが含まれる場合がある
•        あらかじめ用意されたアクティビティが含まれる場合と含まれない場合がある 
成果  •        計画、方針、手順の妥当性確認、またはリソース要件の評価
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

 

 

2. ディスカッションベースの演習

オペレーションベースの演習には、ドリル、機能演習(FE)、および総合演習(FSE)が含まれる。これらの演習は、計画、方針、手順、および合意を検証し、役割と責任を明確にし、リソースのギャップを特定するものである。運用に基づく演習は、通信の開始、人員及び資源の動員などのリアルタイムの応答を含む。次の表(表2.7、表2.8、表2.9)は、それぞれのタイプのオペレーションベースの演習のための重要な情報を提供する。

 

表2.7:オペレーションベースの演習の種類:ドリル

ドリル
オペレーションに基づく演習で、単一のオペレーションまたは機能を検証するためによく採用される。 
要素  考察と活動 
目的  •         単一の機関/組織における特定の機能または能力を検証するため調整され、監督された活動で、多くの場合、単一の操作または機能を検証するために使用される
•        新しい機器のトレーニング、手順の検証、または現在のスキルの練習と維持の提供 
構造  •        単体でも、連続したドリルとしても使用可能
•        明確に定義された計画、手順、プロトコルを実施する必要がある 
参加者の目標  •        新しい手順、方針、および/または機器を評価する
•         スキルの練習と維持
•        今後の演習に備える
実施上の特徴  •        即時フィードバック
•        リアルな環境
•        ナローフォーカス
•        単体での性能
•        結果は、確立された基準に照らして測定される 
成果  •        計画が設計通りに実行されるかどうかを判断する
•        さらなるトレーニングが必要かどうかを評価する
•        ベストプラクティスの強化
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

表2.8:オペレーションベースの演習の種類。機能演習

機能演習Function Exercise(FE)
オペレーションベースの演習は、現実的なリアルタイムの環境下で、能力や機能をテストし評価するように設計されているが、リソースの移動は通常シミュレートされる。 
要素  考察と活動 
目的  •        能力、複数の機能及び/又は下位機能、又は相互依存のある活動群を検証し評価する。
•        管理、指揮、統制の機能に関わる計画、方針、手順、スタッフについて演習する。
•        危機的状況下で、確立されたプラン、ポリシー、手順を適用する 
構造  •        現実的な演習シナリオでイベントが投影され、イベントの更新により、通常、管理者レベルでの活動が促進される
•        コントローラは通常、マスターシナリオイベントリスト(MSEL)を使用して、参加者の活動が事前に定義された境界線内に収まるようにする
•        評価者は行動を観察し、確立された計画、方針、手順、標準的な実践(該当する場合)に照らして比較する。
参加者の目標  •        能力の検証・評価
•        計画、方針、手続きに重点を置く
実施上の特徴  •        現実的な環境で実施
•        通常、リソースと人員の配置をシミュレートしている
•        シミュレーションセルとマスターシナリオイベントリスト(MSEL)の活用
•        シミュレーターはシナリオの要素を注入することができる
•        コントローラーと評価者を含む 
成果  •        緊急時対応センター(EOC)、指揮所、本部、スタッフの管理評価
•        パフォーマンス分析
•        協力関係の強化
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

表2.9:オペレーションベースの演習の種類:総合演習

総合演習 Full-Scale Exercise (FSE)
演習の種類の中で最も複雑で資源を必要とし、多くの場合、複数の機関、管轄区域/組織、および資源のリアルタイムの移動を伴うオペレーションベースの演習である。 
要素  考察と活動 
目的  •        ICS(インシデント・コマンド・システム)のような協力体制のもとで活動する多くのプレーヤーを含むことが多い
•        ディスカッション形式の演習で作成され、以前の小規模な演習で磨かれた計画、方針、手順の実施と分析に重点を置いている。
構造  •        イベントは演習シナリオを通して投影され、イベントのアップデートによりオペレーションレベルでの活動が促進される
•        複数の機関、組織、管轄区域が関与していること
•        MSELの使用は、プレイヤーの行動を促進する
•        SimCellコントローラは、シナリオ要素を注入する
•        他のタイプのエクササイズに比べ、必要なサポートのレベルが高い可能性がある
•        複雑な問題を提示し、実際の事件を反映させたリアルな環境で実施
参加者の目標  •        計画や手順で示された役割と責任を実証する
•        複数の機関、組織、管轄区域の間の調整 
実施上の特徴  •        迅速な問題解決、クリティカルシンキング
•        人材とリソースの動員
•        運動場は通常、多くの活動が同時に行われる大規模なものである
•        サイトロジスティクスの綿密なモニタリングが必要
•        特に小道具や特殊効果の使用に関する安全性の問題を監視する必要がある
•        計画や手順で示された役割と責任を実証する 
成果  •        計画、方針、手順の妥当性確認
•        リソース要求の評価
•        アフターアクションレポート(AAR)/改善計画(IP) 

 

 

| | Comments (0)

より以前の記事一覧