ENISA AI サイバーセキュリティのチャレンジ - AI脅威状況報告を公表していますね。
こんにちは、丸山満彦です。
ENISAがAI サイバーセキュリティのチャレンジ - AI脅威状況報告 (AI Threat Landscape Report ) を公表していますね。
概要としては、
「AIが攻撃方法等に新たな道を開き、プライバシーやデータ保護に新たな課題をもたらす可能性がある」として、AIサイバーセキュリティ・エコシステムとその脅威状況のマッピングを紹介している。
報告書のポイント
- ライフサイクル・アプローチに沿ったサイバーセキュリティの文脈でのAIの範囲の定義
要件分析から展開までのAIライフサイクルのさまざまな段階を考慮に入れ、AIシステムとアプリケーションのエコシステムを定義している。 - AIエコシステムの資産の特定
AIエコシステムのセキュリティの観点から、何を保護する必要があるのか、何がうまくいかない可能性があるのかを特定するための基本的なステップである。 - 詳細な分類法による AI脅威状況のマッピング
潜在的な脆弱性や特定のユースケースに対する攻撃シナリオを特定するためのベースラインとしての役割を果たす。 - 異なる資産に対する脅威の分類と、多様なAIライフサイクルの段階に応じた文脈での脅威の分類と、関連する脅威に対する攻撃者のリスト化。また、さまざまなセキュリティ資産に対する脅威の影響を強調する。
ENISAのAI脅威状況は、今後のサイバーセキュリティ政策や技術ガイドラインの基礎を築くだけでなく、関連する課題を強調している。特に重要な分野の一つは、「AIに関連するサプライチェーン」であり、AIサプライチェーンのすべての要素を含む、安全で信頼できるAIのためのEUエコシステムの必要性を強調することが重要という認識のようですね。。。
AIとセキュリティの関係を次の3つにしていますね。これは私が今年のコンピュータ犯罪に関する白浜シンポジウムで「[PDF] スマートサイバー AI活用時代のサイバーリスク管理」として話をした分け方と同じですね。順番は違うけど。。。
- Cybersecurity for AI
- AI to support cybersecurity
- Malicious use of AI
● ENISA
・2020.12.15 (press) ENISA AI Threat Landscape Report Unveils Major Cybersecurity Challenges
New report maps the assets and threats of Artificial Intelligence (AI), and sets a baseline for securing the AI ecosystem across Europe.
・2020.12.15 Artificial Intelligence Cybersecurity Challenges
・・[PDF] Artificial Intelligence Cybersecurity Challenges
・2020.12.15 (You tube) Artificial Intelligence Threat Landscape
原文 | 仮訳 |
1. INTRODUCTION | 1. 序論 |
1.1 POLICY CONTEXT | 1.1 方針の文脈 |
1.1.1 AI security under the Data Protection Prism | 1.1.1 データ保護プリズム下でのAIセキュリティ |
1.2 SCOPE & OBJECTIVES | 1.2 範囲と目的 |
1.3 METHODOLOGY | 1.3 方法論 |
1.4 TARGET AUDIENCE | 1.4 想定読者 |
1.5 STRUCTURE OF THE REPORT | 1.5 報告書の構成 |
2. AI LIFECYCLE | 2. AIライフサイクル |
2.1 AI LIFECYCLE | 2.1 AIライフサイクル |
2.2 AI LIFECYCLE ACTORS | 2.2 AIライフサイクルのアクター |
2.3 AI LIFECYCLE PHASES | 2.3 AIライフサイクルのフェーズ |
2.3.1 Business Goal Definition | 2.3.1 事業目標の定義 |
2.3.2 Data Ingestion | 2.3.2 データの取り込み |
2.3.3 Data Exploration | 2.3.3 データ探査 |
2.3.4 Data Pre-processing | 2.3.4 データの前処理 |
2.3.5 Feature Selection | 2.3.5 特徴の選択 |
2.3.6 Model Selection / Building | 2.3.6 モデルの選択・構築 |
2.3.7 Model Training | 2.3.7 モデルトレーニング |
2.3.8 Model Tuning | 2.3.8 モデルチューニング |
2.3.9 Transfer Learning | 2.3.9 学習の移転 |
2.3.10 Model Deployment | 2.3.10 モデル展開 |
2.3.11 Model Maintenance | 2.3.11 モデルの保守 |
2.3.12 Business Understanding | 2.3.12 ビジネス理解 |
3. AI ASSETS | 3. AIの資産 |
3.1 METHODOLOGICAL CONVENTIONS | 3.1 方法論 |
3.2 ASSET TAXONOMY | 3.2 資産分類 |
4. AI THREATS | 4. AIの脅威 |
4.1 THREAT ACTORS | 4.1 脅威のアクター |
4.2 THREAT MODELLING METHODOLOGY | 4.2 脅威モデリング手法 |
4.3 THREAT TAXONOMY | 4.3 脅威分類 |
5. CONCLUSIONS | 5. 結論 |
ANNEX A - ASSET TAXONOMY DESCRIPTION | 附属書A - 資産分類の説明 |
ANNEX B – THREAT TAXONOMY DESCRIPTION | 附属書B - 脅威分類の説明 |
ANNEX C – MAPPING OF ASSETS TO AI LIFECYCLE | 附属書C - AIライフサイクルへの資産のマッピング |
ANNEX D – MAPPING OF THREATS TO AI LIFECYCLE | 附属書D - AIライフサイクルへの脅威のマッピング |
■ 参考情報
● ENISA
・2020.10.01 (press) Artificial Intelligence: Cybersecurity Essential for Security & Trust
MEP Kaili teams up with the EU Agency for Cybersecurity to explore the cybersecurity challenges of AI at one-day virtual workshop.
・ENISA Threat Landscape - 2020
・Ad-Hoc Working Group on Artificial Intelligence Cybersecurity
On this page you can find the ongoing work of the Ad-hoc Working Group, supporting ENISA in the process of building knowledge on Artificial Intelligence Cybersecurity.
● Europian Commission
・2020.02.19 [PDF] White Paper on Artificial Intelligence: a European approach to excellence and trust
・2018.12.07 Coordinated Plan on Artificial Intelligence
● まるちゃんの情報セキュリティ気まぐれ日記
・2020.10.25 『スマートサイバー AI活用時代のサイバーリスク管理』第24回 コンピュータ犯罪に関する白浜シンポジウムの発表資料
・・[PDF] スマートサイバー AI活用時代のサイバーリスク管理(配布用)
« NIST SP 800-213 (Draft) 連邦政府向け「 IoTデバイスサイバーセキュリティ要件の確立」、NISTIR 8259B、8259C、8259D | Main | CNIL Googleに1億ユーロ、Amazonに3500万ユーロの制裁金 @2020.12.10 »
Comments