« ENISA AIにおけるサイバーセキュリティとプライバシー -医療用画像診断 (2023.06.07) | Main | NATO CCDCOE サプライチェーンのサイバーセキュリティに対する国の取り組み: リスクの高いベンダーに対してより制限的なスタンスをとる (2023.05) »

2023.06.12

ENISA 人工知能とサイバーセキュリティの研究 (2023.06.07)

こんにちは、丸山満彦です。

ENISAが、人工知能とサイバーセキュリティの研究についての報告書を公表していますね。。。

いろいろな整理をするときに参考になりますね。。。

 

● ENISA

・2023.06.07 Artificial Intelligence and Cybersecurity Research 

Artificial Intelligence and Cybersecurity Research 人工知能とサイバーセキュリティの研究
The aim of this study is to identify needs for research on AI for cybersecurity and on securing AI, as part of ENISA’s work in fulfilling its mandate under Article 11 of the Cybersecurity Act . This report is one of the outputs of this task. In it we present the results of the work carried out in 2021 and subsequently validated in 2022 and 2023 with stakeholders, experts and community members such as the ENISA AHWG on Artificial Intelligence . ENISA will make its contribution through the identification of five key research needs that will be shared and discussed with stakeholders as proposals for future policy and funding initiatives at the level of the EU and Member States. この研究の目的は、サイバーセキュリティ法第11条に基づくENISAの任務を果たすための作業の一環として、サイバーセキュリティのためのAIおよびAIの安全性に関する研究のニーズを明らかにすることである。本報告書は、このタスクのアウトプットの1つである。この報告書では、2021年に実施され、その後2022年と2023年にステークホルダー、専門家、ENISA AHWG on Artificial Intelligenceなどのコミュニティメンバーとともに検証された作業の結果を紹介している。ENISAは、EUおよび加盟国レベルでの将来の政策および資金調達のイニシアティブの提案として、利害関係者と共有し議論する5つの主要な研究ニーズの特定を通じて貢献する。

 

・[PDF]

20230612-94003

・[DOCX] 仮訳

 

 

5つの分野...

 

1_20230612114901

 

EXECUTIVE SUMMARY  エグゼクティブサマリー 
TOP 5 RESEARCH NEEDS FOR AI AND CYBERSECURITY  AIとサイバーセキュリティに関する研究ニーズトップ5 
DEFINITION OF TERMS AND ABBREVIATIONS  用語と略語の定義 
KEY AI CONCEPTS AND FEATURES  主要なAIの概念と特徴 
1.1 TRADITIONAL ML  1.1 伝統的なML 
1.1.1 Decision Trees (DT)  1.1.1 決定木(DT) 
1.1.2 Support vector machines (SVM)  1.1.2 支援ベクターマシン(SVM) 
1.1.3 Naive Bayes’ classifier (NB)  1.1.3 ナイーブベイズ分類器(NB) 
1.1.4 K-means clustering (Clustering)  1.1.4 K-meansクラスタリング(Clustering) 
1.1.5 Hidden Markov Model (HMM)  1.1.5 隠れマルコフモデル(HMM) 
1.1.6 Genetic algorithms (GA)  1.1.6 遺伝的アルゴリズム(GA) 
1.2 NEURAL NETWORKS  1.2 ニューラルネットワーク 
1.2.1 Artificial neural Networks (ANNs)  1.2.1 人工ニューラルネットワーク(ANN) 
1.2.2 Convolutional Neural Networks (CNNs)  1.2.2 畳み込みニューラルネットワーク(CNN) 
1.2.3 Recurrent Neural Networks (RNNs)  1.2.3 リカレントニューラルネットワーク(RNN) 
1.2.4 Autoencoders  1.2.4 オートエンコーダー 
1.2.5 Siamese Neural Networks (SNN)  1.2.5 シャムニューラルネットワーク(SNN) 
1.2.6 Ensemble methods  1.2.6 アンサンブル手法 
1.3 RELEVANCE OF DEEP LEARNING (DL)-BASED APPROACHES  1.3 深層学習(DL)ベースのアプローチとの関連性 
1.4 COMMONLY-USED CYBERSECURITY DATA SETS  1.4 一般的に使用されているサイバーセキュリティのデータセット 
AI IN CYBERSECURITY  サイバーセキュリティにおけるAI 
1.5 EXAMPLES OF USE-CASES  1.5 ユースケースの例 
1.5.1 Prevention  1.5.1 防止 
1.5.2 Detection  1.5.2 検出 
SECURING AI  AIを保護する 
1.6 AI SECURITY  1.6 AIのセキュリティ 
1.7 AI-POWERED CYBERATTACKS  1.7 AIを利用したサイバー攻撃 
1.8 DEFENDING AI-BASED MECHANISMS  1.8 AIを利用したメカニズムの防御 
SELECTED CASE STUDIES  ケーススタディ 
1.9 NEXT GENERATION OF TELCOMMUNICATIONS  1.9 次世代テレコミュニケーション 
1.10  INTERNET OF THINGS (IOT) AND INTERNET OF EVERYTHING (IOE)  1.10 モノのインターネット(IoT)およびすべてのモノのインターネット(IoE) 
1.11  CYBERSECURITY IN CYBER-PHYSICAL SYSTEMS (CPS)  1.11 サイバーフィジカルシステム(CPS)におけるサイバーセキュリティ 
1.12  CYBER BIOSECURITY  1.12 サイバーバイオセキュリティ 
AI IN CYBERSECURITY - RESEARCH GAPS AND NEEDS  サイバーセキュリティにおけるAI - 研究ギャップとニーズ 
1.13  OPEN ISSUES AND CHALLENGES  1.13 オープンイシューと課題 
1.14  RESEARCH GAPS  1.14 リサーチギャップ 
1.15  RESEARCH NEEDS  1.15 研究の必要性 
CONCLUSIONS AND NEXT STEPS  結論と次のステップ 

 

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY  エグゼクティブサマリー 
Artificial Intelligence (AI) is a typical dual-use technology, where malicious actors and innovators are constantly trying to best each other’s work. This is a common situation with technologies used to prepare strategic intelligence and support decision making in critical areas. Malicious actors are learning how to make their attacks more efficient by using this technology to find and exploit vulnerabilities in ICT systems.   人工知能(AI)は典型的なデュアルユーステクノロジーであり、悪意のあるアクターとイノベーターが常に互いの仕事をベストにしようと試みているところである。これは、戦略的な情報を準備し、重要な分野での意思決定を支援するために使用される技術に共通する状況である。悪意ある行為者は、この技術を利用してICTシステムの脆弱性を見つけ、それを突くことによって、攻撃をより効率的にする方法を学んでいる。 
Taking one step further in clarifying this initial statement: with the help of AI, malicious actors can introduce new capabilities that can prolong or even expand cyber threat practises that have been in existence already for a long time. With AI, these capabilities are gradually becoming automated and harder to detect. This study explores some of these capabilities from a research perspective.  AIの助けを借りて、悪意のある行為者は、すでに長い間存在していたサイバー脅威の実践を長引かせ、あるいは拡大することができる新しい能力を導入することができる。AIによって、これらの能力は徐々に自動化され、検出が難しくなってきている。本研究では、研究の観点からこれらの能力のいくつかを探求する。
In this study, two dimensions of AI have been considered (categorisation explained in Section 4): (a) ensuring a secure and trustworthy AI and preventing its malicious use ('AI-as-a-crime-service' or ‘AI to harm’) and (b) the use of AI in cybersecurity ('AI use cases' or ‘AI to protect’).   本研究では、AIの2つの次元を考慮した(分類はセクション4で説明): (a)安全で信頼できるAIを確保し、悪意のある利用を防ぐ(「AI-as-a-crime-service」または「AI to harm」)、および(b)サイバーセキュリティにおけるAIの使用(「AI use cases」または「AI to protect」)。 
The use cases of AI in cybersecurity are numerous and growing. Listing them exhaustively is beyond the scope of this study, as research in this area is constantly evolving. However, we present examples of some of these use cases throughout the report to better explain ongoing research efforts in this technology and explore areas where further research is needed.  サイバーセキュリティにおけるAIの使用例は多数あり、増加傾向にある。この分野の研究は常に進化しているため、それらを網羅的に列挙することは、この研究の範囲を超えている。しかし、この技術における現在進行中の研究努力をよりよく説明し、さらなる研究が必要な領域を探るために、報告書全体を通してこれらの使用例の一部を紹介する。
The aim of this study is to identify needs for research on AI for cybersecurity and on securing AI, as part of ENISA’s work in fulfilling its mandate under Article 11 of the Cybersecurity Act[1]. This report is one of the outputs of this task. In it we present the results of the work carried out in 2021[2] and subsequently validated in 2022 and 2023 with stakeholders, experts and community members such as the ENISA AHWG on Artificial Intelligence3. ENISA will make its contribution through the identification of five key research needs that will be shared and discussed with stakeholders as proposals for future policy and funding initiatives at the level of the EU and Member States.   この研究の目的は、サイバーセキュリティ法[1]の第11条に基づく任務を果たすENISAの作業の一環として、サイバーセキュリティのためのAIとAIの安全性に関する研究のニーズを特定することである。本報告書は、このタスクのアウトプットの1つである。この報告書では、2021年に実施され[2]、その後2022年と2023年にステークホルダー、専門家、ENISA AHWG on Artificial Intelligence3などのコミュニティメンバーとともに検証された作業の結果を示している。ENISAは、5つの主要な研究ニーズの特定を通じて貢献し、EUおよび加盟国レベルでの将来の政策および資金調達のイニシアティブの提案としてステークホルダーと共有・議論する予定である。 
No prioritisation of research needs is presented in this report. ENISA conducts its annual prioritisation exercise taking into account the overall status of cybersecurity research and innovation in the EU, policy and funding initiatives for cybersecurity research and innovation in the Union and technical analysis on specific topics and technologies. The priorities for 2022 can be found in the ENISA Research and Innovation Brief Report.  本報告書では、研究ニーズの優先順位は示されていない。ENISAは、EUにおけるサイバーセキュリティの研究とイノベーションの全体的な状況、EUにおけるサイバーセキュリティの研究とイノベーションのための政策と資金提供の取り組み、特定のテーマや技術に関する技術分析を考慮して、毎年優先順位を決定している。2022年の優先順位は、ENISA 研究・イノベーション概要報告で確認することができる。
Furthermore, in 2022, ENISA conducted a study reviewing the work of 44 research projects, programmes and initiatives on cybersecurity and AI, which were for the most part funded by the EU's framework programmes over the period 2014 to 2027. The importance of this inventory relates to the specific role played by AI in the cybersecurity research field, given the continuous and intensifying interplay with other technology families. The fundamental question driving this study was whether investments in cybersecurity R&I on AI have enabled Europe to make progress in this area, especially those backed by EU funds. The findings of this study can also be found in the ENISA Research and Innovation Brief Report 2022.  さらに、2022年、ENISAは、2014年から2027年までの期間にEUの枠組みプログラムによって大部分が資金提供されたサイバーセキュリティとAIに関する44の研究プロジェクト、プログラム、イニシアティブの活動を見直す調査を実施した。この目録の重要性は、サイバーセキュリティの研究分野においてAIが果たす特定の役割に関連しており、他の技術群との相互作用が継続的かつ激化していることを考慮している。本研究の基本的な問いは、AIに関するサイバーセキュリティR&Iへの投資によって、欧州がこの分野で進歩できたかどうか、特にEU資金の支援を受けたものであるかどうかということである。本調査の結果は、ENISA 研究・イノベーション概要報告 2022にも掲載されている。
While we recognise the immense potential in AI for innovation in cybersecurity and the many requirements needed to improve its security, we also acknowledge that there is still much work to be done to fully uncover and describe these requirements. This report is only an initial assessment of where we stand and where we need to look further in these two important facets of this technology.   我々は、サイバーセキュリティにおけるイノベーションのためのAIの計り知れない可能性と、そのセキュリティを向上させるために必要な多くの要件を認識しているが、これらの要件を完全に明らかにし記述するためには、まだ多くの作業が必要であることも認識している。本報告書は、この技術の重要な2つの側面において、私たちがどのような状況にあり、さらにどこを見る必要があるのかについての初期評価に過ぎない。 
Furthermore, according to the results of the ENISA study on EU-funded research projects on cybersecurity and AI mentioned earlier, the majority of the projects reviewed focused on machine learning techniques. This can be interpreted in two ways: as a sign that the market for such solutions is particularly appreciative of the potential benefits of ML compared to other fields of AI or that, for some reason, research and development in the other fields of AI is not being adequately considered by public funders despite their recognised potential. In this study, we also highlight the need to further explore the use of ML in cybersecurity but also to investigate other AI concepts.  さらに、先に述べたサイバーセキュリティとAIに関するEU出資の研究プロジェクトに関するENISAの調査結果によると、レビューされたプロジェクトの大半は、機械学習技術に焦点を当てていた。これは、他のAI分野と比較して、機械学習がもたらす潜在的なメリットを、こうしたソリューションの市場が特に高く評価していることの表れである、あるいは、何らかの理由で、他のAI分野の研究開発が、その可能性が認められているにもかかわらず、公的資金提供者によって十分に検討されていない、という2通りの解釈が可能である。この研究では、サイバーセキュリティにおけるMLの利用をさらに検討するだけでなく、他のAI概念についても調査する必要性を強調している。
ENISA has followed the steps outlined in the following list to identify the research needs presented in chapter 7.2 of this report.  ENISAは、本報告書の7.2章で提示する研究ニーズを特定するために、以下のリストで説明するステップを踏んだ。
•       Identification from existing research papers of functions and use cases where AI is being used to support cybersecurity activities, presented in chapter 3.  ・3章で紹介した、サイバーセキュリティ活動を支援するためにAIが使用されている機能およびユースケースを既存の研究論文から特定した。
•       Identification from existing research papers of areas where cybersecurity is needed to secure AI, presented in chapter 4.  ・4章では、AIを保護するためにサイバーセキュリティが必要とされる領域を既存の研究論文から特定した。
•       Review of AI use cases, presented in chapter 5.  ・5章では、AIの使用事例をレビューした
•       Analysis of open issues, challenges and gaps, presented in chapter 6.  ・6章では、未解決の問題、課題、ギャップを分析した
•       Identification of areas where further knowledge is required.  ・さらなる知見が必要とされる分野を特定した
These steps were carried out by experts who contributed to this report mainly through desk research, and the results were validated by members of the R&I community.  これらのステップは、主に机上調査を通じて本報告書に貢献した専門家によって実施され、その結果はR&Iコミュニティのメンバーによって検証された。
ENISA prepares these studies with the aim of using them as a tool to develop advice on cybersecurity R&I and present it to stakeholders. These stakeholders are the main target audience of this report and include members of the wider R&I community (academics, researchers and innovators), industry, the European Commission (EC), the European Cyber Security Competence Centre (ECCC) and the National Coordination Centres (NCCs).  ENISA は、サイバーセキュリティ R&I に関する助言を作成し、利害関係者に提示するためのツールとして使用することを目的として、これらの研究を準備している。これらの利害関係者は本報告書の主な対象者であり、幅広いR&Iコミュニティのメンバー(学者、研究者、革新者)、産業界、欧州委員会(EC)、欧州サイバーセキュリティ能力センター(ECCC)、国家調整センター(NCCs)などが含まれる。

[1] https://digital-strategy.ec.europa.eu/en/policies/cybersecurity-act, last accessed January 2023

[2] The considerations in this study are the result of literature review, including of ENISA’s prior work on AI, for instance “Securing Machine Learning Algorithms”: https://www.enisa.europa.eu/publications/securing-machine-learning-algorithms

[3] Ad-Hoc Working Group on Artificial Intelligence Cybersecurity — ENISA (europa.eu).

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.06.12 ENISA AIとセキュリティに関する4つの報告書を公表していますね。。。(2023.06.07)

・2023.06.12 ENISA AIに適したサイバーセキュリティの実践のための多層フレームワーク (2023.06.07)

・2023.06.12 ENISA AIにおけるサイバーセキュリティとプライバシー - 電力網の需要予測 (2023.06.07)

・2023.06.12 ENISA AIにおけるサイバーセキュリティとプライバシー -医療用画像診断 (2023.06.07)

・2023.06.12 ENISA 人工知能とサイバーセキュリティの研究 (2023.06.07)

 

 

|

« ENISA AIにおけるサイバーセキュリティとプライバシー -医療用画像診断 (2023.06.07) | Main | NATO CCDCOE サプライチェーンのサイバーセキュリティに対する国の取り組み: リスクの高いベンダーに対してより制限的なスタンスをとる (2023.05) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« ENISA AIにおけるサイバーセキュリティとプライバシー -医療用画像診断 (2023.06.07) | Main | NATO CCDCOE サプライチェーンのサイバーセキュリティに対する国の取り組み: リスクの高いベンダーに対してより制限的なスタンスをとる (2023.05) »