« 米国 CISA FBI NSA イスラエル リモートアクセスソフトウェアのセキュリティ確保のためのガイド (2023.06.06) | Main | ENISA AIに適したサイバーセキュリティの実践のための多層フレームワーク (2023.06.07) »

2023.06.12

ENISA AIとセキュリティに関する4つの報告書を公表していますね。。。(2023.06.07)

こんにちは、丸山満彦です。

ENISAが、AIとセキュリティに関する4つの報告書を公表したと発表していますね。。。

4つの報告書は、、、

Multilayer framework for good cybersecurity practices for AI ・AIに適したサイバーセキュリティの実践のための多層フレームワーク
Cybersecurity and privacy in AI – Forecasting demand on electricity grids ・AIにおけるサイバーセキュリティとプライバシー - 電力網の需要予測
Cybersecurity and privacy in AI – Medical imaging diagnosis ・AIにおけるサイバーセキュリティとプライバシー -医療用画像診断
Artificial Intelligence and Cybersecurity Research  ・人工知能とサイバーセキュリティの研究

です。。。

1_20230612094401

 

 

ENISA

・2023.06.07 Is Secure and Trusted AI Possible? The EU Leads the Way

Is Secure and Trusted AI Possible? The EU Leads the Way 安全で信頼されるAIは可能か?EUが道を切り開く
The European Union Agency for Cybersecurity (ENISA) releases 4 reports on the most far-reaching challenges in artificial intelligence (AI) on the occasion of the conference on the supervision of secure and trustworthy AI. 欧州連合サイバーセキュリティ機関(ENISA)は、安全で信頼できるAIの監督に関する会議に際し、人工知能(AI)における最も遠大な課題に関する4つの報告書を発表した。
Recent developments in Artificial Intelligence (AI) systems have drawn the world’s attention to the most important aspects of cybersecurity associated with them. The AI Cybersecurity conference aimed to provide a platform for the wider community to share their experiences and to discuss the challenges and opportunities. It promoted cooperation within the AI cybersecurity community in order to reflect upon the proposal for an EU regulation on AI. The proposal could allow the EU to become a pioneer in regulating AI. 人工知能(AI)システムの最近の発展は、それに関連するサイバーセキュリティの最も重要な側面に世界の注目を浴びている。AIサイバーセキュリティ会議は、より広いコミュニティが経験を共有し、課題と機会について議論するためのプラットフォームを提供することを目的としたものである。また、AIに関するEU規制の提案に反映させるため、AIサイバーセキュリティ・コミュニティ内の協力を促進した。この提案により、EUはAIを規制するパイオニアとなる可能性がある。
Juhan Lepassaar, Executive Director of the EU Agency for Cybersecurity, said: “If we want to both secure AI systems and also ensure privacy, we need to scrutinise how these systems work. ENISA is looking into the technical complexity of AI to best mitigate the cybersecurity risks. We also need to strike the right balance between security and system performance. The conference today will allow to brainstorm on such challenges to envisage all possible measures such as the security by design approach. With generative AI fast developing, we are ready to get up to speed to best support policy makers as we entered this new phase of the AI revolution.” EUサイバーセキュリティ機関のエグゼクティブ・ディレクターであるJuhan Lepassaarは、次のように述べている: 「AIシステムの安全性とプライバシーの確保を両立させたいのであれば、これらのシステムがどのように機能するのかを精査する必要がある。ENISAは、サイバーセキュリティのリスクを最も軽減するために、AIの技術的な複雑さを調べている。また、セキュリティとシステム性能の適切なバランスを取る必要がある。今日の会議では、このような課題についてブレインストーミングを行い、セキュリティ・バイ・デザイン・アプローチなど、あらゆる可能な対策を想定することができる。生成的AIが急速に発展する中、AI革命の新たな局面を迎えた政策立案者を最適に支援するため、私たちはスピードアップする準備が整っている。」
The key questions on the tables テーブルの上の重要な質問
The 4 panels at today’s conference addressed the cybersecurity technical challenges of AI chatbots, the research and innovation needs, and the security considerations for the cybersecurity certification of AI systems. Supporting policy makers including national authorities with guidance on best practices and user cases while at the same time advancing EU-wide rules gives the EU an opportunity to lead globally in creating a secure and trustworthy AI.  本日のカンファレンスでは、4つのパネルで、AIチャットボットのサイバーセキュリティ技術的課題、研究とイノベーションの必要性、AIシステムのサイバーセキュリティ認証のためのセキュリティ上の考慮事項が取り上げられました。ベストプラクティスやユーザーケースに関するガイダンスで各国当局を含む政策立案者を支援すると同時に、EU全体のルールを進めることは、EUが安全で信頼できるAIを作る上で世界をリードする機会となる。 
Speeches from high-level speakers focused on generative AI, on the legal and policy perspective of the upcoming AI Act and on the measures already taken by the German Cybersecurity Agency, BSI. ハイレベルなスピーカーによる講演は、生成的AI、来るべきAI法の法的・政策的観点、ドイツのサイバーセキュリティ機関であるBSIが既に講じている対策に焦点を当てたものでした。
About the new AI reports: 新しいAI報告書について
・Setting good cybersecurity practices for AI: ・AIのためのサイバーセキュリティのグッドプラクティスを設定する:
The report stands as a scalable framework to guide national cybersecurity authorities (NCAs) and the AI community in order to secure AI systems, operations and processes. The framework consists of three layers (cybersecurity foundations, AI-specific cybersecurity and sector-specific cybersecurity for AI) and aims to provide a step-by-step approach on following good cybersecurity practices in order to ensure the trustworthiness of AI systems. 本報告書は、AIシステム、オペレーション、プロセスの安全性を確保するために、各国のサイバーセキュリティ当局(NCA)とAIコミュニティを導く拡張可能なフレームワークとして位置づけられている。 このフレームワークは、3つの層(サイバーセキュリティの基礎、AI固有のサイバーセキュリティ、AIのためのセクター固有のサイバーセキュリティ)で構成され、AIシステムの信頼性を確保するために、優れたサイバーセキュリティの実践に従うためのステップバイステップのアプローチを提供することを目的としている。
・Cybersecurity and privacy in AI: two use cases: forecasting demands on electricity grids and medical imaging diagnosis ・AIにおけるサイバーセキュリティとプライバシー:2つのユースケース:電力網の需要予測と医療画像診断
Both reports outline cybersecurity and privacy threats as well as vulnerabilities that can be exploited in each use case. The analysis focused on machine learning related threats and vulnerabilities, while taking into account broader AI considerations. However, the focus of the work is on privacy issues, as these have now become one of the most important challenges facing society today. Security and privacy being intimately related, and both equally important, a balance must be found to meet related requirements. The report reveals though that the efforts to optimise security and privacy can often come at the expense of system performance.  両報告書は、サイバーセキュリティとプライバシーの脅威、および各ユースケースで悪用される可能性のある脆弱性の概要を説明している。分析では、より広範なAIに関する考察を考慮しつつ、機械学習関連の脅威と脆弱性に焦点を当てた。しかし、プライバシー問題は、現在、社会が直面する最も重要な課題の一つとなっているため、本研究では、プライバシー問題に焦点をあてている。セキュリティとプライバシーは密接に関連しており、どちらも同様に重要であるため、関連する要件を満たすためにバランスを取る必要がある。しかし、セキュリティとプライバシーを最適化するための努力は、しばしばシステムの性能を犠牲にすることがあることを、本報告書は明らかにしている。 
・AI and cybersecurity research: ・AIとサイバーセキュリティの研究
The report identifies 5 key research needs for further research on AI for cybersecurity and on securing AI for future EU policy developments and funding initiatives. Such needs include the development of penetration testing tools to identify security vulnerabilities or the development of standardised frameworks to assess privacy and confidentiality among others. 報告書は、サイバーセキュリティのためのAIに関するさらなる研究、および将来のEUの政策展開や資金調達のためのAI確保に関する5つの主要な研究ニーズを明らかにしている。このようなニーズには、セキュリティの脆弱性を特定するための侵入テストツールの開発や、プライバシーと機密性を評価するための標準化されたフレームワークの開発などが含まれる。
Target audience 想定読者
Private or public entities including the cybersecurity and privacy community: to support risk analysis, identification of cybersecurity and privacy threats and selecting of the most adequate security and privacy controls; サイバーセキュリティとプライバシーのコミュニティを含む民間または公的機関:リスク分析、サイバーセキュリティとプライバシーの脅威の特定、最も適切なセキュリティとプライバシーコントロールの選択を支援する;
AI technical community, AI cybersecurity and privacy experts and AI experts with an interest in developing secure solutions and adding security and privacy by design to their solutions. AI技術コミュニティ、AIサイバーセキュリティ・プライバシー専門家、AI専門家で、安全なソリューションの開発やソリューションにセキュリティとプライバシー・バイ・デザインを追加することに関心のある方。
Further Information 詳しい情報
Multilayer framework for good cybersecurity practices for AI – ENISA report 2023 AIに適したサイバーセキュリティの実践のための多層フレームワーク - ENISA報告書2023年版
Cybersecurity and privacy in AI – Forecasting demand on electricity grids – ENISA report 2023 AIにおけるサイバーセキュリティとプライバシー - 電力網の需要予測 - ENISA報告書2023年版
Cybersecurity and privacy in AI – Medical imaging diagnosis – ENISA report 2023 AIにおけるサイバーセキュリティとプライバシー -医療用画像診断- ENISA報告書2023年版
Artificial Intelligence and Cybersecurity Research – ENISA report 2023 人工知能とサイバーセキュリティの研究 - ENISA報告書2023年版
Cybersecurity of AI and standardisation – ENISA report March 2023 AIのサイバーセキュリティと標準化 - ENISA報告書2023年3月号
Mind the Gap in Standardisation of Cybersecurity for Artificial Intelligence – ENISA Press Release 人工知能のサイバーセキュリティの標準化におけるギャップに留意せよ - ENISAプレスリリース
Securing Machine Learning Algorithms – ENISA report 2021 機械学習アルゴリズムの安全性 - ENISA報告書2021年版
ENISA topic – Artificial Intelligence ENISAのトピック - 人工知能
The proposal AI Act AI法の提案
The proposal Cyber Resilience Act サイバーレジリエンス法の提案

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.06.12 ENISA AIとセキュリティに関する4つの報告書を公表していますね。。。(2023.06.07)

・2023.06.12 ENISA AIに適したサイバーセキュリティの実践のための多層フレームワーク (2023.06.07)

・2023.06.12 ENISA AIにおけるサイバーセキュリティとプライバシー - 電力網の需要予測 (2023.06.07)

・2023.06.12 ENISA AIにおけるサイバーセキュリティとプライバシー -医療用画像診断 (2023.06.07)

・2023.06.12 ENISA 人工知能とサイバーセキュリティの研究 (2023.06.07)

 

 

|

« 米国 CISA FBI NSA イスラエル リモートアクセスソフトウェアのセキュリティ確保のためのガイド (2023.06.06) | Main | ENISA AIに適したサイバーセキュリティの実践のための多層フレームワーク (2023.06.07) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 CISA FBI NSA イスラエル リモートアクセスソフトウェアのセキュリティ確保のためのガイド (2023.06.06) | Main | ENISA AIに適したサイバーセキュリティの実践のための多層フレームワーク (2023.06.07) »