« 米国 FTCのブログ チャットボット、ディープフェイク、ボイスクローン:AIによるインチキを売り物にする | Main | ENISA 輸送セクターのサイバー脅威状況 »

2023.03.22

ENISA AIのサイバーセキュリティと標準化 (2023.03.14)

こんにちは、丸山満彦です。

ENISAがAIのサイバーセキュリティと標準化についての報告書を公表していますね。。。

これ、AIのリスク管理の面でも、法と標準の関係、AIのサイバーセキュリティというとどこまでを射程にいれるのか?という意味でも重要かもです。

AIはソフトだからソフトウェアに関するリスクは概ね当てはまる、、、その上で機械学習に特有のリスクについて考えるべきという考え方には同意です。。。

 

提言が8つほどしめされています。。。

5.2.1 すべての組織への提言
提言1:信頼性の特性やAIシステムに特有のさまざまなタイプの攻撃の分類法を含む、サイバーセキュリティのための標準化・調和されたAI用語を使用する。
5.2.2 標準策定組織への提言 
提言2:ソフトウェアのサイバーセキュリティに関連する既存の標準をAIに適用する方法について、具体的/技術的なガイダンスを作成する。また、多くの場合、汎用的な規格の適用が容易な、異なるレベル(AIシステム自体の前、例えば、インフラストラクチャ)の防御を含むべきである。同時に、技術開発によって標準化が制限される分野(例えば、継続的な学習に依存するシステムのテストと検証、AI特有の攻撃の緩和など)を監視し、奨励することが推奨される。
提言3:MLに固有の特徴を規格に反映させるべきである。考慮すべき最も明白な側面は、ハードウェア/ソフトウェアコンポーネントをAIと関連付けることによるリスク軽減、信頼できるメトリクス、およびテスト手順に関するものである。また、データとAIコンポーネントの両方のトレーサビリティとリネージも反映されるべきである。
提言4:信頼性の特性(監視、堅牢性、正確性、説明可能性、透明性など)やデータ品質に関するAI標準にサイバーセキュリティ上の潜在的な懸念が含まれるように、サイバーセキュリティ専門委員会とAI専門委員会の間にリエゾンが設置されていることを確認する。
5.2.3 AI法ドラフトの実施に向けた提言 
提言5:AIが幅広い領域で適用可能であることを踏まえ、サイバーセキュリティリスクの特定と適切なセキュリティ要件の決定は、システム固有の分析と、必要に応じてセクター固有の基準に依存すべきである。分野別標準は、水平的な標準の上に首尾一貫して効率的に構築されるべきである。
提言6:標準化が技術開発によって制限されている分野において、一方では特定の技術(例えば、敵対的攻撃への対策に関するもの)の進歩に資金を提供し、他方では研究活動において標準化の側面を統合することの重要性に対する認識を高めることにより、研究開発を奨励する。さらに、特殊な条件下で機能する特殊なアプローチの拡散によって特徴づけられる研究開発努力を導くために、体系的なアプローチによるベンチマークを促進することが提案される。
言7:適合性評価を行う関係者のツールや能力に関する基準の策定を支援する。
提言8:AI法ドラフトとサイバーセキュリティに関する他の立法イニシアティブ、特に規則(EU)2019/881(サイバーセキュリティ法)およびデジタル要素を持つ製品の水平サイバーセキュリティ要件に関する規則(サイバーレジリエンス法)の提案COM(2022)454との一貫性を確保することである。

 

Annexの表も情報の整理という意味ではよいですよね。。。

 

ENISA

・2023.03.14 Cybersecurity of AI and Standardisation

Cybersecurity of AI and Standardisation AIのサイバーセキュリティと標準化
The overall objective of the present document is to provide an overview of standards (existing, being drafted, under consideration and planned) related to the cybersecurity of artificial intelligence (AI), assess their coverage and identify gaps in standardisation. It does so by considering the specificities of AI, and in particular machine learning, and by adopting a broad view of cybersecurity, encompassing both the ‘traditional’ confidentiality–integrity–availability paradigm and the broader concept of AI trustworthiness. Finally, the report examines how standardisation can support the implementation of the cybersecurity aspects embedded in the proposed EU regulation laying down harmonised rules on artificial intelligence (COM(2021) 206 final) (draft AI Act). 本書の全体的な目的は、人工知能(AI)のサイバーセキュリティに関連する標準(既存、ドラフト中、検討中、計画中)の概要を提供し、その適用範囲を評価し、標準化におけるギャップを特定することである。これは、AI、特に機械学習の特異性を考慮し、サイバーセキュリティの広い視野を採用することで、「伝統的な」機密性、完全性、可用性のパラダイムとAIの信頼性という広い概念の両方を包含することで実現されている。最後に、本報告書では、人工知能に関する調和のとれたルールを定めたEU規制案(COM(2021) 206 final)(AI法ドラフト)に盛り込まれたサイバーセキュリティ面の実施を、標準化がいかに支援できるかを検証している。

 

・[PDF] Cybersecurity of AI and Standardisation

20230322-00904

 

目次...

TABLE OF CONTENTS  目次 
1. INTRODUCTION 1. 序文
1.1 DOCUMENT PURPOSE AND OBJECTIVES 1.1 文書の目的および目標
1.2 TARGET AUDIENCE AND PREREQUISITES 1.2 ターゲット層と前提条件
1.3 STRUCTURE OF THE STUDY 1.3 研究の構造
2. SCOPE OF THE REPORT: DEFINITION OF AI AND CYBERSECURITY OF AI 2. 報告書の範囲:AIの定義とAIのサイバーセキュリティについて
2.1 ARTIFICIAL INTELLIGENCE 2.1 人工知能
2.2 CYBERSECURITY OF AI 2.2 AIのサイバーセキュリティ
3. STANDARDISATION IN SUPPORT OF CYBERSECURITY OF AI 3. AIのサイバーセキュリティを支援する標準化
3.1 RELEVANT ACTIVITIES BY THE MAIN STANDARDS-DEVELOPING ORGANISATIONS 3.1 主要な規格開発組織による関連活動
3.1.1 CEN-CENELEC 3.1.1 CEN-CENELEC
3.1.2 ETSI 3.1.2 ETSI
3.1.3 ISO-IEC 3.1.3 ISO-IEC
3.1.4 Others 3.1.4 その他
4. ANALYSIS OF COVERAGE 4. カバレッジ分析
4.1 STANDARDISATION IN SUPPORT OF CYBERSECURITY OF AI – NARROW SENSE 4.1 AIのサイバーセキュリティを支える標準化 ・狭義の意味での標準化
4.2 STANDARDISATION IN SUPPORT OF THE CYBERSECURITY OF AI – TRUSTWORTHINESS 4.2 AI のサイバーセキュリティを支える標準化 ・信頼性
4.3 CYBERSECURITY AND STANDARDISATION IN THE CONTEXT OF THE DRAFT AI ACT 4.3 ai actのドラフトと関連したサイバーセキュリティと標準化
5. CONCLUSIONS 5. 結論
5.1 WRAP-UP 5.1 報告書のまとめ
5.2 RECOMMENDATIONS 5.2 提言
5.2.1 Recommendations to all organisations 5.2.1 すべての組織への提言
5.2.2 Recommendations to standards-developing organisations 5.2.2 規格策定組織への提言
5.2.3 Recommendations in preparation for the implementation of the draft AI Act 5.2.3 AI法ドラフトの実施に向けた提言
5.3 FINAL OBSERVATIONS 5.3 最終的な見解
A ANNEX: A 附属書
A.1 SELECTION OF ISO 27000 SERIES STANDARDS RELEVANT TO THE CYBERSECURITY OF AI A.1 AIのサイバーセキュリティに関連するISO27000シリーズ規格の選択
A.2 RELEVANT ISO/IEC STANDARDS PUBLISHED OR PLANNED / UNDER DEVELOPMENT A.2 関連する ISO/IEC 規格が発行されている、または計画されている/開発中である。
A.3 CEN-CENELEC JOINT TECHNICAL COMMITTEE 21 AND DRAFT AI ACT REQUIREMENTS A.3 CEN-CENELEC合同技術委員会21およびAi法ドラフト要求事項
A.4 ETSI ACTIVITIES AND DRAFT AI ACT REQUIREMENTS A.4 ETSIの活動とAi法ドラフトの要件

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY  エグゼクティブサマリー 
The overall objective of the present document is to provide an overview of standards (existing, being drafted, under consideration and planned) related to the cybersecurity of artificial intelligence (AI), assess their coverage and identify gaps in standardisation. It does so by considering the specificities of AI, and in particular machine learning, and by adopting a broad view of cybersecurity, encompassing both the ‘traditional’ confidentiality–integrity–availability paradigm and the broader concept of AI trustworthiness. Finally, the report examines how standardisation can support the implementation of the cybersecurity aspects embedded in the proposed EU regulation laying down harmonised rules on artificial intelligence (COM(2021) 206 final) (draft AI Act).  本書の全体的な目的は、人工知能(AI)のサイバーセキュリティに関連する標準(既存、ドラフト中、検討中、計画中)の概要を提供し、その適用範囲を評価し、標準化におけるギャップを特定することである。これは、AI、特に機械学習の特異性を考慮し、サイバーセキュリティの広い視野を採用することで、「伝統的な」機密性-完全性-可用性のパラダイムとAIの信頼性という広い概念の両方を包含することで実現される。最後に、本報告書は、人工知能に関する調和された規則を定めたEU規則案(COM(2021) 206 final)(AI法ドラフト)に盛り込まれたサイバーセキュリティの側面の実施を、標準化がいかにサポートできるかを検証している。
The report describes the standardisation landscape covering AI, by depicting the activities of the main Standards-Developing Organisations (SDOs) that seem to be guided by concern about insufficient knowledge of the application of existing techniques to counter threats and vulnerabilities arising from AI. This results in the ongoing development of ad hoc reports and guidance, and of ad hoc standards.  本報告書では、AIを対象とした標準化の状況を、AIから生じる脅威や脆弱性に対抗するための既存技術の適用に関する知識不足を懸念していると思われる主要な標準化団体(SDO)の活動によって描写している。その結果、アドホックな報告書やガイダンス、アドホックな規格が継続的に開発されることになる。
The report argues that existing general purpose technical and organisational standards (such as ISO-IEC 27001 and ISO-IEC 9001) can contribute to mitigating some of the risks faced by AI with the help of specific guidance on how they can be applied in an AI context. This consideration stems from the fact that, in essence, AI is software and therefore software security measures can be transposed to the AI domain.  本報告書では、既存の汎用技術・組織規格(ISO-IEC 27001やISO-IEC 9001など)が、AIの文脈でどのように適用できるかという具体的なガイダンスの助けを借りて、AIが直面するリスクの一部を軽減することに貢献できると論じている。この考察は、本質的にAIはソフトウェアであり、したがってソフトウェアのセキュリティ対策はAIの領域に転用できるという事実に起因している。
The report also specifies that this approach is not exhaustive and that it has some limitations. For example, while the report focuses on software aspects, the notion of AI can include both technical and organisational elements beyond software, such as hardware or infrastructure. Other examples include the fact that determining appropriate security measures relies on a system-specific analysis, and the fact that some aspects of cybersecurity are still the subject of research and development, and therefore might be not mature enough to be exhaustively standardised. In addition, existing standards seem not to address specific aspects such as the traceability and lineage of both data and AI components, or metrics on, for example, robustness.  また、報告書は、このアプローチが網羅的ではなく、いくつかの制約があることを明記している。例えば、報告書はソフトウェアの側面に焦点を当てているが、AIの概念には、ハードウェアやインフラなど、ソフトウェア以外の技術的・組織的な要素も含まれ得る。また、適切なセキュリティ対策を決定するためには、システム固有の分析に依存するという事実や、サイバーセキュリティのいくつかの側面はまだ研究開発の対象であり、したがって、網羅的に標準化するほど成熟していないかもしれないという事実も含まれている。さらに、既存の規格では、データやAIコンポーネントのトレーサビリティやリネージ、堅牢性などの指標といった特定の側面には対応していないようである。
The report also looks beyond the mere protection of assets, as cybersecurity can be considered as instrumental to the correct implementation of trustworthiness features of AI and – conversely –the correct implementation of trustworthiness features is key to ensuring cybersecurity. In this context, it is noted that there is a risk that trustworthiness is handled separately within AIspecific and cybersecurity-specific standardisation initiatives. One example of an area where this might happen is conformity assessment.  また、本報告書では、単なる資産の保護にとどまらず、サイバーセキュリティはAIの信頼性機能を正しく実装するための道具であると考えられ、逆に、信頼性機能を正しく実装することがサイバーセキュリティを確保するための鍵であるとしている。この文脈では、AIに特化した標準化とサイバーセキュリティに特化した標準化の取り組みにおいて、信頼性が別々に扱われるリスクがあることに留意する必要がある。このようなことが起こりうる分野の一例として、適合性評価が挙げられる。
Last but not least, the report complements the observations above by extending the analysis to the draft AI Act. Firstly, the report stresses the importance of the inclusion of cybersecurity aspects in the risk assessment of high-risk systems in order to determine the cybersecurity risks that are specific to the intended use of each system. Secondly, the report highlights the lack of standards covering the competences and tools of the actors performing conformity assessments. Thirdly, it notes that the governance systems drawn up by the draft AI Act and the Cybersecurity Act (CSA)[1] should work in harmony to avoid duplication of efforts at national level.  最後になるが、報告書は、AI法のドラフトに分析を拡張することで、上記の見解を補完している。まず、報告書は、高リスクシステムのリスク評価において、各システムの使用目的に特化したサイバーセキュリティリスクを決定するために、サイバーセキュリティの側面を含めることの重要性を強調している。第二に、報告書は、適合性評価を行う関係者の能力とツールをカバーする基準がないことを強調している。第三に、AI法ドラフトとサイバーセキュリティ法(CSA)[1]によって策定されたガバナンスシステムは、国レベルでの努力の重複を避けるために調和して機能すべきであることを指摘している。
Finally, the report concludes that some standardisation gaps might become apparent only as the AI technologies advance and with further study of how standardisation can support cybersecurity.  最後に、報告書は、AI技術が進歩し、標準化がサイバーセキュリティをどのようにサポートできるかをさらに検討することによって初めて、いくつかの標準化のギャップが明らかになるかもしれないと結論付けている。
[1] Regulation (EU) 2019/881 of the European Parliament and of the Council of 17 April 2019 on ENISA (the European Union Agency for Cybersecurity) and on information and communications technology cybersecurity certification and repealing Regulation (EU) No 526/2013 (Cybersecurity Act) .  [1] ENISA(欧州連合サイバーセキュリティ機関)および情報通信技術のサイバーセキュリティ認証に関する2019年4月17日の欧州議会および理事会の規則(EU)2019/881および規則(EU)No 526/2013(サイバーセキュリティ法)を廃止する規則

 

結論...

5.   CONCLUSIONS  5.   結論 
This section sums up the report and recommends actions to ensure standardisation support to the cybersecurity of AI, and to the implementation of the draft AI Act.  このセクションでは、報告書を総括し、AIのサイバーセキュリティに対する標準化支援を確保し、AI法のドラフトを実施するためのアクションを推奨するものである。
5.1   WRAP-UP  5.1 報告書のまとめ 
The study suggests that general-purpose standards for information security and quality management (in particular ISO/IEC 27001, ISO/IEC 27002 and ISO/IEC 9001) can partially mitigate the cybersecurity risks related to the confidentiality, integrity and availability of AI systems. This conclusion relies on the assumption that AI is in its essence software, and therefore what is applicable to software can be applied to AI, if adequate guidance is provided.  本研究では、情報セキュリティと品質マネジメントの汎用規格(特にISO/IEC 27001、ISO/IEC 27002、ISO/IEC 9001)が、AIシステムの機密性、完全性、可用性に関するサイバーセキュリティリスクを部分的に軽減することができると示唆している。この結論は、AIは本質的にソフトウェアであり、したがって、適切なガイダンスが提供されれば、ソフトウェアに適用できるものはAIにも適用できるという仮定に依存している。
This approach can suffice at a general level but needs to be complemented by a systemspecific analysis (e.g. relying on ISO/IEC 15408-1:2009), as the identification of standardised methods supporting the CIA security objectives is often domain specific. It is a matter of debate to what extent the assessment of compliance with the resulting security requirements can be based on AI-specific horizontal standards and to what extent it can be based on vertical/sectorspecific standards.  このアプローチは一般的なレベルでは十分であるが、CIAのセキュリティ目標をサポートする標準化された方法の特定は、多くの場合、ドメイン固有であるため、システム固有の分析(例えば、ISO/IEC 15408-1:2009に依存する)によって補完する必要がある。結果として得られるセキュリティ要件への準拠を評価する際に、どの程度までAI固有の水平標準に基づき、どの程度まで垂直/分野固有の標準に基づくことができるかは、議論の余地があるところである。
Still, some standardisation gaps have been identified:  それでも、いくつかの標準化のギャップが確認されている。
•           the traceability of processes is addressed by several standards, but the traceability of the data and AI components throughout their life cycles remains an issue that cuts across most threats and remains largely unaddressed in practice, despite being covered well in various standards or drafts (e.g. ISO/IEC DIS 42001 on AI management systems [1] and the ISO/IEC CD 5259 series on data quality for analytics and ML[2]);  ・プロセスのトレーサビリティは、いくつかの規格で取り上げられているが、データとAIコンポーネントのライフサイクルのトレーサビリティは、様々な規格やドラフト(AIマネジメントシステムに関するISO/IEC DIS 42001[1]や分析及びMLのためのデータ品質に関するISO/IEC CD 5259シリーズ[2]など)で十分に取り上げられているものの、ほとんどの脅威にまたがり、実際にはほとんど対処されていない問題である。
•           the inherent features of ML are not fully reflected in existing standards, especially in terms of metrics and testing procedures;  ・MLに固有の特徴は,特に測定基準やテスト手順の点で,既存の標準に十分に反映されていない。
•           in some areas, existing standards cannot be adapted or new standards cannot be fully defined yet, as related technologies are still being developed and not yet quite mature enough to be standardised.  ・関連する技術がまだ開発中であり,標準化できるほど成熟していないため、既存の標準を適用できない、あるいは新しい標準をまだ完全に定義できない分野もある。
Going beyond the mere CIA paradigm and considering the broader trustworthiness perspective, the main takeaway is that, since cybersecurity cuts across a number of trustworthiness requirements (e.g. data governance, transparency), it is important that standardisation activities around these requirements treat cybersecurity in a coherent manner.  単なるCIAのパラダイムを超えて、より広範な信頼性の観点を考慮すると、サイバーセキュリティは多くの信頼性要件(データガバナンス、透明性など)を横断するため、これらの要件に関する標準化活動がサイバーセキュリティを一貫した方法で扱うことが重要であるということが主な要点である。
Concerning the implementation of the draft AI Act, besides the considerations above, the following gaps have been identified:  AI法ドラフトの実施に関して、上記の検討事項の他に、以下のギャップが確認されている。
•           to date there are no standards that adequately cover cybersecurity and describe the competences of organisations for auditing, certification and testing of AI systems (and AI management systems) and their evaluators;  ・サイバーセキュリティを適切にカバーし、AIシステム(およびAIマネジメントシステム)の監査、認証、テストを行う組織とその評価者の能力を記述した規格は、現在までに存在しない。
•           the abovementioned gap on areas that are the subject of R&D is relevant to the implementation of the draft AI Act, in particular with respect to data poisoning and adversarial examples.  ・研究開発の主体となっている領域に関する上記のギャップは,特にデータポイズニングと敵対的な例に関して,AI法のドラフトの実施に関連している。
5.2   RECOMMENDATIONS  5.2 提言
5.2.1         Recommendations to all organisations  5.2.1 すべての組織への提言
The ESOs have made a commitment to standardisation in support of cybersecure AI, as is evidenced by ETSI’s ISG SAI and by CEN’s JTC 21. These actions are all positive and are to be encouraged and reinforced.  ESOは、ETSIのISG SAIやCENのJTC 21で証明されているように、サイバーセキュアなAIをサポートするための標準化にコミットしている。これらの行動はすべて肯定的なものであり、奨励・強化されるべきものである。
While it is recognised that the ESOs have different operational models and different membership profiles, it is also recognised that the ESOs operate cooperatively in many fields, and this is, again, to be encouraged. Competitive effort to develop standards is to some extent inevitable and, while that is recognised, the ESOs are strongly discouraged from negative competition. One area where harmonisation is seen as essential is in the adoption of a common AI-related terminology and set of concepts not only across SDOs but also with other stakeholders. The present report does not suggest which SDO/ESO should initiate this activity but it is strongly suggested that, without a common set of cross-domain terminology and concepts, the first risk to cybersecurity would be not understanding each other[3].  ESOの運営モデルやメンバー構成はそれぞれ異なるが、ESOが多くの分野で協力的に活動していることも認識されており、これもまた奨励されるべきことである。規格開発における競争はある程度避けられないものであり、そのことは認識されているが、ESOは否定的な競争を強く推奨している。調和が不可欠と考えられる分野の1つは、SDO間だけでなく、他の利害関係者とも共通のAI関連用語と一連の概念を採用することである。本報告書では、どのSDO/ESOがこの活動を開始すべきかを示唆していないが、領域横断的な用語と概念の共通セットがなければ、サイバーセキュリティに対する最初のリスクは、お互いを理解しないことであると強く示唆されている[3]。
Recommendation 1: Use a standardised and harmonised AI terminology for cybersecurity, including trustworthiness characteristics and a taxonomy of different types of attacks specific to AI systems.  提言1:信頼性の特性やAIシステムに特有のさまざまなタイプの攻撃の分類法を含む、サイバーセキュリティのための標準化・調和されたAI用語を使用する。
5.2.2         Recommendations to standards-developing organisations  5.2.2 標準策定組織への提言 
The following recommendations are to standardisation organisations.  以下の勧告は、標準化組織に対するものである。
Recommendation 2: Develop specific/technical guidance on how existing standards related to the cybersecurity of software should be applied to AI. These should also include defences at different levels (before the AI system itself, e.g. infrastructure), for which the application of generic standards might be straightforward in many cases. At the same time, it is recommended to monitor and encourage areas where standardisation is limited by technological development, e.g. testing and validation for systems relying on continuous learning and mitigation of some AIspecific attacks.  提言2:ソフトウェアのサイバーセキュリティに関連する既存の標準をAIに適用する方法について、具体的/技術的なガイダンスを作成する。また、多くの場合、汎用的な規格の適用が容易な、異なるレベル(AIシステム自体の前、例えば、インフラストラクチャ)の防御を含むべきである。同時に、技術開発によって標準化が制限される分野(例えば、継続的な学習に依存するシステムのテストと検証、AI特有の攻撃の緩和など)を監視し、奨励することが推奨される。
Recommendation 3: The inherent features of ML should be reflected in standards. The most obvious aspects to be considered relate to risk mitigation by associating hardware/software components with AI; reliable metrics; and testing procedures. The traceability and lineage of both data and AI components should also be reflected.  提言3:MLに固有の特徴を規格に反映させるべきである。考慮すべき最も明白な側面は、ハードウェア/ソフトウェアコンポーネントをAIと関連付けることによるリスク軽減、信頼できるメトリクス、およびテスト手順に関するものである。また、データとAIコンポーネントの両方のトレーサビリティとリネージも反映されるべきである。
Recommendation 4: Ensure that liaisons are established between cybersecurity technical committees and AI technical committees so that AI standards on trustworthiness characteristics (oversight, robustness, accuracy, explainability, transparency, etc.) and data quality include potential cybersecurity concerns.  提言4:信頼性の特性(監視、堅牢性、正確性、説明可能性、透明性など)やデータ品質に関するAI標準にサイバーセキュリティ上の潜在的な懸念が含まれるように、サイバーセキュリティ専門委員会とAI専門委員会の間にリエゾンが設置されていることを確認する。
5.2.3 Recommendations in preparation for the implementation of the draft AI Act  5.2.3 AI法ドラフトの実施に向けた提言 
The following recommendations are suggested to prepare for the implementation of the draft AI Act, and should be understood as complementary to the recommendations above.  以下の勧告は、AI法ドラフトの実施に備えるために提案されたものであり、上記の勧告を補完するものとして理解されるべきである。
Recommendation 5: Given the applicability of AI in a wide range of domains, the identification of cybersecurity risks and the determination of appropriate security requirements should rely on a system-specific analysis and, where needed, sector-specific standards. Sectorial standards should build coherently and efficiently on horizontal ones.  言5:AIが幅広い領域で適用可能であることを踏まえ、サイバーセキュリティリスクの特定と適切なセキュリティ要件の決定は、システム固有の分析と、必要に応じてセクター固有の基準に依存すべきである。分野別標準は、水平的な標準の上に首尾一貫して効率的に構築されるべきである。
Recommendation 6: Encourage R&D in areas where standardisation is limited by technological development, on one hand by providing funding for the advancements in specific technologies (e.g. related to countermeasures against adversarial attacks) and on the other by raising awareness of the importance of integrating standardisation aspects in research activities. In addition, it is suggested to promote benchmarking by means of a systematic approach to guide R&D efforts, which are still characterised by a proliferation of specialised approaches that work under specialised conditions.  提言6:標準化が技術開発によって制限されている分野において、一方では特定の技術(例えば、敵対的攻撃への対策に関するもの)の進歩に資金を提供し、他方では研究活動において標準化の側面を統合することの重要性に対する認識を高めることにより、研究開発を奨励する。さらに、特殊な条件下で機能する特殊なアプローチの拡散によって特徴づけられる研究開発努力を導くために、体系的なアプローチによるベンチマークを促進することが提案される。
Recommendation 7: Support the development of standards for the tools and competences of the actors performing conformity assessment.  提言7:適合性評価を行う関係者のツールや能力に関する基準の策定を支援する。
Recommendation 8: Ensure coherence between the draft AI Act and other legislative initiatives on cybersecurity, notably Regulation (EU) 2019/881 (the Cybersecurity Act) and the proposal COM(2022) 454 for a regulation on horizontal cybersecurity requirements for products with digital elements (the Cyber Resilience Act).  提言8:AI法ドラフトとサイバーセキュリティに関する他の立法イニシアティブ、特に規則(EU)2019/881(サイバーセキュリティ法)およびデジタル要素を持つ製品の水平サイバーセキュリティ要件に関する規則(サイバーレジリエンス法)の提案COM(2022)454との一貫性を確保することである。
5.3   FINAL OBSERVATIONS  5.3 最終的な見解 
While the report gives an overview of the state of play of standardisation in support of AI, it is likely that additional standardisation gaps and needs may become apparent only as the AI technologies advance and with further study of how standardisation can support cybersecurity. Concerning the implementation of the AI Act, the importance of some gaps may vary depending on how the conformity assessment will be conceived. Last but not least, changes in the legislative landscape, with particular reference to the proposal for a Cyber Resilience Act, are expected to affect standardisation needs.  本報告書は、AIを支える標準化の現状を概観するものであるが、AI技術の進展や、標準化がサイバーセキュリティをどのように支えることができるかについての更なる検討によって初めて、さらなる標準化のギャップやニーズが明らかになる可能性があるものと思われる。AI法の実施に関しては、適合性評価の考え方によって、いくつかのギャップの重要性が異なる可能性がある。最後になるが、サイバーレジリエンス法の提案に特に言及した立法状況の変化は、標準化の必要性に影響を及ぼすと予想される。
[1] ISO/IEC DIS 42001, Information technology — Artificial intelligence — Management system (under development)  [1] ISO/IEC DIS 42001、情報技術-人工知能-マネジメントシステム(開発中)。
[2] The series is under development (https://www.iso.org/ics/35.020/x/)  [2] シリーズは開発中である 
[3] Two horizontal terminology-related standards (ISO/IEC 22989 and ISO/IEC 23053) have been published recently (June and July 2022). JTC 21 will base all its work on ISO/IEC terminology.  [3] 最近(2022年6月と7月)、2つの水平方向の用語関連規格(ISO/IEC 22989とISO/IEC 23053)が発表されました。JTC 21は、すべての作業をISO/IEC用語集をベースに行う。

 

|

« 米国 FTCのブログ チャットボット、ディープフェイク、ボイスクローン:AIによるインチキを売り物にする | Main | ENISA 輸送セクターのサイバー脅威状況 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 FTCのブログ チャットボット、ディープフェイク、ボイスクローン:AIによるインチキを売り物にする | Main | ENISA 輸送セクターのサイバー脅威状況 »