« 欧州連合理事会がePrivacyルールについて合意し、欧州議会に提出されることになったようですね。。。 | Main | NIST NISTIR 8323 基本的なPNTプロファイル:測位・航法・計時(PNT)サービスの責任ある使用のためのサイバーセキュリティフレームワークの適用 »

2021.02.12

ENISA 人工知能を使った自律走行におけるサイバーセキュリティの課題

こんにちは、丸山満彦です。

ENISAが自動運転車の人工知能に関連するサイバーセキュリティリスクを調査し、それらを軽減するための推奨事項を示した報告書を公表していますね。。。

ENISA 

・2021.02.12 (PRESS) Cybersecurity Challenges in the Uptake of Artificial Intelligence in Autonomous Driving

A report by the European Union Agency for Cybersecurity (ENISA) and the Joint Research Centre (JRC) looks at cybersecurity risks connected to Artificial Intelligence (AI) in autonomous vehicles and provides recommendations for mitigating them.

・2021.02.11 (Publication) Cybersecurity Challenges in the Uptake of Artificial Intelligence in Autonomous Driving

・[PDF

 

EXECUTIVE SUMMARY エグゼクティブ・サマリー
1. INTRODUCTION 1. 序論
1.1  Definitions 1.1 定義
1.2  Scope 1.2 範囲
1.3  Target audience 1.3 想定読者
1.4  EU and international policy context 1.4 EUと国際政策の背景
2. AI TECHNIQUES IN AUTOMOTIVE FUNCTIONS 2. 自動化機能におけるAI技術
2.1  AI in autonomous vehicles 2.1 自律走行車におけるAI
2.1.1 High-level automotive functions 2.1.1 ハイレベルな自動車機能
2.2 Hardware and sensors 2.2 ハードウェアとセンサー
2.2.1 LIDARs and cameras for computer vision 2.2.1 コンピュータビジョン用のLIDARとカメラ
2.3 AI techniques 2.3 AI技術
2.3.1 Machine learning: paradigms and methodologies 2.3.1 機械学習:パラダイムと方法論
2.3.2 Relevant application fields in autonomous driving 2.3.2 自律走行の関連応用分野
2.4 AI software in automotive systems 2.4 自動車システムにおけるAIソフトウェア
2.4.1 Perception 2.4.1 認識
2.4.2 Planning 2.4.2 計画
2.4.3 Control 2.4.3 制御
2.4.4 Infotainment and vehicle interior monitoring 2.4.4 インフォテインメントと車内モニタリング
2.4.5 Current trends in AI research for autonomous driving 2.4.5 自律走行に向けたAI研究の現状の動向
2.5 Mapping between automotive functionalities, hardware and software  components and AI techniques 2.5 自動車の機能性、ハードウェアとソフトウェアのコンポーネントとAI技術のマッピング
3. CYBERSECURITY OF AI TECHNIQUES IN AUTONOMOUS DRIVING CONTEXTS 3. 自動運転コンテクストにおけるAI技術のサイバーセキュリティ
3.1 Vulnerabilities of AI for autonomous driving 3.1 自律走行のためのAIの脆弱性
3.1.1 Adversarial machine learning 3.1.1 敵対的機械学習
3.1.2 Adversarial examples in computer vision 3.1.2 コンピュータビジョンにおける敵対的な例
3.1.3 AI-based physical attacks against autonomous vehicles 3.1.3 自律走行車に対するAIによる物理攻撃
3.2 Attack scenarios related to AI in autonomous driving 3.2 自律走行におけるAIに関する攻撃シナリオ
3.2.1 Attack scenarios   3.2.1 攻撃シナリオ  
3.2.2 Illustration: Fooling a traffic sign recognition system 3.2.2 図解:交通標識認識システムを騙す
4. AI CYBERSECURITY CHALLENGES AND RECOMMENDATIONS FOR AUTONOMOUS DRIVING 4. 自動運転におけるAIサイバーセキュリティの課題と提言
4.1 Systematic security validation of AI models and data 4.1 AIモデルとデータの体系的なセキュリティ検証
4.2 Supply chain challenges related to AI cybersecurity   4.2 AIサイバーセキュリティに関連するサプライチェーンの課題  
4.3 End-to-end holistic approach for integrating AI cybersecurity with traditional  cybersecurity principles 4.3 AIサイバーセキュリティと従来のサイバーセキュリティ原則を統合するためのエンドツーエンドの全体的アプローチ
4.4 Incident handling and vulnerability discovery related to AI and lessons learned 4.4 AIに関するインシデント対応と脆弱性発見と教訓
4.5 Limited capacity and expertise on AI cybersecurity in the automotive industry 4.5 自動車産業におけるAIサイバーセキュリティに関する限られた能力と専門知識
References 参考文献

 

エグゼクティブ・サマリー

↓↓↓↓↓↓↓↓↓↓


















EXECUTIVE SUMMARY エグゼクティブ・サマリー
New generations of cars are making use of advances in the field of Artificial Intelligence (AI) to provide semi-autonomous and autonomous driving capabilities, achieving a technological breakthrough that will strongly impact existing behaviours and practices. Beyond the undeniable benefits of autonomous driving for many aspects of our societies, the question of the safety and security of this technology, which by definition is intended to operate with limited human supervision, has emerged. The answers provided by regulatory bodies on these issues are likely to play an important role for the adoption of autonomous vehicles (AVs) in society. This is all the more important given that machine learning (ML) techniques, at the core of the AI components developed to mimic human cognitive capabilities, have been proven to be highly vulnerable to a wide range of attacks that could compromise the proper functioning of autonomous vehicles, and pose serious threats to the safety of persons, both inside and outside of a vehicle. In this context, understanding the AI techniques used for autonomous driving and their vulnerabilities in the cybersecurity threat landscape is essential to alleviate the risks and ensure that benefits will not be counterbalanced by stronger safety risks. 新世代の自動車は、人工知能(AI)分野の進歩を利用して半自律走行や自律走行の機能を提供しており、既存の行動や習慣に強い影響を与える技術的なブレークスルーを達成しています。自律走行が社会の様々な面でメリットをもたらすことは否定できないが、限られた人間の監視下で運転することを前提としたこの技術の安全性と安心感についての疑問が浮上してきています。これらの問題に対する規制当局の回答は、社会における自律走行車(AV)の採用に重要な役割を果たすことになるでしょう。人間の認知能力を模倣するために開発されたAIコンポーネントの中核をなす機械学習(ML)技術は、自律走行車の適切な機能を損なう可能性のある様々な攻撃に対して非常に脆弱であることが証明されており、車の内外を問わず人の安全を脅かす重大な脅威となっていることを考えると、このことはさらに重要です。このような観点から、自律走行に使用されるAI技術とその脆弱性をサイバーセキュリティの脅威ランドスケープで理解することは、リスクを軽減し、より強い安全リスクによって利益が相殺されないようにするために不可欠といえます。
Cybersecurity of AVs is classically approached through the angle of the security of digital systems. This is all the more relevant as modern vehicles are fully controlled by electronic components, vulnerable to physical and remote attacks exploiting classical cybersecurity vulnerabilities. With this report however, the objective is to raise awareness about the potential risks connected to the AI components in charge of replicating tasks previously addressed by human drivers, such as making sense of the environment or taking decisions on the behaviours of the vehicle. By their nature, those AI components do not obey the same rules as traditional software: ML techniques are indeed relying on implicit rules that are grounded on the statistical analysis of large collections of data. While this enables automation to reach unprecedented cognitive capabilities, it opens at the same time new opportunities for malicious actors, who can exploit the high complexity of AI systems to their own advantage. Securing such systems requires to consider these AI specific issues on top of the traditional cybersecurity risks connected to digital systems, in the context of the full supply chain involved in their development and of their integration with other automotive systems. AVのサイバーセキュリティは、古典的にはデジタルシステムのセキュリティという角度からアプローチされています。現代の自動車は電子部品で完全に制御されており、古典的なサイバーセキュリティの脆弱性を悪用した物理的・遠隔的な攻撃に対して脆弱であるため、これはより重要な意味を持ちます。しかし、このレポートの目的は、環境を理解したり、車両の行動を決定したりするなど、以前は人間の運転手が対応していたタスクを再現するAIコンポーネントに関連した潜在的なリスクについての認識を高めることにあります。これらのAIコンポーネントは、その性質上、従来のソフトウェアと同じルールには従いません。MLの技術は、大規模なデータの統計分析に基づいた暗黙のルールに頼っています。これにより、自動化が前例のない認知能力に達することが可能になりますが、同時に、AIシステムの高い複雑性を悪用して自分たちに有利になるように悪意のある行為者に新たな機会を与えることにもなります。このようなシステムのセキュリティを確保するためには、デジタルシステムに関連する従来のサイバーセキュリティリスクに加えて、その開発や他の自動車システムとの統合に関わるサプライチェーン全体の文脈で、これらのAI特有の問題を考慮する必要があります。
This report aims to provide insights on the cybersecurity challenges specifically connected to the uptake of AI techniques in autonomous vehicles. It starts by describing the dynamic policy context with which this initiative is aligned, at both the European and international levels. Institutional and private actors have been very active to outline the high-level principles and standards that should govern the development of AV, either explicitly, with dedicated automotive guidelines, or through the definition of sets of practices driving the expansion of AI and cybersecurity. In this respect, the European institutions have conducted various initiatives for developing trustworthy AI, where cybersecurity and intelligent transportation play a significant role. 本報告書の目的は、自律走行車へのAI技術の導入に特に関連したサイバーセキュリティの課題についての洞察を提供することです。本報告書は、まず、欧州および国際的なレベルで、このイニシアチブと連携しているダイナミックな政策の背景を説明しています。制度上および民間の関係者は、自動車専用のガイドラインを明示的に、あるいはAIとサイバーセキュリティの拡大を推進する一連のプラクティスを定義することで、AVの開発を支配すべきハイレベルの原則と基準を概説するために非常に積極的に活動してきました。この点で、欧州の機関は、サイバーセキュリティとインテリジェントな交通が重要な役割を果たす信頼性の高いAIを開発するための様々なイニシアチブを実施してきました。
Subsequently, this report delves into the technical aspects of AI in the automotive sector, with the aims to better comprehend the technological concerns of AI, as well as to get a sense of the level of integration of AI in AV. This includes an extended description of the areas in which AI plays a role, to ensure the proper implementation of cognitive capabilities inside automotive systems. Autonomous driving requires addressing a host of smaller subtasks (recognizing traffic signs or roads, detecting vehicles, estimating their speed, planning the path of the vehicle, etc.), each of them trivially performed by humans, but requiring carefully engineered AI systems to automatically address them. AI software components in an AV do not form a monolithic system, but rather rely on a complex combination of large and varied collections of data, themselves obtained by several types of sensors, and a rich set of AI methodologies, based on scientific works from statistics, mathematics, computing, and robotics. Starting from the high-level functions, an extended description of the landscape combining AI techniques, sensors, data types, and cognitive tasks highlights the sheer abundance of approaches and ideas that have made AV a reality. We claim that the understanding of these technical elements in the automotive context is essential to put into perspective their cybersecurity implications of these AI-based components. A mapping of automotive functions to AI techniques is provided to highlight the connections between automotive and scientific concepts, making direct links between automotive functionalities, intermediate subtasks, and ML techniques. その上で、本報告書では、AIの技術的な課題をより深く理解するとともに、AV分野におけるAIの統合度を把握することを目的として、自動車分野におけるAIの技術的な側面を掘り下げています。また、自動車システムに認知機能を適切に実装するために、AIが果たすべき役割についても詳しく解説しています。自律運転では、多くの小さなサブタスク(交通標識や道路の認識、車両の検出、速度の推定、車両の進路の計画など)に対処する必要があります。AVの中のAIソフトウェアコンポーネントは、一つのシステムからなるのではなく、複数の種類のセンサーによって得られる膨大で多様なデータと、統計学、数学、計算機、ロボット工学などの科学的研究に基づいた豊富なAI方法論の複雑な組み合わせに依存しています。高レベルの機能から始まり、AI技術、センサー、データタイプ、認知タスクを組み合わせた風景を拡張して説明することで、AVを現実のものにしたアプローチやアイデアが非常に豊富であることを明らかにしています。私たちは、自動車の文脈におけるこれらの技術的要素を理解することが、これらのAIベースのコンポーネントのサイバーセキュリティへの影響を視野に入れるために不可欠であると主張しています。また、自動車の機能とAI技術のマッピングを行い、自動車の機能、中間的なサブタスク、ML技術の間の直接的なリンクを作りながら、自動車と科学的な概念の間のつながりを強調しています。
After this technical presentation, a state-of-the-art literature survey on security of AI in the automotive context discusses the main concepts behind the cybersecurity of AI for autonomous cars. Security of AI in general lies outside the scope of this report, and the interested reader is referred to the recently published ENISA AI Threat Landscape [1] to get the full picture on this matter. Instead, a focus is specifically made on adversarial machine learning that regroups a set of techniques that are currently the main approaches susceptible to compromise AI components of AVs. They allow a malicious actor to design specific attacks that could deceive AI systems while staying undetectable by human supervisors. Concretely, carefully crafted patterns can be disseminated in the environment to alter the decision-making process and induce unexpected behaviour of the vehicle. Typical examples include adding paint on the road to misguide the navigation, or stickers on a stop sign to prevent its recognition. Despite the complexity to undertake these kinds of attacks, and in particular to make them undetectable by human eyes, the dire consequences in terms of safety should encourage car manufacturers to implement defence mechanisms to mitigate these type of AI risks. The description of these attacks, which may not necessarily require access to the internal system of the vehicle, is accompanied by real-world cases involving autonomous or semi-autonomous cars fooled by attackers. This is subsequently illustrated, both theoretically and experimentally, by realistic attack scenarios against the AI components of vehicles, extending the discussion to other types of vulnerabilities of AI. この技術の説明の後、自動車の文脈におけるAIのセキュリティに関する最新の文献調査を紹介しています。ここでは、自律走行車のためのAIのサイバーセキュリティの背後にある主な概念について議論します。一般的なAIのセキュリティは本報告書の範囲外であり、興味のある読者は、この問題の全体像を把握するために、最近出版されたENISA AI Threat Landscape [1]を参照してください。この報告書では、現在AVのAIコンポーネントを危険にさらす可能性のある主要なアプローチである一連の技術を再グループ化した敵対的機械学習に焦点を当てています。この手法により、悪意のあるアクターは、人間の監視者に検出されないようにしながら、AI システムを欺くことができる特定の攻撃を設計することができるようになります。具体的には、慎重に作られたパターンを環境内に拡散させて、意思決定プロセスを変更したり、車両の予期せぬ挙動を誘導したりすることができます。典型的な例としては、ナビゲーションを誤誘導するために道路にペンキを塗ったり、ストップサインにステッカーを貼って認識されないようにしたりすることが挙げられます。この種の攻撃を実行するための複雑さ、特に人間の目では検出できないようにするための複雑さにもかかわらず、安全性の面で悲惨な結果となることから、自動車メーカーはこの種のAIリスクを軽減するための防御機構を実装することを奨励すべきです。このような攻撃は、必ずしも車両の内部システムへのアクセスを必要としないかもしれませんが、本報告書では攻撃者に騙された自律走行車や半自律走行車の実例を交えて説明しています。このことは、理論的にも実験的にも、自動車のAIコンポーネントに対する現実的な攻撃シナリオによって説明され、AIの他のタイプの脆弱性にも議論を広げています。
In conclusion of this report, a set of challenges and recommendations is provided to improve AI security in AVs and mitigate potential threats and risks. This is motivated by the importance of relying on the pillars that have been at the core of cybersecurity methodologies developed along the years for traditional software, while at the same time taking into account the particularities of AI systems. In light of the connections between AI and AVs brought forward in this report and their consequences in terms of security, the following recommendations are put forward. 本報告書の結論として、AVにおけるAIセキュリティを向上させ、潜在的な脅威とリスクを軽減するための一連の課題と提言を提示しています。これは、従来のソフトウェアのために長年にわたって開発されてきたサイバーセキュリティの方法論の中核となってきた柱に頼ることの重要性と同時に、AIシステムの特殊性を考慮に入れることの重要性に動機づけられています。本報告書では、AIとAVの関連性とセキュリティ面での影響を考慮し、以下のような提言を行っています。
Systematic security validation of AI models and data AIモデルとデータの体系的なセキュリティ検証
Data and AI models play an important role in the implementation of autonomous capabilities in AVs. These components are dynamic in nature and can change their behaviour overtime as they learn from new data, are updated by manufacturers, or encounter unexpected or intentionally manipulated data. データとAIモデルは、AVにおける自律機能の実装において重要な役割を果たしています。これらのコンポーネントは動的な性質を持っており、新しいデータから学習したり、メーカーによって更新されたり、予想外のデータや意図的に操作されたデータに遭遇したりすることで、時間の経過とともに挙動が変化する可能性があります。
This requires that the security and robustness assessments of AI components do not just take place at a given point in time during their development, but instead are systematically performed throughout their lifecycle. This systematic validation of both AI models and data is essential to ensure the right behaviour of the vehicle when faced with either unexpected situations or malicious actions such as attacks based on the alteration of inputs, including poisoning and evasion attacks. This implies developing and maintaining strict continuous processes to make sure that data that are used at the development and production stages have not been altered with a malicious intent, and that models do not contain vulnerabilities that could be exploited. It also means that links between industrial actors and research centres have to be reinforced to address the challenges associated with the implementation of this systematic validation. このため、AIコンポーネントのセキュリティと堅牢性の評価は、開発中の特定の時点だけで行うのではなく、そのライフサイクル全体を通して体系的に行う必要があります。AIモデルとデータの両方を体系的に検証することは、予期せぬ状況や、ポイズニング攻撃や回避攻撃を含む入力の変更に基づく攻撃などの悪意のある行動に直面した場合に、車両の正しい挙動を確保するために不可欠です。これは、開発・生産段階で使用されるデータが悪意を持って改変されていないことを確認し、モデルに悪用される可能性のある脆弱性が含まれていないことを確認するために、厳格な継続的プロセスを開発・維持することを意味します。また、この系統的検証の実施に伴う課題に対処するためには、産業界の関係者と研究センターとの連携を強化しなければなりません。
AI supply chain security in the automotive industry 自動車産業におけるAIサプライチェーンセキュリティ
The security of the software and hardware supply chain is of paramount importance in cybersecurity. The increased uptake of AI technologies has further amplified this issue with the addition of complex and opaque ML algorithms, dedicated AI modules and third party pre-trained models that now become part of the supply chain. The particularities of the supply chains in the automotive sector, with large and complex dependencies on both hardware and software, add to this complexity. ソフトウェアとハードウェアのサプライチェーンのセキュリティは、サイバーセキュリティにおいて最も重要です。AI技術の利用の増加は、複雑で不透明なMLアルゴリズム、専用のAIモジュール、サードパーティの事前学習モデルがサプライチェーンの一部となることで、この問題をさらに増幅させています。ハードウェアとソフトウェアの両方に大きく複雑に依存している自動車業界のサプライチェーンの特殊性は、この複雑さに拍車をかけています。
Proper AI security policies should be established across the supply chain, including third-party providers, ensuring a proper governance and developing an AI security culture across the supply chain. Continuous risk assessment processes supported by threat intelligence could enable the relevant actors to promptly identify and monitor potential AI risks and emerging threats related to the update of AI in autonomous driving. Compliance with specific regulations in the automotive sector (such as UNECE R155 [2]) could be considered to ensure the security of the supply chain. 第三者プロバイダーを含むサプライチェーン全体で適切なAIセキュリティポリシーを確立し、適切なガバナンスを確保し、サプライチェーン全体でAIセキュリティ文化を発展させる必要があります。脅威インテリジェンスに支えられた継続的なリスク評価プロセスにより、関係者は、自律走行におけるAIのアップデートに関連する潜在的なAIリスクや新たな脅威を迅速に特定し、監視することができるようになるでしょう。サプライチェーンのセキュリティを確保するために、自動車分野における特定の規制(UNECE R155[2]など)への準拠を検討することが考えられます。
Cybersecurity processes and controls of AI techniques in autonomous driving 自律走行におけるAI技術のサイバースセキュリティプロセスと制御
The uptake of AI in autonomous driving brings about important cybersecurity concerns. The increased digitalization of vehicles and the inclusion of AI functionalities result in a larger attack surface and might significantly increase the incentives for attackers to target AVs. Cyberattacks against AVs do not only concern the particularities related to AI, but also include the security of the underlying digital infrastructure and related digital systems. It is thus crucial to evolve existing security processes and practices to consider this increased uptake of AI technologies and digitalization in vehicles, particularly in the context of autonomous driving. 自律走行におけるAIの活用は、重要なサイバーセキュリティ上の懸念をもたらします。車両のデジタル化が進み、AI機能が搭載されることで、攻撃対象が拡大し、AVを標的とする攻撃者のインセンティブが大幅に高まる可能性があります。AVに対するサイバー攻撃は、AIに関連した特殊性だけでなく、基礎となるデジタルインフラストラクチャと関連するデジタルシステムのセキュリティにも関係しています。このように、特に自律走行の文脈において、AI技術と自動車のデジタル化の増加を考慮して、既存のセキュリティプロセスと実践を進化させることが重要です。
The automotive industry should embrace a security by design approach for the development and deployment of AI functionalities. This could include the usage of standardised approaches and homogeneous interoperable AI solutions for automotive systems. It is important to promote a culture of cybersecurity (particularly on AI enabled vehicles) across the automotive ecosystem, developing best practices, promoting R&D and innovation and progressively integrating cybersecurity controls and assessments in the current industry processes connected to the lifecycle of autonomous driving AI products and services. 自動車業界は、AI 機能の開発と展開のために、セキュリティ・バイ・デザインのアプローチを採用すべきです。これには、自動車システムのための標準化されたアプローチと同種の相互運用可能なAIソリューションの使用が含まれます。自動車エコシステム全体で(特にAIを搭載した車両について)サイバーセキュリティの文化を促進し、ベストプラクティスを開発し、研究開発とイノベーションを促進し、自律走行AI製品とサービスのライフサイクルに関連する現在の業界プロセスにサイバーセキュリティの管理と評価を徐々に統合していくことが重要です。
Increase preparedness and incident response capabilities 備えとインシデント対応能力の向上
The current cybersecurity landscape connected to the uptake of AI in AVs is limited to theoretical analysis and experimental use case studies carried out in laboratories and controlled environments. However, the expected increase in the deployment of higher levels of automation in road vehicles could quickly change this picture. AV への AI の導入に関連した現在のサイバーセキュリティの状況は、理論的な分析と実験的な使用事例研究が研究室や制御された環境で行われたものに限られています。しかし、自動車におけるより高度な自動化の展開の増加が予想されることで、この状況は急速に変化する可能性があります。
It is important that the automotive sector increases its level of preparedness and reinforces its incident response capabilities to handle emerging cybersecurity issues connected to AI. This includes the establishment of cybersecurity incident handling and response plans based on standards, including vulnerability management processes and patch deployment strategies. Cyber exercises in the form of simulations can also be of help to better understand potential impacts of newly discovered vulnerabilities, raise awareness in the organisations, train the several actors, and evaluate existing plans and procedures. 自動車部門がAIに関連した新たなサイバーセキュリティ問題に対処するために、備えのレベルを高め、インシデント対応能力を強化することが重要である。これには、脆弱性管理プロセスやパッチ展開戦略を含む、標準に基づいたサイバーセキュリティのインシデント処理および対応計画の策定が含まれます。また、新たに発見された脆弱性の潜在的な影響をよりよく理解し、組織内の意識を高め、複数のアクターを訓練し、既存の計画や手順を評価するためには、シミュレーションの形でのサイバー演習も役立ちます。
Increase capacity and expertise on AI cybersecurity for automotive systems 自動車システムのAIサイバーセキュリティに関する能力と専門知識の向上
The digital transformation experienced by the automotive sector in the last decade with the growth of the adoption of digital components in vehicles has driven the industry to increasingly face cybersecurity challenges. The uptake of AI as an enabler for autonomous driving vehicles will further amplify this trend placing cybersecurity as one of the critical requirements to ensure safety and promote trust. 過去10年間に自動車部門が経験したデジタルトランスフォーメーションは、自動車へのデジタルコンポーネントの採用の増加に伴い、業界をサイバーセキュリティの課題にますます直面させています。自律走行車を実現するためのイネーブラーとしてのAIの導入は、この傾向をさらに増幅させ、サイバーセキュリティを安全性を確保し、信頼を促進するための重要な要件の1つとして位置づけています。
In this respect, the lack of sufficient security knowledge and expertise among developers and system designers on AI cybersecurity is a major barrier that hampers the integration of security in the automotive sector. The proper application of the security by design principle requires that all actors involved in the lifecycle of the product are sufficiently proficient on cybersecurity and work systematically together towards the common goal of building a secure product. AI cybersecurity cannot just be an afterthought where security controls are implemented as add-ons and defence strategies are of reactive nature. この点、AIサイバーセキュリティに関する開発者やシステム設計者の間に十分なセキュリティ知識や専門知識がないことが、自動車分野におけるセキュリティの統合を妨げる大きな障壁となっています。デザインによるセキュリティの原則を適切に適用するためには、製品のライフサイクルに関わるすべての関係者がサイバーセキュリティについて十分な知識を持ち、安全な製品を構築するという共通の目標に向かって体系的に協力する必要があります。AIのサイバーセキュリティは、セキュリティ対策がアドオンとして実装され、防御戦略が反応的な性質を持つような後付けのものであってはなりません。
Particularly in the automotive sector, cybersecurity is a multidisciplinary endeavour. This is especially true for AI systems that are usually designed by computer scientists and further implemented and integrated by engineers. AI systems should be designed, implemented and deployed by teams where the automotive domain expert, the ML expert and the cybersecurity expert collaborate. 特に自動車分野では、サイバーセキュリティは学際的な取り組みです。これは、通常、コンピュータ科学者によって設計され、エンジニアによってさらに実装され、統合されるAIシステムに特に当てはまります。AIシステムは、自動車分野の専門家、MLの専門家、サイバーセキュリティの専門家が協力して、チームで設計、実装、配備する必要があります。

|

« 欧州連合理事会がePrivacyルールについて合意し、欧州議会に提出されることになったようですね。。。 | Main | NIST NISTIR 8323 基本的なPNTプロファイル:測位・航法・計時(PNT)サービスの責任ある使用のためのサイバーセキュリティフレームワークの適用 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 欧州連合理事会がePrivacyルールについて合意し、欧州議会に提出されることになったようですね。。。 | Main | NIST NISTIR 8323 基本的なPNTプロファイル:測位・航法・計時(PNT)サービスの責任ある使用のためのサイバーセキュリティフレームワークの適用 »