英国 国家サイバーセキュリティセンター 人工知能 (AI) のサイバーセキュリティに関する研究 (2024.05.15)
こんにちは、丸山満彦です。
科学技術革新省、国家サイバーセキュリティセンターが、人工知能 (AI) のサイバーセキュリティに関する研究として、AIサイバーセキュリティリスクについてのいくつかの文書を公表していました...
見逃していましたね...
読み応えあります...
Cyber security risks to artificial intelligence | AIサイバーセキュリティリスク | HTML | |
AI cyber security survey - main report | AIサイバーセキュリティ調査 - 主要報告書 | HTML | |
AI cyber security survey - technical report | AIサイバーセキュリティ調査 - 技術報告書 | HTML | |
Cyber security for AI recommendations | AIサイバーセキュリティに関する提言 | ||
Study of research and guidance on the cyber security of AI | AIサイバーセキュリティに関する調査研究とガイダンス |
● GOV.UK
プレス...
・2024.05.15 Developers given new tools to boost cyber security in AI models as cyber security sector sees record growth
Developers given new tools to boost cyber security in AI models as cyber security sector sees record growth | サイバーセキュリティ分野が記録的な成長を遂げる中、AIモデルのサイバーセキュリティを強化する新たなツールが開発者に提供される |
New measures, anticipated to establish a global benchmark for enhancing the protection of AI models against hacking and sabotage, were unveiled today by the UK government. | ハッキングや妨害行為に対するAIモデルの防御を強化するための世界的な基準を確立することが期待される新たな対策が、英国政府によって本日発表された。 |
・UK government introduces two codes of practice to enhance cyber security in AI and software, boosting UK economy’s security and growth prospects | ・英国政府は、AIとソフトウェアのサイバーセキュリティを強化するための2つの実践規範を導入し、英国経済のセキュリティと成長の見通しを後押しする。 |
・new measures aimed at developers will establish global standard for protecting AI models from hacking, helping businesses innovate and drive economic growth across the nation | ・開発者を対象とした新たな防御策は、AIモデルをハッキングから保護するための世界標準を確立し、企業のイノベーションを支援し、国全体の経済成長を促進する。 |
・launched as new figures show cyber security sector has grown 13% in last year and is now worth almost £12 billion | ・新たな数字によると、サイバーセキュリティ分野は昨年13%成長し、現在120億ポンド近い規模となっている。 |
New measures which are expected to set a global standard on how to bolster protections of AI models from hacking and sabotage have been unveiled today by the UK government (15th May). | ハッキングや妨害行為からAIモデルの防御を強化する方法について、世界標準となることが期待される新たな対策が、英国政府によって本日(5月15日)発表された。 |
During a speech at CYBERUK, the government’s flagship cyber security conference, Technology Minister Saqib Bhatti announced two new codes of practice which will help developers improve cyber security in AI models and software, putting the UK economy on an even stronger footing to grow safely and helping the government achieve long term growth for the British economy. | 政府の主要なサイバーセキュリティ会議であるCYBERUKでのスピーチで、サキブ・バッティ技術担当大臣は、開発者がAIモデルとソフトウェアのサイバーセキュリティを改善するのを助ける2つの新しい実践規範を発表した。 |
The codes set out requirements for developers to make their products resilient against tampering, hacking, and sabotage and will boost confidence in the use of AI models across most industries, helping businesses improve efficiencies, drive growth, and turbocharge innovation. | この規範は、開発者が改ざん、ハッキング、妨害行為に対してレジリエンスに優れた製品を作るための要件を定めており、ほとんどの産業でAIモデルの使用に対する信頼を高め、企業が効率性を向上させ、成長を促進し、イノベーションを加速させるのに役立つだろう。 |
In the last 12 months, half of businesses (50%) and a third of charities (32%) reported cyber breaches or attacks, and phishing remained the most common type of breach. The codes introduced today show developers how software can be built in a secure way, with the aim of preventing attacks such as the one on the MoveIT software in 2023 which compromised sensitive data in thousands of organisations around the world. | 過去12ヶ月の間に、企業の半数(50%)と慈善団体の3分の1(32%)がサイバー侵害や攻撃を報告し、フィッシングが最も一般的な侵害のタイプであった。今日導入された規範は、世界中の何千もの組織の機密データを危険にさらした2023年のMoveITソフトウェアのような攻撃を防止することを目的として、ソフトウェアが安全な方法で構築される方法を開発者に示すものである。 |
Technology Minister Saqib Bhatti said: | サキブ・バッティ技術相は次のように述べた: |
We have always been clear that to harness the enormous potential of the digital economy, we need to foster a safe environment for it to grow and develop. This is precisely what we are doing with these new measures, which will help make AI models resilient from the design phase. | 我々は常に、デジタル経済の巨大な可能性を活用するためには、デジタル経済が成長・発展するための安全な環境を育成する必要があることを明確にしてきた。これはまさに、AIモデルを設計段階からレジリエンスに優れたものにする助けとなるものである。 |
Today’s report shows not only are we making our economy more resilient to attacks, but also bringing prosperity and opportunities to UK citizens up and down the country. It is fantastic to see such robust growth in the industry, helping us cement the UK’s position as a global leader in cyber security as we remain committed to foster the safe and sustainable development of the digital economy. | 本日の報告書は、我々の経済が攻撃に対するレジリエンスを高めているだけでなく、英国市民に繁栄と機会をもたらしていることを示している。デジタル経済の安全で持続可能な発展を促進するために引き続き尽力する中で、サイバーセキュリティの世界的リーダーとしての英国の地位を確固たるものにする一助となる。 |
The new measures come as findings of a new report published today show the cyber security sector has experienced a 13% growth on the previous year and is now worth almost £12 billion, on par with sectors such as the automotive industry. | 本日発表された新たな報告書によると、サイバーセキュリティ部門は前年比13%の成長を遂げ、その規模は120億ポンド近くに達し、自動車産業などと肩を並べるまでになった。 |
The findings are reported by the government’s annual Cyber Sectoral Analysis Report and show the number of cyber security firms finding home in the UK has risen in 2023, strengthening the UK’s resilience to attacks and propelling sustainable economic growth. | この調査結果は、政府の年次サイバー部門分析報告書により報告されたもので、2023年に英国に拠点を見つけるサイバーセキュリティ企業の数が増加し、英国の攻撃に対するレジリエンスを強化し、持続可能な経済成長を促進することを示している。 |
The new codes of practice will improve cyber security in AI and software, while new government action on cyber skills will help develop the cyber workforce and ensure the UK has the people it needs to protect the nation online. | 新しい実践規範は、AIとソフトウェアのサイバーセキュリティを改善し、サイバー・スキルに関する政府の新たな行動は、サイバー人材の育成を支援し、英国がオンラインで国家を守るために必要な人材を確保することを確実にする。 |
NCSC CEO Felicity Oswald said: | NCSCのフェリシティ・オズワルド最高経営責任者(CEO)は、次のように述べた: |
To make the most of the technological advances which stand to transform the way we live, cyber security must be at the heart of how we develop digital systems. | 我々の生活様式を一変させる技術の進歩を最大限に活用するためには、サイバーセキュリティをデジタルシステム開発の中心に据える必要がある。 |
The new codes of practice will help support our growing cyber security industry to develop AI models and software in a way which ensures they are resilient to malicious attacks. | 新しい実践規範は、成長するサイバーセキュリティ業界を支援し、悪意ある攻撃に対するレジリエンスを保証する方法でAIモデルとソフトウェアを開発するのに役立つだろう。 |
Setting standards for our security will help improve our collective resilience and I commend organisations to follow these requirements to help keep the UK safe online. | セキュリティの標準を設定することは、我々の集団的なレジリエンスを改善することにつながり、英国のオンライン上の安全を守るために、組織がこれらの要件に従うことを称賛する。 |
These measures are crucial for new businesses in the digital age, ensuring cybersecurity commitment, safeguarding personal data for users, and fostering global alignment for enhanced cyber resilience. | これらの措置は、デジタル時代の新しいビジネスにとって極めて重要であり、サイバーセキュリティへのコミットメントを確保し、ユーザーの個人データを保護し、サイバーレジリエンス強化のためのグローバルな連携を促進するものである。 |
The AI cyber security code is intended to form the basis of a future global standard. | AIサイバーセキュリティ・コードは、将来の世界標準の基礎を形成することを意図している。 |
Rosamund Powell, Research Associate at The Alan Turing Institute, said: | アラン・チューリング機構のリサーチ・アソシエイトであるロザムンド・パウエル氏は、次のように述べている: |
AI systems come with a wide range of cyber security risks which often go unaddressed as developers race to deploy new capabilities. The code of practice released today provides much-needed practical support to developers on how to implement a secure-by-design approach as part of their AI design and development process. | AIシステムには広範なサイバーセキュリティリスクが伴うが、開発者が新機能の導入に躍起になるあまり、対処されないことが多い。本日発表された実践規範は、AIの設計・開発プロセスの一環として、セキュア・バイ・デザイン・アプローチを導入する方法について、開発者が切望していた実践的支援を提供するものである。 |
Plans for it to form the basis of a global standard are crucial given the central role international standards already play in addressing AI safety challenges through global consensus. Research highlights the need for inclusive and diverse working groups, accompanied by incentives and upskilling for those who need them, to ensure the success of global standards like this. | 世界的なコンセンサスを通じてAIの安全性の課題に取り組む上で、国際標準がすでに中心的な役割を果たしていることを考えると、この標準が世界標準の基礎を形成する計画は極めて重要である。調査では、このようなグローバル標準を成功させるためには、包括的で多様な作業部会と、それを必要とする人々へのインセンティブとスキルアップが必要であることが強調されている。 |
Today also marks the publication of the Capability Hardware Enhanced RISC Instructions (CHERI) report, introducing a new microprocessor technology known as “magic chip,” which integrates advanced memory protections to prevent up to 70% of current cyber-attacks. | 本日はまた、「マジックチップ」として知られる新しいマイクロプロセッサー技術を紹介する「Capability Hardware Enhanced RISC Instructions (CHERI)」報告書の公表を記念し、現在のサイバー攻撃の最大70%を防止する高度なメモリ保護を統合した。 |
Alongside this, Minister Bhatti announced this morning new initiatives on how the government and regulators will professionalise the cyber security sector, such as incorporating cyber roles into government recruitment and HR policies. | これと並行して、バッティ大臣は今朝、政府と規制当局がサイバーセキュリティ分野の専門化をどのように進めるかについて、政府の採用・人事政策にサイバー分野の役割を組み込むなどの新たな取り組みを発表した。 |
The minister also spoke about his intention to foster cyber skills among young people and inspire them into cyber careers, with the UK launching a campaign to encourage entries to a brand new national cyber skills competition for 18–25-year-olds later this year. The competition will give the winners the opportunity to represent the UK at international cyber competitions. | 同大臣はまた、若者のサイバー・スキルを育成し、サイバー・キャリアへの意欲を喚起する意向を示し、英国は今年後半、18〜25歳を対象とした全く新しい全国サイバー・スキル・コンテストへの応募を奨励するキャンペーンを開始することを明らかにした。このコンテストの優勝者には、英国代表として国際的なサイバーコンテストに参加する機会が与えられる。 |
Notes to editors | 編集後記 |
・Call for views on AI Cyber Security | ・AIサイバーセキュリティに関する意見募集 |
・Call for views on the Code of Practice for Software Resilience and Security. | ・ソフトウェアのレジリエンスとセキュリティに関する実践規範に関する意見募集 |
・Figures detailing the extent of cyber attacks and breaches on businesses and charities are from the government’s Cyber Security Breaches Survey 2024 which was published on 9 April 2024 with the research carried out in late 2023 and early 2024. | ・企業や慈善団体に対するサイバー攻撃や侵害の程度を詳細に示す数値は、2023年末から2024年初めにかけて調査が実施され、2024年4月9日に発表された政府のサイバーセキュリティ侵害調査2024によるものである。 |
・Government’s statement on the adoption of cyber professional standards. | ・サイバー専門家標準の採用に関する政府の声明。 |
・Call for views on the future of the CyberFirst scheme. | ・サイバーファースト・スキームの将来についての意見募集。 |
・New statistics detailing the growth of the UK cyber security sector can be found in the 2024 Cyber Security Sectoral Analysis Report. | ・英国のサイバーセキュリティ分野の成長を詳細に示す新たな統計は、2024年サイバーセキュリティ分野分析報告書に掲載されている。 |
・To read more about the “magic chip” technology, please see the CHERI adoption and diffusion research report | ・マジック・チップ」技術の詳細については、CHERIの採用・普及調査報告書を参照のこと。 |
This work is part of the government’s £2.6 billion National Cyber Strategy to protect and promote the UK online. | この作業は、英国をオンラインで保護し促進するための政府の26億ポンドの国家サイバー戦略の一環である。 |
The government is also launching a consultation on scaling up the impact of the successful CyberFirst scheme, which has helped improve the tech skills of 260,000 students across 2,500 schools. | 政府はまた、2,500校で26万人の生徒の技術スキル改善を支援し、成功を収めたサイバーファースト・スキームの影響拡大に関する協議も開始している。 |
AIサイバーセキュリティリスク
・2024.05.15 Research on the cyber security of AI
・Cyber security risks to artificial intelligence
目次...
Executive summary | エグゼクティブサマリー |
1.Introduction | 1.序文 |
2.Methodology | 2.方法論 |
3.Background | 3.背景 |
4.Findings of the risk assessment | 4.リスクアセスメントの結果 |
5.List of case studies | 5.ケーススタディのリスト |
6.Client interview insights | 6.クライアント・インタビューの洞察 |
Appendix 1 - References | 附属書1 - 参考文献 |
Executive summary | エグゼクティブサマリー |
The Department for Science, Innovation and Technology commissioned Grant Thornton UK LLP and Manchester Metropolitan University to develop an assessment of the cyber security risks to Artificial Intelligence (AI). The assessment aimed to identify and map vulnerabilities across the AI lifecycle and assess the exploitation and impact of each vulnerability, delineating software vulnerabilities and those specific to AI to help contextualise the findings. | 科学技術革新省は、Grant Thornton UK LLPとマンチェスター・メトロポリタン大学に人工知能(AI)のサイバーセキュリティリスクのアセスメントを依頼した。アセスメントの目的は、AIのライフサイクル全体にわたる脆弱性を特定・マッピングし、各脆弱性の悪用と影響を評価することである。 |
The assessment comprised two literature reviews, evaluating two distinct but complementary research streams: academic literature, and government and industry reports. The findings were also integrated with feedback from cross-sector client and expert interviews. Cross-validation was applied across research publications and a cut-off point of 10th February 2024 was set for publications to ensure that the report was based on the latest analysis considering the ever-changing technological landscape. | アセスメントは2つの文献レビューで構成され、学術文献、政府および産業界の報告書という2つの異なるが補完的な研究の流れを評価した。調査結果は、分野横断的な顧客や専門家へのインタビューからのフィードバックとも統合された。また、変化し続ける技術状況を考慮し、最新の分析に基づいた報告書を作成するため、研究発表のクロスバリデーションを行い、2024年2月10日を発表の締め切り日とした。 |
The literature reviews identified a series of vulnerabilities, including specific ones to AI across each phase of the AI lifecycle, namely design, development, deployment, and maintenance. The vulnerabilities have been comprehensively mapped across each phase of the AI lifecycle, with an assessment of their exploitation and impact (see Section 4). To offer additional perspective on the potential risks, a set of 23 case studies were identified, both real-world and theoretical proof of concepts, involving cyber-attacks linked to AI vulnerabilities (see Section 5). | 文献レビューでは、AIのライフサイクルの各段階(設計、開発、配備、保守)において、AIに特有の脆弱性を含む一連の脆弱性が特定された。脆弱性は、AIのライフサイクルの各段階にわたって包括的にマッピングされ、その悪用と影響のアセスメントが行われている(セクション4参照)。潜在的なリスクについてさらなる視点を提供するため、AIの脆弱性に関連したサイバー攻撃を含む、現実世界と理論的な概念実証の両方を含む23のケーススタディが特定された(セクション5参照)。 |
Insights gained from interviews with 5 clients, from the Insurance, Banking, and Media domains demonstrated the market readiness and the practical implications of AI vulnerabilities. The findings categorised organisations into two distinct groups: those unaware of AI’s use and consequent cyber security risks within their operations, and those recognising these risks yet lacking internal expertise for risk assessment and management. | 保険、銀行、メディアの各分野のクライアント5社とのインタビューから得られた洞察は、AI脆弱性の市場対応力と実際的な意味合いを示した。調査結果は、組織を2つの異なるグループに分類した。すなわち、AIの使用とその結果生じるサイバーセキュリティリスクに気づいていない組織と、これらのリスクを認識しながらもリスクアセスメントとマネジメントのための専門知識を社内に持たない組織である。 |
The current literature on the cyber security risks to AI, does not contain a single comprehensive evaluation of AI-specific cyber security risks across each stage of the AI lifecycle. This risk assessment has therefore aimed to fill this gap, whilst building on the important contributions made by industry and other governments. This has been delivered by thoroughly evaluating the potential exploitation, impact, and AI-specific cyber security risks associated with each lifecycle phase. Additionally, as noted above, the report mapped cyber-attacks that have originated from vulnerabilities in AI systems. | AIのサイバーセキュリティリスクに関する現在の文献には、AIのライフサイクルの各段階におけるAI特有のサイバーセキュリティリスクについて包括的に評価したものはない。そのため、このリスクアセスメントは、産業界や他の政府による重要な貢献を踏まえつつ、このギャップを埋めることを目的としている。これは、ライフサイクルの各段階に関連する潜在的な悪用、影響、AI特有のサイバーセキュリティ・リスクを徹底的に評価することによって実現された。さらに、上述の通り、報告書はAIシステムの脆弱性に起因するサイバー攻撃をマッピングした。 |
The report also highlighted that the rapid adoption of AI continues to introduce complex cyber security risks that traditional practices may not sufficiently address. A holistic approach to address the cyber risks across the entire AI lifecycle is essential. By mitigating vulnerabilities at every stage of the AI lifecycle, organisations can bolster robust security measures and fortify resilience against evolving cyber threats. | また、報告書は、AIの急速な普及により、従来の手法では十分に対処できない複雑なサイバーセキュリティリスクが導入され続けていることを強調している。AIのライフサイクル全体にわたるサイバーリスクに対処するための総合的なアプローチが不可欠である。AIのライフサイクルの各段階で脆弱性を低減することで、組織は強固なセキュリティ対策を強化し、進化するサイバー脅威に対するレジリエンスを強化することができる。 |
AIサイバーセキュリティ調査 - 主要報告書
・AI cyber security survey - main report
1.Executive summary | 1.エグゼクティブサマリー |
2.Introduction | 2.序文 |
3.Methodology | 3.方法論 |
4.AI usage | 4.AIの利用 |
5.Cyber security practices around AI | 5.AIを取り巻くサイバーセキュリティ慣行 |
6.General cyber security practices | 6.一般的なサイバーセキュリティ対策 |
7.Appendix: Glossary | 7.附属書 用語集 |
1. Executive summary | 1. エグゼクティブサマリー |
Introduction | 序文 |
The Department for Science, Innovation and Technology (DSIT) commissioned IFF Research to conduct a survey of businesses in key sectors to understand how they use Artificial Intelligence (AI) and how businesses implement cyber security practices and processes around the AI technology they deploy. | 科学技術革新省(DSIT)は、IFFリサーチ社に委託して、主要分野の企業を対象に、人工知能(AI)をどのように利用しているか、また、企業が導入するAI技術に関連するサイバーセキュリティの慣行やプロセスをどのように導入しているかを把握するための調査を実施した。 |
The quantitative survey was developed in collaboration with DSIT. Fieldwork was conducted using Computer Assisted Telephone Interviewing (CATI) and took place between 10th January and 13th February 2024. A total of 350 interviews were completed with businesses currently using or considering using AI in nine sectors (see page 6 for more details) so that the survey had a robust number of participants. | 定量的調査はDSITと共同で開発された。フィールドワークは、コンピュータ支援電話インタビュー(CATI)を使用し、2024年1月10日から2月13日の間に実施された。現在AIを使用している、または使用を検討している9分野(詳細は6ページを参照)の企業に対し、合計350件のインタビューが行われた。 |
The core objectives of the research were to understand: | 調査の主な目的は以下の通りである: |
・What types of technology are being used, and for what purpose; | ・どのようなテクノロジーが、どのような目的で使用されているのか; |
・Businesses’ cyber security practices – in general terms, and specific to AI; | ・企業のサイバーセキュリティ対策(一般論として、またAIに特化して); |
・Businesses’ future plans in relation to AI and cyber security; and | ・AIとサイバーセキュリティに関する企業の将来計画 |
・How these activities and attitudes vary across businesses in different sectors and of different sizes. | ・これらの活動や態度は、異なるセクターや規模の企業間でどのように異なるか。 |
A glossary which includes definitions of the different types of AI can be found in the Appendix at the end of this report. | 異なる種類のAIの定義を含む用語集は、本レポート末尾の附属書に掲載されている。 |
Key findings | 主な調査結果 |
The survey sought to create a robust sample base of businesses that were adopting at least one AI technology as well as businesses that planned to adopt AI in the future to ensure robust findings could be drawn. 68% of these businesses in the survey were currently using at least one AI technology, while 32% had plans to adopt AI in the future. Of the businesses currently using AI, 64% were deploying one type of AI technology, 22% were using two types of AI and 14% were using three or more. | 本調査では、少なくとも1つのAI技術を導入している企業、および将来的にAIを導入する予定がある企業から、確実な調査結果を導き出すために、しっかりとしたサンプルベースを作成することを目指した。調査対象企業の68%が現在少なくとも1つのAI技術を利用しており、32%が将来的にAIを導入する予定であった。現在AIを使用している企業のうち、64%が1種類のAI技術を導入しており、22%が2種類、14%が3種類以上のAIを使用していた。 |
Among those currently using AI, natural language processing and generation was most common with 38% of businesses deploying it. 27% utilised machine learning, 25% used computer vision, image processing and generation, 9% used hardware related to AI and 8% used robotic process automation. | 現在AIを使用している企業のうち、自然言語処理と生成的AIが最も多く、38%の企業が導入していた。27%が機械学習を、25%がコンピューター・ビジョン、画像処理、生成的AIを、9%がAI関連のハードウェアを、8%がロボティック・プロセス・オートメーションを利用している。 |
For each type of AI technology, over half of businesses have been using it for at least one year. In the case of machine learning, over half of businesses (52%) have been using it for over 3 years. Among those who have not yet deployed AI but have plans to do so, they most commonly planned to do this – across all AI technologies – in more than a year’s time. | 各タイプのAI技術について、半数以上の企業が少なくとも1年以上使用している。機械学習の場合、半数以上(52%)の企業が3年以上使用している。まだAIを導入していないが、導入する予定がある企業では、すべてのAIテクノロジーにおいて、1年以上後に導入する予定が最も多かった。 |
Each AI technology was most commonly adopted through the purchase of external software or ready-to-use systems (ranging from 38% to 60%). Around one in five businesses developed machine learning (21%) and hardware related to AI (19%) in-house. AI development most likely to be outsourced was for hardware related to AI (34%). The main reason cited for using AI technologies was financial or cost savings to their business (35%). 14% employed it to help write documents. 13% cited speed and efficiency purposes, and a further 12% used it for content generation more broadly. | 各AIテクノロジーは、外部ソフトウェアやすぐに使えるシステムの購入を通じて導入するのが最も一般的だった(38%~60%)。機械学習(21%)とAI関連のハードウェア(19%)を自社開発した企業は、約5社に1社だった。AI開発を外注する割合が最も高かったのは、AI関連のハードウェア(34%)だった。AI技術を利用する主な理由は、ビジネスにおける財務的またはコスト削減(35%)であった。14%は文書作成に役立てている。13%はスピードと効率化を理由に挙げ、さらに12%はより広範なコンテンツ生成的な目的で利用した。 |
Of those currently using AI technologies, nearly half of respondents (47%) had no specific cyber security practices in place specifically for AI and 13% were unsure. Among those planning to use AI in the future, 25% said that their organisation would not have specific cyber security practices or processes in place explicitly regarding the AI technology, once the planned technologies were deployed, and a further 25% were unsure. | 現在AI技術を使用している回答者のうち、半数近く(47%)はAIに特化したサイバーセキュリティ対策を実施しておらず、13%は不明であった。将来的にAIを利用する予定がある人のうち、25%は、予定されている技術が導入された時点で、その組織ではAI技術に関して明確なサイバーセキュリティの慣行やプロセスを導入していないと回答し、さらに25%はわからないと回答した。 |
Of those without or not intending to have specific AI cyber security practices or processes, there were a few key reasons as to why they had not adopted specific practices. 14% had not considered it or did not know enough about it, and 14% said they do not use AI for anything sensitive. | 具体的なAIサイバーセキュリティ対策やプロセスを導入していない、または導入するつもりがない組織のうち、具体的な対策を導入していない主な理由はいくつかあった。14%はAIを検討したことがない、または十分な知識がないと回答し、14%はAIを機密性の高いものには使用していないと回答した。 |
The survey also asked participants whether there were specific cyber security requirements or features that they expect to be built into AI companies’ models and systems. 39% of respondents stated no and a significant minority (33%) were unsure. | 調査ではまた、AI企業のモデルやシステムに組み込まれることを期待する特定のサイバーセキュリティ要件や機能があるかどうかを参加者に尋ねた。回答者の39%が「ない」と答え、かなりの少数派(33%)が「わからない」と回答した。 |
When asked more generally about cyber security practices, 90% of all businesses had at least one governance or risk management arrangement in place. Just under three-quarters (72%) had a formal policy or policies in place covering cyber security risks, and around two-thirds had either a Business Continuity Plan that covers cyber security (67%), or a written list of the most critical data, systems or assets that their organisation wants to protect (64%). | サイバーセキュリティの実践についてより一般的に尋ねたところ、全企業の90%が少なくとも1つのガバナンスまたはリスクマネジメントを実施していた。4分の3弱(72%)はサイバーセキュリティ・リスクをカバーする正式な方針またはポリシーを定めており、約3分の2はサイバーセキュリティをカバーする事業継続計画(67%)、または組織が保護したい最も重要なデータ、システム、資産の文書化されたリスト(64%)を持っていた。 |
Over the last 12 months, just over three-quarters (78%) of businesses had taken at least one measure in an effort to identify cyber security risk. The most common measures taken by organisations were to conduct a risk assessment covering cyber security risk (59%), or to invest in specific tools designed for security monitoring, such as Intrusion Detection Systems (55%). | 過去12カ月間に、企業の4分の3強(78%)が、サイバーセキュリティ・リスクを識別するために少なくとも1つの対策を講じていた。組織が取った最も一般的な対策は、サイバーセキュリティ・リスクを対象としたリスクアセスメントの実施(59%)、または侵入検知システムなどセキュリティ監視用に設計された特定のツールへの投資(55%)であった。 |
AIサイバーセキュリティ調査 - 技術報告書
・AI cyber security survey - technical report
1.Introduction | 1.序文 |
2.Methodology | 2.方法論 |
3.Pilot fieldwork | 3.パイロット・フィールドワーク |
4.Mainstage fieldwork | 4.本番フィールドワーク |
5.Appendix: Questionnaire | 5.附属書 アンケート |
AIサイバーセキュリティに関する提言
・Cyber security for AI recommendations
EXECUTIVE SUMMARY | エグゼクティブサマリー |
The Department for Science, Innovation, and Technology (DSIT) commissioned Mindgard to conduct a systematic study to identify recommendations linked to addressing cyber security risks to Artificial Intelligence (AI). We used a systematic search method to review data sources across academia, technology companies, government bodies, cross-sector initiatives, news articles, and technical blogs to identify various recommendations and evidence of cyber risks against AI. The review also examined common themes and knowledge gaps. | 科学技術革新省(DSIT)は、人工知能(AI)のサイバーセキュリティリスクに対処するための提言事項を特定するための体系的な調査をマインドガード社に委託した。我々は、AIに対するサイバーリスクに関する様々な提言や証拠を特定するために、学術界、テクノロジー企業、団体、政府機関、分野横断的なイニシアチブ、ニュース記事、技術ブログなどのデータソースをレビューする体系的な検索方法を使用した。また、共通のテーマや知識のギャップについても検討した。 |
A comprehensive search of relevant sources published between 1 January 2020 and 12 January 2024 (with notable exceptions for fundamental academic works) was conducted as the basis for this review. A total of 67 publications were identified that described 45 unique technical and general recommendations for addressing cyber security risks in AI. We found sufficient evidence indicating that many of the reported cyber security risks to AI strongly justify the need to identify, create, and adopt new recommendations to address them. However, we also discovered several gaps within existing knowledge. Many of the recommendations for AI are based on established cyber security practises and various conventional cyber security recommendations are directly or indirectly applicable to AI. However, many recommendations are derived from few unique data sources and there are limited empirical studies of security vulnerabilities in AI used in the production of cyber attacks. There is also a lack of information on how to enact recommendations described. | 2020年1月1日から2024年1月12日の間に出版された関連情報源(基本的な学術論文については特筆すべき例外がある)を包括的に検索し、本レビューの基礎とした。その結果、AIにおけるサイバーセキュリティリスクに対処するための技術的・全般的提言事項45件が記載された67件の出版物が特定された。我々は、報告されたAIのサイバーセキュリティリスクの多くが、それらに対処するための新たな提言事項を特定し、作成し、採用する必要性を強く正当化することを示す十分な証拠を発見した。しかし、既存の知識にはいくつかのギャップがあることも分かった。AIに対する提言事項の多くは、確立されたサイバーセキュリティの実践に基づいており、従来の様々なサイバーセキュリティの提言事項は、AIに直接的または間接的に適用可能である。しかし、多くの提言事項は、独自のデータソースに基づくものが少なく、サイバー攻撃の生成に使用されるAIのセキュリティ脆弱性に関する実証的研究は限られている。また、記載されている提言をどのように実施するかについての情報も不足している。 |
AIサイバーセキュリティに関する調査研究とガイダンス
・Study of research and guidance on the cyber security of AI
EXECUTIVE SUMMARY | エグゼクティブサマリー |
Groundbreaking innovations in Artificial Intelligence (AI) technology facilitate the automation of a wide range of complex tasks across diversified domains. These advancements can significantly contribute to the development of applications or systems for trivial to highly critical domains such as transportation and healthcare, thereby benefiting end-users. However, the indiscriminate use of AI, without due consideration of the implications of releasing AI models into the wild, creates aberrant opportunities for malicious actors to exploit vulnerabilities and gain significant advantages. | 人工知能(AI)技術における画期的なイノベーションは、多様な領域にわたる幅広い複雑なタスクの自動化を促進する。こうした進歩は、輸送やヘルスケアといった些細な領域から極めて重要な領域までのアプリケーションやシステムの開発に大きく貢献し、エンドユーザーに利益をもたらす。しかし、AIモデルを野に放つことの意味を十分に考慮することなくAIを無差別に使用することは、悪意ある行為者が脆弱性を悪用し、大きな利益を得るための異常な機会を生み出す。 |
DSIT commissioned Queen’s University Belfast to compile a comprehensive meta-study of the existing research and guidance on the cyber security of AI, including academic and industrial research, standards and regulations. The study reviewed a total of ≈18,000 publications in the field, including a thorough analysis and reporting on more than 415 publications. A Rapid Evaluation Assessment (REA) approach was applied to systematically collect the necessary information through keyword searching of the bibliometric databases. | DSITはQueen's University Belfastに依頼し、学術的・産業的研究、標準、規制を含む、AIのサイバーセキュリティに関する既存の研究とガイダンスの包括的なメタ研究をまとめた。この研究では、415以上の発行物の徹底的な分析と報告を含め、この分野における合計≒18,000の発行物をレビューした。書誌データベースのキーワード検索を通じて必要な情報を体系的に収集するため、迅速評価アセスメント(REA)アプローチを適用した。 |
The goal of this report is twofold. First, to collect the existing research on the security and privacy of AI published by both industry and academia. Second, to report on publications that may support AI developers and engineers in the design of secure AI models and systems. This includes publications by academia, governments, industry (particularly AI companies) and technical authorities. This study also aims to identify the primary actors and stakeholders engaged in the AI Security field. Consequently, our objective is to furnish a comprehensive review encompassing the latest advancements on AI security and to pinpoint gaps in their practical application. | 本報告書の目的は2つある。第一に、産学双方から発表されたAIのセキュリティとプライバシーに関する既存の研究を収集することである。第二に、安全なAIモデルやシステムの設計において、AI開発者やエンジニアを支援する可能性のある発行物について報告することである。これには、学界、ガバナンス、産業界(特にAI企業)、技術当局による発行物が含まれる。また、本研究は、AIセキュリティ分野に携わる主要なアクターやステークホルダーを特定することも目的としている。その結果、我々の目的は、AIセキュリティに関する最新の進歩を網羅した包括的なレビューを提供し、その実用化におけるギャップを突き止めることである。 |
The key findings of this study are highlighted below: | この調査の主な結果は以下の通りである: |
• 415 documents on the cybersecurity of AI were found, including 323 academic papers, 31 industrial reports and white papers, 41 standards organisations documents and 20 governmental documents. | • AIのサイバーセキュリティに関する文書が415件発見された。その内訳は、学術論文323件、産業界の報告書や白書31件、標準化団体の文書41件、政府の文書20件である。 |
• Research focuses on two main themes, ‘’Attacks’’, which includes risks, vulnerabilities and threat modeling; and ‘’Defences’’, including technical solutions, recommendations and guidance. | • リスク、脆弱性、脅威のモデル化を含む「攻撃」と、技術的解決策、推奨事項、ガイダンスを含む「防御」である。 |
• The methodology in academic venues is usually validated quantitatively through experimentation in a laboratory setting with unrealistic threat models, while the remaining stakehoders’ studies are mostly based on non-empirical analysis. | • アカデミックな場での方法論は通常、非現実的な脅威モデルを使った実験室での実験を通じて定量的に検証されるが、残りの利害関係者の研究はほとんどが非経験的分析に基づいている。 |
• Most research and guidance focusses on the design of Secure AI solutions, with a significantly smaller amount for development, deployment and monitoring of AI models. | • ほとんどの研究やガイダンスは、安全なAIソリューションの設計に焦点を当てており、AIモデルの開発、配備、監視に関するものはかなり少ない。 |
HTML | |
Cyber security risks to artificial intelligence | ![]() |
AI cyber security survey - main report | ![]() |
AI cyber security survey - technical report | ![]() |
Cyber security for AI recommendations | ![]() |
Study of research and guidance on the cyber security of AI | ![]() |
« 中国 「強靭なサイバー国家建設を後押しするサイバー法治」シンポジウムを開催 (2024.06.21) | Main | JPCERT/CC Operation Blotless攻撃キャンペーンに関する注意喚起 (2024.06.25) »
Comments