« 米国 IT産業協議会 (ITI) AIレッドチーム、ステークホルダーの参画、標準開発に関するNISTへの提言 | Main | 経済産業省 AIマネジメントシステムの国際規格が発行されました (2024.01.15) »

2024.02.06

英国 NCSC AIによるサイバー脅威への短期的影響 - ランサムウェアの脅威はAIによって増加すると警告 (2024.01.24)

こんにちは、丸山満彦です。

英国のNCSCがランサムウェアの脅威はAIによって増加すると警告していますね。。。

U.K. National Cyber Security Centre; NCSC

1_20240205122801

・2024.01.24 Global ransomware threat expected to rise with AI, NCSC warns

Global ransomware threat expected to rise with AI, NCSC warns 世界のランサムウェアの脅威はAIによって増加するとNCSCは警告している。
New assessment focuses on how AI will impact the efficacy of cyber operations and the implications for the cyber threat over the next two years. 新しい評価では、AIがサイバー作戦の有効性にどのような影響を与えるか、また今後2年間のサイバー脅威への影響に焦点を当てている。
・AI is expected to heighten the global ransomware threat, says GCHQ’s National Cyber Security Centre ・AIは世界的なランサムウェアの脅威を高めると予想される、とGCHQのナショナル・サイバー・セキュリティ・センターは述べている。
・New report suggests artificial intelligence will almost certainly increase the volume and impact of cyber attacks in the next two years ・新しい報告書によると、人工知能は今後2年間でサイバー攻撃の量と影響をほぼ確実に増加させるという。
・NCSC urges organisations and individuals to implement protective measures ・NCSCは組織と個人に対して防御策を実施するよう促している。
Artificial intelligence (AI) is expected to increase the global ransomware threat over the next two years cyber chiefs have warned in a new report published today (Wednesday). 人工知能(AI)は、今後2年間で世界的なランサムウェアの脅威を増大させると予想されると、本日(水曜日)発表された新しい報告書でサイバー責任者が警告している。
The near-term impact of AI on the cyber threat assessment, published by the National Cyber Security Centre (NCSC), a part of GCHQ, concludes that AI is already being used in malicious cyber activity and will almost certainly increase the volume and impact of cyber attacks – including ransomware – in the near term. GCHQ傘下のナショナル・サイバー・セキュリティ・センター(NCSC)が発表した「サイバー脅威評価におけるAIの短期的影響」では、AIはすでに悪意のあるサイバー活動に利用されており、近い将来、ランサムウェアを含むサイバー攻撃の量と影響がほぼ確実に増加すると結論づけている。
Among other conclusions, the report suggests that by lowering the barrier of entry to novice cyber criminals, hackers-for-hire and hacktivists, AI enables relatively unskilled threat actors to carry out more effective access and information-gathering operations. This enhanced access, combined with the improved targeting of victims afforded by AI, will contribute to the global ransomware threat in the next two years. 他の結論の中で、報告書は、サイバー犯罪の初心者、雇われハッカー、ハクティビストの参入障壁を下げることによって、AIは比較的スキルの低い脅威行為者がより効果的なアクセスや情報収集活動を行うことを可能にすることを示唆している。このようなアクセスの強化は、AIが可能にする被害者のターゲティングの改善と相まって、今後2年間のランサムウェアの世界的な脅威を助長するだろう。
Ransomware continues to be the most acute cyber threat facing UK organisations and businesses, with cyber criminals adapting their business models to gain efficiencies and maximise profits. ランサムウェアは引き続き、英国の組織や企業が直面する最も深刻なサイバー脅威であり、サイバー犯罪者は効率性を高め、利益を最大化するためにビジネスモデルを適応させている。
To tackle this enhanced threat, the Government has invested £2.6 billion under its Cyber Security Strategy to improve the UK’s resilience, with the NCSC and private industry already adopting AI’s use in enhancing cyber security resilience through improved threat detection and security-by-design. この脅威の強化に取り組むため、政府はサイバーセキュリティ戦略の下、英国のレジリエンスを改善するために26億ポンドを投資しており、NCSCと民間企業はすでに、脅威検知の改善とセキュリティ・バイ・デザインを通じてサイバーセキュリティのレジリエンスを強化するためにAIの利用を採用している。
The Bletchley Declaration, agreed at the UK-hosted AI Safety Summit at Bletchley Park in November, also announced a first-of-its-kind global effort to manage the risks of frontier AI and ensure its safe and responsible development. In the UK, the AI sector already employs 50,000 people and contributes £3.7 billion to the economy, with the government dedicated to ensuring the national economy and jobs market evolve with technology as set out under the Prime Minister’s five priorities. 11月にブレッチリー・パークで開催された英国主催のAI安全サミットで合意されたブレッチリー宣言は、フロンティアAIのリスクをマネジメントし、その安全で責任ある開発を確保するための世界初の取り組みも発表した。英国では、AI部門はすでに5万人を雇用し、37億ポンドの経済貢献をしている。政府は、首相の5つの優先事項のもと、国家経済と雇用市場がテクノロジーとともに進化するよう尽力している。
NCSC CEO Lindy Cameron said: NCSCのリンディ・キャメロンCEOは次のように述べた:
“We must ensure that we both harness AI technology for its vast potential and manage its risks – including its implications on the cyber threat. 「我々は、AI技術をその大きな可能性のために活用し、サイバー脅威への影響を含むそのリスクをマネジメントすることを確実にしなければならない。
“The emergent use of AI in cyber attacks is evolutionary not revolutionary, meaning that it enhances existing threats like ransomware but does not transform the risk landscape in the near term. 「つまり、ランサムウェアのような既存の脅威を強化するものではあるが、短期的にはリスクの状況を一変させるものではない。
As the NCSC does all it can to ensure AI systems are secure-by-design, we urge organisations and individuals to follow our ransomware and cyber security hygiene advice to strengthen their defences and boost their resilience to cyber attacks.” 「NCSCは、AIシステムが設計上安全であることを保証するために全力を尽くしているが、組織や個人に対しては、ランサムウェアやサイバーセキュリティの衛生に関するアドバイスに従って、防御を強化し、サイバー攻撃に対するレジリエンスを高めるよう強く求めている。
Analysis from the NCA suggests that cyber criminals have already started to develop criminal Generative AI (GenAI) and to offer ‘GenAI-as-a-service’, making improved capability available to anyone willing to pay. Yet, as the NCSC’s new report makes clear, the effectiveness of GenAI models will be constrained by both the quantity and quality of data on which they are trained. NCAの分析によると、サイバー犯罪者はすでに犯罪生成的AI(GenAI)を開発し、「GenAI-as-a-service」を提供し、お金を払えば誰でも改良された能力を利用できるようにし始めている。しかし、NCSCの新しい報告書が明らかにしているように、GenAIモデルの有効性は、学習させるデータの量と質の両方によって制約を受けることになる。
The growing commoditisation of AI-enabled capability mirrors warnings from a report jointly published by the two agencies in September 2023 which described the professionalising of the ransomware ecosystem and a shift towards the “ransomware-as-a-service” model. AIが可能にする能力のコモディティ化が進んでいることは、2023年9月に両機関が共同で発表したランサムウェア・エコシステムの専門化と「ランサムウェア・アズ・ア・サービス」モデルへの移行に関する報告書の警告を反映している。
According to the NCA, it is unlikely that in 2024 another method of cyber crime will replace ransomware due to the financial rewards and its established business model. NCAによれば、金銭的な報酬とその確立されたビジネスモデルにより、2024年に他のサイバー犯罪の手法がランサムウェアに取って代わる可能性は低いという。
James Babbage, Director General for Threats at the National Crime Agency, said: 国家犯罪対策庁のジェームス・バベッジ脅威担当局長は、次のように述べている:
“Ransomware continues to be a national security threat. As this report shows, the threat is likely to increase in the coming years due to advancements in AI and the exploitation of this technology by cyber criminals. 「ランサムウェアは国家安全保障上の脅威であり続けている。この報告書が示すように、AIの進歩とサイバー犯罪者によるこの技術の悪用により、脅威は今後数年で増大する可能性が高い。
“AI services lower barriers to entry, increasing the number of cyber criminals, and will boost their capability by improving the scale, speed and effectiveness of existing attack methods. Fraud and child sexual abuse are also particularly likely to be affected. 「AIサービスは参入障壁を下げ、サイバー犯罪者の数を増やし、既存の攻撃手法の規模、速度、有効性を改善することで、その能力を高めるだろう。詐欺や児童性的虐待も特に影響を受ける可能性が高い。
“The NCA will continue to protect the public and reduce the serious crime threat to the UK, including by targeting criminal use of GenAI and ensuring we adopt the technology ourselves where safe and effective.” 「NCAは、GenAIの犯罪利用を標的とし、安全で効果的な場合には自らもこの技術を採用するようにするなどして、引き続き国民を保護し、英国における重大犯罪の脅威を減らしていく」。
Effective preparation is central to preventing ransomware attacks. Implementing the NCSC’s advice, such as the simple protective measures outlined in its ransomware guidance, will help UK organisations to reduce their likelihood of being infected. ランサムウェア攻撃を防ぐには、効果的な準備が中心である。ランサムウェア・ガイダンスで説明されている簡単な防御策など、NCSCのアドバイスを実施することで、英国の組織は感染する可能性を減らすことができる。
Most ransomware incidents typically result from cyber criminals exploiting poor cyber hygiene, rather than sophisticated attack techniques. The NCSC’s 10 Steps to Cyber Security and Top tips for staying secure online set out how organisations and individuals respectively can protect themselves in cyberspace. ランサムウェアのインシデントの多くは、高度な攻撃手法というよりも、サイバー犯罪者がサイバー衛生の不備を突いたものである。NCSCの「10 Steps to Cyber Security」と「Top tips for staying secure online」には、サイバー空間で組織と個人がそれぞれどのように身を守ることができるかが示されている。
The near-term impact of AI on the cyber threat report outlines further ways in which AI will impact the effectiveness of cyber operations and the cyber threat over the next two years – including social engineering and malware. Read the report in full. AIがサイバー脅威に与える短期的影響に関する報告書では、ソーシャル・エンジニアリングやマルウェアを含め、AIが今後2年間にサイバー・オペレーションの有効性やサイバー脅威に与えるであろうさらなる影響について概説している。報告書の全文を読む
Tackling the challenges of securing future technology is a key priority area for the NCSC having published its Guidelines for Secure AI System Development in November with the endorsement of 17 other countries. CYBERUK 2024, taking place in Birmingham on 13-15 May, will elaborate on these themes with its focus on “Future Tech, Future Threat, Future Ready”. A full programme will be issued in the coming days. NCSCは11月に「安全なAIシステム開発のためのガイドライン」を発表し、他17カ国の賛同を得ている。5月13〜15日にバーミンガムで開催されるCYBERUK 2024では、「未来の技術、未来の脅威、未来の準備」に焦点を当て、これらのテーマについて詳しく説明する。プログラムの詳細は近日中に発表される。

 

 

・2024.01.24 The near-term impact of AI on the cyber threat

The near-term impact of AI on the cyber threat サイバー脅威に対するAIの短期的影響
An NCSC assessment focusing on how AI will impact the efficacy of cyber operations and the implications for the cyber threat over the next two years. AIがサイバー作戦の有効性にどのような影響を与えるか、また今後2年間のサイバー脅威への影響に焦点を当てたNCSCの評価。
IN THIS REPORT この報告書では
NCSC Assessment NCSCの評価
How likely is a 'realistic possibility'? 現実的な可能性」とはどの程度のものなのか?
Key judgements 主な判断
Context コンテキスト
Assessment アセスメント
Glossary 用語集
UK Cyber Policy comment 英国サイバー政策コメント
During the Bletchley AI Safety Summit in November 2023, international leaders came together to discuss the vast potential of AI models in promoting economic growth, propelling scientific advances, and providing a wide range of public benefits. They also underscored the security risks that could arise from the irresponsible development and use of AI technologies. The UK government is evaluating and addressing the potential threats and risks associated with AI. 2023年11月に開催されたブレッチリーAI安全サミットでは、国際的なリーダーたちが一堂に会し、経済成長を促進し、科学の進歩を促し、幅広い公益をもたらすAIモデルの大きな可能性について議論した。彼らはまた、無責任なAI技術の開発と使用から生じる可能性のある安全保障上のリスクを強調した。英国政府はAIに関連する潜在的な脅威とリスクを評価し、対処している。
While it is essential to focus on the risks posed by AI, we must also seize the substantial opportunities it presents to cyber defenders. For example, AI can improve the detection and triage of cyber attacks and identify malicious emails and phishing campaigns, ultimately making them easier to counteract. AIがもたらすリスクに注目することは不可欠だが、同時に、AIがサイバー防衛者にもたらす大きな機会も捉えなければならない。例えば、AIはサイバー攻撃の検知とトリアージを改善し、悪意のある電子メールやフィッシングキャンペーンを特定することができる。
The Summit Declaration highlighted the importance of ensuring that AI is designed, developed, deployed, and used in a manner that is safe, human-centric, trustworthy, and responsible for the benefit of all. The NCSC continues to work with international partners and industry to provide guidance on the secure development and use of AI, so that we can realise the benefits that AI offers to society, publishing Guidelines for Secure AI System Development in November 2023. サミット宣言は、すべての人の利益のために、安全で、人間中心で、信頼でき、責任ある方法でAIが設計、開発、配備、使用されることを確実にすることの重要性を強調した。NCSCは、AIが社会にもたらす利益を実現できるよう、国際的なパートナーや産業界と協力し、AIの安全な開発と利用に関するガイダンスを提供し続け、2023年11月に「安全なAIシステム開発のためのガイドライン」を発表する。
NCSC Assessment NCSCのアセスメント
NCSC Assessment (NCSC-A) is the authoritative voice on the cyber threat to the UK. We fuse all-source information – classified intelligence, industry knowledge, academic material and open source – to provide independent key judgements that inform policy decision making and improve UK cyber security. We work closely with government, industry and international partners for expert input into our assessments. NCSCのアセスメント(NCSC-A)は、英国にとってのサイバー脅威に関する権威ある機関である。機密情報、業界知識、学術資料、オープンソースなど、あらゆる情報源を融合し、政策決定に情報を提供し、英国のサイバーセキュリティを改善する独立した重要な判断を提供している。政府、産業界、国際的なパートナーと緊密に連携し、専門家の意見を評価に反映させている。
NCSC-A is part of the Professional Heads of Intelligence Assessment (PHIA). PHIA leads the development of the profession through analytical tradecraft, professional standards, and building and sustaining a cross-government community. NCSC-AはPHIA(Professional Heads of Intelligence Assessment)の一部である。PHIAは、分析技術、専門標準、政府横断的コミュニティの構築と維持を通じて、専門家の育成を主導している。
This report uses formal probabilistic language (see yardstick) from NCSC-A product to inform readers about the near-term impact on the cyber threat from AI. To learn more about NCSC-A, please contact [mail] 本レポートは、AIによるサイバー脅威への短期的影響について読者に情報を提供するために、NCSC-A製品から正式な確率論的言語(ヤードスティックを参照)を使用している。NCSC-Aについての詳細は、[mail] まで。
How likely is a 'realistic possibility'? 現実的な可能性」とはどの程度のものなのか?
Professional Head of Intelligence Assessment (PHIA) probability yardstick プロフェッショナル・ヘッド・オブ・インテリジェンス・アセスメント(PHIA)の確率基準
NCSC Assessment uses the PHIA probability yardstick every time we make an assessment, judgement, or prediction. The terms used correspond to the likelihood ranges below: NCSCのアセスメントでは、評価、判断、予測を行うたびに、PHIA確率基準を使用している。使用される用語は以下の可能性の範囲に対応する:
1_20240206051901
Key judgements 主な判断
・Artificial intelligence (AI) will almost certainly increase the volume and heighten the impact of cyber attacks over the next two years. However, the impact on the cyber threat will be uneven (see table 1). ・人工知能(AI)は、今後2年間でサイバー攻撃の量をほぼ確実に増加させ、その影響を高めるだろう。しかし、サイバー脅威への影響は不均一である(表1参照)。
・The threat to 2025 comes from evolution and enhancement of existing tactics, techniques and procedures (TTPs). ・2025年までの脅威は、既存の戦術、技術、手順(TTP)の進化と強化からもたらされる。
・All types of cyber threat actor – state and non-state, skilled and less skilled – are already using AI, to varying degrees. ・国家と非国家、熟練者とそうでない者、あらゆるタイプのサイバー脅威行為者が、程度の差こそあれ、すでにAIを利用している。
・AI provides capability uplift in reconnaissance and social engineering, almost certainly making both more effective, efficient, and harder to detect. ・AIは偵察とソーシャル・エンジニアリングにおいて能力を向上させ、ほぼ間違いなく両者をより効果的、効率的にし、検知を難しくしている。
・More sophisticated uses of AI in cyber operations are highly likely to be restricted to threat actors with access to quality training data, significant expertise (in both AI and cyber), and resources. More advanced uses are unlikely to be realised before 2025. ・サイバー作戦におけるAIのより高度な利用は、質の高いトレーニングデータ、(AIとサイバー双方の)重要な専門知識、リソースを利用できる脅威行為者に限定される可能性が高い。より高度な利用が2025年までに実現する可能性は低い。
・AI will almost certainly make cyber attacks against the UK more impactful because threat actors will be able to analyse exfiltrated data faster and more effectively, and use it to train AI models. ・脅威行為者は、流出したデータをより迅速かつ効果的に分析し、AIモデルの訓練に利用できるようになるため、AIによって英国に対するサイバー攻撃がより衝撃的なものになることはほぼ間違いない。
・AI lowers the barrier for novice cyber criminals, hackers-for-hire and hacktivists to carry out effective access and information gathering operations. This enhanced access will likely contribute to the global ransomware threat over the next two years. ・AIは、初心者のサイバー犯罪者、雇われハッカー、ハクティビストが効果的なアクセスや情報収集活動を行うための障壁を低くする。このようなアクセスの強化は、今後2年間の世界的なランサムウェアの脅威に貢献するだろう。
・Moving towards 2025 and beyond, commoditisation of AI-enabled capability in criminal and commercial markets will almost certainly make improved capability available to cyber crime and state actors. ・2025年以降に向けて、犯罪市場や商業市場においてAIを活用した能力がコモディティ化することで、サイバー犯罪や国家権力が改善された能力を利用できるようになることはほぼ間違いないだろう。
Context 背景
This assessment focuses on how AI will impact the effectiveness of cyber operations and the implications for the cyber threat over the next two years. It does not address the cyber security threat to AI tools, nor the cyber security risks of incorporating them into system architecture. 本評価は、AIがサイバー作戦の有効性にどのような影響を与えるか、また今後2年間のサイバー脅威への影響に焦点を当てている。AIツールに対するサイバーセキュリティ上の脅威や、AIツールをシステム・アーキテクチャに組み込むことによるサイバーセキュリティ上のリスクについては触れていない。
The assessment assumes no significant breakthrough in transformative AI in this time period. This assumption should be kept under review, as any breakthrough could have significant implications for malware and zero-day exploit development and therefore the cyber threat. この評価では、この期間に変革的なAIの大きなブレークスルーはないと想定している。画期的な進歩があれば、マルウェアやゼロデイエクスプロイトの開発、ひいてはサイバー脅威に重要な影響を及ぼす可能性があるため、この想定は見直す必要がある。
The impact of AI on the cyber threat will be offset by the use of AI to enhance cyber security resilience through detection and improved security by design. More work is required to understand the extent to which AI developments in cyber security will limit the threat impact. AIがサイバー脅威に与える影響は、検知や設計によるセキュリティ改善を通じてサイバーセキュリティのレジリエンスを強化するためのAIの利用によって相殺されるであろう。サイバーセキュリティにおけるAIの発展が脅威の影響をどの程度抑制するかを理解するためには、さらなる研究が必要である。
Assessment 評価
The impact of AI on the cyber threat is uneven; both in terms of its use by cyber threat actors and in terms of uplift in capability. サイバー脅威に対するAIの影響は、サイバー脅威行為者による利用という点でも、能力の向上という点でも、ばらつきがある。
Table 1: Extent of capability uplift caused by AI over next two years. 表1:今後2年間のAIによる能力向上の程度
20240206-52545
AI will primarily offer threat actors capability uplift in social engineering. Generative AI (GenAI) can already be used to enable convincing interaction with victims, including the creation of lure documents, without the translation, spelling and grammatical mistakes that often reveal phishing. This will highly likely increase over the next two years as models evolve and uptake increases.  AIは主にソーシャル・エンジニアリングにおいて脅威行為者の能力向上をもたらす。生成的AI(GenAI)はすでに、フィッシングがしばしば明らかになる翻訳ミス、スペルミス、文法ミスのないルアー文書の作成など、被害者との説得力のあるやり取りを可能にするために使用することができる。モデルが進化し、導入が進むにつれて、今後2年間でこの傾向はさらに強まるだろう。 
AI’s ability to summarise data at pace will also highly likely enable threat actors to identify high-value assets for examination and exfiltration, enhancing the value and impact of cyber attacks over the next two years. また、AIがデータを迅速に要約する能力によって、脅威行為者は価値の高い資産を特定し、検査や流出を行うことができるようになり、今後2年間でサイバー攻撃の価値と影響力が高まる可能性が高い。
Threat actors, including ransomware actors, are already using AI to increase the efficiency and effectiveness of aspects of cyber operations, such as reconnaissance, phishing and coding. This trend will almost certainly continue to 2025 and beyond. Phishing, typically aimed either at delivering malware or stealing password information, plays an important role in providing the initial network accesses that cyber criminals need to carry out ransomware attacks or other cyber crime. It is therefore likely that cyber criminal use of available AI models to improve access will contribute to the global ransomware threat in the near term. ランサムウェアを含む脅威行為者は、偵察、フィッシング、コーディングなど、サイバーオペレーションの効率と効果を高めるためにすでにAIを利用している。この傾向は2025年以降もほぼ確実に続くだろう。一般的にマルウェアの配信やパスワード情報の窃取を目的とするフィッシングは、サイバー犯罪者がランサムウェア攻撃やその他のサイバー犯罪を実行するために必要な最初のネットワークアクセスをプロバイダとして提供する上で重要な役割を果たしている。したがって、サイバー犯罪者が利用可能なAIモデルを使用してアクセスを改善することは、近い将来、世界的なランサムウェアの脅威に貢献すると考えられる。
AI is likely to assist with malware and exploit development, vulnerability research and lateral movement by making existing techniques more efficient. However, in the near term, these areas will continue to rely on human expertise, meaning that any limited uplift will highly likely be restricted to existing threat actors that are already capable. AI has the potential to generate malware that could evade detection by current security filters, but only if it is trained on quality exploit data. There is a realistic possibility that highly capable states have repositories of malware that are large enough to effectively train an AI model for this purpose. AIは、既存の技術をより効率的にすることで、マルウェアやエクスプロイトの開発、脆弱性の研究、横の動きを支援する可能性が高い。しかし、短期的には、これらの分野は引き続き人間の専門知識に依存することになり、限定的な向上は、すでに能力のある既存の脅威行為者に限定される可能性が高い。AIは、現在のセキュリティ・フィルターによる検知を回避できるマルウェアを生成する可能性を持っているが、それは質の高いエクスプロイト・データで学習させた場合に限られる。高い能力を持つ国家が、この目的のためにAIモデルを効果的に訓練するのに十分な規模のマルウェアのリポジトリを保有している現実的な可能性がある。
Cyber resilience challenges will become more acute as the technology develops. To 2025, GenAI and large language models (LLMs) will make it difficult for everyone, regardless of their level of cyber security understanding, to assess whether an email or password reset request is genuine, or to identify phishing, spoofing or social engineering attempts. The time between release of security updates to fix newly identified vulnerabilities and threat actors exploiting unpatched software is already reducing. This has exacerbated the challenge for network managers to patch known vulnerabilities before they can be exploited. AI is highly likely to accelerate this challenge as reconnaissance to identify vulnerable devices becomes quicker and more precise. サイバーレジリエンスの課題は、テクノロジーが発展するにつれてより深刻になるだろう。2025年までには、GenAIと大規模言語モデル(LLM)によって、サイバーセキュリティに対する理解度に関係なく、誰もが電子メールやパスワードリセットの要求が本物かどうかを評価したり、フィッシング、なりすまし、ソーシャルエンジニアリングの試みを特定したりすることが困難になるだろう。新たに特定された脆弱性を修正するためのセキュリティ・アップデートがリリースされてから、脅威行為者がパッチの適用されていないソフトウェアを悪用するまでの時間は、すでに短縮されている。このため、ネットワーク管理者にとって、既知の脆弱性が悪用される前にパッチを当てるという課題が悪化している。脆弱性のあるデバイスを特定するための偵察がより迅速かつ正確になるにつれて、AIはこの課題を加速させる可能性が高い。
Expertise, equipment, time and financial resourcing are currently crucial to harness more advanced uses of AI in cyber operations. Only those who invest in AI, have the resources and expertise, and have access to quality data will benefit from its use in sophisticated cyber attacks to 2025. Highly capable state actors are almost certainly best placed amongst cyber threat actors to harness the potential of AI in advanced cyber operations. Other state actors and most commercial companies that offer capability to states worldwide will gain moderate capability uplift over the next eighteen months in social engineering, reconnaissance and exfiltration. Capable and established criminal groups are also likely to have enough training data and resource to gain some uplift. 現在、サイバー・オペレーションにおいてAIをより高度に活用するためには、専門知識、設備、時間、資金が不可欠である。AIに投資し、リソースと専門知識を持ち、質の高いデータにアクセスできる者だけが、2025年までの高度なサイバー攻撃においてAIの利用から利益を得ることができるだろう。高度なサイバー作戦においてAIの可能性を活用する上で、サイバー脅威行為者の中で最も有利な立場にあるのは、能力の高い国家行為者であることはほぼ間違いない。その他の国家主体や、世界中の国家に能力を提供しているほとんどの営利企業は、ソーシャル・エンジニアリング、偵察、流出において、今後18ヶ月の間に中程度の能力向上を得るだろう。有能で確立された犯罪集団も、ある程度の能力向上を図るのに十分な訓練データとリソースを有している可能性が高い。
However, it is a realistic possibility that these factors may become less important over time, as more sophisticated AI models proliferate and uptake increases. Publicly available AI models already largely remove the need for actors to create their own replica technologies, especially in low-sophistication operations such as spear-phishing. Less-skilled cyber actors will almost certainly benefit from significant capability uplifts in this type of operation to 2025. Commoditisation of cyber crime capability, for example ‘as-a-service’ business models, makes it almost certain that capable groups will monetise AI-enabled cyber tools, making improved capability available to anyone willing to pay. しかし、より洗練されたAIモデルが普及し、その導入が進むにつれて、これらの要因が時間の経過とともに重要でなくなる可能性は現実的である。一般に利用可能なAIモデルは、特にスピアフィッシングのような洗練度の低い作戦において、行為者が独自のレプリカ技術を作成する必要性をすでにほとんど取り除いている。スキルの低いサイバー犯罪者は、2025年までにこの種の作戦において、大幅な能力向上の恩恵を受けることはほぼ間違いないだろう。例えば「as-a-service」ビジネスモデルなど、サイバー犯罪能力のコモディティ化によって、有能な集団がAIを利用したサイバーツールを収益化することはほぼ確実であり、能力を向上させればお金を払う意思のある人なら誰でも利用できるようになる。
To 2025, training AI on quality data will remain crucial for its effective use in cyber operations. The scaling barriers for automated reconnaissance of targets, social engineering and malware are all primarily related to data. But to 2025 and beyond, as successful exfiltrations occur, the data feeding AI will almost certainly improve, enabling faster, more precise cyber operations. 2025年まで、AIをサイバー作戦に効果的に活用するためには、質の高いデータに関するトレーニングが不可欠であることに変わりはない。標的の自動偵察、ソーシャル・エンジニアリング、マルウェアの規模拡大の障壁は、すべて主にデータに関連している。しかし、2025年以降、流出が成功すれば、AIに供給されるデータはほぼ確実に改善され、より迅速で正確なサイバー作戦が可能になる。
Increases in the volume and heightened complexity and impact of cyber operations will indicate that threat actors have been able to effectively harness AI. This will highly likely intensify UK cyber resilience challenges in the near term for UK government and the private sector. サイバー作戦の量が増加し、複雑さと影響が高まれば、脅威行為者がAIを効果的に活用できるようになったことを示すだろう。このことは、近い将来、英国政府と民間セクターにとって、英国のサイバー・レジリエンスに関する課題を激化させる可能性が高い。
Glossary 用語解説
Artificial intelligence 人工知能
Computer systems which can perform tasks usually requiring human intelligence. This could include visual perception, speech recognition or translation between languages. Modern AI is usually built using machine learning algorithms. The algorithms find complex patterns in data which can be used to form rules.  通常は人間の知能を必要とするタスクを実行できるコンピュータ・システム。これには、視覚認識、音声認識、言語間の翻訳などが含まれる。最新のAIは通常、機械学習アルゴリズムを用いて構築される。このアルゴリズムは、データから複雑なパターンを見つけ出し、それを用いてルールを形成することができる。
Generative AI (GenAI) 生成的AI(GenAI)
AI capable of generating new content, such as text, images or video. Large language models (LLMs) are an example of generative AI.  テキスト、画像、動画などの新しいコンテンツを生成することができるAI。大規模言語モデル(LLM)は生成的AIの一例である。
Transformative AI 変革的AI
An advanced AI system with transformative impact on society. One example is artificial general intelligence, the hypothetical concept of autonomous systems that learn to surpass human capabilities in most intellectual tasks. 社会に変革的な影響を与える高度なAIシステム。その一例が人工知能(Artificial General Intelligence)であり、ほとんどの知的作業において人間の能力を凌駕することを学習する自律システムの仮説的概念である。
Reconnaissance 偵察
First stage of the cyber attack chain which involves researching a target to identify potential access vectors for a future attack. サイバー攻撃の連鎖の最初の段階で、将来の攻撃のための潜在的なアクセス・ベクトルを特定するために標的を調査すること。
Spear-phishing スピアフィッシング
The practice of sending targeted emails, text messages, social media, calls or other messages to individuals to lure them into an interaction, such as clicking a link, to obtain access to their system, device or account or personal information. 標的を絞った電子メール、テキストメッセージ、ソーシャルメディア、電話、その他のメッセージを個人に送信し、リンクをクリックさせるなどの相互作用に誘い込み、システム、デバイス、アカウントへのアクセスや個人情報を取得する行為。
Social engineering ソーシャルエンジニアリング
The practice of manipulating people into carrying out specific actions, or divulging information, that is of use to an attacker. 人を操作して、攻撃者にとって有益な特定の行動を実行させたり、情報を漏らしたりする行為。

 

  Highly capable state threat actors Capable state actors, commercial companies selling to states, organised cyber crime groups Less-skilled hackers-for-hire, opportunistic cyber criminals, hacktivists
Intent High High Opportunistic
Capability Highly skilled in AI and cyber, well resourced Skilled in cyber, some resource constraints Novice cyber skills, limited resource
Reconnaissance Moderate uplift Moderate uplift Uplift
Social engineering, phishing, passwords Uplift Uplift Significant uplift (from low base)
Tools (malware, exploits) Realistic possibility of uplift Minimal uplift Moderate uplift (from low base)
Lateral movement Minimal uplift Minimal uplift No uplift
Exfiltration Uplift Uplift Uplift
Implications Best placed to harness AI's potential in advanced cyber operations against networks, for example use in advanced malware generation. Most capability uplift in reconnaissance, social engineering and exfiltration. Will proliferate AI-enabled tools to novice cyber actors.  Lower barrier to entry to effective and scalable access operations - increasing volume of successful compromise of devices and accounts.
       
  高い能力を持つ国家の脅威行為者 有能な国家主体、国家に売り込む営利企業、組織的サイバー犯罪集団 スキルの低い雇われハッカー、日和見的サイバー犯罪者、ハクティビスト
意図 高い 高い 日和見的
能力 AIやサイバーに高度に熟練し、十分な資源を有する。 サイバーに熟練している。 初心者のサイバー・スキル、限られたリソース
偵察 中程度の上昇 中程度の上昇 上昇
ソーシャル・エンジニアリング、フィッシング、パスワード 上昇 上昇 大幅な上昇(低いベースから)
ツール(マルウェア、エクスプロイト) 現実的な上昇の可能性 最小限の上昇 中程度の上昇(低いベースから)
横の動き 最小限の上昇 最小限の上昇 上昇なし
流出 上昇 上昇 上昇
意味合い 高度なマルウェア生成など、ネットワークに対する高度なサイバー作戦にAIの潜在能力を活用するのに最適な立場にある。 偵察、ソーシャル・エンジニアリン グ、流出において最も能力が向上する。初心者のサイバー行為者にAI対応ツールを普及させる。 効果的でスケーラブルなアクセス操作への参入障壁が低くなる。

 

こちらは、昨年9月のNCAの白書ですが、参考になります。。。

 

ランサムウェア、恐喝、サイバー犯罪のエコシステム 

私のブログも参考にしてください...

・2023.09.11 Ransomware, extortion and the cyber crime ecosystem

 


 

まるちゃんの情報セキュリティ気まぐれ日記

ランサムウェア関係

・2023.09.13 英国 NCSC ランサムウェア、恐喝、サイバー犯罪のエコシステムについての白書

 

AI関係...

・2024.01.28 AI使用に関する国際ガイダンス

・2023.11.28 米国 CISA 英国 NCSC 安全なAIシステム開発のための共同ガイドライン

・2023.11.02 英国 AI安全サミット出席国によるブレッチリー宣言

・2023.10.30 英国 科学技術革新省 フロンティアAI:その能力とリスク - ディスカッション・ペーパー

・2023.08.25 英国 AIサミットは11月1日2日にブレッチリー・パークで開催

・2023.04.29 英国 AIに関する英国政府の発表をいくつか。。。

 

|

« 米国 IT産業協議会 (ITI) AIレッドチーム、ステークホルダーの参画、標準開発に関するNISTへの提言 | Main | 経済産業省 AIマネジメントシステムの国際規格が発行されました (2024.01.15) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 IT産業協議会 (ITI) AIレッドチーム、ステークホルダーの参画、標準開発に関するNISTへの提言 | Main | 経済産業省 AIマネジメントシステムの国際規格が発行されました (2024.01.15) »