« ENISA 脅威状況2023 - AIによる情報操作の台頭でEUの選挙がリスクにさらされる | Main | 米国 サイバー軍 統合サイバー作戦が国防総省のネットワークを強化する »

2023.10.27

米国 MITRE 重要インフラにおけるAIサイバーリスク低減の原則: 優先順位付けのアプローチ

こんにちは、丸山満彦です。

MITREが 「重要インフラにおけるAIサイバーリスク低減の原則: 優先順位付けのアプローチ」という文書を公表していますね。。。。。。

ちょうど、慶應大学の三田で、MITREとのシンポジウム(第13回サイバーセキュリティ国際シンポジウム)をしていますね。。。昨日は午後だけ行きました。。。

 

MITRE

・2023.10.25 Principles for Reducing AI Cyber Risk in Critical Infrastructure: A Prioritization Approach

Principles for Reducing AI Cyber Risk in Critical Infrastructure: A Prioritization Approach 重要インフラにおけるAIサイバーリスク低減の原則: 優先順位付けのアプローチ
Artificial intelligence can boost efficiencies within U.S. civilian critical infrastructure. At the same time, AI introduces novel risks. This paper identifies and builds on existing best practices that can be used to scope and prioritize AI cybersecurity mitigations should Congress decide to regulate AI use in critical infrastructure. 人工知能 (AI) は米国の民間重要インフラにおける効率を高めることができる。同時に、AIは新たなリスクをもたらす。本稿では、議会が重要インフラにおけるAIの使用を規制することを決定した場合に、AIのサイバーセキュリティ低減の範囲と優先順位を決定するために使用できる既存のベストプラクティスを特定し、その上に構築する。
AI-enabled technologies bring benefits to the systems behind daily life: transportation, utilities, healthcare, and more. But they also will pose unique risks to that same critical infrastructure. Assessing those risks is a challenge, given the rate of AI development, its scale, and interdependencies of civil systems. Congress is currently considering whether regulation will be needed to prevent potentially debilitating impacts on public health and safety, the economy, or national security. AI応用技術は、交通、公共事業、ヘルスケアなど、日常生活を支えるシステムに恩恵をもたらす。しかし、同じ重要インフラに独自のリスクももたらすだろう。AIの発展速度、その規模、市民システムの相互依存性を考えると、それらのリスクをアセスメントすることは難しい。議会は現在、公衆衛生や安全、経済、国家安全保障への潜在的な影響を防ぐために規制が必要かどうかを検討している。
In MITRE’s Principles for Reducing AI Cyber Risk in Critical Infrastructure: A Prioritization Approach, author; Chris Sledjeski, senior principal in MITRE’s Cyber Infrastructure Protection Innovation Center, says established cybersecurity best practices can help with scoping risk mitigation efforts and to inform the broader risk management discussion on AI assurance. It is necessary to adapt these existing best practices to identify, evaluate, prioritize, and mitigate AI-introduced risks to national critical functions. Also required: close collaboration with public and private stakeholders, particularly Sector Risk Management Agencies. Cooperation and information-sharing on these fronts will aid in the adoption and efficacy of any cybersecurity requirements applied to AI use in critical infrastructure high-risk functions. MITREの「重要インフラにおけるAIサイバーリスク低減のための原則」の 著者であるMITREのサイバーインフラ保護イノベーションセンターのシニアプリンシパル、クリス・スレジェスキ氏は、次のように述べている。「確立されたサイバーセキュリティのベストプラクティスは、リスク軽減の取り組みに役立ち、AI保証に関するより広範なリスクマネジメントの議論に情報を提供することができると述べている。国家の重要機能に対するAI導入リスクを特定、評価、優先順位付け、低減するためには、これらの既存のベストプラクティスを適応させる必要がある。また、官民の利害関係者、特にセクター・リスクマネジメント機関との緊密な連携も必要である。これらの面での協力と情報共有は、重要インフラの高リスク機能におけるAIの利用に適用されるサイバーセキュリティ要件の採用と有効性を促進することになる。」

 

・[PDF] Principles for Reducing AI Cyber Risk in Critical Infrastructure: A Prioritization Approach

20231027-21457

 

  目次...

Executive Summary 要旨
Introduction 序文
Historical Context: Recent Models for Improving Critical Infrastructure Cybersecurity 歴史的背景 重要インフラのサイバーセキュリティ改善のための最近のモデル
Recommendations 推奨事項
Scope cybersecurity priorities for high-risk functions enabled by AI. AIによって実現される高リスク機能に対するサイバーセキュリティの優先順位を定める。
Define a level of applicability for cybersecurity that addresses the source of risk. リスクの原因に対処するサイバーセキュリティの適用レベルを定義する。
Define a threshold where AI functions could generate unacceptable consequences. AI機能が許容できない結果を生み出す可能性のある閾値を定義する。
Consider a focus on foundation models and algorithms in high-risk applications. リスクの高いアプリケーションにおける基礎モデルとアルゴリズムに焦点を当てることを検討する。
Leverage the public-private partnership mindset. 官民連携の考え方を活用する。
Conclusion 結論
About the Author 著者について
Endnotes 巻末資料

 

 

 

エグゼクティブサマリー...

Executive Summary 要旨
Artificial Intelligence (AI) brings many benefits, but disruption of AI could, in the future, generate impacts on scales and in ways not previously imagined. These impacts, at a societal level and in the context of critical infrastructure, include disruptions to National Critical Functions.a A prioritized risk-based approach is essential in any attempt to apply he topics of critical infrastructure and AI are simply too vast to meaningfully address otherwise. 人工知能(AI)は多くの利益をもたらすが、AIの混乱は将来、これまで想像もしなかった規模や方法で影響を生成する可能性がある。社会的なレベルと重要インフラという文脈において、これらの影響には、国家重要機能への混乱も含まれる。優先順位付けされたリスクベースのアプローチは、重要インフラとAIを適用する試みには不可欠である。AIというテーマはあまりにも膨大であり、そうでなければ意味がない。
The National Institute of Standards and Technology (NIST) defines cyber secure AI systems as those that can “maintain confidentiality, integrity and availability through protection mechanisms that prevent unauthorized access and use.”1 Cybersecurity incidents that impact AI in critical infrastructure could impact the availability, reliability, and safety of these vital services.2 High-risk applications in critical infrastructure of particular concern include “safety-critical cyber-physical systems—those that … create the opportunity for injury or death to people, the loss or damage of equipment or property, or environmental harm … due to the scale and speed [AI] enables.”3 国立標準技術研究所(NIST)は、サイバーセキュリティで保護されたAIシステムを「不正アクセスや不正使用を防止する保護メカニズムにより、機密性、完全性、可用性を維持できるもの」と定義している1。特に懸念される重要インフラにおける高リスクのアプリケーションには、「セーフティ・クリティカルなサイバー・フィジカル・システム、つまり(AIが)可能にする規模と速度により、人への傷害や死亡、機器や財産の損失や損傷、環境への害......の機会を生じさせるもの」が含まれる3。
This paper was prompted by questions presented to MITRE about to what extent the original NIST Cybersecurity Risk Framework, and the efforts that accompanied its release, enabled a regulatory approach that could serve as a model for AI regulation in critical infrastructure. The NIST Cybersecurity Risk Framework was created a decade ago as a requirement of Executive Order (EO) 13636.4 When this framework was paired with the list of cyber-dependent entities identified under the EO, it provided a voluntary approach for how Sector Risk Management Agencies (SRMAs) prioritize and enhance the cybersecurity of their respective sectors. 本稿は、当初のNISTサイバーセキュリティ・リスクフレームワークとその発表に伴う取り組みが、重要インフラにおけるAI規制のモデルとなり得る規制アプローチをどの程度可能にしているのか、という疑問がMITREに提示されたことに端を発している。NISTサイバーセキュリティ・リスク・フレームワークは、10年前に大統領令(EO)13636の要件として策定された4。このフレームワークがEOの下で特定されたサイバー依存事業体のリストと組み合わされたとき、セクター・リスクマネジメント機関(SRMA)がそれぞれのセクターのサイバーセキュリティに優先順位を付け、強化する方法について、自主的なアプローチを提供することになった。
An important insight from this history is to scope what is in bounds early and decisively, based on the risk level of critical infrastructure functions enabled by AI, and the potential for unacceptable outcomes. To do this, it is important to define a level of unacceptable consequences before deciding (1) whether to apply AI to a critical infrastructure function and (2), where AI is applied, what lengths to take to ensure its cybersecurity. Risk mitigation efforts for AI in critical infrastructure should be directed toward the features or behavior that are causing and/or elevating the risk versus issuing wholesale requirements. This helps to ensure that limited resources are applied with the greatest risk reduction effect. Generally, any AI regulation should account for use context and favor existing domain-specific regulations where applicable rather than wholesale requirements. この歴史から得られる重要な洞察は、AIによって実現される重要インフラ機能のリスクレベルと、許容できない結果の可能性に基づき、早期に、そして断固として、何が境界線上にあるのかを明らかにすることである。そのためには、(1)重要インフラ機能にAIを適用するかどうか、(2)AIを適用する場合、そのサイバーセキュリティを確保するためにどのような対策を講じるかを決定する前に、許容できない結果のレベルを定義することが重要である。重要インフラにおけるAIのリスク低減努力は、リスクの原因となっている、あるいはリスクを高めている機能や挙動に向けられるべきであり、全体的な要件を出すべきでない。これにより、限られた資源が最大のリスク低減効果を発揮できるようになる。一般的に、AI規制は使用状況を考慮すべきであり、全体的な要件ではなく、適用可能な場合は既存の分野別規制を優先すべきである。
Another insight is that while some companies may proactively and unilaterally implement more rigorous cybersecurity postures than any regulatory floor would require, this is the exception more than the rule. Though there have been improvements to critical infrastructure cybersecurity, a decade of a voluntary cybersecurity adoption approach did not result in implementation of a common minimum set of cybersecurity practices across critical infrastructure sectors.6,7   As such, an unknown level of cybersecurity risk remains.8 もう一つの洞察は、一部の企業は、規制の床が要求するよりも厳格なサイバーセキュリティ態勢を積極的かつ一方的に導入する可能性があるが、これは規則よりも例外であるということである。重要インフラのサイバーセキュリティには改善が見られるものの、10年間にわたる自主的なサイバーセキュリティの導入アプローチでは、重要インフラ部門全体でサイバーセキュリティに関する共通の最低実施事項が実施されるには至らなかった6,7 。
In any case, government should make its risk reduction priorities and desired end states transparent and keep a close partnership with SRMAs and the private sector to aid in the adoption and efficacy of any new cybersecurity requirements for AI in critical infrastructure functions. There is also a window of opportunity to establish or better align Information Sharing and Analysis Centers (ISACs) around AI concerns in critical infrastructured to elevate sector-specific concerns with AI-specific vulnerabilities and incidents with the government through trusted channels.  いずれにせよ、政府はリスク削減の優先順位と望ましい最終状態を透明化し、SRMAや民間セクターと緊密なパートナーシップを維持することで、重要インフラ機能におけるAIの新たなサイバーセキュリティ要件の採用と有効性を支援すべきである。また、重要インフラにおけるAIの懸念に関して、情報共有分析センター(ISAC)を設立したり、よりよく連携させたりすることで、AI特有の脆弱性やインシデントに関するセクター特有の懸念を、信頼できるチャネルを通じて政府と共有する機会もある。
a National a.Critical Functions are the functions of the government and the private sector so vital to the United States that their disruption, corruption, or dysfunction would have a debilitating effect on security, national economic security, national public health or safety, or any combination thereof (see [web]). a 国家重要機能とは、米国にとって極めて重要な政府および民間部門の機能であり、その混乱、腐敗、機能不全は、安全保障、国家経済安全保障、国家公衆衛生もしくは安全、またはそれらの組み合わせに衰弱をもたらす( [web] 参照)。
b The term “AI” is used interchangeably in the paper with several categories of AI except where otherwise specified. The AI ecosystem can be divided into three broad categories: (1) engineered systems that use AI as a component or subsystem; (2) AI as an augmentation of human capabilities; and (3) AI operating autonomously under its own agency. AI functions for critical infrastructure are generally captured, at the moment, by categories 1 and 2 (see[web] ). b 「AI」という用語は、特に断りのない限り、本稿ではいくつかのカテゴリーに分類されたAIと互換的に使用されている。1)AIをコンポーネントまたはサブシステムとして使用する人工システム、(2)人間の能力を補強するAI、(3)独自の機関の下で自律的に動作するAIである。重要インフラに対するAIの機能は、現時点では一般的にカテゴリー1と2に分類される([web]
参照)。
c The term “critical infrastructure” has the meaning provided in Section 1016(e) of the USA Patriot Act of 2001 (42 U.S.C. 5195c(e)), namely systems and assets, whether physical or virtual, so vital to the United States that the incapacity or destruction of such systems and assets would have a debilitating impact on security, national economic security, national public health or safety, or any combination of those matters (see [PDF]). c 「重要インフラ」という用語は、2001 年米国愛国者法(42 U.S.C. 5195c(e))第 1016 条(e)に規定される意味を持つ。すなわち、物理的か仮想的かを問わず、米国にとって極めて重要なシステムおよび資産であり、そのようなシステムおよび資産が機能不全に陥ったり破壊されたりすると、安全保障、国家経済安全保障、国家公衆衛生もしくは安全、またはそれらの組み合わせに衰弱的な影響を及ぼすことになる([PDF]参照)。
d ISACs collect, analyze, and disseminate actionable threat information to their members and provide members with tools to mitigate risks and enhance resiliency. d ISAC は、実行可能な脅威情報を収集、分析し、メンバーに普及させ、リスクを軽減し、レジリエンスを強化するためのツールをメンバーに提供する。

 

 

|

« ENISA 脅威状況2023 - AIによる情報操作の台頭でEUの選挙がリスクにさらされる | Main | 米国 サイバー軍 統合サイバー作戦が国防総省のネットワークを強化する »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« ENISA 脅威状況2023 - AIによる情報操作の台頭でEUの選挙がリスクにさらされる | Main | 米国 サイバー軍 統合サイバー作戦が国防総省のネットワークを強化する »