« 内閣官房 NISC 「第 17 回 日 ASEAN サイバーセキュリティ政策会議の結果 」と「2024 年「日米豪印サイバー・チャレンジ」に関する共同声明 」 | Main | 米国 SEC Unisys、Checkpointほか、年次報告書における誤解を与えるセキュリティ開示で罰金を支払う... »

2024.10.24

米国 ニューヨーク州金融サービス局 「人工知能から生じる サイバーセキュリティ・リスクと関連リスクに対処する戦略」 (2024.10.16)

こんにちは、丸山満彦です。

米国のニューヨーク州の金融サービス局から「人工知能から生じる サイバーセキュリティ・リスクと関連リスクに対処する戦略」が規制対象となる事業体の幹部と情報セキュリティ担当宛に公表されていますね...

従来からのセキュリティ規制(NYCRR Part 500)を超えるものではないとのことですね...

AIの利用によりリスクの重点が変わる可能性があるので、その点には留意が必要かもですね...

 

New York State - Industry Letter

・2024.10.16 Cybersecurity Risks Arising from Artificial Intelligence and Strategies to Combat Related Risks

 

To: The executives and information security personnel at all entities regulated by the New York State Department of Financial Services ("DFS" or "the Department") 宛先 ニューヨーク州金融サービス局が規制するすべての事業体の幹部および情報セキュリティ担当者
Re: Cybersecurity Risks Arising from Artificial Intelligence and Strategies to Combat Related Risks Re: 人工知能から生じる サイバーセキュリティ・リスクと関連リスクに対処する戦略
Date: October 16, 2024 日付 2024年10月16日
Introduction 序文
The advancements in artificial intelligence (“AI”) and increased reliance on AI has had a substantial impact on the cybersecurity landscape as this technology has introduced significant new opportunities for cybercriminals to commit crimes at greater scale and speed.1 AI also has positively impacted cybersecurity, improving the ability of entities - including those regulated by DFS (referred to herein as “Covered Entities”) - to prevent cyberattacks, enhance threat detection, and improve incident response strategies.2 人工知能(「AI」)の進歩とAIへの依存の高まりは、サイバーセキュリティの状況に大きな影響を及ぼしている。この技術は、サイバー犯罪者がより大規模かつ迅速に犯罪を犯すための重要な新たな機会をもたらしているからである1。AIはサイバーセキュリティにもプラスの影響を与えており、DFSが規制する事業体(以下、「検知対象事業体」と呼ぶ)を含む事業体がサイバー攻撃を防止し、脅威の検知を強化し、インシデント対応戦略を改善する能力を向上させている2
The Department has received inquiries about how AI is changing cyber risk and how Covered Entities can mitigate risks associated with AI. The Department is publishing this guidance in response to those inquiries and in accordance with its mission to protect New Yorkers and New York businesses from cybersecurity risks. It is intended to be a tool to assist Covered Entities in understanding and assessing cybersecurity risks associated with the use of AI and the controls that may be used to mitigate those risks. This Guidance does not impose any new requirements beyond obligations that are in DFS’s cybersecurity regulation codified at 23 NYCRR Part 500 (the “Cybersecurity Regulation” or “Part 500”); rather, the Guidance is meant to explain how Covered Entities should use the framework set forth in Part 500 to assess and address the cybersecurity risks arising from AI. DFSは、AIがサイバーリスクにどのような変化をもたらしているのか、また対象事業体はAIに関連するリスクをどのように軽減できるのかについて、問い合わせを受けている。同局は、こうした問い合わせに応え、ニューヨーカーとニューヨークの企業をサイバーセキュリティリスクから保護するという使命に基づき、本ガイダンスを公表する。本ガイダンスは、対象事業体が、AIの使用に関連するサイバーセキュリティリスクと、それらのリスクを軽減するために使用できる管理策を理解し、アセスメントする際の支援ツールとなることを意図している。本ガイダンスは、23 NYCRR Part 500(「サイバーセキュリティ規制」または「Part 500」)で体系化されているDFSのサイバーセキュリティ規制における義務を超える新たな要件を課すものではなく、むしろ、本ガイダンスは、対象事業体がPart 500に規定されている枠組みを使用して、AIから生じるサイバーセキュリティリスクを評価し、対処する方法を説明することを目的としている。
Risks リスク
While there are many risks related to the use of AI, there are certain threats that are specific to cybersecurity. This Guidance highlights some of the more concerning threats identified by cybersecurity experts, but they are not exhaustive. The first two are risks caused by threat actors’ use of AI, while the latter two are risks caused by a Covered Entity’s use or reliance upon AI. AIの利用に関連するリスクは数多く存在するが、サイバーセキュリティに特有の脅威も存在する。本ガイダンスでは、サイバーセキュリティの専門家によって特定された脅威のうち、より懸念されるものをいくつか取り上げているが、すべてを網羅しているわけではない。最初の2つは脅威行為者がAIを使用することによって生じるリスクであり、後の2つは対象事業体がAIを使用または依存することによって生じるリスクである。
AI-Enabled Social Engineering AI を利用したソーシャル・エンジニアリング
AI-enabled social engineering presents one of the most significant threats to the financial services sector. While social engineering has been an issue in cybersecurity for years, AI has improved the ability of threat actors to create highly personalized and more sophisticated content that is more convincing than historical social engineering attempts. Threat actors are increasingly using AI to create realistic and interactive audio, video, and text (“deepfakes”) that allow them to target specific individuals via email (phishing), telephone (vishing), text (SMiShing), videoconferencing, and online postings.3 These AI-driven attacks often attempt to convince employees to divulge sensitive information about themselves and their employers. When deepfakes result in the sharing of credentials, threat actors are able to gain access to Information Systems containing Nonpublic Information (“NPI”).4 In addition to disclosing sensitive information, AI-driven social engineering attacks have led to employees taking unauthorized actions, such as wiring substantial amounts of funds to fraudulent accounts.5 Further, deepfakes have been used to mimic an individual’s appearance or voice in an attempt to authenticate that individual and circumvent biometric verification technology. AIを活用したソーシャル・エンジニアリングは、金融サービス部門にとって最も重大な脅威の一つである。ソーシャル・エンジニアリングはサイバーセキュリティにおける長年の課題であったが、AIは、過去のソーシャル・エンジニアリングの試みよりも説得力のある、高度にパーソナライズされた、より洗練されたコンテンツを作成する脅威行為者の能力を改善した。脅威行為者は、電子メール(フィッシング)、電話(ビッシング)、テキスト(SMiShing)、ビデオ会議、オンライン投稿を通じて特定の個人をターゲットにすることを可能にする、リアルでインタラクティブな音声、ビデオ、テキスト(「ディープフェイク」)を作成するためにAIを使用するようになってきている3。ディープフェイクによって認証情報が共有されると、脅威行為者は非公開情報(「NPI」)を含む情報システムにアクセスできるようになる4。機密情報の開示に加え、AIを利用したソーシャル・エンジニアリング攻撃によって、従業員が不正な口座に多額の資金を送金するなどの不正な行動を取るようになっている5
AI-Enhanced Cybersecurity Attacks AIを利用したサイバーセキュリティ攻撃
Another major risk associated with AI is the ability of threat actors to amplify the potency, scale, and speed of existing types of cyberattacks. As AI can scan and analyze vast amounts of information much faster than humans, threat actors can use AI quickly and efficiently to identify and exploit security vulnerabilities, often allowing threat actors to access more Information Systems at a faster rate. Once inside an organization’s Information Systems, AI can be used to conduct reconnaissance to determine, among other things, how best to deploy malware and access and exfiltrate NPI. Furthermore, AI can accelerate the development of new malware variants and change ransomware to enable it to bypass defensive security controls, thereby evading detection. AIに関連するもう一つの大きなリスクは、脅威行為者が既存のタイプのサイバー攻撃の威力、規模、速度を増幅させる能力である。AIは人間よりもはるかに速く膨大な量の情報をスキャンし分析することができるため、脅威行為者はAIを迅速かつ効率的に使用してセキュリティの脆弱性を識別し、悪用することができる。いったん組織の情報システム内に侵入すれば、AIを利用して偵察を行い、マルウェアの配備や個人情報へのアクセス・流出の最適な方法などを判断することができる。さらに、AIは新たなマルウェアの亜種の開発を加速させ、ランサムウェアを変化させることで、防御的なセキュリティ制御を回避し、検知を逃れることを可能にする。
In addition, AI has accelerated the speed and scale of cyberattacks. With the increased proliferation of publicly available AI-enabled products and services, it is widely believed by cyber experts that threat actors who are not technically skilled may now, or potentially will soon, be able to launch their own attacks. This lower barrier to entry for threat actors, in conjunction with AI-enabled deployment speed, has the potential to increase the number and severity of cyberattacks, especially in the financial services sector, where the maintenance of highly sensitive NPI creates a particularly attractive and lucrative target for threat actors. さらに、AIはサイバー攻撃のスピードと規模を加速させている。一般に利用可能なAI対応製品やサービスの普及が進むにつれ、サイバー専門家の間では、技術的に熟練していない脅威行為者でも独自の攻撃を仕掛けることができるようになった、あるいは近いうちにできるようになる可能性があるとの見方が広がっている。このような脅威行為者の参入障壁の低下は、AIを活用した展開速度と相まって、サイバー攻撃の件数と深刻度を増加させる可能性がある。特に金融サービス分野では、機密性の高い個人情報(NPI)の保守が脅威行為者にとって特に魅力的で有利な標的となる。
Exposure or Theft of Vast Amounts of Nonpublic Information 膨大な量の非公開情報のエクスポージャーまたは盗難
Products that use AI typically require the collection and processing of substantial amounts of data, often including NPI.6 Maintaining NPI in large quantities poses additional risks for Covered Entities that develop or deploy AI because they need to protect substantially more data, and threat actors have a greater incentive to target these entities in an attempt to extract NPI for financial gain or other malicious purposes. 大量の NPI を維持することは、AI を開発又は導入する対象事業体にとって、より多くのデー タを保護する必要があるため、さらなるリスクをもたらすものであり、脅威行為者は、金銭的 利益又はその他の悪意のある目的のために NPI を抽出しようとして、これらの事業体を標的にするインセン ティブが高まる。
Additionally, some AI requires the storage of biometric data. Biometric data is data derived from an individual’s unique physical or physiological characteristics and is often used in authenticator applications. For example, facial and fingerprint recognition are regularly deployed as tools to identify and authenticate an Authorized User.7 Threat actors can use stolen biometric data to imitate Authorized Users, bypass Multi-Factor Authentication ("MFA"), and gain access to Information Systems that maintain NPI and other sensitive information. They can also use biometric data to generate highly realistic deepfakes. さらに、AIの中には生体データの保存を必要とするものもある。生体データとは、個人に固有の身体的または生理的特徴に由来するデータであり、認証 アプリケーションでよく使用される。例えば、顔認識および指紋認識は、認可ユーザを識別および認証するためのツールとして定期的に導入されている7。脅威行為者は、盗んだ生体データを使用して、認可ユーザを模倣し、多要素認証(「MFA」)を回避し、NPI およびその他の機密情報を保持する情報システムにアクセスすることができる。また、生体データを使用して非常にリアルなディープフェイクを生成することもできる。
Increased Vulnerabilities Due to Third-Party, Vendor, and Other Supply Chain Dependencies サードパーティ、ベンダー、その他のサプライチェーン依存による脆弱性の増大
Supply chain vulnerabilities represent another critical area of concern for organizations using AI or a product that incorporates AI. AI-powered tools and applications depend heavily on the collection and maintenance of vast amounts of data. The process of gathering that data frequently involves working with vendors and Third-Party Service Providers (“TPSPs”).8 Each link in this supply chain introduces potential security vulnerabilities that can be exploited by threat actors. As a result, any TPSP, vendor, or supplier, if compromised by a cybersecurity incident, could expose an entity’s NPI and become a gateway for broader attacks on that entity’s network, as well as all other entities in the supply chain. サプライチェーンの脆弱性は、AIやAIを組み込んだ製品を使用する組織にとって、もう一つの重大な懸念事項である。AIを搭載したツールやアプリケーションは、膨大なデータの収集と保守に大きく依存している。そのデータ収集のプロセスには、ベンダーやサードパーティ・サービス・プロバイダ(以下、「TPSP」)との連携が頻繁に含まれる8。このサプライチェーンの各リンクには、脅威行為者に悪用される可能性のある潜在的なセキュリティ脆弱性が存在する。その結果、いかなる TPSP、ベンダー、サプライヤーも、サイバーセキュリティインシデントによって侵害された場合、事業体の NPI を暴露し、サプライチェーン内の他のすべての事業体だけでなく、その事業体のネットワー クに対する広範な攻撃のゲートウェイとなる可能性がある。
Controls and Measures that Mitigate AI-related Threats AI関連の脅威を低減する管理と対策
The Cybersecurity Regulation requires Covered Entities to assess risks and implement minimum cybersecurity standards designed to mitigate cybersecurity threats relevant to their businesses – including those posed by AI. These cybersecurity measures provide multiple layers of security controls with overlapping protections so that if one control fails, other controls are there to prevent or mitigate the impact of an attack.9 Below are examples of controls and measures that, especially when used together, help entities to combat AI-related risks. サイバーセキュリティ規制は、対象事業体に対し、リスクを評価し、その事業に関連するサイバーセキュリティの脅威(AIがもたらす脅威を含む)を低減するために設計された最低限のサイバーセキュリティ標準を実施することを求めている。これらのサイバーセキュリティ対策は、重複する保護機能を備えた多層的なセキュリティ対策を提供するものであり、1つの対策に障害が発生した場合でも、他の対策によって攻撃の影響を防止または軽減することができる9。以下は、特に併用することで事業体がAI関連リスクと戦うのに役立つ対策と対策の例である。
Risk Assessments and Risk-Based Programs, Policies, Procedures, and Plans リスクアセスメントとリスクベースのプログラム、方針、手順、計画
The Cybersecurity Regulation requires Covered Entities to maintain cybersecurity programs, policies, and procedures that are based on cybersecurity Risk Assessments.10 Such assessments must take into account cybersecurity risks faced by the Covered Entity, including deepfakes and other threats posed by AI, to determine which defensive measures they should implement. Additionally, when designing Risk Assessments, Covered Entities should address AI-related risks in the following areas: the organization’s own use of AI, the AI technologies utilized by TPSPs and vendors, and any potential vulnerabilities stemming from AI applications that could pose a risk to the confidentiality, integrity, and availability of the Covered Entity’s Information Systems or NPI.11 The Cybersecurity Regulation requires Risk Assessments to be updated at least annually and whenever a change in the business or technology causes a material change to a Covered Entity’s cybersecurity risk to ensure new risks, including those posed by AI, are assessed. Whenever Risk Assessments are updated, Covered Entities should assess whether the identified risks warrant updates to cybersecurity policies and procedures in order to mitigate those risks.12 サイバーセキュリティ規制は、対象事業体に対し、サイバーセキュリティリスクアセスメントに基づくサイバーセキュリティプログラム、方針、手順を維持することを求めている10。このようなアセスメントは、ディープフェイクやAIがもたらすその他の脅威を含め、対象事業体が直面するサイバーセキュリティリスクを考慮し、実施すべき防御策を決定しなければならない。さらに、リスクアセスメントを設計する際、対象事業者は、以下の分野における AI 関連のリスクに対処する必要がある。すなわち、当該事業体自身の AI の使用、TPSP やベンダーが利用する AI 技術、対象事業体の情報システムまたは NPI の機密性、完全性、可用性にリスクをもたらす可能性のある AI アプリケー ションに起因する脆弱性である11。サイバーセキュリティ規制は、AIがもたらすリスクを含む新たなリスクを確実に評価するために、リスクアセスメントを少なくとも年1回更新すること、及び事業又は技術に変更が生じ、対象事業体のサイバーセキュリティリスクに重大な変化が生じた場合は常に更新することを求めている。リスクアセスメントが更新されるたびに、対象事業体は、特定されたリスクが、当該リスクを軽減するためにサイバーセキュリティポリシー及び手続の更新を正当化するかどうかを評価しなければならない12
In addition, Covered Entities must establish, maintain, and test plans that contain proactive measures to investigate and mitigate Cybersecurity Events, and to ensure operational resilience, including incident response, business continuity, and disaster recovery plans.13 The incident response, business continuity, and disaster recovery plans should be reasonably designed to address all types of Cybersecurity Events and other disruptions, including those relating to AI. さらに、対象事業体は、サイバーセキュリティイベントを調査・軽減し、インシデント対応、事 業継続、災害復旧計画を含む業務レジリエンスを確保するための事前対策を含む計画を策定、維 持、テストしなければならない13。インシデント対応、事業継続、災害復旧計画は、AI に関連するものを含むあらゆる種類のサイバーセキュリティイベントやその他の混乱に対処できるよう合理的に設計されなければならない。
Senior leadership plays a crucial role in prioritizing cybersecurity and establishing a culture that integrates compliance into the entity’s overall business strategy. The Cybersecurity Regulation requires the Senior Governing Body to have sufficient understanding of cybersecurity-related matters (including AI-related risks), exercise oversight of cybersecurity risk management, and regularly receive and review management reports about cybersecurity matters (including reports related to AI).14 シニア・リーダーシップは、サイバーセキュリティを優先し、コンプライアンスを事業体全体の事業戦略に統合する文化を確立する上で極めて重要な役割を果たす。サイバーセキュリティ規制は、上級統治機関に対して、サイバーセキュリティ関連事項(AI関連リスクを含む)を十分に理解し、サイバーセキュリティ・リスク管理を監督し、サイバーセキュリティ事項(AI関連報告を含む)に関するマネジメント報告を定期的に受領し、レビューすることを求めている14。
Third-Party Service Provider and Vendor Management サードパーティ・サービス・プロバイダーとベンダーの管理
One of the most important requirements for combatting AI-related risks is to maintain TPSP policies and procedures that include guidelines for conducting due diligence before a Covered Entity uses a TPSP that will access its Information Systems and/or NPI.15 When doing so, DFS strongly recommends Covered Entities consider, among other factors, the threats facing TPSPs from the use of AI and AI-enabled products and services; how those threats, if exploited, could impact the Covered Entity; and how the TPSPs protect themselves from such exploitation. AI関連リスクに対抗するための最も重要な要件の1つは、対象事業体がその情報シス テムおよび/またはNPIにアクセスするTPSPを利用する前に、デューディリジェンスを実 施するためのガイドラインを含む、TPSPの方針および手続を維持することである15 。その際、DFSは、対象事業体に対し、特に、AIお よびAI対応製品およびサービスの利用によってTPSPが直面する脅威、当該脅威が悪用された場 合、対象事業体にどのような影響を及ぼす可能性があるか、TPSPがそのような悪用か らどのように自らを保護するかを検討することを強く推奨する。
Covered Entities’ TPSP policies and procedures should address the minimum requirements related to access controls, encryption, and guidelines for due diligence and contractual protections for TPSPs with access to Information Systems and/or NPI. In addition, Covered Entities should require TPSPs to provide timely notification of any Cybersecurity Event that directly impacts the Covered Entity’s Information Systems or NPI held by the TPSP, including threats related to AI. Moreover, if TPSPs are using AI, Covered Entities should consider incorporating additional representations and warranties related to the secure use of Covered Entities’ NPI, including requirements to take advantage of available enhanced privacy, security, and confidentiality options. 対象事業体のTPSPの方針及び手続は、アクセス管理、暗号化、情報システム及び/又はNPIにアクセスするTPSPのデューディリジェンス及び契約上の保護に関するガイドラインに関する最低限の要件に対応すべきである。さらに、対象事業体は、TPSP に対し、AI に関する脅威を含め、TPSP が保有する対象事業体の情報システムまたは NPI に直接影響を与えるサイバーセキュリティイベントについて、適時に通知を行うことを義務付けるべきである。さらに、TPSP が AI を使用する場合、対象事業体は、利用可能な強化されたプライバシー、セキュリ ティ及び機密性のオプションを利用するための要件を含め、対象事業体の NPI の安全な使用に関 連する表明保証を追加的に組み込むことを検討すべきである。
Access Controls アクセス管理
Implementing robust access controls is another defensive measure used to combat the threat of deepfakes and other forms of AI-enhanced social engineering attacks, and to prevent threat actors from gaining unauthorized access to a Covered Entity’s Information Systems and the NPI maintained on them.16 One of the most effective access controls is MFA, which the Cybersecurity Regulation requires Covered Entities to implement.17 As of November 2025, the Cybersecurity Regulation will require MFA to be in place for all Authorized Users attempting to access Covered Entities’ Information Systems or NPI, including customers, employees, contractors, and TPSPs.18 強固なアクセス管理の導入は、ディープフェイクや他の形態のAIを利用したソーシャル・エンジニ ング攻撃の脅威に対抗し、脅威行為者が対象事業体の情報システム及びその上で管理される NPIに不正にアクセスすることを防止するために用いられるもう一つの防御策である16。2025年11月時点で、サイバーセキュリティ規制は、顧客、従業員、請負業者、TPSPを含む、対象事業体の情報システムまたはNPIにアクセスしようとするすべての認可ユーザに対して、MFAを導入することを要求している18
MFA requires Authorized Users to authenticate their identities using at least two of three authentication factors: knowledge factors, such as a password; inherence factors, such as biometric characteristics; and possession factors, such as a token.19 While Covered Entities have the flexibility to decide, based on their Risk Assessments, which authentication factors to use, not all forms of authentication are equally effective. Given the risks identified above, Covered Entities should consider using authentication factors that can withstand AI-manipulated deepfakes and other AI-enhanced attacks by avoiding authentication via SMS text, voice, or video, and using forms of authentication that AI deepfakes cannot impersonate, such as digital-based certificates and physical security keys. Similarly, instead of using a traditional fingerprint or other biometric authentication system, Covered Entities should consider using an authentication factor that employs technology with liveness detection or texture analysis to verify that a print or other biometric factor comes from a live person.20 Another option is to use authentication via more than one biometric modality at the same time, such as a fingerprint in combination with iris recognition, or fingerprint in combination with user keystrokes and navigational patterns. MFA は、認可ユーザが、パスワードなどの知識認証要素、バイオメトリクスの特徴な どの内在認証要素、およびトークンなどの所有認証要素の 3 つの認証要素のうち、少なくとも 2 つを使用して ID を認証することを要求する19。上記のリスクを考慮すると、対象事業体は、SMS テキスト、音声、ビデオによる認証を避け、デジ タルベースの証明書や物理的なセキュリティ・キーなど、AI のディープフェイクがなりすますこと ができない認証形式を使用することにより、AI が操作するディープフェイクやその他の AI を 利用した攻撃に耐える認証要素を使用することを検討すべきである。同様に、対象事業体は、従来の指紋または他のバイオメトリクス認証システムを使用する代わ りに、指紋または他のバイオメトリクス要素が生きている人のものであることを検証す るために、生き返り検出またはテクスチャ分析技術を採用した認証要素を使用することを検討す べきである20。もう 1 つの選択肢は、指紋と虹彩認証の組み合わせ、指紋とユーザのキーストロー クおよびナビゲートパターンの組み合わせなど、複数のバイオメトリクスモダリティによる 認証を同時に使用することである。
In addition to MFA, the Cybersecurity Regulation requires Covered Entities to have other access controls in place that limit the NPI a threat actor can access in case MFA fails to prevent a threat actor from gaining unauthorized access to Information Systems.21 Covered Entities have flexibility to decide, based on their Risk Assessments, what controls to implement and how to implement them; however, the controls must limit an Authorized User’s access privileges to only those necessary for that Authorized User’s job functions, and limit the number of Authorized Users with elevated permissions and access to NPI.22 Covered Entities also must periodically, but at a minimum annually, review access privileges to ensure each Authorized User only has access to NPI the Authorized User needs to perform their job functions and must remove or disable access privileges that are no longer necessary, promptly terminate access privileges following departures, and impose restrictions on how Authorized Users can access devices remotely.23 サイバーセキュリティ規 則は、MFA に加えて、MFA が脅威行為者による情報システムへの不正アクセスを防止できな かった場合に備えて、脅威行為者がアクセスできる NPI を制限するその他のアクセス管 理を実施することを対象事業体に求めている21。また、対象事業体は、各認可ユーザがその職務を遂行するために必要な NPI のみにアク セスできるように、定期的(最低でも毎年)にアクセス権限を見直し、不要となったアクセス 権限を削除または無効にし、退社後速やかにアクセス権限を終了させ、認定ユ ーザがデバイスにリモートアクセスする方法に制限を課さなければならない23
Cybersecurity Training サイバーセキュリティ訓練
Another important and required cybersecurity control that can be used to combat AI-related threats is to provide training for all personnel, including senior executives and Senior Governing Body members. The training should ensure all personnel are aware of the risks posed by AI, procedures adopted by the organization to mitigate risks related to AI, and how to respond to AI-enhanced social engineering attacks.24 In addition, Covered Entities must provide training specifically designed for cybersecurity personnel.25 That training should include how threat actors are using AI in social engineering attacks, how AI is being used to facilitate and enhance existing types of cyberattacks, and how AI can be used to improve cybersecurity.26 AI 関連の脅威に対抗するために使用できるもう一つの重要かつ必要なサイバーセキュリティ管理は、 上級幹部や上級ガバナンス団体メンバーを含むすべての要員に訓練を提供することである。さらに、対象事業体は、サイバーセキュリティ担当者向けに特別に設計された訓練を提供しなければならない25。その訓練には、脅威行為者がソーシャル・エンジニアリング攻撃においてAIをどのように利用しているか、既存のタイプのサイバー攻撃を容易にし、強化するためにAIがどのように利用されているか、サイバーセキュリティを向上させるためにAIをどのように利用できるかを含めるべきである26
If deploying AI directly, or working with a TPSP that deploys AI, relevant personnel should be trained on how to secure and defend AI systems from cybersecurity attacks, and how to design and develop AI systems securely.27 Such understanding is essential for developing effective measures that can protect against AI-related threats. If other personnel are permitted to use AI-powered applications, they should be trained on how to draft queries to avoid disclosing NPI. AI を直接配備する場合、または AI を配備する TPSP と協働する場合、関連する職員は、AI システムを サイバーセキュリティ攻撃からどのようにセキュリティ保護し、防御するか、また AI システムをどのように安全に設計・開発するかについて訓練を受けるべきである27。他の職員がAIを搭載したアプリケーションを使用することが許可されている場合、その職員は、NPIの開示を回避するためのクエリのドラフト方法について訓練を受けるべきである。
Although the Cybersecurity Regulation always has required cybersecurity training for all personnel, Covered Entities must now provide at least annual cybersecurity awareness training that includes social engineering.28 Training on social engineering, including on deepfake attacks, can be effectively delivered through simulated phishing, and voice and video impersonation exercises. Training should cover procedures for what to do when personnel receive unusual requests such as a request for credentials, an urgent money transfer, or access to NPI. For example, trainings should address the need to verify a requestor’s identity and the legitimacy of the request if an employee receives an unexpected money transfer request by telephone, video, or email. Moreover, trainings should address circumstances in which human review and oversight must be included in verification procedures. ディープフェイク攻撃を含むソーシャル・エンジニアリングに関するトレーニングは、フィッシングのシミュレーショ ン、音声やビデオによるなりすましの演習を通じて効果的に実施することができる。研修では、職員がクレデンシャルの要求、緊急の送金、または NPI へのアクセスなど の異常な要求を受けた場合の対応手順を取り上げるべきである。たとえば、従業員が電話、ビデオ、または電子メールで予期しない送金要求を受けた場 合、要求者の身元および要求の正当性を確認する必要性を研修で取り上げるべきである。さらに、研修では、検証手続に人による確認と監視が含まれなければならない状況を取り上げるべきである。
Monitoring モニタリング
In order to detect unauthorized access to, use of, or tampering with Information Systems, especially those on which NPI is maintained, Covered Entities must have a monitoring process in place that can identify new security vulnerabilities promptly so remediation can occur quickly.29 The Cybersecurity Regulation also requires Covered Entities to monitor the activity of Authorized Users as well as email and web traffic to block malicious content and protect against the installation of malicious code on their Information Systems.30 Covered Entities that use AI-enabled products or services, or allow personnel to use AI applications such as ChatGPT, should also consider monitoring for unusual query behaviors that might indicate an attempt to extract NPI and blocking queries from personnel that might expose NPI to a public AI product or system. 対象事業体は、情報システム、特に NPI が保持されている情報システムに対する不正アクセス、 使用、または改ざんを検知するために、新たなセキュリティ脆弱性を迅速に特定し、迅速に改 善を行うことができる監視プロセスを導入しなければならない29。サイバーセキュリティ規 則はまた、対象事業体に対して、認可ユーザの活動、電子メールおよびウェブトラフィックを監 視して、悪意のあるコンテンツをブロックし、情報システムへの悪意のあるコードのインストール を防止することを求めている30。AI対応製品またはサービスを使用する、あるいはChatGPTなどのAIアプリケーションを職員に使用させる対象事業体は、NPI抽出の試みを示す可能性のある異常なクエリ動作を監視し、NPIを公開AI製品またはシステムに公開する可能性のある職員からのクエリをブロックすることも検討すべきである。
Data Management データ管理
Effective data management will limit the NPI at risk of exposure if a threat actor gains access to an entity’s Information Systems. Covered Entities are required to implement data minimization practices as they must dispose of NPI that is no longer necessary for business operations or other legitimate business purposes, which includes NPI used for AI purposes.31 This practice will decrease the ultimate impact of data breaches as there will be less potential for unauthorized access to, or exfiltration of, NPI. Additionally, although not required until November 1, 2025, Covered Entities should maintain and update data inventories as they are crucial for assessing potential risks and ensuring compliance with data protection regulations.32 Data inventories further help entities track NPI so that if there is a breach, they know what NPI may have been exposed and what systems were impacted. Entities should implement data governance procedures that include data collection, storage, processing, and disposal.33 効果的なデータマネジメントは、脅威行為者が事業体の情報システムにアクセスした場合にエクスポージャーのリスクにさらされる NPI を制限する。対象事業体は、事業運営またはその他の合法的な事業目的にとって不要となった NPI を廃棄しなければならないため、データ最小化の実施を求められるが、これには AI の目的に使用される NPI も含まれる31。さらに、2025 年 11 月 1 日までは義務付けられていないが、対象事業体は、潜在的なリスクを評 価し、データ保護規制の遵守を確保するために、データ・インベントリを維持し、更新す べきである32。データ・インベントリは、事業体が NPI を追跡するのに役立つため、情報漏えいが発生 した場合、どの NPI が漏えいした可能性があり、どのシステムが影響を受けたかを知る ことができる。事業体は、データの収集、保管、処理、廃棄を含むデータ・ガバナンス手続きを実施すべきである33
Moreover, if an entity uses AI or relies on a product that uses AI, controls should be in place to prevent threat actors from accessing the vast amounts of data maintained for the accurate functioning of the AI. In these cases, entities should identify all Information Systems that use or rely on AI, including, if applicable, the Information Systems that maintain, or rely on, AI-enabled products and services. These entities also should maintain an inventory of all such systems and prioritize implementing mitigations for those systems that are critical for ongoing business operations.34 さらに、事業体がAIを使用している場合、またはAIを使用する製品に依存している場合、脅威行為者がAIの正確な機能のために保持されている膨大な量のデータにアクセスすることを防止するための管理体制を整備すべきである。このような場合、事業体は、AIを使用する、またはAIに依存するすべての情報システム(該当する場合、AIを使用する製品やサービスを維持する、またはAIに依存する情報システムを含む)を特定すべきである。また、これらの事業体は、そのようなシステムすべてのインベントリを維持し、継続的な事業運営にとって重要なシステムについては、低減の実施を優先すべきである34。
Conclusion 結論
While each organization must evaluate and mitigate the risks relevant to their own business, this Guidance highlights some of the current cybersecurity risks associated with AI that all organizations should consider when developing a cybersecurity program and implementing cybersecurity controls. In addition to AI-related risks, organizations should explore the substantial cybersecurity benefits that can be gained by integrating AI into cybersecurity tools, controls, and strategies. AI’s ability to analyze vast amounts of data quickly and accurately is tremendously valuable for: automating routine repetitive tasks, such as reviewing security logs and alerts, analyzing behavior, detecting anomalies, and predicting potential security threats; efficiently identifying assets, vulnerabilities, and threats; responding quickly once a threat is detected; and expediting recovery of normal operations. 各組織は、それぞれの事業に関連するリスクを評価し、軽減しなければならないが、本ガイダンスでは、サイバーセキュリティ・プログラムを策定し、サイバーセキュリティ対策を実施する際に、すべての組織が考慮すべき、AIに関連する現在のサイバーセキュリティ・リスクのいくつかに焦点を当てている。AI関連のリスクに加え、組織はAIをサイバーセキュリティ・ツール、統制、戦略に統合することで得られる実質的なサイバーセキュリティ上のメリットを検討すべきである。膨大な量のデータを迅速かつ正確に分析するAIの能力は、セキュリティ・ログやアラートの確認、行動の分析、異常の検知、潜在的なセキュリティ脅威の予測など、定型的な反復作業の自動化、資産、脆弱性、脅威の効率的な特定、脅威が検知された場合の迅速な対応、通常業務の復旧の迅速化にとって、非常に大きな価値を持つ。
As AI continues to evolve, so too will AI-related cybersecurity risks. Detection of, and response to, AI threats will require equally sophisticated countermeasures, which is why it is vital for Covered Entities to review and reevaluate their cybersecurity programs and controls at regular intervals, as required by Part 500.  AIが進化し続けるにつれて、AIに関連するサイバーセキュリティのリスクも増加する。AIの脅威の検知と対応には、同様に高度な対策が必要となるため、対象事業体にとっては、Part 500が要求する定期的なサイバーセキュリティプログラムと管理の見直しと再評価が不可欠となる。
Full Definitions of Part 500 Terms Used Herein: ここで使用されるPart 500の用語の完全な定義:
Authorized user is defined in 23 NYCRR § 500.1(b) as “any employee, contractor, agent or other person that participates in the business operations of a covered entity and is authorized to access and use any information systems and data of the covered entity”. 認可ユーザは、23 NYCRR § 500.1(b)において、「対象事業体の事業運営に参加し、対象事業体の情報システムおよびデータへのアクセスおよび使用を許可された従業員、請負業者、代理人またはその他の者」と定義される。
Covered entity is defined in 23 NYCRR § 500.1(e) as “any person operating under or required to operate under a license, registration, charter, certificate, permit, accreditation or similar authorization under the Banking Law, the Insurance Law or the Financial Services Law, regardless of whether the covered entity is also regulated by other government agencies.” 対象事業体は、23 NYCRR §500.1(e)において、「対象事業体が他の政府機関によっても規制されているか否かにかかわらず、銀行法、保険法または金融サービス法に基づくライセンス、登録、チャーター、証明書、許可、認可または類似の認可の下で事業を営む者、または営むことを要求される者」と定義されている。
Cybersecurity event is defined in 23 NYCRR § 500.1(f) as “any act or attempt, successful or unsuccessful, to gain unauthorized access to, disrupt or misuse an information system or information stored on such information system.” サイバーセキュリティイベントとは、23 NYCRR § 500.1(f)において、「情報システムまたは当該情報システム上に保存された情報への不正アクセス、情報システムの混乱または不正利用を図る行為または試みであって、その成否は問わない」と定義されている。
Cybersecurity incident is defined in 23 NYCRR § 500.1(g) as “a cybersecurity event that has occurred at the covered entity, its affiliates, or a third-party service provider that: サイバーセキュリティインシデントは 、23 NYCRR § 500.1(g)において、「対象事業体、その関連会社、またはサードパーティ・サービス・プロバイダで発生したサイバーセキュリティイベント:
1. impacts the covered entity and requires the covered entity to notify any government body, self-regulatory agency or any other supervisory body; 1. 対象事業体にガバナンスの影響を与え、対象事業体が政府機関、自主規制機関、またはその他の監督機関に通知する必要がある;
2. has a reasonable likelihood of materially harming any material part of the normal operation(s) of the covered entity; or 2. 対象事業体の通常業務の重要な部分に重大な損害を与える合理的な可能性がある。
3. results in the deployment of ransomware within a material part of the covered entity’s information systems.” 3. 対象事業体の情報システムの重要な部分にランサムウェアを展開させる。
Information system is defined in 23 NYCRR § 500.1(i) as “a discrete set of electronic information resources organized for the collection, processing, maintenance, use, sharing, dissemination or disposition of electronic information, as well as any specialized system such as industrial/process controls systems, telephone switching and private branch exchange systems, and environmental control systems”. 情報システムとは、23 NYCRR § 500.1(i)において、「電子情報の収集、処理、保守、使用、共有、配布または処分のために組織された電子情報リソースの個別集合、ならびに産業/プロセス制御システム、電話交換システムおよび専用交換システム、環境制御システムなどの特殊システム」と定義されている。
Nonpublic information is defined in 23 NYCRR § 500.1(k) as “all electronic information that is not publicly available information and is: 非公開情報とは、23 NYCRR § 500.1(k)において、「一般に入手可能な情報でないすべての電子情報であり、かつ以下のもの」と定義されている:
1. business related information of a covered entity the tampering with which, or unauthorized disclosure, access or use of which, would cause a material adverse impact to the business, operations or security of the covered entity; 1. 対象事業体の業務関連情報であって、その改ざん、不正な開示、アクセスまたは使用が、対象事業体の事業、運営またはセキュリティに重大な悪影響を及ぼすもの;
2. any information concerning an individual which because of name, number, personal mark, or other identifier can be used to identify such individual, in combination with any one or more of the following data elements: (i) social security number; (ii) drivers’ license number or non-driver identification card number; (iii) account number, credit or debit card number; (iv) any security code, access code or password that would permit access to an individual’s financial account; or (v) biometric records; 2. 個人に関する情報であって、氏名、番号、個人マーク、またはその他の識別子が、以下のデータ要素のいずれか1つ以上と組み合わされることにより、当該個人を特定できるもの: (i)社会保障番号、(ii)運転免許証番号または運転免許証以外の身分証明書番号、(iii)口座番号、クレジットまたはデビットカード番号、(iv)個人の金融口座へのアクセスを許可するセキュリティコード、アクセスコードまたはパスワード、または(v)バイオメトリクス記録;
3. any information or data, except age or gender, in any form or medium created by or derived from a health care provider or an individual and that relates to: (i) the past, present or future physical, mental or behavioral health or condition of any individual or a member of the individual's family; (ii) the provision of health care to any individual; or (iii) payment for the provision of health care to any individual.” 3. 年齢または性別を除く、医療プロバイダまたは個人によって作成された、または個人から 得られた、以下のいずれかに関連する情報またはデータ: (i)個人またはその家族の過去、現在、または将来の身体的、精神的、または行動的な健康状態または状態、(ii)個人への医療の提供、または(iii)個人への医療の提供に対する支払い。
Risk assessment is defined in 23 NYCRR § 500.1(p) as “the process of identifying, estimating and prioritizing cybersecurity risks to organizational operations (including mission, functions, image and reputation), organizational assets, individuals, customers, consumers, other organizations and critical infrastructure resulting from the operation of an Information System. Risk assessments incorporate threat and vulnerability analyses and consider mitigations provided by security controls planned or in place.” リスクアセスメントは、23 NYCRR § 500.1(p)において、「情報システムの運用に起因する組織運営(使命、機能、イメージ、評判を含む)、組織資産、個人、顧客、消費者、他の組織、重要インフラに対するサイバーセキュリティリスクを特定、推定、優先順位付けするプロセス」と定義されている。リスクアセスメントには、脅威と脆弱性の分析が組み込まれ、計画中または実施中のセキュ リティ対策による低減が考慮される。
Senior governing body is defined in 23 NYCRR § 500.1(q) as “the board of directors (or an appropriate committee thereof) or equivalent governing body or, if neither of those exist, the senior officer or officers of a covered entity responsible for the covered entity’s cybersecurity program. For any cybersecurity program or part of a cybersecurity program adopted from an affiliate under section 500.2(d) of this Part, the senior governing body may be that of the affiliate.” 上級統治機関とは、23 NYCRR § 500.1(q)において、「取締役会(またはその適切な委員会)または同等の統治機関、またはそのいずれでもない場合は、対象事業体のサイバーセキュリティプログラムに責任を負う対象事業体の上級役員または幹部」と定義されている。本編第 500.2(d)項に基づき関連団体から採用されたサイバーセキュリティ・プログラムまたはサイバーセ キュリティ・プログラムの一部については、上級統治機関は関連団体のものとすることができる。
Third-party service provider is defined in 23 NYCRR § 500.1(s) as “a person that: サードパーティ・サービス・プロバイダは、23 NYCRR § 500.1(s)において「以下の者」と定義されている:
1. is not an affiliate of the covered entity; 1. 対象事業体の関連会社でない;
2. is not a governmental entity; 2. 政府事業体でない;
3. provides services to the covered entity; and 3. 対象事業体にサービスを提供する。
4. maintains, processes or otherwise is permitted access to nonpublic information through its provision of services to the covered entity.” 4. 対象事業体へのサービス提供を通じて、非公開情報を維持、処理、またはその他の方法でアクセスすることを許可されている者」である。

 

 

1 New York State defines AI as “a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments. Artificial intelligence systems use machine- and human-based inputs to perceive real and virtual environments; abstract such perceptions into models through analysis in an automated manner; and use model inference to formulate options for information or action. The definition includes but is not limited to systems that use machine learning, large language model, natural language processing, and computer vision technologies, including generative AI.” See [web]
1ニューヨーク州は、AIを「人間が定義した所定の目的に対して、現実環境または仮想環境に影響を与える予測、推奨、または決定を行うことができる機械ベースのシステム」と定義している。人工知能システムは、機械および人間ベースの入力を使用して現実および仮想環境を認識し、自動化された方法で分析を通じてそのような認識をモデルに抽象化し、モデルの推論を使用して情報や行動の選択肢を策定する。この定義には、生成的AIを含む、機械学習、大規模言語モデル、自然言語処理、コンピュータビジョン技術を使用するシステムが含まれるが、これらに限定されるものではない。[web] を参照のこと。
2 Covered Entity is defined in 23 NYCRR § 500.1(e). Capitalized terms used herein are defined in the Cybersecurity Regulation. Section references used herein refer to sections in 23 NYCRR § Part 500. 2対象事業体は、23 NYCRR § 500.1(e)に定義されている。本書で使用される大文字の用語は、サイバーセキュリティ規制で定義される。本書で使用されるセクションの参照は、23 NYCRR § Part 500のセクションを指す。
3 There has been a 3,000% increase in deepfakes according to Onfido’s Identity Fraud Report 2024. [web] . 3Onfido の「Identity Fraud Report 2024」によると、ディープフェイクは 3,000%増加している。 [web]
4 Information System is defined in § 500.1(i); Nonpublic information is defined in § 500.1(k). 4情報システムは§500.1(i)で定義されている。非公開情報は§500.1(k)で定義されている。
5 For example, in February 2024, a Hong Kong finance worker was tricked into transferring $25 million to threat actors after they set up a video call in which every other person participating, including the Chief Finance Officer, was a video deepfake. See [web] . Other similar examples abound. See, e.g., [web] (a senior executive at a UK-based energy firm was tricked into wiring €220,000 to the account of a threat actor using an AI-generated voice deepfake that accurately mimicked the distinct German accent and tone of the chief executive of the firm’s parent company, who requested the urgent wire transfer of funds); [web] (threat actors created a deepfake “AI hologram” of a Binance PR executive that was used to conduct Zoom video calls with companies asking Binance to list their digital asset on Binance.com);[web] (threat actor used deepfake technology to bypass facial recognition security measures and drained company’s cryptocurrency account of $11 million); [web] (threat actors used deepfake voice to trick employee into providing multi-factor authentication code leading to the theft of $15 million in cryptocurrency). 5例えば、2024 年 2 月、香港の財務担当者が、最高財務責任者を含む参加者全員がビデオディープフェイクであ るビデオ通話をセットアップした後、脅威行為者に 2,500 万ドルを送金するよう騙された。[web] を参照のこと。他にも似たような例はたくさんある。例えば、以下を参照のこと、 [web] (英国を拠点とするエネルギー会社の上級幹部が、緊急の電信送金を依頼した会社の親会社の最高経営責任者のドイツ語のアクセントとトーンを正確に模倣したAI生成的な音声ディープフェイクを使用して、脅威行為者の口座に22万ユーロを送金するようだまされた);[web] (脅威行為者は、バイナンスの広報幹部のディープフェイク「AIホログラム」を作成し、バイナンスにデジタル資産の上場を依頼する企業とのZoomビデオ通話の実施に使用した。 com)、[web] / (脅威行為者はディープフェイク技術を使用して顔認識セキュリティ対策を回避し、企業の暗号通貨口座から1100万ドルを引き出した)、[web] (脅威行為者はディープフェイク音声を使用して従業員を騙し、多要素認証コードを提供させ、1500万ドルの暗号通貨を窃取した)。
6 See [web] (“AI systems learn and improve through exposure to vast amounts of data”), and [web] (AI algorithms require terabytes or petabytes of data). 6 [web] (「AIシステムは膨大な量のデータにエクスポージャーすることで学習し改善する」)、[web] (AIアルゴリズムはテラバイトまたはペタバイトのデータを必要とする)参照。
7 Authorized user is defined in 23 NYCRR § 500.1(b). 7認可ユーザーは、23 NYCRR § 500.1(b)に定義されている。
8 Third-party service provider is defined in § 500.1(s). 8サードパーティ・サービス・プロバイダは、500.1 条(s)に定義されている。
9 See e.g., principle of “defense-in-depth”, [web] includes robust network segmentation to impede lateral movement across a network. Although not specifically required by Part 500, entities should segregate networks where practicable to enhance security. 9例えば、「深層防御」の原則、[web] を参照のこと。深層防護には、ネットワーク全体の横方向の動きを妨げるための強固なネットワークセグメンテーションが含まれる。パート 500 では特に要求されていないが、事業体は、セキュリティを強化するために、実行可能な場 合、ネットワークを分離すべきである。
10 See §§ 500.2 and 500.3. Risk Assessment is defined in § 500.1(p). The Risk Assessment should take into account a Covered Entity’s size, business model, and complexity as well as the type of data it maintains. Measures and controls implemented should be proportionate to the Covered Entity’s resources and risks. 10第 500.2 条および第 500.3 条を参照のこと。リスクアセスメントは、§500.1(p)に定義されている。リスクアセスメントは、対象事業体の規模、ビジネスモデル、複雑性、及び対象事業 体が保持するデータの種類を考慮しなければならない。実施する対策及び制御は、対象事業体のリソース及びリスクに見合ったものでなければならない。
11 See § 500.11. 11第 500.11 条を参照のこと。
12 See §§ 500.2, 500.3, and 500.9. 12第 500.2 条、第 500.3 条及び第 500.9 条を参照のこと。
13 See § 500.1(f); See § 500.16(a). 13第 500.1 条(f)参照; 第 500.16 条(a)参照。
14 See § 500.4(d); Senior governing body is defined in § 500.1(q). 14500.4(d)節参照;上級統治団体は、500.1(q)節に定義されている。
15 See § 500.11(a). 15500.11(a)節を参照のこと。
16 See § 500.7. 16500.7 節を参照のこと。
17 See § 500.12. As DFS has stated in its Guidance on Multi-Factor Authentication, MFA “is one of the most potent ways to reduce cyber risk". 17第 500.12 条を参照のこと。DFS が「多要素認証に関するガイダンス」で述べているように、MFA は「サイバーリスクを低減する最も有力な方法の 1 つ」である。
18 See § 500.12. Notably, MFA has been required by the Cybersecurity Regulation since it was first promulgated in 2017. 18500.12 節を参照のこと。注目すべきは、MFAはサイバーセキュリティ規制が2017年に初めて公布されて以来、義務付けられていることである。
19 See § 500.1(j). 19500.1条(j)を参照のこと。
20 See [web] . 20 [web] を参照のこと。
21 See § 500.7. While not explicitly required by the Cybersecurity Regulation, best practice is to employ “zero trust” principles, meaning Covered Entities should not implicitly trust the identity of any Authorized User by default. Covered Entities should, to the extent possible and appropriate to their risks, require authentication to verify the identity of an Authorized User each time the Authorized User wants to access an Information System with NPI maintained thereon. See e.g., [web] . 21500.7 条を参照のこと。サイバーセキュリティ規制によって明示的に要求されているわけではないが、ベストプラク ティスは、「ゼロトラスト」原則を採用することであり、これは、対象事業体は、デフォルトで 認可ユーザのアイデンティティを暗黙的に信頼すべきではないことを意味する。対象事業体は、そのリスクに応じて可能かつ適切な範囲で、認可ユーザが NPI を保持する情報システムにアクセスしようとする都度、認可ユーザの身元を確認する認証 を要求すべきである。例えば、[web] を参照のこと。
22 See § 500.7(1) and (2). For example, someone on the internal audit team should have their normal user account for their daily work (e.g., email access and the ability to log into the user’s workstation) and a privileged account for reviewing information needed to audit that is read-only since there would be no need to make changes. 22500.7 条(1)および(2)を参照のこと。例えば、内部監査チームの誰かが、日常業務用の通常のユーザ・アカウント(例えば、 電子メール・アクセスやユーザのワークステーションにログインする能力)と、変更する必要がないため 読み取り専用である監査に必要な情報をレビューするための特権アカウントを持つべきである。
23 See § 500.7(a)(4), (5) and (6). 23500.7 条(a)(4)、(5)及び(6)を参照のこと。
24 See § 500.14(a)(3). 24500.14 条(a)(3)参照。
25 See § 500.10(a)(2), 25500.10(a)(2)を参照のこと、
26 Covered Entities may want to consider using a commercial cybersecurity awareness training product that includes AI-related risk content. Some of these offerings incorporate AI to create risk-profiles for the personnel being trained, to create customized phishing simulations and training suggestions based on those personnel’s individual knowledge and skill level. 26対象事業体は、AI 関連リスクの内容を含む市販のサイバーセキュリティ意識向上トレーニング 製品の利用を検討するとよい。このような製品の中には、研修対象者のリスクプロファイルを作成し、研修対象者個人の知識やスキルレベルに基づいてカスタマイズされたフィッシングシミュレーションや研修案を作成するために、AIを組み込んでいるものがある。
27 For example, MITRE ATLAS maintains a knowledge base of adversary tactics and techniques based on real-world attack observations and realistic demonstrations from AI red teams and security groups. [pdf] . 27例えば、MITRE ATLASは現実世界の攻撃観察とAIのレッドチームやセキュリティ・グループからの現実的なデモンストレーションに基づき、敵対的な戦術やテクニックの知識ベースを維持している。[pdf]
28 See § 500.14(a)(3). 28500.14 条(a)(3)を参照のこと。
29 See § 500.5(b). 29第 500.5 条(b)を参照のこと。
30 See §§ 500.5(b) and 500.14(a)(2); 23 NYCRR § 500.14(a)(1) requires Covered Entities to implement risk-based policies, procedures and controls designed to monitor the activity of Authorized Users and detect unauthorized access or use of, or tampering with, NPI by such Authorized Users. 30第 500.5 条(b)および第 500.14 条(a)(2)参照。23 NYCRR 第 500.14 条(a)(1)は、認可ユーザの活動を監視し、当該認可ユーザによる NPI への不正アクセスもしくは使用、または改ざんを検知するために設計された、リスクに基づ く方針、手続および管理を実施することを対象事業体に求めている。
31 See § 500.13(b). 31500.13 条(b)を参照のこと。
32 See § 500.13(a). 32500.13 条(a)を参照のこと。
33 See § 500.3(b). 33500.3 条(b)を参照のこと。
34 See § 500.13. As of November 1, 2025, a Covered Entity must maintain these inventories for all of the Covered Entity’s Information Systems. Covered Entities with AI assets should consider implementing these asset inventory requirements immediately, at least with respect to their AI assets. 34第 500.13 条を参照のこと。2025年11月1日以降、対象事業体は、対象事業体のすべての情報システムに関して、これらのインベントリを維持しなければならない。AI 資産を有する対象事業体は、少なくとも AI 資産に関して、これらの資産インベントリ要件 を直ちに実施することを検討すべきである。

 

ここに情報はまとまっています...

サイバーセキュリティ・リソースセンター...

Cybersecurity Resource Center

 

 規制...

・2023.11.01 [PDF]  SECOND AMENDMENT TO 23 NYCRR 500

1_20240127222001

 


 

|

« 内閣官房 NISC 「第 17 回 日 ASEAN サイバーセキュリティ政策会議の結果 」と「2024 年「日米豪印サイバー・チャレンジ」に関する共同声明 」 | Main | 米国 SEC Unisys、Checkpointほか、年次報告書における誤解を与えるセキュリティ開示で罰金を支払う... »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 内閣官房 NISC 「第 17 回 日 ASEAN サイバーセキュリティ政策会議の結果 」と「2024 年「日米豪印サイバー・チャレンジ」に関する共同声明 」 | Main | 米国 SEC Unisys、Checkpointほか、年次報告書における誤解を与えるセキュリティ開示で罰金を支払う... »