シンガポール サイバーセキュリティ局 AIシステムのセキュリティ確保に関するガイドラインとコンパニオンガイド (2024.10.15)
こんにちは、丸山満彦です。
シンガポールのサイバーセキュリティ局がAIシステムのセキュリティ確保に関するガイドラインとより詳細なコンパニオンガイドを公表しています...
● Cyber Security Agency of Singapore
・2024.10.15 Guidelines and Companion Guide on Securing AI Systems
Guidelines and Companion Guide on Securing AI Systems | AIシステムのセキュリティ確保に関するガイドラインとコンパニオンガイド |
Artificial Intelligence (AI) offers significant benefits for the economy and society. It will drive efficiency and innovation across various sectors, including cybersecurity. To harness these benefits, it is crucial that AI systems behave as intended, and outcomes are safe, secure, and responsible. However, AI systems are vulnerable to adversarial attacks and other cybersecurity risks. These can lead to data breaches or other harmful outcomes. | 人工知能(AI)は経済と社会に大きな利益をもたらす。サイバーセキュリティを含む様々な分野で効率化とイノベーションを促進する。このような利点を活用するためには、AIシステムが意図したとおりに動作し、その結果が安全、安心かつ責任あるものであることが極めて重要である。しかし、AIシステムは敵対的な攻撃やその他のサイバーセキュリティリスクに対して脆弱性がある。これらはデータ漏洩やその他の有害な結果につながる可能性がある。 |
AI should be secure by design and secure by default, as with all digital systems. This proactive approach will allow system owners to manage security risks from the outset. The Cyber Security Agency of Singapore (CSA) has developed Guidelines on Securing AI Systems to help system owners secure AI throughout its lifecycle. These guidelines will help to protect AI systems against classical cybersecurity risks such as supply chain attacks, and novel risks such as Adversarial Machine Learning. | AIは、すべてのデジタルシステムと同様に、設計上安全であるべきであり、デフォルトで安全であるべきである。このプロアクティブなアプローチにより、システム所有者は当初からセキュリティリスクをマネジメントできるようになる。シンガポールサイバーセキュリティ庁(CSA)は、システム所有者がライフサイクルを通じてAIを安全に保護できるよう、AIシステムの保護に関するガイドラインを策定した。これらのガイドラインは、サプライチェーン攻撃などの古典的なサイバーセキュリティリスクや、敵対的機械学習などの新たなリスクからAIシステムを保護するのに役立つ。 |
To support system owners, CSA has collaborated with AI and cybersecurity practitioners to develop a Companion Guide on Securing AI Systems. This is a community-driven resource to complement the Guidelines on Securing AI Systems. It is not prescriptive, and curates practical measures, security controls and best practices from industry and academia. It also references resources such as the MITRE ATLAS database and OWASP Top 10 for Machine Learning and Generative AI. We hope this will be a useful reference for system owners in navigating this developing space. | システム所有者を支援するため、CSAはAIおよびサイバーセキュリティの実務家と協力して、AIシステムのセキュリティ確保に関するコンパニオンガイドを開発した。これは、AIシステムのセキュリティ確保に関するガイドラインを補完するためのコミュニティ主導のリソースである。規定的なものではなく、産業界や学界からの実践的な対策、セキュリティ管理、ベストプラクティスを集めたものである。また、MITRE ATLASデータベースやOWASP Top 10 for Machine Learning and Generative AIなどのリソースも参照している。システム所有者がこの発展途上の領域をナビゲートする際の有用な参考資料となることを期待している。 |
Guidelines on Securing AI Systems (0.4mb) | AIシステムのセキュリティ確保に関するガイドライン (0.4mb) |
Companion Guide on Securing AI Systems (1.2mb) | AIシステムの保護に関するコンパニオンガイド (1.2mb) |
・[PDF] Guidelines on Securing AI Systems
・[PDF] Companion Guide on Securing AI Systems
« 米国 ホワイトハウス 人工知能(AI)に関する国家安全保障覚書 (NSM) と 国家安全保障におけるAIガバナンスとリスクマネジメントを前進させる枠組み(2024.10.24) | Main | 英国 世界のプライバシー当局がデータ・スクレイピングに関するフォローアップ共同声明を発表 »
Comments