CSA-JC AI ワーキンググループ AIレジリエンス:AIの安全性に関する革命的なベンチマークモデル (2024.09.20) +過去分も...
こんにちは、丸山満彦です。
しばらくCloud Security Alliance; CSAの文書を紹介していませんでしたが... 日本チャピュターでは以前から多くの翻訳版を作っています。AIに関連するものも、AIワーキンググループによって、翻訳されてきています。
● CSA-JC - AIワーキンググループ
・2024.09.20 [PDF] AIレジリエンス:AIの安全性に関する革命的なベンチマークモデル
目次...
エグゼクティブ サマリー
はじめに
パート I: 基礎を理解する
ガバナンス vs. コンプライアンス
ガバナンスとコンプライアンス:動くターゲット
AIを取り巻く状況
AIの歴史
AIを取り巻く状況
Machine Learning(ML、機械学習)
Tiny Machine Learning(tinyML)
Deep Learning(Advanced ML、ディープラーニング)
Generative Artificial Intelligence
Artificial General Intelligence
トレーニング方法の概要
教師あり学習(Supervised Learning)
教師なし学習(Unsupervised Learning)
強化学習(Reinforced Learning)
半教師あり学習(Semi-supervised Learning)
自己教師あり学習(Self-supervised Learning)
連合学習(Federated Learning)
トレーニング方法の規則と倫理的考慮事項
AI 技術のライセンス、特許、著作権
パート II: 現実世界でのケーススタディと 業界の課題
AIの歴史 ケーススタディ
2016:マイクロソフトの Tay
2018: アマゾンのAI採用ツールにおける女性に対するバイアス
2019年:テスラ オートパイロット事故
2019年:ヘルスケア・アルゴリズムにおける人種バイアス
2019年:アップルカードの性差別疑惑
2020:偏った犯罪者評価システム
2022: エア・カナダ、チャットボットによる払い戻しに拘束されるポリシー
2023:訴訟:ユナイテッドヘルスの欠陥AIが高齢者のケアを拒否
2024: Google Gemini:AIのバイアスにおける教訓
産業における規制と課題
自動車
航空
重要インフラストラクチャー&エッセンシャルサービス
防衛
教育
ファイナンス
ヘルスケア
パート III: AI レジリエンスの再構築: 進化に着想を得たベンチマークモデル
比較生物学的進化とAI 開発
AI システムにおける多様性とレジリエンス
AI レジリエンス・ベンチマーキングの課題
AI レジリエンス - 定義の提案
AI レジリエンススコアの提案
インテリジェンスの認識
インテリジェントシステムにおける根本的な違い
参考文献
-----
CSAのページ...
● CSA
・2024.09.23 AI Resilience: A Revolutionary Benchmarking Model for AI Safety - Japanese Translation
オリジナルのページ
・2024.05.05 AI Resilience: A Revolutionary Benchmarking Model for AI Safety
AI Resilience: A Revolutionary Benchmarking Model for AI Safety | AIレジリエンス:AIの安全性のための画期的なベンチマークモデル |
The rapid evolution of Artificial Intelligence (AI) promises unprecedented advances. However, as AI systems become increasingly sophisticated, they also pose escalating risks. Past incidents, from biased algorithms in healthcare to malfunctioning autonomous vehicles, starkly highlight the consequences of AI failures. Current regulatory frameworks often struggle to keep pace with the speed of technological innovation, leaving businesses vulnerable to both reputational and operational damage. | 人工知能(AI)の急速な進化は、かつてない進歩を約束する。しかし、AIシステムがますます高度化するにつれ、リスクも増大する。医療におけるバイアスのかかったアルゴリズムから自動運転車の故障まで、過去のインシデントは、AIの失敗がもたらす結果をはっきりと浮き彫りにしている。現在の規制枠組みは、技術革新のスピードに追いつくのに苦労することが多く、企業は評判や業務上のダメージに対して脆弱な状態に置かれている。 |
This publication from the CSA AI Governance & Compliance Working Group addresses the urgent need for a more holistic perspective on AI governance and compliance, empowering decision makers to establish AI governance frameworks that ensure ethical AI development, deployment, and use. The publication explores the foundations of AI, examines issues and case studies across critical industries, and provides practical guidance for responsible implementation. It concludes with a novel benchmarking approach that compares the (r)evolution of AI with biology and introduces a thought-provoking concept of diversity to enhance the safety of AI technology. | CSA AI ガバナンスおよびコンプライアンス作業部会による本書は、AI のガバナンスとコンプライアンスに関するより包括的な視点の必要性を緊急に訴え、倫理的な AI の開発、展開、利用を保証する AI ガバナンスの枠組みを構築するための意思決定者を支援する。本書では、AI の基礎を探究し、重要な産業分野における問題やケーススタディを検証し、責任ある導入のための実践的な指針を提供している。そして、AIの進化を生物学と比較する新しいベンチマーキングのアプローチを提示し、AI技術の安全性を高めるための多様性という示唆に富む概念を紹介して結んでいる。 |
Key Takeaways: | 主な要点: |
・The difference between governance and compliance | ・ガバナンスとコンプライアンスの違い |
・The history and current landscape of AI technologies | ・AI技術の歴史と現在の状況 |
・The landscape of AI training methods | ・AIトレーニング方法の現状 |
・Major challenges with real-life AI applications | ・現実のAIアプリケーションにおける主な課題 |
・AI regulations and challenges in different industries | ・AI規制と各業界における課題 |
・How to rate AI quality by using a benchmarking model inspired by evolution | ・進化から着想を得たベンチマーキングモデルを使用してAIの品質を評価する方法 |
The other two publications in this series discuss core AI security responsibilities and the AI regulatory environment. By outlining recommendations across these key areas of security and compliance in 3 targeted publications, this series guides enterprises to fulfill their obligations for responsible and secure AI development and deployment. | このシリーズの他の2つの出版物では、AIセキュリティの主な責任とAI規制環境について説明している。このシリーズでは、3つのターゲットを絞った出版物で、セキュリティとコンプライアンスの主要分野における推奨事項を概説することで、エンタープライズが責任を持って安全なAI開発と展開を行うための義務を果たすことを支援する。 |
・2024.08.14 [PDF] AI組織の責任:コアセキュリティの責任
目次...
エグゼクティブサマリー
はじめに
AI責任共有モデル
AI対応アプリケーションの主要レイヤー
データ中心のAIシステムの基本構成要素
前提条件
想定読者
責任と役割の定義
マネジメントと戦略
ガバナンスとコンプライアンス
技術およびセキュリティ
オペレーションと開発
引用
1.AIトレーニングにデータセキュリティとプライバシーを組み込む
11 データの真正性と同意の管理
12 匿名化と仮名化
13 データ最小化
14 データへのアクセス制御
15 安全な保管と送信
2 モデルセキュリティ
21 モデルへのアクセス制御
211認証と認可のフレームワーク
212 モデルインターフェースレート制限
213 モデルライフサイクル管理におけるアクセス制御
22 セキュアモデルランタイム環境
221ハードウェアベースのセキュリティ機能
222 ネットワークセキュリティコントロール
223 OSレベルのセキュリティ強化とセキュアなコンフィギュレーション
224 K8sとコンテナのセキュリティ
225 クラウド環境セキュリティ
23 脆弱性とパッチ管理
231 MLコードの完全性保護
233 承認されたバージョンを検証するためのコード署名
234 Infrastructure as Codeアプローチ
24 MLOpSパイプラインセキュリティ
241 施弱性のためのソースコードスキャン
242 攻撃に対するモデルの堅性のテスト
243 各ステージにおけるパイプラインの完全性の検証
244 モニタリングオートメーションスクリプト
25 AIモデルガバナンス
251 モデルリスクアセスメント
252 ビジネス承認手続き
253 モデルモニタリング要件
254 新しいモデルの検証プロセス
26. セキュアなモデルデプロイ
261 カナリアリリース
262 ブルーグリーンデプロイ
264ロールバック機能
265 デコミッショニングモデル
3.脆弱性管理
31 AIIML資産インベントリ
32 継続的な脂弱性スキャン
33リスクに基づく 優先順位付け
34 Remediation Tracking
35 例外処理
36 メトリクスの報告
結論
略語
-----
CSAのページ...
● CSA
オリジナル...
AI Organizational Responsibilities - Core Security Responsibilities | AI 組織の責任 - セキュリティの主要責任 |
This publication from the CSA AI Organizational Responsibilities Working Group provides a blueprint for enterprises to fulfill their core information security responsibilities pertaining to the development and deployment of Artificial Intelligence (AI) and Machine Learning (ML). Expert-recommended best practices and standards, including NIST AI RMF, NIST SSDF, NIST 800-53, and CSA CCM, are synthesized into 3 core security areas: data protection mechanisms, model security, and vulnerability management. Each responsibility is analyzed using quantifiable evaluation criteria, the RACI model for role definitions, high-level implementation strategies, continuous monitoring and reporting mechanisms, access control mapping, and adherence to foundational guardrails. | CSA AI 組織の責任ワーキンググループによる本書は、人工知能(AI)および機械学習(ML)の開発と展開に関連する情報セキュリティの主要責任をエンタープライズが果たすための青写真を提供する。専門家が推奨するベストプラクティスと標準(NIST AI RMF、NIST SSDF、NIST 800-53、CSA CCMなど)は、データ防御メカニズム、モデルセキュリティ、脆弱性管理という3つのコアセキュリティ分野に統合されている。各責任は、定量化可能な評価規準、役割定義のためのRACIモデル、ハイレベルな実装戦略、継続的なモニタリングと報告メカニズム、アクセス管理マッピング、基本的なガードレールへの準拠などを用いて分析されている。 |
Key Takeaways: | 主な要点: |
The components of the AI Shared Responsibility Model | AI共有責任モデルの構成要素 |
・How to ensure the security and privacy of AI training data | ・AI学習データのセキュリティとプライバシーを確保する方法 |
・The significance of AI model security, including access controls, secure runtime environments, vulnerability and patch management, and MLOps pipeline security | ・アクセス管理、安全な実行環境、脆弱性およびパッチ管理、MLOpsパイプラインのセキュリティなど、AIモデルセキュリティの重要性 |
・The significance of AI vulnerability management, including AI/ML asset inventory, continuous vulnerability scanning, risk-based prioritization, and remediation tracking | ・AI/ML資産のインベントリ、継続的な脆弱性スキャン、リスクベースの優先順位付け、修正の追跡など、AIの脆弱性マネジメントの重要性 |
The other two publications in this series discuss the AI regulatory environment and a benchmarking model for AI resilience. By outlining recommendations across these key areas of security and compliance in 3 targeted publications, this series guides enterprises to fulfill their obligations for responsible and secure AI development and deployment. | このシリーズの他の2つの記事では、AIの規制環境とAIのレジリエンスのベンチマークモデルについて説明している。このシリーズでは、3つのターゲットを絞った記事で、セキュリティとコンプライアンスの主要分野における推奨事項を概説することで、エンタープライズが責任を持って安全にAIを開発・展開するための義務を果たすための指針となる。 |
« 米国 NSA "No Such Agency"による"No Such Podcast" 2回から5回(毎週 6回シリーズ) | Main | 米国 司法省 マイクロソフトが協力し、合わせて100以上のドメインを差し押さえた »
Comments