« 米国 NSA "No Such Agency"による"No Such Podcast" 2回から5回(毎週 6回シリーズ) | Main | 米国 司法省 マイクロソフトが協力し、合わせて100以上のドメインを差し押さえた »

2024.10.05

CSA-JC AI ワーキンググループ AIレジリエンス:AIの安全性に関する革命的なベンチマークモデル (2024.09.20) +過去分も...

こんにちは、丸山満彦です。

しばらくCloud Security Alliance; CSAの文書を紹介していませんでしたが... 日本チャピュターでは以前から多くの翻訳版を作っています。AIに関連するものも、AIワーキンググループによって、翻訳されてきています。

 

CSA-JC - AIワーキンググループ

・2024.09.20 [PDF] AIレジリエンス:AIの安全性に関する革命的なベンチマークモデル

20241004-235222

 

目次...

エグゼクティブ サマリー

はじめに

パート I: 基礎を理解する
ガバナンス vs. コンプライアンス
ガバナンスとコンプライアンス:動くターゲット
AI
を取り巻く状況
 AI
の歴史
 AI
を取り巻く状況
  Machine Learning(ML
、機械学習)
  Tiny Machine Learning(tinyML)
  Deep Learning(Advanced ML、ディープラーニング
)
  Generative Artificial Intelligence
  Artificial General Intelligence
 トレーニング方法の概要
  教師あり学習(Supervised Learning)
  教師なし学習(Unsupervised Learning)
  強化学習(Reinforced Learning)
  半教師あり学習(Semi-supervised Learning)
  自己教師あり学習(Self-supervised Learning)
  連合学習(Federated Learning)
  トレーニング方法の規則と倫理的考慮事項

 AI
技術のライセンス、特許、著作権

パート II: 現実世界でのケーススタディと 業界の課題
 AI
の歴史 ケーススタディ
  2016:
マイクロソフトの Tay
  2018: アマゾンのAI採用ツールにおける女性に対するバイアス
  2019年:テスラ オートパイロット事故
  2019年:ヘルスケア・アルゴリズムにおける人種バイアス
  2019年:アップルカードの性差別疑惑
  2020:偏った犯罪者評価システム
  2022: エア・カナダ、チャットボットによる払い戻しに拘束されるポリシー
  2023:訴訟:ユナイテッドヘルスの欠陥AIが高齢者のケアを拒否
  2024: Google Gemini:AIのバイアスにおける教訓

 産業における規制と課題
  自動車
  航空
  重要インフラストラクチャー&エッセンシャルサービス
  防衛
  教育
  ファイナンス
  ヘルスケア

パート III: AI レジリエンスの再構築: 進化に着想を得たベンチマークモデル
 比較生物学的進化とAI 開発
 AI
システムにおける多様性とレジリエンス
 AI
レジリエンス・ベンチマーキングの課題
 AI
レジリエンス - 定義の提案
 AI
レジリエンススコアの提案
 インテリジェンスの認識
 インテリジェントシステムにおける根本的な違い

参考文献

-----

 

CSAのページ...

CSA 

・2024.09.23 AI Resilience: A Revolutionary Benchmarking Model for AI Safety - Japanese Translation

 

オリジナルのページ

・2024.05.05 AI Resilience: A Revolutionary Benchmarking Model for AI Safety

AI Resilience: A Revolutionary Benchmarking Model for AI Safety AIレジリエンス:AIの安全性のための画期的なベンチマークモデル
The rapid evolution of Artificial Intelligence (AI) promises unprecedented advances. However, as AI systems become increasingly sophisticated, they also pose escalating risks. Past incidents, from biased algorithms in healthcare to malfunctioning autonomous vehicles, starkly highlight the consequences of AI failures. Current regulatory frameworks often struggle to keep pace with the speed of technological innovation, leaving businesses vulnerable to both reputational and operational damage.  人工知能(AI)の急速な進化は、かつてない進歩を約束する。しかし、AIシステムがますます高度化するにつれ、リスクも増大する。医療におけるバイアスのかかったアルゴリズムから自動運転車の故障まで、過去のインシデントは、AIの失敗がもたらす結果をはっきりと浮き彫りにしている。現在の規制枠組みは、技術革新のスピードに追いつくのに苦労することが多く、企業は評判や業務上のダメージに対して脆弱な状態に置かれている。
This publication from the CSA AI Governance & Compliance Working Group addresses the urgent need for a more holistic perspective on AI governance and compliance, empowering decision makers to establish AI governance frameworks that ensure ethical AI development, deployment, and use. The publication explores the foundations of AI, examines issues and case studies across critical industries, and provides practical guidance for responsible implementation. It concludes with a novel benchmarking approach that compares the (r)evolution of AI with biology and introduces a thought-provoking concept of diversity to enhance the safety of AI technology. CSA AI ガバナンスおよびコンプライアンス作業部会による本書は、AI のガバナンスとコンプライアンスに関するより包括的な視点の必要性を緊急に訴え、倫理的な AI の開発、展開、利用を保証する AI ガバナンスの枠組みを構築するための意思決定者を支援する。本書では、AI の基礎を探究し、重要な産業分野における問題やケーススタディを検証し、責任ある導入のための実践的な指針を提供している。そして、AIの進化を生物学と比較する新しいベンチマーキングのアプローチを提示し、AI技術の安全性を高めるための多様性という示唆に富む概念を紹介して結んでいる。
Key Takeaways:  主な要点:
・The difference between governance and compliance  ・ガバナンスとコンプライアンスの違い
・The history and current landscape of AI technologies  ・AI技術の歴史と現在の状況
・The landscape of AI training methods  ・AIトレーニング方法の現状
・Major challenges with real-life AI applications ・現実のAIアプリケーションにおける主な課題
・AI regulations and challenges in different industries ・AI規制と各業界における課題
・How to rate AI quality by using a benchmarking model inspired by evolution ・進化から着想を得たベンチマーキングモデルを使用してAIの品質を評価する方法
The other two publications in this series discuss core AI security responsibilities and the AI regulatory environment. By outlining recommendations across these key areas of security and compliance in 3 targeted publications, this series guides enterprises to fulfill their obligations for responsible and secure AI development and deployment. このシリーズの他の2つの出版物では、AIセキュリティの主な責任とAI規制環境について説明している。このシリーズでは、3つのターゲットを絞った出版物で、セキュリティとコンプライアンスの主要分野における推奨事項を概説することで、エンタープライズが責任を持って安全なAI開発と展開を行うための義務を果たすことを支援する。

 

20241005-10841

 

 


 

・2024.08.14 [PDF] AI組織の責任:コアセキュリティの責任

20241005-11747

目次...

エグゼクティブサマリー

はじめに
AI
責任共有モデル
 AI
対応アプリケーションの主要レイヤー
 データ中心のAIシステムの基本構成要素

前提条件

想定読者

責任と役割の定義
 マネジメントと戦略
 ガバナンスとコンプライアンス
 技術およびセキュリティ
 オペレーションと開発

引用

1.AIトレーニングにデータセキュリティとプライバシーを組み込む
11
データの真正性と同意の管理
12
匿名化と仮名化
13
データ最小化
14
データへのアクセス制御
15
安全な保管と送信

2 モデルセキュリティ
21
モデルへのアクセス制御
 211
認証と認可のフレームワーク
 212 モデルインターフェースレート制限
 213 モデルライフサイクル管理におけるアクセス制御

22
セキュアモデルランタイム環境
 221
ハードウェアベースのセキュリティ機能
 222 ネットワークセキュリティコントロール
 223 OSレベルのセキュリティ強化とセキュアなコンフィギュレーション
 224 K8sとコンテナのセキュリティ
 225 クラウド環境セキュリティ

23
脆弱性とパッチ管理
 231 ML
コードの完全性保護
 233 承認されたバージョンを検証するためのコード署名
 234 Infrastructure as Codeアプローチ

24 MLOpS
パイプラインセキュリティ
 241
施弱性のためのソースコードスキャン
 242 攻撃に対するモデルの堅性のテスト
 243 各ステージにおけるパイプラインの完全性の検証
 244 モニタリングオートメーションスクリプト

25 AI
モデルガバナンス
 251
モデルリスクアセスメント
 252 ビジネス承認手続き
 253 モデルモニタリング要件
 254 新しいモデルの検証プロセス

26.
セキュアなモデルデプロイ
 261
カナリアリリース
 262 ブルーグリーンデプロイ
 264ロールバック機能
 265 デコミッショニングモデル

3.脆弱性管理
31 AIIML
資産インベントリ
32 
継続的な脂弱性スキャン
33
リスクに基づく 優先順位付け
34 Remediation Tracking
35 
例外処理
36
メトリクスの報告

結論

略語

-----

 

CSAのページ...

CSA 

 

オリジナル...

AI Organizational Responsibilities - Core Security Responsibilities AI 組織の責任 - セキュリティの主要責任
This publication from the CSA AI Organizational Responsibilities Working Group provides a blueprint for enterprises to fulfill their core information security responsibilities pertaining to the development and deployment of Artificial Intelligence (AI) and Machine Learning (ML). Expert-recommended best practices and standards, including NIST AI RMF, NIST SSDF, NIST 800-53, and CSA CCM, are synthesized into 3 core security areas: data protection mechanisms, model security, and vulnerability management. Each responsibility is analyzed using quantifiable evaluation criteria, the RACI model for role definitions, high-level implementation strategies, continuous monitoring and reporting mechanisms, access control mapping, and adherence to foundational guardrails. CSA AI 組織の責任ワーキンググループによる本書は、人工知能(AI)および機械学習(ML)の開発と展開に関連する情報セキュリティの主要責任をエンタープライズが果たすための青写真を提供する。専門家が推奨するベストプラクティスと標準(NIST AI RMF、NIST SSDF、NIST 800-53、CSA CCMなど)は、データ防御メカニズム、モデルセキュリティ、脆弱性管理という3つのコアセキュリティ分野に統合されている。各責任は、定量化可能な評価規準、役割定義のためのRACIモデル、ハイレベルな実装戦略、継続的なモニタリングと報告メカニズム、アクセス管理マッピング、基本的なガードレールへの準拠などを用いて分析されている。
Key Takeaways: 主な要点:
The components of the AI Shared Responsibility Model AI共有責任モデルの構成要素
・How to ensure the security and privacy of AI training data ・AI学習データのセキュリティとプライバシーを確保する方法
・The significance of AI model security, including access controls, secure runtime environments, vulnerability and patch management, and MLOps pipeline security ・アクセス管理、安全な実行環境、脆弱性およびパッチ管理、MLOpsパイプラインのセキュリティなど、AIモデルセキュリティの重要性
・The significance of AI vulnerability management, including AI/ML asset inventory, continuous vulnerability scanning, risk-based prioritization, and remediation tracking ・AI/ML資産のインベントリ、継続的な脆弱性スキャン、リスクベースの優先順位付け、修正の追跡など、AIの脆弱性マネジメントの重要性
The other two publications in this series discuss the AI regulatory environment and a benchmarking model for AI resilience. By outlining recommendations across these key areas of security and compliance in 3 targeted publications, this series guides enterprises to fulfill their obligations for responsible and secure AI development and deployment. このシリーズの他の2つの記事では、AIの規制環境とAIのレジリエンスのベンチマークモデルについて説明している。このシリーズでは、3つのターゲットを絞った記事で、セキュリティとコンプライアンスの主要分野における推奨事項を概説することで、エンタープライズが責任を持って安全にAIを開発・展開するための義務を果たすための指針となる。

 

20241005-22340

 

 

|

« 米国 NSA "No Such Agency"による"No Such Podcast" 2回から5回(毎週 6回シリーズ) | Main | 米国 司法省 マイクロソフトが協力し、合わせて100以上のドメインを差し押さえた »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 NSA "No Such Agency"による"No Such Podcast" 2回から5回(毎週 6回シリーズ) | Main | 米国 司法省 マイクロソフトが協力し、合わせて100以上のドメインを差し押さえた »