IPA AIインシデントレスポンス・アプローチ (2025.01.09)
こんにちは、丸山満彦です。
IPAのAIセーフティ・インスティテュートがAIシステム特有のリスクに起因するインシデントに対応するための新たな枠組みとして「AI-IRS(AI Incident Response System)」を示したアプローチブックを公開していました...
AIは、業務効率化や意思決定支援を超え、社会や経済活動を支える基盤として活用が進みつつあります。一方で、その誤作動や想定外の挙動に起因するAIインシデントは、事業継続や社会的信頼に影響を及ぼす可能性があります。特に、業務を自律的に実行するAIエージェントの活用が進展する中、従来の情報システムを前提としたインシデント対応では、十分な対応が困難となっています。
本書では、AIインシデントは起こり得るものとの前提に立ち、被害を最小化する発見的統制の重要性を明確にしています。AI-IRSは、AIサプライチェーン全体を視野に入れたコンセプトを示しており、AIを信頼できる社会基盤として活用するためのアプローチを提供しています。
ということのようです...
これは非常に良い文書ですね...これからのAI開発から利用の側面で重要となると思います。
● IPA - AISI
・2026.01.09 AIインシデントレスポンス・アプローチブックを公開
・[PDF] AIインシデントレスポンス・アプローチブック
・[PDF] AIインシデントレスポンス・アプローチブック(概要版)
セキュリティという文脈というよりも、AIの特性(動的、自律的)を踏まえたリスクマネジメントのあり方ですかね。。。
・予測できない領域が広くなるので、想定外(未知の脆弱性)のインシデントが起こりやすくなる
ということを踏まえて、
・インシデント対応が重要となる。
インシデント対応をするためには、
・インシデントの検知(観測性)
・インシデントの対応・復旧(制御性)
が重要となるが、AIの特性(動的、自律的)に実行してしまうということを踏まえるとこの検知(観測性)、対応・復旧(制御性)も自動実行できるようにしておかないとシステム全体を制御できなくなるということなのだろうと思います。
これからはシステム思考というのが重要となりそうですね...
個別のAIで考えると
・実行するAI
・それを観測し判定するAI(検知)
・判定した結果に基づいて制御するAI(対応・復旧)
をそれぞれ独立させて全体を制御するのが重要となるかもしれません。。。このような設計は事前に設計してから実装していくようにしないと、事後的に改善すると、システムが複雑になり制御が難しくなると思います。「最初の設計が重要」。
AIとAIがつながってくるシステム系も含めて考えていくと、3 lines of Defenseの考え方の導入も必要かもしれません。
・1st. Line: 実行するAI(事前に安全性を確認済みのAI)
・2nd. Line: それを観測し判定するAI
・2nd. Line: 判定した結果に基づいて制御するAI
・3rd. Line: このシステム全体が機能していることを判定し、修正できるAI(内部監査的)
ということも重要となるかもですね...
ただ、これらは1年に1回というようなものではなく、リアルタイムで実施する感じだと思います...
また組織を超えてAIとAIがつながっていくと責任の分担の話もより複雑になってきますよね...「最初の設計が重要」...広い意味で言うとガバナンスなのですが、よく考えないと、そこはスパゲッティーコードや拡張路線をとった老舗旅館の問題となり、建て替えたほうがはやい...ということにもなりかねません。
この文書はSP800-61を参考にしている部分があるのですが、SP800-61はRev.3からCSFを参照するアプローチになっていますね。。。セキュリティも含めてCSFベースでの整理が増えてきていますよね...運用における整理では昔からの整理学でもあり、わかりやすいのかもしれません。。。
SP800-61 Rev.3のインシデントレスポンスの考え方が先にあるとわかりやすいかもです...
図 2. CSF2.0 機能に基づくインシデント対応ライフサイクルモデル
ということを理解すると、次の図の考え方がよりわかりやすいかもです。。。
SBOM for AIの重要性にも触れていますが、それは当然だと思います...
● まるちゃんの情報セキュリティ気まぐれ日記
SP800-61関係...
・2025.04.07 米国 NIST SP 800-61 Rev. 3 サイバーセキュリティリスク管理のためのインシデント対応に関する推奨事項および考慮事項:CSF 2.0 コミュニティプロファイル (2025.04.03)
SBOM for AI関係...
・2025.08.13 G7 人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン (2025.06.12)
Cyber AI Profile関係
・2025.12.26 米国 NIST IR 8596(初期ドラフト)人工知能向けサイバーセキュリティ枠組みプロファイル(Cyber AI Profile):NISTコミュニティプロファイル (2025.12.16)
AI関係は
よりぬき...
・2026.02.01 CSA 非人間アイデンティティとAIセキュリティの現状 (2026.01.26)
・2026.01.31 欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15)
・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)
・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)
・2026.01.10 英国 データとAIの倫理フレームワークの改訂 (2025.12.18)
・2026.01.07 米国 CSET AIによる被害のメカニズム - AIインシデントから得た教訓 (2025.10)
・2026.01.06 米国 CSET AIガイダンスの調和 - 自主標準とベストプラクティスを統一的枠組みに集約する (2025.09)
・2025.12.28 総務省 パブコメ「AIのセキュリティ確保のための技術的対策に係るガイドライン」(案) (2025.12.25)
・2025.12.26 米国 NIST IR 8596(初期ドラフト)人工知能向けサイバーセキュリティ枠組みプロファイル(Cyber AI Profile):NISTコミュニティプロファイル (2025.12.16)
・2025.12.05 米国 NIST AI 700-2 AIのリスクと影響の評価(ARIA) ARIA 0.1:パイロット評価報告書 (2025.11.17)
・2025.11.14 欧州 EDPS AIシステムのリスクマネジメントのためのガイダンス (2025.11.11)
・2025.11.13 OpenID Japan 「Identity Management for Agentic AI」の翻訳版公開 (2025.11.09)
・2025.11.11 欧州 欧州委員会 AI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始 (2025.11.05)
・2025.10.28 オーストラリア AI導入ガイダンス (2025.10.21) と AIポリシーガイドとテンプレート (2025.10.02) など
・2025.10.26 信頼できるAIになるためにはAIの連続性(一貫性)が保証されないとダメなんでしょうね...
・2025.10.26 Pew 世界中の人々は、日常生活におけるAIの台頭についてどう感じているのか?(2025.10.15)
・2025.09.24 OWASP AI成熟度アセスメント (2025.08.11)
・2025.09.17 内閣府 人工知能戦略本部(第1回)AI法に基づく適正性確保に関する指針(案)の概要他... (2025.09.12)
・2025.08.19 米国 NIST AI システムのセキュリティ確保のためのコントロールオーバーレイのコンセプトペーパー
・2025.08.18 IPA AISI AIシステムのセキュリティ 既知の攻撃とその影響についてのガイド (2025.07.09)
・2025.08.13 G7 人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン (2025.06.12)
・2025.08.11 葬送のフリーレンの魔族とAI
・2025.07.31 欧州委員会 AI法における汎用AIモデル提供者の義務範囲に関するガイドライン(2025.07.18)
・2025.07.28 中国 AIグローバルガバナンス行動計画(2025.07.26)
・2025.07.27 フランス CNIL AIシステムの開発:(2025.07.22)
・2025.07.25 米国 ホワイトハウス AI行動計画(2025.07.23)
・2025.07.25 欧州委員会 汎用 AI 実践規範 (2025.07.10)
・2025.06.21 監査(評価)はどんどん自動化される? CSAのAIをつかった妥当性確認 (Valid-AI-ted) (2025.06.09)
・2025.05.21 米国 MIT AIリスク・レポジトリー Ver.3(2025.03.26)
・2025.04.18 米国 AI政策戦略研究所(IAPS)AIエージェントのガバナンス: フィールドガイド (2025.04.17)
・2025.04.12 CSA STAR for AI 関係...
・2025.04.02 AIセキュリティポータル (2025.03.26)
・2025.03.25 米国 NIST AI 100-2 E2025 敵対的機械学習:攻撃と緩和策の分類と用語
・2025.02.19 英国 AI Safety Institute(AI安全機構)からAI Security Institute(AIセキュリティ機構)へ (2025.02.14)
・2025.02.19 英国 ANSI フロンティアAIの安全性にセーフティケースをどのように役立てるか? (2025.02.10)
・2025.02.18 英国 AISI セーフガード評価の原則 - 誤用セーフガードを評価するための基本原則の提言 (2025.02.04)
・2025.02.12 英国 英国政府のためのAIプレイブック(2025.02.10)
・2025.02.08 欧州委員会 規則(EU)2024/1689(AI法)が定める人工知能の禁止行為に関する欧州委員会ガイドライン
・2025.02.03 些細だが累積するバイアス
・2025.02.03 英国 AI安全報告書 2025
・2025.01.29 ドイツ BSI 生成的AIモデルV2.0 (2025.01.21)
・2025.01.24 ASEAN AIのガバナンスと倫理に関する拡張ASEANガイド - 生成的AI (2025.01.17)
・2025.01.21 米国 トランプ大統領が大統領令14110 人工知能の安全、安心、信頼できる開発と利用を含む67の大統領令と11の覚書を撤回する大統領令を出しましたね...(2025.01.20)
・2025.01.19 米国 NIST AI 800-1(第2ドラフト)デュアルユースの基盤モデルの悪用リスクの管理 (2025.01.15)
・2025.01.10 米国 連邦取引委員会 ブログ AIと消費者被害のリスク
・2025.01.08 列国議会同盟 議会におけるAIのガイドライン (2024.12.12)
・2024.12.31 欧州法研究所 AI法におけるAIシステムの定義の適用に関するガイドライン:三要素アプローチに関するELIの提案 (2024.12.12)
・2024.12.18 ブラジル 国家データ保護局 生成的AIについての一般向け説明 (2024.11.29)
・2024.12.17 英国 ICO 生成的AIに関するコンサルテーションに対する情報コミッショナー事務局の回答:生成的AIの開発者たちよ、あなたたちが人々の情報をどのように使っているのか伝える時だ(2024.12.12)
・2024.12.16 シンガポール金融管理局 人工知能(AI)モデル・リスクマネジメント (2024.12.05)
・2024.12.15 生成的AIについてふと思ったこと...金持ちはより金持ちに...
・2024.12.06 欧州委員会 AI法における汎用AIモデル - Q&A (2024.11.20)
・2024.12.04 欧州評議会 AIシステムの人権への影響を評価する新しいツールを発表 (2024.12.02)
・2024.12.01 欧州委員会 公共機関のAI導入に関する2つの報告書「どのような要因が公的管理者によるAI導入の認知に影響を与えるか?」「公共部門におけるAIのためのコンピテンシーとガバナンス慣行」 (2024.11.25)
・2024.12.01 備忘録 論文 法人としてのAI:過去、パターン、展望
・2024.11.29 米国 AI安全研究所 安全保障等に関わる政府タスクフォースの設立、AI安全機構国際ネットワークの設立総会で初代議長に、NIST AI 100-4の発表 (2024.11.20)
・2024.11.27 英国 国防省 JSP 936 V1.1 防衛における信頼できる人工知能(パート1: 指令) (2024.11.13)
・2024.11.23 CSA AIリスクマネジメント: 規制の枠を超えて考える
・2024.11.05 OECD AIの影響を最も受ける労働者は誰か?
・2024.10.28 シンガポール サイバーセキュリティ局 AIシステムのセキュリティ確保に関するガイドラインとコンパニオンガイド (2024.10.15)
・2024.10.28 米国 ホワイトハウス 人工知能(AI)に関する国家安全保障覚書 (NSM) と 国家安全保障におけるAIガバナンスとリスクマネジメントを前進させる枠組み(2024.10.24)
・2024.10.18 オランダ AI利用ガイド (2024.10.16)
・2024.10.17 IPA AIセーフティ・インスティテュート AIセーフティに関するレッドチーミング手法ガイド (2024.09.25)
・2024.10.07 米国 NIST CSWP 31 重要AIシステムのための代理妥当性確認と検証;代理設計プロセス (2024.09.26)
・2024.10.05 CSA-JC AI ワーキンググループ AIレジリエンス:AIの安全性に関する革命的なベンチマークモデル (2024.09.20) +過去分も...
・2024.09.24 欧州 EUROPOL AIと警察業務 - 法執行機関における人工知能の利点と課題
・2024.09.22 中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)
・2024.09.21 IPA AIセーフティ・インスティテュート AIセーフティに関する評価観点ガイド (2024.09.18)
・2024.08.12 ドイツ BSI AIシステムの透明性に関する白書 (2024.08.05)
・2024.08.11 オランダ AI影響アセスメント (2023.03.02)
それ以外にもあるけど。。。
« 個人情報保護委員会 不正アクセス発生時のフォレンジック調査の有効活用に向けた着眼点 (2026.01.16) | Main | 「サイバーセキュリティ月間」はじまっています... (02.01-03.18) »




Comments