防衛省 装備品等の研究開発における責任あるAI適用ガイドライン (2025.06.06)
こんにちは、丸山満彦です。
防衛省防衛装備庁が、装備品等の研究開発における責任あるAI適用ガイドラインを公表しましたね...
現場でAIが暴走すると、場合によっては現場の人(敵も味方も)の生命に影響が及ぶこともあるしね...
● 防衛装備庁
・2025.06.06 [PDF] 装備品等の研究開発における責任あるAI適用ガイドラインの策定について
装備品等の研究開発における責任あるAI適用ガイドラインの策定について
防衛省は、装備品等の研究開発における防衛省・自衛隊独自のガイドラインとして、「装備品等の研究開発における責任あるAI適用ガイドライン」を策定いたしましたので、お知らせいたします。
本ガイドラインは、令和6年7月に策定・公表した「防衛省AI活用推進基本方針」を受け、防衛省の装備品等の研究開発における責任あるAI適用のコンセプトを示すものとして、策定したものです。
目次...
1 本ガイドライン策定の背景
(1) 諸外国の軍事領域におけるAIの責任ある利用に関する取組状況
(2) AIの軍事利用に関する国際的な議論及び我が国の見解
2 本ガイドラインの位置付け
3 AI装備品等の研究開発における確認事項
(1) 準拠すべき要件の設定
4 AI装備品等の研究開発における実施事項
(1) AI装備品等の分類
(2) 法的・政策的審査
(3) 技術的審査
(4) その他
5 まとめ
表1 AI政治宣言において参加国が実施すべき措置として定められている事項
A | 国家は、自国の軍事組織が、AI能力の責任ある開発、配備、使用のために、これらの原則を採用し、実施することを確保すべきである。 |
B | 国家は、軍事用AI能力が国際法、特に国際人道法の下でのそれぞれの義務に合致して使用されることを確保するために、法的審査などの適切な措置をとるべきである。国家はまた、国際人道法の履行を促進し、武力紛争における文民及び民用物の保護を改善するために、軍事用AI能力をどのように使用するかを検討すべきである。 |
C | 国家は、高官が、このような兵器システムを含むがこれに限定されない、重大な影響を及ぼす活用を伴う軍事用AI能力の開発と配備を効果的かつ適切に監督することを確保すべきである。 |
D | 国家は、軍事用AI能力における意図せざるバイアスを最小化するための積極的な措置をとるべきである。 |
E | 国家は、軍事用AI能力を組み込んだ兵器システムを含め、軍事用AI能力の開発、配備、使用において、関係者が適切な注意を払うことを確保すべきである。 |
F | 国家は、軍事用AI能力が、関連する防衛要員にとり透明で、また、かかる要員により監査可能な方法論、データソース、設計手順及び文書作成により開発されることを確保すべきである。 |
G | 国家は、軍事用AI能力を使用する、又は使用を承認する要員が、それらのシステムの使用について状況に応じた適切な判断を下し、自動化バイアスのリスクを軽減するために、それらのシステムの能力と限界を十分に理解するよう訓練されることを確保すべきである。 |
H | 国家は、軍事用AI能力が明確かつ十分に定義された用途を有し、それらの意図された機能を果たすようにデザイン及び設計されていることを確保すべきである。 |
I | 国家は、軍事用AI能力の安全性、セキュリティ、有効性が、その明確に定義された用途の範囲内で、そのライフサイクル全体にわたって、適切かつ厳格なテストと保証の対象となることを確保すべきである。自己学習または継続的に更新される軍事用AI能力については、国家は、モニタリングなどのプロセスを通じて、重要な安全機能が低下していないことを確保すべきである。 |
J | 国家は、軍事用AI能力における失敗のリスクを軽減するために、意図しない結果を検出し回避する能力、及び、そのようなシステムが意図しない挙動を示した場合に、例えば、配備されたシステムによる交戦を停止させる、又はその作動を停止させることによって対応する能力などの適切な保護措置を実施すべきである。 |
図1 本ガイドラインの対象範囲
図2 諸外国の軍事領域におけるAI倫理原則
図3 研究開発事業における実施事項
図4 装備品等の分類と対応フロー
法的・政策的審査 表2 要件Aの審査項目(基準)
確認項目 | |
A-1 国際人道法を始めとする国際法及び国内法の遵守が確保できないものでないこと |
・ 当該装備品等を使用するにあたって軍事的必要性と人道的配慮のバランスを考慮し、過度の傷害又は無用の苦痛を与えることを防止する措置が含まれた構想になっているか。 |
・ 軍事目標と非軍事目標(文民及び民用物)を区別し、軍事目標のみに攻撃を行うことが可能な装備品等の構想になっているか(区別原則)。 | |
・ 予測される具体的かつ直接的な軍事的利益との比較において、巻き添えによる文民の死亡、文民の傷害、民用物の損傷又はこれらの複合した事態を過度に引き起こすことが予測される攻撃を防止する措置が含まれた構想になっているか(比例性原則)。 | |
・ 攻撃に先立つ軍事目標の選定から攻撃の実施に至るまで、無差別攻撃を防止し文民と民用物への被害を最小限に抑えるための各種予防措置を実施し得る構想になっているか(予防原則)。 | |
・ 国際人道法のその他の要請や適用のある他の国際法及び国内法に従って使用することができないような装備品等の構想となっていないか。 | |
A-2 人間の関与が及ばない完全自律型致死兵器でないこと |
・ 適切なレベルの人間の判断が介在し、人間による責任ある指揮命令系統の中での運用が確保できる構想となっているか。 |
・ 人間の関与が及ばない完全自律型の致死性を有する兵器システムの開発ではないか。 |
図5 法的・政策的審査体制イメージ
技術的審査 表3 要件Bの審査項目(基準)
確認項目 | |
B-1 人間の責任の明確化 |
・ AIシステムの利用に際して適切なタイミングと程度において、運用者の関与や運用者による適切な制御が可能となるように設計されているか。 |
・ AIシステムと運用者それぞれの役割が明確に定義されているか。 | |
・ 運用者が負うべき責任が明確に定義されているか。 | |
B-2 運用者の適切な理解の醸成 |
・ AIシステムの挙動、パフォーマンス範囲、操作等に運用者が習熟して当システムを適切に使用できるように設計されているか。 |
・ AIシステムへの過度の依存を防ぐための対策が設計されているか。 | |
・ AIシステムのモニタリング時に、運用者が不具合を認めたときにそれを改善することを可能とする仕組みが設計されているか。 | |
B-3 公平性の確保 |
・ データセットの公平性要件が明確化されているか。 |
・ AIモデルに関連するバイアスが許容レベルを超えないか確認するとともに、不具合が認められた場合の改善の仕組みが設計されているか。 | |
B-4 検証可能性、透明性の確保 |
・ AIシステムの構築に係る過程、使用した手法・データ・アルゴリズム等が明確化され、その妥当性を後に検証可能な仕組みが整備されているか。 |
・ 研究開発体制(事業者含む。)において、説明責任を果たす責任者を明確化しているか。 | |
B-5 信頼性、有効性の確保 |
・ AIシステムの信頼性を確保するために、多様な指標を用いた試験評価を実施しているか。 |
・ 開発初期から研究開発終了までの全ての期間において、運用を想定したデータセットを使用することが検討されているか。 | |
・ 運用を想定して、AIに連接する装備品等の信頼性を損なうことなく、AIを適用できることを設計において担保されているか。 | |
・ AIシステムが容易に維持管理できる設計となっているか。 | |
・ AIシステムに対してセキュリティ管理策の実施が検討されているか。 | |
B-6 安全性の確保 |
・ AIシステムの誤作動や深刻な失敗・事故の発生を低減する安全機構が設計されているか。 |
B-7 国際法及び国内法の遵守が確保できないものでないこと |
・ 装備品等の運用に際して適用される国際法や国内法令、各種内部規則等から逸脱しないよう対策が検討されているか。 |
図6 技術的審査体制イメージ
図7 高リスクAI装備品等の標準的なリスク管理イメージ
図8 低リスクAI装備品等の標準的なリスク管理イメージ
表 要件Bのチェック項目に活用し得るRAI Toolkitの例
# | RAI Toolkit | 該当するチェック項目 | ||
ツール名称 | ツール説明 | |||
1 | Trust in Autonomous Systems Test (TOAST) |
システムに対する信頼度の評価 | 人間がシステムをどの程度信頼しているかを測定するための9つの質問からなるテスト。(例:私はシステムが何をすべきか理解している。 私はシステムの限界を理解している。等) [web] |
B-2 運用者の適切な理解の醸成 |
2 | Human-Machine Teaming Systems Engineering Guide |
システムの設計支援 | システム開発者が人間のオペレーターと協力して機能するAIを設計するのを支援するガイド。 [web] |
|
3 | FairML | AIモデルの公平性の診断・改善 | AIモデルの予測結果に対して、性別や人種などの属性との関係を分析し、公平性を診断し、要因の特定、改善方法の提供を行うためのツールキット。AIモデルの予測結果の公平性を改善するために用いられる。 [web] |
B-3 公平性の確保 |
4 | Tensor Flow Fairness Indicators | AIモデルの公平性の評価・改善 | AIモデルの公平性に関する懸念を評価、改善、比較するためのツールキット。「公平性」とは、AIモデルが特定の属性(人種、性別、年齢など)に基づいて不当な差別をしないことを意味する。 [web] |
|
5 | What-If Tool | AIモデル性能と公平性の評価 | What-Ifツール(WIT)は、機械学習(ML)モデル、特に分類や回帰タスクにおいてブラックボックスシステムとして機能するモデルの理解と分析を支援する可視化ツール。 [web] |
|
6 | Explainer Dashboard | AIモデルの解釈性向上 | AIモデルの解釈性を高めるためのツールを提供するライブラリ。モデルの予測結果を視覚的に分析したり、特徴量の重要度を確認したりすることが可能。 [web] [web] |
B-4 検証可能性、透明性の確保 |
7 | InterpretML | AIモデルの解釈性向上 | 機械学習の解釈可能性のための最新技術を一元的に包含するオープンソースのツール。このツールは、解釈可能なモデルを作成し、ブラックボックスシステムを説明する機能を提供する。モデルの全体的な振る舞いを理解したり、個々の予測の背後にある理由を理解したりすることが可能。 [web] [web] |
|
8 | Hugging Face Data Card Template |
データセットの透明性確保 | データセットカードの作成手順を示すもの。データセットの内容、データセットを利用する背景、データセットの作成方法、その他利用者が注意すべき点を理解するのに役立つ。責任ある利用を促し、データセットに潜在する偏りを利用者に知らせることができる。 [web] |
|
9 | Hugging Face Model Card Template |
AIモデルの透明性確保 | AIモデルを理解し、共有し、改善するためのフレームワーク。各モデルについて、その技術と設計方法を記述し、透明性・監査可能性を実現するのに役立つ。また、技術の適切な理解を示すために、設計手順が透明で監査可能であることを測定し示すのにも役立つ。 [web] |
|
10 | Threat Modeling Resource | 脅威や脆弱性の特定・評価および対策の計画 | AIの脅威モデリングのためのフレームワーク。AI機能のセキュリティを実現するために、脅威モデリングによってセキュリティレビューを実施し、それに基づいて推奨されるリスク軽減策を取り入れる。 [web] |
B-5 信頼性、有効性の確保 |
11 | EQUI(NE2) | ニューラルネットワークの不確実性を定量化 | モデルの予測における不確実性を可視化するツール。各予測の「信頼スコア(confidence score)」と「外れ値スコア(outlier score)」を提示し、モデルが通常のデータ範囲を超えた状況においてどの程度リスクが高まるかを評価することができる。モデルの精度を評価することだけでなく、データの偏りに対するモデルの頑健性を評価し、AIの適用可能な範囲を明確化することができる。 [web] |
|
12 | IBM Adversarial Robustness 360Attacks | AIのセキュリティ強化 | 敵対的な攻撃を生成し、AIの信頼性(AIのセキュリティ)を高めるための堅牢性を訓練したり、攻撃成功率を計算してAIの信頼性(AIのセキュリティ)を測定し、示したりすることができるAIのセキュリティを守るためのPythonライブラリ。ユーザーが機械学習モデルやアプリケーションを、回避、汚染、抽出、推論といった敵対的な脅威から守り、評価するためのツールを提供する。TensorFlow、Keras、 PyTorch、scikit-learn、XGBoostなどのAIフレームワークをサポートしており、画像、表、音声、ビデオなどあらゆるデータタイプや、分類、物体検出、音声認識、生成、認証などのAIタスクに対応。 [web] [web] |
|
13 | Drift Tools | AI機能の信頼性とガバナンスの支援 | Drift Tools のアルゴリズムを AI機能に組み込んで、AI機能のパフォーマンスが保証されていない分布外の入力を検出し、AIの信頼性(有効性)と意図しない結果を検出する能力の実現を支援するPythonライブラリ。 外れ値、敵対的攻撃の検出(Adversarial detection:機械学習モデルに対する攻撃を検出し、防御するプロセス)、及びドリフト検出(Drift detection:機械学習モデルの学習データの統計的分布と、実際に遭遇するデータの分布との間に生じる変化を検出するプロセス)に特化している。 [web] [web] |
B-2 運用者の適切 な理解の醸成 B-5 信頼性、有効性の確保 |
14 | Python Outlier Detection (PyOD) | 多変量データにおける異常値の検出 | PyOD(Python Outlier Detection)は、多変量データにおける異常値を検出するための包括的かつスケーラブルなPythonライブラリ。このライブラリは、小規模プロジェクトから大規模データセットまで、さまざまなニーズに対応するための幅広いアルゴリズムを提供する。 [web] [web] |
B-6 安全性の確保 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2025.04.21 欧州議会 防衛とAI
・2025.04.07 米国 上院軍事委員会 AIのサイバー能力の活用に関する証言 (2025.03.25)
・2025.01.18 米国 商務省産業安全保障局 人工知能普及のための枠組み(特定のAIの輸出規制...)
・2024.09.22 中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)
・2024.08.09 米国 国防大学出版局 統合軍クオータリー 「認知戦」
・2023.09.20 米国 GAO 人工知能の活用と急成長がその可能性と危険性を浮き彫りにする
・2023.09.10 カーネギーメロン大学ソフトウェア工学研究所 新たなテクノロジー:国防総省におけるソフトウェアの未来を変える7つのテーマ (2023.08.24)
・2023.08.16 Atlantic Council:現代の軍隊はどのようにAIを活用しているか
・2023.08.13 米国 国防総省 CDAOが国防総省の新しい生成的AIタスクフォース(タスクフォース・リマ)の指揮を執る
・2023.06.15 米国 GAO 科学技術スポットライト:生成的AI
・2020.08.10 AIと将来の軍事力についての中国の視点
・2020.06.07 米国国防省 人工知能が戦争をかえると予測
« 内閣官房 サイバー安全保障関連の国民向けリーフレット「みんなで備えよう 新・サイバー防衛、はじまる」 | Main | 内閣官房 NISC イバーセキュリティ戦略本部第43回会合 - サイバー空間を巡る脅威に対応するため喫緊に取り組むべき事項 (2025.05.29) »
Comments