« February 2026 | Main | April 2026 »

March 2026

2026.03.31

上野さん AIセキュリティを学ぶなら押さえておきたい7つのOWASPドキュメント (2026.03.30)

こんにちは、丸山満彦です、

上野さんが、Xに投稿している「AIセキュリティを学ぶなら押さえておきたい7つのOWASPドキュメント
」というのがわかりやすい説明となっているので、ご紹介...

OWASPのAIに関するドキュメント、今のところ7つあるのですが、それをどう読めば良いのかも含めて簡単に説明しています...

上野さんは、「リスクの特定 → 実装ガイダンス → ガバナンス」という三層構造で整理すると見通しが良くなると説明していますが、まさにその通りと思います。

これは問題を解く時の構造と似ているからです。

・具体的な課題認識=リスクの特定

・具体的な課題に対する解決策=実装ガイダンス

・メタな(本質的な)課題解決策=ガバナンス

と言う感じですかね...世の中のガイド類もこの枠組みで理解するのはよいかもですね。。。場合によっては複数を跨いでいる場合もあるでしょうが...

岡田さんのCheetSheetsは実装ガイダンスを中心としますが、そのため必要なリスクの特定にも触れているという感じですかね...

 

是非、目を通してくださいませ...

 

X - Sen Ueno

・2026.03.30 AIセキュリティを学ぶなら押さえておきたい7つのOWASPドキュメント

 


全体像:7つのドキュメントの関係性

紹介する7つのドキュメントは、大きく3つに分類できます。


【リスクの特定】何が危ないのかを知る

【実装ガイダンス】どう守るかを知る
【ガバナンスとツール】組織として管理する

 

 

20260324-174142

 

| | Comments (0)

台湾 人工智慧基本法 (2026.01.14施行)

こんにちは、丸山満彦です。

台湾の人工智慧基本法が2026.01.14に施行されているので、備忘録...

日本語でも比較的多くの情報がありますね...

7つの原則

1 持続可能な発展と福祉 社会的な公平性及び環境の持続可能性を兼顧しなければならない。適切な教育及び研修を提供し、生じうるデジタル・ディバイドを縮小させ、国民が人工知能がもたらす変革に適応できるようにしなければならない。
2 人間の自律 人間の自律権の支持、人格権の尊重など、人間の基本的権利と文化的価値を重視し、人間による監督を許容し、人間中心の姿勢を貫くとともに、法の支配および民主的価値観を尊重しなければならない。
3 プライバシー保護とデータガバナンス 個人情報のプライバシーを適切に保護し、企業の営業秘密を尊重し、データ漏洩のリスクを回避するとともに、データ最小化の原則を採用する。同時に、憲法上のプライバシー権の保障に合致することを前提として、非機密データの公開および再利用を促進する。
4 情報セキュリティと安全性 AIの研究開発および応用プロセスにおいて、情報セキュリティ対策を確立し、セキュリティ上の脅威や攻撃を防止し、システムの堅牢性と安全性を確保する。
5 透明性と説明可能性 AIの成果物については、適切な情報開示またはラベル付けを行い、潜在的なリスクの評価や関連する権利への影響の把握を容易にし、ひいてはAIの信頼性を高めるものとする。
6 公平性と非差別 AIの研究開発および応用過程において、アルゴリズムによる偏りや差別等のリスクを可能な限り回避し、特定の集団に対して差別的な結果をもたらしてはならない。
7 説明責任 内部ガバナンス責任および外部社会責任を含む、相応の責任を確実に負うべきである。

 

EUほど厳格ではないけど、日本ほど掛け声的でもない。基本法のもとに個別法がつくられていくことが想定されている感じですね...高リスクについては、救済、補償または保険の仕組みを確立することが求められていますね...

 

全國法規資料庫

・2026.01.14 人工智慧基本法

人工智慧基本法 人工知能基本法
第 1 條 為建設智慧國家,促進以人為本之人工智慧研發與人工智慧產業發展,建構人工智慧安全應用環境,落實數位平權,保障人民基本權利,增進社會福祉,提升國人生活品質,促進社會國家之永續發展,維護國家文化價值及提升國際競爭力,並確保技術應用符合社會倫理,特制定本法;本法未規定者,適用其他法律之規定。 第1条 スマート国家の建設、人間中心の人工知能の研究開発および人工知能産業の発展の促進、人工知能の安全な利用環境の構築、デジタル・インクルージョンの実現、国民の基本的権利の保障、社会福祉の増進、国民の生活の質の向上、社会・国家の持続可能な発展の促進、国家の文化的価値の維持および国際競争力の向上、ならびに技術の利用が社会倫理に合致することを確保するため、本法を制定する。本法に規定のない事項については、他の法律の規定を適用する。
第 2 條 1 本法所稱主管機關:在中央為國家科學及技術委員會;在地方為直轄市、縣(市)政府。 第2条 1 本法において「主管機関」とは、中央においては国家科学技術委員会を、地方においては直轄市、県(市)政府を指す。
2 本法所定事項,涉及各目的事業主管機關職掌者,由各目的事業主管機關辦理。 2 本法に定める事項のうち、各目的事業主管機関の職掌に関わるものは、各目的事業主管機関が処理する。
第 3 條 本法所稱人工智慧,指具自主運行能力之系統,該系統透過輸入或感測,經由機器學習及演算法,可為明確或隱含之目標實現預測、內容、建議或決策等影響實體或虛擬環境之產出。 第3条 本法において「人工知能」とは、自律的な動作能力を有するシステムをいう。当該システムは、入力またはセンシングを通じて、機械学習およびアルゴリズムにより、明示的または暗黙的な目標を実現するために、実体または仮想環境に影響を与える予測、内容、提案または意思決定等の出力を生成することができるものである。
第 4 條 政府推動人工智慧之研發與應用,應在兼顧社會公益、數位平權、促進創新研發與強化國家競爭力之前提下,發展良善治理與基礎建設,並遵循下列原則: 第4条 政府が人工知能の研究開発及び応用を推進するに当たっては、社会公益、デジタル・インクルージョン、革新的な研究開発の促進及び国家競争力の強化を兼顧することを前提として、良きガバナンスとインフラを整備し、かつ以下の原則に従わなければならない。
一、永續發展與福祉:應兼顧社會公平及環境永續。提供適當之教育及培訓,降低可能之數位落差,使國民適應人工智慧帶來之變革。 一、持続可能な発展と福祉:社会的な公平性及び環境の持続可能性を兼顧しなければならない。適切な教育及び研修を提供し、生じうるデジタル・ディバイドを縮小させ、国民が人工知能がもたらす変革に適応できるようにしなければならない。
二、人類自主:應以支持人類自主權、尊重人格權等人類基本權利與文化價值,並允許人類監督,落實以人為本並尊重法治及民主價值觀。 二、人間の自律:人間の自律権の支持、人格権の尊重など、人間の基本的権利と文化的価値を重視し、人間による監督を許容し、人間中心の姿勢を貫くとともに、法の支配および民主的価値観を尊重しなければならない。
三、隱私保護與資料治理:應妥善保護個人資料隱私,尊重企業營業秘密,避免資料外洩風險,並採用資料最小化原則;同時在符合憲法隱私權保障之前提下,促進非敏感資料之開放及再利用。 三、プライバシー保護とデータガバナンス:個人情報のプライバシーを適切に保護し、企業の営業秘密を尊重し、データ漏洩のリスクを回避するとともに、データ最小化の原則を採用する。同時に、憲法上のプライバシー権の保障に合致することを前提として、非機密データの公開および再利用を促進する。
四、資安與安全:人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性與安全性。 四、情報セキュリティと安全性:AIの研究開発および応用プロセスにおいて、情報セキュリティ対策を確立し、セキュリティ上の脅威や攻撃を防止し、システムの堅牢性と安全性を確保する。
五、透明與可解釋:人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。 五、透明性と説明可能性:AIの成果物については、適切な情報開示またはラベル付けを行い、潜在的なリスクの評価や関連する権利への影響の把握を容易にし、ひいてはAIの信頼性を高めるものとする。
六、公平與不歧視:人工智慧研發與應用過程中,應盡可能避免演算法產生偏差及歧視等風險,不應對特定群體造成歧視之結果。 六、公平性と非差別:AIの研究開発および応用過程において、アルゴリズムによる偏りや差別等のリスクを可能な限り回避し、特定の集団に対して差別的な結果をもたらしてはならない。
七、問責:應確保承擔相應之責任,包含內部治理責任及外部社會責任。 七、説明責任:内部ガバナンス責任および外部社会責任を含む、相応の責任を確実に負うべきである。
第 5 條 1 政府應避免人工智慧之應用,有侵害人民生命、身體、自由或財產,破壞社會秩序、國家安全或生態環境,或偏差、歧視、廣告不實、資訊誤導或造假等違反相關法規之情事。 第5条 1 政府は、AIの応用が、国民の生命、身体、自由または財産を侵害し、社会秩序、国家安全保障または生態環境を破壊し、あるいは偏り、差別、虚偽広告、情報の誤導または偽造など、関連法規に違反する事態を招くことを回避すべきである。
2 政府應以兒少最佳利益為原則,人工智慧產品或系統經中央目的事業主管機關會商數位發展部認定為高風險應用者,應明確標示注意事項或警語。 2 政府は、児童・青少年の最善の利益を原則とし、人工知能製品またはシステムが中央の所管省庁とデジタル発展部の協議を経て高リスクな利用と認定された場合、注意事項または警告を明確に表示しなければならない。
3 數位發展部及其他相關機關應提供或建議評估驗證之工具或方法,以利各目的事業主管機關辦理前項事項。 3 デジタル発展部およびその他の関連機関は、各所管省庁が前項の事項を処理できるよう、評価・検証のためのツールまたは手法を提供または提案しなければならない。
4 前項驗證工具及方式之形成,應徵詢相關利益團體、產業、學者、社會團體及法律專家之意見。 4 前項の検証ツール及び方法の策定にあたっては、関連する利益団体、産業界、学者、社会団体及び法律専門家の意見を聴取しなければならない。
第 6 條 1 行政院應成立國家人工智慧戰略特別委員會,由行政院院長召集學者專家、人工智慧相關民間團體及產業代表、政務委員、相關機關首長或代表、直轄市及縣(市)政府首長組成,協調、推動及督導全國人工智慧事務,並訂定國家人工智慧發展綱領。 第6条 1 行政院は、国家人工知能戦略特別委員会を設置しなければならない。同委員会は、行政院院長が学者・専門家、人工知能関連の民間団体および産業代表、政務委員、関連機関の長または代表、直轄市および県(市)政府の長を招集して構成し、全国の人工知能事務の調整、推進および監督を行い、国家人工知能発展綱領を策定する。
2 前項委員會每年至少召開會議一次,並審議國家人工智慧發展綱領;遇突發緊急或重大事件,應召開臨時會議。 2 前項の委員会は、毎年少なくとも1回会議を開催し、国家人工知能発展綱領を審議するものとする。突発的な緊急事態または重大な事態が生じた場合は、臨時会議を開催しなければならない。
3 第一項委員會之幕僚作業,由國家科學及技術委員會辦理。 3 第1項の委員会の事務局業務は、国家科学技術委員会が担当する。
第 7 條 為提升國民對於人工智慧之知識與技能,政府應持續推動各級學校、產業、團體、社會及公務機關(構)之人工智慧與倫理教育,並厚植國民之數位素養。 第7条 国民のAIに関する知識と技能を向上させるため、政府は各級学校、産業界、団体、社会および公的機関(組織)におけるAIと倫理教育を継続的に推進し、国民のデジタルリテラシーを厚く培うものとする。
第 8 條 政府應落實人工智慧發展政策,並鼓勵產官學界,積極推動人才及技術之跨域合作、交流與基礎設施之建立。 第8条 政府は、人工知能発展政策を着実に実施し、産官学界に対し、人材および技術の分野横断的な協力・交流ならびにインフラの整備を積極的に推進するよう奨励しなければならない。
第 9 條 政府應於財政能力範圍內,寬列預算,採取必要措施,持續確保經費符合推行人工智慧政策發展所需。 第9条 政府は、財政能力の範囲内で予算を十分に計上し、必要な措置を講じ、人工知能政策の推進に必要な経費が継続的に確保されるよう努めなければならない。
第 10 條 政府應積極推動人工智慧研發、應用及基礎建設,妥善規劃資源整體配置,並辦理人工智慧相關產業之補助、委託、出資、投資、獎勵、輔導,或提供租稅、金融等財政優惠措施,並應設置年度執行成效報告制度,定期對外公布相關成果與評估意見,以作為政策持續推動與資源調整之依據。 第10条 政府は、人工知能の研究開発、応用及びインフラ整備を積極的に推進し、資源の全体的な配分を適切に計画するとともに、人工知能関連産業に対する補助金、委託、出資、投資、奨励、指導を行うか、または租税、金融等の財政優遇措置を提供しなければならない。また、年度ごとの実施成果報告制度を設け、関連する成果と評価意見を定期的に公表し、政策の継続的な推進と資源調整の根拠とすべきである。
第 11 條 1 政府應於人工智慧開發、訓練、測試及驗證新興技術運作之影響時,提供合理使用、扶持及補助措施,並完善人工智慧研發及應用之法規。相關法規之解釋與適用,如與其他法規扞格,在符合本法第四條基本原則之前提下,以促進新技術與服務之提供為優先原則。 第11条 1 政府は、人工知能の開発、訓練、試験、および新興技術の運用による影響の検証を行う際、合理的な利用、支援および補助措置を提供し、人工知能の研究開発および応用に関する法規を整備しなければならない。関連法規の解釈および適用において、他の法規と抵触する場合、本法第4条の基本原則に合致することを前提として、新技術およびサービスの提供を促進することを優先原則とする。
2 為促進人工智慧技術創新及永續發展,各目的事業主管機關得針對人工智慧創新產品或服務,建立或完備人工智慧研發及應用服務之創新實驗環境。 2 人工知能技術の革新及び持続可能な発展を促進するため、各所管官庁は、人工知能の革新的な製品又はサービスに対し、人工知能の研究開発及び応用サービスのための革新的な実験環境を整備し、又は充実させることができる。
第 12 條 政府應致力推動人工智慧相關之國際合作;並基於公私協力原則,積極與民間共同推動人工智慧之創新運用。 第12条 政府は、人工知能に関する国際協力を推進するよう努めなければならない。また、官民連携の原則に基づき、民間と積極的に協力して人工知能の革新的な活用を推進しなければならない。
第 13 條 1 政府應建立資料開放、共享及再利用機制,以提升人工智慧使用資料之可利用性,並定期檢視與調整相關法令及規範。 第13条 1 政府は、AIが使用するデータの利便性を高めるため、データの公開、共有及び再利用の仕組みを構築し、関連法令及び規範を定期的に見直し、調整しなければならない。
2 政府應致力提升我國人工智慧使用資料之品質與數量,確保訓練及產出結果足以展現國家多元文化價值與維護智慧財產權。 2 政府は、わが国のAIが使用するデータの質と量を向上させるよう努め、その訓練及び出力結果が、国家の多元的な文化的価値を十分に体現し、かつ知的財産権を保護するものであることを確保しなければならない。
第 14 條 各目的事業主管機關會商個人資料保護主管機關,在人工智慧研發及應用過程,避免不必要之個人資料蒐集、處理或利用,並應促進個人資料保護納入預設及設計相關措施或機制,以維護當事人權益。 第14条 各所管省庁は、個人情報保護所管省庁と協議し、人工知能の研究開発および応用過程において、不必要な個人情報の収集、処理または利用を回避するとともに、当事者の権益を保護するため、個人情報保護をデフォルトおよび設計に関する措置または仕組みに組み込むよう促進しなければならない。
第 15 條 1 政府應積極運用人工智慧確保勞動者之勞動權益。 第15条 1 政府は、人工知能を積極的に活用し、労働者の労働上の権利を保障しなければならない。
2 政府應積極弭平人工智慧發展所造成之技能落差,提升勞動參與,保障經濟安全,並落實尊嚴勞動。 2 政府は、人工知能の発展によって生じる技能格差を積極的に是正し、労働参加を促進し、経済的安全を保障するとともに、尊厳ある労働を実現しなければならない。
3 政府應就人工智慧利用所致之失業者,依其工作能力予以輔導就業。 3 政府は、人工知能の利用によって失業した者に対し、その就労能力に応じて就職支援を行わなければならない。
第 16 條 1 數位發展部應參考國際標準或規範,推動與國際介接之人工智慧風險分類框架,並應協助各目的事業主管機關訂定以風險為基礎之管理規範。 第16条 1 デジタル発展部は、国際基準または規範を参考にし、国際的に整合性のあるAIリスク分類フレームワークを推進するとともに、各所管省庁がリスクベースの管理規範を策定するよう支援しなければならない。
2 各目的事業主管機關應視人工智慧應用風險管理之需要,循前項風險分類框架,訂定以風險為基礎之管理規範,並應協助相關產業自行訂定產業指引及行為規範。有第五條第一項所列之情事者,應依法令限制或禁止之。 2 各所管省庁は、AI応用リスク管理の必要性に応じて、前項のリスク分類フレームワークに従い、リスクベースの管理規範を策定するとともに、関連産業が自主的に産業ガイドラインおよび行動規範を策定するよう支援しなければならない。第5条第1項に掲げる事由がある場合は、法令に基づき制限または禁止するものとする。
第 17 條 1 政府應就高風險人工智慧之應用,明確其責任歸屬及歸責條件,並建立其救濟、補償或保險機制。 第17条 1 政府は、高リスクAIの応用について、責任の帰属および帰責条件を明確にし、その救済、補償または保険の仕組みを確立しなければならない。
2 人工智慧之研發,於實際應用前,不適用前項規定。但其於實際環境測試,或運用研發成果提供產品、服務時,不在此限。 2 人工知能の研究開発については、実際の応用に先立ち、前項の規定は適用しない。ただし、実環境での試験、または研究開発成果を活用して製品・サービスを提供する場合は、この限りではない。
第 18 條 1 政府應依本法規定,檢討所主管之法規與行政措施;有不符合本法規定或無法規可適用者,應自本法施行後二年內,完成法規之制(訂)定、修正或廢止,及行政措施之改進。 第18条 1 政府は、本法の規定に基づき、所管する法規及び行政措置を見直さなければならない。本法の規定に合致しないもの、または適用すべき法規がないものについては、本法施行後2年以内に、法規の制定・改正・廃止、および行政措置の改善を完了しなければならない。
2 前項法規制(訂)定或修正前,既有法規未有規定者,由中央目的事業主管機關會商中央主管機關,依本法規定解釋、適用之。 2 前項の法規の制定または改正前に、既存の法規に規定がないものについては、中央目的事業主管機関が中央主管機関と協議の上、本法の規定に基づき解釈・適用するものとする。
第 19 條 1 政府使用人工智慧執行業務或提供服務,應進行風險評估,規劃風險因應措施。 第19条1 政府が人工知能を用いて業務を執行し、またはサービスを提供する場合、リスク評価を行い、リスク対応措置を策定しなければならない。
2 政府應依使用人工智慧之業務性質,訂定使用規範或內控管理機制。 2 政府は、人工知能を使用する業務の性質に基づき、使用規範または内部統制管理メカニズムを定めるものとする。
第 20 條 本法自公布之日起施行。 第20条 本法は、公布の日から施行する。

 

 

1_20260330135901

| | Comments (0)

2026.03.30

総務省 AIのセキュリティ確保のための技術的対策に係るガイドライン(2026.03.27)

こんにちは、丸山満彦です。

総務省が、AIのセキュリティ確保のための技術的対策に係るガイドラインとその付属資料を公表していますね...2025.12.26に案を意見募集していたものです。

想定読者は、

  1. AI開発者
  2. AI提供者

となっています。

対象とする主な脅威は、

  1. プロンプトインジェクション攻撃
  2. DoS 攻撃(サービス拒否攻撃)

となっています。

AIエージェントについては、技術が急激な発展の途上にあり、これに特有の脅威や対s買うを安定的に確定することが現時点では困難であることから、対象外としていますね...

プロンプトインジェクション攻撃及び DoS 攻撃(サービス拒否攻撃)への主な対策(概観)

20260330-54457

「その他の脅威」への主な対策(概観)

20260330-54541

AI 開発者における対策

(安全基準等の学習による不正な指示への耐性の向上)
• LLM が意図しない出力を行わないよう、安全基準を事後学習させる。
• LLM が従うべき指示の優先度を定義し、優先度の高い指示(例:システムプロンプト)を常に優先的に処理するよう、LLM に事後学習させる。

 

AI 提供者における対策

(システムプロンプトによる不正な指示への耐性の向上)
1) システムプロンプトに制約事項やセキュリティ上の注意事項などを設定することで、LLM が意図しない出力を行わないようにする
2) システムプロンプトには、出力を意図しない機密情報(例:API キー)等を直接記述することを避け、LLM が必要に応じて参照できるよう別個に管理することも重要

(ガードレール等による入出力や外部参照データの検証)

入力プロンプトの検証
LLM に入力されるプロンプトに意図しない出力を行わせる不正な指示が含まれていないか検証し、そのような指示を検知した場合には、プロンプトの一部削除による無害化や、処理の拒否等の措置を講じる

外部参照データの検証
1) 例えば Web サイトや外部のデータベースなど、外部データを参照する場合には、これらに意図しない出力を行わせる不正な指示が含まれていないか検証し、そのような指示を検知した場合には、処理の拒否等の措置を講じる
2) LLM に、入力プロンプトと外部参照データを明確に区分させ、外部参照データに高い注意を払わせる

出力の検証
1) 出力を意図しない情報が出力に含まれていないか検証し、検知した場合には応答を拒否する
2) 単語の出現確率など、攻撃者に悪用され得る情報を必要に応じて応答から除外することで、モデル抽出攻撃への対策となる

(オーケストレータや RAG 等の権限管理)
1) LLM や連携システムを操作するオーケストレータに係る権限を必要最小限とすることで、LLM が攻撃を受けた場合の被害拡大を抑制する(最小権限の原則)
2) RAG 用のデータ及びデータストアへの参照権限をユーザや役割に応じて適切に設定する

 

 

総務省

・2026.03.27 「AIのセキュリティ確保のための技術的対策に係るガイドライン」(案)に対する意見募集の結果及びガイドラインの公表

・・[PDF] AIのセキュリティ確保のための技術的対策に係るガイドライン

20260330-52702

・・[PDF] AIのセキュリティ確保のための技術的対策に係るガイドライン 別添(付属資料)

20260330-52740

・・[PDF] 意見公募に提出された意見及びその意見に対する総務省の考え方

20260330-53208

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.12.28 総務省 パブコメ「AIのセキュリティ確保のための技術的対策に係るガイドライン」(案) (2025.12.25)

 

| | Comments (0)

経済産業省 「中小企業のための実例で学ぶサイバーセキュリティリスク事例集」「中小企業の情報セキュリティ対策ガイドライン第4.0版」(2026.03.27)

こんにちは、丸山満彦です。

経済産業省が、中小企業のセキュリティ対策強化を目指して、「中小企業のための実例で学ぶサイバーセキュリティリスク事例集」と「中小企業の情報セキュリティ対策ガイドライン第4.0版」を公表していますね...

中小企業に対する政策を検討する場合に、中小企業の定義が不明確なまま議論が行われるのが問題なんですよね...EUと英国では中小企業の定義は明確になっていますよね(英国はBrexit後もEUの基準と同じような基準を利用しているので、実質同じ...)...例えば、欧州だと欧州委員会勧告2003/361/ECですよね...(従業員、売上高、総資産額で閾値を設定。従業員だと250名以上だと大企業)。で、現在Small  mid-capの区分(従業員だと250名以上1000名未満)が検討されていますよね...

日本の場合と中小企業基本法に基づくものになるのだろうと思いますが、政策議論をする場合に明確にそのことを示して議論をしていないし、文書等にもそれが明示されていないんですよね...漠然と中小企業...今回のガイドラインも過去からそうで「中小企業基本法」と言う用語すら登場しないんですよね...中小企業基本法でいう中小企業ではないのであれば、たとえば「いわゆる一般的に中小企業といわれる企業」として一般用語であることを明示し、そして、この文書で想定している中小企業をある程度明確にしたほうがよいと思うんですよね...

ちなみに、中小企業基本法の定義...


(中小企業者の範囲及び用語の定義)

第二条 この法律に基づいて講ずる国の施策の対象とする中小企業者は、おおむね次の各号に掲げるものとし、その範囲は、これらの施策が次条の基本理念の実現を図るため効率的に実施されるように施策ごとに定めるものとする。

一 資本金の額又は出資の総額が三億円以下の会社並びに常時使用する従業員の数が三百人以下の会社及び個人であつて、製造業、建設業、運輸業その他の業種(次号から第四号までに掲げる業種を除く。)に属する事業を主たる事業として営むもの

二 資本金の額又は出資の総額が一億円以下の会社並びに常時使用する従業員の数が百人以下の会社及び個人であつて、卸売業に属する事業を主たる事業として営むもの

三 資本金の額又は出資の総額が五千万円以下の会社並びに常時使用する従業員の数が百人以下の会社及び個人であつて、サービス業に属する事業を主たる事業として営むもの

四 資本金の額又は出資の総額が五千万円以下の会社並びに常時使用する従業員の数が五十人以下の会社及び個人であつて、小売業に属する事業を主たる事業として営むもの


 

さて、今回の中小企業の情報セキュリティ対策ガイドラインは、中小企業基本法の「中小企業者」?...もし、そうではないなら、この文書の想定する中小企業とはどう言う事業者か最初に定義したほうがよいかもしれませんね...

 

経済産業省

・2026.03.27 サイバー攻撃を“自分事”に。そしてその先、“どう動く?”――中小企業のセキュリティ対策強化に向けて「中小企業のための実例で学ぶサイバーセキュリティリスク事例集」と「中小企業の情報セキュリティ対策ガイドライン第4.0版」を公表しました

 

実例集はともかく、ガイドラインについてですが...

 


4.中小企業の情報セキュリティ対策ガイドラインの改訂

改訂の概要は以下のとおりです。

(1) SCS評価制度の考え方の取り込み

SCS評価制度が、SA宣言の上位基準として位置付けられていることを踏まえ、本ガイドラインをSA宣言の取組に限らず、SCS評価制度にもつながる内容に見直しを行いました。

具体的には、ガイドラインの「第2部 実践編」STEP3において、SCS評価制度で求められる要求事項(セキュリティポリシーの策定、アクセス制御やログ管理等)を踏まえ、対策を実施するにあたっての考え方を整理しました。付録として掲載されている規程類のサンプルやひな型についても、SCS評価制度に対応する形で拡充しました。

1_20260329073701

(2)SECURITY ACTION自己宣言制度の基準見直しの反映

SA宣言の基準を見直し、ガイドラインにも反映しています。主な見直しのポイントは以下のとおりです。

  • SA宣言一つ星の取組について、OSのアップデートやウイルス対策ソフトの導入など基本5項目であったのを、ランサムウェア被害の拡大を踏まえバックアップの取得を追加し6項目とした。
  • SA宣言二つ星の取組である情報セキュリティ基本方針の策定及び、自社のセキュリティ対策状況を自社診断する25項目(SA宣言一つ星の項目を含む)について、中小企業実態調査の結果を踏まえ以下のとおり見直し。
    • ファイアウォールの導入が進んでいる実態があることを受けて、定着を図る観点から項目として追加。
    • コンテンツ管理システム(CMS)などWebシステムの導入実態がある中で、Webサイトの管理に関するセキュリティ対策を追加。
    • 類似する項目について重複感を避ける観点から、「事務所の立ち入り制限」といった物理的対策や、「情報セキュリティ教育」といった従業員のセキュリティ意識に関する項目について関連する項目を統合。
    • 実施率が低い項目について、取組を実施する際に参考となる参照先を対策例に追加するなど、対策実施に向けた導線を強化。

 

情報セキュリティ5か条は(1)情報セキュリティ6か条に増えていますね。。。★1も6か条にかわるんですかね...

1.OSやソフトウェアは常に最新の状態にしよう!
2.ウイルス対策ソフトを導入しよう!
3.パスワードを強化しよう!
4.共有設定を見直そう!
5.バックアップを取ろう!
6.脅威や攻撃の手口を知ろう!

5.  が新たに加わっていますね...

★2はトータル25項目で変わりありません...

 


IPA

中小企業の情報セキュリティ対策ガイドライン

・[PDF] 中小企業の情報セキュリティ対策ガイドライン第4.0版

20260329-74149
 

この発表に合わせて、付録資料も更新されているので、ぜひ活用を...

・[PDF] 付録1:中小企業のためのセキュリティ人材の確保・育成方策(全14ページ)

20260330-60635

・[DOCX] 付録2:情報セキュリティ基本方針(サンプル)(全1ページ)

・[PDF] 付録3:5分でできる!情報セキュリティ自社診断(全8ページ)

20260330-60723

・[PPTX] 付録4:情報セキュリティハンドブック(ひな形)(全17ページ)

・[DOCX] 付録5:情報セキュリティ関連規程(サンプル)(全59ページ)

・[ELSX] 付録6:資産管理台帳(サンプル)(全9シート)

・[PDF] 付録7:中小企業のためのクラウドサービス安全利用の手引き(全8ページ)

・[PDF] 付録8:中小企業のためのセキュリティインシデント対応の手引き(全8ページ)

 

 

 

SECURITY ACTION自己宣言制度

 


 

 

 

 

| | Comments (0)

総務省 地方公共団体における情報セキュリティポリシーに関するガイドライン(令和8l年3月版)

こんにちは、丸山満彦です。

総務省の地方公共団体における情報セキュリティポリシーに関するガイドラインの改定等に係る検討会が、・「地方公共団体における情報セキュリティポリシーに関するガイドライン」「地方公共団体における情報セキュリティ監査に関するガイドライン」を改訂していますね...

ガイドライン改定(令和8年3月)のポイントは、


1.地方自治法改正に伴う対応

令和6年の地方自治法の改正に伴い、大臣指針案が令和7年4月1日付で発出されており、ガイドライン第1編総則において記載内容が重複する箇所等について削除等を実施。

2. 機器の廃棄・データ消去について

「政府機関等の対策基準策定のためのガイドライン」を参考にマイナンバー利用事務系の領域において住民情報を保存する記録媒体における機器の物理的破壊について、機器のリユース(再利用)が困難になることやコスト等の課題があることから、物理破壊以外の方法を追加。また、データ消去作業の職員の立ち合いを行う範囲を明確化。

3. USBメモリ等の利用におけるリスクへの対処

「政府機関等の対策基準策定のためのガイドライン」と総務省のガイドラインを整合した上で不足している対策について追記。

4.その他

「政府機関等の対策基準策定のためのガイドラインの一部改定(令和7年9月)」を踏まえ、DNS設定情報を悪用する攻撃等について追記。

※ 上記2・3については第3編 対策基準(解説)を改定。
※ 地方公共団体における情報セキュリティ監査に関するガイドラインについては時点更新と形式修正のみ


20260329-53002

 

・[PDF] 「地方公共団体における情報セキュリティポリシーに関するガイドライン」(令和8年3月27日改定)

20260329-62152

 

・[PDF] 「地方公共団体における情報セキュリティ監査に関するガイドライン」(令和8年3月27日改定)

20260329-62241

 

 

 

暗号消去についても導入されていますよね...第20回の検討会の資料をみると変更点がよりわかりやすいかもしれません。

・2026.01.14 地方公共団体における情報セキュリティポリシーに関するガイドラインの改定等に係る検討会(第20回)

・・[PDF] 資料1 電磁的記録媒体を使用しないデータ連携について

20260329-61653

 

・・[PDF] 資料2 機器の廃棄・データ消去について

20260329-61736

・・[PDF] 資料3 今年度のセキュリティポリシーガイドラインの改定内容について

20260329-61916

 

改訂履歴はつぎのような感じですかね...

地方公共団体における情報セキュリティポリシーに関するガイドライン

  • 2001年;平成13年03月;策定
  • 2006年;平成18年09月;全部改定;政府の情報セキュリティ政策会議は「第 1 次情報セキュリティ基本計画」を踏まえて改定
  • 2010年;平成22年11月;一部改定;「第 2 次情報セキュリティ基本計画」等を踏まえて改定
  • 2015年;平成27年03月;一部改定;マイナンバー法、サイバーセキュリティ基本法を踏まえて改定
  • 2018年;平成30年03月;全部改定;平成27年の年金機構情報漏えい事案、三層対策
  • 2020年;令和02年12月;一部改定;三層対策のパターンを増やすなど利便性とセキュリティのバランスの調整
  • 2022年;令和04年03月;一部改定;政府統一基準の改訂、DX等を踏まえた改定
  • 2023年;令和05年03月;一部改定;ガバメントクラウドの導入等を見据えて改定
  • 2024年;令和06年10月;一部改定;Web会議利用、政府統一基準の改定を踏まえた改定
  • 2025年;令和07年03月;一部改定;テレワーク、マイナンバー利用事務系への無線LAN接続等を踏まえた改定
  • 2026年:令和08年03月:一部改訂:地方自治法法の改訂により、必要な措置を講じることを義務付け、暗号消去の導入等による改定

地方公共団体における情報セキュリティ監査に関するガイドライン

  • 2003年;平成15年12月;策定
  • 2007年;平成19年07月;全部改定;政府の情報セキュリティ政策会議は「第 1 次情報セキュリティ基本計画」を踏まえて改定
  • 2010年;平成22年11月;一部改定;「第 2 次情報セキュリティ基本計画」等を踏まえて改定
  • 2015年;平成27年03月;一部改定;マイナンバー法、サイバーセキュリティ基本法を踏まえて改定
  • 2018年;平成30年09月;一部改定;政府統一基準、自治体情報セキュリティ対策検討チーム報告等を踏まえて改訂
  • 2020年;令和02年12月;一部改訂;三層対策のパターンを増やすなどの対策の変化に応じて改訂
  • 2022年;令和04年03月;一部改訂;政府統一基準の改訂、DX等を踏まえた改定

 初版からの積み重ねということもあり、どんどんページ数が増えていっている感じですよね...

 

地方自治体のサプライチェーンセキュリティも重要となってくるので、「サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度(SCS評価制度)(参考)★3・★4要求事項及び評価基準参照文献の参照文献に総務省の地方公共団体における情報セキュリティポリシーに関するガイドライン」も加える必要がありそうですね...

幸い、こちらのガイドラインは、JISQ27002(おそらく2024)との参照関係はしめしているので、それを伝えば、つながりそうですね...(包含関係問題はありますが...)

 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

2025.04.01 総務省 地方公共団体における情報セキュリティポリシーに関するガイドライン(令和7年3月版)

・2021.09.14 地⽅⾃治体によるガバメントクラウドの活⽤について(案)2021.08現在

・2021.05.31 文部科学省 「教育情報セキュリティポリシーに関するガイドライン」公表について

・2021.05.13 参議院 デジタル社会形成基本法案等を議決 デジタル庁設置、個人情報保護法改正、地方自治体システム標準化等。。。

・2020.12.31 自民党デジタル社会推進本部 デジタル庁創設に向けた中間提言 at 2020.12.22 (小林史明議員公式サイト)

・2020.12.29 総務省 「地方公共団体における情報セキュリティポリシーに関するガイドライン」と「地方公共団体における情報セキュリティ監査に関するガイドライン」の公表及び意見募集の結果

・2020.12.25 官邸 「デジタル社会の実現に向けた改革の基本方針」と「デジタル・ガバメント実行計画」が閣議決定

・2020.12.13 総務省 意見募集「地方公共団体における情報セキュリティポリシーに関するガイドライン」(改定案)、「地方公共団体における情報セキュリティ監査に関するガイドライン」(改定案)

・2020.11.19 自民党デジタル社会推進本部がデジタル庁についての第一次提言を平井卓也デジタル改革担当相に手交

・2020.09.05 J-LIS (予告)「自治体テレワーク推進実証実験」の公募について

・2020.05.23 総務省 「自治体情報セキュリティ対策の見直しについて」の公表

 

ちょっと遡って...

・2012.07.22 総務省 ASP・SaaS・クラウドの普及拡大に向けたガイドの公表

・2010.11.16 総務省 確定 地方公共団体における情報セキュリティポリシーに関するガイドラインと地方公共団体における情報セキュリティ監査に関するガイドライン

・2010.12.12 総務省 自治体クラウド推進本部 有識者懇談会(第3回)

・2010.09.17 総務省 パブコメ 地方公共団体における情報セキュリティポリシーに関するガイドライン(案)と地方公共団体における情報セキュリティ監査に関するガイドライン(案)

・2010.08.06 総務省 電子自治体 情報セキュリティ対策の推進

・2010.08.05 総務省 自治体クラウド推進本部

・2010.05.01 内閣府 地方公共団体の業務継続ガイドライン

・2010.04.02 総務省 確定 地方公共団体におけるASP・SaaS導入活用ガイドライン

・2010.03.12 「サイバー攻撃に無防備、193自治体」だそうです。。。

・2010.03.09 総務省 自治体クラウドポータルサイトの開設

・2010.02.20 総務省 パブコメ 「地方公共団体におけるASP・SaaS導入活用ガイドライン(案)」

・2010.01.25 長崎県がクラウド事業者として市町村にサービスを提供するの件

・2010.01.18 日本経団連 「電子行政推進シンポジウム」(2009.12.08)開催の様子

・2009.03.28 総務省 電子自治体の推進に関する懇談会(セキュリティワーキング グループ)検討結果

・2008.08.23 総務省 確定 「地方公共団体におけるICT部門の業務継続計画(BCP)策定に関するガイドライン」

・2008.06.28 総務省 パブコメ 「地方公共団体におけるICT部門の業務継続計画(BCP)策定に関するガイドライン」(案)

・2008.04.26 総務省 地方自治情報管理概要

・2007.07.14 総務省 「地方公共団体におけるITガバナンスの強化ガイド」を公表

・2007.07.09 総務省 確定 「地方公共団体における情報セキュリティ監査に関するガイドライン」

・2007.06.09 総務省 パブコメ 「地方公共団体における情報セキュリティ監査に関するガイドライン」

・2007.04.02 総務省 自治体ISAC(仮称)実証実験の実施結果

・2006.09.30 総務省 地方公共団体における情報セキュリティポリシーに関するガイドラインを公表

・2006.08.21 総務省 パブコメ 「地方公共団体における情報セキュリティポリシーに関するガイドライン」(案)

・2006.06.01 地方公共団体セキュリティ対策支援フォーラム 「情報セキュリティ監査実施状況および推進課題に関する検討」報告書

・2006.04.06 総務省 「地方公共団体の情報セキュリティレベルの評価に係る制度の在り方に関する調査研究報告書」の公表

・2006.01.24 総務省 住民基本台帳ネットワークシステム及びそれに接続している既設ネットワークに関する調査票による点検状況

・2005.07.19 総務省 平成17年度電子自治体関連施策 セキュリティ認定制度

・2005.07.17 「地方公共団体における情報セキュリティ内部アセスメント(監査)の進め方」

・2005.02.15 住民基本台帳ネットワークシステム 政府と国民の信頼がポイントではないのだろうか?

 

 

| | Comments (0)

2026.03.29

英国 NCSCのトップがVibe Codingのセキュリティ対策についての国際協力を呼びかける@RSAC (2026.03.24)

こんにちは、丸山満彦です。

世界的なサイバーセキュリティのカンファレンスの一つであるRSAカンファレンスがラスベガスで開催されていたわけですが、英国のNCSCのトップが、AIを用いてソフトウェアを生成する「バイブコーディング」に関する安全対策を整備するよう、国際的なセキュリティコミュニティに呼びかけていますね...

● NCSC

プレス...

・2026.03.24 NCSC CEO: Seize 'disruptive' vibe coding opportunity to make software more secure

NCSC CEO: Seize 'disruptive' vibe coding opportunity to make software more secure NCSC CEO:ソフトウェアのセキュリティ強化に向け、「破壊的」なバイブコーディングの機会を捉えるべき
Dr Richard Horne delivered a keynote about cyber risks and opportunities at the RSAC Conference in San Francisco リチャード・ホーン博士は、サンフランシスコで開催されたRSACカンファレンスで、サイバーリスクと機会に関する基調講演を行った
The UK’s chief cyber expert has called on the international security community to grasp the opportunity to reduce our collective vulnerability to cyber attacks by developing safeguards around vibe coding – the use of artificial intelligence to generate software. 英国のサイバーセキュリティ最高責任者は、国際的なセキュリティコミュニティに対し、生成的人工知能を用いてソフトウェアを生成する「バイブコーディング」を巡る安全対策を開発することで、サイバー攻撃に対する我々の集合的な脆弱性を軽減する機会を捉えるよう呼びかけた。
At a major cyber summit in the USA, Dr Richard Horne, the Chief Executive of the UK’s National Cyber Security Centre, highlighted how digital societies face a “fundamental issue with the quality of technology we use” due to exploitable vulnerabilities.  米国で開催された主要なサイバーサミットにおいて、英国国家サイバーセキュリティセンター(NCSC)の最高経営責任者であるリチャード・ホーン博士は、悪用可能な脆弱性により、デジタル社会が「我々が使用する技術の品質に関する根本的な問題」に直面していることを強調した。
The NCSC CEO spoke of both the opportunity and challenges with AI-generated code. NCSCのCEOは、生成的AI生成コードがもたらす機会と課題の両方について語った。
Whilst insecure software produced without human review could potentially propagate vulnerabilities, he observed that well-trained AI tooling writing software which is more secure by design and throughout its lifecycle could transform cyber security outcomes for the better. 人間のレビューを経ずに生成された安全性の低いソフトウェアは脆弱性を広げる可能性がある一方で、同氏は、適切に訓練されたAIツールが、設計段階からライフサイクル全体を通じてより安全なソフトウェアを記述することで、サイバーセキュリティの成果を好転させ得ると指摘した。
In a keynote address at the RSAC Conference in San Francisco, Richard Horne said: サンフランシスコで開催されたRSACカンファレンスでの基調講演で、リチャード・ホーン氏は次のように述べた。
The attractions of vibe coding are clear, and disrupting the status quo of manually produced software that is consistently vulnerable is a huge opportunity, but not without risk of its own. 「バイブ・コーディングの魅力は明らかであり、常に脆弱性を抱える手作業で作成されたソフトウェアという現状を打破することは大きな機会だが、それ自体にもリスクは伴う。」
“The AI tools we use to develop code must be designed and trained from the outset so that they do not introduce or propagate unintended vulnerabilities. 「コード開発に用いるAIツールは、意図しない脆弱性を導入したり拡散させたりしないよう、最初から設計・訓練されなければならない。
He said security professionals had “both the opportunity and responsibility” to ensure that a future where vibe coding and other AI code-generation tools are more widely adopted is “a net positive for security”. 彼は、セキュリティ専門家には、AIコーディングやその他のAIコード生成ツールがより広く採用される未来が「セキュリティにとって正味のプラスとなる」ことを確実にするための「機会と責任の両方」があると述べた。
Today (24/03), the NCSC – which is a part of the UK signals intelligence agency GCHQ – has published a new blog post arguing that code produced by AI currently poses intolerable risks for many organisations but that vibe coding shows “glimpses of a new paradigm”. 本日(3月24日)、英国の信号情報機関GCHQの一部であるNCSCは、AIによって生成されたコードが現在多くの組織にとって許容できないリスクをもたらしている一方で、Vibeコーディングは「新たなパラダイムの兆し」を示していると論じる新しいブログ記事を公開した。
It predicts the business benefits of using AI to write code will drive up adoption, and so it is vital that security professionals start engaging with the risks now to embed core security principles that will make software less vulnerable to attack. 同センターは、AIを活用したコード作成によるビジネス上のメリットが導入を加速させると予測しており、そのためセキュリティ専門家が今すぐリスクへの対応を開始し、ソフトウェアの攻撃に対する脆弱性を低減させる中核的なセキュリティ原則を組み込むことが不可欠であると指摘している。
In his speech at RSAC, Dr Horne also spoke of how cyber risk is now of “greater consequence than ever before”, as we face more exposure, inherent vulnerability and threat activity carried out by “a web of actors who blur the categories, increasingly linking to and enabling each other”. RSACでの講演で、ホーン博士はまた、我々がより多くのエクスポージャー、固有の脆弱性、そして「カテゴリーの境界を曖昧にし、互いに連携・支援し合う脅威アクターのネットワーク」による脅威活動に直面していることから、サイバーリスクが今や「かつてないほど重大な結果をもたらす」ものとなっていると述べた。
To combat this “multi-dimensional” threat, he said our collective approach to defending our societies must match that, likening cyber defence to a full court press in basketball, where “collective pressure from all actions together” can have greatest impact. この「多面的な」脅威に対抗するため、彼は、社会を守るための我々の集団的アプローチもそれに応じたものでなければならないと述べた。そして、サイバー防衛をバスケットボールの「フルコートプレス」に例え、「すべての行動が一体となって生み出す集団的な圧力」こそが最大の効果をもたらすと指摘した。

 

 

ブログ記事...

・2026.03.24 Vibe check: AI may replace SaaS (but not for a while)

 

 

Vibe Codingは、AIとの対話をしながらプログラムを作る方法という感じですかね...

プログラミング未経験者でも(簡単な)アプリケーションの開発が可能となり、プロトタイピングが高速で実施できることがメリットですが、プログラムの経験の浅い人が作るとプログラムの品質やセキュリティ上の課題が残る可能性が高くなり、品質等に不安が残りますよね...

イメージで言うとEUC(エンドユーザーコンピューティング)の一種でよりプログラム未経験者に開かれたようなものなので、従来からのEUCの課題がはっきりと現れる感じだと思います。RPA(Robotic Process Automation)の利用の仕方にも欧米と日本で差があったようにも思いますが、Vive Codingも利用も欧米と日本がどのようになっていくのか気になりますね...

ただ、Vibe Codingも大規模アプリケーションや、品質が問われるようなアプリケーションの開発には向いていないように思います。また、組織的に使うとなると、責任の所在を定義してから開発を始めないといけないように思うけど、Vibe Codingですから、そんなことはあまり気にせず使い始めて後になって問題となるのでしょうね...野良Vive Codingアプリで溢れるかも...

いずれにしても、環境を整えるのが重要と思います。

 

ということで、岡田さんのこの記事と文書は重要となるわけです...

・2026.03.27 Codex CLI のハードニングチートシートも書きました——牧羊犬ぽさのある動きが面白かった話

・・Codex CLI Hardening Cheatsheet

・・ Codex CLI Hardening Cheatsheet [Ja][En]

 

・2026.03.23 ひとつやるだけでも大違い - Claude Code 設定チートシート、書いたよー

・・Claude Code Hardening Cheatsheet

・・Claude Code Hardening Cheatsheet [Ja][En]

 

1_20260329045201

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.28 Codex CLI Hardening Cheatsheet これは興味深い...

・2026.03.25 Claude Code Hardening Cheatsheet これは興味深い...

 

| | Comments (0)

米国 ODNI インテリジェンス・コミュニティ史上最大規模のサイバーセキュリティ投資・近代化計画を発表 (2026.03.26)

こんにちは、丸山満彦です。

米国国家情報長官室(ODNI)がインテリジェンス・コミュニティ史上最大規模のサイバーセキュリティ投資・近代化計画を発表しています...

といっても、非機密情報の要約だけです...

 

Office of the Director's National Intelligence: ODNI

・2026.03.26 DNI Gabbard Announces Largest-Ever Intelligence Community Cybersecurity Investment and Modernization Effort

DNI Gabbard Announces Largest-Ever Intelligence Community Cybersecurity Investment and Modernization Effort ガバード国家情報長官、インテリジェンス・コミュニティ史上最大規模のサイバーセキュリティ投資・近代化計画を発表
WASHINGTON, D.C. — On Thursday, Director of National Intelligence (DNI) Tulsi Gabbard shared a look inside the year-one results of the largest-ever Intelligence Community (IC) wide technology and cybersecurity modernization and investment effort, spearheaded by the Office of the Director of National Intelligence (ODNI) and carried out in support of President Trump’s Cyber Strategy for America. ワシントンD.C. — 木曜日、国家情報長官(DNI)のタルシ・ガバード氏は、国家情報長官室(ODNI)が主導し、トランプ大統領の「米国のためのサイバー戦略」を支援するために実施された、インテリジェンス・コミュニティ(IC)全体における史上最大規模の技術・サイバーセキュリティ近代化および投資計画の初年度成果について、その概要を明らかにした。
“Protecting our nation’s most sensitive information from those who seek to exploit it, while making sure our intelligence professionals have the tools and access they need to do their jobs, is not optional. It is essential to our national security,” said DNI Gabbard. “Over the past year, we have taken meaningful steps to begin fulfilling that responsibility through the largest IC-wide technology investment and modernization effort in history. President Trump's Intelligence Community is moving faster and more decisively on cybersecurity modernization and investments in IT than ever before, delivering stronger defenses, greater efficiency, and real cost savings for the American people.” 「わが国の最も機密性の高い情報を、それを悪用しようとする者から防御しつつ、情報専門家が職務を遂行するために必要なツールとアクセス権を確保することは、選択の余地がない。それはわが国の国家安全保障にとって不可欠である」と、ガバード国家情報長官は述べた。「過去1年間、我々は史上最大規模のIC全域にわたる技術投資および近代化の取り組みを通じて、その責任を果たし始めるための有意義な措置を講じてきた。トランプ大統領の下にあるインテリジェンス・コミュニティは、サイバーセキュリティの近代化とITへの投資において、かつてないほど迅速かつ断固として行動しており、より強固な防衛体制、効率性の向上、そして米国国民のための実質的なコスト削減を実現している。」
Below is an unclassified summary of ODNI's year-one efforts to execute this historic technology and cyber security modernization and investment effort: 以下は、この歴史的な技術・サイバーセキュリティの近代化および投資計画を実行するための、ODNIによる初年度の取り組みに関する非機密要約である:
・ODNI expertly targeted vulnerabilities and modernized networks and data centers, ultimately increasing resilience against potential adversary attacks and strengthening technology performance. ・ODNIは脆弱性を的確に特定し、ネットワークとデータセンターを近代化することで、潜在的な敵対者による攻撃に対するレジリエンスを高め、技術性能を強化した。
・ODNI launched a shared IC-wide repository of cybersecurity authorizations, ending duplicative hardware and software assessment and authorization efforts and streamlining operations. ・ODNIは、IC全体で共有されるサイバーセキュリティ認可のレポジトリを立ち上げ、ハードウェアおよびソフトウェアのアセスメント・認可作業の重複を解消し、業務を効率化した。
・ODNI defined and rolled out the IC’s new Zero Trust strategy, shifting to a data-centric security model that protects information regardless of location or network. ・ODNIはICの新たなゼロトラスト戦略を策定・展開し、場所やネットワークに関係なく情報を保護するデータ中心のセキュリティモデルへと移行した。
・ODNI expanded the automation of threat hunting across IC networks — dramatically increasing speed and effectiveness of detection and response. ・ODNIはICネットワーク全体での脅威ハンティングの自動化を拡大し、検知と対応の速度と有効性を劇的に向上させた。
・ODNI issued new policies and standards that promote reciprocity across the IC and Department of War systems — cutting redundant authorization timelines. ・ODNIは、ICと国防総省のシステム間で相互認可を促進する新たな方針と標準を策定し、重複する認可プロセスの期間を短縮した。
・ODNI partnered with the Department of War on joint use of classified commercial cloud data centers, cutting costs in half, and ultimately saving hundreds of millions of taxpayer dollars. ・ODNIは国防総省と提携し、機密扱いの商用クラウドデータセンターを共同利用することで、コストを半減させ、最終的に数億ドルの税金を節約した。
・DNI Gabbard directed ODNI’s National Counterintelligence and Security Center to proactively combat foreign intelligence actors seeking to engage in cyber-attacks against U.S. interests. ・ガバードDNIは、ODNI傘下の国家対諜報・保安センターに対し、米国の利益に対するサイバー攻撃を企てる外国の諜報機関に対して、先制的に対処するよう指示した。
・ODNI is developing the policy framework, governance, and standards necessary to accelerate AI adoption for cybersecurity and other critical technology, enhancing interoperability across the IC. ・ODNIは、サイバーセキュリティやその他の重要技術におけるAI導入を加速させるために必要な政策枠組み、ガバナンス、標準を策定しており、インテリジェンス・コミュニティ(IC)全体の相互運用性を強化している。
Under DNI Gabbard’s leadership, the Intelligence Community is advancing the third pillar of President Trump’s Cyber Strategy: Modernize and Secure Federal Government Networks. Read more here. ガバード国家情報長官の指導の下、インテリジェンス・コミュニティはトランプ大統領のサイバー戦略の第三の柱である「連邦政府ネットワークの近代化とセキュリティ強化」を推進している。詳細はこちら。

 

1_20260328060201

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.07 米国 トランプ大統領のアメリカのためのサイバー戦略

 

 

| | Comments (0)

JIPDEC グローバルCBPRシステムの新プログラム要件 (2026.03.23)

こんにちは、丸山満彦です。

JIPDECが、グローバルCBPR(Cross-Border Privacy Rules)システムの新プログラム要件についての発表をしていますね...

グローバルCBPRは、「越境データ流通における信頼構築」を目的とした、国際的な枠組みで、もともとAPECではじまったものを2025年にグローバルに拡張したものです...

グローバル間の個人データの移転をスムーズに行えるように考えられたスキームですね...ただし、CBPRの認証をとっているからといって、EU GDPRの十分性認定には直接的には関係しないですね...

今回CBPRのプログラムの要件が変更されたのですが、その点は同じです...

日本ではIIJほか、数社しか取得していない状況ですかね...

 

JIPDEC

・2025.03.23 グローバルCBPRシステムの新プログラム要件

 

Global CBPR Forum

・2025.03.23 Updates to the Global Cross-Border Privacy Rules System Strengthen Global Interoperability and Privacy

新しい要求基準...

20260326-145416

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.03.16 カナダ Global Cross-Boarder Privacy Rule(CBPR)Forum 認証の実施に関する協議

・2024.05.16 個人情報保護委員会 経済産業省 グローバルCBPRシステムの稼働に向けた文書等の公表 (2024.04.30)

・2023.07.17 英国 CBPRフォーラムのアソシエイトになる (2023.07.06)

・2022.04.23 米国 フィリピン シンガポール 台湾 グローバル越境プライバシールール(CBPR)フォーラム設立関連...

・2022.04.22 個人情報保護委員会 経済産業省 グローバル越境プライバシールール(CBPR)フォーラム設立に向けた宣言

 

・2016.07.14 経済産業省 越境データフローに係る制度等の調査研究の報告書

 

 

 

| | Comments (0)

2026.03.28

経済産業省 「サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度構築方針」(SCS評価制度の構築方針) (2026.03.27)

こんにちは、丸山満彦です。

ついに経済産業省とNCOから「サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度構築方針」(SCS評価制度の構築方針)を公表されましたね...

今回はFAQがついたので、より理解が深まると思います。PDFですけど、いくいくはウェブベースにして、必要に応じて追加していくのがよいと思います...

参照文献として、ISO/IEC 27001:2022(これ、JIS Q 27001:2023のほうがよかったね...)、政府統一基準(令和7年度版)
、自工会/部工会・サイバーセキュリティガイドライン 2.3 版に加えて、英国のCyber Essentials question booklet Version 16、米国の32 CFR Part 170 (Cybersecurity Maturity Model Certification (CMMC) Program)も追加されましたね...海外の基準の追加もよいのですが、総務省、厚労省、金融庁等の国内の基準やPCI/DSSといった広く使われているガイドとの関連もあると良いのだろうと思います。(まぁ、これからぼちぼちと...)


今回は方針ですから、詳細はこれから詰めていく必要がありますね。多くの人の意見をうまく統合してより良い制度にできればよいですよね...

 

中小企業対策として、お助け隊サービス(新類型)というのがあります。まもなく、実証事業も始まります。(IPAで公表されると思います...)

 

 

 

経済産業省

・2026.03.27「サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度構築方針」(SCS評価制度の構築方針)を公表しました

 

関連資料

・[PDF] サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度構築方針概要

20260327-192056

・[PDF] サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度構築方針

・[XLSX] 別添★3・★4要求事項及び評価基準

・[XLSX] (参考)★3・★4要求事項及び評価基準参照文献

・[PDF] 資料1 「サプライチェーン強化に向けたセキュリティ対策評価制度に関する制度構築方針(案)」及び「★3・★4要求事項・評価基準(案)」に対するパブリックコメントへの対応について

・[PDF] 資料2 サプライチェーン強化に向けたセキュリティ対策評価制度に関するパブリックコメントに対する考え方

・[PDF] 資料3 SCS評価制度に関するよくあるお問合せ

 

関連リンク

ワーキンググループ1(サプライチェーン強化に向けたセキュリティ対策評価制度に関するサブワーキンググループ)

サプライチェーン全体のサイバーセキュリティ向上のための取引先とのパートナーシップの構築に向けて

サプライチェーン強化に向けたセキュリティ対策評価制度(SCS評価制度)を活用する中小企業向け支援策について

サイバーセキュリティお助け隊サービス(新類型)

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.17 経済産業省 サプライチェーン・サイバーセキュリティ評価(SCS)制度のパブコメへの回答の一覧...


・2025.12.28 経済産業省 パブコメ サプライチェーン強化に向けたセキュリティ対策評価制度(SCS評価制度)に関する制度構築方針(案)とその評価基準案 (2025.12.26)

・2025.04.15 経済産業省 サプライチェーン強化に向けたセキュリティ対策評価制度構築に向けた中間取りまとめ (2024.04.14)


 

 

 

| | Comments (0)

オーストラリア 2018年重要インフラセキュリティ法 サイバーセキュリティインシデントの届出のガイダンス (2026.03.18)

こんにちは、丸山満彦です。

ちょうど日本でも基幹インフラ事業者の資産の新規・変更の届出、侵害の届出についてのパブコメがだされていますが、この届出がA4の紙の様式が指定されていて、「まじか...」と言う話になっていますが、同様の法律があるオーストラリアでは、ウェブ入力となっていますね...ちょうど2026.03.18にガイダンスも公開されたところなので、紹介しておきますね...

 

● Australia Critical Infrastructure Security Centre

・2026.03.18 Notification of Cyber Security Incident reporting guidance

(Listの中から探してください...)

Notification of Cyber Security Incident reporting guidance サイバーセキュリティインシデントの通知の報告ガイダンス
Description 概要
This guidance has been prepared to assist specified critical infrastructure entities to comply with their ‘Notification of cyber security obligations’ as per Part 2B of the Security of Critical Infrastructure Act 2018 (SOCI Act). This obligation is commonly referred to as Mandatory Cyber Incident Reporting (MCIR). 本ガイダンスは、指定重要インフラ事業体が『2018年重要インフラセキュリティ法(SOCI法)』第2B部の定める「サイバーセキュリティに関する届出義務」を遵守できるよう作成されたものである。この義務は、一般に「サイバーインシデント報告義務(MCIR)」と呼ばれる。

 

・[PDF] Notification of Cyber Security Incidents - Security of Critical Infrastructure Act 2018

20260327-180540

・[DOCX][PDF] 仮訳

 

目次...

Preface はじめに
What is the notification of cyber security incidents obligation? サイバーセキュリティインシデントの届出義務とは何か
How do I make a report? どのように報告すればよいか?
What is a cyber security incident under the SOCI Act? SOCI法におけるサイバーセキュリティインシデントとは何か?
What is ‘unauthorised’? 「不正」とは何か
What is unauthorised ‘access to computer data or a computer program’? 「コンピュータデータまたはコンピュータプログラムへの不正アクセス」とは何か
What is unauthorised ‘impairment of electronic communication to or from a computer’ 無許可の「コンピュータとの電子通信の妨害」とは何か
What is unauthorised ‘modification’? 「無断の『改変』」とは何か
Incidents that generally do not need to be reported 一般的に報告の必要がない事象
Asset classes with notification of cyber security incidents obligation サイバーセキュリティインシデントの届出義務がある資産クラス
Identifying a reportable cyber security incident 報告対象となるサイバーセキュリティインシデントの特定
Significant impact 重大な影響
Relevant impact 関連する影響
When do you need to report? いつ報告する必要があるか?
Critical cyber security incidents 重大なサイバーセキュリティインシデント
Other cyber security incidents その他のサイバーセキュリティインシデント
When do you ‘become aware’ an incident is occurring? インシデントの発生を「認識」するのはいつなのか。
What kind of information must be provided in the report? 報告にはどのような情報を記載しなければならないか?
What happens after you report? 報告後はどうなるか?
What happens if you report late or do not report at all? 報告が遅れたり、報告しなかったりした場合はどうなるか?
How is the information in a report used? 報告書の情報はどのように利用されるのか。
Will the report be forwarded to other Commonwealth, state and/or territory regulators? 報告は他の連邦、州、および/または準州の規制当局に転送されるか?
National Office of Cyber Security 国家サイバーセキュリティ局
Protected information and limited use 保護情報および限定利用
Protected information 保護情報
Limited use 限定的な利用
A step-by-step guide: Reporting a Cyber Security Incident ステップバイステップガイド:サイバーセキュリティインシデントの報告
Attachment A: Examples of critical and other cyber security incidents 別紙A:重大なサイバーセキュリティインシデントおよびその他の事例
Critical Incident Examples 重大なインシデントの例
Other Incident Examples その他のインシデント事例

 

インシデント届出のウェブページ...

Report

サイバーセキュリティインシデントの報告

Report a cyber security incident

入力するのは面倒かもしれませんが、後の処理のことを考えたら、ウェブ入力とかがよいのではないかなぁ...なんて...

 

 

 

 

 

 

| | Comments (0)

Codex CLI Hardening Cheatsheet これは興味深い...

こんにちは、丸山満彦です。

長い付き合いになります岡田 良太郎さん(株式会社アスタリスク・リサーチ代表、株式会社神戸デジタル・ラボ顧問)がClaude Code Hardening Cheatsheet 」に続いて、「Codex CLI Hardening Cheatsheet」も公表してくれていて、これが非常に興味深いので紹介です.....でも、アフェリエイトではございません(^^)

生成AIのリスクというのは、概念的にはわかるのだけれども、具体的にどう言うことをすれば良いの?というのをCodex CLIを具体的に取り上げて、説明しているので非常にわかりやすいです。非常に実務的...

環境や、要求は利用者によってそれぞれと思うのですが、出発点として、これをベースにいろいろと考えられると言うことで非常に有益な文書だと思います...わかりやすくまとめているのは少ないかもですね...

ぜひ目を通してくださいませ...

まずは、

オカダリョウタロウさんの

● NOTE

・2026.03.27 Codex CLI のハードニングチートシートも書きました——牧羊犬ぽさのある動きが面白かった話

を読むと課題が何か?ということがわかると思います...

で、次に...

20260324-174142

・2026.03.27 Codex CLI Hardening Cheatsheet [Ja][En]

 

そして、この文書が参考にしている次の文書もぜひ...

OWASP Cheat Sheet Series

AI Agent Security Cheat Sheet

LLM Prompt Injection Prevention Cheat Sheet

OWASP Top 10 for LLM Applications 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.28 Codex CLI Hardening Cheatsheet これは興味深い...

・2026.03.25 Claude Code Hardening Cheatsheet これは興味深い...

 

| | Comments (0)

2026.03.27

米国 FCC 家庭用ルータはこれから米国内製造品しか販売できない (2026.03.23)

こんにちは、丸山満彦です。

米国のFCCが家庭用ルータはこれから米国内製造品しか販売できないと公表していますね...要は、販売禁止対象リストに海外製一般家庭用のルータを追加しています...

すでに使われているものはそのまま使えます...

家庭用のルータのセキュリティに関連する活動として、日本では総務省がNoticeを、そして経済産業省(IPA)がJC-STARを始めましたが、米国はCyber Trust Mark制度に被せて、海外製一般家庭用ルータの販売禁止(要は承認しないので売れない)を強制してきた感じですかね...

 

Federal Comunications Cmmission: FCC

・2026.03.23 FCC Updates Covered List to Include Foreign-Made Consumer Routers

FCC Updates Covered List to Include Foreign-Made Consumer Routers FCC、対象リストを更新し、海外製の一般消費者向けルーターを追加
Description  概要
Update Follows Determination by Executive Branch Agencies that Consumer-Grade Routers Produced in Foreign Countries Threaten National Security 今回の更新は、海外で製造された一般消費者向けルーターが国家安全保障を脅かすとの行政機関による判断を受けたものである

 

プレスリリース...

News Release: [docx] [pdf] [txt]

FACT SHEET: FCC Updates Covered List to Include Foreign-Made Consumer Routers, Prohibiting Approval of New Models ファクトシート:FCC、対象リストを更新し海外製の一般消費者向けルーターを追加、新モデルの承認を禁止
Update Follows Determination by Executive Branch Agencies that Consumer-Grade Routers Produced in Foreign Countries Threaten National Security 今回の更新は、海外で製造された一般消費者向けルーターが国家安全保障を脅かすとの行政機関による判断を受けたものである
WASHINGTON, March 23, 2026—Today, the Federal Communications Commission updated its Covered List to include all consumer-grade routers produced in foreign countries.  Routers are the boxes in every home that connect computers, phones, and smart devices to the internet.  This followed a determination by a White House-convened Executive Branch interagency body with appropriate national security expertise that such routers “pose unacceptable risks to the national security of the United States or the safety and security of United States persons.” ワシントン、2026年3月23日—本日、連邦通信委員会(FCC)は、海外で製造されたすべての一般消費者向けルーターを対象に含めるよう、対象リストを更新した。ルーターとは、各家庭にある、コンピュータ、電話、スマートデバイスをインターネットに接続する機器である。 これは、ホワイトハウスが招集した、適切な国家安全保障の専門知識を有する行政機関の省庁間団体が、こうしたルーターが「米国の国家安全保障、あるいは米国人の安全と保安に対して容認できないリスクをもたらす」との判断を下したことを受けたものである。
The Executive Branch determination noted that foreign-produced routers (1) introduce “a supply chain vulnerability that could disrupt the U.S. economy, critical infrastructure, and national defense” and (2) pose “a severe cybersecurity risk that could be leveraged to immediately and severely disrupt U.S. critical infrastructure and directly harm U.S. persons.” 行政機関の判断では、海外製ルーターは(1)「米国経済、 重要インフラ、および国防を混乱させる可能性のあるサプライチェーンの脆弱性」をもたらし、(2)「米国の重要インフラを即座かつ深刻に混乱させ、米国人に直接的な危害を加えるために悪用される恐れのある深刻なサイバーセキュリティリスク」をもたらすと指摘した。
President Trump’s 2025 National Security Strategy stated: “the United States must never be dependent on any outside power for core components—from raw materials to parts to finished products—necessary to the nation’s defense or economy.  We must re-secure our own independent and reliable access to the goods we need to defend ourselves and preserve our way of life.”  トランプ大統領の2025年国家安全保障戦略は次のように述べている。「米国は、国防や経済に必要な中核的構成要素――原材料から部品、完成品に至るまで――について、いかなる外部勢力にも依存してはならない。我々は、自国を防衛し、我々の生活様式を維持するために必要な物資への、独立かつ信頼できるアクセスを再確保しなければならない。」
Malicious actors have exploited security gaps in foreign-made routers to attack American households, disrupt networks, enable espionage, and facilitate intellectual property theft.  Foreign-made routers were also involved in the Volt, Flax, and Salt Typhoon cyberattacks targeting vital U.S. infrastructure. 悪意ある攻撃者は、外国製ルーターのセキュリティ上の脆弱性を悪用し、米国の一般家庭への攻撃、ネットワークの妨害、スパイ活動の実施、知的財産の窃取を助長してきた。外国製ルーターは、米国の重要インフラを標的とした「Volt」「Flax」「Salt Typhoon」といったサイバー攻撃にも関与していた。
The determination included an exemption for routers that the Department of War (DoW) or the Department of Homeland Security (DHS) have granted “Conditional Approval” after finding that such device or devices do not pose such unacceptable risks.  Producers of consumer-grade routers are encouraged to submit an application for Conditional Approval using the guidance attached to the determination.  Applications should be submitted to [mail] 本決定には、国防総省(DoW)または国土安全保障省(DHS)が、当該機器が許容できないリスクをもたらさないと判断した上で「条件付き承認」を付与したルーターに対する免除が含まれている。一般消費者向けルーターの製造業者に対し、本決定に添付されたガイダンスを用いて条件付き承認の申請を行うことが推奨される。申請は [mail]
宛てに提出すること。
As outlined below, today’s action does not impact a consumer’s continued use of routers they previously acquired.  Nor does it prevent retailers from continuing to sell, import, or market router models approved previously through the FCC’s equipment authorization process.  By operation of the FCC’s Covered List rules, the restrictions imposed today apply to new device models. 以下に概説するように、本日の措置は、消費者が以前に購入したルーターを継続して使用することには影響しない。また、小売業者が、FCCの機器認可プロセスを通じて以前に承認されたルーターモデルの販売、輸入、または販売促進を継続することを妨げるものでもない。FCCの「対象リスト」規則の運用により、本日課された制限は新しいデバイスモデルに適用される。
Chairman Carr issued the following statement:  カー委員長は以下の声明を発表した:
“I welcome this Executive Branch national security determination, and I am pleased that the FCC has now added foreign-produced routers, which were found to pose an unacceptable national security risk, to the FCC’s Covered List.  Following President Trump’s leadership, the FCC will continue do our part in making sure that U.S. cyberspace, critical infrastructure, and supply chains are safe and secure.” 「私は、この行政機関による国家安全保障上の決定を歓迎する。また、容認できない国家安全保障上のリスクをもたらすと判断された外国製ルーターを、FCCの『対象リスト』に追加できたことを喜ばしく思う。トランプ大統領のリーダーシップに従い、FCCは今後も、米国のサイバー空間、重要インフラ、およびサプライチェーンの安全とセキュリティを確保するために、我々の役割を果たし続ける。」
Additional Background:  追加の背景:
· The FCC’s Covered List is a list of communications equipment and services that are deemed to pose an unacceptable risk to the national security of the U.S. or the safety and security of U.S. persons. ・FCCの「対象リスト」とは、米国の国家安全保障または米国人の安全・保安に対して容認できないリスクをもたらすとみなされるコミュニケーション機器およびサービスのリストである。
· Under the Secure and Trusted Communications Networks Act, the Commission can update the Covered List only at the direction of national security authorities.  In other words, the Commission cannot update this list on its own and is required to implement determinations that are made by our national security agency experts. ・『安全かつ信頼できる通信ネットワーク法』に基づき、委員会は国家安全保障局の指示があった場合にのみ、対象リストを更新することができる。つまり、委員会は独自にこのリストを更新することはできず、国家安全保障局の専門家による決定を実施することが義務付けられている。
· Equipment on the Covered List (“covered” equipment) is prohibited from getting FCC equipment authorization. Most electronic devices (including consumer-grade routers) require FCC equipment authorization prior to importation, marketing, or sale in the U.S.  Covered equipment is banned from receiving new equipment authorizations, preventing new devices from entering the U.S. market. ・対象リストに掲載された機器(「対象」機器)は、FCCの機器認可を取得することが禁止されている。ほとんどの電子機器(一般消費者向けルーターを含む)は、米国への輸入、販売、または販売促進を行う前に、FCCの機器認可が必要である。対象機器は新たな機器認可を受けることが禁止されており、これにより新規機器の米国市場への参入が阻止される。
· The Cybersecurity and Infrastructure Security Agency encourages organizations to use the Covered List for risk management analysis in their regulatory compliance efforts.  ・サイバーセキュリティ・インフラセキュリティ庁(CISA)は、規制遵守の取り組みにおけるリスクマネジメント分析のために、組織が対象リストを活用することを推奨している。
· Following a similar National Security Determination in December, and a follow-up Determination in January, the FCC recently added the following to the Covered List: “Uncrewed aircraft systems (UAS) and UAS critical components produced in a foreign country†† —except,  (a) UAS and UAS critical components included on the Defense Contract Management Agency’s (DCMA’s) Blue UAS Cleared List, until January 1, 2027,#  (b) UAS critical components that qualify as “domestic end products” under the Buy American Standard, 48 CFR 25.101(a), until January 1, 2027; and (c) devices which have been granted a Conditional Approval by DoW or DHS—and all communications and video surveillance equipment and services listed in Section 1709(a)(1) of the FY25 National Defense Authorization Act (Pub. L. 118-159)”. ・12月の同様の国家安全保障決定および1月の追補決定に続き、FCCは最近、対象リストに以下を追加した: 「外国で製造された無人航空機システム(UAS)およびUASの重要部品」†† —ただし、 (a) 国防契約管理局(DCMA)の「ブルーUASクリアリスト」に掲載されているUASおよびUASの重要部品は、2027年1月1日まで除外される# (b) 「バイ・アメリカン標準」(48 CFR 25.101(a))に基づき「国内最終製品」に該当するUAS重要部品(2027年1月1日まで); および (c) 国防総省(DoW)または国土安全保障省(DHS)から条件付き認可を受けた機器——ならびに2025会計年度国防授権法(Pub. L. 118-159)第1709条(a)(1)項に列挙されたすべてのコミュニケーションおよび映像監視機器・サービス」。
What does this mean?  これは何を意味するのか?
· New devices on the Covered List, such as foreign-made consumer-grade routers, are prohibited from receiving FCC authorization and are therefore prohibited from being imported for use or sale in the U.S.  This update to the Covered List does not prohibit the import, sale, or use of any existing device models the FCC previously authorized.  ・対象リストに追加された新規機器(外国製の一般消費者向けルーターなど)は、FCCの認可を受けることが禁止され、したがって米国内での使用または販売を目的とした輸入も禁止される。この対象リストの更新により、FCCが以前に認可した既存の機器モデルの輸入、販売、または使用が禁止されることはない。
· This action does not affect any previously-purchased consumer-grade routers.  Consumers can continue to use any router they have already lawfully purchased or acquired.  ・この措置は、以前に購入された一般消費者向けルーターには影響しない。 消費者は、すでに合法的に購入または入手したルーターを引き続き使用できる。
· Producers of consumer-grade routers that receive Conditional Approval from DoW or DHS can continue to receive FCC equipment authorizations.  Interested applicants are encouraged to submit applications to [mail]. ・DoWまたはDHSから条件付き承認を受けた一般消費者向けルーターの製造業者は、引き続きFCCの機器認可を受けることができる。関心のある申請者は、[mail]. へ申請書を提出することが推奨される。
For more information, please see our FAQ page . 詳細については、FAQページを参照のこと。

 

FAQ

FAQs on Recent Updates to FCC Covered List Regarding Routers Produced in Foreign Countries

FAQs on Recent Updates to FCC Covered List Regarding Routers Produced in Foreign Countries 海外で製造されたルーターに関するFCC対象リストの最近の更新に関するよくある質問
What is the FCC's Covered List? What restrictions does it impose on "covered" equipment on the List? FCCの対象リストとは何か。リストに掲載された「対象」機器にはどのような制限が課されるのか。
The FCC’s Covered List is a list of communications equipment and services that are deemed to pose an unacceptable risk to the national security of the U.S. or the safety and security of U.S. persons. FCCの対象リストとは、米国の国家安全保障、あるいは米国人の安全・保安に対して容認できないリスクをもたらすとみなされるコミュニケーション機器およびサービスのリストである。
Under the Secure Networks Act, the FCC can update the Covered List only after the direction of a qualifying national security authority. In other words, the Commission cannot update this list on its own and is required to implement determinations that are made by our national security agency experts. 「セキュア・ネットワーク法」に基づき、FCCは適格な国家安全保障局の指示を受けた後にのみ、対象リストを更新することができる。つまり、委員会は独自にこのリストを更新することはできず、国家安全保障局の専門家による決定を実施することが義務付けられている。
Equipment on the Covered List (“covered equipment”) is prohibited from getting FCC equipment authorization. Most electronic devices require FCC equipment authorization prior to importation, marketing, or sale in the U.S. Covered equipment is banned from receiving new equipment authorizations, preventing new devices from entering the U.S. market. 対象リストに掲載された機器(「対象機器」)は、FCCの機器認可を取得することが禁止されている。ほとんどの電子機器は、米国への輸入、販売、または販売開始に先立ち、FCCの機器認可を必要とする。対象機器は新規の機器認可を受けることが禁止されており、これにより新規機器の米国市場への参入が阻止される。
Additionally, the Cybersecurity and Infrastructure Security Agency encourages organizations to use the Covered List for risk management analysis in their regulatory compliance efforts. さらに、サイバーセキュリティ・インフラセキュリティ庁(CISA)は、規制遵守の取り組みにおけるリスクマネジメント分析のために、組織が対象リストを活用することを推奨している。
New models of devices on the Covered List are prohibited from receiving FCC authorization and are therefore prohibited from being imported or sold in the U.S. Being added to the Covered List today does not prohibit the import, sale, or use of any existing device models the FCC previously authorized. 対象リストに掲載された機器の新型モデルは、FCCの認可を受けることが禁止されており、したがって米国への輸入や販売も禁止される。本日対象リストに追加されたとしても、FCCが以前に認可した既存の機器モデルの輸入、販売、または使用が禁止されるわけではない。
The Covered List does not restrict the continued use by consumers of previously-purchased devices. Consumers can continue to use the devices they lawfully purchased. 対象リストは、消費者が以前に購入した機器の継続的な使用を制限するものではない。消費者は、合法的に購入した機器を引き続き使用することができる。
Why did the FCC add routers produced in foreign countries to the Covered List on March 23, 2026? FCCはなぜ2026年3月23日に、海外で製造されたルーターを対象リストに追加したのか?
The FCC updated the Covered List following a thorough review by a White House-convened Executive Branch interagency body with appropriate national security expertise, which jointly and severally made a specific determination that routers produced in any foreign country pose “unacceptable risks to the national security of the United States and to the safety and security of U.S. persons” and should be included on the FCC’s Covered List. FCCは、ホワイトハウスが招集した、適切な国家安全保障の専門知識を有する行政機関間の合同団体による徹底的な検討を経て、対象リストを更新した。同団体は、いかなる外国で製造されたルーターも「米国の国家安全保障および米国人の安全・保安に対して容認できないリスク」をもたらし、FCCの対象リストに含めるべきであるとの具体的な判断を、連帯して下した。
This determination also allowed for exemptions if the Department of War (DoW) or the Department of Homeland Security (DHS) transmits a specific determination to the FCC that a given router, or class of routers, does not pose such risks. この決定では、国防総省(DoW)または国土安全保障省(DHS)が、特定のルーターまたはルーターの分類がそのようなリスクをもたらさないという具体的な判断をFCCに伝達した場合、例外を認めることも可能とした。
Therefore, the FCC updated its Covered List to include “Routers produced in a foreign country, except routers which have been granted a Conditional Approval by DoW or DHS.” したがって、FCCは対象リストを更新し、「国防総省または国土安全保障省から条件付き承認を受けたルーターを除く、外国で製造されたルーター」を含めることとした。
In their determination, national security agencies referenced, among other things, concerns that routers produced in foreign countries could introduce a supply chain vulnerability that could disrupt the U.S. economy, critical infrastructure, and national defense and establish a severe cybersecurity risk that could be leveraged to immediately and severely disrupt U.S. critical infrastructure and directly harm U.S. persons. 国家安全保障局は、その決定において、とりわけ、外国で製造されたルーターがサプライチェーンの脆弱性を招き、米国経済、重要インフラ、国防を混乱させる恐れがあること、また、米国の重要インフラを即座かつ深刻に混乱させ、米国国民に直接的な危害を加えるために悪用され得る深刻なサイバーセキュリティリスクをもたらす恐れがあることなどを懸念材料として挙げた。
What is the impact of the FCC adding routers produced in a foreign country to the Covered List? FCCが外国製ルーターを「対象リスト」に追加したことによる影響は何か。
All “new” models of foreign-produced routers will not be eligible to receive FCC equipment authorization (unless they are granted Conditional Approvals by DoW or DHS) and therefore may not be imported or sold in the U.S. 海外で製造されたルーターの「新規」モデルはすべて、FCCの機器認可を受ける資格がなくなる(DoWまたはDHSによる条件付き承認が与えられた場合を除く)。したがって、米国への輸入や販売はできなくなる。
Foreign-produced routers that have previously received FCC authorization (as shown by the FCC ID on the device) may continue to be imported, sold, and used in the U.S. 過去にFCCの認可を受けている(機器にFCC IDが表示されている)海外製ルーターは、引き続き米国への輸入、販売、および使用が可能だ。
Do consumers currently using covered routers in small and home offices need to do anything? 小規模オフィスやホームオフィスで現在対象ルーターを使用している消費者は、何か対応が必要か?
Consumers currently using covered routers in small and home offices do not need to do anything. 小規模オフィスやホームオフィスで現在対象ルーターを使用している消費者は、何もする必要はない。
The Covered List does not restrict the continued use by consumers of previously-purchased devices. 対象リストは、消費者が以前に購入した機器を継続して使用することを制限するものではない。
Consumers will continue to be able to purchase previously authorized routers. 消費者は、以前に認可されたルーターを引き続き購入することができる。
Are there any restrictions on consumers' ability to use covered routers? 消費者が対象ルーターを使用することについて、何らかの制限はあるか?
No. いいえ。
Are any foreign-produced routers exempt from the Covered List? 対象リストから除外される外国製ルーターはあるか?
Yes, the National Security Determination stated that foreign-produced routers pose unacceptable risk to the national security of the United States and to the safety and security of U.S. persons “unless Department of War (DoW) or the Department of Homeland Security (DHS) transmits to the FCC a specific determination that a given router or class of routers do not pose such risks.” The National Security Determination also included guidance to apply for “Conditional Approvals” from DoW and DHS. DoW and DHS will evaluate individual requests for specific determinations that certain routers do not pose “unacceptable risks.” はい。国家安全保障決定では、外国製ルーターは「国防総省(DoW)または国土安全保障省(DHS)が、特定のルーターまたはルーターの分類がそのようなリスクをもたらさないという具体的な決定をFCCに通知しない限り」、米国の国家安全保障および米国人の安全・保安に対して容認できないリスクをもたらすとされている。 国家安全保障決定には、国防総省(DoW)および国土安全保障省(DHS)への「条件付き承認」申請に関する指針も含まれている。DoWおよびDHSは、特定のルーターが「容認できないリスク」をもたらさないという個別の判断を求める申請を審査する。
Therefore, the FCC updated the Covered List to include “routers produced in a foreign country, regardless of the nationality of the producer, except for routers that have been granted a Conditional Approval by DoW or DHS.”

したがって、FCCは対象リストを更新し、「DoWまたはDHSから条件付き承認を取得したルーターを除き、製造者の国籍にかかわらず、外国で製造されたルーター」を含めることとした。
How can I receive a Conditional Approval for my foreign-produced router? 外国製ルーターの条件付き承認はどのように取得すればよいか?
Entities can apply for “Conditional Approvals” by submitting an email with the information in the guidance to conditional-approvals@fcc.gov. The information will be forwarded to DoW and DHS for their evaluation. The FCC will update the Covered List based on Conditional Approvals it receives from DoW or DHS and publish the relevant information on the Covered List website. 事業体は、ガイダンスに記載された情報を記載した電子メールを conditional-approvals@fcc.gov 宛てに送信することで、「条件付き承認」を申請できる。この情報は、DoWおよびDHSに転送され、評価が行われる。FCCは、DoWまたはDHSから受領した条件付き承認に基づき対象リストを更新し、関連情報を対象リストのウェブサイトに掲載する。
How are routers defined? ルーターはどのように定義されているか?
The FCC followed the definitions in the National Security Determination. FCCは国家安全保障決定における定義に従った。
“Routers” is defined by National Institute of Standards and Technology’s Internal Report 8425A to mean consumer-grade networking devices that are primarily intended for residential use and can be installed by the customer. Routers forward data packets, most commonly Internet Protocol (IP) packets, between networked systems.

「ルーター」とは、国立標準技術研究所(NIST)の内部報告書8425Aにおいて、主に一般消費者向けであり、顧客自身で設置可能な民生用ネットワーク機器と定義されている。ルーターは、ネットワーク接続されたシステム間でデータパケット(最も一般的なのはインターネットプロトコル(IP)パケット)を転送する。
What constitutes “produced in a foreign country”? Is there a content threshold? 「外国で製造された」とは何を指すのか?内容の閾値はあるか?
The National Security Determination states that “[p]roduction generally includes any major stage of the process through which the device is made including manufacturing, assembly, design, and development.” 国家安全保障決定書には、「製造とは、一般的に、製造、組立、設計、開発を含む、デバイスが作られるプロセスの主要な段階のすべてを指す」と記載されている。
In the equipment authorization process, applicants have to self-certify that any RF device is not “covered equipment.” Going forward, this includes self-certification that the RF device is not a router “produced in a foreign country.” 機器認可プロセスにおいて、申請者は、あらゆるRFデバイスが「対象機器」ではないことを自己認証しなければならない。今後、これには、当該RFデバイスが「外国で製造された」ルーターではないという自己認証も含まれる。
Applicants seeking equipment authorization for any router will bear responsibility for certifying, in good faith, that any such router was not “produced in a foreign country.” ルーターの認可を申請する者は、当該ルーターが「外国で生産された」ものではないことを、誠実に証明する責任を負う。
Does the nationality of the entity producing the router affect its status as either “covered” or not-covered? ルーターを生産する事業体の国籍は、そのルーターが「対象」か否かの判断に影響するか。
The nationality of the entity or entities producing routers is not relevant to whether such routers are considered to be “produced in a foreign country.” ルーターを生産する事業体の国籍は、当該ルーターが「外国で生産された」とみなされるかどうかの判断には関係しない。
If a router is designed in the U.S., but manufactured abroad, is it “covered”? What about if a router is designed abroad, but manufactured in the U.S.? ルーターが米国で設計され、海外で製造された場合、それは「対象」となるか。ルーターが海外で設計され、米国で製造された場合はどうか。
Both types of routers are “covered.” The National Security Determination states that “Production generally includes any major stage of the process through which the device is made, including manufacturing, assembly, design, and development.” どちらのタイプのルーターも「対象」となる。国家安全保障決定では、「製造とは、一般的に、製造、組立、設計、開発を含む、デバイスが作られるプロセスの主要な段階をすべて指す」と規定されている。
Producers of routers with these processes made abroad should apply for Conditional Approval.

これらの工程が海外で行われるルーターの製造業者は、条件付き承認を申請すべきである。
Can I import a new model of a foreign-produced router solely for product development purposes? 製品開発目的のみのために、海外生産のルーターの新モデルを輸入することは可能か?
Consistent with FCC regulations, 47 CFR § 2.1204(a)(3), entities may import small batches of unauthorized devices solely for product development purposes, provided such devices are not marketed or sold. FCC規則(47 CFR § 2.1204(a)(3))に準拠し、事業体は、当該機器が販売または流通されないことを条件として、製品開発目的のみのために未認可機器を少量輸入することができる。
Does this action affect the Supplier’s Declaration of Conformity (SDoC) equipment authorization process for routers produced abroad? この措置は、海外で製造されたルーターに対するサプライヤー適合宣言(SDoC)による機器認可プロセスに影響するか?
All newly-covered devices are prohibited from receiving any FCC equipment authorization, including via the streamlined SDoC equipment authorization process. 新たに規制対象となったすべての機器は、簡素化されたSDoC機器認可プロセスを含め、いかなるFCC機器認可も受けることが禁止される。
Entities “identified on the Covered List” are generally prohibited from obtaining equipment authorizations through the SDoC process for even their non-covered devices. 47 CFR §§ 2.906(d); 2.907(c). 「対象リストに記載された」事業体は、対象外の機器であっても、SDoCプロセスを通じて機器認可を取得することが一般的に禁止されている。47 CFR §§ 2.906(d); 2.907(c)。
However, as noted in the Public Notice announcing the routers Covered List update, entities that produce routers in a foreign country are not considered “identified on the Covered List.” Such entities will therefore still be able to take advantage of the SDoC process for their non-covered devices. ただし、ルーターの対象リスト更新を告知する公示で述べられているように、海外でルーターを製造する事業体は「対象リストに記載された」とはみなされない。 したがって、そのような事業体は、対象外機器についても引き続きSDoCプロセスを活用できる。
If someone buys a router outside the US, can they use it in the U.S.? 米国外でルーターを購入した場合、米国で使用することはできるか?
There is no restriction on the use of “covered” routers that have already received FCC equipment authorization and display an FCC ID. すでにFCC機器認可を受けており、FCC IDが表示されている「対象」ルーターの使用に制限はない。
For “covered” routers that have not received FCC equipment authorization, the general answer is “no”.

FCC機器認可を受けていない「対象」ルーターについては、一般的な答えは「いいえ」である。
Is a router produced in the United States containing foreign-produced components now “covered equipment” and prohibited from FCC equipment authorization? 米国で製造されたルーターに外国製の部品が含まれている場合、それは現在「対象機器」となり、FCC機器認可が禁止されるのか?
Non-“covered” devices do not become “covered” simply because they contain a “covered” component part, unless the “covered” component part is a modular transmitter under the FCC’s rules. 47 CFR §§ 2.903(b), 15.212. 「対象外」の機器は、単に「対象」となる部品を含んでいるという理由だけで「対象」となるわけではない。ただし、その「対象」となる部品がFCC規則に基づくモジュール式送信機である場合は除く。47 CFR §§ 2.903(b), 15.212。
Therefore, a router produced in the United States is not considered “covered” equipment solely because it contains one or more foreign-made components. したがって、米国で製造されたルーターは、1つ以上の外国製部品を含んでいるという理由だけで「対象機器」とはみなされない。
Do applicants need to have documentation or evidence to demonstrate that a component was not produced in a foreign country? 申請者は、部品が外国で製造されていないことを証明するための文書や証拠を用意する必要があるか。
To get equipment certification for routers, applicants will need to certify that the device is not covered equipment, i.e. is not produced in a foreign country. ルーターの機器認証を取得するには、申請者は当該デバイスが「対象機器」ではないこと、すなわち外国で製造されていないことを証明する必要がある。
Applicants will need to be able to have sufficient evidence that the routers were not produced in a foreign country to make this certification, but there is no specific documentation or evidence required. 申請者は、この認定を行うために、ルーターが外国で製造されていないことを示す十分な証拠を用意できる必要があるが、特定の書類や証拠が要求されるわけではない。
Does this affect government purchases or use of routers? これは政府によるルーターの購入や使用に影響するか?
No, the Covered List does not restrict the import or sale of routers for the exclusive use by the federal government. いいえ、対象リストは、連邦政府が専ら使用するルーターの輸入や販売を制限するものではない。
Can routers on the Covered List get basic software and firmware edits? 対象リストに掲載されたルーターは、基本的なソフトウェアやファームウェアの更新を受けられるか?
Yes, pursuant to a waiver of its rules, these devices can continue to receive basic software and firmware updates to maintain usability. はい、規則の免除に基づき、これらの機器は使い勝手を維持するために、基本的なソフトウェアおよびファームウェアの更新を引き続き受けられる。

 

1_20260327114101

 

 

| | Comments (0)

OWASP 2026年版 エージェント型アプリケーション向けOWASP Top 10 (2025.12.09)

こんにちは、丸山満彦です。

OWASPが昨年に公表した、エージェント型アプリケーション向けOWASP Top 10は、Agentic AIの脅威について比較的わかりやすく整理されているので、参考になると思いました。

きっとOWASP Japanが日本語版を公表してくれると思います (^^)

これをベースに色々なところで議論をすれば話は早いように思いました...

 

OWASP

・2025.12.09 OWASP Top 10 for Agentic Applications for 2026

OWASP Top 10 for Agentic Applications for 2026 2026年版 エージェント型アプリケーション向けOWASP Top 10
About 概要
The OWASP Top 10 for Agentic Applications 2026 is a globally peer-reviewed framework that identifies the most critical security risks facing autonomous and agentic AI systems. Developed through extensive collaboration with more than 100 industry experts, researchers, and practitioners, the list provides practical, actionable guidance to help organizations secure AI agents that plan, act, and make decisions across complex workflows. By distilling a broad ecosystem of OWASP GenAI Security guidance into an accessible, operational format, the Top 10 equips builders, defenders, and decision-makers with a clear starting point for reducing agentic AI risks and supporting safe, trustworthy deployments. 「OWASP Top 10 for Agentic Applications 2026」は、自律型およびエージェンティックAIシステムが直面する最も重大なセキュリティリスクを特定する、世界的にピアレビューを経た枠組みである。100名以上の業界専門家、研究者、実務家との広範な協力を通じて策定されたこのリストは、複雑なワークフロー全体で計画、行動、意思決定を行うAIエージェントを組織が保護するための、実践的かつ実行可能なガイダンスを提供する。OWASPのジェネレーティブAIセキュリティガイダンスという広範なエコシステムを、理解しやすく実用的な形式に集約することで、このトップ10は、開発者、防御担当者、意思決定者に、エージェンティックAIのリスクを低減し、安全で信頼性の高い展開を支援するための明確な出発点を提供する。

 

・[PDF]

20260327-81412

 

10項目の全体像...

 

1_20260326155301

 

ASI01 Agent Goal Hijack  エージェントの目的乗っ取り
ASI02 Tool Misuse & Exploitation   ツールの悪用と悪用
ASI03 Identity & Privilege Abuse  IDおよび権限の悪用
ASI04 Agentic Supply Chain Vulnerabilities  エージェントのサプライチェーンの脆弱性
ASI05  Unexpected Code Execution (RCE)  予期しないコード実行(RCE)
ASI06 Memory & Context Poisoning  メモリおよびコンテキストの汚染
ASI07 Insecure InterAgent Communication  エージェント間のコミュニケーションの不備
ASI08 Cascading Failures  連鎖的な障害
ASI09 Human-Agent Trust Exploitation  人間とエージェント間の信頼関係の悪用
ASI10 Rogue Agents  不正エージェント

 

 

 

| | Comments (0)

欧州 Europol 世界的なサイバー犯罪取り締まり:37万3000以上のダークウェブサイトを閉鎖

こんにちは、丸山満彦です。

Europolはドイツが主導、Europolが支援し、欧米の23か国の捜査機関が協力し、ダークウェブ上で大規模な詐欺ネットワークを壊滅させたと発表していますね...

37万3,000以上のダークウェブサイトを閉鎖し、運営者1名(中国国籍)の特定(逮捕には至っていない?)、世界中の顧客440名を摘発したようですね...2021年からドイツ当局が追っていた案件のようです...最大287台のサーバーのうちドイツあった105台のサーバは押収ずみ...

児童性的虐待物(CSAM)やサイバー犯罪アズ・ア・サービス(CaaS)を宣伝していたが、いずれも代金(ビットコイン)のみを受け取り、実際にサービスが提供されることはない詐欺サイトだった。

運営者の不正利益は約34万5,000ユーロ(約5,600万円)以上...

 

Europol

・2026.03.20 Global cybercrime crackdown: over 373 000 dark web sites shut down

1_20260327081601

Global cybercrime crackdown: over 373 000 dark web sites shut down 世界的なサイバー犯罪取り締まり:37万3000以上のダークウェブサイトを閉鎖
Authorities from 23 countries participate in the operation 23カ国の当局が作戦に参加
On 9 March 2026, a global operation led by German authorities and supported by Europol was launched against one of the largest networks of fraudulent platforms in the dark web. The investigation began in mid-2021 against the dark web platform “Alice with Violence CP”. During the investigation, authorities discovered that the platform’s operator was running more than 373 000 fraudulent websites advertising child sexual abuse material (CSAM) and cybercrime-as-a-service (CaaS) offerings. 2026年3月9日、ドイツ当局が主導し、欧州刑事警察機構が支援する世界的な作戦が、ダークウェブ上で最大規模の詐欺プラットフォームネットワークの一つに対して開始された。捜査は2021年半ば、ダークウェブプラットフォーム「Alice with Violence CP」を対象に始まった。捜査の過程で、当局は同プラットフォームの運営者が、児童性的虐待素材(CSAM)やサイバー犯罪サービス(CaaS)を宣伝する37万3000以上の詐欺サイトを運営していたことを突き止めた。
From 9 to 19 March 2026, 23 countries joined forces in 'Operation Alice,' which initially only targeted the platform operator. However, through international cooperation, the investigation uncovered the identities of 440 customers who had used the operator's services. Due to the nature of the purchases, additional investigations were launched against them. The operation is still ongoing against more than a hundred of those individuals. 2026年3月9日から19日にかけて、23カ国が「オペレーション・アリス」に協力し、当初はプラットフォーム運営者だけを標的としていた。しかし、国際的な協力を通じて、捜査により運営者のサービスを利用した440人の顧客の身元が識別された。購入内容の性質上、これらの人物に対して追加の捜査が開始された。現在も、そのうちの100人以上を対象に捜査が続いている。
Results of Operation Alice 「オペレーション・アリス」の成果
So far, Operation Alice has led to the following results: これまでのところ、「オペレーション・アリス」は以下の成果を上げている:
1 perpetrator operating the dark web platform identified; ダークウェブ・プラットフォームを運営していた加害者1名を特定;
440 customers worldwide identified; 世界中で440人の顧客を識別;
Over 373 000 dark web websites shut down; 37万3000以上のダークウェブサイトを閉鎖;
105 servers seized; 105台のサーバーを押収;
Electronic devices seized, including computers, mobile phones and electronic data carriers. コンピュータ、携帯電話、電子データ媒体を含む電子機器を押収。
Catherine De Bolle キャサリン・デ・ボレ
Europol’s Executive Director 欧州刑事警察機構事務局長
Operation Alice sends a clear message: there is nowhere to hide for criminals when the international law enforcement community works hand in glove. We will find them and hold them accountable. Europol will continue to protect children, support victims, and track down the perpetrators. 「オペレーション・アリス」は明確なメッセージを送っている。国際的な法執行機関が緊密に連携すれば、犯罪者に隠れ場所はないということだ。我々は彼らを見つけ出し、責任を問う。欧州刑事警察機構は今後も、子どもを保護し、被害者を支援し、加害者を追跡し続ける。
An intricate network of fraudulent websites 詐欺サイトの複雑なネットワーク
Over the course of nearly five years of investigation, German authorities discovered that a single individual operated more than 373 000 onion domains (websites) on the dark web. An onion domain is a special type of website address that is designed to hide the identity and location of the website and the people visiting it. From February 2020 to July 2025, the suspect advertised CSAM on different platforms, which were accessible through more than 90 000 of those onion domains. On these platforms, the perpetrator offered CSAM that could allegedly be purchased as “packages” after providing an email address and making a payment in Bitcoin. 約5年にわたる捜査の過程で、ドイツ当局は、たった1人の人物がダークウェブ上で37万3000以上のオニオン・ドメイン(ウェブサイト)を運営していたことを突き止めた。オニオン・ドメインとは、ウェブサイトやその訪問者の身元や所在地を隠すように設計された特殊なウェブサイトのアドレスである。2020年2月から2025年7月にかけて、容疑者は様々なプラットフォームで児童性的虐待画像(CSAM)を宣伝しており、これらは9万件以上のオニオン・ドメインを通じてアクセス可能だった。これらのプラットフォーム上で、加害者はメールアドレスを提供し、ビットコインで支払いを行うことで「パッケージ」として購入できると称するCSAMを提供していた。
Each package had an estimated cost of between EUR 17 and EUR 215, and promised data volumes ranging from a few gigabytes to several terabytes of CSAM. However, these were purely fraudulent sites where CSAM was advertised and previewed but never delivered. 各パッケージの推定価格は17ユーロから215ユーロで、数ギガバイトから数テラバイト規模のCSAMデータが提供されると謳われていた。しかし、これらはCSAMを宣伝・プレビューするだけで、実際には一切提供されない純粋な詐欺サイトであった。
In addition to CSAM, several cybercrime-as-a-service (CaaS) offerings were promoted, including credit card data and access to foreign systems. The goal was always to persuade customers to make payments without receiving any service in return. CSAMに加え、クレジットカード情報や海外システムへのアクセス権など、いくつかのサイバー犯罪サービス(CaaS)も宣伝されていた。その目的は常に、顧客に何の見返りも与えずに支払いをさせることにあった。
Targeting the operator… 運営者を標的に…
Investigations were also conducted against the platform’s operator, a 35-year-old man based in the People's Republic of China. Authorities estimate that the individual made over EUR 345 000 in profit from approximately 10 000 customers worldwide who, according to authorities, attempted to purchase the material he was advertising. また、このプラットフォームの運営者である、中華人民共和国在住の35歳の男性に対しても捜査が行われた。当局の推定によると、この男は世界中の約1万人の顧客から34万5000ユーロ以上の利益を得ていた。当局によれば、これらの顧客は彼が宣伝していた資料の購入を試みていたという。
From November 2019 until recently, he operated a network of up to 287 servers at its peak, 105 of which were located in Germany. German authorities have issued an international arrest warrant. 2019年11月から最近に至るまで、彼は最大で287台のサーバーからなるネットワークを運営しており、そのピーク時には105台がドイツに設置されていた。ドイツ当局は国際逮捕状を発行している。
…the criminals purchasing CSAM… …児童性的虐待素材(CSAM)を購入する犯罪者たち…
By paying for CSAM, the customers themselves became suspects, even though they never received the material. Investigators assessed that individuals seeking access to exclusive –and, therefore, severe– child sexual abuse material could represent high-value targets and provide important intelligence for law enforcement worldwide. CSAMの代金を支払ったことで、顧客自身も、実際に素材を受け取っていなくても容疑者となった。捜査当局は、独占的――したがって極めて悪質な――児童性的虐待素材へのアクセスを求める個人が、重要な捜査対象となり得ると評価し、世界中の法執行機関にとって重要な情報源となり得ると判断した。
…and protecting the victims …そして被害者の保護
Throughout the years of investigation, authorities acted immediately whenever they identified children to be in danger, taking appropriate measures to protect their well-being. 長年にわたる捜査の過程で、当局は子どもが危険にさらされていると判断した際には直ちに行動し、その福祉を守るための適切な措置を講じた。
For example, in August 2023, investigators from the Bavarian State Criminal Police Office searched the home of a 31-year-old father who had transferred EUR 20 to purchase a package containing 70 GB of CSAM. The man was later convicted. 例えば、2023年8月、バイエルン州刑事警察局の捜査官は、70GBのCSAMを含むパッケージを購入するために20ユーロを送金した31歳の父親の自宅を家宅捜索した。この男は後に有罪判決を受けた。
Europol’s role 欧州刑事警察機構の役割
During the investigation, Europol specialists facilitated the exchange of information between national authorities, provided analytical support and coordinated the international response. Additionally, they played a key role in tracing cryptocurrency payments and delivering intelligence to the countries involved in the operation. 捜査中、欧州刑事警察機構の専門家は各国当局間の情報交換を促進し、分析支援を提供するとともに、国際的な対応を調整した。さらに、彼らは仮想通貨による支払いの追跡や、作戦に関与した各国への情報提供において重要な役割を果たした。
Most importantly, the close cooperation between German authorities and Europol enabled the identification of the perpetrator. 最も重要なのは、ドイツ当局と欧州刑事警察機構の緊密な協力により、犯人の特定が可能になったことだ。
Stopping child abuse and supporting victims 児童虐待の阻止と被害者支援
The fight against child sexual exploitation is a priority for Europol. Alongside the support provided by the European Cybercrime Centre (EC3) to Member States in preventing and detecting crimes linked to the sexual exploitation of children, Europol is currently running two major projects in this area. 児童の性的搾取との闘いは、欧州刑事警察機構にとって最優先事項である。欧州サイバー犯罪センター(EC3)が加盟国に対し、児童の性的搾取に関連する犯罪の防止と検知において支援を行っていることに加え、欧州刑事警察機構は現在、この分野で2つの主要プロジェクトを推進している。
This week, Europol released new photos to the platform 'Stop Child Abuse – Trace an Object', which calls on all citizens to examine objects from child sexual abuse cold cases and see if they recognise any of them. No clue is too small: even the smallest detail could help identify and safeguard a sexually abused child. 今週、欧州刑事警察機構はプラットフォーム「Stop Child Abuse – Trace an Object」に新たな写真を公開した。このプラットフォームは、児童性的虐待の未解決事件に関連する物品を一般市民に確認してもらい、見覚えがあるものがないか呼びかけている。どんなに些細な手がかりでも構わない。ごく小さな詳細でさえ、性的虐待を受けた児童の識別と保護につながる可能性がある。
Additionally, a new digital platform, Help4U, was launched in November 2025 to support children and teenagers facing sexual abuse or online harm. Designed to be simple, private and accessible, Help4U helps young people find trusted advice, understand their rights and connect with people who can help them. さらに、性的虐待やオンライン上の危害に直面している児童や青少年を支援するため、2025年11月に新たなデジタルプラットフォーム「Help4U」が開設された。シンプルで、プライバシーが守られ、利用しやすいように設計されたHelp4Uは、若者が信頼できる助言を見つけ、自身の権利を理解し、支援してくれる人々とつながる手助けをする。
Participating countries in Operation Alice: 「オペレーション・アリス」参加国:
Australia: Australian Federal Police (AFP) オーストラリア:オーストラリア連邦警察(AFP)
Austria: Criminal Intelligence Service (Bundeskriminalamt) オーストリア:刑事情報局(Bundeskriminalamt)
Belgium: Federal Judicial Police – Federale Gerechtelijke Politie ベルギー:連邦司法警察(Federale Gerechtelijke Politie)
Canada: Royal Canadian Mounted police (RCMP) - National Child Exploitation Crime Centre (NCECC) カナダ:カナダ王立騎馬警察(RCMP)-全国児童搾取犯罪センター(NCECC)
Croatia: National Cybercrime Department (Služba kibernetičke sigurnosti) クロアチア:国家サイバー犯罪局(Služba kibernetičke sigurnosti)
Czech Republic: Czech national police (USKPV), Bureau of Criminal Police and Investigation Service チェコ共和国:チェコ国家警察(USKPV)、刑事警察・捜査局
Denmark: National Cyber Crime Centre (NC3) at Special Crime Unit (SCU/NSK) and Danish National Police (Dansk Politi) デンマーク:特別犯罪対策部(SCU/NSK)傘下の国家サイバー犯罪センター(NC3)およびデンマーク国家警察 (Dansk Politi)
France: Police department for the protection of children (OFMIN) of the national directorate of judicial police (DNPJ) フランス:国家司法警察総局(DNPJ)傘下の児童保護警察局(OFMIN)
Germany: Bavarian State Criminal Police (BLKA), Bavarian Central Office for the Prosecution of Cybercrime (ZKI), Federal Criminal Police Office (BKA) ドイツ:バイエルン州刑事警察(BLKA)、バイエルン州サイバー犯罪捜査中央局(ZKI)、連邦刑事警察局(BKA)
Hungary: National Bureau of Investigation Cybercrime Department Investigative Division (Nemzeti Nyomozó Iroda Kiberbűnözés Elleni Főosztály Nyomozó Osztály) ハンガリー:国家捜査局サイバー犯罪部ディビジョン (Nemzeti Nyomozó Iroda Kiberbűnözés Elleni Főosztály Nyomozó Osztály)
Italy: National Police – Postal and Cyber Security Police Service (Polizia di Stato - Servizio Polizia Postale e per la Sicurezza Cibernetica) イタリア:国家警察 – 郵便・サイバーセキュリティ警察局(Polizia di Stato - Servizio Polizia Postale e per la Sicurezza Cibernetica)
Lithuania: Lithuanian Criminal Police Bureau (Lietuvos kriminalines policijos biuras) リトアニア:リトアニア刑事警察局(Lietuvos kriminalines policijos biuras)
Netherlands: National Police (Politie) オランダ:国家警察(Politie)
Poland: Central Cybercrime Bureau (CBZC) ポーランド:中央サイバー犯罪局(CBZC)
Portugal: Judicial Police (Polícia Judiciária) ポルトガル:司法警察(Polícia Judiciária)
Romania: Romanian Police (Poliția Română) ルーマニア:ルーマニア警察(Poliția Română)
Slovenia: Slovenian Criminal Police (Slovenska kriminalistična policija) スロベニア:スロベニア刑事警察(Slovenska kriminalistična policija)
Spain: Guardia Civil - Criminal Intelligence Unit (UTPJ) and Central Investigations Unit (UCO) スペイン:国民警備隊(Guardia Civil)-犯罪情報部(UTPJ)および中央捜査部(UCO)
Sweden: National Cybercrime Centre (SC3), Region South (Syd), Region West (Väst) and Region Bergslagen スウェーデン:国家サイバー犯罪センター(SC3)、南部地域(Syd)、西部地域(Väst)、ベルグスラーゲン地域
Switzerland: Federal Office of Police fedpol (Bundesamt für Polizei fedpol), Lucerne Police (Luzerner Polizei), Cantonal Police of St. Gallen (Kantonspolizei St. Gallen), Cantonal Police of Thurgau (Kantonspolizei Thurgau), Cantonal Police of Zurich (Kantonspolizei Zürich) スイス:連邦警察局 fedpol(Bundesamt für Polizei fedpol)、ルツェルン州警察(Luzerner Polizei)、ザンクト・ガレン州警察(Kantonspolizei St. Gallen)、トゥールガウ州警察(Kantonspolizei Thurgau)、チューリッヒ州警察(Kantonspolizei Zürich)
Ukraine: National Police of Ukraine ウクライナ:ウクライナ国家警察
United Kingdom: National Crime Agency (NCA) イギリス:国家犯罪対策庁(NCA)
US: Homeland Security Investigations (HSI) 米国:国土安全保障調査局(HSI)
Note to media メディアへの注意
Europol encourages you to use the term ‘child (sexual) abuse material’ and not ‘child pornography’ in your reporting. 欧州刑事警察機構は、報道において「児童(性的)虐待資料」という用語を使用し、「児童ポルノ」という用語は使用しないよう推奨する。
The use of the term ‘child pornography’ helps child sex abusers as it indicates legitimacy and compliance on the part of the victim, and therefore legality on the part of the sex abuser. By using the phrase ‘child pornography’, it conjures up images of children posing in ‘provocative’ positions, rather than suffering horrific abuse. Every photograph or video captures an actual situation where a child has been abused. This is not pornography. 「児童ポルノ」という用語の使用は、被害者の側における正当性や同意を示唆し、ひいては性虐待加害者の側における合法性を示唆することになるため、児童性虐待加害者を助長することになる。「児童ポルノ」という表現を用いることは、恐ろしい虐待を受けているのではなく、子どもが「挑発的な」姿勢をとっているようなイメージを喚起してしまう。あらゆる写真や動画は、子どもが実際に虐待を受けている状況を捉えたものである。これはポルノではない。

 

 

 

| | Comments (0)

英国 NAO 深刻な宇宙天気の脅威に対する英国のレジリエンス (2026.03.20)

こんにちは、丸山満彦です。

英国のNAO(会計検査院)はValue for Moneyの監査を積極的に実施していることで有名ですが、深刻な宇宙天気の脅威に対する英国のレジリエンスについての報告書を公表しています...

宇宙開発が熱を帯びつつありますが、そうなると重要となるのが、宇宙天気(space weather)。太陽フレア、コロナ質量放出(CME)、太陽光エネルギー粒子(SEP)、銀河宇宙線、磁気嵐などの事象がありますね...主に太陽の活動の影響で起こるわけですが、地球に電磁気波、粒子が到達し、電子機器等に影響を及ぼすわけですが、その結果、電力網、通信網に影響がでたり、衛星やその機器(GPS精度の低下、航空機無線の途絶)、空、宇宙での活動での影響(放射線被曝)などの問題がありますね..

太陽の活動は日々変動がありますが、稀に地球に大きな影響を与えるイベントがあるが、そのようなイベントの科学的な理解はまだ十分ではない状況ですよね...稀なので、どの程度の最大イベントを見積っておけば良いのか、そういうイベントが生じた時に地球にどのような影響が及ぶのかというのは十分に把握できていないのが実態というところですかね...

そんな中、英国政府は比較的検討しているが、政府内部での役割分担等が不十分であるようですね...また、民間への予測情報等の提供についてもわかりやすさの面等で改善の余地があるということのようです...

2025.12にDTISに調整役が移管されたのを機にD明確な戦略目標の設定、ガバナンスの強化、長期的な予測能力の確保、全社会的な対応計画の具体化と訓練の実施が求められるとしていますね...

 

● NAO

プレス...

・2026.03.20 The UK’s resilience to severe space weather

The UK’s resilience to severe space weather 深刻な宇宙気象に対する英国のレジリエンス
Background to the report 報告書の背景
The Cabinet Office sets out the most serious acute risks facing the UK in the government’s classified National Security Risk Assessment (NSRA) and public-facing National Risk Register. Severe space weather has been on the National Risk Register since 2011 as one of the most serious natural and environmental hazards. In 2025, the government considered the likelihood of a severe space weather event occurring within the next five years to be 5–25%. 内閣府は、政府の機密文書である「国家安全保障リスク評価(NSRA)」および一般公開されている「国家リスク登録簿」において、英国が直面する最も深刻な差し迫ったリスクを提示している。深刻な宇宙天気は、最も深刻な自然・環境災害の一つとして、2011年から国家リスク登録簿に掲載されている。2025年、政府は今後5年以内に深刻な宇宙天気事象が発生する可能性を5~25%と見積もった。
Space weather originates from solar activity and mostly causes no tangible disruption. Severe space weather can, however, disrupt a range of technologies. For example, an event could cause the widespread disruption of air travel for multiple weeks, localised power outages in the UK, and disruption to satellite services such as satellite navigation and timing services used by many sectors. 宇宙天気は太陽活動に起因し、ほとんどの場合、目に見える混乱を引き起こさない。しかし、深刻な宇宙天気は、様々な技術に混乱をもたらす可能性がある。例えば、そのような事象が発生すれば、数週間にわたる航空便の広範囲な混乱、英国国内での局地的な停電、そして多くの分野で利用されている衛星測位や時刻配信サービスなどの衛星サービスの混乱を引き起こす恐れがある。
Scope of the report 本報告書の範囲
This report examines the government’s work to increase the UK’s resilience to the risk of severe space weather. It forms part of a broader programme of reviews examining preparedness for a range of risks on the NSRA and is intended to provide insights useful for the management of other risks. It covers: 本報告書は、深刻な宇宙天気のリスクに対する英国のレジリエンス(回復力)を高めるための政府の取り組みを検証するものである。本報告書は、NSRA(国家安全保障リスク評価)における様々なリスクへの備えを検討する広範なレビュープログラムの一環を成すものであり、他のリスクの管理に役立つ知見を提供することを目的としている。その内容は以下の通りである:
・the extent to which the government understands the risks and potential cascading effects of severe space weather, and the adequacy of governance arrangements in place to oversee preparedness ・政府が深刻な宇宙天気のリスクおよび潜在的な連鎖的影響をどの程度理解しているか、また、備えを監督するためのガバナンス体制が適切であるか
・the adequacy of the UK’s forecasting capability ・英国の予測能力の適切性
・the adequacy and completeness of the government’s response plans ・政府の対応計画の適切性と網羅性
Concluding remarks 結論
The government has identified severe space weather as a risk with potentially significant impacts that the UK must adequately prepare for and respond to. Since it first included it in the UK’s National Risk Register in 2011, the government has invested in developing and enhancing the UK’s forecasting capability and encouraged awareness of the risk it presents. The Met Office is well respected internationally, has built the UK’s forecasting capability and is taking steps to increase its resilience while taking account of the developing science and user needs. The government has drawn on expertise in the scientific community to inform its assessment of the risk and has begun collating and exercising departmental response plans. 政府は、深刻な宇宙天気を、英国が適切に備え、対応しなければならない、重大な影響を及ぼす可能性のあるリスクとして識別している。2011年に英国の国家リスク登録簿に初めて掲載して以来、政府は英国の予測能力の開発と強化に投資し、それがもたらすリスクに対する認識を高めるよう促してきた。英国気象庁(Met Office)は国際的に高い評価を得ており、英国の予測能力を構築してきた。また、科学の進展や利用者のニーズを考慮しつつ、レジリエンス(回復力)を高めるための措置を講じている。政府は、リスクアセスメントを行うにあたり科学界の専門知識を活用し、各省庁の対応計画の整理と演習を開始した。
However, there are a number of issues that could undermine the UK’s ability to prepare for and respond effectively to a severe space weather emergency which the government needs to resolve. Roles and responsibilities for managing the risk remain unclear, accountabilities could be stronger, and the government has yet to set out what outcome it is looking to achieve and the level of residual impacts it is willing to accept (risk appetite). There is more the government can do to engage local responders and businesses in planning to ensure the effectiveness of its whole-of-society response. しかし、深刻な宇宙天気緊急事態への備えや効果的な対応を行う英国の能力を損なう恐れのある課題がいくつか存在し、政府はこれらを解決する必要がある。リスクマネジメントにおける役割と責任は依然として不明確であり、説明責任はより強化される余地がある。また、政府は達成を目指す成果や、許容する残留影響のレベル(リスク許容度)をまだ明確に示していない。政府は、社会全体での対応の有効性を確保するため、地域の対応機関や企業を計画に巻き込むよう、さらに取り組む余地がある。
The centre of government has an incomplete understanding of how sectors plan to respond to a severe space weather emergency, including whether they plan to use risk-specific or generic response plans, and the testing of response plans through simulation exercises has been limited, constraining understanding of vulnerabilities. Now that responsibility for coordinating the risk sits with DSIT, as the parent department for the Met Office and policy owner for the UK civil space sector, it brings the opportunity to reinvigorate the government’s ambition and address the gaps in its approach. 政府中枢は、各セクターが深刻な宇宙天気緊急事態にどのように対応する計画かについて、リスク固有の対応計画を用いるか汎用的な計画を用いるかを含め、不完全な理解にとどまっている。また、シミュレーション演習を通じた対応計画の検証は限定的であり、脆弱性への理解を制約している。リスク調整の責任がDSITに移管された今、同省は気象庁の所管省庁であり、英国民間宇宙セクターの政策担当省として、政府の取り組みに新たな活力を吹き込み、そのアプローチにおける課題に対処する機会を得ている。
Downloads ダウンロード
Report - The UK’s resilience to severe space weather (.pdf — 518 KB) 報告書 - 深刻な宇宙天気に対する英国のレジリエンス (.pdf — 518 KB)
Summary - The UK’s resilience to severe space weather (.pdf — 219 KB) 要約 - 深刻な宇宙天気に対する英国のレジリエンス (.pdf — 219 KB)
ePub - The UK’s resilience to severe space weather (.epub — 2 MB) ePub - 深刻な宇宙天気に対する英国のレジリエンス (.epub — 2 MB)
Related work 関連資料
Government resilience: extreme weather (6 Dec 2023) 政府のレジリエンス:異常気象 (2023年12月6日)
The National Space Strategy and the role of the UK Space Agency (23 Jul 2024) 国家宇宙戦略と英国宇宙機関の役割(2024年7月23日)
Resilience to animal diseases (4 Jun 2025) 動物疾病に対するレジリエンス(2025年6月4日)

 

・2026.03.20 [PDF] Report - The UK’s resilience to severe space weather

20260326-103926

 

・[PDF] Summary - The UK’s resilience to severe space weather 

20260326-110927

 

20260326-111658

 

 

 

| | Comments (0)

2026.03.26

欧州 EDPB EDPS サイバーセキュリティ法2の提案およびNIS 2指令の改正案に関する共同意見書 (2026.03.18)

こんにちは、丸山満彦です。

EDPBとEDPSが、オムニバス法のCSA2とNIS2について意見を採択して公表しています...

サイバーセキュリティ強化と負担軽減は支持する。でもそれは、基本権、特にプライバシーとデータ保護の犠牲の上に成り立ってはならない。必要性と比例性の原則を常に確保しないとダメよ。わかっていると思うけど...

というかんじですかね(^^)

EDPB, EDPSとしては、様々な窓口をENISAに一元化することにより、ENISAに個人データが多く集まることになる。そもそもENISAは時限立法的に設立された機関であり設立当初は多くの個人データが集まることを想定しなかったとしても、今後多くの個人データが集まると言うことになれば、わかっているやろな...的な話もあったりしますね...でも、連携も重要なので、EDPSとも連携しましょうね...

 

European Data Protection Supervisor: EDPS

・2026.03.19 EDPB and EDPS support strengthening EU’s cybersecurity and easing compliance while protecting individuals’ personal data

EDPB and EDPS support strengthening EU’s cybersecurity and easing compliance while protecting individuals’ personal data EDPBとEDPSは、個人の個人データを保護しつつ、EUのサイバーセキュリティ強化とコンプライアンスの負担軽減を支持する
The European Data Protection Board (EDPB) and the European Data Protection Supervisor (EDPS) have adopted a Joint Opinion on the European Commission’s proposal for a Cybersecurity Act 2 (CSA2) and the proposal on amendments to the Network and Information Security 2 (NIS2) Directive. 欧州データ保護会議(EDPB)と欧州データ保護監察機関(EDPS)は、欧州委員会による「サイバーセキュリティ法2(CSA2)」の提案および「ネットワーク・情報セキュリティ指令2(NIS2)」の改正案に関する共同意見書を採択した。
On 20 January 2026, the Commission published a cybersecurity package proposal to further strengthen cybersecurity in Europe while making compliance with cybersecurity laws easier for organisations. In their joint opinion, issued at the request of the Commission*, the EDPB and the EDPS address the proposed revision of the CSA and the targeted amendments to the NIS2 Directive. 2026年1月20日、欧州委員会は、欧州におけるサイバーセキュリティをさらに強化すると同時に、組織によるサイバーセキュリティ法へのコンプライアンスを容易にするためのサイバーセキュリティ・パッケージ案を公表した。欧州委員会の要請*に基づき発行された共同意見において、EDPBとEDPSは、CSAの改正案およびNIS2指令の特定条項の改正について言及している。
“The relationship between data protection and cybersecurity is reciprocal and deeply interconnected. While cybersecurity supports the protection of personal data by limiting the risks of unwanted access, modification or unavailability of data, it is crucial to ensure that security controls are implemented in a way that does not undermine individuals’ fundamental rights and freedoms.” 「データ保護とサイバーセキュリティの関係は相互的であり、深く相互に関連している。サイバーセキュリティは、データの不正アクセス、改ざん、または利用不能といったリスクを制限することで個人データの保護を支える一方で、セキュリティ対策が個人の基本的権利と自由を損なうことのない形で実施されることを確保することが極めて重要である。」
EDPB Chair Anu Talus EDPB議長 アヌ・タルス
“While maximizing the effectiveness of cybersecurity measures is vital, we must ensure that the processing of personal data remains limited to what is strictly necessary. We welcome the reinforced role of ENISA to promote digital resilience; our hope is that this new mandate fosters the synergies needed to create a robust ecosystem where security and privacy go hand in hand.” 「サイバーセキュリティ対策の効果を最大化することは極めて重要だが、パーソナルデータの処理は厳格に必要な範囲に限定されるよう確保しなければならない。デジタルレジリエンスを促進するためのENISAの役割強化を歓迎する。この新たな任務が、セキュリティとプライバシーが両立する強固なエコシステムを構築するために必要な相乗効果を生み出すことを期待している。」
European Data Protection Supervisor Wojciech Wiewiórowski 欧州データ保護監察機関(EDPS)ヴォイチェフ・ヴィエヴィオロフスキ
Regarding the Proposal for the CSA2, the EDPB and the EDPS support the general objective to strengthen the role of the European Union Agency for Cybersecurity (ENISA) and to facilitate uptake of cybersecurity certification, as well as the objective to further address the various risks to ICT supply chains, including non-technical ones. CSA2に関する提案について、EDPBおよびEDPSは、欧州サイバーセキュリティ機関(ENISA)の役割を強化し、サイバーセキュリティ認証の普及を促進するという一般的な目的、ならびに非技術的なリスクを含むICTサプライチェーンに対する様々なリスクにさらに取り組むという目的を支持する。
The proposal to provide further clarification on the way ENISA gives support to different stakeholders is well received. The EDPB and the EDPS specifically welcome that ENISA’s advice would be issued upon a prior request from the EDPB, thus ensuring a clear coordination and a clear division of responsibilities. They also suggest adding the EDPS as a possible requestor of advice from ENISA. ENISAが様々なステークホルダーに支援を提供する方法について、さらなる明確化を図るという提案は好意的に受け止められている。EDPBとEDPSは特に、EDPBからの事前の要請に基づいてENISAの助言が発行されることを歓迎しており、これにより明確な調整と責任分担が確保される。また、ENISAへの助言要請者としてのEDPSの追加も提案している。
In the joint opinion, the EDPB and the EDPS recall that in case the Management Board of ENISA decides to adopt additional measures necessary for the application of the EU Data Protection Regulation, such decisions should be limited to very technical (practical) details related to the processing of personal data. The Proposal should also provide for a prior consultation with the EDPS before adoption of such rules. 共同意見において、EDPBとEDPSは、ENISAの管理委員会がEUデータ保護規則の適用に必要な追加措置を採択することを決定する場合、そのような決定はパーソナルデータの処理に関連する極めて技術的(実務的)な詳細に限定されるべきであることを想起する。また、本提案は、そのような規則の採択に先立ち、EDPSとの事前協議を規定すべきである。
The joint opinion welcomes the synergies that might arise from the cooperation between ENISA and other EU institutions and bodies, and also recommends adding an explicit reference to the EDPS as an EU body with which ENISA would cooperate. 共同意見書は、ENISAと他のEU機構・団体との協力から生じうる相乗効果を歓迎するとともに、ENISAが協力すべきEU機構としてEDPSを明示的に言及することを推奨している。
While the objective of facilitating uptake of cybersecurity certification is welcome, the scope of the European Cybersecurity Certification Framework and its relationship with GDPR certification should be further clarified. To ensure consistency, ENISA should consult with the EDPB before adopting a certification scheme relating to the security of processing of personal data. Furthermore, certification schemes for products, services and processes that are likely to be used in data processing operations, should take into account security controls that can help to demonstrate the fulfilment of GDPR requirements, to the extent possible. サイバーセキュリティ認証の普及促進という目的は歓迎されるものの、欧州サイバーセキュリティ認証枠組みの範囲およびGDPR認証との関係については、さらに明確化されるべきである。一貫性を確保するため、ENISAは、パーソナルデータの処理のセキュリティに関する認証スキームを採択する前に、EDPBと協議すべきである。さらに、データ処理業務で使用される可能性のある製品、サービス、およびプロセスに関する認証スキームは、可能な限り、GDPR要件の遵守を実証するのに役立つセキュリティ管理措置を考慮に入れるべきである。
The EDPB and the EDPS recommend that the European Cybersecurity Skills Framework is not only limited to cybersecurity professionals, but also includes a general workforce profile. EDPBおよびEDPSは、欧州サイバーセキュリティスキル枠組みがサイバーセキュリティ専門家だけに限定されるのではなく、一般の労働力プロファイルも含むことを推奨する。
In line with the recent EDPB-EDPS joint opinion on the Digital Omnibus Regulation Proposal, the EDPB and EDPS express their support for the establishment of a single-entry point for the notification of personal data breaches, as it would reduce the administrative burden for notifying organisations without affecting the level of protection for individuals. デジタル・オムニバス規制案に関する最近のEDPB・EDPS共同意見に沿い、EDPBおよびEDPSは、個人データ漏えいの通知に関する単一窓口の設置を支持する。これは、個人の保護水準に影響を与えることなく、通知を行う組織の行政負担を軽減するからである。
Regarding the proposed amendments to the NIS2 Directive, the EDPB and the EDPS welcome the designation of European Digital Identity Wallets and European Business Wallets providers as 'essential entities'. NIS2指令の改正案に関して、EDPBとEDPSは、欧州デジタルIDウォレットおよび欧州ビジネスウォレットのプロバイダを「必須事業体」として指定することを歓迎する。
Note to editors: 編集後記:
* On 21 January 2026, the Commission formally consulted the EDPB and the EDPS and requested a joint opinion on the European Commission’s proposal for a CSA2 and the proposal on amendments to the NIS2 Directive in accordance with Art. 42(2) of Regulation (EU) 2018/1725. * 2026年1月21日、欧州委員会はEDPBおよびEDPSに対し正式に協議を行い、規則(EU)2018/1725第42条第2項に基づき、欧州委員会のCSA2提案およびNIS2指令改正案に関する共同意見を求めた。

 

・2026.03.18 EDPB-EDPS Joint Opinion on the Proposal for a Cybersecurity Act 2 and the Proposal on amendments to the NIS 2 Directive

・[PDF]

20260326-61134

・[DOCX[PDF]仮訳

 

目次...

1. BACKGROUND 1. 背景
2. GENERAL REMARKS 2. 総論
3. SUPPORT BY ENISA FOR IMPLEMENTATION OF UNION POLICY AND LAW AND COOPERATION WITH OTHER UNION ENTITIES 3. 連合の政策および法の実施に対するENISAによる支援、ならびに他の連合機関との協力
4. OPERATIONAL COOPERATION, SHARED CYBERSECURITY SITUATIONAL AWARENNESS AND PROTECTION OF PERSONAL DATA 4. 運用上の協力、サイバーセキュリティ状況認識の共有、および個人データの保護
5. SINGLE-ENTRY POINT FOR INCIDENT REPORTING (ARTICLE 15 CSA2) 5. インシデント報告の単一窓口(CSA2提案第15条)
6. EUROPEAN CYBERSECURITY SKILLS FRAMEWORK (‘ECSF’) (ARTICLE 19 CSA2) 6. 欧州サイバーセキュリティスキルフレームワーク(「ECSF」)(CSA2第19条)
7. EUROPEAN CYBERSECURITY CERTIFICATION FRAMEWORK (TITLE III) 7. 欧州サイバーセキュリティ認証枠組み(第III編)
8. TRUSTED ICT SUPPLY CHAIN FRAMEWORK (TITLE IV) 8. 信頼できるICTサプライチェーン・フレームワーク(第IV編)
9. ADDITIONAL ESSENTIAL ENTITIES UNDER THE NIS2 PROPOSAL 9. NIS2提案における追加の重要事業体
10. COLLECTION OF DATA ON RANSOMWARE ATTACKS 10. ランサムウェア攻撃に関するデータの収集

 

エグゼクティブサマリー...

Executive summary   エグゼクティブサマリー  
On 20 January 2026, the European Commission issued a Proposal for a Regulation on the European Union Agency for Cybersecurity (ENISA), the European cybersecurity certification framework, and ICT supply chain security and repealing Regulation (EU) 2019/881 (the Cybersecurity Act 2) and a Proposal for a Directive amending Directive (EU) 2022/2555 as regards simplification measures and alignment with the [Proposal for the Cybersecurity Act 2]. On 21 January 2026, the Commission formally consulted the EDPB and the EDPS in accordance with Article 42(2) of Regulation (EU) 2018/1725.  2026年1月20日、欧州委員会は、欧州サイバーセキュリティ機関(ENISA)に関する規則案、 欧州サイバーセキュリティ認証枠組み、およびICTサプライチェーンのセキュリティに関する規則(EU)2019/881(サイバーセキュリティ法2)の廃止、ならびに簡素化措置および[サイバーセキュリティ法2の提案]との整合化に関する指令(EU)2022/2555を改正する指令案を公表した。 2026年1月21日、欧州委員会は、規則(EU)2018/1725第42条第2項に基づき、EDPBおよびEDPSに対し正式に協議を行った。 
The EDPB and the EDPS recall that the relationship between data protection and cybersecurity is double-sided. On the one hand, cybersecurity serves the protection of personal data by limiting the risks of unwanted access, modification or unavailability of that data. On the other hand, some cybersecurity measures can interfere with individuals’ rights and freedoms, in particular the rights to privacy and data protection. Therefore, while effectiveness is an important focus for cybersecurity measures, necessity and proportionality need to be considered.  EDPBおよびEDPSは、データ保護とサイバーセキュリティの関係が双方向であることを想起する。一方では、サイバーセキュリティは、個人データへの不正アクセス、改ざん、または利用不能となるリスクを制限することにより、個人データの保護に寄与する。他方では、一部のサイバーセキュリティ対策は、個人の権利と自由、特にプライバシー権およびデータ保護権を侵害する可能性がある。したがって、サイバーセキュリティ対策においては有効性が重要な焦点である一方で、必要性と比例性の原則も考慮されなければならない。 
The EDPB and the EDPS support the Proposals’ general objective to strengthen ENISA’s role and to facilitate uptake of cybersecurity certification, both subject to the specific recommendations provided in this Joint Opinion. They also welcome the objective to establish mechanisms and conditions in Directive (EU) 2022/2555 to help facilitate compliance with cybersecurity requirements, and in that way make their implementation more coherent and effective, as well as the objective to further address the various risks to ICT supply chains, including the non-technical ones. The EDPB and the EDPS also strongly support the objective of the establishment of a single-entry point for the notification of personal data breaches, as it would reduce the administrative burden for organisations without affecting the level of protection for data subjects.   EDPBおよびEDPSは、ENISAの役割を強化し、サイバーセキュリティ認証の普及を促進するという提案の一般的な目的を支持する。ただし、これらは本共同意見書で提示された具体的な勧告に従うことを条件とする。 また、サイバーセキュリティ要件への準拠を促進し、それによってその実施をより一貫性のある効果的なものとするためのメカニズムと条件を指令(EU)2022/2555に設けるという目的、ならびに非技術的なものを含むICTサプライチェーンに対する様々なリスクにさらに取り組むという目的についても、両機関は歓迎する。 EDPBおよびEDPSはまた、個人データ侵害の通知に関する単一窓口の設置という目的を強く支持する。これは、データ主体の保護水準に影響を与えることなく、組織の行政負担を軽減するものだからである。  
The EDPB and the EDPS also welcome that the CSA2 Proposal would provide further clarification on the modalities of ENISA providing support to different stakeholders and recommend adding also the EDPS as a possible requestor of advice from ENISA. The EDPB and the EDPS strongly support that such advice would follow a request, ensuring a clear coordination and a clear division of responsibilities.  EDPBおよびEDPSは、CSA2提案が、ENISAによる様々なステークホルダーへの支援の実施方法についてさらなる明確化を図る点も歓迎し、ENISAへの助言要請者としてのEDPSの追加も推奨する。EDPBおよびEDPSは、そのような助言が要請に基づいて行われ、明確な調整と責任分担が確保されることを強く支持する。 
As concerns the cooperation between ENISA and other Union entities in general, the EDPB and the EDPS welcome the synergies this cooperation can enable, in line with their respective tasks and mandates. They recommend adding an explicit reference also to the EDPS as a Union body, with which ENISA would cooperate.  ENISAと他のEU機関との協力全般に関して、EDPBとEDPSは、それぞれの任務と権限に沿って、この協力がもたらす相乗効果を歓迎する。両者は、ENISAが協力するEU機関として、EDPSへの明示的な言及を追加することを推奨する。 
The EDPB and EDPS consider that if the future tasks of ENISA as information hub would require processing of personal data to a substantial degree, this should be spelled out explicitly in the provisions of the basic act governing the respective tasks, including the essential elements of any large-scale processing and the appropriate safeguards. Conversely, if the aim is to enable ENISA to mainly collect and further process mostly aggregated non-personal data, this should also be clarified.  EDPBおよびEDPSは、情報ハブとしてのENISAの将来の任務において、相当程度の個人データの処理が必要となる場合、大規模な処理の必須要素や適切な保護措置を含め、当該任務を規定する基本法の条項においてこれを明示すべきであると考えている。逆に、ENISAが主に集計された非個人データを収集・処理することを可能にするのが目的である場合、これも同様に明確化されるべきである。 
The EDPB and the EDPS recall that in principle only very technical (practical) details related to the processing of personal data should be left to be decided under the administrative autonomy of the concerned EU body (in this case the Management Board of a decentralised Agency). Additionally, the EDPB and the EDPS recommend providing for in Article 66 of the CSA2 Proposal a prior consultation with the EDPS before adoption of such rules.  EDPBおよびEDPSは、原則として、個人データの処理に関連する極めて技術的(実務的)な詳細のみを、当該EU機関(本件では分散型機関の管理委員会)の行政上の自律性の下で決定すべきであると指摘する。さらに、EDPBおよびEDPSは、CSA2提案の第66条において、そのような規則の採択に先立ちEDPSとの事前協議を行うことを規定するよう推奨する。 
With regard to the European Cybersecurity Skills framework (‘ECSF’), the EDPB and the EDPS recommend the co-legislators to amend Article 19(2) of the CSA2 Proposal so that the ECSF is not exclusively limited to 'cybersecurity professionals', but also includes profiles for the general workforce.  欧州サイバーセキュリティ技能フレームワーク(ECSF)に関しては、EDPBおよびEDPSは、ECSFが「サイバーセキュリティ専門家」に限定されず、一般労働者のプロファイルも包含するよう、共同立法者にCSA2提案の第19条(2)を改正することを推奨する。 
As concerns the European Cybersecurity Certification Framework, the EDPB and the EDPS recommend further clarifying the scope of Article 80(1)(w) CSA2 and the relationship to GDPR certification. In addition, the EDPB and the EDPS recommend requiring ENISA to consult with the EDPB prior to adopting a certification scheme under Article 80(1)(w) CSA2 to ensure consistency.  欧州サイバーセキュリティ認証フレームワークに関しては、EDPBおよびEDPSは、CSA2第80条(1)(w)の適用範囲およびGDPR認証との関係をさらに明確化することを推奨する。さらに、EDPBおよびEDPSは、一貫性を確保するため、ENISAに対し、CSA2第80条(1)(w)に基づく認証スキームを採択する前にEDPBと協議することを義務付けることを推奨する。 
The EDPB and the EDPS highlight the need to consider not only the effectiveness of cybersecurity measures, but also their necessity and proportionality. The EDPB and the EDPS recommend clarifying that certification schemes should, to the extent possible, take into account security controls that can help to demonstrate the fulfilment of GDPR requirements, in particular where the schemes apply to ICT products, ICT services, ICT processes and managed security services that are likely to be used in data processing operations.   EDPBとEDPSは、サイバーセキュリティ対策の有効性だけでなく、その必要性と比例性の考慮も必要であると強調している。EDPBとEDPSは、認証スキームが、可能な限り、GDPR要件の遵守を実証するのに役立つセキュリティ管理措置を考慮に入れるべきであることを明確にするよう推奨している。特に、当該スキームが、データ処理業務で使用される可能性の高いICT製品、ICTサービス、ICTプロセス、およびマネージドセキュリティサービスに適用される場合においてである。  
The EDPB and the EDPS further welcome the proposed measure aimed at ensuring a trusted ICT supply chain framework and addressing non-technical risks in sectors of high criticality.  EDPBおよびEDPSはさらに、信頼できるICTサプライチェーンの枠組みを確保し、重要度の高いセクターにおける非技術的リスクに対処することを目的とした提案措置を歓迎する。 
With regard to the Proposal amending the NIS2 Directive, the EDPB and the EDPS welcome the designation of European Digital Identity Wallets and European Business Wallets providers as 'essential entities', and fully support the important objective of preventing future ransomware attacks and disrupting and dismantling the criminal organisations behind them.  NIS2指令を改正する提案に関しては、EDPBおよびEDPSは、欧州デジタルIDウォレットおよび欧州ビジネスウォレットのプロバイダーを「重要事業体」として指定することを歓迎し、将来のランサムウェア攻撃を防止し、その背後にいる犯罪組織を混乱させ解体するという重要な目標を全面的に支持する。 

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.21 欧州議会および理事会規則案:人工知能に関する調和化された規則の実施の簡素化に関して、規則(EU)2024/1689および(EU)2018/1139を改正するもの(AIに関するデジタル・オムニバス)―欧州議会との交渉に関する委任 (2026.03.19)

・2026.02.25 欧州 ENISA サイバーレジリエンス法のシングル報告ポイント

・2026.02.15 欧州 EDPB 2026-2027年度作業計画:進化するデジタル環境におけるコンプライアンスの円滑化と協力強化 (2026.02.12)

・2026.02.14 欧州 EDPB EDPS デジタルオムニバス規制案に関する共同意見書 (2026.02.11)

・2026.01.28 欧州 サイバーセキュリティ法(CSA)の改正法案 (2025.01.20)

・2026.01.27 欧州 EDPB EDPS 欧州委員会の「AIに関するデジタルオムニバス」提案に関する共同意見書

・2026.01.07 欧州 サイバーセキュリティ法の改正に向けた動き... (2025.12.09)

・2025.12.22 ドイツ DSK GDPRの改革案(AIの利用に関する明確な法規制、IT企業に責任を持たせる)を提案 (2025.12.12)

・2025.11.28 オランダ データ保護庁はプライバシーと安全保障、経済効率性(技術革新)の間でいろいろと考えていますね

・2025.11.22 欧州委員会 EU企業の成長を支援する簡素化されたデジタル規則 (オムニバス法)

・2025.05.24 欧州 単一市場戦略 「今日の不確実な世界において、欧州人の最初のパートナーは欧州人自身でなければならない」(2025.05.21)

 

 

 

 

 

 

 

| | Comments (0)

2026.03.25

内閣府 パブコメ 「重要電子計算機に対する不正な行為による被害の防止に関する法律に基づく特別社会基盤事業者による特定侵害事象等の報告等に関する命令案」に関する意見の募集 (2026.03.20)

こんにちは、丸山満彦です。

「重要電子計算機に対する不正な行為による被害の防止に関する法律に基づく特別社会基盤事業者による特定侵害事象等の報告等に関する命令案」に関する意見の募集が行われていますね...

基幹インフラ事業者の資産の届出等の対象となる重要電子計算機についての定義(第一条)をした上で、資産の届出(第二条)とその変更の届出(第三条)、資産への攻撃と「兆候」の報告(第四条)を定めるものですかね...

報告は様式なので、紙前提ですね...


届出書の用紙は、日本産業規格A列4番とし、該当欄に全部を記載することができない場合は、その欄に別紙に記載する旨を記載し、この様式に定める規格の用紙に適宜記載すること。


冗談抜きでちゃんと考えないといけないと思いますよ...

初めから届出を受けたデータの利用を考えていないような気がしますよね(印刷物をトントントンと揃えて、二穴パンチで穴を開けて、キングファイルに綴じて、並べて保管イメージ)...届出を受けたデータの迅速かつ効果的な活用をするためには、機械可読性を重要視しなければならないですよね...

もし、政府として紙での保存が必要ということであれば、届け出された機械可読データを政府側で必要な様式に合わせて印刷して、トントントンと揃えて、二穴パンチで穴を開けて、キングファイルに綴じて、並べて保管すればよい...

 

e-Gov

・2025.03.20 「重要電子計算機に対する不正な行為による被害の防止に関する法律に基づく特別社会基盤事業者による特定侵害事象等の報告等に関する命令案」に関する意見の募集について

 

・[PDF] (参考)命令案(概要)

20260324-200713

・[PDF] 命令案 

縦書きだとPCでは読みにくいかもしれないので、横書きに...(本来日本語は縦書きなんだけどね...)


○内閣府、総務省、法務省、財務省、厚生労働省、農林水産省、経済産業省、国土交通省 令第 号

重要電子計算機に対する不正な行為による被害の防止に関する法律(令和七年法律第四十二号)第四条第一項及び第三項並びに第五条並びに重要電子計算機に対する不正な行為による被害の防止に関する法律施行令(令和八年政令第号)第一条第三項第二号及び第三号の規定に基づき、重要電子計算機に対する不正な行為による被害の防止に関する法律に基づく特別社会基盤事業者による特定侵害事象等の報告等に関する命令を次のように定める。

令和八年 月 日

内閣総理大臣 高市早苗
総務大臣 林 芳正
法務大臣 平口 洋
財務大臣 片山さつき
厚生労働大臣 上野賢一郎
農林水産大臣 鈴木憲和
経済産業大臣 赤澤亮正
国土交通大臣 金子恭之

 

重要電子計算機に対する不正な行為による被害の防止に関する法律に基づく特別社会基盤事業者による特定侵害事象等の報告等に関する命令

(重要電子計算機)

第一条 重要電子計算機に対する不正な行為による被害の防止に関する法律施行令(以下この条において「令」という。)第一条第三項第二号の主務省令で定める電子計算機は、特定重要設備(経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律(令和四年法律第四十三号。以下「経済安全保障推進法」という。)第五十条第一項に規定する特定重要設備をいう。以下同じ。)と電気通信回線(公衆の用に供されているものを除く。)で直接又は間接に接続されている電子計算機(令第一条第三項第一号に掲げるものを除く。)であって、次のいずれかに該当するものとする。

一 特定重要設備に電磁的記録(重要電子計算機に対する不正な行為による被害の防止に関する法律(以下「法」という。)第二条第八項第二号に規定する電磁的記録をいう。以下同じ。)を送信する機能を有する電子計算機であって、当該電磁的記録を送信するに当たり、経路制御(電気通信信号を送信するに当たり、宛先に至る経路のうちから、経路の状況等に応じて最も適切と判断したものに電気通信信号を送信すること(送信することのできる二以上の経路のうちから、宛先ごとに一に定められた経路に電気通信信号を送信することを除く。)をいう。次号において同じ。)がされないもの

二 ルーティング機器(電気通信信号を送受信する機器であって、経路制御を行う機能を有するものをいう。以下この号において同じ。)のうち、他のルーティング機器を介さずに一号電子計算機(令第一条第三項第三号に規定する一号電子計算機をいう。以下同じ。)に電気通信信号を送信するもの

三 ファイアウォール等(電気通信信号を送受信する機器であって、受信した電気通信信号のうち当該電気通信信号に使用されるプログラム(法第二条第二項に規定するプログラムをいう。以下この号並びに次条第一項第一号及び第四項において同じ。)又は当該プログラムを識別するために割り当てられる番号、記号その他の符号が一定の基準に適合するもののみを当該機器に接続されている他の電子計算機に送信する機能を有するものをいう。以下この号及び次号において同じ。)であって、他のファイアウォール等を介さずに一号電子計算機に電気通信信号を送信するもの

四 特定重要設備に送信される電磁的記録を一時的に保存する機能を有する電子計算機であって、ファイアウォール等を介してのみ当該電磁的記録を送受信することができるもの及び当該ファイアウォール等

五 次に掲げるもののいずれかを保存する電子計算機(一時的に保存するものを除く。)

イ 一号電子計算機及びこの条に規定する電子計算機(このイに掲げるものを保存するものを除く。)の総体に係るネットワーク構成図(これらの電子計算機のアイ・ピー・アドレス(電気通信事業法(昭和五十九年法律第八十六号)第百六十四条第二項第三号に規定するアイ・ピー・アドレスをいう。第七号及び次項第二号において同じ。)又は通信の当事者が電気通信信号の送信先となる電気通信設備(同法第二条第二号に規定する電気通信設備をいう。第七号及び同項第二号において同じ。)を識別するために使用する番号、記号その他の符号が記載されているものに限る。)

ロ 一号電子計算機又はこの項に規定する電子計算機(このロに掲げるものを保存するもの及び次号に規定するものを除く。)のうちの一の電子計算機の利用に係る全ての識別符号(不正アクセス行為の禁止等に関する法律(平成十一年法律第百二十八号。以下「不正アクセス禁止法」という。)第二条第二項に規定する識別符号をいう。第四条第一項第一号ロ、ハ及びホにおいて同じ。)

六 一号電子計算機又はこの項に規定する電子計算機(前号ロに掲げるものを保存するもの及びこの号に規定するものを除く。)に係るアクセス制御機能(不正アクセス禁止法第二条第三項に規定するアクセス制御機能をいう。以下同じ。)を有する電子計算機

七 アイ・ピー・アドレスを割り当てられた電気通信設備である電子計算機

2 令第一条第三項第三号の主務省令で定める電子計算機は、一号電子計算機による情報処理の用に供される電磁的記録を作成するために用いられる電子計算機(一号電子計算機及び前項各号に規定するものを除く。)であって、当該電磁的記録が一定の期間ごとに当該一号電子計算機に入力されるもの(第一号において「作成用電子計算機」という。)のうち、次のいずれかに該当するものとする。

一 作成用電子計算機に係るアクセス制御機能を有する電子計算機

二 アイ・ピー・アドレスを割り当てられた電気通信設備である電子計算機

(特定重要電子計算機の届出)

第二条 法第四条第一項の規定による届出は、次に掲げる特定重要電子計算機について、当該特定重要電子計算機を導入した日から四月以内に、様式第一による届出書を特別社会基盤事業所管大臣に提出して行うものとする。ただし、当該特定重要電子計算機が一の特別社会基盤事業者若しくは複数の特別社会基盤事業者のうち、親法人等(経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律施行令(令和四年政令第三百九十四号)第十条第三項に規定する親法人等をいう。以下この項において同じ。)が同一であるもの若しくは一方の者が他方の者の親法人等であるものの事業の用に供されるものである場合又は広く一般に使用されているものとして特別社会基盤事業所管大臣及び内閣総理大臣が指定するものである場合は、この限りでない。

一 アプライアンス(特定の用途に供されるプログラムが組み込まれた特定重要電子計算機であって、当該プログラム以外のプログラムが通常組み込まれないものをいう。次号において同じ。)に係るハードウェア

二 アプライアンス以外の特定重要電子計算機に組み込まれたオペレーティングシステム、ミドルウェア及びアプリケーション

2 特別社会基盤事業者が経済安全保障推進法第五十条第一項の規定による指定を受けた日から二月以内に導入した特定重要電子計算機(当該指定に係る特定社会基盤事業(同項に規定する特定社会基盤事業をいう。第四条第二項第一号において同じ。)の用に供される特定重要設備に係るものに限る。)に対する前項の規定の適用については、同項中「当該特定重要電子計算機を導入した日から四月以内」とあるのは、「経済安全保障推進法第五十条第一項の規定による指定を受けた日から六月以内」とする。

3 経済安全保障推進法第五十条第一項の特定重要設備を定める主務省令の改正により新たに特定重要電子計算機となった電子計算機であって、当該特定重要電子計算機となった日から二月以内に導入したものに対する第一項の規定の適用については、同項中「当該特定重要電子計算機を導入した日から四月以内」とあるのは、「経済安全保障推進法第五十条第一項の特定重要設備を定める主務省令の改正により新たに特定重要電子計算機となった日から六月以内」とする。

4 特定重要設備又は構成設備(特定重要設備の一部を構成する設備、機器、装置又はプログラムであって、経済安全保障推進法第五十二条第二項第二号ハに規定する特定妨害行為の手段として使用されるおそれがあるものをいう。以下この項及び次条第三項において同じ。)である特定重要電子計算機に係る第一項の届出書については、経済安全保障推進法第五十二条第一項又は第十一項の規定による当該特定重要設備の導入の届出を行っている場合(当該特定重要設備又は当該構成設備の名称が当該特定重要電子計算機の製品名と同一であり、かつ、当該特定重要設備又は当該構成設備の供給者の名称が当該特定重要電子計算機の製造者名と同一である場合に限る。)には、当該届出に係る同条第一項に規定する導入等計画書(経済安全保障推進法の規定による変更をしたときは、その変更後のもの)又は同条第十一項に規定する緊急導入等届出書(経済安全保障推進法の規定による変更をしたときは、その変更後のもの)及び特別社会基盤事業者の連絡先を記載した書面の提出をもって、当該特定重要電子計算機に係る第一項の規定による届出書の提出に代えることができる。

5 法第四条第一項の主務省令で定める事項は、次に掲げる事項とする。

一 特別社会基盤事業者の概要

二 特定重要電子計算機に係る特定重要設備の区分

三 特定重要電子計算機の区分

四 特定重要電子計算機の製品名(クラウド・コンピューティング・サービス(情報通信技術を活用した行政の推進等に関する法律(平成十四年法律第百五十一号)第二十三条第一項に規定するクラウド・コンピューティング・サービスをいう。以下この号及び次号において同じ。)の使用に係る特定重要電子計算機にあっては、当該クラウド・コンピューティング・サービスの名称)

五 特定重要電子計算機の製造者名(クラウド・コンピューティング・サービスの使用に係る特定重要電子計算機にあっては、当該クラウド・コンピューティング・サービスを提供する事業者名)

(変更の届出)

第三条 法第四条第三項の規定による変更の届出は、当該変更の日から四月以内に、様式第二による届出書を特別社会基盤事業所管大臣に提出して行うものとする。

2 前条第三項及び第四項の規定は、前項の変更の届出について準用する。この場合において、同条第三項中「当該特定重要電子計算機を導入した日」とあるのは、「当該変更の日」と読み替えるものとする。

3 構成設備である特定重要電子計算機の製品名に係る第一項の届出書については、経済安全保障推進法第五十四条第四項(同条第五項において準用する場合を含む。)の規定による当該構成設備に関する事項の変更の内容の報告を行っている場合(当該構成設備の名称が当該特定重要電子計算機の製品名と同一である場合に限る。)には、当該報告をもって、当該届出書の提出に代えることができる。

4 法第四条第三項ただし書の主務省令で定める軽微な変更は、前条第五項第一号に掲げる事項のうち、特別社会基盤事業者の名称の変更とする。

(特定侵害事象等の報告)

第四条 法第五条の主務省令で定める事象は、次の各号に掲げる特定重要電子計算機の区分に応じ、当該各号に定める事象とする。

一 一号電子計算機並びに第一条第一項第一号及び第二号に規定する特定重要電子計算機次に掲げる事象

イ 正当な理由がないのに、特定重要電子計算機に対し、特別社会基盤事業者が当該特定重要電子計算機を使用するに際してその意図に沿うべき動作をさせず、又はその意図に反する動作をさせるべき不正な指令を与える電磁的記録を受信させる行為が行われる事象

ロ アクセス制御機能を有する特定重要電子計算機に対し、電気通信回線を通じて当該アクセス制御機能に係る他人の識別符号が入力される事象(当該アクセス制御機能を付加したアクセス管理者(不正アクセス禁止法第二条第一項に規定するアクセス管理者をいう。以下このロ及びハにおいて同じ。)によりされるもの、当該アクセス管理者又は当該識別符号に係る同条第二項に規定する利用権者の承諾を得てされるもの及び国立研究開発法人情報通信研究機構法(平成十一年法律第百六十二号)第十八条第六項第一号に規定する認可特定アクセス行為等実施計画に基づき同条第一項第一号に掲げる業務に従事する者がする同条第七項第一号に規定する特定アクセス行為を除く。)

ハ アクセス制御機能を有する特定重要電子計算機に対し、電気通信回線を通じて当該アクセス制御機能による特定利用(不正アクセス禁止法第二条第一項に規定する特定利用をいう。ニにおいて同じ。)の制限を免れることができる情報(識別符号であるものを除く。)又は指令が入力される事象(当該アクセス制御機能を付加したアクセス管理者によりされるもの及び当該アクセス管理者の承諾を得てされるものを除く。ニにおいて同じ。)

ニ 電気通信回線で直接又は間接に接続されている他の特定重要電子計算機が有するアクセス制御機能によりその特定利用を制限されている電子計算機に対し、電気通信回線を通じてその制限を免れることができる情報又は指令が入力される事象

ホ 不正アクセス禁止法第二条第四項第一号に該当する行為の用に供する目的で、特定重要電子計算機のアクセス制御機能に係る他人の識別符号が取得される事象(当該特定重要電子計算機のサイバーセキュリティ(サイバーセキュリティ基本法(平成二十六年法律第百四号)第二条に規定するサイバーセキュリティをいう。次項第三号において同じ。)を害することによって行われるものに限る。)ヘ特定侵害事象又はイからホまでに掲げる事象の痕跡が記録される事象

二 前号に掲げる特定重要電子計算機以外の特定重要電子計算機特定侵害事象の痕跡が記録される事象

2 法第五条の規定による報告は、特定侵害事象又は前項の事象(次に掲げる事象を除く。以下この条において「特定侵害事象等」という。)の発生を認知した後、速やかに、特別社会基盤事業所管大臣及び内閣総理大臣に次項各号(同項第三号から第七号までに掲げる事項については、報告をしようとする時点において認知しているものに限る。)に掲げる事項を記載した報告書(特別社会基盤事業所管大臣及び内閣総理大臣が定める様式による報告書をいう。以下この項において同じ。)を提出するとともに、当該特定侵害事象等の発生を認知した日から三十日以内に、特別社会基盤事業所管大臣及び内閣総理大臣に次項各号に掲げる事項を記載した報告書を提出して行うものとする。

一 特別社会基盤事業者が経済安全保障推進法第五十条第一項の規定による指定を受けた日から六月以内に発生した事象(当該指定に係る特定社会基盤事業の用に供される特定重要設備に係る特定重要電子計算機において発生した事象に限る。)

二 経済安全保障推進法第五十条第一項の特定重要設備を定める主務省令の改正により新たに特定重要電子計算機となった日から六月以内に発生した事象(当該特定重要電子計算機において発生した事象に限る。)

三 特定重要電子計算機(一号電子計算機並びに第一条第一項第一号及び第二号に規定するものを除く。)に対する法第二条第四項第三号に該当する行為(刑法(明治四十年法律第四十五号)第二百三十四条の二第二項の罪に当たる行為に係るものに限る。)により、当該特定重要電子計算機のサイバーセキュリティが害される事象(他の特定不正行為(法第二条第四項に規定する特定不正行為をいう。)に係る事象又は当該事象の痕跡が記録される事象に該当するものを除く。)

3 法第五条の主務省令で定める事項は、次に掲げるもの(特定侵害事象等の発生を認知した後速やかに報告する場合における第三号から第七号までに掲げる事項については、報告をしようとする時点において認知しているものに限る。)とする。

一 報告の区分

二 特別社会基盤事業者の概要

三 特定侵害事象等の概要

四 特定侵害事象等が発生した特定重要電子計算機五特定侵害事象等に関する技術的な事項六特定侵害事象等への対応に関する事項七その他特記事項

附則

(施行期日)

1 この命令は、法の施行の日(令和八年十月一日)から施行する。

(経過措置)

2 この命令の施行の際現に導入されている特定重要設備に係る特定重要電子計算機(この命令の施行の際現に導入されている特定重要電子計算機を除く。)であって、当該施行の日から二月以内に導入したものに対する第二条第一項の規定の適用については、同項中「当該特定重要電子計算機を導入した日から四月以内」とあるのは、「この命令の施行の日から六月以内」とする。

【様式第一及び様式第二を挿入】

20260324-192934

記載要領

1. 「2.特定重要電子計算機に係る特定重要設備の区分並びに特定重要電子計算機の区分、製品名及び製造者名」の欄は、記載する特定重要電子計算機の数に応じて、行を適宜追加すること。

2. 「2.特定重要電子計算機に係る特定重要設備の区分並びに特定重要電子計算機の区分、製品名及び製造者名」の「特定重要設備の区分」の欄には、次に掲げる規定に規定する特定重要設備のうち、該当するもの(複数の特定重要設備に該当する場合は、当該複数の特定重要設備)を記載すること。

イ 経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する内閣府令(令和5年内閣府令第61号)第1条各号

ロ 内閣府・法務省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する命令(令和5年内閣府・法務省令第2号)第1条

ハ 内閣府・法務省・財務省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する命令(令和5年内閣府・法務省・財務省令第1号)第1条

ニ 内閣府・財務省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する命令(令和5年内閣府・財務省令第6号)第1条

ホ 内閣府・財務省・農林水産省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する命令(令和5年内閣府・財務省・農林水産省令第2号)第1条

ヘ 内閣府・厚生労働省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する命令(令和5年内閣府・厚生労働省令第6号)第1条

ト 内閣府・農林水産省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者の指定等に関する命令(令和5年内閣府・農林水産省令第4号)第1条

チ 総務省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者等に関する省令(令和5年総務省令第64号)第1条各号

リ 経済産業省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者等に関する省令(令和5年経済産業省令第41号)第1条各号ヌ 国土交通省関係経済施策を一体的に講ずることによる安全保障の確保の推進に関する法律に基づく特定社会基盤事業者等に関する省令(令和5年国土交通省令第62号)第1条各号

3. 「2.特定重要電子計算機に係る特定重要設備の区分並びに特定重要電子計算機の区分、製品名及び製造者名」の「特定重要電子計算機の区分」の欄には、一号電子計算機又は第1条第1項各号及び第2項各号に規定する重要電子計算機のうち、該当するもの(複数の重要電子計算機に該当する場合は、当該複数の重要電子計算機)を記載すること。

4. クラウド・コンピューティング・サービスの使用に係る特定重要電子計算機にあっては、「2.特定重要電子計算機に係る特定重要設備の区分並びに特定重要電子計算機の区分、製品名及び製造者名」の「特定重要電子計算機の製品名」の欄には、当該クラウド・コンピューティング・サービスの名称を記載するとともに、「特定重要電子計算機の製造者名」の欄には、当該クラウド・コンピューティング・サービスを提供する事業者名を記載すること。

5. 各特定重要電子計算機と他の特定重要電子計算機又は特定重要設備との関係を示す資料を添付すること。

6. 届出書の用紙は、日本産業規格A列4番とし、該当欄に全部を記載することができない場合は、その欄に別紙に記載する旨を記載し、この様式に定める規格の用紙に適宜記載すること。

 

20260324-192954


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.01.16 内閣府 パブコメ 重要電子計算機に対する不正な行為による被害の防止に関する法律施行令案 (2026.01.09)

・2025.12.24 閣議決定 NCO 重要電子計算機に対する特定不正行為による被害の防止のための基本的な方針 (2025.12.23)

・2025.12.24 閣議決定 サイバーセキュリティ戦略

・2025.11.05 国家サイバー統括室 重要電子計算機に対する特定不正行為による被害の防止のための基本的な方針(案)...第3回サイバー対処能力強化法の施行等に関する有識者会議 (2025.10.30)

・2025.06.08 内閣官房 NISC サイバーセキュリティ戦略本部第43回会合 - インシデント報告様式の統一 (2025.05.29)

・2025.05.17 「重要電子計算機に対する不正な行為による被害の防止に関する法律」とその法律の施行に伴う関係法律の整備等に関する法律が成立しましたね...そして、クリアランス制度がはじまりましたね...(2025.05.16)

・2025.02.08 内閣官房 サイバー対処能力強化法案及び同整備法案 (2025.02.07)

・2025.01.29 自民党 能動的サイバー防御の導入へ 関係会議が法案概要を了承 (2025.01.24)

 

| | Comments (0)

Claude Code Hardening Cheatsheet これは興味深い...

こんにちは、丸山満彦です。

長い付き合いになります岡田 良太郎さん(株式会社アスタリスク・リサーチ代表、株式会社神戸デジタル・ラボ顧問)が「Claude Code Hardening Cheatsheet 」を公表してくれていて、これが非常に興味深いので紹介です.....でも、アフェリエイトではございません(^^)

生成AIのリスクというのは、概念的にはわかるのだけれども、具体的にどう言うことをすれば良いの?というのをClaude Codeを具体的に取り上げて、説明しているので非常にわかりやすいです。非常に実務的...

環境や、要求は利用者によってそれぞれと思うのですが、出発点として、これをベースにいろいろと考えられると言うことで非常に有益な文書だと思います...わかりやすくまとめているのは少ないかもですね...

ぜひ目を通してくださいませ...

まずは、

オカダリョウタロウさんの

● NOTE

・2026.03.23 ひとつやるだけでも大違い - Claude Code 設定チートシート、書いたよー

を読むと課題が何か?ということがわかると思います...

で、次に...

20260324-174142

・2026.03.23 Claude Code Hardening Cheatsheet [Ja][En]

 

そして、この文書が参考にしている次の文書もぜひ...

OWASP Cheat Sheet Series

AI Agent Security Cheat Sheet

LLM Prompt Injection Prevention Cheat Sheet

OWASP Top 10 for LLM Applications 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.28 Codex CLI Hardening Cheatsheet これは興味深い...

・2026.03.25 Claude Code Hardening Cheatsheet これは興味深い...

 

 

| | Comments (0)

2026.03.24

米国 ODNI 2026 米国インテリジェンス・コミュニティの年次脅威アセスメント (2026.03.18)

こんにちは、丸山満彦です。

米国の安全保障長官室が、米国インテリジェンス・コミュニティの年間脅威評価を公表していますね。。。

2026年度のNIPの予算要求額は、$81.9 billion (約13兆円) と発表されていましたが、2026年度の日本の防衛予算要求額は過去最大の8兆8,454億円(防衛省)ですから、いかに大きいか、、、ということがわかりますね...

ここ数年のポイントとしては、

・敵対国(ロシア・中国・イラン・北朝鮮)の補完的な連携による脅威の増大

・サイバー領域が、補助的な領域から常時戦闘空間(平時・有事の融合)に。そして宇宙領域にも。

・経済・サプライチェーンが、安全保障の重要な一角に

・AI等の新技術の補助的ツールから意思決定と事項を担う主体への変化

 

気になるのは、インテリジェンスの政治化...インテリジェンスは政治的には中立でなければならないわけですが、トランプ政権の正当性の擁護に使われていないか?なんかそんな傾向が見えてこないわけでもなさそうな感じがするのが気になります。(明らかにそうとは言える状況ではないのですが...違法薬物の話が最初にきているが、従来はこう言う取り扱いではなかった...)

 

Office of the Director of National Intelligence: ODNI

・2026.03.18 2026 Annual Threat Assessment of the U.S. Intelligence Community

 

DNI Gabbard Releases 2026 Annual Threat Assessment of the U.S. Intelligence Community ガバード国家情報長官、米国インテリジェンス・コミュニティの2026年年次アセスメントを発表
WASHINGTON, D.C. — Today, the Office of the Director of National Intelligence released the 2026 Annual Threat Assessment of the U.S. Intelligence Community (IC). This report reflects the insights of the entire IC, which is committed to providing timely, actionable intelligence to the President, his Cabinet, policymakers, and our service members, to ensure the safety, security, and freedom of the American people. ワシントンD.C. — 本日、国家情報長官室は、米国インテリジェンス・コミュニティ(IC)の2026年年次脅威アセスメントを公表した。本報告書は、米国国民の安全、保安、自由を確保するため、大統領、閣僚、政策立案者、および軍関係者に、適時かつ実用的な情報を提供することに尽力するIC全体の知見を反映している。
The 2026 Annual Threat Assessment can be found HERE. 2026年脅威年次アセスメントは、こちらから閲覧できる。
Director of National Intelligence Tulsi Gabbard delivered opening remarks today before the Senate Select Committee on Intelligence. Her full remarks as prepared can be found below: 国家情報長官のタルシ・ガバードは本日、上院情報特別委員会において冒頭発言を行った。準備された発言の全文は以下の通りである:
"I am here today to present the 2026 Annual Threat Assessment, joined by the Directors of the CIA, DIA, FBI and NSA. 「本日、私はCIA、DIA、FBI、NSAの各長官と共に、2026年脅威年次アセスメントを提示するためにここにいる。
"This briefing is being provided in accordance with ODNI’s statutory responsibility and represents the Intelligence Community’s assessment of the threats facing U.S. citizens, our Homeland, and our interests. 「本ブリーフィングは、国家情報長官室(ODNI)の法定義務に基づき行われるものであり、米国市民、我が国の国土、および我々の国益が直面する脅威に対するインテリジェンス・コミュニティのアセスメントを示すものである。
"As President Trump’s National Security Strategy highlights, America is blessed with an enviable geostrategic position, unparalleled assets, resources and a military second to none. Intelligence remains among our sharpest tools in protecting our interests and informing our policymakers and decisionmakers on key national security concerns. In this assessment, we are following the structure of priorities laid out in the National Security Strategy, starting with threats to our Homeland, then shifting to global risks. The defense of our Homeland is of utmost importance to the American people. Putting America first means committing to an unrelenting vigilance in service of our own citizens, borders, and communities. Recent efforts to bolster Homeland defense have yielded significantly positive results, but challenges persist. 「トランプ大統領の国家安全保障戦略が強調するように、米国は羨望すべき地政学的優位性、比類なき資産と資源、そして世界随一の軍事力を有している。情報活動は、我々の国益を守り、政策立案者や意思決定者に重要な国家安全保障上の懸念事項を伝える上で、依然として最も鋭い手段の一つである。本アセスメントでは、国家安全保障戦略に示された優先順位の枠組みに従い、まず国内への脅威から始め、その後、世界的なリスクへと移行する。国内防衛は、米国国民にとって最も重要な課題である。「アメリカ第一」とは、自国民、国境、そして地域社会のために、たゆまぬ警戒を貫くことを意味する。国内防衛を強化するための最近の取り組みは、著しい成果を上げているが、課題は依然として残っている。
"For example, President Trump’s strict enforcement of U.S. policies at the U.S. Mexico border and regionally has served as a deterrent and drastically reduced illegal immigration. Based on Customs and Border Patrol data, January 2026’s monthly encounters are down 83.8% compared to January 2025. Encounters declined 79% compared to 2024. 「例えば、トランプ大統領による米国・メキシコ国境および周辺地域での米国政策の厳格な執行は抑止力として機能し、不法移民を劇的に減少させた。税関・国境警備局のデータによると、2026年1月の月間検挙件数は2025年1月と比較して83.8%減少した。2024年と比較しても検挙件数は79%減少している。
"The drivers of migration are likely to continue. Potential worsening instability in countries like Cuba and Haiti risk triggering migration surges. Smugglers who often operate as transnational criminal organizations view chaos as an opportunity for profit and will look to continue to profit from illegal immigration flows. 「移民の要因は今後も続く可能性が高い。キューバやハイチなどの国々で不安定化がさらに悪化するリスクがあり、移民の急増を引き起こすリスクがある。しばしば国際犯罪組織として活動する密入国業者らは、混乱を利益を得る機会と見なし、不法移民の流れから引き続き利益を得ようとするだろう。
"Transnational criminal organizations continue to pose a daily and direct threat to the health and safety of millions of U.S. citizens primarily by producing and trafficking in illegal drugs. 「国際犯罪組織は、主に違法薬物の製造・密売を通じて、数百万人の米国市民の健康と安全に対し、日々直接的な脅威を与え続けている。
"Under President Trump’s leadership, fentanyl overdose deaths have seen a 30 percent decrease from September 2024 to September 2025. 「トランプ大統領の指導の下、フェンタニルによる過剰摂取死は2024年9月から2025年9月にかけて30%減少した。
"Fentanyl potency has also decreased, likely due to disruptions to the production supply chain. U.S. efforts to work with China and India to halt the flow of fentanyl precursor chemicals to North America are demonstrating improvement, but there is more work to be done as there are still tens of thousands of fentanyl-related deaths in America every year. 「フェンタニルの効力も低下している。これはおそらく、製造サプライチェーンへの打撃によるものだ。北米へのフェンタニル前駆物質の流入を阻止するため、米国が中国やインドと協力する取り組みは改善の兆しを見せているが、米国では依然として毎年数万人のフェンタニル関連死が発生しており、さらなる取り組みが必要だ。
"President Trump’s aggressive efforts to more directly and actively target TCOs and reduce the inflow of fentanyl precursors has already had a significant impact which is likely to continue. 「TCO(国際組織犯罪集団)をより直接的かつ積極的に標的とし、フェンタニル前駆物質の流入を削減しようとするトランプ大統領の積極的な取り組みは、すでに大きな効果を上げており、この傾向は今後も続くと見られる。
"Mexico-based TCOs like the Sinaloa Cartel and Jalisco New Generation Cartel dominate the production and smuggling of fentanyl, heroin, methamphetamine and cocaine into the United States. 「シナロア・カルテルやハリスコ新世代カルテルといったメキシコを拠点とするTCOが、フェンタニル、ヘロイン、メタンフェタミン、コカインの生産および米国への密輸を支配している。
"Colombia-based TCOs and illegal armed groups like the Revolutionary Armed Forces of Columbia (FARC) and the National Liberation Army (ELN), are responsible for producing and trafficking large volumes of cocaine to the U.S. and European markets, with some indicators of attempts to expand to the Asia-Pacific region. 「コロンビアを拠点とするTCOや、コロンビア革命軍(FARC)や国民解放軍(ELN)のような非合法武装集団は、米国や欧州市場向けに大量のコカインを生産・密輸しており、アジア太平洋地域への拡大を試みている兆候も見られる。
"Colombia remains the world’s largest producer of cocaine and Columbian criminal groups have expanded their trafficking relationships with neighboring Ecuadorian and Brazilian gangs. 「コロンビアは依然として世界最大のコカイン生産国であり、コロンビアの犯罪組織は隣接するエクアドルやブラジルのギャングとの密売関係を拡大している。
"MS-13 is well-established in cells in the U.S. and uses violence to intimidate the Salvadoran diaspora, engaging in murder, extortion, retail drug trafficking, firearms offenses and prostitution, fueling increased violence and instability. 「MS-13は米国内に組織を確立しており、暴力を使ってサルバドル系移民を威嚇し、殺人、恐喝、小売薬物密売、銃器犯罪、売春に関与することで、暴力と不安定化を助長している。
"These and other TCOs present a very tangible and individualized risk of violent crime to everyday Americans and contribute to regional instability. 「これらおよびその他の国際犯罪組織(TCO)は、一般のアメリカ人に対して極めて具体的かつ個別的な暴力犯罪のリスクをもたらし、地域の不安定化に寄与している。
"They are likely to continue to respond to counterdrug pressure by accelerating adaptations in their operations, including shifting production locations and trafficking routes and methods. 「これらの組織は、麻薬対策の圧力に対し、生産拠点や密輸ルート、手法の変更を含む活動形態の適応を加速させることで、今後も対応し続ける可能性が高い。
"The US continues to face a complex and evolving threat landscape with a geographically diverse set of Islamist terrorist actors seeking to propagate their ideology globally and harm Americans, even as Al-Qaeda and ISIS remain weaker than they were at their respective peaks. 「アルカイダやISISがそれぞれの全盛期に比べて弱体化しているとはいえ、米国は依然として、自らのイデオロギーを世界的に広め、米国人に危害を加えようとする、地理的に多様なイスラム過激派テロリスト集団による、複雑かつ変化し続ける脅威アクターの構図に直面している。
"The spread of Islamist ideology, in some cases led by individuals and organizations associated with the Muslim Brotherhood, poses a fundamental threat to freedom and foundational principles that underpin Western Civilization. Islamist groups and individuals use this ideology for recruiting and financial support for terrorist groups and individuals around the world, and to advance their political objectives of establishing an Islamist caliphate which governs based on Sharia. There are increasing examples of this in various European countries. President Trump’s designation of certain Muslim Brotherhood chapters as Foreign Terrorist Organizations is a mechanism to secure Americans against this threat. 「イスラム主義イデオロギーの拡散は、場合によってはムスリム同胞団に関連する個人や組織によって主導されており、西洋文明の基盤となる自由と基本原則に対する根本的な脅威となっている。イスラム主義グループや個人は、このイデオロギーを利用して世界中のテロリスト集団や個人への勧誘や資金支援を行い、シャリーアに基づくガバナンスを行うイスラム主義カリフ制の樹立という政治的目標を推進している。欧州諸国では、こうした事例が増加している。トランプ大統領による特定のムスリム同胞団支部の「外国テロ組織」指定は、この脅威から米国人を守るための措置である。
"In response to setbacks to their capabilities of conducting large-scale complex attacks, Islamist terrorist groups have shifted toward focusing on executing information operations to spread propaganda and inspire or enable individuals located in or with access to the West. 「大規模かつ複雑な攻撃を実行する能力に打撃を受けたイスラム主義テロ組織は、プロパガンダを拡散し、西側諸国に在住する、あるいは西側諸国へのアクセスを持つ個人を鼓舞・支援するための情報作戦の遂行に重点を移している。
"U.S. counterterrorism operations primarily in Iraq, Somalia, Yemen and Syria in 2025 removed key terrorist leaders and operatives, degrading the ability of al-Qaeda and ISIS to quickly reconstitute its leadership and launch large-scale attacks against the Homeland and U.S. interests abroad. 「2025年に主にイラク、ソマリア、イエメン、シリアで行われた米国の対テロ作戦により、主要なテロリスト指導者や工作員が排除され、アルカイダやISISが指導部を迅速に再編し、米国本土や海外の米国利害関係に対して大規模な攻撃を仕掛ける能力は低下した。
"Strict U.S. border enforcement measures and increased deportations of individuals with suspected links to Islamist terrorists have reduced access to the Homeland and removed some potential sources of future terror attacks. 「米国の厳格な国境取締措置と、イスラム過激派テロリストとの関連が疑われる個人の強制送還の増加により、米国本土への侵入経路は狭められ、将来のテロ攻撃の潜在的な要因の一部が排除された。
"Since January, US officials have only had a handful of encounters at our borders with individuals associated with terrorist groups. This is a positive trend, however our interagency coordinated efforts to identify, locate and remove known or suspected terrorists who are already in the U.S. continues with vigilance. 「1月以降、米国当局が国境でテロ組織と関連する個人と遭遇した事例はごくわずかである。これは好ましい傾向だが、すでに米国内にいる既知または容疑者のテロリストを識別、捜索、排除するための省庁間の協調的な取り組みは、引き続き警戒を怠らずに継続されている。
"In 2025, there were at least three Islamist terrorist attacks in the US. Law enforcement disrupted at least 15 US based Islamist terrorist plotters. Roughly half of last year’s disrupted plotters had some online contact with Islamist terrorists inspired by Islamist foreign terrorist organizations abroad. For example, in the recent attempt to attack a synagogue in Michigan, the shooter had familial ties to a Hizballah leader. 「2025年、米国内では少なくとも3件のイスラム過激派によるテロ攻撃が発生した。法執行機関は、米国内を拠点とするイスラム過激派テロ計画者を少なくとも15件阻止した。昨年阻止された計画者の約半数は、海外のイスラム過激派テロ組織に影響を受けたテロリストとオンライン上で何らかの接触を持っていた。例えば、ミシガン州のシナゴーグを襲撃しようとした最近の事件では、犯人はヒズボラの指導者と家族的なつながりを持っていた。
"Al-Qaeda and ISIS pose the biggest threat to US interests overseas in parts of Africa, the Middle East and South Asia where these groups operate. They will continue to exploit political instability and ungoverned territory as they seek to rebuild their capabilities and leadership. Al-Qaeda probably has between 15,000-28,000 members worldwide, while ISIS likely has between 12,000 and 18,000 members. Africa has become a focal point for the global Sunni jihadist movement, where their largest and most violent affiliates and branches are active. 「アルカイダとISISは、これらの組織が活動するアフリカ、中東、南アジアの一部地域において、米国の海外利益に対する最大の脅威となっている。両組織は、能力と指導体制の再構築を図る中で、今後も政治的不安定や統治の及ばない地域を悪用し続けるだろう。アルカイダの世界的な構成員数は1万5,000人から2万8,000人、ISISは1万2,000人から1万8,000人と推定される。アフリカは世界的なスンニ派ジハード主義運動の焦点となっており、同組織の最大かつ最も暴力的な関連組織や支部が活動している。
"In the Middle East, AQAP in Yemen, ISIS-K in South Asia, and ISIS in Syria are among the most likely groups conducting external plotting. ISIS in Syria is likely seeking to rebuild its ranks, expand support networks and solicit funds by reengaging with and recruiting from the likely hundreds of ISIS detainees and thousands of ISIS-linked women and children who escaped or were released from prisons and displaced persons camps previously run by the Syrian Democratic Forces in northeast Syria. 「中東では、イエメンのAQAP、南アジアのISIS-K、シリアのISISが、国外でのテロ計画を遂行する可能性が最も高い組織に数えられる。シリアのISISは、シリア北東部でかつてシリア民主軍が運営していた刑務所や避難民キャンプから脱走または釈放された、おそらく数百人のISIS収容者や数千人のISIS関連の女性・子供たちと再接触し、彼らを勧誘することで、組織の再編、支援ネットワークの拡大、資金調達を図っているものとみられる。
"Meanwhile, state actors present a risk broader in scope by seeking new capabilities in kinetic and cyber warfare. 「一方、国家主体は、実戦およびサイバー戦における新たな能力を追求することで、より広範なリスクをもたらしている。
"The U.S. secure nuclear deterrent continues to ensure safety in the Homeland against strategic threats. However, Russia, China, North Korea, Iran and Pakistan have been researching and developing an array of novel, advanced, or traditional missile delivery systems with nuclear and conventional payloads, that put our Homeland within range. The IC assesses that threats to the Homeland will expand collectively to more than 16,000 missiles by 2035, from the current assessed figure of more than 3,000 missiles. 「米国の確実な核抑止力は、戦略的脅威に対する国内の安全を引き続き確保している。しかし、ロシア、中国、北朝鮮、イラン、パキスタンは、核および通常弾頭を搭載した、新規・先進的・あるいは従来のミサイル運搬システムを研究開発しており、それらは我が国の本土を射程圏内に収めている。情報コミュニティ(IC)は、本国に対する脅威が、現在の推定値である3,000発以上から、2035年までに合計16,000発以上に拡大するとアセスメントしている。
"The IC assesses that China and Russia are developing advanced delivery systems meant to be capable of penetrating or bypassing U.S. missile defenses. North Korea’s ICBMs can already reach U.S. soil, and it is committed to expanding its nuclear arsenal. Pakistan’s long-range ballistic missile development potentially could include ICBMs with the range capable of striking the Homeland. Iran has previously demonstrated space launch and other technology it could use to begin to develop a militarily viable ICBM before 2035, should Tehran attempt to pursue the capability. However, these assessments will be updated as the full impact of Operation Epic Fury’s devastating strikes on Iran’s missile production facilities, stockpiles, and launch capabilities is determined. 「ICは、中国とロシアが、米国のミサイル防衛を突破または迂回できることを目的とした高度な運搬システムを開発しているとアセスメントしている。北朝鮮のICBMはすでに米国本土に到達可能であり、同国は核兵器の増強に注力している。パキスタンの長距離弾道ミサイル開発には、米国本土を攻撃可能な射程を持つICBMが含まれる可能性がある。イランは過去に宇宙打ち上げ技術やその他の技術を実証しており、テヘランが能力の獲得を試みるならば、2035年までに軍事的に実用可能なICBMの開発に着手し得る。ただし、イランのミサイル生産施設、備蓄、発射能力に対する「オペレーション・エピック・フューリー」の壊滅的な攻撃の全容が判明次第、これらのアセスメントは更新されるだろう。
"These nations will likely seek to understand US plans for advanced missile defense for the Homeland, probably for the purpose of shaping their own missile development programs and assessing US intentions regarding deterrence. 「これらの国々は、自国のミサイル開発計画を策定し、抑止力に関する米国の意図を評価する目的で、米国本土向けの高度なミサイル防衛計画を理解しようと試みる可能性が高い。
"Shifting to the cyber domain, China, Russia, Iran, North Korea, and non-state ransomware groups will continue to seek to compromise U.S. government and private-sector networks as well as critical infrastructure to collect intelligence, create options for future disruption, and for financial gain. China and Russia present the most persistent and active threats and are continuing their R&D efforts. North Korea’s cyber program is sophisticated and agile. In 2025 alone, North Korea’s cryptocurrency heists probably stole $2 billion which is helping to fund the regime, including further development of its strategic weapons programs. 「サイバー領域に移ると、中国、ロシア、イラン、北朝鮮、および非国家主体のランサムウェア集団は、情報収集、将来の妨害のための選択肢の創出、そして金銭的利益を得るために、米国政府や民間セクターのネットワーク、ならびに重要インフラへの侵入を継続して試みるだろう。中国とロシアが最も執拗かつ活発な脅威を呈しており、研究開発活動を続けている。北朝鮮のサイバープログラムは高度かつ機敏である。2025年だけでも、北朝鮮による仮想通貨強奪でおそらく20億ドルが盗まれ、これは戦略兵器プログラムのさらなる開発を含め、体制の資金源となっている。
"Financially or ideologically motivated nonstate actors are becoming bolder, with ransomware groups shifting to faster, high-volume attacks that are harder to identify and mitigate. 「金銭的またはイデオロギー的な動機を持つ非国家主体はますます大胆になっており、ランサムウェアグループは、識別や緩和が困難な、より迅速で大規模な攻撃へと移行している。
"Innovation in the field of Artificial Intelligence will likely accelerate the threats in the cyber domain. It will increasingly shape cyber operations with both cyber operators and defenders using these tools to improve their speed and effectiveness. For example, in August 2025, cyber actors used an AI tool to conduct a data-extortion operation against international government, healthcare and public health, emergency services sectors, and religious institutions. 「人工知能(AI)分野の革新は、サイバー領域における脅威を加速させるだろう。サイバー攻撃者も防御側も、速度と有効性を高めるためにこれらのツールを活用するようになり、サイバー作戦のあり方をますます形作っていく。例えば、2025年8月、サイバー攻撃者はAIツールを使用して、国際的な政府機関、医療・公衆衛生、緊急サービス部門、および宗教機構に対してデータ恐喝作戦を実施した。
"In the Arctic, Russia, and to a lesser extent China, aim to strengthen their presence in the region through increased maritime trade, natural resource extraction, and military activity. Russia, which has the longest coastline in the Arctic, has long sought recognition of its ‘Polar Great Power’ status and is deploying more military forces and building new permanent infrastructure. China, though not an Arctic country, is engaged in more limited efforts in the region to advance its strategic and economic interests. 「北極圏では、ロシア、そして程度は低いものの中国が、海上貿易、天然資源の抽出、軍事活動の拡大を通じて、同地域における存在感を強めようとしている。北極圏で最も長い海岸線を有するロシアは、かねてより『極地大国』としての地位の承認を求めており、より多くの軍事力を展開し、新たな恒久的なインフラを建設している。中国は北極圏の国ではないが、戦略的・経済的利益を推進するため、同地域でより限定的な取り組みを行っている。
"On the technology front, Artificial Intelligence capabilities are rapidly advancing and changing the threat landscape. As this is a defining technology that enables computers and machines to simulate human learning comprehension, problem solving, creativity, and autonomy, it will be critical to ensure that humans remain in control of how AI is used and of the machines that may threaten to autonomously violate the interests of the American people across all domains. 「技術面では、人工知能(AI)の能力が急速に進歩し、脅威の様相を変えつつある。これはコンピュータや機械が人間の学習・理解、問題解決、創造性、自律性を模倣することを可能にする決定的な技術であるため、AIの活用方法や、あらゆる領域において米国国民の利益を自律的に侵害する恐れのある機械に対し、人間が主導権を握り続けることを確保することが極めて重要となる。
"China is the most capable competitor in this field and aims to displace the U.S. as the global AI leader by 2030. Even if China does completely overtake the U.S., AI adoption at scale across the spectrum of usage poses risks. AI has the potential to aid in weapons and systems design and has been used in recent conflicts to influence targeting and streamline decision-making, underscoring the risk and likely threats that could manifest on the battlefield. 「中国はこの分野で最も能力の高い競争相手であり、2030年までに米国を世界的なAIリーダーの座から追い落とすことを目指している。たとえ中国が米国を完全に追い越したとしても、利用の全領域にわたる大規模なAI導入はリスクを伴う。AIは兵器やシステムの設計を支援する可能性を秘めており、最近の紛争では標的選定に影響を与え、意思決定を効率化するために使用されてきた。これは、戦場で顕在化する可能性のあるリスクと脅威を浮き彫りにしている。
"Early developers in quantum computers will give countries an extraordinary technological advantage over others to quickly process national security information and break current encryption methodology used to protect sensitive finance, health care and government information. 「量子コンピュータの早期開発に成功した国々は、国家安全保障情報を迅速に処理し、機密性の高い金融、医療、政府情報を保護するために使用されている現行の暗号化手法を破るという点で、他国に対して並外れた技術的優位性を得るだろう。
"The global security landscape is volatile and complex, with armed conflict growing more common and posing potential threats against US interests. Strategic competition and regional and smaller powers becoming more willing to use force to pursue their interests heightens the risk of conflict. The space domain is becoming increasingly contested, with China and Russia developing counterspace capabilities to challenge US space efforts. The threat of nuclear proliferation and advancing chemical and biological warfare capabilities continues to grow. 「世界の安全保障情勢は不安定かつ複雑であり、武力紛争はますます頻発し、米国の国益に対する潜在的な脅威となっている。戦略的競争や、地域大国および小国が自国の利益を追求するために武力行使に踏み切る傾向が強まっていることが、紛争のリスクを高めている。宇宙領域をめぐる争いは激化しており、中国とロシアは米国の宇宙活動を牽制するために対宇宙能力を開発している。核拡散の脅威や、化学・生物兵器能力の進展は、依然として拡大し続けている。
"In alignment with President Trump’s National Security Strategy, this report will look at unique threats across major regions in the world, and how geography plays a role in how these threat vectors are prioritized. 「トランプ大統領の国家安全保障戦略に沿い、本報告書では世界の主要地域における特有の脅威、および地理的要因がこれらの脅威ベクトルの優先順位付けにどのように作用するかを検討する。
"Our focus turns to our neighborhood, the Western Hemisphere where flagging economies, high crime rates, pervasive organized crime, migration flows, corruption and narcotics trafficking present a spectrum of risks to US interests, and where strategic competitors seek greater influence in the region to challenge the US. 「焦点は近隣地域である西半球に移る。同地域では、低迷する経済、高い犯罪率、蔓延する組織犯罪、移民の流れ、汚職、麻薬密輸が米国の国益に対し多岐にわたるリスクをもたらしており、戦略的競争相手国が米国に対抗すべく同地域での影響力拡大を図っている。
"Latin America and the Caribbean almost certainly will see hotspots of volatility in the coming year, with the potential to undermine or distract some countries from improving living economies and living conditions and tackling illicit drug flows and cartels. Since Maduro’s arrest, we have seen a shift in Venezuela’s leadership toward cooperating with the US to open its economy, develop the country’s oil and gas extraction capability, and release political prisoners. 「ラテンアメリカおよびカリブ海地域では、来年、不安定化のホットスポットがほぼ確実に発生し、一部の国々において、経済と生活環境の改善、および違法薬物の流入やカルテルへの対処を阻害したり、その注意をそらしたりする可能性がある。マドゥロ氏の逮捕以来、ベネズエラの指導部は、経済開放、同国の石油・ガス抽出能力の開発、そして政治犯の釈放に向けて米国と協力する方向へと転換している。
"The US Mexico Canada agreement review in 2026 will likely increase uncertainty in many Latin American countries, especially those that rely on Mexico as an export destination for intermediate goods for manufacture and onward export to the U.S. China, Russia and Iran are seeking to sustain economic, political and military engagement with Latin America. China’s demand for raw materials is likely to drive continued economic outreach, while Russia likely wants to expand its current security and diplomatic ties with Cuba and Nicaragua. 「2026年の米国・メキシコ・カナダ協定(USMCA)の見直しは、多くのラテンアメリカ諸国、特に製造事業者の間で、中間財の輸出先としてメキシコに依存し、そこから米国へ再輸出している国々において、不確実性を高めるだろう。中国、ロシア、イランは、ラテンアメリカとの経済的、政治的、軍事的関与を維持しようとしている。中国の原材料需要は、継続的な経済的働きかけを後押しするだろう一方、ロシアはキューバやニカラグアとの現在の安全保障および外交関係を拡大したいと考えている。
"China aims to elevate its own political, economic, military and technological power to increase its own regional positioning, global influence, and to fend off threats to their interests. While there are challenging areas where interests diverge, President Trump’s diplomatic engagements with President Xi have enabled progress on areas where there are mutual interests and opportunities for win-win outcomes. 「中国は、自国の政治的、経済的、軍事的、技術的力を高め、地域における地位と世界的な影響力を強化し、自国の利益に対する脅威を排除することを目指している。利益が対立する困難な分野はあるものの、トランプ大統領と習近平国家主席との外交的関与により、相互利益がありウィンウィンの成果が期待できる分野では進展が見られている。
China continues to rapidly modernize its military forces across all domains in pursuit of its goal to achieve “world-class” status by mid-century. This includes building a force with the aim of being capable of deterring and disrupting U.S. and allied forces in its region, and developing the ability to seize Taiwan by force, if necessary. However, the IC assesses that China will likely seek to set the conditions for an eventual peaceful reunification with Taiwan, short of conflict. 中国は、21世紀半ばまでに「世界トップクラス」の地位を達成するという目標を追求し、あらゆる領域において軍隊の急速な近代化を続けている。これには、同地域における米国および同盟国軍を牽制・妨害できる能力を備えた軍隊の構築、ならびに必要に応じて武力による台湾奪取能力の開発が含まれる。しかし、情報コミュニティ(IC)は、中国が紛争に至ることなく、最終的には台湾との平和的統一に向けた条件を整えようとする可能性が高いとアセスメントしている。
"An increasingly confident North Korean regime remains a source of concern regionally and globally. Its WMD, conventional military capabilities, illicit cyber activities and demonstrated willingness to use asymmetric capabilities poses a threat to the US and its allies, particularly South Korea and Japan. 「ますます自信を深める北朝鮮政権は、地域的にも世界的にも懸念材料であり続けている。その大量破壊兵器、通常戦力、違法なサイバー活動、そして非対称戦力の使用に対する明確な意思は、米国とその同盟国、特に韓国と日本に対する脅威となっている。
"North Korea’s partnership with Russia is growing and in 2025, Kim took steps to improve ties with China, still North Korea’s most important trading partner and economic benefactor, after the relationship had cooled due to Beijing’s earlier opposition to Pyongyang’s nuclear and missile tests. 「北朝鮮とロシアの連携は強まっており、2025年には、金正恩が中国との関係改善に向けた措置を講じた。中国は依然として北朝鮮にとって最も重要な貿易相手国であり経済的支援国であるが、北京が以前、平壌の核・ミサイル実験に反対したことで両国関係は冷え込んでいた。
"The benefits North Korea receives for its support for Russia in the war against Ukraine have increased North Korean capabilities as their forces have gained combat experience in 21st century warfare along with equipment. In 2024, North Korea deployed more than 11,000 troops to Russia to support combat operations in Kursk. 「ウクライナ戦争におけるロシアへの支援に対し北朝鮮が得た利益は、同国の戦力を強化した。その部隊は、装備に加え、21世紀の戦争における実戦経験を積んだからだ。2024年、北朝鮮はクルスクでの戦闘作戦を支援するため、1万1000人以上の兵士をロシアに展開した。
"Pyongyang continues to develop and expand its strategic weapons programs, including missiles that can evade US and regional missile defenses, and continuing to work to increase its nuclear warhead stockpile. It maintains biological and chemical weapons capabilities which it might use during a conflict or in an unconventional or clandestine attack. 「平壌は、米国や地域のミサイル防衛網を回避可能なミサイルを含む戦略兵器プログラムの開発・拡大を継続しており、核弾頭の備蓄増強にも取り組んでいる。また、紛争時や非対称・秘密裏の攻撃において使用し得る生物兵器および化学兵器の能力を維持している。
"Russia retains the capability to selectively challenge U.S. interests globally by military and non-military means. The most dangerous threat posed by Russia to the US is an escalatory spiral in an ongoing conflict such as Ukraine or a new conflict that led to direct hostilities including the deployment of nuclear weapons. 「ロシアは、軍事的および非軍事的な手段を用いて、世界的に米国の国益に選択的に挑戦する能力を保持している。ロシアが米国に及ぼす最も危険な脅威は、ウクライナのような進行中の紛争におけるエスカレーションの連鎖、あるいは核兵器の展開を含む直接的な敵対行為へと発展する新たな紛争である。
"Putin continues to invest in Russia’s defense industrial base and investment in novel capabilities poses more of a threat to the US homeland and forces abroad than his country’s conventional weapons. Russia has advanced systems, including counterspace weapons, hypersonic missiles and undersea capabilities designed to negate U.S. military advantage. 「プーチンはロシアの防衛産業基盤への投資を継続しており、新鋭能力への投資は、同国の通常兵器よりも、米国の本土および海外駐留部隊に対してより大きな脅威となっている。ロシアは、対宇宙兵器、極超音速ミサイル、米国の軍事的優位性を無効化するように設計された水中能力など、高度なシステムを保有している。
"Moscow also relies on other tools to exert pressure using grayzone tactics to further its goals and compete below the level of armed conflict. 「モスクワはまた、グレーゾーン戦術を用いて圧力をかけ、武力紛争のレベルを下回る形で目標を推進し、競争を行うための他の手段にも依存している。
"Russia is also building extensive counterspace capabilities to contest US space dominance. Its development of a nuclear counterspace weapon poses the greatest single threat to the world's space architecture. 「ロシアはまた、米国の宇宙支配に異議を唱えるため、広範な対宇宙能力を構築している。その核対宇宙兵器の開発は、世界の宇宙インフラにとって最大の単一の脅威となっている。
"During the past year, Russia has maintained the upper hand in its war against Ukraine. US-led negotiations between Moscow and Kyiv are ongoing. Until such an agreement is met, Moscow is likely to continue fighting a war of attrition with the aim of degrading Kyiv’s ability and will to resist. 「過去1年間、ロシアはウクライナとの戦争において優位を保ってきた。モスクワとキエフの間で、米国主導の交渉が進行中だ。合意が成立するまで、モスクワはキエフの抵抗能力と意志を弱体化させることを目的とした消耗戦を継続する可能性が高い。
"In the Middle East, conflict and instability will shape security, political and economic dynamics in a variety of ways. The US led Operation Epic Fury is advancing fundamental change in the region that began with Hamas’s attack on Israel on October 7, 2023 and continued with the 12-Day War last year, resulting in weakening Iran and its proxies. 「中東では、紛争と不安定さが、安全保障、政治、経済の動向を多方面から形作るだろう。米国主導の『エピック・フューリー作戦』は、2023年10月7日のハマスによるイスラエル攻撃で始まり、昨年の12日間戦争へと続いた同地域の根本的な変化を推進しており、その結果、イランとその代理勢力は弱体化している。
"The regime in Iran appears to be intact but largely degraded by Operation Epic Fury. Its regional power projection capabilities have been destroyed, leaving limited options. Prior to the current operations, Iran’s strategic position had been significantly degraded. 「イランの体制は維持されているように見えるが、『エピック・フューリー作戦』によってその機能は大幅に損なわれている。同国の地域への勢力投射能力は破壊され、選択肢は限られている。現在の作戦以前から、イランの戦略的立場は著しく低下していた。
"The US led maximum pressure campaign and snapback of European sanctions added additional pressure to an already bleak Iranian economy, resulting in mass protests earlier this year that Tehran suppressed by killing thousands of protesters. Even if the regime remains intact, internal tensions are likely to increase as Iran’s economy worsens. 「米国主導の『最大限の圧力』キャンペーンと欧州による制裁の即時復活は、すでに厳しい状況にあったイラン経済にさらなる圧力を加え、今年初めに大規模な抗議デモを引き起こした。テヘラン当局は数千人のデモ参加者を殺害することでこれを鎮圧した。たとえ政権が維持されたとしても、イラン経済の悪化に伴い、国内の緊張が高まる可能性が高い。
"Even so, Iran and its proxies remain capable of and continue to attack US and allied interests in the Middle East. If a hostile regime survives, it will seek to begin a yearslong effort to rebuild its missiles and UAV forces. 「それでもなお、イランとその代理勢力は、中東における米国および同盟国の利益を攻撃する能力を有しており、攻撃を続けている。敵対的な政権が生き残った場合、ミサイルおよび無人機部隊の再建に向けた数年にわたる取り組みを開始しようとするだろう。
"As a result of Operation Midnight Hammer, Iran’s nuclear enrichment program was obliterated. There has been no efforts since then to try to rebuild their enrichment capability. The entrances to the underground facilities that were bombed have been buried and shuttered with cement. We continue to monitor for any early indicators on what position the current or any new leadership in Iran will take with regard to authorizing a nuclear weapons program. 「ミッドナイト・ハンマー作戦の結果、イランの核濃縮プログラムは壊滅した。それ以来、濃縮能力を再建しようとする動きは見られない。爆撃を受けた地下施設の入り口は埋められ、セメントで封鎖されている。我々は、核兵器プログラムの認可に関して、イランの現指導部あるいは新たな指導部がどのような立場を取るかについて、いかなる初期兆候も引き続き監視している。
"China, Russia and North Korea see the United States as a strategic competitor and potential adversary. Iran has long viewed the U.S. as an adversary and is engaged in active conflict with the U.S. as of this writing. 「中国、ロシア、北朝鮮は、米国を戦略的競争相手かつ潜在的な敵対者と見なしている。イランはかねてより米国を敵対者と見なしており、本稿執筆時点でも米国と活発な紛争状態にある。
"These four countries are likely to continue their selective cooperation with each other, which could bolster their individual capabilities and threats to U.S. interests more broadly. However, currently, these relationships are primarily bilateral on selective issues, and depend on broader circumstances, divergent sovereign interests, and in some cases, concerns over directly confronting the U.S. These factors are likely to constrain their relationships. 「これら4カ国は、相互に選択的な協力を継続する可能性が高い。これにより、各国の能力が強化され、より広範な米国利益に対する脅威が増大する恐れがある。しかし、現時点では、これらの関係は主に特定の課題における二国間のものであり、より広範な状況、相反する国家利益、そして場合によっては米国と直接対峙することへの懸念に左右されている。これらの要因が、彼らの関係を制約する可能性が高い。
"For example, during the 12 Day War last summer, and the current Operation Epic Fury, Iran assumed that Russia, China and North Korea would provide support to Iran, and has been frustrated in both cases that that support has been very limited to non-existent. 「例えば、昨夏の『12日戦争』や現在進行中の『エピック・フューリー作戦』において、イランはロシア、中国、北朝鮮が支援を提供すると想定していたが、いずれの場合もその支援が極めて限定的か、あるいは皆無であったことに失望している。
"Finally, African governments will use their wealth in critical minerals to seek partnerships that deliver them meaningful benefit. Concurrent conflicts and crises across the continent will continue to put US citizens at risk and cause further instability. Infectious diseases endemic to Africa continue to crop up in new regions and threaten to spill over. 「最後に、アフリカ諸国政府は、重要鉱物資源という富を活用し、自国に実質的な利益をもたらすパートナーシップを模索するだろう。大陸全域で同時多発する紛争や危機は、引き続き米国市民のリスクを高め、さらなる不安定化を招くだろう。アフリカに風土病として存在する感染症は、新たな地域で発生し続け、他地域への波及を脅かしている。
"Africa has increasingly become a focal point for the global Sunni jihadist movement. Al Shabaab has encroached on Mogadishu, Somalia, during the past year, and continues to coordinate funding and propaganda campaigns with other parts of Al Qaeda in Yemen. 「アフリカは、世界的なスンニ派ジハード主義運動の焦点となりつつある。アル・シャバブは過去1年間でソマリアのモガディシュに侵攻し、イエメンのアルカイダ系組織と資金調達や宣伝キャンペーンを連携させ続けている。
"ISIS in West Africa and the Sahel have increased the intensity of their attacks against local security forces, expanding their areas of operation, moving closer to cities with a US presence. 「西アフリカおよびサヘル地域のISISは、現地の治安部隊に対する攻撃の強度を高め、活動範囲を拡大し、米軍が駐留する都市に接近している。
"In closing, as leaders of the Intelligence Community, we are committed to providing the President, Congress, policymakers and operators with timely, unbiased, relevant intelligence to ensure the safety, security and freedom of the American people. 「最後に、インテリジェンス・コミュニティの指導者として、我々は米国国民の安全、治安、自由を確保するため、大統領、議会、政策立案者、および実務担当者に、適時かつ偏りのない、関連性の高い情報を提供することに尽力する。
"Thank you." 「ありがとう。」

 

 

 

・[PDF]

20260323-154836

・[DOCX][PDF] 仮訳

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.03.28 米国 ODNI 2025 米国インテリジェンス・コミュニティの年次脅威アセスメント (2025.03.25)

・2024.03.14 米国 インテリジェンス・コミュニティによる2024年の脅威評価 

 

・2023.08.11 米国 国家情報戦略 2023

 

・2023.04.09 米国 インテリジェンスコミュニティーによる2023年脅威評価 (2023.02.06)

・2021.06.06 米国 インテリジェンスコミュニティーによる2021年脅威評価 by ODNI at 2021.04.09

 

 

 


ここで過去の報告書をまとめて見れます...

ANNUAL THREAT ASSESSMENT OF THE U.S. INTELLIGENCE COMMUNITY

 

・2025.03.25 [PDF] 2025

20250327-50726

 

・2024.02.05 [PDF] 2024

20240314-21006

 

・2023.02.06 [PDF] 2023

20230409-12749

 

・2022.03.08 [PDF] 2022

20230409-14739

 

・2021.04.09 [PDF] 2021

20210605-151026

 

・2019.01.19 [PDF] 2019

20230409-15259

 

・2018.02.13 [PDF] 2018

20230409-15657

 

・2017.05.11 [PDF] 2017

20230409-15900

 

・2016.02.09 [PDF] 2016

20230409-20109

 

・2015.02.26 [PDF] 2015

20230409-20243

・2014.01.29 [PDF] 2014

20230409-20422

 

・・2013.03.12 [PDF] 2013

20230409-20608

 

 

・2012.02.16 [PDF] 2012

20230409-20732

 

・2011.03.10 [PDF] 2011

20230409-21115

 

・ 2010.02.02 [PDF] 2010

20230409-21225

 

・2009.03.10 [PDF] 2009

20230409-21347

 

・2008.02.27 [PDF] 2008

20230409-21501

 

・2007.01.11 [PDF] 2007

20230409-21635

 

・2006.02.02 [PDF] 2006

20230409-21809

 

| | Comments (0)

2026.03.23

オーストラリア 情報委員会 年齢確認技術に関するプライバシー指針 (2026.03.17)

こんにちは、丸山満彦です。

日本の個人情報保護法も子どもの保護を強化することになりそうですね...となると重要となるのが、年齢を確認すること...で、どうする???となるわけですが、欧米ではすでにそのような法体系になっているので、海外の事例の理解が重要なのかもしれませんね...

今回は、オーストラリアのガイド...

 

Australia: Office of the Australian Information Commissioner

プレス...

・2026.03.17 Privacy Commissioner publishes new guidance to ensure proportionate age assurance as a gateway to access online experiences

Privacy Commissioner publishes new guidance to ensure proportionate age assurance as a gateway to access online experiences プライバシー・コミッショナー、オンライン体験へのアクセス手段としての年齢確認が適切に行われるよう新たな指針を公表
The Office of the Australian Information Commissioner (OAIC) has published new guidance on age assurance technologies to assist entities to ensure Australians’ privacy is protected when they encounter age checks online. オーストラリア情報委員会(OAIC)は、オーストラリア国民がオンライン上で年齢確認を受ける際にプライバシーが保護されるよう、事業体を支援するための年齢確認技術に関する新たな指針を公表した。
Three months on from the commencement of the Social Media Minimum Age (SMMA) scheme, the OAIC has observed significant growth in age checks taking place in Australia to allow people access to other online services. ソーシャルメディア最低年齢(SMMA)スキームの開始から3ヶ月が経過し、OAICは、人々が他のオンラインサービスにアクセスできるようにするための年齢確認がオーストラリア国内で大幅に増加していることを確認した。
With the introduction of new age assurance obligations on 9 March 2026 under eSafety-registered Age-Restricted Material Codes, the publication of this new guidance supports entities to work through the privacy issues associated with choosing and implementing age assurance methods, outside of the SMMA scheme. 2026年3月9日にeSafety登録の「年齢制限付きコンテンツコード」に基づき新たな年齢確認義務が導入されることを受け、本指針の公表は、SMMA制度以外の場面において、事業体が年齢確認手法の選定および導入に伴うプライバシー上の課題に対処するのを支援するものである。
Privacy Commissioner Carly Kind said that the guidance clarifies the OAIC’s expectations, emphasising necessity and proportionality, transparency, effective complaints mechanisms, and strong vendor controls. プライバシー・コミッショナーのカーリー・カインド氏は、本指針がOAICの期待事項を明確にし、必要性と比例性、透明性、効果的な苦情処理メカニズム、およびベンダーに対する強力な管理を強調していると述べた。
“Age assurance solutions are in many cases fragmented across multiple providers. Entities need to stop and think about the goals of performing an age check, whether it is even necessary in the first place, and ensure strong governance across the ecosystem” Ms Kind said. “Age assurance is not a blank cheque to use personal or sensitive information in all circumstances and must not erode Australians’ privacy rights.” 「年齢確認ソリューションは、多くの場合、複数のプロバイダに分散している。事業体は立ち止まって、年齢確認を行う目的や、そもそもそれが必要なのかどうかを考え、エコシステム全体にわたる強力なガバナンスを確保する必要がある」とカインド氏は述べた。「年齢確認は、あらゆる状況で個人情報や機微情報を使用するための白紙委任状ではなく、オーストラリア国民のプライバシー権を損なってはならない。」
“Offering individuals transparent, data-minimising options to validate their age is important if entities want to use these technologies as a gateway to age-appropriate experiences online”. 「事業体がこれらの技術を、オンライン上の年齢に適した体験への入り口として活用したいのであれば、個人が自身の年齢の妥当性確認を行うための、透明性が高く、データ利用を最小限に抑えた選択肢を提供することが重要だ」。
“Complaints about digital platforms are on the rise and it is imperative entities provide simple and accessible pathways for resolving a complaint.” 「デジタルプラットフォームに対する苦情は増加しており、事業体が苦情を解決するための簡潔で利用しやすい手段を提供することは不可欠である」。
“The OAIC continues to advocate for a more privacy-respecting digital world for children and will be further supporting this goal with the registration of the Children’s Online Privacy Code in December 2026.” 「OAICは、子供たちにとってプライバシーがより尊重されるデジタル世界の実現を引き続き提唱しており、2026年12月の『児童オンラインプライバシーコード』の登録を通じて、この目標をさらに支援していく」
The guidance calls on entities to: 本ガイダンスは事業体に以下を求めている:
・establish whether age checks are needed and take a privacy by design approach. ・年齢確認が必要かどうかを判断し、「プライバシー・バイ・デザイン」のアプローチを採用すること。
・undertake due diligence to ensure the security of the entity’s age assurance ecosystem. ・自社の年齢確認エコシステムのセキュリティを確保するために、デューデリジェンスを実施すること。
・assess risk and choose age-assurance methods that are proportionate and data minimising. ・リスクを評価し、比例原則に則り、データ最小化を図る年齢確認方法を選択すること。
・ensure clear consent requests are used for the collection of sensitive information (such as biometric templates) or for secondary use or disclosure. ・機微な情報(生体認証テンプレートなど)の収集、または二次利用・開示については、明確な同意の求め方を使用すること。
・be transparent in privacy notices and ensure meaningful support is available to individuals at the moments it matters, through simple and easy to access complaints processes. ・プライバシー通知において透明性を確保し、シンプルで利用しやすい苦情処理プロセスを通じて、必要な時に個人が実質的な支援を受けられるようにすること。
Failure to meet these obligations may constitute ‘an interference with the privacy of an individual’ and may trigger compliance or enforcement action. これらの義務を履行しない場合、「個人のプライバシーへの侵害」とみなされ、コンプライアンス措置や執行措置の対象となる可能性がある。
For more information view the Age assurance technologies and privacy obligations page. 詳細については、「年齢確認技術とプライバシー義務」のページを参照のこと。

 

ガイダンス

・2026.03.17 Privacy guidance on age assurance technologies

Age assurance technologies and privacy obligations 年齢確認技術とプライバシー上の義務
Age assurance is an umbrella term that describes a range of methods used to verify, estimate or infer an individual’s age or age range to determine their eligibility to access, for example, an online service or content. 年齢確認とは、オンラインサービスやコンテンツなどへのアクセス資格を判断するために、個人の年齢または年齢層を検証、推定、あるいは推測するために用いられる一連の手法を総称する用語である。
This general guidance is for APP entities considering implementing age assurance systems that involve the collection, use or disclosure of personal information. The aim of this guidance is to assist APP entities to comply with their privacy obligations under the Australian Privacy Principles (APPs) and support entities and third-party vendors in understanding the privacy impacts associated with choosing and implementing different age assurance systems. It contains practical considerations, privacy tips and questions to ask when implementing or monitoring systems. 本一般的なガイダンスは、個人情報の収集、利用、または開示を伴う年齢確認システムの導入を検討しているオーストラリア・プライバシー原則(APP)対象事業体を対象としている。本ガイダンスの目的は、APP対象事業体がAPPに基づくプライバシー義務を遵守できるよう支援し、また、事業体およびサードパーティベンダーが、異なる年齢確認システムの選択および導入に伴うプライバシーへの影響を理解するのを支援することにある。本ガイダンスには、システムを導入または監視する際に考慮すべき実務上の事項、プライバシーに関するヒント、および確認すべき質問が含まれている。
Entities implementing age assurance for the purposes of the Social Media Minimum Age (SMMA) obligation should read this guidance in conjunction with OAIC guidance on Part 4A of the Online Safety Act 2021 (Cth) which explains the privacy obligations that apply in that context. ソーシャルメディア最低年齢(SMMA)義務の目的で年齢確認を実施する事業体は、このガイダンスを、その文脈で適用されるプライバシー義務を説明する「2021年オンライン安全法(Cth)」第4A部に関するOAICのガイダンスと併せて読むべきである。
The following key considerations are explored in detail in the guidance: 本ガイダンスでは、以下の主要な考慮事項について詳細に検討している:
・Establish whether age assurance is needed. Take a privacy by design approach and consider the privacy impacts associated with each age assurance method (e.g. inference, estimation and verification) and whether the circumstances surrounding the specific chosen method(s) justify the privacy risks. Undertake a Privacy Impact Assessment and implement recommendations to manage, minimise or eliminate privacy risk for each method. (APP 1, APP 2, APP 3, APP 6, APP 10) ・年齢確認が必要かどうかを判断する。「プライバシー・バイ・デザイン」のアプローチを採用し、各年齢確認手法(例:推論、推定、検証)に伴うプライバシーへの影響、および選択した特定の手法を取り巻く状況がプライバシーリスクを正当化するかどうかを検討する。プライバシー影響アセスメントを実施し、各手法におけるプライバシーリスクを管理、最小化、または排除するための推奨事項を実施する。(APP 1, APP 2, APP 3, APP 6, APP 10)
・Undertake due diligence to ensure the security of your entity’s age assurance ecosystem from age check to dispute resolution, especially where multiple providers are involved. Ensure vendors have appropriate governance processes in handling personal information and contractual arrangements ensure privacy compliance. (APP 1, APP 11) ・年齢確認から紛争解決に至るまで、特に複数のプロバイダが関与する場合、事業体の年齢確認エコシステムのセキュリティを確保するためにデューデリジェンスを実施する。ベンダーが個人情報の取り扱いにおいて適切なガバナンスプロセスを有していることを確認し、契約上の取り決めによってプライバシーコンプライアンスが確保されるようにする。(APP 1, APP 11)
・When choosing or offering an age assurance method (or combination of methods) ensure it is reasonably necessary and proportionate to legitimate aim(s). Consider alternate methods and how you can use low-intrusion techniques within an age assurance method(s). Monitor whether the chosen method introduces bias or discrimination. (APP 1, APP 3, APP 6) ・年齢確認方法(またはその組み合わせ)を選択または提供する際は、それが正当な目的に対して合理的に必要かつ均衡のとれたものであることを確保する。代替手段を検討し、年齢確認方法の中でいかに低侵襲な手法を活用できるかを検討する。選択した方法にバイアスや識別が生じないか監視する。(APP 1、APP 3、APP 6)
・Escalate to more intrusive personal information handling only as necessary. Age checks should not seek to reveal the identity of the individual and should only validate age for the purpose of accessing a specific service. Low risk services should consider whether an age check is required or whether self-declaration can be relied upon. (APP 1, APP 3, APP 6) ・より侵襲性の高い個人情報の取り扱いへは、必要な場合にのみ移行すること。年齢確認は個人の身元を明らかにすることを目的とすべきではなく、特定のサービスへのアクセスという目的のためにのみ年齢の妥当性確認を行うべきである。リスクの低いサービスについては、年齢確認が必要か、あるいは自己申告を信頼できるかを検討すること。(APP 1、APP 3、APP 6)
・Be transparent, at the moment it matters. Use APP 5 just-in-time notices to explain key information such as what is collected, why, by whom, how long it is retained, and the individual’s choices (including alternative methods and review processes). APP 1 privacy policies should be updated with clear and transparent information, with clear policies and procedures to facilitate this transparency. (APP 1, APP 5) ・重要な局面において透明性を確保する。APP 5のジャストインタイム通知を活用し、収集される情報の内容、理由、収集主体、保存期間、および個人の選択肢(代替手段や再検討プロセスを含む)といった重要な情報を説明する。APP 1のプライバシーポリシーは、明確かつ透明性の高い情報で更新され、この透明性を促進するための明確な方針と手順を定めるべきである。(APP 1、APP 5)
・Define primary and secondary purposes precisely and in line with the specific function or activity for which you are collecting, using or disclosing the information. Descriptions should be clear, concise, up-to-date and visible to individuals when they would reasonably expect it. (APP 1, APP 5, APP 6) ・情報の収集、利用、または開示を行う具体的な機能や活動に沿って、主目的および副目的を正確に定義すること。説明は明確かつ簡潔で、最新のものであり、個人が合理的に期待するタイミングで閲覧可能でなければならない。(APP 1、APP 5、APP 6)
・Provide clear contact information and ensure meaningful support is available to individuals, including non-users. Ensure that escalation measures are in place to resolve privacy questions and that complaints processes are simple and accessible [MS5] in relation to the handling of personal information. (APP 1) ・明確な連絡先情報を提供し、非利用者を含む個人が実質的なサポートを受けられるようにすること。プライバシーに関する疑問を解決するためのエスカレーション措置を講じ、個人情報の取り扱いに関する苦情処理プロセスが簡素かつ利用しやすいものであることを確保すること。[MS5] (APP 1)
・Minimise the inclusion of personal and sensitive information in age assurance processes. Only retain enough personal information in outputs to meet defined purposes, such as to explain the measures implemented for an individual and to facilitate reviews or complaints, then destroy or de-identify on schedule. (APP 3, APP 6) ・年齢確認プロセスにおける個人情報および機微情報の取り込みを最小限に抑えること。個人に対して実施された措置の説明や、審査・苦情処理の円滑化など、定義された目的を満たすために必要な範囲でのみ個人情報を保持し、その後、予定通りに破棄または匿名化すること。(APP 3, APP 6)
・Be thoughtful when designing consent requests for the collection of sensitive information (such as biometric templates) or for secondary use or disclosure. These should be written and designed so individuals of all abilities can understand what they are being asked to agree to and change their mind. (APP 3, APP 5) ・機微情報(生体認証テンプレートなど)の収集、または二次利用・開示に関する同意要請を設計する際は、慎重を期すこと。これらについては、あらゆる能力を持つ個人が、同意を求められている内容や、同意を取り消す方法について理解できるよう、記述および設計を行うこと。(APP 3, APP 5)
・Destroy or de-identify any inputs that have been collected immediately once the purposes of collection have been met. Personal information, including sensitive information, collected for age assurance purposes (e.g. biometric information, biometric templates, identity documents) must be destroyed once all purposes have been met. Avoid purpose ‘padding’ and ensure destruction includes caches and storage. As a matter of best practice, ringfence inputs by separating out personal information associated with age checks into a contained, secure environment. (APP 11). ・収集目的が達成されたら直ちに、収集された入力データを破棄または匿名化すること。年齢確認の目的で収集された個人情報(機微情報を含む。例:生体情報、生体テンプレート、身分証明書)は、すべての目的が達成された時点で破棄しなければならない。目的の「水増し」を避け、破棄の対象にキャッシュやストレージも含まれるようにする。ベストプラクティスとして、年齢確認に関連する個人情報を隔離された安全な環境に分離し、入力データを保護する。(APP 11)

 

・[PDF]

20260322-55716

・[DOCX][PDF] 仮訳

 

 

目次...

Overview 概要
Key considerations 主な考慮事項
Who is this guidance for? このガイダンスの対象者は誰か
What is age assurance? 年齢確認とは何か?
Privacy guidance プライバシーに関するガイダンス
1. Establish whether age assurance is needed (APP 1) 1. 年齢確認が必要かどうかを判断する(APP 1)
2. Uphold anonymity (APP 2) 2. 匿名性を確保する(APP 2)
3. Use privacy by design to choose an age assurance method(s) (APP 1) 3. プライバシー・バイ・デザインを用いて年齢確認方法を選択する(APP 1)
4. Conduct appropriate due diligence (APP 1 & APP 11) 4. 適切なデューデリジェンスを実施する(APP 1 および APP 11)
5. Build transparency (APP 1 & APP 5) 5. 透明性を確保する(APP 1 および APP 5)
6. Make complaints mechanisms easy to navigate (APP 1) 6. 苦情処理手続きを分かりやすくする(APP 1)
7. Collect minimal data through least intrusive means (APP 3) 7. 最小限の手段で最小限のデータを収集する(APP 3)
8. Minimise privacy impacts if using existing information to infer age (APP 6) 8. 既存の情報を利用して年齢を推定する場合、プライバシーへの影響を最小限に抑える(APP 6)
9. Clearly distinguish a secondary purpose from the primary purpose (APP 6) 9. 主目的と副目的を明確に区別する(APP 6)
10. Consider accuracy, bias and discrimination (APP 10) 10. 正確性、バイアス、および差別を考慮する(APP 10)
11. Prioritise security and strong vendor controls (APP 11) 11. セキュリティと厳格なベンダー管理を優先する(APP 11)
12. Implement robust de-identification or destruction procedures (APP 11) 12. 堅牢な匿名化または破棄の手順を実施する(APP 11)

 

Key considerations  主な考慮事項 
Establish whether age assurance is needed. Take a privacy by design approach and consider the privacy impacts associated with each age assurance method (e.g. inference, estimation and verification) and whether the circumstances surrounding the specific chosen method(s) justify the privacy risks. Undertake a Privacy Impact Assessment and implement recommendations to manage, minimise or eliminate privacy risk for each method. (APP 1, APP 2, APP 3, APP 6, APP 10)  年齢確認が必要かどうかを判断する。「プライバシー・バイ・デザイン」のアプローチを採用し、各年齢確認手法(例:推論、推定、検証)に伴うプライバシーへの影響、および選択した特定の手法を取り巻く状況がプライバシーリスクを正当化するかどうかを検討する。プライバシー影響アセスメントを実施し、各手法におけるプライバシーリスクを管理、最小化、または排除するための推奨事項を実施する。 (APP 1, APP 2, APP 3, APP 6, APP 10) 
Undertake due diligence to ensure the security of your entity’s age assurance ecosystem from age check to dispute resolution, especially where multiple providers are involved. Ensure vendors have appropriate governance processes in handling personal information and contractual arrangements ensure privacy compliance. (APP 1, APP 11)  • 年齢確認から紛争解決に至るまで、特に複数のプロバイダが関与する場合、事業体の年齢確認エコシステムのセキュリティを確保するためにデューデリジェンスを実施する。ベンダーが個人情報の取り扱いにおいて適切なガバナンスプロセスを有していることを確認し、契約上の取り決めによってプライバシーコンプライアンスが確保されるようにする。(APP 1、APP 11) 
When choosing or offering an age assurance method (or combination of methods) ensure it is reasonably necessary and proportionate to legitimate aim(s). Consider alternate methods and how you can use low-intrusion techniques within an age assurance method(s). Monitor whether the chosen method introduces bias or discrimination. (APP 1, APP 3, APP 6)  年齢確認手法(または手法の組み合わせ)を選択または提供する際は、それが正当な目的に対して合理的に必要かつ均衡を保っていることを確認する。代替手法を検討し、年齢確認手法の中で低侵襲な手法をどのように活用できるかを検討する。選択した手法がバイアスや識別をもたらしていないかを監視する。(APP 1、APP 3、APP 6) 
Escalate to more intrusive personal information handling only as necessary. Age checks should not seek to reveal the identity of the individual and should only validate age for the purpose of accessing a specific service. Low risk services should consider whether an age check is required or whether self-declaration can be relied upon. (APP 1, APP 3, APP 6)  より侵襲性の高い個人情報の取り扱いへは、必要な場合にのみ移行する。年齢確認は個人の身元を明らかにすることを目的とすべきではなく、特定のサービスへのアクセスという目的のためにのみ年齢の妥当性確認を行うべきである。リスクの低いサービスについては、年齢確認が必要か、あるいは自己申告を信頼できるかを検討すべきである。(APP 1、APP 3、APP 6) 
Be transparent, at the moment it matters. Use APP 5 just-in-time notices to explain key information such as what is collected, why, by whom, how long it is retained, and the individual’s choices (including alternative methods and review processes). APP 1 privacy policies should be updated with clear and transparent information, with clear policies and procedures to facilitate this transparency. (APP 1, APP 5)  重要な場面において透明性を確保すること。APP 5のジャストインタイム通知を活用し、収集される情報の内容、理由、収集主体、保存期間、および個人の選択肢(代替手段や再検討プロセスを含む)といった重要な情報を説明すること。APP 1のプライバシーポリシーは、明確かつ透明性の高い情報で更新され、この透明性を促進するための明確な方針と手順を定めるべきである。(APP 1、APP 5) 
Define primary and secondary purposes precisely and in line with the specific function or activity for which you are collecting, using or disclosing the information. Descriptions should be clear, concise, up-to-date and visible to individuals when they would reasonably expect it. (APP 1, APP 5, APP 6)  • 情報の収集、利用、または開示を行う具体的な機能や活動に沿って、主目的と副目的を正確に定義すること。説明は明確かつ簡潔で、最新のものであり、個人が合理的に期待するタイミングで閲覧可能でなければならない。(APP 1、APP 5、APP 6) 
Provide clear contact information and ensure meaningful support is available to individuals, including non-users. Ensure that escalation measures are in place to resolve privacy questions and that complaints processes are simple and accessible in relation to the handling of personal information. (APP 1)  明確な連絡先情報を提供し、非利用者を含む個人に対して実質的なサポートが利用可能であることを確保すること。プライバシーに関する疑問を解決するためのエスカレーション措置が整備されていること、および個人情報の取り扱いに関する苦情処理手続きが簡素かつ利用しやすいものであることを確保すること。(APP 1) 
Minimise the inclusion of personal and sensitive information in age assurance processes. Only retain enough personal information in outputs to meet defined purposes, such as to explain the measures implemented for an individual and to facilitate reviews or complaints, then destroy or de-identify on schedule. (APP 3, APP 6)  年齢確認プロセスにおける個人情報や機微情報の取り込みを最小限に抑える。出力物には、個人に対して実施された措置の説明や、審査・苦情対応の円滑化など、定められた目的を達成するために必要な最小限の個人情報のみを保持し、その後、予定通りに破棄または匿名化する。(APP 3、APP 6) 
Be thoughtful when designing consent requests for the collection of sensitive information (such as biometric templates) or for secondary use or disclosure. These should be written and designed so individuals of all abilities can understand what they are being asked to agree to and change their mind. (APP 3, APP 5)  • 機微情報(生体認証テンプレートなど)の収集、または二次利用・開示に関する同意要請を設計する際は、慎重を期すこと。これらは、あらゆる能力を持つ個人が、同意を求められている内容を理解し、意思を変更できるよう、作成・設計されなければならない。(APP 3、APP 5) 
Destroy or de-identify any inputs that have been collected immediately once the purposes of collection have been met. Personal information, including sensitive information, collected for age assurance purposes (e.g. biometric information, biometric templates, identity documents) must be destroyed once all purposes have been met. Avoid purpose ‘padding’ and ensure destruction includes caches and storage. As a matter of best practice, ringfence inputs by separating out personal information associated with age checks into a contained, secure environment. (APP 11)  収集目的が達成されたら、直ちに収集された入力データを破棄または識別する。年齢確認の目的で収集された個人情報(機微情報を含む。例:生体情報、生体認証テンプレート、身分証明書)は、すべての目的が達成された時点で破棄しなければならない。 収集目的の「水増し」を避け、破棄の対象にキャッシュやストレージも含めるようにする。ベストプラクティスとして、年齢確認に関連する個人情報を隔離された安全な環境に分離し、入力データを保護する。(APP 11) 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.02.01 欧州 EDPB データ保護デー2026:子どもの個人データをオンラインで安全に守る

・2025.11.24 ドイツ DSK 国際子どもの権利デー:子どものデータ保護改善に向けた10の提案 (2025.11.20)

・2025.10.18 欧州議会 EUには未成年者向けのオンラインサービスをより安全にするための新たな対策が必要

・2025.07.28 欧州委員会 未成年者の保護に関するガイドライン - デジタルサービス法関係(2025.07.14)

・2025.04.03 英国 ICO 金融サービスにおける子どものデータについてのレビュー報告書 (2025.04.01)

・2025.03.02 EU議会 シンクタンク 子供と生成的AI(AIネイティブ?世代)(2025.02.18)

・2025.02.13 EDPB 年齢保証 (Age Assurance) に関する声明を採択 (2025.02.11)

・2024.11.22 ノルウェー 消費者評議会 オンラインにおける児童・青少年の商業的搾取 (2024.11.14)

・2024.01.20 米国 FTC 児童オンラインプライバシー保護規則 の改正案の意見募集 (2024.01.11)

・2023.03.24 OECD 先進のプライバシー強化技術 - 現在の規制・政策アプローチ (2023.03.08)

・2023.02.19 英国 情報コミッショナー事務局 (ICO) がゲーム開発者向けに、子どもの保護に関する業界向けのガイダンスを発行

| | Comments (0)

2026.03.22

インターポール グローバル金融詐欺アセスメント 第2版 (2026.03.16)

こんにちは、丸山満彦です。

インターポールが、世界の金融詐欺の脅威に関する報告書(第2版)を公表していますね...

 

INTERPOL report warns of increasingly sophisticated global financial fraud threat インターポールの報告書、ますます巧妙化する世界的な金融詐欺の脅威を警告
Threat assessment highlights hybrid tactics, global growth in scam centres and rise in sextortion アセスメントでは、ハイブリッドな手口、詐欺拠点の世界的な拡大、およびセクストーションの増加が指摘されている
Financial fraud is now one of the world’s most severe and rapidly evolving transnational crimes, with significant economic and human consequences. 金融詐欺は現在、世界でも最も深刻かつ急速に進化する越境犯罪の一つであり、経済的・人的な面で重大な影響を及ぼしている。
The 2026 INTERPOL Global Financial Fraud Threat Assessment warns that with increased global criminal collaboration, fraud is no longer a peripheral threat, it is at the centre of polycriminality, intersecting with organized crime, human trafficking and cybercrime. 「2026年インターポール世界金融詐欺アセスメント」は、世界的な犯罪組織間の連携強化に伴い、詐欺はもはや周辺的な脅威ではなく、組織犯罪、人身取引、サイバー犯罪と交錯する多重犯罪の中心にあると警告している。
Key findings include: 主な調査結果は以下の通り:
AI-enhanced fraud is 4.5 times more profitable than traditional methods. “Agentic AI” systems can autonomously plan and execute complete fraud campaigns - from reconnaissance to ransom demands. AIを活用した詐欺は、従来の方法に比べて4.5倍の利益を生む。「エージェンティックAI」システムは、偵察から身代金要求に至るまで、詐欺キャンペーン全体を自律的に計画・実行できる。
Sextortion is now being systematically integrated into scams such as romance and investment fraud often using scripts and AI-generated content. セクストーションは現在、恋愛詐欺や投資詐欺などの手口に体系的に組み込まれており、多くの場合、台本やAI生成コンテンツが使用されている。
Criminal networks are increasingly collaborating with specialized money laundering groups and sharing expertise and technology to scale up their operations globally. ・犯罪ネットワークは、専門的な資金洗浄グループとの連携を強化し、ノウハウや技術を共有することで、世界規模での活動を拡大させている。
・In parts of Africa, terrorist groups have been found to use fraud schemes, especially crypto-based scams, as a source of funding. ・アフリカの一部地域では、テロ組織が資金源として詐欺スキーム、特に暗号資産を利用した詐欺を利用していることが判明している。
・Once a regional phenomenon, scam centres have now been identified worldwide, involving hundreds of thousands of individuals, many of whom are trafficked and forced to carry out online fraud. ・かつては地域的な現象であった詐欺拠点が、現在では世界中で確認されており、数十万人の個人が関与している。その多くは人身取引の被害者であり、オンライン詐欺の実行を強要されている。
However, the report also found that law enforcement authorities are collaborating more effectively.  しかし、同報告書は、法執行当局間の連携がより効果的になっていることも明らかにした。
Since 2024, the number of fraud-related INTERPOL Notices and Diffusions has increased by 54 per cent. Over the same period, INTERPOL supported member countries in more than 1,500 transnational fraud cases in lost assets valued at USD 1.1 billion. 2024年以降、詐欺関連のインターポール通知および情報拡散の件数は54%増加した。同期間中、インターポールは加盟国を支援し、11億米ドル相当の資産が回収された1,500件以上の国際的な詐欺事件に対処した。
INTERPOL Secretary General Valdecy Urquiza said: インターポールのヴァルデシー・ウルキサ事務局長は次のように述べた。
“Enabled by artificial intelligence, low-cost digital tools and increased global criminal collaboration, we are witnessing the industrialization of fraud. 「人工知能、低コストのデジタルツール、そして世界的な犯罪組織間の連携強化によって、詐欺の産業化が進んでいる。
“It is vital to remember that the cost of financial crime is not just money – it is people’s life savings, their dignity, and in the worst case, their life. 「金融犯罪の代償は単なる金銭ではないことを忘れてはならない。それは人々の生涯の貯蓄であり、尊厳であり、最悪の場合、命そのものである。
“Strengthening cooperation between law enforcement, the private sector and raising public awareness is key in tackling this global security threat.” 「法執行機関と民間セクター間の協力を強化し、国民の意識を高めることが、この世界的な安全保障上の脅威に対処する鍵となる。」
Untangling the financial webs around scam centres 詐欺拠点を取り巻く金融ネットワークの解明
As highlighted in the threat assessment, scam centres are growing in number and scale, targeting ever greater numbers of victims. アセスメントで指摘されているように、詐欺拠点は数と規模を拡大しており、ますます多くの被害者を標的にしている。
Although these operations are regularly shut down, the criminal leaders behind them remain hard to identify, using intermediaries and shell companies to hide their tracks and avoid detection. こうした拠点は定期的に摘発されているものの、その背後にいる犯罪組織の首謀者は、仲介業者やペーパーカンパニーを利用して足跡を隠し、検知を逃れているため、識別が困難なままである。
To close this critical gap, INTERPOL is launching Operation Shadow Storm, a new international task force funded by the United Kingdom’s Home Office as part of a unified, data-driven response. この重大な課題を解決するため、インターポールは「オペレーション・シャドウ・ストーム」を立ち上げる。これは、統一されたデータ主導型の対応の一環として、英国内務省の資金提供を受けた新たな国際タスクフォースである。
Using INTERPOL’s network and tools such as I-GRIP, a stop-payment mechanism, the task force will target not only the financial frauds generated by scam centres, but also the links to cybercrime and human trafficking for forced criminality. インターポールのネットワークや、支払停止メカニズムであるI-GRIPなどのツールを活用し、このタスクフォースは詐欺拠点によって引き起こされる金融詐欺だけでなく、サイバー犯罪や強制的な犯罪行為を伴う人身取引との関連性にも対処する。
In parallel, INTERPOL is issuing new Guidelines on the Establishment and Operation of a National Anti-Scam Centre to encourage effective models in support of national efforts to detect, disrupt and dismantle scams networks and their activities. 並行して、インターポールは「国家詐欺対策センターの設立および運営に関するガイドライン」を新たに発行し、詐欺ネットワークとその活動を検知、阻止、解体するための各国の取り組みを支援する効果的なモデルを促進する。
Summarizing successful approaches adopted by law enforcement agencies worldwide, the guidelines highlight key considerations and best practices to strengthen and better coordinate the global response.  世界各国の法執行機関が採用した成功事例をまとめた本ガイドラインは、世界的な対応を強化し、より良く調整するための重要な考慮事項とベストプラクティスを強調している。
Global Fraud Summit グローバル・フラウド・サミット
Launched on the first day of the Global Fraud Summit (16 and 17 March) – jointly organized by INTERPOL and the United Nations Office on Drugs and Crime (UNODC) – together these three initiatives aim to underpin the collective public and private sector response. インターポールと国連薬物犯罪事務所(UNODC)が共同で開催する「グローバル・フラウド・サミット」(3月16日・17日)の初日に発足したこれら3つの取り組みは、官民セクターによる共同対応を後押しすることを目的としている。
The event brings together more than 1,300 participants including government officials, law enforcement agencies, private sector leaders, tech companies and civil society organizations to explore how to work together and disrupt the systems that allow fraud to flourish. 本イベントには、政府関係者、法執行機関、民間セクターのリーダー、テクノロジー企業、市民社会組織など1,300名以上の参加者が集まり、どのように協力し、詐欺が蔓延する仕組みを阻止するかについて検討する。

 

 

・[PDF]

20260320-22742

 

Key Findings  主な調査結果 
The second edition of the INTERPOL Global Financial Fraud Threat Assessment highlights that since 2024 financial fraud targeting individuals and businesses has continued to increase in volume, innovate in modus operandi, and expand globally.  『INTERPOL世界金融詐欺リスクアセスメント』第2版は、2024年以降、個人や企業を標的とした金融詐欺が、件数において増加し続け、手口が革新され、世界的に拡大していることを強調している。
The key findings include: 主な調査結果は以下の通りである:
• Law enforcement authorities collaborating more effectively against financial fraud. Since 2024, the number of fraud-related Notices and Diffusions has increased by 54 per cent, the majority issued by European member countries. Over the same period, INTERPOL has supported member countries in more than 1,500 transnational fraud cases in lost assets valued at USD 1.1 billion.  金融詐欺対策における法執行機関間の連携がより効果的になっている。2024年以降、詐欺関連の通知および情報拡散の件数は54%増加しており、その大半は欧州加盟国によって発行されたものである。同期間中、インターポールは加盟国に対し、15億米ドル相当の資産損失を伴う1,500件以上の国境を越えた詐欺事件の対応を支援した。
• Significant global and human costs due to financial fraud. Global losses related to financial fraud in 2025 alone have been estimated at USD 442 billion.1 Beyond financial damage, individual victims commonly experience shame and psychological trauma. INTERPOL assesses the overall global risk related to financial fraud as HIGH and expects the scale of offending to escalate significantly over the next three to five years, mainly due to increased availability of AI technology and low barriers to entry.  • 金融詐欺による甚大な世界的・人的被害。2025年単年における金融詐欺関連の世界的な損失は、4,420億米ドルと推計されている¹。金銭的損害に加え、個々の被害者はしばしば羞恥心や心理的トラウマを経験する。インターポールは、金融詐欺に関連する世界的な総合リスクを「高(HIGH)」と評価しており、主にAI技術の普及と参入障壁の低さにより、今後3~5年間で犯罪規模が大幅に拡大すると予測している。
• Global spread of scam centres. Initially, scam centres emerged as a regional phenomenon. However, the trend has now evolved into a global threat, with centres discovered across multiple regions. These centres engage hundreds of thousands of people, many of whom are forced to perpetrate online frauds. To date victims from nearly 80 countries have been trafficked into online scam centres, with no continent left untouched.  • 詐欺拠点の世界的な拡散。当初、詐欺拠点は地域的な現象として現れた。しかし、この傾向は今や世界的な脅威へと発展し、複数の地域で拠点が発見されている。これらの拠点では数十万人が従事しており、その多くはオンライン詐欺を行うことを強要されている。これまでに、80カ国近くから被害者がオンライン詐欺拠点へ人身売買されており、影響を受けていない大陸はない。
• Fraud increasingly enabled by artificial intelligence tools. Dark Web marketplaces offer applications which can clone voices and faces from mere seconds of genuine audio or video samples, enabling criminals to impersonate celebrities or associates of intended victims. “Agentic AI” can autonomously plan and execute fraud campaigns from start to finish. INTERPOL reports a global surge in these AI-enhanced fraud schemes, notably sextortion, intertwined with investment scams, as well as impersonation frauds, including fake kidnappings for ransom.  • 人工知能ツールによる詐欺の増加。ダークウェブのマーケットプレイスでは、わずか数秒の本物の音声や動画サンプルから声や顔を複製できるアプリケーションが提供されており、犯罪者が有名人や標的となる被害者の知人を装うことを可能にしている。「エージェンティックAI」は、詐欺キャンペーンを最初から最後まで自律的に計画・実行できる。インターポールは、投資詐欺と絡み合ったセクストーションや、身代金目的の偽装誘拐を含むなりすまし詐欺など、こうしたAIを活用した詐欺手口が世界的に急増していると報告している。
• Criminal networks cooperating globally, sharing expertise and technology. Criminal networks perpetrating fraud adapt their illicit business models to optimize efficiency, including through collaboration with specialized money laundering networks. INTERPOL assesses these offenders as highly organized, skilled and agile.  • 犯罪ネットワークは世界的に連携し、専門知識や技術を共有している。詐欺を働く犯罪ネットワークは、専門的な資金洗浄ネットワークとの連携などを通じて、効率を最適化するために違法なビジネスモデルを適応させている。インターポールは、これらの犯罪者を高度に組織化され、熟練し、機敏であるとアセスメントしている。
• An increasing nexus between financial fraud and terrorist financing across the African region. Terrorist groups operating in the African region have been found to rely on fraud schemes for resource generation, especially via cryptobased scams • アフリカ地域全体で、金融詐欺とテロ資金供与との結びつきが強まっている。アフリカ地域で活動するテロ組織は、特に暗号資産を利用した詐欺を通じて、資金調達のために詐欺スキームに依存していることが判明している

 

目次...

Secretary General’s foreword 事務総長によるまえがき
Acknowledgement 謝辞
Key Findings 主な調査結果
Global Trends in Financial Fraud 金融詐欺の世界的動向
Introduction 序論
Financial Fraud Types and Trend Updates 金融詐欺の種類と最新の動向
Extremely High Levels of Pervasiveness, Financial Loss and Harm 極めて高い蔓延度、金銭的損失、および被害
The Continued Expansion of Scam Centres 詐欺拠点の継続的な拡大
Technology and Artificial Intelligence – A Force Multiplier テクノロジーと人工知能――戦力の増幅要因
Increasingly Hybrid Fraud Tactics and the Rise in Sextortion ハイブリッド型詐欺手口の増加とセクストーションの台頭
Financial Fraud Offender Profile 金融詐欺加害者のプロフィール
Global Risk Projections 世界的なリスク予測
Regional Financial Fraud Threats and Trends 地域別の金融詐欺の脅威と動向
Africa アフリカ
Americas and the Caribbean 南北アメリカおよびカリブ海地域
Asia and the Pacific アジア・太平洋地域
Europe ヨーロッパ
Middle East and North Africa 中東および北アフリカ
Recommendations 提言

 

提言...

Recommendations 提言
Intelligence-Led Coordination and International Cooperation 情報主導型の連携と国際協力
• Strengthen interagency police cooperation, including with financial intelligence units, regulatory bodies and customs authorities, and address fraud as a networked, transnational threat rather than a series of isolated incidents. • 金融情報機関、規制団体、税関当局を含む省庁間の警察協力を強化し、詐欺を一連の孤立したインシデントではなく、ネットワーク化された越境的な脅威として対処する。
• Direct analytical resources to map the criminal networks that enable and sustain fraudulent activity, including their cross-border operations, illicit financial flows, and the technological infrastructure on which they depend.  • 分析リソースを投入し、詐欺活動を可能にし維持する犯罪ネットワークの解明にあたる。これには、その越境活動、不正な資金の流れ、および犯罪ネットワークが依存する技術的インフラが含まれる。
Operational Support and Rapid Response 運用支援と迅速な対応
• Increase routine cooperation among member countries leveraging INTERPOL’s secure communications system, global databases, and Notices and Diffusions framework, to facilitate coordinated intelligence exchange and the tracing of illicit assets across jurisdictions. • インターポールの安全なコミュニケーションシステム、グローバルデータベース、および通知・拡散(Notices and Diffusions)の枠組みを活用し、加盟国間の日常的な協力を強化する。これにより、調整された情報交換と、管轄区域を越えた不正資産の追跡を促進する。
• Promote the implementation of coordinated rapid stop-payment and asset-freezing measures to intercept stolen funds before they can be moved or laundered, in particular INTERPOL’s I-GRIP stop payment mechanism, which enables authorities to trace, intercept and block criminal proceeds across borders.  • 盗まれた資金が移動または洗浄される前に差し押さえるため、調整された迅速な支払停止および資産凍結措置の実施を促進する。特に、当局が国境を越えて犯罪収益を追跡、差し押さえ、凍結することを可能にするインターポールのI-GRIP支払停止メカニズムを活用する。
Build Capacity amongst Investigators 捜査官の能力強化
• Enhance investigators’ capabilities to address the evolving nature of fraud and financial crime by utilizing appropriate training resources. Priority areas should include financial investigation techniques, cryptocurrency tracing, AI-generated content detection (e.g. recognizing AI-enabled fraud schemes, deepfakes, and understanding indicators that support the identification or attribution of AI-produced materials), and intelligence analysis. • 適切な研修リソースを活用し、詐欺や金融犯罪の進化する性質に対処するための捜査官の能力を強化する。優先分野には、金融捜査手法、暗号資産の追跡、AI生成コンテンツの検知(例:AIを利用した詐欺スキームやディープフェイクの認識、AI生成素材の特定や帰属を裏付ける指標の理解)、および情報分析を含めるべきである。
• Leverage INTERPOL capabilities for the deployment of specialized tools for processing large datasets and tracing digital payment flows, in order to improve data collection and the timely exchange of actionable intelligence among competent authorities.  • データ収集の改善および関係当局間での実用的な情報の適時な交換を図るため、大規模なデータセットの処理やデジタル決済フローの追跡に特化したツールの展開において、インターポールの能力を活用する。
Strengthen Legal and Regulatory Frameworks 法的・規制枠組みの強化
• Improve legal frameworks as a response to the growing threats of AI-driven and cryptocurrency[1]based fraud, criminalizing the malicious use of generative AI for impersonation, voice cloning, and associated social engineering large-scale operations. • AIを活用した詐欺や仮想通貨[1]に基づく詐欺という増大する脅威への対応として、なりすまし、音声クローン、および関連するソーシャルエンジニアリングによる大規模な作戦のための生成的AIの悪用を犯罪化することで、法的枠組みを改善する。
• Improve the regulatory oversight of virtual asset service providers, update KYC/AML procedures, real-time transaction monitoring mechanisms, and standardized reporting requirements. • 仮想資産プロバイダに対する規制監督を強化し、KYC/AML手続き、リアルタイム取引監視メカニズム、および標準化された報告要件を改善する。
Partnerships and Information Sharing パートナーシップと情報共有
• Encourage structured and routine collaboration among banks, technology companies, telecommunications operators, and law enforcement agencies, recognizing that each sector holds complementary insights into the fraud threat landscape. • 各セクターが詐欺の脅威情勢について相互に補完的な知見を有していることを認識し、銀行、テクノロジー企業、通信事業者、法執行機関間の体系的かつ日常的な連携を促進する。
• Develop formal mechanisms for timely information sharing on suspicious transactions and fraudulent platforms, supported by appropriate legal and data-protection safeguards.  • 適切な法的およびデータ保護上の安全措置を講じた上で、不審な取引や詐欺プラットフォームに関する情報を適時に共有するための正式な仕組みを構築する。
Fraud Reporting 詐欺の通報
• Develop crime reporting mechanisms as a strategic priority. A significant proportion of fraud and related crimes remain unreported. Reporting mechanisms should therefore be simple and accessible while also being highly visible to the public. • 犯罪通報メカニズムの整備を戦略的優先事項とする。詐欺および関連犯罪の相当部分が未通報のままである。したがって、通報メカニズムは簡素で利用しやすく、かつ一般市民にとって目立つものであるべきだ。
• Centralize collected data to enable the rapid identification of patterns, particularly recurring tactics such as impersonation schemes, investment fraud, and AI-enabled attacks.  • 収集したデータを一元化し、特になりすまし詐欺、投資詐欺、AIを活用した攻撃といった繰り返される手口を含むパターンの迅速な特定を可能にする。
Prevention and Public Awareness 予防と啓発
• Deliver clear and timely public warnings that include practical examples of current fraud schemes, such as scams involving AI-generated voices, fraudulent investment applications, romance manipulation, and malicious QR codes. • 生成的AIによる音声を利用した詐欺、不正な投資アプリ、恋愛詐欺、悪意のあるQRコードなど、現在の詐欺手口の実例を含めた、明確かつタイムリーな公的警告を発する。
• Prioritize outreach to the most exposed groups, through targeted and accessible communication channels.  • 標的を絞った利用しやすいコミュニケーションチャネルを通じて、最も被害を受けやすいグループへの啓発活動を優先する。
Victim Care 被害者支援
• Ensure appropriate support for the victims of fraud, noting in particular the prevalence of repeat victimisation of individuals. The provision of expert support to help victims, and those close to them, to understand what has happened and why, will promote recovery and resilience to future fraud attempts. • 特に個人が繰り返し被害に遭うケースが多いことに留意し、詐欺被害者への適切な支援を確保する。被害者やその身近な人々が、何が起こったのか、なぜそうなったのかを理解できるよう専門的な支援を提供することは、回復を促し、将来の詐欺被害に対するレジリエンスを高めることになる。
• Raise awareness and cultivate compassion among relevant authorities for the harm inflicted on victims of fraud, positively impacting their willingness to report crime and support future investigations. This includes avoiding the use of language which minimizes the crime or inadvertently assigns blame to victims. • 詐欺被害者に与えられた被害について、関係当局の認識を高め、共感を育むことで、被害者の通報意欲や今後の捜査への協力姿勢に好影響を与える。これには、犯罪を軽視したり、意図せず被害者に責任を転嫁するような言葉遣いを避けることも含まれる。

 

 


 

AIによるまとめ...

 

全体の要点(最重要まとめ)

  • 金融詐欺は世界で最も深刻な犯罪脅威の一つに成長し、近年(特に2024〜2025年)で顕著に増加。
  • AI(特に生成AI)が詐欺の“力倍増装置”となり、犯行の効率化・高度化が進行。
  • スカムセンター(詐欺拠点)が東南アジアから他地域へ拡大し、人身取引被害者が詐欺に従事させられる構造が広がる。
  • 投資詐欺・BEC(ビジネスメール詐欺)・なりすまし詐欺・セクストーションが世界的に増加。
  • 被害額は年間数千億ドル規模と推計され、心理的被害も深刻。
  • 今後3〜5年でリスクはさらに増加すると各国が認識。

 

1. 世界的な詐欺の潮流

  • 犯罪としての位置づけ
    • 金融詐欺は主要な国際組織犯罪の一つ。
    • 犯罪組織は多犯罪化(poly-criminality)し、詐欺収益を他犯罪(人身取引等)に転用。
  • 被害規模
    • 世界の被害額は年間数千億ドル規模と推計。
    • INTERPOL支援案件でも多数の損失が確認。
    • 被害者には深刻な心理的影響が生じる。

2. 犯罪手口の進化(AIが中心)

  • AIが詐欺の高度化を加速
    • 生成AIにより詐欺の自動化・効率化が進展。
    • 音声・画像の偽装(ディープフェイク)が利用される。
    • AIチャットの活用により詐欺の継続的接触が容易化。
  • ハイブリッド型詐欺の増加
    • 複数の詐欺手法を組み合わせる手口が増加。

3. スカムセンターの拡大

  • 二重の被害者構造
    • 人身取引被害者が詐欺に従事させられる構造。
    • 世界中の一般市民が被害対象。
  • 地理的拡大
    • 東南アジア中心から他地域へ拡大。

4. 主要な詐欺タイプ

  • 投資詐欺
    • 最も大きな被害額。
    • 「リカバリー詐欺」も発生。
  • BEC
    • 送金先偽装など。AI音声の利用も確認。
  • なりすまし詐欺
    • 公的機関・企業等を偽装。
  • セクストーション
    • 性的脅迫、AI生成コンテンツの利用増加。
  • ロマンス詐欺
    • 関係構築後に金銭搾取。

5. 地域別の特徴

  • 各地域で詐欺類型に差はあるが、投資詐欺・BEC・ロマンス詐欺が共通して拡大。

6. リスク予測

  • 今後3〜5年で世界的にリスクは増加。
  • AI・デジタル金融・犯罪組織の高度化が主因。

7. INTERPOLの推奨

  • 国際協力の強化
  • 法制度・技術対応の強化
  • 官民連携
  • 被害者支援
  • 予防教育

 

 

| | Comments (0)

2026.03.21

欧州議会および理事会規則案:人工知能に関する調和化された規則の実施の簡素化に関して、規則(EU)2024/1689および(EU)2018/1139を改正するもの(AIに関するデジタル・オムニバス)―欧州議会との交渉に関する委任 (2026.03.19)

こんにちは、丸山満彦です。

欧州理事会が「Digital Omnibus on AI(AI Act の実装簡素化パッケージ)」について、欧州議会との三者協議(トリローグ)開始のための交渉方針(マンデート)を公表していますね...

基本は簡素化...

 

改正の目的は3つ:

  • 規制の実行可能性の向上(標準・ガイドライン遅延への対応)
  • 企業負担の軽減(特にSME/SMC
  • 監督・執行体制の整理と強化(AI Office中心)

 

主な改正内容は次の通りのようです...

 

① 実施上の課題への対応

  • 標準化、Notified Bodyの整備、ガバナンス体制構築の遅れにより、想定以上のコンプライアンス負担が発生していると認定
  • これを踏まえ、的を絞った改正をすることになった。

SMESMCへの負担軽減

  • SME向け簡素化措置を SMC(中堅企業)にも拡張
  • 品質管理・文書化の簡易化を認める

AIリテラシー義務の見直し

  • 事業者義務から、加盟国・EUによる"促進"に緩和

④ 禁止行為の追加(NCII/CSAM

  • NCII(特定可能な人物のリアルな非同意性的描写)またはCSAMを生成・操作・複製する能力を持つAIシステムの上市・提供・使用を禁止
  • 「能力」=①意図的設計、または②予見可能・再現可能な出力かつ有効な技術的安全策がない場合

⑤ バイアス対策のためのセンシティブデータ利用の拡張

  • 高リスクAIのプロバイダだけでなく、デプロイヤーやその他AIシステムの提供者にも拡張 

⑥ 適合性評価の簡素化

  • EU製品規制の 統合評価(ワンストップ)
  • Notified Body の指定手続きの簡略化

EUデータベース登録の簡素化

  • 登録義務は維持
  • 必要情報の削減・対象の合理化 

⑧ サンドボックス・実証の拡張

  • EUレベルのサンドボックス創設
  • 実環境テストの拡大

AIオフィスの権限強化

  • GPAIモデルについて"排他的管轄"
  • 加盟国MSAとの協働も整理 

⑩ その他

  • 科学パネル手続の簡略化
  • 航空安全規則との整合
  • 既存システムの経過措置の明確化

 

などなど...

● Council of the European Union

・2026.03.19 [PDF] Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI) - Mandate for negotiations with the European Parliamen

20260320-14138

・[DOCX][PDF] 翻訳

 

| | Comments (0)

2026.03.20

米国 FBI/IC3 あなたの家のルータが犯罪者の踏み台となるのを防ぐ...(2026.03.12)

こんにちは、丸山満彦です。

FBI/IC3が家庭用ルータが犯罪者の踏み台となっていることを踏まえて、一般向けと事業者向けの警告をだしていますね...

日本は、総務省がNOTICEをしていて、経産省がJC-STARも始めて、こういう活動には先手をうっていますよね...

もちろん、警察庁も家庭用ルータに関する警告は昔からだしていますしね...

 

Internet Cyber Crime Center: IC3

一般向け

・2026.03.12 Evading Residential Proxy Networks: Protecting Your Devices from Becoming a Tool for Criminals (Alert Number: I-031226-PSA)

事業者向け
20260319-132909

| | Comments (0)

2026.03.19

警察庁 令和7年におけるサイバー空間をめぐる脅威の情勢等 (2026.03.12)

こんにちは、丸山満彦です。

 

警察庁が「サイバー空間をめぐる脅威の情勢等」について公表していますね...

ハイライトはこちら...

20260319-04625

 

 



警察庁

・2026.03.12 サイバー空間をめぐる脅威の情勢等

・・[PDF] 令和7年におけるサイバー空間をめぐる脅威の情勢等について

20260319-05012

 

不正アクセス行為の発生状況及びアクセス制御機能に関する技術の研究開発の状況

20260319-05135

 

 

 

各種統計...(2026.03.19更新)

  国家公安委員会・警察庁 法務省 公安調査庁
発行年 警察白書 統計書 サイバー空間をめぐる脅威の情勢等 不正アクセス行為の発生状況及びアクセス制御機能に関する技術の研究開発の状況 不正アクセス行為対策等の実態調査・アクセス制御機能に関する技術の研究開発の状況等に関する調査 付録 犯罪白書 サイバー空間における脅威の概況 
  PDF HTML PDF PDF PDF PDF HTML PDF
2026     令和7年 令和7年        
2025 令和7年 令和6年の犯罪 令和6年 令和6年 令和7年   令和7年  
2024 令和6年 令和5年の犯罪 令和5年 令和5年 令和6年   令和6年 2024
2023 令和5年 令和4年の犯罪 令和4年 令和4年 令和5年 令和5年 2023
2022 令和4年 令和3年の犯罪 令和3年 令和3年 令和4年 令和4年 2022
2021 令和3年 令和2年の犯罪 令和2年 令和2年 令和3年 令和3年 2021
2020 令和2年 令和元年の犯罪 令和元年 令和元年 令和2年 令和2年 2020
2019 令和元年 平成30年の犯罪 平成30年 平成30年 令和元年 令和元年  
2018 平成30年 平成29年の犯罪 平成29年 平成29年 平成30年 平成30年  
2017 平成29年 平成28年の犯罪 平成28年 平成28年 平成29年 平成29年  
2016 平成28年 平成27年の犯罪 平成27年 平成27年 平成28年   平成28年  
2015 平成27年 平成26年の犯罪 平成26年 平成26年 平成27年 平成27年  
2014 平成26年 平成25年の犯罪   平成25年 平成26年 平成26年  
2013 平成25年 平成24年の犯罪   平成24年 平成25年 平成25年  
2012 平成24年 平成23年の犯罪   平成23年 平成24年 平成24年  
2011 平成23年 平成22年の犯罪     平成23年   平成23年  
2010 平成22年 平成21年の犯罪     平成22年   平成22年  
2009 平成21年 平成20年の犯罪     平成21年   平成21年  
2008 平成20年 平成19年の犯罪     平成20年   平成20年  
2007 平成19年 平成18年の犯罪     平成19年   平成19年  
2006 平成18年 平成17年の犯罪     平成18年   平成18年  
2005 平成17年 平成16年の犯罪     平成17年   平成17年  
2004 平成16年 平成15年の犯罪     平成16年   平成16年  
2003 平成15年 平成14年の犯罪         平成15年  
2002 平成14年 平成13年の犯罪         平成14年  
2001 平成13年 平成12年の犯罪         平成13年  
2000 平成12年           平成12年  
1999 平成11年           平成11年  
1998 平成10年           平成10年  
1997 平成9年           平成9年  
1996 平成8年           平成8年  
1995 平成7年           平成7年  
1994 平成6年           平成6年  
1993 平成5年           平成5年  
1992 平成4年           平成4年  
1991 平成3年           平成3年  
1990 平成2年           平成2年  
1989 平成 元年           平成 元年  
1988 昭和63年           昭和63年  
1987 昭和62年           昭和62年  
1986 昭和61年           昭和61年  
1985 昭和60年           昭和60年  
1984 昭和59年           昭和59年  
1983 昭和58年           昭和58年  
1982 昭和57年           昭和57年  
1981 昭和56年           昭和56年  
1980 昭和55年           昭和55年  
1979 昭和54年           昭和54年  
1978 昭和53年           昭和53年  
1977 昭和52年           昭和52年  
1976 昭和51年           昭和51年  
1975 昭和50年           昭和50年  
1974 昭和49年           昭和49年  
1973 昭和48年           昭和48年  
1972             昭和47年  
1971             昭和46年  
1970             昭和45年  
1969             昭和44年  
1968             昭和43年  
1967             昭和42年  
1966             昭和41年  
1965             昭和40年  
1964             昭和39年  
1963             昭和38年  
1962             昭和37年  
1961             昭和36年  
1960             昭和35年  

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.19 警察庁 令和7年におけるサイバー空間をめぐる脅威の情勢等 (2026.03.12)

・2025.03.22 警察庁 サイバー空間をめぐる脅威の情勢等 (2025.03.13)

・2024.12.30 公安調査庁 サイバー空間における脅威の概況2024 (2024.12)

・2024.10.31 警察庁 令和5年の犯罪 (2024.10)

・2024.08.01 警察庁 令和6年警察白書 (2024.07.26)

・2023.10.31 警察庁 令和4年の犯罪 (2023.10.20)

・2023.06.08 公安調査庁 サイバー空間における脅威の概況2023 (2023.05.25)

・2023.03.17 警察庁 令和4年におけるサイバー空間をめぐる脅威の情勢等について

・2022.04.17 公安調査庁 サイバー空間における脅威の概況2022

・2022.04.12 警察庁 令和3年におけるサイバー空間をめぐる脅威の情勢等について (2022.04.07)

 

| | Comments (0)

2026.03.18

欧州委員会 生成AI時代におけるAIの職業への影響の再検討 (2026.02)

こんにちは、丸山満彦です。

欧州委員会がAIにより人の仕事がどう変わるかということについての時系列分析をしているのですが、興味深い...

基本的には全ての仕事に対して影響がでている。特に、生成AIが普及してからはそれが加速している感じ...もちろん大きな影響を受けるのは頭を使う業種...(これから人工知能付きロボットが普及すれば変わってくるでしょうが...)

社会全体に影響する話であるならば、厚労省とかでも検討しておいてもよいかもですね...

しかし、データ分析できる基盤があるのは素晴らしいですね...

 

European Commission

・2026.02 Revisiting the occupational impact of AI in the generative AI era

Revisiting the occupational impact of AI in the generative AI era 生成AI時代におけるAIの職業への影響の再検討
Generative AI is reshaping what artificial intelligence can do in the workplace, calling into question pre-GenAI assessments of which workers and tasks are most exposed. In this paper we trace the evolution of AI exposure in the European labour market from 2008 to 2024 by linking 352 AI benchmarks to 14 cognitive abilities, 108 work tasks and 127 ISCO-3 occupations, weighting benchmarks by their research intensity in the AI literature and thus deriving AI exposure by cognitive ability. Bundling work tasks into occupations based on intensity indicators, we explore occupational exposure to AI. We find that the cognitive abilities most exposed to the recent surge of AI research are ideas-related, such as attention and search, comprehension and expression and logical reasoning. Because the associated information processing and problem-solving tasks are the most transversal across occupations, we find an exponential increase in AI exposure across all occupational categories of workers, even though comparatively high-skilled occupations are more exposed than elementary occupations. This points at a substantial and transversal labour market impact of AI. 生成AIは、職場における人工知能の可能性を一新しており、どの労働者や業務が最も影響を受けやすいかという、生成人工知能以前のアセスメントに疑問を投げかけている。本稿では、352のAIベンチマークを14の認知能力、108の業務タスク、127のISCO-3職種と関連付け、AI文献における研究の集中度に応じてベンチマークに重み付けを行うことで、認知能力ごとのAIエクスポージャーを導き出し、2008年から2024年にかけての欧州労働市場におけるAIエクスポージャーの変遷を追跡する。業務タスクを強度指標に基づいて職種に集約し、職種ごとのAIへのエクスポージャーを分析した。その結果、最近のAI研究の急増に最も曝露されている認知能力は、注意力や探索、理解・表現、論理的推論といった「アイデア」に関連するものであることが判明した。関連する情報処理や問題解決タスクは職種を横断して最も普遍的であるため、比較的高技能な職種の方が初等的な職種よりもAIへのエクスポージャーが高いものの、すべての労働者職種カテゴリーにおいてAIへのエクスポージャーが指数関数的に増加していることが判明した。これは、AIが労働市場に広範かつ横断的な影響を及ぼしていることを示唆している。

・[PDF]

20260317-150310

 

すべての職種でAIからの影響度が増加しています(図7)...

20260317-150517

 

これは近年のAIの影響が、14の認知能力別に分析すると、注意と探索(必要な情報に焦点を当て、不要情報を無視する)が特に伸びているように見えますが、これは多くの業務に共通的な認知能力なのだからかもしれません...(図10)

20260317-151051

ID Cognitive abilities
認知能力(意味)
CO Communication コミュニケーション(情報を伝える・受け取る能力)
EC Emotion and self-control 感情と自己制御(他者の感情理解・自己感情の調整)
MC Metacognition and confidence assessment メタ認知と自己評価(自分の能力・限界を把握する)
MS Mind modelling and social interaction 心の理論と社会的相互作用(他者の意図・信念を推測する)
AS Attention and search 注意と探索(必要な情報に焦点を当て、不要情報を無視する)
CE Comprehension and expression 理解と表現(言語理解・要約・文章生成)
CL Conceptualisation, learning and abstraction 概念化・学習・抽象化(例から学び、抽象化し、知識を蓄積する)
MP Memory processes 記憶プロセス(情報の保存・検索、長期記憶・外部記録の活用)
PA Planning, sequential decision-making and acting 計画・意思決定・行動(因果理解・最適行動の選択)
QL Quantitative and logical reasoning 数量的・論理的推論(数理・確率・論理推論)
AP Auditory processing 聴覚処理(音声・音の理解、雑音下での識別)
NV Navigation ナビゲーション(空間移動・安全な経路選択)
SI Sensorimotor interaction センサー・運動統合(身体や道具を使った操作・感覚統合)
VP Visual processing 視覚処理(画像・映像の認識、物体識別)

 

 

情報処理、分析、推論のタスクの伸びが大きく、身体的なタスクの伸びはそれほど高くない...(図11)

20260317-152920

 

 

 

 

| | Comments (0)

米国 NIST SP 800-228 更新版 クラウドネイティブシステム向けAPI防御ガイドライン (2026.03.13)

こんにちは、丸山満彦です。

NISTが、SP 800-228 クラウドネイティブシステム向けAPI防御ガイドライン。昨年6月に公開されたバージョンの更新版。附属書D:リスクカテゴリー別APIリスク一覧、附属書E:API ライフサイクル段階別推奨セキュリティ制御リストが追加されています...

API はソフトウェアの一部だけど、外から見える場合も多いし、攻撃面が広いから、DevSecOps を高いレベルで徹底しないと危ないよということですかね...

 

NIST - ITL

・2026.03.13 NIST SP 800-228 Guidelines for API Protection for Cloud-Native Systems

 

NIST SP 800-228 Guidelines for API Protection for Cloud-Native Systems NIST SP 800-228 クラウドネイティブシステム向けAPI防御ガイドライン
Abstract 要約
Modern enterprise IT systems rely on a family of application programming interfaces (APIs) for integration to support organizational business processes. Hence, a secure deployment of APIs is critical for overall enterprise security. This, in turn, requires the identification of risk factors or vulnerabilities in various phases of the API life cycle and the development of controls or protection measures. This document addresses the following aspects of achieving that goal: (a) the identification and analysis of risk factors or vulnerabilities during various activities of API development and runtime, (b) recommended basic and advanced controls and protection measures during the pre-runtime and runtime stages of APIs, and (c) an analysis of the advantages and disadvantages of various implementation options for those controls to enable security practitioners to adopt an incremental, risk-based approach to securing their APIs. 現代のエンタープライズITシステムは、組織のビジネスプロセスを支えるための統合において、一連のアプリケーション・プログラミング・インターフェース(API)に依存している。したがって、APIの安全な展開は、エンタープライズ全体のセキュリティにとって極めて重要である。これには、APIライフサイクルの各段階におけるリスク要因や脆弱性の特定、および制御策や保護措置の策定が必要となる。本文書は、その目標を達成するための以下の側面について扱う:(a) APIの開発および実行時の様々な活動におけるリスク要因や脆弱性の特定と分析、(b) APIの実行前および実行段階における推奨される基本的および高度な制御および保護措置、ならびに(c) セキュリティ担当者がAPIのセキュリティ確保に向けて段階的かつリスクベースのアプローチを採用できるようにするための、それらの制御に関する様々な実装オプションの長所と短所の分析。

 

・[PDF] NIST.SP.800-228-upd1

20260317-90114

・[DOCX][PDF] 仮訳

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
Application programming interfaces (APIs) provide the means to integrate and communicate with the modern enterprise IT application systems that support business processes. However, a lack of due diligence can introduce vulnerabilities and risk factors that exploit the connectivity and accessibility features of APIs. If these vulnerabilities are not identified, analyzed, and addressed through control measures, attack vectors could threaten the security posture of the application systems spanned by these APIs. A systematic and effective means of identifying and addressing these vulnerabilities is only possible by treating the development and deployment of APIs as an iterative life cycle using paradigms like development, security, and operations (DevSecOps).  アプリケーション・プログラミング・インターフェース(API)は、ビジネスプロセスを支える現代のエンタープライズITアプリケーションシステムとの統合およびコミュニケーション手段を提供する。しかし、十分な注意を払わないと、APIの接続性やアクセシビリティの機能を悪用する脆弱性やリスク要因が生じる可能性がある。これらの脆弱性が特定・分析されず、制御措置によって対処されない場合、攻撃ベクトルが、これらのAPIによって接続されたアプリケーションシステムのセキュリティ態勢を脅かす恐れがある。 これらの脆弱性を識別し対処するための体系的かつ効果的な手段は、APIの開発と展開を、開発、セキュリティ、運用(DevSecOps)といったパラダイムを用いた反復的なライフサイクルとして扱うことによってのみ可能となる。 
This document provides guidelines and recommendations on controls and protection measures for secure API deployments in the enterprise. In addition, an analysis of the advantages and disadvantages of various implementation options (called patterns) for those controls enable security practitioners to choose the most effective option for their IT ecosystem.  本書は、エンタープライズにおける安全なAPI展開のための制御および防御措置に関するガイドラインと推奨事項を提供する。さらに、それらの制御に対する様々な実装オプション(パターンと呼ばれる)の長所と短所を分析することで、セキュリティ担当者は自社のITエコシステムに最も効果的なオプションを選択できるようになる。 
Developing these controls and analyzing their implementation options should be guided by several overarching principles:  これらの制御策の策定および実装オプションの分析にあたっては、以下の包括的な原則に従うべきである: 
• The guidance for controls should cover all APIs, regardless of whether they are exposed to customers/partners or used internally within the enterprise.  • 制御に関するガイダンスは、顧客やパートナーに公開されているか、あるいはエンタープライズ内で内部的に使用されているかを問わず、すべてのAPIを対象とするべきである。 
• With the vanishing of perimeters in modern enterprise IT applications, all controls should incorporate the concept of zero trust.  • 現代のエンタープライズITアプリケーションにおいて境界が消失しつつあるため、すべての制御にはゼロトラストの概念を組み込むべきである。 
• The controls should span the entire API life cycle and be classified into (a) pre-runtime protections and (b) runtime protections that are then subdivided into basic and advanced protections to enable incremental risk-based adoption.  • コントロールはAPIのライフサイクル全体にわたり、(a) 実行前防御と (b) 実行時防御に分類されるべきであり、実行時防御はさらに基本防御と高度な防御に細分化され、リスクベースの段階的な導入を可能にする必要がある。 

 

目次...

Executive Summary エグゼクティブサマリー
1. Introduction 1. 序論
1.1. Zero Trust and APIs: The Vanishing Perimeter 1.1. ゼロトラストとAPI:消えゆく境界線
1.2. API Life Cycle 1.2. APIライフサイクル
1.3. Document Goals 1.3. 文書の目的
1.4. Relationship to Other NIST Documents 1.4. 他の NIST 文書との関係
1.5. Document Structure 1.5. 文書の構成
2. API Risks: Vulnerabilities and Exploits 2. APIのリスク:脆弱性と悪用
2.1. Lack of Visibility of APIs in the Enterprise Inventory 2.1. エンタープライズ・インベントリにおけるAPIの可視性の欠如
2.2. Missing, Incorrect, or Insufficient Authorization 2.2. 欠落、不正確、または不十分な認可
2.3. Broken Authentication 2.3. 認証の欠陥
2.4. Unrestricted Resource Consumption 2.4. 制限のないリソース消費
2.4.1. Unrestricted Compute Resource Consumption 2.4.1. 制限のないコンピューティングリソースの消費
2.4.2. Unrestricted Physical Resource Consumption 2.4.2. 物理リソースの無制限な消費
2.5. Leaking Sensitive Information to Unauthorized Callers 2.5. 権限のない呼び出し元への機密情報の漏洩
2.6. Insufficient Verification of Input Data 2.6. 入力データの不十分な検証
2.6.1. Input Validation 2.6.1. 入力の妥当性確認
2.6.2. Malicious Input Protection 2.6.2. 悪意のある入力に対する防御
2.7. Credential Canonicalization: Preparatory Step for Controls 2.7. 認証情報の正規化:制御のための準備段階
2.7.1. Gateways Straddle Boundaries 2.7.1. 境界にまたがるゲートウェイ
2.7.2. Requests With a Service Identity But No User Identity 2.7.2. サービスIDはあるがユーザーIDがないリクエスト
2.7.3. Requests With a User Identity But No Service Identity 2.7.3. ユーザーIDはあるがサービスIDがないリクエスト
2.7.4. Requests With Both User and Service Identities 2.7.4. ユーザーとサービスの両方のIDを含むリクエスト
2.7.5. Reaching Out to Other Systems 2.7.5. 他のシステムへの接続
2.7.6. Mitigating the Confused Deputy 2.7.6. 「Confused Deputy」の緩和
2.7.7. Identity Canonicalization 2.7.7. アイデンティティの正規化
3. Recommended Controls for APIs 3. API に対する推奨対策
3.1. Pre-Runtime Protections All API controls must be well-defined and inventoried. 3.1. 実行前防御すべてのAPI制御は明確に定義され、一覧化されなければならない。
3.1.1. Basic Pre-Runtime Protections 3.1.1. 基本的な実行前防御
3.1.2. Advanced Pre-Runtime Protections 3.1.2. 実行前の高度な防御措置
3.2. Runtime Protections For runtime protections for APIs, apply zero trust principles as a baseline, and augment them with additional policy on requests and their payloads. 3.2. 実行時防御APIの実行時防御については、ゼロトラストの原則を基本とし、リクエストとそのペイロードに対する追加のポリシーでこれを補強する。
3.2.1. Basic Runtime Protections 3.2.1. 基本的な実行時防御
3.2.2. Advanced Runtime Protections 3.2.2. 高度な実行時防御
4. Implementation Patterns and Trade-Offs for API Protections 4. API防御のための実装パターンとトレードオフ
4.1. Centralized API Gateway 4.1. 集中型APIゲートウェイ
4.2. Hybrid Deployments 4.2. ハイブリッド展開
4.3. Distributed Gateway Pattern 4.3. 分散ゲートウェイパターン
4.4. Related Technologies 4.4. 関連技術
4.4.1. Web Application Firewalls 4.4.1. Webアプリケーションファイアウォール
4.4.2. Bot Detection 4.4.2. ボット検知
4.4.3. Distributed Denial of Service (DDoS) Mitigation 4.4.3. 分散型サービス拒否(DDoS)攻撃の緩和
4.4.4. API Endpoint Protection 4.4.4. APIエンドポイント防御
4.4.5. Web Application and API Protection (WAAP) 4.4.5. WebアプリケーションおよびAPI防御(WAAP)
4.5. Summary of Implementation Patterns 4.5. 実装パターンの概要
5. Conclusions and Summary 5. 結論と要約
References 参考文献
Appendix A. API Classification Taxonomy 附属書A. API分類の分類体系
A.1. API Classification Based on Degree of Exposure A.1. エクスポージャーに基づくAPI分類
A.2. API Classification Based on Communication Patterns A.2. コミュニケーションパターンに基づくAPIの分類
A.3. API Classification Based on Architectural Style or Pattern (API Types) A.3. アーキテクチャスタイルまたはパターンに基づくAPIの分類(APIの種類)
A.4 API Classification Based on Data Sensitivity A.4 データの機密性に基づく API の分類
Appendix B. DevSecOps Phases and Associated Classes of API Controls 附属書 B. DevSecOps のフェーズと関連する API 制御のクラス
Appendix C. Limit Types Configured During Runtime 附属書 C. 実行時に設定される制限タイプ
Appendix D. List of API Risks by Risk Categories 附属書D. リスクカテゴリー別APIリスク一覧
Appendix E. List of Recommended Security Controls by API Lifecycle Stage 附属書 E. API ライフサイクル段階別推奨セキュリティ制御リスト
Appendix F. Change Log 附属書F. 変更履歴

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.07.04 米国 NIST SP 800-228 クラウドネイティブシステムのための API 保護に関するガイドライン (2025.06.27)

・2025.03.26 米国 NIST SP 800-228(初期公開ドラフト)クラウドネイティブシステムのAPI防御ガイドライン

| | Comments (0)

2026.03.17

英国 ケンブリッジ人工知能の法、倫理、政策ハンドブック

こんにちは、丸山満彦です。

ケンブリッジ大学出版局が、人工知能の法、倫理、政策ハンドブックを公表しています。460ページにも及ぶ大作...

Cambridge Unviersity Press

・2026.02.05 The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

・[PDF]

20260316-215141

 

 

 

表題はこんな感じ...

# Title タイトル
第一部 AI, Ethics and Philosophy
基礎と倫理
序論 Beyond the Hype: Why We Need a Multidisciplinary Perspective on AI ハイプを超えて:なぜAIに多角的な視点が必要なのか
第1章 The Technical Foundations of AI: Machine Learning and Logic AIの技術的基礎:機械学習と論理
第2章 The Philosophy of AI: Between Hopes and Fears AIの哲学:希望と恐怖の間で
第3章 The Ethics of AI: From Principles to Practice AIの倫理:原則から実践へ
第4章 Fairness and AI: A Multi-dimensional Challenge 公平性とAI:多次元的な課題
第5章 Responsibility and AI: Bridging the Gap between Law and Ethics 責任とAI:法と倫理の溝を埋める
第6章 Sustainability and AI: Environmental and Social Dimensions 持続可能性とAI:環境的および社会的側面
第2部 AI, Law and Policy 法規制と制度
第7章 Data Protection and AI: GDPR as a Facilitator データ保護とAI:促進者としてのGDPR
第8章 Tort Law and AI: Liability for Damage Caused by AI Systems 不法行為法とAI:AIシステムによって引き起こされた損害の責任
第9章 Competition Law and AI: Algorithmic Collusion and Personalized Pricing 競争法とAI:アルゴリズムによる協調行為とパーソナライズされた価格設定
第10章 Consumer Protection and AI: Addressing Structural Vulnerabilities 消費者保護とAI:構造的脆弱性への対処
第11章 Intellectual Property and AI: A Human-Centric Perspective 知的財産とAI:人間中心の視点
第12章 The EU AI Act: A Critical Analysis EU AI法:批判的分析
第3部 AI across Sectors
セクター別の応用
第13章 Education and AI: Replacing or Empowering the Learner? 教育とAI:学習者を代替するのか、能力を強化するのか?
第14章 Media and AI: Opportunities and Risks in the Digital Public Sphere メディアとAI:デジタル公共圏における機会とリスク
第15章 Health and AI: Secondary Use of Data and Patient Autonomy 医療とAI:データの二次利用と患者の自律性
第16章 Finance and AI: Credit Scoring and Algorithmic Bias 金融とAI:クレジット・スコアリングとアルゴリズムのバイアス
第17章 Work and AI: Challenges for Labour Law 労働とAI:労働法への課題
第18章 Policing and AI: The Case of Predictive Policing 警察活動とAI:予測警察の事例
第19章 Public Administration and AI: Algorithmic Decision-Making and Due Process 行政とAI:アルゴリズムによる意思決定と適正手続き
第20章 War and AI: Lethal Autonomous Weapon Systems and International Humanitarian Law 戦争とAI:致死性自律型武器システムと国際人道法

 

ざっと斜め読みしかしていないけど、これだけ集めても語られていない論点はいくつもある。急速な技術の進歩に社会の仕組みが悲鳴をあげている感じがする...

説明可能性を高めることがまずは重要ですね...技術に偏りすぎないことが重要ですね。..

AIに各章の要約をつくってもらいました...

 

序論 ハイプを超えて:なぜAIに多角的な視点が必要なのか AIは歴史的・社会的文脈から切り離せず、そのガバナンスは既存の法的枠組みと倫理的洞察を動員し、多層的・学際的に行うべきである。単なる技術的解決や新法万能論に陥らず、人間の行動と社会の価値に焦点を当てた統治が必要である。 AIはダートマス会議から約70年の歴史を持つが、近年の生成AIの隆盛により真の「AIブーム」を迎えている。しかし著者は、AIの歴史が古代の自動人形神話にまで遡ること、そしてAIが多くの技術の一つに過ぎないことを指摘し、過度な「ハイプ」に警鐘を鳴らす。AIを完全に新規で特別な現象として扱うことは、過去のガバナンス経験から学ぶ機会を逃すだけでなく、AIを抽象的で不可避的なものとして捉え、その具体的な構成要素(コード、データ、CPU、そして人間)を見えにくくすると主張する。また、AIは社会に埋め込まれており、相互形成プロセスを通じて社会に影響を与えるため、その影響を法・倫理・政策によっていかに統治し、中核的価値(人権、民主主義、法の支配)を保護するかが中心的課題であると述べる。本書は欧州に焦点を当て、AIの哲学的・倫理的基盤(第I部)、法的・政策的枠組み(第II部)、そして各セクターにおける応用(第III部)の三部門から構成され、学際的かつ包括的な理解を提供することを目的としている。
第1章 AIの技術的基礎:機械学習と論理 機械学習と推論は相互補完的であり、信頼できるAIのためには、精度だけでなく説明可能性と堅牢性が不可欠である。技術者はこれらの要件を設計段階から組み込むべきであり、また、その限界を認識する必要がある。 本章はAIの技術的基盤として、機械学習と機械推論の二つの領域を解説する。機械学習とは、Tom Mitchellの定義に従えば「特定のタスクにおけるパフォーマンスが経験によって向上する」ことであり、チェッカーや囲碁のプログラムがその典型例である。機械学習は学習される関数のタイプ(深層関数、記号関数、ベイズ関数)とフィードバックのタイプ(教師あり学習、強化学習、教師なし学習)によって分類される。一方、機械推論とは「新たな質問に答えるための既存知識の代数的操作」であり、論理的推論と確率的推論の二つが主要なパラダイムである。推論は知識駆動型であり、本質的に説明可能なAIを提供する。著者らは、複雑なソフトウェアを手動でプログラミングすることが不可能な場合や、多様な質問に柔軟に対応する必要がある場合に、これら二つのアプローチの統合が重要であると指摘する。さらに、信頼できるAIのためには、説明可能性(XAI)や堅牢性(敵対的事例への耐性、 fairness)が不可欠であり、これらは単なるパフォーマンス指標を超えた評価軸であると結論づける。
第2章 AIの哲学:希望と恐怖の間で AIの哲学は、単にAIを分析するだけでなく、人間の知性、意識、責任といった伝統的哲学概念を新たな視点から理解する方法を提供する。AIは哲学の実験室であり、哲学はAIの設計指針を与える双方向的関係にある。 本章は、AIの哲学を「AIとは何か」「AIは何ができるか」「AIはどうあるべきか」という三つのカント的問いから整理する。古典的なAI(強いAI)は、知性が記号的表現に基づくルールベースの計算として理解できるという前提に立つが、現在の技術的AI(機械学習等)はこの前提から乖離している。知性とは「幅広い環境で目標を達成する能力」と定義され、これは環境に相対的な概念である。計算主義(認知=計算)は強いAIの基盤だが、物理的実装と抽象的アルゴリズムの区別、そして「意味」の問題が哲学的課題として残る。本章では知覚と行動のループ、予測処理、4E認知(身体的・埋め込まれた・行為的・拡張された)といった認知科学の知見を導入し、従来の受動的な知覚観を批判する。さらに、中国語の部屋論証を通じて、単なる記号操作では意味が生まれないこと、意図性には因果的接続が必要であることを論じる。合理的選択理論は期待効用の最大化を規範とするが、現実のエージェントは限られたリソース( bounded rationality)の中で判断しており、フレーム問題(何が関連するかを決める問題)は依然として重要である。自由意志と責任については、決定論と両立論の観点から、責任の帰属条件としての自由意志の機能を考察する。意識については、アクセス意識と現象意識の区別を導入し、物理的性質に還元されない現象意識の哲学的難問を提示する。最後に、AIが単なる手段的知性を超えて、目標そのものを内省する規範性の問題を提起する。
第3章 AIの倫理:原則から実践へ 抽象的な倫理原則を掲げるだけでは不十分であり、倫理を具体的な設計要件に変換する方法論(Design for Values)が不可欠である。そのためには、哲学的概念分析と工学的実装をつなぐ学際的協働が決定的に重要である。 本章は、AIがもたらす倫理的課題に対処する方法として、伝統的倫理理論(徳倫理、帰結主義、義務論)の限界を指摘し、より実践的な「Design for Values」アプローチを提案する。AIシステムは従来の技術と比較して、より高度な行為主体性(自律的な決定・行動)と認識論的 opacity(不透明性)を持ち、これが責任ある開発・展開を困難にしている。具体例として、採用AIによる差別、クレジットスコアリングの偏り、福祉給付詐欺検出システムによるオランダ政府辞職事件などが挙げられ、これらの問題は技術単体ではなく、それを取り巻く社会技術的システム全体に起因する。伝統的倫理理論は重要な「感度を高める概念」を提供するが、具体的な設計指針には欠ける。そこで必要となるのが、特定の価値(公平性、責任、説明可能性など)に関するより詳細な哲学的説明と、それを設計要件に変換する方法論である。Design for Valuesアプローチは、(1)ステークホルダーから価値を特定し(経験的作業)、(2)その価値を規範的に正当化し(哲学的作業)、(3)価値を規範に、さらに設計要件に翻訳し、(4)実装後に評価する、という反復的プロセスを含む。このアプローチは学際的協働を前提とし、価値観の変化や予期せぬ影響にも対応できる適応性が求められる。
第4章 公平性とAI:多次元的な課題 公平性は単一の定義に還元できず、手続き的側面と実質的側面の両方から不断に問い直されるべきである。技術的公平性指標に頼るだけでは、関係的不正義や構造的差別を見逃す危険があり、多様な声に開かれた民主的プロセスが必要である。 本章は、AIガバナンスにおいて中心的原則とされながらも多義的な「公平性」概念を、手続き的公平性と実質的公平性の区別から分析する。手続き的公平性は、恣意性の排除として理解され、(1)予測可能性、(2)事前規則による拘束、(3)合理性(理由の提示)という三つの側面から検討される。しかし、AIは相関関係に基づく判断を無数に生成できるため、これらの手続き的条件を満たすだけでは十分ではない。実質的公平性は、手続きの背後にある政治的・道徳的見解(例:どのような社会的格差が正当化されるか)を明確にし、それに基づいて手続きを評価することを求める。本章はロールズの「公正としての正義」を導入し、分配的正義の観点からAIが社会的弱者の不利益を固定化・増幅するリスクを指摘する。しかし同時に、分配的アプローチだけでは不十分であり、関係的公正(relational justice)の視点が重要であると論じる。AIは単なる分配メカニズムではなく、人々の関係性、権力構造、文化的解釈を媒介するため、文化的帝国主義やステレオタイプの固定化といった関係的不正義を引き起こす可能性がある。最後に、公平性の技術的解決(fairness metrics)の限界を指摘し、技術的解決主義(techno-solutionism)への警告を発する。公平性は設計段階だけで達成されるものではなく、社会構造や生きた経験に根ざした継続的プロセスであり、多様な声に開かれた民主的討議が不可欠であると結論づける。
第5章 責任とAI:法と倫理の溝を埋める 自律的AIによる損害について「誰も責任を負えない」という主張は誤りである。ユーザーはリスクを予見可能であり、自らの選択でAIを利用する以上、道徳的責任を負う。仮に責任のギャップがあっても、予防と尊厳の回復は別の手段で可能である。 本章は、自律的AIシステムが引き起こす損害について、誰も責任を負えない「責任のギャップ」が存在するという主張を批判的に検討する。まず、責任の概念を因果的責任、道徳的責任、役割責任に区別し、議論の対象が道徳的責任であることを明確にする。責任のギャップ論者は、AIの自律性と学習能力により、開発者やユーザーがシステムの行動を制御できないため、道徳的責任を問えないと主張する。しかし著者らは、AI自体に道徳的責任を帰属させる可能性を検討した上で(現在のAIには感覚能力がなく無理だが、将来的には否定できない)、むしろ人間の側の責任が依然として存在すると論じる。道徳的責任の条件(因果的関与、自律性、知識)を満たせば、たとえ制御が及ばなくとも責任は生じる。例えば、発作のリスクを知りながら運転する者は、発作で事故を起こせば責任を負う。同様に、自律型兵器や自動運転車のユーザーは、起こりうる結果を予見可能であり(正確なタイミングや場所は予測できなくとも、事故の種類は予測可能)、自らの選択でリスクを受容しているため、道徳的責任を負う。さらに、仮に責任のギャップが存在したとしても、それは必ずしも問題ではない。責任帰属の目的は予防と被害者の尊厳の象徴的承認にあるが、予防は技術的介入によっても達成可能であり、尊厳の承認は責任帰属以外の手段(例:葬儀)でも可能だからである。
第6章 持続可能性とAI:環境的および社会的側面 AIの持続可能性は、環境負荷(炭素排出、資源採掘)と社会的公正(権力非対称性、差別)の両面から捉えるべきである。表面的な「AI for Good」論を超え、AI産業の裏側にある不公正を可視化し、変革する視点が必要である。 本章は、AIと持続可能性の関係を二側面から分析する。第一に「持続可能性のためのAI」、すなわちAIが気候変動対策やSDGs達成に貢献する可能性(例:衛星画像による森林伐採の監視、スマートシティでのエネルギー最適化)である。第二に「AIの持続可能性」、すなわちAI自体の開発・運用が環境や社会に与える負の影響である。AIモデルの訓練には膨大な炭素排出を伴い、鉱物採掘や水資源消費、電子廃棄物の問題も無視できない。さらに、偏った訓練データによる差別の固定化、監視社会の進展、選挙介入といった社会的影響も「持続可能性」の一部として捉えるべきである。著者らは、持続可能なAIの概念を「生態学的完全性と社会的正義に向けたAI製品のライフサイクル全体の変革を促進する運動」と定義する。この視点から見えるのは、AIの背後にある権力非対称性である。例えば、データ汚染(data pollution)という比喩は、ビッグデータ経済の負の外部性(プライバシー侵害、差別)を環境汚染になぞらえ、権力構造を可視化する。著者らは「データ倫理の権力分析」(data ethics of power)を提唱し、ミクロ(設計)、メゾ(組織・制度)、マクロ(地政学・歴史)の三層でAIの権力動態を分析する必要性を説く。持続可能なAIは、現在の慣行を単に維持するのではなく、修復し変革することを含意し、将来世代に対する intergenerational justice の観点からも重要な課題である。
第7章 データ保護とAI:促進者としてのGDPR GDPRはAIの発展を阻害するものではなく、必要かつ比例的なバランスを取るための柔軟な枠組みを提供する。重要なのは、技術者と法曹の協働により、抽象的な法原則を具体的な設計に落とし込む解釈実践である。 本章は、欧州の一般データ保護規則(GDPR)とAIシステムの関係を包括的に解説する。GDPRは技術中立的な法であり、AIのような新技術にも適用されるが、その抽象的な規定ゆえに解釈には困難が伴う。まず、GDPRの適用範囲を確定するため、「個人データ」の概念を詳細に分析する。個人データとは「識別され得る自然人に関する情報」であり、識別可能性は「合理的に用いられる可能性のある手段」を基準に判断される(Breyer判決)。AIシステムでは、訓練段階、モデル自体、推論段階のいずれにおいても個人データが処理される可能性があり、匿名化は容易ではない。次に、管理者(controller)と処理者(processor)の役割分担を論じ、AIシステムの複雑なサプライチェーンにおいては「段階志向アプローチ」(phase-oriented approach)で責任を割り当てる必要があると指摘する。実体的な論点としては、(1) 目的外利用の制限:AIの訓練は当初収集目的と「両立可能」か、という問題(Clearview AI事件)、(2) 透明性と説明可能性:GDPR22条の「完全に自動化された決定」の意義と「説明を受ける権利」の解釈、(3) リスクベース・アプローチと説明責任:データ保護影響評価(DPIA)の義務と、AIシステム特有のリスク(差別、バイアス)への対応、を論じる。結論として、GDPRはAIの展開を妨げるものではなく、必要性と比例性のバランスを取るための柔軟な枠組みを提供するが、その解釈と適用には学際的協力が不可欠であると述べる。
第8章 不法行為法とAI:AIシステムによって引き起こされた損害の責任 AIによる損害の責任は、国内法の重要性を無視してEUレベルだけで解決できるものではない。手続き的救済(証拠開示、推定規定)は前進だが、その解釈は各国裁判所に委ねられており、法的断片化のリスクに注意が必要である。 本章は、AIによって引き起こされる損害に対する不法行為責任(特に EU における対応)を論じる。AI の特徴(複雑性、自己学習能力、不透明性、予測困難性)は、伝統的な不法行為法の概念に挑戦を突きつける。第一に、国内法の重要性が依然として高い。EU レベルでは AI 責任指令案と改正製造物責任指令案が提案されているが、これらの指令は多くの概念を国内法・国内裁判所の解釈に委ねており、法的断片化のリスクがある。第二に、手続き的要素が重要である。被害者は、ブラックボックス化した AI システムについて、責任主体の特定、欠陥の証明、因果関係の立証が困難である。これに対し、AI 責任指令案は証拠開示義務(disclosure of evidence)と因果関係の推定(rebuttable presumption)を導入する。改正製造物責任指令案も、欠陥と因果関係の推定規定を設け、立証負担を軽減する。第三に、伝統的な不法行為概念の AI への適用困難性がある。(1) 「製品」概念:ソフトウェア単体が製造物責任指令の「製品」に該当するかという問題に対し、改正指令はソフトウェアを明示的に含めた。(2) 「欠陥」概念:消費者の正当な安全期待(legitimate expectations)という基準は、AI の新規性・複雑性ゆえに適用が難しい。改正指令は、継続的学習能力の影響を考慮要素に加えた。(3) 「過失」概念:AI 責任指令が用いる「注意義務(duty of care)」は、国内法の伝統的な過失概念(主観的要素+客観的要素)と整合しない可能性がある。結論として、AI と不法行為法の課題に対処するには、学際的アプローチ(例:政策プロトタイピング)が今後ますます重要になると指摘する。
第9章 競争法とAI:アルゴリズムによる協調行為とパーソナライズされた価格設定 競争法はアルゴリズムによる協調行為の多くを既に捕捉可能だが、自律的アルゴリズムによる暗黙の協調は伝統的な「オリゴポリー問題」と同様に難しい。今後の課題は、法・経済・技術の知見を統合し、実効的な執行手段を開発することである。 本章は、アルゴリズム(特に価格設定アルゴリズム)が競争法に与える影響を分析する。価格の透明性向上は、消費者にとっては価格比較を容易にする一方、事業者にとっては競合他社の価格監視を容易にし、協調的行為(collusion)を促進する可能性がある。本章は、水平カルテルと垂直的制限に分けて検討する。水平カルテルでは三つのシナリオがある。(1) 事前合意をアルゴリズムで実施する場合(例:ポスター事件)は伝統的競争法で捕捉可能。(2) 共通のアルゴリズム(例:Uber の価格設定、RealPage の賃料設定ソフト)を用いる場合(ハブ・アンド・スポーク型)は、Eturas 事件の法理(受動的参加、反証可能な推定)が適用可能だが、効率性による正当化(101条3項)の余地もある。(3) 各社が独自の価格アルゴリズムを用い、結果的に協調的均衡に達する場合(暗黙の協調)は、伝統的な「オリゴポリー問題」と同様、101条の捕捉範囲外となる可能性が高い。垂直的制限では、オンライン小売価格の固定(RPM)が監視ソフトウェアの活用で強化される事例(Asus、Samsung 事件)を紹介する。濫用(支配的地位の濫用)については、排他的行為としての自己優遇(Google Shopping事件)と、搾取的行為としての個人別価格設定(personalized pricing)を論じる。個人別価格設定は競争法だけでは十分に対処できず、GDPR、消費者法、DMA、DSA、AI法など複数の法規の重層的適用が必要である。結論として、アルゴリズムによる協調が現実の市場条件でどの程度発生するかは未解明であり、法的枠組みの適応には法・経済・技術の学際的協力が不可欠であると述べる。
第10章 消費者保護とAI:構造的脆弱性への対処 AI時代の消費者は「構造的脆弱性」に置かれており、従来の情報提供モデルでは保護しきれない。消費者法、競争法、データ保護法の連携強化と、ダークパターンなど具体的害悪に対応する明確な規制が急務である。 本章は、AIが消費者に与える機会とリスクを概観し、EU消費者法の現状と課題を分析する。AIは消費者にとって、エネルギー最適化、詐欺検出、情報翻訳などの恩恵をもたらす一方、偏った情報・アドバイス、操作的なデザイン(ダークパターン)、個人別価格設定など、自律性と自己決定を損なうリスクも孕む。消費者法の根本的前提(合理的消費者、情報提供による保護)は、AI時代において根本的な見直しを迫られている。特に「平均的消費者」というベンチマークは、認知バイアスの現実を無視しており、AIによる操作可能性の高まりに耐えられない。また、デジタル脆弱性(digital vulnerability)は従来の脆弱性概念(年齢・障害など)を拡張し、ほぼすべての消費者が状況的に脆弱になりうることを示す。消費者法、競争法、データ保護法のサイロ(縦割り)からの脱却も必要である(例:Meta(旧Facebook)事件)。既存の消費者保護指令(UCPD、CRD、UCTD、CSD/DCSD)は、開かれた規範を用いてAIの悪用に対抗する可能性を持つが、解釈の不確実性が課題である。新たな立法(DMA、DSA、AI法)は追加的な保護を提供するが、その射程や執行方法には限界がある。特にダークパターンを事例に、現行法の適用可能性と限界を示す。結論として、AI時代の消費者保護には、情報提供モデルを超えたより強力な規制と、消費者の意識向上への継続的努力が不可欠であると主張する。
第11章 知的財産とAI:人間中心の視点 AIと知的財産法の関係では、人間中心主義の枠組みを性急に放棄すべきではない。AIの発展に合わせて制度を調整する必要はあるが、「創作者は人間」という根本原則を変えるには、説得的な経済的証拠と国際的合意が不可欠である。 本章は、AIと知的財産法の複雑な関係を、主にEU法の観点から分析する。第一に、AI技術自体の保護手段として、特許法と著作権法の可能性と限界を検討する。特許法では、AIアルゴリズムは数学的方法として特許対象から除外されるが、技術的効果を伴うコンピュータ実装発明として特許取得が可能である。しかし、発明の開示要件(十分に明確かつ完全な開示)は、ディープラーニングのブラックボックス性と緊張関係にあり、説明可能なAI(XAI)へのインセンティブとなる。著作権法では、AIを実装するソフトウェア(ソースコード・オブジェクトコード)は、独創性の条件を満たせばコンピュータプログラムとして保護される。第二に、AIが生成したアウトプットの保護をめぐる問題を論じる。著作者性(authorship)については、EU著作権法は自然人を前提としており、AI自体を著作者と認めることは現状では不可能である。しかし、AIの自律性が高まった場合、既存の枠組みでは不十分であり、データベース権のような隣接権・sui generis権の創設も選択肢となる。発明者性(inventorship)についても同様に、特許法は自然人を前提としており、DABUS事件で欧州特許庁はAIを発明者と認めなかった。所有権(ownership)については、AI生成物への関与度合いに応じて、プログラマー、トレーナー、ユーザーなど複数のステークホルダーが権利を主張しうるが、いずれも一長一短があり、現状では契約による解決が主流となる。第三に、その他の論点として、AI訓練のためのデータ利用と著作権侵害(テキスト・データマイニング例外とAI法53条の関係)、特許法の「当業者」概念へのAIの影響、商標法における「平均的消費者」概念への影響、そしてIP実務におけるAI活用(特許分類、商標検索等)を論じる。結論として、AI時代のIP法は、人間中心主義の枠組みを堅持しつつも、新たな法的課題に国際的な協調で対応する必要があると述べる。
第12章 EU AI法:批判的分析 EUのAI法は、その高尚な目的にもかかわらず、執行アーキテクチャに根本的な欠陥がある。自己評価と民間標準化機関への委任は実効的な人権保護を約束せず、結局はGDPRや欧州人権条約といった既存の枠組みがより重要な役割を果たすだろう。 本章は、2024年に成立したEUのAI法を批判的に検討する。著者らは、AI法の高尚な目的(民主主義、基本的人権、法の支配の保護)にもかかわらず、その実効性には深刻な疑問があると論じる。まず、AI法の成立過程を振り返り、高級専門家グループ(HLEG)の倫理ガイドラインが法的拘束力を持つべきという勧告が、最終的には市場調和を優先する「新立法フレームワーク(New Legislative Framework)」型の製品安全規制にすり替えられた経緯を描く。AI法は、リスクベース・アプローチを採用し、禁止されるAI行為(社会的スコアリング、職場・学校での感情認識等)、高リスクAIシステム(附則III)、汎用AIモデル(GPAI)、限定的リスクAI(透明性義務)を区分する。しかし、その執行アーキテクチャに根本的問題がある。高リスクAIシステムの適合性評価は、生物識別システムを除き、原則としてプロバイダー自身による自己評価(自己宣言)で足りる。これは「メタ規制(meta-regulation)」の典型であり、規制される主体に解釈権限を委ねるものである。さらに、具体的な技術基準は、欧州標準化機関(CEN/CENELEC)が策定する「調和規格(harmonized standards)」に委ねられるが、これらの機関は民間主導で透明性・民主的説明責任に欠け、基本的人権に関する専門性も乏しい。製造物責任の文脈で自己認証の有効性が疑問視されてきた実証研究(PIP乳房インプラント事件等)を踏まえると、AI法が掲げる人権保護は「お題目」に終わる可能性が高い。著者らは、真の保護はGDPRや欧州人権条約といった既存の法的枠組みに依然として依存せざるを得ないと結論づける。
第13章 教育とAI:学習者を代替するのか、能力を強化するのか? 教育におけるAIの目標は、人間の学習と教授を「代替」ではなく「増強」することにある。そのためには、AIが教育プロセスをどのように「オフロード」するかを分析し、教育の本質的価値(自律、正義、人間性)を設計に埋め込む不断の取り組みが必要である。 本章は、AIと教育の関係を「代替(replacement)」ではなく「増強(augmentation)」の視点から捉えるべきだと主張する。教育におけるAIの役割は、人間の学習と教授を最適化することにあり、AIと人間の強みを組み合わせる「ハイブリッド知能」が目指される。AIが教育タスクを「オフロード(肩代わり)」する度合いを分析するための枠組みとして、Detect-Diagnose-Actフレームワークと6段階オートメーションモデルを提示する。具体的なAI応用としては、学習者向け(アダプティブ・ラーニング、ITS)、教師向け(ダッシュボード)、管理向け(スケジューリング)の三類型を紹介する。倫理的枠組みの歴史的発展を概観した後、AIと教育に特化した主要な国際的枠組み(ユネスコ北京コンセンサス、欧州委員会の教育的ガイドライン)を分析する。これらの枠組みは、教育の本質的価値(資格付与、社会化、主体形成)を尊重しつつ、AIがもたらす公平性、透明性、人間の主体性等の課題に対処しようとしている。最後に、オランダの事例として、「教育のための価値コンパス」(自律、正義、人間性)と、NOLAI(National Education Lab AI)の「埋め込まれた倫理(embedded ethics)」アプローチを紹介する。NOLAIは、産学官の協働により、AIシステムの開発段階から倫理学者が関与し、実際の教室での価値葛藤を経験的に研究することで、責任あるAIの実装を目指している。
第14章 メディアとAI:デジタル公共圏における機会とリスク AIはメディアの制作・配信・検証を変革する可能性を持つが、同時に表現の自由、メディア多様性、独立性への深刻な脅威ももたらす。DSAやAI法は重要な一歩だが、その実効的執行と、プラットフォームへの過度な依存からの脱却が今後の焦点である。 本章は、AIがメディア産業にもたらす機会と、それが引き起こす法的・倫理的課題を多角的に分析する。AIの応用分野として、(1) コンテンツ制作(ロボットジャーナリズム、生成AIによる記事・画像作成)、(2) コンテンツ配信(レコメンデーション・システム、パブリック・サービス・メディアにおける価値実装)、(3) ファクトチェック(偽情報特定・検証)、(4) コンテンツ・モデレーション(コメント削除、違法コンテンツ対策)を概観する。課題としては、(1) データアクセスの困難さ(プラットフォームがデータを囲い込み、研究者・ジャーナリストの検証を妨げる)、(2) 訓練データのバイアス(特定集団に対する差別的表現の増幅)、(3) 透明性の欠如(アルゴリズムの内部動作が不透明)、(4) 表現の自由へのリスク(過剰削除(over-blocking)と過少削除(under-blocking)の両方の問題)、(5) メディアの多様性と独立性への脅威(プラットフォームのアルゴリズムがメディアのコンテンツを非表示にする、インフラ依存による編集独立性の低下)を論じる。EUの法的対応としては、DSA(透明性義務、VLOPのリスク評価義務、研究者へのデータアクセス)、AI法(深層偽造の開示義務、高リスクAI分類)、EMFA(メディア事業者に対する事前通知義務等の特別保護)を分析する。結論として、AIとメディアの関係は表現の自由、民主主義、文化の多様性に直結するため、これらの法規の実効的な執行と、小規模メディアを含む責任あるAI開発の支援が不可欠であると述べる。
第15章 医療とAI:データの二次利用と患者の自律性 健康データの二次利用は、患者の権利を侵害するものではなく、適切な技術的・組織的措置(仮名化、連合学習、透明性)を講じることで、データ保護とイノベーションは両立可能である。重要なのは、データの「管理者(custodian)」としての責任を自覚することである。 本章は、ヘルスケア分野におけるAIの開発・展開に不可欠な健康関連データの法的・倫理的課題を、特にデータ保護法(GDPR)の観点から分析する。ヘルスケアAIのライフサイクル(研究開発、市場投入、市販後調査)の各段階で、リアルワールドデータ(RWD)の利用が求められるが、これは多くの場合「個人データ」であり、かつ「機微データ」(GDPR9条)に該当する。まず、データの「所有権」概念を批判し、患者はデータの「所有者」ではなく、医療機関はデータの「管理者(custodian)」としての責任を負うと論じる。患者の自律性は、GDPR6条・9条が許容する範囲内で、同意(opt-in)またはオプトアウトを通じて尊重されるが、科学研究のための二次利用は原則として同意不要である(ただし、加盟国は9条4項により追加的制限を課すことができる)。データ共有の課題としては、(1) 匿名化と仮名化の区別(匿名化はGDPRの適用除外となるが、リンケージ攻撃のリスクが高まっている)、(2) プライバシー強化技術の例としての連合学習(federated learning:データを中央集約せずにモデル学習を行う技術)、(3) 組織的措置としての透明性の重要性(患者が自身のデータの二次利用状況を把握できる仕組み)を論じる。結論として、健康データの二次利用を妨げるのではなく、技術的・組織的措置を適切に実装することで、データ主体(患者)の保護とデータ活用の両立を図るべきであると主張する。
第16章 金融とAI:クレジット・スコアリングとアルゴリズムのバイアス AIによるクレット・スコアリングは金融包摂の可能性を秘める一方、従来の差別禁止法では捕捉しきれない新たな差別形態を生み出す。AI法や消費者信用指令は対応を試みるが、技術の複雑さと冗長な符号化が規制の実効性を脅かす。 本章は、金融サービス、特にクレット・スコアリングと与信判断におけるAI活用を事例に、その機会、倫理的課題、法的対応を分析する。伝統的な与信判断は、限定的な変数(収入、資産、過去の返済履歴)に基づく統計的手法であったが、AIとビッグデータの活用により、「あらゆるデータが信用データ」となる新たな段階に移行している(例:スマートフォンのアプリ種類、タイプミスの頻度、SNS上の交友関係など)。これにより、従来「信用履歴が薄い(thin-file)」層への金融包摂が進む可能性がある一方、深刻な倫理的課題も生じる。第一に、アルゴリズムによる差別(algorithmic discrimination)である。歴史的バイアス(過去の差別が訓練データに反映される)、 majority bias(多数派の属性が重視される)、あるいは企業の利潤最大化目的で脆弱な層が標的化されるリスクがある。第二に、不透明な監視(opaque surveillance)である。消費者は、どのデータが判断に用いられているかを知らず、スコアを操作するために行動を変えざるを得なくなる可能性がある( conformity)。法的対応としては、(1) 差別禁止法(直接差別・間接差別の法理)が適用されるが、AIによる「マスキング」や冗長な符号化(redundant encoding)が立証を困難にする。(2) EU AI法は、与信判断を高リスクAIシステムに分類し、リスク管理、データガバナンス、人間の監督を義務付ける。(3) 消費者信用指令(CCD)は、自動化された与信判断について説明を求める権利を付与し、センシティブデータの利用を禁止する。しかし、これらの規定も、技術の複雑さや冗長な符号化によって実効性が損なわれる可能性がある。最後に、信用スコアリングから社会生活全般を評価する「ソーシャル・スコアリング」への拡大の危険性に言及する。
第17章 労働とAI:労働法への課題 職場におけるAIの導入は、使用者と労働者の力の非対称性を劇的に拡大する。労働法は、情報・協議権、団体交渉権といった既存の道具立てを活用するとともに、アルゴリズム管理の透明性と説明責任を確保する新たなルール(プラットフォーム労働指令)を発展させる必要がある。 本章は、職場におけるAIの活用が労働法に投げかける課題を包括的に検討する。労働法の目的は、使用者と労働者の力の非対称性を調整し、労働者の尊厳と社会正義を保護することにある。AI、特にアルゴリズム管理(algorithmic management)の導入は、この非対称性をさらに拡大するリスクがある。アルゴリズム管理は、タスク割当、パフォーマンス評価、懲戒処分などを自動化し、大量のデータ処理を通じて労働者を「数値化」する。これにより、透明性の欠如、差別、プライバシー侵害、テクノストレス(technostress)などの問題が生じる。労働者の基本的権利として、情報・協議・参加権(ILO条約、EU指令)、団体交渉権、社会対話(social dialogue)が重要である。欧州の社会パートナーは、2020年に「デジタル化に関する自律的枠組み協定」を締結し、AIに関して「人間による制御(human-in-control)」の原則を確認した。EUの立法イニシアチブとしては、(1) AI法が、採用・人事評価などのシステムを高リスクに分類し、透明性・人間の監督を義務付ける(ただし、労働者に直接の権利を与えるものではない)、(2) AI責任指令が、高リスクAIによる損害の立証負担を軽減する可能性があるが、労働契約関係には適用が難しい、(3) 機械規則(Machinery Regulation)が、AI統合機械の安全性要件を強化する、(4) プラットフォーム労働指令(Directive on Platform Work)が、アルゴリズム管理の透明性と説明責任を初めて労働法に組み込む、などを紹介する。結論として、AI時代の労働法は、自律性の保持、説明を受ける権利の実効性確保、リスク評価への労働者代表の関与、監視の限界設定、AIリテラシーの向上など、多岐にわたる課題に取り組む必要がある。
第18章 警察活動とAI:予測警察の事例 予測警察は、その有効性が実証されていないにもかかわらず、社会的弱者に対する差別的影響や警察の正当性低下など深刻な害悪をもたらす。AI法による規制だけでなく、市民参加型のガバナンスと、実証されていない利益よりも害悪防止を優先する姿勢が不可欠である。 本章は、法執行におけるAI活用の一例として予測警察(predictive policing)を取り上げ、その法的・倫理的・社会的問題を詳細に分析する。予測警察には、犯罪発生場所を予測する「予測マッピング」と、犯罪者・被害者を予測する「予測識別」の二種類がある。欧州では、米国に遅れて2010年代から導入が進み、オランダのCAS、ドイツのPRECOBS、ベルギーの独自開発アルゴリズムなどの事例がある。しかし、その有効性については、犯罪減少効果を示す確固たるエビデンスは乏しく、Kent Policeやドイツの一部警察は運用を停止している。問題点として、(1) 法的課題:AI法案は法執行用途に広範な例外を認めており、LED(法執行指令)の「個人データ」該当性をめぐる解釈も分かれる(オランダのCASは非個人データと判断された)。(2) 有効性の課題:予測精度と犯罪減少効果は別問題であり、フィードバック・ループ(警官が同じ地域に繰り返し派遣されることでデータが偏る)や、透明性の欠如(ブラックボックス)が評価を困難にする。(3) 社会的課題:社会的弱者に対する差別的影響の固定化、過剰な監視による chill効果、警察の正当性(legitimacy)の低下。(4) ガバナンスの課題:評価基準の欠如、監督機関の専門性不足、市民参加の必要性。(5) 組織的課題:現場警察官のテクノロジーへの懐疑、オートメーション・バイアス(自動生成された判断を過信する傾向)、 deskillingのリスク。結論として、AI法による規制だけでなく、民主的な監視メカニズムと市民参加型のガバナンスが不可欠であり、実証されていない利益よりも社会的害悪が優先されるべきだと主張する。
第19章 行政とAI:アルゴリズムによる意思決定と適正手続き 行政機関によるアルゴリズム利用は、効率化の名の下に、法の支配と基本的人権を侵食する危険性を孕む。既存の行政法原則とGDPR、AI法を組み合わせた多層的なガバナンスが必須だが、最終的には行政職員一人ひとりの批判的判断力と倫理観に依存する部分が大きい。 本章は、行政機関がアルゴリズム・システム(アルゴリズム規制)を利用する際の倫理的・法的課題を分析する。行政機関は、社会福祉給付の決定、税務調査、罰則賦課など、市民の権利に直結する多様な決定を行っており、その効率化・迅速化を目的としてAI導入が進んでいる。しかし、実際にはオランダの託児所給付金スキャンダル、フランスのプール検出AI、英国のAレベル成績判定アルゴリズム、米国アイダホ州の医療給付アルゴリズムなど、深刻な問題が発生している。これらの事例は、基本的人権(プライバシー、差別禁止)の侵害だけでなく、「法の支配」の核心的な諸原則(合法性、法的確実性、恣意的権力の禁止、平等、実効的司法保護)を侵食するリスクを示す。アルゴリズム規制は、条文をコードに翻訳する過程で法の柔軟な解釈可能性を損ない、「法の支配」を「アルゴリズムによる法の支配(algorithmic rule by law)」に転換させる危険性がある。また、行政裁量が現場の職員からシステム設計者(多くは民間企業)に移転し、責任の所在が不明確になる。さらに、民間企業への依存(デジタル主権の問題)も生じる。法的ガバナンスとしては、憲法・行政法の一般原則(合法性、平等、比例性、参加、透明性)が引き続き適用されるほか、GDPR(特に22条の自動化された決定に対する権利)、そして新たなAI法(高リスクシステムの要件、禁止行為)が適用される。しかし、AI法の適用範囲には限界があり、行政法の原則を補完的に用いることが重要である。結論として、法的遵守だけでなく、行政職員のリテラシー向上と批判的判断を可能にする環境整備が不可欠である。
第20章 戦争とAI:致死性自律型武器システムと国際人道法 AI(特にLAWS)をめぐる議論は、殺人ロボットの全面禁止に集中しがちだが、より重要なのは既存の国際人道法をAIの設計・開発・使用に確実に埋め込むことである。AIは殺すためにも守るためにも使える。その方向性を決めるのは、技術ではなく、私たち人間の選択である。 本章は、武力紛争におけるAIの利用、特に致死性自律型兵器システム(LAWS)を中心に、国際人道法(IHL)の観点から検討する。IHLは、1864年ジュネーブ条約以降、戦争の悲惨さを軽減するために発展してきた。その中核的原則として、(1) 文民と戦闘員の区別、(2) 戦闘不能者(hors de combat)への攻撃禁止、(3) 不必要な苦痛の禁止、(4) 軍事上の必要性、(5) 均衡性(予想される軍事利益と付随的な文民被害の釣り合い)、(6) 人道性の原則がある。LAWSはこれらの原則に深刻な挑戦を突きつける。LAWSの定義は国際的に合意されておらず(米国国防総省と欧州議会の定義にも差異がある)、その能力や展開に関する情報も限られている(2020年リビアでのKargu-2の使用が初の公的認識例)。CCW(特定通常兵器使用禁止制限条約)の下での政府専門家会合(GGE)は11の基本原則を採択したが、法的拘束力はなく、進展は遅い。LAWS以外にも、AIは軍事意思決定支援、データ収集・監視、サイバー戦争など多様な用途で利用されており、これらもIHLの適用対象となる(特にサイバー攻撃の無差別性)。著者は、LAWSの全面禁止論よりも、既存のIHLをAIシステムの設計・開発・使用に組み込むことの重要性を強調する。AIは「殺すための武器」としても「守るための盾」としても使用可能であり、IHLを技術に埋め込むことで、後者の方向に傾ける努力が必要であると結論づける。

 

課題と解決案...

  課題 解決案
第1部:基盤と倫理    
序論(多角的視点) 学問領域ごとの断絶による「全体最適」の欠如。 法・倫理・政策の相互補完性を前提とした共通言語化。学際的タスクフォースによる多層的ガバナンス。
第1章(技術的基礎) ブラックボックス性に伴う「説明可能性」と「堅牢性」の両立の困難。 神経記号論的AI等のハイブリッド化に加え、ルールベースと機械学習の「適材適所の使い分け」の徹底。
第2章(哲学) AIを単なる道具と見なすことによる、知性や責任の概念の形骸化。 AIを鏡として「人間理解(意識・責任)」を再定義するプロセスの構築。拡張エージェントとしての新たな倫理規範の策定。
第3章(倫理) 倫理原則が形骸化する「倫理ウォッシュ」と、価値観の固定化。 Design for Valuesに基づく技術要件化。学際的協働による、社会の価値観変化に合わせた不断の要件見直し。
第4章(公平性) 公平性の定義衝突と、議論プロセスにおける「弱者の声」の不在。 関係的公正を重視した民主的討議。文脈に応じた合意形成プロセス自体をガバナンスとして設計する。
第5章(責任) AIによる損害に対し、責任の所在が曖昧になる(とされる)ギャップ。 ユーザーへのリスク受容の可視化と、予見可能性の高いリスク情報の提供。ログ記録による事実認定の効率化。
第6章(持続可能性) 環境負荷に加え、AI開発の背後にある権力非対称性や搾取的労働。 環境負荷の可視化に加え、サプライチェーン全体における社会的持続可能性(労働環境)の監査義務化。
第2部:法規制と制度    
第7章(データ保護/GDPR) データ最小化原則と、AI学習における比例性(バランス)の維持。 リスクベース・アプローチの徹底。何のためのデータ利用かを厳格に問う「目的拘束性」の再定義。
第8章(不法行為法) 複雑なサプライチェーンによる過失証明の困難と、国内法との不整合。 無過失責任の検討と共に、証拠開示や推定規定などの「手続き的救済」の整備。国内法との整合性確保。
第9章(競争法) 自律アルゴリズムによる協調行為(暗黙のカルテル)の捕捉困難。 サンドボックスによる発見に加え、アルゴリズムによる協調を規制するための新たな法規制枠組みの策定。
第10章(消費者保護) ダークパターン等の構造的脆弱性と、規制機関(消費者・データ保護・競争)の縦割り。 法域を超えた「サイロからの脱却」による統合的監視。消費者の撤回権と構造的保護の強化。
第11章(知的財産) AI生成物の権利化と学習データ利用の対立による市場の混乱。 オプトアウト方式の標準化。性急な法改正を避けつつ、既存の著作権法の解釈指針を明確化する。
第12章(EU AI法) 民間標準化機関への委任による「保護のお題目化」と執行アーキテクチャの欠陥。 独立した第三者認証の義務化。技術標準化プロセスへの市民参加と、民主的コントロールの担保。
第3部:セクター別の応用  
第13章(教育) 思考の「オフロード化(AI任せ)」による主体的な学びの喪失。 何をAIに委ね、何を人間に残すべきかの「オフロード分析」。思考を促すソクラテス的対話AIの開発。
第14章(メディア) ディープフェイクに加え、プラットフォーム依存によるメディア独立性の脅威。 出所証明(C2PA)の普及と、プラットフォームへの「データアクセス権」の強化による透明性確保。
第15章(医療) データの代表性欠如によるバイアスと、患者の自律性の毀損。 データ管理者(Custodian)の責任明確化。データ共有と患者の自律的な意思決定(インフォームド・コンセント)の両立。
第16章(金融) 直接的な差別変数を隠蔽する「冗長な符号化(代理変数)」によるバイアス。 XAIの義務化に加え、代理変数の相関性を検知するアルゴリズム監査の実施。
第17章(労働) AI監視によるテクノストレスと心理社会的リスクの増大。 評価項目の制限、監視の時間的制約の策定。アルゴリズム管理に関する団体交渉権の確立。
第18章(警察活動) 有効性が未実証な技術(予測警察等)の導入によるバイアスの固定化。 導入前の厳格な正当性評価。必要に応じた顔認証等の「導入モラトリアム(一時停止)」も選択肢に含める。
第19章(行政) 行政裁量のシステム設計者への移転と、民間企業への構造的依存。 公共調達要件の強化、職員のリテラシー向上。行政手続きの「適正手続き(Due Process)」の再設計。
第20章(戦争) 責任なき殺傷(LAWS)のリスクと、国際的な定義・条約合意の難航。 有意な人間による制御(MHC)の義務化。条約交渉と並行した、既存の国際人道法(兵器審査義務等)の厳格適用。

 

 

| | Comments (0)

経済産業省 サプライチェーン・サイバーセキュリティ評価(SCS)制度のパブコメへの回答の一覧...

こんにちは、丸山満彦です。

2026.03.04 に第7回 産業サイバーセキュリティ研究会 ワーキンググループ1 サプライチェーン強化に向けたセキュリティ対策評価制度に関するサブワーキンググループが開催され、昨年末に実施されたパブリックコメントに対する対応、それを受けて制度構築方針案評価基準案が公表されていますが...

パブリックコメントはたくさんあったため、多くの人が目を通していないかもと思い、それを扱いやすく(Word化)?しました。。。

該当文書(「制度構築方針(案)」と「要求事項・評価基準案」)別に二つのファイルに分けました。そして、該当ページ又は項番順に並べ替えました。。。

パブコメへの回答も制度構築方針や要求事項・評価基準に関する考えが滲み出ますから参考になる部分もありますね...

なお、この制度の事務局は、経済産業省と内閣官房NCOです...

 

制度構築方針(案)のパブコメとその回答

[DOCX

要求事項・評価基準案のパブコメとその対応

[DOCX]

 

経済産業省 -

・2026.03.04 第7回 産業サイバーセキュリティ研究会 ワーキンググループ1 サプライチェーン強化に向けたセキュリティ対策評価制度に関するサブワーキンググループ

開催資料

20260316-151537

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.12.28 経済産業省 パブコメ サプライチェーン強化に向けたセキュリティ対策評価制度(SCS評価制度)に関する制度構築方針(案)とその評価基準案 (2025.12.26)

・2025.04.15 経済産業省 サプライチェーン強化に向けたセキュリティ対策評価制度構築に向けた中間取りまとめ (2024.04.14)

 

 

 

| | Comments (0)

2026.03.16

日本銀行 デジタル社会におけるアイデンティティ証明を支える Verifiable Credentialsの概要と規格開発の動向 と金融庁 金融機関による本人確認におけるVerifiable Credentials(VC)の利用可能性を検証 (2026.03.13)

こんにちは、丸山満彦です。

日本銀行と金融庁がVerifiable Credentials: VC(検証可能な属性情報)についての発表をしていますね...

まずは、日本銀行....

日本銀行は、「デジタル社会におけるアイデンティティ証明を支えるVerifiable Credentialsの概要と規格開発の動向」という報告書を公表していますね...

(Verifiable Credentials(VC)は「検証可能な属性情報」ということですが、日本における概念の共通認識が十分ではない?ので、日本語にしにくい言葉ですよね...)

20260315-60841

デジタル社会では、個人・法人の属性情報を安全・柔軟に証明する仕組みが必要ですよね...紙の証明書はデジタル社会では不便だし、場合によっては不要な情報も晒すことになりますよね。。。そして、PKIのようにすべてを中央集権的に管理するわけにもいかないし...

情報の保有者は、情報の検証者(属性を確認したい人)が検証したい情報だけを、情報の発行者に依頼し、情報の検証者に渡すことができると、プライバシーの保護等も含めて望ましいよね...

で、この「VC(検証可能な属性情報)」は、暗号技術を使って必要な情報だけを提示できる新しい証明モデルという感じ???

この辺りは、国際的な標準化の動きが急速に進んでいますね...

インターネットを前提とすると、IETFのSD-JWDがあるし、スマホ端末で見せるというのであれば、mdoc(モバイル運転免許書(ISO 18013-5)など...)が便利だし、法人識別子LEIを拡張したvLEIのISO化(ISO 17442-3:2024)もされています...

標準化が加速しているのは、W3C VC Data Modelの影響が大きいかもですね...色々な方式が比較して議論できるようになりますからね...

そして、KERI(Key Event Receipt Infrastructure)で鍵の履歴管理ができることで、PKIやブロックチェーンに依存しなくてよい自己完結的な信頼チェーンが構築でき、ACDC(Authentic Chained Data Container)で証明データを構造化してつなぐことができるようになり、VCのの普及を技術面でも支えそうですね...vLEIで採用されていますが...

今後の普及上の課題は、相互運用性、発行者の信頼性、ライフサイクル管理、プライバシー保護などが考えられそうですね...

 

日本銀行

・2026.03.13 デジタル社会におけるアイデンティティ証明を支える Verifiable Credentialsの概要と規格開発の動向

 


デジタル化の進展に伴い、自分のアイデンティティをデジタル技術を用いて安全かつ確実に証明する重要性が高まっている。こうした背景のもと、Verifiable Credentials(VC、検証可能な属性証明)が注目を集めている。VCは、デジタル署名による真正性の確保や改ざん防止機能を備えた汎用的かつ機械可読なデジタル証明書であり、新型コロナワクチンの接種証明書で使用されたほか、金融実務への応用も含めた幅広い領域での活用が検討されている。この間、各種団体でVCに関する規格開発が進められており、例えば国際標準化機構(ISO)ではVCの一形態である検証可能な取引主体識別子(vLEI)の国際規格を2024年10月に発行した。本稿では、VCの概要や活用事例、規格開発の動向を概説する。


 

・[PDF

20260315-72448

 


 

金融庁

・2026.03.13 「FinTech実証実験ハブ」支援決定案件の実験結果について

今回の発表の件は、「金融機関による本人確認におけるVerifiable Credentials(VC)の利用可能性を検証」の件です...

多くの金融機関が参加したわけですが、以下のことが確認された...


  • 本実証実験を通じて、以下のことが確認された。
    • 技術的相互運用性に関して、複数の発行者及び/又は複数の検証者が関与する場合(22通りの組み合わせをテスト)においても、標準規格に準拠することで、技術的相互運用性を確保できること。
    • 本人確認・セキュリティに関して、I2が公的個人認証の署名用電子証明書を利用して本人確認を実施する場合、当該本人確認の時点において、Hの最新の基本4情報を確認し、当該確認された基本4情報をVC化することができること。また、Hの署名鍵とPIN又は生体認証を組み合わせることで、Hが意図しないなりすましによる提示のリスクを低減できること。
    • ユーザー体験に関して、VCの発行から提示までのフローに問題がないこと。

  • 本実証実験を通じて、VCのユースケースの創出のほか、当該ユースケースにおけるガバナンスに関して、以下の課題が認識された。
    • 発行者、DIW、検証者に関するルール整備。
    • Trusted Listの運営に関するルール整備。
    • 検証者のなりすましにより、保有者が意図しない者にVCを提示してしまうリスクの分担・低減のあり方。
    • 保有者(=対象者)が協力して行われるなりすましのリスクの分担・低減のあり方。

 

ということで、技術的には実現可能性が高い。ただし、ルールの整備を議論しないと運用が混乱しそう...という話ですかね...

 

 

 

 

 


 

デジタル庁 - 属性証明の課題整理に関する有識者会議 技術ワーキンググループ

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

欧州

2026.01.20 ドイツ EUDIウォレットの接続を適切に準備する - 行政機関向け行動指針 (2026.01.16)

・2026.01.07 欧州 サイバーセキュリティ法の改正に向けた動き... (2025.12.09)

・2025.09.03 欧州 ETSI TR 119 476-1 V1.3.1 電子署名と信頼基盤(ESI);属性電子証明への選択的開示とゼロ知識証明の適用;第1部:実現可能性調査

・2025.07.28 欧州委員会 未成年者の保護に関するガイドライン - デジタルサービス法関係(2025.07.14)

・2025.05.31 欧州 ETSI TS 119 471 V1.1.1 電子署名と信頼基盤(ESI); 電子属性証明サービスのプロバイダに対する方針およびセキュリティ要件 (2025.05)

・2024.12.09 欧州 ENISA 欧州連合におけるサイバーセキュリティの状況に関する報告書(2024)(2024.12.03)

・2024.09.27 ENISA EUデジタルID(EUDI)ウォレットの認証をサポート (2024.09.24)

・2024.07.09 欧州 ETSI 電子署名と信頼基盤(ESI);属性の電子認証に適用される選択的開示とゼロ知識証明の分析

・2024.03.21 ENISA 遠隔身元証明 (Remote ID Proofing) の優れた実践

・2024.02.03 ENISA サイバーセキュリティ認証の市場

・2023.10.04 欧州委員会 デジタルの10年 2023年 (2023.09.27)

・2023.07.05 ENISA デジタルID標準

・2023.06.14 ENISA トラストサービス-eIDASエコシステムのクラウドへの安全な移転

 

英国

・2024.10.13 英国 認定デジタル ID および属性サービスについて

 

日本

・2025.10.17 デジタル庁 DS-511 行政手続等での本人確認におけるデジタルアイデンティティの取扱いに関するガイドライン (2025.09.30)

・2025.04.02 デジタル庁 本人確認ガイドライン改定方針 令和6年度とりまとめ (2025.04.01)

・2024.07.11 デジタル庁 本人確認ガイドラインの改定に向けた有識者会議 本人確認ガイドライン改定方針令和5年度中間とりまとめ

・2023.06.30 デジタル庁 「DS-500 行政手続におけるオンラインによる本人確認の手法に関するガイドライン」の改定に向けた中間取りまとめ

・2022.07.02 デジタル庁 デジタル社会推進標準ガイドラインにセキュリティに関するドキュメントが追加されましたね。。。

 

・2025.08.03 米国 NIST SP 800-63-4 デジタル ID ガイドライン (2025.07.31)

・2024.11.18 米国 意見募集 NIST SP 800-157r1 派生個人アイデンティティ検証(PIV)クレデンシャル・ガイドラインと、SP 800-217 個人 アイデンティティ 検証(PIV)連携ガイドラインの最終ドラフト

・2024.10.10 米国 NIST IR 8480(初期公開ドラフト) アイデンティティ管理のための属性妥当性確認サービス:アーキテクチャ、セキュリティ、プライバシー、運用上の考慮事項

・2024.08.24 米国 NIST SP 800-63-4(第2次公開草案)デジタル・アイデンティティ・ガイドライン他...

・2024.04.25 米国 NIST SP 800-63B [補足 1] NIST SP 800-63B: デジタル・アイデンティティ・ガイドライン - 認証およびライフサイクル管理への同期可能な本人認証の組み込み

・2022.12.19 NIST SP 800-63-4 (ドラフト) デジタル・アイデンティティ・ガイドライン 、63A-4 (ドラフト) 登録と身元確認、63B-4 (ドラフト) 本人認証とライフサイクル管理、63C-4 (ドラフト) 連携とアサーション

・2020.06.11 NIST SP 800-63-4(Draft) PRE-DRAFT Call for Comments: Digital Identity Guidelines

・2020.03.07 NIST SP800-63-3 Digital Identity GuidelinesにEditorialな修正がありました

 

 

| | Comments (0)

2026.03.15

米国 財務省 FSSCC CRI AIレキシコン、金融サービス向けAIリスク管理フレームワーク (2026.02.19)

こんにちは、丸山満彦です。

米国財務省と金融サービス業界の重要インフラ保護とセキュリティ対策を主導する非営利組織のFSSCCが共同で立ち上げた「AIエグゼクティブ・オーバーサイト・グループ(AIEOG)」の最終成果物が、2026年2月に公開されていました...

一つは、「AIレキシンコン(用語集)」、もう一つは、「金融サービス向けAIリスク管理フレームワーク(FS AI RMF)」 群 by Cyber Risk Instituteです...

なんとなく、目を通しておいた方が良さそうなものですね。。。

ものすごい文章量ですけどね...

 

最初に米国財務省の関連するプレス...

・2026.02.19 Treasury Releases Two New Resources to Guide AI Use in the Financial Sector

Treasury Releases Two New Resources to Guide AI Use in the Financial Sector 財務省、金融セクターにおけるAI活用を指導する2つの新たなリソースを公開
WASHINGTON— In support of the President’s AI Action Plan, which calls for clear standards, shared understanding, and risk-based governance to ensure artificial intelligence is deployed safely and responsibly, the U.S. Department of the Treasury today released two new resources to guide AI use in the financial sector, a shared Artificial Intelligence Lexicon and the Financial Services AI Risk Management Framework (FS AI RMF).  ワシントン発――人工知能(AI)が安全かつ責任を持って展開されるよう、明確な標準、共通認識、リスクベースのガバナンスを求める大統領のAI行動計画を支援するため、米国財務省は本日、金融セクターにおけるAI活用を指導する2つの新たなリソース、すなわち「AI用語集」および「金融サービスAIリスクマネジメント枠組み(FS AI RMF)」を公開した。
“Implementing the President’s AI Action Plan requires more than aspirational statements, it requires practical resources that institutions can use,” said Derek Theurer, who is performing the duties of Deputy Secretary of the Treasury. “By establishing a common language for AI and a tailored framework for managing AI risks in financial services, these deliverables help protect consumers while supporting responsible innovation.” 「大統領のAI行動計画を実施するには、単なる理想論以上のものが必要であり、機構が実際に活用できる実用的なリソースが求められる」と、財務次官代理を務めるデレク・テューラー氏は述べた。「AIに関する共通言語と、金融サービスにおけるAIリスクマネジメントのための特化した枠組みを確立することで、これらの成果物は消費者を保護しつつ、責任あるイノベーションを支援するものである。」
By strengthening common terminology and risk management practices for AI, these resources support quicker and more widespread adoption of AI in the financial sector, via more robust AI cybersecurity and improved operational resilience. Developed through the Financial and Banking Information Infrastructure Committee and the Financial Services Sector Coordinating Council’s Artificial Intelligence Executive Oversight Group (AIEOG), the publications advance implementation of the Action Plan by translating national AI priorities into practical tools for financial institutions, regulators, and technology providers. AIに関する共通用語とリスクマネジメントの実践を強化することで、これらのリソースは、より強固なAIサイバーセキュリティと業務レジリエンスの向上を通じて、金融セクターにおけるAIの迅速かつ広範な導入を支援する。金融・銀行情報インフラ委員会および金融サービスセクター調整評議会のAI執行監督グループ(AIEOG)を通じて策定されたこれらの文書は、国のAIに関する優先事項を金融機関、規制当局、技術プロバイダ向けの実用的なツールへと変換することで、行動計画の実施を推進する。
As financial institutions increasingly rely on AI to support decision-making, customer engagement, and operational functions, inconsistent terminology and uneven risk management practices have created challenges for effective governance and oversight. The AI Lexicon addresses these challenges by establishing common definitions for key AI concepts, capabilities, and risk categories, enabling clearer communication across regulatory, technical, legal, and business functions and supporting more consistent supervision and implementation. 金融機関が意思決定、顧客エンゲージメント、業務機能を支援するためにAIへの依存度を高める中、用語の不統一やリスクマネジメント慣行のばらつきが、効果的なガバナンスと監督の妨げとなっていた。AI用語集は、主要なAIの概念、機能、リスクカテゴリーに対する共通の定義を確立することでこれらの課題に対処し、規制、技術、法務、事業部門間のコミュニケーションを明確にし、より一貫性のある監督と実施を支援する。
“Clear terminology and pragmatic risk management are essential to accelerating AI adoption in financial services,” said Paras Malik, Chief Artificial Intelligence Officer at the U.S. Department of the Treasury. “These resources are designed to help institutions move faster with AI by reducing uncertainty and supporting consistent, scalable implementation.” 「明確な用語と実践的なリスクマネジメントは、金融サービスにおけるAI導入を加速させるために不可欠だ」と、米国財務省の最高人工知能責任者(CAIO)であるパラス・マリク氏は述べた。「これらのリソースは、不確実性を低減し、一貫性のある拡張可能な導入を支援することで、機構がAIの活用を加速させることを目的としている。」
Building on this shared foundation, the Financial Services AI Risk Management Framework adapts the NIST AI Risk Management Framework to the specific operational, regulatory, and consumer protection considerations of financial services. The FS AI RMF provides practical tools and reference materials to help institutions evaluate AI use cases, manage risks across the AI lifecycle, and embed accountability, transparency, and resilience into AI deployment decisions. The framework is designed to be scalable and flexible, supporting adoption by institutions of varying size and complexity. この共通基盤に基づき、「金融サービスAIリスクマネジメント枠組み(FS AI RMF)」は、NISTのAIリスクマネジメント枠組みを、金融サービス特有の業務、規制、および消費者保護の観点に合わせて適応させたものである。FS AI RMFは、金融機関がAIのユースケースを評価し、AIライフサイクル全体にわたるリスクを管理し、AI展開の意思決定に説明責任、透明性、およびレジリエンスを組み込むことを支援するための実用的なツールと参考資料を提供する。この枠組みは、拡張性と柔軟性を備えて設計されており、規模や複雑さが異なる機構による導入を支援する。
Josh Magri, CEO of the Cyber Risk Institute, agrees. "In an era where AI is rapidly reshaping financial services, ensuring security and building trust are paramount. The FS AI RMF not only aligns closely with NIST standards but also offers practical, scalable guidance tailored to the varying stages of AI adoption,” said Mr. Magri. “It's an essential resource for both community and multinational institutions alike, empowering them to effectively manage AI risks while driving growth and innovation." サイバーリスク研究所(Cyber Risk Institute)のCEO、ジョシュ・マグリ氏もこれに同意する。「AIが金融サービスを急速に変革している時代において、セキュリティの確保と信頼の構築は最優先事項だ。FS AI RMFはNISTの標準と密接に整合しているだけでなく、AI導入の様々な段階に合わせた実用的かつ拡張性のあるガイダンスを提供している」とマグリ氏は述べた。「これは地域金融機関から多国籍企業に至るまで、あらゆる機構にとって不可欠なリソースであり、成長とイノベーションを推進しつつ、AIリスクを効果的に管理する力を与えるものだ。」
The AI Lexicon and FS AI RMF are part of a coordinated series of AIEOG deliverables addressing priority areas such as identity, fraud, explainability, and data practices. Together, these efforts reflect the Administration’s emphasis on public-private collaboration and implementation-focused solutions that strengthen trust, resilience, and accountability as AI adoption accelerates. AI用語集とFS AI RMFは、本人確認、不正、説明可能性、データ管理などの優先分野に取り組む、AIEOGによる一連の成果物の一部である。これらの取り組みは、AIの導入が加速する中、信頼、レジリエンス、説明責任を強化する官民連携および実装重視のソリューションに対する政権の重視を反映している。
Treasury will continue to work with federal and state regulators, industry leaders, and other stakeholders to advance the President’s AI Action Plan by promoting responsible AI adoption and reinforcing the safety and stability of the U.S. financial system. 財務省は、連邦および州の規制当局、業界リーダー、その他のステークホルダーと引き続き連携し、責任あるAI導入を促進し、米国金融システムの安全性と安定性を強化することで、大統領のAI行動計画を推進していく。

 

・2026.02.18 Treasury Announces Public-Private Initiative to Strengthen Cybersecurity and Risk Management for AI

Treasury Announces Public-Private Initiative to Strengthen Cybersecurity and Risk Management for AI 財務省は、AIのサイバーセキュリティとリスクマネジメントを強化するための官民連携イニシアチブを発表した
WASHINGTON— In support of the President’s AI Action Plan, the U.S. Department of the Treasury today announced the conclusion of a major public-private initiative to strengthen cybersecurity and risk management for artificial intelligence (AI) in the financial services sector. Over the course of February, Treasury will release a series of six resources developed in partnership with industry and federal and state regulatory partners to enable secure and resilient AI across the U.S. financial system. ワシントン発――大統領のAI行動計画を支援するため、米国財務省は本日、金融サービス分野における人工知能(AI)のサイバーセキュリティとリスクマネジメントを強化するための大規模な官民共同イニシアチブが完了したことを発表した。2月中に、財務省は、米国の金融システム全体において安全かつレジリエントなAIを実現するため、業界および連邦・州の規制当局と連携して開発した6つのリソースを順次公開する予定だ。
“As this Administration has made clear, it is imperative that the United States take the lead on developing innovative uses for artificial intelligence, and nowhere is that more important than in the financial sector,” said Secretary of the Treasury Scott Bessent. “This work demonstrates that government and industry can come together to support secure AI adoption that increases the resilience of our financial system.” 「本政権が明らかにしてきたように、米国が人工知能の革新的な活用法の開発において主導権を握ることは不可欠であり、金融セクターほどそれが重要な分野はない」と、スコット・ベッセント財務長官は述べた。「この取り組みは、政府と産業界が協力し、金融システムのレジリエンスを高める安全なAI導入を支援できることを示している。」
The Artificial Intelligence Executive Oversight Group (AIEOG), a partnership between the Financial and Banking Information Infrastructure Committee and the Financial Services Sector Coordinating Council, brought together senior executives from financial institutions, federal and state financial regulators, and other key stakeholders. Together, participants focused on addressing identified gaps in the financial sector’s use of AI, developing practical tools that financial institutions can use to manage AI-specific cybersecurity risks while unleashing innovation. 金融・銀行情報インフラ委員会と金融サービスセクター調整評議会との連携により設立された「人工知能執行監視グループ(AIEOG)」は、金融機関の幹部、連邦および州の金融規制当局、その他の主要な利害関係者を一堂に集めた。参加者は協力して、金融セクターにおけるAI活用の課題の解決に注力し、金融機関がAI特有のサイバーセキュリティリスクを管理しつつイノベーションを促進するために活用できる実用的なツールを開発した。
“Treasury brought public- and private-sector partners together to develop practical tools that can effect real change in the financial sector through the AIEOG,” said Cory Wilson, Deputy Assistant Secretary of the Treasury for Cybersecurity and Critical Infrastructure Protection. “These resources are designed to help institutions, particularly small and mid-sized institutions, harness the power of AI to strengthen cyber defenses and deploy AI more securely.” 「財務省は、AIEOGを通じて金融セクターに真の変化をもたらす実用的なツールを開発するため、官民のパートナーを結集させた」と、財務省サイバーセキュリティ・重要インフラ保護担当次官補のコーリー・ウィルソンは述べた。「これらのリソースは、機構、特に中小規模の機構がAIの力を活用してサイバー防御を強化し、より安全にAIを展開できるよう支援することを目的としている。」
Treasury will release the AIEOG deliverables in stages throughout February. The AIEOG workstreams provide a foundation for the use of AI in financial services, addressing governance, data practices, transparency, fraud, and digital identity in an integrated way. By focusing on practical implementation rather than prescriptive requirements, the resources are intended to help financial institutions adopt AI more confidently and securely, strengthening resilience and cybersecurity while supporting innovation across the sector. 財務省は2月中に段階的にAIEOGの成果物を公開する予定だ。AIEOGの作業部会は、ガバナンス、データ取り扱い、透明性、不正、デジタルIDを統合的に取り上げ、金融サービスにおけるAI活用の基盤を提供する。規範的な要件ではなく実践的な導入に焦点を当てることで、これらのリソースは金融機関がより自信を持って安全にAIを導入できるよう支援し、セクター全体のイノベーションを支えつつ、レジリエンスとサイバーセキュリティを強化することを目的としている。
“Through our public-private partnership, FSSCC and Treasury have taken an important step to address complex challenges posed by AI” said William S. Demchak, PNC Chairman & CEO, and AIEOG executive member. “By clearly identifying and addressing the associated risks, financial institutions—regardless of size—are now positioned to harness the full power of this transformative technology, driving innovation and value for their clients while strengthening multiple facets of their organizations.”  「官民パートナーシップを通じて、FSSCCと財務省は、AIがもたらす複雑な課題に対処するための重要な一歩を踏み出した」と、PNC会長兼CEOでありAIEOG執行委員のウィリアム・S・デムチャック氏は述べた。「関連するリスクを明確に識別し対処することで、金融機関は規模の大小にかかわらず、この変革的な技術の力を最大限に活用できるようになった。これにより、組織の多面的な強化を図りながら、顧客のためのイノベーションと価値を推進できるのだ。」 
Through this work, Treasury advances the President’s AI Action Plan by strengthening the security of AI data, infrastructure, and models in the financial sector, promoting best practices for secure AI deployment, and driving adoption of American AI systems globally.  財務省は、この取り組みを通じて、金融セクターにおけるAIデータ、インフラ、モデルのセキュリティを強化し、安全なAI展開のためのベストプラクティスを推進し、世界的な米国製AIシステムの採用を促進することで、大統領のAI行動計画を推進している。

 

 


次に、FSSCCのウェブページ

Financial Services Sector Coordinating Council

Financial Sector Artificial Intelligence Executive Oversight Group Deliverables

Financial Sector Artificial Intelligence Executive Oversight Group Deliverables 金融セクター人工知能(AI)執行監督グループの成果物
The use of Artificial Intelligence (AI) and Generative AI (GenAI) offers tremendous opportunities within the financial sector including improving service delivery to customers and clients, strengthening fraud detection, increasing the security of firms themselves, and creating innovative products to grow the economy.  Simultaneously, AI is also being used by nefarious actors to perpetuate fraud and weaken firms’ security defenses.  As AI continues to take hold, it is critical that financial institutions (FIs) use AI appropriately to maximize the positive impacts of this technology for their clients and customers, while also mitigating the risk of AI use by adversaries.  To better understand and address these dynamic concerns, in late 2024, the Financial Services Sector Coordinating Council (FSSCC) and the U.S. Department of the Treasury in collaboration with the Finance and Banking Information Infrastructure Committee (FBIIC) established the AI Executive Oversight Group (AIEOG). 人工知能(AI)および生成的人工知能(GenAI)の活用は、顧客やクライアントへのサービス提供の改善、不正検知の強化、企業自体のセキュリティ向上、経済成長につながる革新的な商品の創出など、金融セクターにおいて多大な機会をもたらす。同時に、AIは悪意ある者によって、不正行為を助長し、企業のセキュリティ防御を弱体化させるためにも利用されている。 AIの普及が進む中、金融機関(FI)は、顧客やクライアントにとってこの技術のプラスの効果を最大化すると同時に、敵対者によるAI利用のリスクを緩和するため、AIを適切に活用することが極めて重要である。 こうした流動的な懸念をより深く理解し、対処するため、2024年後半、金融サービスセクター調整協議会(FSSCC)と米国財務省は、金融・銀行情報インフラ委員会(FBIIC)と協力し、AIエグゼクティブ・オーバーサイト・グループ(AIEOG)を設立した。
A US Treasury press release on the overall effort can be found at Treasury Announces Public-Private Initiative to Strengthen Cybersecurity and Risk Management for AI | U.S. Department of the Treasury. この取り組み全体に関する米国財務省のプレスリリースは、「財務省、AIのサイバーセキュリティとリスクマネジメントを強化するための官民イニシアチブを発表 | 米国財務省」で確認できる。
This effort initiated six workstreams to develop deliverables in partnership with industry and federal and state regulatory partners to enable secure and resilient AI across the U.S. financial system. Together, participants focused on addressing identified gaps in the financial sector’s use of AI, developing practical tools that financial institutions can use to manage AI-specific cybersecurity risks while unleashing innovation. この取り組みでは、米国の金融システム全体において安全でレジリエントなAIを実現するため、業界および連邦・州の規制当局と連携して成果物を策定する6つの作業部会が立ち上げられた。参加者は一丸となり、金融セクターにおけるAI活用の課題解決に注力するとともに、金融機関がAI特有のサイバーセキュリティリスクを管理しつつイノベーションを促進できる実用的なツールの開発に取り組んだ。
AI Lexicon defines key AI-related terms based on definitions from various industry standards and government resources with the goal of improving sector communications, on aspects ranging from risk management to contracts negotiation. Participants from FBIIC member federal agencies and FSSCC member firms collaborated with U.S. Treasury on the development of this AI Lexicon which includes common risk management and technical terminology with a focus on frequently used terms that have a specific meaning in the context of AI use in the financial sector. 「AI用語集」は、リスクマネジメントから契約交渉に至るまで、業界内のコミュニケーション改善を目的として、様々な業界標準や政府資料に基づくAI関連の主要用語を定義している。FBIIC加盟の連邦機関およびFSSCC加盟企業の参加者は、米国財務省と協力してこのAI用語集を作成した。同用語集には、金融セクターにおけるAI利用の文脈で特定の意味を持つ頻出用語に焦点を当てた、一般的なリスクマネジメントおよび技術用語が含まれている。
Financial Services AI Risk Management Framework (FS AI RMF) authored collectively by the FSSCC FS AI RMF Workstream and the Cyber Risk Institute (CRI), is an operationalization of the National Institute of Standards and Technology’s (NIST) AI RMF specifically tailored for financial services. The FS AI RMF consists of four primary deliverables—an AI Adoption Stage Questionnaire, a Risk and Control Matrix, a User Guidebook, and a Control Objective Reference Guide. It is designed as a complement rather than a replacement to existing frameworks and provides a scalable and adaptable approach tailored specifically for the financial services environment. Organizations can utilize the FS AI RMF to design and conduct their own assessments, address gaps, prioritize mitigation efforts, and develop a more resilient control posture across various stages of AI adoption. The suite of resources for the FS AI RMF can be found on the CRI webpage located here. FSSCCのFS AI リスクマネジメント枠組み(FS AI RMF)ワークストリームとサイバーリスク研究所(CRI)が共同で作成した「金融サービスAIリスクマネジメント枠組み(FS AI RMF)」は、米国国立標準技術研究所(NIST)のAI RMFを金融サービス向けに特化して具体化したものである。FS AI RMFは、AI導入段階アンケート、リスク・コントロールマトリックス、ユーザーガイドブック、およびコントロール目標リファレンスガイドという4つの主要な成果物で構成されている。これは既存の枠組みに取って代わるものではなく、それらを補完するよう設計されており、金融サービス環境に特化した、拡張性と適応性に富んだアプローチを提供する。組織はFS AI RMFを活用し、独自のアセスメントを設計・実施し、ギャップに対処し、緩和策の優先順位を付け、AI導入の様々な段階においてよりレジリエントな統制体制を構築することができる。FS AI RMFのリソース一式は、こちらのCRIウェブページで確認できる。
The Identity and Authentication deliverables, authored collectively by the FSSCC Identity and Authentication Workstream, the American Bankers Association (ABA) and Better Identity Coalition, focuses on “Mitigating AI-Powered Attacks Against Identity and Authentication” and associated “Recommendations for Policy Makers.” The primary deliverable outlines three primary attack vectors — deepfake-driven social engineering and impersonation, synthetic identity creation, and AI agents as attack surrogates — comprising ten specific tactics that threaten identity and authentication systems and mitigation strategies. The paper also includes a maturity model for identity controls to combat malicious use of Gen AI that lays out high-level technologies, ideas, and frameworks financial institutions can work towards mitigation of Gen AI-powered attacks. FSSCCのアイデンティティおよび認証ワークストリーム、全米銀行協会(ABA)、Better Identity Coalitionが共同で作成した「アイデンティティおよび認証」に関する成果物は、「AIを活用したアイデンティティおよび認証に対する攻撃の緩和」および関連する「政策立案者への提言」に焦点を当てている。主要な成果物では、3つの主要な攻撃ベクトル——ディープフェイクを利用したソーシャルエンジニアリングおよびなりすまし、合成IDの作成、攻撃の代理として機能するAIエージェント——を概説し、これらがアイデンティティおよび認証システムを脅かす10の具体的な戦術と、その緩和策を提示している。また、本報告書には、ジェネレーティブAIの悪用に対抗するためのアイデンティティ管理の成熟度モデルも含まれており、金融機関がジェネレーティブAIを活用した攻撃の緩和に向けて取り組むべき、高レベルの技術、アイデア、枠組みを提示している。
The accompanying policy recommendations deliverable outlines twenty distinct actions for policymakers – spread across four key initiatives – that would collectively help FIs defend against current and emerging attacks powered by Gen AI that target FI identity and authentication systems. 付随する政策提言報告書では、政策立案者に向けた20の具体的な行動指針を提示している。これらは4つの主要なイニシアチブにまたがり、金融機関のIDおよび認証システムを標的とする、現在および新興のジェネレーティブAIを活用した攻撃から金融機関を防御するために総合的に寄与するものである。

 

AIの用語集

・2026.02 [PDF] Artificial Intelligence Executive Oversight Group AI Lexicon 

20260314-163714

 


 

「金融サービス向けAIリスク管理フレームワーク(FS AI RMF)」 群は、Cyber Risk Institute

 

Cyber Risk Institute

Financial Services AI Risk Management Framework

 

・[DOCX] FS AI RMF Executive Summary

Overview of the CRI Financial Services AI Risk Management Framework (FS AI RMF) CRI金融サービスAIリスクマネジメント枠組み(FS AI RMF)の概要
Background: The accelerated adoption of AI across the financial sector presents significant opportunities, yet introduces complex, interdependent risks that existing risk frameworks do not fully address. Traditional approaches struggle with the complexity and evolving nature of advanced AI. This gap requires practical, targeted tools and guidance to ensure responsible AI deployment. 背景:金融セクター全体でのAI導入の加速は大きな機会をもたらす一方で、既存のリスクマネジメント枠組みでは完全に対処しきれない、複雑かつ相互に依存するリスクも生じさせている。従来のアプローチでは、高度なAIの複雑さや進化する性質に対応しきれていない。このギャップを埋めるには、責任あるAI展開を確実にするための、実践的で的を絞ったツールとガイダンスが必要である。
CRI’s Solution: In response, CRI developed the FS AI RMF, which operationalizes the NIST AI RMF by strengthening governance, fostering trust, identifying risks, and enabling safe AI-driven innovation. It provides a structured approach for financial institutions to evaluate and manage AI-related risks. CRIのソリューション:これに対応するため、CRIはFS AI RMFを開発した。これは、ガバナンスの強化、信頼の醸成、リスクの識別、そして安全なAI主導のイノベーションの実現を通じて、NIST AI RMFを実務に適用するものである。本フレームワークは、金融機関がAI関連リスクを評価・管理するための体系的なアプローチを提供する。
Deliverables: The FS AI RMF is delivered in three distinct documents, comprising four key tools: 成果物:FS AI RMFは、4つの主要ツールから構成される3つの別個の文書として提供される。
1. The Adoption Stage Questionnaire & Risk and Control Matrix (single Excel Workbook) 1. 導入段階アンケートおよびリスク・コントロール・マトリックス(単一のExcelワークブック)
· What it is: This single Excel workbook contains two key tools. The AI Adoption Stage Questionnaire is a self-assessment that helps organizations classify their current AI adoption level (Initial, Minimal, Evolving, Embedded) across six key dimensions. The Risk and Control Matrix (RCM) is a structured grid of 230 detailed Control Objectives, aligned with NIST functions, categories, subcategories, and AI Trustworthy Principles, including practical implementation guidance. ・概要:この単一のExcelワークブックには、2つの主要ツールが含まれている。「AI導入段階アンケート」は、組織が6つの主要な側面において現在のAI導入レベル(初期、最小限、発展中、定着)を分類するのに役立つ自己アセスメントツールである。「リスク・コントロール・マトリックス(RCM)」は、NISTの機能、カテゴリー、サブカテゴリー、およびAI信頼性原則に沿った230の詳細な管理目標を体系的にまとめたグリッドであり、実践的な導入ガイダンスも含まれている。
· How to use it: Organizations first use the Questionnaire to pinpoint their AI maturity. They then leverage the RCM, which can be filtered by their determined AI Adoption Stage, NIST (Sub)Category, or AI Trustworthy Principle, to identify and implement the most relevant Control Objectives. This allows firms to manage AI-related risks with specific, non-prescriptive actions tailored to their current stage. ・使用方法:組織はまず、このアンケートを使用して自社のAI成熟度を特定する。その後、決定されたAI導入段階、NIST(サブ)カテゴリー、またはAI信頼性原則でフィルタリング可能なRCMを活用し、最も関連性の高い管理目標を識別して実施する。これにより、企業は自社の現在の段階に合わせた具体的かつ強制力のない措置を通じて、AI関連のリスクを管理することができる。
· Primary Audience: Enterprise technology leaders, AI professionals, and risk & compliance managers seeking to strategically assess, plan, and implement AI risk management. ・主な対象者:エンタープライズ企業のテクノロジーリーダー、AI専門家、およびリスク・コンプライアンス管理者が、AIリスクマネジメントを戦略的に評価、計画、実施しようとする。
2. The FS AI RMF Guidebook 2. FS AI RMFガイドブック
· What it is: This is the comprehensive "how-to" manual for effectively implementing the entire FS AI RMF. It provides detailed narrative guidance on the Control Objectives, integrates the Questionnaire, and offers an overview of the RCM. It also includes background material and several appendices. ・概要:これは、FS AI RMF全体を効果的に実装するための包括的な「実践マニュアル」である。コントロール目標に関する詳細な説明を提供し、質問票を統合し、RCMの概要を提示する。また、背景資料や複数の附属書も含まれている。
· How to use it: This essential resource helps organizations navigate the Framework, assess their current AI use, define their desired future state, and systematically implement necessary controls. It's designed for those who prefer a more narrative, script-like format. ・活用方法:この必須リソースは、組織が枠組みを把握し、現在のAI利用状況を評価し、目指すべき将来像を定義し、必要な統制を体系的に導入するのを支援する。より説明的で、スクリプトのような形式を好む人向けに設計されている。
· Primary Audience: All financial institutions (regardless of size/complexity), AI professionals, enterprise technology leaders, and risk & compliance managers responsible for developing, implementing, and maturing AI risk and control programs. ・主な対象者:すべての金融機関(規模・複雑さを問わず)、AI専門家、エンタープライズ技術リーダー、およびAIリスク・統制プログラムの開発、導入、成熟化を担当するリスクマネジメント管理者。
Part 3: The Control Objective Reference Guide 第3部:管理目標リファレンスガイド
· What it is: A companion document that expands on the RCM and Guidebook. It includes all the Control Objective information and adds illustrative examples of specific Controls and Effective Evidence for each Control Objective, providing a "one-stop shop" for this detailed content. ・概要:RCMおよびガイドブックを補完する付随文書である。すべての管理目標に関する情報を網羅し、各管理目標に対する具体的な管理措置および有効な証拠の具体例を追加しており、この詳細なコンテンツに関する「ワンストップ情報源」を提供する。
· How to use it: This guide assists organizations in understanding how to apply Control Objectives and what constitutes appropriate evidence of implementation for internal assessments or audits. It emphasizes tailoring examples to specific contexts. ・活用方法:本ガイドは、組織が管理目標をどのように適用すべきか、また内部アセスメントや監査において実施の適切な証拠とは何かを理解するのを支援する。特定の状況に合わせて事例を適応させることの重要性を強調している。
· Primary Audience: Risk and compliance managers, internal audit teams, and AI professionals seeking practical guidance on implementing specific controls and documenting their effectiveness. ・主な対象読者:特定の管理措置の実施およびその有効性の文書化に関する実践的なガイダンスを求める、リスクマネジメント管理者、内部監査チーム、およびAI専門家。

 

・[DOCX] AI Adoption Stage Questionnaire

・[XLSX] Risk and Control Matrix (RCM)

・[DOCX] Guidebook

20260314-175636

 ・[DOCX][PDF] 仮訳

 

これは500ページ弱あるから気をつけてね (^^;;

・[DOCX] Control Objective Reference Guide

20260314-180020

 

・[ZIP] Quick Start Guide / Initial Adoption Stage Only

 ・CRI FS AI RMF Risk and Control Matrix_Initial Stage_v.1.0.xlsx
 ・CRI FS AI RMF Control Objective Reference Guide_Initial Stage_v.1.0.docx
 ・CRI FS AI RMF Guidebook_Initial Stage_v.1.0.docx

 


 

まるちゃんの情報セキュリティ気まぐれ日記

AI行動計画...

・2025.07.25 米国 ホワイトハウス AI行動計画(2025.07.23)

 

NIST AI RMF

・2023.01.27 NIST AIリスクフレームワーク

 

 

 

 

 

| | Comments (0)

欧州 EDPB 政治広告に関するステークホルダーイベント開催予定 日本にも政治広告規制は必要?

こんにちは、丸山満彦です。

EDPBが政治広告に関するステークホルダーイベントを2026.03.27に開催するようです。議題も公表されています...

欧州の政治広告規制」は2024年に制定されたもので、2018年のケンブリッジ・アナリティカ事件や、ロシアによるSNS等を利用した選挙への干渉がこの規制の背景にあると言われています...

この欧州の政治広告規制は、政治広告を定義した上で、選挙広告を規制対象としたものです。これは、マイクロターゲティング等ができるSNS等を利用した政治活動を規制するために考えられているものなのだろうと思います。ある意味、21世紀っぽい考え方です。そして、この政治広告にスポンサー(広告主)、支払金額、対象選挙、広告目的、配信期間、ターゲティングの有無を表示させる透明性の規則を入れています。その上で、ターゲティング広告は明示的な同意がある場合にしかできず、かつ宗教や政治的思考、人種と言った機微情報に基づくターゲティングは禁止されているようです...また、外国勢力による政治広告は禁止されています。政治干渉を避けるためです。

米国は、表現の自由が民主主義に必要という考えが強いので、憲法で保護されています。それでも、Federal Election Campaign Act [wikipedia]などにより広告主の表示や政治資金の公開制度が整備されています。2023年のFEC規則と合わせるとインターネットにおける規制も行われている感じです...

一方、日本の場合は、政治広告そのものを直接規制するのではなく、主に公職選挙法公職選挙法施行令公職選挙法施行規則)による選挙活動の規制と、政治資金規正法政治資金規正法施行令政治資金規正法施行規則)による政治資金の透明性によって政治活動を統制する仕組みとなっているのだろうと思います(総務省ー選挙)。どちらかというと、寄附や政治資金の収支が主な対象に思います...(その政治資金の透明性に関する規制も政治家自身により有耶無耶にされていると感じている人も多いかもしれません...)SNS広告やターゲティング広告など、デジタル環境における政治広告を十分に想定していないようにも感じます。SNS広告やインフルエンサーによる政治的メッセージが政治資金として扱われるのかについても、制度上は必ずしも明確になっていないところがあるかもしれない...政治資金制度とデジタル政治広告の制度を明確につないで、透明性を高めることが重要なのではないなぁ...と思ったりしました。

そこで、「欧州の政治広告規制」を頭の体操の出発点にして、日本にFitした制度を考えても良いように思いました...

例えば、公職選挙法は、選挙の構成、候補者間の平等を確保するため、選挙運動期間中に行われる文書図画の頒布・掲示などの選挙運動について一定の規制がされています。政治資金規正法は寄附規制、収支報告書の公開、資金公開等によって政治資金の流れを公開する制度となっていますが、オンライン広告が誰によって、どの程度の費用で配信されているのかを体系的に把握する仕組みは存在しない。また、SNS広告やインフルエンサーによる政治的メッセージが政治資金として扱われるのかについても、制度上は必ずしも明確ではない。

政治家の中にはFake Newが問題だと言っておられるかも多いようですし...

 

EDPB

・2026.03.06 Stakeholder event on political advertising: agenda available now

・[PDF]

20260314-202324

Stakeholder event on EDPB Guidelines on the processing of personal data to target or deliver political advertisements – discussion paper  政治広告のターゲティングまたは配信におけるパーソナルデータの処理に関するEDPBガイドラインに関するステークホルダー向けイベント – 討議資料 
1 Introduction  1 序論
Following the adoption of Regulation (EU) 2024/900 of the European Parliament and of the Council of 13 March 2024 on the transparency and targeting of political advertising, new legal frameworks have been established governing the use of targeting and ad delivery techniques for online political advertising based on the processing of personal data.  2024年3月13日の欧州議会および理事会規則(EU)2024/900「政治広告の透明性およびターゲティングに関する規則」の採択を受け、パーソナルデータの処理に基づくオンライン政治広告におけるターゲティングおよび広告配信技術の使用を規律する新たな法的枠組みが確立された。
That Regulation, in particular Chapter III, supplements Regulation (EU) 2016/679 and Regulation (EU) 2018/1725 for the processing of personal data in the context of political advertising, with the aim of ensuring respect for fundamental rights, including the right to the protection of personal data. Pursuant to Article 22(2) of Regulation (EU) 2024/900, the European Data Protection Board is empowered, on its own initiative or at the request of the European Commission, to prepare guidelines for the purpose of assisting supervisory authorities in assessing compliance with the requirements of that Regulation, in particular as regards the application of Articles 18 and 19.  同規則、特に第III章は、政治広告の文脈におけるパーソナルデータの処理に関して、規則(EU)2016/679および規則(EU)2018/1725を補完するものであり、個人データの保護権を含む基本的権利の尊重を確保することを目的としている。規則(EU)2024/900の第22条第2項に基づき、欧州データ保護会議は、自らの発議または欧州委員会の要請により、監督当局が同規則の要件、特に第18条および第19条の適用に関する遵守状況を評価するのを支援する目的で、ガイドラインを作成する権限を有する。
In the context of the preparatory work on those guidelines, and in order to gather information on market practices in the area of targeting and ad delivery of online political advertising, the EDPB has organised a remote stakeholders’ event on 27 March 2026 and has prepared this list of questions for discussion between stakeholders.  当該ガイドラインの策定作業の一環として、またオンライン政治広告のターゲティングおよび配信分野における市場慣行に関する情報を収集するため、EDPBは2026年3月27日にリモート形式のステークホルダー向けイベントを開催し、ステークホルダー間の議論のために本質問リストを作成した。
2 Questions to stakeholders  2 ステークホルダーへの質問 
TARGETING PRINCIPLES  ターゲティングの原則 
Q1. How have data processing practices for online political advertising evolved since the regulation's entry into force, and what actions did you implement to ensure compliance with Article 18? Which concepts or obligations related to Articles 18 of the regulation would benefit from further guidance from the EDPB?  Q1. 同規則の発効以来、オンライン政治広告におけるデータ処理の実務はどのように変化したか。また、第18条への準拠を確保するためにどのような措置を講じたか。同規則の第18条に関連するどの概念や義務について、EDPBからのさらなるガイダンスが有益であると考えられるか。 
Q2. What, in your view, are the best practices to follow to support compliance with Article 18? For example, what actions should be recommended to mitigate risks for processing special categories of personal data in the context of targeting, and how is the distinction between permissible personalisation and prohibited profiling usually approached in the market?  Q2. 第18条の遵守を支援するために従うべきベストプラクティスとは、貴方の見解では何であるか。例えば、ターゲティングの文脈における特別なカテゴリーの個人データの処理に伴うリスクを緩和するために、どのような措置を推奨すべきか。また、許容されるパーソナライゼーションと禁止されるプロファイリングの区別は、市場において通常どのように扱われているか。
Q3. How is personal data for political targeting collected, and what mechanisms are used to obtain explicit consent and prevent the targeting of individuals within one year of voting age? What types of “equivalent alternatives” are generally offered and how is the withdrawal of consent to political advertising targeting implemented in practice?  Q3. 政治的なターゲティングのための個人データはどのように収集されており、明示的な同意を取得し、投票年齢に達する1年以内の個人に対するターゲティングを防ぐためにどのような仕組みが用いられているか。一般的にどのような種類の「同等の代替手段」が提供されており、政治広告のターゲティングに対する同意の撤回は実務上どのように実施されているか。
TRANSPARENCY AND DOCUMENTATION OBLIGATIONS (Art. 19(1))  透明性および文書化の義務(第19条(1))
Q4. Which concepts or obligations related to Articles 19 of the regulation would benefit from further guidance from the EDPB?  Q4. 規則第19条に関連するどの概念や義務について、EDPBからのさらなるガイダンスが有益か。
Q5. What, in your view, are the best practices to follow to support compliance with the transparency obligations? How are AI systems used for in the targeting or ad delivery of the political advertising and what, in your view, are the best practices for communicating this information to data subjects?  Q5. 透明性義務の遵守を支援するために従うべきベストプラクティスは、貴社の見解では何か。政治広告のターゲティングや配信においてAIシステムはどのように使用されており、この情報をデータ対象者に伝達するためのベストプラクティスは、貴社の見解では何か。 
Q6. What categories of personal data are generally processed for the purpose of delivering political advertisements, and what types of risks are typically considered when preparing an internal annual risk assessment under Article 19(1)(d)?  Q6. 政治広告の配信を目的として一般的に処理される個人データのカテゴリーは何か。また、第19条(1)(d)に基づく内部年次リスクアセスメントを作成する際、通常どのような種類のリスクが考慮されるか。 
COOPERATION AND INFORMATION EXCHANGE IN THE SUPPLY CHAIN (ART. 19(2) AND ART. 19(3))  サプライチェーンにおける協力と情報交換(第19条(2)および第19条(3))
Q7. What standards and procedures are generally applied to ensure timely and accurate information exchange between controllers, publishers, and providers of political advertising services? In your experience, which roles do these parties tend to play within the data protection framework (e.g. controller/joint-controller/processor and what practical arrangements have you put in place to manage the flow of information between those actors?  Q7. データ管理者、パブリッシャー、および政治広告プロバイダの間に、適時かつ正確な情報交換を確保するために、一般的にどのような標準や手順が適用されているか。あなたの経験上、データ保護の枠組みにおいて、これらの当事者はどのような役割を担う傾向にあるか(例:データ管理者/共同データ管理者/データ処理者)。また、これらの主体間の情報の流れを管理するために、どのような実務上の取り決めを講じているか。 
Q8. How should coordination between multiple publishers take place in practice, in particular, regarding their transparency obligations?  Q8. 特に透明性に関する義務に関して、複数のパブリッシャー間の調整は実務上どのように行われるべきか。

 

 

・2024.03.20 Regulation (EU) 2024/900 of the European Parliament and of the Council of 13 March 2024 on the transparency and targeting of political advertising (Text with EEA relevance)

20260313-52547

 

 

 

 

 

| | Comments (0)

2026.03.14

欧州 ETSI GR ISC 004 V1.1.1 (2026-02) 統合センシング・コミュニケーション(ISAC);セキュリティ、プライバシー、信頼性、および持続可能性 (2026.03.02)

こんにちは、丸山満彦です。

6G における ISAC(Integrated Sensing and Communication)を安全・プライバシー保護・信頼性・サステナビリティの観点から体系的に整理した包括的なレポートです...

6G の ISAC が社会実装される際に直面する課題を網羅し、19 の主要課題(15 がセキュリティ/プライバシー、4 がサステナビリティ)として整理していますね...

重要課題

5  Key issues on security and privacy 5 セキュリティとプライバシーに関する重要課題
#1: Use of 6GS for unauthorized sensing #1:不正な検知における6GSの利用
#2: Use of sensing signals by the target for data eavesdropping #2:データ盗聴を目的としたターゲットによるセンシング信号の利用
#3: Over-the-air manipulation of 6G RF sensing signals #3:6G RFセンシング信号の無線による操作
#4: Secure handling of sensing data #4:センシングデータの安全な取り扱い
#5: Integrity of ISAC-enabled 6GS entities, and immutability of sensing data or sensing results #5:ISAC対応6GS事業体の完全性、およびセンシングデータまたはセンシング結果の不変性
#6: Sensing privacy, confidentiality, and consent in non-public spaces #6:非公共空間におけるセンシングのプライバシー、機密性、および同意
#7: Privacy issues related to consent and transparency #7:同意と透明性に関するプライバシーの問題
#8: Privacy-related aspects regarding sensing of humans that are not connected to the 6GS #8:6GSに関連しない、人間を対象としたセンシングに関するプライバシー関連の側面
#9: Privacy-related aspects regarding sensing of humans that are connected to the 6GS #9:6GSに接続された人間のセンシングに関するプライバシー関連の側面
#10: Unauthorized passive 6G RF sensing #10:不正な受動的 6G RF センシング
#11: Authorization of ISAC-enabled 6GS entities #11:ISAC対応6GS事業体の認可
#12: Privacy-related aspects regarding UE positioning in sensing #12:センシングにおける UE 位置情報に関するプライバシー関連の側面
#13: Privacy risks from heterogeneous sensing capabilities #13:異種センシング機能に起因するプライバシーリスク
#14: Privacy-related aspects of AI-based sensing data processing #14:AI ベースのセンシングデータ処理におけるプライバシー関連の側面
#15: Privacy challenges and malicious attacks in cooperative sensing #15:協調センシングにおけるプライバシーの課題と悪意のある攻撃
7  key issuess on sustainability 7 持続可能性に関する重要課題
#1: Power consumption of ISAC-enabled 6GS #1:ISAC対応6GSの電力消費
#2: Utilization of spectrum resources in ISACenabled 6GS #2:ISAC対応6GSにおける周波数資源の利用
#3: Overall environmental system footprint of ISAC-enabled 6GS #3:ISAC対応6GSの環境システム全体への影響
#4: Considerations on 'good health and well-being' with ISAC-enabled 6GS #4:ISAC対応6GSにおける「健康と福祉」に関する考慮事項

 

 

ETSI

・2026.03.02 ETSI issues new Report on Security, Privacy, Trustworthiness and Sustainability for 6G Integrated Sensing and Communications 

ETSI issues new Report on Security, Privacy, Trustworthiness and Sustainability for 6G Integrated Sensing and Communications  ETSI、6G統合センシング・コミュニケーションのセキュリティ、プライバシー、信頼性、持続可能性に関する新たな報告書を公表
The ETSI Industry Specification Group on Integrated Sensing and Communications (ISAC) has published ETSI GR ISC 004, a comprehensive report addressing security, privacy, trustworthiness, and sustainability considerations for Integrated Sensing and Communications (ISAC) in future 6G systems. ETSIの統合センシング・コミュニケーション(ISAC)産業仕様グループは、将来の6Gシステムにおける統合センシング・コミュニケーション(ISAC)のセキュリティ、プライバシー、信頼性、および持続可能性に関する検討事項を網羅した報告書「ETSI GR ISC 004」を公表した。
The report identifies 19 key issues, including 15 related to security and privacy and 4 focused on sustainability, reflecting the growing importance of responsible design in next-generation networks. As ISAC enables 6G systems to simultaneously communicate and sense their environment, new technical, ethical, and regulatory challenges emerge—particularly around unauthorised sensing, data confidentiality, human privacy, AI-based data processing, and secure handling of sensing data. 本報告書は、次世代ネットワークにおける責任ある設計の重要性の高まりを反映し、セキュリティとプライバシーに関連する15項目、持続可能性に焦点を当てた4項目を含む計19の重要課題を識別している。ISACにより6Gシステムは通信と環境センシングを同時に行うことが可能となるため、特に不正なセンシング、データの機密性、個人のプライバシー、AIベースのデータ処理、およびセンシングデータの安全な取り扱いに関して、新たな技術的、倫理的、規制上の課題が生じている。
The ETSI Report addresses the following main topics: ETSIの報告書は、以下の主要なトピックを取り上げている:
・Protection against unauthorised use of 6G systems for sensing ・6Gシステムがセンシング目的で不正に使用されることへの対策
・Safeguards against target-based eavesdropping and over-the-air signal manipulation ・標的型盗聴および無線信号の改ざんに対する防護策
・Secure transport, storage, and immutability of sensing data ・センシングデータの安全な転送、保存、および不変性
・Consent, transparency, and privacy-preserving mechanisms for sensing humans (connected and non-connected) ・人間(接続されているか否かを問わず)をセンシングする際の同意、透明性、およびプライバシー保護メカニズム
・Confidentiality in non-public and sensitive spaces ・非公開および機密性の高い空間における機密性
・Sustainability challenges including power consumption, spectrum efficiency, environmental footprint, and health considerations ・消費電力、スペクトル効率、環境負荷、健康への配慮を含む持続可能性の課題
The report consolidates potential technical and non-technical requirements that future 6G systems should meet to ensure ISAC services are secure, privacy-preserving, trustworthy, and environmentally sustainable. 本報告書は、ISACサービスが安全で、プライバシーを保護し、信頼性が高く、環境的に持続可能なものであることを確保するために、将来の6Gシステムが満たすべき潜在的な技術的および非技術的要件をまとめたものである。
By providing a structured analysis of threats, regulatory considerations, and performance metrics, ETSI GR ISC 004 establishes an important foundation for embedding trust, resilience, and sustainability into the design of future 6G ISAC-enabled systems. 脅威、規制上の考慮事項、および性能指標に関する体系的な分析を提供することで、ETSI GR ISC 004は、将来の6G ISAC対応システムの設計に信頼性、レジリエンス、および持続可能性を組み込むための重要な基盤を確立している。

 

・[PDF

20260314-15703

・[DOCX][PDF] 仮訳

 

エグゼクティブサマリー...

Executive summary エグゼクティブサマリー
The present document provides a comprehensive study on aspects related to security, privacy, trustworthiness, and sustainability within the context of Integrated Sensing and Communications (ISAC). 本文書は、統合センシング・コミュニケーション(ISAC)の文脈における、セキュリティ、プライバシー、信頼性、および持続可能性に関連する側面について包括的な調査を提供する。
The present document identifies 19 key issues, of which 15 are related to privacy and security, and 4 related to sustainability. For each key issue, a detailed description is provided, together with potential technical and non-technical requirements. For the privacy and security key issues, the analysis is supported with a comprehensive set of threats per key issue. 本ドキュメントでは 19 の重要課題を特定しており、そのうち 15 はプライバシーとセキュリティに関連し、4 つは持続可能性に関連している。各重要課題について、詳細な説明と、想定される技術的および非技術的要件が示されている。プライバシーとセキュリティに関する重要課題については、各課題ごとの包括的な脅威のセットを用いて分析が裏付けられている。
In addition, the present document includes initial considerations on aspects related to trustworthiness and ownership of sensing data. The potential technical and non-technical requirements are analysed to identify consolidated requirements that future 6G systems should meet to deploy secure, privacy-preserving, trustworthy, and sustainable ISAC services. さらに、本報告書では、センシングデータの信頼性や所有権に関連する側面について、初期的な考察を盛り込んでいる。技術的および非技術的な要件の候補を分析し、安全でプライバシーを保護し、信頼性が高く、持続可能なISACサービスを展開するために、将来の6Gシステムが満たすべき統合要件を特定する。

 

目次...

Executive summary エグゼクティブサマリー
Introduction 序論
1 Scope 1 範囲
2 References 2 参考文献
2.1 Normative references 2.1 規範的参照
2.2 Informative references 2.2 参考資料
3 Definition of terms, symbols and abbreviations 3 用語、記号および略語の定義
3.1 Terms 3.1 用語
3.2 Symbols 3.2 記号
3.3 Abbreviations 3.3 略語
4 Definitions and foundations for security, privacy, trustworthiness, and sustainability 4 セキュリティ、プライバシー、信頼性、および持続可能性に関する定義と基礎
4.1 System terminology for ISAC-enabled 6G systems 4.1 ISAC対応6Gシステムのためのシステム用語
4.2 Security 4.2 セキュリティ
4.3 Personal Identifiable Information (PII) 4.3 個人を特定できる情報(PII)
4.4 Privacy 4.4 プライバシー
4.5 Trustworthiness 4.5 信頼性
4.6 Sensing policy, sensing consent and sensing transparency 4.6 センシング方針、センシング同意、およびセンシングの透明性
4.6.1 Sensing policy 4.6.1 センシング方針
4.6.2 Sensing consent 4.6.2 センシング同意
4.6.3 Sensing transparency 4.6.3 センシングの透明性
4.7 Sustainability 4.7 持続可能性
4.8 Types of Sensing Targets in ISAC-Enabled 6GS 4.8 ISAC対応6GSにおけるセンシング対象の種類
5 Key issues on security and privacy 5 セキュリティとプライバシーに関する主要課題
5.1 Key issue #1: Use of 6GS for unauthorized sensing 5.1 重要課題 #1:不正な検知における6GSの利用
5.1.1 Key issue details 5.1.1 主要課題の詳細
5.1.2 Security, privacy, and trustworthiness threats 5.1.2 セキュリティ、プライバシー、および信頼性に対する脅威
5.1.3 Potential requirements and metrics 5.1.3 想定される要件と評価指標
5.2 Key issue #2: Use of sensing signals by the target for data eavesdropping 5.2 重要課題 #2:データ盗聴を目的としたターゲットによるセンシング信号の利用
5.2.1 Key issue details 5.2.1 主要課題の詳細
5.2.2 Security, confidentiality, and trustworthiness threats 5.2.2 セキュリティ、機密性、および信頼性に対する脅威
5.2.3 Potential requirements and metrics 5.2.3 想定される要件と評価指標
5.3 Key issue #3: Over-the-air manipulation of 6G RF sensing signals 5.3 重要課題 #3:6G RFセンシング信号の無線による操作
5.3.1 Key issue details 5.3.1 主要課題の詳細
5.3.2 Security, privacy, and trustworthiness threats 5.3.2 セキュリティ、プライバシー、信頼性に対する脅威
5.3.3 Potential requirements and metrics 5.3.3 想定される要件と指標
5.4 Key issue #4: Secure handling of sensing data 5.4 重要課題 #4:センシングデータの安全な取り扱い
5.4.1 Key issue details 5.4.1 主要課題の詳細
5.4.2 Security, privacy, and trustworthiness threats 5.4.2 セキュリティ、プライバシー、信頼性に関する脅威
5.4.3 Potential requirements and metrics 5.4.3 想定される要件と測定基準
5.5 Key issue #5: Integrity of ISAC-enabled 6GS entities, and immutability of sensing data or sensing results 5.5 重要課題 #5:ISAC対応6GS事業体の完全性、およびセンシングデータまたはセンシング結果の不変性
5.5.1 Key Issue details 5.5.1 重要課題の詳細
5.5.2 Potential threats 5.5.2 潜在的な脅威
5.5.3 Potential requirements and metrics 5.5.3 潜在的な要件と指標
5.6 Key issue #6: Sensing privacy, confidentiality, and consent in non-public spaces 5.6 重要課題 #6:非公共空間におけるセンシングのプライバシー、機密性、および同意
5.6.1 Key issue details 5.6.1 重要課題の詳細
5.6.2 Security, privacy, and trustworthiness threats 5.6.2 セキュリティ、プライバシー、信頼性に関する脅威
5.6.3 Potential requirements and metrics 5.6.3 想定される要件と指標
5.7 Key issue #7: Privacy issues related to consent and transparency 5.7 重要課題 #7:同意と透明性に関するプライバシーの問題
5.7.1 Key issue details 5.7.1 主要な課題の詳細
5.7.2 Security, privacy, and trustworthiness threats 5.7.2 セキュリティ、プライバシー、および信頼性に対する脅威
5.7.3 Potential new requirements 5.7.3 想定される新たな要件
5.8 Key issue #8: Privacy-related aspects regarding sensing of humans that are not connected to the 6GS 5.8 重要課題 #8:6GSに関連しない、人間を対象としたセンシングに関するプライバシー関連の側面
5.8.1 Key issue details 5.8.1 主要課題の詳細
5.8.2 Security, privacy, and trustworthiness threats 5.8.2 セキュリティ、プライバシー、信頼性に関する脅威
5.8.3 Potential requirements and metrics 5.8.3 想定される要件と指標
5.8.4 Potential regulatory requirements 5.8.4 想定される規制要件
5.9 Key issue #9: Privacy-related aspects regarding sensing of humans that are connected to the 6GS 5.9 重要課題 #9:6GSに接続された人間のセンシングに関するプライバシー関連の側面
5.9.1 Key issue details 5.9.1 重要課題の詳細
5.9.2 Security, privacy, and trustworthiness threats 5.9.2 セキュリティ、プライバシー、および信頼性に関する脅威
5.9.3 Potential requirements and metrics 5.9.3 想定される要件と指標
5.9.4 Potential regulatory requirements 5.9.4 想定される規制要件
5.10 Key issue #10: Unauthorized passive 6G RF sensing 5.10 重要課題 #10:不正な受動的 6G RF センシング
5.10.1 Key issue details 5.10.1 重要課題の詳細
5.10.2 Security, privacy, and trustworthiness threats 5.10.2 セキュリティ、プライバシー、および信頼性に対する脅威
5.10.3 Potential requirements and metrics 5.10.3 想定される要件と評価指標
5.11 Key issue #11: Authorization of ISAC-enabled 6GS entities 5.11 重要課題 #11:ISAC対応6GS事業体の認可
5.11.1 Key Issue details 5.11.1 主要課題の詳細
5.11.2 Potential threats 5.11.2 潜在的な脅威
5.11.3 Potential requirements and metrics 5.11.3 想定される要件と指標
5.12 Key issue #12: Privacy-related aspects regarding UE positioning in sensing 5.12 重要課題 #12:センシングにおける UE 位置情報に関するプライバシー関連の側面
5.12.1 Key issue details 5.12.1 主要課題の詳細
5.12.2 Security, privacy, and trustworthiness threats 5.12.2 セキュリティ、プライバシー、信頼性に対する脅威
5.12.3 Potential requirements and metrics 5.12.3 想定される要件と指標
5.13 Key issue #13: Privacy risks from heterogeneous sensing capabilities 5.13 重要課題 #13:異種センシング機能に起因するプライバシーリスク
5.13.1 Key issue details 5.13.1 主要課題の詳細
5.13.2 Security, privacy and trustworthiness threats 5.13.2 セキュリティ、プライバシー、信頼性に対する脅威
5.13.3 Potential new requirements 5.13.3 想定される新たな要件
5.14 Key issue #14: Privacy-related aspects of AI-based sensing data processing 5.14 重要課題 #14:AI ベースのセンシングデータ処理におけるプライバシー関連の側面
5.14.1 Key issue details 5.14.1 重要課題の詳細
5.14.2 Security, privacy, and trustworthiness threats 5.14.2 セキュリティ、プライバシー、信頼性に関する脅威
5.14.3 Potential requirements and metrics 5.14.3 想定される要件と指標
5.15 Key issue #15: Privacy challenges and malicious attacks in cooperative sensing 5.15 重要課題 #15:協調センシングにおけるプライバシーの課題と悪意のある攻撃
5.15.1 Key issue details 5.15.1 主要課題の詳細
5.15.2 Security, privacy, and trustworthiness threats 5.15.2 セキュリティ、プライバシー、信頼性に対する脅威
5.15.3 Potential requirements and metrics 5.15.3 潜在的な要件と指標
6 Considerations and consolidation for privacy, security, and trustworthiness 6 プライバシー、セキュリティ、信頼性に関する考慮事項と統合
6.1 Considerations on sensing data ownership and accountability in ISAC System 6.1 ISACシステムにおけるセンシングデータの所有権および説明責任に関する考慮事項
6.2 Considerations for trustworthiness 6.2 信頼性に関する考察
6.3 Consolidated Potential Functional Requirements 6.3 統合された潜在的な機能要件
7 Key issues on sustainability 7 持続可能性に関する主要課題
7.1 Key issue #1: Power consumption of ISAC-enabled 6GS 7.1 重要課題 #1:ISAC対応6GSの電力消費
7.1.1 Key issue details 7.1.1 主要課題の詳細
7.1.2 Potential requirements and metrics 7.1.2 想定される要件と指標
7.2 Key issue #2: Utilization of spectrum resources in ISACenabled 6GS 7.2 重要課題 #2:ISAC対応6GSにおける周波数資源の利用
7.2.1 Key issue details 7.2.1 主要課題の詳細
7.2.2 Potential requirements and metrics 7.2.2 想定される要件と評価指標
7.3 Key issue #3: Overall environmental system footprint of ISAC-enabled 6GS 7.3 重要課題 #3:ISAC対応6GSの環境システム全体への影響
7.3.1 Key issue details 7.3.1 重要課題の詳細
7.3.2 Potential requirements and metrics 7.3.2 想定される要件と評価指標
7.4 Key issue #4: Considerations on 'good health and well-being' with ISAC-enabled 6GS 7.4 重要課題 #4:ISAC対応6GSにおける「健康と福祉」に関する考慮事項
7.4.1 Key issue details 7.4.1 重要課題の詳細
7.4.2 Potential requirements and metrics 7.4.2 想定される要件と指標
8 Considerations and consolidation on sustainability 8 持続可能性に関する考察と統合
8.1 High-level objectives for sustainability 8.1 持続可能性に関する高レベルな目標
9 Conclusion 9 結論
Annex A: Mapping of security and privacy key issues to use cases of ETSI GR ISC 001 附属書A:セキュリティおよびプライバシーの主要課題とETSI GR ISC 001のユースケースとの対応関係
Annex B: Mapping of sustainability key issues to use cases of ETSI GR ISC 001 附属書B:持続可能性に関する主要課題とETSI GR ISC 001のユースケースとの対応関係
History 沿革

 

 

 

| | Comments (0)

2026.03.13

欧州 ETSI 人工知能のセキュリティ確保(SAI);AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15)

こんにちは、丸山満彦です。

ETSI 人工知能のセキュリティ確保(SAI);AIモデル及びシステムに対する基本サイバーセキュリティ要件が公表されていました...

 

13の原則...

AI Security Principles and Provisions  AIセキュリティ原則と規定 
1 Secure Design  1 安全な設計 
1.1 Principle 1: Raise awareness of AI security threats and risks  1.1 原則1:AIセキュリティ上の脅威とリスクに対する認識を高める 
1.2 Principle 2: Design the AI system for security as well as functionality and performance  1.2 原則2:機能性や性能と同様に、セキュリティを考慮した AI システムの設計 
1.3 Principle 3: Evaluate the threats and manage the risks to the AI system  1.3 原則3:AIシステムに対する脅威を評価し、リスクマネジメントを行う 
1.4 Principle 4: Enable human responsibility for AI systems  1.4 原則4:AIシステムに対する人間の責任を可能にする 
2 Secure Development  2 セキュア開発 
2.1 Principle 5: Identify, track and protect the assets  2.1 原則 5:資産を識別、追跡、防御する 
2.2 Principle 6: Secure the infrastructure  2.2 原則 6: インフラの保護 
2.3 Principle 7: Secure the supply chain  2.3 原則 7:サプライチェーンの保護 
2.4 Principle 8: Document data, models and prompts  2.4 原則8:データ、モデル、プロンプトを文書化する 
2.5 Principle 9: Conduct appropriate testing and evaluation  2.5 原則 9: 適切なテストと評価の実施 
3 Secure Deployment  3 安全な展開 
3.1 Principle 10: Communication and processes associated with End-users and Affected Entities  3.1 原則 10: エンドユーザーおよび影響を受ける事業体に関連するコミュニケーションとプロセス 
4 Secure Maintenance  4 安全な保守 
4.1 Principle 11: Maintain regular security updates, patches and mitigations  4.1 原則 11: 定期的なセキュリティ更新、パッチ適用、緩和策の実施 
4.2 Principle 12: Monitor the system's behaviour  4.2 原則12:システムの動作を監視する 
5 Secure End of Life  5 安全なライフサイクル終了 
5.1 Principle 13: Ensure proper data and model disposal  5.1 原則 13: 適切なデータおよびモデルの廃棄を確保する 

 

ETSI

・2026.01.15 ETSI releases world-leading standard for securing AI

ETSI releases world-leading standard for securing AI ETSIがAIのセキュリティ確保に向けた世界最先端の標準を発表
Today ETSI announces the publication of its new standard, ETSI EN 304 223, that provides baseline cybersecurity requirements for AI models and systems. Building on the foundational work set out in its recent Technical Specification, it is a first globally applicable European Standard (EN) for AI cybersecurity. The EN has been extensively reviewed, and formally approved by National Standards Organisations voting, giving it a broader international scope and strengthening its authority across global markets. 本日、ETSIは新たな標準規格「ETSI EN 304 223」の公表を発表した。これはAIモデルおよびシステムに対するサイバーセキュリティの基盤要件を規定するものである。最近の技術仕様で示された基礎的な取り組みを基に構築された本規格は、AIサイバーセキュリティ分野において世界で初めて適用可能な欧州標準(EN)となる。本ENは各国標準化機関による投票を経て正式に承認され、広範な国際的適用範囲と世界市場における権威性を強化している。
ETSI EN 304 223 establishes a robust framework to shield AI systems from growing and increasingly sophisticated cyber threats. Reinforcing the principles introduced in ETSI TS 104 223, the new standard guarantees a mature, structured and lifecycle-based set of baseline security requirements for AI models and systems. ETSI EN 304 223は、増大し高度化するサイバー脅威からAIシステムを保護する強固な枠組みを確立する。ETSI TS 104 223で導入された原則を強化し、AIモデル及びシステム向けの成熟した構造化ライフサイクルベースの基盤セキュリティ要件を保証する標準。
The standard acknowledges that AI represents a distinct cybersecurity challenge that traditional software has not offered. Traditional software introduced the world to the need for cybersecurity awareness. Today the risks emerging from AI require cyber defences that account for these new and unique characteristics. These risks include data poisoning, model obfuscation, indirect prompt injection, and vulnerabilities created by complex data management and operational practices. The ETSI EN reconciles established best practices in cybersecurity with targeted, novel measures designed specifically for AI systems. 本標準は、AIが従来のソフトウェアでは生じなかった独自のサイバーセキュリティ課題をもたらすことを認識している。従来型ソフトウェアはサイバーセキュリティ意識の必要性を世に示したが、今日AIから生じるリスクには、こうした新奇かつ特異な特性を考慮した防御策が求められる。リスクにはデータ・ポイズニング、モデル・難読化、間接的プロンプト・インジェクション、複雑なデータ管理・運用慣行による脆弱性などが含まれる。ETSI ENは確立されたサイバーセキュリティのベストプラクティスと、AIシステム向けに特別に設計された標的型の新規対策を調和させている。
Adopting a whole life-cycle approach, ETSI EN 304 223 defines 13 principles and requirements across five phases: secure design, secure development, secure deployment, secure maintenance, and secure end of life. Each one of these phases align with internationally recognised AI lifecycle models, ensuring consistency and interoperability with existing standards and guidance. Relevant standards and publications are referenced at the start of each principle to support implementation and harmonisation within the wider AI ecosystem. 全ライフサイクルアプローチを採用したETSI EN 304 223は、5つのフェーズ(セキュア設計、セキュア開発、セキュア展開、セキュア保守、セキュア廃棄)にわたり13の原則と要件を定義する。各フェーズは国際的に認知されたAIライフサイクルモデルと整合し、既存の標準やガイダンスとの一貫性と相互運用性を確保する。各原則の冒頭では、関連標準や出版物を参照し、広範なAIエコシステム内での実装と調和を支援している。
The EN will be instrumental for stakeholders throughout the AI supply chain, from vendors to integrators and operators, and will provide them with a clear and logical baseline for AI security. Its scope covers AI systems incorporating deep neural networks, including generative AI, and is developed for systems intended for real-world deployments. It reflects the expertise of international organisations, government bodies, and the cybersecurity and AI communities whose contributions ensure this collaborative, cross‑disciplinary effort is both globally relevant and practically applicable across diverse sectors. 本EN標準は、プロバイダからインテグレーター、オペレーターに至るAIサプライチェーン全体の関係者にとって有用であり、AIセキュリティの明確かつ論理的な基盤を提供する。その適用範囲は、生成的AIを含む深層ニューラルネットワークを組み込んだAIシステムをカバーし、実世界での展開を目的としたシステム向けに開発されている。国際機関、政府団体、サイバーセキュリティおよびAIコミュニティの専門知識を反映しており、これらの貢献により、この協調的かつ学際的な取り組みが世界的に関連性を持つと同時に、多様な分野で実用的に適用可能となっている。
Finally, an upcoming Technical Report, ETSI TR 104 159, will further this work with a domain-specific application of the ETSI EN 304 223 principles to generative AI, focusing on deepfakes, misinformation, disinformation, confidentiality risks, copyright and IPR concerns, while delivering more prescriptive specifications for this domain where necessary. 最後に、近々公開予定の技術報告書ETSI TR 104 159は、生成的AIに特化した形でETSI EN 304 223の原則を適用し、ディープフェイク、誤情報、偽情報、機密性リスク、著作権及び知的財産権の問題に焦点を当てつつ、必要に応じてこの分野向けのより規範的な技術仕様を提供する。
"ETSI EN 304 223 represents an important step forward in establishing a common, rigorous foundation for securing AI systems", said Scott Cadzow, Chair of ETSI's Technical Committee for Securing Artificial Intelligence". "At a time when AI is being increasingly integrated into critical services and infrastructure, the availability of clear, practical guidance that reflects both the complexity of these technologies and the realities of deployment cannot be underestimated. The work that went into delivering this framework is the result of extensive collaboration and it means that organisations can have full confidence in AI systems that are resilient, trustworthy, and secure by design."  「ETSI EN 304 223は、AIシステムのセキュリティ確保に向けた共通の厳格な基盤を確立する上で重要な前進だ」と、ETSI人工知能セキュリティ技術委員会委員長スコット・カズォウは述べた。「AIが重要サービスやインフラにますます統合される中、これらの技術の複雑性と展開の現実の両方を反映した明確で実践的な指針の重要性は計り知れない。この枠組みの策定には広範な協力が結実しており、組織は設計段階からレジリエンス・信頼性・安全性を備えたAIシステムを完全に信頼できるようになる。」

 

 

・[PDF] ETSI EN 304 223 V2.1.1 (2025-12)

20260313-54711

 

5 AI Security Principles and Provisions  5 AIセキュリティ原則と規定 
5.1 Secure Design  5.1 安全な設計 
5.1.1 Principle 1: Raise awareness of AI security threats and risks  5.1.1 原則1:AIセキュリティ上の脅威とリスクに対する認識を高める 
Primarily applies to: System Operators, Developers, and Data Custodians  主な適用対象:システム運用者、開発者、データ管理者 
References: [i.7], [i.8], [i.9], [i.10], [i.11], [i.12], [i.13], [i.14], [i.15].   参照:[i.7]、[i.8]、[i.9]、[i.10]、[i.11]、[i.12]、[i.13]、[i.14]、[i.15]。  
Provision 5.1.1-1 Organizations' cyber security training programme shall include AI security content which shall be regularly reviewed and updated, such as if new substantial AI-related security threats emerge.   規定 5.1.1-1 組織のサイバーセキュリティ研修プログラムには、AIセキュリティに関する内容を含めるものとする。この内容は、新たな重大なAI関連のセキュリティ脅威が発生した場合など、定期的に見直しと更新を行うものとする。  
Provision 5.1.1-1.1 AI security training shall be tailored to the specific roles and responsibilities of staff members.   規定 5.1.1-1.1 AIセキュリティ研修は、職員の特定の役割と責任に合わせて調整されるものとする。  
Provision 5.1.1-2 As part of an Organization's wider staff training programme, they shall require all staff to maintain awareness of the latest security threats and vulnerabilities that are AI-related. Where available, this awareness shall include proposed mitigations.   規定 5.1.1-2 組織は、広範な職員研修プログラムの一環として、全職員に対し、AI関連の最新のセキュリティ脅威や脆弱性に関する認識を維持させることを求める。可能な場合には、この認識には提案されている緩和策も含まれる。  
Provision 5.1.1-2.1 These updates should be communicated through multiple channels, such as security bulletins, newsletters, or internal knowledge-sharing platforms. This will ensure broad dissemination and understanding among the staff.   規定 5.1.1-2.1 これらの更新情報は、セキュリティ情報、ニュースレター、内部知識共有プラットフォームなど、複数のチャネルを通じて伝達されるべきである。これにより、職員間での広範な周知と理解が確保される。  
Provision 5.1.1-2.2 Organizations shall provide developers with training in secure coding and system design techniques specific to AI development, with a focus on preventing and mitigating security vulnerabilities in AI algorithms, models, and associated software.  規定 5.1.1-2.2 組織は、開発者に対し、AI開発に特化したセキュアコーディングおよびシステム設計技術に関する研修を提供しなければならない。その焦点は、AIアルゴリズム、モデル、および関連ソフトウェアにおける脆弱性の防止と緩和に置かれる。 
5.1.2 Principle 2: Design the AI system for security as well as functionality and performance  5.1.2 原則 2:機能性や性能と同様に、セキュリティを考慮した AI システムの設計 
Primarily applies to: System Operators and Developers  主な適用対象:システム運用者、開発者 
References: [i.11], [i.12], [i.10], [i.18], [i.19], [i.20], [i.15], [i.21], [i.22], [i.23], [i.9], [i.24].   参照:[i.11]、[i.12]、[i.10]、[i.18]、[i.19]、[i.20]、[i.15]、[i.21]、[i.22]、[i.23]、[i.9]、[i.24]。  
Provision 5.1.2-1 As part of deciding whether to create an AI system, a System Operator and/or Developer shall conduct a thorough assessment that includes determining and documenting the business requirements and/or problem they are seeking to address, along with associated AI security risks and mitigation strategies.   規定 5.1.2-1 AI システムを構築するかどうかを決定する過程において、システム運用者および/または開発者は、対処しようとするビジネス要件および/または問題を特定し文書化するとともに、関連する AI セキュリティリスクと緩和策を含む徹底的なアセスメントを実施しなければならない。  
Provision 5.1.2-1.1 Where the Data Custodian is part of a Developer's organization, they shall be included in internal discussions when determining the requirements and data needs of an AI system.   規定 5.1.2-1.1 データ管理者が開発者の組織の一部である場合、AI システムの要件およびデータニーズを決定する際の内部協議に、データ管理者を参加させること。  
Provision 5.1.2-2 Developers and System Operators shall ensure that AI systems are designed and implemented to withstand adversarial AI attacks, unexpected inputs and AI system failure.  規定 5.1.2-2 開発者及びシステム運用者は、AIシステムが敵対的AI攻撃、予期せぬ入力、AIシステムの故障に耐えられるよう設計・実装されることを確保しなければならない。 
Provision 5.1.2-3 To support the process of preparing data, security auditing and incident response for an AI system, Developers shall document and create an audit trail in relation to the AI system. This shall include the operation, and lifecycle management of models, datasets and prompts incorporated into the system.  規定 5.1.2-3 AIシステムのデータ準備、セキュリティ監査、インシデント対応プロセスを支援するため、開発者はAIシステムに関連する監査証跡を文書化し作成しなければならない。これには、システムに組み込まれたモデル、データセット、プロンプトの運用およびライフサイクル管理が含まれる。 
Provision 5.1.2-4 If a Developer or System Operator uses an external component, they shall conduct an AI security risk assessment and due diligence process in line with their existing software development processes, that assesses AI specific risks.   規定 5.1.2-4 開発者またはシステム運用者が外部コンポーネントを使用する場合、既存のソフトウェア開発プロセスに沿って、AI固有のリスクを評価するAIセキュリティリスクアセスメントおよびデューデリジェンスプロセスを実施しなければならない。  
Provision 5.1.2-5 Data Custodians shall ensure that the intended usage of the system is appropriate to the sensitivity of the data it was trained on as well as the controls intended to ensure the security of the data.   規定 5.1.2-5 データ管理者は、システムの意図された使用目的が、その学習に使用されたデータの機密性およびデータのセキュリティを確保するための管理措置に適切であることを保証しなければならない。  
Provision 5.1.2-5.1 Organizations should ensure that employees are encouraged to proactively report and identify any potential security risks in AI systems and ensure appropriate safeguards are in place.  規定 5.1.2-5.1 組織は、従業員が AI システムにおける潜在的なセキュリティリスクを積極的に報告・識別するよう奨励し、適切な保護措置が講じられていることを確保すべきである。 
Provision 5.1.2-6 Where the AI system will be interacting with other systems or data sources, (be they internal or external), Developers and System Operators shall ensure that the permissions granted to the AI system on other systems are only provided as required for functionality and are risk assessed.   規定 5.1.2-6 AIシステムが他のシステムやデータソース(内部・外部を問わない)と連携する場合、開発者及びシステム運用者は、AIシステムに付与される権限が機能上必要な範囲に限定され、リスクアセスメントが実施されていることを保証しなければならない。  
Provision 5.1.2-7 If a Developer or System Operator chooses to work with an external provider, they shall undertake a due diligence assessment and should ensure that the provider is adhering to the present document.  規定 5.1.2-7 開発者またはシステム運用者が外部プロバイダとの協業を選択する場合、デューデリジェンスアセスメントを実施し、当該プロバイダが本文書に準拠していることを確認しなければならない。 
5.1.3 Principle 3: Evaluate the threats and manage the risks to the AI system  5.1.3 原則3:AIシステムに対する脅威を評価し、リスクマネジメントを行う 
Primarily applies to: Developers and System Operators   主な適用対象:開発者、システム運用者  
References: [i.5], [i.11], [i.10], [i.25], [i.18], [i.13], [i.21], [i.19], [i.12], [i.17]  参照:[i.5]、[i.11]、[i.10]、[i.25]、[i.18]、[i.13]、[i.21]、[i.19]、[i.12]、[i.17] 
Provision 5.1.3-1 Developers and System Operators shall analyse threats and manage security risks to their systems. Threat modelling should include regular reviews and updates and address AI-specific attacks, such as data poisoning, model inversion, and membership inference.   規定 5.1.3-1 開発者とシステム運用者は、システムに対する脅威を分析し、セキュリティリスクを管理しなければならない。脅威モデリングには定期的な見直しと更新を含め、データ・ポイズニング、モデル逆算、メンバーシップ推論攻撃などのAI特有の攻撃に対処すべきである。  
Provision 5.1.3-1.1 The threat modelling and risk management process shall be conducted to address any security risks that arise when a new setting or configuration option is implemented or updated at any stage of the AI lifecycle.  規定 5.1.3-1.1 脅威モデリングとリスクマネジメントプロセスは、AIライフサイクルのどの段階であれ、新しい設定や構成オプションが実装または更新される際に生じるセキュリティリスクに対処するために実施される。 
Provision 5.1.3-1.2 Developers shall manage the security risks associated with AI models that provide superfluous functionalities, where increased functionality leads to increased risk. For example, where a multi-modal model is being used but only single modality is used for system function.   規定 5.1.3-1.2 開発者は、過剰な機能を提供するAIモデルに関連するセキュリティリスクを管理しなければならない。機能の増加がリスクの増加につながる場合である。例えば、マルチモーダルモデルが使用されているが、システム機能には単一モダリティのみが使用されている場合などである。  
Provision 5.1.3-1.3 System Operators shall apply controls to risks identified through the analysis based on a range of considerations, including the cost of implementation in line with their corporate risk tolerance.   規定 5.1.3-1.3 システム運用者は、企業リスク許容度に沿った実装コストを含む様々な考慮事項に基づく分析を通じて識別されたリスクに対し、管理措置を適用しなければならない。  
Provision 5.1.3-2 Where AI security threats are identified that cannot be resolved by Developers, this shall be communicated to System Operators so they can threat model their systems. System Operators shall communicate this information to End-users, so they are made aware of these threats. This communication should include detailed descriptions of the risks, potential impacts, and recommended actions to address or monitor these threats.   規定 5.1.3-2 開発者が解決できないAIセキュリティ脅威が特定された場合、システム運用者に伝達し、システム脅威モデルを構築させる。システム運用者はこの情報をエンドユーザーに伝達し、脅威を認識させる。伝達内容にはリスクの詳細な説明、潜在的影響、脅威への対応・監視のための推奨措置を含める。  
Provision 5.1.3-3 Where an external entity has responsibility for AI security risks identified within an organizations infrastructure, System Operators should attain assurance that these parties are able to address such risks.   規定 5.1.3-3 組織のインフラ内で識別されたAIセキュリティリスクについて外部事業体が責任を負う場合、システム運用者は当該事業体がリスクに対処できることを保証すべきである。  
Provision 5.1.3-4 Developers and System Operators should continuously monitor and review their system infrastructure according to risk appetite. It is important to recognize that a higher level of risk will remain in AI systems despite the application of controls to mitigate against them.  規定5.1.3-4 開発者とシステム運用者は、リスク許容度に基づきシステムインフラを継続的に監視し、見直すべきである。リスクを緩和するための策を適用しても、AIシステムにはより高いレベルのリスクが残存することを認識することが重要である。 
5.1.4 Principle 4: Enable human responsibility for AI systems  5.1.4 原則4:AIシステムに対する人間の責任を可能にする 
Primarily applies to: Developers and System Operators   主な適用対象:開発者、システム運用者  
References: [i.11], [i.12], [i.20]  参照:[i.11]、[i.12]、[i.20] 
Provision 5.1.4-1 When designing an AI system, Developers and/or System Operators should incorporate and maintain capabilities to enable human oversight.   規定 5.1.4-1 AIシステムを設計する際、開発者および/またはシステム運用者は、人間の監視を可能にする機能を組み込み、維持すべきである。  
Provision 5.1.4-2 Developers should design systems to make it easy for humans to assess outputs that they are responsible for in said system (such as by ensuring that models outputs are explainable or interpretable).   規定 5.1.4-2 開発者は、人間が当該システムにおいて責任を負う出力を容易にアセスメントできるようにシステムを設計すべきである(例えば、モデルの出力が説明可能または解釈可能であることを保証するなど)。  
Provision 5.1.4-3 Where human oversight is a risk control, Developers and/or System Operators shall design, develop, verify and maintain technical measures to reduce the risk through such oversight.  規定 5.1.4-3 人間の監視がリスク管理手段である場合、開発者および/またはシステム運用者は、当該監視を通じてリスクを低減するための技術的措置を設計、開発、検証、維持しなければならない。 
Provision 5.1.4-4 Developers should verify that the security controls specified by the Data Custodian have been built into the system.   規定 5.1.4-4 開発者は、データ管理者が指定したセキュリティ管理策がシステムに組み込まれていることを検証すべきである。  
Provision 5.1.4-5 Developers and System Operators should make End-users aware of prohibited use cases of the AI system.  規定 5.1.4-5 開発者およびシステム運用者は、エンドユーザーに対し、AI システムの禁止使用事例を周知させるべきである。 
5.2 Secure Development  5.2 セキュア開発 
5.2.1 Principle 5: Identify, track and protect the assets  5.2.1 原則 5:資産を識別、追跡、防御する 
Primarily applies to: Developers, System Operators and Data Custodians  主な適用対象:開発者、システム運用者、データ管理者 
References: [i.11], [i.25], [i.19], [i.20], [i.15], [i.16], [i.21], [i.24]   参照:[i.11]、[i.25]、[i.19]、[i.20]、[i.15]、[i.16]、[i.21]、[i.24]  
Provision 5.2.1-1 Developers, Data Custodians and System Operators shall maintain a comprehensive inventory of their assets (including their interdependencies/connectivity).  規定 5.2.1-1 開発者、データ管理者、システム運用者は、資産(相互依存関係/接続性を含む)の包括的な目録を維持しなければならない。 
Provision 5.2.1-2 As part of broader software security practices, Developers, Data Custodians and System Operators shall have processes and tools to track, authenticate, manage version control and secure their assets due to the increased complexities of AI specific assets.   規定 5.2.1-2 開発者、データ管理者、システム運用者は、より広範なソフトウェアセキュリティ対策の一環として、AI固有の資産の複雑性が増しているため、資産を追跡、認証、バージョン管理し、保護するためのプロセスとツールを備えること。  
Provision 5.2.1-3 System Operators shall develop and tailor their disaster recovery plans to account for specific attacks aimed at AI systems.   規定 5.2.1-3 システム運用者は、AI システムを標的とした特定の攻撃を考慮した災害復旧計画を策定し、適応させること。  
Provision 5.2.1-3.1 System Operators should ensure that a known good state can be restored.   規定 5.2.1-3.1 システム運用者は、既知の正常状態を復元できることを保証すべきである。  
Provision 5.2.1-4 Developers, System Operators, Data Custodians and End-users shall protect sensitive data, such as training or test data, against unauthorized access (see clause 5.2.3 for details on securing data).   規定 5.2.1-4 開発者、システム運用者、データ管理者、エンドユーザーは、トレーニングデータやテストデータなどの機密データを不正アクセスから防御しなければならない(データ保護の詳細については条項 5.2.3 を参照)。  
Provision 5.2.1-4.1 Developers, Data Custodians and System Operators shall apply checks and sanitisation to data and inputs when designing the model based on their access to said data and inputs and where those data and inputs are stored. This shall be repeated when model revisions are made in response to user feedback or continuous learning. See clause 5.2.2 for relevant provisions for open source.   規定 5.2.1-4.1 開発者、データ管理者及びシステム運用者は、モデル設計時に、当該データ及び入力へのアクセス権限、並びにそれらの保存場所に基づき、データ及び入力に対する検証とサニタイズを適用しなければならない。これは、ユーザーフィードバックや継続的学習に応じたモデル改訂時にも繰り返される。オープンソースに関する関連規定は条項 5.2.2 を参照のこと。  
Provision 5.2.1-4.2 Where training data or model weights could be confidential, Developers shall put proportionate protections in place.  規定 5.2.1-4.2 トレーニングデータやモデル重みが機密情報となり得る場合、開発者は適切な保護措置を講じなければならない。 
5.2.2 Principle 6: Secure the infrastructure  5.2.2 原則 6: インフラの保護 
Primarily applies to: Developers and System Operators   主な適用対象:開発者、システム運用者  
References: [i.11], [i.12], [i.10], [i.19], [i.24]   参照:[i.11]、[i.12]、[i.10]、[i.19]、[i.24]  
Provision 5.2.2-1 Developers and System Operators shall evaluate their organization's access control frameworks and identify appropriate measures to secure APIs, models, data, and training and processing pipelines.  規定 5.2.2-1 開発者およびシステム運用者は、組織のアクセス管理枠組みを評価し、API、モデル、データ、およびトレーニング・処理パイプラインを保護するための適切な措置を識別しなければならない。 
Provision 5.2.2-2 If a Developer offers an API to external customers or collaborators, they shall apply controls that mitigate attacks on the AI system via the API. For example, placing limits on model access rate to limit an attacker's ability to reverse engineer or overwhelm defences to rapidly poison a model.  規定 5.2.2-2 開発者が外部顧客や協力者に API を提供する場合は、API 経由での AI システムへの攻撃を緩和する制御を適用しなければならない。例えば、モデルへのアクセスレートに制限を設けることで、攻撃者がリバースエンジニアリングを行ったり、防御を圧倒してモデルを急速に汚染する能力を制限する。 
Provision 5.2.2-3 Developers shall also create dedicated environments for development and model tuning activities.  規定 5.2.2-3 開発者は、開発およびモデル調整活動のための専用環境も構築しなければならない。 
The dedicated environments shall be backed by technical controls to ensure separation and principle of least privilege. In the context of AI, this is particularly necessary because training data shall only be present in the training and development environments where this training data is not based on publicly available data.  専用環境は、分離と最小権限の原則を確保するための技術的制御によって支えられる。AIの文脈では、これは特に必要である。なぜなら、トレーニングデータは、公開データに基づいていない場合、トレーニング環境と開発環境のみに存在すべきだからである。 
Provision 5.2.2-4 Developers and System Operators shall implement and publish a clear and accessible vulnerability disclosure policy.   規定 5.2.2-4 開発者およびシステム運用者は、明確かつアクセス可能な脆弱性開示ポリシーを実施し、公表しなければならない。  
Provision 5.2.2-5 Developers and System Operators shall create, test and maintain an AI system incident management plan and an AI system recovery plan.   規定 5.2.2-5 開発者およびシステム運用者は、AI システムインシデント管理計画および AI システム復旧計画を作成、テスト、維持しなければならない。  
Provision 5.2.2-6 Developers and System Operators should ensure that, where they are using cloud service operators to help to deliver the capability, their contractual agreements support compliance with the above requirements.  規定 5.2.2-6 開発者およびシステム運用者は、クラウドサービス事業者を利用して機能を提供する場合、契約上の合意が上記の要件への準拠を支援することを確保すべきである。 
5.2.3 Principle 7: Secure the supply chain  5.2.3 原則 7:サプライチェーンの保護 
Primarily applies to: Developers, System Operators and Data Custodians  主な適用対象:開発者、システム運用者、データ管理者 
References: [i.6], [i.11], [i.19], [i.9]   参照:[i.6]、[i.11]、[i.19]、[i.9]  
Provision 5.2.3-1 Developers and System Operators shall follow secure software supply chain processes for their AI model and system development.   規定 5.2.3-1 開発者およびシステム運用者は、AIモデルおよびシステム開発において、安全なソフトウェアサプライチェーンプロセスに従わなければならない。  
Provision 5.2.3-2 System Operators that choose to use or adapt any models, or components, which are not well-documented or secured shall be able to justify their decision to use such models or components through documentation (for example if there was no other supplier for said component).   規定 5.2.3-2 十分に文書化または保護されていないモデルやコンポーネントの使用または適応を選択するシステム運用者は、文書を通じてそのようなモデルやコンポーネントを使用する決定を正当化できること(例えば、当該コンポーネントの他の供給元が存在しない場合など)。  
Provision 5.2.3-2.1 In this case, Developers and System Operators shall have mitigating controls and undertake a risk assessment linked to such models or components.   規定 5.2.3-2.1 この場合、開発者およびシステム運用者は、当該モデルまたはコンポーネントに関連する緩和策を講じ、リスクアセスメントを実施しなければならない。  
Provision 5.2.3-2.2 System Operators shall share this documentation with End-users in an accessible way.  規定 5.2.3-2.2 システム運用者は、この文書をエンドユーザーがアクセス可能な方法で共有しなければならない。 
Provision 5.2.3-3 Developers and System Operators shall re-run evaluations on released models that they intend on using.  規定 5.2.3-3 開発者およびシステム運用者は、使用を予定しているリリース済みモデルについて、評価を再実行しなければならない。 
Provision 5.2.3-4 System Operators shall communicate their intention to update models to End-users in an accessible way prior to models being updated.  規定5.2.3-4 システム運営者は、モデルを更新する前に、エンドユーザーに対し、モデル更新の意図を分かりやすい方法で伝えること。 
5.2.4 Principle 8: Document data, models and prompts  5.2.4 原則8:データ、モデル、プロンプトを文書化する 
Primarily applies to: Developers   主な適用対象:開発者  
References: [i.11], [i.10], [i.19], [i.15], [i.24]   参照:[i.11]、[i.10]、[i.19]、[i.15]、[i.24]  
Provision 5.2.4-1 Developers shall document and maintain a clear audit trail of their system design and post-deployment maintenance plans. Developers should make the documentation available to the downstream System Operators and Data Custodians.  規定 5.2.4-1 開発者は、システム設計および展開後の保守計画について、明確な監査証跡を文書化し維持しなければならない。開発者は、その文書を後続のシステム運用者およびデータ管理者に提供すべきである。 
Provision 5.2.4-1.1 Developers should ensure that the document includes security-relevant information, such as the sources of training data (including fine-tuning data and human or other operational feedback), intended scope and limitations, guardrails, retention time, suggested review frequency and potential failure modes.   規定 5.2.4-1.1 開発者は、文書にセキュリティ関連情報(トレーニングデータのソース(微調整データや人間またはその他の運用フィードバックを含む)、意図された範囲と制限、ガードレール、保持期間、推奨されるレビュー頻度、潜在的な故障モードなど)が含まれることを保証すべきである。  
Provision 5.2.4-1.2 Developers shall release cryptographic hashes for model components that are made available to other stakeholders to allow them to verify the authenticity of the components.  規定 5.2.4-1.2 開発者は、他の関係者がコンポーネントの真正性を検証できるように、他の関係者に提供されるモデルコンポーネントの暗号ハッシュを公開しなければならない。 
Provision 5.2.4-2 Where training data has been sourced from publicly available sources, there is a risk that this data might have been poisoned. As discovery of poisoned data is likely to occur after training (if at all), Developers shall document how they obtained the public training data, where it came from and how that data is used in the model.   規定 5.2.4-2 公開情報源から取得した訓練データには、データ・ポイズニングのリスクがある。データ・ポイズニングの発見は(仮に発見されるとしても)訓練後になる可能性が高いため、開発者は公開訓練データの取得方法、出所、およびモデル内での使用方法を文書化しなければならない。  
Provision 5.2.4-2.1 The documentation of training data should include at a minimum the source of the data, such as the URL of the scraped page, and the date/time the data was obtained. This will allow Developers to identify whether a reported data poisoning attack was in their data sets.   規定 5.2.4-2.1 トレーニングデータの文書化には、最低限、データのソース(スクレイピングしたページのURLなど)と取得日時を含めること。これにより、報告されたデータ・ポイズニング攻撃が自社のデータセットに存在したか否かを開発者が識別できる。  
Provision 5.2.4-3 Developers should ensure that they have an audit log of changes to system prompts or other model configuration (including prompts) that affect the underlying working of the systems. Developers can make this available to any System Operators and End-Users that have access to the model.  規定 5.2.4-3 開発者は、システムのプロンプトやその他のモデル設定(プロンプトを含む)の変更について、システムの基盤的な動作に影響を与える変更の変更履歴を確保すべきである。開発者は、モデルにアクセス権を持つシステムオペレーターやエンドユーザーにこの変更履歴を提供できる。 
5.2.5 Principle 9: Conduct appropriate testing and evaluation  5.2.5 原則 9: 適切なテストと評価の実施 
Primarily applies to: Developers and System Operators  主な適用対象:開発者、システム運用者 
References: [i.11], [i.10], [i.25], [i.19], [i.18], [i.13], [i.21]  参照:[i.11]、[i.10]、[i.25]、[i.19]、[i.18]、[i.13]、[i.21] 
Provision 5.2.5-1 Developers shall ensure that all models, applications and systems that are released to System Operators and/or End-users have been tested as part of a security assessment process.   規定 5.2.5-1 開発者は、システム運用者および/またはエンドユーザーにリリースされる全てのモデル、アプリケーション、システムが、セキュリティアセスメントプロセスの一環としてテストされていることを保証しなければならない。  
Provision 5.2.5-2 System Operators shall conduct testing prior to the system being deployed with support from Developers.   規定 5.2.5-2 システム運用者は、開発者の支援を得て、システムが展開される前にテストを実施しなければならない。  
Provision 5.2.5-2.1 For security testing, System Operators and Developers should use independent security testers with technical skills relevant to their AI systems.  規定 5.2.5-2.1 セキュリティテストにおいては、システム運用者及び開発者は、自社の AI システムに関連する技術的スキルを有する独立したセキュリティテスターを活用すべきである。 
Provision 5.2.5-3 Developers should ensure that the findings from the testing and evaluation are shared with System Operators, to inform their own testing and evaluation.   規定 5.2.5-3 開発者は、テストおよび評価の結果をシステム運用者と共有し、運用者自身のテストおよび評価に役立てるべきである。  
Provision 5.2.5-4 Developers should evaluate model outputs to ensure they do not allow System Operators or End-users to reverse engineer non-public aspects of the model or the training data.   規定 5.2.5-4 開発者は、モデル出力を評価し、システム運用者やエンドユーザーがモデルやトレーニングデータの非公開部分をリバースエンジニアリングできないようにすべきである。  
Provision 5.2.5-4.1 Additionally, Developers should evaluate model outputs to ensure they do not provide System Operators or End-users with unintended influence over the system.  規定 5.2.5-4.1 さらに、開発者はモデル出力を評価し、システム運用者やエンドユーザーがシステムに対して意図しない影響力を行使できないようにすべきである。 
5.3 Secure Deployment  5.3 安全な展開 
5.3.1 Principle 10: Communication and processes associated with End-users and Affected Entities  5.3.1 原則 10: エンドユーザーおよび影響を受ける事業体に関連するコミュニケーションとプロセス 
NOTE:  注記: 
Provision 5.3.1-1 System Operators shall convey to End-users in an accessible way where and how their data will be used, accessed and stored (for example, if it is used for model retraining, or reviewed by employees or partners). If the Developer is an external entity, they shall provide this information to System Operators.  規定 5.3.1-1 システム運用者は、エンドユーザーに対し、そのデータがどこでどのように使用、アクセス、保存されるか(例えば、モデル再学習に使用される場合、従業員やパートナーによってレビューされる場合など)を、理解しやすい方法で伝えるものとする。開発者が外部事業体である場合、開発者はこの情報をシステム運用者に提供するものとする。 
Provision 5.3.1-2 System Operators shall provide End-users with accessible guidance to support their use, management, integration, and configuration of AI systems. If the Developer is an external entity, they shall provide all necessary information to help System Operators.  規定 5.3.1-2 システム運用者は、エンドユーザーがAIシステムの利用、管理、統合、設定を支援するための理解しやすいガイダンスを提供しなければならない。開発者が外部事業体である場合、システム運用者を支援するために必要な情報を全て提供しなければならない。 
Provision 5.3.1-2.1 System Operators shall include guidance on the appropriate use of the model or system, which includes highlighting limitations and potential failure modes.  規定 5.3.1-2.1 システム運用者は、モデルまたはシステムの適切な使用に関するガイダンスを含めるものとする。これには、制限事項や潜在的な故障モードの強調が含まれる。 
Provision 5.3.1-2.2 System Operators shall proactively inform End-users of any security relevant updates and provide clear explanations in an accessible way.   規定 5.3.1-2.2 システム運用者は、セキュリティに関連する更新情報をエンドユーザーに積極的に通知し、アクセス可能な方法で明確な説明を提供しなければならない。  
Provision 5.3.1-3 Developers and System Operators should support End-users and Affected Entities during and following a cyber security incident to contain and mitigate the impacts of an incident. The process for undertaking this should be documented and agreed in contracts with End-users.  規定 5.3.1-3 開発者とシステム運営者は、サイバーセキュリティインシデント発生時および発生後、エンドユーザーと影響を受ける事業体を支援し、インシデントの影響を封じ込め緩和すべきである。この実施プロセスは文書化し、エンドユーザーとの契約で合意すべきである。 
5.4 Secure Maintenance  5.4 安全な保守 
5.4.1 Principle 11: Maintain regular security updates, patches and mitigations  5.4.1 原則 11: 定期的なセキュリティ更新、パッチ適用、緩和策の実施 
Primarily applies to: Developers and System Operators   主に適用対象:開発者、運用者  
References: [i.24]   参照:[i.24]  
Provision 5.4.1-1 Developers shall provide security updates and patches, where possible, and notify System Operators of the security updates. System Operators shall deliver these updates and patches to End-users.  規定 5.4.1-1 開発者は、可能な限りセキュリティ更新とパッチを提供し、システム運用者に通知する。システム運用者は、これらの更新とパッチをエンドユーザーに提供する。 
Provision 5.4.1-1.1 Developers shall have mechanisms and contingency plans to mitigate security risks, particularly in instances where updates cannot be provided for AI systems.   規定 5.4.1-1.1 開発者は、特にAIシステムに対して更新を提供できない場合において、セキュリティリスクを緩和するための仕組みと緊急時対応計画を有しなければならない。  
Provision 5.4.1-2 Developers should treat major AI system updates as though a new version of a model has been developed and therefore undertake a new security testing and evaluation process to help protect users.   規定 5.4.1-2 開発者は、AIシステムの主要な更新を、あたかもモデルの新しいバージョンが開発されたかのように扱い、ユーザーを防御するために新たなセキュリティテストおよび評価プロセスを実施すべきである。  
Provision 5.4.1-3 Developers should support System Operators to evaluate and respond to model changes, (for example by providing preview access via beta-testing and versioned APIs).  規定 5.4.1-3 開発者は、システム運用者がモデル変更を評価し対応できるよう支援すべきである(例えば、ベータテストやバージョン管理されたAPIによるプレビューアクセスを提供するなど)。 
5.4.2 Principle 12: Monitor the system's behaviour  5.4.2 原則12:システムの動作を監視する 
Primarily applies to: Developers and System Operators   主な適用される対象:開発者、システム運用者  
References: [i.11], [i.10], [i.25], [i.18], [i.20], [i.15], [i.16], [i.21], [i.24]   参照:[i.11]、[i.10]、[i.25]、[i.18]、[i.20]、[i.15]、[i.16]、[i.21]、[i.24]  
Provision 5.4.2-1 System Operators shall log system and user actions to support security compliance, incident investigations, and vulnerability remediation.  規定 5.4.2-1 システム運用者は、セキュリティコンプライアンス、インシデント調査、脆弱性対策を支援するため、システムおよびユーザーの操作をログに記録しなければならない。 
Provision 5.4.2-2 System Operators should analyse their logs to ensure that AI models continue to produce desired outputs and to detect anomalies, security breaches, or unexpected behaviour over time (such as due to data drift or data poisoning).  規定 5.4.2-2 システム運用者は、AI モデルが望ましい出力を継続的に生成していることを確認し、時間の経過に伴う異常、セキュリティ侵害、または予期せぬ動作(データドリフトやデータ・ポイズニングなどによる)を検知するために、ログを分析すべきである。 
Provision 5.4.2-3 System Operators and Developers should monitor internal states of their AI systems where this could better enable them to address security threats, or to enable future security analytics.   規定 5.4.2-3 システム運用者および開発者は、セキュリティ脅威への対応を強化したり、将来のセキュリティ分析を可能にしたりするために、AIシステムの内部状態を監視すべきである。  
Provision 5.4.2-4 System Operators and Developers should monitor the performance of their models and system over time so that they can detect sudden or gradual changes in behaviour that could affect security.  規定 5.4.2-4 システム運用者および開発者は、セキュリティに影響を与える可能性のある急激または漸進的な動作変化を検知できるよう、モデルおよびシステムの経時的なパフォーマンスを監視すべきである。 
5.5 Secure End of Life  5.5 安全なライフサイクル終了 
5.5.1 Principle 13: Ensure proper data and model disposal  5.5.1 原則 13: 適切なデータおよびモデルの廃棄を確保する 
Primarily applies to: Developers and System Operators  主な適用対象:開発者、システム運用者 
Provision 5.5.1-1 If a Developer or System Operator decides to transfer or share ownership of training data and/or a model to another entity they shall involve Data Custodians and securely dispose of these assets. This will protect AI against security issues that can transfer from one AI system instantiation to another.   規定 5.5.1-1 開発者またはシステム運用者が、トレーニングデータおよび/またはモデルの所有権を他の事業体に譲渡または共有することを決定した場合、データ管理者を関与させ、これらの資産を安全に廃棄しなければならない。これにより、あるAIシステムのインスタンスから別のインスタンスへ移行する可能性のあるセキュリティ問題からAIを防御する。  
Provision 5.5.1-2 If a Developer or System Operators decides to decommission a model and/or system, they shall involve Data Custodians and securely delete applicable data and configuration details.  規定 5.5.1-2 開発者またはシステム運用者がモデルおよび/またはシステムの廃止を決定した場合、データ管理者を関与させ、該当するデータおよび構成詳細を安全に削除しなければならない。 

 

 

 

| | Comments (0)

2026.03.12

欧州委員会 AI生成コンテンツの表示・ラベル付けに関する行動規範のドラフト第2版 (2025.03.05)

こんにちは、丸山満彦です。

AI法、第50条関係の話です...

Chapter IV: Transparency Obligations for Providers and Deployers of Certain AI Systems 第4章:特定の人工知能システムプロバイダ及び展開者に対する透明性義務
Article 50: Transparency obligations for providers and deployers of certain AI systems 第50条:特定の人工知能システムプロバイダ及び展開者に対する透明性義務
Summary  要約
Providers must inform users when they are interacting directly with an AI system. AI-generated or -manipulated content must be clearly marked and detectable as artificially generated. Deployers of emotion recognition or biometric categorisation systems must inform exposed person about the operation of the system. Deepfakes and AI-generated text must be disclosed as artificially generated. An exemption from these transparency obligations applies in case the systems are authorised by law to detect, prevent, investigate or prosecute criminal offences. Other specific exceptions apply per transparency obligation. Information must be provided clearly, distinguishably and accessibly.  プロバイダは、ユーザーが人工知能システムと直接やり取りしている場合に、その旨をユーザーに通知しなければならない。人工知能によって生成または操作されたコンテンツは、人工的に生成されたものであることが明確に表示され、検知可能でなければならない。感情認識システムまたは生体認証分類システムの展開者は、対象となる人物に対し、システムの動作について通知しなければならない。ディープフェイクおよびAI生成テキストは、人工的に生成されたものであることを開示しなければならない。これらの透明性義務は、犯罪の検知、防止、調査または起訴のために法的に認可されたシステムには適用除外となる。その他の具体的な例外は、各透明性義務ごとに適用される。情報は明確に、識別可能に、かつアクセス可能な形で提供されなければならない。
The summaries are meant to provide helpful explanation but are not legal binding. 要約は参考説明を目的とするが、法的拘束力はない。
1. Providers shall ensure that AI systems intended to interact directly with natural persons are designed and developed in such a way that the natural persons concerned are informed that they are interacting with an AI system, unless this is obvious from the point of view of a natural person who is reasonably well-informed, observant and circumspect, taking into account the circumstances and the context of use. This obligation shall not apply to AI systems authorised by law to detect, prevent, investigate or prosecute criminal offences, subject to appropriate safeguards for the rights and freedoms of third parties, unless those systems are available for the public to report a criminal offence. 1. プロバイダは、自然人と直接対話するAIシステムについて、以下の条件を満たす設計・開発を保証しなければならない。すなわち、当該自然人がAIシステムと対話していることを認識できること。ただし、状況や使用環境を考慮し、合理的によく情報に通じ、注意深く慎重な自然人の観点から明らかな場合は除く。この義務は、犯罪の検知、防止、調査、起訴を目的として法的に認可されたAIシステムには適用されない。ただし、サードパーティの権利と自由に対する適切な保護措置が講じられている場合に限る。また、当該システムが一般市民による犯罪通報に利用可能な場合はこの限りではない。
2. Providers of AI systems, including general-purpose AI systems, generating synthetic audio, image, video or text content, shall ensure that the outputs of the AI system are marked in a machine-readable format and detectable as artificially generated or manipulated. Providers shall ensure their technical solutions are effective, interoperable, robust and reliable as far as this is technically feasible, taking into account the specificities and limitations of various types of content, the costs of implementation and the generally acknowledged state of the art, as may be reflected in relevant technical standards. This obligation shall not apply to the extent the AI systems perform an assistive function for standard editing or do not substantially alter the input data provided by the deployer or the semantics thereof, or where authorised by law to detect, prevent, investigate or prosecute criminal offences. 2. 合成音声、画像、動画またはテキストコンテンツを生成する汎用AIシステムを含むAIシステムのプロバイダは、AIシステムの出力結果が機械可読形式でマークされ、人工的に生成または操作されたものであることが検知可能であることを確保しなければならない。プロバイダは、技術的に実現可能な範囲で、様々なコンテンツの特性や制約、実装コスト、関連標準に反映される一般的な技術水準を考慮し、自社の技術的解決策が効果的、相互運用可能、堅牢かつ信頼性のあるものであることを確保しなければならない。この義務は、AIシステムが標準的な編集のための補助機能を果たす場合、または展開者が提供する入力データやその意味論を実質的に変更しない場合、もしくは犯罪の検知、防止、調査、起訴のために法律で認められる場合には適用されない。
3. Deployers of an emotion recognition system or a biometric categorisation system shall inform the natural persons exposed thereto of the operation of the system, and shall process the personal data in accordance with Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680, as applicable. This obligation shall not apply to AI systems used for biometric categorisation and emotion recognition, which are permitted by law to detect, prevent or investigate criminal offences, subject to appropriate safeguards for the rights and freedoms of third parties, and in accordance with Union law. 3. 感情認識システムまたは生体認証分類システムの展開者は、当該システムに晒される自然人に対し、システムの運用について通知し、適用される規則(EU)2016/679、規則(EU)2018/1725、指令(EU)2016/680に従って個人データを処理しなければならない。この義務は、サードパーティの権利と自由に対する適切な保護措置を条件とし、かつ連合法に従って、犯罪の検知、防止、調査のために生体認証分類および感情認識に使用されるAIシステムには適用されない。
4. Deployers of an AI system that generates or manipulates image, audio or video content constituting a deep fake, shall disclose that the content has been artificially generated or manipulated. This obligation shall not apply where the use is authorised by law to detect, prevent, investigate or prosecute criminal offence. Where the content forms part of an evidently artistic, creative, satirical, fictional or analogous work or programme, the transparency obligations set out in this paragraph are limited to disclosure of the existence of such generated or manipulated content in an appropriate manner that does not hamper the display or enjoyment of the work. 4. ディープフェイクを構成する画像、音声、動画コンテンツを生成または操作するAIシステムの展開者は、そのコンテンツが人工的に生成または操作されたものであることを開示しなければならない。この義務は、犯罪の検知、防止、調査または起訴のために法律で認められた使用には適用されない。コンテンツが明らかに芸術的、創造的、風刺的、虚構的または類似の著作物または番組の一部を構成する場合、本項に定める透明性義務は、当該著作物の表示または享受を妨げない適切な方法で、生成または操作されたコンテンツの存在を開示することに限定される。
Deployers of an AI system that generates or manipulates text which is published with the purpose of informing the public on matters of public interest shall disclose that the text has been artificially generated or manipulated. This obligation shall not apply where the use is authorised by law to detect, prevent, investigate or prosecute criminal offences or where the AI-generated content has undergone a process of human review or editorial control and where a natural or legal person holds editorial responsibility for the publication of the content. 公共の利益に関する事項について公衆に情報を提供することを目的として公開されるテキストを生成または操作するAIシステムの展開者は、当該テキストが人工的に生成または操作されたものであることを開示しなければならない。この義務は、犯罪の検知、防止、調査または訴追のために法律により使用が許可されている場合、またはAI生成コンテンツが人間のレビューまたは編集管理プロセスを経ており、かつ自然人または法人が当該コンテンツの公開について編集責任を有する場合には適用されない。
5. The information referred to in paragraphs 1 to 4 shall be provided to the natural persons concerned in a clear and distinguishable manner at the latest at the time of the first interaction or exposure. The information shall conform to the applicable accessibility requirements. 5. 第1項から第4項までに規定する情報は、遅くとも最初の相互作用またはエクスポージャーの時点で、関係する自然人に対して明確かつ識別可能な方法で提供されなければならない。当該情報は、適用されるアクセシビリティ要件に適合しなければならない。
6. Paragraphs 1 to 4 shall not affect the requirements and obligations set out in Chapter III, and shall be without prejudice to other transparency obligations laid down in Union or national law for deployers of AI systems. 6. 第1項から第4項までの規定は、第III章に定める要件及び義務に影響を与えず、また、AIシステムの展開者に対してEU法または国内法で定められたその他の透明性義務を妨げるものではない。
7. The AI Office shall encourage and facilitate the drawing up of codes of practice at Union level to facilitate the effective implementation of the obligations regarding the detection and labelling of artificially generated or manipulated content. The Commission may adopt implementing acts to approve those codes of practice in accordance with the procedure laid down in Article 56 (6). If it deems the code is not adequate, the Commission may adopt an implementing act specifying common rules for the implementation of those obligations in accordance with the examination procedure laid down in Article 98(2). 7. AI事務局は、人工的に生成または操作されたコンテンツの検知及び表示に関する義務の効果的な実施を促進するため、EUレベルでの行動規範の策定を奨励し、促進するものとする。委員会は、第56条(6)に定める手続に従い、当該行動規範を承認するための実施法令を採択することができる。委員会が当該規範が不十分であると判断した場合、第98条(2)に定める審査手続に従い、当該義務の実施に関する共通規則を定める実施法令を採択することができる。

 

 

European Commission

・2026.03.05 Commission publishes second draft of Code of Practice on Marking and Labelling of AI-generated content

 

Commission publishes second draft of Code of Practice on Marking and Labelling of AI-generated content 欧州委員会は、AI生成コンテンツの表示・ラベル付けに関する行動規範のドラフト第2版を公表した。
To help providers and deployers meet the marking and labelling requirements for AI generated content under Article 50 AI Act, the Commission is facilitating the development of a voluntary code of practice. AI法(Article 50 AI Act)に基づくAI生成コンテンツの表示・ラベル付け要件を、プロバイダと展開者が満たすのを支援するため、欧州委員会は自主的な行動規範の策定を促進している。
This second version, drafted by independent experts, integrates written feedback from hundreds of participants and observers, including industry, academia, civil society and other stakeholders. The feedback was gathered through an EU survey, stakeholder meetings and workshops held in January 2026, as part of the code of practice drafting process. The draft also incorporates contributions from Member States (submitted via the AI Board) and Members of the European Parliament (represented in the IMCO-LIBE Working group monitoring the AI Act implementation). この第2版は独立した専門家によって起草され、産業界、学界、市民社会、その他の利害関係者を含む数百名の参加者・オブザーバーからの書面によるフィードバックを統合している。フィードバックは、行動規範起草プロセスの一環として、2026年1月に実施されたEU調査、ステークホルダー会議、ワークショップを通じて収集された。ドラフトには、加盟国(AI理事会経由で提出)および欧州議会議員(AI法実施を監視するIMCO-LIBE作業部会で代表者)からの意見も反映されている。
The newest draft of the code has been streamlined and simplified, providing more flexibility for the signatories, reducing the compliance burden and incorporating further technical considerations to improve legal clarity and practicality. It promotes the use of open standards for AI content marking and an EU icon for labelling to simplify compliance and reduce costs. 最新版のドラフト行動規範は簡素化・合理化され、署名者への柔軟性を高め、コンプライアンス負担を軽減するとともに、法的明確性と実用性を向上させるための技術的配慮を追加している。AIコンテンツ表示におけるオープン標準の活用と、EU統一アイコンによる表示を推進し、コンプライアンスの簡素化とコスト削減を図る。
Sections of the draft code of practice  ドラフト行動規範のセクション
The draft code of practice for transparency of AI-generated content is structured into 2 sections, each dealing with different aspects of transparency and regulation for providers and deployers respectively.  AI生成コンテンツの透明性に関する行動規範ドラフトは2つのセクションで構成され、それぞれプロバイダと展開者に対する透明性・規制の異なる側面を扱う。
Section 1 セクション1
Section 1 addresses marking and detecting AI content and is aimed at providers of generative AI systems within the scope of Article 50(2) AI Act. Compared to the first draft, this section of the code has undergone significant changes and introduced greater flexibility and clarity. セクション1はAIコンテンツの表示と検知を扱い、AI法50条(2)項の適用範囲内にある生成的AIシステムプロバイダを対象とする。ドラフトと比較し、本節は大幅な変更を経て柔軟性と明確性が向上した。
This revision removes and consolidates several measures, and introduces optional elements, while ensuring that all measures remain technically feasible and proportionate. Key commitments include a revised two-layered marking approach involving secured metadata and watermarking, optional fingerprinting and logging, and protocols for detection and verification. 今回の改訂では複数の措置が削除・統合され、任意要素が導入された。同時に全措置の技術的実現可能性と比例性が確保されている。主な取り組みには、保護されたメタデータと電子透かしを組み合わせた二層式表示手法の改訂、任意のフィンガープリンティングとログ記録、検知・検証プロトコルが含まれる。
Section 2 セクション2
Section 2, targeting deployers of AI systems, focuses on labelling deepfakes and text publications concerning matters of public interest within the scope of Article 50(4) AI Act. Relative to the first draft, this section adopts a more flexible and practice-oriented approach. It has been restructured to simplify and streamline the commitments, while the taxonomy distinguishing the AI–generated content from AI-assisted content has been completely removed. Section 2 now features design and placement requirements applicable to icons, labels or disclaimers, ensuring a minimum level of uniformity, while enabling signatories to conceive solutions adapted to their needs. In addition, the section proposes a task force to develop a future, uniform, interactive EU icon, with discretionary support from signatories. 第2節はAIシステム展開者を対象とし、AI法第50条(4)の範囲内で公共の利益に関わる事項に関するディープフェイク及びテキスト出版物の表示に焦点を当てる。ドラフトと比較し、本節はより柔軟で実践的なアプローチを採用している。義務を簡素化・合理化するため再構成され、AI生成コンテンツとAI支援コンテンツを区別する分類体系は完全に削除された。第2節では、アイコン・ラベル・免責事項に適用される設計・配置要件を規定し、最低限の統一性を確保しつつ、署名者が自らのニーズに適した解決策を考案できるようにした。さらに、署名者の任意の支援を得て、将来の統一的なインタラクティブEUアイコンを開発するタスクフォースの設置を提案している。
The code has also further defined the specific regimes applicable to artistic, creative, satirical and fictional works and text publications under human review or editorial control, facilitating reliance on  existing practices or procedures.   また、芸術的・創造的・風刺的・虚構的作品、および人間の審査・編集管理下にあるテキスト出版物に適用される特例制度を明確化し、既存の慣行や手続きの活用を容易にした。
The annex of the second draft now includes illustrative examples of a potential EU icon to be made freely available to signatories. These examples (and others) will be discussed with stakeholders as part of the next set of workshops.   第2ドラフトの附属書には、署名機関が自由に利用できるEUアイコンの具体例が追加された。これらの例(およびその他の案)は、次回ワークショップで関係者と協議される予定だ。
Next steps 今後の手順
The Commission will collect feedback on the second draft from participants and observers to the code of Practice until 30 March EOB. The code is expected to be finalised by beginning of June this year.  欧州委員会は、3月30日(欧州時間)まで、行動規範の参加者及びオブザーバーから第2ドラフトに関するフィードバックを収集する。本規範は今年6月初旬までに最終化される見込みである。
The rules covering the transparency of AI-generated content will become applicable on 2 August 2026.  AI生成コンテンツの透明性に関する規則は、2026年8月2日に適用開始となる。

 

・[PDF]

20260312-82813

 

目次...

Introductory statement by the Chairs and ViceChairs 議長及び副議長による序文
Section 1: Rules for marking and detection of AIgenerated and manipulated content applicable to providers of generative AI systems (Article 50(2) and (5) AI Act) 第1節:生成的AIプロバイダに適用されるAI生成・改変コンテンツの表示及び検知に関する規則(AI法第50条(2)及び(5))
Objectives 目的
Recitals 前文
Commitments コミットメント
Commitment 1: Multi-layered Marking of AI-Generated Content コミットメント1:AI生成コンテンツの多層的マーキング
Measure 1.1: Machine-readable marking techniques 施策 1.1:機械可読マーキング技術
Measure 1.2: Non-removal of machine-readable marking 施策1.2:機械可読マーキングの非除去
Measure 1.3: Transparency of the provenance chain (optional) 施策 1.3:来歴証明の透明性(任意)
Measure 1.4: Optional functionality for perceptible markings (for deep fakes and AI-generated and manipulated published text) 施策 1.4:知覚可能なマーキングのオプション機能(ディープフェイクおよび AI 生成・改変された公開テキスト向け)
Commitment 2: Detection of the Marking of AI-Generated Content コミットメント2:AI生成コンテンツの表示検知
Measure 2.1: Detection mechanisms for active marking made available to deployers, end-users and other third parties 施策 2.1:展開者、エンドユーザー、その他のサードパーティに提供される能動的マーキング検知メカニズム
Measure 2.2: Forensic detection mechanisms (optional supplementary measure) 施策 2.2:フォレンジック検知メカニズム(任意の補足施策)
Measure 2.3: Clear and accessible disclosure of verification and detection results 施策2.3:検証及び検知結果の明確かつアクセス可能な開示
Measure 2.4: Support literacy on AI marking technologies and verification 施策 2.4:AI マーキング技術と検証に関する知識の普及支援
Commitment 3: Measures to meet the Requirements for Marking and Detection Techniques コミットメント3:表示要件及び検知技術に関する施策
Measure 3.1: Effectiveness 施策 3.1:有効性
Measure 3.2: Reliability 施策 3.2:信頼性
Measure 3.3: Robustness 施策 3.3:堅牢性
Measure 3.4: Interoperability 施策 3.4:相互運用性
Measure 3.5: Advancing the state of the art in marking and detection 施策3.5:マーキング及び検知技術の最先端の進展
Commitment 4: Testing, verification and compliance コミットメント4:試験、検証及びコンプライアンス
Measure 4.1: Compliance framework 施策 4.1:コンプライアンス枠組み
Measure 4.2: Testing, verification and monitoring 施策4.2:試験、検証及び監視
Measure 4.3: Training 施策 4.3:訓練
Measure 4.4: Cooperation with market surveillance authorities 施策 4.4:市場監視当局との協力
Glossary 用語集
Section 2: Rules for labelling deepfakes and certain AI-generated and manipulated published text applicable to deployers of AI systems (Article 50(4) and (5) AI Act) 第2節:AIシステムの展開者に適用される、ディープフェイクおよび特定のAI生成・操作済み公開テキストの表示に関する規則(AI法第50条(4)および(5))
Objectives 目的
Recitals 前文
Commitments コミットメント
Commitment 1: Disclosure of AI-Generated and Manipulated Deep Fakes and Published Text コミットメント1:AI生成・改変ディープフェイク及び公開テキストの開示
Measure 1.1 Design requirements for icons, labels or disclaimers 施策 1.1 アイコン、ラベル、免責事項のデザイン要件
Measure 1.2 Placement requirements for icons, labels or disclaimers 施策 1.2 アイコン、ラベル、免責事項の配置要件
Measure 1.3 Optional use of an EU icon and participation in its development 施策 1.3 EU アイコンの任意使用と開発への参加
Commitment 2: Proportionate compliance, awareness and review コミットメント 2:比例的な遵守、認識、および見直し
Measure 2.1: Internal compliance 施策 2.1:内部コンプライアンス
Measure 2.2: Awareness and Training 施策 2.2:意識向上およびトレーニング
Measure 2.3: Review, feedback and cooperation with authorities 施策 2.3:当局とのレビュー、フィードバック、協力
Commitment 3: Appropriate Disclosure for Artistic, Creative and similar Works コミットメント 3:芸術的、創造的及び類似の著作物に対する適切な開示
Commitment 4: Human review, editorial control and responsibility in relation to AI-generated or manipulated text publications コミットメント4:AI生成または改変テキスト出版物に関する人的審査、編集管理及び責任
Appendices 附属書
Appendix 1 Sample Icon 附属書 1 アイコンのサンプル

 

 

欧州委員会が開発したサンプルアイコン(左)と背景に対するバリエーション(右)

1_20260312104301

 

02_20260312104401

 


 

 

まるちゃんの情報セキュリティ気まぐれ日記

2025.11.11 欧州 欧州委員会 AI生成コンテンツの表示・ラベル付けに関する行動規範の策定作業を開始 (2025.11.05)

・2025.03.16 中国 人工知能生成合成コンテンツ識別弁法 (2025.03.14)

 

AI法関係...

・2026.01.27 欧州 EDPB EDPS 欧州委員会の「AIに関するデジタルオムニバス」提案に関する共同意見書

・2025.12.22 ドイツ DSK GDPRの改革案(AIの利用に関する明確な法規制、IT企業に責任を持たせる)を提案 (2025.12.12)

2025.12.04 欧州委員会 AI法についての内部通報ツールの発表 (2025.11.24)

・2025.11.28 オランダ データ保護庁はプライバシーと安全保障、経済効率性(技術革新)の間でいろいろと考えていますね

・2025.11.22 欧州委員会 EU企業の成長を支援する簡素化されたデジタル規則 (オムニバス法)

・2025.10.11 欧州委員会 AI法エクスプローラー

・2025.08.02 欧州委員会 AI法第 53 条(1)(d)で要求される汎用 AI モデルの訓練内容に関する公開要約の説明文書およびテンプレー(2025.07.24)

・2025.07.31 欧州委員会 AI法における汎用AIモデル提供者の義務範囲に関するガイドライン(2025.07.18)

・2025.07.25 欧州委員会 汎用 AI 実践規範 (2025.07.10)

・2025.05.24 欧州 単一市場戦略 「今日の不確実な世界において、欧州人の最初のパートナーは欧州人自身でなければならない」(2025.05.21)

・2025.03.13 欧州委員会 AI法における汎用AIモデル - Q&A (2025.03.10)

・2025.02.08 欧州委員会 規則(EU)2024/1689(AI法)が定める人工知能の禁止行為に関する欧州委員会ガイドライン

・2024.12.06 欧州委員会 AI法における汎用AIモデル - Q&A (2024.11.20)

・2024.10.30 欧州 AI法の調和標準の策定について...

・2024.10.18 オランダ AI利用ガイド (2024.10.16)

・2024.08.05 欧州AI法が施行された... (2024.08.01)

・2024.07.20 EU EDPB GDPRとEU-AI法関連

・2024.07.19 ドイツ BfDI フランス CNIL オランダ AP EU AI法関連

・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された

| | Comments (0)

米国 NIST AI 800-4 展開済みAIシステムの監視における課題 (2026.03.09)

こんにちは、丸山満彦です。

NISTが、AI 800-4 展開済みAIシステムの監視における課題を公表していますね...

AIシステムの信頼性確保には実環境での継続的な事後モニタリングが不可欠ですが、、、現状は手法・透明性・インセンティブなど多くの課題が山積ということですよね...

課題を「ギャップ」、「障壁」、「未解決の問い」に分類していますね...

「ギャップ」は、現状とあるべき姿の間に不足しているものがある、「障壁」は、あるべき姿になるために取り除かないといけない、制度的、物理的な壁がある、「未解決の問い」は、答えをみちびきだすための議論と研究が必要なもの、、、という感じですかね。。。

 

NIST - ITL

・2025.03.09 New Report: Challenges to the Monitoring of Deployed AI Systems

New Report: Challenges to the Monitoring of Deployed AI Systems 新報告書:展開済みAIシステムの監視における課題
As artificial intelligence (AI) systems are increasingly integrated into commercial and government applications, there is a growing demand to monitor these systems in real-world settings. While the concept of monitoring digital systems for quality assurance is not new, particularly in the cases of cybersecurity and software continuous monitoring, it is a vast and fragmented space in the AI sector. Given that AI systems have novel properties that introduce variability and manifest in unpredictable ways, post-deployment monitoring – from incident monitoring to field studies – is a crucial practice for confident, wide-spread AI adoption. 人工知能(AI)システムが商業・政府アプリケーションに統合されるにつれ、実環境下での監視需要が高まっている。品質保証のためのデジタルシステム監視は、特にサイバーセキュリティやソフトウェア継続的監視の分野では新たな概念ではないが、AI分野では広範かつ断片的な領域である。AIシステムは変動性を生み出し予測不能な形で現れる新たな特性を持つため、インシデント監視から実地調査に至る展開後のモニタリングは、AIの確信を持って広範に普及させる上で不可欠な実践である。
To address this pressing need, in 2025 the Center for AI Standards and Innovation (CAISI) held three practitioner workshops and conducted an in-depth literature review to map the landscape, focusing on current challenges to robust and effective post-deployment monitoring of AI systems. この喫緊の課題に対応するため、2025年にAI標準化・イノベーションセンター(CAISI)は3回の実務者ワークショップを開催し、AIシステムの堅牢かつ効果的な展開後モニタリングにおける現状の課題に焦点を当て、状況把握のための詳細な文献レビューを実施した。
Our findings are outlined in the new report, NIST AI 800-4: Challenges to the Monitoring of Deployed AI Systems, in which we identify monitoring categories and detail challenges (gaps, barriers, and open questions) to inform and spur future research in the field. The primary contribution of this report is the identification, organization, and documentation of monitoring challenges, and reporting of views expressed by experts in the field. 調査結果は新報告書「NIST AI 800-4:展開済みAIシステムの監視における課題」にまとめられており、監視のカテゴリーを特定するとともに、今後の研究を促進するための課題(ギャップ、障壁、未解決問題)を詳細に記述している。本報告書の主な貢献は、監視上の課題を特定・体系化・文書化し、当該分野の専門家による見解を報告した点にある。
Six common categories of monitoring, developed via thematic coding, are listed in the table below. See Appendix B of the report for the full methodology, and Appendix C for the associated codebook. テーマ別コーディングにより導出された6つの共通モニタリングカテゴリーを下記の表に示す。詳細な方法論は報告書の附属書B、関連コーディングブックは附属書Cを参照のこと。
Monitoring Category モニタリングカテゴリー
Definition 定義
Functionality Monitoring 機能性モニタリング
Does the system continue to work as intended? システムは意図した通りに動作し続けているか?
Measuring system functions, capabilities, and features to ensure the system works as intended システムが意図した通りに動作することを保証するため、システム機能・能力・特性を測定する
Operational Monitoring 運用モニタリング
Does the system maintain consistent service across its infrastructure? システムはインフラ全体で一貫したサービスを維持しているか?
Measuring system infrastructure components, for example to ensure the system maintains consistent levels of service システムインフラコンポーネントを測定し、例えばシステムが一貫したサービスレベルを維持していることを保証する
Human Factors Monitoring 人的要因モニタリング
Is the system transparent to humans and high quality? システムは人間にとって透明性が高く、高品質か?
Measuring human-system interactions, for example to ensure the system produces high-quality outputs and is transparent 人間とシステムの相互作用を測定し、例えばシステムが高品質な出力を生成し、透明性があることを保証する
Security Monitoring セキュリティモニタリング
Is the system secure against attacks and misuse? システムは攻撃や悪用に対して安全か?
Measuring where the system is potentially vulnerable to adversarial attacks and misuse システムが敵対的攻撃や悪用に対して潜在的に脆弱な箇所を測定する
Compliance Monitoring コンプライアンス監視
Does the system adhere to relevant regulations and directives? システムは関連する規制や指令を遵守しているか?
Measuring system components for adherence to relevant laws, regulations, standards, controls, and guidelines システムコンポーネントが関連する法律、規制、標準、統制、ガイドラインを遵守しているかを測定する
Large-Scale Impacts Monitoring 大規模影響監視
Does the system promote human flourishing? システムは人間の繁栄を促進しているか?
Measuring system properties that have wide downstream impacts, for example to ensure the system promotes human flourishing システムのプロパティが広範な下流影響を持つかを測定する。例えば、システムが人間の繁栄を促進することを保証するため
To manageably synthesize the many challenges reported by practitioners and subject matter experts, we organized the database of workshop quotes and literature excerpts in two ways: (1) by monitoring category, as, for example, some monitoring challenges are more applicable to human factors than security (e.g., overhead of collecting and gauging user feedback), and (2) those challenges that are shared across categories (e.g., poor incident sharing mechanisms). Finally, we sorted open questions on AI system monitoring into “who”, “what”, “when”, “why”, and “how” to monitor. 実務者や専門家が報告した多くの課題を管理可能な形で統合するため、ワークショップ発言と文献抜粋のデータベースを二つの方法で整理した:(1)監視カテゴリー別(例:監視課題の一部はセキュリティより人的要因に適用される、ユーザーフィードバック収集・評価のオーバーヘッドなど)、(2)カテゴリー横断的な課題(例:不十分なインシデント共有メカニズム)。最後に、AIシステム監視に関する未解決の課題を「誰が」「何を」「いつ」「なぜ」「どのように」監視するかに分類した。
The table below highlights a sampling of post-deployment monitoring challenges. See the report for the full list. 下表は展開後の監視課題の抜粋を示す。完全なリストは報告書を参照のこと。
Highlighted Gaps, Barriers, and Open Questions 顕在化したギャップ、障壁、未解決課題
Category-Specific Challenges カテゴリー固有の課題
Gaps: ギャップ:
Insufficient research on human-AI feedback loops 人間とAIのフィードバックループに関する研究不足
Underexplored methods to detect deceptive behavior 欺瞞的行動を検知する手法の未開拓
Defining metrics for beneficial impacts to humans 人間への有益な影響を測定する指標の定義
Barriers: 障壁:
Detecting performance degradation and drift 性能劣化とドリフトの検知
Fragmented logging across distributed infrastructure 分散インフラにおける断片的なロギング
Navigating the complexity of the policy landscape 複雑な政策環境の対応
Cross-Cutting Challenges 横断的課題
Gaps: ギャップ:
Lack of trusted guidelines or standards for methods and tools 手法・ツールに関する信頼できるガイドラインや標準の欠如
Immature information sharing ecosystem 未成熟な情報共有エコシステム
Barriers: 障壁:
Scaling human-driven monitoring alongside rapid rollouts 迅速な展開に伴う人間主導の監視の拡張
Balancing competitive pressures with necessary oversight 競争圧力と必要な監視のバランス
Hiring and training qualified AI experts 有能なAI専門家の採用と育成
Open Questions 未解決の問い
How to reduce monitoring burden on the end user or customer? エンドユーザーや顧客の監視負担をどう軽減するか?
Should monitoring be based on risk-level? Tailored to the use case? 監視はリスクレベルに基づくべきか?ユースケースに合わせるべきか?
What is the right cadence for monitoring? 監視の適切な頻度は何か?
What is the relationship between monitoring and auditing? 監視と監査の関係は何か?
How to balance and integrate automated monitoring and human-validated monitoring? 自動監視と人間による妥当性確認監視のバランスと統合をどう図るか?
The identified gaps, barriers, and open questions highlight impactful opportunities for further investigation and innovation. The monitoring categories can offer a common language for describing sub-fields within AI system monitoring, and the challenges identified highlight areas where additional solutions are needed. 特定されたギャップ、障壁、未解決の問いは、さらなる調査と革新のための重要な機会を示している。監視カテゴリーはAIシステム監視内のサブ分野を記述する共通言語となり得、特定された課題は追加ソリューションが必要な領域を浮き彫りにする。

 

 

・[PDF] NIST AI 800-4

20260311-172408

・[DOCX][PDF] 仮訳

 

 

目次...

Acknowledgements 謝辞
Executive Summary エグゼクティブサマリー
1. Introduction 1. 序論
1.1 Definition: Post-Deployment AI System Monitoring 1.1 定義:展開後AIシステム監視
1.2 Methodology 1.2 方法論
1.3 Contributions 1.3 貢献
2. Monitoring Categories 2. 監視カテゴリー
3. Monitoring Challenges 3. モニタリングの課題
3.1 Cross-Cutting Monitoring Challenges 3.1 モニタリング全般に共通する課題
3.1.1 Trusted Methods and Tools 3.1.1 信頼できる手法とツール
3.1.2 Visibility and Transparency Issues 3.1.2 可視性と透明性の問題
3.1.3 Pace of Change 3.1.3 変化のペース
3.1.4 Organizational Incentives and Culture 3.1.4 組織的インセンティブと文化
3.1.5 Resource Requirements 3.1.5 必要なリソース
3.2 Challenges by Monitoring Category 3.2 監視カテゴリー別の課題
3.2.1 Functionality 3.2.1 機能性
3.2.2 Operational 3.2.2 運用
3.2.3 Human Factors 3.2.3 人的要因
3.2.4 Security 3.2.4 セキュリティ
3.2.5 Compliance 3.2.5 コンプライアンス
3.2.6 Large-Scale Impacts 3.2.6 大規模な影響
3.3 Open Questions 3.3 未解決の課題
3.3.1 Responsibility – Who Monitors? 3.3.1 責任 – 誰が監視するのか?
3.3.2 Scope – What to Monitor? 3.3.2 監視範囲 – 何を監視すべきか?
3.3.3 Cadence – When to Monitor? 3.3.3 監視の頻度 – いつ監視すべきか?
3.3.4 Purpose – Why Monitor? 3.3.4 目的 – なぜ監視するのか?
3.3.5 Methods – How to Monitor? 3.3.5 方法論 – モニタリングの実施方法
4. Conclusion 4. 結論
Appendix A: Monitoring Category Excerpt Count per Source 附属書A:監視カテゴリー別出典数
Appendix B: Methodological Details 附属書B:方法論の詳細
Appendix C: Monitoring Categories Codebook 附属書C:モニタリングカテゴリーコードブック
Bibliography 参考文献

 

エグゼクティブサマリー...

Executive Summary エグゼクティブサマリー
As artificial intelligence (AI) is increasingly integrated into commercial and government applications, developers and deployers have begun to monitor these systems after deployment. AI evaluations conducted prior to release – called “pre-deployment” evaluations – are now common, and valuable to assess the capabilities and risks of an AI system; however, these evaluations are predominantly done in controlled testing environments that cannot account for real-world dynamics. Furthermore, AI outputs are typically non-deterministic, meaning the AI may exhibit a range of behaviors under the same input conditions. Post-deployment measurement and monitoring is therefore a crucial tool (1) to validate that an AI system is operating reliably and as expected in real-world scenarios, (2) to track unforeseen outputs that occur due to, e.g., model non-determinism or dynamic input conditions, and (3) to identify unexpected consequences of integrating AI systems in new or changing contexts. These findings can then feed back into improvements of system design and pre-deployment testing, accelerating innovation and spurring further adoption. Stakeholders across the AI ecosystem agree on the need for post-deployment monitoring; however, best practices, validated methodologies, and common terminology is nascent. 人工知能(AI)が商業・政府アプリケーションに統合されるにつれ、開発者や展開者はシステム展開後の監視を開始している。リリース前に行われる「展開前評価」は現在一般的であり、AIシステムの能力とリスクを評価する上で有用である。しかし、これらの評価は主に制御されたテスト環境で行われ、現実世界の動的要素を考慮できない。 さらに、AIの出力は通常非決定論的であり、同じ入力条件下でもAIは様々な挙動を示す可能性がある。 したがって、展開後の測定と監視は重要な手段となる。具体的には、(1) AIシステムが実世界のシナリオにおいて期待通りに確実に動作していることを妥当性確認するため、(2) モデルの非決定性や動的な入力条件などにより発生する予期せぬ出力を追跡するため、(3) 新たな環境や変化する状況にAIシステムを統合した際の予期せぬ結果を識別するためである。 これらの知見はシステム設計の改善や展開前テストにフィードバックされ、イノベーションを加速しさらなる普及を促す。AIエコシステム全体の関係者は展開後モニタリングの必要性で合意しているが、ベストプラクティス、妥当性確認された手法、共通用語は未だ発展途上である。
To address this, in 2025 the Center for AI Standards and Innovation (CAISI) within NIST held two workshops on post-deployment AI system monitoring with external stakeholders and federal agencies, followed by a larger workshop with the NIST AI Consortium. These convenings included a wide range of AI stakeholders, including compute providers, model developers, downstream deployers, application developers, and third-party evaluators. In parallel, a literature review was conducted to gather (1) published case studies of AI system monitoring in real-world applications and (2) methodologies or frameworks for AI measurement postdeployment. Literature excerpts and participant contributions were organized into six monitoring categories and a host of monitoring challenges (gaps, barriers, and open questions). この課題に対処するため、2025年にNIST傘下のAI標準化・イノベーションセンター(CAISI)は、外部関係者や連邦機関を招いたAIシステム展開後モニタリングに関するワークショップを2回開催し、その後NIST AIコンソーシアムとの大規模ワークショップを実施した。これらの会合には、コンピューティングプロバイダ、モデル開発者、下流デプロイヤー、アプリケーション開発者、サードパーティ評価機関など、幅広いAI関係者が参加した。 並行して、文献レビューを実施し、(1)実世界アプリケーションにおけるAIシステム監視の公開事例研究、(2)導入後のAI測定手法や枠組みを収集した。文献抜粋と参加者からの貢献は、6つの監視カテゴリーと多数の監視課題(ギャップ、障壁、未解決の疑問)に整理された。
Section 1 of this report introduces this work, including a definition of post-deployment AI system monitoring and an overview of the research methodology and contributions. Further methodological details are provided in Appendix B. 本報告書のセクション1では、この取り組みを紹介する。これには、展開後のAIシステム監視の定義、研究方法論の概要、および貢献内容が含まれる。方法論の詳細は附属書Bに記載されている。
Section 2 introduces the six monitoring categories to support a more organized discussion and field of work on post-deployment monitoring (Table 1): セクション2では、展開後モニタリングに関する議論と研究領域をより体系的に整理するため、6つのモニタリングカテゴリーを紹介する(表1):
• Functionality Monitoring: Does the system continue to work as intended? • 機能性モニタリング:システムは意図した通りに動作し続けているか?
• Operational Monitoring: Does the system maintain consistent service across its infrastructure? • 運用監視:システムはインフラ全体で一貫したサービスを維持しているか?
• Human Factors Monitoring: Is the system transparent to humans and high quality? • 人的要因監視:システムは人間にとって透明性が高く、高品質か?
• Security Monitoring: Is the system secure against attacks and misuse? • セキュリティ監視:システムは攻撃や悪用に対して安全か?
• Compliance Monitoring: Does the system adhere to relevant regulations and directives? • コンプライアンス監視:システムは関連規制や指令を遵守しているか?
• Large-Scale Impacts Monitoring: Does the system promote human flourishing? • 大規模影響監視:システムは人間の繁栄を促進しているか?
Section 3 details the challenges to robust post-deployment AI system monitoring, organized into the following groups: セクション3では、堅牢なAIシステム展開後の監視における課題を以下のグループに分類して詳述する:
• Cross-Cutting Challenges (Table 2): Notable challenges that are shared across monitoring categories, e.g., a lack of information sharing related to data, model components, and incidents, and difficulties with rapidly scaling up systems and hiring an AI-ready workforce. • 横断的課題(表2):監視カテゴリーを横断する顕著な課題。例:データ、モデル構成要素、インシデントに関する情報共有の不足、システムの迅速な拡張やAI対応人材の確保の困難さ。
• Category-Specific Challenges (Table 3): Notable challenges that apply to particular monitoring categories, e.g., detecting drift, logging across distributed infrastructure, capturing human-AI feedback loops, identifying deceptive behavior, navigating a complex policy landscape, and defining metrics for beneficial impacts to humans. • カテゴリー固有の課題(表3):特定の監視カテゴリーに適用される顕著な課題。例:ドリフトの検知、分散インフラ全体でのロギング、人間とAIのフィードバックループの捕捉、欺瞞的行動の識別、複雑な政策環境の対応、人間への有益な影響を測定する指標の定義。
• Open Questions (Table 4): Unsettled questions in AI system monitoring related to, for example, mitigating user-side burden, determining the optimal cadence for monitoring, and balancing automated vs. human-validated monitoring. • 未解決課題(表4):AIシステム監視における未解決の課題。例えば、ユーザー側の負担緩和、監視の最適な頻度の決定、自動監視と人間による妥当性確認のバランス調整など。
The identification and documentation of challenges to the monitoring of deployed AI systems and the reporting of views expressed by experts in the field are the primary contributions of this report. These gaps, barriers, and open questions highlight opportunities for further investigation and innovation. Notably, this report raises practitioners’ repeated calls for further guidance on post-deployment AI system monitoring methods, from field studies to incident monitoring. The findings of this report are not exclusive, but have a particular relevance, to frontier generative AI systems. 本報告書の主な貢献は、展開済みAIシステムの監視における課題の特定と文書化、および当該分野の専門家による見解の報告である。これらのギャップ、障壁、未解決課題は、さらなる調査と革新の機会を示している。特に本報告書は、現場調査からインシデント監視に至る展開後AIシステム監視手法に関するさらなる指針を求める実務者の繰り返される要請を提起している。本報告書の知見は排他的ではないが、特に最先端の生成的AIシステムに関連性が高い。

 

 

 

| | Comments (0)

2026.03.11

オランダ データ保護庁 AIとアルゴリズム (2026.03.05)

こんにちは、丸山満彦です。

オランダのデータ保護庁が、AIとアルゴリズムという報告書を公表していますね...

オランダでは採用にAIを活用することが普及しているようですね...

基本的人権に関わる問題でもありますから、慎重かつ迅速に対応をする可能性がありますね..

AIは効率性や利便性を高める一方で、差別の再生産、意思決定の不透明化、責任の所在の曖昧化といった新たなリスクを生み出す可能性がありますよね...

特にAIが広範に導入されると、個別のシステムの問題が社会全体に連鎖的影響を与えるシステミックリスクとなりえますよね...

ということで、AIの導入は技術的問題としてだけでなく、透明性、説明責任、監督体制を含むガバナンスの問題として捉える必要があるというのは、ずっといわれておりますが、AI社会を持続可能なものにするためには、技術の発展と基本権保護を両立させる制度設計が不可欠...

AIとアルゴリズムの普及は単なる技術革新ではなく、社会制度全体に影響を及ぼす構造的変化と言っても良さそうですよね...

 

● Autoriteit Persoonsgegevens

・2026.03.05 Rapportage AI & Algoritmes Nederland (RAN) - maart 2026

Rapportage AI & Algoritmes Nederland (RAN) - maart 2026 AI & アルゴリズムオランダ(RAN)報告書 - 2026年3月
De Autoriteit Persoonsgegevens (AP) signaleert dat de risico’s van AI in de afgelopen 6 maanden exponentieel zijn toegenomen. Tegelijk ziet de AP dat organisaties, ook commerciële, de regels proberen te ontduiken of zich er helemaal niet aan houden. 個人情報保護機関(AP)は、過去6か月間でAIのリスクが飛躍的に増加したことを指摘している。同時に、APは、商業組織を含む組織が規則を回避しようとしたり、まったく遵守していないことを認識している。

Als coördinerend toezichthouder op algoritmes en AI analyseert de AP de belangrijkste risico’s en effecten hiervan. Die analyse staat in de AI-Impactbarometer. Het beeld verslechtert: in de vorige rapportage stegen 2 van de 9 graadmeters naar rood. Nu is dat verdubbeld naar 4.
アルゴリズムと AI の監督を統括する機関として、AP は主なリスクとその影響を分析している。その分析結果は AI インパクトバロメーターに掲載されている。状況は悪化している。前回の報告書では、9 つの指標のうち 2 つが赤に上昇したが、今回は 4 つに倍増している。
Dat blijkt uit de zesde editie van de Rapportage AI & Algoritmes Nederland (RAN). De 3 belangrijkste punten uit de RAN 6 zijn: これは、第 6 版「オランダにおける AI およびアルゴリズムに関する報告書(RAN)」で明らかになったものである。RAN 6 の 3 つの重要なポイントは次のとおりだ。
1. AI in werving en selectie groeit snel en brengt grote risico’s mee. 1. 採用・選考における AI の利用が急速に拡大しており、大きなリスクを伴う。
2. Transparantie en uitlegbaarheid van AI-systemen schiet tekort. 2. AI システムの透明性と説明責任が不十分である。
3. Voorbereiding op de AI-verordening blijft achter, terwijl versnelling nodig is. 3. AI 規制への準備が遅れており、加速化が必要である。
Ook waarschuwt de AP voor grote risico’s op onveilige en discriminerende algoritmes, waarop nu niet kan worden gehandhaafd. Lees verder: AP: AI-Impactbarometer kleurt rood, actie is noodzakelijk また、AP は、現在では取り締まりが不可能な、安全性が低く差別的なアルゴリズムの大きなリスクについて警告している。続きを読む:AP:AI 影響バロメーターが赤信号、対策が必要
U kunt de RAN 6 hieronder downloaden. RAN 6 は以下からダウンロードできる。
Kernboodschappen 主なメッセージ
1. Overkoepelende ontwikkelingen en beleid 1. 包括的な動向と政策
2. Systeemrisico’s en AI 2. システムリスクとAI
3. Algoritmes en AI-systemen in  het werving- en selectieproces 3. 採用・選考プロセスにおけるアルゴリズムとAIシステム
Toelichting rapportage 報告書の説明

 

 

・[PDF]

20260311-04906

 

Kernboodschappen 主なメッセージ
1. Het gebruik van artificiële intelligentie (AI) in werving en selectie neemt sterk toe, zowel door werkgevers als sollicitanten. 1. 採用活動における人工知能(AI)の利用は、雇用主と求職者の双方によって急速に増加している。
Van het opstellen van vacatureteksten tot video-interviews door virtuele recruiters, AI wordt op steeds meer plekken ingezet in het proces van werving en selectie. Ook voor sollicitanten is het tegenwoordig geen enkele moeite om een sollicitatiebrief of CV te verfijnen met generatieve AI. En door de digitalisering van de samenleving is er steeds meer data beschikbaar die gebruikt kan worden in het sollicitatieproces. Dit samenspel brengt fundamentele uitdagingen mee om de werving en selectie van kandidaten eerlijk en effectief in te blijven richten. Het gebruik van AI-systemen voor werving en selectie wordt thematisch uitgediept in hoofdstuk 3. 求人情報の作成から、仮想採用担当者によるビデオ面接まで、AI は採用・選考プロセスのさまざまな場面で活用されている。また、応募者にとっても、生成型 AI を使って応募書類や履歴書を洗練させることは、今ではまったく難しいことではない。また、社会のデジタル化により、採用プロセスで利用できるデータもますます増えている。こうした相乗効果により、候補者の採用・選考を公平かつ効果的に実施し続ける上で、根本的な課題が生じている。採用・選考における AI システムの利用については、第 3 章でテーマ別に詳しく説明する。
2. De inzet van AI in werving en selectie moet zowel accuraat als niet-discriminerend zijn, met uitlegbaarheid naar de kandidaat. 2. 採用選考における AI の活用は、正確かつ差別的でないものでなければならず、候補者に対して説明可能でなければならない。
Op basis van de AI-verordening zijn AI-systemen voor werving en selectie een hoog-risico toepassing. Voordat deze systemen gecertificeerd kunnen worden, moeten ze aan producteisen voldoen. De AP roept aanbieders van deze AI-systemen op om voorbereidingen te treffen op de inwerkingtreding van deze eisen in 2026 of 2027. Het precieze moment is afhankelijk van Europese onderhandelingen over een aanpassing van de AI-verordening. De uitdaging voor aanbieders is drieledig. Eerst moeten zij zeker kunnen stellen dat het systeem bijdraagt aan de selectie van de meest geschikte kandidaat, en hoe dit gebeurt., Daarnaast moeten aanbieders zeker kunnen stellen dat het systeem niet discrimineert. Ten derde moeten aanbieders kunnen uitleggen aan de kandidaat hoe het systeem is gekomen tot de inschatting, advies of keuze. Maar, om werving en selectie accuraat en niet-discriminerend te laten zijn, moet dit niet alleen per processtap (en bijbehorend AI-systeem) gewaarborgd worden, maar ook voor de gehele wervings- en selectieprocedure.  AI 規制に基づき、採用選考のための AI システムはハイリスクな用途である。これらのシステムは、認証を受ける前に製品要件を満たさなければならない。AP は、これらの AI システムの提供者に、2026 年または 2027 年にこれらの要件が施行されることに備えて準備をするよう呼びかけている。正確な時期は、AI 規制の改正に関する欧州での交渉次第だ。プロバイダーにとっての課題は 3 つある。まず、システムが最適な候補者の選考に貢献していることを確実に保証し、その方法も説明できなければならない。次に、システムが差別的でないことを確実に保証しなければならない。第三に、プロバイダーは、システムがどのように評価、アドバイス、選択を行ったかを候補者に説明できなければならない。しかし、採用と選考を正確かつ差別のないものにするためには、プロセス各段階(および関連する AI システム)ごとにこれを保証するだけでなく、採用と選考の手順全体についても保証しなければならない。
3. De AP waarschuwt dat uitlegbaarheid en transparantie in werving en selectie op veel punten nog tekortschiet, bijvoorbeeld bij de inzet van (online) assessments.  3. AP は、採用・選考における説明可能性と透明性は、例えば(オンライン)評価の利用など、多くの点でまだ不十分であると警告している。
De AP ziet hoe game-based assessments worden gebruikt voor een eerste filtering van kandidaten. Hierbij spelen vraagstukken rondom bijvoorbeeld het recht op uitleg over de totstandkoming van het oordeel en de betwistbaarheid van dit oordeel. Ook is van buitenaf niet duidelijk hoe sommige van deze online assessments een accurate voorspelling vormen voor de geschiktheid van een kandidaat voor een bepaalde vacature. Een ander voorbeeld is een vergelijkend online assessment waarbij de werkgever andere (meer gedetailleerde) informatie krijgt te zien dan de kandidaat. Deze informatieasymmetrie is problematisch en staat op gespannen voet met het recht op uitleg. Zonder inzicht in de uitkomsten van een assessment die een werkgever krijgt, is het moeilijk, zo niet onmogelijk, voor een kandidaat om zich daartegen te verweren. De AP benadrukt dat deze systemen in lijn moeten zijn met de Algemene verordening gegevensbescherming (AVG) en de AI-verordening. AP は、ゲームベースの評価が候補者の一次選考に使用されていることを認識している。これに関しては、判断の成立に関する説明を受ける権利や、この判断の争点性などに関する問題が存在する。また、外部からは、こうしたオンライン評価のいくつかが、特定の求人に対する候補者の適性を正確に予測しているかどうかが明らかじゃない。別の例としては、雇用主が候補者とは異なる(より詳細な)情報を見ることができる比較オンライン評価がある。この情報の非対称性は問題であり、説明を受ける権利と矛盾する。雇用主が受けるアセスメントの結果を把握しなければ、候補者がそれに対して反論することは困難、あるいは不可能である。AP は、これらのシステムは一般データ保護規則(GDPR)および AI 規則に準拠しなければならないことを強調している。
4. De AP spant zich in 2026 in om het zicht op het gebruik van AI in werving en selectie verder te vergroten. Ook wil de AP de bekendheid van de relevante regelgeving vergroten.  4. AP は 2026 年、採用・選考における AI の使用に関する認識をさらに高めるよう努める。また、関連する規制の認知度向上も目指す。
Op dit moment is er maar een beperkt openbaar overzicht van de AI-systemen die beschikbaar zijn voor werving en selectie, en welke organisaties welke systemen gebruiken.  現在、採用・選考に使用可能な AI システム、およびどの組織がどのシステムを使用しているかについて、公開されている情報は限られている。
AI- en algoritmeregistratie kan hierbij helpen. De AI-verordening gaat hierbij een belangrijke rol spelen, maar ook binnen sectoren is voor het gebruik een inspanning nodig. Voor vacatureplatformen gaat de AP op basis van de Digitaledienstenverordening (DSA) beoordelen of zij voldoen aan de transparantievereisten.  AI およびアルゴリズムの登録は、この点において役立つ可能性がある。AI 規制はここで重要な役割を果たすことになるが、各セクター内でもその使用に向けて努力が必要だ。求人プラットフォームについては、AP はデジタルサービス規制(DSA)に基づき、透明性の要件を満たしているかどうかを評価する予定だ。
Voor ontwikkelaars van AI-systemen voor werving en selectie zet de AP in op verduidelijking van de relevante eisen. Ook verwacht de AP dat de sector stappen zet. Tot slot wenst de AP sollicitanten beter bekend te maken met hun rechten op dit terrein. 採用・選考用 AI システムの開発者に対しては、AP は関連要件の明確化に取り組んでいる。また、AP は業界も対応策を講じることを期待している。最後に、AP は求職者にこの分野における自分の権利について、よりよく理解してもらうことを望んでいる。
5. Verantwoord gebruik van AI vordert, maar implementatie blijft ongelijk verdeeld.  5. AI の責任ある利用は進んでいるが、その導入は依然として不均等である。
Overkoepelend zetten organisaties – naast algoritmes – steeds vaker AI in, maar de volwassenheid en naleving van ethische richtlijnen verschillen sterk tussen organisaties en sectoren. Deze observatie is het vertrekpunt voor de overkoepelende ontwikkelingen die in hoofdstuk 1 aan bod komen. 組織は、アルゴリズムに加えて、AI をますます活用しているが、その成熟度や倫理ガイドラインの遵守度は、組織や業界によって大きく異なる。この観察は、第 1 章で取り上げる包括的な開発の出発点である。
De grootste ontwikkelingen zijn zichtbaar bij generatieve AI-modellen in het algemeen en digitale assistenten en voorspellende modellen in het bijzonder. De voorspellende modellen voor maatschappelijke vraagstukken bieden kansen. Door sneller te werken aan transparantie en beheersing kunnen deze kansen worden benut. Agentic AI (AAI) brengt als nieuwe ontwikkeling ook eigen uitdagingen met zich mee. Door toegenomen autonomie en koppeling met data kunnen systemen fouten maken met grotere effecten, of ongewenste handelingen gaan verrichten. Hiervoor zijn nieuwe vormen van beheersingsmaatregelen nodig, die parallel ontwikkeld moeten worden. De AP volgt nieuwe AI-toepassingen, zoals AAI, op de voet en komt in actie als zorgen over wet- en regelgeving onnodig innovatie belemmeren. Organisaties die voorop lopen met transparantie over de inzet van AI en algoritmes bevinden zich vaak in de publieke sector. Kleinere organisaties blijven vaker achter. Dat komt omdat zij naast de inzet van AI beperkte capaciteit hebben om ook de beheersing van nieuwe technologie goed te organiseren.  最大の進展は、生成型 AI モデル全般、特にデジタルアシスタントや予測モデルに見られる。社会問題に対する予測モデルは、チャンスをもたらす。透明性と管理の迅速化に取り組むことで、このチャンスを活用できる。エージェント型 AI(AAI)は、新たな展開として、独自の課題も伴う。自律性の向上とデータとの連携により、システムはより大きな影響をもたらすミスを犯したり、望ましくない行動を取ったりする可能性がある。このためには、並行して開発されるべき新しい形の管理措置が必要だ。AP は、AAI などの新しい AI アプリケーションを注視し、法律や規制に関する懸念が不必要にイノベーションを阻害する場合に介入する。AI やアルゴリズムの利用に関する透明性で先駆的な組織は、多くの場合、公共部門にある。小規模な組織は、より遅れていることが多い。その理由は、AI の利用に加えて、新しいテクノロジーの管理を適切に組織化する能力も限られているためだ。
De AP roept het nieuwe kabinet op om (1) te investeren in kaders en instrumenten, zoals het algoritmekader en algoritmeregister, (2) te investeren in de kaders en capaciteit van toezichthouders om ook voldoende guidance te geven en kennis te delen, en ook in samenwerking en kennisdeling tussen deze partijen en (3) de aandacht voor de verantwoorde inzet van AI en algoritmes door de overheid niet te laten verslappen.  AP は、新内閣に対して、(1) アルゴリズムの枠組みやアルゴリズム登録簿などの枠組みや手段への投資、 (2) 監督機関が十分なガイダンスを提供し、知識を共有するための枠組みと能力、およびこれらの当事者間の協力と知識共有に投資すること、(3) 政府による AI およびアルゴリズムの責任ある導入に対する関心を弱めることのないようにすること。
6. Ondanks een mogelijk gedeeltelijk uitstel tot medio 2027 vraagt de AIverordening om versnelling in voorbereiding bij zowel toezichthouders als organisaties die AI-systemen aanbieden. 6. 2027 年半ばまで一部延期される可能性があるにもかかわらず、AI 規制は、監督機関と AI システムを提供する組織の両方において、準備の加速を求めている。
Het gebrek aan voortgang bij de implementatie van de AI-verordening is zorgelijk. Dat heeft er onder andere toe geleid dat de Europese Commissie (EC) heeft voorgesteld om de inwerkingtreding gedeeltelijk met 1 tot 1,5 jaar uit te stellen. De vertraging zit vooral in (1) het aanwijzen van de toezichthouders, (2) de financiering van het toezicht en de (3) inrichting van de bijbehorende instrumenten en standaarden die organisaties nodig hebben om compliant te worden met de AI-verordening. Nederlandse organisaties voelen de druk om te voldoen aan nieuwe AI wet- en regelgeving. Door eigen kaders te ontwikkelen en pilots op te zetten, probeert een aantal organisaties hier handen en voeten aan te geven, maar ervaren ook nog onduidelijkheid over belangrijke basiselementen. Denk aan de classificatie van hun AI-systemen, hoe de interne governance eruit moet zien en wat de documentatie-eisen zijn voor hun AI-systemen. Juist op deze belangrijke basiselementen kan en moet de voorbereiding versnellen. Onduidelijkheid kan zorgen voor economische nadelen en risico’s of incidenten op korte en lange termijn.  AI 規制の実施が進展していないことは懸念される。その結果、欧州委員会(EC)は、発効を 1 年から 1 年半程度延期することを提案した。遅延は主に、(1) 監督機関の指定、(2) 監督のための資金調達、(3) 組織が AI 規制に準拠するために必要な関連ツールや基準の整備、といった分野で生じている。オランダの組織は、新しい AI に関する法律や規制に準拠しなければならないというプレッシャーを感じている。独自の枠組みを開発し、パイロット事業を開始することで、この問題に対処しようとしている組織もあるが、重要な基本要素については依然として不明確な点がある。例えば、AI システムの分類、内部ガバナンスの在り方、AI システムの文書化要件などである。こうした重要な基本要素について、準備を加速することができるし、またそうすべきである。不明確さは、短期的および長期的な経済的損失やリスク、あるいは事故につながる可能性がある。
De AP blijft, samen met het Europese AI Office, werken aan guidance over deze basiselementen. Waar mogelijk brengt de AP deze guidance eerst in publieke consultatie om het zo passend mogelijk voor de praktijk te maken. AP は、欧州 AI 事務局と協力し、これらの基本要素に関するガイダンスの作成を継続する。可能な場合は、このガイダンスをまず公開協議にかけ、実務に可能な限り適合したものとする。
7. Het publiek vertrouwen in AI en algoritmes blijft fragiel en hangt sterk samen met transparantie.  7. AI やアルゴリズムに対する公衆の信頼は依然として脆弱であり、透明性との関連性が強い。
Burgers waarderen de inspanningen rond de uitlegbaarheid van de werking en besluiten door AI en algoritmes, maar zorgen blijven bestaan over privacy, discriminatie en dataveiligheid. Transparantie vraagt ook om heldere communicatie over de werking van algoritmes en hoe deze worden gecontroleerd. Dit is essentieel voor een betrouwbare inzet van algoritmes, zeker in de publieke sector. De AP werkt aan handvatten die organisaties inspiratie en houvast geven om transparant te zijn over hun inzet van AI. Ook roept de AP op om het Nederlandse algoritmeregister en algoritmekader met meer ambitie vorm te geven, inclusief een snelle verplichting voor publieke organisaties. 市民は、AI やアルゴリズムの動作や決定の理解可能性に関する取り組みを高く評価しているが、プライバシー、差別、データセキュリティに関する懸念は依然として残っている。透明性には、アルゴリズムの動作やその管理方法について明確なコミュニケーションも求められる。これは、特に公共部門において、アルゴリズムを信頼性をもって活用するために不可欠だ。AP は、組織が AI の活用について透明性を確保するためのインスピレーションと指針となるガイドラインの作成に取り組んでいる。また、AP は、オランダのアルゴリズム登録簿とアルゴリズムの枠組みをより野心的なものにするよう呼びかけている。これには、公共機関に対する迅速な義務付けも含まれる。
8. Datakwaliteit en modeltoezicht zijn grootste uitdagingen voor het verantwoord gebruik van AI en algoritmes.  8. データ品質とモデル監視は、AI およびアルゴリズムの責任ある利用における最大の課題である。
De grootste belemmering voor betrouwbare AI-resultaten is een gebrek aan datakwaliteit, geven organisaties aan. Daarnaast is risicobeheersing bij AI-modellen lastig. Dat komt door het gebrek aan representatieve data, de beperkte auditmogelijkheden en het onduidelijke eigenaarschap in AI-ketens.  組織は、信頼性の高い AI 結果を得る上での最大の障害は、データ品質の欠如であると指摘している。さらに、AI モデルのリスク管理は困難である。その原因は、代表性のあるデータの欠如、監査能力の制限、AI チェーンにおける所有権の不明確さにある。
Om robuuste AI-systemen verantwoord te gebruiken, is het van groot belang om de focus op de kwaliteit van data en het modeltoezicht verder te ontwikkelen. De AP blijft datakwaliteit en beheersingsinstrumenten agenderen. In 2026 volgt de AP met belangstelling de ontwikkeling en toepassing van beheersingsinstrumenten die bijdragen aan verantwoord gebruik van AI.  堅牢な AI システムを責任を持って利用するためには、データの品質とモデル監視にさらに焦点を当てることを発展させることが非常に重要だ。AP は、データ品質と管理ツールを今後も議題として取り上げる。2026 年、AP は、AI の責任ある利用に貢献する管理ツールの開発と適用を注視する。
9. Samenwerking en kennisdeling tussen overheid, wetenschap en bedrijfsleven zijn cruciaal om AI-kansen te benutten. 9. 政府、科学界、産業界間の協力と知識の共有は、AI の機会を活用するために極めて重要だ。
AI-ontwikkelingen gaan in een hoog tempo. Om kansen te benutten is structurele samenwerking vereist. Door kennis over innovaties, mogelijkheden, risico’s en beheersing te delen tussen overheid, wetenschap en bedrijfsleven, kunnen kansen beter en verantwoorder worden benut. Er is voortgang in het opzetten en benutten van gezamenlijke kennisplatformen en auditering, maar verdere standaardisatie is nodig, bijvoorbeeld in terminologie en processen. Ook blijven interbestuurlijke samenwerking en open data-initiatieven nodig om de toepassing van AI verder te laten groeien. De AP draagt vanuit de coördinerende rol bij aan kennisuitwisseling.  AI の開発は急速に進んでいる。機会を活用するには、構造的な協力が必要だ。政府、科学界、産業界の間で、イノベーション、可能性、リスク、管理に関する知識を共有することで、機会をより良く、より責任を持って活用することができる。共同知識プラットフォームの構築と活用、監査は進展しているものの、用語やプロセスなど、さらなる標準化が必要だ。また、AI の適用をさらに拡大するには、行政間の協力やオープンデータイニシアチブも引き続き必要だ。AP は、調整役として知識の交換に貢献している。
10. Inzet van AI kan systeemrisico’s versterken; investeren in risicoanalyses en testfaciliteiten is nodig.  10. AI の導入はシステムリスクを増大させる可能性がある。リスク分析や試験施設への投資が必要だ。
Systeemrisico’s zijn soms lastig te identificeren of te voorspellen en als ze tot uiting komen zijn ze ernstig van aard en groot van omvang. Vaak onderbreken ze de werking van systemen als geheel in de samenleving, denk hierbij aan ketens of systemen die afhankelijk van elkaar zijn.  システムリスクは、特定や予測が難しい場合があり、発生した場合、その性質は深刻で規模も大きい。多くの場合、社会全体のシステム、例えば相互に依存するチェーンやシステムの機能を停止させる。
De schade kan dan ook niet altijd snel hersteld worden. De inzet van AI kan deze systeemrisico’s versterken. Hoofdstuk 2 biedt thematische verdieping op dit onderwerp. そのため、被害は必ずしも迅速に修復できるとは限らない。AI の導入は、こうしたシステムリスクを増幅させる可能性がある。第 2 章では、このテーマについてさらに深く掘り下げる。
Voorbeelden van AI-gerelateerde systeemrisico’s zijn te vinden in de financiële sector, bij algoritmische handel in financiële instrumenten. Ook in cybersecurity kan AI systeemrisico’s vergroten, doordat de verwevenheid van de digitale infrastructuur deze extra kwetsbaar maakt voor cyberaanvallen. Verder kunnen autonome AI-agents, die acties ondernemen zonder menselijke tussenkomst, mogelijk systeemrisico’s veroorzaken. Om systeemrisico’s te beheersen is het vooral belangrijk om in kaart te brengen hoe risico’s zich versterken en verspreiden, en deze risico’s te adresseren. Bijvoorbeeld door stresstesten die kwetsbaarheden kunnen blootleggen, voordat ze leiden tot daadwerkelijke verstoringen. AI に関連するシステムリスクの例は、金融セクター、金融商品のアルゴリズム取引に見られる。また、サイバーセキュリティにおいても、デジタルインフラの相互関連性によりサイバー攻撃に対する脆弱性が高まっているため、AI はシステムリスクを増大させる可能性がある。さらに、人間の介入なしに動作する自律型 AI エージェントも、システムリスクを引き起こす可能性がある。システムリスクを管理するには、リスクがどのように増幅・拡散するかを把握し、そのリスクに対処することが特に重要だ。例えば、実際の混乱につながる前に脆弱性を明らかにするストレステストなどを実施する。
11. Kinderen en jongeren worden nog onvoldoende beschermd tegen risico’s van AI-systemen.  11. 子供や若者は、AIシステムのリスクからまだ十分に保護されていない。
Kinderen en jongeren gebruiken steeds meer en vaker AI-systemen, zoals AI-chatbots en companion-apps. Naast praktisch gebruik, bijvoorbeeld voor huiswerkondersteuning, gebruiken steeds meer kinderen en jongeren AI-systemen ook voor emotioneel advies en gezelschap. Dat kan risicovol zijn, zeker bij kinderen en jongeren in een kwetsbare positie. Zij maken relatief meer gebruik van deze AI-toepassingen en zijn tegelijk minder goed in staat om de bijbehorende risico’s in te schatten of te beoordelen. Ook het verslavende effect van AI-toepassingen kan hierbij een rol spelen.  子供や若者は、AIチャットボットやコンパニオンアプリなどのAIシステムをますます頻繁に使用している。宿題のサポートなど実用的な用途に加え、感情的なアドバイスや仲間としての存在を求めるためにAIシステムを利用する子供や若者も増えている。これは、特に脆弱な立場にある子供や若者にとってはリスクを伴う可能性がある。彼らは比較的これらのAIアプリケーションを多く利用している一方で、関連するリスクを評価・判断する能力は低い。AIアプリケーションの依存性にも、この問題に関与している可能性がある。
Ondanks de toegenomen aandacht voor deze problemen, zijn de beschermingsmaatregelen nog onvoldoende effectief om kinderen en jongeren te beschermen. Vanwege de kwetsbaarheid van deze groep volgt de AP de ontwikkelingen op dit terrein nauwgezet. こうした問題への関心が高まっているにもかかわらず、子供や若者を保護するための保護対策は、まだ十分ではない。このグループは脆弱であるため、APはこの分野の発展を注意深く見守っている。

| | Comments (0)

金融庁 金融活動作業部会による「ステーブルコイン及びアンホステッド・ウォレット(P2P)に関する報告書」の公表 (2026.03.06)

こんにちは、丸山満彦です。

金融庁から、金融活動作業部会による「ステーブルコイン及びアンホステッド・ウォレット(P2P)に関する報告書」が公表された旨の発表がされていました...


VACG共同議長国として、また、本プロジェクトチームの共同リード及びメンバーとして本報告書の取り纏めに貢献しました。


ということのようです。。。

 


ステーブルコインのマネー・ローンダリング等への悪用事例が増加していること等を踏まえ、ステーブルコインとアンホステッド・ウォレット(P2P)の不正利用に関する脅威や脆弱性に関する分析、リスク低減に向けた各法域の好取組事例、官民関係者向けの勧告等から構成されています。本報告書は、当庁が共同議長を務めるFATF政策企画部会(PDG)及び、リスク・傾向及び手法に関する作業部会(RTMG)の共同プロジェクトにおいて、PDG傘下の暗号資産コンタクト・グループ(VACG)によって作成されました。


 

ということで、この報告書はP2P取引において取引量が増えているステーブルコインが、犯罪に悪用されるケースが急増している現状を踏まえ、各国は早急にリスク対策を強化する必要があると指摘していますね...

特に非管理型ウォレットを使ったP2P取引は、AML/CFTの監視を避けやすく、北朝鮮やイラン、麻薬組織、詐欺グループ、テロ組織などが利用する大きな抜け穴になっていると指摘しています...

ステーブルコインは価格が安定し流動性が高いため、正当な利用と同時に不正利用も広がりやすい。したがって、発行者や仲介業者への明確なAML/CFT義務付け、スマートコントラクトによる凍結や拒否リスト機能の導入、ブロックチェーン分析の活用、国際協力の強化など、複数の対策を組み合わせることが重要になりますよね...

普及が進むこのタイミングで、金融システムを守るための実効的な枠組みを整える必要がありますね...



金融庁

・2026.03.06 FATFによる「ステーブルコイン及びアンホステッド・ウォレット(P2P)に関する報告書」の公表について

 

Financial Action Task Force (FATF) 

・2026.03.03 Targeted report on Stablecoins and Unhosted Wallets - Peer-to-Peer Transactions

Targeted report on Stablecoins and Unhosted Wallets - Peer-to-Peer Transactions ステーブルコインと非管理型ウォレットに関する特定報告書 - ピアツーピア取引
Paris, 3 March 2026 — A new report from the Financial Action Task Force (FATF) highlights illicit finance risks linked to criminals' misuse of stablecoins, particularly through peer-to-peer (P2P) transactions via unhosted wallets, and sets out recommended actions for countries and the private sector to strengthen controls to protect the integrity of the financial system.  2026年3月3日、パリ発 — 金融活動作業部会(FATF)の新たな報告書は、犯罪者によるステーブルコインの悪用、特に非管理型ウォレットを介したピアツーピア(P2P)取引に関連する不正資金リスクを指摘し、金融システムの健全性を守るため、各国及び民間セクターが管理強化に向けた推奨措置を講じるよう求めている。 
The FATF's Targeted Report on Stablecoins and Unhosted Wallets, highlights that stablecoins have expanded rapidly, with over 250 in circulation by mid-2025 and a market capitalisation exceeding USD 300 billion. Chainalysis has indicated that stablecoins accounted for 84 percent of illicit virtual asset transaction volume in 2025, often involving unhosted wallets and complex laundering techniques designed to obscure fund origins.  FATFの「ステーブルコインと非管理型ウォレットに関する対象報告書」は、ステーブルコインが急速に拡大し、2025年半ばまでに250種類以上が流通し、時価総額が3000億米ドルを超えたことを強調している。Chainalysisの分析によれば、2025年の違法仮想資産取引量の84%をステーブルコインが占め、非管理型ウォレットと資金源を隠蔽する複雑な洗浄手法が頻繁に利用されていた。
The report highlights how stablecoins' price stability, liquidity, and interoperability support legitimate use but also make them attractive for criminal misuse. This includes by money launderers, and terrorist financiers, as well as by state-linked cybercriminal groups, including from the DPRK, adopting stablecoins as a preferred method for laundering proceeds from ransomware, phishing, and other cyber-enabled crimes, and Iranian actors leveraging stablecoins to finance proliferation. 本報告書は、ステーブルコインの価格安定性、流動性、相互運用性が正当な利用を支える一方で、犯罪者による悪用を誘引する要因となっている点を強調している。これにはマネーロンダリング業者やテロ資金供与者、さらに北朝鮮を含む国家関連サイバー犯罪グループが、ランサムウェアやフィッシングなどのサイバー犯罪収益の洗浄手段としてステーブルコインを優先的に採用している事例、またイラン関係者が拡散活動資金調達にステーブルコインを活用している事例が含まれる。
Vulnerabilities include how P2P transactions via unhosted wallets occur directly between individuals or entities, without the involvement of a regulated intermediary Virtual Asset Service Provider (VASP) or financial institution as well as how stablecoin issuers may face difficulties in controlling cross-chain activities, which may therefore fall outside counter-illicit finance controls. 脆弱性としては、規制対象の仲介業者である仮想資産サービス提供者(VASP)や金融機関を介さず、個人や事業体間で直接行われる非ホスト型ウォレット経由のP2P取引が挙げられる。またステーブルコイン発行者はクロスチェーン活動を制御しづらく、その結果、違法資金対策の管理対象外となる可能性がある。
Mitigating Risks  リスクの緩和策 
The report highlights that only a limited number of jurisdictions have implemented targeted regulatory frameworks for entities operating within the stablecoins ecosystem, explicitly taking into account the features that distinguish stablecoins from other virtual assets.  報告書は、ステーブルコインエコシステム内で活動する事業体向けに、ステーブルコインを他の仮想資産と区別する特徴を明示的に考慮した対象を絞った規制枠組みを実施している管轄区域は限られていると指摘している。 
While the FATF Standards do not require jurisdictions to adopt regulatory frameworks for stablecoin arrangements beyond those already applicable to VASPs, the FATF urges countries to recognise the specific money laundering, terrorist financing and proliferation financing risks associated with stablecoins and to implement proportionate and effective mitigating measures that reflect their distinct characteristics. FATF基準は、VASPに既に適用されている規制枠組みを超えてステーブルコイン取引に新たな規制を求めるものではないが、各国に対し、ステーブルコイン特有の資金洗浄・テロ資金供与・拡散資金供与リスクを認識し、その特徴を反映した比例的かつ効果的な緩和措置を実施するよう強く促している。
Countries should fully implement Recommendation 15 of the FATF Standards to ensure that stablecoin issuers, intermediary VASPs, financial institutions and other relevant participants in stablecoin arrangements are subject to clear anti-money laundering and countering the financing of terrorism obligations. 各国は、FATF標準の勧告15を完全に実施し、ステーブルコイン発行者、仲介VASP、金融機関、およびステーブルコイン取引に関わるその他の関係者が、明確な資金洗浄防止およびテロ資金供与対策義務の対象となることを確保すべきである。
In addition, good practices for jurisdictions and the private sector to mitigate the misuse of stablecoins are highlighted, including: さらに、ステーブルコインの悪用を緩和するための管轄区域および民間部門の優良事例が強調されている。これには以下が含まれる:
・Requiring stablecoin issuers to adopt risk‑based technical and governance controls, such as the ability to freeze, burn, or withdraw stablecoins in the secondary market, conduct customer due diligence at redemption, and, where appropriate, implement smart contract controls, such as allow‑listing (restricting transactions to pre-approved addresses) and deny‑listing (blocking transactions involving high-risk addresses).  ・ステーブルコイン発行者に対し、リスクベースの技術的・ガバナンス的統制の導入を義務付ける。具体的には、二次市場におけるステーブルコインの凍結・焼却・回収能力、償還時の顧客デューデリジェンスの実施、および適切な場合にはスマートコントラクト統制(許可リスト方式による事前承認アドレス限定取引や拒否リスト方式による高リスクアドレス取引の遮断など)の実施が挙げられる。
・Developing strong technical capabilities within supervisory and law enforcement authorities, including expertise in smart contract functionalities, cross-chain transaction mechanics, blockchain analytics tools, and monitoring risks from P2P transactions via unhosted wallets.  ・監督当局及び法執行機関内に、スマートコントラクト機能、クロスチェーン取引メカニズム、ブロックチェーン分析ツール、非管理型ウォレット経由のP2P取引リスク監視に関する専門知識を含む、強固な技術能力を構築すること。
・Ensuring competent authorities have the tools and legal frameworks necessary for swift domestic and international cooperation, including established channels, MoUs and mechanisms that enable rapid information exchange, particularly in cases involving freezing or burning of stablecoins. ・特にステーブルコインの凍結・焼却 (burn) を伴う事例において、迅速な情報交換を可能とする確立されたチャネル、覚書(MoU)、メカニズムを含む、国内外の迅速な協力に必要なツール及び法的枠組みを所管当局が保有することを確保すること。
・Establishing public‑private partnerships to strengthen cooperation on typologies, risk indicators, and emerging threats, as well as more tactical partnerships for investigations.  ・典型的な手口、リスク指標、新たな脅威に関する協力強化のため官民パートナーシップを構築し、捜査のためのより戦術的な連携も推進する。
Drawing on more than 50 submissions from across the FATF Global Network, the report also highlights case studies demonstrating how new technologies and blockchain analytical tools, along with other risk mitigation measures, have been used to detect and disrupt illicit activity involving stablecoins.  FATFグローバルネットワークから寄せられた50件以上の報告を基に、本報告書は、新技術やブロックチェーン分析ツール、その他のリスク緩和策がステーブルコイン関連の不法活動を検知・阻止するためにどのように活用されたかを示す事例研究も紹介している。

 

 

・[PDF]

20260310-153509

・[DOCX][PDF] 仮訳

 

目次...

Abbreviations and Acronyms 略語と頭字語
Executive Summary エグゼクティブサマリー
Introduction 序論
Objectives and Structure 目的と構成
Previous FATF Work on Stablecoins ステーブルコインに関するFATFのこれまでの取り組み
Scope 範囲
Methodology 方法論
Background 背景
Background on Stablecoin Ecosystem and Definitions ステーブルコインのエコシステムと定義に関する背景
FATF Requirements for VASPs and Applicability to Stablecoins VASPに対するFATFの要件とステーブルコインへの適用性
Part One: Analysis on Current situation, Threats and Vulnerabilities 第一部:現状、脅威及び脆弱性に関する分析
Current Situation 現状
Threat Actors Use of Stablecoins 脅威アクターによるステーブルコインの利用
Vulnerabilities 脆弱性
Part Two: Good Practices to Mitigate Misuse of Stablecoins, Including for P2P Transactions 第二部:P2P取引を含むステーブルコインの悪用を緩和するための優良事例
Effective Implementation of FATF Standards FATF標準の効果的な実施
Stablecoin Issuers Applying Controls ステーブルコイン発行者による管理措置の適用
Using Advanced Tools for Detecting and Monitoring Suspicious Transactions 疑わしい取引の検知・監視のための高度なツールの使用
Effective Supervision of Stablecoin issuers and other entities involved in stablecoin arrangements ステーブルコイン発行体及びステーブルコイン関連事業体に対する効果的な監督
Robust Public-Private Sector Collaboration 官民セクター間の強固な連携
Following Investigative Leads 捜査の手がかりを追跡する
ML/TF/PF Risks Mitigation measures for Unhosted Wallets and P2P Transactions ML/TF/PFリスク緩和策:非管理型ウォレット及びP2P取引向け
Conclusion 結論
Recommended Actions 推奨される行動
Annex A: List of Risk Indicators 附属書A:リスク指標一覧

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
1. Stablecoins have grown rapidly in scale, adoption, and functional integration within both the virtual asset ecosystem and, increasingly, the traditional financial system. As of mid-2025, over 250 stablecoins were in circulation, with total market capitalisation exceeding USD 300 billion and daily trading volumes surpassing those of Bitcoin. Fiat-backed, centrally governed stablecoins—predominantly USD-referenced—dominate the market and are widely used across multiple blockchains. While stablecoins are increasingly used for legitimate purposes, their distinctive features—price stability, high liquidity, interoperability—also make them attractive tools for threat actors.  1. ステーブルコインは、仮想資産エコシステム内およびますます伝統的な金融システム内において、規模、採用、機能統合の面で急速に成長している。2025年半ば時点で、250以上のステーブルコインが流通しており、総時価総額は3,000億米ドルを超え、日次取引高はビットコインを上回っている。 法定通貨担保型で中央管理型のステーブルコイン(主に米ドル連動型)が市場を支配し、複数のブロックチェーンで広く利用されている。ステーブルコインは正当な目的での利用が増加している一方で、その特徴である価格安定性、高い流動性、相互運用性は、脅威アクターにとっても魅力的なツールとなっている。 
2. Stablecoins, including through unhosted wallets, have become a common component of ML, TF and PF schemes that use virtual assets. While there are some simple and/or direct uses of stablecoins observed, many schemes use stablecoins as one feature in a more complex series of transactions designed to obfuscate the origin of funds, and distance it from the intended use. Reporting indicates that stablecoins are the most popular virtual asset used in illicit transactions.  2. ステーブルコインは、非管理型ウォレットを通じたものも含め、仮想資産を利用するマネーロンダリング(ML)、テロ資金供与(TF)、不正資金調達(PF)スキームの一般的な構成要素となっている。単純かつ直接的なステーブルコインの利用例も確認される一方、多くのスキームでは資金の出所を隠蔽し、本来の用途から遠ざけるため、より複雑な一連の取引の一要素としてステーブルコインが利用されている。報告によれば、ステーブルコインは不正取引で最も多用される仮想資産である。 
3. Stablecoins, generally, have the same vulnerabilities as other virtual assets. These vulnerabilities are exacerbated by their characteristics such as the price stability and ample liquidity, which can make stablecoins more likely to be used in P2P transactions. P2P transactions via unhosted wallets represent a key vulnerability in the stablecoin ecosystem. Conducted without the involvement of AML/CFT-obliged intermediaries, these transactions can be of higher risk, especially when layered through unhosted wallets. In addition, stablecoins could exhibit more asset-specific vulnerabilities, notably those arising from their interconnections with traditional finance. Cases indicate that threat actors have used stablecoins to purchase prohibited goods without cashing out through intermediaries, however, data remains limited regarding the broader use of stablecoins for the purchase of goods and services or for P2P transactions. Therefore, it is important for jurisdictions and relevant stakeholders to continue to closely monitor whether stablecoins are increasingly used for purchases without reliance on traditional on- and off-ramps, and the extent to which accurate data on the scale and proportion of P2P transactions can be obtained.  3. ステーブルコインは一般的に、他の仮想資産と同様の脆弱性を有する。価格安定性や豊富な流動性といった特性により、こうした脆弱性は増幅され、ステーブルコインがP2P取引で利用されやすくなる。 非管理型ウォレットを介したP2P取引は、ステーブルコインエコシステムにおける主要な脆弱性である。AML/CFT義務を負う仲介業者の関与なしに行われるこれらの取引は、特に非管理型ウォレットを介して多重化される場合、より高いリスクを伴う可能性がある。さらに、ステーブルコインは資産固有の脆弱性を示す可能性があり、特に伝統的金融との相互接続から生じるものが顕著である。 事例によれば、脅威アクターが仲介業者を介さずに禁止物品を購入するためにステーブルコインを利用していることが示されている。しかしながら、物品・サービスの購入やP2P取引におけるステーブルコインの広範な利用に関するデータは依然として限定的である。 したがって、管轄区域及び関係者は、ステーブルコインが従来のオンランプ・オフランプに依存せず購入に利用される傾向が強まっているか、またP2P取引の規模と割合に関する正確なデータをどの程度取得できるかを継続的に注視することが重要である。 
4. In response to these risks and vulnerabilities, the report identifies a range of good practices that can be implemented by wider jurisdictions and private sector. Some are common with all virtual assets, while others unique to stablecoins. These include establishing comprehensive legal frameworks in compliance with the FATF Standards; imposing clear AML/CFT obligations on stablecoin issuers, intermediaries, and custodians; assessing risk and implementing risk mitigation measures for transactions involving unhosted wallets; and leveraging advanced technology-based tools. The report also emphasises the need for further coordination among competent authorities and across borders, as well as the importance of providing technical assistance to jurisdictions that have not yet adequately implemented regulatory and supervisory frameworks for stablecoins. This report also demonstrates several jurisdictions that have also adopted innovative approaches, such as requiring issuers to embed programmable controls in stablecoin smart contracts, to support freezing, deny-listing, or other risk mitigation actions in secondary markets.  4. これらのリスクと脆弱性に対応するため、本報告書は広範な管轄区域及び民間部門が実施可能な一連の優良事例を識別している。その一部は全ての仮想資産に共通するものであり、他はステーブルコイン固有のものである。これには、FATF標準に準拠した包括的な法的枠組みの確立、ステーブルコイン発行者・仲介業者・保管業者に対する明確なAML/CFT義務の課せ、非ホスト型ウォレットを伴う取引のリスクアセスメントとリスク緩和措置の実施、先進技術ベースのツールの活用などが含まれる。 本報告書はまた、管轄当局間および国境を越えたさらなる連携の必要性、ならびにステーブルコインに対する規制・監督枠組みを十分に整備していない管轄区域への技術支援提供の重要性を強調している。さらに、 といった複数の管轄区域が、発行者にステーブルコインのスマートコントラクトにプログラム可能な制御機能を組み込むことを義務付けるなど、二次市場における凍結、拒否リスト登録、その他のリスク緩和措置を支援する革新的なアプローチを採用している事例も示している。 
5. Finally, this report makes available to members of the FATF Global Network indicators of the misuse of stablecoins, particularly through unhosted wallets. It also makes internal recommendations for the FATF Global Network to consider to potentially mitigate risk in the stablecoin environment.  5. 最後に、本報告書はFATFグローバルネットワークのメンバーに対し、特に非管理型ウォレットを通じたステーブルコインの悪用に関する指標を提供する。また、ステーブルコイン環境におけるリスクの緩和の可能性を検討するため、FATFグローバルネットワーク向けの内部提言も行っている。  

 

ちなみにステーブルコインの残高が多い順

CoinMarketCap

Top Stablecoin Tokens by Market Capitalization

発行残高トップ5(時価総額順)

  日本時間 2026.03.10 23:30頃
Tether $184,010,142,380 55%
USDC $78,238,328,653 24%
Ethena USDe $5,921,296,052 2%
Dai $5,366,079,429 2%
World Liberty Financial USD $4,599,095,333 1%
Others $54,387,198,653 16%
Total $332,522,140,500 100%

総額は約3300億ドル...

上位2で全体の約8割...

 

 

| | Comments (0)

2026.03.10

ICT-ISAC ICT分野事業者に向けたセキュリティ・クリアランス法制に関するレポート (2026.03.03)

こんにちは、丸山満彦です。

ICT-ISACがICT分野事業者に向けたセキュリティ・クリアランス法制に関するレポート、「我が国におけるセキュリティ・クリアランス法制の動向
「重要経済安保情報保護活用法」」という報告書を公表していますね...KDDI総合研究所が作成したものです...

電気通信事業者に求められる実務的な対応と、企業活動への影響を明確化することを目的とする。特に、通信業界が今後直面し得る制度対応を、条文および運用基準に基づき整理する。」としていますね...

電気通信事業者への影響求められる対応のイメージとして次のように考えているようですね...

組織に求められる対応もその通りだと思います。。。(私は次の5つで考えていましたが(①組織体制、②設備、③システム、④人事対応、⑤調達・委託管理(日本人らしい...(^^))。KDDIの報告書は、わたしの①から③をまとめて「適合事業者認定への備え」としているイメージですね...)


◼ 影響

⚫ 電気通信は「重要インフラ15分野」として明確に位置づけられており、本法の運用において対象となりやすい業
態となる可能性がある。留意点として以下が考えられる:

• 「特定秘密」とは異なる制度であるため、事業で生ずる情報が指定対象になり得る可能性。
• 適合事業者認定や適性評価は任意制度だが、事実上の政府調達参加条件となる可能性が高い。
• 下請・委託先(ベンダー・工事会社等)との関係性。

◼ 求められる対応

⚫ 組織対応・社内体制構築:適合事業者認定への備え

• 保護責任者(役員)/業務管理者(CSIRT等)指名
• 重要情報取扱区画(専用室)設置計画 等

⚫ 労務・人事対応:適性評価への備え

• 従業者選定
• 退職者の情報管理強化 等

⚫ 調達・委託管理対応:サプライチェーン対策

• NDA の強化(退職後規定含む)
• 再委託禁止(または報告義務)
• 委託先監査の実施


 

また、サイバーセキュリティに関するサプライチェーンリスクを3つの類型にわけていますが、私もその通りと思います。ときどき、どのリスクの話をしているのかわかりにくくなるので、この3類型に名前をつけたらよいのではないかと思います。(渉外 -> 障害)


◼ サプライチェーン・リスクの種類(サイバーセキュリティに関し)

⚫ 具体的には:

• 委託先(委託先のシステムを経由したサイバー攻撃)
• クラウドサービス(クラウドサービスの渉外によるサービス停止)
• ソフトウェア(バックドア型マルウェアが仕込まれる)


 

  1. 委託先(委託先のシステムを経由したサイバー攻撃)
  2. クラウドサービス(クラウドサービスの渉外によるサービス停止)
  3. ソフトウェア(バックドア型マルウェアが仕込まれる)

とすると、、、たとえば...

1. 「大阪急性期総合医療センター型」

2. 「小島プレスのクラウド版型」

3. 「SolarWinds型」

みたいな...社名出すとあかんか...

 

● ICT-ISAC

・2026.03.03 国内初、ICT分野事業者に向けたセキュリティ・クリアランス法制に関するレポートを公表

20260310-63726

 

| | Comments (0)

欧州 EDPB データブローカー市場調査 (2026.03.04)

こんにちは、丸山満彦です。

日本ではほとんどないのではないかと思われるデータブローカーについてのEDPBの調査報告書です...

データブローカーの5つの特徴...

  • 複数の情報源から情報を収集する
  • データを処理して顧客プロファイルを作成する
  • データを収益化する
  • 個人による実質的な管理は存在しない
  • 個人データを扱う

興味深いです...

日本にも情報銀行[wikipedia]とかアイデアはありましたね...

 

EDPB

・2026.03.04 Data Brokers Market Study

Data brokers market study データブローカー市場調査
The Data brokers market study provides a methodology to identify data brokers and presents a typology of data brokers, together with an analysis of their business models and an initial risk assessment.  本調査はデータブローカーを識別する手法を提供し、データブローカーの類型化、ビジネスモデルの分析、初期リスクアセスメントを提示する。
In addition, the report provides an in-depth overview of a number of data brokers and providers identified in Belgium, ranked by type. Possible data brokers were assessed against the criteria outlined in the report. Overall, the study shows that the data broker and provider market in Belgium is highly diverse, with varying levels of risk related to personal data usage. さらに本報告書は、ベルギーで識別された複数のデータブローカー及びプロバイダについて、タイプ別にランク付けした詳細な概要を提供する。潜在的なデータブローカーは、報告書で示された規準に基づいてアセスメントされた。全体として、本調査はベルギーにおけるデータブローカー及びプロバイダー市場が多様性に富み、個人データ利用に関連するリスクレベルが様々であることを示している。
The EDPB launched the project in the context of the Support Pool of Experts programme at the request of the Belgian Data Protection Authority (DPA). 欧州データ保護委員会(EDPB)は、ベルギーデータ保護機関(DPA)の要請を受け、専門家支援プール(Support Pool of Experts)プログラムの一環として本プロジェクトを開始した。
The project was completed by external SPE expert Ruben d'Hauwers in November 2025. 本プロジェクトは、外部専門家であるルーベン・ドハウワーズ(Ruben d'Hauwers)により2025年11月に完了した。
Objective 目的
This study aims to give greater insights into the ecosystem of personal data providers and data brokers operating in Belgium, while also offering a framework to detect likely high-risk data providers and brokers across Europe. 本調査は、ベルギーで活動する個人データプロバイダおよびデータブローカーのエコシステムに関する理解を深めると同時に、欧州全域でリスクの高いプロバイダ・ブローカーを検知するための枠組みを提供することを目的とする。

 

・[PDF]

20260309-181137

・ [DOCX][PDF] 仮訳

 

 

 

 

| | Comments (0)

2026.03.09

米国 大統領令 アメリカ市民に対するサイバー犯罪、詐欺、および悪質な計画との戦い (2026.03.06)

こんにちは、丸山満彦です。

トランプ大統領が、「アメリカ市民に対するサイバー犯罪、詐欺、および悪質な計画との戦い」という大統領令をだしていますね...

ランサム犯罪、金融詐欺、セクストーションなどのサイバー犯罪が国境を超えて行われているという事実を踏まえて、国境を超えた犯罪組織(TCO)を壊滅しようということなのでしょうかね...全滅はむりとしても、米国国民に対するサイバー犯罪が割に合わないということを知らしめ、米国国民へのサイバー犯罪を減らそうということなのでしょうね...

サイバー犯罪を野放し?にしている国に対しては協力要請を行うとともに、要請に従わない場合は、それなりの国家措置を講じるということなのでしょうかね...

指示事項は...

  1. 大統領令の発効から60日以内に関係省庁が既存の枠組みを見直し、120日以内にTCOの特定と解体のための行動計画を大統領に提出すること(この行動計画には、国家調整センター(NCC)内に専任の作戦セルを設置することも含まれる。 )

  2. 司法長官はサイバー詐欺事件の訴追を最優先とし、最も重大かつ立証可能な犯罪を追求すること

  3. 大統領令の発効から90日以内に司法長官は「被害者回復プログラム」の設置に関する勧告を提出するこ(TCOから没収・押収した資金を詐欺被害者に直接返還することが目的)

  4. 国務長官は国境内でTCOを野放しにしている外国政府に対し、制裁・ビザ制限・貿易上のペナルティ・外交官追放などの措置を講じることを同盟国と協調しながら実施すること

国際的にこういう犯罪に対しては立ち向かうべきで、権威主義国、自由主義国といった枠組みを超えて対応できるとよいですね...もちろん、国家主体の攻撃もあるかもしれないので、その点は難しいのかもしれませんが...

 

● The White House

・2026.03.06 COMBATING CYBERCRIME, FRAUD, AND PREDATORY SCHEMES AGAINST AMERICAN CITIZENS

COMBATING CYBERCRIME, FRAUD, AND PREDATORY SCHEMES AGAINST AMERICAN CITIZENS アメリカ市民に対するサイバー犯罪、詐欺、および悪質な計画との戦い
By the authority vested in me as President by the Constitution and the laws of the United States of America, it is hereby ordered: 合衆国憲法及び法律により大統領として私に付与された権限に基づき、ここに次の通り命ずる。
Section 1.  Purpose and Policy.  Cybercrime, fraud, and predatory schemes are draining American families of their life savings, stealing the benefits of years of work, and destroying the lives of our youth.  These activities — which include deploying ransomware and malware, phishing, financial fraud, “sextortion” and other extortion schemes, impersonation, and more — are often coordinated campaigns carried out by Transnational Criminal Organizations (TCOs) aimed at the most vulnerable among us.  In many cases, foreign regimes provide willing or tacit state support to cybercrime and predatory schemes, creating a shadow economy fueled by stolen identities, coercion, forced labor, and human trafficking. 第1条 目的及び政策。サイバー犯罪、詐欺、及び悪質な手口は、米国家庭の生涯の貯蓄を奪い、長年の労働の成果を窃取し、若者の人生を破壊している。ランサムウェアやマルウェアの展開、フィッシング、金融詐欺、「セクストーション」その他の恐喝手口、なりすましなどを含むこれらの活動は、我々の中で最も脆弱な層を標的とした、国際犯罪組織(TCO)による組織的なキャンペーンであることが多い。多くの場合、外国政権がサイバー犯罪や悪質な手口に対して、自発的あるいは黙認的な国家支援を提供しており、盗まれた身元情報、強制、強制労働、人身取引によって支えられた闇経済を生み出している。
It is the policy of the United States to protect Americans from, and harden our financial and digital systems against, these threats.  The United States shall counter attacks on Americans with a commensurate response that includes law enforcement, diplomacy, and potential offensive actions.  It is further the policy of the United States to provide support to victims of these crimes, expand public alerts, and prioritize protection for those most at risk to end the exploitation and victimization of Americans. 米国の方針は、こうした脅威から米国市民を防御し、金融・デジタルシステムを強化することである。米国は、法執行、外交、および潜在的な攻撃的行動を含む相応の対応をもって、米国市民に対する攻撃に対抗する。さらに米国の方針は、これらの犯罪の被害者への支援を提供し、公的警報を拡大し、最もリスクに晒されている人々の保護を優先することで、米国市民の搾取と被害を終わらせることである。
Sec. 2.  Combating Scam Centers and Cybercrime.  (a)  The Secretary of State, the Secretary of the Treasury, the Secretary of War, the Attorney General, and the Secretary of Homeland Security, in consultation with the Office of the National Cyber Director, and in coordination with the Assistant to the President and Homeland Security Advisor (APHSA), shall: 第2条 詐欺センター及びサイバー犯罪対策(a) 国務長官、財務長官、陸軍長官、司法長官及び国土安全保障長官は、国家サイバー長官室と協議し、大統領補佐官兼国土安全保障担当補佐官(APHSA)と連携して、以下の措置を講じるものとする:
(i)   within 60 days of the date of this order, review the relevant operational, technical, diplomatic, and regulatory frameworks in place to determine how each can be improved to best combat TCOs engaged in cyber-enabled crime and similar predatory schemes against Americans; and (i) 本命令発令日から60日以内に、サイバー犯罪及び米国市民に対する類似の略奪的計画に従事するTCO(組織犯罪集団)との闘いを最適化するため、既存の運用上・技術上・外交上・規制上の枠組みを精査し、各枠組みの改善方法を決定すること。
(ii)  within 120 days of the date of this order, using the results of the review directed in subsection (a)(i) of this section, submit to the President, through the APHSA, an action plan that identifies the TCOs responsible for scam centers and cybercrime and proposes solutions to prevent, disrupt, investigate, and dismantle these TCOs.  This action plan shall provide for the creation of an operational cell within the National Coordination Center (NCC) established pursuant to section 6(d) of Executive Order 14159 of January 20, 2025 (Protecting the American People Against Invasion), which will be responsible for coordinating Federal efforts to detect, disrupt, dismantle, and deter — including by involving the private sector as appropriate — cyber-enabled criminal activity conducted by foreign TCOs and associated networks that target United States persons, businesses, critical infrastructure, or public services. (ii) 本命令発令日から120日以内に、本項(a)(i)で指示された検討結果を活用し、APHSAを通じて大統領に対し、詐欺センター及びサイバー犯罪に関与するTCOを識別し、これらのTCOを防止、妨害、捜査、解体するための解決策を提案する行動計画を提出すること。この行動計画は、2025年1月20日付大統領令14159号第6条(d)に基づき設置された国家調整センター(NCC)内に作戦室を設置することを規定するものとする。(アメリカ国民を侵略から防御する)に基づき設置された国家調整センター(NCC)内に作戦室を設置することを規定するものとする。同作戦室は、外国のTCO及び関連ネットワークによる、米国人、企業、重要インフラ、公共サービスを標的とするサイバー犯罪行為の検知、妨害、解体、抑止に向けた連邦政府の取り組みを調整する責任を負う。これには、適切な場合には民間セクターの関与も含まれる。
(b)  The action plan shall describe how, consistent with applicable law, the Attorney General and the Secretary of Homeland Security, supported by the Secretary of War, shall use relevant technical capabilities, threat intelligence, and operational insights from commercial cybersecurity firms and other non-Federal entities, as appropriate, to enhance attribution, tracking, and disruption of malicious cyber actors and enabling infrastructure engaged in cybercrime, fraud, and predatory schemes. (b) 行動計画は、適用法に準拠しつつ、司法長官及び国土安全保障長官が、戦争長官の支援を得て、商業サイバーセキュリティ企業その他の非連邦事業体から得られる関連技術能力、脅威情報、運用上の知見を適切に活用し、サイバー犯罪、詐欺、略奪的計画に関与する悪意あるサイバー行為者及び支援インフラの帰属特定、追跡、妨害を強化する方法を記述するものとする。
(c)  The action plan and NCC operational cell shall include mechanisms to improve information sharing, operational coordination, and rapid response across the Federal Government, and shall align with existing law enforcement frameworks and efforts to counter cyber-enabled threats emanating from foreign jurisdictions. (c) 行動計画及びNCC作戦室は、連邦政府全体における情報共有、作戦調整、迅速な対応を改善する仕組みを含み、外国管轄区域から発生するサイバー脅威に対抗するための既存の法執行枠組み及び取り組みと整合させるものとする。
(d)  The Attorney General shall continue to prioritize prosecutions of defendants engaged in cyber-enabled fraud, including scam centers and sextortion schemes, and, consistent with the principles of Federal prosecution, shall pursue the most serious, provable offenses encompassed by such fraudulent schemes. (d) 司法長官は、詐欺センターやセクストーション計画を含むサイバーを利用した詐欺行為に関与する被告の起訴を優先し続け、連邦起訴の原則に則り、当該詐欺計画に含まれる最も重大かつ立証可能な犯罪を追及するものとする。
(e)  To the maximum extent permitted by law, the Secretary of Homeland Security, acting through the Director of the Cybersecurity and Infrastructure Security Agency, shall partner with the NCC to provide training, technical assistance, and resilience building to support State, local, Tribal, and territorial (SLTT) partners, including to expand defensive capacity, share threat intelligence, and harden SLTT partners’ critical infrastructure systems against cybercrime exploitation by TCOs. (e) 法令が許容する最大限の範囲において、国土安全保障長官は、サイバーセキュリティ・インフラセキュリティ庁長官を通じて、NCCと連携し、州・地方・部族・地域(SLTT)パートナーを支援するための訓練、技術支援、レジリエンシー構築を提供するものとする。これには、防御能力の拡大、脅威情報の共有、および組織犯罪集団(TCO)によるサイバー犯罪の悪用に対するSLTTパートナーの重要インフラシステムの強化が含まれる。
Sec. 3.  Victim Restoration Program.  Within 90 days of the date of this order, the Attorney General shall submit a recommendation to the President, through the APHSA, regarding the establishment of a Victims Restoration Program designed to provide, to the greatest extent authorized by law and in consideration of the Department of Justice’s goal of serving all victims of crime, restoration or remission to victims of cyber-enabled fraud schemes from funds clawed back, forfeited, or seized from the TCOs that perpetrate such schemes. 第3条 被害者回復プログラム。本命令発令日から90日以内に、 司法長官は、APHSAを通じて大統領に対し、被害者回復プログラムの設立に関する勧告を提出するものとする。同プログラムは、法律で認可される最大限の範囲において、かつ司法省の犯罪被害者全員への支援という目標を考慮しつつ、サイバーを悪用した詐欺スキームの被害者に対し、当該スキームを実行したTCOから回収、没収、または押収された資金からの回復または減免を提供することを目的とする。
Sec. 4.  International Engagement.  The Secretary of State, in coordination with the NCC, shall engage with foreign governments to demand enforcement actions against TCOs operating within their borders and greater cooperation with United States law enforcement.  The Secretary of State shall take all necessary and appropriate steps to ensure that nations that tolerate such predatory activity shall face consequences consistent with United States law and policy, such as the limitation of foreign assistance, the application of targeted sanctions, visa restrictions, trade penalties, and, where appropriate, the immediate expulsion from the United States of foreign officials and diplomats complicit in these schemes.  The Secretary of State shall also coordinate these actions with allies and partners to enhance the consequences of actions taken against nations that tolerate predatory activity.  第4条 国際的関与。国務長官は、国家安全保障会議(NCC)と連携し、外国政府に対し、自国領内で活動するTCOに対する取締措置の実施及び米国法執行機関との協力強化を要求する。国務長官は、こうした略奪的活動を容認する国々が、米国法及び政策に合致する結果に直面するよう、必要なあらゆる適切な措置を講じる。これには、対外援助の制限、対象を絞った制裁の適用、ビザ制限、貿易制裁、及び適切な場合には、これらの計画に加担した外国公務員・外交官の米国からの即時国外退去が含まれる。国務長官はまた、略奪的行為を容認する国々に対する措置の結果を強化するため、同盟国及びパートナー国とこれらの行動を調整するものとする。
Sec. 5.  General Provisions.  (a)  Nothing in this order shall be construed to impair or otherwise effect: 第5条 一般規定 (a) 本命令のいかなる規定も、以下を損なう、またはその他の影響を与えるものと解釈してはならない:
(i)   the authority granted by law to an executive department or agency, or the head thereof; or (i) 法律により行政部門・機関またはその長官に付与された権限、または
(ii)  the functions of the Director of the Office of Management and Budget relating to budgetary, administrative, or legislative proposals. (ii) 予算・行政・立法提案に関する行政管理予算局長の機能。
(b)  This order shall be implemented consistent with applicable law and subject to the availability of appropriations. (b) 本命令は、適用法に従い、かつ予算の可否を条件として実施される。
(c)  This order is not intended to, and does not, create any right or benefit, substantive or procedural, enforceable at law or in equity by any party against the United States, its departments, agencies, or entities, its officers, employees, or agents, or any other person. (c) 本命令は、いかなる当事者も、米国、その省庁、機関、事業体、職員、従業員、代理人、その他の者に対して、法律上または衡平法上執行可能な、実体的または手続的な権利または利益を創設することを意図しておらず、また創設しない。
(d)  The costs for publication of this order shall be borne by the Department of Homeland Security. (d) 本命令の公布費用は国土安全保障省が負担する。
DONALD J. TRUMP ドナルド・J・トランプ

 

 

・2026.03.06 Fact Sheet: President Donald J. Trump Combats Cybercrime, Fraud, and Predatory Schemes Against American Citizens

Fact Sheet: President Donald J. Trump Combats Cybercrime, Fraud, and Predatory Schemes Against American Citizens ファクトシート:ドナルド・J・トランプ大統領、米国市民に対するサイバー犯罪・詐欺・略奪的スキームと戦う
COMBATING CYBERCRIME AND FRAUD: Today, President Donald J. Trump signed an Executive Order to combat cybercrime, fraud, and predatory schemes targeting American families, businesses, and critical infrastructure. サイバー犯罪と詐欺との戦い:本日、ドナルド・J・トランプ大統領は、米国家庭・企業・重要インフラを標的とするサイバー犯罪、詐欺、略奪的スキームと戦う大統領令に署名した。
・The Order directs relevant Administration officials to conduct a comprehensive review to determine what operational, technical, diplomatic, and regulatory tools could be improved to combat transnational criminal organizations (TCOs) engaged in cyber-enabled crime and predatory schemes. ・本命令は、関連する行政当局者に包括的な見直しを実施するよう指示する。その目的は、サイバー犯罪や悪質な詐欺スキームに関与する国際犯罪組織(TCO)と戦うために、運用上、技術上、外交上、規制上のどのツールを改善できるかを判断することである。
・The Order requires the submission of an action plan that identifies the TCOs responsible for scam centers and cybercrime and proposes solutions to prevent, disrupt, investigate, and dismantle their operations—including through the establishment of a dedicated operational cell within the National Coordination Center (NCC).  ・本命令は、詐欺センターやサイバー犯罪に関与するTCOを識別し、その活動を防止・妨害・捜査・解体するための解決策を提案する行動計画の提出を要求する。これには国家調整センター(NCC)内に専用作戦班を設置することも含まれる。
・The Order directs the Attorney General to prioritize prosecutions of cyber-enabled fraud and scam schemes, pursuing the most serious, provable offenses. ・本命令は司法長官に対し、サイバーを利用した詐欺・詐欺スキームの起訴を優先し、最も重大で立証可能な犯罪を追及するよう指示する。
・The Order directs the Secretary of Homeland Security to partner with the NCC to provide training, technical assistance, and resilience building against cyber threats for State and local partners. ・本命令は国土安全保障長官に対し、NCCと連携して州・地方自治体パートナー向けに、サイバー脅威に対する訓練・技術支援・レジリエンス構築を提供するよう指示する。
・The Order directs the Attorney General to submit a recommendation regarding the establishment of a Victims Restoration Program to return seized or forfeited funds from fraudsters directly to victims. ・司法長官に対し、詐欺師から差し押さえまたは没収した資金を被害者に直接返還する「被害者回復プログラム」の設立に関する提言を提出するよう指示する。
・The Order directs the Secretary of State to engage with foreign governments regarding demands to take enforcement action against TCOs on their soil and to impose consequences—including sanctions, visa restrictions, foreign assistance limits, and expulsion of complicit officials—on nations that tolerate these predatory schemes. ・国務長官に対し、自国領土内のTCOに対する取締措置の実施を外国政府に要求するとともに、こうした略奪的スキームを容認する国々に対し、制裁、ビザ制限、対外援助制限、共謀した官僚の国外追放を含む報復措置を講じるよう指示する。
・PROTECTING AMERICANS FROM PREDATORY SCHEMES. President Trump is unleashing every available tool to stop foreign-backed criminal networks that exploit vulnerable Americans through cyber-enabled fraud and extortion. ・アメリカ国民を略奪的スキームから防御する。トランプ大統領は、サイバーを悪用した詐欺や恐喝で脆弱なアメリカ国民を搾取する外国支援犯罪ネットワークを阻止するため、あらゆる手段を動員している。
・Ransomware attacks, phishing campaigns, financial fraud, sextortion schemes, and impersonation scams are often coordinated campaigns run by sophisticated TCOs. ・ランサムウェア攻撃、フィッシング詐欺、金融詐欺、セクストーション(性的脅迫)、なりすまし詐欺は、高度なTCOによる組織的なキャンペーンであることが多い。
・In many cases, foreign regimes provide willing or tacit state support to cybercrime and predatory schemes, creating a shadow economy fueled by stolen identities, coercion, forced labor, and human trafficking. ・多くの場合、外国政権はサイバー犯罪や略奪的計画に自発的あるいは黙認的な国家支援を提供し、盗まれた身元情報、強制、強制労働、人身取引で支えられる闇経済を生み出している。
・The most vulnerable among us—seniors, children, and low-income families—are disproportionately targeted, draining life savings, stealing the benefits of years of work, and destroying lives. ・高齢者、子供、低所得世帯といった最も脆弱な人々が不釣り合いに標的とされ、生涯の貯蓄を奪われ、長年働いて得た利益を盗まれ、人生を破壊されている。
・・In 2024, American consumers reported losing more than $12.5 billion to cyber-enabled fraud, with seniors on average losing the most. ・・2024年、米国の消費者はサイバー犯罪による詐欺で125億ドル以上の損失を報告し、高齢者が平均で最も大きな被害を受けた。
・・73% of U.S. adults have experienced some kind of online scam or attack, and 87% of seniors view online scams and attacks as a major problem. ・・米国成人の73%が何らかのオンライン詐欺や攻撃を経験しており、高齢者の87%がオンライン詐欺や攻撃を重大な問題と見なしている。
・One in seven young people who experienced sextortion as a minor reported harming themselves in response to the abuse. Up until now, outdated frameworks, gaps in coordination, and lack of real consequences have allowed these networks to thrive. ・未成年時にセクストーション(性的脅迫)を経験した若者の7人に1人が、虐待への反応として自傷行為を行ったと報告している。これまで、時代遅れの枠組み、連携の欠如、実効性のない制裁が、こうしたネットワークの温床となってきた。
・With this Executive Order, President Trump has directed the creation of an Action Plan which will identify and eliminate barriers to dismantling the TCOs responsible for these crimes.  Further, the designation of the NCC as the lead national element for this effort will facilitate much needed coordination and strategic leadership.    ・トランプ大統領は本大統領令により、これらの犯罪を主導する組織犯罪集団(TCO)を解体する上での障壁を特定・排除する行動計画の策定を指示した。さらに、国家サイバーセキュリティセンター(NCC)を本取り組みの主導機関に指定することで、必要不可欠な連携と戦略的リーダーシップが促進される。
DELIVERING JUSTICE AND SECURITY FOR AMERICANS: President Trump is advancing cybersecurity for the safety of all Americans. アメリカ国民への正義と安全の実現:トランプ大統領は全米国民の安全のためにサイバーセキュリティを推進している。
・President Trump has made it clear that this Administration will do what it takes to make America cyber secure—including focusing relentlessly on technical and organizational solutions to improve the security and resilience of the nation’s information systems and networks. ・トランプ大統領は、国家のネットワークと情報システムのセキュリティとレジリエンスを改善する技術的・組織的解決策に執拗に焦点を当てるなど、アメリカをサイバー上で安全にするために必要なあらゆる手段を講じることを明確にした。
・In May 2025, President Trump signed the TAKE IT DOWN Act, a historic and bipartisan new law, championed by First Lady Melania Trump, focused on protecting children and families from online extortion and exploitation through the non-consensual distribution of intimate images and deepfake abuse. ・2025年5月、トランプ大統領は「TAKE IT DOWN法」に署名した。これはメラニア・トランプ大統領夫人が主導した歴史的かつ超党派の新法であり、同意なしに流通する性的画像やディープフェイク悪用を通じたオンライン上の恐喝・搾取から子供と家族を防御することを目的としている。
・・On March 3, 2025, Mrs. Trump convened a Roundtable on Online Protection and the TAKE IT DOWN Act with Members of Congress, survivors of non-consensual intimate imagery, and online-safety advocates to call for enhanced protections and congressional action. ・2025年3月3日、トランプ夫人は「オンライン保護とTAKE IT DOWN法」に関する円卓会議を招集した。議員、非同意親密画像被害者、オンライン安全活動家が参加し、保護強化と議会行動を求めた。
・In June 2025, President Trump signed an Executive Order to strengthen the nation’s cybersecurity by focusing on critical protections against foreign cyber threats and enhancing secure technology practices. ・2025年6月、トランプ大統領は大統領令に署名した。外国のサイバー脅威に対する重要保護策の強化と安全な技術慣行の向上に焦点を当て、国家のサイバーセキュリティを強化する内容である。
・In September 2025, the Trump Administration issued a Notice to help financial institutions detect and disrupt financially motivated sextortion. ・2025年9月、トランプ政権は金融機関が金銭目的のセクストーションを検知・阻止する支援通知を発出した。
・President Trump has taken action to remove barriers to AI innovation, ensuring that our technology sector remains competitive at the cutting edge of new developments. ・トランプ大統領はAI革新の障壁除去に動き、我が国の技術分野が新開発の最先端で競争力を維持するよう確保した。

 

 

20250121-105054

 

関連...

・2025.01.20 Protecting The American People Against InvasionExecutive Order 14159

・2025.06.06 Sustaining Select Efforts to Strengthen the Nation’s Cybersecurity and Amending Executive Order 13694 and Executive Order 14144 (Executive Order 14306)

・2025.06.06 Restoring American Airspace Sovereignty (Executive Order 14305)

・2025.03.25 Protecting America’s Bank Account Against Fraud, Waste, and Abuse (Executive Order 14249)



 


 

 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.07 米国 トランプ大統領のアメリカのためのサイバー戦略 (2026.03.06)

・2025.06.14 米国 大統領令14306 国家のサイバーセキュリティを強化するための厳選された取り組みを維持し、大統領令13694と大統領令14144を改正する (2025.06.06)

 

| | Comments (0)

2026.03.08

中国 SBOMの標準 GB/T 47020-2026 サイバーセキュリティ技術:ソフトウェア部品表データ形式 (2026.01.28)

こんにちは、丸山満彦です。

中国が、SBOMの標準GB/T 47020-2026 サイバーセキュリティ技術:ソフトウェア部品表データ形式を2026.01.28 に策定し、2026.08.01から施行するようです。

標準の内容は読めません...日本からだと読めないのかなぁ...

 

全国标准信息公共服务平台 (National public service platform for standards information)

标准号:GB/T 47020-2026 网络安全技术 软件物料清单数据格式

 

20260308-71005

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

SBOM関係...

中国...

・2024.05.26 中国 TC260 意見募集 国家標準「ネットワークセキュリティ技術ソフトウェア部品表 (SBOM) データフォーマット」案 (2024.05.16)

 

それ以外...

・2026.01.08 欧州 ENISA パブコメ SBOMの現状分析 - 実装ガイドに向けて案 (2025.12.17)

・2025.11.27 欧州委員会 SBOMの最新状況に関する調査 (2025.12.19まで)

・2025.09.18 ドイツ 情報セキュリティ庁 BSI TR-03183: 製造事業者および製品に対するサイバーレジリエンス要件 第2部:ソフトウェア部品表 (SBOM), 第3部:脆弱性報告および通知 (2025.09)

・2025.09.08 米国他主要国 サイバーセキュリティのためのソフトウェア部品表(SBOM)に関する共通ビジョン

・2025.08.25 米国 CISA パブコメ 2025 年ソフトウェア部品表(SBOM)の最小要素

・2025.08.13 G7 人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン (2025.06.12)

・2025.03.14 シンガポール オープンソースソフトウェアとサードパーティ依存のSBOMとリアルタイム脆弱性監視に関するアドバイザリー (2025.02.20)

・2024.11.25 欧州 サイバーレジリエンス法、官報に掲載 (2024.11.20)

・2024.11.12 インド政府 CERT-In SBOM技術ガイド 第1版 (2024.10.03)

・2024.11.09 ドイツ 連邦セキュリティ室 (BSI) 意見募集 TR-03183: 製造者及び製品に対するサイバーレジリエンス要件(一般要求事項、SBOM、脆弱性報告)

・2024.09.01 経済産業省 ソフトウェア管理に向けたSBOM(Software Bill of Materials)の導入に関する手引ver2.0 (2024.08.29)

・2024.01.08 米国 NSA SBOM管理のための推奨事項 (Ver. 1.1)

・2023.11.12 米国 NSA CISA ソフトウェアサプライチェーンの確保: ソフトウェア部品表の開示に関する推奨事項

・2023.10.13 米国 CISA FBI NSA DOT 運用技術 (OT) および産業制御システム (ICS) におけるオープンソースソフトウェアのセキュリティ向上

・2023.09.18 米国 CISA オープンソース・ソフトウェア・セキュリティ・ロードマップ

・2023.09.01 NIST SP 800-204D(初期公開ドラフト)DevSecOps CI/CDパイプラインにソフトウェアサプライチェーンセキュリティを統合するための戦略

・2023.08.30 日本ネットワークセキュリティ協会 (JNSA) 「日本におけるソフトウェアサプライチェーンとSBOMのこれから」「ゼロトラストと標準化」

・2023.08.15 ドイツ SBOMの要件...技術ガイドライン TR-03183:製造業者および製品に対するサイバーレジリエンス要件 (2023.08.04)

・2023.08.01 経済産業省 ソフトウェア管理に向けたSBOM(Software Bill of Materials)の導入に関する手引

・2023.07.09 米国 NSA CISA 継続的インテグレーション/継続的デリバリー(CI/CD)環境の防御に関する共同ガイダンス (2023.06.28)

・2023.07.03 OWASP SBOMガイダンス CycloneDX v1.5 (2023.06.23)

・2023.04.25 米国 CISA SBOM関連の二文書

・2022.11.17 CISA ステークホルダー別脆弱性分類 (SSVC) ガイド

・2021.05.13 米国 国家のサイバーセキュリティ向上に関する大統領令

 

 

 

| | Comments (0)

OECD エージェンティックAIの展望とその概念的基盤

こんにちは、丸山満彦です。

OECDがエージェンティックAIの展望とその概念的基盤という報告書を公表していますね...

(明確な定義があるわけではないが、)よく似ている言葉なので、Agentic AIとAI Agentを使い分けて使っていかないといけないということですね...

比較表を作るとこんな感じ?

  AIエージェント エージェンティックAI
      
意訳すると 自律型AIエージェント 協調型AIシステム
  中核的概念    
定義 特定の目標を達成するために、必要に応じてツールを使用しながら、環境を認識・作用する一定の自律性を持つシステム。変化する入力や文脈に適応する。 複数の協調するAIエージェントで構成され、タスクを分解・委任し、長期間にわたって複雑な目標を自律的に追求するシステム。
スコープ 単独・自己完結型のユニット 複数エージェントのネットワーク/システム
用語の起源 AI研究における数十年来の概念(ルールベースからLLM対応まで進化) LLMベースのマルチエージェント・アーキテクチャを背景に2025年に急浮上
  主要な特徴    
目標・ゴール 目標指向;特定の明確なタスクを追求する 複雑な目標を扱い、ゴールをサブタスクに分解して委任する
自律性 一定の自律性で動作;人間のチェックポイントが必要な場合もある 高い自律性;逐次的な人間の監視への依存が低い
適応性 変化する入力や文脈に応じて行動を調整する 環境の変化やタスクの部分的な失敗にリアルタイムで適応する
推論・推定 入力から出力を生成;計画能力が含意される システムレベルの推論;LLMアーキテクチャ経由でエージェントを協調させる
出力 意思決定、行動、タスク実行 より広範な領域・タスク種別にわたる複雑・多段階の出力
環境 定義された物理的または仮想的環境内で動作する オープンエンドで予測不可能な、より複雑な環境で動作する
時間軸 主に短期または単一セッションのタスク 長期にわたる目標を追求;延長されたタイムフレームで動作
  アーキテクチャと技術    
構造 単一エージェントユニット(ツール/APIを使用することもある) マルチエージェント・アーキテクチャ;オーケストレーター+専門エージェント
インタラクション 環境や人間ユーザーと対話する エージェント同士、人間、AI、そして広範な環境と相互作用する
プロトコル 特定のプロトコルは定義されていない 共有プロトコルに依存(例:MCP、Agent-to-Agent / A2Aプロトコル)
ツール使用 タスク完了に必要に応じてツールを使用する エージェントがツールを専門的に担当;ツール使用はシステム全体に分散
  社会的・政策的側面    
パラダイム 主として技術的構成物 社会技術的パラダイム——社会的文脈や制度に組み込まれた存在
説明責任 単一エージェントへの帰属が比較的明確 複数エージェントに分散した説明責任;帰属が複雑
透明性 行動の追跡が比較的容易 マルチエージェントの創発的相互作用により説明が困難
ガバナンス上の重要性 重要だが政策的スコープは比較的狭い 安全性・整合性・労働・社会的影響など広範な政策的含意を持つ
  普及と活用    
開発者による採用 Stack Overflowの開発者の約50%がAIエージェントを使用中または使用予定(2025年) GitHub上のエージェンティックAIフレームワーク関連リポジトリが920%増加(2023年初〜2025年半ば)
主な用途 ソフトウェアエンジニアリング、データ分析、タスク自動化 複雑なクロスドメインワークフロー、研究、長期的計画策定
主な懸念事項 個々のエージェント出力の精度・プライバシー・セキュリティ 整合性、説明責任のギャップ、創発的行動、システミックリスク
  直感的な例え    
例え 割り当てられたタスクをこなす熟練した個人の作業者 複雑なプロジェクトを自律的に管理する協調したプロジェクトチーム

 

● OECD

・2026.02.13 The agentic AI landscape and its conceptual foundations

Abstract 要旨
This paper identifies the most frequently cited features in existing definitions of agentic AI and AI agents, examines how these features are described across sources, and maps them to the key elements of the OECD definition of an AI system. By highlighting both shared traits and differences, the paper aims to support clearer conceptual understanding and inform future research and policymaking. It also provides descriptive data on recent trends in the uptake of AI agents and agentic AI. 本稿は、既存のエージェンティックAIおよびAIエージェントの定義において最も頻繁に言及される特徴を識別し、これらの特徴が各情報源でどのように記述されているかを検証し、それらをOECDのAIシステム定義の主要要素に照合する。共通点と相違点の両方を明らかにすることで、本稿はより明確な概念的理解を支援し、将来の研究や政策立案に寄与することを目的とする。また、AIエージェントとエージェンティックAIの最近の普及動向に関する記述的データも提供する。

 

目次...

Abstract 要約
Acknowledgements 謝辞
Executive Summary エグゼクティブサマリー
1 Background 1 背景
2 What is an AI system? 2 AIシステムとは何か?
2.1. OECD definition of an AI system 2.1. OECDによるAIシステムの定義
2.2. Main elements of the OECD definition of an AI system 2.2. OECDのAIシステム定義の主要要素
3 What are AI agents and agentic AI? 3 AIエージェントとエージェンティックAIとは何か?
3.1. AI Agents 3.1. AIエージェント
3.2. Agentic AI 3.2. エージェンティックAI
3.3. Key elements and distinct characteristics 3.3. 主要要素と特徴
3.4. Agentic AI as a socio-technical paradigm 3.4. 社会的技術的パラダイムとしてのエージェンティックAI
4 Recent trends in the uptake of AI agents and agentic AI 4 AIエージェントとエージェンティックAIの導入における最近の動向
5 Discussion 5 考察
References 参考文献

 

Executive summary  エグゼクティブサマリー
AI agents and agentic AI are receiving growing attention as artificial intelligence (AI) systems based on large language models (LLMs) become more autonomous and capable of interacting with their environments. While related concepts have long been studied in academic research, recent advances introduce new capabilities that challenge existing conceptual boundaries and highlight the need for a clearer, shared understanding of what constitutes an “agentic” AI system.  大規模言語モデル(LLM)に基づく人工知能(AI)システムが自律性を高め、環境との相互作用が可能になるにつれ、AIエージェントとエージェンティックAIへの注目が高まっている。関連概念は学術研究で長年研究されてきたが、近年の進歩は既存の概念的境界に挑戦する新たな能力をもたらし、「エージェント型」AIシステムを構成する要素についての明確で共有された理解の必要性を浮き彫りにしている。
This report contributes to that clarity by examining how the terms “AI agents” and “agentic AI” are defined and used across the literature. By analysing definitions of both terms and highlighting their key features and points of overlap and distinction, and relating them to the core elements of the OECD AI system definition, the report supports more precise and consistent use of terminology and establishes a basis for further analytical work.  本報告書は、文献における「AIエージェント」と「エージェンティックAI」の定義と使用法を検証することで、この明確化に貢献する。両概念の定義を分析し、その主要な特徴、重複点、相違点を明らかにするとともに、OECDのAIシステム定義の中核要素との関連性を示すことで、用語のより正確かつ一貫した使用を支援し、さらなる分析作業の基盤を確立する。
The analysis finds that both concepts share foundational characteristics, including a degree of autonomy, goal-directed behaviour, and the ability to perceive and act within their physical or virtual environment. However, agentic AI places greater emphasis on co-ordination among multiple agents, task decomposition and delegation, sustained operation over time, and functioning in more complex and less predictable environments with limited human oversight. Based on the analysis, the report provides the following common understanding:  分析の結果、両概念には基礎的な共通特性があることが判明した。具体的には、一定の自律性、目標指向的な行動、物理的または仮想環境を認識し行動する能力などである。しかし、エージェンティックAIは、複数のエージェント間の協調、タスクの分解と委譲、時間を超えた持続的な運用、そして人間の監視が限定的な、より複雑で予測困難な環境下での機能性に、より重点を置いている。この分析に基づき、本報告書は以下の共通認識を示す:
• AI agents are systems that can perceive and act upon their environment with a degree of autonomy, using tools as needed to achieve specific goals and adapt to changing inputs and contexts.  • AIエージェントとは、特定の目標達成と変化する入力・状況への適応のために必要なツールを用い、一定の自律性をもって環境を認識し行動できるシステムである。
• Agentic AI generally refers to systems composed of multiple co-ordinated AI agents that can break down tasks, collaborate, and pursue complex objectives autonomously over extended periods. Agentic AI systems are designed to operate in more open-ended, less predictable physical or virtual environments and to function with minimal human supervision.  • エージェンティックAIとは、一般的に、タスクを分解し、協調し、長期間にわたり自律的に複雑な目標を追求できる複数の協調型AIエージェントで構成されるシステムを指す。エージェンティックAIシステムは、より開放的で予測困難な物理的または仮想環境において、最小限の人間監視で機能するよう設計されている。
Agentic AI systems are more than technical tools; they are increasingly regarded as systems embedded in social contexts and interactions, operating in a socio-technical paradigm. The value of agentic AI systems comes from their ability to act autonomously and interact with other agents – human, artificial, or institutional – through co-ordination and negotiation. Supporting these interactions requires advanced reasoning capabilities as well as robust infrastructure and communication protocols. This relational perspective is essential to designing agentic AI systems that can function responsibly and effectively in physical and virtual environments.  エージェンティックAIシステムは単なる技術的ツールを超え、社会技術的パラダイムにおいて、社会的文脈や相互作用に埋め込まれたシステムとして認識されつつある。その価値は、自律的に行動し、調整や交渉を通じて人間・人工・組織といった他のエージェントと相互作用する能力に由来する。 こうした相互作用を支えるには、高度な推論能力に加え、堅牢なインフラと通信プロトコルが必要だ。この関係性重視の視点は、物理的・仮想環境において責任を持って効果的に機能するエージェンティックAIシステムを設計する上で不可欠である。
Many developers have integrated AI agents into their toolkits, and survey data indicate that nearly half of Stack Overflow respondents are using them or plan to do so. However, adoption does not indicate full technological maturity: respondents still highlight opportunities to further strengthen security, privacy, and accuracy, underscoring the need for continued progress toward more trustworthy AI agents.  多くの開発者がAIエージェントをツールキットに組み込んでおり、調査データによればStack Overflow回答者のほぼ半数が既に使用中か導入予定である。しかし採用が進んでいるからといって技術的成熟度が十分とは言えない。回答者は依然としてセキュリティ、プライバシー、精度のさらなる強化の必要性を指摘しており、より信頼性の高いAIエージェントに向けた継続的な進歩の必要性を強調している。
Overall, the report provides a descriptive overview of the agentic AI landscape, clarifying key concepts and characteristics and establishing a shared analytical foundation. Going forward, improved understanding of use cases and technical architectures can help identify where safeguards and standards are most needed. Further analytical work could build on this foundation by developing policy-relevant typologies based on features such as level of autonomy, adaptiveness, domain of operation, and system impact, as well as by improving empirical evidence on adoption and use across different contexts.  全体として、本報告書はエージェンティックAIの現状を記述的に概観し、主要な概念と特性を明確化するとともに、共通の分析基盤を確立している。 今後、ユースケースと技術的アーキテクチャの理解を深めることで、安全対策や基準が最も必要な領域を特定できるだろう。さらなる分析作業では、自律性のレベル、適応性、 の運用領域、システムへの影響といった特徴に基づく政策関連分類体系の開発や、様々な状況における導入・利用の実証的証拠の改善を通じて、この基盤を構築できる可能性がある。 

 

・[PDF]

20260307-140916

・[DOCX][PDF] 仮訳

 

 

| | Comments (0)

2026.03.07

米国 トランプ大統領のアメリカのためのサイバー戦略 (2026.03.06)

こんにちは、丸山満彦です。

トランプ大統領が米国のサイバー戦略を公表していますね...バイデン時代のサイバーセキュリティ戦略のアップデートになるのでしょうね...ちょうど3年を経て更新というかんじです。

トランプ大統領が筆をかなり入れたのではないかと思う前半部分の文章は、昔のソビエト連邦の公式文書の香りがなんとなくしますね...

後半の行動の柱の内容については、戦略というか、方針を示すようなものですが、表現の仕方はともかく内容は真っ当に感じました...

 

Pillars of Action 行動の柱
1. Shape Adversary Behavior 1. 敵対者の行動を形作る
2. Promote Common Sense Regulation 2. 常識的な規制の推進
3. Modernize and Secure Federal Government Networks 3. 連邦政府ネットワークと情報システムの近代化と安全確保
4. Secure Critical Infrastructure 4. 重要インフラの保護
5. Sustain Superiority in Critical and Emerging Technologies 5. 重要技術・新興技術における優位性の維持
6. Build Talent and Capacity 6. 人材と能力の構築

 

6つの柱の内容

1. 敵対者の行動を形作る アメリカ市民、企業、同盟国は、サイバー空間において高度な軍事・諜報・犯罪的敵対者から単独で身を守るべきではない。我々は米国政府の防御的・攻撃的サイバー作戦の全手段を展開する。民間セクターが敵対者ネットワークを特定・妨害するインセンティブを創出し、国家能力を拡大させることで民間セクターの力を解き放つ。我々は、敵対勢力がネットワークやシステムに侵入する前に、検知し、対峙し、撃破しなければならない。敵対勢力の能力を弱体化させ、国家のあらゆる手段を用いてその攻撃の代償を高める。市民を監視・抑圧する監視国家や権威主義的技術の拡散に対抗する。サイバー犯罪と知的財産窃盗は、世界経済に対する最大の脅威の一つである。我々は犯罪インフラを根絶し、資金逃避と安全な避難場所を断つ。サイバー空間の防衛と自由の保護は共同の努力である——費用と責任の分担は、民主主義的価値観を共有する米国と同盟国間で公平でなければならない。我々は協力して、我々に危害を加えようとする敵対者に現実的なリスクを創出し、実際に我々に対して行動を起こした者には結果を課す。
2. 常識的な規制の推進 サイバー防衛は、準備・行動・対応を遅らせる高コストなチェックリストに堕してはならない。我々は規制を合理化し、コンプライアンス負担を軽減し、責任問題を解決し、世界的に規制当局と産業界の連携を強化する。データ及びサイバーセキュリティ規制を合理化し、民間部門が急速に進化するサイバー脅威に対応する俊敏性を確保する。米国市民及び米国データのプライバシー権を重視する。
3. 連邦政府ネットワークと情報システムの近代化と安全確保 サイバーセキュリティのベストプラクティス、耐量子暗号、ゼロトラストアーキテクチャ、クラウド移行を実施し、連邦情報システムの近代化、防御力、レジリエンスを加速する。政府指導部や取締役会においてサイバーの重要性を高めるよう取り組む。最先端技術と専門チームを活用し、連邦ネットワーク上の悪意ある行為者を継続的に検知・追跡する。軍事・情報・民間エンタープライズを支える国家安全保障システムの安全性とレジリエンスを最優先する。連邦ネットワーク防衛と大規模侵入抑止のため、AIを活用したサイバーセキュリティソリューションの導入を推進する。政府横断で調達プロセスの近代化と競争力強化を図り、参入障壁を撤廃することで最良の技術調達を実現する。
4. 重要インフラの保護 米国における重要インフラを識別・優先順位付けし、防御を強化する。防衛関連重要インフラ及び関連ベンダー、民間企業、ネットワーク、サービス(電力網、金融・通信システム、データセンター、水道事業、病院など)のサプライチェーンを保護し、情報技術及び運用技術(OT)のサプライチェーンを安全に保つ。敵対的なベンダーや製品からの脱却を図り、米国技術を推進・採用する。敵対勢力への初期アクセスを阻止し、万一インシデントが発生した場合でも迅速な復旧を可能とする。州・地方・部族・領土当局の役割を強化し、国家サイバーセキュリティ対策の補完として機能させる(代替ではない)。
5. 重要技術・新興技術における優位性の維持 米国のイノベーションを保護し、国家的な知的優位性を守ることは最重要課題である。設計段階から展開までユーザープライバシーを保護する安全な技術とサプライチェーンを構築する。これには暗号通貨やブロックチェーン技術のセキュリティ支援も含まれる。耐量子暗号技術と安全な量子コンピューティングの普及を促進する。
さらに、データセンターを含むAI技術スタックの安全性を確保し、AIセキュリティ分野の革新を促進する。脅威アクターを検知・誘導・欺瞞するためのAI搭載サイバーツールを迅速に導入する。ネットワーク防御と妨害を安全に拡張する形で、エージェンティックAIを迅速に採用・推進する。サイバー外交を通じ、AI(特に生成的AIとエージェンティックAI)が革新と世界的安定を促進するよう確保する。米国がAI分野で主導権を握る基盤となるデータ、インフラ、モデルを保護する。同時に、ユーザーを検閲し、監視し、誤導する外国のAIプラットフォームの拡散を糾弾し、阻止する。
6. 人材と能力の構築 トランプ大統領は米国のサイバー人材を「米国国民、国土、そして米国の生活様式を防御する」戦略的資産と呼んだ。これは巨額の投資に値する資産であり、我が国の経済的繁栄と安全保障に不可欠である。人材を育成・共有するパイプラインが必要だ。それは実用的でアクセス可能なものでなければならない——学術界、職業訓練校、企業、ベンチャーキャピタルの機会など既存の経路を調整し活用しつつ——産業や職種を超えた既存のサイバー人材を教育・訓練し、次世代を募集して精巧なサイバー技術とソリューションを設計・展開させるのだ。産業界、学界、政府、軍がインセンティブを調整し、高度な技能を持つサイバー人材を育成する上での障害を排除する。アメリカを偉大たらしめる既存の資源、認可、人材、創意工夫を活用する。

 

 

2018年のトランプ政権、2023年のバイデン政権、2026年のトランプ政権を比較すると次のような感じ。。。

項目 2018戦略 2023戦略 2026戦略(最新)
1 基本目的 国家安全保障と経済保護 デジタル生態系の構造的改革 America First in Cyberspace
2 基本思想 抑止・防衛・影響力拡大 レジリエンス+責任再配分 攻勢+国家競争
3 政府の役割 主導的調整役 国家主導強化・規制権限拡大 攻勢主導・脱規制
4 民間企業 協力主体 法的責任・セキュア設計義務 規制緩和・民間自律
5 重要インフラ 保護を強化 制度化・規制強化 国家防衛対象
6 サイバー犯罪 国際協力・捜査 法執行+ランサムウェア国際包囲網 作戦・摘発・資産没収
7 サイバー軍事 抑止・Defend Forward 防御重視+統合解体作戦 積極的攻勢・非サイバー手段も活用
8 国際政策 インターネット自由 民主国家連携+権威主義対抗 費用分担要求+権威主義技術排除
9 技術政策 R&D投資+量子・5G セキュア設計+耐量子・IoT Agentic AI即時実装+外国技術排除
10 政策キーワード deterrence resilience dominance

 

 

 

U.S. White House

・2026.03.06 [PDF] President Trump’s CYBER STRATEGY for America

20260307-144259

 

President Trump’s CYBER STRATEGY for America トランプ大統領のアメリカのためのサイバー戦略
March 2026 2026年3月
Over the past year, the United States has shown the entire world that we have the most powerful, sophisticated, and technologically advanced military on earth and it is not even close. This includes not only our overwhelming conventional military strength, but also our unparalleled non-kinetic powers. この1年間、米国は世界に示した。我々が地球上で最も強力で洗練され、技術的に進んだ軍隊を有しており、その差は圧倒的だ。これは圧倒的な通常戦力だけでなく、比類なき非物理的戦力も含む。
The National Cyber Strategy outlines my priorities for ensuring that America remains unrivaled in cyberspace. It calls for unprecedented coordination across government and the private sector to invest in the best technologies and continue world-class innovation, and to make the most of America's cyber capabilities for both offensive and defensive missions. 国家サイバー戦略は、米国がサイバー空間で比類なき地位を維持するための優先事項を定めている。政府と民間セクターの未曾有の連携を求め、最先端技術への投資と世界最高水準のイノベーションを継続し、攻撃・防御両任務において米国のサイバー能力を最大限活用する。
Our cyber tools and operators are the best in the world-and we are empowering them to defend America by disrupting and disorienting our adversaries, and denying them a safe haven. The United States has capabilities that the rest of the world can only begin to imagine. Our warriors in cyberspace are working everyday to ensure that anyone who would seek to harm America will pay the steepest and most terrible price. 我々のサイバーツールとオペレーターは世界最高水準であり、敵対勢力を混乱させ方向感覚を喪失させ、安全な避難場所を否定することで米国を守る力を彼らに与えている。米国が有する能力は、世界の他の国々が想像し始めたばかりの領域である。サイバー空間の戦士たちは日々、アメリカに害をなそうとする者には最も高く恐ろしい代償を払わせるべく活動している。
This strategy is about defending the safety, security, and prosperity of the American People. As we approach the 250th anniversary of American Independence, the strategy laid out in this document will help ensure that America remains the strongest, freest, and greatest country in the history of the world, long into the future. American Power will finally stand up in cyberspace. この戦略はアメリカ国民の安全と繁栄を守るものだ。独立250周年を迎えるにあたり、この文書に示された戦略は、アメリカが今後も世界史上最強・最自由・最高の国であり続けることを保証する。アメリカの力はついにサイバー空間で立ち上がる。
Sign 署名
Cyberspace was born in America. American talent, innovation, research, and powerful government capabilities combined to create a dynamic, thriving, digital world that every American relies on for information, economic opportunity, and our basic way of life. Indeed, the cyber domain is key to President Trump’s actions to ensure America leads the world in finance, innovation and emerging technology, military power, and manufacturing. サイバー空間はアメリカで生まれた。アメリカの才能、革新性、研究、そして強力な政府能力が結びつき、ダイナミックで繁栄するデジタル世界を生み出した。これは全てのアメリカ人が情報、経済的機会、そして基本的な生活様式に依存する世界である。実際、サイバー領域はトランプ大統領がアメリカを金融、革新と新興技術、軍事力、製造事業者において世界をリードさせるための行動の鍵である。
Freedom and safety in cyberspace, however, cannot be taken for granted. Adversaries and cybercriminals exploit cyberspace to advance authoritarianism, suppress democracy, and undermine our national and economic security. しかし、サイバー空間における自由と安全は当然のものとは言い難い。敵対勢力やサイバー犯罪者は、サイバー空間を悪用して権威主義を推進し、民主主義を抑圧し、我々の国家安全保障と経済安全保障を損なっている。
Unlike other Administrations, the Trump Administration will not tinker at the edges and apply partial measures and ambiguous strategies that neglect the growing number and severity of cyber threats. President Trump will continue to address threats in cyberspace directly. トランプ政権は、他の政権とは異なり、増大するサイバー脅威の数と深刻さを無視した中途半端な対策や曖昧な戦略で小手先の対応をするつもりはない。トランプ大統領は今後もサイバー空間の脅威に直接対処し続ける。
America enjoys unrivalled technological and economic innovation, unmatched military power, and a society devoted to free and open expression. Every American should take practical steps to protect themselves and their families in cyberspace, but America’s citizens do not stand alone. President Trump has demonstrated time and again that he is determined to make Americans secure and prosperous by harnessing all of our comparative advantages. This strategy is a continuation of President Trump’s actions, and directly supports the National Security Strategy by putting America first in cyberspace. アメリカは比類なき技術革新と経済的革新、無敵の軍事力、そして自由で開放的な表現に捧げられた社会を享受している。全てのアメリカ国民は、自身と家族をサイバー空間で防御するための実践的措置を取るべきだ。しかしアメリカ国民は孤立していない。トランプ大統領は、我々の比較優位性を全て活用して国民の安全と繁栄を実現する決意を繰り返し示してきた。この戦略はトランプ大統領の行動の継続であり、サイバー空間においてアメリカを最優先に置くことで国家安全保障戦略を直接支援するものである。
Our adversaries and cyber criminals target our families, neighbors, small businesses, farmers, first responders, patients, and senior citizens in cyberspace. They disrupt critical services like healthcare, banking, food supply, and water treatment. They impose tremendous costs on our economy and make everyday goods less affordable. 我々の敵対者やサイバー犯罪者は、サイバー空間において我々の家族、近隣住民、中小企業、農家、初動対応者、患者、高齢者を標的にする。彼らは医療、銀行、食料供給、水処理といった重要サービスを妨害する。彼らは我々の経済に莫大なコストを強いると同時に、日用品を手頃な価格で入手できなくする。
President Trump’s actions, however, send a clear message: we will act to defend our interests in cyberspace. Whether destroying online scammers’ networks and seizing $15 billion of their stolen money, supporting a globe-spanning operation to obliterate Iran’s nuclear infrastructure, or leaving our adversaries blind and uncomprehending during a flawless military operation to bring international narco-terrorist Nicolas Maduro to justice, adversaries are on notice that America’s cyber operators and tools are the best in the world and can be swiftly and effectively deployed to defend America’s interests. しかしトランプ大統領の行動は明確なメッセージを発している。我々はサイバー空間における自国の利益を守るために行動する。オンライン詐欺師のネットワークを破壊し150億ドルの盗金を押収するにせよ、イランの核インフラを壊滅させる世界規模作戦を支援するにせよ、国際的な麻薬テロリストであるニコラス・マドゥロを裁く完璧な軍事作戦で敵を盲目にし理解不能に陥れるにせよ、敵対勢力は警告を受けている。米国のサイバー要員とツールは世界最高水準であり、米国の利益を守るために迅速かつ効果的に展開できるのだ。
Americans re-elected President Trump to put America first. This strategy communicates the Trump Administration’s cyber vision and approach to the American people, to Congress, to our partners in industry and allies across the globe—and also to adversaries. It explains the Administration’s priorities, summarized in six policy pillars, which will guide action and resourcing through the follow-on policy vehicles. This strategy builds on President Trump’s actions to date, and requires a level of coordination, commitment, and political will never before marshalled against cyber threats.  President Trump’s leadership has created a new era in cyberspace. アメリカ国民はトランプ大統領を再選し、アメリカ第一主義を支持した。本戦略はトランプ政権のサイバービジョンとアプローチを、アメリカ国民、議会、産業界のパートナー、世界中の同盟国、そして敵対勢力にも伝えるものである。六つの政策柱にまとめられた政権の優先事項を説明し、これらが今後の政策手段を通じた行動と資源配分の指針となる。本戦略はトランプ大統領のこれまでの行動を基盤とし、サイバー脅威に対してこれまでにないレベルの調整、コミットメント、政治的意思を要求する。トランプ大統領のリーダーシップはサイバー空間に新たな時代を創出した。
Moving Forward 今後の展開
Our resolve is absolute. We will act swiftly, deliberately, and proactively to disable cyber threats to America. We will not confine our responses to the “cyber” realm. We will undertake an unprecedented effort, operating in a coordinated and sustained fashion across the U.S. government. Working with allies across the globe, we will promote U.S. interests and security. We will fight the curtailment of free speech. We will outcompete adversaries who sell “low cost” AI and digital technologies that carry embedded censorship, surveillance, and ideological bias. We will partner closely with industry and academia, at the speed and scale commensurate with the threats we face, and in accordance with our values. 我々の決意は絶対である。アメリカに対するサイバー脅威を無力化するため、迅速かつ慎重に、そして積極的に行動する。対応を「サイバー」領域に限定しない。我々は前例のない取り組みを、米国政府全体で協調的かつ持続的に展開する。世界中の同盟国と連携し、米国の利益と安全保障を推進する。言論の自由の制限と戦う。検閲・監視・イデオロギー的バイアスを組み込んだ「低コスト」AI・デジタル技術を販売する敵対者を圧倒する。我々は産業界や学界と緊密に連携する。直面する脅威に見合った速度と規模で、我々の価値観に沿って行動する。
President Trump has made targeting Americans a hazardous business. Our adversaries have and will increasingly feel the consequences of their actions; we will dismantle networks, pursue hackers and spies, and sanction lawless foreign hacking companies. We will unveil and embarrass online espionage, destructive propaganda and influence operations, and cultural subversion. トランプ大統領は米国人を標的にすることを危険な行為にした。敵対勢力は自らの行動の結果を既に感じ始めており、今後さらに強く実感するだろう。我々はネットワークを解体し、ハッカーやスパイを追跡し、無法な外国ハッカー企業に制裁を加える。オンライン諜報活動、破壊的なプロパガンダや影響工作、文化的破壊工作を暴露し、恥をかかせる。
By disrupting adversaries’ cyber campaigns, and making our networks more defensible and resilient, we will unleash innovation, accelerate economic growth, and secure American technology dominance. We will remove burdensome, ineffective regulations so that our industry partners innovate quickly in emerging technologies. Partners in the private sector must be able to respond and recover quickly to ensure continuity of the American economy. We will defend our federal systems, critical infrastructure, and supply chains by putting security at the foundation of innovation. We will modernize our information systems so that old infrastructure does not choke innovation. We will engage internationally through diplomacy, commerce, and operations to ensure norms and standards reflect our values. We will leverage the immense talents and ingenuity of our private sector research base. We will establish a new level of relationship between the public and private sectors to defend America in peace and war. 敵対勢力のサイバーキャンペーンを妨害し、自国のネットワークをより防御可能かつレジリエントにすることで、我々はイノベーションを解き放ち、経済成長を加速させ、アメリカの技術的優位性を確保する。産業パートナーが新興技術で迅速に革新できるよう、煩雑で非効率な規制を撤廃する。民間セクターのパートナーは、アメリカ経済の継続性を確保するため、迅速に対応し回復できる能力を持たねばならない。イノベーションの基盤にセキュリティを据えることで、連邦システム、重要インフラ、サプライチェーンを防衛する。古いインフラが革新を阻害しないよう、情報システムを近代化する。外交、商業、作戦活動を通じて国際的に関与し、規範と標準が我々の価値観を反映するよう確保する。民間セクターの研究基盤が持つ膨大な才能と創意工夫を活用する。平時と戦時においてアメリカを守るため、官民セクター間の新たな関係性を確立する。
Pillars of Action 行動の柱
Six Policy Pillars underpin this strategy and will guide implementation and measures for success. この戦略を支える六つの政策柱が、実施と成功の指標となる。
1. Shape Adversary Behavior 1. 敵対者の行動を形作る
American citizens, companies, and our allies should not have to fend off sophisticated military, intelligence, and criminal adversaries in cyberspace alone. We will deploy the full suite of U.S. government defensive and offensive cyber operations. We will unleash the private sector by creating incentives to identify and disrupt adversary networks and scale our national capabilities. We must detect, confront, and defeat cyber adversaries before they breach our networks and systems. We will erode their capacity and capabilities, and use all instruments of national power to raise the costs for their aggression. We will counter the spread of the surveillance state and authoritarian technologies that monitor and repress citizens. Cybercrime and intellectual property theft are some of the greatest threats to global economies. We will uproot criminal infrastructure and deny financial exit and safe haven. Defending cyberspace and safeguarding freedom is a collective effort—the distribution of cost and responsibility must be fair across the U.S. and allies who share our democratic values. We will work together to create real risk for adversaries who seek to harm us, and impose consequences on those who do act against us. アメリカ市民、企業、同盟国は、サイバー空間において高度な軍事・諜報・犯罪的敵対者から単独で身を守るべきではない。我々は米国政府の防御的・攻撃的サイバー作戦の全手段を展開する。民間セクターが敵対者ネットワークを特定・妨害するインセンティブを創出し、国家能力を拡大させることで民間セクターの力を解き放つ。我々は、敵対勢力がネットワークやシステムに侵入する前に、検知し、対峙し、撃破しなければならない。敵対勢力の能力を弱体化させ、国家のあらゆる手段を用いてその攻撃の代償を高める。市民を監視・抑圧する監視国家や権威主義的技術の拡散に対抗する。サイバー犯罪と知的財産窃盗は、世界経済に対する最大の脅威の一つである。我々は犯罪インフラを根絶し、資金逃避と安全な避難場所を断つ。サイバー空間の防衛と自由の保護は共同の努力である——費用と責任の分担は、民主主義的価値観を共有する米国と同盟国間で公平でなければならない。我々は協力して、我々に危害を加えようとする敵対者に現実的なリスクを創出し、実際に我々に対して行動を起こした者には結果を課す。
2. Promote Common Sense Regulation 2. 常識的な規制の推進
Cyber defense should not be reduced to a costly checklist that delays preparedness, action, and response. We will streamline cyber regulations to reduce compliance burdens, address liability, and better align regulators and industry globally. We will streamline data and cybersecurity regulations to ensure that the private sector has the agility necessary to keep pace with rapidly evolving threats. We will emphasize the right to privacy for Americans and American data. サイバー防衛は、準備・行動・対応を遅らせる高コストなチェックリストに堕してはならない。我々は規制を合理化し、コンプライアンス負担を軽減し、責任問題を解決し、世界的に規制当局と産業界の連携を強化する。データ及びサイバーセキュリティ規制を合理化し、民間部門が急速に進化するサイバー脅威に対応する俊敏性を確保する。米国市民及び米国データのプライバシー権を重視する。
3. Modernize and Secure Federal Government Networks 3. 連邦政府ネットワークと情報システムの近代化と安全確保
We will accelerate the modernization, defensibility, and resilience of federal information systems by implementing cybersecurity best practices, post-quantum cryptography, zero-trust architecture, and cloud transition. We will work to elevate the importance of cyber in government leadership and in the board room. We will use the best technologies and teams to constantly test and hunt for malicious actors on federal networks. We will prioritize the security and resilience of the National Security Systems that underpin our military, intelligence, and civilian enterprises. We will work to adopt AI-powered cybersecurity solutions to defend federal networks and deter intrusions at scale. Working across the government to modernize and create competitive procurement processes, we will remove barriers to entry so that the government can buy and use the best technology. サイバーセキュリティのベストプラクティス、耐量子暗号、ゼロトラストアーキテクチャ、クラウド移行を実施し、連邦情報システムの近代化、防御力、レジリエンスを加速する。政府指導部や取締役会においてサイバーの重要性を高めるよう取り組む。最先端技術と専門チームを活用し、連邦ネットワーク上の悪意ある行為者を継続的に検知・追跡する。軍事・情報・民間エンタープライズを支える国家安全保障システムの安全性とレジリエンスを最優先する。連邦ネットワーク防衛と大規模侵入抑止のため、AIを活用したサイバーセキュリティソリューションの導入を推進する。政府横断で調達プロセスの近代化と競争力強化を図り、参入障壁を撤廃することで最良の技術調達を実現する。
4. Secure Critical Infrastructure 4. 重要インフラの保護
We will identify, prioritize, and harden America’s critical infrastructure and secure its supply chains, including defense critical infrastructure and adjacent vendors, private companies, networks, and services—such as the energy grid, financial and telecommunication systems, data centers, water utilities, and hospitals—securing information and operational technology supply chains. We must move away from adversary vendors and products, promoting and employing U.S. technologies. We will deny our adversaries initial access, and in the event of an incident, we must be able to recover quickly. We will galvanize the role of state, local, Tribal, and territorial authorities as a complement to—not a substitute for—our national cybersecurity efforts. 米国における重要インフラを識別・優先順位付けし、防御を強化する。防衛関連重要インフラ及び関連ベンダー、民間企業、ネットワーク、サービス(電力網、金融・通信システム、データセンター、水道事業、病院など)のサプライチェーンを保護し、情報技術及び運用技術(OT)のサプライチェーンを安全に保つ。敵対的なベンダーや製品からの脱却を図り、米国技術を推進・採用する。敵対勢力への初期アクセスを阻止し、万一インシデントが発生した場合でも迅速な復旧を可能とする。州・地方・部族・領土当局の役割を強化し、国家サイバーセキュリティ対策の補完として機能させる(代替ではない)。
5. Sustain Superiority in Critical and Emerging Technologies 5. 重要技術・新興技術における優位性の維持
Securing American innovation and protecting our national intellectual advantage will be paramount. We will build secure technologies and supply chains that protect user privacy from design to deployment, including supporting the security of cryptocurrencies and blockchain technologies. We will promote the adoption of post-quantum cryptography and secure quantum computing. 米国のイノベーションを保護し、国家的な知的優位性を守ることは最重要課題である。設計段階から展開までユーザープライバシーを保護する安全な技術とサプライチェーンを構築する。これには暗号通貨やブロックチェーン技術のセキュリティ支援も含まれる。耐量子暗号技術と安全な量子コンピューティングの普及を促進する。
And we will secure the AI technology stack—including our data centers—and promote innovation in AI security. We will swiftly implement AI-enabled cyber tools to detect, divert, and deceive threat actors. We will rapidly adopt and promote agentic AI in ways that securely scale network defense and disruption. Through cyber diplomacy, we will ensure that AI—particularly generative AI and agentic AI—advances innovation and global stability. We will secure the data, infrastructure, and models that underpin U.S. leadership in AI and we will call out and frustrate the spread of foreign AI platforms that censor, surveil, and mislead their users. さらに、データセンターを含むAI技術スタックの安全性を確保し、AIセキュリティ分野の革新を促進する。脅威アクターを検知・誘導・欺瞞するためのAI搭載サイバーツールを迅速に導入する。ネットワーク防御と妨害を安全に拡張する形で、エージェンティックAIを迅速に採用・推進する。サイバー外交を通じ、AI(特に生成的AIとエージェンティックAI)が革新と世界的安定を促進するよう確保する。米国がAI分野で主導権を握る基盤となるデータ、インフラ、モデルを保護する。同時に、ユーザーを検閲し、監視し、誤導する外国のAIプラットフォームの拡散を糾弾し、阻止する。
6. Build Talent and Capacity 6. 人材と能力の構築
President Trump has called America’s cyber workforce a strategic asset that “protects the American people, the homeland, and the American way of life.” It is an asset worthy of great investment and essential to our nation’s economic prosperity and security. We need a pipeline that develops and shares talent. It must be pragmatic and accessible—reconciling and taking advantage of existing avenues within academia, vocational and technical schools, corporations, and venture capital opportunities—to educate and train our existing cyber workforce across industries and occupations, and to recruit the next generation to design and deploy exquisite cyber technologies and solutions. We will eliminate roadblocks that prevent industry, academia, government, and the military from aligning incentives and building a highly skilled cyber workforce. We will harness the existing resources, authorities, talents, and ingenuity that make America great. トランプ大統領は米国のサイバー人材を「米国国民、国土、そして米国の生活様式を防御する」戦略的資産と呼んだ。これは巨額の投資に値する資産であり、我が国の経済的繁栄と安全保障に不可欠である。人材を育成・共有するパイプラインが必要だ。それは実用的でアクセス可能なものでなければならない——学術界、職業訓練校、企業、ベンチャーキャピタルの機会など既存の経路を調整し活用しつつ——産業や職種を超えた既存のサイバー人材を教育・訓練し、次世代を募集して精巧なサイバー技術とソリューションを設計・展開させるのだ。産業界、学界、政府、軍がインセンティブを調整し、高度な技能を持つサイバー人材を育成する上での障害を排除する。アメリカを偉大たらしめる既存の資源、認可、人材、創意工夫を活用する。
Conclusion 結論
This strategy makes clear the course President Trump has pursued in cyberspace, and the direction the U.S. government will pursue with increasing impact. President Trump has acted to ensure that Americans—especially future generations—will have a strong country where they are secure and defended, and a future defined by individual freedom, economic prosperity, and opportunity. President Trump will continue showing those who harm our interests and attack our values in cyberspace place themselves at risk. 本戦略は、トランプ大統領がサイバー空間で追求してきた方針と、米国政府が今後一層の影響力を持って推進する方向性を明確に示すものである。トランプ大統領は、米国国民、特に将来の世代が、安全と防衛が確保された強固な国家と、個人の自由、経済的繁栄、機会に定義づけられる未来を享受できるよう行動してきた。トランプ大統領は今後も、サイバー空間において我々の利益を損ない、価値観を攻撃する者たちが自らをリスクに晒すことを示し続ける。

 

 


 

参考 各国のサイバーセキュリティ戦略

 

■ EUの場合

 European Commission

・2020.12.16 The EU’s Cybersecurity Strategy for the Digital Decade

・[PDF] JOINT COMMUNICATION TO THE EUROPEAN PARLIAMENT AND THE COUNCIL - The EU's Cybersecurity Strategy for the Digital Decade

20250108-182710

 

・2020.12.16 The EU's Cybersecurity Strategy in the Digital Decade

・[PDF] Factsheet

20210513-120625

 

欧州各国のサイバーの国家戦略はENISAがまとめてみられるようにしていますね...

 

 ENISA

・2025.06.04 National Cyber Security Strategies Interactive map

 

 

■ ドイツの場合

 Bundesministerium des Innern, für Bau und Heimat 

プレス

・2021.09.08 (press) Cybersicherheitsstrategie für Deutschland 2021 beschlossen

戦略本文

・[PDF] Cybersicherheitsstrategie für Deutschland 2021

20210926-60648

 

■ フランスの場合

・2026.01.29 National cybersecurity strategy 2026-2030

20260210-130528

・2019.11 [PDF] stratégie nationale pour la sécurité du numérique

20260210-204628

 

 

■ オランダの場合

・2022.10.10 Kabinet presenteert nieuwe cybersecuritystrategie

● 戦略

・2022.10.10 Nederlandse Cybersecuritystrategie 2022 - 2028

・[PDF

20221016-52157

 

● 活動計画 2022-2023

・2022.10.10 Actieplan Nederlandse Cybersecuritystrategie 2022 - 2023

・[PDF

20221016-52520

 

■ UKの場合

 National Cyber Security Centre

2021.12.15 (news) Government publishes blueprint to protect UK from cyber threats

・2021.12.15 Policy paper National Cyber Strategy 2022

・[heml] National Cyber Strategy 2022

 ・[PDF] National Cyber Strategy 2022

20211217-55613

日本語訳 [Downloded]

20230221-170849

 

■ U.S. の場合

・2026.03.06 [PDF] President Trump’s CYBER STRATEGY for America

20260307-144259

 

・2023.03.02 FACT SHEET: Biden-⁠Harris Administration Announces National Cybersecurity Strategy

・[PDF] National Cybersecurity Strategy 

20230304-72820

 

・2018.09.20 President Trump Unveils America’s First Cybersecurity Strategy in 15 Years

・[PDF] NATIONAL CYBER STRATEGY of the United States of America


20210513-121917

・仮訳 [DOCX

 

■ 日本の場合

 

 内閣官房 - サイバーセキュリティセンター - サイバーセキュリティ戦略本部

今回のもの

・2025.12.23 サイバーセキュリティ戦略(閣議決定)

20251223-182424

 

前回のもの

・2021.09.28 [PDF] サイバーセキュリティ戦略

20230820-153236

・2023.07.04 サイバーセキュリティ戦略本部 第36回会合

・2022.06.17 サイバーセキュリティ戦略本部 第34回会合

・2021.09.27 第31回会合

 

 

🔳オーストラリアの場合

 AU - Department of Home Affairs - Cyber security - Strategy

・2023.11.22 [PDF] 

20241130-23843

実行計画

・2023.11.22 [PDF] 

20241130-24959

 

・2020.08.06 [PDF] AUSTRALIA’S CYBER SECURITY STRATEGY 2020

20230520-150216

2016年の前回のバージョン

・[PDF] Australia's Cyber Security Strategy

20230520-150443

 

■ 中国の場合

  中央网络安全和信息化委员会办公室 (Cyberspace Administration of China)

 プレス発表

戦略全文

・2016.12.27 国家网络空间安全战略

・英語訳

 ・2016.12.27 National Cyberspace Security Strategy

 

 

■ ロシアの場合(NATO CCDCOEの論文)

● NATO CCDCOE

2020 [PDF] The Past, Present, and Future of Russia’s Cyber Strategy and Forces by Bilyana Lilly and Joe Cheravitch



■ インドの場合

 Data Security Council of India

・2020.08.15 [PDF] National Cyber Security Strategy 2020

20210513-131956

 

■ シンガポールの場合

● Cyber Security Agency of Singapore

・2021.10.05 Singapore Updates National Cybersecurity Strategy

The Singapore Cybersecurity Strategy 2021

・[PDF]

20211011-134730

 

◾️ 韓国の場合...

・2024.02.01

・[PDF]

20240307-182652

 

2019年の国家サイバーセキュリティ戦略

・韓国語 [PDF] 국가사이버안보전략

20240307-194050


・英語 [PDF] National Cyberseuciry Strategy

20240307-194144

 

----

 

 

 

| | Comments (0)

欧州 CERT-EU サイバー脅威インテリジェンスフレームワーク (2026.02.13)

こんにちは、丸山満彦です。

CERT-EUがサイバー脅威インテリジェンスフレームワークを公表していますね...

これは、EU全体で脅威インテリジェンスの共通基盤を確立するためのものということですかね...各機関でバラバラに評価していると共通運用できませんからね...

ということで標準化ですね...

分析・優先順位づけ、意思決定の標準化という感じでしょうかね...

まずは、

1. 関係者(Ecosystem)の登場人物 (Component) 標準化

生態系構成要素 定義と例
EU加盟国およびEU域外で実体を有するEU加盟団体の事業展開国。各加盟団体は1つ以上の国に所在する。これらの国々を標的とすることで、現地インフラやサービス侵害を通じた構成員への影響、および地理的焦点を置いたあらゆるキャンペーンが影響を及ぼし得る。
セクター 連合エンティティが活動するセクター。これらは関心のあるセクターの章に記載されている。連合エンティティは1つ以上のセクターに属することがある。セクターを標的にすると、共有依存関係や攻撃対象領域を通じて構成要素が晒される可能性がある。
イベント 連合体機関が関与し、悪意のあるサイバー活動を誘発または標的とする可能性のある地政学的性質の事象。例としては、会議、サミット、紛争、国際交渉、衝突、選挙などが挙げられる。連合体機関の関与の性質とレベルは様々である。例えば、機関が会議やサミットを主催または参加する場合もあれば、紛争当事者を支援または制裁する場合もある。その結果、事象に関連する悪意のあるサイバー活動は、構成員を直接的または間接的に標的とする可能性がある。
パートナー 連合機関が協力または情報交換を行う組織。各連合機関は、EU加盟国または第三国において複数のパートナーを有し得る。これらのパートナーは、連合機関の恒常的な利害関係者である場合もあれば、臨時の取り組みやプロジェクトにおいて協力する場合もある。例としては、他の連合機関、EU加盟国の省庁・機関、国際機関(例:NATOやICC)、非営利組織などが挙げられる。対象となるパートナーは、信頼できる経路、共同プロジェクト、情報交換を通じて構成員に影響を与え得る。
プロバイダー 連合体機関にサービスを提供する情報技術(IT)企業。これにはクラウドサービスプロバイダー(CSP)、マネージドサービスプロバイダー(MSP)、インターネットサービスプロバイダー(ISP)などが含まれるが、これらに限定されない。プロバイダーの侵害は、サービス中断、データ機密性の侵害、またはシステムへの悪意あるアクセスを通じて構成員に影響を及ぼす可能性がある。
ソフトウェア 連合体組織が使用するソフトウェア製品。これにはオペレーティングシステム、ブラウザ、エッジデバイス、セキュリティソフトウェア、業務ソフトウェア、AIソフトウェアなどが含まれるが、これらに限定されない。ソフトウェア製品はインターネットに接続されている場合とそうでない場合がある。構成員が使用するソフトウェアを標的とすることは、脆弱性の悪用による初期アクセス、トロイの木馬化されたソフトウェアによる感染、正当なソフトウェアを介した情報漏洩やフィッシングなど、様々な形で影響を与える可能性がある。
システム 組織または組織群が共同目的や共有目的を支援し、専属的に利用するために構築した技術とソフトウェアで構成される情報システム。例としては、EU機関の公開ウェブサイトや、EU LoginやEU Surveyなどの専用サービスが挙げられる。共有システムや重要システムを標的とした攻撃は、サービスの継続性、データの完全性、ユーザーの信頼に直接影響を及ぼす可能性がある。

 

2. 脅威・脅威対抗のカテゴリー...

カテゴリー 定義
政策と法執行 (非敵対的文脈において。) 悪意のあるサイバー活動に対処することを目的とした取り組み。これには政策、規制、協力、逮捕、差し押さえ、削除、禁止などが含まれる。
サイバー諜報活動と事前配置 脅威アクターは、情報収集目的で機密情報を窃取したり、将来的な悪用を目的として情報システムを密かに侵害したりする。
サイバー犯罪 脅威アクターは金銭的利益を得るためにシステムを侵害する。これにはランサムウェア攻撃、アクセス権を販売するためにITシステムを侵害する行為、またはマルウェアを展開して認証情報を窃取し転売する行為が含まれる。
ハクティビズム 脅威アクターは、イデオロギー的または政治的な目的を推進するためにシステムを標的とする。これには、政治的またはイデオロギー的な大義に注目を集めるために実行されるDDoS攻撃、改ざん、ハッキングと情報漏洩作戦などの特定のウェブサイト攻撃が含まれる。
日和見主義 標的を定めない悪意のある活動で、実環境における脆弱なシステムを特定し悪用することを目的とする。これには、パッチ未適用のルーターを介したワームの世界的な拡散や、公開されている資産の脆弱性に対するスキャンおよび自動化された悪用試行が含まれる。
デジタル外国干渉 脅威アクターの目的は、不正なサイバー手段を通じて世論に影響を与えたり、不和を煽ったりすることである。これには、選挙期間中に偽情報拡散を行う偽アカウント、一般市民を誤導するために選択的に改変された文書を漏洩させる行為、あるいはソーシャルメディア上で分断を助長するコンテンツを増幅させるボットなどが含まれる。
破壊と破壊 脅威アクターの目的は、被害者の情報システムの運用を妨害し、システムを破壊するかデータを破壊することである。これにはワイパー型マルウェア攻撃や重要インフラへのDDoS攻撃が含まれる。
データ漏洩と流出 当該活動は情報の暴露または漏洩を招き、それによって評判の毀損を引き起こすか、さらなるサイバー攻撃を助長する。これには脅威主体によるハッキングと情報流出作戦、あるいは内部関係者による意図的な暴露や漏洩が含まれる。データの暴露や漏洩は偶発的に発生することもある。
不明 この活動の目的は不明である。

 

3. 脅威ドメイン(サイバー活動の影響を受ける地理的または組織的範囲を分類するための階層モデル)

ドメイン 定義
組合組織 当該活動は、規則2023/2841で特定された一つ以上の組織を対象とした。
EU 当該活動は、1つ以上のEU加盟国における対象機関を対象としており、これには各国政府、インフラ、または民間企業が含まれる。
ヨーロッパ この活動は、EU域外の1つ以上の欧州諸国における対象機関を標的とした。これには、一部のNATO加盟国、EFTA加盟国、EU加盟候補国および潜在的な加盟候補国が含まれる。
EU文民ミッション地域 当該活動は、欧州域外においてEU文民ミッションを展開している1つ以上の国を対象とした。
世界 この活動は、上記の領域に該当しないあらゆる国を対象とした。

 

4. 脅威レベル(EU機関に対する悪意あるサイバー活動の重大性と接近度を評価するために用いる脅威レベル尺度)

脅威レベル 定義
連合体に対する差し迫った脅威。検証と対応を遅滞なく実施すること。
例:
・連合組織に影響を及ぼす重大なインシデント。
・複数の連合組織が導入したインターネット接続システムにおけるゼロデイ脆弱性の実環境での悪用。
・少なくとも1つの連合組織または緊密なパートナー組織で検知された国家支援型スピアフィッシング攻撃キャンペーン。
EU加盟国機関に対する差し迫った脅威。厳重な監視と点検を強く推奨する。
例:
・EU内の重点分野(第重点分野章参照)を対象とした集中的なサイバー諜報活動。
・EU機関が使用するソフトウェアの既知の脆弱性を狙った攻撃的悪用。
・EU域内の重要インフラを標的とした脅威主体の活動。
連合体組織との直接的な関連性が即座に確認できない、遠隔または間接的な脅威。監視が推奨され、利用可能なリソースと優先度に応じて対応が推奨される。
例:
・機会主義的なスキャンまたは列挙活動。
・EUを明確な標的としない複数大陸を対象としたグローバルなサイバー諜報活動。
・非EU関連インシデントに関連する指標が、機会主義的なマルウェアキャンペーンで再利用される事例。

 

5. 脅威アクターレベル(優先順位づけのために利用する期間、範囲)

脅威アクターレベル 定義
重大な 脅威アクターは、対象期間中に少なくとも1件の重大なインシデントを引き起こし、1つ以上の連合体組織に影響を与えた。
脅威アクターは、対象期間中に1つ以上の連合体組織に影響を与え、重大インシデントとして認定されていない少なくとも1件のMAIを引き起こした責任を負う。
脅威アクターは、対象期間中に生態系の2つ以上の要素に影響を与える少なくとも1件のMAI(重大な影響事象)を引き起こした責任を負う。
脅威アクターは、対象期間中に生態系の正確に一つの要素に影響を与える少なくとも一つのMAIを引き起こした責任を負う。

 

6. 戦術、技術、手順(TTP)

MITRE ATT&CKフレームワークを用いるようです...

 

7. 関心セクター

農業
航空輸送
化学品
サイバーセキュリティ
防衛
外交
教育
エネルギー
環境
財務
漁業
食品
基本的人権
健康
知的財産
正義
労働
法執行
海上輸送
議会運営
医薬品
公共行政
鉄道輸送
研究
スペース
技術
電気通信
輸送

 

8. 確信と不確実性

頼性 A(完全に信頼できる) B(通常は信頼できる) C(かなり信頼できる) D(通常は信頼できない) E (信頼性なし) F(信頼性を判断できない)
1 (他の情報源により確認済み) はい はい いいえ いいえ いいえ いいえ
2 (おそらく正しい) はい はい いいえ いいえ いいえ いいえ
3 (おそらく正しい) いいえ いいえ いいえ いいえ いいえ いいえ
4 (疑わしい) いいえ いいえ いいえ いいえ いいえ いいえ
5 (ありそうもない) いいえ いいえ いいえ いいえ いいえ いいえ
6 (判断不能) いいえ いいえ いいえ いいえ いいえ いいえ
  • 評価における確信度レベル(LCA)は、分析的判断に対する確信度(例:確信度が低い確信度が中程度確信度が高い)を表す。これらは、裏付けとなる証拠の質と量、および分析的推論の強さを反映している。
  • 推定確率を表す言葉(WEP)は、将来の出来事の可能性や現在の評価の正確性を、調整された言葉(例:可能性が低い可能性が高い非常に可能性が高いほぼ確実)を用いて伝えます。これらは、確率を過大評価したり過小評価したりすることなく、受け手が私たちの評価を理解するのを助けます。

そう言えば、U.S. やCanadaでは、

ICD 203 - Analytic Standards
https://www.dni.gov/files/documents/ICD/ICD-203.pdf

・1 to 9% Almost no chance
・10 to 24% Very unlikely/Very Improbable
・25 to 39% Unlikely/Improbable
・40 to 59% Roughly even chance
・60 to 74% Likely/probably
・75 to 89% Very likely/very probable
・90 to 100% Almost certainly

カナダの場合
https://www.cyber.gc.ca/en/guidance/cyber-threat-canadas-water-systems-assessment-mitigation

・0~9% ほとんど変化なし
・10~29% 非常に低い/ほとんどありえない
・30~39% 可能性が低い/ありえない
・40~59% ほぼ同じ確率
・60~69% 可能性が高い/あり得る
・70~89% 非常に高い/可能性が高い
・90~100% ほぼ確実である

 

 

9. 帰属

技術的帰属のみを、臨機応変な対応として、かつ厳格な条件下でのみ実施することを明確にしておく必要がある。当社は政治的帰属には一切関与しない

  • 政治的帰属とは、悪意のあるサイバー作戦について国家または組織に責任を帰属させることを指す。これは我々の管轄外であり、国家または機関の意思決定者の責任である。
  • 技術的帰属とは、行動パターン、インフラの再利用、マルウェアの指標、標的プロファイルに基づいて、悪意のある活動を既知の脅威アクターに結びつけることを指す。

技術的帰属原則

  • 厳密に技術的な観点から: 私たちは活動の状態や組織への帰属を特定しません。技術的指標と行動の一貫性に基づき脅威アクターを特定することに焦点を当てています。
  • 必要な場合: フルスペクトラム敵対者アプローチを強化するために必要な場合に限り、技術的帰属の特定を追求します。
  • 証拠に基づく:帰属は、TTP(戦術、技術、手順)、インフラの重複、マルウェアの痕跡、標的選定といった観察可能な特性に基づいて行われる。
  • 確信に基づくアプローチ: 十分な証拠によって裏付けられた場合にのみ活動を帰属させ、確信の度合いを明示します。信頼性があると判断された場合には、オープンソースまたはパートナーの分析を参照します。
  • 文脈依存: 帰属は定義された期間と範囲において有効であり、新たな情報が出現した際に更新される可能性がある。

 

10. 得点(脅威の優先順位付けと防御策の優先順位付けを行うためのスコリング

・脅威スコアモデルは、以下の5つの要素に基づいています:

  1. 発生
  2. ターゲティング
  3. 深刻度
  4. 期間
  5. 時間の経過に伴う劣化。

 

● CERT-EU

発表

・2026.02.13 Introducing the CERT-EU Cyber Threat Intelligence Framework

Introducing the CERT-EU Cyber Threat Intelligence Framework CERT-EUサイバー脅威インテリジェンスフレームワークの紹介
Cyber threat intelligence is only as useful as the foundations it is built upon. Without a shared vocabulary, consistent methods, and clear priorities, even the best analysis risks being misunderstood, misapplied, or lost in translation between the teams that produce it and the people who need to act on it. サイバー脅威インテリジェンスの有用性は、その基盤となる要素に依存する。共通の用語体系、一貫した手法、明確な優先順位がなければ、優れた分析でさえも、それを生み出すチームと行動を必要とする人々の間で誤解され、誤用され、あるいは伝達過程で失われるリスクがある。
Today we are publishing our Cyber Threat Intelligence Framework — the analytical and operational backbone of how CERT-EU classifies, assesses, and prioritises malicious cyber activity relevant to Union entities, our constituents, and their wider ecosystem. 本日、我々は「サイバー脅威インテリジェンス・フレームワーク」を公開する。これはCERT-EUが、EU機関、構成員、およびその広範なエコシステムに関連する悪意あるサイバー活動を分類、評価、優先順位付けする分析・運用の中核となる枠組みである。
Why a framework — and why now? なぜフレームワークが必要なのか?なぜ今なのか?
Union entities operate in an increasingly complex threat environment. They span multiple countries, sectors, and partnerships. They rely on shared systems, common software, and interconnected supply chains. A threat to one can quickly become a threat to many. EU機関はますます複雑化する脅威環境で活動している。複数の国、分野、パートナーシップにまたがり、共有システム、共通ソフトウェア、相互接続されたサプライチェーンに依存している。一機関への脅威は瞬時に多数への脅威となり得る。
Over the years, we have refined our internal methods to keep pace with this reality. The framework formalises that work into a single, transparent reference document. It is designed to serve two audiences: our analysts who produce threat intelligence, and the security officers, primary operational contacts, and decision-makers across Union entities who receive it and act on it. 我々は長年にわたり、この現実に対応するため内部手法を洗練させてきた。本フレームワークは、その取り組みを単一の透明性ある参照文書として体系化したものである。対象は二者である:脅威インテリジェンスを生成する分析官と、それを受け取り対応する加盟機関全体のセキュリティ担当者、主要な運用担当者、意思決定者である。
What is in the framework? フレームワークの内容
The framework introduces the core concepts and scales that structure our CTI products: 本フレームワークは、CTI製品の構造を定める中核概念と尺度を導入する:
Malicious activities of interest (MAIs) — how we define what we track and why. 関心対象の悪意ある活動(MAI)——追跡対象とその理由の定義方法
Ecosystem — the components (countries, sectors, events, partners, providers, software, and systems) that determine whether a threat is relevant to our constituents, even when they are not directly targeted. エコシステム — 脅威が直接標的とされなくとも、構成員にとって関連性を持つかを決定する要素(国、セクター、イベント、パートナー、プロバイダー、ソフトウェア、システム)。
Threat and counter-threat categories — classifying activity by adversarial intent, from cyberespionage to hacktivism, cybercrime, and beyond. 脅威及び対抗脅威の分類 — サイバー諜報活動からハクティビズム、サイバー犯罪など、敵対的意図に基づく活動の分類。
Threat domains — a hierarchical model for scoping the geographical and institutional reach of a threat. 脅威ドメイン — 脅威の地理的・組織的範囲を定義する階層モデル。
Threat levels and threat actor levels — structured scales for prioritising alerts and adversaries. 脅威レベルと脅威主体レベル — アラートと敵対者を優先順位付けするための構造化された尺度。
Confidence and uncertainties — how we assess information quality using the NATO Admiralty Code and communicate analytical uncertainty using FIRST-standard language. 信頼性と不確実性 — NATO海軍暗号を用いて情報品質を評価し、FIRST標準言語で分析的不確実性を伝達する方法。
Attribution — the principles that govern our strictly technical, evidence-based approach to linking activity to threat actors. 帰属 — 活動と脅威主体を結びつける、厳密に技術的かつ証拠に基づく我々のアプローチを規定する原則。
Scoring — how we calculate threat and mitigation scores to support prioritised defence planning. スコアリング——脅威と対策のスコアを算出し、優先順位付けされた防衛計画を支援する方法。
The framework is also a key enabler for our Full-Spectrum Adversary Approach, our own flavour of threat-informed defence, which relies on consistent modelling of threats across both strategic and technical dimensions. このフレームワークは、戦略的・技術的両次元で脅威を一貫してモデル化する、我々の独自版脅威情報に基づく防衛戦略「フルスペクトラム敵対者アプローチ」の重要な基盤でもある。
Built on recognised standards 確立された基準に基づく
The framework does not reinvent the wheel. It aligns with EU cybersecurity regulations, MITRE ATT&CK, NATO intelligence standards, and FIRST good practices for CTI reporting. Where we have developed our own methods — such as the ecosystem model or the scoring formulae — we have documented the reasoning transparently. 本フレームワークは既存の枠組みを再発明するものではない。EUサイバーセキュリティ規制、MITRE ATT&CK、NATO情報基準、CTI報告に関するFIRST優良事例と整合する。生態系モデルやスコアリング式など独自手法を開発した場合は、その根拠を透明性をもって文書化している。
A living document 生き続ける文書
The framework reflects our current practices, but it is not set in stone. We expect it to evolve as the threat landscape changes, as regulations develop, and as we learn from our constituents and partners. このフレームワークは現在の実践を反映しているが、固定されたものではない。脅威環境の変化、規制の発展、そして構成員やパートナーからの学びに応じて進化していくことを想定している。
We welcome your feedback. If you have questions, suggestions, or observations, please reach out to us at mail. フィードバックを歓迎する。質問、提案、意見があれば、mail
まで連絡してほしい。

 

 

Cyber Threat Intelligence Framework

Cyber Threat Intelligence Framework サイバー脅威インテリジェンスフレームワーク
Table of contents 目次
1. Introduction 1. はじめに
2. Malicious activities of interest 2. 対象となる悪意ある活動
3. Ecosystem 3. エコシステム
4. Threat and counter-threat categories 4. 脅威と対抗脅威の分類
5. Threat domains 5. 脅威ドメイン
6. Threat levels 6. 脅威レベル
7. Threat actor levels 7. 脅威アクターレベル
8. Tactics, techniques and procedures (TTPs) 8. 戦術・技術・手順(TTPs)
9. Sectors of interest 9. 対象セクター
10. Confidence and uncertainties 10. 信頼度と不確実性
11. Attribution 11. 帰属
12. Scoring 12. スコアリング

 

20260307-12340

 

| | Comments (0)

2026.03.06

デジタル庁 DS-512 行政手続等での本人確認におけるデジタルアイデンティティの取扱に関するガイドライン 解説書​ (2026.03.05)

こんにちは、丸山満彦です。

デジタル庁が、「DS-512 行政手続等での本人確認におけるデジタルアイデンティティの取扱に関するガイドライン 解説書​」を公表していますね...

-----

概要:国の行政機関が行政手続等において申請者の本人確認を行う際のデジタルアイデンティティの取扱に示した標準ガイドライン「DS-512 行政手続等での本人確認におけるデジタルアイデンティティの取扱に関するガイドライン」の具体例、最新の情報などを記載した解説書​

-----

ということです。

(となっていますが、DS-512でなく、DS-511じゃないかなぁ...)

 

デジタル庁

・2026.03.05 デジタル社会推進標準ガイドライン:「DS-512 行政手続等での本人確認におけるデジタルアイデンティティの取扱に関するガイドライン解説書​」を掲載しました

 

・[PDF] DS-512 行政手続等での本人確認におけるデジタルアイデンティティの取扱に関するガイドライン 解説書


20260306-55740

 

 

目次...

-----
改定履歴

目次

1 はじめに
1.1 本解説書について
1.2 適用対象
1.3 位置付け
1.4 用語

2 ガイドライン本編の全体概要
2.1 本人確認に関する直近の動向(2026 年初頭)
2.2 ガイドライン本編の全体構成
2.3 ガイドライン本編の適用対象について
2.4 「基本的な考え方」について
2.5 「本人確認の実装モデル」について

3 本人確認の構成要素と対策基準(本編3章の解説
3.1 身元確認(Identity Proofing)に関する解説
3.2 当人認証(Authentication)に関する解説
3.3 フェデレーション(Federation)に関する解説

4 本人確認手法の検討方法(本編4章の解説)
4.1 業務分析と前提情報の整理
4.2 対象手続の保証レベルの判定(本編4.1)
4.3 身元確認手法の選定の考え方(本編4.2関連)
4.4 当人認証手法の選定の考え方(本編4.2関連)
4.5 継続的な評価と改善(本編4.3関連)

5 その他の参考情報

別紙1 身元確認手法の具体例

1 主要な身元確認手法の解説
1.1 マイナンバーカードによる身元確認手法
1.2 マイナンバーカード以外による身元確認手法

2 主要な本人確認書類の具体例
2.1 区分A:デジタル署名を備える本人確認書類
2.2 区分B:顔写真を備える本人確認書類
2.3 区分C:その他の本人確認書類
2.4 スマートフォンに搭載された本人確認書類等の扱いについて

別紙2 当人認証手法の具体例

1 主要な当人認証手法の解説
1.1 フィッシング耐性を有する当人認証手法
1.2 その他の当人認証手法

別紙3 参考資料一覧

1 本人確認及びデジタルアイデンティティに関する参考資料
2 プライバシーに関する参考資料
3 アクセシビリティに関する参考資料


-----


あわせて

・[PDF] 参考資料_本人確認手法の検討用ワークシート

も公表していますね...

20260306-55619

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.10.17 デジタル庁 DS-511 行政手続等での本人確認におけるデジタルアイデンティティの取扱いに関するガイドライン (2025.09.30)

 

 

| | Comments (0)

国家サイバー統括室 国際文書「AI・機械学習のサプライチェーンリスクと緩和策」への共同署名 (2026.03.05)

こんにちは、丸山満彦です。

国家サイバー統括室 (NCO) が、国際文書「AI・機械学習のサプライチェーンリスクと緩和策」へに共同署名したと発表していますね...

オーストラリアのACSCが2025.10.16に策定した「Artificial intelligence and machine learning: Supply chain risks and mitigations」の改訂に合わせて、日本のNCOも共同署名し、名前を連ねていますね...

このブログでは見逃していましたね...

AI/ML の安全性は、個々の技術要素ではなく、サプライチェーン全体の健全性に依存するということを強調していますね...

データ、モデル、ソフトウェア、インフラ、第三者サービスのいずれか一つでも脆弱であれば、AI システム全体が攻撃に晒され、性能低下や情報漏えい、悪意ある挙動を引き起こすことになりますよね...

特に外部データやモデル、クラウドサービスの利用は利便性と同時に重大なリスクを伴うため、透明性の確保、検証、継続的監視が必須と言えますね...

AI/ML を通常の IT 以上に厳格なサプライチェーン管理の対象として扱い、多層防御を通じて全体の強靭性を高めることが重要ということですかね...

なお、変更点については、説明の拡充、既存内容の明確化、追加的なリスク管理・軽減に関する新たなセクションが盛り込まれているということのようです。

主な追加事項...

• AIおよびMLシステム導入時のリスク管理の見直し

• 内部環境での使用前にAIデータを隔離・テストする

• MLモデルが期待通りに動作することを確認するための性能テスト

 

 

国家サイバー統括室 (NCO)

・2026.03.05 [PDF] 国際文書「AI・機械学習のサプライチェーンリスクと緩和策」への共同署名について

 

Australian Cyber Security Centre: ACSC

・2026.03.05 Artificial intelligence and machine learning: Supply chain risks and mitigations

目次...

Introduction はじめに
Overview 概要
AI data AIデータ
Machine learning models 機械学習モデル
AI software AIソフトウェア
AI infrastructure and hardware AIインフラストラクチャとハードウェア
Third-party services サードパーティサービス
Conclusion 結論
More information 詳細情報

 

・[PDF

20260306-01213

 

変更点...

・[PDF]

20260306-01312

 

ちなみに署名をしているのは、、、

Five Eyesに日本、韓国、シンガポールを追加した計8カ国。。。

 

 

| | Comments (0)

2026.03.05

ちょっと思うこと AI時代の法制度のあり方ってどうなるのかなぁ...

こんにちは、丸山満彦です。

AI時代、特にAgentic AIがAIを含む他のシステムと連携をして物事を進めていってしまう時代における法制度のあり方についてそろそろ考えるべきなのではないかと思います...

最近気になっているのは、技術進歩が早いというか、技術進歩が与える社会への影響の変化速度が早いために、既存の社会前提の法制度の改善が必要となってくるわけですが、法律改定のスピードと社会変化のスピードの差が広がってきているのではないかということです。

法律を変えないといけない立法事実が顕在化した時には、すでにその問題が社会全体を覆うようになってしまうのではないかと思います。法律は、立法事実を認識してから国会審議を経て成立し、施行する頃には、別の立法事実が顕在化し、準備した法律では十分ではない、あるいは不要となってしまっているということもあり得るように思います。

このような社会になった場合の法制度はどうあるべきか?これを考える必要があるのではないかと思います。

具体的な法制度の改善の方向性というのは見えていないのですが、

なんとなくこうなるだろうというのは、

・法律というのは段々基本法的なものが増えていく。大きな方向性や具体性をイメージさせるための例示はは法律に書かれるものの、より詳細なものは、政省令、告示や、JIS等の技術仕様に移行していく。

・具体的な立法事実が社会に的に問題となってから法規制をするのではなく、新しい社会的インパクトの大きな技術が現れた婆には、早期に法律案を作成し、具体的にそれが必要となった場合に、審議をし、成立させるという方法。

みたいなことはあり得るかもと思いました。

人間が理解をする時間、社会のコンセンサスを形成する時間をはるかにAIは超えてくるようになったので、人間が疲れる感じです...

難しいですね...

 

1_20260305012901

| | Comments (0)

2026.03.04

論文 モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、管理策、ガバナンス (2025.11.25)

こんにちは、丸山満彦です。

モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、管理策、ガバナンスという論文の紹介です...

少し古いですが、おそらく読んでおく方が良いかもと思いまして...

MCPに限っていますが...

脅威(攻撃者)

  1. コンテンツ注入型
  2. サプライチェーン型
  3. 意図せぬエージェント

攻撃ベクトル

  1. データ駆動型攻撃:ユーザー生成コンテンツ注入
  2. サプライチェーン攻撃:信頼できないMCPサーバーのインストール
  3. 構成とガバナンスのリスクTrustedMCPサーバー
  4. 運用セキュリティ:データの機密性と実行時監視

セキュリティ制御

  1. 認証と認可
  2. エンドツーエンドの由来追跡
  3. コンテキスト分離とサンドボックス化
  4. インラインポリシー適用
  5. 集中型セキュリティガバナンス

 

 

Cournell University - arXiv

・2025.11.25 Securing the Model Context Protocol (MCP): Risks, Controls, and Governance

Securing the Model Context Protocol (MCP): Risks, Controls, and Governance モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、制御、ガバナンス
The Model Context Protocol (MCP) replaces static, developer-controlled API integrations with more dynamic, user-driven agent systems, which also introduces new security risks. As MCP adoption grows across community servers and major platforms, organizations encounter threats that existing AI governance frameworks (such as NIST AI RMF and ISO/IEC 42001) do not yet cover in detail. We focus on three types of adversaries that take advantage of MCP s flexibility: content-injection attackers that embed malicious instructions into otherwise legitimate data; supply-chain attackers who distribute compromised servers; and agents who become unintentional adversaries by over-stepping their role. Based on early incidents and proof-of-concept attacks, we describe how MCP can increase the attack surface through data-driven exfiltration, tool poisoning, and cross-system privilege escalation. In response, we propose a set of practical controls, including per-user authentication with scoped authorization, provenance tracking across agent workflows, containerized sandboxing with input/output checks, inline policy enforcement with DLP and anomaly detection, and centralized governance using private registries or gateway layers. The aim is to help organizations ensure that unvetted code does not run outside a sandbox, tools are not used beyond their intended scope, data exfiltration attempts are detectable, and actions can be audited end-to-end. We close by outlining open research questions around verifiable registries, formal methods for these dynamic systems, and privacy-preserving agent operations. モデルコンテキストプロトコル(MCP)は、静的で開発者が制御するAPI統合を、より動的でユーザー主導のエージェントシステムに置き換える。これにより新たなセキュリティリスクも生じる。コミュニティサーバーや主要プラットフォームでMCPの採用が広がるにつれ、組織は既存のAIガバナンスフレームワーク(NIST AI RMFやISO/IEC 42001など)がまだ詳細にカバーしていない脅威に直面する。我々は、MCPの柔軟性を悪用する3種類の攻撃者に焦点を当てる。正当なデータに悪意のある指示を埋め込むコンテンツ注入攻撃者、侵害されたサーバーを配布するサプライチェーン攻撃者、そして役割を超越することで意図せず敵対者となるエージェントである。初期のインシデントや概念実証攻撃に基づき、MCPがデータ駆動型情報漏洩、ツールポイズニング、クロスシステム特権昇格を通じて攻撃対象領域を拡大する仕組みを説明する。これに対応するため、我々は実用的な制御策を提案する。具体的には、スコープ限定認証によるユーザー単位認証、エージェントワークフロー全体の出所追跡、入出力チェック付きコンテナ化サンドボックス、DLPと異常検知によるインラインポリシー適用、プライベートレジストリやゲートウェイ層を用いた集中管理などである。目的は、未検証コードがサンドボックス外で実行されないこと、ツールが意図された範囲を超えて使用されないこと、データ漏洩の試みが検知可能であること、そしてアクションがエンドツーエンドで監査可能であることを組織が保証できるようにすることである。最後に、検証可能なレジストリ、これらの動的システムに対する形式手法、プライバシー保護型エージェント運用に関する未解決の研究課題を概説する。

 

・[PDF] [HTML]

 

20260303-62605

・[DOCX][PDF] 仮訳

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.04 論文 モデルコンテキストプロトコル(MCP)のセキュリティ確保:リスク、管理策、ガバナンス (2025.11.25)

・2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 スペイン データ保護庁 エージェント型人工知能に関するガイド (2026.02.18)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

 

 

| | Comments (0)

2026.03.03

NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…

こんにちは、丸山満彦です。

デジタル・フォレンジック研究会にコラムを載せました。

 IDF - Column

・2026.03.02 コラム第914号:Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…

 

「AIが自律的に連携し動き始めた社会になると、デジタルフォレンジックスで培った技術や考え方が重要となっていくのではないか...知らんけど...」と言う話です (^^)

1_20260219172601

 

 

みなさんも、時間がある時にちょっと考えておいてください...

 


 

私が書いた「NPO デジタル・フォレンジック研究会」の「コラム」の一覧

 

No Date Title
34 914 2025.03.02 Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…
33 869 2025.09.01 公正な司法におけるデジタル・フォレンジックスの役割
32 864 2025.03.10 ものを分解すればわかるのか?「還元論的発想とシステム論的発想」
31 841 2024.09.26 親分でまとまる集団とルールでまとまる集団とIDFに対するちょっとした提案
30 806 2024.01.25 気候風土と社会
29 780 2023.07.31 国家安全保障戦略 ― 何をだれから守るのか? 国益 (National Interests) とは何か?
28 754 2023.01.31 「木を見て森を見ず」にならず、「神は細部に宿る」を忘れない
27 731 2022.08.22 サイバー空間の安全に向けて: All for one, One for all
26 702 2022.01.31 サイバーセキュリティは空気のように社会全体に拡がる
25 678 2021.08.16 ティラノサウルスとスズメ
24 650 2021.02.01 データを科学的に分析する
23 627 2020.08.17 若者のサイバー犯罪を無くしたい。。。
22 600 2020.02.03 デジタルフォレンジックスと多様性
21 578 2019.08.26 未来を考えようと思うとき、人は過去を振り返る
20 551 2019.02.11 とらわれずに物事をみつめる
19 521 2018.07.09 AIは科学捜査を騙せるか?
18 493 2017.12.18 セキュリティ・デバイド?
17 474 2017.08.07 『デジタル・フォレンジック』という言葉を今更考える
16 451 2017.02.20 相手を知ることが重要
15 425 2016.08.15 本質を理解する
14 383 2015.10.12 名ばかりCSIRTで良いのか?
13 357 2015.04.13 IoT時代は明るいか暗いか
12 335 2014.11.03 頭を下げるのは社長です
11 308 2014.04.30 標的型攻撃には内部不正対応が重要?
10 286 2013.11.14 セキュリティガバナンスはできる範囲だけやればよいのか?
09 261 2013.05.23 セキュリティの基本はずっとかわっていない
08 240 2012.12.25 さらに組織化が進むサイバー攻撃集団
07 207 2012.05.10 外部から侵入されている想定で情報セキュリティを考える
06 173 2011.09.08 想定外に対応するのが危機管理ではないか
05 139 2011.01.13 データ分析を使った不正発見手法
04 131 2010.11.11 発見的統制の重要性
03 084 2009.12.10 クラウドコンピューティングがもたらす光と影
02 058 2009.06.11 不正をさせない
01 021 2008.09.25 ニーズとシーズ、目的と手段

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.02.24 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 Agentic AI時代のデジタルフォレンジックス - AIが自律的に連携して動き始めた社会になると…

・2025.09.01 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 公正な司法におけるデジタル・フォレンジックスの役割

・2025.03.10 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 ものを分解すればわかるのか?「還元論的発想とシステム論的発想」

・2024.09.30 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「親分でまとまる集団とルールでまとまる集団とIDFに対するちょっとした提案」

・2024.01.30 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「気候風土と社会」

・2023.08.01 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「「国家安全保障戦略 ― 何をだれから守るのか? 国益 (National Interests) とは何か?」

・2023.01.31 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「「木を見て森を見ず」にならず、「神は細部に宿る」を忘れない」

・2022.08.22 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「サイバー空間の安全に向けて: All for one, One for all」

・2022.01.31 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「サイバーセキュリティは空気のように社会全体に拡がる」

・2021.08.17 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「ティラノサウルスとスズメ」

・2021.02.03 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「データを科学的に分析する」

・2020.08.19 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦

・2020.06.11 NPO デジタル・フォレンジック研究会のコラム by 丸山満彦

 

 

 

 

| | Comments (0)

2026.03.02

論文 インテリジェントAI委任 (2026.02.12)

こんにちは、丸山満彦です。

AIエージェントが実装される社会に向けての論文という感じですかね...

いろいろと考えさせられますね... AI エージェントが高度化するほど、タスクの委任(delegation)は技術問題ではなく“組織設計”の問題になるということですかね...

委任の失敗は単なる特定のタスクの不達成ではなく、失敗の連鎖的な波及によりシステム全体の崩壊につながる可能性があるため、委任の設計には動的適応、信頼校正、監視、責任の明確化が不可欠であるとしていますね...

制度的な実装も必要ですが、技術的にも実行可能でなければならないし、経済的にも合理的でなければならない...

例えば、動的適応や、適時の信頼校正や監視も簡単ではないだろうし、実際は技術的な課題はあるように思うんですが、AIエージェントの問題はつながってしまえるだけに、社会に網の目のように広がってしまう前に、設計図を示しておかなければならないと思うんですよね...リスクを緩和させる機構がないままに社会に実装されるべきものではないという感じがしますよね...

 

Cournell University - arXiv

・2026.02.12 Intelligent AI Delegation

Intelligent AI Delegation  インテリジェントAI委任
AI agents are able to tackle increasingly complex tasks. To achieve more ambitious goals, AI agents need to be able to meaningfully decompose problems into manageable sub-components, and safely delegate their completion across to other AI agents and humans alike. Yet, existing task decomposition and delegation methods rely on simple heuristics, and are not able to dynamically adapt to environmental changes and robustly handle unexpected failures. Here we propose an adaptive framework for intelligent AI delegation - a sequence of decisions involving task allocation, that also incorporates transfer of authority, responsibility, accountability, clear specifications regarding roles and boundaries, clarity of intent, and mechanisms for establishing trust between the two (or more) parties. The proposed framework is applicable to both human and AI delegators and delegatees in complex delegation networks, aiming to inform the development of protocols in the emerging agentic web. AI エージェントは、ますます複雑化するタスクに取り組むことができる。より野心的な目標を達成するためには、AI エージェントは、問題を管理可能なサブコンポーネントに意味のある形で分解し、その完了を他の AI エージェントや人間にも安全に委任できる必要がある。しかし、既存のタスク分解および委任の手法は、単純なヒューリスティックに依存しており、環境の変化に動的に適応したり、予期せぬ障害に堅牢に対処したりすることはできない。 ここでは、インテリジェントな AI 委任のための適応型フレームワークを提案する。これは、タスクの割り当てを含む一連の決定であり、権限、責任、説明責任、役割と境界に関する明確な仕様、意図の明確性、および 2 つ(またはそれ以上)の当事者間の信頼を確立するためのメカニズムも組み込まれている。提案されたフレームワークは、複雑な委任ネットワークにおける人間と AI の委任者と被委任者の両方に適用可能であり、新たなエージェントウェブにおけるプロトコルの開発に情報を提供することを目的としている。

 

・[PDF

20260302-03046

・[DOCX][PDF] 仮訳

 

1. Introduction 1. 序論
2. Foundations of Intelligent Delegation 2. インテリジェントな委任の基礎
2.1. Definition 2.1. 定義
2.2. Aspects of Delegation 2.2. 委任の側面
2.3. Delegation in Human Organizations 2.3. 人間組織における委任
3. Previous Work on Delegation 3. 委任に関する先行研究
4. Intelligent Delegation: A Framework 4. インテリジェント委任:フレームワーク
4.1. Task Decomposition 4.1. タスク分解
4.2. Task Assignment 4.2. タスク割り当て
4.3. Multi-objective Optimization 4.3. 多目的最適化
4.4. Adaptive Coordination 4.4. 適応的調整
4.5. Monitoring 4.5. モニタリング
4.6. Trust and Reputation 4.6. 信頼と評判
4.7. Permission Handling 4.7. 権限処理
4.8. Verifiable Task Completion 4.8. 検証可能なタスク完了
4.9. Security 4.9. セキュリティ
5. Ethical Delegation 5. 倫理的委任
5.1. Meaningful Human Control 5.1. 意味のある人間の制御
5.2. Accountability in Long Delegation Chains 5.2. 長い委任チェーンにおける説明責任
5.3. Reliability and Efficiency 5.3. 信頼性と効率性
5.4. Social Intelligence 5.4. 社会的知性
5.5. User Training 5.5. ユーザートレーニング
5.6. Risk of De-skilling 5.6. 技能低下のリスク
6. Protocols 6. プロトコル
6.1. Towards Delegation-centered Protocols 6.1. 委任中心プロトコルに向けて
7. Conclusion 7. 結論
References 参考文献

 

キセルです...序論と結論 (^^)

1. Introduction 1. 序論
As advanced AI agents evolve beyond queryresponse models, their utility is increasingly defined by how effectively they can decompose complex objectives and delegate sub-tasks. This coordination paradigm underpins applications ranging from personal use, where AI agents can act as personal assistants (Gabriel et al., 2024), to commercial, enterprise deployments where AI agents can provide support and automate workflows (Huang and Hughes, 2025; Shao et al., 2025; Tupe and Thube, 2025). Large language models (LLMs) have already shown promise in robotics (Li et al., 2025a; Wang et al., 2024a), by enabling more interactive and accurate goal specification and feedback. Recent proposals have also highlighted the possibility of large-scale AI agent coordination in virtual economies (Tomasev et al., 2025). Modern agentic AI systems implement complex control flows across differentiated sub-agents, coupled with centralized or decentralized orchestration protocols (Hong et al., 2023; Rasal and Hauer, 2024; Song et al., 2025; Zhang et al., 2025a). This can already be seen as a sort of a microcosm of task decomposition and delegation, where the process is hard-coded and highly constrained. Managing dynamic web-scale interactions requires us to think beyond the approaches that are currently employed by more heuristic multi-agent frameworks. 高度なAIエージェントが問い合わせ応答モデルを超えて進化するにつれ、その有用性は複雑な目標をいかに効果的に分解し、サブタスクを委任できるかで定義されるようになってきている。この調整パラダイムは、AIエージェントがパーソナルアシスタントとして機能する個人利用(Gabriel et al., 2024)から、AIエージェントがサポートを提供しワークフローを自動化する商業・企業導入(Huang and Hughes, 2025; Shao et al., 2025; Tupe and Thube, 2025)。大規模言語モデル(LLM)は、より対話的で正確な目標指定とフィードバックを可能にすることで、ロボット工学分野ですでに有望性を示している(Li et al., 2025a; Wang et al., 2024a)。 最近の提案では、仮想経済における大規模AIエージェントの協調の可能性も強調されている(Tomasev et al., 2025)。現代のエージェント型AIシステムは、差別化されたサブエージェント間で複雑な制御フローを実装し、集中型または分散型のオーケストレーションプロトコルと連動している(Hong et al., 2023; Rasal and Hauer, 2024; Song et al., 2025; Zhang et al., 2025a)。これは既に、プロセスがハードコード化され高度に制約されたタスク分解と委任の縮図と見なせる。動的なウェブ規模の相互作用を管理するには、よりヒューリスティックなマルチエージェントフレームワークが現在採用している手法を超えた思考が求められる。
Delegation (Castelfranchi and Falcone, 1998) is more than just task decomposition into manageable sub-units of action. Beyond the creation of sub-tasks, delegation necessitates the assignment of responsibility and authority (Mueller and Vogelsmeier, 2013; Nagia, 2024) and thus implicates accountability for outcomes. Delegation thus involves risk assessment, which can be moderated by trust (Griffiths, 2005). Delegation further involves capability matching and continuous performance monitoring, incorporating dynamic adjustments based on feedback, and ensuring completion of the distributed task under the specified constraints. Current approaches tend to fail to account for these factors, relying more on heuristics and/or simpler parallelization. This may be sufficient for early prototypes, but real world AI deployments need to move beyond ad hoc, brittle, and untrustworthy delegation. There is a pressing need for systems that can dynamically adapt to changes (Acharya et al., 2025; Hauptman et al., 2023) and recover from errors. The absence of adaptive and robust deployment frameworks remains one of the key limiting factors for AI applications in high-stakes environments. 委任(Castelfranchi and Falcone, 1998)は、単にタスクを管理可能なサブユニットに分解するだけのものではない。サブタスクの作成に加えて、委任には責任と権限の割り当てが必要であり(Mueller and Vogelsmeier, 2013; Nagia, 2024)、その結果に対する説明責任も伴う。 したがって、委任にはリスク評価が伴い、それは信頼によって緩和される(Griffiths, 2005)。 委任にはさらに、能力のマッチングと継続的なパフォーマンスのモニタリング、フィードバックに基づく動的な調整の組み込み、指定された制約条件の下での分散タスクの完了の確保も伴う。現在のアプローチは、これらの要素を考慮に入れず、よりヒューリスティックや単純な並列化に依存する傾向がある。これは初期のプロトタイプでは十分かもしれないが、現実世界での AI の導入には、その場しのぎで脆弱、信頼性の低い委任を超えるものが必要だ。 変化に動的に適応し(Acharya et al., 2025; Hauptman et al., 2023)、エラーから回復できるシステムが緊急に必要とされている。適応性があり堅牢な導入フレームワークがないことは、リスクの高い環境における AI アプリケーションの重要な制限要因の一つであり続けている。
To fully utilize AI agents, we need intelligent delegation: a robust framework centered around clear roles, boundaries, reputation, trust, transparency, certifiable agentic capabilities, verifiable task execution, and scalable task distribution. Here we introduce an intelligent task delegation framework aimed at addressing these limitations, informed by historical insights from human organizations, and grounded in key agentic safety requirements. AIエージェントを最大限に活用するには、知的な委任が必要だ。明確な役割、境界、評判、信頼、透明性、証明可能なエージェント能力、検証可能なタスク実行、スケーラブルなタスク分配を中核とする堅牢な枠組みである。ここでは、これらの制限に対処することを目的とした知的なタスク委任フレームワークを紹介する。これは人間の組織からの歴史的知見に学び、主要なエージェント安全要件に基づいている。
... ...
7. Conclusion 7. 結論
Significant components of the future global economy will likely be mediated by millions of specialized AI agents, embedded within firms, supply chains, and public services, handling everything from routine transactions to complex resource allocation. However, the current paradigm of adhoc, heuristic-based delegation is insufficient to support this transformation. To safely unlock the potential of the agentic web, we must adopt a dynamic and adaptive framework for intelligent delegation, that prioritizes verifiable robustness and clear accountability alongside computational efficiency. 将来のグローバル経済の重要な構成要素は、企業、サプライチェーン、公共サービスに組み込まれた数百万の専門AIエージェントによって仲介され、日常的な取引から複雑な資源配分まであらゆる業務を処理するようになるだろう。しかし、現在のアドホックでヒューリスティックに基づく委任のパラダイムでは、この変革を支えるには不十分である。エージェントウェブの可能性を安全に解き放つためには、計算効率と並行して検証可能な堅牢性と明確な説明責任を優先する、動的で適応的な知的委任の枠組みを採用しなければならない。
When an AI agent is faced with a complex objective whose completion requires capabilities and resources beyond its own means, this agent must assume the role of a delegator within the intelligent task delegation framework. This delegator would subsequently decompose this complex task into manageable subcomponents that can be mapped onto the capabilities available on the agentic market, at the level of granularity that lends itself to high verifiability. The task allocation would be decided based on the incoming bids, and a number of key considerations including trust and reputation, monitoring of dynamic operational states, cost, efficiency, and others. Tasks with high criticality and low reversibility may require further structured permissions and tiered approvals, with a clear structure of accountability, and under appropriate human oversight as defined by the applicable institutional frameworks. AIエージェントが、自らの能力や資源を超えた複雑な目標に直面した場合、そのエージェントは知的タスク委任フレームワーク内で委任者の役割を担わねばならない。この委任者は、複雑なタスクを管理可能なサブコンポーネントに分解し、高い検証可能性をもたらす粒度レベルで、エージェント市場で利用可能な能力にマッピングする。 タスクの割り当ては、信頼性と評判、動的な運用状態の監視、コスト、効率性など、複数の重要要素と入札内容に基づいて決定される。重要度が高く可逆性が低いタスクには、適用される制度的枠組みで定義された適切な人的監督のもと、明確な説明責任構造を備えた構造化された権限付与と階層的な承認プロセスが追加で必要となる場合がある。
At web-scale, safety and accountability cannot be an afterthought. They need to be baked into the operational principles of virtual agentic economies, and act as central organizing principles of the agentic web. By incorporating safety at the level of delegation protocols, we would be aiming to avoid cumulative errors and cascading failures, and attain the ability to react to malicious or misaligned agentic or human behavior rapidly, limiting the adverse consequences. What we propose is ultimately a paradigm shift from largely unsupervised automation to verifiable, intelligent delegation, that allows us to safely scale towards future autonomous agentic systems, while keeping them closely tethered to human intent and societal norms. ウェブ規模において、安全性と説明責任は後付けではならない。これらは仮想エージェント経済の運用原則に組み込まれ、エージェントウェブの中核的組織原理として機能する必要がある。委任プロトコルレベルで安全性を組み込むことで、累積的エラーや連鎖的障害を回避し、悪意ある/不整合なエージェント行動や人間行動に迅速に対応し、悪影響を限定する能力の獲得を目指す。 我々が提案するのは、最終的には、ほとんど監督されない自動化から検証可能な知的な委任へのパラダイムシフトである。これにより、将来の自律的なエージェントシステムに向けて安全にスケールアップしつつ、それらを人間の意図や社会的規範に緊密に結びつけた状態を維持できる。

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 スペイン データ保護庁 エージェント型人工知能に関するガイド (2026.02.18)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

| | Comments (0)

論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

こんにちは、丸山満彦です。

MCP、A2A、Agora、ANPを比較分析した、AIエージェントプロトコル向けセキュリティ脅威モデリングについての論文の紹介です。

AI エージェント時代が来ますよね。。。その時AIエージェントの基盤となるプロトコルは、そもそも「設計レベルでの安全性」を確立しなければ、社会全体の信頼性が根底から揺らぎますよね...

最近では、MCP、A2A、Agora、ANPといったAIエージェントプロトコルが急速に普及しつつありますが、認証、サプライチェーン、運用整合性といった基本的な安全要件が体系的に検証されているわけではないかもですね...

その結果、新たな攻撃面を生まれているように思います...

これは単なる実装上の問題ではなくて、プロトコルそのものが安全性を担保する仕組みを持たない限り、どんなに機能的に高度なエージェントであっても安全に運用できないことになりますよね...

したがって、AIエージェントの時代の向けて、プロトコルを跨いだ脅威モデル、強制的な検証、署名、命名空間管理、ライフサイクル全体を対象としたリスク評価といった「セキュリティインフラの標準化」が必要となりますよね...

今後どうなりますかね...

 

ちなみにこの論文での分類...

脅威

Security Threats in AI Agent Protocols AIエージェントプロトコルにおけるセキュリティ脅威    
Authentication & Access Control  認証とアクセス制御 Lack of authentication 認証の欠如
Weak or limited access control 脆弱または限定的なアクセス制御
Naming Collision & Impersonation 命名衝突となりすまし
Absence of limitations on token lifetime トークン有効期間の制限の欠如
Insufficiently granular token scopes 不十分なトークンスコープの細分化
Supply Chain & Ecosystem Integrity サプライチェーンとエコシステムの完全性 Installer Spoofing インストーラー偽装
Code Injection and Backdoors コードインジェクションとバックドア
Tool Poisoning ツールポイズニング
Rug Pulls ラグプル
Operational Integrity & Reliability 運用上の完全性と信頼性 Slash Command Overlap スラッシュコマンドの重複
Sandbox Escape サンドボックス脱走
Shadowing Attacks シャドーイング攻撃
Post-update Privilege Persistence 更新後の特権永続化
Re-deployment of Vulnerable Versions 脆弱なバージョンの再デプロイ
Configuration Drift 設定ドリフト

 

プロトコル設計とアーキテクチャに由来する潜在的脅威

1. Authentication & Access Control 1. 認証とアクセス制御 1. Replay Attack 1. リプレイ攻撃
2. Token Scope Escalation 2. トークンスコープの昇格
3. Privilege Escalation 3. 権限昇格
4. Identity Forgery and Impersonation 4. 身元偽造となりすまし
5. Sybil Attacks 5. シビル攻撃
6. Cross-Vendor Trust Boundary Exploitation 6. クロスベンダー信頼境界の悪用
2. Supply Chain & Ecosystem Integrity 2. サプライチェーンとエコシステムの完全性 1. Supply-Chain Compromise 1. サプライチェーン侵害
2. PD Spoofing and Repository Poisoning 2. PDスプーフィングとリポジトリポイズニング
3. Protocol Fragmentation Risk 3. プロトコル断片化のリスク
4. Version Rollback 4. バージョンのロールバック
5. Onboarding Exploitation 5. オンボーディングの悪用
3. Operational Integrity & Reliability 3. 運用上の完全性と信頼性 1. Cross-Protocol Interaction Risks 1. プロトコル間相互作用リスク
2. Cross-protocol confusion attacks 2. プロトコル間混同攻撃
3. Context Explosion and Resource Exhaustion 3. コンテキスト爆発とリソース枯渇
4. Intent Deception 4. 意図の欺瞞
5. Collusion and Free-Riding 5. 共謀とフリーライダー
6. Semantic Drift Exploitation 6. 意味的ドリフトの悪用

 

Cournell University - arXiv

・2026.02.11 Security Threat Modeling for Emerging AI-Agent Protocols: A Comparative Analysis of MCP, A2A, Agora, and ANP

Security Threat Modeling for Emerging AI-Agent Protocols: A Comparative Analysis of MCP, A2A, Agora, and ANP 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、アゴラ、ANPの比較分析
The rapid development of the AI agent communication protocols, including the Model Context Protocol (MCP), Agent2Agent (A2A), Agora, and Agent Network Protocol (ANP), is reshaping how AI agents communicate with tools, services, and each other. While these protocols support scalable multi-agent interaction and cross-organizational interoperability, their security principles remain understudied, and standardized threat modeling is limited; no protocol-centric risk assessment framework has been established yet. This paper presents a systematic security analysis of four emerging AI agent communication protocols. First, we develop a structured threat modeling analysis that examines protocol architectures, trust assumptions, interaction patterns, and lifecycle behaviors to identify protocol-specific and cross-protocol risk surfaces. Second, we introduce a qualitative risk assessment framework that identifies twelve protocol-level risks and evaluates security posture across the creation, operation, and update phases through systematic assessment of likelihood, impact, and overall protocol risk, with implications for secure deployment and future standardization. Third, we provide a measurement-driven case study on MCP that formalizes the risk of missing mandatory validation/attestation for executable components as a falsifiable security claim by quantifying wrong-provider tool execution under multi-server composition across representative resolver policies. Collectively, our results highlight key design-induced risk surfaces and provide actionable guidance for secure deployment and future standardization of agent communication ecosystems. モデルコンテキストプロトコル(MCP)、Agent2AgentA2A)、Agora、エージェントネットワークプロトコル(ANP)を含むAIエージェントコミュニケーションプロトコルの急速な発展は、AIエージェントがツールやサービス、そして相互にコミュニケーションする方法を再構築している。 これらのプロトコルはスケーラブルなマルチエージェント相互作用や組織横断的な相互運用性を支える一方で、そのセキュリティ原則は十分に研究されておらず、標準化された脅威モデリングも限定的である。プロトコル中心のリスクアセスメントフレームワークは未だ確立されていない。本論文は、4つの新興AIエージェントコミュニケーションプロトコルに対する体系的なセキュリティ分析を提示する。まず、プロトコル固有およびプロトコル横断的なリスク表面を識別するため、プロトコルアーキテクチャ、信頼前提、相互作用パターン、ライフサイクル挙動を検証する構造化された脅威モデリング分析を開発する。 次に、定性的リスクアセスメントフレームワークを導入する。これは12のプロトコルレベルリスクを識別し、発生確率・影響度・プロトコル全体のリスクを体系的に評価することで、作成・運用・更新フェーズにおけるセキュリティ態勢を評価する。これにより安全な導入と将来の標準化に向けた示唆を得る。 第三に、MCPに関する測定主導型ケーススタディを提供する。これは、代表的な解決者ポリシーを跨いだマルチサーバー構成下での不正プロバイダーツール実行を定量化することで、実行可能コンポーネントに対する必須検証/認証の欠落リスクを反証可能なセキュリティ主張として形式化するものである。総合的に、我々の結果は設計に起因する主要なリスク表面を浮き彫りにし、エージェントコミュニケーションエコシステムの安全な展開と将来の標準化に向けた実践的な指針を提供する。

 

・[PDF]

20260301-151317

・[DOCX][PDF] 仮訳

 

・[HTML]

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2026.03.02 論文 インテリジェントAI委任 (2026.02.12)

・2026.03.02 論文 新興AIエージェントプロトコル向けセキュリティ脅威モデリング:MCP、A2A、Agora、ANPの比較分析 (2026.02.11)

・2026.02.20 スペイン データ保護庁 エージェント型人工知能に関するガイド (2026.02.18)

・2026.02.20 オランダ データ保護庁 OpenClawのようなAIエージェントに重大なセキュリティリスクがある (2026.02.12)

・2026.02.13 米国 NIST 意見募集 ソフトウェアとAIエージェントのID認証・認可の普及促進

・2026.02.09 CSA 自律型AIエージェントのセキュリティ確保

・2026.02.04 シンガポール 韓国 現実的なタスクにおけるデータ漏洩リスクに対するAIエージェントのテスト (2026.01.19)

・2026.01.15 英国 ICO技術展望: エージェント型AI(Agentic AI)

・2026.01.15 米国 NIST CAISI AIエージャントシステムのセキュリティ強化に関するRFI (2026.01.12)

 

 

 

| | Comments (0)

2026.03.01

個人情報保護委員会 第2回 個人情報保護政策に関する懇談会 (2026.02.02)

こんにちは、丸山満彦です。

個人情報保護委員会が2026.02.02に開催された第2回 個人情報保護政策に関する懇談会の概要、資料等を公表しています (2026.02.25) ね...

高橋先生のPETsの資料(資料3)がPETsについて全体像がよくわかる資料だと思います。さすがです...

PETsをつかってデータガバナンス、プライバシーガバナンスをどうしていくのかというのは興味深いです...

 

個人情報保護委員会

・2026.02.02 第2回 個人情報保護政策に関する懇談会

 

配付資料

20260228-90418

 

 

 

 

 

 

 

議事概要

 

 

 

「個人情報保護政策に関する懇談会」について

 

 


 

 

 

 

 

| | Comments (0)

« February 2026 | Main | April 2026 »