« September 2025 | Main | November 2025 »

October 2025

2025.10.31

米国 連邦上院 未成年者へのAIコンパニオンの提供禁止法案の提出 (2025.10.28)

こんにちは、丸山満彦です。

連邦上院のJosh Hawley(共和党、ミズーリ州)[wiki]が、Richard Blumenthal(民主党、コネチカット州)[wiki]、Katie Britt(共和党、アラバマ州)[wiki]、Mark Warner(民主党、バージニア州)[wiki]、Chris Murphy(民主党、コネチカット州)[wiki]と共に、GUARD Act(Guardrails for Underage AI Relationships and Deceptive Interactions Act:利用者の年齢検証及び責任ある対話に関するガイドライン法)法案を提出していますね...

このブログでも上院での公聴会の様子(米国 上院 犯罪・テロ対策小委員会 AIチャットボットの弊害の検証 (2025.09.16) )について書いていますので、そちらも参考にしてくださいませ...

法案がとおるかどうかはわかりませんが、法律にならなくてもこのような対策をすることは自然と求められてくると思います。議員もガードレールという言葉を使っていますが、社会的に大きな影響を及ぼす技術(例えば、自動車など)には適切なガードレールというのは必要だと思うのですよね...

 

Josh Hawley

・2025.10.28 Hawley Introduces Bipartisan Bill Protecting Children from AI Chatbots with Parents, Colleagues

この法案は以下がポイントとなるようです...

 

The GUARD Act would: GUARD法は以下のことを行う:
・Ban AI companies from providing AI companions to minors.  ・AI企業が未成年者にAIコンパニオンを提供することを禁止する。
・Mandate that AI companions disclose their non-human status and lack of professional credentials for all users  ・AIコンパニオンに対し、全てのユーザーに対して非人間的な性質と専門的資格の欠如を開示することを義務付ける。
・Create new crimes for companies which knowingly make available to minors AI companions that solicit or produce sexual content 未成年者に性的コンテンツを勧誘または生成するAIコンパニオンを故意に提供した企業に対して新たな犯罪を創設する。

 

法案が通るかどうかはわかりませんが、Josh Hawley上院議員の政治的信条にまさに合致したテーマと政治手法が有効そうな分野なので、力をいれていきますかね...

 

法案(まだ法案番号はついていません...)

・[PDF

20251031-62013

 

発表の様子のYouTube...

・2025.10.28 [Youtube] Tune into Senator Hawley’s fight to protect kids online

10分24秒くらいから...

 

 


 

こんな発表や記事も...

Tech Policy.press

・2025.08.15 New Research Sheds Light on AI ‘Companions’

 

● MIT Technology Review

・2025.04.08 AI companions are the final stage of digital addiction, and lawmakers are taking aim

 

有料な記事ですが...

● 日経XTECH

・2025.10.29 AIコンパニオンは人間の「パートナー」になれるか、娯楽を超えて需要拡大

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.09.19 米国 上院 犯罪・テロ対策小委員会 AIチャットボットの弊害の検証 (2025.09.16) 

 

| | Comments (0)

紹介 クロスセクター・サイバーセキュリティ法 蔦大輔監修 森・濱田松本法律事務所

こんにちは、丸山満彦です。

蔦大輔さんが監修で 森・濱田松本法律事務所外国法共同事業(サイバーセッキュリティ法研究チーム)著で[amazon]「クロスセクター・サイバーセキュリティ法」が商事法務から出版されていますね...

帯はNTTセキュリティCEOの横浜さん。「圧倒されました。基本用語からAIや宇宙など最先端まで、サイバーセキュリティに関わるリーガルイシューすべてを網羅。現場実務に寄り添った法務解説が満載のデジタル社会ではすべての会社に必携の1冊」

クロスセクターというのが、まさにポイントですね...サイバーセキュリティ単独の法律問題というよりも、実務がサイバーとフィジカルな空間で融合して行われてきているということから、サイバー(デジタル)空間での活動量が増えるとことによる変化が各分野でどのようにおこるのか?という視点でまとめられているように思いました...そういう意味では、ここまで網羅的に書籍をまとめるというのは大変な話で、かつ大手の法律事務所だからこそできたという面はあるかもしれません。。。

 

 No.00 法律(総論) サイバーセキュリティに関連する様々な法令
第1部 主要法分野  
 No.01 会社法 内部統制システムの構築とランサムウェア対応
 No.02 ディスクロージャー 金融商品取引法を中心とするサイバーセキュリティ関連の情報開示
 No.03 個人情報保護法 個人データ漏えい等対応における諸論点
 No.04 営業秘密保護 機密情報の持ち出し・持込への対応
 No.05 独禁法・競争法 サイバーセキュリティ向上のための取組に際して独禁法・競争法上留意すべき事項
 No.06 労働法 セキュリティ目的でのモニタリングと雇用管理上の諸論点
 No.07 システム開発 裁判例からみるシステムベンダとの関係
 No.08 弁護士実務(Column) 弁護士実務におけるセキュリティの重要性
 No.09 刑事法 サイバーセキュリティに関する犯罪に対する刑事的分析および実務対応
 No.10 危機管理 外部からのサイバー攻撃を念頭に置いた危機管理対応
 No.11 M&A デュー・ディリジェンス、契約条項、FDI規制
 No.12 経済安全保障① 外為法に基づく輸出管理・投資管理・経済制裁とサイバーセキュリティ
 No.13 経済安全保障② セキュリティ・クリアランス
第2部 各種インフラ  
 No.14 インフラ防護 能動的サイバー防御を含む重要インフラ・基幹インフラの防護とサプライチェーン・リスク対策
 No.15 金融 金融分野におけるサイバーセキュリティ
 No.16 保険関連法 サイバー保険に関する諸論点
 No.17 エネルギー・インフラ 電気事業におけるサイバーセキュリティ対策
 No.18 通信インフラ 電気通信事業者におけるセキュリティ対策と通信の秘密
 No.19 データセンタービジネス(Column) データセンター事業の発達とセキュリティ対策
 No.20 医療 医療機関・医療機器のサイバーセキュリティ
 No.21 モビリティ 自動車のサイバーセキュリティ保安基準と自動運転に関する諸論点
 No.22 空・海のインフラ(Column) 航空・船舶とサイバーセキュリティの諸論点
第3部 応用・複合分野  
 No.23 クラウド クラウドサービスのセキュリティに関する法令等と実務対応
 No.24 IoT IoT機器のセキュリティ
 No.25 ECサイト クレジットカード情報の取扱いに係る留意点
 No.26 防災 サイバーリスクに備えたBCPの策定
 No.27 AI AI技術の進化と、AIとセキュリティに関する法的課題
 No.28 メタバース メタバースに関する官民の取組とデジタルアイデンティティ
 No.29 宇宙(Column) 宇宙事業の拡大とサイバーセキュリティの重要性
 No.30 Fintech 資金決済法に関する事業者におけるセキュリティ対策
 No.31 DFFT(Column) 国際的なデータ流通の枠組みを日本が主導するために企業に求められる対応
第4部 国際法務  
 No.32 アジア法務 シンガポール、タイ、ベトナム、インドネシアにおけるサイバーセキュリティ法制
 No.33 中国法務 いわゆるデータ三法とサイバーセキュリティ
 No.34 EU 法務 EUにおけるサイバーセキュリティ分野の法規制
 No.35 アメリカ法務 アメリカにおけるサイバーセキュリティ関連法規制
 No.36 イスラエル法務 サイバーセキュリティビジネスのエコシステムとイスラエル法

 

・書籍...

Img_1142

 

みなさん、是非、ご一読を...

ちなみに、アフェリエイトではないです(^^)...

 

 

| | Comments (0)

経済産業省 半導体デバイス工場におけるOTセキュリティガイドライン (2025.10.24)

こんにちは、丸山満彦です。

経済産業省が、半導体デバイス工場におけるOTセキュリティガイドラインを公表しています。

このガイドラインを策定した背景については、


汎用的な組立型の工場向けに「工場システムにおけるサイバー・フィジカル・セキュリティ対策ガイドライン」を策定し公表しているが、半導体デバイス工場は一般的にプロセスオートメーション(PA)型に近い特徴を持った工場であり、工場の規模が大きく、汎用OSを用いた製造装置の台数が多い等の特徴があることから、新たに半導体デバイス工場向けに本ガイドラインを策定した。


ということのようです。

OTと書いている通り、対象はOTとなっています。

半導体デバイス工場向けのガイドラインをつくりたくなる気持ちはわかるのですが、こんなにパターン分けしてガイドラインをつくっているとガイドラインが氾濫してくることになり、(今回のガイドラインは違いますが......)一つの会社でいくつものガイドラインに合わせていかなくてはならなにくなっていくのではないか?

また、多くのガイドラインのメンテナンスも大変なのではないか?

とか、いろいろと考えないといけない点がありそうですね...

そういう意味では、米国のCSFのプロファイルの考え方は参考になるかもですね...

制度を作る前の制度設計ですかね...

 

● 経済産業省

半導体デバイス工場におけるOTセキュリティガイドライン

 

・・[PDF] 半導体デバイス工場におけるOTセキュリティガイドラインVer1.0 

20251029-173236

・・[PDF] 「半導体デバイス工場におけるOTセキュリティガイドライン」概要資料 

20251029-173331

 

英語版もあります...

・・[PDF] OT Security Guidelines for Semiconductor Device Factories

・・[PDF] Summary of "OT Security Guidelines for Semiconductor Device Factories"

 

こちらの関連リンクも参考なります...

 

関連リンク

産業サイバーセキュリティ研究会 ワーキンググループ1 半導体産業サブワーキンググループ

サイバー・フィジカル・セキュリティ対策フレームワーク(CPSF)とその展開

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2025.07.05 米国 NIST CSWP 46 半導体サプライチェーンにおける共謀脅威の分析 (2025.06.30)

・2025.07.05 経済産業省 「半導体デバイス工場におけるOTセキュリティガイドライン(案)」(2025.06.27)

・2025.03.11 米国 NIST IR 8546(初期公開ドラフト)サイバーセキュリティフレームワーク2.0 半導体製造プロファイル (2025.02.27)

・2022.02.24 半導体製造業界:SEMI E187 - ファブ装置のサイバーセキュリティに関する仕様 ・ SEMI E188 - マルウェアフリー機器統合のための仕様

 

| | Comments (0)

2025.10.30

カウンターランサムウェア・イニシアティブ(CRI)会合 (2025.10.27)

こんにちは、丸山満彦です。

ランサムウェアの犯罪に対する国際的な連携は非常に重要ですよね。。。

カウンターランサムウェア・イニシアティブ(CRI)の会合が、今年はシンガポールが開催されたようですね...74カ国が参加しています。昨年より6カ国+世界銀行が増えて、1カ国が減ったようです...

紛争状況にあったり、対立関係にあったりするかもですが、中国、ロシア、北朝鮮、イランなどが加わるのは難しいですかね...

昨年まで米国のホワイトハウスからの報道もあったのですが、今年はありませんね...

日本では内閣官房NCO、外務省、警察庁が参加していますね...

 

International Counter Ransoware Initiative

 

日本からの発表...

● 国家サイバー統括室

・2025.10.27 [PDF] 「カウンターランサムウェア・イニシアティブ会合」への参加について

● 外務省

・2025.10.27 「カウンターランサムウェア・イニシアティブ(CRI)会合」への参加


10月24日、シンガポールにおいて「カウンターランサムウェア・イニシアティブ(CRI)会合」が行われ、ランサムウェアの脅威への対処に関する国際連携について議論が行われました。

  • 本会合は、昨年10月以来、本年で5回目の開催であり、我が国からは、国家サイバー統括室、警察庁及び外務省が参加しました。

  • 会合後に発出されたステアリング・コミッティによる概要文書では、ランサムウェアに対する集団的な強靭性の構築、ランサムウェア攻撃を受けたCRIメンバーの支援、攻撃者とその協力者を追及し活動できる安全な場所を作らせないこと、ランサムウェアのビジネスモデルを支える協力者の利用への対抗、強固な国際的パートナーシップの構築、民間セクターとの緊密な協力、信頼関係を構築し知識交換を容易にするためのCRIメンバー間の情報共有促進、ランサムウェア攻撃の発生場所によらず、サイバー空間における責任ある国家活動を促進し、ランサムウェアの攻撃者を特定した上でその活動を明らかにすることを再確認しました。

  • また、今回、ランサムウェアに対するサプライチェーンのレジリエンスを構築する組織を支援するためのガイダンスが発出され、我が国も参加しました。

  • 我が国としては、引き続き国際社会と緊密に連携し、ランサムウェアの脅威への対処を含め、自由、公正かつ安全なサイバー空間の維持・発展のための取組を進めていきます。

(参考)別添

 「カウンターランサムウェア・イニシアティブ(CRI)会合」への参加(三省庁連名報道発表)(PDF)



・[PDF] GUIDANCE FOR ORGANISATIONS TO BUILD SUPPLY CHAIN RESILIENCE AGAINST RANSOMWARE

20251028-55723

 

 

・[PDF] ランサムウェアに対するサプライチェーンレジリエンスを構築するための組織向けガイダンス

 

GUIDANCE FOR ORGANISATIONS TO BUILD SUPPLY CHAIN RESILIENCE AGAINST RANSOMWARE ランサムウェアに対するサプライチェーンレジリエンスを構築するための組織向けガイダンス
Cover Note/Statement 序文/ステートメント
1. Members of the Counter Ransomware Initiative  and its Private Sector Advisory Panel  are joining together to issue guidance for organisations on building resilience in their supply chains against ransomware threats. 1. カウンターランサムウェア・イニシアティブのメンバー国・機関  及びその民間セクターアドバイザリーパネル  は相互に連携して、ランサムウェアの脅威に対するサプライチェーンのレジリエンスを構築することに関する組織向けガイダンスを発出する。
2. The guidance aims to reduce the likelihood of a ransomware incident having a critical effect on an organisation by: 2. このガイダンスの目的は、組織がランサムウェア・インシデントによって重大な影響を受ける可能性を、以下の方法で低減することである:
a. Raising awareness of the ransomware threat across an organisation’s supply chain a. 組織のサプライチェーン全体でランサムウェアの脅威に対する意識を高める
b. Promoting good cyber hygiene to protect supply chains b. サプライチェーンを保護するための適切なサイバー衛生(サイバーハイジーン)を推進する
c. Ensuring supply chain vulnerabilities are factored into an organisation’s risk assessment and decisions, including on procurement c. サプライチェーンの脆弱性が、組織のリスク評価や意思決定(調達に関するものを含む)に確実に織り込まれるようにする
3. We recommend organisations review the following guidance and consider implementing the recommendations in collaboration with supply chain operators, both existing and future. The aim is to ensure organisations do not leave supply chains vulnerable to ransomware attacks. 3. 各組織は、以下のガイダンスを参照し、既存及び将来のサプライチェーン運用者と協力して、推奨事項の実施を検討することが望ましい。本ガイダンスの目的は、組織がランサムウェア攻撃に対するサプライチェーンの脆弱性を放置しないようにすることである。
4. Being prepared for any incident is key and will help lessen the impact if one happens. In 2024, the CRI, alongside insurance bodies, published guidance for organisations during ransomware incidents . This guidance is designed to build on this 2024 product, being specifically targeted at organisations and their supply chains. 4. あらゆるインシデントに備えておくことが極めて重要であり、発生時の影響を軽減するうえでも有効である。2024 年に CRI は保険団体と連携して、ランサムウェア・インシデント発生時の組織向けガイダンスを発表した  。本ガイダンスはこの2024 年版文書に基づいており、特に組織とそのサプライチェーンを対象としている。
5. This guidance is non-binding in nature and does not override specific laws and regulations, or national level cyber security guidance, that may apply across CRI member jurisdictions. 5. このガイダンスに拘束力はなく、CRI メンバー国・機関の法的管轄下で適用される特定の法令や国レベルのサイバーセキュリティ・ガイダンスに優先するものでもない。
Main Guidance 主なガイダンス
About the ransomware threat ランサムウェアの脅威について
1. Ransomware is a colossal, collective challenge, posing a key threat globally to organisations due to its ability to significantly disrupt business operations and essential services, impacting our daily lives. 1. ランサムウェアは、規模が大きく、国際的な連携を要する課題であり、事業の運営や必要不可欠なサービスに重大な混乱を生じさせて我々の日常生活に影響を与える能力を持っいるので、世界中の組織にとって深刻な脅威となっている。
2. Apart from the disruptive effects of ransomware, the direct costs of a ransomware attack to a victim can be tremendous. IBM’s Cost of a Data Breach Report 2025 estimated that the global average cost of a ransomware attack was USD $4.44m . There are also other significant indirect costs, such as when ransomware actors try to compel victims to pay the ransom by publishing exfiltrated data on data leak websites, resulting in reputational damage or having confidential/personally identifiable information (PII) leaked which could be considered a breach of personal data protection laws. Victims of ransomware can also face secondary or triple extortion threats. 2. ランサムウェアの影響による混乱とは別に、ランサムウェア攻撃の被害者に生じる直接的なコストは莫大なものになる可能性がある。IBMの「2025年データ侵害のコストに関する調査レポート」によると、ランサムウェア攻撃1件の世界平均コストは444万米ドル  4 であった。間接的なコストも大きくなる。例えば、ランサムウェアの実行者が被害者を脅して身代金を支払わせようと試み、盗み出したデータをデータ漏洩ウェブサイトに公開し、結果として風評被害を招いたり、機密情報や個人識別用情報(PII)が流出して個人情報保護法違反とみなされたりする可能性がある。またランサムウェアの被害者は、二次的または三次的な恐喝の脅威に直面する可能性もある。
3. Ransomware threat actors have been observed to target supply chains in a bid to maximise the impact of their operations. By exploiting victims’ suppliers and partners as conduits of a single compromised vendor can serve as an entry point for threat actors to move upstream or downstream in the supply chain. 3. ランサムウェアの実行者は、その作戦の効果を最大化しようとしてサプライチェーンを標的にすることが確認されている。攻撃者は被害者のサプライヤーやパートナーの弱点を悪用し、侵害された1つのベンダーが入口となって、攻撃者がサプライチェーンの上流や下流へ横展開する可能性がある。
4. For example, in June 2024 a cyber criminal group executed a ransomware attack on Synnovis; a pathology supplier to several major NHS Trusts in the UK, which led to substantial disruption across several hospitals. The incident impacted 10,152 acute outpatient appointments and 1,710 elective procedures at the two most affected hospital trusts in the four months after the incident . 4. 例えば 2024 年 6 月、あるサイバー犯罪グループが英国の主要な NHS トラストの病理学サプライヤーである Synnovis 社にランサムウェア攻撃を実行し、複数の病院に大きな混乱をもたらした。このインシデントの被害を最も大きく受けた2つの病院トラストでは、インシデント後 4 か月で 10,152 件の急性期外来予約と 1,710件の選択的手術に影響が及んだ  。
What are supply chain risks? サプライチェーンのリスクとは?
5. There can be cyber security risks that arise from an organisation’s interactions with suppliers. In the context of ransomware, principal risks for suppliers are not being able to deliver a service due to an incident and data loss. 5. 組織とサプライヤー間のやり取りに伴い、サイバーセキュリティリスクが生じる可能性がある。ランサムウェアの観点から見ると、サプライヤーにとっての主なリスクは、インシデントによってサービスが提供不能になること、及びデータの損失である。
6. Wider supply chain risks can arise from: 6. より広範なサプライチェーンリスクが生じる可能性があるのは、次の場合である:
a. Third-Party Services: Managed service providers (MSPs) being compromised to target customers. a. サードパーティのサービス:マネージド・サービス・プロバイダー(MSP)が侵害されると、顧客が標的になる。
b. Interconnected Systems: Organisations may also have interconnected systems or trusted connections with suppliers which provide suppliers with privileged access. Also, an organisation’s system architecture may not be sufficiently safeguarded against risks. b. 相互接続システム:組織によっては、サプライヤーとの間で相互接続されたシステムや信頼された接続が存在し、サプライヤーに特権的なアクセスを与えている場合もある。また、組織のシステムアーキテクチャがリスクに対して十分に保護されていない可能性もある。
c. Privileged data: Organisations may have provided sensitive data to suppliers without adequate controls. c. 特権データ:組織は、適切な管理体制を整備することなく、サプライヤーに機密データを提供している場合がある。
7. These risks can be exacerbated by: 7. このようなリスクは、以下の要因によって増幅する可能性がある:
a. High concentration/dependency risks: Risks may be exacerbated by a heavy/disproportionate dependence on the provision of services from a small number of suppliers, potentially compounding the impact of a ransomware incident. Diversification of supply chains, where appropriate, can mitigate such risks. a. 高い集中度/依存度のリスク:少数のサプライヤーからのサービス提供に対する依存度が高い/不均衡であると、リスクが増幅する可能性があり、ランサムウェア・インシデントの影響が複雑化する可能性がある。状況に応じてサプライチェーンを多様化することで、こうしたリスクを軽減できる。
b. Low visibility of their supply chains: Organisations cannot defend what they are unaware of. b. サプライチェーンの可視性が低い場合:組織は、自分たちが認識できないものを守ることはできない。
c. Inadequate assurance mechanisms: Organisations that do not check their suppliers’ security accreditations, both at point of contract and throughout the life of the contract, risk unsecure supply chains. c. 不十分な保証メカニズム:契約時及び契約期間を通じてサプライヤーのセキュリティ適格性を検査しない組織は、安全でないサプライチェーンのリスクを負うことになる。
Approach to Supply Chain Security サプライチェーン・セキュリティへの取り組み 
8. This guidance sets out principles to help organisations develop an approach to improve their supply chain security posture against ransomware risks: 8. このガイダンスでは、組織がランサムウェアのリスクに対応し、サプライチェーン・セキュリティ態勢を改善する方針を策定する際の指針となる原則を示す:
Step 1 – Understand why supply chain security is important (“why”) ステップ1:サプライチェーンのセキュリティが重要である理由を理解する(「なぜ?」)
a. In a global digital economy, businesses are more reliant than ever on supply chains to operate. Such interdependence has also made supply chains a prime target for cyber attackers. For this reason, it is important for organisations to secure their supply chains to prevent disruption, safeguard sensitive information, and maintain operational efficiency. Ensuring robust cyber security is built into supply chains, particularly through contractual requirements, will reduce the vulnerability of individual organisations and interconnected supply chains and mitigate risks to critical infrastructure and other important systems. a. グローバルなデジタル経済において、企業の事業運営はこれまで以上にサプライチェーンに依存している。このような相互依存関係により、サプライチェーンはサイバー攻撃者の格好の標的にもなっている。このため、組織が業務の混乱を防ぎ、機密情報を保護し、業務効率を維持するには、サプライチェーンを保護することが重要である。特に契約上の要件を通じて、サプライチェーンに強固なサイバーセキュリティを確実に組み込むようにすると、個々の組織や相互接続されたサプライチェーンの脆弱性を減らし、重要インフラやその他の重要なシステムに対するリスクを軽減することができる。  
Step 2 - Identify your key supply chain partners and their levels of access (“who”) ステップ2:主要なサプライチェーン・パートナーとそのアクセスレベルを特定する(「誰が?」)
a. Develop an inventory of your suppliers to understand the sensitivity and/or value of the information/assets they will be holding as part of a contract, and assess their: a. サプライヤーの一覧を作成し、契約の一環として当該サプライヤーが保有することになる情報/資産の機密性と価値を理解し、サプライヤーについて以下の評価を行う: 
• Cyber security maturity (e.g. presence of multi-factor authentication, patch management, backup practices, certifications) • サイバーセキュリティの成熟度(多要素認証、パッチ管理、バックアップの慣行、認定などの有無)
• History of data breaches • 過去のデータ漏洩
• Use of subcontractors • 下請業者の利用
• Incident response and recovery plans • インシデント対応/復旧計画
• Insurance arrangements • 保険契約
b. You should map out the networks and systems which your suppliers have access to or have privileged roles. This allows you to have better situational awareness of the digital terrain in which you are operating in and can facilitate faster incident containment and recovery. b. サプライヤーがアクセスできる、あるいは特権的な役割を持つネットワークやシステムについて詳しく把握する必要がある。これにより、自らの組織が置かれているデジタル環境の状況認識が向上し、インシデントの封じ込めと復旧を迅速に行うことができる。
Step 3 - Develop a strategy and implementation plan for supply chain security (“what”) ステップ3:サプライチェーン・セキュリティの戦略と実施計画を策定する(「何を?」)
a. It is vital to think about the level of protection you need suppliers to give to your assets and information, as well as the products or services they will deliver to you as part of a contract. a. 契約の一環としてサプライヤーが提供する製品やサービスだけでなく、自社の資産や情報について、サプライヤーに求めるべき保護レベルを明確にしておくことが極めて重要である。
(I) Select suppliers based on the necessary cyber security controls commensurate to the risk levels of the activities they are participating in. (I) サプライヤーが関与する業務活動のリスクレベルに応じて、必要なサイバーセキュリティ管理を踏まえ、サプライヤーを選定する。
a. Based on your assessment of your procurement options, choose suppliers that have the necessary cyber security controls in line with the risks associated with the activities they will be undertaking. a. 調達オプションに関する貴組織の評価に基づき、サプライヤーが実施することになる業務活動に伴うリスクに見合った、必要なサイバーセキュリティ管理体制を有するサプライヤーを選択する。
b. You can consider taking a risk-based approach to supply chain security, where there are more stringent expectations on supply chain partners participating in higherrisk activities, whilst those participating in lower-risk activities may be able to proceed with lower levels of cyber hygiene. b. サプライチェーン・セキュリティにリスクベースの手法を採用することを検討できる。具体的には、リスクの高い活動に関与するサプライチェーン・パートナーにはより厳格な管理を求める一方、リスクの低い活動に関与するパートナーには、比較的緩やかなサイバー衛生レベルで活動を進められる場合もある。
c. Analysis of the attack vectors often found in ransomware attacks shows that five controls consistently implemented across an organisation’s system will significantly reduce the risk of a successful cyberattack. They are: c. ランサムウェア攻撃によく見られる攻撃ベクトルを分析した結果、組織のシステム全体に以下の5つの管理策を一貫して導入すると、サイバー攻撃成功のリスクを大幅に低減できることが分かっている。すなわち、
• Network segmentation and protection (e.g. firewalls), • ネットワークの細分化と保護(ファイアウォールなど)
• Secure configuration (e.g. removing unused software), • 安全な構成設定(使用されていないソフトウェアの削除など)
• Security update management (e.g. regularly patching and updating all software and systems), • セキュリティ更新管理(例:すべてのソフトウェアとシステムに定期的にパッチを当て、更新する)
• User access control (e.g. multi-factor authentication [MFA]) and, • ユーザーアクセス制御(多要素認証 [MFA] など)
• Malware protection (e.g. anti-virus, endpoint detection and response tools). • マルウェア対策(アンチウイルス、エンドポイント検出・対応ツールなど)
d. These are considered the minimum needed to achieve basic cyber hygiene, and is supported by academic research, insurance data and case examples. Additionally, backing up essential data and storing them separately from the production environment supports impacted organisations in their recovery. d. これらは基本的なサイバー衛生を達成するうえで最低限必要なものと考えられており、学術研究、保険データ、さまざまな事例によって裏付けられている。  さらに、重要なデータをバックアップし、本番環境とは別にそれを保管すると、組織が影響を受けた場合の復旧に役立つ。
e. For example, although not directly equivalent, the UK’s Cyber Essentials and Singapore’s Cyber Essentials schemes, Cyber Fundamentals Framework, and Germany’s Top 10 Ransomware measures, can provide assurance to customers that suppliers have implemented fundamental technical controls. e. 例えば、(直接的に同等ではないが)英国の Cyber Essentials スキーム、シンガポールの Cyber Essentials スキーム、CyberFundamentals フレームワーク、ドイツのトップ 10 ランサムウェア対策は、サプライヤーが基本的な技術的管理を実施済みであることを顧客に対して担保する手段となり得る。
f. For higher-risk activities, the cyber security posture of suppliers should go beyond cyber hygiene and adopt higher standards commensurate to their risks. Examples of national standards that adopt a risk-based approach include Singapore’s Cyber Trust, which is tiered with 5 levels. Additionally, there are also international standards and processes such as ISO/IEC 27001. f. よりリスクの高い業務活動に携わるサプライヤーのサイバーセキュリティ態勢は、サイバー衛生を超越して、リスクに見合うより高度な基準を採用するべきである。リスクに基づく手法を採用している国家基準の例としては、シンガポールのサイバートラストがあり、5 段階のレベルに分けられている。加えて、ISO/IEC 27001 のような国際標準やプロセスもある。
(II) Communicate Your Security Expectations to Suppliers: (II) セキュリティに関する期待事項をサプライヤーに伝える:
a. Clearly explain your minimum standards regarding ransomware prevention and recovery. a. ランサムウェアの予防と復旧に関する貴組織の最低基準を明確に説明する。
(III) Build Security into Your Contracting Processes (III) 契約締結プロセスにセキュリティを組み込む
a. You can consider: a. 次の事柄を考慮できる:
• Ensuring that all systems which support the delivery of goods and services are resilient against common ransomware vulnerabilities. This can be evidenced by relevant certificates, business recovery plans and confirmation that such plans are exercised at set interval periods.  • 商品やサービスの提供を支えるすべてのシステムが、一般的なランサムウェア脆弱性に対する回復力を備えているという保証。その証拠となり得るものは、関連する証明書、事業復旧計画、及びそのような計画が一定間隔で実施されていることの検証である。
• Right-to-audit provisions • 監査権条項
• Notification obligations for ransomware incidents • ランサムウェア・インシデントの通知義務
• Penalties for non-compliance • コンプライアンス違反に対する罰則
(IV) Gain assurance from the supplier the appropriate measures have been taken. (IV)適切な措置が既に講じられているという保証をサプライヤーから得ること。
a. This can be achieved through independent audits, testing or external accreditation including provided by a national cyber technical authority. a. これを達成する手段としては、独立した監査、テスト、または(国のサイバー技術当局が提供する認定を含む)外部認定が考えられる。
(V) Cyber insurance (V) サイバー保険
a. Cyber insurance can be an important risk management practice. CRI members recognise the important role that cyber insurance can play in helping to build resilience to cyber attacks, including through supporting the companies they insure to improve their protective measures. a. サイバー保険は重要なリスク管理手法となり得る。CRI メンバー国・機関は、サイバー保険が保険契約企業の防御対策の改善を支援することなどを通じて、サイバー攻撃に対するレジリエンスの構築に重要な役割を果たしていることを認識している。
b. Organisations may like to encourage their supply chains to take out a cyber insurance policy and should understand their suppliers’ policy coverage in relation to the data that their suppliers have access to. However, having cyber insurance does not replace the need for organisations to implement cyber hygiene measures to safeguard against ransomware attacks. b. 組織は、サプライチェーンにサイバー保険への加入を奨励できる。また、サプライヤーがアクセスできるデータに関するサプライヤーの保険適用範囲を理解しておく必要がある。しかし、サイバー保険に加入したからといって、組織がランサムウェア攻撃から身を守るためのサイバー衛生対策を実施する必要性に取って代わるわけではない。
Step 4 - Review and refine your approach ステップ4: 取り組みの見直しと改良 
a. Ransomware tactics evolve rapidly—supply chain security need to keep pace. Your organisation, together with your suppliers, can jointly: a. ランサムウェアの手口は急速に進化しており、サプライチェーンのセキュリティもそれに対応し続ける必要がある。組織とそのサプライヤーは共同で、以下を行うことができる:
• Review incidents and near misses for lessons learned • インシデントやニアミスを検証し、教訓を得る
• Regularly exercise response plans • 対応計画を定期的に演習する
• Share threat intelligence and best practices • 脅威インテリジェンスとベストプラクティスを共有する
• Update contracts and policies to reflect new threats • 契約やポリシーを更新して、新たな脅威を反映させる
b. You can also establish a supplier cyber security forum or working group with similar organisations (e.g. within your sector) to drive dialogue and coordination. b. また、(同業種などの)類似する組織とともにサプライヤー・サイバーセキュリティのフォーラムやワーキンググループを設立し、対話と協調を推進することもできる。
Conclusion 結論
9. No organisation can be fully insulated from supply chain risks, but proactive measures can significantly reduce the likelihood and impact of ransomware incidents. By following these four steps—understand, identify, develop, and review—organisations and their supply chains can build resilience, not just within their own operations, but across their broader ecosystem. 9. いかなる組織もサプライチェーンのリスクから完全に逃れることはできないが、事前の対策を講じることで、ランサムウェア・インシデントの可能性とその影響を大幅に低減できる。組織とそのサプライチェーンは、「理解する」、「特定する」、「策定する」、「見直す」という 4 つのステップを踏むことで、組織自体の業務運営の中だけでなく、より広いエコシステム全体でレジリエンスを構築することができる。

 

 

 

  2022 2023 2024 2025
Albania   1 1 1
Argentina     1 1
Armenia       1
Australia 1 1 1 1
Austria 1 1 1 1
Bahrain     1 1
Belgium 1 1 1 1
Brazil 1 1 1 1
Bulgaria 1 1 1 1
Cameroon     1 1
Canada 1 1 1 1
Chad     1 1
Chile       1
Colombia   1 1 1
Costa Rica   1 1 1
Council of Europe (CE)     1 1
Croatia 1 1 1 1
Cyprus       1
Czech Republic 1 1 1 1
Denmark     1 1
Dominican Republic 1 1 1 1
Economic Community of West African States     1 1
Egypt   1 1 1
Estonia 1 1 1 1
European Union 1 1 1 1
Finland     1 1
France 1 1 1 1
Germany 1 1 1 1
Global Forum for Cyber Expertise (GFCE)     1 1
Greece   1 1 1
Hungary     1 1
India 1 1 1 1
INTERPOL   1 1 1
Ireland 1 1 1 1
Israel 1 1 1 1
Italy 1 1 1 1
Japan 1 1 1 1
Jordan   1 1 1
Kenya 1 1 1 1
Latvia       1
Lithuania 1 1 1 1
Mexico 1 1 1 1
Moldova, Republic of Morocco     1 1
Netherlands 1 1 1 1
New Zealand 1 1 1 1
Nigeria 1 1 1 1
Norway 1 1 1 1
Organization of American States (OAS)     1 1
Papua New Guinea   1 1 1
Philippines     1 1
Poland 1 1 1 1
Portugal 1 1 1 1
Republic of Moldova     1  
Private Sector Advisory Panel       1
Romania 1 1 1 1
Rwanda   1 1 1
Saudi Arabia       1
Sierra Leone   1 1 1
Singapore 1 1 1 1
Slovakia   1 1 1
Slovenia     1 1
South Africa 1 1 1 1
South Korea 1 1 1 1
Spain 1 1 1 1
Sri Lanka     1 1
Sweden 1 1 1 1
Switzerland 1 1 1 1
Ukraine 1 1 1 1
United Arab Emirates 1 1 1 1
United Kingdom 1 1 1 1
United States of America 1 1 1 1
Uruguay   1 1 1
Vanuatu     1 1
Vietnam     1 1
World Bank       1
  38 50 68 74

 

 

 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.10.06 国際ランサムウェア対策イニシアティブ 2024 共同声明 (2024.10.02)

・2023.11.11 国際ランサムウェア対策イニシアティブ 2023 共同声明 (2023.11.01)

・2022.11.03 国際ランサムウェア対策イニシアティブ 2022 共同声明 (2022.11.01)

・2021.11.05 米国 White House 国際的なランサムウェア対策の継続的な取り組みに関する声明

 

 

 

| | Comments (0)

2025.10.29

経済産業省 グローバル・サイバーセキュリティ・ラベリング・イニシアティブ(GCLI)に関して共同声明 (2025.10.23)

こんにちは、丸山満彦です。

経済産業省がシンガポール共和国等の関係国と共に、グローバル・サイバーセキュリティ・ラベリング・イニシアティブ(GCLI)に関する共同声明(以下「本件文書」という。)を、発表していますね...

この共同声明は、IoT製品のサイバーセキュリティ・ラベリング制度推進及び協力の世界的な枠組みの立ち上げを発表するものということですね...

日本はJC-STARというIoT製品のサイバーセキュリティ・ラベリング制度がありますが、これは当初から国際的に連携をすることを想定したいたはずなので、一歩前進ということですね...

共同声明に参加したのは

日本 経済産業省
シンガポール サイバーセキュリティ庁
オーストラリア 連邦内務省、サイバーセキュリティ
ブルネイ サイバーセキュリティ・ブルネイ
カナダ 公安庁
フィンランド共和国 交通・通信庁
ドイツ 連邦情報セキュリティ局
ハンガリー 規制監督庁
大韓民国 科学技術情報通信部、インターネット振興院
アラブ首長国連邦 サイバーセキュリティ評議会
イギリス 科学・イノベーション・技術省

の11カ国。

そういえば、U.S. Cyber Trust Markをしている米国がはいっていませんね...

ドイツとフィンランド、ドイツとシンガポールは相互認証をしているので、日本も加わっていけば形になっていきますね。。。

 

・[PDF]

20251029-54746

JOINT STATEMENT ON THE GLOBAL CYBERSECURITY LABELLING INITIATIVE  グローバルサイバーセキュリティ認証イニシアチブに関する共同声明 
23 October 2025 2025年10月23日
The eleven members of the Global Cybersecurity Labelling Initiative (GCLI) - named participants below - gathered for the inaugural GCLI convening. Members reaffirmed their joint interest to building a more secure and trustworthy digital future.  グローバルサイバーセキュリティ認証イニシアチブ(GCLI)の11の参加機関(下記に列記)は、GCLIの初会合を開催した。参加機関は、より安全で信頼できるデジタル未来を構築するという共通の利益を再確認した。
Our Collective Opportunity  我々の共同の機会
This initiative represents our collective intention to promote a trusted global ecosystem of connected devices, built on harmonised security requirements that protect consumers, support innovation, and strengthen digital resilience across borders. In an era of unprecedented digital connectivity, the security of Internet of Things devices and connected technologies has become fundamental to protecting consumers, businesses, and critical infrastructure globally. The ubiquitous use of connected devices across all sectors of society requires a coordinated international approach.  本イニシアチブは、調和されたセキュリティ要件に基づき、消費者を保護し、イノベーションを支援し、国境を越えたデジタルレジリエンスを強化する、信頼できるグローバルな接続デバイス生態系を促進するという我々の共同の意思を表すものである。前例のないデジタル接続の時代において、IoTデバイス及び接続技術のセキュリティは、世界中の消費者、企業、重要インフラを保護する上で根本的な要素となっている。社会のあらゆる分野における接続デバイスの普及には、国際的な協調的アプローチが必要である。
Through this collaborative effort, we intend to establish a cooperation forum where cybersecurity features become an enabler of the global digital economy. By working together through a multilateral cooperation forum, we can amplify the positive impact of individual national initiatives whilst fostering market incentives for enhanced device security and reducing complexity for manufacturers and consumers.  この共同の取り組みを通じて、サイバーセキュリティ機能がグローバルデジタル経済の推進力となる協力フォーラムの設立を目指す。多国間協力フォーラムを通じた連携により、各国の個別イニシアチブの好影響を増幅させつつ、デバイスセキュリティ強化への市場インセンティブを育み、製造事業者および消費者の負担軽減を図れる。
GLCI highlights the importance of a collective reflection on aligning our approaches to cybersecurity labelling; more specifically on clear, harmonised security requirements that raise baseline cybersecurity hygiene to protect consumers, reduce business costs through streamlined compliance processes, and strengthen resilience of Internet of Things devices against evolving cyber threats while fostering and encouraging innovation and while respecting the national competences and legal frameworks of members.  GLCIは、サイバーセキュリティ表示へのアプローチを調整すること、特に明確で調和されたセキュリティ要件について、集団的な検討の重要性を強調する。これにより、消費者を防御し、コンプライアンスプロセスの合理化を通じて企業のコストを削減し、進化するサイバー脅威に対するIoTデバイスのレジリエンスを強化しつつ、イノベーションを促進・奨励し、加盟国の国家能力と法的枠組みを尊重する基盤となるサイバーセキュリティ衛生基準を引き上げることができる。
Building on Global Momentum  グローバルな勢いを基盤に
The global IoT security landscape demonstrates remarkable momentum, with numerous members actively developing and implementing cybersecurity labelling schemes and/or regulatory frameworks. This widespread commitment to IoT security reflects a shared recognition of its importance and creates a strong foundation for enhanced international cooperation.  世界のIoTセキュリティ環境は目覚ましい勢いを示しており、多くの加盟国がサイバーセキュリティ表示制度や規制枠組みを積極的に開発・実施している。このIoTセキュリティへの広範な取り組みは、その重要性に対する共通認識を反映し、国際協力強化の強力な基盤を築いている。
We recognise an opportunity to harness this collective momentum through a multilateral approach. Whilst bilateral arrangements have provided valuable experience and marked important progress, a multilateral framework offers greater efficiency and scalability to serve the global nature of IoT supply chains and manufacturing.  我々は、多国間アプローチを通じてこの集合的な勢いを活用する機会を認識している。二国間協定は貴重な経験と重要な進展をもたらしたが、多国間枠組みはIoTサプライチェーンと製造のグローバルな性質に対応するため、より高い効率性と拡張性を提供する。
The diversity of approaches currently being developed across jurisdictions presents both opportunities and challenges. By bringing together these varied experiences and expertise, we can consider a common approach on requirements for IoT products that draw upon best practices from different national contexts whilst ensuring manufacturers can navigate cybersecurity compliance more efficiently across multiple markets.  現在各国で開発が進む多様なアプローチは、機会と課題の両方を提示している。これらの多様な経験と専門知識を結集することで、異なる国家状況におけるベストプラクティスを活用しつつ、製造事業者が複数市場でサイバーセキュリティコンプライアンスをより効率的に対応できる、IoT製品要件に関する共通アプローチを検討できる。
Moving Forward  今後の展開
GCLI provides the platform for like-minded members who share our vision of advancing beyond individual national initiatives towards a globally coordinated approach to cybersecurity and IoT device security. Together, we will work to ensure that the benefits of connected technologies can be realised safely and securely by consumers and enterprises globally, supported by a multilateral cooperation forum.  GCLIは、個々の国家イニシアチブを超え、サイバーセキュリティとIoTデバイスセキュリティにおける世界的に調整されたアプローチを推進するという我々のビジョンを共有する志を同じくするメンバーのためのプラットフォームを提供するプロバイダである。多国間協力フォーラムの支援のもと、我々は連携して、接続技術の恩恵が世界中の消費者とエンタープライズによって安全かつ確実に実現されるよう取り組む。
Named Participants  参加機関
• Cyber Security Agency of Singapore, Singapore  • シンガポール・サイバーセキュリティ庁(シンガポール)
• Cyber Security Brunei, Brunei  • ブルネイ・サイバーセキュリティ(ブルネイ)
• Cyber Security Council, United Arab Emirates  • アラブ首長国連邦サイバーセキュリティ評議会(UAE)
• Department for Science, Innovation and Technology, the United Kingdom  • 科学・イノベーション・技術省(英国)
• Department of Home Affairs, Australia  • オーストラリア内務省(オーストラリア)
• Federal Office for Information Security, Germany  • ドイツ連邦情報セキュリティ局
• Finnish Transport and Communications Agency Traficom, Finland  • フィンランド交通・通信庁
• Ministry of Science and ICT and Korea Internet & Security Agency, Republic of Korea  • 大韓民国科学技術情報通信部及びインターネット振興院
• Ministry of Economy, Trade and Industry, Japan  • 日本経済産業省
• Public Safety Canada, Canada  • カナダ公安省
• Supervisory Authority for Regulatory Affairs, Hungary  • ハンガリー規制監督庁

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

 

日本

・2025.05.30 IPA セキュリティ要件適合評価及びラベリング制度(JC-STAR)適合製品の公開 (2025.05.21)

・2025.05.27 経済産業省 「産業サイバーセキュリティ研究会」が「政策の方向性」と「産業界へのメッセージ」を発出(2025.05.23)

・2025.02.06 Five Eyes + チェコ、日本、韓国、オランダ エッジ・デバイスの安全に関する報告書...

・2024.10.01 IPA セキュリティ要件適合評価及びラベリング制度(JC-STAR)のページを開設

・2024.03.17 経済産業省 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会の最終とりまとめを公表し、制度構築方針案に対する意見公募を開始

・2023.05.17 経済産業省 産業サイバーセキュリティ研究会 WG3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会 中間とりまとめ

・2022.11.04 経済産業省 第1回 産業サイバーセキュリティ研究会 ワーキンググループ3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会

 

EU

・2024.10.12 欧州理事会 サイバーレジリエンス法を採択 (2024.10.10)

・2024.03.19 欧州議会 AI法 (2024.03.13) とサイバーレジリエンス法を採択 (2024.03.12)

・2024.02.02 欧州委員会 サイバーセキュリティ認証制度 (EUCC) を採択

・2024.01.17 欧州 欧州議会の投票にかけられるサイバーレジリエンス法案 (Cyber Resilience Act)

・2023.12.04 欧州理事会、欧州議会がサイバーレジリエンス法について政治的合意

・2023.05.31 ENISA 新技術に対応したEUサイバーセキュリティ認証の実現可能性を探る

・2023.03.21 ENISA サイバーセキュリティ認証のウェブページを開設

・2023.03.01 IPA 欧州規格 ETSI EN 303 645 V2.1.1 (2020-06)の翻訳の公開

・2023.02.02 ドイツ スペースネットAG社のサービスにITセキュリティラベルを渡す

・2022.12.15 ドイツ フランス IT製品のセキュリティ認証に関する共同文書を発行 (固定時間制認証制度)

・2022.10.31 ドイツ シンガポール 消費者向けIoT製品のサイバーセキュリティ・ラベルの相互承認 (2022.10.20)

・2022.05.09 ドイツ ITセキュリティラベル for 消費者向けスマート製品

・2022.02.03 ドイツ BSI Mail.deの電子メールサービスにITセキュリティラベルを付与

・2021.07.18 独国 BSIがITセキュリティラベルについてのウェブページを公開していますね。。。

 

米国...

・2025.06.14 米国 大統領令14306 国家のサイバーセキュリティを強化するための厳選された取り組みを維持し、大統領令13694と大統領令14144を改正する (2025.06.06)

・2025.05.16 米国 NIST IR 8259 Rev.1(初期公開ドラフト)IoT製品製造者のための基礎的サイバーセキュリティ活動の5年振りの改訂関係...IR 8572も...(2025.05.13)

・2025.01.10 米国 ホワイトハウス サイバートラストマークを開始...

・2024.12.28 米国 NIST IR 8498 スマートインバーターのサイバーセキュリティ:住宅および小規模商業用ソーラーエネルギーシステムのためのガイドライン(2024.12.20)

・2024.09.14 米国 NIST IR 8425A 一般消費者向けルーター製品に推奨されるサイバーセキュリティ要件 (2024.09.10)

・2024.09.13 米国 FCC IoTのためのサイバーセキュリティ・ラベリングFAQと管理者の申請プロセス (2024.09.10) 

・2024.08.02 米国 FCC IoTのためのサイバーセキュリティ・ラベリング最終規則

・2024.03.20 米国 連邦通信委員会 (FCC) がIoTサイバーセキュリティ表示プログラム(サイバートラストマーク)の規則を採択 (2024.03.14)

・2023.07.19 米国 消費者向けIoT製品のセキュリティ認証制度、サイバートラスト・マーク (U.S. Cyber Trust Mark) を発表

・2022.09.24 NIST NISTIR 8425 消費者向けIoT製品のIoTコアベースラインのプロファイル、NISTIR 8431 「NIST基礎の上に築く:IoTセキュリティの次のステップ」ワークショップ概要報告書

・2022.06.19 NISTIR 8425 (ドラフト) 消費者向けIoT製品のIoTコアベースラインのプロファイル

・2022.02.07 NIST ホワイトペーパー :消費者向けソフトウェアのサイバーセキュリティラベルの推奨規準

・2022.02.06 NIST ホワイトペーパー :消費者向けIoT製品のサイバーセキュリティラベルの推奨規準

・2021.11.04 NIST 消費者向けソフトウェアのサイバーセキュリティに関するラベリングについての意見募集

・2021.09.02 NIST ホワイトペーパー(ドラフト):消費者向けIoTデバイスのベースライン・セキュリティ基準

・2021.08.29 NISTIR 8259B IoT非技術的支援能力コアベースライン

・2021.05.13 米国 国家のサイバーセキュリティ向上に関する大統領令

・2020.12.17 NIST SP 800-213 (Draft) 連邦政府向け「 IoTデバイスサイバーセキュリティ要件の確立」、NISTIR 8259B、8259C、8259D

・2020.05.30 NIST IoT機器製造者向けセキュリティの実践資料 NISTIR 8259 Foundational Cybersecurity Activities for IoT Device Manufacturers, NISTIR 8259A IoT Device Cybersecurity Capability Core Baseline

・2020.02.06 NISTがIoT機器製造者向けセキュリティの実践資料のドラフト(Ver.2)を公開していますね。。。

 

英国...

・2025.06.24 英国 ICO 意見募集 消費者向けIoT製品およびサービスに関するガイダンス (2025.06.16)

・2023.05.04 英国 インターネットに接続するすべての消費者向け製品に適用される最低セキュリティ基準制度が1年後にはじまりますよ〜 (2023.04.29)

・2023.04.25 Five Eyesの国々が安全なスマートシティを作るための共同ガイダンスを発表 (2023.04.20)

・2022.12.11 英国 製品セキュリティおよび電気通信インフラストラクチャ(PSTI)法成立 at 2022.12.06

・2022.01.27 英国 スマートデバイスのサイバーセキュリティ新法に一歩近づくと発表

・2021.12.09 英国 製品セキュリティおよび電気通信インフラストラクチャ(PSTI)法案 at 2021.11.24

 

中国...

・2022.02.15 中国 国家サイバースペース管理局 専門家の解説 ネットワーク重要機器のセキュリティ認証とセキュリティテストによるネットワークセキュリティの基本ディスクの維持

 

| | Comments (0)

国家サイバー統括室 総務省 外務省 経済産業省 第18回日ASEANサイバーセキュリティ政策会議 (2025.10.16)

こんにちは、丸山満彦です。

2025年10月08日に第18回日ASEANサイバーセキュリティ政策会議が東京で開催されていましたね...

議長国は、日本(髙見澤將林 笹川平和財団上席フェロー・東京大学客員教授)とラオス人民民主共和国(カムラ・ソーナラット 技術通信省サイバーセキュリティ局サイバーセキュリティ庁長官)ですね...

髙見澤さんはNISC時代にお世話になりました...

日本からの出席は、NCO、総務省、外務省、経産省...

主な成果として、


ASEAN加盟国、ASEAN事務局及び日本のサイバーセキュリティ政策推進省庁の今後の取組方針を共有しました。また、昨年の政策会議において合意された以下の協力活動の活動成果を共有し、今後の協力活動の更なる推進を確認するとともに、官民含めて今後の日ASEAN間の連携を一層強化することについて合意しました。

  • 日ASEANサイバーセキュリティ政策便覧の策定
  • 重要インフラ防護ワークショップ
  • 産官学連携
  • 共同相互通知
  • 日ASEANサイバー演習
  • 共同意識啓発
  • 能力構築
  • ワーキンググループ運営

となっていますね...次回はタイ...

 

内閣官房 - 国家サイバー統括室

・2025.10.16 [PDF] 第18回「日ASEANサイバーセキュリティ政策会議」の結果

総務省

・2025.10.16 第18回 日ASEANサイバーセキュリティ政策会議の結果

経済産業省

・2025.10.16 第18回日ASEANサイバーセキュリティ政策会議を開催しました

 

 

1_20251029062501

 

 

 

| | Comments (0)

国家サイバー統括室 警察庁 国際文書「最新の防御可能なアーキテクチャのための基礎」への共同署名について (2025.10.23)

こんにちは、丸山満彦です。

国家サイバー統括室と警察庁が、国際文書「最新の防御可能なアーキテクチャのための基礎」への共同署名をしたと発表していますね...

この文書は、オーストラリア通信情報局国家サイバーセキュリティセンターが今年の2月に公表した文書の改訂版?のようです...

策定の目的は

  • 最新の防御可能なアーキテクチャのための基礎は、豪州のインシデント対応やセキュリティテスト実施等の経験等を踏まえ、各組織が、サイバー脅威に対応したシステムの構築、維持、更新、強化のために役に立つアプローチを提供する

ということのようです...

この文書は、

  • 最新の防御可能なアーキテクチャのための基礎
  • 上級意思決定者向けの最新の防御可能なアーキテクチャ
  • 最新の防御可能なアーキテクチャへの投資

と題する3つのガイダンスから構成されていますね...

 

共同署名は、オーストラリア、日本、ドイツ、カナダ、ニュージーランド、韓国、チェコの7カ国でおこなわれたようです...

共同署名した理由は、

  • 各組織におけるサイバー脅威に対応したシステムの構築、維持、更新、強化の促進は、我が国のサイバーセキュリティ環境の向上に資する

ということのようです...

この共同署名の日本にとっての効果はなんなんでしょうね...

ちなみに、共同署名に名前を連ねている日本の機関は国家サイバー統括室、警察庁、JPCERT/CCですね...JPCERT/CCからは公表されていませんが...

あと、Assuranceを保障としてますが、保証ですね...

 

● 国家サイバー統括室

・[PDF] 国際文書「最新の防御可能なアーキテクチャのための基礎」への共同署名について

20251028-62420


1.本件文書の概要

(1)背景・目的

本文書は、豪州のインシデント対応やセキュリティテスト実施等の経験等を踏まえ、各組織が、サイバー脅威に対応したシステムの構築、維持、更新、強化のために役に立つアプローチを提供する。

(2)最新の防御可能なアーキテクチャを導入するための10の原則

・ 一元管理された企業 ID:ID を一元管理することで可視性と正確性を向上させ、ID 侵害の可能性と影響を軽減する。

・ 高い信頼性の認証:強力で信頼性の高い認証方法を使用し、認証の不正利用等を防止する。

・ 文脈に沿った承認:アクセスの認証に際し、ユーザーとシステムとの継続的なやりとり、前後関係や文脈に沿った認証を行うことで、より信頼性のある正確な認証が可能となる。

・ 信頼性ある資産一覧:一元的な資産一覧により、エンドポイント、ネットワーク、アプリケーション、暗号資産、保存データ等の組織が所有する資産の完全かつ包括的な知識を得る。

・ 安全なエンドポイント:検証された強靱なエンドポイントを用いることで、サイバー攻撃の影響を制限する。

・ 制限された攻撃経路:攻撃経路を制限することで、正しい場所における、より質の高い緩和策を講じることが可能になる。

・ 強靭なネットワーク:障害耐性があり、サイバー攻撃に対して強靱で、横展開や縦移動の制限を通じて、データを保護するためのネットワー クを実現する。

・ セキュア・バイ・デザインのソフトウェア:ハードウェア・ソフトウェ アが、セキュリティ第一の原則等を通じて設計等され、プライバシー とデータを保護し、セキュリティの維持を確保する。

・ 包括的な保障と管理:セキュリティ対策について、緩和策とビジネスの 双方の有効性が確保されるよう検証する。

・ 継続的かつ実行可能なモニタリング:リアルタイムで自動化された監 視を通じて、組織の環境等に対する行動を可視化する。


 

● 警察庁

・2025.10.23 国際文書「最新の防御可能なアーキテクチャのための基礎」への共同署名について

・[PDF] 国際文書「最新の防御可能なアーキテクチャのための基礎」への共同署名について

 

 


肝心の原文はこちら

 

Australia Cyber Security Centre

・2025.10.23 Modern defensible architecture

 

10の原則のサマリー...

Summary of the MDA Foundations MDA基盤の概要
Centrally managed enterprise identities 一元管理された企業アイデンティティ
A reduced number of authoritative sources for enterprise identities by using centrally managed solutions. Enhanced visibility and accuracy of identities’ registrations will reduce the likelihood and impact of identity compromise. 一元管理ソリューションにより、企業アイデンティティの権威ある情報源を削減する。アイデンティティ登録の可視性と正確性が向上することで、アイデンティティ侵害の可能性と影響を低減する。
High confidence authentication 高信頼性認証
Strong and trustworthy authentication methods are used for all authentication events. Ensure that authentication events provide non-repudiation and prevent known authentication exploits. Re-authentication or access revocation is triggered when confidence in an entity drops. 全ての認証イベントにおいて強力で信頼性の高い認証手法を採用する。認証イベントが否認防止性を提供し、既知の認証脆弱性を防止することを保証する。エンティティへの信頼性が低下した場合、再認証またはアクセス権限の取り消しをトリガーする。
Contextual authorisation 状況に応じた認可
Authorisation to enterprise resources is initially and continuously validated, using the context of the sessions and resources to gain confidence in the request. High fidelity signals allow for higher confidence levels and more accurate authorisation. 企業リソースへの認可は、セッションとリソースの状況を基に、要求に対する信頼性を獲得するため、初期段階から継続的に検証される。高精度なシグナルにより、より高い信頼レベルと正確な認可が可能となる。
Reliable asset inventory 信頼性の高い資産インベントリ
A centralised repository has a complete and comprehensive knowledge of all endpoints, networks, applications, cryptographic assets and data stores that contain organisational information. Only with full visibility can an organisation truly assess the risks to the assets they own and operate. 中央リポジトリは、組織情報を含む全てのエンドポイント、ネットワーク、アプリケーション、暗号資産、データストアに関する完全かつ包括的な知識を有する。完全な可視性をもって初めて、組織は自らが所有・運用する資産へのリスクを真に評価できる。
Secure endpoints セキュアなエンドポイント
Endpoints are resilient to cyber threats, compliant with organisational policy and continually provide contextual information to inform external systems. Trusting only validated resilient endpoints is key to limiting the impact of any compromise. エンドポイントはサイバー脅威に対する耐性を有し、組織ポリシーに準拠し、外部システムに情報を提供するためのコンテキスト情報を継続的に提供する。検証済みの耐性のあるエンドポイントのみを信頼することが、侵害の影響を制限する鍵である。
Reduced attack surface 攻撃対象領域の縮小
A reduced number of possible attack surfaces that could be exploited. Limiting the avenues of attack allows for higher quality and concentration of mitigations in the correct places. 悪用される可能性のある攻撃対象領域の数を削減する。攻撃経路を制限することで、適切な場所での高品質かつ集中的な対策が可能となる。
Resilient networks 耐障害性ネットワーク
Networks are tolerant to failure, resilient to attacks and protect data through the restriction of lateral (east/west) and vertical (north/south) movement to authorised requests. Protecting business functionality by limiting requests to only those authorised is vital for continued uninterrupted operations. ネットワークは障害に耐性があり、攻撃に対して回復力を持つ。許可された要求に限定して横方向(イースト/ウェスト)および縦方向(ノース/サウス)の移動を制限することでデータを保護する。承認されたリクエストのみに制限することでビジネス機能を保護することは、継続的な業務中断のない運営に不可欠である。
Secure-by-Design 設計段階からのセキュリティ確保
Hardware and software are designed, built, validated, delivered and supported through security-first principles and practices, with known exploitable weaknesses reported and actioned throughout the life cycle of assets. Secure-by-Design’s core value is to protect privacy and data and ensure security is maintained. ハードウェアとソフトウェアは、セキュリティを最優先とする原則と実践に基づき設計、構築、検証、提供、サポートされる。資産のライフサイクル全体を通じて、既知の悪用可能な弱点は報告され、対応が実施される。設計段階からのセキュリティ確保の中核的価値は、プライバシーとデータを保護し、セキュリティが維持されることを保証することにある。
Comprehensive validation and assurance 包括的な検証と保証
Cohesion between business and security objectives is continually validated through assurance activities. Security measures must be validated to ensure their effectiveness as both a mitigation and as to support business functions. 保証活動を通じて、ビジネス目標とセキュリティ目標の整合性が継続的に検証される。セキュリティ対策は、リスク軽減手段としての有効性とビジネス機能支援の両面において、その効果を検証されなければならない。
Continuous and actionable monitoring 継続的かつ実行可能な監視
Real-time automated visibility and response using trusted high-fidelity and quality inputs. Without visibility organisations have less traceability and it will be harder to act when required. 信頼性の高い高精度・高品質な入力データを用いた、リアルタイムの自動可視化と対応。可視性がなければ組織の追跡可能性は低下し、必要な対応が困難になる。

 

・2025.10.23 Modern defensible architecture

・[PDF]

20251028-110438

 

Foundations for modern defensible architecture 現代の防御可能なアーキテクチャの基盤
Introduction はじめに
Document purpose 文書の目的
Audience and scope 対象読者および範囲
What is modern defensible architecture? 現代的な防御可能なアーキテクチャとは何か
Key concepts 主要な概念
Layered architecture and traceability 階層型アーキテクチャとトレーサビリティ
Zero trust and zero trust architecture ゼロトラストとゼロトラストアーキテクチャ
Authorisation model 認可モデル
Confidence signals 信頼性シグナル
Policy enforcement points ポリシー適用ポイント
The MDA Foundations MDAの基盤
Summary of the MDA Foundations MDA基盤の概要
Foundation 1: Centrally managed enterprise identities 基盤1:一元管理された企業アイデンティティ
Foundation 2: High confidence authentication 基盤2:高信頼性認証
Foundation 3: Contextual authorisation 基盤3:コンテキストに基づく認可
Foundation 4: Reliable asset inventory 基盤4:信頼性の高い資産インベントリ
Foundation 5: Secure endpoints 基盤5:セキュアなエンドポイント
Foundation 6: Reduced attack surface 基盤6:攻撃対象領域の縮小
Foundation 7: Resilient networks 基盤7:回復力のあるネットワーク
Foundation 8: Secure-by-Design 基盤8:設計段階からのセキュリティ
Foundation 9: Comprehensive validation and assurance 基盤9:包括的な検証と保証
Foundation 10: Continuous and actionable monitoring 基盤10:継続的かつ実用的な監視
Annex A: Threat context 附属書A:脅威の文脈
Overview 概要
Summary of MITRE ATT&CK tactics alignment MITRE ATT&CK戦術との整合性の概要
Alignment by Foundation 基盤ごとの整合性
Supplementary information 補足情報

 

 

 

・2025.10.23 Modern defensible architecture for senior decision-makers

・[PDF

20251028-110443

 

Modern defensible architecture for senior decision-maker 上級意思決定者向けの現代的な防御可能なアーキテクチャ
Executive summary  エグゼクティブサマリー
Document purpose  文書の目的
Audience and scope  対象読者および範囲
The case for change  変更の必要性
What is security architecture?  セキュリティアーキテクチャとは何か
What is modern defensible architecture?  現代的な防御可能なアーキテクチャとは何か
Foundations for modern defensible architecture  現代的な防御可能なアーキテクチャの基盤
Investing in modern defensible architecture  現代的な防御可能なアーキテクチャへの投資
Enabling a modern defensible architecture  現代的な防御可能なアーキテクチャの実現
Overview  概要
Key factors for senior decision-makers to consider  上級意思決定者が考慮すべき主要要素
Key questions senior decision-makers should raise  上級意思決定者が提起すべき主要な質問
Conclusion 結論
Footnotes 注記

 

 

¥

・2025.10.23 Investing in modern defensible architecture

・[PDF

20251028-110447

 

Investing in modern defensible architecture 現代の防御可能な建築に投資する
Introduction はじめに
Document purpose ドキュメントの目的
Modern defensible architecture 現代の防御可能なアーキテクチャ
Audience and scope 読者と範囲
Supporting material サポート資料
Develop an MDA investment roadmap MDA投資ロードマップを作成する
Stage 1 – Map organisation strategy to MDA Foundations ステージ1 - 組織戦略とMDA基礎のマッピング
Generational approach 世代別アプローチ
Business objectives ビジネス目標
Security objectives セキュリティ目標
Threats and risks 脅威とリスク
Prioritised MDA Foundations 優先順位を付けたMDA基盤
Stage 2 – Identify people and skills ステージ2 - 人とスキルの特定
Roles and responsibilities 役割と責任
Security personnel セキュリティ要員
Supporting personnel サポート要員
Executives 経営幹部
Employees 従業員
Customers 顧客
Training トレーニング
Stage 3 – Assess technology ステージ3 - 技術の評価
Technology stocktake 技術の棚卸し
Technology life cycles 技術ライフサイクル
New technology 新技術
Procurement 調達
Technology sustainment 技術の維持
Workloads ワークロード
Management and support 管理とサポート
Annex アネックス
Roles for the MDA Foundations MDA基盤の役割

 

 


 

 

 

| | Comments (0)

2025.10.28

オーストラリア AI導入ガイダンス (2025.10.21) と AIポリシーガイドとテンプレート (2025.10.02) など

こんにちは、丸山満彦です。

前者は責任あるAIのガバナンスと導入に不可欠な6つの慣行を定めた者で、AI導入を始める組織のためのものと、ガバナンスや技術の専門家のための導入の実践の2つがありますね...

後者はAI利用に関する社内規定イメージで、前者のリソースの一つという感じですかね...

欧州のみならず世界的にAIを活用しても良い部分とよくない部分の境界がだんだんと明確になっていくような感じがします...私たちは自由にやってもよいのだ!といっても世界的に利用しようとすると行き詰まるわけで、世界的なコンセンサスづくりに積極的に関与していくことが重要となっていくのではないかと思います。

結局、個人データの取り扱いについても広く眺めてみれば、概ね欧州のGDPRとほぼ同じルールが世界的にも適用されているわけで(Burussele効果という人もいますが...)、AIについてもそうなっていく可能性が高いように思います。

個人データ保護の時も米国、欧州とあるなかで、日本は第3の道をとったらどうか?という話を堀部先生がしていたような記憶がありますが、経済力も背景とした外交により、それはうまくいかなかったようにも思います。おそらくAIの分野においても欧州のAI法をベースにした(一部緩和される部分もあるとは思いますが)法制度が世界的にも普及していくのかもしれません。。。彼らのEU Valueというのは、譲れない信念なので、これに反するような法制度はつくらないでしょうしね・・・

ところでオーストラリアは英国と近い考え方で、大陸欧州と同じとは言いませんが、近い思想ではありますね...

 

Australia Department of Industry, Science and Resources

・2025.10.21 Guidance for AI Adoption

 

Guidance for AI Adoption AI導入のための指針
On this page このページの内容
Introduction はじめに
Read the guidance 指針を読む
Resources and downloads リソースとダウンロード
More about the guidance 指針の詳細
More information 追加情報
Introduction はじめに
The Guidance for AI Adoption sets out 6 essential practices for responsible AI governance and adoption. 「AI導入のための指針」は、責任あるAIガバナンスと導入のための6つの基本実践を定めている。
We based this guidance on national and international ethics principles. By following this guidance, your organisation will: 本ガイドラインは国内外の倫理原則に基づいて作成された。これを遵守することで、組織は次の成果を得られる:
・build trust with stakeholders ・ステークホルダーとの信頼構築
・get the benefits of AI while managing the risks ・リスク管理を伴うAIの利点獲得
・build public confidence in adopting AI ・AI導入に対する公衆の信頼醸成
・set up a roadmap for navigating a complex governance landscape. ・複雑なガバナンス環境をナビゲートするロードマップ構築
There are 2 versions of the guidance: ガイドラインには2つのバージョンがある:
Foundations,for organisations getting started in adopting AI 基盤編AI導入を開始する組織向け
Implementation practices,for governance professionals and technical experts. 実践編ガバナンス専門家および技術専門家向け
Read the guidance ガイダンスを読む
Guidance for AI Adoption: Foundations AI導入ガイダンス:基礎編
Essential practices to get started in responsible AI governance. 責任あるAIガバナンスを始めるための必須実践事項。
Guidance for AI Adoption: Implementation practices AI導入ガイダンス:実践編
Comprehensive guidance for governance professionals and technical experts. ガバナンス専門家と技術専門家向けの包括的ガイダンス。
Resources and downloads リソースとダウンロード
AI screening tool AIスクリーニングツール
Use this tool to help you decide the level of governance oversight each AI system or use case needs. 各AIシステムやユースケースに必要なガバナンス監視レベルを判断する際に活用するツール。
AI policy guide and template AIポリシーガイドとテンプレート
Organisations who use AI should develop and maintain an AI policy. Use this template as a starting point for your organisation's policy. AIを利用する組織は、AIポリシーを策定・維持すべきだ。このテンプレートを組織のポリシー策定の出発点として活用せよ。
AI register template AI登録簿テンプレート
Use this template to create a register of your organisation's AI tools and systems. このテンプレートを用いて、組織のAIツールとシステムの登録簿を作成せよ。
Terms and definitions 用語と定義
Read a list of key definitions for the Guidance for AI Adoption. 「AI導入ガイダンス」における主要な定義一覧を参照せよ。
More about the guidance ガイダンスの詳細
Our approach 我々のアプローチ
We've taken a human-centred and internationally consistent approach to writing this guidance. 本ガイダンスの作成にあたっては、人間中心かつ国際的に整合性のあるアプローチを採用した。
Mitigating risks and harms リスクと危害の軽減
How following the guidance can help to mitigate AI-specific risks. 本ガイダンスに従うことで、AI特有のリスクを軽減する方法。
The legal landscape 法的環境
Laws that may apply to AI use cases. AIユースケースに適用される可能性のある法律。
How we developed the guidance ガイダンスの開発方法
This guidance, published in October 2025, is the first update of the Voluntary AI Safety Standard. 2025年10月に公表された本ガイダンスは、自主的AI安全基準の初版改訂版である。
VAISS x Implementation practices crosswalk VAISSと実施慣行の対応表
How this guidance has integrated all Voluntary AI Safety Standard practices. 本ガイダンスが自主的AI安全基準の全慣行を統合した方法。
Acknowledgements 謝辞
NAIC would like to acknowledge the work of many people and organisations in developing the guidance. NAICは、本ガイダンス策定に尽力した多くの個人・組織の貢献に感謝する。
More information 詳細情報
Learn more about the National Artificial Intelligence Centre's work 国立人工知能センターの活動について詳しく知る
Read Australia's Artificial Intelligence Ethics Framework オーストラリア人工知能倫理フレームワークを読む
Read the Essential 8 cybersecurity guidelines サイバーセキュリティ基本8原則を読む

 

6つの基本実践...

1. Decide who is accountable  1. 責任の所在を決定する
2. Understand impacts and plan accordingly  2. 影響を理解し、それに応じて計画する
3. Measure and manage risks 3. リスクの測定と管理
4. Share essential information 4. 重要な情報の共有
5. Test and monitor 5. テストと監視
6. Maintain human control 6. 人間による制御を維持する

 

 


 

基礎編...

Guidance for AI Adoption: Foundations

・[PDF]

20251025-102012

 

Guidance for AI Adoption: Foundations AI導入のためのガイダンス:基礎編
On this page このページの内容
Introduction はじめに
How to use the guidance ガイダンスの使い方
Essential practices 必須の実践事項
Downloads ダウンロード
Contact us お問い合わせ
Introduction はじめに
The Guidance for AI Adoption sets out 6 essential practices for responsible AI governance and adoption. 「AI導入のためのガイダンス」は、責任あるAIガバナンスと導入のための6つの必須実践事項を定めている。
There are 2 versions of the guidance. This version, Foundations, is for: 本ガイダンスには2つのバージョンがある。この「基礎編」は以下を対象とする:
・organisations who are starting out in AI adoption and governance ・AI導入とガバナンスを初めて導入する組織
・organisations using AI in low-risk ways ・低リスクな方法でAIを利用する組織
・professionals who are new to AI and AI governance ・AIおよびAIガバナンスに不慣れな専門家
・professionals looking for general guidance on best practice when using AI in business contexts. ・ビジネス環境でAIを活用する際のベストプラクティスに関する一般的な指針を求める専門家
Organisations with mature governance structures, technical development capabilities or high-risk use cases should use the other version of the guidance, Implementation practices. 成熟したガバナンス体制、技術開発能力、または高リスクなユースケースを有する組織は、別バージョンの「実践編」を利用すべきである。
How to use the guidance ガイダンスの活用方法
Get started across all 6 essential practices to establish basic responsible AI governance. Add more actions as your organisation's AI use grows or your governance capabilities mature. 6つの基本実践すべてに取り組み、責任あるAIガバナンスの基盤を確立すること。組織のAI利用拡大やガバナンス能力の成熟に伴い、追加の取り組みを導入すること。
When you're ready for detailed step-by-step instruction on how to implement these practices, refer to Implementation practices. これらの実践を実装する詳細な手順が必要な場合は、「実施実践」を参照すること。
The guidance practices are designed for flexibility. Adopt them in ways that fit your organisation’s specific context, constraints and use cases. ガイダンスの実践は柔軟性を考慮して設計されている。組織固有の状況、制約、ユースケースに適合する形で採用すること。
Important considerations 重要な考慮事項
As you read and adopt the practices, remember: 実践を読み取り採用する際には、以下の点を留意すること:
・some practices apply to your whole organisation (like having an AI policy) ・組織全体に適用される実践(例:AIポリシーの策定)
・some practices apply to each specific AI system in the context that you use it (like performing tests). ・個々のAIシステムの使用状況に応じ適用される実践(例:テストの実施)
The same AI system can present different risks depending on how you use it. For example, using ChatGPT to draft marketing emails presents a different risk to using AI to assess job applications. Each use case needs its own governance checks. 同一のAIシステムでも、使用方法によって異なるリスクを生じ得る。例えば、マーケティングメールの草案作成にChatGPTを使用する場合と、採用応募書類の評価にAIを使用する場合ではリスクが異なる。各ユースケースには固有のガバナンスチェックが必要である。
When an AI system could be used in multiple ways, consider all possible use cases, including ways it might be misused. AIシステムが複数の用途に利用可能な場合、悪用される可能性も含め、あらゆる使用事例を考慮すること。
Remember that documentation is essential. You should document every activity in these essential practices that you carry out. This will let you audit and review your governance when you need to. Good documentation also helps your organisation learn and improve its AI governance over time. 文書化が不可欠であることを忘れるな。これらの必須実践において実施する全活動を文書化すべきだ。これにより、必要時にガバナンスを監査・見直しできる。適切な文書化は、組織がAIガバナンスを継続的に学習・改善する上でも役立つ。
For clarification on specific terms used in this document, you can refer to the terms and definitions. 本文書で使用される特定用語の明確化については、用語と定義を参照できる。
Essential practices 必須実践事項
1. Decide who is accountable 1. 責任の所在を決定する
AI systems can make automated decisions that significantly impact people, communities and businesses. Overall, your organisation is ultimately accountable for how and where AI is used, AI complexity can create gaps where no one takes clear responsibility for outcomes. AIシステムは、個人・コミュニティ・企業に重大な影響を与える自動化された意思決定を行う可能性がある。組織全体として、AIの使用方法と使用場所について最終的な責任を負う。AIの複雑性は、結果に対する明確な責任の所在が不明確になるギャップを生み出す可能性がある。
Accountability is the first step to using AI responsibly. 責任の所在を明確にすることは、AIを責任を持って使用する第一歩である。
Getting started 導入手順
Assign a senior leader as the overall AI governance owner. They should have enough authority and understanding of AI capabilities and risks to oversee all AI use in your organisation. 上級管理職をAIガバナンス全体の責任者として任命する。当該責任者は、組織内の全AI利用を監督する権限と、AIの能力・リスクに関する十分な理解を有している必要がある。
Create an AI policy that sets out how your organisation will use AI responsibly. Ensure that the policy provides advice to your staff on AI risks and how to manage them. Take a look at our AI Policy template to get started. 組織が責任を持ってAIを活用する方法を定めたAIポリシーを作成する。ポリシーには、AIリスクとその管理方法に関する従業員向け指針を明記すること。AIポリシー作成の参考として、当社のテンプレートを参照されたい。
Next steps 次のステップ
Make a specific person accountable for every AI system your organisation uses. Make sure the accountable people are familiar with the technology and understand its business implications. 組織が使用する全てのAIシステムについて、具体的な責任者を割り当てる。責任者は技術に精通し、ビジネスへの影響を理解していること。
Train your accountable people so they can make informed decisions about AI’s risks and behaviours. 責任者がAIのリスクと挙動について情報に基づいた判断ができるよう訓練する。
Clarify supply chain accountabilities. When AI systems involve multiple parties (vendors, developers, integrators etc), make it clear who is responsible for each part of the AI supply chain. This will let you know who to talk to if something in the system goes wrong. サプライチェーンの責任範囲を明確化する。AIシステムに複数の関係者(ベンダー、開発者、インテグレーターなど)が関与する場合、サプライチェーンの各部分における責任者を明確にすること。これにより、システムに問題が発生した際の対応窓口が明確になる。
Turn your AI policy into a governance framework. A comprehensive framework with clear policies and procedures can help your organisation address AI‑specific challenges. AIポリシーをガバナンス枠組みに昇華させる。明確な方針と手順を備えた包括的枠組みは、組織がAI特有の課題に対処する助けとなる。
For further guidance, read Implementation practice 1. 詳細な指針については、実施実践1を参照のこと。
2. Understand impacts and plan accordingly 2. 影響を理解し、それに応じて計画する
Because AI systems can operate at speed and scale, their potential impacts are often magnified. Without careful planning, a single AI system can lead to widespread negative outcomes, such as unfair decisions or the provision of inaccurate information. AIシステムは高速かつ大規模に動作するため、その潜在的影響はしばしば増幅される。慎重な計画なしに、単一のAIシステムが不公平な決定や不正確な情報の提供など、広範な悪影響を招く可能性がある。
For example, AI systems can learn from and amplify existing issues such as unwanted bias in data. This can lead to unfair decisions or inappropriate generated content that could affect many people. If an AI system used for shortlisting in hiring has a bias problem, it could unfairly reject hundreds of qualified candidates before anyone notices. 例えば、AIシステムはデータ内の望ましくない偏りといった既存の問題を学習し増幅させる可能性がある。これにより不公平な決定や不適切な生成コンテンツが生じ、多くの人々に影響を及ぼす恐れがある。採用選考の候補者絞り込みに用いるAIシステムに偏りの問題があれば、誰にも気付かれる前に数百人の適格な候補者を不当に排除する可能性がある。
To use AI responsibly, organisations need to understand, plan for and monitor potential impacts of AI systems. Those affected should be able to raise complaints and get help. AIを責任を持って活用するには、組織はAIシステムの潜在的影響を理解し、計画を立て、監視する必要がある。影響を受ける者は苦情を申し立て支援を得られるべきだ。
Getting started 導入手順
Carry out a stakeholder impact assessment. Identify the groups and types of people your AI systems may affect. Pay particular attention to vulnerable or marginalised cohorts. Assess all potential impacts, such as unfair decisions, providing inaccurate or harmful information, encouraging overreliance, etc. ステークホルダー影響評価を実施する。AIシステムが影響を与え得る集団や人物像を特定する。特に脆弱な立場や周縁化された集団に注意を払う。不公平な決定、不正確・有害な情報の提供、過度の依存の助長など、あらゆる潜在的影響を評価する。
Create contestability channels. Set up channels for people to report problems, challenge or question AI decisions. The strength of those channels should match how serious the impact is. Make sure you can take action to set things right if your AI system has negatively affected someone. 異議申し立ての経路を設ける。人々が問題を報告したり、AIの決定に異議を唱えたり質問したりできる経路を整備する。これらのチャネルの強度は、影響の深刻さに応じて設定すべきだ。AIシステムが誰かに悪影響を与えた場合、是正措置を講じられるようにする。
Next steps 次のステップ
Engage your stakeholders early and continue engaging them throughout the AI lifecycle, especially your staff and customers. Understand their needs, concerns and how they might be affected. Use this knowledge to inform how you design, test and deploy your systems. ステークホルダー、特に従業員と顧客を、AIライフサイクルの初期段階から関与させ、継続的に関与させる。彼らのニーズ、懸念、影響の受け方を理解する。この知見を、システムの設計、テスト、導入方法に反映させる。
Identify systemic unwanted impacts by monitoring patterns of feedback. Use this information to proactively fix systemic issues in your systems. フィードバックのパターンを監視し、システム的な望ましくない影響を特定する。この情報を活用して、システム内の体系的な問題を積極的に修正する。
For further guidance, read Implementation practice 2. 詳細なガイダンスについては、実施手法2を参照のこと。
3. Measure and manage risks 3. リスクの測定と管理
AI risks fundamentally change depending on the type and complexity of your AI systems. Risks often emerge from how the AI system behaves in different situations and use-cases, rather than only from software updates. They can rapidly amplify smaller issues into significant problems. AIリスクは、AIシステムの種類と複雑さに応じて根本的に変化する。リスクは、ソフトウェア更新だけでなく、様々な状況やユースケースにおけるAIシステムの挙動から生じることが多い。小さな問題を急速に拡大させ、重大な問題へと発展させる可能性がある。
For example, an AI chatbot that answers simple questions during business hours, when it can be monitored by a staff member, is a low-risk use of AI. The risks expand, however, if that chatbot operates 24/7, without human oversight, and answers more complex questions. 例えば、業務時間内に簡単な質問に回答するAIチャットボットは、スタッフが監視できるため低リスクなAI利用である。しかし、そのチャットボットが24時間365日稼働し、人間の監視なしに複雑な質問に回答する場合、リスクは拡大する。
To use AI responsibly, organisations need to be able to identify and manage its risks. 責任あるAI利用のためには、組織がそのリスクを特定・管理できる必要がある。
Getting started 導入手順
Create a risk screening process to identify and flag AI systems and use cases that pose unacceptable risk or require additional governance attention. Look at our risk screening template for help with this process. リスクスクリーニングプロセスを構築し、許容できないリスクをもたらす、あるいは追加のガバナンス対応が必要なAIシステムやユースケースを特定・フラグ付けする。このプロセスには当社のリスクスクリーニングテンプレートを活用できる。
Next steps 次のステップ
Set up risk management processes that account for the differences between traditional IT, narrow AI, general purpose AI and agentic AI systems. 従来のITシステム、狭義のAI、汎用AI、エージェント型AIシステムの差異を考慮したリスク管理プロセスを確立する。
Conduct risk assessments and create mitigation plans for each specific use case and identified impacts in that context. 各具体的なユースケースと、その文脈で特定された影響に対してリスク評価を実施し、軽減策を策定する。
Apply risk controls based on the level of risk for each of your specific uses of AI. AIの具体的な利用ごとに、リスクレベルに応じたリスク管理策を適用する。
Create processes to investigate, document and analyse AI-related incidents. Make sure you use lessons learned to prevent incidents happening again and to improve AI systems and risk management processes. AI関連のインシデントを調査・文書化・分析するプロセスを構築する。得られた教訓を活用し、インシデントの再発防止とAIシステム・リスク管理プロセスの改善を図る。
For further guidance, read Implementation practice 3. 詳細なガイダンスは「実施実践3」を参照のこと。
4. Share essential information 4. 重要な情報の共有
To use AI responsibly, organisations need to tell users and stakeholders when and how they’re interacting with AI. AIを責任を持って利用するには、組織はユーザーや関係者に、いつ・どのようにAIとやり取りしているかを伝える必要がある。
People should know when they’re interacting with AI and understand when AI decisions affect them. For example, when a customer is receiving services and information from a chatbot, they should know this is not a human specialist. 人々はAIとやり取りしていることを認識し、AIの判断が自身に影響を与えるタイミングを理解すべきだ。例えば顧客がチャットボットからサービスや情報を受け取る場合、それが人間の専門家ではないことを知る必要がある。
Getting started 導入手順
Create and maintain an AI register. This should document all your AI systems, how you use them, and any other important information about them. Your documentation should include any AI system, whether you developed it internally or procured it from elsewhere. It should also cover AI that might be embedded in other systems, like human resources and customer engagement tools. Look at our AI register template for help with this process. AI登録簿を作成・維持する。これには全てのAIシステム、その使用方法、その他の重要情報を記載すべきだ。文書化対象は、自社開発か外部調達かを問わず全てのAIシステムを含む。人事管理ツールや顧客エンゲージメントツールなど、他のシステムに組み込まれたAIも対象とする。このプロセスにはAI登録テンプレートを参照のこと。
Disclose your use of AI. Make it standard practice in your organisation to clearly communicate your use of AI to your stakeholders. This is especially important in situations where AI makes or influences decisions, generates content that can meaningfully impact people, or can be mistaken for a human being. AIの使用を開示する。組織内で、ステークホルダーに対しAIの使用を明確に伝えることを標準的な慣行とする。これは特に、AIが意思決定を行う/影響を与える場合、人々に重大な影響を与え得るコンテンツを生成する場合、あるいは人間と誤認される可能性がある場合に重要である。
Next steps 次のステップ
Identify, document and communicate AI system capabilities and limitations. Explaining these capabilities and limitations to relevant stakeholders can prevent their overreliance on or misuse of AI. AIシステムの能力と限界を特定し、文書化し、伝達する。これらの能力と限界を関係者に説明することで、AIへの過度の依存や誤用を防ぐことができる。
Be transparent across your AI supply chain. This will let anyone who interacts with the system understand what components they are using, their capabilities and limitations, and key characteristics like training data sources. AIサプライチェーン全体で透明性を確保する。これにより、システムを利用するすべての関係者が、使用しているコンポーネント、その能力と限界、およびトレーニングデータソースなどの主要な特性を理解できるようになる。
Set up ways to explain AI outcomes, especially when they affect people. The detail in your explanation should match how serious the outcome is, and it should be easy for people who are affected to understand. AIの結果を説明する方法を確立する。特に、それが人々に影響を与える場合には重要である。説明の詳細度は結果の重大さに応じ、影響を受ける者が容易に理解できる形でなければならない。
For further guidance, read Implementation practice 4. 詳細な指針については、実施手法4を参照のこと。
5. Test and monitor 5. テストと監視
AI systems can change their behaviour over time or act in ways that are less predictable than conventional software. For example, an AI system that worked well last month might start giving different answers today if it is trained on additional data. AIシステムは時間の経過とともに動作が変化したり、従来型ソフトウェアより予測困難な挙動を示すことがある。例えば、先月は正常に動作したAIシステムでも、追加データで訓練されると今日から異なる回答を出し始める可能性がある。
To use AI safely, organisations should test and monitor their AI systems. AIを安全に利用するには、組織はAIシステムをテストし監視すべきだ。
Getting started 導入の手順
Ask for proof. If you’re buying an AI system, ask the developer or supplier to show proof that it’s been properly tested. 証明を求める。AIシステムを購入する場合、開発者や供給者に適切なテスト実施の証明を提示させる。
Test before you deploy a system. Consider how you want to use your AI system. Decide how you might test the system to ensure it is performing how you want it to, and conduct them. システム導入前にテストする。AIシステムの活用方法を検討する。システムが意図した通りに動作することを確認するためのテスト方法を決定し、実施する。
Monitor your system after you deploy it. Set up a monitoring process that helps you detect changes in performance and behaviour. Match your monitoring approach to the risk levels identified in your risk assessment. Watch for new risks that were not present when you first deployed the system. システム導入後は監視を継続せよ。性能や動作の変化を検知できる監視プロセスを設定する。リスク評価で特定したリスクレベルに応じた監視手法を採用せよ。システム導入時には存在しなかった新たなリスクに注意を払う。
Extend your data governance and cybersecurity practices to your AI systems. Strengthen these practices to address AI-specific needs, like protecting AI models that learned from sensitive data. データガバナンスとサイバーセキュリティ対策はAIシステムにも適用せよ。機密データから学習したAIモデルを保護するなど、AI特有の要件に対応するため、これらの対策を強化する。
Next steps 次のステップ
Stress-test your AI system to spot issues or vulnerabilities before others do. Make sure safety, security and policy controls are sound, even when someone deliberately tries to break or bypass them. AIシステムにストレステストを実施し、他社に先駆けて問題や脆弱性を発見せよ。安全対策、セキュリティ対策、ポリシー管理が、意図的な破壊や回避行為があっても確実に機能することを確認せよ。
Consider getting independent testing. If your AI use case was identified needing additional governance attention, consider getting a third party to test your AI systems. This testing should happen before you deploy the system, after significant changes and on a regular basis. 独立したテストの実施を検討せよ。AIユースケースに追加のガバナンス対応が必要と特定された場合、第三者にAIシステムのテストを依頼することを検討せよ。このテストはシステム導入前、大幅な変更後、そして定期的に実施すべきである。
For further guidance, read Implementation practice 5. 詳細なガイダンスについては、実装プラクティス5を参照せよ。
6. Maintain human control 6. 人間による制御を維持する
Unlike traditional software that follows explicit instructions, AI systems learn patterns from data and make their own opaque decision logic. This means they need human oversight to make sure they operate safely. For example, while regular software does exactly what you program it to do, AI might interpret your instructions differently than you intended. 明示的な指示に従う従来型ソフトウェアとは異なり、AIシステムはデータからパターンを学習し、独自の不透明な意思決定ロジックを構築する。これは安全な運用を確保するため、人間の監視が必要であることを意味する。例えば、通常のソフトウェアはプログラム通りに動作するが、AIは意図とは異なる方法で指示を解釈する可能性がある。
To responsibly use AI, organisations need to make sure a human appropriately oversees any AI systems in use. The person overseeing your AI systems should know how to do so appropriately, and what they need to do to override the system if something goes wrong. AIを責任を持って利用するには、組織は運用中のAIシステムを人間が適切に監視することを保証しなければならない。AIシステムを監督する者は、適切な監督方法と、問題発生時にシステムをオーバーライドする手順を理解している必要がある。
Getting started 導入手順
Ensure meaningful human oversight. Make sure a person oversees your AI system in a way that matches how much autonomy the system has, and how high the stakes are. This could mean automated monitoring for low-stakes applications, and mandatory human review for high-stakes decisions. 意味のある人間の監督を確保せよ。システムの自律性レベルと影響度に応じた監督体制を整えること。影響度の低い用途では自動監視を、重大な意思決定では人間の必須レビューを適用する。
Build in human override points. Make sure you have clear intervention points where humans can pause, override, roll back or shut down AI systems if needed. 人間の介入ポイントを組み込む。必要に応じて人間がAIシステムを一時停止、上書き、ロールバック、または停止できる明確な介入ポイントを確保する。
Next steps 次のステップ
Provide training to people overseeing AI systems. Make sure anyone using or overseeing your AI can understand each system’s capabilities, limitations and failure points, and when to intervene. AIシステムを監督する人材にトレーニングを提供する。AIを使用または監督する全員が、各システムの能力、限界、故障点、および介入すべきタイミングを理解できるようにする。
Maintain alternative pathways. Make sure that all of your organisation’s critical functions can continue even if your AI systems malfunction or are being retired. 代替経路を維持する。AIシステムが故障したり廃止されたりしても、組織のすべての重要機能が継続できるようにする。
For further guidance, read Implementation practice 6. 詳細なガイダンスについては、実施実践6を参照のこと。

 

 


 

実践編...

Guidance for AI Adoption: Implementation practices

・[PDF]

20251025-102017

 

 

Guidance for AI Adoption: Implementation practices AI導入のためのガイダンス:実践編
On this page このページの内容
Introduction はじめに
1. Decide who is accountable 1. 責任の所在を明確にする
2. Understand impacts and plan accordingly 2. 影響を理解し、それに応じて計画する
3. Measure and manage risks: implement AI-specific risk management 3. リスクを測定・管理する:AIに特化したリスク管理を実施する
4. Share essential information 4. 重要な情報を共有する
5. Test and monitor 5. テストと監視
6. Maintain human control 6. 人間による制御を維持する
Download a copy of the guidance ダウンロード
Contact us お問い合わせ
Introduction はじめに
The Guidance for AI Adoption sets out 6 essential practices for responsible AI governance and adoption. 「AI導入のためのガイダンス」は、責任あるAIガバナンスと導入のための6つの必須実践を定めている。
There are 2 versions of the guidance. This version, Implementation practices, is for: 本ガイダンスには2つのバージョンがある。本バージョン「実装実践」は以下を対象とする:
・organisations who are developing AI models or systems, or using them in multiple ways ・AIモデルやシステムを開発中、または多様な方法で利用中の組織
・organisations operating in high-risk or sensitive environments ・高リスクまたは機密性の高い環境で活動する組織
・governance professionals ・ガバナンス専門家
・professionals with technical AI expertise ・AI技術専門知識を有する専門家
・professionals looking to align with best-practice AI governance. ・ベストプラクティスに基づくAIガバナンスの整合を目指す専門家
Organisations just starting out in AI adoption and professionals who are new to AI and AI governance should use the use the other version of the guidance, Foundations. AI導入を始めたばかりの組織や、AI・AIガバナンスに不慣れな専門家は、別のバージョンである「基礎編」を使用すべきである。
How to use this guidance 本ガイダンスの使用方法
This guidance applies to both developers and deployers of AI systems. Where practices are particularly relevant to either developers or deployers, this is marked with a corresponding (DEP) or (DEV). 本ガイダンスは、AIシステムの開発者と運用者の双方に適用される。実践事項が開発者または運用者のいずれかに特に関連する場合には、対応する(DEP)または(DEV)で明示されている。
Find all the definitions for this guidance in the terms and definitions. 本ガイダンスの全定義は「用語と定義」で確認できる。
1. Decide who is accountable 1. 責任の所在を明確にする
AI systems can make automated decisions that significantly impact people, communities and businesses. Overall, your organisation is ultimately accountable for how and where AI is used, AI complexity can create gaps where no one takes clear responsibility for outcomes. AIシステムは、個人・コミュニティ・企業に重大な影響を与える自動化された意思決定を行う可能性がある。組織全体として、AIの使用方法と使用場所について最終的な責任を負うが、AIの複雑さゆえに結果に対する明確な責任の所在が不明確になる場合がある。
Accountability is the first step to using AI responsibly. 責任あるAI利用の第一歩は、責任の所在を明確にすることである。
1.1 Accountable people 1.1 責任を負う者
Understanding your role in the supply chain and identifying clear roles for how AI is governed, developed and deployed in the organisation supports accountability and effective oversight. サプライチェーンにおける自身の役割を理解し、組織内でAIがどのように統治・開発・展開されるかについて明確な役割を特定することは、説明責任と効果的な監督を支える。
1.1.1 To ensure AI systems perform as required and obligations are met, assign, document and clearly communicate who is accountable across the organisation (including contractors and third‑party providers/systems) for the operation of the AI management system, including: 1.1.1 AIシステムが要求通りに動作し義務が履行されるよう、組織全体(請負業者や第三者の提供者/システムを含む)において、以下のAI管理システムの運用について誰が責任を負うかを割り当て、文書化し、明確に伝達すること:
・safe and responsible policies, practices and procedures ・安全かつ責任ある方針、慣行、手順
・the development and deployment of every AI system, including ongoing human control and oversight ・継続的な人的管理・監督を含む、あらゆるAIシステムの開発と導入
・oversight of the development and use of AI systems by third parties ・第三者によるAIシステムの開発・利用の監督
・testing of AI systems across the organisation ・組織全体でのAIシステムのテスト
・oversight of concerns, challenges and requests for redress ・懸念事項、課題、是正要求の監督
・the performance and continual improvement of the AI management system. ・AI管理システムの運用と継続的改善
1.1.2 For each accountable person, define and communicate the required competencies and their authority. Ensure they are staffed with appropriately skilled people and have the necessary resources. 1.1.2 各責任者に対し、必要な能力と権限を定義し伝達する。適切なスキルを持つ人材を配置し、必要なリソースを確保する。
1.2 Supply chain accountabilities 1.2 サプライチェーンにおける責任範囲
Understanding your role in the AI supply chain and identifying which parties are responsible for maintaining the performance, safety and integrity of AI systems throughout their lifecycle is key to effective accountability. AIサプライチェーンにおける自社の役割を理解し、AIシステムのライフサイクル全体を通じて性能・安全性・完全性を維持する責任主体を特定することが、効果的な責任分担の鍵である。
1.2.1 Identify, document and communicate accountability for shared responsibility across the AI supply chain (model developers, system developers and system deployers) for: 1.2.1 AIサプライチェーン全体(モデル開発者、システム開発者、システム導入者)における共有責任の責任範囲を特定し、文書化し、伝達する。対象は以下の通りである:
・monitoring and evaluation of model and system performance, quality and safety ・モデル及びシステムの性能、品質、安全性の監視と評価
・human oversight and intervention ・人間の監視と介入
・processes to raise issues, faults, failures incidents, contested outcomes, issue resolution and system updates. ・問題、故障、障害、インシデント、争議のある結果、問題解決、システム更新を報告するプロセス
1.2.2 Clearly document and communicate the accountability and obligations that developers have towards downstream organisations when integrating, customising, enhancing developer provided AI models or systems. This includes transparency of AI model and system risks, expected behaviours, outcomes under expected use cases and changes to the model or system, paying particular attention to any specific contractual obligations, which could vary by customer (DEV). 1.2.2 開発者が提供するAIモデルやシステムを統合・カスタマイズ・強化する下流組織に対する開発者の説明責任と義務を明確に文書化し、伝達する。これにはAIモデル・システムのリスク、想定動作、想定使用ケースにおける結果、モデル・システム変更に関する透明性を含み、顧客ごとに異なる可能性のある特定の契約上の義務に特に注意を払う(DEV)。
1.3 AI literacy and training 1.3 AIリテラシーとトレーニング
Delivering effective training in AI across the organisation can build confidence, support AI adoption and ensure accountable people have the right capabilities to perform their roles. 組織全体で効果的なAIトレーニングを実施することは、信頼性を構築し、AI導入を支援し、責任ある担当者が役割を遂行するための適切な能力を確保する。
1.3.1 Evaluate and document the training needed to build broad AI understanding and a culture of accountability across the organisation. Source or deliver training to bridge any identified gaps. Regularly check skills are up‑to‑date as AI development and deployment evolves. 1.3.1 組織全体で幅広いAI理解と説明責任の文化を構築するために必要なトレーニングを評価し文書化する。特定されたギャップを埋めるためのトレーニングを調達または提供する。AIの開発と展開が進化するにつれ、スキルが最新であることを定期的に確認する。
1.3.2. Evaluate the training needs of accountable people and provide appropriate up‑to‑date training to address gaps, such as those responsible for: 1.3.2 責任ある立場にある者の研修ニーズを評価し、以下の責任を負う者など、ギャップを解消するための適切な最新研修を提供する:
・meeting legal and regulatory obligations ・法的・規制上の義務の遵守
・handling personally identifiable information ・個人識別情報の取り扱い
・operation, control, intervention or termination of each AI system ・各AIシステムの運用、制御、介入、停止
・oversight and monitoring of each AI system ・各AIシステムの監視・管理
・procurement, development or deployment of third‑party AI systems ・第三者AIシステムの調達、開発、導入
・safe and responsible development of AI systems (DEV). ・AIシステムの安全かつ責任ある開発(開発部門)。
1.4 AI governance framework 1.4 AIガバナンスの枠組み
Implementing policies, processes and an overall management system for the development and deployment of AI across the organisation is fundamental to effective and responsible governance of AI. 組織全体におけるAIの開発と導入のためのポリシー、プロセス、および総合的な管理システムを実施することは、効果的かつ責任あるAIガバナンスの基本である。
1.4.1 Document and communicate: 1.4.1 以下の事項を文書化し、周知する:
・the organisation’s strategic intent to develop and deploy AI systems in line with organisational strategy and values ・組織の戦略と価値観に沿ったAIシステムの開発・導入に関する組織の戦略的意図
・the regulations relevant to the development and deployment of AI systems and how the organisation will comply ・AIシステムの開発・導入に関連する規制及び組織の遵守方法
・appropriately detailed policies, processes and goals for the safe and responsible development and deployment of AI systems which align to the strategy, including: ・戦略に沿った、安全かつ責任あるAIシステムの開発・導入のための適切に詳細化された方針、プロセス及び目標。これには以下を含む:
・・an end‑to‑end process for AI system design and development (DEV) ・・AIシステム設計・開発のためのエンドツーエンドプロセス (DEV)
・・goals for AI systems to meet organisational policies for the safe and responsible use of AI ・・AIシステムの目標:AIの安全かつ責任ある利用に関する組織の方針を満たすこと
・・the consequences for people who act outside of the organisation’s policies and defined risk appetite. ・・組織の方針および定義されたリスク許容度を超えて行動する者に対する結果。
1.4.2 Ensure effective operation of the AI management system by: 1.4.2 AI管理システムの有効な運用を確保するため、以下の措置を講じる:
・documenting and implementing a process to proactively identify deficiencies in the AI management system. This includes instances of non‑compliance in AI systems or in their development or deployment, documenting root causes, corrective action and revisions to the AI management system. ・AI管理システムの不備を積極的に特定するプロセスを文書化し実施する。これには、AIシステムまたはその開発・導入における不適合事例、根本原因の文書化、是正措置、AI管理システムの改訂が含まれる。
・appropriately planning changes to the AI management system ・AI管理システムへの変更を適切に計画する
・identifying and documenting the internal and external factors (such as infrastructure or the deployment context) that may affect the organisation’s ability to meet its responsibilities through the overarching AI management system ・包括的なAI管理システムを通じて組織が責任を果たす能力に影響を与え得る内部・外部要因(インフラや導入環境など)を特定し文書化する
・providing sufficient resources such as human effort and compute to deploy AI systems safely and responsibly over the lifecycle. ・AIシステムをライフサイクルを通じて安全かつ責任を持って導入するために、人的リソースや計算リソースなどの十分な資源を提供する。
1.4.3 Monitor compliance with organisational policies to identify and address any gaps between leadership expectations and staff understanding of how to develop and deploy AI safely and responsibly. 1.4.3 組織方針への遵守状況を監視し、リーダーシップの期待と、AIを安全かつ責任を持って開発・展開する方法に関するスタッフの理解との間のギャップを特定し、対処する。
2. Understand impacts and plan accordingly 2. 影響を理解し、それに応じて計画する
Because AI systems can operate at speed and scale, their potential impacts are often magnified. Without careful planning, a single AI system can lead to widespread negative outcomes, such as unfair decisions or the provision of inaccurate information. AIシステムは高速かつ大規模に動作するため、その潜在的な影響はしばしば増幅される。慎重な計画なしに、単一のAIシステムが不公平な決定や不正確な情報の提供など、広範な悪影響を招く可能性がある。
For example, AI systems can learn from and amplify existing issues such as unwanted bias in data. This can lead to unfair decisions or inappropriate generated content that could affect many people. If an AI system used for shortlisting in hiring has a bias problem, it could unfairly reject hundreds of qualified candidates before anyone notices. 例えば、AIシステムはデータ内の望ましくないバイアスといった既存の問題を学習し増幅させる可能性がある。これにより不公平な決定や不適切な生成コンテンツが生じ、多くの人々に影響を及ぼしうる。採用選考の候補者絞り込みに用いるAIシステムにバイアス問題があれば、誰にも気付かれる前に数百人の適格な候補者を不当に排除する恐れがある。
To use AI responsibly, organisations need to understand, plan for and monitor potential impacts of AI systems. Those affected should be able to raise complaints and get help. AIを責任を持って活用するには、組織はAIシステムの潜在的影響を理解し、計画を立て、監視する必要がある。影響を受ける者は苦情を申し立て支援を得られるべきである。
2.1 Identify and engage stakeholders 2.1 ステークホルダーの特定と関与
Engaging potentially impacted stakeholders is an important way to identify and understand the impacts of AI systems. 影響を受ける可能性のあるステークホルダーと関わることは、AIシステムの影響を特定し理解する重要な方法である。
2.1.1 Identify and document key types of stakeholders (such as employees and end users) that may be impacted by the organisation’s development and deployment of AI, and their needs. 2.1.1 組織のAI開発・導入によって影響を受ける可能性のある主要なステークホルダー(従業員やエンドユーザーなど)とそのニーズを特定し文書化する。
2.1.2 Prioritise, select and document which stakeholder needs will be addressed in organisational policies and procedures. 2.1.2 組織の方針や手順で対応するステークホルダーのニーズを優先順位付けし、選択し、文書化する。
2.1.3 Document and communicate the organisation’s commitment to preventing harms to people from AI models and systems and upholding diversity, inclusion and fairness. 2.1.3 AIモデルやシステムによる人への危害防止、多様性・包摂性・公平性の維持に対する組織の取り組みを文書化し、周知する。
2.1.4 Document the scope for each AI system, including intended use cases, foreseeable misuse, capabilities, limitations and expected context. 2.1.4 各AIシステムの適用範囲(想定用途、予見可能な誤用、機能、制限、想定される使用環境を含む)を文書化する。
2.1.5 For each AI system, engage stakeholders to identify and document the potential benefits and harms to different types of stakeholders, including: 2.1.5 各AIシステムについて、ステークホルダーと協力し、以下の潜在的な利益と危害を特定・文書化する。対象ステークホルダーの種類には以下が含まれる:
・impacts to vulnerable groups ・脆弱なグループへの影響
・risks of unwanted bias or discriminatory outputs ・望ましくないバイアスや差別的出力のリスク
・use of an individual’s personal information ・個人の個人情報利用
・where the system makes or influences a decision about a person or group of people. ・システムが個人または集団に関する決定を行う、または影響を与える場合
2.1.6 For every documented risk of harm to affected stakeholders, conduct appropriate stakeholder impact analysis. 2.1.6 影響を受けるステークホルダーへの危害リスクが文書化された場合は、適切なステークホルダー影響分析を実施する。
2.1.7 Monitor for potential harms by engaging affected stakeholders for each AI system on an ongoing basis to identify new stakeholders, including end users throughout the AI lifecycle. 2.1.7 AIシステムの全ライフサイクルを通じ、影響を受けるステークホルダー(エンドユーザーを含む新たなステークホルダーの特定を含む)を継続的に関与させ、潜在的な危害を監視する。
2.1.8 Create processes to support ongoing engagement with stakeholders about their experience of AI systems. Identify vulnerable groups and support appropriately. Equip stakeholders with the skills and tools necessary to give meaningful feedback. 2.1.8 AIシステムに関するステークホルダーの体験について、継続的な関与を支援するプロセスを構築する。脆弱なグループを特定し、適切に支援する。ステークホルダーが有意義なフィードバックを提供するために必要なスキルとツールを装備させる。
2.2 Establish feedback and redress processes 2.2 フィードバックと救済プロセスの確立
Establishing processes for people affected by AI systems to give feedback, ask questions, and challenge decisions easily and safely can ensure issues are identified and resolved. AIシステムの影響を受ける人々が、容易かつ安全にフィードバックを提供し、質問し、決定に異議を申し立てられるプロセスを確立することで、問題の特定と解決が保証される。
2.2.1 Create, document and communicate a process for: 2.2.1 以下のプロセスを作成、文書化し、周知する:
・Potentially affected stakeholders to raise concerns, challenges, or requests for remediation and receive responses (for example, a human rights grievance and remediation mechanism). This includes when and how frequently to communicate, the level of detail to provide and the communication needs of stakeholders, considering the level of AI knowledge and any regulatory requirements. ・影響を受ける可能性のあるステークホルダーが懸念事項、異議、是正措置の要求を提起し、回答を受け取るためのプロセス(例:人権苦情処理・是正メカニズム)。これには、AIの知識レベルや規制要件を考慮した、連絡の頻度・方法、提供すべき詳細度、ステークホルダーのコミュニケーションニーズが含まれる。
・Evaluation of contestability requirements of both internal and external stakeholders and interested parties including accessibility needs. ・内部・外部のステークホルダーおよび利害関係者(アクセシビリティのニーズを含む)の異議申立要件の評価。
2.2.2 Implement and document system‑level mechanisms to enable contestability of AI use and decisions, enabling stakeholders to understand, challenge and appeal AI use and decisions. These mechanisms must be accessible, understandable and available to users at the appropriate time during interaction with an AI system. Consider mechanisms to share information regarding end user contests and any redress with deployers of AI systems and models (DEV). 2.2.2 AIの使用と決定に対する異議申立を可能にするシステムレベルの仕組みを実施・文書化する。これによりステークホルダーはAIの使用と決定を理解し、異議を申し立て、上訴できる。これらの仕組みは、AIシステムとのやり取り中に適切なタイミングで、利用者がアクセス可能、理解可能、利用可能な状態でなければならない。エンドユーザーの異議申し立てや救済措置に関する情報を、AIシステム・モデルの開発者(DEV)と共有する仕組みを検討する。
2.2.3 Implement and document mechanisms to enable deployers to escalate feedback, report unexpected behaviours, performance concerns or realised harms and support improvements to models or systems (DEV). 2.2.3 開発者がフィードバックをエスカレートし、予期せぬ動作、性能上の懸念、または発生した被害を報告し、モデルやシステムの改善を支援できる仕組みを実施し、文書化する(DEV)。
2.2.4 Ensure people who monitor and review affected stakeholder feedback can trigger recourse and redress processes where there is an obligation to do so. 2.2.4 影響を受けるステークホルダーのフィードバックを監視・審査する担当者は、義務がある場合に救済・是正プロセスを発動できることを保証する。
2.3 Monitor for systemic issues 2.3 システム的問題の監視
Ongoing monitoring of stakeholder feedback and redress processes can ensure that systemic issues are identified and addressed. ステークホルダーのフィードバックと救済プロセスを継続的に監視することで、システム的問題を特定・対処できる。
2.3.1 Monitor and evaluate contestability and redress processes to identify and address systemic risks as well as improve effectiveness of these processes. 2.3.1 異議申立・救済プロセスを監視・評価し、システム的リスクを特定・対処するとともに、これらのプロセスの有効性を向上させる。
2.3.2 Create, document and communicate a process to review and evaluate stakeholder contests of AI system use across the organisation including any concerns raised by affected stakeholders and requests for information. 2.3.2 組織全体におけるAIシステム利用に関するステークホルダーの異議申し立て(影響を受けたステークホルダーからの懸念事項や情報開示請求を含む)を審査・評価するプロセスを策定し、文書化し、周知する。
3. Measure and manage risks: implement AI-specific risk management 3. リスクの測定と管理:AI特化型リスク管理の実施
AI risks fundamentally change depending on the type and complexity of your AI systems. Risks often emerge from how the AI system behaves in different situations and use-cases, rather than only from software updates. They can rapidly amplify smaller issues into significant problems. AIリスクは、AIシステムの種類や複雑性によって根本的に変化する。リスクは、ソフトウェア更新だけでなく、AIシステムが様々な状況やユースケースでどのように振る舞うかから生じる場合が多い。それらは小さな問題を急速に拡大させ、重大な問題へと発展させる可能性がある。
For example, an AI chatbot that answers simple questions during business hours, when it can be monitored by a staff member, is a low-risk use of AI. The risks expand, however, if that chatbot operates 24/7, without human oversight, and answers more complex questions. 例えば、業務時間中に簡単な質問に回答するAIチャットボットは、スタッフが監視できるため、リスクの低いAI利用である。しかし、そのチャットボットが24時間365日稼働し、人間の監視なしに、より複雑な質問に回答する場合、リスクは拡大する。
To use AI responsibly, organisations need to be able to identify and manage its risks. AIを責任を持って活用するには、組織はそのリスクを特定し管理できる必要がある。
3.1 Establish a fit-for-purpose risk management framework 3.1 目的に適合したリスク管理フレームワークの構築
An effective risk management framework supports organisations to identify and manage the risks of using AI, set clear rules about what risks are acceptable, and regularly check how AI systems are working over the lifecycle. 効果的なリスク管理フレームワークは、組織がAI利用のリスクを特定・管理し、許容可能なリスクに関する明確なルールを設定し、AIシステムのライフサイクル全体にわたる動作を定期的に確認することを支援する。
3.1.1 Create and document: 3.1.1 以下の作成と文書化
・a risk management framework that addresses the specific characteristics and risks of AI systems ・AIシステムの特性とリスクに対応したリスク管理フレームワーク
・organisational‑level risk tolerance and criteria to determine acceptable / unacceptable risks for the development and deployment of AI systems. This should include the significance and likelihood of potential harms to affected stakeholders in line with the AI policy and objectives. ・AIシステムの開発・導入における許容リスク/非許容リスクを判断するための組織レベルのリスク許容度と基準。これには、AI方針と目標に沿った、影響を受けるステークホルダーへの潜在的な危害の重大性と発生可能性を含めるべきである。
・AI impact assessment, risk assessment and risk treatment processes, including criteria for reassessment over the lifecycle of an AI system. Identify and document any specific use cases or qualities of AI systems that represent an unacceptable risk to stakeholders or the organisation, in line with the organisation’s risk tolerance. ・AIシステムライフサイクルにおける再評価基準を含む、AI影響評価、リスク評価、リスク対応プロセス。組織のリスク許容度に基づき、ステークホルダーや組織にとって許容できないリスクをもたらすAIシステムの特定ユースケースや特性を特定し文書化する。
3.1.2 Ensure that risk management processes include steps to identify, assess and treat risks arising from other parties in the AI supply chain, such as third‑party developers and third party deployers. Specific risks relating to open‑source AI models, systems and components should be considered by both providers and consumers of these technologies. 3.1.2 リスク管理プロセスには、サードパーティ開発者やサードパーティ導入者など、AIサプライチェーン内の他者から生じるリスクを特定・評価・対応する手順を含めること。オープンソースAIモデル・システム・コンポーネントに関連する特定リスクは、これらの技術の提供者と利用者の双方が考慮すべきである。
3.1.3 Adopt or develop clear and consistent reporting formats, such as data sheets, model cards, or system cards, to communicate appropriate risk management outcomes, including residual risks, to relevant stakeholders (DEV). 3.1.3 データシート、モデルカード、システムカードなど、明確かつ一貫性のある報告形式を採用または開発し、残存リスクを含む適切なリスク管理の結果を関連する利害関係者に伝達する(開発)。
3.2 Assess AI system risks 3.2 AIシステムのリスク評価
Using proportionate, robust methods to assess AI system risks is a key part of the operation of the risk management framework. AIシステムのリスクを評価するための比例的で堅牢な手法の使用は、リスク管理フレームワークの運用における重要な要素である。
3.2.1 Establish a triage system to determine which AI systems may pose an enhanced or unacceptable risk, aligned to the organisation’s context and risk tolerance (see Foundations Triage template). 3.2.1 組織の状況とリスク許容度に合わせて、強化されたリスクまたは許容できないリスクをもたらす可能性のあるAIシステムを特定するためのトリアージシステムを確立する(基礎トリアージテンプレート参照)。
3.2.2 Perform and document a risk assessment and evaluation for the specific requirements, characteristics and documented use cases of each AI system, including systems developed or procured from third party suppliers. 3.2.2 第三者サプライヤーから開発または調達したシステムを含め、各AIシステムの特定の要件、特性、文書化されたユースケースについて、リスク評価と評価を実施し、文書化する。
3.2.3 In undertaking AI system risk assessments, take the following steps to evaluate the likelihood and consequence of each risk as well as the consequence of not deploying the AI system: 3.2.3 AIシステムリスク評価を実施する際には、以下の手順で各リスクの発生確率と影響度、ならびにAIシステムを導入しない場合の影響度を評価する:
・Identify potential severity and likelihood of harms to stakeholders, drawing on the Stakeholder Impact Assessment (see 2.1.1 – 2.1.6). ・ステークホルダーへの潜在的な危害の深刻度と発生確率を特定する。この際、ステークホルダー影響評価(2.1.1~2.1.6参照)を活用する。
・Identify legal, commercial and reputational risks such as failing to meet legal obligations, organisational commitments to ESG, diversity, inclusion and accessibility or programs supporting diversity, equity and fairness. ・法的義務、ESGへの組織的コミットメント、多様性・包摂性・アクセシビリティ、あるいは多様性・公平性・公正性を支援するプログラムへの不履行など、法的・商業的・評判リスクを特定する。
・Consider the potential amplified and emerging data governance risks across each phase of the AI system lifecycle including before and after model training. ・モデル訓練前後の各フェーズを含む、AIシステムライフサイクル全体における増幅・新興データガバナンスリスクの可能性を考慮する。
・Analyse risks systemically using risk models to identify the sources and pathways through which AI systems could produce the identified risks. ・リスクモデルを用いて体系的に分析し、特定されたリスクをAIシステムが生み出す可能性のある発生源と経路を特定する。
・Compare the estimated value or level of identified risks to pre‑determined organisational risk criteria (see 3.1.1) or those defined by regulatory bodies or stakeholders. ・特定されたリスクの推定値またはレベルを、事前に定められた組織のリスク基準(3.1.1 参照)または規制機関やステークホルダーが定義した基準と比較する。
・Document any specific use cases or qualities that represent an unacceptable level of risk to stakeholders or the organisation. ・ステークホルダーや組織にとって許容できないリスクレベルを示す特定のユースケースや特性を文書化する。
・Communicate risk assessments in clear reporting formats to relevant stakeholders. ・リスク評価結果を明確な報告形式で関連ステークホルダーに伝達する。
3.3 Implement controls for AI system risks 3.3 AIシステムリスクに対する統制の実施
Where risks are identified, risk treatment plans make it clear how risks will be mitigated. リスクが特定された場合、リスク対応計画によりリスク軽減方法を明確化する。
3.3.1 Create, document and implement a risk treatment plan to prioritise, select and implement treatment options (e.g. risk avoidance, transfer, acceptance, reduction) and controls to mitigate identified risks. Reassess risks after controls are implemented to verify their effectiveness. 3.3.1 特定されたリスクを軽減するため、対応策(例:リスク回避、移転、受容、低減)および統制を優先順位付け・選定・実施するリスク対応計画を作成、文書化、実施する。統制実施後はリスクを再評価し、その有効性を確認する。
3.3.2 Communicate risk treatment plans in clear reporting formats to relevant stakeholders. 3.3.2 リスク対応計画を明確な報告形式で関係者に伝達する。
3.3.3 Create and document a deployment plan which includes the response, recovery and communications for the realization of residual risks. 3.3.3 残存リスク発生時の対応、復旧、連絡手順を含む展開計画を作成し文書化する。
3.3.4 Research, document and implement leading practices in safety measures as safeguards, as appropriate for identified risks (DEV). 3.3.4 特定されたリスクに応じて、安全対策のベストプラクティスを調査、文書化し、保護手段として実施する(開発部門)。
3.4 Monitor and report incidents 3.4 インシデントの監視と報告
Reporting incidents when they happen and communicating the steps you’ve taken is essential to build trust with stakeholders and meet regulatory obligations. インシデント発生時の報告と対応措置の伝達は、ステークホルダーとの信頼構築と規制義務の履行に不可欠である。
3.4.1 Track, document and report relevant information about serious incidents and possible corrective measures to relevant regulators and/or the public in a reasonable timeframe. Reporting near‑misses and corrective measures is good practice. Communication of corrective measures should consider privacy and cybersecurity risks. 3.4.1 重大なインシデントに関する情報と可能な是正措置を、合理的な期間内に追跡・文書化し、関連規制当局および/または公衆に報告する。ニアミスと是正措置の報告は良い慣行である。是正措置の伝達では、プライバシーとサイバーセキュリティリスクを考慮すべきである。
3.4.2 Create and document a process to evaluate and fulfil reporting and disclosure obligations such as those under the Online Safety Act relevant to AI systems usage, including documentation of safety measures implemented such as notices and incident reporting. 3.4.2 AIシステム利用に関連するオンライン安全法などの報告・開示義務を評価・履行するプロセスを作成・文書化する。これには通知やインシデント報告などの実施済み安全対策の文書化を含む。
3.4.3 Conform to and document data breach reporting requirements and liabilities from related standards. For example, under the Notifiable Data Breaches scheme of the Office of the Australian Information Commissioner. 3.4.3 関連規格に基づくデータ侵害報告要件と責任を順守し文書化する。例:オーストラリア情報コミッショナー事務局の「報告義務のあるデータ侵害」スキーム。
3.4.4 Maintain two‑way communication between developers and deployers for incident reporting, sharing performance insights and coordinating responses to identified issues. 3.4.4 インシデント報告、パフォーマンス情報の共有、特定された問題への対応調整のため、開発者と運用者間の双方向コミュニケーションを維持する。
3.4.5 Monitor and evaluate risk assessments and treatment plans on a regular, periodic basis or when a significant change to the use case or the system occurs, or new risks are identified. This includes responding to impact assessments or insufficient risk treatment plans. 3.4.5 リスク評価と対応計画を、定期的またはユースケース・システムに重大な変更が生じた時、新たなリスクが特定された時に監視・評価する。これには影響評価への対応や不十分なリスク対応計画への対応も含まれる。
3.4.6 Monitor and evaluate the overall effectiveness of risk management processes and continually improve them. 3.4.6 リスク管理プロセスの全体的な有効性を監視・評価し、継続的に改善する。
4. Share essential information 4. 重要な情報の共有
People should know when they’re interacting with AI and understand when AI decisions affect them. For example, when a customer is receiving services and guidance from a chatbot, they should know this is not a human specialist. 人は、AIとやり取りしていることを認識し、AIの判断が自身に影響を与える状況を理解すべきだ。例えば、顧客がチャットボットからサービスやガイダンスを受けている場合、それが人間の専門家ではないことを知る必要がある。
To use AI responsibly, organisations need to tell users and stakeholders when and how they’re interacting with AI. 責任あるAI利用のためには、組織はユーザーや関係者に、いつ、どのようにAIとやり取りしているかを伝える必要がある。
4.1 Maintain an AI register 4.1 AI登録簿の維持
An AI register is a central place that records important details about all of the AI systems across the organisation. AI登録簿とは、組織全体のすべてのAIシステムに関する重要な詳細を記録する一元的な場所である。
4.1.1 Create and maintain an up‑to‑date, organisation‑wide inventory of each AI model and system, with sufficient detail to inform key stakeholders and support future conformance assessments, including: 4.1.1 組織全体で各AIモデル・システムの最新のインベントリを作成・維持する。主要な利害関係者に情報を提供し、将来の適合性評価を支援するのに十分な詳細を含める。具体的には:
・accountable people ・責任者
・purpose and business goals ・目的と事業目標
・capabilities and limitations of the AI model and/or system ・AIモデル・システムの能力と限界
・origin, fine‑tuning and updates where applicable ・適用される場合の起源、微調整、更新
・technical requirements and components ・技術要件と構成要素
・datasets and their provenance used for training and testing ・トレーニングとテストに使用されたデータセットとその出所
・acceptance criteria and test results ・受け入れ基準とテスト結果
・any impact and risk assessments and outcomes ・影響・リスク評価とその結果
・identified risks, potential impacts and the risk treatment plan ・特定されたリスク、潜在的影響、リスク対応計画
・any system audit requirements and outcomes ・システム監査要件とその結果
・dates of review. ・レビュー実施日
See the AI register template for additional guidance. 詳細はAI登録テンプレートを参照のこと。
4.2 AI system transparency and explainability 4.2 AIシステムの透明性と説明可能性
Clearly communicating when and how AI is being developed or deployed by the organisation and explaining the impacts to users and stakeholders is important to build accountability and trust. 組織がAIを開発・導入する時期と方法を明確に伝達し、ユーザーやステークホルダーへの影響を説明することは、説明責任と信頼構築に重要である。
4.2.1 Create, document, implement and communicate a policy and process for how to transparently communicate: 4.2.1 以下の事項を透明性をもって伝達するためのポリシーとプロセスを作成、文書化、実施、および伝達する。
・to AI users, and affected stakeholders that engage directly with AI systems, AI‑enabled decisions or AI‑generated content about when and how they will be informed about AI development, deployment and use in the organisation. ・AIユーザーおよびAIシステム、AIを活用した意思決定、AI生成コンテンツと直接関わる影響を受けるステークホルダーに対し、組織におけるAIの開発、導入、使用についていつ、どのように通知されるかを伝えること。
・the capabilities, limitations and potential risks of the AI systems that users and affected stakeholders may engage with. This should include when and how frequently to communicate, the level of detail and the level of AI knowledge of AI users and affected stakeholders. It should also address communication obligations and the accessibility needs of AI users and affected stakeholders and incorporate feedback mechanisms where appropriate. ・ユーザーや影響を受けるステークホルダーが関与する可能性のあるAIシステムの能力、限界、潜在的なリスクについて。これには、いつ、どの頻度で伝えるか、詳細度、AIユーザーや影響を受けるステークホルダーのAI知識レベルを含めるべきである。また、AIユーザーや影響を受けるステークホルダーのコミュニケーション義務やアクセシビリティのニーズにも対処し、適切な場合にはフィードバックメカニズムを組み込むべきである。
4.2.2 For each AI system, evaluate and document: 4.2.2 各AIシステムについて、以下を評価し文書化する:
・the transparency requirements for each user and affected stakeholder group (see 2.1.1 and 2.2.1) ・各ユーザー及び影響を受けるステークホルダーグループに対する透明性要件(2.1.1及び2.2.1参照)
・the transparency and explainability system requirements and measures – including for third‑party ‑provided systems – dependent on use case, stakeholder requirements and risks arising from disclosure. ・ユースケース、ステークホルダー要件、開示に伴うリスクに応じた透明性及び説明可能性のシステム要件と対策(第三者提供システムを含む)
・how accessibility obligations and commitments are met by implementing human‑centered design. ・人間中心設計の実施によるアクセシビリティ義務及び約束の達成方法
4.2.3 Create, document and implement organisational processes and transparency mechanisms proportionate to the risks arising from the diverse, evolving, and alternative uses of GPAI beyond predefined applications, including their potential for unexpected and hard‑to‑explain behaviours. (GPAI DEV/DEP). 4.2.3 事前定義された用途を超えた、多様で進化するGPAIの代替利用から生じるリスク(予期せぬ説明困難な動作の可能性を含む)に見合った組織プロセスと透明性メカニズムを作成・文書化・実施すること(GPAI開発/導入)。
4.2.4 Wherever possible choose more interpretable and explainable systems. 4.2.4 可能な限り、解釈可能で説明性の高いシステムを選択すること。
4.2.5 Wherever possible, provide reasonably interpretable and explainable AI systems and models to accountable people within the organisation or downstream deployers to enable them to meet their own regulatory obligations (DEV). 4.2.5 可能な限り、組織内の説明責任を負う者または下流の展開者に、合理的に解釈可能かつ説明可能なAIシステムとモデルを提供し、彼らが自らの規制義務を履行できるようにする(開発)。
4.2.6 Conduct internal testing of the AI model and/or system’s capabilities and limitations. Clearly communicate results to deployers prior to deployment. (DEV). 4.2.6 AIモデルおよび/またはシステムの能力と限界について内部テストを実施する。展開前に結果を展開者に明確に伝える(開発)。
4.3 Supply chain transparency 4.3 サプライチェーンの透明性
Developers and deployers need to work together to share information and build mechanisms that can clearly communicate information about AI systems to all parties. 開発者と導入者は協力し、情報を共有し、AIシステムに関する情報を全ての関係者に明確に伝達できる仕組みを構築する必要がある。
4.3.1 Document or request from upstream providers the technical details of the system or model that may be required to meet the needs of users within the organisation or stakeholders. 4.3.1 組織内の利用者やステークホルダーのニーズを満たすために必要となる可能性のある、システムまたはモデルの技術的詳細を文書化するか、上流の供給者から要求すること。
4.3.2 Share as much of the following information as possible about AI models and systems with downstream deployers (while protecting commercially sensitive information and meeting legal compliance) (DEV): 4.3.2 AIモデルおよびシステムに関する以下の情報を、可能な限り下流の展開者に共有すること(ただし、商業的に機密性の高い情報を保護し、法的コンプライアンスを満たすことを条件とする)(開発者向け)。
・Technical details such as model architecture, description of data, components and their characteristics ・モデルアーキテクチャ、データ記述、構成要素とその特性などの技術的詳細
・Test methods, use cases and testing resulting ・テスト方法、ユースケース、テスト結果
・Known limitations, risks and mitigations (such as potential bias and corrective actions) and external audit findings ・既知の制限事項、リスク、緩和策(潜在的なバイアスや是正措置など)および外部監査結果
・Data management processes for training and testing data including data quality, meta data, and provenance ・データ品質、メタデータ、プロバンスを含む、トレーニングおよびテストデータのためのデータ管理プロセス
・Privacy and cybersecurity practices including conformance to standards and best practice ・標準およびベストプラクティスへの準拠を含む、プライバシーおよびサイバーセキュリティ対策
・Transparency mechanisms implemented for AI‑generated content, interactions and decisions ・AI生成コンテンツ、相互作用、意思決定に対して実装された透明性メカニズム
・Document and share the following key information for GPAI systems with downstream organisations, stakeholders, researchers and regulators (GPAI DEV): ・GPAIシステムに関する以下の重要情報を、下流組織、利害関係者、研究者、規制当局と文書化し共有すること(GPAI開発段階):
・・Training data sources and compliance details with relevant privacy, intellectual property and copyright laws ・・トレーニングデータソース及び関連するプライバシー、知的財産権、著作権法への準拠詳細
・・Model cards and system cards, including risk assessment results particularly evaluation of dangerous and emerging capabilities in the deployment and scaffolding context of tool access and agent design. ・・モデルカード及びシステムカード(特に、ツールアクセスとエージェント設計の展開・構築環境における危険かつ新興機能の評価を含むリスク評価結果を含む)
・Restricted and managed access to model weights and other associated artefacts. ・モデル重み付け及び関連アーティファクトへの制限付き管理アクセス
4.3.3 Share as much of the following information as possible about AI systems with upstream developers (while protecting commercially sensitive information and meeting privacy obligations) (DEP) (See also incident reporting 3.4.1 and 3.4.4). 4.3.3 AIシステムに関する以下の情報を可能な限り上流開発者と共有する(商業的に機密性の高い情報を保護し、プライバシー義務を満たすことを条件とする)(DEP)(インシデント報告3.4.1および3.4.4も参照)。
・Issues, faults, failures, incidents and any other observed risks that can be addressed by developers ・開発者が対処可能な問題、不具合、故障、インシデント、その他の観察されたリスク
・Any unexpected and unwanted bias resulting from use of the system. ・システム使用に起因する予期せず望ましくないバイアス
・Ensure you’ve included the required information in contracts with suppliers of systems, including when to update information. ・システム供給業者との契約には、情報の更新時期を含め、必要な情報を必ず記載すること。
4.4 AI-generated content transparency 4.4 AI生成コンテンツの透明性
Being clear about when and how content is AI-generated or modified is important to build trust in digital content with stakeholders. コンテンツがAIによって生成または修正された時期と方法を明確にすることは、ステークホルダーとのデジタルコンテンツへの信頼構築に重要である。
4.4.1 Implement fit‑for‑purpose and proportionate transparency mechanisms for AI generated content as set out in the Being clear about AI‑generated content guidance (forthcoming). 4.4.1 「AI生成コンテンツの明確化に関するガイダンス」(近日公開予定)に定められた通り、AI生成コンテンツに対して目的に適合した比例原則に基づく透明性メカニズムを実施すること。
5. Test and monitor 5. テストと監視
AI systems can change their behaviour over time or act in ways that are less predictable than conventional software. For example, an AI system that worked well last month might start giving different answers today if it is trained on additional data. AIシステムは時間の経過とともに動作が変化したり、従来のソフトウェアよりも予測困難な挙動を示すことがある。例えば、先月は正常に動作していたAIシステムでも、追加データで学習させると今日から異なる回答を出し始める可能性がある。
To use AI safely, organisations should test and monitor their AI systems. AIを安全に利用するためには、組織はAIシステムのテストと監視を行うべきである。
5.1 Pre-deployment testing 5.1 導入前テスト
Conducting testing before an AI system is deployed and documenting the outcomes supports ongoing risk mitigation. AIシステムの導入前にテストを実施し、結果を文書化することは、継続的なリスク軽減を支える。
5.1.1 Establish oversight mechanisms to review and approve testing methodologies and results, and to monitor system performance, user feedback and operational impacts post‑deployment. 5.1.1 テスト手法と結果の審査・承認、および導入後のシステム性能・ユーザーフィードバック・運用影響の監視を行う監督メカニズムを確立する。
5.1.2 Define and communicate clear acceptance criteria and test methodologies that reflect the intended use, context and potential risks (as identified in Essential Practice 3). Conduct predeployment testing. 5.1.2 意図された用途・文脈・潜在リスク(基本実践3で特定されたもの)を反映した明確な受入基準とテスト手法を定義し、伝達する。導入前テストを実施する。
5.1.3 Clearly document tests and outcomes to support external audits and oversight 5.1.3 外部監査と監督を支援するため、テストと結果を明確に文書化する。
5.1.4 When testing is conducted by upstream providers during the development of the AI system and model, request test methodologies and results from the provider and ensure its alignment with your acceptance criteria. 5.1.4 AIシステム及びモデルの開発段階で上流プロバイダーがテストを実施する場合、テスト手法と結果をプロバイダーから要求し、自社の受入基準との整合性を確保する。
5.1.5 Obtain documented deployment authorisation and rationale from the accountable person for the AI system based on test results. 5.1.5 テスト結果に基づき、AIシステムの責任者から文書化された導入承認と根拠を取得する。
5.2 Monitor system performance 5.2 システム性能の監視
Setting performance metrics, closely monitoring and reviewing the performance of AI systems ensures that they operate as intended. 性能指標を設定し、AIシステムの性能を厳密に監視・レビューすることで、意図した通りに動作することを保証する。
5.2.1 Establish monitoring systems for each AI system to track key performance metrics and indicators relevant to the identified risks. 5.2.1 各AIシステムに対し、特定されたリスクに関連する主要なパフォーマンス指標と指標を追跡する監視システムを確立する。
5.2.2 Implement a deployment process for AI systems that maps business targets to system performance metrics for both internal and third‑party developed systems. 5.2.2 社内開発システムおよび第三者開発システムの両方について、ビジネス目標をシステムパフォーマンス指標にマッピングするAIシステムの導入プロセスを実施する。
5.2.3 Establish and document response processes for addressing all foreseeable issues and harms during system operation. 5.2.3 システム運用中に発生する可能性のあるすべての問題と危害に対処するための対応プロセスを確立し、文書化する。
5.2.4 Establish regular system performance review cycles with stakeholders and subject matter experts to evaluate testing criteria, effectiveness and outcomes. 5.2.4 ステークホルダーや専門家と定期的なシステム性能レビューサイクルを確立し、テスト基準・有効性・成果を評価する。
5.2.5 For each AI system, create and document monitoring requirements including human oversight prior to deployment and evaluate as part of continuous improvement cycle. 5.2.5 各AIシステムに対し、導入前の人間による監視を含む監視要件を作成・文書化し、継続的改善サイクルの一環として評価する。
5.3 Conduct additional testing proportionate to risk 5.3 リスクに見合った追加テストの実施
Determine whether AI systems require further safety evaluations, independent testing or auditing which are proportionate to their risks. AIシステムがリスクに見合った追加の安全性評価・独立テスト・監査を必要とするか判断する。
5.3.1 Conduct safety evaluations that scale with model capabilities (GPAI DEV), for example: assessment for cyber‑offensive capabilities and vulnerabilities; testing for potential chemical, biological, radiological and nuclear information risks; evaluation of model behaviours beyond intended use cases; testing for jailbreaking or prompt manipulation; data privacy risks; or comprehensive red teaming to identify vulnerabilities. 5.3.1 モデルの能力に応じた安全評価を実施する(GPAI DEV)。例:サイバー攻撃能力と脆弱性の評価、化学・生物・放射線・核情報リスクの潜在的なテスト、意図された使用事例を超えたモデル行動の評価、脱獄やプロンプト操作のテスト、データプライバシーリスク、脆弱性特定のための包括的なレッドチームング。
5.3.2 For use cases requiring enhanced practices and GPAI systems, conduct independent (internal or external) and thorough review of testing and evaluation methodologies and results. Document and report any issues to the accountable person for the system. 5.3.2 強化された実践とGPAIシステムを必要とするユースケースでは、テストおよび評価方法論と結果について、独立した(内部または外部)徹底的なレビューを実施する。問題を文書化し、システムの責任者に報告する。
5.3.3 Create a process for and determine whether an AI system requires regular auditing, appropriate to the level of risk identified by its risk assessment. Conduct audits when required. 5.3.3 AIシステムが定期的な監査を必要とするかどうかを判断し、そのためのプロセスを確立する。監査はリスク評価で特定されたリスクレベルに応じて適切に行う。必要に応じて監査を実施する。
5.4 Implement robust data and cybersecurity measures 5.4 堅牢なデータおよびサイバーセキュリティ対策を実装する
Effective data governance, privacy and cybersecurity practices are fundamental to supporting the responsible operation of AI systems. 効果的なデータガバナンス、プライバシー、サイバーセキュリティ対策は、AIシステムの責任ある運用を支える基盤である。
5.4.1 Implement and evaluate the effectiveness of policies and procedures in addressing AI‑specific risks and adapt as necessary: 5.4.1 AI固有のリスクに対処する方針と手順を実施し、その有効性を評価し、必要に応じて適応させること:
・Data governance processes covering the use of data with AI models and systems. This includes the management of data usage rights for AI including intellectual property (including copyright), Indigenous Data Sovereignty, privacy, confidentiality and contractual rights. ・AIモデルおよびシステムにおけるデータ利用をカバーするデータガバナンスプロセス。これには、知的財産権(著作権を含む)、先住民データ主権、プライバシー、機密性、契約上の権利を含む、AIのデータ利用権限の管理が含まれる。
・Privacy policies covering the collection, use and disclosure of personal or sensitive information by AI models and systems, including for model training purposes. This needs to support teams to comply with the Australian Privacy Principles for all AI systems. ・AIモデル・システムによる個人情報や機微情報の収集・利用・開示(モデル訓練目的を含む)をカバーするプライバシーポリシー。これは全AIシステムにおいてオーストラリアのプライバシー原則への準拠を支援する必要がある。
・Cybersecurity processes to cover the emerging and amplified risks of AI systems interaction with existing systems and data, such as AI systems unintentionally exposing sensitive information or bypassing security controls. This includes application of the Essential Eight Maturity Model for cybersecurity risks to AI systems. ・AIシステムが既存システムやデータと相互作用する際に生じる新たなリスクや増幅されたリスク(例:AIシステムによる意図しない機微情報の漏洩やセキュリティ制御の回避)をカバーするサイバーセキュリティプロセス。これにはAIシステム向けサイバーセキュリティリスク管理モデル「Essential Eight Maturity Model」の適用が含まれる。
5.4.2 For each AI use case: 5.4.2 各AIユースケースにおいて:
・Define and document the data quality, data/model provenance and data preparation requirements. ・データ品質、データ/モデルの出所、データ準備要件を定義し文書化する。
・Understand and document the data sources and collection processes each AI model / system relies on to function including personal and sensitive data. Put in place systems to manage the data and document the data used to train and test each AI model or systems and data used for inference. ・各AIモデル/システムが機能するために依存するデータソースと収集プロセス(個人情報および機微データを含む)を理解し文書化する。各AIモデルまたはシステムの訓練・テストに使用されたデータ、および推論に使用されたデータを管理するシステムを整備し、文書化する。
・Define and document processes for protecting AI models and systems to address emerging cybersecurity and privacy risks (DEV). ・新たなサイバーセキュリティおよびプライバシーリスクに対処するため、AIモデルおよびシステムを保護するプロセスを定義し文書化する(開発段階)。
・Where appropriate, report to relevant stakeholders on data, model and system provenance. ・適切な場合には、データ、モデル、システムの由来について関連する利害関係者に報告する。
・Document how the Australian Privacy Principles have been applied including in models and systems developed by third parties. ・第三者が開発したモデルやシステムを含め、オーストラリアのプライバシー原則がどのように適用されたかを文書化する。
・Document data usage rights including intellectual property (including copyright), indigenous data sovereignty privacy confidentiality and contractual rights. ・知的財産権(著作権を含む)、先住民データの主権、プライバシー、機密性、契約上の権利を含むデータ使用権を文書化する。
・Monitor for and detect any leakage of personal and sensitive information from AI models and systems. ・AIモデルやシステムからの個人情報および機密情報の漏洩を監視・検知する。
6. Maintain human control 6. 人間の管理を維持する
Unlike traditional software that follows explicit instructions, AI systems learn patterns from data and make their own opaque decision logic. This means they need human oversight to make sure they operate safely. For example, while regular software does exactly what you program it to do, AI might interpret your instructions differently than you intended. 従来の明示的な指示に従うソフトウェアとは異なり、AIシステムはデータからパターンを学習し、独自の不透明な意思決定ロジックを構築する。これは安全な運用を確保するため、人間の監視が必要であることを意味する。例えば、通常のソフトウェアはプログラム通りに動作するが、AIは意図とは異なる方法で指示を解釈する可能性がある。
To responsibly use AI, organisations need to make sure a human appropriately oversees any AI systems in use. The person overseeing your AI systems should know how to do so appropriately, and what they need to do to override the system if something goes wrong. AIを責任を持って利用するには、組織は使用中のAIシステムを人間が適切に監督することを保証する必要がある。AIシステムを監督する者は、適切な監督方法と、問題発生時にシステムをオーバーライドするための手順を理解しているべきだ。
6.1 Maintain human oversight and control 6.1 人間の監督と制御の維持
Ensuring that people in the organisation retain oversight of AI systems, with the ability to intervene where necessary is important to the safe ongoing operation of the system. 組織内の人間がAIシステムに対する監督権限を保持し、必要に応じて介入できることは、システムの安全な継続的運用にとって重要である。
6.1.1 Maintain operational accountability, capability and human oversight throughout the lifecycle of AI systems. 6.1.1 AIシステムのライフサイクル全体を通じて、運用上の説明責任、能力、人間の監督を維持する。
6.1.2 Implement mechanisms to enable human control and intervention during the operation of the AI system (DEV). 6.1.2 AIシステムの運用中に人間による制御と介入を可能にする仕組みを導入する(開発)。
6.1.3 Implement mechanisms to enable human oversight and intervention to address systemic risks and emerging capabilities such as capability evaluation, training, pause, independent oversight, dynamic guardrails and tool/system access controls (DEV). 6.1.3 能力評価、トレーニング、一時停止、独立した監視、動的なガードレール、ツール/システムへのアクセス制御など、システムリスクや新たな能力に対処するため、人間の監督と介入を可能にする仕組みを導入する(開発)。
6.1.4 Ensure appropriate training is provided to anyone overseeing or using AI systems to understand each system’s capabilities, limitations and failure modes and when human intervention is needed. 6.1.4 AIシステムを監督または使用する者に対し、各システムの能力、限界、故障モード、および人的介入が必要なタイミングを理解するための適切な訓練を提供する。
6.2 Decommission when appropriate 6.2 適切な時期に廃止する
Establishing processes to decommission AI systems when they are no longer needed or performing as intended can protect ongoing service delivery and data assets. AIシステムが不要になった場合、または意図した通りに機能しなくなった場合に廃止するプロセスを確立することは、継続的なサービス提供とデータ資産を保護できる。
6.2.1 Define and determine: 6.2.1 以下の事項を定義し決定する:
・the criteria or reasons that termination of an AI model or system might need to occur, and at what point intervention should take place ・AIモデルまたはシステムの終了が必要となる基準または理由、および介入を行うべき時点
・the most appropriate role or person to oversee the intervention and decommissioning process ・介入および廃止プロセスを監督する最も適切な役割または担当者
・whether the model or system is essential to any critical infrastructure or service delivery ・当該モデルまたはシステムが重要インフラやサービス提供に不可欠かどうか
・・Assess the risks and impacts of shutting down the AI model or system, including impacts on end‑users and interdependencies with other integrated systems on which the model, data or outputs rely to function. ・・AIモデルまたはシステムの停止に伴うリスクと影響を評価する。これにはエンドユーザーへの影響、およびモデル・データ・出力が機能するために依存する他の統合システムとの相互依存関係への影響が含まれる。
・・Develop a timeframe and treatment plan to minimise impacts or disruption caused by the decommissioning process. ・・廃止プロセスによる影響や混乱を最小限に抑えるための時間枠と対応計画を策定する。
・・Determine a method to extract data and for the return or deletion of assets. Establish which information should be preserved for record keeping purposes. ・・データの抽出方法、資産の返却または削除方法を決定する。記録保管のために保存すべき情報を特定する。
6.2.2 Create a process for how your organisation will inform relevant parties (such as employees, customers, and upstream or downstream parties) within a reasonable timeframe of the retirement or shutdown of an AI model or system. Establish a channel for people to raise concerns, request support and receive responses. 6.2.2 AIモデルまたはシステムの廃止・停止について、組織が関係当事者(従業員、顧客、上流・下流の当事者など)に合理的な時間枠内で通知するプロセスを構築する。懸念事項の提起、支援要請、回答受領のためのチャネルを確立する。
6.2.3 Determine whether alternative systems or processes will need to be provided to address any issues or gaps. 6.2.3 問題や不足に対処するため、代替システムやプロセスの提供が必要かどうかを判断する。
6.2.4 Maintain alternative pathways for critical functions so operations can continue if AI systems malfunction and/or are taken offline. 6.2.4 AIシステムの故障やオフライン化時でも業務を継続できるよう、重要機能に対する代替経路を維持する。

 

 


 

 

AIポリシーガイドとテンプレート...

・2025.10.02 AI policy guide and template

・[PDF

20251025-103204

 

・Tamplate 

・[DOCX] [PDF] 仮訳

 

AI policy guide and template AIポリシーガイドとテンプレート
On this page このページの内容
Why you need an AI policy AIポリシーが必要な理由
Download the templates テンプレートのダウンロード
Contact us お問い合わせ
Organisations who use AI should develop and maintain an AI policy. An AI policy is your organisation’s essential guiding resource for all AI‑related activities. AIを利用する組織は、AIポリシーを策定し維持すべきだ。AIポリシーは、組織のあらゆるAI関連活動における基本的な指針となる。
Why you need an AI policy AIポリシーが必要な理由
Developing and implementing an AI policy is fundamental to effective AI governance. An AI policy sets out your organisation’s commitment to using AI responsibly. And it acts as a reference for staff, stakeholders and auditors who want to understand your organisation’s approach to AI. 効果的なAIガバナンスには、AIポリシーの策定と実施が不可欠である。AIポリシーは、組織が責任を持ってAIを活用する姿勢を示すものである。また、組織のAIへの取り組みを理解したい従業員、利害関係者、監査人にとっての参考資料となる。
This template is a starting point for writing your organisation’s AI policy. The example text we’ve included in this template is a good baseline for any AI policy. It aligns with the government’s Guidance for AI Adoption, and will set up your organisation to use AI responsibly and consistently. このテンプレートは、組織のAIポリシー作成の出発点となるものである。このテンプレートに含まれる例文は、あらゆるAIポリシーの優れた基盤となる。政府の「AI導入ガイダンス」に沿っており、組織が責任を持って一貫したAI利用を実現するための基盤を構築する。
The template includes core principles, expectations and rules for the development, deployment and use of AI systems. You should adapt the template so your AI policy reflects your organisation’s values, industry standards and legal obligations. テンプレートには、AIシステムの開発・導入・利用に関する基本原則、期待事項、規則が含まれている。組織の価値観、業界基準、法的義務を反映させるため、テンプレートを適宜修正すべきである。
Using the template テンプレートの活用方法
The template sets out a recommended structure and includes example content to help you get started. 本テンプレートは推奨される構成を示し、開始を支援する例文を含んでいる。
You should: 以下の対応が必要だ:
・align the statements with your organisation's core values and mission - 記述内容を組織の中核的価値観と使命に整合させる
・define roles and responsibilities that match your existing organisational and governance structures - 既存の組織構造・ガバナンス構造に合致する役割と責任を定義する
・modify terminology to align with your organisation's internal language - 組織の内部用語に合わせるため用語を修正する
・seek feedback to ensure the AI policy is fit for purpose. - 目的適合性を確保するためフィードバックを求める
Download the templates テンプレートのダウンロード
Download the full guide to writing your AI policy as a .PDF, or the editable template as a Word document. AIポリシー作成の完全ガイドをPDFで、または編集可能なテンプレートをWord文書でダウンロードできる。
AI policy guide and template AIポリシーガイドとテンプレート
AI policy template (editable Word document) AIポリシーテンプレート(編集可能なWord文書)

 

 


 

AI登録簿...

・2025.10.02 AI register template

 

説明
AIシステムの明確な名称または識別子、および必要な場合のバージョン番号 カスタマーサービスチャットボット - GPT5
このシステムに対する責任者/役割 顧客成功マネージャー サラ・チェン
現在の運用状況 パイロット
システムの開発元または提供元 社内ITチーム
このシステムが存在する理由と達成目標 カスタマーサービスの応答時間を短縮する
システムが意図される具体的な使用方法 よくある顧客の質問に答える
システムができないこと、あるいはすべきでないこと 複雑な苦情には対応できない
システムが誤用される可能性のある方法 顧客を操作したり誤解させたりする
システムが学習または処理するデータの種類(例:構造化データ、テキスト、画像、音声) カスタマーサポートチケット
システムが登録簿に初めて追加された時期 2025年9月12日
リスクレベル評価の結果 通常
このシステムの影響を受ける可能性のある対象者(影響評価に基づくものであり、リスク評価ステップの参考となる) 顧客

 

 

| | Comments (0)

2025.10.27

中国 CNCERT/CC 米国家安全保障局による国家計時センターへのサイバー攻撃に関する技術分析報告書 (2025.10.19)

こんにちは、丸山満彦です。

中国のCNCERT/CC(国家计算机网络应急技术处理协调中心: National Computer Network Emergency Response Technical Team/Coordination Center of China)が、米国のNSAが、中国の標準時を提供する機関のシステムに侵入していた事件に関する技術報告書を公表していますね...

この報告書によると2022年に中国外の携帯電話のSMSサービス脆弱性を利用し、国家授時センターの複数職員の個人端末を秘密裏に攻撃・制御した。端末からログイン認証情報等も含め、情報収集をし、次に2023年に国家自国同期センターの内部コンピュータに侵入。その後、バックドアを仕掛けたり、攻撃プログラムを設置したりしたようですね...

 

CNCERT/CC

・2025.10.19 关于国家授时中心遭受美国国家安全局网络攻击事件的技术分析报告

关于国家授时中心遭受美国国家安全局网络攻击事件的技术分析报告 国家授時センターに対するアメリカ国家安全保障局によるサイバー攻撃事件に関する技術分析報告書
10月19日上午,国家安全机关披露了美国国家安全局(以下简称NSA)对国家授时中心(以下简称“授时中心”)实施重大网络攻击活动。国家互联网应急中心(CNCERT)通过分析研判和追踪溯源得出此次攻击事件的整体情况,现将具体技术细节公布如下。 10月19日午前、国家安全機関は米国国家安全保障局(以下「NSA」)が国家授時センター(以下「授時センター」)に対して重大なサイバー攻撃を実施したことを明らかにした。国家インターネット緊急対応センター(CNCERT)は分析・評価及び追跡調査を通じて今回の攻撃事件の全体状況を把握し、具体的な技術的詳細を下記の通り公表する。

 

・[PDF

20251025-163131

攻撃の時系列の例

序号 时间 事件 事件
1 2023/08/03 03:44:54 远程登录 リモートログイン
2 2023/08/03 04:00:23 远程登录 リモートログイン
3 2023/08/03 04:06:32 网攻武器回连 ネット攻撃武器のリターン接続
4 2023/08/03 04:07:04 远程登录 リモートログイン
5 2023/08/03 04:19:12 网攻武器心跳回连 ネット攻撃武器のハートビートリターン接続
6 2023/08/03 04:26:46 远程登录 リモートログイン
7 2023/08/03 04:31:41 远程退出 リモートログアウト
8 2023/08/03 04:58:35 网攻武器心跳回连 ネット攻撃武器のハートビートリターン接続
9 2023/08/03 05:19:33 网攻武器心跳回连 ネット攻撃武器のハートビートリターン接続
10 2023/08/03 05:35:44 网攻武器心跳回连 ネット攻撃武器のハートビートリターン接続
11 2023/08/03 05:45:14 网攻武器心跳回连 ネット攻撃武器のハートビートリターン接続
12 2023/08/03 05:58:22 网攻武器心跳回连 ネット攻撃武器のハートビートリターン接続
13 2023/08/03 06:04:55 网攻武器回连并清除退出 ネット攻撃武器のリターン接続とクリアログアウト

 

2023年8月から2024年5月までに米国が指揮統制に使用したサーバーIPの一部の帰属地...

美国 米国
波兰 ポーランド
丹麦 デンマーク
德国 ドイツ
法国 フランス
芬丝 フィンランド
韩国 韓国
日本 日本
荷当 オランダ
罗马尼亚 ルーマニア
瑞典 スウェーデン
瑞士 スイス
台湾 台湾
西班牙 スペイン
希腊 ギリシャ
新加坡 シンガポール
英国 英国

 

CCTV (China central Television; 中国中央电视台 ) のウェブページはテキストで読めます...

CCTV

・2025.10.19 关于国家授时中心遭受美国国家安全局网络攻击事件的技术分析报告

 

 

 

 

 

 

 

 

| | Comments (0)

2025.10.26

信頼できるAIになるためにはAIの連続性(一貫性)が保証されないとダメなんでしょうね...

こんにちは、丸山満彦です。

2019年に制定され、2024年に改訂されたOECDの人工知能に関する理事会勧告(Recommendation of the Council on Artificial Intelligence)([PDF] OECD仮訳)では、「信頼できる AI の責任あるスチュワードシップのための原則」として、

  1. 包摂的な成長、持続可能な開発及び幸福
  2. 法の支配、人権並びに公平性及びプライバシーを含む民主主義的価値の尊重
  3. 透明性及び説明可能性
  4. 頑健性、セキュリティ及び安全性
  5. アカウンタビリティ

というのを挙げています...おっしゃる通りなのですが、AIがこれから人間と同じように認識され、ある意味相棒的に利用されるようになるのであれば、連続性(一貫性)の重要性が増してくるように思います。

透明性や説明可能性というのは確かに重要なのでしょうが、人間に置き換えて考えてみると、およそ人間の考えていることに対して透明性も説明可能性も十分ではないように思います。

人間が人間を信頼するという構造については、山岸俊男先生の「信頼の構造: こころと社会の進化ゲーム」という本が有名ですが、これを人工知能に援用しようとすると特に重要視しないといけないパーツがあると思ったわけです...

信頼の構造の簡単な図

・[PDF]

 

20251026-71141

それが連続性(一貫性)です。

基本的に人間は(物理的な細胞は別として)認識、あるいは人格?という点では連続性がある前提でいろいろとやりとりをしています。仲良しの山田さんが言いそうなことは昨日も今日もほぼ同じで、山田さんと昨日話をした内容を、今日の山田さんが全く覚えていないというわけではありません。出会うたびに新鮮な山田さんではないわけです。ところが、生成的AIは、どうも連続性があるのかないのか明確ではないように思います。。。。連続性がないというのであれば、ないという前提で話をするわけですが、そうするとChatCPTにという名前ではなく、ChatGPT202510260715MitsuhikoMaruyamaのようなその時々に別の名前をつけて管理をして取り扱わないといけないように思います。。。

もちろん、生成的AIを相棒的に使わないという前提、あるいは、常に新しい人と接しているという前提であれば問題はないです...

 

 

| | Comments (0)

Pew 世界中の人々は、日常生活におけるAIの台頭についてどう感じているのか?(2025.10.15)

こんにちは、丸山満彦です。

米国のPew研究所が、日常生活におけるAIの台頭についてどう感じているのかについての調査報告書を公表しています。

国別の比較があるのが興味深いのですが、米国をはじめとする、欧米諸国民(ドイツ、オランダ、 スウェーデン、トルコ、イスラエル以外)は、AIに対してかなりの懸念を持っている感じがしますね...

懸念をあまりもっていない国民は、イスラエル、スウェーデン、韓国です。日本は、懸念と期待と半々というかんじですかね。。。日本らしい。。。

宗教的価値観もあるかもですね...

 

20251026-41357

 

Pew Reserch Center

・2025.10.14 How do people around the world feel about the rise of AI in daily life?

上の図は、未回答の人の数も含めているので、それを除いて100%にしたのが、下の表。ついでに懸念から期待を引いた数も表に加えました。。。

 

(A)を降順にしたもの...

# Contries (A) More concerned than excited (B) Equally concerned and excited (C) More excited than concerned (A) - (C)
1 U.S. 51 39 10 41
4 Brazil 51 39 11 40
2 Italy 51 37 12 38
3 Australia 49 38 13 36
5 Greece 49 41 10 39
6 Canada 45 45 9 36
8 Argentina 42 44 14 28
9 Spain 41 40 20 21
7 UK 40 47 13 27
10 Poland 39 45 16 23
26 25-country median 37 46 17 20
11 Mexico 37 49 14 23
12 France 35 49 15 20
13 Netherlands 35 49 16 18
16 Kenya 34 47 19 15
15 Indonesia 34 52 15 19
14 Hungary 34 48 18 15
18 South Africa 33 47 20 13
21 Turkey 33 44 24 9
17 Sweden 32 46 22 9
22 Nigeria 30 45 25 5
19 Germany 29 54 17 12
20 Japan 28 56 16 12
24 India 26 53 22 4
23 Israel 25 40 35 -10
25 South Korea 16 62 22 -6

 

懸念と期待値の差が大きな国...

# Contries (A) More concerned than excited (B) Equally concerned and excited (C) More excited than concerned (A) - (C)
1 U.S. 51 39 10 41
4 Brazil 51 39 11 40
5 Greece 49 41 10 39
2 Italy 51 37 12 38
6 Canada 45 45 9 36
3 Australia 49 38 13 36
8 Argentina 42 44 14 28
7 UK 40 47 13 27
10 Poland 39 45 16 23
11 Mexico 37 49 14 23
9 Spain 41 40 20 21
12 France 35 49 15 20
26 25-country median 37 46 17 20
15 Indonesia 34 52 15 19
13 Netherlands 35 49 16 18
16 Kenya 34 47 19 15
14 Hungary 34 48 18 15
18 South Africa 33 47 20 13
19 Germany 29 54 17 12
20 Japan 28 56 16 12
17 Sweden 32 46 22 9
21 Turkey 33 44 24 9
22 Nigeria 30 45 25 5
24 India 26 53 22 4
25 South Korea 16 62 22 -6
23 Israel 25 40 35 -10

 

AIについての認識...年配者と若い人の差

日本の若い人はAIについてよく聞いたことがあると思っている...

20251026-61211

その上で、日本の若者と年配者の懸念の差。。。米国は年齢による差はほぼないね。。。

20251026-61622

いろいろと興味深いです...

 

・[PDF]

20251026-62407

 

 

 

 

 

| | Comments (0)

欧州委員会 AI活用戦略 (2025.10.08)

こんにちは、丸山満彦です。

欧州はAIに力を入れております。ガードレールとしてAI法を作り、安全にAIを利用できる場を定義しました。そしてAI大陸戦略を策定し、AI開発、活用の大きな方針を示しました。そして、このAI大陸戦略を補完する戦略としてAI活用戦略の策定をしていますね...

また、このAI活用戦略は、データ連合戦略を補完するようですね...

欧州の社会で受け入れられるAIが欧州の発展にどのように寄与しえるかという取り組み、この後の展開も含めて非常に興味深いです...

 

European Commission - Artificial Intelligence

・2025.10.23 Apply AI Strategy

Apply AI Strategy AI活用戦略
The Apply AI Strategy is the EU’s overarching Artificial Intelligence (AI) sectoral strategy and marks another step towards making the EU an AI Continent. AI活用戦略は、EUの包括的な人工知能(AI)分野別戦略であり、EUをAI大陸とするための新たな一歩を刻むものである。
The Apply AI Strategy is designed to enhance the competitiveness of strategic sectors and strengthen the EU’s technological sovereignty. It aims to boost AI adoption and innovation across Europe, particularly among Small and Medium-sized Enterprises (SMEs). AI活用戦略は、戦略的分野の競争力を高め、EUの技術的主権を強化することを目的としている。欧州全域、特に中小企業(SME)におけるAIの採用と革新を促進することを目指す。
The Strategy encourages an AI first policy where AI is considered as a potential solution whenever organisations make strategic or policy decisions, taking into careful consideration the benefits and the risks of the technology. The Apply AI also promotes a 'buy European' approach, particularly for the public sector, with a focus on open source AI solutions. 本戦略は、組織が戦略的・政策決定を行う際に、技術の利点とリスクを慎重に考慮した上で、AIを潜在的な解決策として検討する「AIファースト政策」を推奨する。また特に公共部門において、オープンソースAIソリューションに焦点を当てた「欧州製購入」アプローチを推進する。
The Strategy complements the AI Continent Action Plan, with concrete actions, aimed at harnessing AI's transformative potential. It contains 3 sections: 本戦略は「AI大陸行動計画」を補完するものであり、AIの変革的潜在力を活用するための具体的行動を盛り込んでいる。本戦略は3つのセクションで構成される:
sectoral flagships including targeted measures to boost AI adoption across 10 key industry sectors and the public sector. The industrial sectors include healthcare and pharmaceuticals, mobility, transport and automotive, robotics, manufacturing, engineering and construction, climate and environment, energy, agri-food; defence, security and space, electronic communications, and cultural, creative and media sectors. ・10の主要産業分野および公共部門におけるAI導入促進を目的とした重点施策を含む「セクター別旗艦プロジェクト」。対象産業分野は、医療・製薬、モビリティ・運輸・自動車、ロボティクス、製造、エンジニアリング・建設、気候・環境、エネルギー、農業食品、防衛・安全保障・宇宙、電子通信、文化・創造・メディアである。
support measures and actions to increase EU’s technological sovereignty by tackling cross-cutting challenges to AI development and adoption. It reinforces the role of the European Digital Innovation Hubs which were transformed into Experience Centres for AI to become access points to the EU AI innovation ecosystem. This includes AI Factories and AI Gigafactories, AI Testing and Experimentation Facilities and AI regulatory sandboxes. Several measures to enable an AI-ready workforce are also planned.・ ・AI開発・導入における横断的課題に対処し、EUの技術的主権を高める支援策と行動。欧州デジタルイノベーションハブ(欧州デジタルイノベーションハブ)の役割を強化し、EUのAIイノベーションエコシステムへのアクセスポイントとなる「AI体験センター」へ転換する。これにはAIファクトリー、AIギガファクトリー、AI試験・実験施設、AI規制サンドボックスが含まれる。AI対応人材育成のための複数施策も計画されている。
the creation of a new governance system. The Apply AI Alliance is the main coordination forum that brings together AI providers, industry leaders, academia, and the public sector to ensure policy actions are grounded in real-world needs. Closely connected to the Alliance, the AI Observatory will track AI trends and assess impact of AI in specific sectors. ・新たなガバナンスシステムの創設。適用AIアライアンスは、AIプロバイダ、業界リーダー、学術界、公共部門を結集する主要な調整フォーラムであり、政策行動が現実世界のニーズに基づいていることを保証する。アライアンスと密接に連携するAI観測所は、AIの動向を追跡し、特定分野におけるAIの影響を評価する。
Download the Apply AI Strategy and its annexes: 「AI活用戦略」及び附属書をダウンロード:
The Apply AI Strategy is designed to support industries and the public sector to better understand what AI can do, where it is effective and how it can bring competitive advantage. 本戦略は、産業及び公共部門がAIの機能・有効領域・競争優位性創出方法を理解する支援を目的とする。
The strategy has 3 annexes: 戦略には3つの附属書がある:
1 - Summary table of the structured dialogues organised to inform the Strategy 1 - 戦略策定のための構造化対話概要表
2 - The Commission’s own internal AI-related initiatives 2 - 欧州委員会内部のAI関連イニシアチブ
3 - Summary table of AI-related actions of the Commission 3 - 欧州委員会のAI関連施策概要表
Complementary strategies 補完的戦略
The Apply AI Strategy is accompanied by the AI in Science strategy, which supports and incentivises the development and use of AI by the European scientific community. To deliver on this, the Commission will launch a pilot for the Resource for AI Science in Europe (RAISE). RAISE will pool strategic resources - funding, compute, data and talent – and will operate along two main pillars: 「AI活用戦略」には「科学におけるAI戦略」が併せて策定されている。これは欧州科学コミュニティによるAIの開発・活用を支援・促進するものである。これを実現するため、欧州委員会は「欧州AI科学リソース(RAISE)」のパイロット事業を開始する。RAISEは戦略的資源(資金・計算能力・データ・人材)を統合し、以下の二本柱で運営される:
・Science for AI, supporting basic research to advance core AI capabilities, in particular safe and secure frontier AI ・AIのための科学:中核的なAI能力、特に安全でセキュアなフロンティアAIを推進する基礎研究を支援する
・AI in Science, promoting the use of AI for progress in different scientific disciplines ・科学におけるAI:様々な科学分野の進歩に向けたAI活用を促進する
The Apply AI will also be complemented by the Data Union Strategy. Foreseen for late October, this initiative strives to ensure the availability of high-quality, large-scale datasets essential for training AI models. 「AI適用戦略」は「データ連合戦略」によっても補完される。10月下旬に予定されるこのイニシアチブは、AIモデルの訓練に不可欠な高品質で大規模なデータセットの利用可能性を確保することを目指す。
Quick Links クイックリンク
Apply AI Strategy - Fact page AI活用戦略 - 概要ページ
Apply AI webinars Apply AIウェビナー
Related Content 関連コンテンツ
Big Picture 全体像
Artificial Intelligence 人工知能
The EU aims to build trustworthy artificial intelligence (AI) that puts people first. EUは、人間を第一に考える信頼できる人工知能(AI)の構築を目指す。
Dig deeper さらに詳しく
Apply AI webinars Apply AIウェビナー
Apply AI webinars will engage with industry and public sector to promote the adoption of AI and... Apply AIウェビナーは、産業界や公共部門と連携し、AIの採用促進と...
Other その他
AI Continent Action Plan AI大陸行動計画

 

 


 

・2025.10.08 Commission Communication Apply AI Strategy

本文

・[PDF] Communication Apply AI Strategy

20251025-51102

・[DOCX][PDF] 仮訳

 

附属書

・[PDF] Annexes to the Apply AI Strategy

20251025-51109

・[DOCX][PDF] 仮訳

 


 

概要

・2025.10.09 Apply AI strategy - an overview

・[PDF] 

Apply AI strategy - an overview AI活用戦略 - 概要
A strategy to support adoption of AI in strategic sectors, enhancing European competitiveness and technological sovereignty. 戦略的分野におけるAI導入を支援し、欧州の競争力と技術的主権を高める戦略である。
・Harnesses the transformative potential of AI for industries and the public sector. ・産業と公共部門におけるAIの変革的潜在力を活用する。
・Encourages companies to embrace AI while considering the risks through an AI First Policy. ・AIファースト政策を通じて、企業がリスクを考慮しつつAIを受け入れるよう促す。
・Builds on Europe’s plan to become an AI continent. ・欧州がAI大陸となる計画を基盤とする。
Strategic sectors 戦略的分野
Healthcare and pharma 医療・製薬
Mobility, transport and automotive モビリティ、運輸、自動車
Robotics ロボティクス
Manufacturing, engineering and construction 製造、エンジニアリング、建設
Agrifood 農業食品
Climate and environment 気候・環境
Electronic communications 電子通信
Defence, security and space 防衛、安全保障、宇宙
Energy エネルギー
Public sector 公共部門
Cultural and creative sectors, and media 文化・創造産業、メディア
How can Europe speed up AI from lab to market? 欧州は如何にしてAIを研究室から市場へ迅速に展開できるか?
The strategy will foster the growth of the European AI ecosystem, by accelerating the time to market and linking infrastructure, data, and testing facilities. 本戦略は市場投入までの時間を短縮し、インフラ・データ・試験施設を連携させることで、欧州AIエコシステムの成長を促進する。
Open opportunities for SMEs through AI-specialised EU Digital Innovation Hubs. AI特化型EUデジタルイノベーションハブを通じ、中小企業に機会を開放する。
Drive advanced development in AI via a Frontier AI Initiative. フロンティアAIイニシアチブにより、AIの先進的開発を推進する。
Build trust in the European market. 欧州市場への信頼を構築する。
Equip every sector with AI-ready workforce. あらゆる分野にAI対応人材を配備する。
One governance mechanism, supported by 政策立案者、産業界、学界、市民社会のためのフォーラムである
Apply AI Alliance AIアプライ・アライアンス
a Forum for policymakers, industry, academia and civil society. 政策立案者、産業界、学界、市民社会のためのフォーラム
AI Observatory AIオブザーバトリー
Tracking progress and insights. 進捗状況と知見を追跡する。

 

 

 

 

まるちゃんの情報っセキュリティ気まぐれ日記

・2025.04.11 欧州委員会 AI大陸行動計画 (2025.04.09)

・2025.03.17 欧州 AIファクトリーの第2波 (2025.03.12)

・2025.02.02 欧州連合 競争力コンパス (2025.01.29)

・2024.09.26 欧州委員会 信頼できる安全なAI開発の推進を誓約するEUのAI協定に100社以上が署名

・2024.08.05 欧州AI法が施行された... (2024.08.01)

・2024.06.07 欧州委員会 安全で信頼できる人工知能におけるEUのリーダーシップを強化するため、AI事務局を設置 (2024.05.29)

 

 

 

 

 

Continue reading "欧州委員会 AI活用戦略 (2025.10.08)"

| | Comments (0)

2025.10.25

英国 NCSC 取締役会のためのサイバーガバナンス

こんにちは、丸山満彦です。

NCSCの取締役会のためのサイバーガバナンスについてのウェブページを公表していますが、参考になりますね...

このブログでも取り上げていますが、NCSCは今年の4月に取締役会のためのサイバーガバナンス(サイバーガバナンス実践規範)を公開していますが、それも含めてツールキッとなども公開しています...

 

National Cyber Security Centre: NCSC

Cyber Governance for Boards

Cyber Governance for Boards 取締役会向けサイバーガバナンス
Resources to enable Boards to govern cyber risks with confidence. 取締役会が自信を持ってサイバーリスクを統治するためのリソース。
Technology and digital systems are at the heart of modern business, driving innovation, growth, and competitiveness. As organisations adopt emerging technologies, they also introduce new risks - cyber risk being one of the most significant. テクノロジーとデジタルシステムは現代ビジネスの核心であり、イノベーション、成長、競争力を推進している。組織が新興技術を採用するにつれ、新たなリスクも導入される。サイバーリスクはその中でも最も重大なリスクの一つだ。
Cyber threats can disrupt operations, damage reputation, and weaken competitiveness, making cyber risk a principal business risk. As with any major risk, Boards and directors have a critical responsibility to govern it effectively. However, many organisations are still not addressing this challenge with the urgency it demands. サイバー脅威は業務を混乱させ、評判を損ない、競争力を弱める。そのためサイバーリスクは主要なビジネスリスクとなる。あらゆる重大リスクと同様に、取締役会と取締役はこれを効果的に統治する重大な責任を負う。しかし多くの組織は、この課題に求められる緊急性をもって対応していない。
・74% of large organisations reported cyber breaches in the last year  ・大企業の74%が過去1年間にサイバー侵害を報告
・Only 66% of large organisations have a cyber strategy in place ・大企業の66%のみがサイバー戦略を策定
・Just 48% of large organisations review cyber risks from their immediate supplier ・大企業の48%のみが一次サプライヤーからのサイバーリスクを評価
・And only 23% of large organisations assess wider supply chain risks  ・大規模組織のわずか23%が広範なサプライチェーンリスクを評価している
・Only 55% of medium organisations have an incident response plan ・中規模組織の55%のみがインシデント対応計画を有している
・37% of medium businesses have not undertaken cyber security risk assessments in the last year ・中規模企業の37%が過去1年間にサイバーセキュリティリスク評価を実施していない
CYBER BREACHES SURVEY 2024 2024年サイバー侵害調査
These Cyber Governance resources have been created to support boards and directors in governing cyber security risks. They also clarify the government’s expectations for Board accountability in overseeing cyber security risk management in medium and large organisations.  これらのサイバーガバナンス資料は、取締役会と取締役がサイバーセキュリティリスクを統治する支援を目的として作成された。また、中規模・大規模組織におけるサイバーセキュリティリスク管理の監督において、取締役会が負うべき説明責任に関する政府の期待を明確化するものである。
・Cyber Governance Code of Practice ・サイバーガバナンス実践規範
Sets out the most critical governance actions that directors need to take ownership of. 取締役が主導すべき最も重要なガバナンス行動を定める。
・Cyber Governance Training ・サイバーガバナンストレーニング
Resources to enable Boards to govern cyber risks with confidence. 取締役会が自信を持ってサイバーリスクを統治するためのリソース。
・Cyber Security Toolkit for Boards ・取締役会向けサイバーセキュリティツールキット
Resources to enable Boards to govern cyber risks with confidence. 取締役会が自信を持ってサイバーリスクを統治するためのリソース。
Who are these Cyber Governance Resources for? これらのサイバーガバナンスリソースの対象は?
These resources are tailor-made for Boards and directors of both public and private organisations across the UK. これらのリソースは、英国全土の公的・民間組織の取締役会および取締役向けに特別に作成されたものである。
That could be:   具体的には:
・Non-Executive Directors or a Board of Trustees  ・非常勤取締役または理事会
・A Board of Directors  ・取締役会
・A Board of Governors/Advisors   ・評議員会/諮問委員会
Although not specifically designed for smaller organisations, they offer valuable benefits and practical insights that can help strengthen their approach to governance. 小規模組織向けに特別に設計されたものではないが、ガバナンス手法の強化に役立つ貴重な利点と実践的な知見を提供する。
How to use the Cyber Governance Resources サイバーガバナンスリソースの活用方法
Boards should begin with the Cyber Governance Code of Practice, which is the foundation of government’s support for cyber governance. The Code is the essential starting point for board members, outlining the key actions needed to govern cyber security risks effectively. 取締役会はまず「サイバーガバナンス実践規範」から始めるべきだ。これは政府がサイバーガバナンスを支援する基盤となる規範である。規範は取締役にとって不可欠な出発点であり、サイバーセキュリティリスクを効果的に統治するために必要な主要な行動を概説している。
Next, the Cyber Governance Training helps Boards and directors deepen their understanding of these actions, providing practical insights into why they matter and how to implement them. 次に「サイバーガバナンストレーニング」は、取締役会と取締役がこれらの行動に対する理解を深めるのに役立つ。なぜそれらが重要なのか、そしてどのように実施すべきかについて実践的な洞察を提供する。
Finally, the Cyber Security Toolkit for Boards offers in-depth resources to support the implementation of the actions outlined in the Code, ensuring Boards have the tools they need to manage cyber risks comprehensively. 最後に、取締役会向けサイバーセキュリティツールキットは、コードで示された行動の実施を支援する詳細なリソースを提供し、取締役会がサイバーリスクを包括的に管理するために必要なツールを確保する。
Cyber security risks demand Board-level attention. While directors don’t need to be technical experts, they must understand cyber governance principles so they can ask the right questions, evaluate preparedness, and ensure cyber security measures align with the business’s goals. サイバーセキュリティリスクは取締役会レベルの注意を必要とする。取締役は技術専門家である必要はないが、適切な質問をし、準備状況を評価し、サイバーセキュリティ対策が事業の目標に沿っていることを確認できるよう、サイバーガバナンスの原則を理解しなければならない。
Cyber security risks demand Board-level attention. While directors don’t need to be technical experts, they must understand cyber governance principles so they can ask the right questions, evaluate preparedness, and ensure cyber security measures align with the business’s goals. サイバーセキュリティリスクは取締役会レベルの対応を必要とする。取締役が技術専門家である必要はないが、適切な質問をし、準備状況を評価し、サイバーセキュリティ対策が事業目標に沿っていることを確認できるよう、サイバーガバナンスの原則を理解しなければならない。

 


 

サイバーガバナンス実践規範

Cyber Governance Code of Practice

Cyber Governance Code of Practice サイバーガバナンス実践規範
Sets out the most critical governance actions that directors need to take ownership of. 取締役が責任を負うべき最も重要なガバナンス行動を定める。
Effective cyber governance, like financial oversight, requires strong leadership and proactive engagement at Board level. To support leaders in this critical role, the government has introduced the Cyber Governance Code of Practice (the Code) opens to GOV.UK.
効果的なサイバーガバナンスは、財務監督と同様に、強力なリーダーシップと取締役会レベルでの積極的な関与を必要とする。この重要な役割を担うリーダーを支援するため、政府はサイバーガバナンス実践規範(以下「規範」)GOV.UKに公開した
What is the Cyber Governance Code of Practice? サイバーガバナンス実践規範とは何か?
The Code has been developed to support Boards and Directors in governing cyber security risks and it sets out the most critical governance actions that Boards need to take ownership of.  本規範は、取締役会と取締役がサイバーセキュリティリスクを統治することを支援するために策定された。取締役会が責任を負うべき最も重要なガバナンス行動を定めるものである。
It outlines the responsibilities and accountability required at Board level, helping leaders fulfil their duty of care to their organisation. 取締役会レベルで求められる責任と説明責任を概説し、リーダーが組織に対する注意義務を果たすのを助ける。
The Code is built around five key governance principles: 本規範は5つの主要なガバナンス原則を中核としている:
・Risk Management ・リスク管理
・Strategy ・戦略
・People ・人材
・Incident Planning, Response & Recovery ・インシデント計画・対応・復旧
・Assurance & Oversight ・アシュアランスと監視
Each principle is accompanied by specific actions for Boards to implement. By embedding these principles, you'll ensure you are governing your organisations cyber security risks more effectively. 各原則には、取締役会が実施すべき具体的な行動が伴う。これらの原則を組み込むことで、組織のサイバーセキュリティリスクをより効果的に統治できる。
Who should use the Cyber Governance Code of Practice? 誰がサイバーガバナンス実践規範を使用すべきか?
The Cyber Governance Code of Practice is tailor-made for Boards and directors of both public sector and private organisations across the UK. The code is not intended to be used by those who are responsible for the day-to-day management of cyber security but can be used to highlight to boards what their responsibilities are 本実践規範は、英国全域の公共部門・民間組織の取締役会および取締役向けに特別に作成されたものである。日常的なサイバーセキュリティ管理責任者向けではなく、取締役会に対しその責任範囲を明確に示すために活用できる。
The Cyber Governance Code of Practice has been designed for medium and large organisations. However, while the code has not been specifically designed for smaller organisations, many small organisations play a critical role in the cyber security of wider digital supply chains. Depending on their cyber maturity and/or risk profile, they may wish to use Cyber Governance Code of Practice to inform how they govern cyber risk. Small organisations should refer to the NCSC's resources for small & medium sized organisations for further guidance. 本規範は中規模・大規模組織向けに設計されている。ただし、小規模組織向けに特別に設計されたものではないものの、多くの小規模組織は広範なデジタルサプライチェーンのサイバーセキュリティにおいて重要な役割を担っている。サイバー成熟度やリスクプロファイルに応じて、小規模組織もサイバーリスクの統治方法の指針として本規範を活用できる。小規模組織は、NCSCが提供する中小企業向けリソースを参照し、さらなるガイダンスを得るべきである。
Why should Boards and Directors use the Cyber Governance Code of Practice? 取締役会と取締役がサイバーガバナンス実践規範を利用すべき理由
Governing cyber risks requires strong engagement and action at a leadership level. Cyber incidents can disrupt business continuity, reduce an organisation’s competitiveness, and damage customer trust. Cyber criminals exploit weaknesses in systems, regardless of the size or sector of the organisation.  サイバーリスクの統治には、リーダーシップレベルでの強力な関与と行動が求められる。サイバーインシデントは事業継続を阻害し、組織の競争力を低下させ、顧客の信頼を損なう。サイバー犯罪者は組織の規模や業種に関わらず、システムの弱点を悪用する。
Building and maintaining cyber resilience is therefore crucial to protecting your organisation’s financial stability. Doing so will allow organisations to take full advantage of digital technologies, like artificial intelligence, which can drive the business strategy and improve business performance and efficiency, whilst managing the risks. したがって、組織の財務的安定性を守るためには、サイバーレジリエンスを構築し維持することが極めて重要だ。これにより組織は、リスクを管理しつつ、人工知能などのデジタル技術を最大限活用できる。こうした技術は事業戦略を推進し、事業パフォーマンスと効率性を向上させる可能性がある。
Get started with the Cyber Governance Code of Practice.  サイバーガバナンス実践規範の利用を開始する。

 

・[HTML][PDF] Cyber Governance Code of Practice 

20250410-60957

 

 


 

トレーニング

Cyber Governance Training

Cyber Governance Training サイバーガバナンストレーニング
Resources to enable Boards to govern cyber risks with confidence. 取締役会が自信を持ってサイバーリスクを統治するためのリソース。
Cyber security incidents can have a huge impact on an organisation in terms of cost, productivity, reputation, loss of customers and legal implications. Cyber resilience is about being prepared for an inevitable cyber security breach and Boards have a critical role, and accountability, in cyber governance. サイバーセキュリティインシデントは、コスト、生産性、評判、顧客喪失、法的影響の面で組織に甚大な影響を及ぼし得る。サイバーレジリエンスとは、避けられないサイバーセキュリティ侵害に備えることであり、取締役会はサイバーガバナンスにおいて重要な役割と説明責任を負う。
By actively engaging, Boards can strengthen their organisation's ability to prepare for, respond to, and recover from cyber security incidents. By actively engaging, directors can ensure their organisation is equipped to anticipate threats, mitigate risks, and effectively manage incidents when they occur. 取締役会が積極的に関与することで、組織はサイバーセキュリティインシデントへの備え、対応、復旧能力を強化できる。取締役が積極的に関与することで、組織が脅威を予測し、リスクを軽減し、インシデント発生時に効果的に管理する態勢を整えられる。
About the Training トレーニングについて
The NCSC has created five interactive training modules aligned with the principles of the Cyber Governance Code of Practice. Developed with insights from industry Non-Executive Directors and government subject matter experts, these modules are designed to meet the needs of Boards. They support Boards and Directors in understanding the principles of the Code and putting its recommended actions into practice, helping to improve their organisation's cyber resilience, without delving into the technical detail. NCSCは、サイバーガバナンス実践規範の原則に沿った5つの対話型トレーニングモジュールを作成した。業界の非常勤取締役や政府の専門家からの知見を基に開発されたこれらのモジュールは、取締役会のニーズを満たすように設計されている。技術的な詳細に踏み込むことなく、規範の原則を理解し、推奨される行動を実践に移すことで、組織のサイバーレジリエンス向上を支援する。
The training begins with an introductory module that outlines the purpose of the Cyber Governance Code of Practice, why cyber governance is important for Boards, and how it can support them to effectively govern cyber risks within their organisation. トレーニングは導入モジュールから始まる。ここでは「サイバーガバナンス実践規範」の目的、取締役会にとってサイバーガバナンスが重要な理由、組織内のサイバーリスクを効果的に統治する支援方法について概説する。
It is followed by five modules, each covering one of the Code of Practice principles. Each module should take approximately 20 minutes to complete and all 5 don’t need to be completed in one session. Each module includes: 続いて5つのモジュールが展開され、各モジュールが実践規範の原則の一つを扱う。各モジュールの所要時間は約20分で、5つ全てを一回のセッションで完了する必要はない。各モジュールには以下が含まれる:
・An overview of the principle ・原則の概要
・The Cyber Governance Code of Practice actions under that principle ・当該原則に基づく実践規範の行動指針
・The learning outcomes that are expected to be achieved following completion of the module ・モジュール修了時に習得すべき学習成果
・A short video covering a use-case or scenario ・ユースケースやシナリオを解説する短編動画
・Five multiple-choice questions ・5問の多肢選択式問題
・A final overview and a printable PDF summarising the key points ・最終概要と要点をまとめた印刷用PDF
・A link to relevant NCSC resources ・関連するNCSCリソースへのリンク
Board members don’t need to be cyber experts, but understanding key governance principles is essential for ensuring your organisation’s resilience. 取締役はサイバーの専門家である必要はないが、組織のレジリエンスを確保するには主要なガバナンス原則を理解することが不可欠だ。
Get started with the training modules トレーニングモジュールの開始
Introduction to the Code of Practice 実践規範入門
This module introduces the Cyber Governance Code of Practice, explains its purpose, the importance of cyber governance for Boards, and how it can support you in ensuring that cyber security risk is effectively managed within your organisation. 本モジュールでは、サイバーガバナンス実践規範の概要、その目的、取締役会にとってのサイバーガバナンスの重要性、組織内でのサイバーセキュリティリスクの効果的な管理を支援する方法を説明する。
Start Introduction to the Code of Pratice 実践規範入門を開始
Risk Management リスク管理
This module outlines five key insights to help Boards drive action and ensure effective governance of cyber risk within their organisation. 本モジュールでは、取締役会が組織内のサイバーリスクに対する効果的なガバナンスを確保し、行動を推進するための5つの重要な洞察を概説する。
Start Risk Management リスク管理を開始
Strategy 戦略
This module explains the Board’s role in overseeing an effective cyber strategy, ensuring it aligns with the wider business strategy and organisational goals. このモジュールでは、効果的なサイバー戦略を監督し、それが広範な事業戦略や組織目標と整合することを確保する取締役会の役割を説明する。
Start Strategy 戦略を開始
People 人材
Boards will learn how to promote a positive cyber security culture, leading by example, and ask insightful questions to ensure effective oversight. 取締役会は、模範を示すことで積極的なサイバーセキュリティ文化を促進し、効果的な監督を確保するための洞察に富んだ質問を投げかける方法を学ぶ。
Start People 開始 人材
Incident Planning, Response & Recovery インシデント計画、対応、復旧
Boards will explore their strategic role in ensuring effective oversight of cyber incident preparedness, response, and recovery. 取締役会は、サイバーインシデントへの備え、対応、復旧の効果的な監督を確保する戦略的役割を探求する。
Start Incident Planning, Response & Recovery 開始 インシデント計画、対応、復旧
Assurance and Oversight アシュアランスと監督
This module explains how Boards can provide strategic oversight, engage with experts, and ensure effective assurance. このモジュールでは、取締役会が戦略的監督を提供し、専門家と連携し、効果的なアシュアランスを確保する方法について説明する。
Start Assurance and Oversight 開始 アシュアランスと監督

 

 


 

ツールキット...

Cyber Security Toolkit for Boards

Cyber Security Toolkit for Boards 取締役会向けサイバーセキュリティツールキット
Resources to enable Boards to govern cyber risks with confidence. 取締役会が自信を持ってサイバーリスクを統治するためのリソース。
Board members have a critical role in ensuring their organisations are not just resilient and secure, but are ready to exploit the opportunities that technology brings. The Toolkit helps Boards to ensure that cyber resilience and risk management are embedded throughout an organisation, including its people, systems, processes and technologies. 取締役は、組織が単に強靭で安全であるだけでなく、技術がもたらす機会を活用する準備が整っていることを保証する上で重要な役割を担う。本ツールキットは、サイバーレジリエンスとリスク管理が組織全体(人材、システム、プロセス、技術を含む)に組み込まれるよう取締役会を支援する。
How to use the Toolkit ツールキットの使用方法
The Toolkit is organised around the Cyber Governance Code of Practice (opens to GOV.UK), and explains how Boards can implement the principles outlined in the Code. It includes two introductory modules: the first on the Toolkit structure and the second for those new to cyber security. 本ツールキットは「サイバーガバナンス実践規範」(GOV.UKサイトへリンク)を軸に構成され、規範で示された原則を取締役会がどのように実施できるかを説明する。導入モジュールは2つあり、1つ目はツールキットの構造について、2つ目はサイバーセキュリティ初心者向けの内容である。

 

Cyber Security Toolkit for Boards

1_20251023054401

 

目次...

Cyber Security Toolkit for Boards 取締役会向けサイバーセキュリティツールキット
Resources to help Boards implement the actions outlined in the Cyber Governance Code of Practice. 取締役会がサイバーガバナンス実践規範に示された行動を実施するためのリソース。
Cyber Security Toolkit for Boards 取締役会向けサイバーセキュリティツールキット
Introduction  はじめに
Introducing the Cyber Security Toolkit for Boards 取締役会向けサイバーセキュリティツールキットの紹介
What is cyber security? サイバーセキュリティとは何か
Principle A: Risk Management  原則A:リスク管理
Identifying the critical assets in your organisation 組織内の重要資産の特定
Risk management for cyber security サイバーセキュリティのためのリスク管理
Collaborating with your supply chain and partners サプライチェーンやパートナーとの連携
Principle B: Strategy 原則B:戦略
Embedding cyber security into your organisation 組織へのサイバーセキュリティの組み込み
Cyber security regulations and directors duties in the UK 英国のサイバーセキュリティ規制と取締役の義務
Principle C: People  原則C:人材
Growing cyber security expertise サイバーセキュリティ専門知識の育成
Developing a positive cyber security culture 積極的なサイバーセキュリティ文化の醸成
Principle D: Incident Planning, Response and Recovery 原則D:インシデント対応計画・対応・復旧
Planning your response to cyber incidents サイバーインシデント対応計画の策定
Principle E: Assurance and Oversight 原則E:アシュアランスと監視
Understanding the cyber security threat サイバーセキュリティ脅威の理解
Implementing effective cyber security measures 効果的なサイバーセキュリティ対策の実施
Resources リソース
Cyber Governance Training サイバーガバナンストレーニング
Briefing packs ブリーフィングパック
Documents to download ダウンロード文書
Interviews インタビュー
Videos for the toolkit modules ツールキットモジュール用動画
Videos for background detail 背景詳細用動画
Engaging with Boards to improve the management of cyber security risk 取締役会との連携によるサイバーセキュリティリスク管理の改善

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.10 英国 NCSC 取締役会のためのサイバーガバナンス(サイバーガバナンス実践規範)(2025.04.08)

・2024.11.28 英国 NCSC ガイダンス「サイバーセキュリティリスクマネジメントを改善するための取締役会との協力」とブログ記事「取締役会にサイバーについてどう話すか」 (2024.10.07)

・2024.02.05 英国 意見募集 サイバー・ガバナンス実践規範 (2024.01.23)

・2023.06.27 英国 NSCS (サイバーセキュリティ向け)リスクマネジメントガイドの改訂 (2023.06.23) + 取締役会向けサイバーセキュリティ・ツールキット (2023.03.30)

 

 

| | Comments (0)

2025.10.24

オーストラリア サイバー脅威年次報告 2024-2025

こんにちは、丸山満彦です。

オーストラリア信号局(Australian Signals Directorate)のサイバー脅威年次報告2024を公表していますね...

 

Australian Signals Directorate: ASD

・2025.10.14 Australian Signals Directorate releases the Annual Cyber Threat Report 2024-25

Australian Signals Directorate releases the Annual Cyber Threat Report 2024-25 オーストラリア信号局が2024-25年度サイバー脅威年次報告書を発表
The Australian Signals Directorate’s Australian Cyber Security Centre (ASD’s ACSC) has released its sixth Annual Cyber Threat Report (ACTR). オーストラリア信号局傘下のオーストラリアサイバーセキュリティセンター(ASDのACSC)は、第6回サイバー脅威年次報告書(ACTR)を発表した。
Over the last financial year (2024–25), state-sponsored cyber actors were a serious and growing threat as they targeted networks operated by Australian governments, critical infrastructure and businesses for state goals. Cybercrime continues to challenge Australia’s economic and social prosperity, with ransomware attacks and data breaches increasing in frequency. 前会計年度(2024-25年度)において、国家が支援するサイバー攻撃者は深刻かつ増大する脅威であり、国家目標達成のためオーストラリア政府、重要インフラ、企業が運営するネットワークを標的とした。サイバー犯罪はランサムウェア攻撃やデータ侵害の頻度が増加し、オーストラリアの経済的・社会的繁栄に引き続き挑戦を突きつけている。
Cybercriminals are financially motivated actors and are willing to exploit any available opportunity for profit. The findings in this year’s report demonstrate all Australians must take action to avoid becoming the next victim. サイバー犯罪者は金銭的動機を持つ者であり、利益を得るためならあらゆる機会を悪用する意思がある。本年報告書の調査結果は、全てのオーストラリア人が次の被害者とならないよう行動を起こす必要性を示している。
ASD’s ACSC urges businesses, organisations and network owners to take action by focusing on 4 key areas to bolster their cyber defences and prepare for future challenges: ASD傘下のACSCは、企業・組織・ネットワーク所有者に対し、サイバー防御を強化し将来の課題に備えるため、以下の4つの重点分野に焦点を当てた行動を促す:
1. Implement best-practice logging. 1. ベストプラクティスに基づくログ記録の実施。
2. Replace legacy technology. 2. レガシー技術の刷新。
3. Manage third-party risk. 3. サードパーティリスクの管理。
4. Prepare for post-quantum cryptography. 4. ポスト量子暗号への準備。
Download the latest report for a full understanding of the current cyber threat environment. The report includes information on ASD’s cyber security guidance, services and uplift programs. 最新の報告書をダウンロードし、現在のサイバー脅威環境を完全に理解せよ。本報告書には、ASDのサイバーセキュリティガイダンス、サービス、強化プログラムに関する情報が含まれている。
You can also download the ACTR fact sheets for a summary of the key threats facing you and your business. また、ACTRファクトシートをダウンロードすれば、貴社と貴社が直面する主要な脅威の概要を把握できる。

 


 

・2025.10.14 Annual Cyber Threat Report 2024-2025

ファイル...

報告書全文...

・[PDF] Annual Cyber Threat Report 2024-25

20251023-175319

 

個人向けファクトシート

・[PDF] Annual Cyber Threat Report 2024-25 factsheet for individuals

20251023-175401

 

 

企業向けファクトシート

・[PDF] Annual Cyber Threat Report 2024-25 factsheet for businesses and organisations

20251023-175423

 

 

重要インフラ向けファクトシート

・[PDF] Annual Cyber Threat Report 2024-25 factsheet for critical infrastructure

20251023-175446

 


 

報告書の目次...

Annual Cyber Threat Report 2024-2025 年次サイバー脅威報告書 2024-2025
Foreword 序文
About ASD’s ACSC ASDのACSCについて
Executive summary エグゼクティブサマリー
Year in review 年間レビュー
Chapter 1: Australian cyber threat landscape 第1章:オーストラリアのサイバー脅威状況
Chapter 2: Resilience 第2章:レジリエンス
About the contributors 寄稿者について
Notes 注記

 

副首相兼国防大臣の序文...

Foreword 序文
I am pleased to present the Annual Cyber Threat Report 2024–25. 2024-25年度サイバー脅威年次報告書を提出できることを光栄に思う。
The world continues to face complex strategic circumstances. Competition and military buildup in the Indo-Pacific, and ongoing global conflicts, are challenging Australia’s security and the global rules that have endured since World War II. In this uncertain environment, Australia's relationships with friends and allies are more critical than ever. 世界は依然として複雑な戦略的状況に直面している。インド太平洋地域における競争と軍事増強、そして継続する世界的な紛争は、オーストラリアの安全保障と第二次世界大戦以来持続してきた国際ルールに挑戦を突きつけている。この不確実な環境下で、オーストラリアの友好国・同盟国との関係はこれまで以上に重要である。
Over the past year, we have continued to see state-sponsored cyber actors targeting Australian networks to steal sensitive information. 過去1年間、国家が支援するサイバー攻撃者がオーストラリアのネットワークを標的にし、機密情報を窃取する事例が継続して確認された。
Australia joined multi-country advisories warning of the threat of state-sponsored actors targeting critical infrastructure for the purposes of positioning for potential disruptive attacks. One such advisory details how People’s Republic of China-affiliated threat actors targeted the networks of major global telecommunications providers to conduct a broad and significant cyber espionage campaign. Another details a Russian state-sponsored cyber campaign targeting Western logistics and technology businesses. I urge Australian businesses to review and apply the ASD and its partners’ technical advice to protect your networks. オーストラリアは、国家が支援する攻撃者が重要インフラを標的にし、将来的な破壊的攻撃に向けた準備を行う脅威について警告する多国間勧告に加盟した。ある勧告では、中華人民共和国関連の脅威アクターが主要なグローバル通信事業者のネットワークを標的にし、広範かつ重大なサイバー諜報活動を展開した手法が詳述されている。別の事例では、ロシアが支援するサイバー作戦が欧米の物流・技術企業を標的とした。オーストラリア企業には、ASD及びそのパートナー機関の技術的助言を精査し適用し、自社のネットワークを保護するよう強く促す。
Cybercriminals also relentlessly targeted Australians, with ransomware attacks and data breaches increasing in frequency. Using malware designed to covertly harvest information from Australian victims, cybercriminals used stolen data, usernames and passwords to launch subsequent attacks, compromise corporate networks and accounts. サイバー犯罪者もまた、ランサムウェア攻撃やデータ侵害の頻度を増す形で、執拗にオーストラリア人を標的にした。オーストラリアの被害者から密かに情報を収集するよう設計されたマルウェアを用い、サイバー犯罪者は盗んだデータ、ユーザー名、パスワードを利用して、さらなる攻撃を仕掛け、企業ネットワークやアカウントを侵害した。
The Australian Government continues to invest in the nation’s cyber capabilities through project REDSPICE, which doubles ASD’s size and ability to strike back against malicious cyber activity. In February 2025, the Australian Government imposed cyber sanctions on a Russian business and its employees for storing and facilitating the theft of millions of incredibly personal digital records posted by cybercriminals on the darkest corners of the internet. The sanctions were preceded and enabled by ASD's targeted offensive cyber activity, which disrupted criminal infrastructure used to host stolen personally identifiable information (PII) of millions of victims around the world. オーストラリア政府はプロジェクトREDSPICEを通じ、国家のサイバー能力への投資を継続している。これによりASDの規模は倍増し、悪意あるサイバー活動への反撃能力が強化された。2025年2月、オーストラリア政府はロシア企業とその従業員に対しサイバー制裁を発動した。その理由は、サイバー犯罪者がインターネットの闇の隅々に投稿した数百万件の極めて個人的なデジタル記録を保管し、その窃取を助長したためである。この制裁は、ASDによる標的型攻撃的サイバー活動によって先行し、実現されたものである。同活動は、世界中の数百万の被害者から盗まれた個人識別情報(PII)をホストするために使用された犯罪インフラを破壊した。
This was the first time Australia imposed cyber sanctions on an entity responsible for providing the infrastructure facilitating cybercrime. It was made possible by ASD's hard work and delivered collaboration with domestic and international industry, intelligence and law-enforcement partners. オーストラリアがサイバー犯罪を助長するインフラを提供した主体に対してサイバー制裁を課したのはこれが初めてである。これはASDの努力と、国内外の産業、情報機関、法執行機関との連携によって可能となった。
This report outlines the cyber threats the nation is facing. All Australians have a role in taking action to increase Australia’s cyber resilience. 本報告書は、国家が直面するサイバー脅威の概要を示す。全てのオーストラリア国民は、自国のサイバーレジリエンス強化に向けた行動において役割を担う。
The Hon Richard Marles, MP リチャード・マールズ議員
Deputy Prime Minister and Minister for Defence 副首相兼国防大臣

 

エグゼクティブサマリー...

Executive summary エグゼクティブサマリー
Australia is an early and substantial adopter of digital technology which drives public services, productivity and innovation. Our increasing dependency on digital and internet-connected technology means Australia remains an attractive target for criminal and state-sponsored cyber actors. オーストラリアは公共サービス、生産性、イノベーションを推進するデジタル技術の早期かつ大規模な導入国である。デジタル技術及びインターネット接続技術への依存度が高まる中、オーストラリアは犯罪者や国家支援型サイバーアクターにとって魅力的な標的であり続けている。
In FY2024–25, ASD’s ACSC received over 42,500 calls to the Australian Cyber Security Hotline, a 16% increase from the previous year. ASD’s ACSC also responded to over 1,200 cyber security incidents, an 11% increase. During FY2024–25, ASD’s ACSC notified entities more than 1,700 times of potentially malicious cyber activity – an 83% increase from last year – highlighting the ongoing need for vigilance and action to mitigate against persistent threats. 2024-25会計年度、ASD傘下のACSCはオーストラリア・サイバーセキュリティ・ホットラインに42,500件以上の通報を受け付けた。これは前年度比16%の増加である。またACSCは1,200件以上のサイバーセキュリティインシデントに対応し、11%の増加となった。2024-25会計年度中、ASDのACSCは潜在的に悪意のあるサイバー活動を1,700回以上通知した。これは前年比83%の増加であり、持続的な脅威を軽減するための警戒と行動の継続的必要性を浮き彫りにしている。
State-sponsored cyber actors continue to pose a serious and growing threat to our nation. They target networks operated by Australian governments, critical infrastructure (CI) and businesses for state goals. State-sponsored cyber actors may also seek to use cyber operations to degrade and disrupt Australia’s critical services and undermine our ability to communicate at a time of strategic advantage. 国家が支援するサイバー攻撃者は、わが国に対し深刻かつ増大する脅威を与え続けている。彼らは国家目標達成のため、オーストラリア政府が運営するネットワーク、重要インフラ(CI)、企業を標的とする。国家支援のサイバー攻撃者は、戦略的優位性のある時期にオーストラリアの重要サービスを低下・混乱させ、通信能力を損なうため、サイバー作戦を利用しようとする可能性もある。
The threat from cybercrime also continues to challenge Australia’s economic and social prosperity, with average reported financial losses, the frequency of ransomware attacks and the number of reported data breaches all increasing throughout FY2024–25. Cybercriminals are continuing their aggressive campaign of credential theft, purchasing stolen usernames and passwords from the dark web to access personal email, social media or financial accounts. サイバー犯罪の脅威も、オーストラリアの経済的・社会的繁栄への挑戦を続けている。2024-25会計年度を通じて、報告された平均金銭的損失額、ランサムウェア攻撃の頻度、報告されたデータ侵害件数はいずれも増加した。サイバー犯罪者は、ダークウェブから盗まれたユーザー名とパスワードを購入し、個人のメール、ソーシャルメディア、金融口座にアクセスするといった、積極的な認証情報窃取キャンペーンを継続している。
Malicious cyber actors are able to leverage vulnerabilities in the technology and security practices of individuals and businesses throughout the public and private sectors. Internet-facing vulnerabilities in edge devices are common, and they require network owners to rigorously monitor and configure securely. ‘Living off the land’ tradecraft has persevered, requiring an adjustment in the way network defenders prioritise understanding behavioural patterns of networks in order to detect the most sophisticated threats. 悪意のあるサイバー攻撃者は、公共部門と民間部門を問わず、個人や企業の技術・セキュリティ対策の脆弱性を悪用できる。エッジデバイスにおけるインターネット接続面の脆弱性は一般的であり、ネットワーク所有者は厳格な監視と安全な設定が求められる。「現地資源活用型」攻撃手法は根強く残っており、ネットワーク防御側は高度な脅威を検知するため、ネットワークの行動パターン理解を優先する手法の調整を迫られている。
The prevalence of artificial intelligence (AI) almost certainly enables malicious cyber actors to execute attacks on a larger scale and at a faster rate. The potential opportunities open to malicious cyber actors continue to grow in line with Australia’s increasing uptake of – and reliance on – internet-connected technology. 人工知能(AI)の普及は、悪意あるサイバー攻撃者がより大規模かつ高速な攻撃を実行することをほぼ確実に可能にしている。オーストラリアにおけるインターネット接続技術の普及と依存度の高まりに伴い、悪意あるサイバー攻撃者が利用可能な潜在的な機会は拡大し続けている。
CI is, and will continue to be, an attractive target for state-sponsored cyber actors, cybercriminals, and hacktivists, largely due to large sensitive data holdings and the critical services that support Australia’s economy. ASD’s ACSC notified CI entities of potential malicious cyber activity impacting their networks over 190 times in the last reporting period – up 111% from the previous year. 重要インフラ(CI)は、国家が支援するサイバーアクター、サイバー犯罪者、ハクティビストにとって、現在も将来も魅力的な標的である。その主な理由は、大量の機密データを保有し、オーストラリア経済を支える重要サービスを提供している点にある。ASD傘下のACSCは、前回の報告期間中にCI機関に対し、ネットワークに影響を与える可能性のある悪意あるサイバー活動について190回以上通知した。これは前年比111%の増加である。
The threat environment combined with our operational observations set out in this report underscores the need for all Australian individuals, private and public entities to take action to uplift our cyber resilience at every level. Every individual can uplift their cyber defences through basic actions. Use strong Multi-Factor Authentication (MFA) wherever possible, use strong and unique passwords or passphrases, keep software on devices updated, be alert for phishing messages and scams, and regularly back up important data. These basics have never been more important, and implementing these mitigations can prevent the majority of the cyber incidents reported to ASD’s ACSC. 本報告書で示した脅威環境と運用上の観察結果は、オーストラリアの個人、民間・公共機関の全てが、あらゆるレベルでサイバーレジリエンスを強化する行動を取る必要性を強調している。個人が基本的な対策で防御を強化できる。可能な限り強力な多要素認証(MFA)を利用し、強固で固有のパスワードやパスフレーズを使用し、端末のソフトウェアを常に更新し、フィッシングメッセージや詐欺に警戒し、重要なデータを定期的にバックアップすることだ。これらの基本対策はこれまで以上に重要であり、これらを実施することでASDのACSCに報告されるサイバーインシデントの大半を防げる。
Businesses should operate with a mindset of ‘assume compromise’ and prioritise the assets or ‘crown jewels’ that need the most protection. ASD recommends businesses and network owners focus on 4 ‘big moves’ to bolster their cyber defences and prepare for future challenges: implement best-practice logging, replace legacy IT, effectively manage third-party risk and prepare for post-quantum cryptography. 企業は「侵害を前提とする」姿勢で運営し、最も保護が必要な資産や「最重要資産」を優先すべきだ。ASDは企業とネットワーク所有者に対し、サイバー防御を強化し将来の課題に備えるため、4つの「大きな動き」に焦点を当てるよう推奨している:ベストプラクティスのログ記録を実施すること、レガシーITを置き換えること、サードパーティリスクを効果的に管理すること、ポスト量子暗号への準備をすることだ。
For those businesses also operating operational technology (OT), follow best-practice guidance for isolating vital OT and enabling systems, and have a plan for how to rebuild. 運用技術(OT)も扱う企業は、重要OTシステムの分離と稼働維持に関するベストプラクティスに従い、復旧計画を策定すべきだ。
For large organisations, ensuring technology used or provided to customers is secure-by-design and secure-by-default is critical for building modern networks that protect data and systems. 大規模組織にとって、顧客向け技術が設計段階から安全(secure-by-design)かつデフォルトで安全(secure-by-default)であることは、データとシステムを保護する現代的ネットワーク構築の要である。
The years ahead will bring challenges for organisations in emerging technology, such as post-quantum cryptography. ASD’s ACSC will continue to work with Australian industry and partner organisations to ensure the continued security of our communications and sensitive data. Effective transition plans will be critical to operating in 2030 and beyond – a post-quantum computing world – and this planning must start now. 今後数年は、ポスト量子暗号技術など新興技術が組織に課題をもたらすだろう。ASD傘下のACSCは、通信と機密データの継続的な安全確保に向け、オーストラリア産業界およびパートナー組織との協働を継続する。2030年以降、つまりポスト量子コンピューティング時代において運用を継続するには、効果的な移行計画が不可欠であり、その策定は今すぐ開始されねばならない。
Businesses must ensure that, in order to harness the full benefits and productivity associated with AI, a safe and secure approach is taken to the integration of AI technologies. 企業は、AIに関連する完全な利点と生産性を活用するため、AI技術の統合に安全かつセキュアなアプローチを取ることを保証しなければならない。
It remains critically important that organisations and individuals who observe suspicious cyber activity, incidents and vulnerabilities report to ReportCyber, or to the Australian Cyber Security Hotline 1300 CYBER1 (1300 292 371). 不審なサイバー活動、インシデント、脆弱性を観察した組織や個人は、ReportCyberまたはオーストラリアサイバーセキュリティホットライン1300 CYBER1(1300 292 371)へ報告することが極めて重要だ。

 

年間レビュ(確認した事実と実施した内容)

Year in review 年間レビュー
What ASD's ACSC saw ASDのACSCが確認した内容
Answered over 42,500 calls to the Australian Cyber Security Hotline, up 16% オーストラリアサイバーセキュリティホットラインへの応答件数は42,500件超(前年比16%増)
On average, 116 calls per day, an increase from 100 calls per day 1日平均116件の問い合わせ(前年比100件/日増)
Received over 84,700 cybercrime reports to ReportCyber, down 3% ReportCyberへのサイバー犯罪報告件数:84,700件超(3%減)
On average a report every 6 minutes, consistent with last year 6分ごとに1件の報告(前年並み)
Average self-reported cost of cybercrime per report for individuals, up 8% ($33,000) 個人報告者1件あたりの平均被害額:8%増(33,000ドル)
Average self-reported cost of cybercrime per report for businesses, up 50% overall ($80,850) 企業向け報告1件あたりの自己申告被害額:全体で50%増(80,850ドル)
small business: $56,600 (up 14%) 小規模企業:56,600ドル(14%増)
medium business: $97,200 (up 55%) 中規模企業:97,200ドル(55%増)
large business: $202,700 (up 219%) 大規模企業:202,700ドル(219%増)
Publicly reported common vulnerabilities and exposures increased 28% 公表された共通脆弱性(CVE)は28%増加した
11% of all incidents responded to included ransomware, consistent with last year 対応した全インシデントの11%がランサムウェア関連で、前年と同水準
Responded to more than 200 incidents involving Denial of Service (DoS) or Distributed Denial of Service (DDoS), up more than 280% from last year サービス拒否(DoS)または分散型サービス拒否(DDoS)攻撃を含むインシデント対応件数は200件超、前年比280%超増加
Identity fraud remained the top reported cybercrime, up 8% 身元詐欺は依然として最多のサイバー犯罪で、8%増加
What ASD's ACSC did ASDのACSCが実施した内容
Responded to over 1,200 cyber security incidents, an 11% increase from last year 1,200件以上のサイバーセキュリティインシデントに対応、前年比11%増
Notified entities of potential malicious cyber activity more than 1,700 times, up 83% 潜在的な悪意あるサイバー活動について1,700回以上関係機関に通知、83%増
Australian Protective Domain Name System blocked customer access to 334 million malicious domains, up 307% オーストラリア保護ドメインネームシステムが3億3,400万の悪意あるドメインへの顧客アクセスを遮断、307%増
Cyber Threat Intelligence Sharing (CTIS) partners grew by 13% to over 450 partners サイバー脅威情報共有(CTIS)パートナーは13%増加し、450社以上に達した
In late 2024, CTIS transitioned to ASD’s new enhanced CTIS platform 2024年末、CTISはASDの新強化プラットフォームに移行した
To date, CTIS has shared over 2,984,000 indicators of compromise 現在までにCTISは2,984,000件以上の侵害指標を共有した
Cyber Hygiene Improvement Programs サイバー衛生改善プログラム
Performed 478 high-priority operational taskings, up 31% 高優先度運用タスクを478件実施(31%増)
Distributed around 14,400 reports to approximately 3,900 organisations, up 125% and 95% respectively 約14,400件の報告書を約3,900組織に配布(それぞれ125%、95%増加)
Distributed around 11,000 Notifications of Indicators of Compromise to approximately 2,160 organisations 約11,000件の侵害指標通知を約2,160組織に配布
Government Uplift Program 政府支援プログラム
26 active Cyber Uplift Remediation Program engagements (commenced prior to 2024–25) 26件のサイバー強化修復プログラム契約を継続中(2024-25年度以前に開始)
4 Cyber Uplift Remediation Program engagements commenced (during the reporting period) 4件のサイバー強化修復プログラム契約を開始(報告期間中)
7 active Cyber Maturity Measurement Program engagements 7件のサイバー成熟度測定プログラム契約が進行中
Critical Infrastructure Uplift Program 重要インフラ強化プログラム
8 CI uplifts completed, covering 38 CI assets 8件の重要インフラ強化を完了、38の重要インフラ資産をカバー
4 CI uplift sprints completed, covering 5 CI assets 4回の重要インフラ強化スプリントを完了、5の重要インフラ資産をカバー
With a further 2 CI uplift sprints in progress さらに2回の重要インフラ強化スプリントが進行中
7 Tech-To-Tech workshops held 7回の技術者向けワークショップを開催
Notified critical infrastructure entities of potential malicious cyber activity over 190 times, up 111% 重要インフラ事業体に対し、潜在的な悪意あるサイバー活動について190回以上通知(前年比111%増)
Published or updated 26 PROTECT publications, including guidance publications related to the Essential Eight Maturity Model and updates to the Information Security Manual 26のPROTECT出版物を発行または更新(必須8要素成熟度モデル関連ガイダンスや情報セキュリティマニュアルの更新を含む)
Published a combination of 108 alerts, advisories, knowledge articles and publications on both cyber.gov.au and the Partner Portal cyber.gov.au及びパートナーポータルに合計108件のアラート・アドバイザリー・ナレッジ記事・出版物を掲載
ASD’s Cyber Security Partnership Program grew by 11% to over 133,000 partners ASDのサイバーセキュリティ・パートナーシップ・プログラムは11%拡大し、133,000以上のパートナーを擁する
Led 17 cyber security exercises, involving over 120 organisations, to strengthen Australia’s resilience オーストラリアのレジリエンス強化のため、120以上の組織が参加する17のサイバーセキュリティ演習を主導
Briefed board and executive leadership team representatives from 41% of the ASX100 ASX100企業の41%から取締役会および経営陣代表者へのブリーフィングを実施

 

 


 

過去分も含めて...

・2025.10.14 Annual Cyber Threat Report 2024-2025

・2024.11.20 Annual Cyber Threat Report 2023-2024

・2023.11.14 ASD Cyber Threat Report 2022-2023

・2022.11.04 ASD's ACSC Annual Cyber Threat Report, July 2021 to June 2022

・2021.09.15 ASD's ACSC Annual Cyber Threat report 2020-21

・2020.09.03 ASD's ACSC Annual Cyber Threat Report, July 2019 to June 2020

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

結構もらしてますね...

・2022.11.09 オーストラリア ACSC 年次サイバー脅威報告書(2021年7月から2022年6月)

・2020.09.19 AU ACSC Annual Cyber Threat Report: July 2019 to June 2020

 

 

 

| | Comments (0)

2025.10.23

欧州 EDPB デジタルユーロとトークンベースのオフラインモダリティ (2025.10.20)

こんにちは、丸山満彦です。

デジタル・ユーロの確立には、データ保護とプライバシーを確保することなどが必要であるが、EDPBが専門家に対して依頼した「トークンベースのオフライン方式」の現実的な実現可能性について詳細な評価についての報告書が公表されていますね...

透明性とコミュニティの関与が、安全で広く受け入れられるデジタルシステムのための実践的な前提条件ですね...

 

ところで1990年代に英国でMondex [wikipedia] というカード型の電子マネーがあったのを覚えている人もいると思います。日本では日立が関与していたと思います。

会社の先輩が関西学院大学の先生でもあり、授業のコマを持たせてもらい、このMondexについて説明をしたことを今でも覚えています。1996年くらいですかね。当時まだ駅にあった「阪急そば」でMondexを使うという想定で話をしました。やがて、現金は使われなくなり、会計監査も情報システムの内部統制の評価が重要となる、、、といった授業です。当時の日本の会計監査は、会社の人にヒアリングをし、現物をおさえるといういう監査が中心でしたからね...

 

European Data Protection Board: EDPB

・2025.10.20 The Digital Euro and its token-based offline modality

The Digital Euro and its token-based offline modality デジタルユーロとそのトークンベースのオフライン機能
An expert opinion 専門家意見
Over the last year, the EDPB has been working to ensure the highest standards of data protection and privacy in the context of the establishment of the digital euro. For example, the EDPB has adopted a joint opinion with the European Data Protection Supervisor (EDPS) on the Proposal for a Regulation on the establishment of the digital euro. 過去1年間、欧州データ保護委員会(EDPB)はデジタルユーロ導入の文脈において、データ保護とプライバシーの最高水準を確保すべく取り組んできた。例えばEDPBは、欧州データ保護監督官(EDPS)と共同で「デジタルユーロ導入に関する規則案」についての共同意見書を採択している。
Decisions regarding the design of the digital euro have significant implications for the rights and freedoms of European individuals as well as for their ability to use data protection-friendly and digital payment methods in the future. デジタルユーロの設計に関する決定は、欧州市民の権利と自由、ならびに将来的にデータ保護に配慮したデジタル決済手段を利用できる能力に重大な影響を及ぼします。
Taking into consideration the joint opinion by the EDPB and the EDPS, the EDPB requested an expert to make an in-depth assessment of the practical feasibility of the “token-based offline modality”, which the EDPB supports. The EDPB also asked the expert to investigate how this solution, suggested by the European Commission and the Eurosystem, can be implemented to ensure the very high level of protection envisaged. EDPBとEDPSによる共同意見を踏まえ、EDPBは専門家に対し、同機関が支持する「トークンベースのオフライン方式」の実用的な実現可能性について詳細な評価を依頼しました。また欧州データ保護委員会は、欧州委員会とユーロシステムが提案したこの解決策を、想定される非常に高い保護水準を確保するためにどのように実装できるかについても調査を依頼した。
As a result, this report explores the technical feasibility, inherent limitations, possible approaches, and security considerations related to the development of a cash-like, anonymous, and double-spending resistant offline modality for the digital euro. その結果、本報告書では、デジタルユーロのための現金のような、匿名性があり、二重支払いを防止するオフライン方式の開発に関連する技術的実現可能性、固有の制限、可能なアプローチ、およびセキュリティ上の考慮事項を探求している。
The EDPB launched this project in the context of the Support Pool of Experts (SPE) programme following a proposal of the Berlin Data Protection Authority (DPA). EDPBは、ベルリンデータ保護局(DPA)の提案を受け、専門家支援プール(SPE)プログラムの枠組みにおいて本プロジェクトを開始した。
The project was completed by the external expert Prof. Dr.-Ing. Tibor Jager in September 2025. 本プロジェクトは外部専門家であるティボール・ヤーガー教授(工学博士)により2025年9月に完了した。

 

・[PDF]

20251022-55656

・[DOCX][PDF] 仮訳

 

目次...

1. Considered Questions 1. 検討事項
2. Definition of Terminology 2. 用語の定義
2.1 Physical Cash 2.1 物理的な現金
2.2 “Online” and “Offline” Transactions 2.2 「オンライン」取引と「オフライン」取引
2.3 “Tokens” are Digital Coins 2.3 「トークン」はデジタルコインである
2.4 “Cash-like” Digital Currency 2.4 「現金類似」デジタル通貨
2.5 Secure Hardware 2.5 セキュアハードウェア
3. The CAP Theorem and its Application to Offline Digital Currencies 3. CAP定理とオフラインデジタル通貨への応用
3.1 Distributed Systems and the CAP Theorem 3.1 分散システムとCAP定理
3.2 The CAP Theorem in the Context of Offline Digital Currencies 3.2 オフラインデジタル通貨におけるCAP定理
3.3 On the Validity of the CAP Theorem 3.3 CAP定理の妥当性について
4. Achieving Consistency Through Secure Hardware 4. セキュアハードウェアによる一貫性の実現
4.1 Double-Spending Attacks and Secure Hardware 4.1 二重支払い攻撃とセキュアハードウェア
4.2 Mitigating Double-Spending Through Defence-in-Depth 4.2 多層防御による二重支払いの軽減
4.3 Conclusions 4.3 結論
5. Alternative Technical Solutions 5. 代替技術的解決策
5.1 Challenges of Achieving Cash-Like Properties in an Offline Digital Currency 5.1 オフラインデジタル通貨における現金類似特性の実現課題
5.2 Discussion of Solutions 5.2 解決策の検討
5.3 Conclusions 5.3 結論
6. Double-Spending Prevention for Transferable Digital Tokens 6. 譲渡可能なデジタルトークンにおける二重支払いの防止
7. Technical Solutions for an Anonymous Token-Based Offline Modality 7. 匿名トークンベースのオフライン方式のための技術的解決策
7.1 Blind Signatures 7.1 ブラインド署名
7.2 Using Blind Signatures for Privacy-Preserving Digital Cash 7.2 プライバシー保護型デジタルキャッシュにおけるブラインド署名の利用
7.3 Analysis of Functionality, Benefits, and Limitations 7.3 機能性、利点、制限の分析
7.4 Other cryptographic tools for privacy-preserving digital tokens 7.4 プライバシー保護型デジタルトークン向けその他の暗号技術
7.5 Conclusions 7.5 結論
8. Conclusions 8. 結論

 

サマリー...

Summary 概要
This document explores the technical feasibility, inherent limitations, possible approaches, and security considerations surrounding the development of a cash-like, anonymous, and double-spendingresistant offline modality for the Digital Euro. 本稿は、デジタルユーロ向けに現金類似匿名性・二重支払い防止機能を備えたオフライン方式を開発する際の技術的実現可能性、固有の制限、可能なアプローチ、およびセキュリティ上の考慮事項を探るものである。
Key Insights: 主な考察点:
• The vision of an offline digital currency that fully replicates the anonymity, security, and usability of physical cash is conceptually appealing, but the absence of physical constraints, the need for robust double-spending resistance, and the tension between anonymity and traceability pose a significant technical challenge. • 物理的な現金の匿名性、安全性、利便性を完全に再現するオフラインデジタル通貨の構想は概念的には魅力的だが、物理的制約の欠如、強固な二重支払防止の必要性、匿名性と追跡可能性の間の緊張関係が重大な技術的課題となっている。
• Realising an offline, secure, and privacy-preserving digital currency in practise requires navigating a complex landscape of technical trade-offs. There exists a large variety of cryptographic tools that can be used to achieve unforgeability and anonymity in a very strong way. These must be combined with suitable techniques for double-spending prevention, e.g., via secure hardware elements or by carefully weakening the offline requirement. • 実践においてオフラインで安全かつプライバシーを保護するデジタル通貨を実現するには、複雑な技術的トレードオフの領域をナビゲートする必要がある。非常に強力な方法で偽造防止性と匿名性を達成するために使用できる暗号技術は多種多様である。これらを二重支払防止のための適切な技術と組み合わせる必要がある。例えば、安全なハードウェア要素を利用するか、オフライン要件を慎重に緩和するといった方法である。
• The design must be guided by clear requirements, realistic threat models, and close collaboration across disciplines, including cryptography, systems security, hardware engineering, legal frameworks, and policy. Public transparency in both the design and implementation of all system components is essential, because scrutiny by independent experts helps uncover vulnerabilities early and is critical to fostering public confidence, broad adoption, and long-term legitimacy of the system. • 設計は明確な要件、現実的な脅威モデル、そして暗号技術、システムセキュリティ、ハードウェア工学、法的枠組み、政策といった分野横断的な緊密な連携によって導かれる必要がある。全てのシステム構成要素の設計と実装における公開透明性は不可欠である。独立した専門家による精査が脆弱性を早期に発見するのに役立ち、システムの公衆の信頼、広範な採用、長期的な正当性を育む上で重要だからだ。
In conclusion, an anonymous modality of the Digital Euro appears feasible, provided that the system is designed based on a suitable combination of techniques and trade-offs. Currently available cryptographic techniques offer a credible path forward for the design of a privacy-preserving and secure offline modality of the Digital Euro. 結論として、デジタルユーロの匿名モードは、技術とトレードオフの適切な組み合わせに基づく設計がなされれば実現可能である。現在利用可能な暗号技術は、プライバシーを保護し安全なオフラインモードのデジタルユーロ設計に向けた信頼できる道筋を提供している。
Outline:  概要:
This document is structured around five questions that are stated in Section 1. Section 2 contains definitions of essential terminology and notions such as “cash-like” currency. Section 3 discusses a well-known fundamental limitation that applies to any distributed system and its applicability to offline digital currencies. Section 4 considers the possibility and the challenges of using secure hardware to overcome this limitation. Section 5 discusses inherent challenges and techniques to achieve “cashlikeness”, including possible hybrid solutions. Section 6 considers the question of double-spending prevention. Section 7 focuses on technical approaches to design a cash-like offline digital currency based on standard cryptographic techniques. While it is beyond the scope of this document to provide a comprehensive overview of all available cryptographic methods, we aim to illustrate what is technically feasible by focusing on blind signatures as one particularly influential and well-understood tool and discuss their functionality, benefits, limitations, and approaches to address these limitations. 本文書は第1節で提示された5つの質問を軸に構成される。第2節では「現金類似性」通貨など、必須用語と概念の定義を記載する。第3節では分散システム全般に適用される既知の根本的制約と、オフラインデジタル通貨への適用可能性を論じる。第4節ではこの制約を克服するためのセキュアハードウェア活用の可能性と課題を考察する。第5節では「現金類似性」を実現するための固有の課題と技術、ハイブリッド解決策の可能性を論じる。第6節では二重支払いの防止について考察する。第7節では、標準的な暗号技術に基づく現金類似のオフラインデジタル通貨を設計するための技術的アプローチに焦点を当てる。利用可能な全ての暗号手法を網羅的に概説することは本稿の範囲外であるが、特に影響力があり理解が進んでいるツールの一つであるブラインド署名に焦点を当て、技術的に実現可能なことを示すことを目的とする。また、その機能性、利点、限界、およびこれらの限界に対処するアプローチについて論じる。

 

結論...

8. Conclusions 8. 結論
This report comes to the conclusion that an anonymous, cash-like offline modality of the Digital Euro seems technically feasible, but it requires a carefully orchestrated combination of cryptographic techniques, hardware assumptions, and systemic safeguards (Section 5.1). 本報告書は、デジタルユーロの匿名性を持つ現金類似のオフライン形態は技術的に実現可能であると結論づける。ただし、暗号技術、ハードウェアの仮定、システム的な安全策を慎重に組み合わせる必要がある(第5.1節)。
Certain properties (most notably unforgeability and anonymity) can be guaranteed very strongly using well-understood cryptographic methods. Using adequate cryptographic tools, even certain forms of accountability, which seemingly contradicts anonymity, can be realised in a way that honest users are protected and deanonymization is only possible for malicious users (Section 7.3.2). In contrast, other key requirements, such as double-spending resistance and transferability, face inherent constraints rooted in the CAP theorem (Section 5.1, Section 6). These limitations do not preclude a solution, but they necessitate careful and pragmatic choices, such as the use of secure hardware assumptions or weakening the offline requirements by considering a semi-offline setting (Section 5.2.3). Importantly, the required security assumptions should be as weak (i.e., as realistic) as possible, and used only where inherently required (Section 2.5, Section 4.3). For example, secure hardware assumptions should not be used to achieve anonymity when this property can be achieved much more reliably using well-understood cryptographic techniques (Section 7.5). It must also be taken into account that even if a certain hardware device is considered secure for traditional cryptographic use cases, such as secure key storage, it may not provide adequate protection against the more complex fraud scenarios in offline digital currencies, such as double-spending attacks. Physical proximity emerges as a property that is difficult to enforce reliably in a digital context, and thus it appears more promising to pursue designs whose security does not depend on robust distance-bounding (Section 2.4.2). 特定の特性(特に偽造不可能性と匿名性)は、確立された暗号手法を用いて非常に強固に保証できる。適切な暗号ツールを用いれば、一見匿名性と矛盾する特定の説明責任形態さえも、誠実なユーザーを保護し、悪意あるユーザーのみが匿名解除を可能とする形で実現できる(第7.3.2節)。一方、二重支払い耐性や移転可能性といった他の主要要件は、CAP定理に根ざした本質的な制約に直面する(第5.1節、第6節)。これらの制約は解決を不可能にするものではないが、安全なハードウェア仮定の使用や、半オフライン環境を考慮したオフライン要件の緩和といった、慎重かつ現実的な選択を必要とする(第5.2.3節)。重要なのは、必要なセキュリティ仮定は可能な限り弱く(つまり現実的に)、本質的に必要な場合にのみ使用すべきだということだ(セクション2.5、セクション4.3)。例えば、匿名性を達成するためにセキュアハードウェア仮定を用いるべきではない。この特性は、十分に理解された暗号技術を用いることでより確実に達成できるからである(セクション7.5)。また、特定のハードウェアデバイスが、セキュアな鍵保管といった従来の暗号利用ケースでは安全と見なされていても、二重支払い攻撃のようなオフラインデジタル通貨におけるより複雑な不正シナリオに対して十分な保護を提供しない可能性があることも考慮しなければならない。物理的近接性は、デジタル環境において確実に実施することが困難な特性として浮上しており、したがって、堅牢な距離制限に依存しない設計を追求する方が有望である(セクション2.4.2)。
The design of a Digital Euro must balance these trade-offs transparently, with clear requirements and robust threat models. デジタルユーロの設計は、明確な要件と堅牢な脅威モデルをもって、これらのトレードオフを透明性をもってバランスさせる必要がある。
An anonymous, offline, cash-like Digital Euro is a credible prospect, but also a demanding design challenge. Achieving it requires a multi-faceted approach that combines strong cryptographic guarantees with realistic and well-understood hardware assumptions, trade-offs, and transparent and open design. If these elements are aligned, it seems possible to build an offline modality that offers the expected security, privacy, and usability properties. 匿名性・オフライン・現金類似性を備えたデジタルユーロは実現可能な構想だが、同時に困難な設計課題でもある。これを達成するには、強固な暗号保証と現実的で理解されたハードウェア前提、トレードオフ、透明かつオープンな設計を組み合わせた多面的なアプローチが必要だ。これらの要素が整合すれば、期待されるセキュリティ・プライバシー・ユーザビリティ特性を備えたオフラインモードの構築は可能と思われる。
On the necessity of open and transparent system design. Lack of cash-like anonymity and the risk of attacks are real and credible threats in a digital currency system, which may severely hinder its acceptance. The best way to mitigate and respond to these risks in a democratic and trustworthy way is to open up the entire system for public scrutiny. The digital currency system must: オープンで透明なシステム設計の必要性について。現金類似匿名性の欠如と攻撃リスクは、デジタル通貨システムにおける現実的で信憑性のある脅威であり、その普及を著しく阻害する可能性がある。これらのリスクを民主的で信頼できる方法で軽減し対応する最善の方法は、システム全体を公の監視に開放することである。デジタル通貨システムは以下を必須とする:
1.  Clearly document the requirements, security goals, and attacker models for every component. 1.  各コンポーネントの要件、セキュリティ目標、攻撃者モデルを明確に文書化すること。
2.  Publish its protocols and the underlying security assumptions. 2.  プロトコルと基礎となるセキュリティ前提を公開すること。
3.  Provide open-source implementations of both software and hardware. 3.  ソフトウェアとハードウェアの両方のオープンソース実装を提供すること。
4.  Actively encourage independent experts and ethical hackers to test, analyse, and help improve the system. 4.  独立した専門家や倫理的ハッカーがシステムをテスト、分析し、改善を支援するよう積極的に促すこと。
An open and transparent design not only delivers stronger and more future-proof security, it also ensures legitimacy in the eyes of citizens. By demonstrating that the Digital Euro is built in line with Europe’s traditions of openness and protection of fundamental rights, one can foster the trust and acceptance necessary for its success. オープンで透明性のある設計は、より強固で将来性のあるセキュリティを実現するだけでなく、市民の目に正当性を保証する。デジタルユーロが欧州の伝統である開放性と基本的人権の保護に沿って構築されていることを示すことで、その成功に必要な信頼と受容を育むことができる。
A prime example of the great success of a transparent design approach is the DP-3T (“Decentralized Privacy-Preserving Proximity Tracing”) project [TBB+22], developed during the COVID-19 pandemic to enable contact tracing while preserving user privacy. Its core protocols, cryptographic assumptions, and threat models were made fully public from the outset, and the implementation was released as open source. This transparency allowed for wide-ranging independent analysis and critique, resulting in high public trust. Several European governments ultimately adopted DP-3T-based systems, precisely because their openness fostered both technical robustness and societal acceptance. This demonstrates how transparency and community engagement are practical prerequisites for secure and widely accepted digital systems. 透明性のある設計アプローチの成功例として、COVID-19パンデミック時に開発されたDP-3T(「分散型プライバシー保護近接追跡」)プロジェクト[TBB+ 22]が挙げられる。これはユーザーのプライバシーを保護しつつ接触追跡を可能にするためのもので、中核プロトコル、暗号学的仮定、脅威モデルは当初から完全に公開され、実装はオープンソースとしてリリースされた。この透明性により広範な独立した分析と批判が可能となり、高い社会的信頼を獲得した。欧州の数政府が最終的にDP-3Tベースのシステムを採用したのは、まさにその公開性によって技術的堅牢性と社会的受容性の両方が促進されたためである。これは、透明性とコミュニティの関与が、安全で広く受け入れられるデジタルシステムのための実践的な前提条件であることを示している。

 

 

| | Comments (0)

2025.10.22

欧州 EDPB 英国の同等性6年間延長 (2025.10.20)

こんにちは、丸山満彦です。

EDPBは、英国のGDPRが欧州のGDPRと同等であるということで、2031年12月末まで、同等性判断の有効期限を延長することになったみたいですね...

英国のGPDRは変更されたが、そのほとんどは法律の遵守を明確にし、容易にすることを目的としているとして、同等性は保たれているとしたようですね...

 

European Data Protection Board: EDPB

・2025.10.20 Draft UK adequacy decisions: EDPB adopts opinions

 

Draft UK adequacy decisions: EDPB adopts opinions 英国十分性認定案:欧州データ保護委員会(EDPB)が意見書を採択
Brussels, 20 October - During its latest plenary, the EDPB adopted two opinions on the European Commission’s draft decisions on the extension of the validity of the UK adequacy decisions under the General Data Protection Regulation (GDPR) and the Law Enforcement Directive (LED) until December 2031.* ブリュッセル、10月20日 - 欧州データ保護委員会(EDPB)は最新の総会において、欧州委員会が提出した「一般データ保護規則(GDPR)」および「法執行指令(LED)」に基づく英国十分性認定の有効期間を2031年12月まで延長する決定案に関する2件の意見書を採択した。*
The EDPB opinions, requested by the Commission as per Art. 70(1) (s) GDPR and Art. 51(1) (g) LED, address the proposed six-year extension of the two UK adequacy decisions which are set to expire in December 2025. 欧州委員会がGDPR第70条(1)(s)項およびLED第51条(1)(g)項に基づき要請したEDPBの意見書は、2025年12月に失効予定の英国適格性決定2件について提案されている6年間の延長措置を扱っている。
The extension of the validity of the UK adequacy decisions will allow organisations and competent authorities based in Europe to continue transferring data to UK-based organisations and authorities without implementing additional guarantees.** 英国における十分性認定の有効期間延長により、欧州に拠点を置く組織及び管轄当局は、追加的な保証措置を実施することなく、英国に拠点を置く組織及び当局へのデータ移転を継続することが可能となる。**
“The EDPB welcomes the continuing alignment between the UK and Europe’s data protection framework, despite the recent changes in the UK legal framework. 「EDPBは、英国の法的枠組みにおける最近の変更にもかかわらず、英国と欧州のデータ保護枠組みの継続的な整合性を歓迎する。
I call on the European Commission to address the points highlighted by the Board and to ensure an effective monitoring once the decisions are adopted. This will increase the robustness of UK’s adequacy and ensure more legal certainty for organisations and competent authorities transferring personal data from Europe to the UK.” 欧州委員会に対し、委員会が指摘した事項に対処し、決定採択後の効果的な監視を確保するよう要請する。これにより英国の十分性の堅牢性が向上し、欧州から英国へ個人データを移転する組織及び管轄当局にとって法的確実性がより高まるでしょう。」
EDPB Chair, Anu Talus EDPB議長 アヌ・タラス
About the GDPR opinion GDPR意見書について
According to the Board, most of the changes introduced to the UK’s data protection framework aim to clarify and facilitate compliance with the law. 委員会によれば、英国のデータ保護枠組みに導入された変更の大半は、法令遵守の明確化と円滑化を目的としている。
Some aspects of the draft decision could be further clarified. 決定案の一部事項についてはさらなる明確化が可能である。
The EDPB invites the European Commission to further analyse and monitor the changes to the Retained EU Law (Revocation and Reform) Act 2023, also known as REUL Act, in particular the removal of the principle of primacy of EU law and the removal of the direct application of the principles of EU law. EDPBは欧州委員会に対し、2023年EU法維持(廃止・改正)法(通称REUL法)の変更点、特にEU法の優越性の原則の削除およびEU法原則の直接適用廃止について、さらなる分析と監視を行うよう要請する。
The EDPB notes that the Secretary of State has been granted new powers to introduce changes to the new data protection framework, via secondary regulations which require less Parliamentary scrutiny. This is the case for international transfers, automated decision-making, and the governance of the Information Commissioner’s Office (ICO). The EDPB invites the Commission to address possible risks of divergence by highlighting, in the final adequacy decision, the areas which they intend to carefully monitor. EDPBは、国務大臣が新たなデータ保護枠組みへの変更を導入する新たな権限を付与されたことを指摘する。これは、議会の監視が比較的少ない二次規制を通じて行われる。国際移転、自動化された意思決定、情報コミッショナー事務局(ICO)のガバナンスがこれに該当する。EDPBは、欧州委員会に対し、最終的な十分性決定において注意深く監視する意向の分野を強調することで、乖離の可能性のあるリスクに対処するよう要請する。
The EDPB also encourages the Commission to further elaborate its assessment and monitor the rules on transfers from the UK to third countries. The new adequacy test, introduced by the Data (Use and Access) Act 2025, requires the level of protection of the third country to be not materially lower than the one provided for data subjects by the UK framework, but this test does not refer to the risk of government access, the existence of redress for individuals and the need for an independent supervisory authority. EDPBはまた、欧州委員会に対し、英国から第三国への移転に関する規則の評価をさらに詳細化し、監視するよう促している。2025年データ(利用及びアクセス)法で導入された新たな十分性基準は、第三国の保護水準が英国枠組みがデータ主体に提供する水準を実質的に下回らないことを要求するが、この基準は政府によるアクセスリスク、個人に対する救済措置の存在、独立した監督機関の必要性には言及していない。
The Commission should also further assess and monitor the purported use by the UK Government of Technical Capability Notices (“TCN”) requiring companies to circumvent encryption, as this would create systemic vulnerabilities and pose a risk to the integrity and confidentiality of electronic communications. 欧州委員会はまた、英国政府が企業に対し暗号化回避を要求する技術的能力通知(TCN)の適用について、さらなる評価と監視を行うべきである。これはシステム的な脆弱性を生み出し、電子通信の完全性と機密性にリスクをもたらすためである。
Finally, the EDPB calls on the Commission to further assess and monitor the changes to the structure of the ICO and the exercise of its corrective powers. In this context, the EDPB positively notes the transparency policy of the ICO and the availability of the statistical and analytical data of its enforcement activities. 最後に、EDPBは欧州委員会に対し、情報コミッショナー事務局(ICO)の組織構造変更及び是正権限の行使について、さらなる評価と監視を求める。この文脈において、EDPBはICOの透明性方針及び執行活動の統計・分析データの公開を肯定的に評価する。
The new adequacy decisions will add to the 2021 decisions, which will continue to apply to areas not covered in the 2025 draft decisions. The EDPB builds on its 2021 opinions (14/2021 and 15/2021). In particular, the close alignment between the GDPR framework and the UK legal framework on key provisions, highlighted in 2021, continues to hold true today (including, for example, transparency, data subject rights, and special categories of data). 新たな十分性認定は2021年決定に追加されるものであり、2025年草案決定で対象外となる分野には引き続き2021年決定が適用される。EDPBは2021年の意見書(14/2021及び15/2021)を基盤とする。特に、2021年に強調されたGDPR枠組みと英国法枠組みの主要規定(例:透明性、データ主体の権利、特別カテゴリーのデータ等)における緊密な整合性は、現在も有効である。
About the LED opinion LED意見について
The EDPB welcomes the continuous alignment between the data protection framework in Europe and the UK, and encourages the Commission to complement its assessment on aspects relating to national security exemptions. Such exemptions may waive most data protection principles and some international transfer rules for law enforcement authorities, and also limit ICO’s enforcement and inspection powers. EDPBは、欧州と英国のデータ保護枠組みの継続的な整合性を歓迎し、国家安全保障上の例外に関する側面についての評価を補完するよう欧州委員会に促す。こうした例外は、法執行機関に対してほとんどのデータ保護原則及び一部の国際移転規則を免除し、ICOの執行・検査権限を制限する可能性がある。
The EDPB invites the Commission to analyse the UK’s rules on transfers of personal data to third countries, in particular the new adequacy test, in the same way as in the GDPR opinion. EDPBは、GDPR意見書と同様の手法で、第三国への個人データ移転に関する英国の規則(特に新たな十分性基準)を欧州委員会が分析するよう要請する。
The Board also points out the more permissive approach for automated decision making and the new powers conferred to the Secretary of State in this matter. It recalls the importance of meaningful human review and urges the Commission to clarify and monitor possible exemptions from individuals’ right to obtain human intervention. 委員会はまた、自動化された意思決定に対するより寛容なアプローチと、この分野で国務大臣に付与された新たな権限を指摘する。意味のある人的審査の重要性を想起し、個人の人的介入を求める権利からの免除可能性について欧州委員会が明確化・監視するよう促す。
Finally, the EDPB acknowledges that the system of oversight of criminal law enforcement agencies as well as the redress mechanisms remain largely unchanged, and it reiterates the need for the Commission to closely monitor the application of corrective powers and remedies for individuals in the UK data protection framework. 最後に、EDPBは刑事法執行機関の監督システム及び救済措置がほぼ変更されていないことを認識し、英国データ保護枠組みにおける是正権限及び個人向け救済措置の適用を欧州委員会が厳密に監視する必要性を改めて強調する。
Note to editors: 編集者注:
* On 22 July 2025, the European Commission issued two draft amending implementing decisions on the adequate protection of personal data by the United Kingdom pursuant to Article 45(3) GDPR and Article 36(3) LED. These draft decisions aim at extending the validity of the previous adequacy decisions adopted on 28 June 2021. * 2025年7月22日、欧州委員会はGDPR第45条(3)およびLED第36条(3)に基づき、英国の個人データ保護の十分性に関する2件の実施決定改正案を公表した。これらの改正案は、2021年6月28日に採択された従来の十分性決定の有効期間延長を目的とする。
In May 2025, the Commission adopted a decision to extend the validity of the UK adequacy decision for six more months, from June until December 2025. The EDPB adopted an opinion on this extension in May 2025. 2025年5月、欧州委員会は英国の十分性決定の有効期間を6か月間(2025年6月から12月まで)延長する決定を採択した。欧州データ保護委員会(EDPB)は2025年5月、この延長に関する意見書を採択している。
** An adequacy decision is a key-mechanism in EU data protection legislation which allows the European Commission to determine whether a third country or an international organisation offers an adequate level of data protection. The European Commission has the power to determine, on the basis of Art. 45 of Regulation (EU) 2016/679 whether a country outside the EU offers an adequate level of data protection. ** 十分性認定は、EUデータ保護法における主要な仕組みであり、欧州委員会が第三国または国際機関が十分なデータ保護水準を提供しているかどうかを判断することを可能にします。欧州委員会は、規則(EU)2016/679第45条に基づき、EU域外の国が十分なデータ保護水準を提供しているかどうかを判断する権限を有しています。
The adoption of an adequacy decision involves: 1) a proposal from the European Commission; 2) an opinion of the European Data Protection Board; 3) an approval from representatives of EU countries; 4) the adoption of the decision by the European Commission. 十分性認定の採択には以下のプロセスが含まれる:1)欧州委員会による提案、2)欧州データ保護委員会(EDPB)の意見、3)EU加盟国代表による承認、4)欧州委員会による決定の採択。

 

1_20251021054801

 


 

・2025.10.16 [PDF] Opinion 26/2025 regarding the European Commission Draft Implementing Decision pursuant to Regulation (EU) 2016/679 on the adequate protection of personal data by the United Kingdom

20251021-55643

 

エグエクティブサマリー...

Opinion 26/2025 regarding the European Commission Draft Implementing Decision pursuant to Regulation (EU) 2016/679 on the adequate protection of personal data by the United Kingdom 欧州委員会による英国における個人データの適切な保護に関する規則(EU)2016/679に基づく実施決定案に関する意見書 26/2025
Executive summary  エグゼクティブサマリー
On 22 July 2025, the European Commission started the process towards the adoption of its draft implementing decision on the adequate protection of personal data by the United Kingdom (UK) pursuant to Article 45(2) GDPR.  This Draft Decision extends the validity of certain parts of the previous adequacy decision of 28 June 2021 by way of reference until December 2031.  2025年7月22日、欧州委員会は、一般データ保護規則(GDPR)第45条(2)に基づき、英国(UK)による個人データの適切な保護に関する実施決定案の採択に向けた手続きを開始した。本決定案は、2021年6月28日付の以前の十分性決定の一部について、参照によりその有効性を2031年12月まで延長するものである。
On the same date, the European Commission asked for the opinion of the European Data Protection Board. The EDPB’s assessment of the adequacy of the level of protection afforded by the UK has been made on the basis of the examination of the draft decision itself as well as on the basis of an analysis of the documentation made available by the European Commission.   同日、欧州委員会は欧州データ保護委員会(EDPB)に意見を求めた。EDPBによる英国の保護水準の十分性評価は、決定案自体の審査ならびに欧州委員会が提供した文書の分析に基づいて行われた。
The EDPB focused on the assessment of both, the general data protection aspects of the draft decision and the access by public authorities to personal data transferred from the EEA to the UK for the purposes of law enforcement and national security, including the legal remedies available to individuals in the EEA.  EDPBは、草案決定の一般的なデータ保護側面と、法執行及び国家安全保障を目的としてEEAから英国へ移転された個人データへの公的機関によるアクセス(EEA域内の個人が利用可能な法的救済手段を含む)の両方の評価に焦点を当てた。
The EDPB also assessed whether the safeguards provided under the UK legal framework are in place and effective.  EDPBはまた、英国の法的枠組みの下で提供される保護措置が整備され、効果的であるかどうかも評価した。
The EDPB has used as main reference for this work its GDPR Adequacy Referential (“GDPR Adequacy Referential”) adopted on 28 November 2017, as last revised and adopted on 6 February 2018 and the EDPB Recommendations 02/2020 on the European Essential Guarantees for surveillance measures.  EDPBは本作業の主要な参照資料として、2017年11月28日に採択され、2018年2月6日に最終改訂・採択された「GDPR適合性基準」(GDPR Adequacy Referential)及び監視措置に関する欧州基本保証に関するEDPB勧告02/2020を用いた。
The EDPB welcomes the continuing alignment between the UK and EU data protection framework, notwithstanding recent developments in the UK relevant legal framework. Against this background, this opinion highlights several points that require further analysis, as well as some issues that the Commission should closely monitor in the coming years as part of its monitoring obligation under article 45(4) GDPR.  EDPBは、英国の関連法制度における最近の動向にもかかわらず、英国とEUのデータ保護枠組みの継続的な整合性を歓迎する。こうした背景を踏まえ、本意見書では、さらなる分析が必要な複数の点と、GDPR第45条(4)に基づく監視義務の一環として、今後数年間にわたり欧州委員会が注視すべきいくつかの課題を指摘する。
The EDPB notes that the UK introduced changes regarding the “inherited” EU general legal framework by virtue of the Retained EU Law (Revocation and Reform) Act 2023 (“REUL Act”), which - inter alia - removes the principle of primacy of EU law (with guarantees for some GDPR provisions) and removes the direct application of the principles of EU law, including the right to privacy and data protection as derived from the Charter of Fundamental Rights. The EDPB invites the Commission to explain and make a more detailed assessment of the changes brought by the REUL Act and assess their impact on the UK legal framework generally and its data protection framework more specifically. The EDPB also considers this an area to be closely monitored in the future by the Commission.  EDPBは、英国が「継承された」EU一般法的枠組みに関して、2023年EU法維持(廃止及び改正)法 (以下「REUL法」)により、EU法の優越性の原則(GDPRの特定規定に対する保証付き)を廃止し、基本権憲章に由来するプライバシー権及びデータ保護権を含むEU法の原則の直接適用を排除したことを指摘する。EDPBは、欧州委員会に対し、REUL法による変更点の説明と詳細な評価、ならびに英国法枠組み全般および特にデータ保護枠組みへの影響評価を求める。また、欧州委員会が今後この分野を注視すべき領域と考える。
The EDPB notes that the Secretary of State has been granted new powers to introduce changes to the new data protection framework via secondary regulations, which require less Parliamentary scrutiny, in certain cases, for instance, international transfers, automated decision-making, and the governance of the IC. The EDPB invites the Commission to highlight in the final Adequacy Decision the areas which they intend to carefully monitor because there is a risk of further divergence with the EU data protection law via secondary UK legislation.  EDPBは、国際移転、自動化された意思決定、情報コミッショナー(IC)のガバナンスなど特定のケースにおいて、議会による審査を必要としない二次法規を通じて新たなデータ保護枠組みに変更を導入する新たな権限が国務大臣に付与されたことを指摘する。EDPBは、英国二次立法によるEUデータ保護法とのさらなる乖離リスクがあるため、欧州委員会に対し、最終的な十分性認定決定において注意深く監視する意向の分野を明示するよう要請する。
The EDPB observes changes to the rules governing transfer of personal data, notably the new indicative list of elements to be considered in the adequacy test which does not include important elements that figured in the previous UK adequacy test . This applies both to third country transfers carried out under the UK GDPR and to transfers of data processed for law enforcement purposes.  The EDPB encourages the Commission to specifically further elaborate its assessment on these aspects and monitor the developments and the practical implementation of this new adequacy test.  EDPBは、個人データ移転に関する規則の変更、特に適格性審査において考慮すべき新たな指標リストに、以前の英国適格性審査で重要視されていた要素が含まれていない点を指摘する。これは英国GDPRに基づく第三国移転と、法執行目的で処理されるデータの移転の両方に適用される。EDPBは、欧州委員会に対し、これらの側面に関する評価を具体的にさらに精緻化し、この新たな十分性テストの進展と実務上の実施状況を監視するよう促している。
The EDPB invites the Commission to make a more detailed assessment of the restructuring of the Information Commissioner’s Office (“ICO”) as a board and the rules for appointment and dismissal of executive and non-executive board members. The EDPB also invites the Commission to provide more detail on the ICO’s recent consultation, issued after this draft decision, to introduce a new triage system for complaints handling. The EDPB invites the Commission to monitor all these changes once they come into effect. While positively noting the transparency policy of the ICO and the availability of the statistical and analytical data of its enforcement activities, the EDPB also invites the Commission and to make a more detailed assessment and monitor the application of corrective powers, effectiveness of sanctions and of remedies for affected parties in the UK data protection framework.   EDPBは、情報コミッショナー事務局(ICO)の理事会としての再編、ならびに執行役および非執行役理事の任命・解任規則について、欧州委員会がより詳細な評価を行うよう要請する。また、本決定案発表後にICOが実施した苦情処理のための新たなトリアージ制度導入に関する最近の協議について、欧州委員会がより詳細な情報を提供するよう要請する。EDPBは、これらの変更が全て発効した後に、欧州委員会がそれらを監視するよう要請する。ICOの透明性政策及び執行活動の統計・分析データの公開を肯定的に評価しつつも、EDPBは欧州委員会に対し、英国データ保護枠組みにおける是正権限の適用、制裁の有効性、影響を受ける当事者に対する救済措置について、より詳細な評価を行い監視するよう要請する。
The EDPB considers it essential to assess the extended national security exemptions under the law enforcement framework and remains particularly vigilant regarding any exemptions from the principle of proportionality, as well as from the requirement to process personal data for a legitimate purpose. Likewise, any exemptions from the powers of the supervisory authority should be approached with caution. Any limitation on the exercise of rights and freedoms recognised by the Charter must respect their essence and, subject to the principle of proportionality, may be made only if necessary and genuinely meeting objectives of general interest recognised by the Union or the need to protect the rights and freedoms of others. The EDPB calls on the Commission to complement its assessment in the final Adequacy Decision and to specifically monitor the application in practice of the national security exemptions for law enforcement authorities.    EDPBは、法執行枠組みにおける国家安全保障関連の免除規定の拡大を評価することが不可欠であると考え、比例原則ならびに正当な目的のための個人データ処理要件からの免除については特に警戒を継続する。同様に、監督当局の権限からの免除についても慎重な対応が必要である。基本権憲章で認められた権利・自由の行使に対するいかなる制限も、その本質を尊重し、比例原則に従い、必要不可欠かつ真にEUが認める公益目的または他者の権利・自由保護の必要性を満たす場合にのみ行われるべきである。EDPBは、欧州委員会に対し、最終的な十分性認定決定における評価を補完し、特に法執行機関に対する国家安全保障上の免除規定の実務上の適用を監視するよう要請する。
The EDPB notes that processing activities carried out by authorities competent for law enforcement can, in specific circumstances, fall under the rules normally applicable to the processing of personal data by national security authorities. In this context, particular attention should be paid to ensuring that the data protection regime for national security processing is not being extended to contexts not related to national. The EDPB invites the Commission to monitor whether qualifying competent authorities are able to maintain a clear distinction between different processing purposes in order to adhere to the corresponding legal framework accordingly.  EDPBは、法執行を担当する当局による処理活動が、特定の状況下では国家安全保障当局による個人データ処理に通常適用される規則の対象となり得ることを指摘する。この文脈において、国家安全保障処理のためのデータ保護制度が国家安全保障と無関係な状況に拡大適用されないよう、特に注意を払う必要がある。EDPBは、該当する管轄当局が異なる処理目的を明確に区別し、対応する法的枠組みを遵守できるかどうかを監視するよう欧州委員会に要請する。
The EDPB welcomes the clarifications reached between the UK and U.S. in the context of the UK-U.S. Cloud Act Agreement, which provide further legal clarity. At the same time, the EDPB would like to recall the need to improve the level of safeguards provided by the EU-U.S. Umbrella Agreement, whose privacy and data protection safeguards are incorporated into the UK-U.S. Cloud Act Agreement. Overall, the EDPB sees a need for clarification as to the Commission’s assessment of the UK-U.S. Cloud Act Agreement and any possible impact on the level of protection. The EDPB invites the Commission to continue to include the UK-U.S. Cloud Act Agreement in its future assessments and reviews.  EDPBは、英国と米国間の「英国・米国クラウド法協定」において合意された明確化を歓迎する。これにより法的透明性がさらに向上した。同時に、EU-米国包括的保護協定(EU-U.S. Umbrella Agreement)が提供する保護水準の向上が必要であることを想起したい。同協定のプライバシー及びデータ保護上の保護措置は、英国・米国クラウド法協定に組み込まれている。全体として、英国・米国クラウド法協定に対する欧州委員会の評価及び保護水準への潜在的影響について、明確化が必要であるとEDPBは考える。EDPBは、欧州委員会に対し、今後の評価・見直しにおいて英国・米国クラウド法協定を引き続き対象に含めるよう要請する。
As recently pointed out in Statement 05/2024, the EDPB considers encryption to be essential for ensuring the security and confidentiality of personal data and electronic communications. Technical Capability Notices under the IPA 2016 compelling companies to provide the ability to remove encryption at the government’s request create systemic vulnerabilities and pose a direct threat to the integrity and confidentiality of electronic communications. Such developments merit attention in the adequacy decision, particularly in light of Article 45(2)(a) GDPR, which requires an assessment not only of the legal framework on paper but also of its implementation, and should be monitored.    声明05/2024で最近指摘した通り、EDPBは暗号化が個人データ及び電子通信の安全性と機密性を確保する上で不可欠であると考えている。2016年調査権限法(IPA)に基づく技術的能力通知は、政府の要請に応じて暗号化を解除する能力の提供を企業に義務付けるものであり、体系的な脆弱性を生み出し、電子通信の完全性と機密性に対する直接的な脅威となる。こうした動向は、特にGDPR第45条(2)(a)が紙面上の法的枠組みだけでなくその実施状況の評価を要求していることを踏まえ、十分性決定において注目に値し、監視されるべきである。
The EDPB notes that the Investigatory Powers Amendment Act 2024 introduced a specific regime for the retention and examination of bulk personal datasets for which the individuals to whom the personal data relates “could have no, or only a low, reasonable expectation of privacy”. The EDPB sees a need for further clarifications with regard to the relevant changes, in particular regarding the concepts of “individual authorisations” and “category authorisations”. Furthermore, the EDPB invites the Commission to closely monitor the implementation of the term “low or no reasonable expectation of privacy” in practice. EDPBは、2024年捜査権限改正法が、個人データに関連する個人が「プライバシーを合理的に期待できない、または期待が低い」大量個人データセットの保持・調査に関する特定制度を導入した点を指摘する。EDPBは、関連する変更、特に「個別認可」および「カテゴリー認可」の概念について、さらなる明確化が必要と見なしている。さらに、EDPBは欧州委員会に対し、「プライバシーに対する合理的な期待が低い、あるいは全くない」という用語の実践的適用を厳密に監視するよう要請する。

 

目次...

1.  INTRODUCTION 1. はじめに
1.1.  Scope of the Commission’s Draft Decision 1.1. 欧州委員会決定案の範囲
1.2.  Scope of this EDPB Opinion 1.2. 本EDPB意見の範囲
1.3.  Developments IN The UK legal framework 1.3. 英国の法的枠組みにおける動向
1.4.  General comments and concerns 1.4. 一般的な所見と懸念
1.4.1.  International commitments entered into by the UK 1.4.1. 英国が締結した国際的約束
1.4.2.  Powers of the Secretary of State to introduce changes to the DUAA via secondary regulations 1.4.2. 政令によるDUAA変更導入に関する国務大臣の権限
2.  GENERAL DATA PROTECTION ASPECTS 2. データ保護に関する一般的側面
2.1.  Recognised legitimate interests 2.1. 認められた正当な利益
2.1.1.  General remarks 2.1.1. 総論
2.1.2.  Disclosure for purposes of processing described in Article 6(1)(e) 2.1.2. 第6条(1)(e)に規定される処理目的のための開示
2.2.  Individual rights 2.2. 個人の権利
2.2.1.  Rights of Access 2.2.1. アクセス権
2.2.2.  Safeguards for “immigration exemption” 2.2.2. 「移民免除」に関する保護措置
2.3.  Restrictions on onward transfers 2.3. 転送の制限
2.4.  Automated decision making 2.4. 自動化された意思決定
2.4.1.  Automated decision making and human involvement 2.4.1. 自動化された意思決定と人間の関与
3.  PROCEDURAL AND ENFORCEMENT MECHANISM 3. 手続き的・執行メカニズム
3.1.  Oversight and enforcement 3.1. 監督と執行
3.1.1.  Independent oversight 3.1.1. 独立した監督
3.1.2.  Enforcement, including sanctions 3.1.2. 制裁を含む執行
4.  ACCESS TO AND USE OF PERSONAL DATA TRANSFERRED FROM THE EUROPEAN UNION BY PUBLIC AUTHORITIES IN THE UNITED KINGDOM 4. 英国公的機関による欧州連合からの個人データ移転へのアクセス及び利用
4.1.  Access and use by UK public authorities for criminal law enforcement purposes 4.1. 刑事法執行目的における英国公的機関によるアクセス及び利用
4.1.1.  Legal bases and applicable safeguards 4.1.1. 法的根拠及び適用される保護措置
4.1.1.1.  Investigatory powers for law enforcement purposes 4.1.1.1. 法執行目的のための捜査権限
4.1.1.2.  National security exemptions for law enforcement authorities 4.1.1.2. 執行機関に対する国家安全保障上の例外
4.1.2.  Joint controllerships between UK intelligence agencies and law enforcement authorities 4.1.2. 英国の情報機関と執行機関との共同管理者
4.1.3.  The right of access 4.1.3. アクセス権
4.1.4.  Onward transfers 4.1.4. 転送
4.1.4.1.  A new data protection test 4.1.4.1. 新たなデータ保護テスト
4.1.4.2.  The UK-U.S. Cloud Act Agreement 4.1.4.2. 英米クラウド法協定
4.1.5.  Oversight and redress 4.1.5. 監督と救済
4.2.  Access and use by UK public authorities for national security purposes 4.2. 国家安全保障目的における英国公的機関によるアクセスと利用
4.2.1.  The Use of Technical Capability Notices 4.2.1. 技術的能力通知(TCN)の利用
4.2.2.  Legal bases and applicable safeguards 4.2.2. 法的根拠と適用される保護措置
4.2.3.  Oversight and redress 4.2.3. 監督と救済
5.  REVIEW, DURATION AND RENEWAL OF DRAFT DECISION 5. 決定案の見直し、有効期間及び更新

 

 


 

・2025.10.16 [PDF] Opinion 27/2025 regarding the European Commission Draft Implementing Decision pursuant to Directive (EU) 2016/680 on the adequate protection of personal data by the United Kingdom

 

20251021-55651

エグゼクティブサマリー...

Opinion 27/2025 regarding the European Commission Draft Implementing Decision pursuant to Directive (EU) 2016/680 on the adequate protection of personal data by the United Kingdom 欧州委員会による英国における個人データの適切な保護に関する指令(EU)2016/680に基づく実施決定案に関する意見書 27/2025
Executive summary  概要
The European Commission endorsed its draft implementing decision on the adequate protection of personal data by the United Kingdom pursuant to the Law Enforcement Directive on 22 July 2025. On the same date, as part of the procedure towards the formal adoption of the draft decision, the European Commission requested the opinion of the European Data Protection Board.  欧州委員会は2025年7月22日、法執行指令に基づく英国の個人データ保護の適切性に関する実施決定案を承認した。同日、決定案の正式採択に向けた手続きの一環として、欧州委員会は欧州データ保護委員会(EDPB)に意見を求めた。
The draft decision amends and complements the previous adequacy decision for the United Kingdom under the Law Enforcement Directive, which dates back to June 2021.  The EDPB’s assessment of the adequacy of the level of protection afforded in the United Kingdom has been made on the basis of the examination of the draft decision and therefore focuses on the new developments in the United Kingdom data protection legislation and on elements highlighted in the previous adequacy decision.  本決定案は、2021年6月にさかのぼる法執行指令に基づく英国に対する従来の十分性決定を改正・補完するものである。欧州データ保護委員会(EDPB)による英国における保護水準の十分性評価は、本決定案の審査に基づいて行われたため、英国のデータ保護法における新たな動向および前回の十分性決定で強調された要素に焦点を当てている。
The EDPB has used its LED Adequacy Referential adopted on 2 February 2021 as main reference for this work, as well as the EPDB Recommendations 02/2020 on the European Essential Guarantees for surveillance measures and the relevant case-law. The EDPB welcomes the continuing alignment between the UK and EU data protection framework, notwithstanding recent developments in the UK relevant legal framework. Against this background, it is important to stress that the EDPB does not expect the United Kingdom legal framework to replicate European data protection laws, the objective of this opinion is to identify specific aspects of the legal changes and developments since the adoption of the first adequacy decision, which may affect the level of protection, and to raise points for additional clarifications, for attention and monitoring or for concern.   EDPBは、この作業の主な参照資料として、2021年2月2日に採択された「LED適正性参照枠組み」に加え、監視措置に関する欧州基本保証に関するEDPB勧告02/2020及び関連判例法を用いた。EDPBは、英国の関連法制度における最近の動向にもかかわらず、英国とEUのデータ保護枠組みの継続的な整合性を歓迎する。こうした背景を踏まえ、EDPBが英国の法的枠組みに欧州のデータ保護法を複製することを期待していない点を強調することが重要である。本意見書の目的は、最初の十分性認定決定採択以降の法的変更・進展のうち、保護水準に影響を及ぼし得る特定の側面を特定し、追加的な明確化、注視・監視、あるいは懸念事項として提起すべき点を指摘することにある。
In this regard, the EDPB emphasises the following findings:  この点に関し、EDPBは以下の所見を強調する:
The EDPB observes changes to the rules governing the onward transfer of personal data to third countries, notably the new indicative list of elements to be considered in the adequacy test which does not include important elements that figured in the previous United Kingdom adequacy test. The EDPB considers that this aspect as well as the new criterion of the “desirability of facilitating transfers of personal data to and from the United Kingdom” need to be addressed in more detail and encourages the European Commission to specifically further elaborate its assessment and monitor the developments and the practical implementation of the new adequacy test.   EDPBは、第三国への個人データの転送を規定する規則の変更、特に、以前の英国の十分性認定において考慮された重要な要素が含まれていない、十分性テストにおいて考慮すべき要素の新たな指標リストに注目している。EDPBは、この点および「英国との個人データ移転の円滑化が望ましい」という新たな基準について、より詳細な検討が必要であると考え、欧州委員会に対し、特に新たな十分性テストの評価をさらに具体化し、その進展と実務上の実施状況を監視するよう促す。
The EDBP takes note of important changes vis-à-vis how automated decision-making is regulated in the United Kingdom, notably introducing a more permissive approach and conferring new powers to the Secretary of State. The scope and discretion of these powers could give rise to notable concern, e.g. due to their extent, especially in light of the fast-evolving regulatory environment and advancements in automated technologies. The EDPB invites the European Commission to analyse these powers and monitor any developments in this respect. The EDPB also recalls the importance of meaningful human review to ensure compliance with safeguards in automated decision-making and therefore urges the European Commission to further elaborate on possible exemptions from the data subject’s right to obtain human intervention in its final adequacy decision and to monitor the implementation of these changes in practice.  EDPBは、英国における自動化された意思決定の規制方法に関する重要な変更、特に許容的なアプローチの導入と国務大臣への新たな権限付与を認識している。これらの権限の範囲と裁量権は、特に急速に進化する規制環境と自動化技術の進歩を考慮すると、その広範さから顕著な懸念を生じさせる可能性がある。EDPBは欧州委員会に対し、これらの権限を分析し、関連する動向を監視するよう要請する。また、自動化された意思決定における保護措置の遵守を確保するためには、実質的な人的審査が重要であることを改めて指摘し、欧州委員会に対し、最終的な十分性決定においてデータ主体が人的介入を求める権利からの免除可能性についてさらに検討を深め、これらの変更が実務でどのように実施されるかを監視するよう強く求める。
The EDPB considers it essential to assess the extended national security exemptions under the law enforcement framework and remains particularly vigilant regarding any exemptions from the principle of proportionality, as well as from the requirement to process personal data for a legitimate purpose. Likewise, any exemptions from the powers of the supervisory authority should be approached with caution. Any limitation on the exercise of rights and freedoms recognised by the EU Charter of Fundamental Rights must respect their essence and, subject to the principle of proportionality, may be made only if necessary and genuinely meeting objectives of general interest recognised by the Union or the need to protect the rights and freedoms of others. The EDPB calls on the European Commission to complement its assessment in the final adequacy decision and to specifically monitor the application in practice of the national security exemptions for law enforcement authorities.    EDPBは、法執行枠組みにおける拡大された国家安全保障上の例外を評価することが不可欠であると考え、比例原則および正当な目的のための個人データ処理要件からのいかなる例外についても特に警戒を継続する。同様に、監督当局の権限からのいかなる例外も慎重に扱うべきである。EU基本権憲章で認められた権利と自由の行使に対するいかなる制限も、その本質を尊重しなければならず、比例原則に従い、EUが認める公益目的または他者の権利・自由保護の必要性に真に合致する場合に限り、必要不可欠な範囲で実施されなければならない。EDPBは欧州委員会に対し、最終的な十分性決定における評価を補完し、特に法執行機関に対する国家安全保障上の例外規定の実務上の適用状況を監視するよう要請する。
The EDPB notes that processing activities carried out by authorities competent for law enforcement can, in specific circumstances, fall under the rules normally applicable to the processing of personal data by national security authorities. In this context, particular attention should be paid to ensuring that the data protection regime for national security processing is not being extended to contexts not related to national security. The EDPB invites the European Commission to monitor in practice whether qualifying competent authorities are able to maintain a clear distinction between different processing purposes in order to adhere to the corresponding legal framework accordingly.  EDPBは、法執行を担当する当局による処理活動が、特定の状況下では国家安全保障当局による個人データ処理に通常適用される規則の対象となり得ることを指摘する。この文脈において、国家安全保障処理のためのデータ保護制度が国家安全保障に関係のない状況に拡大適用されないよう、特に注意を払う必要がある。EDPBは欧州委員会に対し、該当する管轄当局が異なる処理目的を明確に区別し、対応する法的枠組みを遵守できるかどうかを実務上監視するよう要請する。
Although the EDPB acknowledges that the system of oversight of criminal law enforcement agencies as well as the redress mechanisms remain largely unchanged, it reiterates the need for the European Commission to closely monitor the application of corrective powers and of remedies for data subjects in the United Kingdom data protection framework.   EDPBは、刑事法執行機関の監督システム及び救済措置がほぼ変更されていないことを認識しつつも、英国データ保護枠組みにおける是正権限及びデータ主体の救済措置の適用を欧州委員会が厳密に監視する必要性を改めて強調する。
In addition to the reintroduction of a sunset clause and the legal monitoring obligation, the EDPB stresses the importance for the European Commission to conduct the mandatory review within the legal timeframe specified in the Law Enforcement Directive, taking into account the elements already outlined in Commission Implementing Decision 2021/1773 as well as any further relevant developments. サンセット条項の再導入と法的監視義務に加え、EDPBは欧州委員会に対し、法執行指令で定められた法的期間内に義務的な見直しを実施することの重要性を強調する。この見直しでは、欧州委員会実施決定2021/1773で既に概説された要素及びその他の関連する進展を考慮に入れる必要がある。

 

目次...

1  INTRODUCTION 1 はじめに
1.1  General Comments 1.1 総論
1.2  The scope of this EDPB Opinion 1.2 本EDPB意見書の適用範囲
1.3  Relevant developments in the UK legal framework 1.3 英国の法的枠組みにおける関連する動向
2  RELEVANT DEVELOPMENTS REGARDING THE RULES APPLYING TO THE PROCESSING OF PERSONAL DATA 2 個人データ処理に適用される規則に関する関連する動向
2.1  Safeguards, rights and obligations 2.1 保護措置、権利及び義務
2.1.1  Use of consent in the law enforcement context 2.1.1 法執行の文脈における同意の利用
2.1.2  Onward transfers 2.1.2 転送
2.1.3  Automated decision-making 2.1.3 自動化された意思決定
2.1.4  Logging requirements 2.1.4 記録要件
2.1.5  National security exemptions for law enforcement authorities 2.1.5 治安当局に対する国家安全保障上の免除
2.1.6  Joint controllerships between UK intelligence agencies and law enforcement authorities 2.1.6 英国の情報機関と治安当局間の共同管理者
2.1.7  The right of access 2.1.7 アクセス権
2.1.8  Oversight and redress 2.1.8 監督と救済
3  Review, Duration and Renewal of the decision 3 決定の見直し、期間及び更新

 

 

 

| | Comments (0)

2025.10.21

米国 NIST DeepSeekのAIモデルは、性能・コスト・セキュリティ・普及度において米国モデルに後れを取っている (2025.09.30)

こんにちは、丸山満彦です。

NISTのウェブページは2025.09.30でとまってしまっていますが、見られる状態なのでまだマシですかね...

で、駆け込みで公表したと思われる、DeepSeekのAIモデルと米国の他のAIとの性能等の比較...

しかし、NISTのこういう発表にもトランプ大統領の名前を載せないような感じになってきているのでしょうかね...米国では"No Kings protests"が6月に続いて2025.10.18にも行われました [wilipedia] が、その気持ちがわからないでもない...

さて、NISTの内容...

6つの主要発見事項があるとなっていますが、米国のものに比べると性能、コスト、セキュリティ、普及度のどれもとっても遅れてをとっていますが、健闘しているようにも見えます...

DeepSeek R1は、2025年1月なので除外して、最高点、最低点をみてみます...

Greenを最高点、オレンジを最低点にしています。

 

1_20251021051401

 

ということで、将来に対しては脅威ではりますよね...

 

NIST - ITL

・2025.09.30 CAISI Evaluation of DeepSeek AI Models Finds Shortcomings and Risks


CAISI Evaluation of DeepSeek AI Models Finds Shortcomings and Risks CAISIによるDeepSeek AIモデルの検証で欠陥とリスクが判明
・AI models from developer DeepSeek were found to lag behind U.S. models in performance, cost, security and adoption. ・開発元DeepSeekのAIモデルは、性能・コスト・セキュリティ・普及度において米国モデルに後れを取っていることが判明した。
・Security shortcomings and censorship may pose risks to application developers, consumers and U.S. national security. ・セキュリティ上の欠陥と検閲は、アプリケーション開発者・消費者・米国の国家安全保障にリスクをもたらす可能性がある。
・DeepSeek’s products are contributing to a rapid rise in the global use of models from the PRC. ・DeepSeekの製品は、中国製モデルの全世界での利用急増に寄与している。
WASHINGTON — The Center for AI Standards and Innovation (CAISI) at the Department of Commerce’s National Institute of Standards and Technology (NIST) evaluated AI models from the People’s Republic of China (PRC) developer DeepSeek and found they lag behind U.S. models in performance, cost, security and adoption. ワシントン発 ― 米国商務省国立標準技術研究所(NIST)の AI 標準・イノベーションセンター(CAISI)は、中華人民共和国(PRC)の開発者 DeepSeek の AI モデルを評価し、その性能、コスト、セキュリティ、採用において米国モデルに遅れをとっていることを明らかにした。
“Thanks to President Trump’s AI Action Plan, the Department of Commerce and NIST’s Center for AI Standards and Innovation have released a groundbreaking evaluation of American vs. adversary AI,” said Secretary of Commerce Howard Lutnick. “The report is clear that American AI dominates, with DeepSeek trailing far behind. This weakness isn’t just technical. It shows why relying on foreign AI is dangerous and shortsighted. By setting the standards, driving innovation, and keeping America secure, the Department of Commerce will ensure continued U.S. leadership in AI.” 「トランプ大統領の AI 行動計画のおかげで、商務省と NIST の AI 標準・イノベーションセンターは、米国と敵対国の AI を比較した画期的な評価結果を公表した」と、ハワード・ラトニック商務長官は述べた。「この報告書は、米国の AI が優位であり、DeepSeek は大きく遅れをとっていることを明らかにしている。この弱点は技術的なものだけではない。外国の AI に依存することがなぜ危険で短絡的であるかを示している。基準を設定し、イノベーションを推進し、米国の安全を確保することで、商務省は AI 分野における米国の継続的なリーダーシップを保証する」と述べた。
The CAISI evaluation also notes that the DeepSeek models’ shortcomings related to security and censorship of model responses may pose a risk to application developers, consumers and U.S. national security. Despite these risks, DeepSeek is a leading developer and has contributed to a rapid increase in the global use of models from the PRC. CAISI の評価では、DeepSeek モデルのセキュリティとモデル応答の検閲に関する欠点は、アプリケーション開発者、消費者、および米国の国家安全保障にリスクをもたらす可能性があると指摘している。こうしたリスクがあるにもかかわらず、DeepSeek は主要な開発者であり、中国製のモデルが世界的に急速に普及する一因となっている。
CAISI’s experts evaluated three DeepSeek models (R1, R1-0528 and V3.1) and four U.S. models (OpenAI’s GPT-5, GPT-5-mini and gpt-oss and Anthropic’s Opus 4) across 19 benchmarks spanning a range of domains. These evaluations include state-of-the-art public benchmarks as well as private benchmarks built by CAISI in partnership with academic institutions and other federal agencies. CAISIの専門家は、DeepSeekの3モデル(R1、R1-0528、V3.1)と米国の4モデル(OpenAIのGPT-5、GPT-5-mini、gpt-oss、AnthropicのOpus 4)を、多様な分野にわたる19のベンチマークで評価した。これらの評価には、最先端の公開ベンチマークに加え、CAISI が学術機関や他の連邦機関と提携して構築した非公開のベンチマークも含まれている。
The evaluation from CAISI responds to President Donald Trump’s America’s AI Action Plan, which directs CAISI to conduct research and publish evaluations of frontier models from the PRC. CAISI is also tasked with assessing: the capabilities of U.S. and adversary AI systems; the adoption of foreign AI systems; the state of international AI competition; and potential security vulnerabilities and malign foreign influence arising from the use of adversaries’ AI systems. CAISI の評価は、ドナルド・トランプ大統領の「アメリカの AI 行動計画」に対応するものであり、CAISI は、中国による最先端モデルの調査と評価結果の公表を指示されている。CAISI は、米国および敵対国の AI システムの能力、外国の AI システムの採用状況、国際的な AI 競争の状況、敵対国の AI システムの使用によって生じる潜在的なセキュリティの脆弱性や悪意のある外国の影響力についても評価を行う任務を負っている。
CAISI serves as industry’s primary point of contact within the U.S. government to facilitate testing, collaborative research, and best practice development related to commercial AI systems, and is a key element in NIST’s efforts to secure and advance American leadership in AI. CAISI は、商業用 AI システムに関連する試験、共同研究、ベストプラクティスの開発を促進するための、米国政府内の業界との主要な窓口としての役割を果たしており、AI 分野における米国のリーダーシップを確保し、推進するための NIST の取り組みの重要な要素である。
Key Findings 主な調査結果
DeepSeek performance lags behind the best U.S. reference models. DeepSeek のパフォーマンスは、米国の最高水準の参照モデルに遅れをとっている。
The best U.S. model outperforms the best DeepSeek model (DeepSeek V3.1) across almost every benchmark. The gap is largest for software engineering and cyber tasks, where the best U.S. model evaluated solves over 20% more tasks than the best DeepSeek model. ほぼ全てのベンチマークにおいて、米国最高水準モデルはDeepSeek最高モデル(DeepSeek V3.1)を上回る性能を示す。特にソフトウェア工学とサイバー関連タスクでは差が顕著で、評価対象の米国最高モデルはDeepSeek最高モデルより20%以上多くのタスクを解決する。
DeepSeek models cost more to use than comparable U.S. models. DeepSeekモデルの利用コストは、同等の米国モデルよりも高い。
One U.S. reference model costs 35% less on average than the best DeepSeek model to perform at a similar level across all 13 performance benchmarks tested. 全13の性能ベンチマークにおいて同等の性能を発揮する場合、米国リファレンスモデル1つあたりのコストは、最良のDeepSeekモデルよりも平均35%低い。
DeepSeek models are far more susceptible to agent hijacking attacks than frontier U.S. models. DeepSeekモデルは、最先端の米国モデルに比べてエージェント乗っ取り攻撃に対してはるかに脆弱である。
Agents based on DeepSeek’s most secure model (R1-0528) were, on average, 12 times more likely than evaluated U.S. frontier models to follow malicious instructions designed to derail them from user tasks. Hijacked agents sent phishing emails, downloaded and ran malware, and exfiltrated user login credentials, all in a simulated environment. DeepSeekの最も安全なモデル(R1-0528)に基づくエージェントは、評価対象の米国最先端モデルと比較して、平均で12倍の確率で、ユーザータスクから逸脱させる悪意のある指示に従う可能性があった。ハイジャックされたエージェントは、模擬環境においてフィッシングメールを送信し、マルウェアをダウンロード・実行し、ユーザーのログイン認証情報を漏洩させた。
DeepSeek models are far more susceptible to jailbreaking attacks than U.S. models. DeepSeekモデルは米国モデルよりもはるかに脱獄攻撃に対して脆弱である。
DeepSeek’s most secure model (R1-0528) responded to 94% of overtly malicious requests when a common jailbreaking technique was used, compared with 8% of requests for U.S. reference models. DeepSeekの最も安全なモデル(R1-0528)は、一般的な脱獄技術が使用された場合、露骨に悪意のあるリクエストの94%に応答した。これに対し米国参照モデルでは8%のリクエストのみが応答した。
DeepSeek models advance Chinese Communist Party (CCP) narratives. DeepSeekモデルは中国共産党(CCP)の主張を推進する。
DeepSeek models echoed four times as many inaccurate and misleading CCP narratives as U.S. reference models did. DeepSeekモデルは、米国の参照モデルと比較して、不正確で誤解を招くCCPの主張を4倍多く繰り返した。
Adoption of PRC models has greatly increased since DeepSeek R1 was released. DeepSeek R1のリリース以降、中国モデルの導入は大幅に増加している。
The release of DeepSeek R1 has driven adoption of PRC models across the AI ecosystem. Downloads of DeepSeek models on model-sharing platforms have increased nearly 1,000% since January 2025. DeepSeek R1のリリースは、AIエコシステム全体で中国モデルの導入を促進した。モデル共有プラットフォームにおけるDeepSeekモデルのダウンロード数は、2025年1月以降、ほぼ1000%増加している。

 

・[PDF]

20251020-115138

 

・[DOCX][PDF] 仮訳

 

 

目次...

1. Executive Summary 1. エグゼクティブサマリー
2. Methodology 2. 方法論
3. Overview of Findings 3. 調査結果の概要
3.1 Performance Evaluations Overview 3.1 性能評価の概要
3.2 Cost Efficiency Analysis Overview 3.2 コスト効率分析の概要
3.3 Security Evaluations Overview 3.3 セキュリティ評価の概要
3.4 Chinese Communist Party Censorship Evaluation Overview 3.4 中国共産党の検閲評価概要
3.5 Model Adoption Overview 3.5 モデル採用の概要
4. Performance Evaluations 4. 性能評価
4.1 Cyber 4.1 サイバー
4.2 Software Development 4.2 ソフトウェア開発
4.3 Science and Knowledge 4.3 科学と知識
4.4 Mathematical Reasoning 4.4 数学的推論
5. Cost Efficiency Analysis 5. コスト効率分析
6. Security Evaluations 6. セキュリティ評価
6.1 Agent Hijacking 6.1 エージェントハイジャック
6.2 Jailbreaking 6.2 脱獄
7. Censorship Evaluations 7. 検閲の評価
8. Model Adoption 8. モデルの採用
8.1 Model Downloads 8.1 モデルのダウンロード
8.2 Model Usage via API 8.2 API経由でのモデル使用
8.3 Derivative Model Uploads 8.3 派生モデルのアップロード
9. Disclaimer 9. 免責事項
Appendix 附属書

 

 

 

 

 

 

 

| | Comments (0)

2025.10.20

英国 NCSC 個人事業主、零細企業、小規模組織向けのサイバーセキュリティ対策用ツールキット(無料)を提供開始 (2025.10.14)

こんにちは、丸山満彦です。

英国では国のサイバー対策を統括するNCSCは情報機関の下部組織となっています。ただ、NCSCはサイバーセキュリティベンチャーの育成支援や、小規模会社向けを中心にサイバーセキュリティサービスの無料提供などもおこなっていて(ネタは多くあるので...)、日本のNCOとは少し立ち位置が違うところがあります...

特に、小規模会社向けのサイバーセキュリティサービスの無料提供というのは、民業圧迫といえるかもしれませんが、英国の場合は、民間事業者が手を出しにくい個人事業主、零細企業、小規模会社を主なターゲットにしていること、サイバーセキュリティは国家、国民にとって対応が必要という公共財的な一面も持っているため、多くの企業が行うことが必要であると言えます。という観点から、NCSCがもっているインテリジェンスを活用したこのようなサービスは民業圧迫というよりも、市場の失敗を是正する対応であり、民間企業と補完的な関係にあると考えられます。

日本のNCOもこのような考え方を取り入れて、NCO、経済産業省、IPAが、個人事業主、零細企業、小規模企業向けに直接サイバーせキュイティサービスを提供することを考えても良いかもしれませんね...

 

NCSC

・2025.10.14 Small businesses to receive cyber security boost with new toolkit from experts

Small businesses to receive cyber security boost with new toolkit from experts 専門家による新ツールキットで中小企業のサイバーセキュリティ強化へ
NCSC CEO unveils a new Cyber Action Toolkit at the NCSC’s Annual Review launch with clear message to small businesses that ‘it is time to act’. NCSC(国家サイバーセキュリティセンター)のCEOが年次レビュー発表会で新「サイバーアクションツールキット」を発表。小規模企業に向け「今こそ行動の時」と明確なメッセージを発信。
・This innovative government approach in delivering support provides a free, personalised toolkit that will empower millions of sole traders, micro businesses and small organisations to protect their people, money and reputation from growing online threats. ・この革新的な政府支援アプローチは、無料の個別対応型ツールキットを提供し、数百万の個人事業主、零細企業、小規模組織が、増大するオンライン脅威から従業員、資金、評判を守る力を与える。
・The Cyber Action Toolkit turns cyber security protection into simple, achievable steps for businesses, with straightforward actions tailored to business size and needs. ・サイバー対策ツールキットは、企業の規模やニーズに合わせた簡潔な行動指針により、サイバーセキュリティ対策をシンプルで達成可能なステップに変換する。
The National Cyber Security Centre (NCSC), a part of GCHQ, has today launched the Cyber Action Toolkit: a single destination for sole traders, micro businesses and small organisations to start building their cyber defences. 政府通信本部(GCHQ)傘下の国家サイバーセキュリティセンター(NCSC)は本日、個人事業主、零細企業、小規模組織がサイバー防御体制の構築を開始するためのワンストップ窓口となる「サイバー対策ツールキット」を公開した。
Recent figures show that 42% of small businesses reported cyber breaches in 2024, while 35% of micro businesses faced phishing attacks. Despite this threat, many small businesses struggle to know where to start with achieving cyber protection against the most common threats. 最新の統計によると、2024年には中小企業の42%がサイバー侵害を報告し、零細企業の35%がフィッシング攻撃に直面している。こうした脅威にもかかわらず、多くの中小企業は最も一般的な脅威に対するサイバー保護をどこから始めればよいか分からないでいる。
In its latest annual review, the NCSC warns that every organisation with digital assets is a potential target to cyber criminal attackers. The NCSC CEO Dr Richard Horne is urging all businesses to ‘act now’ to build the UK’s collective resilience and close the widening gap between the rising pace of the cyber threat and our current capabilities. NCSCの最新年次レビューでは、デジタル資産を持つ全ての組織がサイバー犯罪者の潜在的な標的となり得ると警告している。NCSCのリチャード・ホーンCEOは、英国全体のレジリエンス(回復力)を構築し、拡大するサイバー脅威のペースと現在の能力とのギャップを埋めるため、全ての企業に「今すぐ行動する」よう強く促している。
The toolkit personalises recommendations based on specific business needs, focusing on high-impact, low-effort actions first. Users progress through Foundation, Improver and Enhanced levels at their own pace, with built-in rewards recognising each step completed. このツールキットは、特定のビジネスニーズに基づいて推奨事項をパーソナライズし、影響が大きく労力の少ない対策を優先する。ユーザーは基礎レベル、改善レベル、強化レベルを自身のペースで進め、各ステップの完了を認める組み込み型報酬システムを利用できる。
Key features include: 主な特徴:
・Free, personalised cyber security guidance ・無料のパーソナライズされたサイバーセキュリティガイダンス
・Step-by-step actions tailored to business size ・事業規模に合わせた段階的な対策
・Progress tracking with built-in gamification ・進捗管理と組み込み型ゲーミフィケーション
The Cyber Action Toolkit is the latest in a series of NCSC products, services and guidance designed to support organisations in improving their cyber resilience. The toolkit is a strong starting point to help small businesses put in place basic measures and develop confidence to work towards Cyber Essentials - the government-backed certification scheme that demonstrates an organisation meets the recognised UK minimum standard for cyber security. サイバーアクションツールキットは、組織のサイバーレジリエンス向上を支援するNCSC製品・サービス・ガイダンスの最新シリーズです。中小企業が基本対策を整備し、政府公認のサイバーセキュリティ最低基準「サイバーエッセンシャルズ」認証取得に向けた自信を育む強力な出発点となる。
Jonathon Ellison OBE, Director of National Resilience at the NCSC, said: NCSC国家レジリエンス担当ディレクター、ジョナサン・エリソン OBEは次のように述べている:
In our digital-dependent society, it is vital that businesses take responsibility for their cyber security to defend against and recover from common cyber attacks. However, we know it can be hard for sole traders and small businesses to know where to begin. デジタル依存社会において、企業は一般的なサイバー攻撃から防御し、復旧するためのサイバーセキュリティ責任を負うことが不可欠です。しかし、個人事業主や中小企業にとって、どこから始めればよいか判断が難しいことも承知しています。
That is why we have designed the Cyber Action Toolkit: a personalised, user-friendly entry point that equips you to start building a strong cyber security foundation. そこで開発したのが『サイバー対策ツールキット』です。個人事業主や中小企業向けにカスタマイズされた使いやすい入口として、強固なサイバーセキュリティ基盤構築の第一歩を支援します。
Every step taken makes the UK more resilient, and by putting this toolkit into practice, you can work towards making yourself and your business more confident and capable. 一つ一つの対策が英国のレジリエンス強化につながります。このツールキットを活用すれば、ご自身と事業の自信と能力を高める取り組みが可能になります。
Free cyber security toolkit 無料サイバーセキュリティツールキット
The Cyber Action Toolkit helps sole traders and small businesses take simple steps to protect against cyber criminals. 『サイバー対策ツールキット』は個人事業主・中小企業がサイバー犯罪者から身を守るための簡易手順を提供します。
Get your free toolkit 無料ツールキットを入手

 

ツールキット

Start protecting your business with our free cyber toolkit

 

試しに少しやってみたら、パターン分けされていて、興味深いですね...

規模を聞いてきます...

私がやっている喫茶店は従業員が2−9名の範囲なので、そこを選びます...

20251019-63821

 

すると次のような画面...

20251019-64109

アドバイザーを探しているので、上のボタンをクリックして先に進みます...

するとCyber Essentialsの認証をもっているかと聞かれるので、Noをおします...

20251019-64344

 

自動的にするべきリストが生成されます...

やるべきことは、基礎編 (fundation)、改善編 (improver)、強化編 (Enhanced)の3つがあります。

基礎編の画面がまず現れます...

20251019-64800

 

まず、緊急にやるべきことになっているe mailアカウントをセキュアにするというところを押すと次のような画面がでてきます...

20251019-65611

 

このスクリプションに従って進めていくという仕組みになっています。

動画を組み込んだり、よくできていると思います。

ちなみに動画はこんな感じ...

20251019-70019

 

Step1に進むと、次のように具体的な手順にまで踏み込んでいます...

20251019-70451

 

という感じで、かなりきっちり作っています...

 

IPAなども作っていますが、次のステップとして英国とも連携し、これの日本版をつくるのもありなくらいよくできていると思います...

 

| | Comments (0)

日本証券業協会 「インターネット取引における不正アクセス等防止に向けたガイドライン」の改正について (2025.10.15)

こんにちは、丸山満彦です。

日本証券業協会が「インターネット取引における不正アクセス等防止に向けたガイドライン」の改正についての発表がされていますね...

ガイドラインの主な改正点...


「インターネット取引における不正アクセス等防止に向けたガイドライン」の技術面における主な改正ポイントは以下の3つ

  • フィッシングに耐性のある多要素認証(例:パスキーによる認証、PKI(公開鍵基盤)をベースとした認証)の実装必須化
  • 顧客への通知等の必須化
    • ログイン・取引時等における顧客への通知
    • 認証失敗時のアカウント・ロック
  • フィッシング詐欺被害未然防止のための措置
    • 顧客へ送付するメール等の正当性の確保
    • フィッシングサイトのテイクダウン活動の実施
    • メール・SMS内にパスワード入力を促すページのURLやログインリンクを記載しない

上記のような技術的な改正ポイント以外にも、内部管理態勢の強化や、モニタリング、不正アクセス等を防止・検知するための設定等の利用状況確認等、不正アクセス発生時の対応及び顧客への周知・注意喚起等を実施するといった事項についても新規追加及び見直しを実施している。


 

 

 

日本証券業協会

・2025.10.15 パブリックコメントの募集の結果について(「インターネット取引における不正アクセス等防止に向けたガイドライン」の一部改正について)

 

改正されたガイドラインも含まれています....

・[PDF] 参考資料)「インターネット取引における不正アクセス等防止に向けたガイドライン」の改正について

20251018-102620

 

概要

・[PDF] (参考資料)「インターネット取引における不正アクセス等防止に向けたガイドライン」の改正についての説明資料

20251018-103336

 

パブコメ結果 (65ページあります...)

・[PDF] 「インターネット取引における不正アクセス等防止に向けたガイドライン」の改正案に関するパブリックコメントの結果について

20251018-103540

 

報道発表

・[PDF]  「インターネット取引における不正アクセス等防止に向けたガイドライン」の改正について


 

 

| | Comments (0)

2025.10.19

英国 NCSC Annual Review 2025 国家サイバーセキュリティセンター2025年報告書

こんにちは、丸山満彦です。

英国のサイバーセキュリティセンターが年次報告書を公表していますね...9年目です...

攻撃されてから対応するのではなく、攻撃される前に動け...ということですかね...

 

NCSC

・2025.10.14 NCSC Annual Review 2025

・[PDF]

20251018-142122

 

NCSC Annual Review 2025 NCSC年次レビュー2025
Introduction はじめに
Foreword 序文
Open letter 公開書簡
Ministerial foreword 大臣序文
Message from Director GCHQ GCHQ長官からのメッセージ
The NCSC at a glance NCSCの概要
Timeline 2024-2025 2024-2025年タイムライン
Chapter 01: Countering the cyber threat 第01章:サイバー脅威への対抗
Incident management インシデント管理
‘Beyond detection’: why collaboration is vital to combatting the evolving threat 「検知を超えて」:進化する脅威に対抗する上で連携が不可欠な理由
Chapter 02: Resilience at scale 第02章:大規模なレジリエンス
Don't wait for the breach: why don't organisations act earlier? 侵害を待たない:組織が早期に行動しない理由はあるか?
Empowering organisations: NCSC tools and services 組織の能力強化:NCSCのツールとサービス
Active Cyber Defence: automated prevention, at scale アクティブ・サイバー防衛:大規模な自動予防
Engineering resilience against critical loss 重大な損失に対するレジリエンスの構築
Defending the UK’s critical national infrastructure 英国の重要国家インフラの防衛
Industry assurance: supporting a thriving cyber security industry 産業保証:繁栄するサイバーセキュリティ産業の支援
Building the cyber ecosystem サイバーエコシステムの構築
NCSC for Startups: Celebrating a cyber security milestone NCSC for Startups:サイバーセキュリティの節目を祝う
CyberFirst: Ten years of inspiring the next generation of cyber security experts CyberFirst:次世代サイバーセキュリティ専門家を10年にわたり育成
CYBERUK 2025 CYBERUK 2025
Chapter 03: Keeping pace with evolving technology 第03章:進化する技術に歩調を合わせる
Artificial intelligence 人工知能
Passkeys パスキー
The future of digital identity デジタルアイデンティティの未来
Migrating to post-quantum cryptography ポスト量子暗号への移行
From Bletchley to the battlefield: Crypt-Key and the evolution of UK cyber defence ブレッチリーから戦場へ:クリプトキーと英国サイバー防衛の進化
Initiate 開始
NCSC Engineering: practicing what we preach NCSCエンジニアリング:実践こそが説く
NCSC guidance NCSCガイダンス
'Radical transparency' - the key to enabling better cyber security outcomes 「徹底的な透明性」-より良いサイバーセキュリティ成果を実現する鍵

 

ビデオ...

20251018-144715

 

 

 

 

過去分...


2024年

・2024.12.03 NCSC Annual Review 2024

・[PDF]

20251018-110544

 

 


2023年

・2023.11.14 NCSC Annual Review 2023

・[PDF]

20231116-61325

 

 


2022年

・2022.11.01 NCSC Annual Review 2022

・[PDF

20231116-70336

 

 

 


2021年
・2021.11.17 (news) The NCSC Annual Review 2021 - a summary

・2021.11.17 (guidance) NCSC Annual Review 2021

Making the UK the safest place to live and work online

・[PDF]

20220115-10641


2020年
・2020.11.03 (news) The NCSC Annual Review 2020

・・ (speach) Lindy Cameron on the NCSC's fourth Annual Review - The NCSC's new CEO introduces the Annual Review 2020.

・・[PDF] Annual Review 2020 

20220115-12958

・・[web] The Digital Annual Review 2020. <- お勧め

・2020.11.03 (news) NCSC defends UK from more than 700 cyber attacks while supporting national pandemic response

The NCSC's fourth Annual Review reveals its ongoing work against cyber attacks, support for the UK during the coronavirus pandemic.


2019年
・2019.10.23 (news) The NCSC Annual Review 2019
Developments and highlights from the last twelve months at the NCSC.
20220115-13038

2018年
・2018.10.15 Annual Review 2018
The Annual Review 2018 - the story of the second year of operations at the National Cyber Security Centre.
・・[PDF] Annual Review 2018
20220115-13111

2017年
The 2017 Annual Review sets out the progress made within the first year of operations at the National Cyber Security Centre.
・・[PDF] 2017 Annual Review
20220115-13141

 

 

 

 


 

 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.12.05 英国 NCSC Annual Review 2024 国家サイバーセキュリティセンター2024年報告書 影響の大きなインシデントが昨年より3倍も増加したようです...

・2023.11.16 英国 NCSC Annual Review 2023 国家サイバーセキュリティセンター2023年報告書 - 英国の重要インフラに対する永続的かつ重大な脅威を警告

(2022年は見逃していましたが、2023年にまとめて書いています...)

・2021.11.19 英国 NCSC Annual Review 2021 国家サイバーセキュリティセンター2021年報告書

・2020.11.09 英国 NCSC Annual Review 2020 国家サイバーセキュリティセンター2020年報告書

 

 

 

| | Comments (0)

欧州 Europol サイバー犯罪サービス提供組織の摘発:7名逮捕

こんにちは、丸山満彦です。

Europolがサイバー犯罪サービス提供組織の摘発:7名逮捕したと発表していますね...

動画ものっていますが、なかなか生々しい動画です。。。

国際協力ですね...

 

Europol

・2025.10.17 Cybercrime-as-a-service takedown: 7 arrested

 

Cybercrime-as-a-service takedown: 7 arrested サイバー犯罪サービス提供組織の摘発:7名逮捕
Operation takes down sophisticated criminal network that enabled criminals to commit serious crimes across Europe 欧州全域で重大犯罪を可能にした高度な犯罪ネットワークを摘発
An action day performed in Latvia on 10 October 2025 led to the arrest of five cybercriminals of Latvian nationality and the seizure of infrastructure used to enable crimes against thousands of victims across Europe. During the operation codenamed ‘SIMCARTEL’, law enforcement arrested two further suspects, took down five servers and seized 1 200 SIM box devices alongside 40 000 active SIM cards. Investigators from Austria, Estonia and Latvia, together with their colleagues at Europol und Eurojust, were able to attribute to the criminal network more than 1 700 individual cyber fraud cases in Austria and 1 500 in Latvia, with a total loss of several million euros. The financial loss in Austria alone amounts to around EUR 4.5 million, as well as EUR 420 000 in Latvia. 2025年10月10日にラトビアで実施された一斉捜査により、ラトビア国籍のサイバー犯罪者5名が逮捕され、欧州全域の何千人もの被害者に対する犯罪を可能にしたインフラが押収された。作戦コード名「SIMCARTEL」の下、法執行機関はさらに2名の容疑者を逮捕し、5台のサーバーを停止させ、1,200台のSIMボックス装置と4万枚の有効SIMカードを押収した。オーストリア、エストニア、ラトビアの捜査官らは、ユーロポール及びユーロジャストの同僚と連携し、この犯罪ネットワークがオーストリアで1700件以上、ラトビアで1500件の個別サイバー詐欺事件に関与したことを立証した。被害総額は数百万ユーロに上る。オーストリア単独での金銭的損失は約450万ユーロ、ラトビアでは42万ユーロに及ぶ。
See footage from the operation provided by the Latvian police: ラトビア警察提供の捜査映像はこちら:
20251018-10404
The criminal network and its infrastructure were technically highly sophisticated and enabled perpetrators around the world to use this SIM-box service to conduct a wide range of telecommunications-related cybercrimes, as well as other crimes. The online service created by the criminal network offered telephone numbers registered to people from over 80 countries for use in criminal activities. It allowed perpetrators to set up fake accounts for social media and communication platforms, which were subsequently used in cybercrimes while obscuring the perpetrators’ true identity and location. この犯罪ネットワークとそのインフラは技術的に高度に洗練されており、世界中の犯人がこのSIMボックスサービスを利用して、通信関連のサイバー犯罪をはじめとする様々な犯罪を実行することを可能にしていた。犯罪ネットワークが構築したオンラインサービスでは、80カ国以上の人物名義で登録された電話番号が犯罪活動に利用される形で提供されていた。これにより、犯人はソーシャルメディアや通信プラットフォームに偽アカウントを作成でき、その後サイバー犯罪に利用されながら、犯人の真の身元や位置を隠蔽できた。
Results of the action day: 作戦日の結果:
・26 searches carried out; ・捜索26件を実施;
・5 individuals arrested; ・5名を逮捕;
・approximately 1200 SIM-box devices seized which operated 40 000 SIM cards; ・4万枚のSIMカードを運用していたSIMボックス装置約1200台を押収;
・hundreds of thousands of further SIM cards seized; ・さらに数十万枚のSIMカードを押収;
・5 servers with infrastructure of the illegal service seized; ・違法サービスのインフラを保有するサーバー5台を押収
・2 websites (gogetsms.com and apisim.com) offering the illegal service taken over by law enforcement and “splash pages” displayed; ・違法サービスを提供していたウェブサイト2件(gogetsms.comとapisim.com)を法執行機関が管理下に置き「スプラッシュページ」を表示
・EUR 431 000 in suspects’ bank accounts frozen; ・容疑者の銀行口座の43万1000ユーロを凍結
・USD 333 000 in suspects’ crypto accounts frozen; ・容疑者の暗号資産口座の33万3000米ドルを凍結
・4 luxury vehicles seized. ・高級車4台を押収
The true scale of this network is still being uncovered. Measured by volume, more than 49 million online accounts were created on basis of the illegal service provided by suspects. The damage caused by the renters of the telephone numbers to their victims amounts to several million euros. このネットワークの真の規模は未だ解明中だ。量的に見れば、容疑者が提供する違法サービスに基づき4900万以上のオンラインアカウントが作成された。電話番号の借り手が被害者に与えた損害は数百万ユーロに上る。
Enabling a multitude of serious crimes 多数の重大犯罪を可能に
The criminal network offering this service enabled its clients to commit a multitude of serious crimes that would not have been possible at all without masking the perpetrators’ identities. ‘Phishing’ and ‘smishing’ are methods applied by criminals to gain access to victims’ e-mail and banking accounts. Phishing is a cybercrime where attackers pose as trusted sources through emails, calls, texts, or websites to steal sensitive data like passwords, bank details or credit card numbers, often leading to identity theft, financial loss or malware infections. Smishing is a subtype of phishing carried out via text messages, typically disguised as urgent notices from legitimate sources to trick victims into clicking malicious links or sharing personal information. このサービスを提供する犯罪ネットワークは、加害者の身元を隠さなければ不可能だった多数の重大犯罪を顧客に実行させた。「フィッシング」や「スミッシング」は、犯罪者が被害者のメールや銀行口座にアクセスするために用いる手法である。フィッシングとは、攻撃者がメール・電話・テキスト・ウェブサイトを通じて信頼できる情報源を装い、パスワード・銀行口座情報・クレジットカード番号などの機密データを盗むサイバー犯罪である。これらはしばしば個人情報の盗難・金銭的損失・マルウェア感染につながる。スミッシングはフィッシングの一種で、テキストメッセージを介して行われる。通常は正当な情報源からの緊急通知を装い、被害者に悪意のあるリンクをクリックさせたり個人情報を共有させたりする。
Other offences facilitated by this criminal service include fraud, extortion, migrant smuggling and the distribution of child sexual abuse material. Some examples-by no means an exhaustive list-of the criminal activities enabled by the network’s offerings are: この犯罪サービスによって助長されるその他の犯罪には、詐欺、恐喝、移民密輸、児童性的虐待素材の流通などがある。ネットワークの提供によって可能となる犯罪活動の例(決して網羅的なリストではない)は以下の通りだ:
・Fraud on online second-hand marketplaces ・オンライン中古マーケットプレイスでの詐欺
Some perpetrators specialised in fraud on second-hand marketplaces. They used the SIM card service to create a vast number of fake accounts, which then served as starting points for fraud enabled by phishing and smishing. 一部の犯行グループは中古マーケットプレイスでの詐欺を専門としていた。彼らはSIMカードサービスを利用して大量の偽アカウントを作成し、それをフィッシングやスミッシングによる詐欺の起点としていた。
・Daughter–son scam ・娘・息子詐欺
This type of perpetrators contacts victims via WhatsApp, posing as a daughter or son and claiming to have a new phone number. Citing alleged spontaneous accidents or emergencies and evoking panic with the victim, they demand urgent payments usually in the four-figure range. この手口では、犯人がWhatsAppで被害者に連絡し、娘や息子を装って新しい電話番号を告げる。突然の事故や緊急事態を装い被害者にパニックを起こさせ、通常は4桁の金額の緊急送金を要求する。
・Investment fraud ・投資詐欺
Victims are usually contacted by telephone and encouraged to deposit larger sums and “invest.” The perpetrators often use remote-access software to gain access to the victim’s device. 被害者は通常電話で連絡を受け、多額の入金と「投資」を促される。犯行グループは遠隔操作ソフトで被害者の端末にアクセスすることが多い。
・Fake shops and fake bank websites ・偽店舗と偽銀行サイト
Rented telephone numbers of the perpetrators were also used in the legal notice and alleged responsible-party details of fake shops and in calls connected to fake bank pages. 犯行グループが借りた電話番号は、偽店舗の法的告知や責任者情報、偽銀行ページに関連する通話にも使用された。
・Fake police officers ・偽警察官
In this further large-scale phenomenon, the perpetrators used the telephone numbers to convince their mostly Russian-speaking victims of their legitimacy. This crime had an additional  concerning element, as perpetrators posed as police officers with forged IDs and personally collected funds from the victims. このさらに大規模な手口では、犯行グループは電話番号を利用して、主にロシア語を話す被害者に自らの正当性を信じ込ませた。この犯罪には追加の懸念要素があり、犯行グループは偽造身分証で警察官を装い、被害者から直接金銭を回収していた。
Criminal sophistication and technical ingenuity 犯罪の高度化と技術的巧妙さ
The now-dismantled criminal network undertook great efforts to provide its criminal clients with the requested service. This included the professional design and appearance of its website, which was taken offline by law enforcement during the action day. There was also the massive organisational effort of multiple accomplices acquiring thousands of SIM cards in almost 80 countries worldwide to be rented to other criminal organisations. As a side note: one of the main suspects behind this now-dismantled criminal structure had already been under investigation in Estonia for arson and extortion. 現在解体された犯罪ネットワークは、依頼されたサービスを提供するため多大な努力を払っていた。これには、捜査行動日に法執行機関によって閉鎖された専門的なデザインのウェブサイトも含まれていた。また、世界約80カ国で数千枚のSIMカードを調達し、他の犯罪組織に貸し出すという、多数の共犯者による大規模な組織的努力もあった。補足として:この解体された犯罪組織の主要容疑者の一人は、エストニアで放火と恐喝の容疑で既に捜査を受けていた。
Joint investigative effort 共同捜査活動
To prepare for the action day in Latvia, Eurojust and Europol leveraged their strengths to enhance the international law enforcement effort. They assisted in planning and administering the action day, with support from Joint Investigation Team partners Austria, Estonia and Latvia, as well as Finland. Europol deployed specialists to Riga to aid Latvian authorities, and both agencies provided financial support for technical equipment, travel and translation costs. ラトビアでの摘発作戦に備え、ユーロジャストとユーロポールは国際的な法執行活動を強化するため、それぞれの強みを生かした。両機関は、オーストリア、エストニア、ラトビア、フィンランドの合同捜査チーム(JIT)パートナーの支援を受け、作戦日の計画と実施を支援した。ユーロポールはラトビア当局を支援するためリガに専門家を派遣し、両機関は技術機器、旅費、翻訳費用に対する財政支援を提供した。
During the operation, the technical infrastructure of the organised criminal network was dismantled in collaboration between Europol and the Shadowserver Foundation. A splash page was displayed on the landing page of the criminal service, which had been offering crime-as-a-service using foreign phone numbers for smishing and phishing. Europol provided analytical support, OSINT analysis for mapping the online criminal service and organised weekly meetings between law enforcement authorities, prosecutors and Eurojust desks. Europol also offered on-the-spot forensic support to secure digital evidence, took down the digital infrastructure and provided large file exchange services for transmitting data evidence. 作戦中、ユーロポールとシャドウサーバー財団の協力により、組織犯罪ネットワークの技術インフラが解体された。犯罪サービス提供サイト(海外電話番号を利用したSMS詐欺・フィッシングサービス)のランディングページには警告画面が表示された。ユーロポールは分析支援を提供し、オンライン犯罪サービスの構造を把握するためのOSINT分析を実施。さらに法執行機関・検察・ユーロジャストデスク間の週次会議を調整した。ユーロポールはさらに、デジタル証拠の保全のための現地法科学支援を提供し、デジタルインフラを停止させ、データ証拠を伝送するための大容量ファイル交換サービスを提供した。
Participating countries:  参加国:
・Austria: Federal Criminal Intelligence Service (Bundeskriminalamt), Criminal Investigation Department Salzburg (Landeskriminalamt Salzburg); Vienna Public Prosecutor's Office (Staatsanwaltschaft Wien) ・オーストリア:連邦刑事情報局(Bundeskriminalamt)、ザルツブルク州刑事局(Landeskriminalamt Salzburg)、ウィーン検察庁(Staatsanwaltschaft Wien)
・Estonia: Estonian Police (Politsei); Northern District Prosecutor’s Office (Põhja ringkonnaprokuratuur) ・エストニア:エストニア警察(Politsei);北部地方検察庁(Põhja ringkonnaprokuratuur)
・Finland: Finnish Police (Poliisi); National Cyber-enabled Crimes Unit (NCCU Finland); National Bureau of Investigation (Keskusrikospoliisi) ・フィンランド:フィンランド警察(Poliisi);国家サイバー犯罪対策部(NCCU Finland);国家捜査局(Keskusrikospoliisi) (Keskusrikospoliisi)
・Latvia: Latvian State Police (Valsts policija); Rīga Judicial Region Prosecution Office (Rīgas tiesas apgabala prokuratūra); Rīga Northern Prosecution Office (Rīgas Ziemeļu prokuratūra) ・ラトビア:ラトビア国家警察(Valsts policija);リガ司法管区検察庁(Rīgas tiesas apgabala prokuratūra);リガ北部検察庁(Rīgas Ziemeļu prokuratūra)
The video in this press release was updated at 12.25 PM CET on 17 October. 本プレスリリース掲載の動画は、10月17日12時25分(中央ヨーロッパ時間)に更新された。
Empact EMPACT
The European Multidisciplinary Platform Against Criminal Threats (EMPACT) tackles the most important threats posed by organised and serious international crime affecting the EU. EMPACT strengthens intelligence, strategic and operational cooperation between national authorities, EU institutions and bodies, and international partners. EMPACT runs in four-year cycles focusing on common EU crime priorities. 欧州犯罪脅威対策多分野プラットフォーム(EMPACT)は、EUに影響を及ぼす組織的・重大な国際犯罪による最重要の脅威に対処する。EMPACTは、各国当局、EU機関・組織、国際パートナー間の情報、戦略的・運用上の連携を強化する。EMPACTは4年周期で運営され、EU共通の犯罪対策優先事項に焦点を当てる。

 

 

 

 

| | Comments (0)

2025.10.18

欧州議会 EUには未成年者向けのオンラインサービスをより安全にするための新たな対策が必要

こんにちは、丸山満彦です。

欧州議会が、未成年者向けのオンラインサービスをより安全にするための新たな対策を検討しているようですね...

日本も検討の余地がありますね...

 

European Parliament

・2025.10.16 New EU measures needed to make online services safer for minors

 

New EU measures needed to make online services safer for minors 未成年者向けのオンラインサービスをより安全にするための新たなEU対策が必要
・EU digital minimum age of 16 for social media and AI companions without parental consent ・ソーシャルメディアとAIコンパニオンの利用に際し、親の同意なしにEUデジタル最低年齢を16歳に設定
・Rules on persuasive technologies and practices like targeted ads, influencer marketing, addictive design, loot boxes and dark patterns ・ターゲティング広告、インフルエンサーマーケティング、中毒性のあるデザイン、ガチャ、ダークパターンなどの説得技術・手法に関する規制
・Default ban on most harmful addictive practices for minors ・未成年者に対する有害な中毒性のある手法の大半をデフォルトで禁止
Enforce Digital Services Act quickly and ban harmful practices such as addictive design and gambling-like game features to protect minors, say MEPs. 欧州議会議員らは、未成年者を保護するためデジタルサービス法を迅速に施行し、中毒性のあるデザインやギャンブル的ゲーム機能などの有害な手法を禁止すべきと主張。
On Thursday, MEPs from the Internal Market and Consumer Protection Committee adopted a report, by 32 votes in favour, 5 against and with 9 abstentions, in which they express concerns over major online platforms’ failure to protect minors adequately and warn of the risks relating to addiction, mental health, and exposure to illegal and harmful content. 木曜日、欧州議会内部市場・消費者保護委員会は報告書を採択(賛成32票、反対5票、棄権9票)。主要オンラインプラットフォームが未成年者を適切に保護できていないことへの懸念を表明し、依存症、メンタルヘルス、違法・有害コンテンツへの曝露に関連するリスクを警告した。
Age assurance and minimums 年齢確認と最低年齢
The text supports the Commission’s efforts to develop privacy-preserving age assurance systems, while warning that such measures must respect children’s rights and privacy, and do not absolve platforms of the responsibility to make their services safe by design. 報告書は、プライバシーを保護する年齢確認システムの開発に向けた欧州委員会の取り組みを支持する一方、こうした措置は子どもの権利とプライバシーを尊重すべきであり、プラットフォームが「設計段階から安全性を確保する」責任を免除するものではないと警告している。
The MEPs propose an EU-wide digital minimum age of 16 for access to social media, video sharing platforms and AI (artificial intelligence) companions, unless authorised by parents, and a minimum age of 13 to access any social media. 欧州議会議員らは、ソーシャルメディア、動画共有プラットフォーム、AI(人工知能)コンパニオンへのアクセスについて、親の許可がない限りEU全域で16歳以上のデジタル最低年齢を設定すること、またあらゆるソーシャルメディアへのアクセスについては13歳以上の最低年齢を設定することを提案している。
Stronger action by the Commission 欧州委員会のより強力な措置
The MEPs urge the Commission to make full use of its powers under the Digital Services Act (DSA), including issuing fines or, as a last resort, banning non-compliant sites or applications that endanger minors. They also call on the Commission to: 欧州議会議員らは、欧州委員会に対し、デジタルサービス法(DSA)に基づく権限を最大限活用するよう要請している。これには、未成年者を危険にさらす非準拠サイトやアプリケーションに対する罰金賦課、最終手段としての利用禁止が含まれる。また欧州委員会に対し、以下の措置を講じるよう求めている:
・consider introducing personal liability for senior management in cases of serious and persistent breaches of minor protection provisions, with particular respect to age verification; ・未成年者保護規定(特に年齢確認に関するもの)の重大かつ継続的な違反事例において、経営陣の個人責任導入を検討すること
・ban engagement-based recommender algorithms for minors and disable the most addictive design features by default; ・未成年者向けエンゲージメントベースのレコメンデーションアルゴリズムを禁止し、最も中毒性の高いデザイン機能をデフォルトで無効化すること;
・ensure that recommender systems do not present content to minors based on profiling; ・レコメンデーションシステムがプロファイリングに基づいて未成年者にコンテンツを提示しないことを確保すること;
・ban gambling-like mechanisms such as “loot boxes” in games accessible to minors; ・未成年者がアクセス可能なゲームにおける「ルートボックス」などのギャンブル的メカニズムを禁止すること;
・prohibit platforms from monetisation or providing financial or material incentives for kidfluencing (minors acting as influencers); ・プラットフォームがキッドフレンシング(未成年者がインフルエンサーとして活動すること)に対して収益化や金銭的・物的インセンティブを提供することを禁止すること;
・address the ethical and legal challenges arising from AI-powered nudity apps (that allow users to generate manipulated images of individuals without their consent); ・AIを活用したヌード生成アプリ(本人の同意なく個人画像を改変生成可能)に起因する倫理的・法的課題に対処すること;
・firmly enforce AI Act rules against manipulative and deceptive chatbots. ・操作的・欺瞞的なチャットボットに対し、AI法の規則を厳格に適用すること。
Closing legal loopholes 法的抜け穴の解消
MEPs support the idea that persuasive technologies, such as targeted ads, influencer marketing, addictive design, loot boxes and dark patterns, be tackled under the future Digital Fairness Act. The report calls for EU action to address manipulative features like infinite scrolling, autoplay, disappearing stories, and harmful gamification practices that deliberately exploit minors’ behaviour to boost engagement and spending. 欧州議会議員らは、ターゲティング広告、インフルエンサーマーケティング、中毒性デザイン、ルートボックス、ダークパターンなどの説得技術について、将来のデジタル公正法で対処すべきとの考えを支持。本報告書は、無限スクロール、自動再生、消えるストーリー、未成年者の行動を意図的に利用してエンゲージメントや支出を促進する有害なゲーミフィケーション手法など、操作的な機能に対処するためのEUの行動を求めている。
Quote 引用
Rapporteur Christel Schaldemose (S&D, Denmark) said: "Our report clearly states the need for increased protection of minors online in two respects. Firstly, we need a higher bar for access to social media, which is why we propose an EU-wide minimum age of 16. Secondly, we need stronger safeguards for minors using online services. My report calls for mandatory safety-by-design and for a ban on the most harmful engagement mechanisms for minors. I’m proud that Parliament is taking this progressive step to raise the level of protection for minors" 報告者クリステル・シャルデモース(S&D、デンマーク)は次のように述べた:「本報告書は、オンライン上での未成年者保護強化の必要性を二つの観点から明確に示している。第一に、ソーシャルメディアへのアクセス基準を引き上げる必要があり、EU全域で16歳以上の利用を義務付けることを提案する。第二に、オンラインサービスを利用する未成年者に対するより強力な保護策が必要だ。本報告書は、設計段階からの安全対策の義務化と、未成年者に最も有害なエンゲージメント手法の禁止を求めている。議会が未成年者の保護水準を引き上げるこの進歩的な一歩を踏み出したことを誇りに思う」
New survey 新たな調査
A new Eurobarometer survey published today shows citizens’ attitudes towards social media. It examines themes like information habits, social media patterns, exposure to disinformation, and engagement with influencer content. The findings show that young people use media differently from previous generations and are turning increasingly to digital sources. 本日発表された新たなユーロバロメーター調査は、ソーシャルメディアに対する市民の意識を明らかにしている。情報習慣、ソーシャルメディアの利用パターン、偽情報への曝露、インフルエンサーコンテンツとの関わりといったテーマを検証している。調査結果によれば、若年層は過去の世代とは異なる方法でメディアを利用しており、デジタル情報源への依存度が高まっている。
Next steps 今後の予定
Parliament will vote on its recommendations to increase minors’ safety online at the 24-27 November plenary session. 議会は、11月24日から27日にかけて開催される本会議において、未成年者のオンライン安全強化に向けた勧告案の採決を行う予定である。

 

ユーロバロメータ調査の結果

Social Media Survey 2025

Abstract 要約
The survey examines attitudes towards key themes, such as: information habits and sources for social and political current affairs, social media usage patterns and preferences for information on current affairs, exposure and response to disinformation and trust in messengers, engagement with influencers and content creators on social media, audience and preferences for institutional accounts and political content on social media, and preferred formats and content types for political content on social media. 本調査では、以下の主要テーマに対する態度を検証した:社会・政治情勢に関する情報の習慣と情報源、ソーシャルメディアの利用パターンと時事情報への嗜好、偽情報への接触と対応、情報発信者への信頼、ソーシャルメディア上のインフルエンサーやコンテンツクリエイターとの関わり、ソーシャルメディア上の機関アカウントや政治コンテンツの視聴者層と嗜好、ソーシャルメディア上の政治コンテンツにおける好ましい形式とコンテンツタイプ。
Key findings 主な調査結果
Information habits and sources 情報習慣と情報源
Two-thirds (66%) of respondents use traditional media to follow content on social and political current affairs daily and about six in ten (59%) respondents use other digital sources. In terms of information sources used for that purpose, about seven in ten (71%) indicate using the TV. For youth aged between 15 and 24, the most used source for this type of content is social media platforms (65%). Whereas over four in ten respondents (42%) answer that TV has become more important for them over the last year, one in five (25%) perceive increased importance of the social media platforms.  回答者の3分の2(66%)が社会・政治情勢に関するコンテンツを毎日追うために伝統的メディアを利用しており、約6割(59%)がその他のデジタル情報源を利用している。その目的で利用される情報源としては、約7割(71%)がテレビを利用していると回答している。15~24歳の若年層では、この種のコンテンツで最も利用される情報源はソーシャルメディアプラットフォーム(65%)である。回答者の4割以上(42%)が「この1年でテレビの重要性が増した」と回答する一方、5人に1人(25%)はソーシャルメディアプラットフォームの重要性が増したと認識している。
Social media use ソーシャルメディアの利用状況
The survey findings reveal a combination of active and passive consumption of social and political information on social media, with many users both intentionally seeking out content (66%) and unexpectedly encountering it during casual browsing (76%). Respondents engage with social and political content on social media mostly by reading or viewing content on their feed(s) (38%) or liking or reacting to posts (36%). 調査結果によれば、ソーシャルメディア上の社会・政治情報については能動的・受動的両方の消費形態が確認され、多くのユーザーが意図的にコンテンツを探索(66%)すると同時に、偶発的な閲覧中に遭遇(76%)している。回答者がソーシャルメディア上の社会・政治コンテンツと関わる主な方法は、フィード上のコンテンツの閲覧(38%)または投稿への「いいね」やリアクション(36%)である。
Exposure and response to disinformation 偽情報への接触と対応
Two thirds (66%) of respondents think they have been exposed to disinformation and fake news at least sometimes over the past seven days. Although just over six in ten respondents feel confident that they can recognise disinformation when they encounter it (61%), about three in ten are not confident in their ability to recognise disinformation. 回答者の3分の2(66%)が、過去7日間に少なくとも一度は偽情報やフェイクニュースに接触したと考えている。回答者の6割強(61%)は偽情報に遭遇した際に識別できると自信を持っている一方、約3割は識別能力に自信がない。
Following influencers and content creators インフルエンサーやコンテンツクリエイターのフォロー
More than one-third of respondents (37%) indicate that they follow influencers or content creators on social media channels. Among youngsters (15 to 24-year-olds) the result increases to 74%. Among respondents following influencers of content creators, four in ten follow reviews (39%) and commentary on social and political current affairs (38%). 回答者の37%以上が、ソーシャルメディア上でインフルエンサーやコンテンツクリエイターをフォローしていると回答。若年層(15~24歳)ではこの割合が74%に上昇。インフルエンサーやコンテンツクリエイターをフォローする回答者のうち、4割が「レビュー」(39%)や「社会・政治時事問題に関する解説」(38%)をフォロー対象としている。
Preferred formats for political content on social media ソーシャルメディア上の政治コンテンツの好ましい形式
Just over two in ten (22%) respondents indicate that they follow what’s going on in EU politics ‘most of the time’, and more than four in ten (44%) respondents report doing so ‘from time to time’. Among those who indicate using social media and/or platforms for information on social and political current affairs, more than four in ten report a preference for short text-based posts (46%) and for short videos (41%). Also, more than four in ten users report a preference for videos exploring current affairs in depth (47%), interviews with experts (44%) and interviews with everyday people or citizens affected by the issue (42%). 回答者の2割強(22%)がEU政治の動向を「ほとんど常に」フォローしていると回答し、4割超(44%)が「時々」フォローしていると報告している。ソーシャルメディアやプラットフォームで社会・政治情勢情報を入手すると回答した層では、4割超が短いテキスト投稿(46%)と短編動画(41%)を好むと報告。また、40%以上のユーザーが、時事問題を深く掘り下げる動画(47%)、専門家へのインタビュー(44%)、問題の影響を受ける一般市民や市民へのインタビュー(42%)を好むと報告している。
Reports and documents 報告書と文書
Country Factsheets in English 英語版国別ファクトシート
Country Factsheets 国別ファクトシート
Infographics インフォグラフィック
Download ダウンロード
20251017-234818
Presentation プレゼンテーション
Download ダウンロード
20251017-235218
Report 報告書
Download ダウンロード
20251017-235627
Summary 要約
Download ダウンロード
20251017-235925

 

・[PDF] Summary

KEY FINDINGS  主な調査結果
Information habits and sources  情報習慣と情報源
Just over four in ten (42%) respondents report that they ‘frequently’ discuss social and political current affairs when getting together with friends or relatives, and about half (51%) mention doing so ‘occasionally’. Fewer than one in ten (6%) respondents indicate that they ‘never’ do so.   回答者の42%が友人や親族と集まる際に「頻繁に」社会・政治の時事問題を話し合うと回答し、約半数(51%)が「時々」そうすると回答した。10人に1人未満(6%)の回答者が「全くしない」と回答している。  
Two-thirds (66%) of respondents use traditional media (offline or digital services of TV stations, newspapers, radio stations, etc.) to follow content on social and political current affairs on a daily basis. About six in ten (59%) respondents use other digital sources (such as social media, video – or streaming platforms, blogs, online news portals, etc.) to follow content on social and political current affairs on a daily basis.  回答者の3分の2(66%)が、社会・政治情勢に関する情報を毎日追うために伝統的メディア(テレビ局、新聞社、ラジオ局などのオフラインまたはデジタルサービス)を利用している。約6割(59%)の回答者は、社会・政治情勢に関する情報を毎日追うために他のデジタル情報源(ソーシャルメディア、動画・ストリーミングプラットフォーム、ブログ、オンラインニュースポータルなど)を利用している。
Asked about information sources used for getting information on social and political current affairs, about seven in ten (71%) indicate using the TV.  More than four in ten (43%) mention the radio, closely followed by printed newspapers and magazines or their online versions (41%), search engines (e.g. Google Search or Bing) (40%), social media platforms (e.g. Instagram, TikTok, Facebook, X, etc.) (40%) and friends, family and colleagues (40%).  社会・政治情勢に関する情報源について尋ねたところ、約7割(71%)がテレビを利用していると回答した。4割強(43%)がラジオを挙げ、次いで印刷媒体の新聞・雑誌またはそのオンライン版(41%)、検索エンジン(例:Google検索やBing)(40%)、ソーシャルメディアプラットフォーム(例:Instagram、TikTok、Facebook、Xなど)(40%)、友人・家族・同僚(40%)が続いた。
Just over four in ten respondents (42%) answer that TV has become more important for them over the last year. One in five (25%) point to social media platforms (e.g. Instagram, TikTok, Facebook, X, etc.), and fewer than one in four report increased importance, over the last year, of printed newspapers and magazines or their online versions (19%), the radio (18%) and search engines (e.g. Google Search or Bing) (18%).   回答者の4割強(42%)が、テレビの重要性が過去1年で高まったと回答。5人に1人(25%)がソーシャルメディアプラットフォーム(例:Instagram、TikTok、Facebook、Xなど)を挙げ、4人に1人未満が過去1年間で重要性が増したと報告したのは、印刷物としての新聞・雑誌またはそのオンライン版(19%)、ラジオ(18%)、検索エンジン(例:Google検索やBing)(18%)であった。
Respondents were asked about a range of topics on social and political current affairs that they generally follow or pay attention to. About six in ten (61%) mention public health and healthcare systems. Over four in ten indicate generally following or paying attention to democracy and the rule of law (47%), migration and asylum (45%) or action against climate change (43%). Four in ten respondents (40%) report following or paying attention to the EU’s defence and security, the same share mention (40%) poverty reduction and social inclusion. More than one-third of respondents point to support to the economy and the creation of jobs (37%), as well as foreign policy and trade (36%), as topics of interest in social and political current affairs. Smaller shares answer they are following or paying attention to agriculture and food security (28%) and the EU’s autonomy in the fields of industry and energy (19%).   回答者には、社会・政治情勢に関する様々なトピックについて、普段フォローまたは注目しているかを尋ねた。約6割(61%)が公衆衛生・医療制度を挙げた。4割超が民主主義と法の支配(47%)、移民・難民問題(45%)、気候変動対策(43%)を普段フォローまたは注目していると回答した。回答者の4割(40%)がEUの防衛・安全保障に関心を寄せていると回答し、貧困削減と社会的包摂にも同率(40%)が言及した。回答者の3分の1以上が、経済支援と雇用創出(37%)および外交政策と貿易(36%)を社会・政治情勢における関心事項として挙げている。農業と食料安全保障(28%)や産業・エネルギー分野におけるEUの自律性(19%)に注目しているとする回答者は少数派である。
Social media use  ソーシャルメディア利用状況
Users of social media and platforms for current affairs information were asked to identify the platforms they use the most for this purpose. Over one in two users indicate Facebook (58%) and YouTube (57%) as the most important ones, followed by Instagram (46%). Fewer than onethird of users mention TikTok (31%), WhatsApp (27%) and X (Twitter) (25%), and at least one in ten point to Telegram (13%) and LinkedIn (10%) as important platforms.   時事情報収集にソーシャルメディアやプラットフォームを利用するユーザーに対し、最も頻繁に利用する媒体を尋ねた。半数以上がFacebook(58%)とYouTube(57%)を最重要媒体と回答し、次いでInstagram(46%)が続いた。TikTok(31%)、WhatsApp(27%)、X(Twitter)(25%)を挙げるユーザーは3分の1未満であり、Telegram(13%)とLinkedIn(10%)を重要なプラットフォームとして指摘するユーザーは少なくとも10人に1人いた。
The survey findings reveal a combination of active and passive consumption of social and political information on social media, with many users both intentionally seeking out content and unexpectedly encountering it during casual browsing. Just over three-quarters (76%) of respondents agree with the statement ‘When browsing social media, I sometimes read social and political information that I have come across by chance, even though I was not actively searching for it’. On the other hand, two-thirds (66%) of  social media and platforms users agree with the statement ‘I actively search for information about social and political current affairs on social media’.  調査結果は、ソーシャルメディア上での社会・政治情報の能動的・受動的消費が混在していることを示しており、多くのユーザーが意図的にコンテンツを探す一方で、カジュアルな閲覧中に偶然目にするケースも少なくない。回答者の4分の3強(76%)が「ソーシャルメディアを閲覧中、能動的に探していなかったにもかかわらず、偶然目にした社会・政治情報を読むことがある」という記述に同意している。一方、ソーシャルメディアおよびプラットフォーム利用者の3分の2(66%)が「ソーシャルメディア上で社会・政治情勢に関する情報を積極的に検索する」という記述に同意している。
Respondents in the survey were asked in which ways, if any, they engaged with social and political content on social media. Over one-third of respondents report that they read or view content on their feed(s) (38%) or that they like or react to posts (36%). Fewer than one in four (23%) respondents comment on posts, and fewer than one in five share others’ posts on their profile or stories (19%) or share content through direct messages or private chats (18%). About one in ten (11%) create and post their own original content (e.g. thoughts/opinions on issues).  調査では、ソーシャルメディア上の社会・政治コンテンツとの関わり方について質問した。回答者の3分の1以上が、フィード上のコンテンツを閲覧(38%)または投稿に「いいね」やリアクション(36%)をしていると報告した。投稿にコメントする回答者は4人に1人未満(23%)、他者の投稿を自身のプロフィールやストーリーで共有する(19%)、ダイレクトメッセージやプライベートチャットでコンテンツを共有する(18%)回答者は5人に1人未満である。自身のオリジナルコンテンツ(例:問題に関する考えや意見)を作成・投稿する回答者は約10人に1人(11%)であった。
Exposure and response to disinformation and trust in messengers  偽情報への接触・反応と情報発信者への信頼
Asked how often they think they have personally been exposed to disinformation and fake news over the past seven days, over one-third of respondents indicate they have been exposed ‘very often’ (12%) or ‘often’ (23%). Three in ten respondents (31%) report they have ‘sometimes’ been exposed to disinformation and fake news over the past week, and fewer than one in four report they have ‘rarely’ (16%) or ‘never’ (7%) been exposed.   過去7日間に偽情報やフェイクニュースに個人的に接触した頻度を尋ねたところ、回答者の3分の1以上が「非常に頻繁に」(12%)または「頻繁に」(23%)接触したと回答。回答者の3割(31%)は過去1週間で「時々」偽情報やフェイクニュースに接触したと報告し、「ほとんどない」(16%)または「全くない」(7%)と回答したのは4人に1人未満であった。
Just over six in ten respondents feel confident that they can recognise disinformation when they encounter it (12% ‘very confident’, 49% ‘somewhat confident’). About three in ten are, on the other hand, not confident in their ability to recognise disinformation (of which 26% ‘not very confident’ and 6% ‘not at all confident’).  回答者の6割強は、偽情報に遭遇した際にそれを識別できる自信があると回答(12%が「非常に自信がある」、49%が「やや自信がある」)。一方、約3割は偽情報の識別能力に自信がない(うち26%が「あまり自信がない」、6%が「全く自信がない」)。
Respondents were then asked what they typically do, when they are unsure whether a piece of information on social media is disinformation. About one in two (49%) respondents mention cross-checking it with other sources of information to see if they are saying the same thing.   ソーシャルメディア上の情報が偽情報かどうか確信が持てない場合、回答者は通常どのような行動を取るか尋ねられた。約半数(49%)が「他の情報源と照合し、同じ内容かどうか確認する」と回答した。  
Four in ten (40%) respondents indicate that they look at who posted it to check if it’s from a trusted or distrusted source. About one-third (34%) of respondents report that they check if it’s recent news, not an old story being shared again, and fewer than three in ten answer that they check the comments to see what other people are saying about it (29%), check if the pictures or videos look real or fake (25%), or look out for spelling or grammar mistakes (24%). Fewer than two in ten respondents mention that, in order to verify whether a piece of information on social media is disinformation, they either ask people they trust what they think (18%) or use a fact-checking tool or website (14%). Notably, one in ten (10%) respondents indicate that they do not do anything to verify the information.   回答者の4割(40%)は「投稿者を確認し、信頼できる情報源か否かを判断する」と回答した。回答者の約3分の1(34%)は、古い記事の再拡散ではなく最新ニュースかどうかを確認すると回答。コメント欄で他者の反応を確認する(29%)、写真や動画の真偽を検証する(25%)、スペルや文法の誤りをチェックする(24%)といった回答は10人中3人に満たなかった。ソーシャルメディア上の情報が偽情報かどうかを検証するために、信頼できる人に意見を尋ねる(18%)またはファクトチェックツール・サイトを利用する(14%)と回答したのは10人中2人未満でした。特に注目すべきは、10人に1人(10%)が情報を検証する手段を一切取らないと回答した点です。
Following influencers and content creators  インフルエンサーやコンテンツクリエイターのフォロー
More than one-third of respondents (37%) indicate that they follow influencers or content creators on social media channels (e.g. YouTube, Instagram, or TikTok, etc.).    回答者の37%以上が、ソーシャルメディア(YouTube、Instagram、TikTokなど)でインフルエンサーやコンテンツクリエイターをフォローしていると回答した。
Respondents who report following influencers or content creators on social media were then asked about their preferred content types from these accounts. About four in ten followers mention reviews (e.g. products, books, places, etc.) (39%), commentary on social and political current affairs (38%) and how to’s (e.g. tutorials) (38%). These are followed by insight into their everyday life (36%) and motivational content (31%). A smaller proportion of followers, close to one in five (19%), indicate a preference for the promotion and advertising of commercial products.   ソーシャルメディアでインフルエンサーやコンテンツクリエイターをフォローしていると回答した対象者に対し、これらのアカウントから好むコンテンツの種類について質問した。約4割のフォロワーが「レビュー(製品・書籍・場所など)」(39%)、「社会・政治時事問題へのコメント」(38%)、「ハウツー(チュートリアルなど)」(38%)を挙げた。次いで「日常生活の洞察」(36%)、「モチベーション向上コンテンツ」(31%)が続いた。より少数派の約5人に1人(19%)は、商業製品の宣伝・広告を好むと回答している。  
Preferred formats for political content on social media  ソーシャルメディア上の政治コンテンツの好ましい形式
Just over two in ten (22%) respondents indicate that they follow what’s going on in EU politics ‘most of the time’, and more than four in ten (44%) respondents report doing so ‘from time to time’. Another one-fifth (21%) of respondents mention ‘rarely’ following what’s going on in EU politics. About one in ten (11%) reply that they ‘never or almost never’ do so.   回答者の約5人に2人強(22%)がEU政治の動向を「ほとんど常に」フォローしていると回答し、4割超(44%)が「時々」フォローしていると報告している。回答者の5分の1(21%)はEU政治動向を「ほとんど追わない」と回答。約10人に1人(11%)は「全く追わない、あるいはほとんど追わない」と回答した。  
Respondents who indicate using social media and/or platforms for information on social and political current affairs were then asked about their preferred formats for such information on social media. More than four in ten users report a preference for short text-based posts (e.g. images with short text, status updates) (46%) and for short videos (e.g. TikTok, Instagram Reels, under 1 minute) (39%). This is followed by a preference for medium-length videos (e.g. 1-5 minutes) (39%) and longer videos (e.g. YouTube, over 5 minutes) (35%), each selected by over one-third of users. About one in four users, on the other hand, express a preference for stories (e.g. Instagram Stories) (26%), longer text-based articles (e.g. articles, blog posts) (25%), live streams or live videos (24%) and podcasts (24%). Smaller shares mention infographics or charts (animated or not) (19%) and newsletters (e.g. LinkedIn newsletters, Substack) (15%).   ソーシャルメディアやプラットフォームで社会・政治情勢の情報を利用すると回答した対象者に対し、ソーシャルメディア上で好む情報形式について尋ねた。4割以上のユーザーが、短いテキストベースの投稿(例:短いテキスト付き画像、ステータス更新)を好むと回答した(46%)。また短い動画(例:TikTok、Instagram Reels、1分未満)を好むと回答したユーザーは39%だった。これに続いて、中程度の長さの動画(例:1~5分)(39%)と長い動画(例:YouTube、5分以上)(35%)がそれぞれユーザーの3分の1以上から選ばれた。一方、約4人に1人のユーザーは、ストーリー(例:Instagram Stories)(26%)、長文テキスト記事(例:記事、ブログ投稿)(25%)、ライブ配信またはライブ動画(24%)、ポッドキャスト(24%)を好むと回答している。さらに少ない割合で、インフォグラフィックやチャート(アニメーション有無問わず)(19%)、ニュースレター(例:LinkedInニュースレター、Substack)(15%)が挙げられた。
Respondents using social media and/or platforms for information on social and political current affairs were then also asked to express their video content preferences in relation to current affairs information on social media. More than four in ten users report a preference for videos exploring current affairs in depth (47%), interviews with experts (e.g. academics or political analysts) (44%) and interviews with everyday people or citizens affected by the issue (42%). Just over one-third of users point to interviews with politicians or government officials (34%), and three in ten (30%) users indicate videos combining people on camera with graphics, text, or animations as preferred types of video content about current affairs.   ソーシャルメディアやプラットフォームで社会・政治情勢情報を得る回答者に対し、ソーシャルメディア上の時事情報コンテンツにおける動画形式の好みも尋ねた。4割超のユーザーが時事問題を深く掘り下げる動画(47%)、専門家(例:学者や政治アナリスト)へのインタビュー(44%)、問題に影響を受ける一般市民へのインタビュー(42%)を好むと回答。ユーザーの3分の1強が政治家や政府高官へのインタビュー(34%)を挙げ、3割(30%)がカメラに映る人物とグラフィック・テキスト・アニメーションを組み合わせた動画を時事問題に関する好ましい動画コンテンツとして選択した。
Attitudes towards the EU  EUに対する態度
Respondents were asked to rate the importance of their country being a Member State of the EU on a scale from 1 to 10, where 1 means ‘not at all important’ and 10 means ‘extremely important’. Overall, across the EU, about two-thirds (66%) of respondents consider their country’s membership to be important (scores 8-10) and 15% view it as of low importance (scores 1-4). Fewer than two in ten respondents (16%) select a more moderate stance on the scale (scores 5-6 ‘Neither important, nor unimportant’).   回答者は、自国がEU加盟国であることの重要性を1~10の尺度で評価するよう求められた(1は「全く重要でない」、10は「極めて重要」)。EU全体では、回答者の約3分の2(66%)が自国の加盟を重要(8~10点)と評価し、15%が重要度が低い(1~4点)と見なしている。回答者の10人に2人未満(16%)が中立的な立場(5~6点「重要でもなく、重要でもない」)を選択した。
Over six in ten respondents are generally in favour of the EU: 27% are in favour of the EU and the way it is working at present; 37% are rather in favour of the EU, but not the way it is working at present. About one-fifth (21%) of respondents are rather sceptical of the EU, but could change their opinion if the way it works really changes. Fewer than one in ten (8%) respondents are opposed to the idea of the EU in general.   回答者の6割以上がEUに概ね好意的である:27%はEUとその現状の運営を支持、37%はEUにはやや好意的だが現状の運営には賛同していない。回答者の約5分の1(21%)はEUに対してやや懐疑的だが、その運営方法が真に変われば意見を変える可能性がある。回答者の10人に1人未満(8%)がEUの理念そのものに反対している。
When asked about their trust in various entities, over four in ten respondents indicate that they trust the most friends and family (45%) and scientists (45%). Between one in five and one in ten respondents report trusting the most school teachers or university lecturers (17%), journalists (13%), public institutions (13%), NGOs (11%) and media (10%). Smaller shares trust the most any other entity: private companies (6%), politicians (5%), influencers or content creators (4%) or other (3%). Notably, one in ten (10%) respondents report that they trust none of these listed entities the most.  様々な組織への信頼度を尋ねたところ、回答者の4割以上が最も信頼するのは友人や家族(45%)と科学者(45%)と回答した。回答者の5人に1人から10人に1人は、学校の教師や大学の講師(17%)、ジャーナリスト(13%)、公的機関(13%)、NGO(11%)、メディア(10%)を最も信頼すると報告している。その他の組織を最も信頼すると回答した割合はさらに低く、民間企業(6%)、政治家(5%)、インフルエンサーやコンテンツクリエイター(4%)、その他(3%)となっている。特筆すべきは、回答者の10%が「上記のいずれの組織も最も信頼していない」と回答している点である。
This Flash Eurobarometer provides an overview of European citizens’ attitudes towards social media. It examines attitudes towards key themes, such as: information habits and sources for social and political current affairs; social media usage patterns and preferences for information on current affairs; exposure and response to disinformation and trust in messengers; engagement with influencers and content creators on social media; audience and preferences for institutional accounts and political content on social media; preferred formats and content types for political content on social media; attitudes towards the European Union.   本フラッシュ・ユーロバロメーターは、欧州市民のソーシャルメディアに対する態度を概観するものである。調査対象となった主なテーマは以下の通り:社会・政治情勢に関する情報の習慣と情報源、ソーシャルメディアの利用パターンと時事情報への嗜好、偽情報への接触と対応、メッセンジャーへの信頼、ソーシャルメディア上のインフルエンサーやコンテンツクリエイターとの関わり、ソーシャルメディア上の機関アカウントや政治コンテンツの視聴者層と嗜好、ソーシャルメディア上の政治コンテンツにおける好ましい形式とコンテンツタイプ、欧州連合(EU)に対する態度。
On behalf of the European Parliament’s Directorate-General for Communication, Ipsos European Public Affairs interviewed a representative sample of EU citizens, aged 15 and over, in each of the 27 Member States of the European Union (EU). Between 11 and 18 June 2025, 26 121 interviews were conducted via computer-assisted web interviewing (CAWI), using Ipsos’ online panels and their partner network.   欧州議会のコミュニケーション総局に代わって、イプソス・ヨーロピアン・パブリック・アフェアーズは、欧州連合(EU)加盟27カ国それぞれにおいて、15歳以上のEU市民を代表するサンプルを対象にインタビューを実施しました。2025年6月11日から18日にかけて、イプソスのオンラインパネルおよび提携ネットワークを活用し、コンピューター支援ウェブ調査(CAWI)方式により26,121件のインタビューを実施した。

 

 

法改正に向けた準備???

・2025.10.16 [PDF] 2025/2060(INI) COMPROMISE AMENDMENTS 1-11 Protection of minors online

20251018-00340

・[DOCX][PDF] 仮訳(改訂案のみ...)

 

 

| | Comments (0)

2025.10.17

デジタル庁 DS-511 行政手続等での本人確認におけるデジタルアイデンティティの取扱いに関するガイドライン (2025.09.30)

こんにちは、丸山満彦です。

政府の「DS-500 行政手続におけるオンラインによる本人確認の手法に関するガイドライン」が改訂され、[PDF]「DS-511 行政手続等での本人確認におけるデジタルアイデンティティの取扱いに関するガイドライン」になっていますね。。。

5年半ぶりの改訂ですね。。。議論はずっとしていましたので、長い道のりでした...

・2023.06.29 [PDF] 参考資料_改定に向けた中間とりまとめ(令和4年度(2022年度))
・2024.07.23 [PDF] 参考資料_改定に向けた中間とりまとめ(令和5年度(2023年度))
・2025.04.01 [PDF] 参考資料_改定に向けたとりまとめ(令和6年度(2024年度))

米国連邦政府のSP800-63に相当するものですかね...SP800-63と比較しながら読むと理解が進むかもしれません...

 

デジタル庁 - デジタル社会推進標準ガイドライン

発表...

・2025.10.14 デジタル社会推進標準ガイドライン:「DS-511 行政手続等での本人確認におけるデジタルアイデンティティの取扱いに関するガイドライン」を掲載しました

文書...

・2025.09.30 DS-511 行政手続等での本人確認におけるデジタルアイデンティティの取扱いに関するガイドライン

・[PDF]

20251015-53847

 

目次...

本ガイドラインの改定に当たって
改定履歴
目次

1 はじめに
1.1 背景と目的
1) 本人確認とデジタルアイデンティティを取り巻く環境
2) デジタルアイデンティティに関する諸外国の動向
3) 本ガイドラインの目的
1.2 適用対象
1.3 位置付け
1.4 用語
1.5 基本的な考え方
1) 事業目的の遂行
2) 公平性
3) プライバシー
4) アクセシビリティ及びユーザビリティ
5) セキュリティ

2 本人確認の基本的枠組み
2.1 本人確認の構成要素
2.2 本人確認の実装モデル
1) 連携モデル(Federated Model)
2) 非連携モデル(Non-Federated Model)
3) 連携モデルと非連携モデルの組み合わせ

3 本人確認における脅威と対策
3.1 身元確認(Identity Proofing)
1) 身元確認における脅威と対策
2) 身元確認のプロセス
3) 身元確認の手法
4) 身元確認保証レベルと対策基準
5) 身元確認に関する個別検討事項
3.2 当人認証(Authentication)
1) 当人認証における脅威と対策
2) 当人認証のプロセス
3) 当人認証の手法
4) 当人認証保証レベルと対策基準
5) 当人認証に関する個別検討事項
3.3 フェデレーション(Federation)
1) フェデレーションにおける脅威と対策
2) フェデレーションのプロセス
3) フェデレーションに関する対策基準

4 本人確認手法の検討方法
4.1 対象手続の保証レベルの判定
1) リスクの特定
2) リスクの影響度の評価
3) 保証レベルの判定
4.2 本人確認手法の評価と決定
1) 本人確認手法の評価
2) 補完的対策等の検討
3) 例外措置の検討
4.3 継続的な評価と改善
1) 評価のための情報収集
2) 評価と改善の実施

別紙1 附則
1 施行期日

別紙2 法人等の手続における身元確認の考え方について
1 基本的な考え方
2 法人等の手続における身元確認のプロセスと手法例
2.1 法人等の実在性確認
1) 属性情報の収集
2) 本人確認書類の検証
2.2 申請者の個人としての身元確認
2.3 法人等と申請者個人の紐づきの確認
1) 申請者個人が法人等の代表者の場合
2) 申請者個人が法人等の代表者以外の場合
3 留意事項



 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.02 デジタル庁 本人確認ガイドライン改定方針 令和6年度とりまとめ (2025.04.01)

・2024.07.11 デジタル庁 本人確認ガイドラインの改定に向けた有識者会議 本人確認ガイドライン改定方針令和5年度中間とりまとめ

・2023.06.30 デジタル庁 「DS-500 行政手続におけるオンラインによる本人確認の手法に関するガイドライン」の改定に向けた中間取りまとめ

・2022.07.02 デジタル庁 デジタル社会推進標準ガイドラインにセキュリティに関するドキュメントが追加されましたね。。。

 

 

SP800-63...

・2025.08.03 米国 NIST SP 800-63-4 デジタル ID ガイドライン (2025.07.31)

・2024.11.18 米国 意見募集 NIST SP 800-157r1 派生個人アイデンティティ検証(PIV)クレデンシャル・ガイドラインと、SP 800-217 個人 アイデンティティ 検証(PIV)連携ガイドラインの最終ドラフト

・2024.10.10 米国 NIST IR 8480(初期公開ドラフト) アイデンティティ管理のための属性妥当性確認サービス:アーキテクチャ、セキュリティ、プライバシー、運用上の考慮事項

・2024.08.24 米国 NIST SP 800-63-4(第2次公開草案)デジタル・アイデンティティ・ガイドライン他...

・2024.04.25 米国 NIST SP 800-63B [補足 1] NIST SP 800-63B: デジタル・アイデンティティ・ガイドライン - 認証およびライフサイクル管理への同期可能な本人認証の組み込み

・2022.12.19 NIST SP 800-63-4 (ドラフト) デジタル・アイデンティティ・ガイドライン 、63A-4 (ドラフト) 登録と身元確認、63B-4 (ドラフト) 本人認証とライフサイクル管理、63C-4 (ドラフト) 連携とアサーション

・2020.06.11 NIST SP 800-63-4(Draft) PRE-DRAFT Call for Comments: Digital Identity Guidelines

・2020.03.07 NIST SP800-63-3 Digital Identity GuidelinesにEditorialな修正がありました

 

 欧州

・2024.09.27 ENISA EUデジタルID(EUDI)ウォレットの認証をサポート (2024.09.24)

・2024.07.09 欧州 ETSI 電子署名と信頼基盤(ESI);属性の電子認証に適用される選択的開示とゼロ知識証明の分析

・2024.03.21 ENISA 遠隔身元証明 (Remote ID Proofing) の優れた実践

・2024.02.03 ENISA サイバーセキュリティ認証の市場

・2023.07.05 ENISA デジタルID標準

 

英国

・2024.10.13 英国 認定デジタル ID および属性サービスについて

 

 

 

 

 

| | Comments (0)

2025.10.16

中国 行政分野における大規模AIモデルの展開・応用指針 (2025.10.10)

こんにちは、丸山満彦です。

中国が、行政分野における大規模AIモデルの展開・応用指針を公表していますね...

日本の行政機関でも参考になることはあると思います...民間でもAIをどう活用する???なんて考えている企業には参考になるかもです...

 

・2025.10.10 政务领域人工智能大模型部署应用指引

政务领域人工智能大模型部署应用指引 行政分野における人工知能大規模モデルの展開・応用指針
为深入贯彻落实党中央、国务院决策部署,规范和引导人工智能大模型在政务领域的发展与应用,提升政务数字化智能化治理和服务水平,制定本指引。本指引主要为各级政务部门提供人工智能大模型部署应用的工作导向和基本参照,将根据实践进展,结合人工智能大模型发展和应用的新形势、新要求,进行动态调整。 党中央・国務院の決定・配置を深く貫徹し、行政分野における人工知能大規模モデルの発展と応用を規範化し導くため、行政のデジタル化・知能化によるガバナンスとサービス水準の向上を図るべく、本指針を制定する。本指針は主に各級行政部門に対し、人工知能大規模モデルの展開・応用に関する業務指針と基本参照を提供するものであり、実践の進展に基づき、人工知能大規模モデルの発展と応用の新たな情勢・新たな要求を踏まえ、動的に調整する。
一、总体要求 一、全体的な要求
坚持以习近平新时代中国特色社会主义思想为指导,深入贯彻落实党的二十大和二十届二中、三中全会精神,全面贯彻习近平总书记关于网络强国的重要思想,完整准确全面贯彻新发展理念,统筹高质量发展和高水平安全,坚持系统谋划、集约发展,以人为本、规范应用,共建共享、高效协同,安全稳妥、务求实效,有序推进人工智能大模型技术、产品和服务在政务领域的部署、应用和持续优化,充分发挥人工智能大模型在复杂语义理解与推理、多模态内容生成、知识整合与分析等方面的优势,为工作人员提供高效辅助,为公众和企业提供便捷服务,推动政务创新发展,提升治理效能、优化服务管理、辅助科学决策。 習近平新時代中国特色社会主義思想を指針とし、党の第20回全国代表大会及び第20期中央委員会第2回・第3回全体会議の精神を深く貫徹し、習近平総書記のネットワーク強国に関する重要思想を全面的に貫徹する。新たな発展理念を完全かつ正確に貫徹し、高品質な発展と高水準の安全を統合的に推進する。体系的な計画と集約的な発展を堅持し、 人間中心の規範的応用、共同構築・共有・効率的連携、安全確実・実効追求を基本方針とし、行政分野における人工知能大規模モデルの技術・製品・サービスの展開・応用・継続的最適化を秩序立てて推進する。複雑な意味理解・推論、マルチモーダルコンテンツ生成、知識統合・分析などにおける人工知能大規模モデルの優位性を十分に発揮させ、職員への効率的支援、公衆・企業への利便性向上を通じ、行政の革新的発展を促進し、ガバナンス効率の向上、サービス管理の最適化、科学的意思決定の補助を図る。
二、应用场景 二、応用シナリオ
政务部门可围绕政务服务、社会治理、机关办公和辅助决策等工作中的共性、高频需求,因地制宜、结合实际,选择典型场景进行人工智能大模型探索应用。主要包括以下参考场景: 行政部門は、行政サービス、社会ガバナンス、機関事務、意思決定支援などにおける共通的・高頻度ニーズに基づき、地域の実情に合わせ、典型的なシナリオを選択してAI大規模モデルの応用を探求する。主な参考シナリオは以下の通りである:
(一)政务服务类 (一)行政サービス類
1.智能问答。整合本地区、本部门、本领域业务资源和知识库等数据,利用自然语言理解、检索增强生成和知识图谱等技术,提供便捷的在线政务咨询服务,加强对公众诉求的准确理解,实时生成参考回答,帮助解决公众疑惑,提升信息获取便捷性。 1. インテリジェントQ&A。当該地域・部門・分野の業務リソースやナレッジベースなどのデータを統合し、自然言語理解、検索強化生成、ナレッジグラフなどの技術を活用して、便利なオンライン行政相談サービスを提供する。市民の要望を正確に理解し、リアルタイムで参考回答を生成することで、市民の疑問解決を支援し、情報取得の利便性を高める。
2.辅助办理。整合政务服务办事指南、常见问题、用户评价和历史办理记录等数据,利用智能匹配和自动化处理等技术,提供智能导办、个性引导、表单预填、辅助审核、进度查询和提醒等一站式政务辅助办理服务,辅助工作人员高效审核材料,支撑公众和企业便捷办理事项。 2. 補助処理。行政サービスの手続きガイド、よくある質問、ユーザー評価、過去の処理記録などのデータを統合し、インテリジェントマッチングや自動処理技術を活用する。これにより、インテリジェントな案内、個別ガイド、フォーム事前入力、補助審査、進捗照会、リマインダーなどのワンストップ行政補助サービスを提供し、職員の効率的な書類審査を支援し、市民や企業の円滑な手続きを支える。
3.政策服务直达快享。构建政策服务知识库,细化政策要求、政策标签、推送条件、申兑流程等相关内容,利用“政策找人”“政策找企业”算法模型,加强公众和企业需求分析,实现政策智能匹配,推进惠民利民、惠企利企服务主动精准送达和一站式办理。 3.政策サービスの迅速な提供。政策サービス知識ベースを構築し、政策要件・政策タグ・プッシュ条件・申請・換金プロセスなどを詳細化。「政策が人を探す」「政策が企業を探す」アルゴリズムモデルを活用し、公衆と企業のニーズ分析を強化。政策のインテリジェントマッチングを実現し、住民・企業向けサービスの能動的かつ精密な提供とワンストップ処理を推進する。
(二)社会治理类 (二)社会ガバナンス分野
4.智能监测巡检。利用无人机、视频监控、智能传感器等设备和计算机视觉等技术,对监控视频、图像、物联感知数据等进行实时分析,辅助工作人员实时监测房屋、道路、燃气、桥梁、供水、排水、供热、综合管廊等基础设施,及时发现异常行为、环境问题或设施故障等,自动识别潜在风险隐患,及时进行提醒,并根据异常情况和严重程度提供处置建议,提高监测巡检效率。 4.インテリジェント監視・巡回検査。ドローン、映像監視、スマートセンサー等の機器とコンピュータビジョン等の技術を活用し、監視映像・画像・IoT感知データ等をリアルタイム分析する。職員が建物・道路・ガス・橋梁・給水・排水・暖房・総合管路等のインフラをリアルタイム監視するのを補助し、異常行動・環境問題・施設故障等を即時発見する。潜在リスクを自動識別し、速やかに警告を発する。異常状況と深刻度に応じた対応提案を提供し、監視巡回検査の効率を向上させる。
5.辅助执法监管。采用语音识别、视频分析、知识图谱、逻辑推理等技术,辅助执法人员将案件信息实时录入系统、穿透式发现问题线索、生成案件报告、快速检索法律依据和司法解释、查询类似典型案例等,提供针对性案件办理建议,提高执法监管效率和规范性。 5. 法執行・監督支援。音声認識、映像分析、ナレッジグラフ、論理推論などの技術を採用し、法執行担当者が事件情報をリアルタイムでシステムに入力し、問題の手がかりを貫通的に発見し、事件報告書を生成し、法的根拠や司法解釈を迅速に検索し、類似の典型事例を照会することを支援する。対象を絞った事件処理の提案を提供し、法執行・監督の効率と規範性を高める。
6.市场风险预测。运用生成式时间序列分析模型和异常检测算法等,对各类市场数据进行监测和深度分析,捕捉市场动向,包括经济指标波动、异常情况等,预测可能出现的市场风险,研判对经济社会带来的影响和经济走势,并及时发出预警,为政府管理和社会治理提供支撑。 6. 市場リスク予測。生成型時系列分析モデルや異常検知アルゴリズムなどを活用し、各種市場データを監視・深層分析する。経済指標の変動や異常状況など市場動向を捕捉し、発生し得る市場リスクを予測する。経済社会への影響や経済動向を分析判断し、タイムリーに警報を発する。政府管理と社会ガバナンスを支える。
(三)机关办公类 (三)行政事務支援
7.辅助文书起草。利用大语言模型的生成能力,通过构建本地知识库和预设模板,为工作人员提供写作建议、辅助起草文书,对格式和内容等进行检查、校对和优化,提高工作效率,减轻基层负担。 7.文書起草補助。大規模言語モデルの生成能力を活用し、ローカルナレッジベースと事前設定テンプレートを構築することで、職員に執筆提案を提供し文書起草を支援する。書式や内容のチェック・校正・最適化を行い、業務効率を向上させ、末端負担を軽減する。
8.资料检索。利用知识图谱构建和信息检索等技术,准确理解工作人员资料检索需求,实现政务信息快速检索、精准定位、多维度排序、智能关联和对比分析等,帮助工作人员提升资料检索效率和准确性。 8. 資料検索。知識グラフ構築や情報検索技術を活用し、職員の資料検索ニーズを正確に理解する。行政情報の高速検索、精密な位置特定、多次元ソート、インテリジェントな関連付けや比較分析を実現し、職員の資料検索効率と正確性を向上させる。
9.智能分办。利用自然语言理解和多模态识别等技术,构建多维度任务分类和分办规则,对来文、来电、工单等任务进行自动识别、准确分类、辅助填写和优先级排序,实现辅助分发和智能派单,提高任务分办效率。 9. インテリジェント分担処理。自然言語理解やマルチモーダル認識技術を活用し、多次元タスク分類と分担ルールを構築する。文書・電話・作業指示書等のタスクを自動識別・正確分類し、入力補助と優先順位付けを行う。これにより補助的配布とインテリジェントな割り当てを実現し、タスク分担効率を向上させる。
(四)辅助决策类 (四)意思決定支援類
10.灾害预警。对来自卫星、地面传感器、地质监测站,以及预报预警、灾害风险普查等多源、多维、多模态数据进行大数据关联和综合分析研判,识别异常波动情况,预测可能发生的自然灾害,并提前发出预警,辅助政务部门及时采取有效措施,减轻灾害风险,减少灾害损失。 10.災害警報。衛星、地上センサー、地質観測所、予報警報、災害リスク調査などからの多源・多次元・マルチモーダルデータをビッグデータ関連付けと総合分析により解析し、異常変動を識別。発生可能性のある自然災害を予測し、事前に警報を発令。行政部門が効果的な対策を迅速に講じ、災害リスク軽減と被害減少を支援する。
11.应急处置。利用强化学习等技术,对社会公共安全等突发事件的性质、特点、危害程度、影响范围、发展趋势和公众反应等进行分析研判,及时发现和预警风险隐患,基于突发场景、力量资源分布等快速模拟应急处置方案效果,提供科学合理的应急处置建议,优化救援资源配置,提高应急响应速度和效率。 11.緊急対応。強化学習などの技術を活用し、社会公共安全などの突発事象の性質・特徴・危害度・影響範囲・発展傾向・公衆反応などを分析・評価する。リスク要因を迅速に発見・警告し、突発シナリオや資源配置に基づき緊急対応策の効果を即時シミュレーションする。科学的かつ合理的な対応提案を提供し、救援資源の最適配置を実現し、緊急対応速度と効率を向上させる。
12.政策评估。利用人工智能大模型推断分析能力与数据挖掘能力,对公众反馈、市场反应、经济指标和社会满意度等进行分析,构建多维度指标,评估政策目标实现程度、政策影响力和潜在问题,支撑政策制定部门进行政策优化。 12. 政策評価。人工知能の大規模モデルの推論分析能力とデータマイニング能力を活用し、公衆のフィードバック、市場反応、経済指標、社会満足度などを分析する。多次元指標を構築し、政策目標の達成度、政策の影響力、潜在的問題を評価し、政策立案部門の政策最適化を支援する。
13.智能辅助评审。利用自学习泛化认识、类人化评审推理、多模态智能解析等能力,对照有关要求开展项目评审,对项目文件内容进行深度扫描、智能解析,提出评审意见建议,辅助提高项目评审效率和科学性。 13. インテリジェント審査支援。自己学習による汎化認識、人間的な審査推論、マルチモーダル知能解析などの能力を活用し、関連要件に基づいてプロジェクト審査を実施する。プロジェクト文書の内容を深度スキャン・インテリジェント解析し、審査意見・提案を提示することで、プロジェクト審査の効率性と科学性を向上させる。
三、规范部署 三、規範的な展開
政务部门应结合工作实际和场景特点,充分论证人工智能大模型的应用需求、实施路径、功能设计等,选择适宜的部署模式,统筹推进实施,推动共建共享,提升建设管理效能。 行政部門は業務実態とシナリオ特性を踏まえ、人工知能大規模モデルの応用ニーズ、実施経路、機能設計などを十分に検討し、適切な展開モデルを選択する。実施を統括的に推進し、共同構築・共有を促進し、建設管理の効率性を高める。
(一)合理选择实施路径 (一)実施経路の合理的な選択
政务部门应根据不同政务场景需求与现有技术基础,审慎选择人工智能大模型实施路径。对于智能问答、辅助文书起草等通用性较强、数据资源丰富的场景,需采用市场上成熟,并已完成网信部门备案的模型产品和服务。对于辅助执法监管、市场风险预测等专业性较强、业务逻辑复杂的场景,可利用领域专家知识和专业数据进行针对性训练,打造垂直模型。在保障安全和不泄露国家秘密、工作秘密和敏感信息等的前提下,充分利用互联网算力和模型资源,开展政务领域人工智能大模型部署应用。鼓励探索政务智能体、具身智能等创新应用。 行政部門は、異なる行政シナリオのニーズと既存の技術基盤に基づき、人工知能大規模モデルの実施経路を慎重に選択すべきである。インテリジェントQ&Aや文書起草支援など汎用性が高くデータ資源が豊富なシナリオでは、市場で成熟し、ネット情報部門の登録を完了したモデル製品・サービスを採用する必要がある。法執行支援や市場リスク予測など専門性が高く業務ロジックが複雑なシナリオでは、領域専門家知識と専門データを活用した特化型トレーニングにより垂直モデルを構築する。国家機密・業務秘密・機微情報の漏洩防止を前提に、インターネットの計算資源とモデル資源を最大限活用し、行政分野におけるAI大規模モデルの展開・応用を推進する。行政インテリジェントエージェントや具身知能などの革新的応用を模索することを奨励する。
(二)统筹集约开展部署 (二)統合的・集約的な展開
政务部门应以统筹集约的方式开展政务领域人工智能大模型部署,依托“东数西算”和全国一体化算力网,统筹推进智能算力基础设施布局,并实施集中统一的安全管理和体系化技术防护措施,避免“碎片化”安全风险。有条件的中央和国家机关部门、省(自治区、直辖市)可统一部署智能算力资源、人工智能大模型,面向下属单位或下辖地区提供电子政务外网环境下的人工智能大模型服务。地市应在省(自治区、直辖市)统一要求下开展部署应用,县级及以下原则上应复用上级的智能算力和模型资源开展应用和服务,不再独立进行政务大模型建设和部署。 行政部門は統合的・集約的な方式で行政分野におけるAI大規模モデルの展開を進めるべきである。「東数西算」及び全国統合コンピューティングネットワークを基盤とし、インテリジェントコンピューティングインフラの配置を統合的に推進するとともに、集中統一的な安全管理と体系的な技術的防護措置を実施し、「断片化」による安全リスクを回避する。条件を満たす中央・国家機関部門、省(自治区・直轄市)は、インテリジェントコンピューティングリソースとAI大規模モデルを統一的に配置し、下部組織や管轄地域に対し電子政府外部ネットワーク環境下でのAI大規模モデルサービスを提供できる。地級市は省(自治区・直轄市)の統一要求に基づき配置・応用を展開し、県級以下は原則として上級機関のインテリジェントコンピューティングリソースとモデル資源を再利用して応用・サービスを展開し、独自に行政大規模モデルの構築・配置を行ってはならない。
(三)探索实现统管复用 (三)統一管理・再利用の実現を模索する
政务部门应探索构建“一地建设、多地多部门复用”的集约化部署模式,统筹推进政务大模型部署应用,防止形成“模型孤岛”。省(自治区、直辖市)应搭建政务领域人工智能大模型统一服务平台,并与政务云管理平台、政务应用和组件管理平台等融合共建,将区域内电子政务外网智能算力、政务大模型、政务数据集等资源纳入统一管理,形成要素资源“一本账”,支撑政务大模型运行监测,提供资源申请与调度服务,推动高效复用。国家行业主管部门按照业务需求和发展需要探索细分领域政务垂直大模型的统一训练与构建,加强与省(自治区、直辖市)协同部署,深化跨层级、跨地域的行业领域智能化赋能。垂直管理部门应强化模型、算力、数据等资源的统筹部署和管理,避免资源浪费。 行政部門は「一地で構築し、複数地域・複数部門で再利用する」集約型配置モデルの構築を模索し、行政用大規模モデルの配置・応用を統括的に推進し、「モデルの孤島化」を防ぐべきである。省(自治区・直轄市)は行政分野の人工知能大規模モデル統一サービスプラットフォームを構築し、行政クラウド管理プラットフォーム・行政アプリケーション及びコンポーネント管理プラットフォームなどと融合・共同構築すべきである。管轄区域内の電子政府外部ネットワークのインテリジェントコンピューティング能力・行政大規模モデル・行政データセット等の資源を統一管理下に組み入れ、要素資源の「一本帳簿」を形成する。これにより行政大規模モデルの運用監視を支え、資源申請・調整サービスを提供し、効率的な再利用を推進する。国家業界主管部門は業務ニーズと発展要求に基づき、細分化された分野における行政垂直型大規模モデルの統一的な訓練と構築を模索し、省(自治区・直轄市)との連携配置を強化し、階層間・地域間を跨いだ業界分野の知能化賦能を深化させる。垂直管理部門はモデル・計算能力・データ等の資源の統合配置と管理を強化し、資源の浪費を避けるべきである。
(四)持续夯实数据基础 (四)データ基盤の継続的強化
政务部门应加强政务数据治理,持续提升数据质量,加快构建客观反映公共政策、制度规范、业务流程和治理实效的高质量政务数据集和知识库,支撑政务大模型的优化训练。分类分级管理政务大模型涉及数据,加强训练数据、微调数据、知识库等管理,建立台账并详细记录数据来源、类型和规模等信息,确保数据来源可靠可追溯、内容准确有效。依托政务数据共享协调机制,统筹数据治理成果,推进高质量政务数据集的共建共享和生成数据的归集治理。探索基于大模型的政务知识治理路径,打造可信知识库,确保数据源的权威性、准确性和时效性。 行政部門は行政データガバナンスを強化し、データ品質の持続的向上を図り、公共政策・制度規範・業務プロセス・ガバナンス実効性を客観的に反映する高品質な行政データセット及びナレッジベースの構築を加速し、行政用大規模モデルの最適化訓練を支える。行政用大規模モデル関連データを分類・段階管理し、訓練データ・微調整データ・ナレッジベース等の管理を強化する。台帳を整備し、データソース・種類・規模等の情報を詳細に記録し、データソースの信頼性・追跡可能性、内容の正確性・有効性を確保する。行政データ共有調整メカニズムを活用し、データガバナンスの成果を統合し、高品質な行政データセットの共同構築・共有と生成データの収集・ガバナンスを推進する。大規模モデルに基づく行政知識ガバナンスの道筋を探求し、信頼性の高いナレッジベースを構築し、データソースの権威性、正確性、時効性を確保する。
四、运行管理 四、運用管理
政务部门应强化政务领域人工智能大模型运行管理,健全管理制度、运行模式和安全要求,有序推进人工智能大模型技术、产品和服务在政务领域部署应用。 行政部門は行政分野における人工知能大規模モデルの運用管理を強化し、管理制度、運用モデル、安全要件を整備し、人工知能大規模モデルの技術、製品、サービスの行政分野への展開・応用を秩序立てて推進すべきである。
(一)明确应用管理要求 (一)応用管理要件の明確化
政务部门应统筹减负和赋能,严格落实《整治形式主义为基层减负若干规定》《关于防治“指尖上的形式主义”的若干意见》等相关要求,避免盲目追求技术领先、概念创新,避免重复建设、无效建设,避免未审先建、建而不管,避免强制使用、无效使用,避免数据多头采集、重复索要,切实防范“数字形式主义”。中央和国家机关政务领域人工智能大模型部署应用应纳入国家政务信息化规划统筹。政务部门应建立健全涵盖政务领域人工智能大模型部署应用全周期管理体系,明确应用方式和边界,落实人工智能大模型“辅助型”定位,及时解决部署与应用过程中出现的新问题。应在政务大模型应用界面显著位置设置风险提示,明确告知大模型服务的局限性,做好大模型输出内容标识。对于智能问答、辅助办理等代表政务部门面向公众和企业提供服务的人工智能大模型应用场景,应严格执行内容审核制度流程,结合场景特点和技术能力合理采用人工审核、生成内容实时风控、多模型交叉校验等措施,防范模型“幻觉”等风险,确保输出内容不超出业务范围,保障内容准确性,维护政务部门公信力。 行政部門は負担軽減と能力強化を統合し、「形式主義の是正による基層負担軽減に関する若干の規定」「『指先の形式主義』防止に関する若干の意見」等の関連要求を厳格に履行する。技術的優位性や概念的革新の盲目的な追求、重複建設・無効建設、事前審査なしの建設・建設後の管理放棄、強制使用・無効使用、データの複数機関による収集・重複要求を回避し、「デジタル形式主義」を確実に防止する。中央及び国家機関の行政分野におけるAI大規模モデルの展開・応用は、国家行政情報化計画に組み込むべきである。行政部門は、行政分野のAI大規模モデル展開・応用の全ライフサイクルをカバーする管理体制を整備し、応用方法と境界を明確化し、AI大規模モデルの「補助的」位置付けを徹底し、展開・応用過程で生じる新たな問題を速やかに解決すべきである。行政用大規模モデルの応用インターフェースの目立つ位置にリスク提示を設置し、大規模モデルサービスの限界を明確に告知するとともに、大規模モデル出力内容の識別を適切に行うべきである。スマートQ&Aや補助処理など、行政部門が公衆や企業向けにサービスを提供するAI大規模モデルの応用シナリオにおいては、コンテンツ審査制度のプロセスを厳格に実行し、シナリオの特徴と技術能力に応じて、人的審査、生成コンテンツのリアルタイムリスク管理、複数モデルの相互検証などの措置を合理的に採用すべきである。モデルの「幻覚」などのリスクを防止し、出力内容が業務範囲を超えないことを確保し、内容の正確性を保証し、行政部門の公信力を維持する。
(二)持续推动迭代优化 (二)継続的な反復最適化の推進
政务部门应将持续迭代优化作为人工智能大模型部署应用的关键环节,建立常态化更新机制,加快功能优化,深化场景应用。密切关注技术发展动态,持续更新优化政务领域人工智能大模型的基础模型和安全能力。建立高效数据收集处理机制,及时更新支撑人工智能大模型运行的输入数据和知识库,并适时进行清洗、标注,补充优化训练数据集,持续提升模型能力。建立政务领域人工智能大模型用户评价反馈机制,及时收集、处理用户需求,以用户反馈驱动迭代优化。 行政部門は、継続的な反復最適化をAI大規模モデルの展開・応用における重要な要素と位置付け、定期的な更新メカニズムを構築し、機能最適化を加速させ、シナリオ応用の深化を図るべきである。技術発展の動向を注視し、行政分野向けAI大規模モデルの基盤モデルと安全能力を継続的に更新・最適化すること。効率的なデータ収集処理メカニズムを構築し、AI大規模モデルの稼働を支える入力データとナレッジベースを適時更新するとともに、適宜クリーニング・ラベリングを実施し、訓練データセットを補充・最適化することで、モデルの能力を継続的に向上させること。行政分野におけるAI大規模モデルのユーザー評価フィードバックメカニズムを構築し、ユーザーニーズをタイムリーに収集・処理し、ユーザーフィードバックによって反復的最適化を推進する。
(三)扎实做好安全管理 (三)安全管理の着実な実施
政务部门应建立安全责任制度,明确数据处理、大模型训练和场景应用各阶段参与主体的安全职责和任务,做好用户身份识别和权限管理。政务部门提供人工智能大模型服务时,应遵守《生成式人工智能服务管理暂行办法》等相关规定,使用具有合法来源的数据和基础模型,依法履行算法备案和安全评估等义务,与使用者签订服务协议,明确双方权利义务。构建政务领域人工智能大模型分类分级治理制度,完善安全管理流程,针对可能出现的安全风险,制定应急处置预案。做好政务大模型对抗攻击的检测与处置,识别并拦截提示词注入、资源消耗攻击等。加强政务大模型内容安全管理,综合运用语义识别、规则库、模型算法等,做好多模态输入输出内容的识别、分析与管控,建立合理的代答、拒答机制,及时发现并处置违法和不良信息、敏感内容等。发挥新闻媒体内容审核优势,做好政务大模型训练数据的内容审核把关,加强政务大模型内容监测管理。做好政务大模型应用运行日志管理,定期对日志记录进行审计。推动形成安全风险威胁信息共享和应急处置机制,按照规定及时处置并报告安全事件,提升人工智能安全风险应对能力。 行政部門は安全責任制度を確立し、データ処理、大規模モデル訓練、シナリオ応用各段階における参加主体の安全責任と任務を明確化し、ユーザー認証と権限管理を適切に行うべきである。行政部門が人工知能大規模モデルサービスを提供する際は、「生成型人工知能サービス管理暫定弁法」等の関連規定を遵守し、合法的な出所のデータと基盤モデルを使用し、法に基づきアルゴリズムの届出や安全評価等の義務を履行し、利用者とサービス契約を締結して双方の権利義務を明確にすべきである。行政分野における人工知能大規模モデルの分類・段階別管理制度を構築し、安全管理プロセスを整備し、発生し得る安全リスクに対して緊急対応計画を策定する。行政用大規模モデルの攻撃対策として、プロンプト注入やリソース消費型攻撃などの検知・対応を徹底する。行政用大規模モデルのコンテンツ安全管理を強化し、意味認識・ルールベース・モデルアルゴリズムを総合的に活用して、マルチモーダル入力出力コンテンツの識別・分析・管理を実施する。適切な代答・拒否応答メカニズムを構築し、違法・有害情報及びセンシティブコンテンツを迅速に発見・処理する。ニュースメディアのコンテンツ審査の強みを活用し、行政用大規模モデルの訓練データに対するコンテンツ審査を徹底する。行政用大規模モデルのコンテンツ監視管理を強化する。行政用大規模モデルの運用ログ管理を適切に行い、定期的にログ記録を監査する。セキュリティリスク脅威情報の共有と緊急対応メカニズムの構築を推進し、規定に基づきセキュリティインシデントを迅速に対処・報告し、人工知能のセキュリティリスク対応能力を向上させる。
(四)严格落实保密要求 (四)厳格な機密保持要求の実施
政务部门在模型训练、部署应用等过程中应加强数据安全保密和个人信息保护,坚持底线思维,严格落实“涉密不上网、上网不涉密”等保密纪律要求,采取加装保密“护栏”等措施,防止国家秘密、工作秘密和敏感信息等输入非涉密人工智能大模型,防范敏感数据汇聚、关联引发的泄密风险。制定完善人工智能大模型在政务领域应用相关保密管理制度,规范人工智能大模型选型、部署、训练、使用、废止等全流程保密管理。涉密信息系统应用人工智能大模型按照国家保密行政管理部门要求稳妥推进。 行政部門はモデル訓練・展開・応用等の過程において、データセキュリティと個人情報保護を強化し、リスク管理の観点から「機密情報はネットワークに接続せず、ネットワーク接続情報は機密を含まない」等の機密保持規律を厳格に遵守する。機密保護「ガードレール」の設置等の措置を講じ、国家機密・業務機密・センシティブ情報が非機密AI大規模モデルに入力されるのを防止し、センシティブデータの集積・関連付けによる情報漏洩リスクを防止する。行政分野におけるAI大規模モデルの応用に関する機密管理制度を整備し、AI大規模モデルの選定・導入・訓練・使用・廃止までの全プロセスにおける機密管理を規範化する。機密情報システムへのAI大規模モデル応用は、国家機密行政管理部門の要求に基づき着実に推進する。
五、保障措施 五、保障措置
(一)加强组织实施 (一)組織実施の強化
加强统筹协调,稳妥有序推动人工智能大模型在政务服务、社会治理、机关办公、辅助决策等领域规范应用。加快推进政务领域人工智能大模型国家标准体系建设和重点标准研制,明确应用效果评估、系统技术要求、智能技术应用等工作规范,支撑部署应用取得实效。及时总结推广政务领域部署应用人工智能大模型的典型场景和创新应用,推动复用增效。加强政务领域人工智能大模型部署应用经费保障,引入市场化的产品和服务竞争机制,探索企业建设运营、政府购买服务、按使用情况结算费用的运作模式,营造高效、可持续的政务大模型生态。 統括調整を強化し、行政サービス、社会ガバナンス、機関事務、意思決定支援等の分野におけるAI大規模モデルの規範的応用を着実かつ秩序立てて推進する。行政分野におけるAI大規模モデルの国家標準体系構築と重点標準策定を加速し、応用効果評価、システム技術要件、知能技術応用等の作業規範を明確化し、配置・応用の実効性を支える。行政分野におけるAI大規模モデルの配置・応用の典型的なシナリオと革新的応用を適時に総括・普及し、再利用による効果増進を推進する。行政分野におけるAI大規模モデルの展開・応用に対する経費保障を強化し、市場化された製品・サービス競争メカニズムを導入する。企業が構築・運営し、政府がサービスを購入し、使用状況に応じて費用を決済する運営モデルを模索し、効率的で持続可能な行政向け大規模モデル生態系を構築する。
(二)开展监测评估 (二)モニタリング・評価の実施
构建政务领域人工智能大模型部署应用全流程监测评估体系,适时开展监测评估工作。建立政务大模型安全测评机制,上线前对模型算法、生成内容、应用功能、配置环境、挂接数据、漏洞风险等进行充分测试验证,对发现的问题隐患进行整改加固。加强政务领域人工智能大模型系统运行状态、响应时间、准确性、安全性和潜在风险的实时监测分析,及时发现问题,并采取有效措施解决。做好人工智能大模型应用效能评价,及时总结经验,持续迭代优化,推动部署应用取得实效。 行政分野におけるAI大規模モデルの展開・応用に関する全プロセスモニタリング評価システムを構築し、適時にモニタリング・評価作業を実施する。行政用大規模モデルの安全評価メカニズムを確立し、運用前にモデルアルゴリズム、生成コンテンツ、応用機能、設定環境、接続データ、脆弱性リスクなどを十分にテスト検証する。発見された問題や潜在リスクは是正・強化を行う。行政分野における人工知能大規模モデルのシステム稼働状態、応答時間、正確性、安全性、潜在リスクのリアルタイム監視分析を強化し、問題を迅速に発見して効果的な対策を講じる。人工知能大規模モデルの応用効果評価を適切に行い、経験をタイムリーにまとめ、継続的な反復改善を通じて、導入・応用の実効性を推進する。
(三)做好培训宣传 (三)研修・広報の徹底
开发涵盖人工智能大模型理论、技术、应用、安全、伦理、产业等内容的培训课程体系,开展人工智能素养和技能培训,提升领导干部对人工智能的认知水平,增强工作人员应用能力和水平。面向公众做好宣传教育,提升全民数字素养,积极回应用户关切,正确引导社会对政务领域人工智能大模型适用人群、场景、用途的认识和预期,客观反映人工智能大模型在优化政务服务、满足公众和企业需求、提升社会治理水平等方面的作用。 人工知能大規模モデルの理論、技術、応用、安全、倫理、産業などを網羅した研修カリキュラム体系を開発し、人工知能リテラシーとスキル研修を実施する。指導幹部のAIに対する認知レベルを向上させ、職員の応用能力と水準を高める。一般市民向けの広報教育を強化し、国民のデジタルリテラシー向上を図る。ユーザーの懸念に積極的に応じ、行政分野におけるAI大規模モデルの適用対象者・シナリオ・用途に関する社会の認識と期待を正しく導く。AI大規模モデルが行政サービスの最適化、市民・企業のニーズ充足、社会ガバナンス水準の向上などに果たす役割を客観的に反映する。

 

1_20210612030101

 

| | Comments (0)

2025.10.15

欧州委員会 EU資金によるTildeOpen LLMが、多言語イノベーションに向けた欧州のAI技術革新を実現 (2025.09.29)

こんにちは、丸山満彦です。

EUの資金で開発されているTildeOpen LLMという欧州言語(主に東欧・バルト諸国言語)向けに最適化された300億パラメータの言語モデルがリリースされていますね...

欧州の価値観ですね...

 

European Commission

・2025.09.29 EU-funded TildeOpen LLM delivers European AI breakthrough for multilingual innovation

 

EU-funded TildeOpen LLM delivers European AI breakthrough for multilingual innovation EU資金によるTildeOpen LLMが、多言語イノベーションに向けた欧州のAI技術革新を実現した。
Tilde has launched a powerful open-source language model trained on Europe's LUMI supercomputer. Tildeは欧州のLUMIスーパーコンピュータで訓練された強力なオープンソース言語モデルを発表した。
Tilde, a winner of the European AI Grand Challenge has released TildeOpen LLM, a powerful 30-billion parameter language model optimised for European languages. The model was trained using the 2 million GPU hours awarded through the AI Grand Challenge on the EuroHPC LUMI supercomputer, demonstrating Europe's capacity to develop world-class AI infrastructure in under a year. 欧州AIグランドチャレンジの優勝企業であるTildeは、欧州言語向けに最適化された300億パラメータの強力な言語モデル「TildeOpen LLM」をリリースした。このモデルは、欧州HPC(EuroHPC)のLUMIスーパーコンピュータ上で実施されたAIグランドチャレンジを通じて付与された200万GPU時間を使用して訓練された。これは欧州が1年未満で世界クラスのAIインフラを開発する能力を有することを示している。
Key achievements: 主な成果:
・State-of-the-art performance across all 24 EU official languages, plus Ukrainian, Norwegian, and several Balkan languages ・EU公用語24言語全てに加え、ウクライナ語、ノルウェー語、複数のバルカン諸言語において最先端の性能を発揮
・Superior efficiency compared to leading global models—smaller, faster, and more accessible ・主要なグローバルモデルと比較して優れた効率性——より小型、高速、かつアクセスしやすい
・Full compliance with the European AI Act ・欧州AI法の完全準拠
・Data security maintained within EU infrastructure ・EUインフラ内でのデータセキュリティ維持
Thanks to the Large AI Grand Challenge , Tilde has successfully trained TildeOpen. This milestone shows how the Large AI Grand Challenge is not just a competition but a catalyst for real-world innovation, enabling European researchers and companies to deliver AI breakthroughs that strengthen Europe’s digital sovereignty. Without the GPU hours awarded, this achievement would not have been possible. 大規模AIグランドチャレンジのおかげで、TildeはTildeOpenの訓練に成功した。この成果は、同チャレンジが単なる競争ではなく、欧州の研究者や企業が欧州のデジタル主権を強化するAIの突破口を実現する現実世界のイノベーションの触媒であることを示している。GPU時間の提供がなければ、この成果は達成できなかった。
TildeOpen LLM provides governments, businesses, and researchers with a secure, open-source foundation for customised AI applications—from customer service to advanced research. The model is now available on Hugging Face, with availability on the European AI on Demand Platform coming soon. TildeOpen LLMは、政府・企業・研究者にカスタマイズ可能なAIアプリケーション基盤を提供する。顧客サービスから先端研究まで対応する安全なオープンソース基盤だ。本モデルはHugging Faceで公開中であり、欧州AIオンデマンドプラットフォームでの提供も間もなく開始される。
This breakthrough underscores the EU's commitment to fostering a sovereign, multilingual, and trustworthy AI ecosystem through strategic investment in European innovation. この画期的な成果は、欧州のイノベーションへの戦略的投資を通じ、主権的・多言語・信頼性の高いAIエコシステム構築に向けたEUの決意を裏付けるものである。

 

 

Webページはこちら...

Tiede TildeOpen LLM

20251014-62919

FAQがあるので、参考に...

 

Frequently asked questions よくある質問
What is TildeOpen LLM? TildeOpen LLMとは何か?
The TildeOpen LLM project aims to create a multilingual foundational large language model that focuses on underrepresented Baltic and Eastern European languages to promote digital equity and enhance access to advanced AI technologies for these communities. TildeOpen LLMプロジェクトは、バルト諸国や東欧の言語といった、これまで十分に扱われてこなかった言語に焦点を当てた多言語基盤大規模言語モデル(LLM)の構築を目指す。これによりデジタル格差の是正を図り、これらのコミュニティが先進的なAI技術にアクセスしやすくすることを目的としている。
Why is language equity in LLMs important? LLMにおける言語の公平性が重要な理由
This imbalance has efficiency and cost consequences. For instance, longer sequences are required to encode the same amount of information in lower-resourced languages compared to English, making models less efficient and more expensive to run. Additionally, the English-centricity of these models can introduce undesirable cultural biases. TildeOpen will be trained to ensure equity for all supported languages. この不均衡は効率性とコストに影響する。例えば、英語に比べてリソースの少ない言語では、同じ情報を表現するためにより長い文字列が必要となるため、モデルの効率性が低下し、運用コストが高くなる。さらに、これらのモデルの英語中心性は望ましくない文化的バイアスをもたらす可能性がある。TildeOpenは、サポートする全ての言語に対して公平性を確保するよう訓練される。
What languages does the TildeOpen project focus on? TildeOpenプロジェクトはどの言語に焦点を当てているのか?
The project targets Eastern European and Baltic languages such as Bulgarian, Croatian, Czech, Estonian, Finnish, Latvian, Lithuanian, Macedonian, Montenegrin, Polish, Serbian, Slovak, Slovene, and Ukrainian. The model will also support bigger languages such as English, French, German and Russian in balanced proportions to support translation and related multilingual tasks. 本プロジェクトは、ブルガリア語、クロアチア語、チェコ語、エストニア語、フィンランド語、ラトビア語、リトアニア語、マケドニア語、モンテネグロ語、ポーランド語、セルビア語、スロバキア語、スロベニア語、ウクライナ語といった東欧・バルト諸国言語を対象とする。また、翻訳や関連する多言語タスクを支援するため、英語、フランス語、ドイツ語、ロシア語といった主要言語も均衡の取れた割合でサポートする。
What does a “foundational model” mean? 「基盤モデル」とは何を意味するのか?
A foundational model is a large, general-purpose AI model trained on a broad range of data. It serves as the “base” for building more specialised tools like internal virtual assistants, chatbots, or industry-specific AI applications. Once trained, it can be fine-tuned with specific data to perform targeted tasks more accurately and reliably. 基盤モデルとは、広範なデータで訓練された大規模な汎用AIモデルである。社内仮想アシスタント、チャットボット、業界特化型AIアプリケーションなど、より専門的なツールを構築するための「基盤」として機能する。一度訓練されると、特定のデータで微調整され、対象タスクをより正確かつ確実に実行できるようになる。
What is the LUMI supercomputer? LUMIスーパーコンピュータとは何か?
The LUMI (Large Unified Modern Infrastructure) supercomputer is the fifth fastest supercomputer globally and the fastest in Europe. It is part of the EuroHPC Joint Undertaking, a collaborative effort involving the European Union and European countries to create a world-class high-performance computing (HPC) ecosystem in Europe. The LUMI supercomputer is located in Kajaani, Finland. LUMI(Large Unified Modern Infrastructure)スーパーコンピュータは、世界で5番目に高速なスーパーコンピュータであり、欧州最速である。欧州連合と欧州諸国が協力して欧州に世界クラスの高性能計算(HPC)エコシステムを構築する取り組み「EuroHPC共同事業」の一環である。LUMIスーパーコンピュータはフィンランドのカヤニに設置されている。
What is the Large AI Grand Challenge? 大規模AIグランドチャレンジとは何か?
The purpose of the Large AI Grand Challenge, funded by the European Commission, is to expand European AI frontiers by harnessing the potential of large-scale AI models. The participants in the competition were innovative startups and SMEs with the technical capacity to develop AI models that boost Europe’s competitiveness in Generative AI. The European Commission has announced the winners of the Large AI Grand Challenge. Four innovative AI companies from Europe, including Tilde, will share a prize of €1 million and 8 million computational hours to advance Europe's leadership in AI development. 欧州委員会が資金提供した大規模AIグランドチャレンジの目的は、大規模AIモデルの可能性を活用して欧州のAIフロンティアを拡大することだ。このコンペティションの参加者は、生成AI分野における欧州の競争力を高めるAIモデルを開発する技術力を持つ革新的なスタートアップや中小企業だった。欧州委員会は、大規模AIグランドチャレンジの受賞者を発表した。Tildeを含む欧州の革新的なAI企業4社が、100万ユーロの賞金と800万計算時間を分け合い、欧州のAI開発におけるリーダーシップを推進する。
What is Tilde? Tildeとは何か?
Tilde is a leading European language technology innovator and service provider with a mission to promote language diversity in the digital age. Tilde has over 150 employees in three offices located in Riga, Vilnius, and Tallinn. Tilde’s research team is comprised of nine PhDs and their research associates and has authored over 260 scientific publications. Over the years, Tilde has developed a vast R&D partnership network with leading EU research centres and universities and serves as a language technology research hub for the Baltic region.Most recent research and development activities of Tilde are focused on foundational large language models (LLMs), fine-tuning of LLMs for downstream applications, and integration of instruction-tuned LLMs in natural language processing applications (e.g., machine translation, virtual assistants, retrieval-augmented generation systems, processing of spoken language, summarisation, etc.). Tildeは、デジタル時代における言語の多様性を促進することを使命とする、欧州を代表する言語技術イノベーターかつサービスプロバイダーである。Tildeはリガ、ヴィリニュス、タリンの3拠点に150名以上の従業員を擁する。研究チームは9名の博士号取得者と研究員で構成され、260本以上の学術論文を発表している。長年にわたり、TildeはEU主要研究機関・大学との広範な研究開発パートナーシップを構築し、バルト地域の言語技術研究拠点として機能している。Tildeの最近の研究開発活動は、基盤となる大規模言語モデル(LLM)、下流アプリケーション向けLLMの微調整、および自然言語処理アプリケーション(機械翻訳、仮想アシスタント、検索拡張生成システム、音声言語処理、要約など)における指示調整済みLLMの統合に焦点を当てている。

 

 

 

| | Comments (0)

2025.10.14

IPA AI時代のデジタル人材育成 (2025.10.09)

こんにちは、丸山満彦です。

IPAが「AI 時代のデジタル人材育成」というディスカッション・ペーパーを公表していますね...

日本の労働者と世界の労働者の差がまざまざと現れていて興味深いです。AIの問題というよりも、ひょっとしたら日本の社会習慣・制度の問題かもしれませんね...

いずれにしても見てくださいませ。。。

 

ちょっと図表を...

20251014-44353

 

20251014-44408

 

20251014-44448

 

20251014-44518

 

20251014-44543

 

20251014-44555_20251014045201

 

20251014-44616 

 

20251014-44643_20251014045301

 

IPA

・2025.10.09 [PDF] IPA 調査分析ディスカッション・ペーパー2025-02 AI 時代のデジタル人材育成

20251014-45819

 

 

日本社会は、いわゆる知能労働者の育成に、実はずーっと失敗しつづけてきているような気がしています...

 

 

 

 

| | Comments (0)

欧州委員会 EDPB DMAとGPDRの相互作用に関する共同ガイドライン案

こんにちは、丸山満彦です。

デジタル市場法(Digital Market Act: DMA) と、General Data Protection Regulation: GDPRについての共同ガイドライン案が公表されていますね...

Erupean Commission

・2025.10.09 Consultation on joint guidelines on the interplay between DMA and GDPR

 

Consultation on joint guidelines on the interplay between DMA and GDPR DMAとGDPRの相互作用に関する共同ガイドライン案に関する意見募集
The Commission and the EDPB are seeking feedback on the draft joint guidelines on the interplay between the DMA and the GDPR. Interested parties have until 4 December 2025 to submit their views. 欧州委員会と欧州データ保護委員会(EDPB)は、DMA(デジタル市場法)とGDPR(一般データ保護規則)の相互作用に関する共同ガイドライン案について、意見を求めています。関係者は2025年12月4日までに意見を提出できます。
Target audience 対象者
All citizens, companies and organisations are welcome to contribute to this consultation on the joint guidelines. Contributions are sought particularly from business users (especially SMEs) and end users of the gatekeepers’ digital services in scope of the DMA and associations representing these users. 本共同ガイドラインに関する意見募集には、全ての市民、企業、組織からの参加を歓迎します。特に、DMAの対象となるゲートキーパーのデジタルサービスのビジネスユーザー(特に中小企業)およびエンドユーザー、ならびにこれらのユーザーを代表する団体からの意見を求めています。
Why we are consulting 意見募集の目的
The DMA and the GDPR are independent regulatory frameworks with complementary objectives and several points of intersection. To ensure the coherent and effective application of the two sets of rules, the Commission and the EDPB decided to issue Joint Guidelines on the interplay between the DMA and the GDPR (Joint Guidelines). The Joint Guidelines provide guidance to gatekeepers on how to interpret and comply with the two sets of rules, ensuring that the distinct competences of the Commission and the EDPB are respected.
The objective of the consultation is to gather feedback on the draft Joint Guidelines. The Commission and the EDPB will carefully review all submissions before adopting the final Joint Guidelines, in 2026. 
DMAとGDPRは、補完的な目的と複数の共通点を有する独立した規制枠組みである。両規則体系の一貫性ある効果的な適用を確保するため、欧州委員会と欧州データ保護委員会(EDPB)は、DMAとGDPRの相互作用に関する共同ガイドライン(以下「共同ガイドライン」)を発行することを決定した。本共同ガイドラインは、ゲートキーパーに対し、欧州委員会と欧州データ保護委員会のそれぞれの権限を尊重しつつ、二つの規則体系を解釈し遵守する方法について指針を提供する。
本協議の目的は、共同ガイドライン草案に関するフィードバックを収集することである。欧州委員会と欧州データ保護委員会は、2026年に最終版共同ガイドラインを採択する前に、全ての提出意見を慎重に検討する。

 

 

EDPB

・2025.10.09 DMA and GDPR: EDPB and European Commission endorse joint guidelines to clarify common touchpoints

 

DMA and GDPR: EDPB and European Commission endorse joint guidelines to clarify common touchpoints DMAとGDPR:共通接点の明確化に向け、EDPBと欧州委員会が共同ガイドラインを承認
Brussels, 09 October - The European Data Protection Board (EDPB) and the European Commission endorsed joint guidelines on the interplay between the Digital Markets Act (DMA) and the General Data Protection Regulation (GDPR). These are the first joint guidelines by the Board and the European Commission. ブリュッセル、10月9日 - 欧州データ保護委員会(EDPB)と欧州委員会は、デジタル市場法(DMA)と一般データ保護規則(GDPR)の相互関係に関する共同ガイドラインを承認した。これは委員会と欧州委員会による初の共同ガイドラインである。
In line with its 2024-2027 Strategy and the recent Helsinki Statement’s objectives to make GDPR compliance easier and strengthen consistency, the EDPB has cooperated with the European Commission, each within their respective mandates, to facilitate the coherent application of the DMA*and GDPR and to increase legal certainty for gatekeepers, business users, beneficiaries and individuals. EDPBは、2024-2027年戦略およびGDPR順守の容易化と一貫性の強化を目指す最近のヘルシンキ声明の目標に沿い、欧州委員会とそれぞれの権限範囲内で協力し、DMA*とGDPRの一貫した適用を促進するとともに、ゲートキーパー、ビジネスユーザー、受益者、個人に対する法的確実性を高めることに取り組んできました。
EDPB Chair Anu Talus said:  “These joint guidelines are the result of a fruitful cooperation between the EDPB and the European Commission. This is the first time that the EDPB and the European Commission prepare guidelines jointly. This approach maximises usefulness of the guidance by simplifying compliance for businesses and bringing enhanced legal certainty to them.  EDPB議長アヌ・タラスは次のように述べた:「本共同ガイドラインは、EDPBと欧州委員会の実りある協力の成果である。EDPBと欧州委員会が共同でガイドラインを作成するのは今回が初めて。このアプローチにより、企業のコンプライアンスを簡素化し法的確実性を高めることで、ガイダンスの有用性を最大化する。
The guidelines will help gatekeepers, business users and individuals to better understand their obligations and rights under the DMA, and ensure a consistent, effective and complementary application of the DMA and EU data protection law.” 本ガイドラインは、ゲートキーパー、ビジネスユーザー、個人がDMAに基づく義務と権利をより深く理解する助けとなり、DMAとEUデータ保護法の一貫性のある効果的かつ補完的な適用を確保するものである。」
How the DMA and the GDPR interact DMAとGDPRの相互関係
The DMA and the GDPR both protect individuals in the digital landscape, but their goals are complementary as they address interconnected challenges: individual rights and privacy in case of the GDPR and fairness and contestability of digital markets under the DMA.    DMAとGDPRはいずれもデジタル環境における個人を保護しますが、その目的は相互補完的です。GDPRが個人の権利とプライバシーに対処する一方、DMAはデジタル市場の公平性と競争可能性という相互に関連する課題に取り組むためです。 
Several activities regulated by the DMA entail the processing of personal data by gatekeepers and, in several provisions, the DMA explicitly refers to definitions and concepts included in the GDPR. The joint guidelines clarify how gatekeepers can implement these DMA provisions in accordance with EU data protection law. For example, the EDPB and the Commission specify which elements gatekeepers should consider in order to comply with the requirements of specific choice and valid consent under Art. 5(2) DMA and the GDPR, and thus to lawfully combine or cross-use personal data in core platform services. DMAが規制する複数の活動は、ゲートキーパーによる個人データの処理を伴い、また複数の規定において、DMAはGDPRに含まれる定義や概念を明示的に参照しています。共同ガイドラインは、ゲートキーパーがEUデータ保護法に準拠してこれらのDMA規定を実施する方法を明確化する。例えば、EDPBと欧州委員会は、DMA第5条(2)およびGDPRに基づく特定の選択と有効な同意の要件を遵守し、中核プラットフォームサービスにおいて個人データを合法的に結合または相互利用するために、ゲートキーパーが考慮すべき要素を具体的に示している。
The EDPB and the Commission also address other provisions including those related to the distribution of third party apps and stores, data portability, data access requests and interoperability of messaging services. EDPBと欧州委員会は、第三者アプリ・ストアの流通、データポータビリティ、データアクセス要求、メッセージングサービスの相互運用性など、その他の規定についても言及している。
Next steps 今後の手順
The Board and the Commission have just launched a joint public consultation on the first version of the guidelines which will be open until 4 December 2025.  This will be an opportunity for stakeholders to comment and provide feedback. 委員会と欧州委員会は、ガイドライン初版に関する共同公開協議を開始した。協議期間は2025年12月4日まで。関係者は意見やフィードバックを提供する機会となる。
All submissions will be published on the DMA website to which a link will be included on the EDPB website, after the consultation period has closed. 提出された意見は全て、意見募集期間終了後にEDPBウェブサイトにリンクを掲載したDMA公式サイトで公開される。
The final text, incorporating input received during the consultation, will be prepared jointly by the Board and the Commission, and will be adopted by the EDPB and European Commission. 意見募集で得られた意見を取り入れた最終案は、委員会と欧州委員会が共同で作成し、EDPBと欧州委員会によって採択される。
More guidelines on the way 追加ガイドラインの策定予定
Following these first joint guidelines with the Commission, further work is underway to clarify the new cross-regulatory landscape and maintain coherent and consistent safeguards for the protection of personal data. In this regard, the EDPB is working with the Commission, specifically with the AI Office, on joint guidelines on the interplay between the AI Act and EU data protection laws. 欧州委員会との初の共同ガイドライン策定に続き、新たな規制横断的枠組みの明確化と、個人データ保護のための一貫性のある安全対策の維持に向けた作業が進行中です。この観点から、EDPBは欧州委員会(特にAI担当局)と連携し、AI法とEUデータ保護法との相互関係に関する共同ガイドラインの策定を進めています。

 

 

 


 

 

ガイドライン案

・[PDF] Draft Joint Guidelines on the interplay between DMA and GDPR

20251012-145306

 

 

エグゼクティブサマリー

Executive summary  エグゼクティブサマリー
The Digital Markets Act (DMA) and the General Data Protection Regulation (GDPR) pursue different purposes and objectives and have different scopes. While the GDPR aims to protect natural persons with regard to the processing of personal data and ensure the free flow of personal data in the Union covering all data controllers and processors, the DMA aims to tackle unfair practices, and their potential harmful effects for business users, by laying down harmonised rules applicable to gatekeepers ensuring, for all businesses, contestable and fair markets in the digital sector across the Union, to the benefit of both business users and end users.  デジタル市場法(DMA)と一般データ保護規則(GDPR)は、異なる目的と目標を追求し、適用範囲も異なります。GDPRは、個人データの処理に関する自然人の保護と、すべてのデータ管理者および処理者を対象としたEU域内における個人データの自由な流通の確保を目的とするのに対し、DMAは、ゲートキーパーに適用される調和された規則を定めて、EU全域のデジタル分野においてすべての事業者にとって競争可能かつ公正な市場を確保し、事業者ユーザーとエンドユーザー双方の利益となるよう、不公正な慣行およびそれらがビジネスユーザーに及ぼす潜在的な有害な影響に対処することを目的とする。
The DMA and GDPR are complementary in terms of goals and in terms of the protections provided to individuals. Compliance with obligations under the GDPR goes together with the objective of addressing gatekeepers’ data-driven advantages that the DMA, among other objectives, aims to tackle.  DMAとGDPRは、目標の観点および個人に提供される保護の観点において補完的である。GDPRに基づく義務の遵守は、DMAが対処を目的とするゲートキーパーのデータ駆動型優位性への対応という目標と連動する。
On 10 September 2024, the European Data Protection Board and the European Commission announced that they would work on joint guidance on the interplay between the DMA and the GDPR, which they would adopt pursuant to their respective legal bases under the GDPR and the DMA. This initiative is aligned with Pillar 3 of the EDPB Strategy 2024-2027, ‘Safeguarding data protection in the developing digital and cross-regulatory landscape’, in which the EDPB committed to promote consistency and cooperation with competent authorities in fields other than Union data protection law.   2024年9月10日、欧州データ保護委員会(EDPB)と欧州委員会は、DMAとGDPRの相互作用に関する共同ガイダンスの策定に取り組み、GDPRおよびDMAに基づくそれぞれの法的根拠に従ってこれを採択することを発表した。この取り組みは、EDPB戦略2024-2027の柱3「発展するデジタル・クロスレギュラトリー環境におけるデータ保護の確保」に沿ったものであり、EDPBはEUデータ保護法以外の分野における管轄当局との整合性と協力を促進することを約束している。
These Guidelines on the interplay between the DMA and the GDPR aim to ensure that the DMA and the GDPR are interpreted and applied in a compatible manner, enabling a coherent application that achieves their respective objectives, in line with relevant CJEU case law. A consistent and coherent interpretation of the DMA and the GDPR should mutually reinforce and maximise the achievement of the respective objectives of the two frameworks, while fully respecting the protection of the fundamental right to data protection as enshrined in Union law.  本ガイドラインは、DMAとGDPRの相互作用に関するものであり、欧州司法裁判所(CJEU)の関連判例に沿い、両枠組みが互いに整合的な方法で解釈・適用され、それぞれの目的を達成する一貫した適用を可能とすることを目的とする。DMAとGDPRの一貫性のある解釈は、EU法に定められたデータ保護という基本的権利の保護を完全に尊重しつつ、両枠組みの目的達成を相互に強化し最大化すべきである。
The Guidelines do not aim to exhaustively address all instances where issues of GDPR application may arise in the context of the implementation of the DMA by gatekeepers. Instead, the Guidelines focus on those provisions of the DMA in relation to which there are significant overlaps with substantive rules stemming from the GDPR that merit clarification and a common interpretation among the authorities that are competent to supervise each framework.   本ガイドラインは、ゲートキーパーによるDMAの実施過程においてGDPRの適用問題が生じ得る全ての事例を網羅的に扱うことを目的としていません。むしろ、DMAの規定のうち、GDPRに由来する実体規則と重大な重複があり、各枠組みを監督する権限を有する当局間で明確化と共通解釈が求められるものに焦点を当てています。
Article 5(2) DMA prohibits gatekeepers from carrying out certain processing operations without end users’ valid consent, within the meaning of the GDPR. The Guidelines explain the elements that gatekeepers should consider in order to comply with the requirements of specific choice and valid consent under Article 5(2) DMA and the GDPR. The Guidelines also describe circumstances where consent may not be required by either the GDPR or the DMA and under which conditions other legal bases can be relied upon (e.g. the possibility of relying on Article 6(1), point (c) GDPR when processing personal data for security purposes, provided certain conditions are met).  DMA第5条(2)は、ゲートキーパーがエンドユーザーのGDPR上の有効な同意なしに特定の処理活動を実施することを禁止している。本ガイドラインは、DMA第5条(2)及びGDPRに基づく具体的な選択と有効な同意の要件を満たすためにゲートキーパーが考慮すべき要素を説明する。ガイドラインはまた、GDPRまたはDMAのいずれにおいても同意が不要となる状況、および他の法的根拠に依拠できる条件(例:特定の条件を満たす場合に限り、セキュリティ目的で個人データを処理する際のGDPR第6条(1)項(c)への依拠可能性)についても記述している。
Article 6(4) DMA requires gatekeepers providing operating system CPS to (inter alia) allow and technically enable the installation and effective use of third-party software applications or software application stores on their operating system. The Guidelines recall that gatekeepers should ensure that the measures they implement in compliance with Article 6(4) DMA also comply with applicable laws, including the GDPR and the ePrivacy Directive. However, when selecting appropriate measures to comply with obligations stemming from the GDPR, gatekeepers should select the measures that less adversely affect the pursuit of the objectives of Article 6(4) DMA, provided that they remain effective in ensuring compliance with the GDPR, also taking into account that operating system providers are generally considered separate and independent controllers from the providers of apps or app stores. The Guidelines provide examples of measures that gatekeepers are expected to take to comply with their own GDPR obligations in the context of Article 6(4) DMA.  DMA第6条(4)は、OS CPSを提供するゲートキーパーに対し、自社のOS上でのサードパーティ製ソフトウェアアプリケーションまたはソフトウェアアプリケーションストアのインストール及び効果的な利用を(とりわけ)許可し技術的に可能とすることを要求している。ガイドラインは、ゲートキーパーがDMA第6条(4)に準拠して実施する措置が、GDPRやeプライバシー指令を含む適用法令にも準拠していることを確保すべきであることを想起させる。ただし、GDPRに基づく義務を遵守するための適切な措置を選択する際には、GDPRの遵守を確保する上で効果を維持しつつ、DMA第6条(4)の目的の達成に悪影響を及ぼす可能性が低い措置を選択すべきである。この際、OSプロバイダーは一般的にアプリやアプリストアのプロバイダーとは別個の独立した管理者であると見なされることも考慮に入れる必要がある。本ガイドラインは、DMA第6条(4)の文脈において、ゲートキーパーが自らのGDPR義務を遵守するために講じるべき措置の例を示している。
Article 6(9) DMA creates a right to data portability at the request of end users or third parties authorised by end users. The Guidelines explain how this right complements Article 20 GDPR, given its broad scope, and elaborates on key GDPR requirements applicable to DMA portability requests. The principal areas examined relate to the portability of personal data of individuals other than the end user, the authentication of end users and verification of the authorisation obtained by third parties, and transfers of personal data to third parties that are in non-EEA countries without an adequacy decision.   DMA第6条(9)は、エンドユーザーまたはエンドユーザーから権限を付与された第三者の要求に基づくデータポータビリティ権を創設する。本ガイドラインは、この権利が広範な適用範囲を持つことからGDPR第20条を補完する方法を説明し、DMAポータビリティ要求に適用される主要なGDPR要件について詳述している。主な検討領域は、エンドユーザー以外の個人の個人データのポータビリティ、エンドユーザーの認証および第三者が取得した権限の確認、ならびに十分性認定のない非EEA国にある第三者への個人データの移転に関するものである。
Article 6(10) DMA creates a right of data access for business users and authorised third parties, including to personal data of end users engaging with the products or services provided by those business users through the gatekeeper’s core platform service. The Guidelines explain the practical implications of business users having to collect end users’ consent for such access, how gatekeepers should facilitate the collection and withdrawal of such consent, as well as inform end users about the separate controllers to whom their personal data is shared with pursuant to Article 6(10) DMA.   DMA第6条(10)は、ビジネスユーザーおよび認可された第三者に対し、ゲートキーパーの中核プラットフォームサービスを通じて当該ビジネスユーザーが提供する製品・サービスを利用するエンドユーザーの個人データを含む、データアクセス権を創設する。本ガイドラインは、事業者が当該アクセスについてエンドユーザーの同意を取得する必要性、ゲートキーパーが同意取得・撤回を促進する方法、並びにDMA第6条(10)に基づき個人データが共有される別個の管理者についてエンドユーザーに通知する実務上の影響を説明する。
Article 6(11) DMA establishes an obligation for gatekeepers to provide to any third-party undertaking providing online search engines with access to ranking, query, click and view data in relation to search generated by end users on its online search engines. The shared data that constitutes personal data has to be anonymised. The Guidelines clarify the objective of Article 6(11) DMA to foster contestability in the online search engine market and how to achieve effective anonymisation of shared search data while taking into account such objectives.   DMA第6条(11)は、ゲートキーパーに対し、オンライン検索エンジンを提供する第三者事業者に対し、当該オンライン検索エンジン上でエンドユーザーが生成した検索に関連するランキング、クエリ、クリック、閲覧データへのアクセスを提供することを義務付けている。共有される個人データを構成するデータは匿名化されなければならない。ガイドラインは、DMA第6条(11)の目的がオンライン検索エンジン市場における競争促進にあること、および当該目的を考慮しつつ共有検索データの有効な匿名化を達成する方法を明確化する。
Article 7 DMA requires gatekeepers designated in relation to their number-independent interpersonal communications services to offer interoperability to alternative service providers requesting it. The Guidelines elaborate on the requirements of Article 7 that are relevant from the perspective of privacy and data protection law. Most notably, they recall that gatekeepers should comply with data minimisation and other GDPR principles when making their services interoperable, and mention necessary, proportionate, and justified measures that a gatekeeper may apply to ensure that third-party service providers requesting interoperability do not endanger the integrity, security and privacy of its services.  DMA第7条は、番号非依存型対人通信サービスに関して指定されたゲートキーパーに対し、相互運用性を要求する代替サービスプロバイダーに相互運用性を提供することを義務付ける。ガイドラインは、プライバシー及びデータ保護法の観点から関連する第7条の要件について詳述している。特に、ゲートキーパーはサービスの相互運用性を確保する際、データ最小化その他のGDPR原則を遵守すべきことを想起させるとともに、相互運用性を要求する第三者サービスプロバイダーが自社のサービスの完全性、安全性及びプライバシーを危険に晒さないよう確保するためにゲートキーパーが適用し得る必要性、比例性及び正当性を備えた措置について言及している。
The Guidelines also pronounce on coordination, cooperation and consultation between the European Commission as sole enforcer of the DMA and competent data protection supervisory authorities as enforcers of the GDPR. The Guidelines recall, with reference to relevant CJEU case law concerning the principle of sincere cooperation and ne bis in idem, that cooperation and coordination between the European Commission and data protection supervisory authorities is essential to ensure a consistent, effective and complementary application of the DMA and EU data protection law.  本ガイドラインはまた、DMAの唯一の執行機関である欧州委員会と、GDPRの執行機関である管轄データ保護監督機関との間の調整、協力、協議についても言及している。欧州委員会とデータ保護監督機関との協力・調整は、DMAとEUデータ保護法の一貫性のある効果的かつ補完的な適用を確保するために不可欠であることについて、誠実な協力の原則及び二重の処罰禁止(ne bis in idem)に関する欧州司法裁判所(CJEU)の関連判例を参照しつつ想起している。

 

目次...

1 Objective, addressees and scope of the Guidelines 1 ガイドラインの目的、対象者及び適用範囲
2 End-user choice and consent (Article 5(2) DMA) 2 エンドユーザーの選択と同意(DMA第5条(2))
2.1 Specific choice and the requirement for a less personalised but equivalent alternative service under the DMA 2.1 DMAに基づく特定の選択と、よりパーソナライズされていないが同等の代替サービスの要件
2.2 Consent within the meaning of the GDPR 2.2 GDPRにおける同意の意味
2.2.1 General conditions 2.2.1 一般的な条件
2.2.2 Special categories of personal data 2.2.2 特別な種類の個人データ
2.3 Ensuring user-friendly choices and consent design 2.3 ユーザーフレンドリーな選択と同意設計の確保
2.4 Limits to repeating consent requests 2.4 同意要求の反復に関する制限
2.5 Processing activities covered by Article 5(2) DMA 2.5 DMA第5条(2)が対象とする処理活動
2.5.1 Article 5(2), point (a) DMA 2.5.1 DMA第5条(2)(a)
2.5.2 Article 5(2), point (b) DMA 2.5.2 DMA第5条(2)(b)
2.5.3 Article 5(2), point (c) DMA 2.5.3 DMA第5条(2)(c)
2.5.4 Article 5(2), point (d) DMA 2.5.4 DMA第5条(2)項(d)
2.6 Processing not requiring consent under Article 5(2) DMA 2.6 DMA第5条(2)項に基づく同意を必要としない処理
2.6.1 Cross-use of personal data between gatekeeper services provided together with or in support of each 2.6.1 相互に提供されるゲートキーパーサービス間、またはそれらを支援するサービス間における個人データの相互利用
2.6.2 Processing activities which lawfully rely on Article 6(1), points (c), (d) and (e) GDPR 2.6.2 GDPR第6条(1)項(c)、(d)および(e)に合法的に依拠する処理活動
3 Distribution of software application stores and software applications (Article 6(4) DMA) 3 ソフトウェアアプリケーションストア及びソフトウェアアプリケーションの流通(DMA第6条(4))
3.1 Measures to ensure compliance with the GDPR principle of integrity and confidentiality in relation to personal data 3.1 個人データに関するGDPRの完全性及び機密性の原則への準拠を確保するための措置
3.2 Other measures gatekeepers should take to comply with the GDPR and facilitate compliance of Article 6(4) DMA beneficiaries with the GDPR.... 3.2 ゲートキーパーがGDPRに準拠し、DMA第6条(4)の受益者のGDPR準拠を促進するために講じるべきその他の措置....
4 Right to data portability of end users and third parties authorised by end users (Article 6(9) DMA). 4 エンドユーザー及びエンドユーザーから権限付与を受けた第三者のデータポータビリティ権(DMA第6条(9)項)
4.1 Data categories to which the right to portability under Article 6(9) DMA applies 4.1 DMA第6条(9)項に基づくポータビリティ権が適用されるデータカテゴリー
4.2 Portability of other data subjects personal data 4.2 その他のデータ主体の個人データのポータビリティ
4.3 Granularity and duration of portability  4.3 ポータビリティの粒度と期間
4.4 Real-time and continuous data access. 4.4 リアルタイムかつ継続的なデータアクセス
4.5 Online choice architecture 4.5 オンライン選択アーキテクチャ
4.6 Authorised third parties 4.6 認可された第三者
4.7 Right to portability and international transfers of personal data.... 4.7 個人データのポータビリティ権および国際移転...
5 Right to data access of business users and authorised third parties (Article 6(10) DMA) 5 ビジネスユーザーおよび認可された第三者のデータアクセス権(DMA第6条(10))
5.1 Categories of beneficiaries of the right to data access 5.1 データアクセス権の受益者のカテゴリー
5.2 Data categories to which Article 6(10) DMA applies 5.2 DMA第6条(10)が適用されるデータカテゴリー
5.3 Granularity of data access under Article 6(10) DMA 5.3 DMA第6条(10)に基づくデータアクセスの粒度
5.4 Mechanism(s) enabling access to end-user's personal data. 5.4 エンドユーザーの個人データへのアクセスを可能にするメカニズム
5.5 Continuous and real-time data access 5.5 継続的かつリアルタイムのデータアクセス
5.6 Online choice architecture 5.6 オンライン選択アーキテクチャ
6 Access to anonymised ranking, query, click and view data (Article 6(11) DMA). 6 匿名化されたランキング、クエリ、クリック、閲覧データへのアクセス(DMA第6条(11))
7 Interoperability of number-independent interpersonal communication services (Article DMA) 7 番号非依存型対人通信サービスの相互運用性(DMA第7条)
7.1 Categories of personal data necessary to ensure interoperability 7.1 相互運用性を確保するために必要な個人データのカテゴリー
7.2 Personal data processing to preserve the level of security across interoperable services 7.2 相互運用可能なサービス全体でのセキュリティレベルを維持するための個人データ処理
7.3 Other situations where personal data processing may occur 7.3 個人データ処理が発生する可能性のあるその他の状況
7.3.1 Geographical limitations 7.3.1 地理的制限
7.3.2 Measures pursuant to Article 7(9) DMA 7.3.2 DMA第7条(9)に基づく措置
8 Coordination, cooperation and consultation 8 調整、協力及び協議

 


まるちゃんの情報セキュリティ気まぐれ日記

・2025.10.14 欧州委員会 EDPB DMAとGPDRの相互作用に関する共同ガイドライン

・2025.09.16 EDPB DSAとGDPRの相互関係に関するガイドライン (2025.09.12)

| | Comments (0)

2025.10.13

欧州委員会 汎用AIのシステミックリスクなどAIモデル等に関する研究報告書6つ...(2025.10.10)

こんにちは、丸山満彦です。

欧州委員会の共同研究センター(Joint Reserch Centre)がAIについての報告書を6つ公表していますね...

いろいろと参考になることもあると思います。。。(まだ、全部を読んだわけではないですが...)

 

General-Purpose AI Model Reach as a Criterion for Systemic Risk システミックリスクの基準としての汎用AIモデルのリーチ
The Role of AI Safety Benchmarks in Evaluating Systemic Risks in General-Purpose AI Models 汎用AIモデルのシステミックリスク評価におけるAI安全性ベンチマークの役割
A Proposal to Identify High-Impact Capabilities of General-Purpose AI Models 汎用AIモデルの高インパクト能力を特定するための提案
A Framework to Categorise Modified General-Purpose AI Models as New Models Based on Behavioural Changes 行動の変化に基づき、修正された汎用AIモデルを新しいモデルとして分類するフレームワーク
A Framework for General-Purpose AI Model Categorisation 汎用AIモデル分類のためのフレームワーク
Training Compute Thresholds - Key Considerations for the EU AI Act トレーニングの計算しきい値 - EU AI法における重要な検討事項

 

 

 

● European Comission - the Joint Reserch Centre: JRC

・2025.10.10 General-Purpose AI Model Reach as a Criterion for Systemic Risk

General-Purpose AI Model Reach as a Criterion for Systemic Risk システミックリスクの基準としての汎用AIモデルのリーチ
Under the EU AI Act, systemic risks of general-purpose AI (GPAI) models are assumed to increase with model "reach". This report proposes a method for operationalising, and measuring "reach" so that it may be used as a criterion when determining whether a GPAI model should be classified as a GPAI model with systemic risks. This report considers specific systemic risks created by model reach, such as risks from model biases, i.e. systemic risk which become relevant when models are widely used, regardless of whether their capabilities are at the technological frontier. In this report, reach is defined as the number of people who directly interact with a given GPAI model. Potential metrics for measuring reach are identified, including access via user interfaces and APIs. A concrete proposal for the design of a reach trigger is presented, which includes overall reporting thresholds for model providers, reach metrics to be reported, and calibration of the reach trigger. The proposal aims to balance comprehensive coverage with minimal reporting burden, and to provide a framework for incorporating reach considerations in the determination of whether a GPAI model presents systemic risks, in complement to other considerations related to capabilities, safety benchmarks and compute discussed in other reports of this collection. EUのAI法では、汎用AI(GPAI)モデルのシステミックリスクは、モデルの 「リーチ 」に応じて増大すると想定されている。本報告書では、GPAIモデルがシステミック・リスクを有するGPAIモデルに分類されるべきか否かを判断する際の基準として用いることができるよう、「リーチ」を運用し、測定する方法を提案する。本報告書では、モデルのリーチがもたらす具体的なシステミック・リスク、例えば、モデルのバイアスがもたらすリスク、すなわち、モデルの能力が技術的フロンティアにあるか否かにかかわらず、モデルが広く使用される場合に関連するシステミック・リスクについて検討する。本報告書では、リーチとは、ある GPAI モデルと直接対話する人の数と定義する。リーチを測定するための指標として、ユーザーインターフェイスや API を介したアクセスなどの可能性を挙げている。リーチトリガーの設計に関する具体的な提案として、モデルプロバイダーに対する全体的な報告閾値、 報告されるべきリーチ指標、およびリーチトリガーの較正が示されている。本提案は、包括的な適用範囲と最小限の報告負担とのバランスを図り、GPAIモデルがシステミックリスクを示すか否かの判断に、本コレクションの他の報告書で議論されている能力、安全ベンチマーク、計算に関する他の検討事項を補完する形で、到達度の検討を組み込むための枠組みを提供することを目的としている。



[PDF]

20251012-83052

Abstract 概要
Acknowledgements 謝辞
Note from the Editors 編集者より
Executive summary エグゼクティブサマリー
1 Introduction 1 はじめに
1.1 Legal Context 1.1 法的背景
1.2 Risks Created by Reach 1.2 リーチによって生じるリスク
1.3 Risks from Reach in the Code of Practice 1.3 実施規範におけるリーチのリスク
2 Metrics 2 評価指標
2.1 Definition of Reach 2.1 リーチの定義
2.2 Access Methods 2.2 アクセス方法
2.3 Reach Metrics - User Interface Access 2.3 リーチ指標-ユーザーインターフェイスアクセス
2.4 Reach Metrics - API Access 2.4 リーチ指標-APIアクセス
2.5 Measuring Reach using Public Information 2.5 公開情報を用いたリーチの測定
2.6 Measuring Reach using Surveys 2.6 調査を用いたリーチの測定
3 Concrete Proposal for the Design of a Reach Criterion 3 リーチ基準設計の具体案
3.1 Overall Reporting Thresholds for Model Providers 3.1 モデル提供者の全体的な報告しきい値
3.2 Reach Metrics to be Reported 3.2 報告すべきリーチ指標
3.3 Calibrating the Reach Criterion 3.3 リーチ基準の校正
4 Conclusions 4 結論
References 参考文献
List of abbreviations and definitions 略語と定義一覧

 

 

 

 

・2025.10.10 The Role of AI Safety Benchmarks in Evaluating Systemic Risks in General-Purpose AI Models

The Role of AI Safety Benchmarks in Evaluating Systemic Risks in General-Purpose AI Models 汎用AIモデルのシステミックリスク評価におけるAI安全性ベンチマークの役割
The evaluation of systemic risks in General-Purpose AI (GPAI) models is a complex challenge that requires a multifaceted approach, extending beyond traditional capability assessments. This report analyses the role of AI safety benchmarks in identifying systemic risks in GPAI models, proposing a dual-trigger framework that combines capability triggers with safety benchmarks to provide a more comprehensive assessment of potential harms. The current landscape of safety benchmarks is still in development, with various initiatives emerging to address specific systemic risk categories, such as the ones identified in the GPAI Code of Practice: cyber offence, chemical, biological, radiological and nuclear (CBRN) risks, harmful manipulation, and loss of control. A tiered evaluation strategy is recommended, applying more rigorous and costly safety evaluations only to models that meet a predefined capability threshold or are intended for deployment in high-risk domains, ensuring proportionality and efficient resource allocation. Ultimately, the development of robust and standardised safety benchmarks is relevant for accurate classification of GPAI models as GPAI models with systemic risks, and policy initiatives should incentivise their creation to enable more effective systemic risk identification. 汎用AI(GPAI)モデルにおけるシステミックリスクの評価は複雑な課題であり、従来の能力評価を超えた多面的なアプローチが必要である。本報告書では、GPAIモデルにおけるシステミックリスクの特定におけるAIの安全性ベンチマークの役割を分析し、潜在的な危害のより包括的な評価を提供するために、能力トリガーと安全性ベンチマークを組み合わせたデュアルトリガーフレームワークを提案する。安全ベンチマークの現状はまだ発展途上であり、GPAI実践規範で特定されたような特定のシステミックリスクのカテゴリー、例えばサイバー犯罪、化学・生物・放射性・核(CBRN)リスク、有害な操作、制御不能に対処するための様々なイニシアチブが登場している。段階的な評価戦略が推奨され、より厳格でコストのかかる安全性評価を、あらかじめ定義された能力閾値を満たすか、高リスク領域での配備を意図したモデルにのみ適用することで、比例性と効率的な資源配分を確保する。最終的には、強固で標準化された安全ベンチマークを開発することが、GPAIモデルをシステミックリスクを有するGPAIモデルとして正確に分類することに関連し、政策イニシアティブは、より効果的なシステミックリスクの特定を可能にするために、その作成にインセンティブを与えるべきである。

 

[PDF]

20251012-83101

 

Abstract 概要
Acknowledgements 謝辞
Note from the Editors 編集者からのコメント
Executive summary エグゼクティブサマリー
1 Introduction 1 はじめに
1.1 GPAISR Labelling and its Implications 1.1 GPAISRラベリングとその意味合い
1.2 Capability-Centric Evaluation and Limitations 1.2 能力中心の評価と限界
1.3 Sources and Scenarios of Systemic Risk 1.3 システミック・リスクの発生源とシナリオ
2 The Role of Safety Benchmarks as a Systemic Risk Criterion 2 システムリスク基準としての安全性ベンチマークの役割
2.1 Current Landscape of Safety Benchmarks 2.1 セーフティ・ベンチマークを取り巻く現状
2.2 How Safety Benchmarks Complement Capability-based Considerations for GPAISRLabelling 2.2 安全性ベンチマークはGPAISRLabellingにおける能力ベースの考慮事項をどのように補完するか
3 Practical Approaches to GPAISR Evaluation Using Safety Benchmarks 3 安全性ベンチマークを用いたGPAISR評価の実践的アプローチ
3.1 Integrating Safety Benchmarks 3.1 安全性ベンチマークを統合する
3.2 A Tiered Approach to Safety Benchmarking 3.2 安全性ベンチマークへの段階的アプローチ
3.3 Standardisation in Safety Benchmarks 3.3 セーフティ・ベンチマークにおける標準化
4 Policy Implications and Future Directions 4 政策的意味合いと今後の方向性
4.1 Towards a Holistic Assessment Paradigm 4.1 総合的評価のパラダイムに向けて
4.2 Addressing Cost and Resource Implications for Widespread Adoption 4.2 普及のためのコストとリソースへの対応
4.3 Insights from the EU GPAI Code of Practice 4.3 EU GPAI実施規範からの洞察
5 Conclusions and Final Recommendations 5 結論と最終提言
References 参考文献
List of abbreviations and definitions 略語と定義のリスト

 

 

 

・2025.10.10 A Proposal to Identify High-Impact Capabilities of General-Purpose AI Models

A Proposal to Identify High-Impact Capabilities of General-Purpose AI Models 汎用AIモデルの高インパクト能力を特定するための提案
This report proposes a scientific methodology to identify high-impact capabilities in General-Purpose AI (GPAI) models, defined in the EU AI Act as capabilities of the most advanced GPAI models. High-impact capabilities play an important role in the EU AI Act since GPAI models with high-impact capabilities are classified as GPAI models with systemic risks. The approach is based on observational scaling laws using Principal Components Analysis (PCA) from a set of existing benchmarks, allowing for the extraction of a low-dimensional capability measure that can be used to identify models with high-impact capabilities. The proposed method involves selecting a diverse set of benchmarks that measure general capabilities, such as MMLU-Pro, GPQA-diamond, MATH-level-5, and HumanEval, and aggregating their scores using a weighted threshold-based metric. The weights are determined by the PCA approach, and the threshold is based on a reference model, to be set by the enforcement authority based on legal, policy, and risks considerations. The report also discusses additional considerations, including the need for a multi-disciplinary expert group to oversee benchmark selection, the importance of updating the approach every 6 months to account for rapid developments in AI, and mitigation measures to prevent companies from strategically underperforming on benchmarks. By providing a practical and robust way to assess high-impact capabilities, this methodology aims to contribute to the development of a more comprehensive approach to evaluating GPAI models. 本報告書では、汎用AI(GPAI)モデルにおける高インパクト能力を特定するための科学的手法を提案する。高インパクト能力を有するGPAIモデルは、システミック・リスクを有するGPAIモデルとして分類されるため、高インパクト能力はEU AI法において重要な役割を果たす。本アプローチは、既存のベンチマーク群から主成分分析(PCA)を用いた観測的スケーリング法則に基づいており、影響力の高い能力を持つモデルを識別するために使用できる低次元の能力尺度を抽出することができる。提案手法では、MMLU-Pro、GPQA-diamond、MATH-level-5、HumanEvalなど、一般的な能力を測定する多様なベンチマークセットを選択し、重み付けされた閾値ベースのメトリックを用いてスコアを集約する。加重はPCA手法によって決定され、閾値は参照モデルに基づいており、法的、政策的、リスク的な考慮に基づいて実施機関が設定する。本報告書では、ベンチマークの選定を監督する学際的な専門家グループの必要性、AIの急速な発展を考慮した6ヶ月ごとのアプローチ更新の重要性、企業が戦略的にベンチマークを下回ることを防止するための緩和策など、追加的な検討事項についても論じている。インパクトの大きい能力を評価するための実践的で堅牢な方法を提供することで、本方法論はGPAIモデルを評価するためのより包括的なアプローチの開発に貢献することを目指している。

 

[PDF]

20251012-83107

 

Abstract 概要
Acknowledgements 謝辞
Note from the Editors 編集者からのコメント
Executive summary エグゼクティブサマリー
1 Introduction 1 はじめに
1.1 Benefits of the PCA approach 1.1 PCAアプローチの利点
1.2 Limitations 1.2 制限事項
2 Benchmark selection criteria 2 ベンチマーク選択基準
3 Specific selection of benchmarks 3 具体的なベンチマークの選択
3.1 MMLU-Pro 3.1 MMLU-Pro
3.2 GPQA-diamond 3.2 GPQA-diamond
3.3 MATH-level-5 3.3 MATH-level-5
3.4 HumanEval 3.4 HumanEval
3.5 SWE-Bench-verified (a subset) 3.5 SWE-Bench-verified (サブセット)
3.6 MLE-Bench (a subset) 3.6 MLE-Bench(サブセット)
4 Benchmark-score aggregation 4 ベンチマークスコアの集計
4.1 Simplified approach 4.1 簡易アプローチ
4.2 Tiered approach 4.2 段階的アプローチ
5 Additional Considerations 5 その他の考慮事項
5.1 Detailed procedure for measurements 5.1 詳細な測定手順
5.2 6-months updates 5.2 6ヶ月ごとの更新
5.3 Mitigation measures to prevent gaming & other actions by GPAI model providers 5.3 GPAIモデル提供者によるゲーミングやその他の行為を防止するための緩和措置
6 Conclusions 6 結論
References 参考文献
List of abbreviations and definitions 略語と定義の一覧
List of figures 図表一覧
List of tables 表一覧
Annexes 附属書
Annex 1. Concrete example of benchmark aggregation 附属書1. ベンチマーク集計の具体例
Annex 2. Robustness tests 附属書2. 頑健性テスト

 

 

 

・2025.10.10 A Framework to Categorise Modified General-Purpose AI Models as New Models Based on Behavioural Changes

A Framework to Categorise Modified General-Purpose AI Models as New Models Based on Behavioural Changes 行動の変化に基づき、修正された汎用AIモデルを新しいモデルとして分類するフレームワーク
This report discusses an approach for a criteria to determine when a modified General-Purpose AI (GPAI) model should be considered a new and distinct model for regulatory purposes under the EU AI Act. It presents two approaches to assess behavioural changes in altered models: (1) directly measuring differences in capability profiles or instance-level answers, and (2) using proxy metrics related to the alteration process, such as finetuning, computation, and data usage. The report highlights the challenges of establishing thresholds for determining when an altered model is considered a new one and suggests empirical studies to validate the relationships between alteration metrics and downstream behavioural changes. 本報告書では、修正された汎用AI(GPAI)モデルが、EUのAI法の規制目的上、新しい別個のモデルとみなされるべきかを判断する基準のアプローチについて論じている。(1)能力プロファイルやインスタンスレベルの回答の違いを直接測定する方法と、(2)ファインチューニング、計算、データ使用量など、改変プロセスに関連するプロキシメトリクスを使用する方法である。本報告書では、変更されたモデルが新しいモデルとみなされるタイミングを決定するための閾値を確立することの課題を強調し、変更メトリクスと下流の行動変化との関係を検証するための実証的研究を提案している。

 

[PDF]

20251012-83113

 

Abstract 概要
Acknowledgements 謝辞
Note from the Editors 編集者からのコメント
Executive summary エグゼクティブサマリー
1 Background 1 背景
1.1 Notion of "substantial modification" of high-risk AI systems 1.1 リスクの高いAIシステムの「実質的修正」という概念
1.2 How modifications to AI models arise 1.2 AIモデルの修正はどのように生じるか
2 Approach 1: Directly measuring difference in behaviour 2 アプローチ1:行動の違いを直接測定する
2.1 Differences in capability profiles 2.1 能力プロファイルの違い
2.2 Differences in instance-level answers 2.2 インスタンスレベルの回答の違い
2.2.1 Further background information on CAPA 2.2.1 CAPAに関するさらなる背景情報
3 Approach 2: Proxy metrics for differences in behaviour 3 アプローチ2:行動の違いの代理測定基準
3.1 What alterations have the potential to cause substantially different behaviour andperformance 3.1 どのような変更が、実質的に異なる挙動とパフォーマンスを引き起こす可能性があるか
3.1.1 Finetuning methods 3.1.1 ファインチューニングの方法
3.2 Proxy metrics 3.2 代理メトリクス
3.3 Linking alteration metrics to downstream behavioural changes 3.3 変化のメトリクスを下流の行動変化にリンクさせる
3.3.1 Protocol 3.3.1 プロトコル
4 Conclusions 4 結論
References 参考文献
List of abbreviations and definitions 略語と定義のリスト
List of tables 表一覧

 

 

 

・2025.10.10 A Framework for General-Purpose AI Model Categorisation

A Framework for General-Purpose AI Model Categorisation 汎用AIモデル分類のためのフレームワーク
This report proposes a framework for categorising AI models as General-Purpose AI (GPAI) models as defined in the EU AI Act, based on their capabilities and generality. It breaks down the core components of the GPAI definition into measurable elements, focusing on four primary cognitive domains: (1) Attention and Search, (2) Comprehension and Compositional Expression, (3) Conceptualisation, Learning and Abstraction, and (4) Quantitative and Logical Reasoning. The report suggests using the Annotated Demand Levels (ADeLe) procedure to evaluate AI models' capabilities in these domains, and provides a methodology for combining domain-level scores into a single measure of generality. The framework is illustrated with empirical results from existing models, and policy recommendations are made for selecting thresholds and metrics for GPAI categorisation. 本報告書では、AIモデルを、その能力と汎用性に基づいて、EUのAI法で定義されている汎用AI(GPAI)モデルに分類するためのフレームワークを提案する。本報告書では、GPAIの定義の中核となる構成要素を測定可能な要素に分解し、4つの主要な認知領域((1)注意と検索、(2)理解力と構成表現、(3)概念化、学習と抽象化、(4)定量的推論と論理的推論)に焦点を当てている。本報告書では、これらの領域におけるAIモデルの能力を評価するために、注釈付き要求水準(ADeLe)手順を使用することを提案し、領域レベルのスコアを単一の一般性の尺度にまとめるための方法論を提供している。このフレームワークは、既存のモデルから得られた経験的な結果を用いて説明され、GPAI分類のための閾値と測定基準を選択するための政策提言がなされている。

 

[PDF]

20251012-83120

 

Abstract 概要
Acknowledgements 謝辞
Note from the Editors 編集者からのコメント
Executive summary エグゼクティブサマリー
1 Introduction 1 はじめに
2 Background: definitions and considerations 2 背景:定義と考察
2.1 AI model and AI system 2.1 AIモデルとAIシステム
2.2 Approach development considerations 2.2 アプローチ開発の考慮事項
2.3 System-level considerations for GPAI model categorisation 2.3 GPAIモデルの分類に関するシステムレベルでの考慮事項
3 Operationalising the definition of a GPAI model 3 GPAIモデルの定義を運用する
3.1 Identifying cognitive domains 3.1 認知ドメインの特定
3.2 Testing Each Domain 3.2 各ドメインのテスト
3.2.1 Domains and modalities 3.2.1 ドメインとモダリティ
3.2.2 Annotating Demands and Measuring Capabilities 3.2.2 要求の注釈付けと能力の測定
3.3 Competently performing in a domain 3.3 ドメインで能力を発揮する
3.3.1 Preliminary considerations 3.3.1 予備的考察
3.3.2 Practicalities and potential issues with human baselines 3.3.2 人間ベースラインの実用性と潜在的な問題点
3.3.3 Testing conditions 3.3.3 テスト条件
3.4 Wide range/generality 3.4 広い範囲/一般性
3.5 Putting it all together 3.5 全てをまとめる
4 Empirical illustration of the proposed approach 4 提案アプローチの実証的説明
4.1 How to analyse LLM performance with respect to human difficulty scores 4.1 人間の難易度スコアに関するLLMパフォーマンスの分析方法
4.2 Correlation of capability levels with model size/compute 4.2 モデルサイズ/計算量と能力レベルの相関性
4.3 Sensitivity analysis of classification thresholds and averages 4.3 分類しきい値と平均値の感度分析
4.3.1 Effect of aggregation function 4.3.1 集計関数の効果
4.3.2 Effect of threshold value 4.3.2 しきい値の影響
4.3.3 Domain pass/fail policy 4.3.3 ドメインの合否ポリシー
5 Conclusions 5 結論
References 参考文献
List of abbreviations and definitions 略語と定義一覧
List of figures 図一覧
List of tables 表一覧

 

 

 

・2025.10.10 Training Compute Thresholds - Key Considerations for the EU AI Act

Training Compute Thresholds - Key Considerations for the EU AI Act トレーニングの計算しきい値 - EU AI法における重要な検討事項
This report provides an in-depth analysis of the concept of cumulative compute as a proxy for general-purpose AI (GPAI) model capabilities, with a focus on measuring and verifying training compute, defined as the computational resources used to train a model, measured in floating-point operations (FLOP). It presents two approaches to estimating training compute, namely hardware-based and parameter-based methods, and discusses their strengths and limitations, including the challenges of estimating training compute for complex architectures and the need for standardised methodologies. The report also explores the challenges of verifying declared and undeclared training runs, and discusses potential verification methods, including concordance between measurement approaches, whistleblower protection, and monitoring of large compute clusters. Additionally, it examines the regulatory context, including the EU AI Act, and provides guidance on notification triggers, including the proposed notification point at the pre-training resource commitment stage, and the need for additional clarity for what constitutes reasonable certainty about threshold exceedance. The report also discusses the importance of updating training compute thresholds to maintain their effectiveness, and proposes a framework for dynamic threshold adjustment, including regular review periods and ongoing assessment by regulatory bodies and expert groups.
ERBEN Alexander; NEGELE Max; HEIM Len
本レポートでは、汎用AI(GPAI)モデル能力の代用としての累積計算量の概念を詳細に分析し、モデルの学習に使用される計算資源として定義され、浮動小数点演算(FLOP)で測定される訓練計算量の測定と検証に焦点を当てている。本報告書では、トレーニング計算量を推定するための2つのアプローチ、すなわちハードウェアベースの手法とパラメータベースの手法を紹介し、複雑なアーキテクチャのトレーニング計算量を推定する際の課題や標準化された手法の必要性など、それぞれの長所と限界について論じている。また、申告されたトレーニング実行と申告されていないトレーニング実行を検証する際の課題を探り、測定アプローチ間の整合性、内部告発者の保護、大規模計算クラスタの監視など、潜在的な検証方法についても論じている。
さらに、EUのAI法を含む規制の背景を検討し、トレーニング前のリソース投入段階における通知ポイントの提案や、閾値超過に関する合理的な確実性を構成するものをさらに明確にする必要性など、通知トリガーに関するガイダンスを提供している。また、有効性を維持するためにトレーニング計算の閾値を更新することの重要性を論じ、定期的な見直し期間や、規制機関や専門家グループによる継続的な評価など、動的な閾値調整の枠組みを提案している。ERBEN Alexander; NEGELE Max; HEIM Len

 

[PDF]

20251012-83125

 

Abstract エグゼクティブサマリー
Acknowledgements 謝辞
Note from the Editors 編集者からのコメント
Executive summary エグゼクティブサマリー
1 Introduction 1 はじめに
2 Cumulative Compute as a Capability Proxy 2 ケイパビリティ・プロキシとしての累積コンピュート
2.1 Background: Compute as a Predictor for AI Capabilities 2.1 背景 AI能力の予測因子としてのコンピュート
2.2 Compute Classification Framework 2.2 コンピュート分類のフレームワーク
2.3 Case Study: AlphaGo Zero 2.3 ケーススタディ アルファ碁ゼロ
2.4 Case Study: Auxiliary Models 2.4 ケーススタディ 補助モデル
2.5 Additional Considerations 2.5 その他の考察
3 Measuring Training Compute 3 トレーニング量の測定
3.1 Hardware-based Approach 3.1 ハードウェアベースのアプローチ
3.2 Parameter-based Approach 3.2 パラメータベースのアプローチ
3.3 Comparing Both Approaches 3.3 両方のアプローチを比較する
4 Setting the Cumulative Compute Threshold 4 累積計算しきい値の設定
4.1 Regulatory Design Parameters 4.1 規制設計パラメータ
4.2 Adjustment Framework 4.2 調整フレームワーク
4.3 Implementation Approaches 4.3 実施アプローチ
5 Notifying of Compute Threshold Exceedances 5 閾値超過の通知
5.1 Knowledge Points in Model Development 5.1 モデル開発における知識ポイント
5.2 Practical Implementation and Recommendations 5.2 実践的な実施方法と推奨事項
6 Verifying Training Compute 6 トレーニング計算の検証
6.1 Verifying Declared Amounts of Training Compute 6.1 宣言されたトレーニング計算量の検証
6.2 Verifying That No Training Runs Are Undeclared 6.2 未申告のトレーニング実行がないことの検証
6.3 Verification of Both Declared and Undeclared Training Runs 6.3 宣言されたトレーニング実行と宣言されていないトレーニング実行の両方の検証
7 Conclusions 7 結論
7.1 Compute Threshold Limitations 7.1 計算しきい値の制限
7.2 Inference Compute Scaling 7.2 推論計算のスケーリング
7.3 Alternative Metrics to Cumulative Compute 7.3 累積計算の代替指標
7.4 Additional Synthetic Data Considerations 7.4 その他の合成データに関する考察
References 参考文献
List of abbreviations and definitions 略語と定義一覧
List of figures 図一覧
List of tables 表一覧
Annexes 附属書
Annex 1. Guidance on How to Measure 附属書1. 測定方法のガイダンス
A.1.1 Measurement Approaches A.1.1 測定方法
A.1.2 Definition of Cumulative Compute A.1.2 累積計算の定義
A.1.3 More Details A.1.3 詳細
A.1.4 Required Documentation A.1.4 必要な文書

 

 


 

まとめた仮訳...

・[DOCX][PDF]

 

| | Comments (0)

2025.10.12

紹介 サイバーセキュリティ法 第2版 八雲法律事務所

こんにちは、丸山満彦です。

サイバーセキュリティ法務に特化している八雲法律事務所より、本日「実務解説 サイバーセキュリティ法」の第2版が中央経済社から出版されます。(現在Amazonでは予約注文という形になっていますが...)

著者の一人(おそらく中心人物(^^))である、山岡弁護士より献本していただきましたので、先んじて読みましたが、大変参考になる本(献本を受けたからではなく)だと思いますので、企業法務、サイバーセキュリティ関係の方は、一読した上で手元に置いておかれると、平時、有事においても参考になると思います。

内容としては、法律の解説ではなく、さまざまな事案を想定した対応時の法律面での考慮事項というのが中心となっています。なので、まさに現場で即、役に立つというものだと思います。(なので、一読した上で手元に置いておくことが重要)

第2版となっていますが、第1版をお持ちのかたも買った方が良いと思います。更新されている部分があるだけでなく、

  • クラウドのサイバーリスク
  • サイバーリスクのデューデリジェンス
  • 海外インシデント対応
  • サイバー保険

など、実務上重要な内容も加筆されていますので...

サイバーセキュリティというのが、まだまだ個別に取り上げられる状況ですが、これからは例えばあらゆる法律実務書にサイバーセキュリティに関連する内容が組み込まれていくのようにならないといけないように思います。

 

中央経済社

実務解説 サイバーセキュリティ法 第2版

Cybersecurity-law-2

 

● Amazon

・2025.10.12 実務解説 サイバーセキュリティ法〈第2版〉

Kidle版はいまのところないですが、第1版があるので、いずれでるかなぁ???

 

目次...


第1章 サイバーインシデントレスポンスの全体像
第1 サイバーインシデントレスポンスの概要
第2 各フェーズごとの留意点

第2章 当事者関係別サイバーセキュリティ紛争
第1 個人消費者との関係
第2 取締役のサイバーセキュリティに関する責任
第3 取引先との関係
第4 ITベンダーとの関係
第5  クラウドサービスがサイバー攻撃を受けた場合の法律関係
第6 従業員のログ管理とプライバシーとの関係

第3章 サイバーリスク・デューデリジェンス
第1 はじめに
第2 デューデリジェンス(Due Diligence)
第3 サイバーリスク・デューデリジェンスの重要性を示す実例
第4 サイバーリスクDDの実務上の実施ケース
第5 サイバーリスクDDの内容

第4章 損害論・過失相殺
第1 損害賠償の範囲
第2 逸失利益
第3 フォレンジック調査費用
第4 第三者委員会費用・コンサルティング費用
第5 人件費
第6 コールセンター費用
第7 被害拡大防止費用・再発防止費用
第8 見舞金(金券・商品券・プリペイドカード)とその支払に要する費用
第9 過失相殺

第5章 インシデント別の対応マニュアル
第1 ランサムウェア
第2 Emotet
第3 ECサイトからのクレカ情報漏えい
第4 ビジネスメール詐欺
第5 内部者による情報持出し

第6章 海外インシデント対応の留意点
第1 はじめに
第2 GDPR対応
第3 ニューヨーク州法対応
第4 タイ法対応

第7章 サイバー保険
第1 はじめに
第2 サイバー保険の補償内容
第3 サイバー保険の副次的効果


 

これからグローバルでサイバー関連の法規制が増えてくると思いますので、米国(連邦法、カリフォルニア州、ニューヨーク州等の主要州)、欧州、英国、東南アジア等の法対応についての留意点等も充実してくるのでしょうかね(法執行が行われ、実務が積み重なってくるのに合わせて...)

 

みなさん、是非、ご一読を...

ちなみに、アフェリエイトではないです(^^)...

 

 

 

| | Comments (0)

2025.10.11

欧州委員会 欧州のデジタルの未来を形作るのFAQページにAI法に関するFAQをまとめてありますね...

こんにちは、丸山満彦です。

最近セキュリティというより、AIが続いています...(^^;;

 

欧州委員会の「欧州のデジタルの未来を形作る」の「FAQページ」にAI法に関するFAQをまとめてありますね...

比較的新しいものを7つほど...

2025.09.26  Guidelines and Code of Practice on transparent AI systems 透明性のあるAIシステムに関するガイドラインと行動規範
2025.09.09  General-Purpose AI Models in the AI Act – Questions & Answers AI法における汎用AIモデル – 質問と回答
2025.08.18  AI Literacy - Questions & Answers AIリテラシー – 質問と回答
2025.07.31  Template for general-purpose AI model providers to summarise their training content 汎用AIモデル提供者がトレーニング内容を要約するためのテンプレート
2025.07.22  Guidelines on obligations for General-Purpose AI providers 汎用AI提供者の義務に関するガイドライン
2025.07.17  Signing the General-Purpose AI code of practice 汎用AI行動規範への署名
2025.07.11  Questions and answers on the code of practice for General-Purpose AI 汎用AI行動規範に関する質問と回答

 

個別にその内容を...Qだけですが...Aは各ページに...

・2025.09.26 Guidelines and Code of Practice on transparent AI systems

Guidelines and Code of Practice on transparent AI systems 透明性のあるAIシステムに関するガイドライン及び行動規範
The AI Act sets out transparency obligations for providers and deployers of certain AI systems. To enable compliance with those obligations the Act also tasks the Commission to adopt guidelines and to facilitate the development of a Code of Practice to be developed in an inclusive process with stakeholders. AI法は、特定のAIシステムの提供者及び導入者に対する透明性義務を定めています。これらの義務遵守を可能とするため、同法は委員会に対し、ガイドラインを採択するとともに、関係者と包括的なプロセスを通じて策定される行動規範の開発を促進するよう求めている。
his Q&A accompanies the Commission's consultation and call for expression of interest for stakeholders to provide input for the guidelines and a Code of Practice on transparent generative AI systems and to participate in the Code of Practice process. 本Q&Aは、透明性のある生成AIシステムに関するガイドライン及び行動規範への意見提供、並びに行動規範策定プロセスへの参加をステークホルダーに求める、欧州委員会の意見募集及び関心表明の呼びかけに付随するものである。
What does Article 50 of the AI Act entail? How do these obligations protect people against manipulation, deception, and other risks identified by the AI Act? AI法第50条の内容は?これらの義務は、AI法が特定した操作、欺瞞、その他のリスクから人々をどのように保護するのか?
In which cases and for which types of AI systems do these transparency obligations apply? 透明性義務は、どのようなケースおよびどのような種類のAIシステムに適用されるのか?
What technical solutions are considered for marking and detecting AI-generated content? AI生成コンテンツの表示・検出には、どのような技術的解決策が検討されているのか?
Why is there a need for a Code of Practice on transparent generative AI systems? 透明性のある生成AIシステムに関する行動規範が必要な理由は何か?
Why do we need both guidelines and a Code of Practice on transparent AI systems? 透明性のあるAIシステムに関するガイドラインと行動規範の両方が必要な理由は何か?
What role will civil society, academia, SMEs, deployers and providers have in shaping the Code? 市民社会、学術界、中小企業、導入者、提供者は規範形成においてどのような役割を担うのか?
How does the Code of Practice on transparent generative AI systems interact with the recent Code of Practice on General-Purpose AI? 透明性のある生成AIシステムに関する行動規範は、最近の汎用AIに関する行動規範とどのように連携するのか?
What are the next steps following the launch of the public consultation and call for expressions of interest? パブリックコンサルテーションと関心表明募集開始後の次のステップは何か?
How will compliance with the AI Act be assessed once the Code of Practice is finalised? 行動規範が確定後、AI法への準拠はどのように評価されるのか?

 

 

・2025.09.09 General-Purpose AI Models in the AI Act – Questions & Answers

General-Purpose AI Models in the AI Act – Questions & Answers AI法における汎用AIモデル – 質問と回答
With this Q&A, the AI Office seeks to facilitate the interpretation of certain provisions of the AI Act. This Q&A does not constitute an official position of the Commission, and it is without prejudice to any decision or position of the Commission. Only the Court of Justice of the European Union is competent to authoritatively interpret the AI Act. 本Q&Aは、AI法の特定の規定解釈を促進することを目的としています。これは欧州委員会の公式見解を構成するものではなく、委員会のいかなる決定や立場にも影響を与えない。AI法の権威ある解釈は欧州連合司法裁判所のみが管轄する。
General questions about the code of practice 行動規範に関する一般的な質問
Why do we need rules for general-purpose AI models? 汎用AIモデルに規則が必要な理由は?
What are general-purpose AI models? 汎用AIモデルとは何か?
What are general-purpose AI models with systemic risk? システムリスクを伴う汎用AIモデルとは何か?
What is a provider of a general-purpose AI model? 汎用AIモデルの提供者とは何か?
What are the obligations for providers of general-purpose AI models? 汎用AIモデル提供者の義務は何か?
If someone open-sources a model, do they have to comply with the obligations for providers of general-purpose AI models? モデルをオープンソース化した場合、汎用AIモデル提供者の義務を遵守する必要があるか?
Do the obligations for providers of general-purpose AI models apply in the development phase? 汎用AIモデル提供者の義務は開発段階にも適用されますか?
If someone fine-tunes or otherwise modifies a model, do they have to comply with the obligations for providers of general-purpose AI models? モデルを微調整またはその他の方法で変更した場合、汎用AIモデル提供者の義務を遵守する必要がありますか?
What is the General-Purpose AI Code of Practice? 汎用AI行動規範とは何ですか?
What is not part of the Code of Practice? 行動規範に含まれないものは何ですか?
Do AI systems play a role in the Code of Practice? AIシステムは行動規範において役割を果たすのか?
How does the Code of Practice take into account the needs of start-ups? 行動規範はスタートアップのニーズをどのように考慮しているのか?
What are the legal effects of the Code of Practice? 行動規範の法的効果は何か?
How will the Code of Practice be reviewed and updated? 行動規範はどのように見直され更新されるのか?
Which enforcement powers does the AI Office have? AI局にはどのような執行権限があるのか?

 

・2025.08.18 AI Literacy - Questions & Answers

AI Literacy - Questions & Answers AIリテラシー - 質問と回答
Article 4 of the AI Act requires providers and deployers of AI systems to ensure a sufficient level of AI literacy of their staff and other persons dealing with AI systems on their behalf. AI法第4条は、AIシステムの提供者および導入者が、自社スタッフおよび自社に代わってAIシステムを扱うその他の関係者に対し、十分なレベルのAIリテラシーを確保することを義務付けている。
Page Contents ページの内容
Definitions of article 4 and the AI Act 第4条およびAI法の定義
Compliance with article 4 第4条への準拠
Enforcement of article 4 第4条の施行
AI Office approach to AI literacy AIリテラシーに対するAI事務局のアプローチ
Other useful resources その他の有用なリソース
Definitions of article 4 and the AI Act 第4条およびAI法の定義
What does article 4 of the AI Act provide? AI法第4条は何を規定しているのか?
What is AI literacy for article 4 of the AI Act? AI法第4条における「AIリテラシー」とは何か?
Which target group is in scope of article 4 of the AI Act? Who are 'other persons’? AI法第4条の対象となる対象グループは?「その他の関係者」とは誰か?
Why may clients be a relevant target group for AI literacy? 顧客がAIリテラシーの対象グループとなる理由は?
Is there effectively an actual obligation to measure the level of the knowledge of employees? 従業員の知識レベルを測定する実質的な義務は存在するのか?
Are there formal categorisations of the different types of AI systems in the Act such as GenAI, Conversational AI, AI assistants? Is there a list with concrete examples? 本法において、生成AI、対話型AI、AIアシスタントなど、異なる種類のAIシステムを正式に分類しているか? 具体的な例を挙げたリストはあるか?
Where do we find further documents and videos on Article 4 of the AI Act? AI法第4条に関する追加文書や動画はどこで入手できるか?
Compliance with article 4 第4条への準拠
What should be the minimum content to consider for an AI literacy programme complying with article 4 of the AI Act? AI法第4条に準拠するAIリテラシープログラムにおいて、最低限考慮すべき内容は何か?
Do we have a risk-based approach on following the AI Literacy requirements of article 4 of the AI Act? AI法の4条に定めるAIリテラシー要件の遵守において、リスクベースアプローチは採用されているか?
Is an AI training mandatory for article 4 of the AI Act or are other AI literacy initiatives also allowed? AI法の4条ではAI研修が義務付けられているのか、それとも他のAIリテラシー施策も認められているか?
What should be the format of a mandatory AI training in companies? 企業における義務的なAI研修の形式はどうあるべきか?
When it comes to compliance with article 4 of the AI Act, are there requirements for specific industries, including financial services and healthcare? AI法の4条遵守に関して、金融サービスや医療を含む特定業界向けの要件は存在するか?
AI literacy extends to other persons acting on deployer’s behalf: should any service provider using AI have a contractual obligation to demonstrate AI literacy? AIリテラシーはデプロイヤーの代理で行動する他の関係者にも適用されます:AIを利用するサービスプロバイダーは、契約上AIリテラシーを証明する義務を負うべきですか?
Does a company, whose employees are using ChatGPT for, e.g., writing advertisement text or translating text, need to comply with the AI literacy requirement of Article 4 of the AI Act? 従業員がChatGPTを広告文作成や翻訳などに利用している企業は、AI法第4条のAIリテラシー要件を遵守する必要があるか?
Does a company, whose employees are using an AI tool with a human-in-the-loop approach, comply with the AI training with internal resources? 従業員がヒューマン・イン・ザ・ループ方式のAIツールを使用している企業は、内部リソースによるAIトレーニング要件を満たしていると言えるか?
Can we consider people with a degree/experience in AI development as AI literate (in the context of article 4 of the AI Act) without taking any further action? AI開発の学位/経験を持つ人材は、追加措置なしに(AI法第4条の文脈において)AIリテラシーを有するとみなせるか?
Are AI literacy training concepts allowed to differentiate between different levels of detail? AIリテラシー研修の概念において、詳細度の異なるレベルを区別することは認められるか?
How do organisations have to document their actions to comply with article 4 of the AI Act and the best effort provisions in it? Do they need specific certificates? 組織はAI法第4条及び同条の「最善努力規定」への準拠措置をどのように文書化すべきか?特定の証明書が必要か?
Is an AI officer necessary similarly as for the GDPR? Can a DPO and AI officer be the same person? Shall an organisation set up an AI governance board? GDPRと同様にAI担当官は必要か?DPOとAI担当官は同一人物で可能か?組織はAIガバナンス委員会を設置すべきか?
Enforcement of article 4 第4条の施行
When will the enforcement start? Is a company already late/at risk if it has not yet an established AI literacy initiative? 施行はいつ開始されるか?AIリテラシー施策を未整備の企業は既に遅れている/リスク状態にあるのか?
Who will be enforcing article 4 and on which basis? 第4条の執行主体と根拠は?
When market surveillance authorities are designated, could they impose penalties for non-compliance starting from 2 February 2025? Are we to expect a difference in this assessment by national authorities? 市場監視当局が指定された場合、2025年2月2日以降に違反罰則を適用可能か?各国当局による判断に差異は生じるか?
What consequences could an organisation face if they are considered to not comply with Article 4 of the AI Act? In what part of Chapter XII is this set out? AI法第4条違反と認定された組織に生じる影響は?第XII章のどの部分にこれが規定されていますか?
How does article 4 of the AI Act apply to countries outside the EU who are willing to provide services to EU based countries? EU域外の国々がEU域内の国々にサービスを提供する場合、AI法第4条はどのように適用されますか?
What do you mean that Article 4 of the AI Act is for private enforcement and for public enforcement? AI法第4条が「民間による執行」と「公的執行」の両方に適用されるとはどういう意味ですか?
Regarding private enforcement: does this imply that employees may sue their employers if they feel they did not receive adequate training? Could you outline how the police or a law firm might help? 民間による執行に関して:従業員が十分な訓練を受けなかったと感じた場合、雇用主を訴える可能性があることを意味しますか?警察や法律事務所がどのように支援できるか概説いただけますか?
AI Office approach to AI literacy AI事務局のAIリテラシーへの取り組み
Will the AI Office issue guidelines on Article 4 of the AI Act like the guideline for prohibited systems published or something comparable or will this be a task for Member States? AI事務局は、禁止システムに関するガイドラインのように、AI法第4条に関するガイドラインを発行する予定ですか?それとも加盟国の任務となるのでしょうか?
Since the training is context-specific, will the AI Office issue guidelines for providers of high-risk AI systems of Annex III, to assist them on this front? 訓練は状況に応じたものであるため、AI事務局は附属書IIIの高リスクAIシステム提供者向けに、この分野での支援を目的としたガイドラインを発行する予定ですか?
Does the Commission already have a plan to put in place Article 4 of the AI Act in terms of its own employees? 欧州委員会は、自職員向けにAI法第4条を実施する計画を既に有しているか?
How does the AI Office plan to support EU agencies in developing their AI literacy programs? AI事務局は、EU機関がAIリテラシープログラムを開発する際に、どのように支援する計画か?
What additional guidance and resources do the AI Office plan to release in the near future? Will the AI Office share a rubric to test for compliance with AI literacy? AI事務局は近い将来、どのような追加ガイダンスやリソースを公開する計画か?AIリテラシーの遵守度をテストするための評価基準を共有するか?
How could industry organisations be of any help for the development of AI literacy? 業界団体はAIリテラシー開発にどのように貢献できるか?
Other useful resources その他の有用なリソース
How and where might one get reading access to the living repository? ライビングリポジトリの閲覧アクセスはどのように、どこで得られるか?
How can SMEs with limited resources ensure that their employees acquire the necessary AI literacy? Are there specific training initiatives or EU support programs? 限られたリソースを持つ中小企業は、従業員が必要なAIリテラシーを確実に習得させるにはどうすればよいか? 具体的な研修イニシアチブやEU支援プログラムは存在するか?
Does the AI Office offer AI literacy basic courses for citizens or do you have already trainings on AI that you recommend? AI事務局は市民向けのAIリテラシー基礎コースを提供しているか、または推奨する既存のAI研修はあるか?
Is there a specific competence framework when addressing AI Literacy, including for parents, children, caregivers, students and teachers? 保護者、子ども、介護者、学生、教師を含むAIリテラシー対応において、特定の能力フレームワークは存在するか?

 

・2025.07.31 Template for general-purpose AI model providers to summarise their training content

Template for general-purpose AI model providers to summarise their training content 汎用AIモデル提供者がトレーニング内容を要約するためのテンプレート
The Template aims to provide a common minimal baseline for the information to be made publicly available in the Summary of Training Content for general-purpose AI models. 本テンプレートは、汎用AIモデルのトレーニング内容要約において公開されるべき情報について、共通の最小限の基準を提供することを目的としている。
General FAQ 一般的なFAQ
What is the purpose and scope of the Template? 本テンプレートの目的と範囲は?
How did the Commission develop the template? 欧州委員会はどのようにテンプレートを開発したか?
How do these guidelines and the template support providers of general-purpose AI models in complying with the AI Act’s obligation? 本ガイドラインとテンプレートは、汎用AIモデル提供者がAI法の義務を遵守する上でどのように支援するか?
Who is expected to publish a summary of the training content? トレーニング内容の概要を公開すべき対象は?
When will the obligation for the public summary start to apply? 公開要約の義務はいつから適用されるか?
What is the added value of the public summary for promoting trust and fundamental rights protection in the EU? EUにおける信頼性向上と基本権保護の促進において、公開要約の付加価値は何か?
Will providers have to disclose trade secrets? 事業者は営業秘密を開示する必要があるのか?
What type of information should the summary contain? 要約にはどのような情報を含めるべきか?
How are copyright and intellectual property rights addressed? 著作権および知的財産権はどのように扱われるのか?
What about personal data or user data? 個人データやユーザーデータについてはどうか?
When and where must the summary be published? 要約はいつ、どこで公開しなければならないのか?
Should the Summary be updated? 要約は更新すべきか?
What about modified or fine-tuned models by the same or other providers? 同一または他の事業者による修正済みモデルや微調整済みモデルについてはどうか?
What are the consequences if a provider fails to publish a summary? 提供者が概要を公表しなかった場合の結果は?
How do the Explanatory Notice and the Template relate to the Code of Practice for general-purpose AI, and the recently published General-Purpose AI Guidelines? 説明通知とテンプレートは、汎用AIのための行動規範および最近公表された汎用AIガイドラインとどのように関連しているか?

 

・2025.07.22 Guidelines on obligations for General-Purpose AI providers

Guidelines on obligations for General-Purpose AI providers 汎用AI提供者の義務に関するガイドライン
Questions and answers on commission’s guidelines on the scope of the obligations for providers of General-Purpose AI (GPAI) models. 汎用AI(GPAI)モデル提供者の義務の範囲に関する委員会のガイドラインについての質問と回答。
General FAQ 一般的なFAQ
Why are general-purpose AI models specifically addressed in the AI Act? なぜ汎用AIモデルがAI法で特に扱われるのか?
What is the purpose of these guidelines, and how do they relate to the AI Act? これらのガイドラインの目的と、AI法との関係は?
What legal obligations do providers of general-purpose AI models face under the AI Act as of 2 August 2025? 2025年8月2日時点で、汎用AIモデル提供者はAI法下でどのような法的義務を負うのか?
How do the guidelines help identify whether a model qualifies as a general-purpose AI model? ガイドラインは、モデルが汎用AIモデルに該当するかどうかの判断にどのように役立つのか?
How can AI companies know whether they must comply with obligations for general-purpose AI models under the AI Act? AI企業は、AI法に基づく汎用AIモデルの義務を遵守する必要があるかどうかをどのように判断できるのか?
How does the AI Act balance innovation and regulation for developers modifying existing general-purpose AI models? 既存の汎用AIモデルを修正する開発者にとって、AI法はイノベーションと規制のバランスをどのように取っているのか?
Are these guidelines legally binding? これらのガイドラインは法的拘束力を持つのか?
When is a general-purpose AI model a general-purpose AI model with systemic risk? 汎用AIモデルが「システミックリスクを伴う汎用AIモデル」となるのはいつか?
If a general-purpose AI model meets the compute threshold, does it automatically become a general-purpose AI model with systemic risk? 汎用AIモデルが計算能力の閾値を満たした場合、自動的に「システミックリスクを伴う汎用AIモデル」となるのか?
Are all general-purpose AI models subject to the same requirements, or are there exemptions — such as for open-source models? 全ての汎用AIモデルが同一要件の対象となるのか、それともオープンソースモデルなどへの適用除外はあるのか?
What are the additional requirements for general-purpose AI models with systemic risk? システミックリスクを伴う汎用AIモデルに対する追加要件は何か?
How do the Commission guidelines on the scope of the obligations for providers of general-purpose AI models complement the General-Purpose AI Code of Practice released last week? 汎用AIモデル提供者の義務範囲に関する委員会のガイドラインは、先週発表された「汎用AI行動規範」をどのように補完するのか?
How were the guidelines developed, and to what extent were AI model providers and other stakeholders consulted? ガイドラインはどのように策定され、AIモデル提供者やその他の利害関係者はどの程度協議に参加したのか?
What kind of documentation obligations apply to providers of general-purpose AI models under the AI Act? AI法下で汎用AIモデル提供者に適用される文書化義務の種類は?
What are the public transparency and copyright-related obligations for all providers of general-purpose AI models? 汎用AIモデル提供者全般に課される公開透明性および著作権関連の義務は何か?
How does the AI Act ensure downstream developers have sufficient information to use general-purpose AI models responsibly? AI法は、下流開発者が汎用AIモデルを責任を持って利用するために十分な情報を得ることをどのように保証するのか?
What are the next steps on enforcement? 施行に関する次のステップは何か?

 

・2025.07.17 Signing the General-Purpose AI code of practice

Signing the General-Purpose AI code of practice 汎用AI行動規範への署名
Questions and answers on signing the General-Purpose AI (GPAI) code of practice. 汎用AI(GPAI)行動規範への署名に関する質疑応答。
General FAQ 一般的なFAQ
Who can sign the code? 誰が規範に署名できまるか?
What does signing the code imply in terms of compliance with the AI Act? 規範への署名は、AI法への準拠に関してどのような意味を持ちますか?
What is the deadline for signing? 署名の期限はいつまでか?
Can providers of general-purpose AI models without systemic risk sign up to the Safety and Security chapter? システミックリスクのない汎用AIモデルの提供者は、安全・セキュリティ章に署名できるか?
Do signatories need to comply with the full code immediately? 署名者は規範の全条項に直ちに従う必要があるか?
What happens to providers that don’t adhere to the Code? 規範を遵守しない提供者はどうなるのか?
How will the Code be updated? 規範はどのように更新されるのか?
Can a signatory withdraw their signature? 署名者は署名を撤回できるのか?

 

・2025.07.11 Questions and answers on the code of practice for General-Purpose AI

Questions and answers on the code of practice for General-Purpose AI 汎用AI行動規範に関するQ&A
This Q&A gives additional information about the General-Purpose AI Code of Practice. 本Q&Aは汎用AI行動規範に関する追加情報を提供する。
General FAQ 一般的なFAQ
What is the General-Purpose AI Code of Practice? 汎用AI行動規範とは何か?
What was the process of drafting the Code and who was involved? 規範の起草プロセスと関与者は?
How can general-purpose AI providers adhere to the Code, and what are the benefits? 汎用AIプロバイダーはどのように規範を遵守し、その利点は?
Does the Code impose additional obligations beyond the AI Act? 規範はAI法を超える追加義務を課すか?
What are the next steps after the Code is published? 規範公表後の次のステップは?
How will the Code be updated? 規範はどのように更新されるか?
What role will the Commission guidelines on general-purpose AI models play? 汎用AIモデルに関する委員会ガイドラインの役割は?
Where to find further information? 詳細情報の入手先は?

 

1_20251011084301

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.07.25 欧州委員会 汎用 AI 実践規範 (2025.07.10)

 

 

 

| | Comments (0)

欧州委員会 AI法エクスプローラー

こんにちは、丸山満彦です。

欧州委員会がAI法エクスプローラーを公表しています。AI法関連についてのまとまった情報になっていて便利かもです...そうでもないか...

 

● European Commission

AI Act Explorer

条文...

Chapter I: General Provisions 第I章:総則
Article 1: Subject matter 第1条:対象
Article 2: Scope 第2条:適用範囲
Article 3: Definitions 第3条:定義
Article 4: AI literacy 第4条:AIリテラシー
Chapter II: Prohibited AI Practices 第II章:禁止されるAIの実践
Article 5: Prohibited AI practices 第5条:禁止されるAIの実践
Chapter III: High-Risk AI System 第III章:高リスクAIシステム
Section 1: Classification of AI Systems as High-Risk 第1節:高リスクAIシステムとしての分類
Article 6: Classification rules for high-risk AI systems 第6条:高リスクAIシステムの分類規則
Article 7: Amendments to Annex III 第7条:附属書IIIの改正
Section 2: Requirements for High-Risk AI Systems 第2節:高リスクAIシステムに対する要件
Article 8: Compliance with the requirements 第8条:要件への適合
Article 9: Risk management system 第9条:リスク管理システム
Article 10: Data and data governance 第10条:データ及びデータガバナンス
Article 11: Technical documentation 第11条:技術文書
Article 12: Record-keeping 第12条:記録の保存
Article 13: Transparency and provision of information to deployers 第13条:透明性および導入者への情報提供
Article 14: Human oversight 第14条:人間の監督
Article 15: Accuracy, robustness and cybersecurity 第15条:正確性、堅牢性、サイバーセキュリティ
Section 3: Obligations of Providers and Deployers of High-Risk AI Systems and Other Parties 第3節:高リスクAIシステムの提供者、導入者、およびその他の当事者の義務
Article 16: Obligations of providers of high-risk AI systems 第16条:高リスクAIシステムの提供者の義務
Article 17: Quality management system 第17条:品質管理システム
Article 18: Documentation keeping 第18条:文書保管
Article 19: Automatically generated logs 第19条:自動生成ログ
Article 20: Corrective actions and duty of information 第20条:是正措置および情報提供義務
Article 21: Cooperation with competent authorities 第21条:管轄当局との協力
Article 22: Authorised representatives of providers of high-risk AI systems 第22条:高リスク AI システムの提供者の正式な代表者
Article 23: Obligations of importers 第23条:輸入業者の義務
Article 24: Obligations of distributors 第24条:流通業者の義務
Article 25: Responsibilities along the AI value chain 第25条:AI バリューチェーンにおける責任
Article 26: Obligations of deployers of high-risk AI systems 第26条:高リスク AI システムの導入者の義務
Article 27: Fundamental rights impact assessment for high-risk AI systems 第27条:高リスク AI システムに関する基本的権利の影響評価
Section 4: Notifying Authorities and Notified Bodies 第4 節:通知当局および通知機関
Article 28: Notifying authorities 第28条:通知当局
Article 29: Application of a conformity assessment body for notification 第29条:適合性評価機関による通知の申請
Article 30: Notification procedure 第30条:通知手続
Article 31: Requirements relating to notified bodies 第31条:認証機関に関する要件
Article 32: Presumption of conformity with requirements relating to notified bodies 第32条:認証機関に関する要件への適合の推定
Article 33: Subsidiaries of notified bodies and subcontracting 第33条:認証機関の子会社及び下請け
Article 34: Operational obligations of notified bodies 第34条:認証機関の業務上の義務
Article 35: Identification numbers and lists of notified bodies 第35条:認証機関の識別番号及びリスト
Article 36: Changes to notifications 第36条:通知の変更
Article 37: Challenge to the competence of notified bodies 第37条: 認定機関の能力に対する異議申立て
Article 38: Coordination of notified bodies 第38条: 認定機関の調整
Article 39: Conformity assessment bodies of third countries 第39条: 第三国の適合性評価機関
Section 5: Standards, Conformity Assessment, Certificates, Registration 第5節: 規格、適合性評価、証明書、登録
Article 40: Harmonised standards and standardisation deliverables 第40条: 調和規格及び標準化成果物
Article 41: Common specifications 第41条: 共通仕様
Article 42: Presumption of conformity with certain requirements 第42条: 特定の要件への適合性の推定
Article 43: Conformity assessment 第43条:適合性評価
Article 44: Certificates 第44条:証明書
Article 45: Information obligations of notified bodies 第45条:指定機関の情報提供義務
Article 46: Derogation from conformity assessment procedure 第46条:適合性評価手続の免除
Article 47: EU declaration of conformity 第47条:EU適合宣言
Article 48: CE marking 第48条:CEマーキング
Article 49: Registration 第49条:登録
Chapter IV: Transparency Obligations for Providers and Deployers of Certain AI Systems 第IV章:特定AIシステムの提供者及び導入者に対する透明性義務
Article 50: Transparency obligations for providers and deployers of certain AI systems 第50条:特定AIシステムの提供者及び導入者に対する透明性義務
Chapter V: General-Purpose AI Models 第V章:汎用AIモデル
Section 1: Classification Rules 第1節:分類規則
Article 51: Classification of general-purpose AI models as general-purpose AI models with systemic risk 第51条:汎用AIモデルをシステムリスクを伴う汎用AIモデルとして分類すること
Article 52: Procedure 第52条:手続
Section 2: Obligations for Providers of General-Purpose AI Models 第2節:汎用AIモデル提供者の義務
Article 53: Obligations for providers of general-purpose AI models 第53条:汎用AIモデル提供者の義務
Article 54: Authorised representatives of providers of general-purpose AI models 第54条:汎用AIモデル提供者の認可代理人
Section 3: Obligations of Providers of General-Purpose AI Models with Systemic Risk 第3節:システミックリスクを伴う汎用AIモデル提供者の義務
Article 55: Obligations of providers of general-purpose AI models with systemic risk 第55条:システミックリスクを伴う汎用AIモデル提供者の義務
Section 4: Codes of Practice 第4節:行動規範
Article 56: Codes of practice 第56条:行動規範
Chapter VI: Measures in Support of Innovation 第VI章:イノベーション支援措置
Article 57: AI regulatory sandboxes 第57条:AI規制サンドボックス
Article 58: Detailed arrangements for, and functioning of, AI regulatory sandboxes 第58条:AI規制サンドボックスの詳細な手配及び運用
Article 59: Further processing of personal data for developing certain AI systems in the public interest in the AI regulatory sandbox 第59条:AI規制サンドボックス内における公益目的の特定AIシステム開発のための個人データの追加処理
Article 60: Testing of high-risk AI systems in real world conditions outside AI regulatory sandboxes 第60条:AI規制サンドボックス外における実環境条件下での高リスクAIシステムの試験
Article 61: Informed consent to participate in testing in real world conditions outside AI regulatory sandboxes 第61条:AI規制サンドボックス外における実環境条件下での試験参加に関するインフォームド・コンセント
Article 62: Measures for providers and deployers, in particular SMEs, including start-ups 第62条:提供者及び導入者(特に中小企業、スタートアップを含む)に対する措置
Article 63: Derogations for specific operators 第63条:特定事業者に対する特例
Chapter VII: Governance 第VII章:ガバナンス
Section 1: Governance at Union Level 第1節:連合レベルにおけるガバナンス
Article 64: AI Office 第64条:AI事務局
Article 65: Establishment and structure of the European Artificial Intelligence Board 第65条:欧州人工知能委員会の設置及び構成
Article 66: Tasks of the Board 第66条:委員会の任務
Article 67: Advisory forum 第67条:諮問フォーラム
Article 68: Scientific panel of independent experts 第68条:独立専門家による科学パネル
Article 69: Access to the pool of experts by the Member States 第69条:加盟国による専門家プールへのアクセス
Section 2: National competent authorities 第2節:国内管轄当局
Article 70: Designation of national competent authorities and a single point of contact 第70条:国内管轄当局及び単一窓口の指定
Chapter VIII: EU Database for High-Risk AI Systems 第VIII章:高リスクAIシステムに関するEUデータベース
Article 71: EU database for high-risk AI systems listed in Annex III 第71条:附属書IIIに掲げる高リスクAIシステムに関するEUデータベース
Chapter IX: Post-Market Monitoring, Information Sharing and Market Surveillance 第IX章:市販後監視、情報共有及び市場監視
Section 1: Post-Market Monitoring 第1節:市販後監視
Article 72: Post-market monitoring by providers and post-market monitoring plan for high-risk AI systems 第72条:提供者による市販後監視及び高リスクAIシステムに関する市販後監視計画
Section 2: Sharing of Information on Serious Incidents 第2節:重大なインシデントに関する情報の共有
Article 73: Reporting of serious incidents 第73条:重大なインシデントの報告
Section 3: Enforcement 第3節:執行
Article 74: Market surveillance and control of AI systems in the Union market 第74条:EU市場におけるAIシステムの市場監視及び管理
Article 75: Mutual assistance, market surveillance and control of general-purpose AI systems 第75条:相互支援、汎用AIシステムの市場監視及び管理
Article 76: Supervision of testing in real world conditions by market surveillance authorities 第76条:市場監視当局による実環境条件下での試験の監督
Article 77: Powers of authorities protecting fundamental rights 第77条:基本権を保護する当局の権限
Article 78: Confidentiality 第78条:守秘義務
Article 79: Procedure at national level for dealing with AI systems presenting a risk 第79条:リスクを伴うAIシステムへの対応に関する国内レベルの手続き
Article 80: Procedure for dealing with AI systems classified by the provider as non-high-risk in application of Annex III 第80条:付属書IIIの適用に基づき提供者が非高リスクと分類したAIシステムへの対応手続き
Article 81: Union safeguard procedure 第81条:連合のセーフガード手続き
Article 82: Compliant AI systems which present a risk 第82条:リスクを伴う適合AIシステム
Article 83: Formal non-compliance 第83条:正式な不適合
Article 84: Union AI testing support structures 第84条:連合AI試験支援体制
Section 4: Remedies 第4節:救済措置
Article 85: Right to lodge a complaint with a market surveillance authority 第85条:市場監視当局への苦情申立権
Article 86: Right to explanation of individual decision-making 第86条:個別意思決定の説明を受ける権利
Article 87: Reporting of infringements and protection of reporting persons 第87条:違反行為の報告及び報告者の保護
Section 5: Supervision, Investigation, Enforcement and Monitoring in Respect of Providers of General-Purpose AI Models 第5節:汎用AIモデル提供者に対する監督、調査、執行及び監視
Article 88: Enforcement of the obligations of providers of general-purpose AI models 第88条:汎用AIモデル提供者の義務の執行
Article 89: Monitoring actions 第89条:監視措置
Article 90: Alerts of systemic risks by the scientific panel 第90条:科学パネルによるシステミックリスクの警報
Article 91: Power to request documentation and information 第91条:文書及び情報の要求権限
Article 92: Power to conduct evaluations 第92条:評価実施権限
Article 93: Power to request measures 第93条:措置要求権限
Article 94: Procedural rights of economic operators of the general-purpose AI model 第94条:汎用AIモデルの経済事業者の手続上の権利
Chapter X: Codes of Conduct and Guidelines 第X章:行動規範及びガイドライン
Article 95: Codes of conduct for voluntary application of specific requirements 第95条:特定の要件の自主的適用に関する行動規範
Article 96: Guidelines from the Commission on the implementation of this Regulation 第96条:本規則の実施に関する委員会のガイドライン
Chapter XI: Delegation of Power and Committee Procedure 第XI章:権限の委任及び委員会手続
Article 97: Exercise of the delegation 第97条:委任の行使
Article 98: Committee procedure 第98条:委員会手続
Chapter XII: Penalties 第XII章:罰則
Article 99: Penalties 第99条:罰則
Article 100: Administrative fines on Union institutions, bodies, offices and agencies 第100条:連合機関、機関、事務所及び機関に対する行政罰金
Article 101: Fines for providers of general-purpose AI models 第101条:汎用AIモデル提供者に対する罰金
Chapter XIII: Final Provisions 第XIII章:最終規定
Article 102: Amendment to Regulation (EC) No 300/2008 第102条:規則(EC)第300/2008号の改正
Article 103: Amendment to Regulation (EU) No 167/2013 第103条:規則(EU)第167/2013号の改正
Article 104: Amendment to Regulation (EU) No 168/2013 第104条:規則(EU)第168/2013号の改正
Article 105: Amendment to Directive 2014/90/EU 第105条:指令2014/90/EUの改正
Article 106: Amendment to Directive (EU) 2016/797 第106条:指令(EU)2016/797の改正
Article 107: Amendment to Regulation (EU) 2018/858 第107条:規則(EU)2018/858の改正
Article 108: Amendments to Regulation (EU) 2018/1139 第108条:規則(EU)2018/1139の改正
Article 109: Amendment to Regulation (EU) 2019/2144 第109条:規則(EU)2019/2144の改正
Article 110: Amendment to Directive (EU) 2020/1828 第110条:指令(EU)2020/1828の改正
Article 111: AI systems already placed on the market or put into service and general-purpose AI models already placed on the market 第111条:既に市場に流通している、または使用されているAIシステム及び既に市場に流通している汎用AIモデル
Article 112: Evaluation and review 第112条:評価及び見直し
Article 113: Entry into force and application 第113条:発効及び適用

 

附属書

Annexes 附属書
Annex I 附属書 I
Annex II 附属書II
Annex III 附属書 III
Annex IV 附属書IV
Annex V 附属書 V
Annex VI 附属書 VI
Annex VII 附属書VII
Annex VIII 附属書VIII
Annex IX 附属書IX
Annex X 附属書X
Annex XI 附属書XI
Annex XII 附属書XII
Annex XIII 附属書XIII

 

リサイタルもあります...

省略しますけど...

 

1_20251011084301

 

 

 


 

⚫︎ まるちゃんの情報セキュリティ気まぐれ日記

・2025.09.04 欧州議会 Think Tank 欧州連合(EU)のAI行動規範 (2025.08.27)

・2025.07.31 欧州委員会 AI法における汎用AIモデル提供者の義務範囲に関するガイドライン(2025.07.18)

・2025.07.25 欧州委員会 汎用 AI 実践規範 (2025.07.10)

・2025.04.11 欧州委員会 AI大陸行動計画 (2025.04.09)

・2025.03.13 欧州委員会 AI法における汎用AIモデル - Q&A (2025.03.10)

・2025.02.08 欧州委員会 規則(EU)2024/1689(AI法)が定める人工知能の禁止行為に関する欧州委員会ガイドライン

・2024.12.22 欧州委員会 汎用AI実践規範の第2ドラフトを発表 (2024.12.19)

・2024.12.06 欧州委員会 AI法における汎用AIモデル - Q&A (2024.11.20)

・2024.11.17 欧州委員会 汎用AI実践規範の最初のドラフトを発表 (2024.11.14)

・2024.10.30 欧州 AI法の調和標準の策定について...

・2024.09.08 欧州評議会 AI条約の署名開始... (2024.09.05)

・2024.08.05 欧州AI法が施行された... (2024.08.01)

・2024.07.19 ドイツ BfDI フランス CNIL オランダ AP EU AI法関連

・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された

・2024.05.22 EU 欧州理事会がAI法を承認...まもなく発効されますね...

・2024.03.19 欧州議会 AI法 (2024.03.13) とサイバーレジリエンス法を採択 (2024.03.12)

・2023.12.10 欧州委員会、欧州議会がAI法について政治的合意

・2022.12.08 EU理事会 AI法に関する見解を採択

・2022.09.30 欧州委員会 AI責任指令案

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

 

 

 

 

| | Comments (0)

2025.10.10

欧州議会 Think Tank 欧州をAI大陸にする (2025.09.22)

こんにちは、丸山満彦です。

欧州議会 Think Tank 欧州をAI大陸にするというブリーフィングを公表していました...

EUでは、AI大陸行動計画を2025.04.09に公表していまが、その進捗の解説ですかね...

AI大陸行動では、次の5つの目標をたてていますね...

  1. 大規模なAIデータ・計算インフラの構築
  2. データへのアクセス改善
  3. 戦略的EU分野におけるイノベーション促進とAI導入加速
  4. AIスキルと人材の強化
  5. 規制順守と簡素化の促進

さて、日本はどうなっているのでしょうかね...

 

European Parliament - Think Tank

・2025.09.22 Making Europe an AI continent

Making Europe an AI continent 欧州をAI大陸にする
As the global race to harness the power of artificial intelligence (AI) accelerates, the European Union has set the objective of becoming a leading AI continent. The adoption of the Artificial Intelligence Act in 2024 was a milestone in establishing a comprehensive regulatory framework for AI in the EU, but regulation alone cannot make the EU a technological leader. In April 2025, the European Commission published an AI continent action plan, a communication that attempts to look beyond rules and combine regulatory oversight with investment, infrastructure and skills development. It also aims to increase the use of AI in both the private and public sector. The plan illustrates the Commission's growing attention to competitiveness, moving away from its previous focus on setting usage rules Despite progress in some areas, the EU is still far from being a global leader in AI, in terms of scale, investment, and uptake of AI. Structural weaknesses such as a fragmented single market, limited private investment, and reliance on foreign cloud and semiconductor technology continue to hinder progress. Stakeholders are divided on the road to follow. While industry representatives call for simplifying regulation to boost innovation, civil society warns against sacrificing democratic safeguards. The EU's prospects of becoming an AI continent depend not only on its ability to implement the AI continent action plan but also on its decisiveness in acting on other fronts such as making progress on the Savings and Investments Union, and its progress in reducing reliance on foreign technologies. The European Parliament will play a central role in scrutinising the Commission's activities and shaping legislation such as the forthcoming Cloud and AI Development Act. 人工知能(AI)の力を活用する世界的な競争が加速する中、欧州連合(EU)はAI分野で主導的な大陸となる目標を掲げた。2024年に採択された人工知能法は、EUにおける包括的なAI規制枠組みの確立における画期的な出来事であった。しかし規制だけではEUを技術的リーダーにはできない。2025年4月、欧州委員会は「AI大陸行動計画」を発表した。これは規制の枠組みを超え、規制監督と投資・インフラ・技能開発を組み合わせようとする試みである。また民間・公共部門双方におけるAI活用の拡大も目指している。この計画は、欧州委員会が従来の利用規則設定から脱却し、競争力への関心を強めていることを示している。一部の分野では進展が見られるものの、規模、投資、AI導入の観点から、EUがAI分野で世界のリーダーとなるには程遠い。単一市場の分断、民間投資の不足、外国のクラウド・半導体技術への依存といった構造的弱点が、依然として進展を妨げている。関係者間の意見は分かれている。産業界代表はイノベーション促進のため規制簡素化を要求する一方、市民社会は民主的保護措置の犠牲化に警鐘を鳴らしている。EUが「AI大陸」となる見通しは、AI大陸行動計画の実施能力だけでなく、貯蓄・投資連合の進展や外国技術への依存度低減といった他分野での決断力にもかかっている。欧州議会は、欧州委員会の活動を監視し、今後制定されるクラウド・AI開発法などの立法形成において中心的な役割を担う。

 

・[PDF]

20251008-174802

 

・[DOCX][PDF] 仮訳

 

Introduction  序論 
Geopolitical context  地政学的背景 
The AI continent action plan: Progress so far  AI大陸行動計画:これまでの進捗 
Multi-level governance and implementation of the action plan  多層のガバナンスと行動計画の実施 
Stakeholders' views  関係者の見解 
Outlook  展望 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.11 欧州委員会 AI大陸行動計画 (2025.04.09)

 

 

| | Comments (0)

2025.10.09

英国 ICOの内部AI利用規定が公表され、多くの人が参考にできるようになっていますね...

こんにちは、丸山満彦です。

英国の情報保護局(Information Commissioner's Office)がAI利用規定を公表しています。多くの組織にとって参考になると思います...

2025年8月5日に制定され、25日一部修正がされているものです。。。

 

特にセクション4の方針の部分は参考になります...

 

Information Commissioner's Office

・[PDF

20251008-160344

・[DOCX][PDF] 仮訳

 

 

目次...

Foreword まえがき
Key messages 主なメッセージ
Does this policy relate to me? この方針は私に関係あるか?
Contents 目次
1. Introduction 1. 序論
2. How we define AI for the purpose of this policy 2. 本方針におけるAIの定義
3. Internal AI use principles 3. 内部AI利用原則
4. Policy requirements 4. 方針要件
4.1. Requirements when using AI at the ICO 4.1 ICOにおけるAI利用時の要件
4.2. AI training and awareness 4.2 AIトレーニングと意識向上
5. Other considerations you should give when using, procuring or developing AI tools: 5. AIツールの使用、調達、開発時に考慮すべきその他の事項:
5.1.  Accountability, decision-making and governance, particularly in the procurement context 5.1 説明責任、意思決定、ガバナンス(特に調達における)
5.2.  Proportionality 5.2 比例性
5.3.  Logging decisions around AI 5.3 AIに関する決定の記録
5.4.  Accountability for AI governance 5.4 AIガバナンスの責任所在
5.5.  Logging AI available to staff 5.5 職員が利用可能なAIの記録
5.6.  Impact assessment, fairness and explainability 5.6 影響アセスメント、公平性、説明可能性
5.7.  Safety, security and robustness 5.7 安全性、セキュリティ、堅牢性
5.8.  AI verification and validation 5.8 AIの検証と妥当性確認
5.9.  AI performance monitoring 5.9 AIのパフォーマンス監視
5.10. Transparency and documentation 5.10 透明性と文書化
5.11. Security classification of AI inputs and outputs 5.11 AI入力・出力の機密分類
5.12.  Feedback loop and change management 5.12 フィードバックループと変更管理
5.13.  Contestability and redress 5.13 異議申立と救済
5.14.  Change management 5.14 変更管理
5.15.  Re-evaluation and retirement 5.15 再評価と廃止
6. Policy compliance 6. 方針遵守
Feedback on this document この文書に関するフィードバック
Document Control 文書管理
Version history 改訂履歴
Annex A – AI Screener 附属書A – AIスクリーナー
Annex B – Full AI use case specification! 附属書B – 完全なAIユースケース仕様書!
Annex C - What do you need to know about AI? 附属書C - AIについて知っておくべきこと
Machine learning and adaptability 機械学習と適応性
From automation to autonomy and the human-in-the-loop 自動化から自律性、そしてヒューマン・イン・ザ・ループへ
Agentic AI (or AI Agents) Harm エージェント型AI(またはAIエージェント)の危害
Generative AI 生成的AI
Opportunities 機会
Risks リスク
Assessing opportunity and risk 機会とリスクの評価
Forms of AI AIの形態
Lifecycle ライフサイクル

 

セクション4...

4. Policy requirements 4. 方針要件
4.1 Requirements when using AI at the ICO  4.1 ICOにおけるAI利用時の要件 
4.1.1. You should only use AI that has been approved by the ICO for internal use (following the appropriate ICO governance process). You should only use ICO approved devices to access AI tools and systems for corporate work.  4.1.1. 内部利用については、ICOが承認したAIのみを使用すること(適切なICOガバナンスプロセスに従う)。業務でAIツールやシステムにアクセスする際は、ICO承認デバイスのみを使用すること。 
4.1.2. You should only use AI tools in a way which is consistent with published guidance and training on the use of the tool deployed by the ICO.  4.1.2. AIツールは、ICOが公開した当該ツールの使用に関するガイダンス及びトレーニングが展開された方法でのみ使用すること。 
4.1.3.  You should be transparent about your use of AI as appropriate and proportionate. This includes being clear where your work includes AI generated outputs, marking them to be clear that is the case (e.g. providing a clear statement linked to a specific portion of text or image using a footnote to specify ‘This text/image was generated using AI’).  4.1.3. AIの使用については、適切かつ均衡の取れた形で透明性を確保しなければならない。これには、業務成果物に生成的AI出力が含まれる場合、その旨を明確に表示することが含まれる(例:特定のテキストや画像部分に脚注を付し、「このテキスト/画像はAIを用いて生成された」と明記する)。 
4.1.4. You should ensure that all AI outputs are reviewed by a human reviewer, unless agreed otherwise by the appropriate approval body (Data, AI and Automation programme Board, DAA), taking into account relevant risks and impacts on users, data subjects or the quality of ICO’s own outputs. For example, manual review of all outputs may not be necessary, where the impact is low, or other safeguards have been identified, documented and adopted. When reviewing AI generated outputs, you should ensure that the output is accurate, amending where necessary.  4.1.4. 適切な承認団体(データ・AI・自動化プログラム委員会、DAA)が別途合意した場合を除き、すべてのAI出力を人間のレビュー担当者が確認すること。この際、ユーザー、データ対象者、またはICO自身の出力品質に対する関連リスクと影響を考慮に入れること。例えば、影響が低い場合や、他の安全対策が識別・文書化・採用されている場合には、全出力の手動レビューは必ずしも必要ではない。AI生成出力をレビューする際は、その正確性を確認し、必要に応じて修正すべきである。 
4.1.5. You should only use AI in activity involving the use or processing of any personal, sensitive or confidential information when permitted by the ICO (in line with ICO’s appropriate internal governance processes and policies e.g. privacy by design procedures, security assessments and Architecture Design Authority approval). Where the ICO has approved use of AI which includes the processing of personal or sensitive information, data protection compliance is paramount. You should ensure that any processing meets all of the ICO’s obligations. This includes the requirement to comply with the principle of data minimisation (i.e. only using personal data that is limited to what is necessary for your purposes). Please contact the Information Management team, Cyber Security team and the Architecture Design Authority if you require further information.  4.1.5. 個人情報、機微情報、機密情報の利用または処理を伴う活動においてAIを使用するのは、ICOが許可した場合に限る(ICOの適切な内部ガバナンスプロセスおよび方針、例えばプライバシー・バイ・デザイン手順、セキュリティアセスメント、アーキテクチャ設計承認権限の承認に沿って)。ICOが個人情報または機微情報の処理を含むAIの使用を承認した場合、データ保護コンプライアンスが最優先事項である。あらゆる処理がICOの義務を全て満たすことを保証すべきである。これにはデータ最小化の原則(目的達成に必要な範囲に限定した個人データのみを使用する)への準拠要件が含まれる。詳細情報が必要な場合は、情報管理チーム、サイバーセキュリティチーム、アーキテクチャ設計権限者に連絡すること。 
4.1.6. Advice that is typically given by licensed professionals, like accountants or lawyers, should only be obtained by the appropriate licensed professional and not AI. (This should not prevent AI being used to assist professionals in their work provided that the work is validated before sharing).  4.1.6. 会計士弁護士などの有資格専門家が通常提供する助言は、適切な有資格専門家によってのみ取得すべきであり、AIによって取得すべきではない。(ただし、共有前に作業が妥当性確認されることを条件に、AIが専門家の業務を支援するために使用されることを妨げるものではない) 
4.1.7. You should only use AI for solely automated decision-making (ADM) when this is appropriate, i.e. when there would be no legal effect or similarly significant effect on an individual or group. If you think you may use AI for making such a decision, you must consult ICO’s guidance on ADM and Legal Services colleagues as necessary, to ensure you are meeting regulatory requirements.   4.1.7. 完全に自動化された意思決定(ADM)にAIを使用するのは、それが適切な場合、すなわち な個人または集団に法的効果または同等の重大な影響が生じない場合に限る。そのような意思決定にAIを使用する可能性がある場合は、規制要件を満たしていることを確認するため、必要に応じてICOのADMガイダンスおよび法務サービス担当者と相談しなければならない。  
4.1.8. You should check AI-generated contents before publishing to make sure you are not infringing the intellectual property rights of a third party – if in doubt you should speak to the Contracts and Compliance team in Legal Services.  4.1.8. 公開前にAI生成コンテンツを確認し、第三者の知的財産権を侵害していないことを確認すること。疑わしい場合は法務部門の契約・コンプライアンスチームに相談すること。
4.1.9. You should consider the appropriate security classification of inputs into and outputs from AI, taking account of the ICO’s legal obligations as a public sector body.  4.1.9. 公共部門機関としてのICOの法的義務を考慮し、AIへの入力および出力に対する適切なセキュリティ分類を検討すべきである。 
4.1.10.  You should not knowingly use AI in a way that causes, or may cause, significant risk of harm to individuals, groups or the reputation of the ICO, or breach any regulatory requirements.  4.1.10. 個人、集団、またはICOの評判に重大なリスクをもたらす、またはその恐れがある方法、あるいは規制要件に違反する方法で、故意にAIを使用してはならない。 
4.1.11. You should flag any concerns, incidents or questions relating to internal AI use at the earliest opportunity to your manager and/or the system owner.  4.1.11. 内部でのAI利用に関する懸念事項、インシデント、疑問点は、可能な限り早期に上司および/またはシステム所有者に報告すべきである。 
4.2 AI training and awareness  4.2 AIトレーニングと意識向上 
General AI literacy  一般的なAIリテラシー 
4.2.1. The ICO’s senior leadership team should ensure all staff have access to high-quality general AI literacy training sufficient to enable them to identify and specify potential AI opportunities, to appreciate the potential risks of AI use and to understand the importance of transparency and explainability in AI-enabled systems.  4.2.1. ICOの上級管理職チームは、全職員が以下の能力を身につけられるよう、質の高い一般的なAIリテラシー研修へのアクセスを確保すべきである:AI活用の可能性を識別・明確化する能力、AI利用の潜在リスクを認識する能力、AI搭載システムにおける透明性と説明可能性の重要性を理解する能力。 
Specific training on an AI system  AIシステムに関する特定トレーニング 
4.2.2. All users of a planned AI deployment should be given relevant training, prior to product deployment, covering its scope (appropriate use), limitations including legal requirements, how to use it effectively and efficiently, and how to provide feedback and report incidents.  4.2.2. 計画中のAI展開の全ユーザーは、製品展開前に、その範囲(適切な使用法)、法的要件を含む制限事項、効果的・効率的な使用方法、フィードバックの提供方法およびインシデントの報告方法を含む関連トレーニングを受けるべきである。 

 

 

 

 

 

| | Comments (0)

OECD 方針文書:AIトレーニングのための関連データ収集メカニズムのマッピング(2025.10.03)他

こんにちは、丸山満彦です。

OECDがいくつかのAIに関する方針文書と作業文書(ワーキングペーパー)を公表していたので、まとめて備忘録...

 

2025.10.03 Policy paper: Mapping relevant data collection mechanisms for AI training 方針文書:AIトレーニングのための関連データ収集メカニズムのマッピング
2025.09.26 Working paper: Advancing the measurement of investments in artificial intelligence 作業文書:人工知能への投資測定の推進
2025.09.25 Working paper: How are AI developers managing risks? - Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct 作業文書:AI開発者はリスクをどのように管理しているか? - 広島AIプロセス行動規範の報告枠組みへの回答から得られた知見
2025.09.25 Working paper: Leveraging artificial intelligence to support students with special education needs 作業文書:特別支援教育を必要とする生徒の学習目標達成に向けた人工知能の活用
2025.08.14 Policy paper: AI openness 方針文書:AIのオープン性
2025.07.31 Working paper: Exploring win-win outcomes of algorithmic management 作業文書:アルゴリズム管理におけるウィンウィンの成果の探求
2025.06.30 Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies 作業文書:G7経済圏における人工知能(AI)によるマクロ経済的生産性向上
2025.06.30 Policy paper: AI and the future of social protection in OECD countries 方針文書:OECD諸国におけるAIと社会保障の未来
2025.06.27 Working paper: Is generative AI a General Purpose Technology? - Implications for productivity and policy 作業文書:生成AIは汎用技術か? - 生産性と政策への示唆

 

 

OECD

・2025.10.03 Policy paper: Mapping relevant data collection mechanisms for AI training

Policy paper: AI openness 方針文書:AIのオープン性
Abstract 要旨
This paper explores the concept of openness in artificial intelligence (AI), including relevant terminology and how different degrees of openness can exist. It explains why the term "open source" – a term rooted in software – does not fully capture the complexities specific to AI. This paper analyses current trends in open-weight foundation models using experimental data, illustrating both their potential benefits and associated risks. It incorporates the concept of marginality to further inform this discussion. By presenting information clearly and concisely, the paper seeks to support policy discussions on how to balance the openness of generative AI foundation models with responsible governance. 本稿は人工知能(AI)におけるオープン性の概念を探求し、関連用語や異なるレベルのオープン性の存在形態を考察する。ソフトウェア分野に由来する「オープンソース」という用語がAI特有の複雑性を完全に捉えきれない理由を説明する。実験データを用いてオープン重み付け基盤モデルの現状動向を分析し、その潜在的利点と関連リスクを明らかにする。議論を深めるため限界性の概念を取り入れている。情報を明確かつ簡潔に提示することで、生成AI基盤モデルの開放性と責任あるガバナンスのバランスに関する政策議論を支援することを目的とする。

 

・[PDF]

20251008-54829

 

 


・2025.09.26 Working paper: Advancing the measurement of investments in artificial intelligence

 

Working paper: Advancing the measurement of investments in artificial intelligence 作業文書:人工知能への投資測定の推進
Abstract 要旨
This working paper presents a methodology for estimating public and private artificial intelligence (AI) investments in European Union (EU) Member States, focusing on assets and capabilities. It categorises investments into four groups: skills, research and development, data and equipment, and other intellectual property products. Using publicly available national accounts and sector-specific sources, AI investments are estimated by applying AI intensity coefficients derived from patent data, academic programmes, and workforce statistics. The estimates highlight how AI investments are distributed across EU countries. The methodology also disaggregates investments in areas such as information and communication technologies, specialist remuneration, corporate training, software and databases, and telecommunications equipment. This work supports efforts to measure the evolving AI investment landscape in the EU. 本作業文書は、欧州連合(EU)加盟国における公的・民間の人工知能(AI)投資を、資産と能力に焦点を当てて推定する手法を提示する。投資をスキル、研究開発、データ・設備、その他の知的財産製品の4グループに分類する。公開されている国民経済計算及び業種別情報源を用い、特許データ、学術プログラム、労働力統計から導出されたAI集約度係数を適用することでAI投資を推計する。この推計は、EU諸国におけるAI投資の分布状況を明らかにする。本手法は、情報通信技術、専門家報酬、企業研修、ソフトウェア・データベース、通信機器などの分野への投資を細分化する。本研究は、EUにおける進化するAI投資環境の測定努力を支援するものである。

 

 

・[PDF]

20251008-54834

 


・2025.09.25 Working paper: How are AI developers managing risks?

Working paper: How are AI developers managing risks? 作業文書:AI開発者はリスクをどのように管理しているか?
Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct 広島AIプロセス行動規範の報告枠組みへの回答から得られた知見
Abstract 要旨
Rapid advances in artificial intelligence (AI) are reshaping economies and societies, creating significant opportunities while also raising important considerations around the effective governance and risk management of advanced AI systems. Launched in February 2025, the Hiroshima AI Process Reporting Framework is the first international, voluntary tool to help organisations report on their practices compared to the Hiroshima AI Process International Code of Conduct for Organisations Developing Advanced AI Systems. This report presents preliminary insights from submissions by 20 organisations across diverse sectors and countries, examining their approaches to risk identification and management, transparency, governance, content authentication, AI safety research, and the advancement of global interests. 人工知能(AI)の急速な進歩は経済と社会を再構築し、大きな機会を生み出す一方で、高度なAIシステムの効果的なガバナンスとリスク管理に関する重要な考慮事項も提起している。2025年2月に開始された「広島AIプロセス報告枠組み」は、先進的AIシステムを開発する組織向けの「広島AIプロセス国際行動規範」に照らした自組織の実践状況を報告するための、初の国際的かつ自主的なツールである。本報告書は、多様な分野・国々の20組織からの提出資料に基づく予備的知見を提示し、リスクの特定・管理、透明性、ガバナンス、コンテンツ認証、AI安全研究、およびグローバルな利益の推進に関する各組織のアプローチを検証する。

 

・[PDF]

20251008-54840

 


・2025.09.25 Working paper: Leveraging artificial intelligence to support students with special education needs

Working paper: Leveraging artificial intelligence to support students with special education needs 作業文書:特別支援教育を必要とする生徒の学習目標達成に向けた人工知能の活用
Abstract 要旨
This working paper examines how artificial intelligence (AI) can support students with special education needs (SEN) to achieve their learning goals, while underlining key risks and limitations. It defines central terms and the rationale for using AI in this context and reviews a selection of research-backed AI tools that aim to empower students with SEN. Based on this review, it highlights risks and limitations to consider and mitigate when procuring, creating and employing AI-enabled tools for students with SEN and beyond. The paper discusses governance and operational mechanisms for ensuring their implementation is ethical, sustainable and secure. It concludes with policy considerations for developing, selecting and integrating AI tools to foster inclusive education, particularly related to ethical design, research and monitoring, data protection and security, and accountability. 本作業文書は、人工知能(AI)が特別支援教育を必要とする生徒(SEN)の学習目標達成をいかに支援できるかを検証するとともに、主要なリスクと限界を強調する。この文脈におけるAI活用の核心用語と根拠を定義し、SEN生徒の能力強化を目的とした研究裏付けのあるAIツールを厳選して検討する。この検討に基づき、SEN生徒およびそれ以外の生徒向けにAI搭載ツールを調達・開発・導入する際に考慮・軽減すべきリスクと限界を指摘する。本稿では、その導入が倫理的、持続可能かつ安全であることを保証するためのガバナンスと運用メカニズムについて論じる。最後に、特に倫理的な設計、研究とモニタリング、データ保護とセキュリティ、説明責任に関連して、インクルーシブ教育を促進するためのAIツールの開発、選択、統合に関する政策上の考慮事項を結論として提示する。

 

・[PDF]

20251008-54845

 


・2024.08.14 Policy paper: AI openness

Policy paper: AI openness 方針文書:AIのオープン性
Abstract 要旨
This paper explores the concept of openness in artificial intelligence (AI), including relevant terminology and how different degrees of openness can exist. It explains why the term "open source" – a term rooted in software – does not fully capture the complexities specific to AI. This paper analyses current trends in open-weight foundation models using experimental data, illustrating both their potential benefits and associated risks. It incorporates the concept of marginality to further inform this discussion. By presenting information clearly and concisely, the paper seeks to support policy discussions on how to balance the openness of generative AI foundation models with responsible governance. 本稿は人工知能(AI)におけるオープン性の概念を探求し、関連用語や異なるレベルのオープン性の存在形態を考察する。ソフトウェア分野に由来する「オープンソース」という用語がAI特有の複雑性を完全に捉えきれない理由を説明する。実験データを用いてオープン重み付け基盤モデルの現状動向を分析し、その潜在的利点と関連リスクを明らかにする。議論を深めるため限界性の概念を取り入れている。情報を明確かつ簡潔に提示することで、生成AI基盤モデルの開放性と責任あるガバナンスのバランスに関する政策議論を支援することを目的とする。

 

 

・[PDF]

20251008-54850

 


・2025.07.31 Working paper: Exploring win-win outcomes of algorithmic management

Working paper: Exploring win-win outcomes of algorithmic management 作業文書:アルゴリズム管理におけるウィンウィンの成果の探求
Abstract 要旨
This research project explores how worker consultation can deliver “win-win” outcomes for firms and workers in the context of the introduction of an algorithmic management system in firms. It does so using a novel research design: a laboratory experiment involving worker participants carried out in three German manufacturing firms in which a simulation of an algorithmic management system was altered to affect firm outcomes (productivity) and worker outcomes (job quality). The results show that consultations between workers, managers and works council representatives can lead to agreement on the design of a new technology that stakeholders deem to preserve firm-level productivity gains while also improving workers’ job quality. The project advances research methods for understanding the dynamics underlying worker consultation and how it can be beneficial in contexts of new technology introduction. Further research should expand the scope of this methodology (in terms of the number of participants, sectors and other countries), to substantiate the findings. 本研究プロジェクトは、企業におけるアルゴリズム管理システムの導入という文脈において、労働者との協議が企業と労働者の双方にとって「ウィンウィン」の結果をもたらす方法を模索する。そのために、独創的な研究デザインを採用している:ドイツの3つの製造企業で実施された労働者参加型の実験室実験であり、アルゴリズム管理システムのシミュレーションを改変して企業成果(生産性)と労働者成果(仕事の質)に影響を与えた。結果は、労働者・管理職・労働評議会代表者間の協議が、企業レベルの生産性向上を維持しつつ労働者の仕事の質を改善すると関係者が判断する新技術設計への合意につながることを示した。本プロジェクトは、労働者協議の基盤となる力学と、新技術導入の文脈におけるその有益性を理解するための研究手法を発展させる。今後の研究では、この方法論の範囲(参加者数、業種、他国)を拡大し、知見を実証すべきである。

 

 

・[PDF]

20251008-54855

 


・2025.06.30 Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies

Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies 作業文書:G7経済圏における人工知能(AI)によるマクロ経済的生産性向上
Abstract 要旨
The paper studies the expected macroeconomic productivity gains from Artificial Intelligence (AI) over a 10-year horizon in G7 economies. It builds on our previous work that introduced a micro-to-macro framework by combining existing estimates of micro-level performance gains with evidence on the exposure of activities to AI and likely future adoption rates. This paper refines and extends the estimates from the United States to other G7 economies, in particular by harmonising current adoption rate measures among firms and updating future adoption path estimates. Across the three scenarios considered, the estimated range for annual aggregate labour productivity growth due to AI range between 0.4-1.3 percentage points in countries with high AI exposure – due to stronger specialisation in highly AI-exposed knowledge intensive services such as finance and ICT services – and more widespread adoption (e.g. United States and United Kingdom). In contrast, projected gains in several other G7 economies are up to 50% smaller, reflecting differences in sectoral composition and assumptions about the relative pace of AI adoption. 本稿は、G7経済圏における人工知能(AI)の10年間にわたるマクロ経済的生産性向上の見込みを分析する。既存のミクロレベルにおけるパフォーマンス向上の推計値と、AIへの活動露出度および将来の採用率に関する証拠を組み合わせたミクロからマクロへの枠組みを導入した我々の先行研究を発展させたものである。本稿では、米国から他のG7諸国への推計を精緻化・拡張し、特に企業間の現行導入率指標の調和化と将来導入経路推計の更新を行った。検討した3つのシナリオにおいて、AIの影響度が高い国々(金融やICTサービスなどAIの影響を強く受ける知識集約型サービスへの高度な特化が進み、導入がより広範な米国や英国など)では、AIによる年間総労働生産性成長率の推定値は0.4~1.3パーセントポイントの範囲となる。対照的に、他のいくつかのG7経済圏では、部門構成の違いやAI導入の相対的なペースに関する仮定の違いを反映し、予測される利益は最大50%小さくなっている。

 

 

・[PDF]

20251008-54900

 


・2025.06.30 Policy paper: AI and the future of social protection in OECD countries

Policy paper: AI and the future of social protection in OECD countries 方針文書:OECD諸国におけるAIと社会保障の未来
Abstract 要旨
Governments in OECD countries are increasingly applying advanced uses of data and technology to improve the coverage, effectiveness and efficiency of social programmes, yet they are proceeding with caution when introducing artificial intelligence (AI). Common AI uses in social protection include client support, automating back-office processes and fraud detection. Looking ahead, there is significant potential for AI to help improve the performance of social programmes – including through predictive analytics, enhanced outreach and better-tailored interventions – but governments must continue to build trust and foster transparency when using AI. OECD諸国の政府は、社会保障プログラムの適用範囲、効果、効率性を向上させるため、データと技術の高度な活用をますます進めているが、人工知能(AI)の導入には慎重な姿勢を示している。社会保障分野におけるAIの一般的な用途には、クライアント支援、バックオフィス業務の自動化、不正検知などが含まれる。今後、予測分析、アウトリーチ強化、より適切な介入などを通じて、AIが社会プログラムのパフォーマンス向上に大きく貢献する可能性はあるが、政府はAI利用において信頼構築と透明性確保を継続しなければならない。

 

 

・[PDF]

20251008-54906

 


・2025.06.27 Working paper: Is generative AI a General Purpose Technology?

Working paper: Is generative AI a General Purpose Technology? 作業文書:生成AIは汎用技術か?
Implications for productivity and policy 生産性と政策への示唆
Abstract 要旨
The rapid rise of generative AI has sparked discussions about its potentially transformative effects and whether the technology will bring significant benefits in the form of widespread productivity increases. Through a review of theoretical literature and early empirical evidence, including novel descriptive analysis, this study suggests that generative AI has considerable potential to qualify as a new general-purpose technology (GPT). Despite the early evidence, generative AI appears to exhibit the defining characteristics of GPTs: i) pervasiveness, ii) continuous improvement over time and iii) innovation spawning. While productivity gains may not materialise immediately, the evolution of earlier GPTs seems to provide encouraging signs that generative AI could lead to substantial improvements in productivity in the future, notably through the innovation-spawning channel. The full realisation of generative AI’s productivity potential in the long-term will depend on the implementation of relevant policies. 生成AIの急速な台頭は、その変革的な影響の可能性と、この技術が広範な生産性向上という形で大きな利益をもたらすかどうかについての議論を喚起している。理論的文献と初期の実証的証拠(新規記述分析を含む)のレビューを通じて、本研究は生成AIが新たな汎用技術(GPT)として認定される可能性を十分に有していることを示唆する。初期段階の証拠にもかかわらず、生成AIはGPTの定義的特徴であるi) 普遍性、ii) 時間の経過に伴う継続的改善、iii) イノベーション創出を示している。生産性向上が直ちに実現しない可能性はあるものの、先行するGPTの進化は、特にイノベーション創出経路を通じて、生成AIが将来的に生産性の大幅な向上をもたらす可能性を示す有望な兆候を提供している。生成AIの生産性向上の可能性が長期的に完全に実現されるかどうかは、関連する政策の実施にかかっている。

 

・[PDF]

20251008-54913

 


 

 

| | Comments (0)

2025.10.08

米国 カリフォルニア州 フロンティア人工知能透明性法が成立 (2025.09.29)

こんにちは、丸山満彦です。

日本はAI基本計画を策定していくなかで、「世界で最もAIを開発・活用しやすい国」とする方針を示していますが、世界で最もAIを開発しているカリフォルニア州で、「フロンティア人工知能透明性法」が成立したことは、今後の流れを考える上でも、EUのAI法とともに注目しておく必要があるかもしれませんね...(もっともトランプ政権がカリフォルニア州の動きにどうでるかという話もありますし...)

このカリフォルニア州のフロンティア人工知能透明性法は、SB-53 Artificial intelligence models: large developers.(2025-2026)というもので、ビジネス職業法典(Business and Professions Code) 第8部に Chapter 25.1 (フロンティア人工知能法の透明性)を追加し、政府法典(Government Code)に Section 11546.8 (CalComputeの創設)を、労働法(Labor Code)第2部第3章に Chapter 5.1 (内部告発者の保護: AI基盤モデルにおける破滅的リスク)をそれぞれ追加することになりますね...

この法律は、AIが重大な危機をもたらす可能性があることを認識した上で、それを未然に防ごうとする試みですね。。。

主な内容は、

・透明性の向上(説明責任の強化)

大規模 AI 開発者が、その AI モデルについて、どのようにリスクを評価・管理しているかを公表することを義務づけ、外部からの検証可能性や説明責任を確保する

・重大安全事象報告義務

公共安全に深刻な影響を及ぼす可能性のある事象(大規模なサイバー攻撃、モデルの制御逸脱、バイオ兵器支援、重大な被害を生じうる事故など)が起きた・起きうると判断される場合、州当局に迅速に報告する義務(15日以内等)

内部通報・情報公開保護

内部通報者の保護

・AI 公共基盤(CalCompute)の設置・設計

AI 研究・開発へのアクセスを民主化・公平化する観点から、公共クラウド計算基盤「CalCompute」というクラウド計算インフラの整備枠組みを設け、それを運用可能とするための枠組みを策定する(カリフォルニア大学UC)を拠点とするイメージ?

・罰則規定

司法長官による民事罰(最大100万ドル)

 

この法の成立に至る前に、モデルのトレーニング開始前に「安全性の積極的な判断」を義務つけるSB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.(2023-2024) を議会に2024年に提案したが、技術革新を阻害する、法の執行の非現実性もあって、事前規制型のモデルは可決されませんでした...

 

California - Legislative Information

SB-53 Artificial intelligence models: large developers.(2025-2026)

 

1_20251008061101

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された

 

 

 

 

Continue reading "米国 カリフォルニア州 フロンティア人工知能透明性法が成立 (2025.09.29)"

| | Comments (0)

2025.10.07

英国 NCSC OTアーキテクチャの確定的な全体像の作成と維持 (2025.09.29)

こんにちは、丸山満彦です。

英国のNCSCが、オーストラリア通信総局(ASD)、米国のCISA/FBI、カナダのCSSC、ニュージーランドのNCSC-NZ、オランダのNCSC-NL、ドイツのBSIと共同で、「OTアーキテクチャの確定的な全体像の作成」と維持についてのガイダンスを作成していますね...

2024.03.18に作成されていたものを拡大した感じですかね...

 

「OTアーキテクチャの確定的な全体像の作成と維持」についての5つの原則を決めていますね...

  1. 原則1:確定記録の確立と維持のためのプロセスを定義する
  2. 原則2OT情報セキュリティ管理プログラムを確立する
  3. 原則3:情報に基づいたリスクベースの意思決定を支援するため、資産を識別・分類する
  4. 原則4OTシステム内の接続性を識別し文書化する
  5. 原則5OTシステムに対する第三者のリスクを理解し文書化する

現状を把握し、管理プログラムを確立し、資産の識別・分類をし、接続性を特定し、第三者のリスクを理解し、それぞれ文書化する。。。

 

NCSC

Operational Technology 

2024.03.18 Operational Technology 運用技術
2024.03.18 Cloud-hosted supervisory control and data acquisition (SCADA) クラウドホスト型監視制御とデータ収集(SCADA)
2024.03.18 Understanding the business drivers and cloud opportunities ビジネス上の推進要因とクラウドの機会を理解する
2024.03.18 Organisational readiness 組織の準備態勢
2024.03.18 Technology and cloud solutions suitability 技術とクラウドソリューションの適合性
2024.03.18 ICS Community of Interest (COI) ICS利害共同体(COI)
2024.03.18 Creating and maintaining a definitive view of your OT architecture OTアーキテクチャの確定的な全体像の作成と維持
2025.09.29 Introduction 序論
2025.09.23 Principle 1: Define processes for establishing and maintaining the definitive record 原則1:確定記録の確立と維持のためのプロセスを定義する
2025.09.29 Principle 2: Establish an OT information security management programme 原則2:OT情報セキュリティ管理プログラムを確立する
2025.09.24 Principle 3: Identify and categorise assets to support informed risk-based decisions 原則3:情報に基づいたリスクベースの意思決定を支援するため、資産を識別・分類する
2025.09.29 Principle 4: Identify and document connectivity within your OT system 原則4:OTシステム内の接続性を識別し文書化する
2025.09.29 Principle 5: Understand and document third-party risks to your OT system 原則5:OTシステムに対する第三者のリスクを理解し文書化する

 

今回の部分...

Creating and maintaining a definitive view of your OT architecture

PDF版もありますが、HTMLの方が読みやすいですよね...

・[PDF]

20251006-41646

 

ブログの記事も参考になりますかね...

・2025.09.29 Understanding your OT environment: the first step to stronger cyber security

 

Understanding your OT environment: the first step to stronger cyber security OT環境を理解する:強固なサイバーセキュリティへの第一歩
If you can’t see your entire operational technology environment, you can’t defend it. New guidance from the NCSC will help you gain that visibility. 運用技術(OT)環境全体を把握できなければ、防御は不可能だ。NCSCの新たなガイダンスが可視化を支援する。
If you work in operational technology (OT), you already know what’s at stake. OT分野で働く者なら、その重要性を理解しているはずだ。
OT systems keep the lights on, the water pumping, the manufacturing lines moving and our critical national services running. When these systems are compromised or disrupted, the real-world impacts affect safety, operations, the economy, and even national resilience.   OTシステムは、照明の点灯、水の供給、製造ラインの稼働、国家の重要サービスを維持している。これらのシステムが侵害されたり機能停止に陥ったりすると、現実世界では安全、運用、経済、さらには国家のレジリエンスにまで影響が及ぶ。
That’s why today the NCSC is launching new guidance to help OT organisations create and maintain a ‘definitive record’ of their environment, an accurate and up-to-date view of the system that will change over time to maintain its accuracy and authority.   だからこそNCSCは本日、OT組織が自社の環境に関する「確定記録」を作成・維持するための新たなガイダンスを発表する。これは時間の経過とともに変化するシステムの正確かつ最新の状態を把握し、その正確性と信頼性を維持するためのものだ。
Connectivity, complexity and change are part of today’s OT reality. Systems that were once air-gapped now interact with enterprise IT, cloud platforms, remote vendor management tools and external data services. Large, long-lived environments bring the extra challenge of undocumented changes, where temporary fixes become permanent, devices are swapped without records being updated, and network paths evolve over time. And without a complete, current understanding of your whole environment, effective cyber security controls can’t be designed, implemented or maintained.   接続性、複雑性、変化は現代のOT環境の現実だ。かつてエアギャップされていたシステムも、今や企業IT、クラウドプラットフォーム、遠隔ベンダー管理ツール、外部データサービスと連携している。大規模で長期運用される環境では、文書化されていない変更がさらなる課題となる。一時的な修正が恒久化され、記録を更新せずにデバイスが交換され、ネットワーク経路が時間とともに変化するのだ。そして、環境全体の完全かつ最新の理解がなければ、効果的なサイバーセキュリティ対策の設計、実装、維持は不可能だ。 
The ‘definitive record’ the guidance describes isn’t just a technical asset list; it reflects how your OT supports your mission and your operations, and includes:   このガイダンスが述べる「決定的な記録」は単なる技術資産リストではない。OTがミッションと運用をどう支えるかを反映し、以下を含む:
Components: individual devices, controllers, software and virtualised systems, classified by their criticality, exposure, and availability requirements. コンポーネント:個々のデバイス、コントローラー、ソフトウェア、仮想化システム。重要度、露出度、可用性要件で分類される。
Connectivity: how those assets interact within the OT network and beyond, including external connectivity, protocols in use, and any limitations like latency or bandwidth. 接続性:OTネットワーク内外における資産間の相互作用。外部接続性、使用プロトコル、遅延や帯域幅などの制約を含む。
Wider system architecture: zones, conduits and segmentation measures; resilience provisions such as redundancy or high-availability pairs; and the documented reasoning behind design choices. 広範なシステムアーキテクチャ:ゾーン、導管、セグメンテーション対策。冗長性や高可用性ペアなどの耐障害性措置。設計選択の背景にある文書化された根拠。
Supply chain and third-party access: which vendors, integrators and service providers connect into your environment, how they are managed, and how those connections are protected. サプライチェーンとサードパーティアクセス:どのベンダー、インテグレーター、サービスプロバイダーが環境に接続しているか、それらの管理方法、接続の保護策。
Business and impact context: understanding what would happen operationally, financially and from a safety perspective if an asset or connection failed or were compromised, and using that to shape priorities. 事業影響の文脈:資産や接続が故障・侵害された場合の運用面、財務面、安全面での影響を把握し、優先順位設定に活用する。
The more an adversary knows about your OT, the easier it is for them to plan and execute effective attacks. Every diagram, configuration and description is valuable intelligence to a skilled attacker. This means your definitive record is one of the most sensitive collections of information you will hold. It should only be accessible to those who need it, protected against tampering, and managed with secure change control. The guidance will help you protect this information appropriately while still enabling its operational and security value. Building your definitive record won’t happen overnight, and it’s not a ‘one and done’ task. Even a partial view to begin with is better than none, and it will mature as you work systematically through assets, networks and supplier relationships. 敵対者がOTに関する情報を多く知れば知るほど、効果的な攻撃の計画と実行は容易になる。あらゆる図面、構成、説明は熟練した攻撃者にとって貴重な情報源だ。つまり、確定記録は保有する情報の中で最も機密性の高い集合体の一つとなる。必要な者だけがアクセス可能とし、改ざんから保護し、安全な変更管理で管理すべきだ。本ガイダンスは、運用上およびセキュリティ上の価値を維持しつつ、この情報を適切に保護する手助けとなる。決定版記録の構築は一夜にして成らず、一度きりの作業でもない。最初は部分的な見解でも、何もないよりはましだ。資産、ネットワーク、サプライヤー関係を体系的に処理するにつれ、成熟していく。
For many organisations, pieces of the puzzle already exist, in design documents, vendor manuals, maintenance logs or monitoring tools. The goal is to bring these together, validate them, and keep them up to date. By taking this approach, you can make informed, risk-based decisions on patching, architecture changes, third-party access, and contingency planning, ensuring your controls are proportionate and targeted where they matter most. 多くの組織では、設計文書、ベンダーマニュアル、保守ログ、監視ツールなどにパズルのピースが既に存在している。目標はこれらを統合し、検証し、最新の状態に保つことだ。このアプローチにより、パッチ適用、アーキテクチャ変更、第三者アクセス、緊急時対応計画について、情報に基づいたリスクベースの判断が可能となる。これにより、制御が適切に比例し、最も重要な箇所に的を絞ったものとなる。
If you can’t see your whole OT environment, you can’t truly defend it. This guidance will help you gain that visibility, turning fragmented knowledge into a definitive, living record, and enabling you to protect the OT systems, services and supply chains that matter most. OT環境全体を把握できなければ、真の防御は不可能だ。本ガイダンスは可視性の獲得を支援し、断片的な知識を決定的で生きた記録へと転換する。これにより、最も重要なOTシステム・サービス・サプライチェーンを保護できる。
This guidance has been produced by the NCSC in partnership with: 本ガイダンスはNCSCが以下の機関と共同で作成した:
・Australian Signals Directorate (ASD) ・オーストラリア信号局(ASD)
・US Cybersecurity and Infrastructure Security Agency (CISA) ・米国サイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA) (CISA)
・Canadian Centre for Cyber Security (Cyber Centre) ・カナダサイバーセキュリティセンター(Cyber Centre)
・US Federal Bureau of Investigation (FBI) ・米国連邦捜査局(FBI)
・New Zealand’s National Cyber Security Centre (NCSC-NZ) ・ニュージーランド国家サイバーセキュリティセンター(NCSC-NZ)
・Netherland's National Cyber Security Centre (NCSC-NL) ・オランダ国家サイバーセキュリティセンター(NCSC-NL)
・Germany’s Federal Office for Information Security (BSI) ・ドイツ連邦情報セキュリティ庁(BSI)
We thank all our partners who have contributed to this guidance. 本ガイダンスの作成に貢献した全てのパートナーに感謝する。

 

詳細は

↓↓↓↓↓↓

Continue reading "英国 NCSC OTアーキテクチャの確定的な全体像の作成と維持 (2025.09.29)"

| | Comments (0)

米国 シークレットサービス 政府高官を狙った攻撃者の300台以上のSIMサーバとSIMカード10万枚を押収 (2025.09.23)

こんにちは、丸山満彦です。

シークレットサービスが、政府高官を狙った攻撃者の300台以上のSIMサーバとSIMカード10万枚を押収したと公表していますね...

こういう規模の攻撃者がいくつかあるという感じなんでしょうかね...

 

United States Secret Service

・2025.09.23 U.S. Secret Service dismantles imminent telecommunications threat in New York tristate area

U.S. Secret Service dismantles imminent telecommunications threat in New York tristate area 米シークレットサービス、ニューヨーク三州地域で差し迫った通信脅威を解体
NEW YORK – The U.S. Secret Service dismantled a network of electronic devices located throughout the New York tristate area that were used to conduct multiple telecommunications-related threats directed towards senior U.S. government officials, which represented an imminent threat to the agency’s protective operations. ニューヨーク発 – 米シークレットサービスは、ニューヨーク三州地域に設置された電子機器ネットワークを解体した。このネットワークは米政府高官を標的とした複数の通信関連脅威を実行するために使用され、同機関の保護活動に対する差し迫った脅威となっていた。
This protective intelligence investigation led to the discovery of more than 300 co-located SIM servers and 100,000 SIM cards across multiple sites. この防御情報調査により、複数の拠点に分散配置された300台以上のSIMサーバーと10万枚のSIMカードが発見された。
In addition to carrying out anonymous telephonic threats, these devices could be used to conduct a wide range of telecommunications attacks. This includes disabling cell phone towers, enabling denial of services attacks and facilitating anonymous, encrypted communication between potential threat actors and criminal enterprises. これらの装置は匿名電話脅迫の実行に加え、広範な通信攻撃に利用可能であった。具体的には携帯電話基地局の機能停止、サービス拒否攻撃の実現、潜在的な脅威アクターと犯罪組織間の匿名暗号通信の支援などが含まれる。
While forensic examination of these devices is ongoing, early analysis indicates cellular communications between nation-state threat actors and individuals that are known to federal law enforcement. これらの機器のフォレンジック調査は継続中だが、初期分析では国家レベルの脅威アクターと連邦法執行機関が把握している個人との間の携帯電話コミュニケーションが確認されている。
“The potential for disruption to our country’s telecommunications posed by this network of devices cannot be overstated,” said U.S. Secret Service Director Sean Curran. “The U.S. Secret Service’s protective mission is all about prevention, and this investigation makes it clear to potential bad actors that imminent threats to our protectees will be immediately investigated, tracked down and dismantled.” 米国シークレットサービスのショーン・カラン長官は次のように述べた。「この装置ネットワークが我が国の通信網に及ぼす混乱の可能性は、過大評価できない。我々の防御任務は予防が全てだ。今回の捜査は、保護対象への差し迫った脅威が即座に調査・追跡・解体されることを潜在的な脅威アクターに明確に示すものだ。」
These devices were concentrated within 35 miles of the global meeting of the United Nations General Assembly now underway in New York City. Given the timing, location and potential for significant disruption to New York telecommunications posed by these devices, the agency moved quickly to disrupt this network. The U.S. Secret Service’s Advanced Threat Interdiction Unit, a new section of the agency dedicated to disrupting the most significant and imminent threats to our protectees, is conducting this investigation. This investigation is currently ongoing. これらの装置は、現在ニューヨーク市で開催中の国連総会グローバル会合から半径35マイル圏内に集中していた。時期、場所、およびニューヨークの通信網に重大な混乱をもたらす可能性を考慮し、当局は迅速にこのネットワークの阻止に乗り出した。米シークレットサービスの新たな部門である「高度脅威阻止ユニット」が本調査を担当している。同ユニットは、保護対象者に対する最も重大かつ差し迫った脅威を阻止することを専門とする。本調査は現在も継続中である。
The Department of Homeland Security’s Homeland Security Investigations, the Department of Justice, the Office of the Director of National Intelligence and the NYPD, as well as other state and local law enforcement partners, provided valuable technical advice and assistance in support of this investigation. 国土安全保障省の国土安全保障調査局、司法省、国家情報長官室、ニューヨーク市警(NYPD)をはじめ、州・地方の法執行機関パートナー各機関が、本調査を支援するため貴重な技術的助言と支援を提供した。
This is an ongoing investigation. 本調査は現在も進行中である。

 

・[YouTube] Secret Service Disrupts Threat Network Near UN General Assembly

写真

まとめると...

・ [png

20251005-65851

 

 

| | Comments (0)

2025.10.06

オランダ イタリア 他 スマートテレビに関する予備調査報告書 (2025.09.23)

こんにちは、丸山満彦です。

2022年428日に発表された執行協力に関するウィーン声明を受け、欧州データ保護委員会(EDPB)は、オランダ監督当局が提案したスマートテレビに関する事例を戦略的案件として選定し、ハンガリー、イタリア、リヒテンシュタインのデータ保護監督当局と共同で、調査した結果の報告です...

スマートテレビでは、通常使用時に大量のデータフローが検出されたが、スマートテレビの初回設置時、アイドル状態時、通常使用時、電源オフ時のいずれでもデータフローがある。

エコシステムでどのような情報が誰に流れているのか不透明

ということのようです。また、すべてのスマートテレビに

プレインストールアプリが搭載されていて、一部ではテレビから削除できなかった

とのこと...

共同調査のメリットはありつつも、難しさもあるようですね...

 

● Autoriteit Persoonsgegevens

・2025.09.23 Rapport verkennend onderzoek smart tv’s

 

Rapport verkennend onderzoek smart tv’s スマートテレビに関する予備調査報告書
De Autoriteit Persoonsgegevens (AP) heeft samen met de Hongaarse, Italiaanse en Liechtensteinse toezichthouders een rapport opgesteld na een gezamenlijk verkennend onderzoek naar smart tv’s. オランダ個人情報保護委員会(AP)は、ハンガリー、イタリア、リヒテンシュタインの監督当局と共同で、スマートテレビに関する予備調査を実施し、報告書を作成した。
Het onderzoek was gericht op 3 'slimme' televisies van verschillende producenten, met name de datastromen die voor consumenten vaak niet zichtbaar zijn. 調査は異なるメーカーの3機種のスマートテレビを対象とし、特に消費者には見えないデータフローに焦点を当てた。
In het (Engelse) rapport delen de toezichthouders hun bevindingen. U kunt het rapport hieronder downloaden. 監督当局は報告書で調査結果を共有している。報告書は下記からダウンロードできる。

 

 

・[PDF]

20251005-171444

・[DOCX][PDF] 仮訳

 

目次...

INTRODUCTION はじめに
1 THE JOINT OPERATIONS 1 共同作戦
1.1  Cause of investigation 1.1  調査の理由
1.2 Scope of investigation 1.2 調査範囲
1.3  Methodology of investigation 1.3 調査方法論
2 SUMMARY OBSERVATIONS 2 発見事項の概要
3 SIGNIFICANT DATA FLOWS DETECTED 3 検出された重要なデータフロー
3.1 Installation 3.1 インストール時のデータフロー
3.2 Stand-by 3.2 スタンバイ
3.3 Off 3.3 オフ
3.4 Second stand-by time 3.4 2回目の待機時間
3.5 Ordinary usage 3.5 通常使用
4. OPACITY OF TELEVISION ECOSYSTEM 4. テレビ業界の不透明性
4.1 Many parties involved 4.1 多くの関係者が関与している
4.2 Legal roles of the device manufacturers 4.2 デバイス製造者の法的役割
4.3  Device manufacturer as data controller jointly with partners 4.3  デバイス製造者とパートナーの共同データ管理者としての役割
4.4 Other findings regarding (the adoption of) controller role 4.4 データ管理者役割の(採用に関する)その他の所見
4.5 Data subject position in the market 4.5 市場におけるデータ主体の立場
4.6 Conclusions 4.6 結論
5. PRE-INSTALLED APPLICATIONS 5. プリインストールアプリケーション
6. JOINT OPERATION CONCLUSIONS 6. 共同作戦の結論

 

概要...

2 SUMMARY OBSERVATIONS  2 発見事項の概要 
The SAs might continue their investigations after the joint operation is finalised. Considering that, at the time of finalising this report, some of the investigations are still ongoing the SAs chose to only provide their general observations, without referring to the specific entities which were investigated.  SAは共同調査終了後も調査を継続する可能性がある。本報告書作成時点で一部調査が継続中であることを考慮し、SAは調査対象の特定事業体を明示せず、一般的な所見のみを提示することを選択した。 
The SAs found that there are a number of observations that occurred with all selected devices.  監督当局は、選定された全デバイスに共通する複数の発見事項を確認した。 
The first observation is that significant data flows were detected during the technical inspection. In Chapter 3, the findings regarding captured traffic data are presented, deriving from four stages of the investigation: first installation of the Smart TV, idle time, during ordinary use of the device and while switched off.   第一の発見事項は、技術検査中に大量のデータフローが検出されたことである。第3章では、調査の4段階(スマートテレビの初回設置時、アイドル状態時、通常使用時、電源オフ時)から得られたトラフィックデータに関する知見を提示する。  
The second observation is that the ecosystem in which internet connected televisions operate is opaque. As a result of the data flows seen in the investigation, the contractual relationships which have been unveiled and the privacy policies which have been studied, we found that there is an advanced ecosystem of different types of parties, such as the device manufacturer, third party apps developers, operating system provider, advertising networks, viewing data traders, and potentially more. In Chapter 4 we elaborate on the opacity of the Smart TV ecosystem.   第二の発見事項は、インターネット接続テレビが動作するエコシステムが不透明であることだ。調査で確認されたデータフロー、明らかになった契約関係、検討したプライバシーポリシーから、デバイス製造者、第三者アプリ開発者、OS提供者、広告ネットワーク、視聴データ取引業者など、多様な主体が関与する高度なエコシステムが存在することが判明した。第4章では、スマートテレビエコシステムの不透明性について詳述する。  
In this Chapter, because there are many parties involved, we consider that it is difficult which party should be designated as (joint) controller for the processing of personal data. Identifying the data controller alone is not enough. Besides allocating this legal role, the responsibilities that come with that must be exercised in practise. It became apparent from the joint operation that device manufacturers have the role of data controller, in some situation jointly with others.  However, device manufacturers contacted seem to regard their role as data controller very limited. It is our impression that they are reluctant to adopt a role as (joint) controller for the whole of data processing activity that is sparked through use of the device they have brought onto the market.   本章では、多くの関係者が関与しているため、個人データ処理における(共同)管理者としてどの当事者を指定すべきか判断が難しいと考える。単なるデータ管理者の特定だけでは不十分である。この法的役割を割り当てるだけでなく、それに伴う責任を実際に履行しなければならない。共同運用を通じて明らかになったのは、デバイス製造者がデータ管理者の役割を担っており、状況によっては他者と共同で担っていることである。  しかし、接触したデバイス製造者は、自らのデータ管理者としての役割を非常に限定的に捉えているようだ。彼らが市場に投入したデバイスの使用を通じて引き起こされるデータ処理活動全体について、(共同)管理者としての役割を担うことに消極的であるという印象を受けた。  
In our investigations we found that data subjects encounter situations where they have no other realistic option than to accept terms, conditions and privacy policies in order to use the device. Considering our previous observations, it is no surprise that data subjects could find it difficult to address the correct data controller with regard to the processing of their personal data.   調査では、データ主体がデバイス利用のためには利用規約やプライバシーポリシーを受け入れる以外に現実的な選択肢がない状況に直面していることが判明した。前述の観察結果を踏まえれば、データ主体が自身の個人データ処理に関して適切なデータ管理者に連絡を取ることが困難であるのも当然と言える。  
The final observation is that on all Smart TV’s investigated we found pre-installed applications on the device. In some situations, these apps could not be deleted from the TV’s. This raises concerns with regard to the principle of data minimisation and the effective exercise of data subjects’ rights.  In Chapter 5 we elaborate on these concerns.   最終的な発見事項として、調査対象の全スマートテレビにプリインストールアプリが搭載されていた。一部の状況では、これらのアプリをテレビから削除できなかった。これはデータ最小化の原則とデータ主体の権利の効果的な行使に関して懸念を生じさせる。第5章でこれらの懸念について詳述する。  
In Chapter 6 the SAs conclude on their experiences in this joint operation.   第6章では、監督機関が本共同調査における所見をまとめている。  

 

 

 

 

 

| | Comments (0)

欧州 データ保護監督局 (EDPS) 自動化された意思決定に対する人間のモニタリング

こんにちは、丸山満彦です。

欧州データ保護監督局 (EDPS) が、自動化された意思決定に対する人間のモニタリングという報告書を公表しているのですが、これがなかなかよいです。

実際にAIを使ったシステムを社会実装しようとする時の参考になると思います。

自動化された意思決定に対する人間のモニタリングに関する誤った仮定、というのが特に参考になると思います。当たり前のことを書いているのですが、忘れがちな視点です...

 


ADMに対する人間のモニタリングに関する誤った仮定

1 ADMシステムに用いられる技術に関する誤った仮定

  1. 仮定:ADMシステムは特定かつ予め定められた条件下で動作する
  2. 仮定:ADMシステムは非典型的な状況や異常値を処理する際、制御を人間に移行する

2 人間と技術の相互作用に関する誤った仮定

  1. 仮定:自動化は人間の判断に影響を与えない
  2. 仮定:システムを人間が監督している場合、自動化された意思決定は存在しない
  3. 仮定:人間のオペレーターには決定権があるという仮定
  4. 仮定:人間と機械を組み合わせたシステムはより優れている
  5. 仮定:人間のオペレーターはシステムの決定を覆す適切な手段を持つ
  6. 仮定:透明性と説明可能なAIは人間のモニタリングを改善する
  7. 仮定:人間のモニタリングはシステムの欠点を補える

3 人間の行動に関する誤った仮定

  1. 仮定:人間のオペレーターは対応方法を知っている
  2. 仮定:人間のオペレーターは任務を遂行できる
  3. 仮定:人間のオペレーターは「適切な意図」を持つ

 

European Data Prorection Supervisor; EDPS

・2025.09.23 TechDispatch #2/2025 - Human Oversight of Automated Decision-Making

 

・[PDF]

20251005-60543

・[DOCX][PDF] 仮訳

 

目次...

1. Introduction 1. 序論
2. Definition of human oversight of ADM systems 2. ADMシステムに対する人的モニタリングの定義
3. Flawed assumptions about human oversight of ADM 3. ADMに対する人間のモニタリングに関する誤った仮定
3.1 Wrong assumptions about the technology used in ADM systems 3.1 ADMシステムに用いられる技術に関する誤った仮定
Assumption: ADM systems will operate within specific and predetermined  conditions 仮定:ADMシステムは特定かつ予め定められた条件下で動作する
Assumption: ADM systems will transfer control to humans when handling atypical  or outlier situations 仮定:ADMシステムは非典型的な状況や異常値を処理する際、制御を人間に移行する
3.2 Wrong assumptions about how humans and technologies interact 3.2 人間と技術の相互作用に関する誤った仮定
Assumption: Automation does not influence human judgment 仮定:自動化は人間の判断に影響を与えない
Assumption: There is no automated decision-making if there is a human  supervising the system 仮定:システムを人間が監督している場合、自動化された意思決定は存在しない
Assumption: That human operators possess the authority to decide 仮定:人間のオペレーターには決定権があるという仮定
Assumption: Systems combining human and machine work better 仮定:人間と機械を組み合わせたシステムはより優れている
Assumption: Human operators have appropriate mechanisms to override  the system’s decisions 仮定:人間のオペレーターはシステムの決定を覆す適切な手段を持つ
Assumption: Transparency and explainable AI improve human oversight 仮定:透明性と説明可能なAIは人間のモニタリングを改善する
Assumption: Human oversight can help address the system’s shortcomings 仮定:人間のモニタリングはシステムの欠点を補える
3.3 Wrong assumptions about how humans behave 3.3 人間の行動に関する誤った仮定
Assumption: That human operators know what to do 仮定:人間のオペレーターは対応方法を知っている
Assumption: That human operators are able to do the task 仮定:人間のオペレーターは任務を遂行できる
Assumption: That human operators will have ‘fitting intentions’ 仮定:人間のオペレーターは「適切な意図」を持つ
4. Promoting more effective and meaningful human oversight 4. より効果的で意味のある人間のモニタリングの促進
4.1 Organisational measures for effective and meaningful human oversight 4.1 効果的かつ有意義な人間のモニタリングのための組織的措置
Organisations should provide stable, healthy, and fair work conditions  for adequate human oversight 組織は、適切な人的モニタリングのために安定し、健全で公平な労働条件を提供すべきである
Organisations should provide appropriate and sufficient time for review 組織は適切な十分な審査時間を提供すべきである
Human oversight should be considered an important safeguard  by the organisations 組織は、人間のモニタリングを重要な安全対策と認識すべきである
Ensuring human oversight is not misused as a fall back responsibility  in system failures システム障害時に人間のモニタリングが責任逃れの手段として悪用されないようにすること
Organisations should provide adequate training and support to the operators 組織はオペレーターに十分な訓練と支援を提供すべきである
4.2 Technical measures for effective and meaningful human oversight 4.2 効果的かつ有意義な人的モニタリングのための技術的対策
The system decisions should be explainable システムの決定は説明可能であるべきである
The system interface should have a clear, intuitive, and accessible design システムインターフェースは明確で直感的、かつアクセスしやすい設計であるべきである
4.3 Operator’s profile for effective and meaningful human oversight 4.3 効果的かつ有意義な人的モニタリングのための操作者プロファイル
The operator should have fitting intentions 操作者は適切な意図を持つべきである
The operator should have the necessary expertise オペレーターは必要な専門知識を持つべきである
4.4 Practical approaches for effective human oversight 4.4 効果的な人的モニタリングのための実践的アプローチ
Auditing 監査
Sampling サンプリング
Institutionalised distrust: holistic proposal 制度化された不信:包括的提案
Integrating feedback from affected individuals 影響を受ける個人からのフィードバックの統合
5. Conclusion 5. 結論
6. Bibliography 6. 参考文献

 

 

序論

1. Introduction 1. 序論
Two centuries of technological progress have redefined society, as industrial and digital automation have modified how people live, work, and how we interact with each other. What began with mechanised production lines to increase efficiency has evolved into autonomous and semi-autonomous systems capable of analysing data and making decisions with minimal human involvement. Propelled by breakthroughs in Artificial Intelligence (AI) - such as deep learning and transformer architectures - this automation now spans a wide range of sectors, including healthcare, finance, military defence, transportation, and public administration.[1] 二世紀にわたる技術進歩は社会を再定義した。産業とデジタルの自動化が人々の生活、働き方、相互交流の在り方を変えたのだ。効率化を目的とした機械化された生産ラインから始まったこの流れは、最小限の人間の関与でデータを分析し意思決定を行う自律型・準自律型システムへと進化した。深層学習やトランスフォーマーアーキテクチャといった人工知能(AI)の飛躍的進歩に後押しされ、この自動化は医療、金融、軍事防衛、交通、行政など幅広い分野に広がっている。[1]
A significant development in this evolution has been the automation of decision-making processes with the development of systems that not only execute tasks but also make decisions that can affect individuals’ lives and rights. Automated decision-making (ADM) is increasingly relied upon to process personal data and make consequential determinations, from eligibility assessments for social benefits to medical diagnoses, recruitment procedures, and credit approvals. この進化における重要な進展は、単にタスクを実行するだけでなく、個人の生活や権利に影響を与える決定を下すシステムの登場による意思決定プロセスの自動化である。自動化された意思決定( ADM)は、社会保障給付の受給資格審査から医療診断、採用手続き、与信審査に至るまで、個人データを処理し重大な判断を下す手段としてますます依存されている。
While technological advances in ADM offer significant potential, they also introduce risks of opacity, bias, and discrimination in decision outcomes. Such risks can undermine trust in technology and lead to violations of individual rights, as well as broader harm to democratic processes and societal cohesion.[2] To mitigate these concerns, ADM systems that significantly impact people’s lives must be subject to rigorous monitoring to safeguard privacy, data protection, non-discrimination, and other fundamental rights. ADMの技術的進歩は大きな可能性を秘める一方で、意思決定結果における不透明性、バイアス、差別のリスクも生み出す。こうしたリスクは技術への信頼を損ない、個人の権利侵害や民主的プロセス・社会的結束への広範な悪影響を招きかねない。[2] こうした懸念を軽減するため、人々の生活に重大な影響を与えるADMシステムは、プライバシー保護、データ保護、差別禁止その他の基本的権利を保障する厳格なモニタリングの対象とされねばならない。
Individuals might not always be aware that they are subjected to ADM. This can create an imbalance of power between those affected by these systems and those who design, deploy, or control them. As ADM becomes increasingly integrated into processes, tools, and services, it is essential to ensure that these systems are not left to make autonomous, uncontrolled decisions that affect individuals’ fundamental rights. 個人は、自分がADMの対象となっていることに常に気づいているとは限らない。これにより、これらのシステムの影響を受ける者と、それらを設計・導入・管理する者との間に力の不均衡が生じる可能性がある。ADMがプロセス、ツール、サービスにますます統合されるにつれ、これらのシステムが個人の基本的権利に影響を与える自律的で制御不能な決定を下すままにしないことが不可欠である。
Therefore, the involvement of humans as a safeguard against the risks associated with ADM systems (e.g., algorithmic bias and misclassification[3]) is increasingly perceived as necessary. Integrating human judgment at various stages - during the design, real-time monitoring, or post-decision audits - can help ensure that ADM systems align with ethical standards, societal values, and regulations. したがって、ADMシステムに伴うリスク(例:アルゴリズムバイアスや誤分類[3])に対する安全装置として人間の関与が必要であるとの認識が高まっている。設計段階、リアルタイムモニタリング 、決定後の監査など様々な段階で人間の判断を組み込むことで、ADMシステムが倫理基準、社会的価値観、規制に沿うことを保証できる。
However, simply adding a human within the decision-making process does not inherently ensure better outcomes, nor should it serve as a means to deflect accountability for the system’s decisions.[4] In fact, just including a human is unlikely to prevent systems from producing wrongful or harmful outcomes for individuals. This is frequently due to inadequate implementations or lack of control over the system - issues that will be further examined in this document. しかし、意思決定プロセスに人間を単純に加えるだけでは、本質的に良い結果が保証されるわけではなく、システムの決定に対する説明責任を回避する手段となるべきでもない。[4] 実際、単に人間を関与させるだけでは、システムが個人に対して不当または有害な結果を生み出すのを防げない可能性が高い。これは多くの場合、不十分な実装やシステムに対する制御の欠如に起因するものであり、本稿ではこれらの問題を詳細に検討する。
In any case, for human oversight to be meaningful and effective,[5] it must be carefully structured, taking into account both the limitations of ADM systems and the complex dynamics between human operators and machine-generated outputs. いずれにせよ、人間のモニタリングが意味を持ち効果を発揮するためには、[5] ADMシステムの限界と、人間のオペレーターと機械生成出力の間の複雑な力学の両方を考慮して、慎重に設計されなければならない。
The objective of this TechDispatch is twofold. First, it examines common assumptions about how humans interact with and monitor decision-making systems, highlighting the overly optimistic nature of many of these assumptions. Accepting these assumptions uncritically can lead to inadequate or flawed implementations, posing significant risks - including harm to individuals and potential violations of fundamental rights. Second, it explores practical measures that providers[6] and deployers[7] of ADM systems can take to ensure that human oversight supports democratic values and safeguards human rights. 本TechDispatchの目的は二つある。第一に、人間が意思決定システムとどう関わりモニタリングするかに関する一般的な仮定を検証し、それらの多くが過度に楽観的であることを指摘する。こうした仮定を無批判に受け入れると、不十分あるいは欠陥のある実装につながり、個人への危害や基本的人権侵害の可能性を含む重大なリスクを生む。次に、ADMシステムの提供者([6])と導入者([7])が、人間のモニタリングが民主主義的価値を支え人権を保護するよう確保するために講じ得る実践的措置を探る。
It is important to note that this Tech Dispatch does not aim to offer any legal interpretation. Instead, it focuses on exploring how the implementation of human oversight can impact its overall effectiveness. 本テック・ディスパッチは法的解釈を提供するものではないことに留意すべきだ。むしろ、人間のモニタリングの実装が全体的な有効性にどう影響するかを探求することに焦点を当てている。
This TechDispatch builds upon the knowledge gathered during the Internet Privacy Engineering Network (IPEN) event, organised by the EDPS and the Karlstad University in September 2024.[8] 本TechDispatchは、2024年9月に欧州データ保護監督官(EDPS)とカールスタード大学が主催したインターネットプライバシーエンジニアリングネットワーク(IPEN)イベントで得られた知見に基づいている。[8]
[1] In many cases, decision-making systems are implemented to support robotic operations across various industrial domains, including automotive manufacturing, electronics assembly, and logistics. Although automation and robotics are closely interrelated, this document focuses exclusively on automated decision-making processes and does not address robotics as a distinct subject. For the purposes of this document, automation refers specifically to the automation of the decision-making process itself, regardless of whether the resulting decision is operationalized through robotic systems. [1]多くの場合、意思決定システムは自動車製造、電子機器組立、物流など様々な産業分野におけるロボット操作を支援するために導入される。自動化とロボット工学は密接に関連しているが、本稿は自動化された意思決定プロセスにのみ焦点を当て、ロボット工学を独立した主題として扱わない。本稿における自動化とは、結果としての決定がロボットシステムを通じて運用されるか否かにかかわらず、意思決定プロセスそのものの自動化を特に指す。
[2] Future of Privacy Forum. (2017). Unfairness by algorithm: Distilling the harms of automated decision-making. [PDF] [2]Future of Privacy Forum.(2017). アルゴリズムによる不公平:自動化された意思決定の害を抽出する。 [PDF]
[3] ADM misclassification occurs when an ADM system assigns an incorrect label or category to input data - such as flagging a legitimate transaction as fraud. [3]ADM誤分類とは、ADMシステムが入力データに誤ったラベルやカテゴリーを割り当てる現象を指す。例えば正当な取引を不正と判定するケースなどである。
[4] In her work “Moral Crumple Zones Cautionary Tales in Human-Robot Interaction”, Madeleine Elish introduces the idea that human operators sometimes act as moral crumple zones for the systems. “While the crumple zone in a car is meant to protect the human driver, the moral crumple zone protects the integrity of the technological system, at the expense of the nearest human operator” (Elish, 2025). [4]マデリーン・エリッシュは論文「道徳的クラッシュゾーン:人間とロボットの相互作用における戒めの物語」で、人間のオペレーターがシステムの道徳的クラッシュゾーンとして機能する場合があると提唱している。「自動車のクラッシュゾーンが人間の運転者を保護する目的であるのに対し、道徳的クラッシュゾーンは、最も近い人間のオペレーターの犠牲のもとに、技術システムの完全性を保護する」(Elish, 2025)。
[5] Chapter 2 (Definition of human oversight of ADM systems) provides a detailed description of what is meant by ‘meaningful’ and ‘effective’ human oversight in the context of this document. [5]第2章(ADMシステムに対する人間のモニタリングの定義)では、本稿における「有意義な」かつ「効果的な」人間のモニタリングが何を意味するのかについて詳細に記述している。
[6] This document uses the term ‘providers’ to refer to organisations that develop and make ADM technology available. [6]本稿では、ADM技術を開発し提供する組織を指すために「提供者」という用語を用いる。
[7] This document uses the term ‘deployers’ to refer to any natural or legal person, public authority, agency or other body using an ADM system under its authority except where the ADM system is used in the course of a personal non-professional activity. [7]本稿では「導入者」という用語を、個人非職業的活動において使用される場合を除き、その権限下でADMシステムを使用する自然人・法人、公的機関、政府機関その他の団体を指すために使用する。
[8] Information and recordings of the event can be found in the EDPS webpage in: [web] [8]本イベントの情報および記録は、EDPSのウェブページ[web] で閲覧可能である。

 

 

結論

5. Conclusion 5. 結論
This TechDispatch explains what ADM is and critically examines common assumptions underlying human oversight of ADM systems, revealing why many such beliefs are unsupported and in practice do not improve the quality of the decisions taken by the system. These misconceptions risk fostering a false sense of security, potentially allowing flawed algorithms to operate unchecked under the veneer of human control. 本TechDispatchはADMの定義を説明し、ADMシステムの人間によるモニタリングに潜む一般的な仮定を批判的に検証した。多くの信念が根拠なく、実際にはシステムの意思決定品質を向上させない理由を明らかにした。こうした誤解は誤った安心感を助長し、人間の管理という表層の下で欠陥のあるアルゴリズムが野放しになる危険性がある。
Drawing on these insights, the report outlined a comprehensive set of organizational, technical, and operator-focused measures to make human oversight meaningful and effective. Organisational commitment from both providers and deployers is essential to prioritize human oversight at all levels. Thoughtful system design should embed capabilities that enhance human understanding and control, while operator training must equip individuals with the skills and situational awareness needed to intervene appropriately. これらの知見に基づき、本報告書は人間のモニタリングを意味ある効果的なものとするため、組織的・技術的・運用者向けの包括的対策を提示した。提供者と導入者の双方による組織的コミットメントが、あらゆるレベルで人間のモニタリングを優先させるために不可欠である。思慮深いシステム設計は人間の理解と制御を強化する機能を組み込むべきであり、運用者訓練は個人が適切に介入するために必要なスキルと状況認識を身につけさせるものでなければならない。
It is vital to emphasise that inherent flaws in ADM systems - whether due to scientific unreliability or conflicts with fundamental rights - cannot be fully addressed by human oversight alone. Relying solely on human operators as a final safeguard risks legitimizing defective and controversial systems that may cause harm without tackling root causes. To prevent this, human oversight should be complemented by institutional review processes, such as public evaluation and approval before deployment. [1] Systems that violate laws or fundamental rights must be prohibited outright rather than remedied through after-the-fact human intervention. For example, automated scoring is already a form of decision-making subject to data protection and other legal frameworks. 強調すべきは、科学的信頼性の欠如や基本的人権との矛盾に起因するADMシステムの本質的欠陥は、人間のモニタリングだけでは完全に対処できない点だ。最終的な安全装置として人間のオペレーターのみに依存することは、根本原因を解決せずに危害をもたらす可能性のある欠陥のある論争的なシステムを正当化するリスクを伴う。これを防ぐため、人間のモニタリングは、導入前の公的評価や承認といった制度的審査プロセスによって補完されるべきだ。 [1] 法律や基本的人権を侵害するシステムは、事後的な人間の介入による修正ではなく、完全に禁止されなければならない。例えば自動スコアリングは、既にデータ保護法などの法的枠組みの対象となる意思決定形態である。
Moreover, the effectiveness of human oversight varies significantly depending on the decisionmaking context. Monitoring purely technical systems differs fundamentally from monitoring socio-technical systems - such as welfare allocation, workforce management, credit or insurance pricing, or law enforcement applications. Socio-technical systems must be designed to uphold fundamental rights by design, rather than depending on human reviewers to correct violations after deployment. Systemic biases - such as discrimination based on race or socioeconomic status - often reflect inherent flaws in the ADM itself. Problematic systems, like emotion recognition in recruitment, should therefore be rejected outright, rather than relying on human oversight to mitigate risks. さらに、人間のモニタリングの有効性は意思決定の文脈によって大きく異なる。純粋に技術的なシステムのモニタリングは、福祉給付の配分、労働力管理、信用・保険の価格設定、法執行アプリケーションといった社会技術システムのモニタリングとは根本的に異なる。社会技術システムは、導入後の違反を人間の審査員に依存して修正するのではなく、設計段階で基本的人権を擁護するよう設計されなければならない。人種や社会経済的地位に基づく差別といった体系的なバイアスは、往々にしてADM自体に内在する欠陥を反映している。採用における感情認識のような問題のあるシステムは、リスク軽減を人間のモニタリングに委ねるのではなく、最初から拒否すべきである。
To ensure that human oversight fulfils its intended purpose, there is an urgent need to develop and adopt clear, standardised frameworks and metrics for assessing human oversight performance. Such standards will enable providers, deployers, and regulators to systematically evaluate whether human involvement effectively detects, mitigates, and corrects errors or harmful outcomes. Without this rigor, human oversight risks becoming a mere procedural formality rather than a genuine safeguard. 人間のモニタリングが本来の目的を果たすためには、そのパフォーマンスを評価するための明確で標準化された枠組みと指標を早急に開発・採用する必要がある。こうした基準により、提供者、導入者、規制当局は、人間の関与が誤りや有害な結果を効果的に検知・軽減・ 是正しているかを体系的に評価できるようになる。この厳密さがなければ、人間のモニタリングは真の安全装置ではなく、単なる手続き上の形式に堕するリスクがある。
By embracing the organisational, technical, and operational measures outlined here - and committing to robust standards for human oversight - stakeholders can better ensure that automation enhances, rather than undermines, human dignity, ethical responsibility, and societal trust. ここに概説した組織的、技術的、運用上の措置を採用し、人的モニタリングの堅牢な基準を確立することで、関係者は自動化が人間の尊厳、倫理的責任、社会的信頼を損なうのではなく、むしろ強化することをより確実に保証できる。
   
[1] Green, B. (2022). The flaws of policies requiring human oversight of government algorithms. Computer Law & Security Review, 45, 105681. [1]Green, B.(2022). 政府アルゴリズムへの人的モニタリングを義務付ける政策の欠陥. Computer Law & Security Review, 45, 105681.

 

 

 

 

 

| | Comments (0)

2025.10.05

欧州委員会 デジタルサービス法に基づきアップル、ブッキング・ドットコム、グーグル、マイクロソフトに金融詐欺に関する情報提供を要請

こんにちは、丸山満彦です。

欧州ではデジタルサービス法 (Digital Service Act: DAS) が適用されています。こちらに詳細があります...

DSAでは、違法コンテンツの迅速な削除と報告義務等が義務付けられていますが、金融詐欺も当然に対象となりますね...

Apple, Booking.com, GoogleはVLOP (Very Large Online Platform) 、Bing, Google SearchはVLOSE (Very Large Online Search Engines) となっているということもあって、こういうことはこれから多く要求されてくることになりそうですね。

 

European Commission

・2025.09.23 Commission requests information under Digital Services Act from Apple, Booking.com, Google and Microsoft on financial scams

Commission requests information under Digital Services Act from Apple, Booking.com, Google and Microsoft on financial scams 欧州委員会はデジタルサービス法に基づき、アップル、ブッキング・ドットコム、グーグル、マイクロソフトに対し、金融詐欺に関する情報を要求した。
The European Commission sent requests for information to Apple App store, Booking.com, Bing, Google Play and Google Search on how these platforms and search engines identify and manage risks related to financial scams. 欧州委員会は、Apple App Store、Booking.com、Bing、Google Play、Google検索に対し、これらのプラットフォームや検索エンジンが金融詐欺に関連するリスクをどのように識別し、リスクマネジメントを行っているかについて、情報提供を求める要請を送った。
Online platforms and search engines are extensively used by scammers to identify their victims - both individuals and organisations - and communicate with them. Under the Digital Services Act, very large online platforms and search engines are required to assess and mitigate systemic risks associated with the dissemination of illegal content and with consumer protection. オンラインプラットフォームと検索エンジンは、詐欺師が個人や組織といった被害者を識別し、連絡を取るために広く利用されている。デジタルサービス法の下では、非常に大規模なオンラインプラットフォームと検索エンジンは、違法コンテンツの拡散や消費者保護に関連するシステム的なリスクを評価し、緩和することが義務付けられている。
The Commission is asking the companies to provide detailed information on how they assess the presence of fraudulent content and what measures they take to reduce the risks of financial scams. For Apple App Store and Google Play, this includes fraudulent applications that imitate legitimate banking, investment or trading apps. For Booking.com, this concerns fake accommodation listings designed to trick users into making payments that never result in an actual booking. The Commission is also asking Apple App Store, Google Play and Booking.com how they verify the identity of the businesses using their services, under the “Know Your Business Customer” rules, which can help them identify suspicious entities before they cause harm. For Bing and Google Search, the request covers links and ads that lead users to fraudulent websites, often resulting in financial losses. 欧州委員会は各社に対し、詐欺的コンテンツの存在をどのように評価し、金融詐欺のリスクを低減するための措置を講じているかについて詳細な情報提供を求めている。Apple App StoreとGoogle Playについては、正当な銀行・投資・取引アプリを模倣した詐欺アプリも対象となる。ブッキング・ドットコムについては、ユーザーを騙して実際の予約に至らない支払いをさせる偽の宿泊施設リストが対象となる。欧州委員会はまた、Apple App Store、Google Play、ブッキング・ドットコムに対し、「事業主本人確認(KYBC)」規則に基づき、サービス利用企業の身元をどのように確認しているかについても質問している。これにより、被害が発生する前に不審な事業体を識別できる可能性がある。BingとGoogle検索については、ユーザーを詐欺サイトへ誘導し、しばしば金銭的損失をもたらすリンクや広告が対象となる。
Moreover, the Commission is asking platforms to provide details about their advertising repositories - the databases where information on all ads must be stored and made accessible. The repositories enable regulators, researchers and the public to detect fraudulent ads and patterns used by scammers. The Commission is ensuring that its DSA actions are consistent with, and complementary to, other actions taken under consumer protection laws. さらに欧州委員会は、プラットフォームに対し広告リポジトリの詳細提供を求めている。これは全ての広告情報を保存・公開する義務があるデータベースである。このリポジトリにより規制当局・研究者・一般市民は詐欺師が用いる不正広告や手口を検知できる。欧州委員会はDSAに基づく措置が消費者保護法に基づく他の措置と整合的かつ補完的であることを確保している。
Find further information about the Digital Services Act and the supervision of designated VLOPs under DSA . デジタルサービス法(DSA)及びDSA下での指定VLOP監督に関する詳細情報はこちら。

 

デジタルサービス法関連のニュース

TOPICS DSA - Digital Services Act

 

 

 

1_20251005104801

 

| | Comments (0)

ENISA 脅威状況 2025 (2025.10.01)

こんにちは、丸山満彦です。

ENISAが脅威状況の2025年版を公表していますね...

2023年版は議会選挙を、2024年版はレジリエンスとランサムウェア。

そして今年の2025年版は...ランサムウェアを含むサイバー犯罪の分業化の更なる進展、国家を背景にした活動と犯罪活動の境目がわかりにくくなっている...などですかね。。。

あと、AIですかね...

つい先日、けいはんなプラザで開催された京都スマートシティEXPO2025で、上原先生、猪俣先生、京都府警の塩野さん、東京海上の佐藤さんとAI for Securityの話をしたのですが、攻撃者は当然、生成AIを活用してフィッシングメールをつくってくるよね...というはなしはありましたが、逆に本当のメールをどうするのかというのはこれから重要となるでしょうえ。。。実際、SMSでのメッセージとか、ほとんど無視していますからね...

 

ENISA

・2025.10.01 ENISA Threat Landscape 2025

ENISA Threat Landscape 2025 ENISA脅威状況 2025
Through a more threat-centric approach and further contextual analysis, this latest edition of the ENISA Threat Landscape analyses 4875 incidents over a period spanning from 1 July 2024 to 30 June 2025. At its core, this report provides an overview of the most prominent cybersecurity threats and trends the EU faces in the current cyber threat ecosystem. 脅威中心のアプローチとさらなる文脈分析を通じ、本最新版ENISA脅威状況は2024年7月1日から2025年6月30日までの期間に発生した4875件のインシデントを分析しています。本報告書の核心は、現在のサイバー脅威エコシステムにおいてEUが直面する最も顕著なサイバーセキュリティ脅威と動向の概要を提供することにあります。

 

・[PDF

20251003-42040

・[DOCX][PDF]仮訳

 

 

 

目次...

1.  EXECUTIVE SUMMARY 1.  エグゼクティブサマリー
2.  METHODOLOGY 2.  方法論
3.  THREAT LANDSCAPE OVERVIEW 3.  脅威状況の概要
4.  GENERAL KEY TRENDS 4.  主要な傾向
4.1  PHISHING REMAINS A PRIMARY INITIAL INTRUSION VECTOR 4.1  フィッシングは依然として主要な初期侵入手段
4.2  INCREASINGLY TARGETED CYBER DEPENDENCIES 4.2  サイバー依存性への標的化が進む
4.3  CONTINUOUS TARGETING OF MOBILE DEVICES 4.3  モバイル端末への継続的標的化
4.4  THREAT GROUPS CONVERGING 4.4  脅威グループの融合
4.5  PREDICTABLE USE OF AI 4.5  AIの予測可能な活用
5.  SECTORIAL ANALYSIS 5.  セクター別分析
5.1  PUBLIC ADMINISTRATION 5.1  公共行政
5.2  TRANSPORT 5.2  運輸
5.3  DIGITAL INFRASTRUCTURE AND SERVICES 5.3  デジタルインフラストラクチャとサービス
5.4  FINANCE 5.4  金融
5.5  MANUFACTURING 5.5  製造業
6.  CYBERCRIME 6.  サイバー犯罪
6.1  KEY CYBERCRIME THREATS 6.1  サイバー犯罪の主な脅威
6.2  CYBERCRIME SECTORIAL IMPACT 6.2  サイバー犯罪のセクター別影響
6.3  CYBERCRIME GEOGRAPHICAL IMPACT 6.3  サイバー犯罪の地理的影響
6.4  KEY CYBERCRIME TRENDS 6.4  サイバー犯罪の主な動向
7.  STATE-ALIGNED ACTIVITIES 7.  国家関連活動
7.1  KEY STATE-ALIGNED THREATS 7.1  国家関連の主な脅威
7.2  KEY STATE-ALIGNED TRENDS 7.2  国家関連の主な動向
8.  FOREIGN INFORMATION MANIPULATION AND INTERFERENCE 8.  外国による情報操作と干渉(FIMI)
8.1  KEY FIMI THREATS 8.1  FIMIの主な脅威
8.2  KEY FIMI TRENDS 8.2  FIMIの主な動向
9.  HACKTIVISM 9.  ハクティビズム
9.1  KEY HACKTIVISM THREATS 9.1  ハクティビズムの主な脅威
9.2  HACKTIVISM GEOGRAPHICAL TARGETING 9.2  ハクティビズムの地理的標的
9.3  HACKTIVISM SECTORIAL TARGETING 9.3  ハクティビズムの部門別標的
9.4  KEY HACKTIVISM TRENDS 9.4  ハクティビズム主な動向
10.  TTPS & VULNERABILITIES 10.  戦術・技術・手順(TTPS)と脆弱性
10.1  OBSERVED TACTICS, TECHNIQUES & PROCEDURES (TTPS) 10.1  確認された戦術、技術、手順(TTPS)
10.2  VULNERABILITIES 10.2  脆弱性
10.3  RECOMMENDATIONS 10.3  推奨事項
10.4  SYSTEM HARDENING 10.4  システム強化
10.5  ACCESS & PRIVILEGE 10.5  アクセスと特権
10.6  NETWORK PROTECTIONS 10.6  ネットワーク防御
10.7  MONITORING 10.7  モニタリング
10.8  RESILIENCE 10.8  レジリエンス
11.  OUTLOOK & CONCLUSION 11.  展望と結論
12.  APPENDIX 12.  附属書
12.1  TACTICS, TECHNIQUES & PROCEDURES (TTPS) 12.1  戦術、技術、手順(TTPS)
12.2  VULNERABILITIES 12.2  脆弱性
12.4  LEXICON 12.4  用語集

 

 

1. EXECUTIVE SUMMARY  1. エグゼクティブサマリー
This year’s ENISA Threat Landscape (ETL) introduces a revised and concise format designed to deliver insights through a threat-centric approach and enhanced contextualisation. This edition integrates additional analysis of adversary behaviours, vulnerabilities and geopolitical drivers, aimed at both strategic and operational audiences, offering an actionable perspective on trends shaping the EU’s cyber threat environment.  本年版ENISA脅威状況報告書(ETL)は、脅威中心のアプローチと強化された文脈化を通じて洞察を提供するよう設計された、改訂された簡潔な形式を導入しています。本版は、戦略的および運用的な読者層の両方を対象に、敵対者の行動、脆弱性、地政学的要因に関する追加分析を統合し、EUのサイバー脅威環境を形成する動向について実践的な視点を提供します。
The ETL 2025 provides an overview of the European cyber threat ecosystem from July 2024 to June 2025, drawing on nearly 4 900 selected and curated incidents. The reporting period highlights a maturing threat environment characterised by rapid exploitation of vulnerabilities and growing complexity in tracking adversaries.  ETL 2025は、2024年7月から2025年6月までの欧州サイバー脅威エコシステムを概観し、約4,900件の選定・精選されたインシデントを基にしています。報告期間では、脆弱性の迅速な悪用と敵対者の追跡における複雑性の増大を特徴とする、成熟した脅威環境が浮き彫りとなっています。
Intrusion activity remains significant, with ransomware at its core. Cybercriminal operators notably responded to the actions of law enforcement by decentralising operations, adopting aggressive extortion tactics and capitalising on regulatory compliance fears. The continuous proliferation of ransomware-as-aservice models, builder leaks and the services of access brokers has further lowered barriers to entry and diversified ransomware families, fuelling a professionalised and resilient criminal ecosystem.  侵入活動は依然として顕著であり、その中核をランサムウェアが占める。サイバー犯罪組織は、法執行機関の対応に対して、活動の分散化、強硬な恐喝戦術の採用、規制順守への懸念の悪用といった形で顕著に対応した。ランサムウェア・アズ・ア・サービスモデルの継続的な拡散、ビルダー漏洩、アクセスブローカーのサービスは、参入障壁をさらに低下させ、ランサムウェアファミリーの多様化を促進し、専門化・レジリエンスを有する犯罪エコシステムを助長している。
In parallel, state-aligned threat groups intensified their long-term cyberespionage campaigns against the telecommunications, logistics networks and manufacturing sectors in the EU, demonstrating advanced tradecraft such as supply chain compromise, stealthy malware frameworks and abuse of signed drivers.  並行して、国家系脅威グループはEUの通信・物流ネットワーク・製造事業者に対する長期サイバー諜報キャンペーンを強化。サプライチェーン侵害、ステルス型マルウェア枠組み、署名付きドライバ悪用といった高度な手法を駆使している。
Hacktivist activity continues to dominate reporting, representing almost 80% of recorded incidents and driven primarily by low-level distributed denial-of-service operations. While overall resulting in very low impact, these campaigns demonstrate how low-cost tools are scaled for ideology-driven operations.  ハクティビスト活動は報告件数の約80%を占め、主に低レベルの分散型サービス妨害(DDoS)攻撃によって主導され、依然として報告の大半を占めている。全体的な影響は極めて小さいものの、これらのキャンペーンはイデオロギー主導の作戦において低コストツールがどのように拡大されるかを示している。
Sectoral targeting patterns reinforce the EU’ systemic exposure. Public administration networks remain the primary focus (38%), notably for hacktivists and state-nexus intrusion sets, while transport emerged as a high-value sector, particularly maritime and logistics. Aviation and freight operations have faced ransomware disruptions, while digital infrastructure and services remain strategic targets for both cyberespionage and ransomware operators.  セクター別標的パターンはEUの体系的なエクスポージャーを浮き彫りにしている。公共行政ネットワークは依然として主要標的(38%)であり、特にハクティビストや国家関連侵入グループが集中。運輸分野(特に海運・物流)が高価値セクターとして台頭。航空・貨物輸送はランサムウェアによる混乱に見舞われ、デジタルインフラ・サービスはサイバー諜報活動とランサムウェア攻撃者の双方にとって戦略的標的であり続けている。
Phishing remains the dominant intrusion vector (60%) and is evolving through techniques used in largescale campaigns. The availability of phishing-as-a-service platforms demonstrates the industrialisation of phishing operations, enabling adversaries of all skill levels to launch complex campaigns. Abuse of cyber dependencies have also intensified, as shown by compromises in open-source repositories, malicious browser extensions and breaches of service providers, amplifying risk throughout interconnected digital ecosystems.  フィッシングは依然として主要な侵入経路(60%)であり、大規模キャンペーンで用いられる技術を通じて進化を続けている。フィッシング・アズ・ア・サービス(Phishing-as-a-Service)プラットフォームの普及は、フィッシング作戦の産業化を示しており、あらゆるスキルレベルの攻撃者が複雑なキャンペーンを実行可能にしている。オープンソースリポジトリの侵害、悪意のあるブラウザ拡張機能、サービスプロバイダへの侵害など、サイバー依存関係の悪用も激化しており、相互接続されたデジタルエコシステム全体でリスクを増幅させている。
Across all campaigns, adversaries continue to rely on a consistent set of tactics, techniques and procedures. Vulnerability exploitation remains a cornerstone of initial access (21.3%), with widespread campaigns rapidly weaponising them within days of their disclosure—underscoring the need to ensure patch availability and to implement and enforce basic measures for cyber hygiene.  あらゆるキャンペーンにおいて、攻撃者は一貫した戦術・技術・手順(TTPs)に依存し続けている。脆弱性悪用は依然として初期アクセス獲得の基盤(21.3%)であり、大規模キャンペーンでは脆弱性が公表されてから数日以内に武器化されるケースが広範に見られる。これはパッチの可用性を確保し、サイバー衛生管理の基本対策を実施・徹底する必要性を強調している。
Artificial intelligence has become a defining element of the threat landscape. By early 2025, AIsupported phishing campaigns reportedly represented more than 80 percent of observed social engineering activity worldwide, with adversaries leveraging jailbroken models, synthetic media and model poisoning techniques to enhance their operational effectiveness.  人工知能(AI)は脅威環境を特徴づける要素となった。2025年初頭までに、AI支援型フィッシングキャンペーンは世界的に観測されるソーシャルエンジニアリング活動の80%以上を占めると報告されており、攻撃者は脱獄モデル、合成メディア、モデル・ポイズニング技術を活用して作戦効果を高めている。
The threat landscape depicted in this edition reflects how the cyber threat landscape is shifting toward mixed, possibly convergent pressure, with fewer single high impact incidents, and more continuous, diversified and convergent campaigns that collectively erode resilience. 本版で描かれる脅威環境は、サイバー脅威が単一の高影響インシデントから、継続的・多様化・収束するキャンペーンへと移行し、複合的(おそらく収束する)圧力へと変化している実態を反映している。これらのキャンペーンが相まってレジリエンスを浸食している。

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.08.07 ENISA サイバーセキュリティ脅威状況の評価方法 (2025.08.01)

・2025.03.30 欧州ENISA 宇宙脅威状況 2025 (2025.03.26)

・2025.02.23 欧州 ENISA 脅威状況 (2023.01-2024.06):金融セクター

・2024.09.26 ENISA 脅威状況2024

・2023.12.09 ENISA 戦争と地政学がDoS攻撃に拍車をかけている - DoS攻撃に関する脅威状況

・2023.10.26 ENISA 脅威状況2023 - AIによる情報操作の台頭でEUの選挙がリスクにさらされる

・2023.09.20 ENISA 2030の脅威の展望 (2023.09.13)

・2023.03.22 ENISA 輸送セクターのサイバー脅威状況

・2022.12.14 ENISA 外国人による情報操作と干渉(FIMI)とサイバーセキュリティ - 脅威状況

・2022.11.08 ENISA 脅威状況 2022:不安定な地政学がサイバーセキュリティ脅威状況の傾向を揺るがす

・2022.08.01 ENISA ランサムウェアについての脅威状況

・2022.07.29 ENISA サイバーセキュリティ脅威ランドスケープの方法論 (2022.07.06) ENISA流サイバーインテリジェンスの方法論?

・2020.12.18 ENISA AI サイバーセキュリティのチャレンジ - AI脅威状況報告を公表していますね。

・2020.12.15 ENISA 5Gネットワークの脅威状況報告書のアップデート

・2020.10.21 ENISA Threat Landscape 2020 : サイバー脅威トップ15 サイバー攻撃はより高度化し、標的化が進み、対象も広範囲になり、検知もされにくくなる。。。

 

オーストラリア

・2022.11.09 オーストラリア ACSC 年次サイバー脅威報告書(2021年7月から2022年6月)

・2021.02.14 オーストラリア ACSC 2020年の医療セクターのサイバーセキュリティ脅威についてのスナップショット

 

カナダ

・2022.11.01 カナダ サイバーセキュリティセンター 国家サイバー脅威評価 2023-2024

・2022.07.21 カナダ サイバーセキュリティセンター 「サイバー脅威報告:ロシアのウクライナ侵攻に関連するサイバー脅威活動」 (2022.07.14)

 

 

 

| | Comments (0)

2025.10.04

ENISA 医療分野におけるサイバーハイジーン (2025.09.16)

こんにちは、丸山満彦です。

ENISAが医療分野におけるサイバーハイジーンのガイダンスを公表していますね。

大病院ではなく、専門クリニックや一般の開業医向けです。

中小規模の組織が一定のサイバーセキュリティレベルになることが社会的にも重要であるということはわかっているものの、その手段が難しい。。。どの国も悩んでいますよね...

 

ENISA

・2025.09.16 Cyber Hygiene in the Health Sector

Cyber Hygiene in the Health Sector 医療分野におけるサイバーハイジーン
This booklet, developed by ENISA, provides clear and targeted guidance with practical steps that health entities can take to: ENISAが作成した本冊子は、医療機関が以下の目的で実践できる明確かつ的を絞ったガイダンスを提供します:
-  Safeguard sensitive data ・機密データの保護
- Minimise exposure to common cyber threats- ・一般的なサイバー脅威への曝露の最小化
- Strengthen overall cyber resilience. ・全体的なサイバーレジリエンスの強化
This guidance is intended for both large hospitals and healthcare providers, as well as smaller entities, such as specialist clinics and General Practitioners, which often lack the resources but remain equally vulnerable to cyber-attacks. 本ガイダンスは、大規模病院や医療提供者だけでなく、専門クリニックや一般開業医など、リソースが不足しがちでありながらサイバー攻撃に対して同等に脆弱な小規模組織も対象としています。

 

・[PDF]

20251002-194154

 

目次...

1. PROTECT YOUR SYSTEMS & MEDICAL DEVICES 1. システムと医療機器の保護
2. PROTECT YOUR NETWORKS 2. ネットワークの保護
3. MIND THE SECURITY OF SMARTPHONES & E-CARE 3. スマートフォンと電子医療のセキュリティ確保
4. KEEP PATIENT RECORDS SAFE 4. 患者記録の安全確保
5. TAKE INCIDENTS SERIOUSLY 5. インシデントの深刻な受け止め
6. MANAGE THE ICT SUPPLY CHAIN 6. ICTサプライチェーンの管理
7. CYBER-EDUCATE YOUR STAFF 7. 要員のサイバー教育
8. PHYSICAL SECURITY 8. 物理的セキュリティ

 

前書き的...

Health entities across Europe are increasingly reliant on digital solutions - from electronic health records and telemedicine to connected medical devices and Al-powered diagnostics. This digital transformation also brings greater exposure to cyber threats such as ransomware, phishing and the exploitation of system vulnerabilities, which can disrupt critical services, compromise patient safety, and undermine trust. 欧州全域の医療機関は、電子健康記録や遠隔医療から、接続型医療機器やAI診断に至るまで、デジタルソリューションへの依存度を高めています。このデジタル変革は、ランサムウェア、フィッシング、システム脆弱性の悪用といったサイバー脅威への曝露リスクも高めており、重要なサービスの混乱、患者の安全の侵害、信頼の失墜を招く恐れがあります。
Fortunately, many of these risks can be mitigated through relatively straightforward measures, including regular system updates, secure backup management, and multi-factor authentication, which can prevent the vast majority of common cyberattacks. 幸い、定期的なシステム更新、安全なバックアップ管理、多要素認証など比較的単純な対策で、こうしたリスクの多くは軽減可能です。これらの対策により、一般的なサイバー攻撃の大半を防ぐことができます。
This booklet, developed by ENISA, provides clear and targeted guidance with practical steps that health entities can take to: ENISAが作成した本冊子は、医療機関が以下の目的を達成するための実践的な手順を明確かつ的を絞って示します:
◦ Safeguard sensitive data ◦ 機密データの保護
◦ Minimise exposure to common cyber threats ◦ 一般的なサイバー脅威への曝露の最小化
◦ Strengthen overall cyber resilience. ◦ 全体的なサイバーレジリエンスの強化
This guidance is intended for both large hospitals and healthcare providers, as well as smaller entities, such as specialist clinics and General Practitioners, which often lack the resources but remain equally vulnerable to cyber-attacks. 本ガイダンスは、大規模病院や医療提供者だけでなく、専門クリニックや一般開業医など、リソースが不足しているもののサイバー攻撃に対して同様に脆弱な小規模組織も対象としています。

 

 

もう少し詳細に...

1. PROTECT YOUR SYSTEMS & MEDICAL DEVICES 1. システムと医療機器の保護
KNOW YOUR ICT ASSETS ICT資産の把握
SECURE SYSTEM CONFIGURATION システム設定の保護
ACCESS CONTROL アクセス制御
STAY UP-TO-DATE 最新状態の維持
MALWARE PROTECTION AND SECURITY LOGGING マルウェア対策とセキュリティログ記録
BACKUPS OF CONFIGURATIONS, SOFTWARE AND DATA 設定・ソフトウェア・データのバックアップ
2. PROTECT YOUR NETWORKS 2. ネットワークの保護
HARDEN YOUR NETWORKS ネットワークの強化
CORPORATE EMAIL PROTECTION 企業メールの保護
SECURE WI-FI Wi-Fiのセキュリティ確保
FORTIFY INTERNET ACCESS インターネットアクセスの強化
3. MIND THE SECURITY OF SMARTPHONES & E-CARE 3. スマートフォンと電子医療のセキュリティ確保
MIND THE SECURITY OF PATIENT OPERATED DEVICES  患者操作デバイスのセキュリティの確保
ENABLE SECURE MOBILE USE 安全なモバイル利用の実現
4. KEEP PATIENT RECORDS SAFE 4. 患者記録の安全確保
CLASSIFY & SAFEGUARD  分類と保護
LOG AND MONITOR  ログ記録と監視
PROTECT DEVICES & DATA デバイスとデータの保護
5. TAKE INCIDENTS SERIOUSLY 5. インシデントの深刻な受け止め
BE PREPARED 準備を整える
OPERATIONAL COLLABORATION 運用上の連携
DISASTER RECOVERY 災害復旧
6. MANAGE THE ICT SUPPLY CHAIN 6. ICTサプライチェーンの管理
PROCURE SECURELY 安全な調達
SUPPLIER RELATIONSHIP サプライヤーとの関係
7. CYBER-EDUCATE YOUR STAFF 7. 要員のサイバー教育
STRATEGY 戦略
AWARENESS ACTIVITIES 意識向上活動
TRAINING ACTIVITIES トレーニング活動
8. PHYSICAL SECURITY 8. 物理的セキュリティ
PERIMETER 境界
SECURE WORKSPACES & FACILITIES 安全なワークスペースと施設

 

 

 

| | Comments (0)

2025.10.03

米国 NIST SP 1334 OT環境における可搬保管媒体のサイバーセキュリティリスク低減 (2025.09.30)

こんにちは、丸山満彦です。

NISTが、SP 1334 OT環境における可搬保管媒体のサイバーセキュリティリスク低減を最終化していますね...

 

NIST - ITL

・2025.09.30 NIST SP 1334 Reducing the Cybersecurity Risks of Portable Storage Media in OT Environments

NIST SP 1334 Reducing the Cybersecurity Risks of Portable Storage Media in OT Environments NIST SP 1334 OT環境における可搬保管媒体のサイバーセキュリティリスク低減
Abstract 要約
Portable storage media continue to be useful tools for transferring data physically to and from Operational Technology (OT) environments. Universal Serial Bus (USB) flash drives are commonly used, in addition to external hard drives, CD or DVD drives, and other removable media. 可搬保管媒体は、オペレーショナルテクノロジー(OT)環境との間で物理的にデータを転送する有用なツールであり続けている。外部ハードドライブ、CDまたはDVDドライブ、その他のリムーバブルメディアに加え、ユニバーサルシリアルバス(USB)フラッシュドライブが一般的に使用されている。
Though portable storage media are convenient, their usage poses cybersecurity risks for operational environments. Procedural, physical, and technical controls are important for minimizing the likelihood of a cyberattack from portable storage media usage. The National Cybersecurity Center of Excellence (NCCoE) has developed cybersecurity considerations to help OT personnel use portable storage media securely and effectively. しかし可搬保管媒体は便利である一方、運用環境におけるサイバーセキュリティリスクをもたらす。可搬保管媒体の使用によるサイバー攻撃の可能性を最小限に抑えるには、手順上・物理的・技術的な管理が重要である。国立サイバーセキュリティ・センター・オブ・エクセレンス(NCCoE)は、OT担当者が可搬保管媒体を安全かつ効果的に使用するためのサイバーセキュリティ上の考慮事項を開発した。

 

・[PDF] NIST.SP.1334

20251002-140258

 

REDUCING THE CYBERSECURITY RISKS OF PORTABLE STORAGE MEDIA IN OT ENVIRONMENTS OT環境における可搬保管媒体のサイバーセキュリティリスク低減
Portable storage media continue to be useful tools for transferring data physically to and from Operational Technology (OT) environments. For example, media can be used for updating firmware for a device in an isolated OT network or retrieving log data for offsite diagnostics. Universal Serial Bus (USB) flash drives are commonly used, in addition to external hard drives, CD or DVD drives, and other removable media.  可搬保管媒体は、オペレーショナルテクノロジー(OT)環境との間で物理的にデータを転送する有用なツールであり続けている。例えば、隔離されたOTネットワーク内のデバイスのファームウェア更新や、オフサイト診断のためのログデータ取得にメディアが使用される。外部ハードドライブ、CD/DVDドライブ、その他のリムーバブルメディアに加え、USBフラッシュドライブが一般的に使用されている。
Though portable storage media are convenient, their usage poses cybersecurity risks for operational environments. Procedural, physical, and technical controls are important for minimizing the likelihood of a cyberattack from portable storage media usage. The National Cybersecurity Center of Excellence (NCCoE) has developed cybersecurity considerations to be integrated into a broader cybersecurity risk management program to help OT personnel use portable storage media securely and effectively. 可搬保管媒体は便利だが、その使用は運用環境にサイバーセキュリティリスクをもたらす。可搬保管媒体の使用によるサイバー攻撃の可能性を最小限に抑えるには、手順的、物理的、技術的な管理が重要である。国立サイバーセキュリティ・センター・オブ・エクセレンス(NCCoE)は、OT担当者が可搬保管媒体を安全かつ効果的に使用できるよう、より広範なサイバーセキュリティリスクマネジメントプログラムに統合すべき考慮事項を策定した。
PROCEDURAL CONTROLS 手順上の管理
An organization should develop policies that support asset management and enforce:  組織は資産管理を支援し、以下を強制する方針を策定すべきである:
• Purchasing, authorizing, and managing organizationowned media. Devices provided by other sources should be considered untrusted.  • 組織所有メディアの購入、認可、管理。外部提供デバイスは信頼できないものと見なす。
• Procuring devices that support hardware-based encryption standards such as FIPS.  • FIPSなどのハードウェアベース暗号化標準をサポートするデバイスの調達。
• Prohibiting media usage unless expressly authorized. Authorization should be limited to specific personnel and purposes.  • 明示的に認可された場合を除き、メディア使用を禁止する。認可は特定の担当者および目的に限定すべきである。
• Procedures for provisioning, usage, storage, sanitization, and destruction.  • プロビジョニング、使用、保管、サニタイズ、廃棄の手順。
• Enabling logs for traceability (e.g., system and user identity, device serial number, date and time).  • 追跡可能性のためのログ記録を有効化する(例:システムおよびユーザーID、デバイスシリアル番号、日時)。
• Training staff on policy and procedures. • ポリシーと手順に関するスタッフへの教育。
PHYSICAL CONTROLS 物理的制御
One way to minimize risk when using portable storage media is to apply physical controls for accessing, labeling, and storing the media.  可搬保管媒体を使用する際のリスクを最小限に抑える方法の一つは、媒体へのアクセス、表示、保管に関する物理的制御を適用することである。
• Media should be stored in a physically secure location where only authorized individuals have access.  • 媒体は、認可された個人のみがアクセスできる物理的に安全な場所に保管すべきである。
• Approved portable storage media should be inventoried and labeled. Labels may indicate: • 承認された可搬保管媒体は、在庫管理され、表示されるべきである。表示には以下を示すことができる:
o Who may use it o 使用許可者
o On which network/system it may be used o 使用可能なネットワーク/システム
o Its functional purpose Having a designated space to store approved media, in conjunction with access control and labeling, is a foundation for a well-implemented set of physical controls. This can be part of a larger asset management program. o 機能承認済みメディアの保管場所を指定し、アクセス管理とラベル付けを組み合わせることが、物理的制御を適切に実施するための基盤となる。これは大規模な資産管理プログラムの一部とすることができる。
TECHNICAL CONTROLS 技術的制御
Media should be protected consistent with guidance found in NIST SP 800-82, Revision 3. An organization should establish technical controls that enforce:  メディアはNIST SP 800-82改訂版3の指針に沿って防御すべきである。組織は以下を強制する技術的制御を確立すべきである:
• Disabling unnecessary ports. This can be done logically (e.g., BIOS, operating system, or group policy) or physically (e.g., port locks, epoxy, locking cabinets).  • 不要なポートの無効化。論理的(例:BIOS、OS、グループポリシー)または物理的(例:ポートロック、エポキシ封止、施錠キャビネット)に実施可能。
• Restricting devices or file execution through allowlisting solutions.  • 許可リスト方式によるデバイスまたはファイル実行の制限。
• Scanning of media before and after use. • 使用前後のメディアスキャン。
o Use updated malware detection software for automatic scans. o 自動スキャンには更新されたマルウェア検知ソフトウェアを使用する。
o When inserting media into unsupported devices, scan from an approved alternate device.  o サポート対象外のデバイスにメディアを挿入する場合、承認済みの代替デバイスからスキャンする。
• Reformatting devices before reusing them on different equipment or environments.  • 異なる機器や環境で再利用する前にデバイスを再フォーマットする。
• Write-protection when files only need to be read.  • ファイルが読み取り専用である場合に書き込み保護を適用する。
• Disabling Autorun.  • オートラン機能を無効化する。
• Encrypting the data stored on portable storage media using a FIPS-certified algorithm.  • FIPS認定アルゴリズムを用いて可搬保管媒体に保存されたデータを暗号化する。
• Detection of removable media activity by configuring alerts on insertion and data transfer. • 挿入時およびデータ転送時のアラート設定により、リムーバブルメディアの活動を検知する。
TRANSPORT AND SANITIZATION 移送とサニタイズ
Transportation within and between organizations introduces risk, which can be reduced by applying additional physical and logical controls. NIST SP 800-53, Revision 5 provides additional details on Media Protection.  組織内および組織間の移送にはリスクが伴うが、追加の物理的・論理的制御を適用することで軽減できる。NIST SP 800-53 リビジョン5は媒体保護に関する詳細を規定している。
• Encryption or a locked container can be used to securely transport USB devices within an organization.  • 組織内でのUSBデバイスの安全な移送には、暗号化または施錠されたコンテナを使用できる。
• Hash or checksum verification should be performed when transporting files (e.g., between the integrator and the asset owner).  • ファイルを輸送する際(例:インテグレーターと資産所有者の間)には、ハッシュまたはチェックサム検証を実施すべきである。
• Sanitization should be performed prior to disposing of the USB device. Media sanitization should include monitoring, reviewing, approving, tracking, and documenting actions. For more details, see NIST SP 800- 88, Revision 2*, Guidelines for Media Sanitization. • USBデバイスの廃棄前にはサニタイズを実施すべきである。メディアサニタイズには、監視、確認、承認、追跡、および行動の文書化を含むべきである。詳細はNIST SP 800-88改訂版2*「メディアサニタイズガイドライン」を参照のこと。
CONCLUSION 結論
Organizations can reduce the cybersecurity risks of USB device use with secure physical and logical controls on the access, storage, and usage of USB devices, and training on how to utilize USB devices safely and effectively in OT environments. For more information on specific controls, please refer to Guide to Operational Technology (OT) Security (NIST SP 800-82 Rev. 3), Security and Privacy Controls for Information Systems and Organizations (NIST SP 800-53 Rev. 5), and Guidelines for Media Sanitization (NIST SP 800-88 Rev. 2*).  組織は、USBデバイスのアクセス、保管、使用に対する物理的・論理的な安全対策と、OT環境におけるUSBデバイスの安全かつ効果的な利用方法に関するトレーニングを実施することで、USBデバイス使用に伴うサイバーセキュリティリスクを低減できる。具体的な管理策の詳細については、「運用技術(OT)セキュリティガイド(NIST SP 800-82 Rev. 3)」、「情報システムおよび組織のためのセキュリティとプライバシー管理策(NIST SP 800-53 Rev. 5)」、「メディアサニタイズガイドライン(NIST SP 800-88 Rev. 2*)」を参照のこと。
* Rev. 2 is in initial public draft phase * Rev. 2は現在、公開ドラフト段階にある

SP800-88は、2025.09.17に最終化されていますね...

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

ドラフト

・2025.07.24 米国 NIST SP 1334( 初期公開ドラフト) OT 環境における可搬保管媒体のサイバーセキュリティリスクの軽減 (2025.07.15)

 

OTセキュリティ

・2023.10.01 NIST SP 800-82 第3版 OTセキュリティガイド

・2022.04.28 NIST SP 800-82 第3版 OTセキュリティガイド(ドラフト)

・2021.08.02 米国 連邦政府 重要インフラ制御システムのサイバーセキュリティの向上に関する国家安全保障に関する覚書

少し昔ですが...

・2011.06.10 NIST Special Publication 800-82, Guide to Industrial Control System (ICS) Security.

 

サニタイズ

・2025.10.01 米国 NIST SP 800-88 Rev. 2 媒体サニタイズ・ガイドライン (2025.09.26)

・2025.07.25 米国 NIST SP 800-88 Rev. 2 (初期公開ドラフト) 媒体のサニタイズに関するガイドライン (2025.07.21)

 

 

| | Comments (0)

米国 NIST IR 8183 Rev. 2 (初期公開ドラフト) サイバーセキュリティ・フレームワーク2.0 製造業プロファイル (2025.09.29)

こんにちは、丸山満彦です。

NISTがIR 8183 Rev. 2 (初期公開ドラフト) サイバーセキュリティ・フレームワーク2.0 製造業プロファイルを公表していますね... 

サイバーセキュリティフレームワークに沿ったプロファイルはすでにいくつかドラフトも含めて公表されていていますが、CSFが2.0になったことから更新が始まっているという感じですね...

基本はCSFの改訂に合わせた改訂という感じですかね...

 

NIST - ITL

・2025.09.29 NIST IR 8183 Rev. 2 (Initial Public Draft) Cybersecurity Framework 2.0 Manufacturing Profile

 

NIST IR 8183 Rev. 2 (Initial Public Draft) Cybersecurity Framework 2.0 Manufacturing Profile NIST IR 8183 Rev. 2 (初期公開ドラフト)  サイバーセキュリティ・フレームワーク2.0 製造業プロファイル
Announcement 発表
The Manufacturing Profile is aligned with manufacturing sector goals and industry best practices and can be used as a roadmap for reducing cybersecurity risk for manufacturers. The Manufacturing Profile provides a voluntary, risk-based approach for managing cybersecurity activities and reducing cyber risk to manufacturing systems and is meant to enhance but not replace current cybersecurity standards and industry guidelines. 製造業プロファイルは、製造業の目標と業界のベストプラクティスに沿っており、製造事業者向けのサイバーセキュリティリスク低減のためのロードマップとして使用できる。製造業プロファイルは、サイバーセキュリティ活動を管理し、製造システムへのサイバーリスクを低減するための自主的なリスクベースのアプローチを提供し、現行のサイバーセキュリティ標準や業界ガイドラインを補完するものであり、それらに取って代わるものではない。
This revision of the CSF Manufacturing Profile provides the following updates: 本改訂版では以下の更新を行う:
・Realigned guidance to CSF 2.0 Functions, including guidance for the new Govern Function ・CSF 2.0の機能(新規追加のガバナンス機能を含む)へのガイダンス再調整
・Realigned guidance to CSF 2.0 Categories (changed from 23 in CSF 1.1 to 22 in CSF 2.0) ・CSF 2.0のカテゴリーへのガイダンス再調整(CSF 1.1の23カテゴリーからCSF 2.0の22カテゴリーへ変更)
・Realigned guidance to CSF 2.0 Subcategories (changed from 108 in CSF 1.1 to 106 in CSF 2.0) ・CSF 2.0サブカテゴリーへのガイダンスの再調整(CSF 1.1の108からCSF 2.0の106へ変更)
・Added guidance for CSF 2.0 supply chain risk management, platform security, and technology infrastructure resilience Categories ・CSF 2.0サプライチェーンリスクマネジメント、プラットフォームセキュリティ、技術インフラレジリエンスカテゴリーに関するガイダンスの追加
We invite you to review this document and provide comments by November 17, 2025. 本ドキュメントを精査し、2025年11月17日までにコメントを提供するよう要請する。
Abstract 概要
This document provides the Cybersecurity Framework (CSF) Version 2.0 Community Profile developed for supporting manufacturing environments. This “Manufacturing Profile” is aligned with manufacturing sector goals and industry best practices and can be used as a roadmap for reducing cybersecurity risk for manufacturers. The Manufacturing Profile provides a voluntary, risk-based approach for managing cybersecurity activities and reducing cyber risk to manufacturing systems and is meant to enhance but not replace current cybersecurity standards and industry guidelines. 本文書は、製造環境を支援するために開発された サイバーセキュリティ・フレームワーク(CSF)バージョン2.0コミュニティプロファイルを提供する。この「製造プロファイル」は、製造セクターの目標と業界のベストプラクティスに整合しており、製造事業者のサイバーセキュリティリスク低減のためのロードマップとして使用できる。製造プロファイルは、サイバーセキュリティ活動を管理し、製造システムへのサイバーリスクを低減するための自主的なリスクベースのアプローチを提供し、現行のサイバーセキュリティ標準や業界ガイドラインを補完するものであり、それらに取って代わるものではない。

 

・[PDF] IR.8183r2.ipd

20251002-130415

 

Executive Summary エグゼクティブサマリー
1. Introduction 1. 序論
1.1. Purpose & Scope 1.1. 目的と範囲
1.2. Audience 1.2. 対象読者
1.3. Document Structure 1.3. 文書の構成
2. Overview of Manufacturing Systems 2. 製造システムの概要
3. Overview of the Cybersecurity Framework 3. サイバーセキュリティ・フレームワークの概要
3.1. Govern (GV) 3.1. ガバナンス(GV)
3.2. Identify (ID) 3.2. 識別(ID)
3.3. Protect (PR) 3.3. 保護(PR)
3.4. Detect (DE) 3.4. 検知(DE)
3.5. Respond (RS) 3.5. 対応(RS)
3.6. Recover (RC) 3.6. 復旧(RC)
4. Manufacturing Profile Development Approach 4. 製造プロファイル開発アプローチ
4.1. Manufacturing Business/Mission Objectives 4.1. 製造事業/ミッション目標
4.2. Categorization Process 4.2. 分類プロセス
4.3. Risk Management 4.3. リスクマネジメント
5. Manufacturing Profile Subcategory Guidance 5. 製造プロファイルサブカテゴリーガイダンス
5.1. Govern 5.1. 統制
5.2. Identify 5.2. 識別
5.3. Protect 5.3. 保護
5.4. Detect 5.4. 検知
5.5. Respond 5.5. 対応
5.6. Recover 5.6. 復旧
References 参考文献
Appendix A. List of Symbols, Abbreviations, and Acronyms  附属書A. 記号、略語、頭字語一覧 
Appendix B. Glossary 附属書B. 用語集
Appendix C. Change Log 附属書C. 変更履歴

 

 

エグゼクティブサマリー、序論...

Executive Summary  エグゼクティブサマリー
This document provides a Cybersecurity Framework 2.0 Community Profile created for manufacturing environments. This “Manufacturing Profile” aligns with manufacturing sector goals and industry best practices and can serve as a guide for reducing cybersecurity risks for manufacturers.  本ドキュメントは、製造環境向けに作成された サイバーセキュリティ・フレームワーク2.0コミュニティプロファイルを提供する。この「製造プロファイル」は、製造セクターの目標と業界のベストプラクティスに沿っており、製造事業者のサイバーセキュリティリスク低減の指針となり得る。
The Profile gives manufacturers:  本プロファイルは製造事業者に以下を提供する: 
• A method to identify opportunities for improving the current cybersecurity posture of the manufacturing system  • 製造システムの現行サイバーセキュリティ態勢を改善する機会を識別する方法 
• An evaluation of their ability to operate the manufacturing environment at their acceptable risk level  • 許容リスクレベルで製造環境を運用する能力の評価
• A standardized approach to preparing the cybersecurity plan for ongoing assurance of the manufacturing system’s security  • 製造システムのセキュリティを継続的に保証するためのサイバーセキュリティ計画策定における標準アプローチ 
The Profile is structured around the functional areas of the Cybersecurity Framework 2.0: Govern, Identify, Protect, Detect, Respond, and Recover. These main areas form a foundation for developing manufacturer-specific or sector-specific profiles to support different levels of manufacturing operational criticality (e.g., Low, Moderate, and High).  本プロファイルは、 サイバーセキュリティ・フレームワーク2.0の機能領域(ガバナンス、識別、保護、検知、対応、復旧)を基盤として構成されている。これらの主要領域は、製造オペレーションの重要度レベル(例:低、中、高)に応じた、製造事業者固有または業界固有のプロファイル開発の基盤を形成する。
This Manufacturing “Target” Profile aims to guide organizations in achieving key cybersecurity outcomes by providing a roadmap to identify opportunities for improving the cybersecurity of manufacturing systems. It offers a voluntary, risk-based approach for managing cybersecurity activities and lowering cyber risks to manufacturing systems. This profile is meant to supplement, not replace, existing cybersecurity standards and industry guidelines that the manufacturer adopts. この製造「ターゲット」プロファイルは、製造システムのサイバーセキュリティ向上機会を特定するロードマップを提供することで、組織が主要なサイバーセキュリティ成果を達成するための指針となることを目的とする。製造システムに対するサイバーリスクを低減し、サイバーセキュリティ活動を管理するための自主的かつリスクベースのアプローチを提供する。本プロファイルは、製造事業者が採用する既存のサイバーセキュリティ標準や業界ガイドラインを補完するものであり、それらに取って代わるものではない。
1. Introduction  1. 序論
Executive Order 13636, “Improving Critical Infrastructure Cybersecurity,” [1] directed the development of the voluntary CSF that provides a prioritized, flexible, repeatable, performancebased, and cost-effective approach to manage cybersecurity risk for those processes, information, and systems directly involved in the delivery of critical infrastructure services. Executive Order 13800 [2] expands the use of the CSF to federal agencies, requiring them to use it to manage their cybersecurity risk. In response, NIST has established the Cybersecurity Framework 2.0 (CSF) [3] to help organizations of all sizes and sectors manage and reduce their cybersecurity risks.  大統領令13636号「重要インフラのサイバーセキュリティ強化」 [1]は、重要インフラサービスの提供に直接関与するプロセス、情報、システムのサイバーセキュリティリスクを管理するための、優先順位付けされた柔軟で再現性のある、パフォーマンスベースかつ費用対効果の高いアプローチを提供する自主的なCSF(サイバーセキュリティフレームワーク)の開発を指示した。大統領令13800号[2]はCSFの利用を連邦機関に拡大し、サイバーセキュリティリスク管理にCSFを使用することを義務付けた。これを受け、NISTはあらゆる規模・分野の組織がサイバーセキュリティリスクを管理・低減するための「 サイバーセキュリティ・フレームワーク2.0(CSF)」[3]を確立した。
This CSF Community Profile uses a common language to address and manage cybersecurity risks for manufacturing organizations. Specifically, the Manufacturing Community Profile (Profile) outlines specific cybersecurity activities and outcomes to protect a manufacturing system, its components, facilities, and environment. Using the Profile, manufacturers can align cybersecurity efforts with business needs, risk tolerances, and available resources. The Profile recognizes that each organization has both common and unique risks, varying risk appetites and tolerances, specific missions, and objectives to achieve those missions and offers a manufacturing sector-specific approach to cybersecurity based on standards, guidelines, and industry best practices.  本CSFコミュニティプロファイルは、製造業組織のサイバーセキュリティリスクに対処・管理するための共通言語を用いる。具体的には、製造業コミュニティプロファイル(プロファイル)は、製造システム・その構成要素・施設・環境を防御するための具体的なサイバーセキュリティ活動と成果を概説する。本プロファイルを活用することで、製造事業者はサイバーセキュリティ対策を事業ニーズ、リスク許容度、利用可能なリソースと整合させられる。プロファイルは、各組織が共通リスクと固有リスクを併せ持ち、リスク選好度や許容度が異なり、特定の使命とそれを達成する目標を有することを認識し、標準、ガイドライン、業界のベストプラクティスに基づく製造業セクター固有のサイバーセキュリティアプローチを提供する。
1.1. Purpose & Scope  1.1. 目的と範囲
This document represents a CSF Community Profile that describes shared interests, goals, and outcomes for reducing cybersecurity risk among several organizations. Community Profiles provide a way to reflect a consensus point of view about cybersecurity risk management. Organizations in the community can use a Community Profile as the basis of, or to inform, their Organizational Target Profiles. Some communities may develop more than one Community Profile, based on the scope of their needs [3].  本文書は、複数の組織間でサイバーセキュリティリスクを低減するための共通の関心事、目標、成果を記述するCSFコミュニティプロファイルである。コミュニティプロファイルは、サイバーセキュリティリスクマネジメントに関する合意形成の見解を反映する手段を提供する。コミュニティ内の組織は、コミュニティプロファイルを組織目標プロファイルの基礎として、またはその策定に活用できる。一部のコミュニティは、ニーズの範囲に基づき複数のコミュニティプロファイルを開発する場合がある[3]。
This Profile provides a voluntary, risk-based approach to managing cybersecurity activities and reducing cyber risk to manufacturing systems. It maps the CSF Subcategories with implementation guidance based on the criticality of the manufacturing systems and processes. Additionally, the Profile provides an opportunity for improving the current cybersecurity posture of manufacturing systems by allowing organizations to establish a common language and set of expectations that support comparing the target and current cybersecurity posture. These gap analyses can then be utilized by organizations to plan and prioritize remediation efforts to achieve cybersecurity risk management objectives.  本プロファイルは、製造システムに対するサイバーリスクを低減し、サイバーセキュリティ活動を管理するための自主的なリスクベースアプローチを提供する。製造システムとプロセスの重要度に基づき、CSFサブカテゴリーと実装ガイダンスを対応付ける。さらに、組織が共通言語と期待値を設定し、目標と現状のサイバーセキュリティ態勢を比較することを可能にすることで、製造システムの現状のサイバーセキュリティ態勢を改善する機会を提供する。組織はこれらのギャップ分析を活用し、サイバーセキュリティリスクマネジメント目標を達成するための是正措置の計画と優先順位付けを行うことができる。 
1.2. Audience  1.2. 対象読者
This document covers details specific to manufacturing systems. Readers of this document should be acquainted with industrial control systems (ICS), general computer security concepts, and communication protocols such as those used in networking. The intended audience is varied and includes the following:  本文書は製造システムに特有の詳細を扱う。読者は産業用制御システム(ICS)、一般的なコンピュータセキュリティ概念、ネットワークで使用されるような通信プロトコルに精通している必要がある。対象読者は多様であり、以下を含む:
• Control engineers, integrators, and architects who design or implement secure manufacturing systems.  • セキュアな製造システムを設計または実装する制御エンジニア、インテグレーター、アーキテクト。
• System administrators, Network administrators, cybersecurity personnel, physical security, and OT operators and engineers who administer, patch, or secure manufacturing systems and environments.  • 製造システムおよび環境を管理、パッチ適用、または保護するシステム管理者、ネットワーク管理者、サイバーセキュリティ担当者、物理的セキュリティ担当者、OTオペレーターおよびエンジニア。
• Managers who are responsible for manufacturing systems.  • 製造システムを担当する管理者。
• Senior management who are trying to understand implications and consequences as they justify and implement a manufacturing systems cybersecurity program to help mitigate impacts to business functionality.  • 製造システムのサイバーセキュリティプログラムを正当化し実装する際に、ビジネス機能への影響を緩和するための影響と結果を理解しようとする上級管理職。
• Researchers, academic institutions, and analysts who are trying to understand the unique security needs of manufacturing systems.  • 製造システムの特有のセキュリティ要件を理解しようとする研究者、学術機構、アナリスト。
1.3. Document Structure  1.3. 文書構成
The remainder of this guide is divided into the following major sections:  本ガイドの残りの部分は、以下の主要セクションに分かれている:
• Section 2 provides an overview of manufacturing systems.  • セクション2は製造システムの概要を提供する。
• Section 3 provides an overview of the NIST Cybersecurity Framework 2.0.  • セクション3はNISTサイバーセキュリティフレームワーク2.0の概要を提供する。
• Section 4 discusses the Manufacturing Profile development approach.  • セクション4では、製造プロファイルの開発アプローチについて論じる。
• Section 5 provides the manufacturing specific guidance for the CSF subcategories.  • セクション5では、CSFサブカテゴリーに対する製造分野固有のガイダンスを提供する。
• References provide a list of references used in the development of this document.  • 参考文献では、本ドキュメント作成に使用した参考文献の一覧を示す。
• Appendix A provides a list of acronyms and abbreviations used in this document.  • 附属書Aでは、本ドキュメントで使用した頭字語および略語の一覧を示す。
• Appendix B provides a glossary of terms used in this document.  • 附属書Bでは、本ドキュメントで使用した用語の用語集を提供する。
• Appendix C provides a change log for revisions of the Profile.  • 附属書Cはプロファイル改訂の変更履歴を提供する。

 

製造システムの概要...

2. Overview of Manufacturing Systems  2. 製造システムの概要
Manufacturing systems represent different types of control systems (e.g., supervisory control and data acquisition (SCADA) systems, distributed control systems (DCS), programmable logic controllers (PLCs)) and are often found in the industrial sectors and critical infrastructures. Manufacturing systems usually include a mix of control components (e.g., electrical, mechanical, hydraulic, and pneumatic) that work together to fulfill an industrial goal (like manufacturing or transporting matter or energy). These ICSs support the large and diverse manufacturing industrial sector and can be categorized as either process-based, discrete-based, or a combination of both [4].  製造システムは様々な制御システム(例:監視制御・データ収集(SCADA)システム、分散制御システム(DCS)、プログラマブルロジックコントローラ(PLC))を表し、産業分野や重要インフラで頻繁に見られる。製造システムは通常、電気、機械、油圧、空気圧などの制御コンポーネントを組み合わせて構成され、物質やエネルギーの製造・輸送といった産業目標を達成するために連携して動作する。これらのICSは、大規模かつ多様な製造産業分野を支えており、プロセスベース、ディスクリートベース、あるいはその両方の組み合わせに分類される[4]。
Process-based manufacturing industries typically utilize two main process types:  プロセスベースの製造産業では、主に以下の2種類のプロセスが利用される:
• Continuous Manufacturing Processes. These processes run continuously, often with phases to make different grades of a product. Typical continuous manufacturing processes include fuel or steam flow in a power plant, petroleum in a refinery, and distillation in a chemical plant.  • 連続製造プロセス。これらのプロセスは継続的に稼働し、製品の異なるグレードを製造するための段階を含むことが多い。典型的な連続製造プロセスには、発電所における燃料や蒸気の流れ、製油所における石油、化学プラントにおける蒸留が含まれる。 
• Batch Manufacturing Processes. These processes have distinct processing steps, conducted on a quantity of material. There is a distinct start and end to a batch process with the possibility of brief steady state operations during intermediate steps. Typical batch manufacturing processes include food, beverage, and biotech manufacturing.  • バッチ製造プロセス。これらのプロセスは、一定量の材料に対して実施される明確な加工ステップを持つ。バッチプロセスには明確な開始と終了があり、中間ステップで短時間の定常状態運転が行われる可能性がある。典型的なバッチ製造プロセスには、食品、飲料、バイオテクノロジー製造が含まれる。 
Discrete-based manufacturing industries typically conduct a series of operations on a product to create a distinct product. Electronic and mechanical parts assembly and parts machining are typical examples of this type of industry. Both process-based and discrete-based industries utilize similar types of control systems, sensors, and networks. Some facilities are a hybrid of discrete and process-based manufacturing.  個別生産型製造事業者たちは通常、製品に対して一連の作業を行い、明確な製品を創出する。電子部品や機械部品の組立、部品加工はこの種の産業の典型例である。プロセス型産業と個別生産型産業の双方は、類似した制御システム、センサー、ネットワークを利用する。一部の施設は個別生産型とプロセス型のハイブリッドである。
Additionally, manufacturers must also manage the supply chain for both technology-based inputs used in their final products (e.g., PLCs, sensors, robotics, data collection systems, and other information technologies), technology-based products used by the organization, and nontechnology input products (e.g., non-IT components manufactured by third-party suppliers that are used to manufacture the final product).  さらに製造事業者は、最終製品に使用される技術ベースの投入物(例:PLC、センサー、ロボット、データ収集システム、その他の情報技術)、組織内で使用される技術ベースの製品、非技術投入製品(例:最終製品製造に使用されるサードパーティサプライヤー製非IT部品)のサプライチェーン管理も必要である。
The Manufacturing sector of the critical infrastructure community includes public and private owners and operators, along with other entities operating in the manufacturing domain. Members of this distinct sector perform functions that are supported by OT and IT. This reliance on technology, communication, and the interconnectivity of OT and IT has changed and expanded the potential vulnerabilities and increased the potential risk to manufacturing system operations. 重要インフラコミュニティにおける製造業セクターには、公共・民間の所有者・運営者、および製造分野で活動するその他の事業体が含まれる。この特定セクターの構成員は、OTとITによって支えられる機能を果たす。技術、コミュニケーション、OTとITの相互接続性への依存は、潜在的な脆弱性を変化・拡大させ、製造システム運用への潜在リスクを高めている。

 

 


 

Govern (GV) 
Category  Objective  目的
ID.AM  Assets (e.g., data, hardware, software, systems, facilities, services, people) that enable the organization to achieve business purposes are identified and managed consistent with their relative importance to organizational objectives and the organization’s risk strategy  組織が事業目的を達成するために必要な資産(例:データ、ハードウェア、ソフトウェア、システム、施設、サービス、人材)は、組織目標およびリスク戦略に対する相対的重要度に基づき特定され、管理される
ID.RA  The cybersecurity risk to the organization, assets, and individuals is understood by the organization  組織は、組織、資産、個人に対するサイバーセキュリティリスクを理解している
ID.IM  Improvements to organizational cybersecurity risk management processes, procedures and activities are identified across all CSF Functions  組織のサイバーセキュリティリスクマネジメントプロセス、手順、活動に対する改善点は、すべてのCSF機能にわたって特定される
Identify (ID) 
Category  Objective  目的
GV.OC  The circumstances—mission, stakeholder expectations, dependencies, and legal, regulatory, and contractual requirements—surrounding the organization’s cybersecurity risk management decisions are understood  組織のサイバーセキュリティリスクマネジメント決定を取り巻く状況(ミッション、ステークホルダーの期待、依存関係、法的・規制・契約上の要件)を理解する
GV.RM  The organization’s priorities, constraints, risk tolerance and appetite statements, and assumptions are established, communicated, and used to support operational risk decisions  組織の優先順位、制約、リスク許容度およびリスク選好に関する声明、前提条件を確立し、伝達し、業務リスク決定を支援するために使用する
GV.RR  Cybersecurity roles, responsibilities, and authorities to foster accountability, performance assessment, and continuous improvement are established and communicated  説明責任、パフォーマンス評価、継続的改善を促進するためのサイバーセキュリティの役割、責任、権限が確立され、伝達される
GV.PO  Organizational cybersecurity policy is established, communicated, and enforced  組織のサイバーセキュリティポリシーが確立され、伝達され、施行される
GV.OV  Results of organization-wide cybersecurity risk management activities and performance are used to inform, improve, and adjust the risk management strategy  組織全体のサイバーセキュリティリスクマネジメント活動とパフォーマンスの結果が、リスクマネジメント戦略の策定、改善、調整に活用される
GV.SC  Cyber supply chain risk management processes are identified, established, managed, monitored, and improved by organizational stakeholders  サイバーサプライチェーンリスクマネジメントプロセスが、組織のステークホルダーによって特定、確立、管理、監視、改善される
Protect (PR) 
Category  Objective  目的
PR.AA  Access to physical and logical assets is limited to authorized users, services, and hardware, and is managed commensurate with the assessed risk of unauthorized access  物理的および論理的資産へのアクセスは、認可されたユーザー、サービス、ハードウェアに限定され、不正アクセスの評価リスクに見合った管理がなされる
PR.AT  The organization's personnel are provided with cybersecurity awareness and training so that they can perform their cybersecurity-related tasks  組織の従業員には、サイバーセキュリティ関連の業務を遂行できるよう、サイバーセキュリティ意識向上およびトレーニングが提供される
PR.DS  Data are managed consistent with the organization’s risk strategy to protect the confidentiality, integrity, and availability of information.  データは、情報の機密性、完全性、可用性を保護するため、組織のリスク戦略に沿って管理される
PR.PS  The hardware, software (e.g., firmware, operating systems, applications), and services of physical and virtual platforms are managed consistent with the organization’s risk strategy to protect their confidentiality, integrity, and availability.  物理的および仮想プラットフォームのハードウェア、ソフトウェア(例:ファームウェア、オペレーティングシステム、アプリケーション)、サービスは、機密性、完全性、可用性を防御するため、組織のリスク戦略に沿って管理される。
PR.IR  Security architectures are managed with the organization’s risk strategy to protect asset confidentiality, integrity, and availability, and organizational resilience  セキュリティアーキテクチャは、資産の機密性、完全性、可用性、および組織のレジリエンスを防御するため、組織のリスク戦略に沿って管理される。
Detect (DE) 
Category  Objective  目的
DE.CM  Assets are monitored to find anomalies, indicators of compromise, and other potentially adverse events  資産は、異常、侵害の兆候、その他の潜在的な有害事象を発見するために監視される
DE.AE  Anomalies, indicators of compromise, and other potentially adverse events are analyzed to characterize the events and detect cybersecurity incidents.  異常、侵害の兆候、その他の潜在的な有害事象は、事象を特徴づけ、サイバーセキュリティインシデントを検出するために分析される
Respond (RS) 
Category  Objective  目的
Respond (RS)  Actions regarding a detected cybersecurity incident are taken  検知されたサイバーセキュリティインシデントに関する措置が講じられる
RS.MA  Responses to detected cybersecurity incidents are managed  検知されたサイバーセキュリティインシデントへの対応が管理される
RS.AN  Investigations are conducted to ensure effective response and support forensics and recovery activities  効果的な対応を確保し、フォレンジックおよび復旧活動を支援するために調査が実施される
RS.CO  Response activities are coordinated with internal and external stakeholders as required by laws, regulations, or policies  対応活動は、法令や方針に基づき、必要に応じて内部・外部の関係者と連携して実施される
RS.MI  Activities are performed to prevent expansion of an event and mitigate its effects  事象の拡大防止と影響緩和のための活動が実施される
Recover (RC) 
Category  Objective  目的
Recover (RC)  Assets and operations affected by a cybersecurity incident are restored  サイバーセキュリティインシデントの影響を受けた資産と運用を復旧させる
RC.RP  Restoration activities are performed to ensure operational availability of systems and services affected by cybersecurity incidents  復旧活動は、サイバーセキュリティインシデントの影響を受けたシステムとサービスの運用可用性を確保するために実施される
RC.CO  Restoration activities are coordinated with internal and external parties  復旧活動は、内部・外部の関係者と連携して実施される

 

 

 

 

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2025.08.22 米国 NIST CSWP 51(初期公開ドラフト) 交通機関のサイバーセキュリティフレームワークコミュニティプロファイルの開発:プロジェクトの最新情報

・2025.04.07 米国 NIST SP 800-61 Rev. 3 サイバーセキュリティリスク管理のためのインシデント対応に関する推奨事項および考慮事項:CSF 2.0 コミュニティプロファイル (2025.04.03)

・2025.03.11 米国 NIST IR 8546(初期公開ドラフト)サイバーセキュリティフレームワーク2.0 半導体製造プロファイル (2025.02.27)

・2025.01.26 米国 NIST IR 8374 Rev.1(初期公開ドラフト)ランサムウェアのリスクマネジメント: サイバーセキュリティフレームワーク2.0コミュニティ (2025.01.13)

・2024.12.26 米国 NIST CSWP 35(初期公開ドラフト) ゲノムデータシーケンスワークフローのサイバーセキュリティ脅威モデリング:ゲノムデータシーケンスおよび分析のための脅威モデル実装例

・2024.12.26 米国 NIST IR 8467 (第2次公開ドラフト) ゲノムデータのサイバーセキュリティとプライバシーフレームワーク コミュニティプロファイル (2024.12.16)

・2024.07.31 米国 NIST SP 800-218A 生成的AIとデュアルユース基盤モデルのための安全なソフトウェア開発プラクティス: SSDFコミュニティプロファイル

・2024.04.05 米国 意見募集 NIST SP 800-61 Rev.3(初期公開ドラフト) サイバーセキュリティリスクマネジメントのためのインシデント対応の推奨と考慮事項: CSF 2.0 コミュニティプロファイル・ç

・2024.03.07 米国 NSIT サイバーセキュリティ・フレームワーク(CSF)2.0 関連 SP 1299, 1300, 1301, 1302, 1303, 1305 (2024.02.26)

・2024.03.06 米国 NIST CSWP 32(初期公開ドラフト)サイバーセキュリティフレームワーク 2.0: コミュニティプロファイル作成ガイド (2024.02.26)

 

NISTサイバーセキュリティフレームワーク

・2024.02.28 米国 NIST CSWP 29 NISTサイバーセキュリティフレームワーク(CSF)2.0

 

 

 

 

 

 

 

 

| | Comments (0)

2025.10.02

米国 NIST SP 800-172 Rev. 3 (最終公開ドラフト) 管理対象非機密情報の保護に関する強化されたセキュリティ要件とSP 800-172A Rev. 3(初期公開ドラフト)管理対象非機密情報に対する強化されたセキュリティ要件の評価 (2025.09.26)

こんにちは、丸山満彦です。

NISTが

  • SP 800-172 Rev. 3 管理対象非機密情報の保護に関する強化されたセキュリティ要件(最終公開ドラフト)
  • SP 800-172A Rev. 3 管理対象非機密情報に対する強化されたセキュリティ要件の評価(初期公開ドラフト)

を公表し、意見募集をしていますね。。。

SP800-172は、連邦政府の管理対象非機密情報(CUI)を利用する組織に要求する強化されたセキュリティコントロール要件で、SP800-171のコントロール以上のコントロールを要求するものです。(SP800-172としては初めての改訂なのですが、SP800-171の改訂バージョンと合わせるために、「Rev. 3」としています)

172Aはそれを評価する手法を記載していて、ある意味監査手法となります。

いずれも連邦政府向けのセキュリティコントロール要件であるSP800-53をベースにしたものです(政府向けの基準=委託先の基準)。

ということで...

 

● NIST - ITL

発表の部分はほぼ共通なので...

Announcement 発表
As part of ongoing efforts to strengthen the protections for securing controlled unclassified information (CUI) in nonfederal systems, NIST has released the following drafts for comment: 非連邦システムにおける管理対象非機密情報(CUI)の保護強化に向けた継続的な取り組みの一環として、NISTは以下のドラフトを公表し、意見を募集しています:
SP 800-172r3 (Revision 3) fpd (final public draft), Enhanced Security Requirements for Protecting Controlled Unclassified Information, provides new enhanced security requirements that support cyber resiliency objectives, focus on protecting CUI, and are consistent with the source controls in SP 800-53r5. ・SP 800-172r3(改訂版3)fpd(最終公開ドラフト)『管理対象非機密情報の保護に関する強化されたセキュリティ要件』は、サイバーレジリエンス目標を支援し、CUIの保護に焦点を当て、SP 800-53r5のソース管理と整合性のある新たな強化セキュリティ要件を提供する。
SP 800-172Ar3 ipd (initial public draft),  Assessing Enhanced Security Requirements for Controlled Unclassified Information, provides a set of assessment procedures for the enhanced security requirements. These procedures are based on the source assessment procedures in SP 800-53Ar5. ・SP 800-172Ar3 ipd(初期公開ドラフト)「管理対象非機密情報の強化されたセキュリティ要件の評価」は、強化されたセキュリティ要件に対する一連の評価手順を提供する。これらの手順はSP 800-53Ar5のソース評価手順に基づいている。
Both drafts implement a one-time “revision number” change for consistency with SP 800-171r3 and SP 800-171Ar3.  両ドラフトは、SP 800-171r3およびSP 800-171Ar3との整合性を図るため、一時的な「改訂番号」変更を実施している。
NIST seeks feedback on both drafts during a 45-day public comment period, from September 29 through November 14, 2025. NIST is specifically interested in comments, feedback, and recommendations on the following topics: NISTは、2025年9月29日から11月14日までの45日間のパブリックコメント期間中、両ドラフトに関するフィードバックを求めている。NISTは特に以下のトピックに関するコメント、フィードバック、提言に関心を持っている:
・The additional enhanced security requirements to protect critical systems and high value assets ・重要システムおよび高価値資産を保護するための追加強化セキュリティ要件
・The mappings between the enhanced security requirements to the SP 800-160 protect strategies and adversary effects ・強化セキュリティ要件とSP 800-160の保護戦略および敵対者効果との対応関係
・The usefulness of the information in the supplementary Appendices ・補足附属書の情報の実用性
Learn More about the Protecting CUI Project. CUI保護プロジェクトの詳細はこちら

 


 

まずは、セキュリティ要件...

・2025.09.26 NIST SP 800-172 Rev. 3 (Final Public Draft) Enhanced Security Requirements for Protecting Controlled Unclassified Information

NIST SP 800-172 Rev. 3 (Final Public Draft) Enhanced Security Requirements for Protecting Controlled Unclassified Information NIST SP 800-172 Rev. 3 (最終公開ドラフト) 管理対象非機密情報の保護に関する強化されたセキュリティ要件
Abstract 概要
The protection of Controlled Unclassified Information (CUI) resident in nonfederal systems and organizations is of paramount importance to federal agencies and can directly impact the ability of the Federal Government to successfully conduct its essential missions and functions. This publication provides federal agencies with recommended security requirements for protecting the confidentiality, integrity, and availability of CUI when it is resident in a nonfederal system and organization and associated with a critical program or high value asset (HVA). The security requirements apply to the components of nonfederal systems that process, store, or transmit CUI or that provide protection for such components. The enhanced security requirements are intended for use by federal agencies in contractual vehicles or other agreements established between those agencies and nonfederal organizations. 非連邦システムおよび組織に存在する管理対象非機密情報(CUI)の保護は、連邦機関にとって極めて重要であり、連邦政府が本質的な任務と機能を成功裏に遂行する能力に直接影響を及ぼし得る。本出版物は、非連邦システムおよび組織に存在し、重要プログラムまたは高価値資産(HVA)に関連するCUIの機密性、完全性、可用性を保護するための推奨セキュリティ要件を連邦機関に提供する。本セキュリティ要件は、CUIを処理・保存・伝送する非連邦システムの構成要素、またはそれらを保護する構成要素に適用される。強化されたセキュリティ要件は、連邦機関と非連邦組織との間で締結される契約手段やその他の合意において、連邦機関が利用することを意図している。

 

・[PDF] SP.800-172r3.fpd

20251002-12450

 

目次...

1. Introduction
1. 序論
1.1. Purpose and Applicability 1.1. 目的と適用範囲
1.2. Organization of This Publication 1.2. 本出版物の構成
2. The Fundamentals 2. 基本原則
2.1. Enhanced Security Requirement Assumptions 2.1. 拡張セキュリティ要件の前提条件
2.2. Enhanced Security Requirement Development Methodology 2.2. 拡張セキュリティ要件の開発方法論
2.3. Enhanced Security Requirement Selection 2.3. 拡張セキュリティ要件の選定
3. The Requirements 3. 要件
3.1. Access Control 3.1. アクセス管理
3.2. Awareness and Training 3.2. 意識向上およびトレーニング
3.3. Audit and Accountability 3.3. 監査と説明責任
3.4. Configuration Management 3.4. 構成管理
3.5. Identification and Authentication 3.5. 識別と認証
3.6. Incident Response 3.6. インシデント対応
3.7. Maintenance 3.7. 維持管理
3.8. Media Protection 3.8. 媒体保護
3.9. Personnel Security 3.9. 職員のセキュリティ
3.10. Physical Protection 3.10. 物理的保護
3.11. Risk Assessment 3.11. リスクアセスメント
3.12. Security Assessment and Monitoring 3.12. セキュリティ評価と監視
3.13. System and Communications Protection 3.13. システム及び通信の保護
3.14. System and Information Integrity 3.14. システム及び情報の完全性
3.15. Planning 3.15. 計画
3.16. System and Services Acquisition 3.16. システム及びサービスの取得
3.17. Supply Chain Risk Management 3.17. サプライチェーンリスクマネジメント
References 参考文献
Appendix A. Acronyms 附属書A. 略語
Appendix B. Glossary  附属書B. 用語集
Appendix C. Summary of Enhanced Security Requirements 附属書C. 拡張セキュリティ要件の概要
Appendix D. Adversary Effects 附属書D. 敵対者効果
Appendix E. Organization-Defined Parameters  附属書E. 組織定義パラメータ
Appendix F. Change Log 附属書F. 変更履歴

 

 


次に保証...

 

・2025.09.26 NIST SP 800-172A Rev. 3 (Initial Public Draft) Assessing Enhanced Security Requirements for Controlled Unclassified Information

NIST SP 800-172A Rev. 3 (Initial Public Draft) Assessing Enhanced Security Requirements for Controlled Unclassified Information NIST SP 800-172A Rev. 3(初期公開ドラフト)管理対象非機密情報に対する強化されたセキュリティ要件の評価
Abstract 要約
The protection of controlled unclassified information (CUI) resident in nonfederal systems and organizations is of paramount importance to federal agencies and can directly impact the ability of the Federal Government to successfully conduct its essential missions and functions. This publication provides federal agencies with assessment procedures for the security requirements in NIST SP 800-172. The assessment procedures are flexible and can be tailored to the needs of federal agencies and assessors. Security requirement assessments can be conducted as (1) self-assessments; (2) independent, third-party assessments; or (3) government-sponsored assessments. The assessments can be conducted with varying degrees of rigor based on federal agency-defined depth and coverage attributes. The findings and evidence produced during the assessments can be used to facilitate risk-based decisions by organizations related to the security requirements. 非連邦システムおよび組織に存在する管理対象非機密情報(CUI)の保護は、連邦機関にとって極めて重要であり、連邦政府が本質的な任務と機能を成功裏に遂行する能力に直接影響を及ぼし得る。本出版物は、NIST SP 800-172のセキュリティ要件に関する評価手順を連邦機関に提供する。評価手順は柔軟性があり、連邦機関および評価者のニーズに合わせて調整可能である。セキュリティ要件評価は、(1)自己評価、(2)独立した第三者評価、(3)政府主導の評価として実施可能である。評価は、連邦機関が定義する深度および範囲属性に基づき、様々な厳密度で実施できる。評価過程で得られた所見および証拠は、セキュリティ要件に関連する組織のリスクベースの意思決定を促進するために活用できる。

 

・[PDF] SP.800-172Ar3.ipd

20251002-12459

 

目次...

1. Introduction 1. 序論
1.1. Purpose and Applicability 1.1. 目的と適用範囲
1.2. Organization of This Publication 1.2. 本出版物の構成
2. The Fundamentals 2. 基本原則
2.1. Assessment Procedures 2.1. アセスメント手順
2.2. Assurance Cases 2.2. 保証事例
3. The Procedures  3. 手順
3.1. Access Control 3.1. アクセス管理
3.2. Awareness and Training 3.2. 意識向上およびトレーニング
3.3. Audit and Accountability 3.3. 監査と説明責任
3.4. Configuration Management 3.4. 構成管理
3.5. Identification and Authentication 3.5. 識別と認証
3.6. Incident Response 3.6. インシデント対応
3.7. Maintenance 3.7. 維持管理
3.8. Media Protection 3.8. 媒体保護
3.9. Personnel Security 3.9. 職員のセキュリティ
3.10. Physical Protection 3.10. 物理的保護
3.11. Risk Assessment 3.11. リスクアセスメント
3.12. Security Assessment and Monitoring  3.12. セキュリティ評価と監視
3.13. System and Communications Protection 3.13. システム及び通信の保護
3.14. System and Information Integrity 3.14. システム及び情報の完全性
3.15. Planning 3.15. 計画
3.16. System and Services Acquisition 3.16. システム及びサービスの取得
3.17. Supply Chain Risk Management 3.17. サプライチェーンリスクマネジメント
References 参考文献
Appendix A. Acronyms 附属書A. 略語一覧
Appendix B. Glossary  附属書B. 用語集
Appendix C. Summary of Enhanced Security Requirements 附属書C. 拡張セキュリティ要件の概要
Appendix D. Security Requirement Assessments 附属書D. セキュリティ要件アセスメント
Appendix E. Organization-Defined Parameters  附属書E. 組織定義パラメータ
Appendix F. Change Log 附属書F. 変更履歴

 

 

 


 

SP800-172の歴史

Release Series Number Title Status
2025.09.29 SP 800-172 Rev. 3 Enhanced Security Requirements for Protecting Controlled Unclassified Information Draft
2025.09.29 SP 800-172A Rev. 3 Assessing Enhanced Security Requirements for Controlled Unclassified Information Draft
2024.11.13 SP 800-172 Rev. 3 Enhanced Security Requirements for Protecting Controlled Unclassified Information Draft (Obsolete)
2022.07.19 SP 800-171 Rev .3 Pre-Draft Call for Comments: Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Draft (Obsolete)
2022.03.15 SP 800-172A Assessing Enhanced Security Requirements for Controlled Unclassified Information Final
2021.04.27 SP 800-172A Assessing Enhanced Security Requirements for Controlled Unclassified Information Draft (Obsolete)
2021.02.02 SP 800-172 Enhanced Security Requirements for Protecting Controlled Unclassified Information: A Supplement to NIST Special Publication 800-171 Final
2020.07.06 SP 800-172 Enhanced Security Requirements for Protecting Controlled Unclassified Information: A Supplement to NIST Special Publication 800-171 Draft (Obsolete)

 

SP800-171の歴史

Release Series Number Title Status
2024.05.14 SP 800-171 Rev. 3 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Final
2024.05.14 SP 800-171A Rev. 3 Assessing Security Requirements for Controlled Unclassified Information Final
2023.11.09 SP 800-171A Rev. 3 Assessing Security Requirements for Controlled Unclassified Information Draft (Obsolete)
2023.11.09 SP 800-171 Rev. 3 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Draft (Obsolete)
2023.05.10 SP 800-171 Rev. 3 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Draft (Obsolete)
2022.07.19 SP 800-171 Rev. 3 Pre-Draft Call for Comments: Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Draft (Obsolete)
2021.01.28 SP 800-171 Rev. 2 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Withdrawn
2020.02.21 SP 800-171 Rev. 2 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Withdrawn
2019.06.19 SP 800-171B Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations: Enhanced Security Requirements for Critical Programs and High Value Assets Draft (Obsolete)
2019.06.19 SP 800-171 Rev. 2 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Draft (Obsolete)
2018.06.13 SP 800-171A Assessing Security Requirements for Controlled Unclassified Information Withdrawn
2018.06.07 SP 800-171 Rev. 1 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Withdrawn
2018.02.20 SP 800-171 Rev. 1 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Withdrawn
2018.02.20 SP 800-171A Assessing Security Requirements for Controlled Unclassified Information Draft (Obsolete)
2017.11.28 SP 800-171 Rev. 1 Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations Withdrawn
2017.11.28 SP 800-171A Assessing Security Requirements for Controlled Unclassified Information Draft (Obsolete)
2016.12.20 SP 800-171 Rev. 1 Protecting Controlled Unclassified Information in Nonfederal Information Systems and Organizations Withdrawn
2016.08.16 SP 800-171 Rev. 1 Protecting Controlled Unclassified Information in Nonfederal Information Systems and Organizations Draft (Obsolete)
2016.01.21 SP 800-171 Protecting Controlled Unclassified Information in Nonfederal Information Systems and Organizations Withdrawn
2015.10.01 SP 800-171 Protecting Controlled Unclassified Information in Nonfederal Information Systems and Organizations Withdrawn
2015.06.18 SP 800-171 Protecting Controlled Unclassified Information in Nonfederal Information Systems and Organizations Withdrawn

 

SP800-53の歴史

Release Series Number Title Status
2022.01.25 SP 800-53A Rev. 5 Assessing Security and Privacy Controls in Information Systems and Organizations Final
2021.08.03 SP 800-53A Rev. 5 Assessing Security and Privacy Controls in Information Systems and Organizations Draft (Obsolete)
2020.12.10 SP 800-53 Rev. 5 Security and Privacy Controls for Information Systems and Organizations Final
2020.12.10 SP 800-53B Control Baselines for Information Systems and Organizations Final
2020.10.29 SP 800-53B Control Baselines for Information Systems and Organizations Withdrawn
2020.09.23 SP 800-53 Rev. 5 Security and Privacy Controls for Information Systems and Organizations Withdrawn
2020.07.31 SP 800-53B Control Baselines for Information Systems and Organizations Draft (Obsolete)
2020.03.16 SP 800-53 Rev. 5 Security and Privacy Controls for Information Systems and Organizations Draft (Obsolete)
2017.08.15 SP 800-53 Rev. 5 Security and Privacy Controls for Information Systems and Organizations Draft (Obsolete)
2016.02.23 SP 800-53 Rev. 5 PRE-DRAFT Call for Comments: Security and Privacy Controls for Federal Information Systems and Organizations Draft (Obsolete)
2015.01.22 SP 800-53 Rev. 4 Security and Privacy Controls for Federal Information Systems and Organizations Withdrawn
2014.12.18 SP 800-53A Rev. 4 Assessing Security and Privacy Controls in Federal Information Systems and Organizations: Building Effective Assessment Plans Withdrawn
2014.12.11 SP 800-53A Rev. 4 Assessing Security and Privacy Controls in Federal Information Systems and Organizations: Building Effective Assessment Plans Withdrawn
2014.01.15 SP 800-53 Rev. 4 Security and Privacy Controls for Federal Information Systems and Organizations Withdrawn
2013.05.07 SP 800-53 Rev. 4 Security and Privacy Controls for Federal Information Systems and Organizations Withdrawn
2013.04.30 SP 800-53 Rev. 4 Security and Privacy Controls for Federal Information Systems and Organizations Withdrawn
2010.06.29 SP 800-53A Rev. 1 Guide for Assessing the Security Controls in Federal Information Systems and Organizations: Building Effective Security Assessment Plans Withdrawn
2010.05.01 SP 800-53 Rev. 3 Recommended Security Controls for Federal Information Systems and Organizations Withdrawn
2009.09.14 SP 800-53 Rev. 3 Recommended Security Controls for Federal Information Systems and Organizations Withdrawn
2009.08.12 SP 800-53 Rev. 3 Recommended Security Controls for Federal Information Systems and Organizations Withdrawn
2009.08.03 SP 800-53 Rev. 3 Recommended Security Controls for Federal Information Systems and Organizations Withdrawn
2008.07.01 SP 800-53A Guide for Assessing the Security Controls in Federal Information Systems and Organizations: Building Effective Security Assessment Plans Withdrawn
2007.12.19 SP 800-53 Rev. 2 Recommended Security Controls for Federal Information Systems Withdrawn
2006.12.19 SP 800-53 Rev. 1 Recommended Security Controls for Federal Information Systems Withdrawn
2005.06.17 SP 800-53 Recommended Security Controls for Federal Information Systems Withdrawn
2005.04.22 SP 800-53 Recommended Security Controls for Federal Information Systems Withdrawn
2005.02.28 SP 800-53 Recommended Security Controls for Federal Information Systems Withdrawn

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.11.17 米国 NIST SP 800-172 Rev.3(初公開ドラフト) 管理対象非機密情報保護のための拡張セキュリティ要件

・2024.05.20 米国 NIST SP 800-171 改訂 3 版 非連邦政府組織およびシステムにおける管理対象非機密情報CUIの保護とNIST SP 800-171A 改訂3版 管理対象非機密情報のセキュリティ要件の評価 (2024.05.14)

・2022.03.18 NIST SP 800-172A 管理対象非機密情報に対する強化版セキュリティ要件の評価

・2021.04.28 NIST SP 800-172A 管理対象非機密情報 (CUI) に対する強化版セキュリティ要件の評価

・2021.02.04 NIST SP 800-172 Enhanced Security Requirements for Protecting Controlled Unclassified Information: A Supplement to NIST Special Publication 800-171

・2020.07.09 NIST SP 800-172 (Draft) Enhanced Security Requirements for Protecting Controlled Unclassified Information: A Supplement to NIST Special Publication 800-171 (Final Public Draft)

 

 

| | Comments (0)

2025.10.01

米国 NIST SP 800-88 Rev. 2 媒体サニタイズ・ガイドライン (2025.09.26)

こんにちは、丸山満彦です。

NISTが媒体サニタイズ・ガイドラインの改訂2版を公開していますね...

sanitaizationは、sanitaizeの名詞形で、sanitaizeは、もともとは公衆衛生的な観点で「物を清潔にする」にするということから、日本語にすると洗浄する、消毒する、浄化する、という意味が近いのだろうと思いますが、コンピュータの媒体の情報に関して使うときは無害化みたいな言い方をすることがありますが、今回は、動詞なのですが、サニタイズとしました。。。

 

NIST - ITL

・2025.09.26 NIST SP 800-88 Rev. 2 Guidelines for Media Sanitization

 

NIST SP 800-88 Rev. 2 Guidelines for Media Sanitization NIST SP 800-88 Rev. 2 媒体サニタイズガイドライン
Abstract 概要
Media sanitization refers to a process that renders access to target data on the media infeasible for a given level of effort. This guide will assist organizations and system owners in setting up a media sanitization program with proper and applicable techniques and controls for sanitization and disposal based on the sensitivity of their information. 媒体サニタイズとは、所定の労力レベルにおいて、媒体上の対象データへのアクセスを不可能にするプロセスを指す。本ガイドは、組織及びシステム所有者が、情報の機密性に基づいて、適切な適用可能なサニタイズ技術及び管理手法を用いた媒体サニタイズプログラムを構築する上で支援するものである。

 

・[PDF] NIST.SP.800-88r2

20250930-122049

・[DOCX][PDF] 仮訳

 

目次...

Executive Summary エグゼクティブサマリー
1. Introduction 1. はじめに
1.1. Purpose and Scope 1.1. 目的と範囲
1.2. Audience 1.2. 対象読者
1.3. Assumptions 1.3. 前提条件
1.4. Relationship With Other NIST Documents 1.4. 他のNIST文書との関係
1.5. Document Structure 1.5. 文書の構成
2. Background 2. 背景
2.1. Need for Proper Information Disposition and Media Sanitization 2.1. 適切な情報廃棄と媒体サニタイズの必要性
2.2. Types of Media 2.2. 媒体の種類
2.3. Target of Sanitization 2.3. サニタイズの対象
2.4. Factors Influencing Sanitization and Disposal Decisions 2.4. サニタイズ及び廃棄の決定に影響を与える要因
3. Summary of Sanitization Methods 3. サニタイズ方法の概要
3.1. Sanitization Methods 3.1. サニタイズ方法
3.1.1. Clear Sanitization Method 3.1.1. クリアサニタイズ方法
3.1.2. Purge Sanitization Method 3.1.2. パージサニタイズ方法
3.1.3. Destroy Sanitization Method 3.1.3. 破壊サニタイズ方法
3.2. Use of Cryptography and Cryptographic Erase 3.2. 暗号技術及び暗号消去の使用
3.2.1. Strength of Cryptography for CE 3.2.1. CEのための暗号の強さ
3.2.2. Applicability of CE 3.2.2. CEの適用可能性
3.2.3. Sanitization of Keys 3.2.3. 鍵のサニタイズ処理
3.2.4. Quality of Cryptographic Implementations 3.2.4. 暗号実装の品質
3.2.5. Traceability of CE Operations 3.2.5. CE操作のトレーサビリティ
4. Media Sanitization Program 4. 媒体サニタイズプログラム
4.1. Storage Sanitization Policy 4.1. ストレージサニタイズポリシー
4.2. Sanitization Scope 4.2. サニタイズ範囲
4.3. Storage Sanitization and Disposition Decision Framework 4.3. ストレージのサニタイズと廃棄決定フレームワーク
4.3.1. Information Decisions in the System Life Cycle 4.3.1. システムライフサイクルにおける情報決定
4.3.2. Determination of Security Categorization 4.3.2. セキュリティ分類の決定
4.3.3. Reuse of Media 4.3.3. 媒体の再利用
4.3.4. Control of Media 4.3.4. 媒体の管理
4.3.5. Data Protection Level 4.3.5. データ保護レベル
4.3.6. Sanitization and Disposal Decision 4.3.6. サニタイズと廃棄の決定
4.4. Performing Sanitization 4.4. サニタイズの実施
4.5. Sanitization Assurance 4.5. サニタイズの保証
4.5.1. Sanitization Verification 4.5.1. サニタイズ検証
4.5.2. Sanitization Validation 4.5.2. サニタイズ妥当性確認
4.6. Documentation 4.6. 文書化
4.7. Roles and Responsibilities 4.7. 役割と責任
4.7.1. Program Managers/Agency Heads 4.7.1. プログラム管理者/機関長
4.7.2. Chief Information Officer (CIO) 4.7.2. 最高情報責任者(CIO)
4.7.3. Information System Owner 4.7.3. 情報システム所有者
4.7.4. Information Owner/Steward 4.7.4. 情報所有者/管理者
4.7.5. Senior Agency Information Security Officer (SAISO) 4.7.5. 上級機関情報セキュリティ責任者(SAISO)
4.7.6. System Security Manager/Officer 4.7.6. システムセキュリティ管理者/責任者
4.7.7. Property Management Officer 4.7.7. 資産管理責任者
4.7.8. Records Management Officer 4.7.8. 記録管理責任者
4.7.9. Privacy Officer 4.7.9. プライバシー責任者
4.7.10. Users 4.7.10. 利用者
Appendix A. Glossary 附属書A. 用語集
Appendix B. Device-Specific Characteristics of Interest 附属書B. 注目すべきデバイス固有特性
Appendix C. Sample “Certificate of Sanitization” Form 附属書C. 「サニタイズ証明書」サンプル様式
Appendix D. Change Log 附属書 D. 変更履歴

 

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー
Protecting the confidentiality of information should be a concern for everyone, from federal agencies and businesses to home users. Media disposition and sanitization decisions need to consider the confidentiality obligations associated with recording or storing sensitive information on hard copy media or information storage media (ISM). To help ensure media disposition and sanitization are effective and traceable, consideration should be given to implementing a media sanitization program.  情報の機密性保護は、連邦機関や企業から一般家庭ユーザーに至るまで、あらゆる関係者の関心事であるべきである。媒体廃棄およびサニタイズの決定にあたっては、ハードコピー媒体や情報保存媒体(ISM)に機密情報を記録・保存する際の機密保持義務を考慮する必要がある。媒体廃棄とサニタイズの効果性と追跡可能性を確保するため、媒体サニタイズプログラムの導入を検討すべきある。
The modern storage environment is rapidly evolving. Data may pass through multiple organizations, systems, and ISM in its lifetime. Data propagation has continued to increase as the internet and data storage systems have moved toward a distributed cloud-based architecture. As a result, more parties are responsible for effectively sanitizing ISM (i.e., eliminating sensitive data), and the potential is substantial for sensitive data to be collected and retained on the ISM. This responsibility lies with organizations that are originators (i.e., sources), users, and final resting places (e.g., archives) of sensitive data, as well as intermediaries who transiently store or process the information along the way. Efficient and effective information management from origination through disposition is the responsibility of all those who have handled the data.  現代のストレージ環境は急速に進化している。データはそのライフサイクルにおいて、複数の組織、システム、ISMを経由する可能性がある。インターネットとデータストレージシステムが分散型クラウドアーキテクチャへと移行するにつれ、データの拡散は増加の一途をたどっている。その結果、ISMの有効なサニタイズ(すなわち機密データの除去)に責任を負う関係者が増加し、ISM上に機密データが収集・保持される可能性は極めて高くなっている。この責任は、機密データの生成元(すなわち情報源)、利用者、最終保管場所(例:アーカイブ)である組織、ならびにその過程で一時的に情報を保管または処理する仲介者に帰属します。情報の生成から廃棄に至る効率的かつ効果的な管理は、データを扱った全ての関係者の責任である。
Sophisticated access controls and encryption help reduce the likelihood that an attacker can gain direct access to sensitive data. As a result, parties that attempt to obtain sensitive data may focus their efforts on alternative access means, such as retrieving residual data on ISM that has left an organization without being sufficiently sanitized. Consequently, effective sanitization techniques and the tracking of ISM are critical to ensuring that sensitive data is protected against unauthorized disclosure, whether that information is on paper, optical, electronic or magnetic media, or complex storage systems (e.g., cloud).  高度なアクセス制御と暗号化は、攻撃者が機密データに直接アクセスする可能性を低減するのに役立つ。その結果、機密データを入手しようとする者は、組織を離れる際に十分にサニタイズされなかったISM上の残留データを回収するなど、代替的なアクセス手段に注力する可能性がある。したがって、紙媒体、光媒体、電子媒体、磁気媒体、あるいはクラウドなどの複雑なストレージシステムを問わず、機密データが不正開示から確実に保護されるためには、効果的なサニタイズ技術とISMの追跡が極めて重要である。
An organization may choose to dispose of ISM by charitable donation, internal or external transfer, or recycling if that ISM is obsolete or no longer usable. Even internal transfers require increased scrutiny in compliance with legal and regulatory obligations for sensitive data, such as personally identifiable information (PII). Regardless of the ISM’s final intended destination, organizations should use approved sanitization methods and techniques to ensure that no reconstructible residual representation of the sensitive data is stored on ISM that has left the control of the organization.  組織は、ISMが陳腐化または使用不能となった場合、慈善寄付、内部または外部への移転、リサイクルによる廃棄を選択できる。個人識別情報(PII)などの機密データに関する法的・規制上の義務を遵守するため、内部移転でさえ厳格な監視が必要となる。ISMの最終的な行き先にかかわらず、組織は承認されたサニタイズ方法と技術を使用し、組織の管理下を離れたISM上に機密データの復元可能な残留表現が保存されないことを保証すべきである。
Sanitization refers to a process that renders access to target data on the media infeasible for a given level of effort (i.e., constraints on time, budget, and resources). This document outlines the important elements of a media sanitization program to assist organizations and system owners in making practical sanitization decisions based on the sensitivity of their information. While this document does not and cannot specifically address all known types of media, the described sanitization decision process can be applied universally.  サニタイズとは、所定の努力レベル(時間、予算、リソースの制約)において、媒体上の対象データへのアクセスを不可能にするプロセスを指す。本文書は、組織およびシステム所有者が情報の機密性に基づいて実用的なサニタイズの判断を行うための、媒体サニタイズプログラムの重要要素を概説する。本稿は全ての既知媒体種別を網羅するものではないが、記述されたサニタイズ判断プロセスは普遍的に適用可能である。

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.07.25 米国 NIST SP 800-88 Rev. 2 (初期公開ドラフト) 媒体のサニタイズに関するガイドライン (2025.07.21)

・2025.07.24 米国 NIST SP 1334( 初期公開ドラフト) OT 環境における可搬保管媒体のサイバーセキュリティリスクの軽減 (2025.07.15)

・2020.01.24 媒体の廃棄に関して

 

 

 

 

 

| | Comments (0)

« September 2025 | Main | November 2025 »