2025.01.18

米国 商務省産業安全保障局 人工知能普及のための枠組み(特定のAIの輸出規制...)

こんにちは、丸山満彦です。

米国の商務省産業安全保障局が人工知能普及のための枠組みの最終規則が公表されていますね。。。

これは、米国がAI技術の革新とリーダーシップを維持するため。高性能なAI技術とそのデュアルユースが、国家安全保障にとって重大なリスクをもたらす可能性があるため、先進的なコンピューティング集積回路(ICs)に対する輸出管理規則(EAR)の改訂を行うもの、、、という感じですかね...

 

Bureau of Industry and Security

● Fedral Register

・2025.01.13 Framework for Artificial Intelligence Diffusion

 

Framework for Artificial Intelligence Diffusion 人工知能普及のための枠組み
SUMMARY: 概要:
With this interim final rule, the Commerce Department's Bureau of Industry and Security (BIS) revises the Export Administration Regulations' (EAR) controls on advanced computing integrated circuits (ICs) and adds a new control on artificial intelligence (AI) model weights for certain advanced closed-weight dual-use AI models. In conjunction with the expansion of these controls, which BIS has determined are necessary to protect U.S. national security and foreign policy interests, BIS is adding new license exceptions and updating the Data Center Validated End User authorization to facilitate the export, reexport, and transfer (in-country) of advanced computing (ICs) to end users in destinations that do not raise national security or foreign policy concerns. Together, these changes will cultivate secure ecosystems for the responsible diffusion and use of AI and advanced computing ICs. この暫定最終規則により、商務省産業安全保障局(BIS)は、高度なコンピューティング集積回路(IC)に関する輸出管理規則(EAR)の規制を改正し、特定の高度な閉鎖ウェイトデュアルユースAIモデルの人工知能(AI)モデルウェイトに関する新たな規制を追加する。米国の国家安全保障および外交政策上の利益を防御するために必要であるとBISが判断したこれらの規制の拡大に伴い、BISは新たなライセンス例外を追加し、高度なコンピューティング(IC)の輸出、再輸出、移転(国内)を促進するために、データセンターの妥当性確認済みエンドユーザー認可を更新する。これらの変更を併せて実施することで、AIおよび先進コンピューティングICの責任ある普及と利用のための安全なエコシステムが育成されることになる。

 

1_20250118080201

 

 

» Continue reading

| | Comments (0)

米国 国家サイバー長官室 サイバー犯罪から米国民を保護しなければならない (2025.01.13)

こんにちは、丸山満彦です。

ホワイトハウスの国家サイバー長官のハリー・コーカー・Jr.が、サイバー犯罪から米国民を保護しなければならないと、ブログに書いていますね...

米国もサイバー犯罪に苦労していますね...

 

U.S. White House - Office of the National Cyber Director; ONCD

・2025.01.13 We Must Protect Americans Against Cyber-Enabled Fraud

 

We Must Protect Americans Against Cyber-Enabled Fraud サイバー犯罪から米国民を保護しなければならない
By National Cyber Director Harry Coker, Jr. 国家サイバー長官 ハリー・コーカー・ジュニア
A frantic phone call that sounds like a grandchild; a text message offering a young professional a fantastic investment; an email to an attorney with instructions to wire settlement funds that they were expecting – cyber-enabled fraud can start in many different ways. On Friday, we here at ONCD convened a group of Federal cybersecurity and fraud experts at the White House to discuss cyber-enabled fraud – a persistent and growing problem that impacts the American people every day. 孫からの電話のように聞こえる必死の電話、若い専門家に魅力的な投資を勧めるテキストメッセージ、期待していた和解資金の送金指示が書かれた弁護士宛の電子メールなど、サイバー犯罪はさまざまな方法で始まる可能性がある。金曜日、私たちはホワイトハウスで連邦政府のサイバーセキュリティおよび詐欺の専門家グループを招集し、サイバー詐欺について話し合った。サイバー詐欺は、日々アメリカ国民に影響を与えている根強く、拡大する問題である。
The Federal Trade Commission estimated consumer fraud losses of roughly $158 billion in 2023, and the Government Accountability Office estimates that fraud costs the Federal government $223 billion to $521 billion per year. Much of this fraud is cyber-enabled, and it is increasing – the Federal Bureau of Investigation received a record number of complaints through its Internet Crime Complaint Center (IC3) in 2023, over 880,000. And these numbers are just the tip of the iceberg since most of the fraud goes unreported. 連邦取引委員会は、2023年の消費者詐欺による損失額を約1580億ドルと推定しており、政府アカウンタビリティ室は、詐欺による連邦政府の損失額を年間2230億ドルから5210億ドルと推定している。こうした詐欺の多くはサイバー犯罪であり、その数は増加している。2023年には、連邦捜査局(FBI)のインターネット犯罪苦情センター(IC3)に寄せられた苦情の件数は88万件を超え、過去最多を記録した。そして、詐欺のほとんどが報告されないため、これらの数字は氷山の一角に過ぎない。
Unfortunately, anyone can be targeted. Americans of all ages report losses from frauds ranging from tech support scams to investment fraud. Businesses of all sizes become victims when their email is compromised. 残念ながら、誰もが標的となり得る。あらゆる年齢のアメリカ人が、テクニカルサポート詐欺から投資詐欺に至るまで、詐欺による損失を報告している。あらゆる規模の企業が、電子メールが侵害された際に被害者となる。
The perpetrators, often foreign organized crime syndicates, leverage and exploit weaknesses across almost all industries to commit their crimes. No single company, industry, government agency, or even country, can solve this problem alone. 犯罪者は、多くの場合、外国の組織犯罪シンジケートであり、ほぼすべての業界に存在する弱点を悪用して犯罪を犯している。 企業、業界、政府機関、あるいは国であっても、単独でこの問題を解決することはできない。
Protecting Americans from cyber-enabled fraud requires a whole-of-Nation effort. We must continue to scale up best practices, shore up our cyber defenses, and get ahead of the criminals’ rapidly increasing use of artificial intelligence to better protect the American public. サイバー犯罪から米国国民を防御するには、国家を挙げての取り組みが必要である。 ベストプラクティスを拡大し続け、サイバー防御を強化し、犯罪者による人工知能の急速な利用拡大に先んじて、米国国民をより良く保護しなければならない。
We are having some successes. In 2023, the Secret Service recovered over $1 billion in cyber financial crime losses, and the FBI found ways to stop $538 million in losses in suspected fraud cases, working with partners to paralyze criminals in their tracks. I had the opportunity to hear from these agencies and many other federal partners and White House components on Friday. 私たちはいくつかの成功を収めている。2023年には、シークレットサービスがサイバー金融犯罪による損失額10億ドル以上を回復し、FBIはパートナーと協力して犯罪者を足止めし、詐欺事件の疑いのある5億3800万ドルの損失を食い止める方法を見出した。私は金曜日に、これらの機関やその他多くの連邦政府パートナー、ホワイトハウスの構成機関から話を聞く機会があった。
We shared ideas on how we can do more to protect Americans, and make it easier for people and businesses to protect themselves. There was strong agreement on the importance of tackling this issue on behalf of the millions of citizens who are defrauded every year. アメリカ国民をより効果的に防御し、個人や企業が自らを防御しやすくする方法について意見を交換した。毎年何百万人もの国民が詐欺の被害に遭っているという事実を踏まえ、この問題に取り組むことの重要性について、強い同意が得られた。
I’ve discussed this issue with other domestic and international partners as well, including the United Kingdom – which is widely recognized as a leader in this field. In all these discussions, our partners’ commitment to action has been crystal clear. 私はこの問題について、この分野におけるリーダーとして広く認知されている英国をはじめとする、他の国内および国際的なパートナーとも話し合ってきた。これらの話し合いにおいて、パートナーの行動へのコミットメントは明確であった。
The Federal government needs to lead, because the people we serve deserve solutions. We have to do everything we can to ensure that Americans’ hard-earned money stays where it belongs, with them. There’s a lot more work to do. 連邦政府が主導する必要がある。なぜなら、私たちが奉仕する国民は解決策を必要としているからだ。私たちは、アメリカ人が苦労して稼いだお金が、本来あるべき場所である彼らの手元に残るよう、全力を尽くさなければならない。やるべきことはまだたくさんある。

 

1_20250118054901

 

| | Comments (0)

2025.01.17

世界経済フォーラム (WEF) The Global Risks Report 2025 20th Edition グローバルリスク報告書2025

こんにちは、丸山満彦です。

今年もグローバルリスク報告書が、ダボス会議にあわせて公表されていますね。。。

ちなみに、この調査は2024年9月2日から10月18日に実施されているので、その後の大きな事案についての影響は反映されていないかもしれませんね。。。

 

今年と過去3年と短期のリスク(今後2年間に重要となるであろうリスク)で比較すると経済的なリスクがなくなっていますね...

ただし、附属書Cの経営者調査(EOS)によると、ざっと見た感じ、経済的なリスクは高いように感じますね。。。

ちなみに日本は1(人材不足)、3(景気後退)、5(エネルギー不足)が経済リスク。。。

 

20250117-54123

 

20240111-170304

 

Fig1_20230112162401

 

ちなみに現在のリスクでいうと...

20250117-54518

 

長期的なリスクと比較すると...

20250117-54914

20250117-55254

 

 

 

影響を考えてどの分野のリスクの解決を優先すべきかを考える際に参考になりますかね...

20250117-55109

 

 

 

 

● World Economic Forum

・2025.01.15 Global Risks Report 2025

・[PDF] Global Risks Report 2025 20th Edition

20250117-45623

Global Risks Report 2025

 

目次...

Preface 序文
Overview of methodology 方法論の概要
Global Risks 2025: A world of growing divisions グローバルリスク2025:深まる分断の世界
Global Risks 2035: The point of no return グローバルリスク2035:後戻りできない地点
Appendix: A 附属書:A
Appendix: B 附属書:B
Appendix: C 附属書:C
Appendix: D 附属書:D

 

 

 

過去分...

 

20 2025 2025.01.15 Web PDF Home
19 2024 2024.01.11 Web PDF Home
18 2023 2023.01.11 Web PDF Home
17 2022 2022.01.11 Web PDF Press
16 2021 2021.01.19 Web PDF Press
15 2020 2020.01.15 Web PDF Press
14 2019 2019.01.15 Web PDF Press
13 2018 2018.01.17 Web PDF Press
12 2017 2017.01.11 Web PDF Press
11 2016 2016.01.14 Web PDF Press
10 2015 2015.01.09 Web PDF Press
9 2014 2014.01.12 Web PDF Press
8 2013 2012.10.30 Web PDF Press
7 2012 2012.01.05 Web PDF Press
6 2011 2011.09.27 Web PDF Press
5 2010 2010.01.04 Web PDF Press
4 2009     PDF  
3 2008     PDF  
2 2007     PDF  
1 2006     PDF  

 

 

 


 

 まるちゃんの情報セキュリティ気まぐれ日記

・2024.01.12 世界経済フォーラム (WEF) The Global Risks Report 2024 19th Edition グローバルリスク報告書2024

・2023.01.12 世界経済フォーラム (WEF) The Global Risks Report 2023 18th Edition グローバルリスク報告書2023

・2022.01.14 世界経済フォーラム (WEF) The Global Risks Report 2022 17th Edition - 2022年のグローバルリスクのトップは、気候変動への適応の失敗と社会的危機

・2021.01.21 世界経済フォーラム The Global Risks Report 2021 16th Edition - 世界は長期的リスクへの対応に目覚めるべきである

 

 

 

 

 

 

| | Comments (0)

2025.01.16

Five Eyes + ドイツ、オランダ、EU セキュア・バイ・デマンド: OT所有者・運用者がデジタル製品を選択する際の優先事項(2025.01.13)

こんにちは、丸山満彦です。

Five Eyes、ドイツ、オランダ、EUが共同で、OT所有者・運用者がデジタル製品を選択する際の優先事項についての文書を公表していますね...

文書がレターサイズで作成されていることから、米国が中心となって作成したのでしょうかね...

でウェブにはIC3から公表されているから、FBIが中心? 要約では、CISA and partnersなのでCISAか、、、

U.S. National Security Agency (NSA) 米国国家安全保障局(NSA)
U.S. Federal Bureau of Investigation (FBI)  米国連邦捜査局(FBI)
U.S. Environmental Protection Agency (EPA)  米国環境保護庁(EPA)
U.S. Transportation Security Administration (TSA)  米国運輸保安局(TSA)
Australian Signals Directorate’s Australian Cyber Security Centre (ASD’s ACSC)  オーストラリア信号局オーストラリアサイバーセキュリティセンター(ASD-ACSC)
Canadian Centre for Cyber Security (CCCS)  カナダサイバーセキュリティセンター(CCCS) 
Directorate General for Communications Networks, Content and Technology (DG CONNECT), European Commission 欧州委員会 コミュニケーションネットワーク、コンテンツおよび技術総局(DG CONNECT)
Germany’s Federal Office for Information Security (BSI)  ドイツ連邦情報セキュリティ局(BSI)
Netherlands’ National Cyber Security Centre (NCSC-NL)  オランダ国家サイバーセキュリティセンター(NCSC-NL)
New Zealand’s National Cyber Security Centre (NCSC-NZ)  ニュージーランド国立サイバーセキュリティセンター(NCSC-NZ) 
United Kingdom’s National Cyber Security Centre (NCSC-UK)
英国国家サイバーセキュリティセンター(NCSC-UK)

 

 

U.S. IC3

・2025.01.13 [PDF

 

20250116-64605

 

目次...

Summary 要約
Table of Contents 目次
Introduction 序文
Considerations for OT Product Selection OT 製品選択の考慮事項
Configuration Management 構成管理
Logging in the Baseline Product 基本製品へのログ記録
Open Standards オープン標準
Ownership 所有権
Protection of Data データ保護
Secure by Default セキュア・バイ・デフォルト
Secure Communications セキュア通信
Secure Controls セキュア制御
Strong Authentication 強力な認証
Threat Modeling 脅威モデリング
Vulnerability Management 脆弱性管理
Upgrade and Patch Tooling アップグレードとパッチのツール
Resources リソース
Contact Information 連絡先情報
Disclaimer 免責事項
Acknowledgements 謝辞

 

 

 

| | Comments (0)

2025.01.15

書籍 NISC編 サイバーセキュリティ関係法令Q&Aハンドブック

こんにちは、丸山満彦です。

商事法務から、「サイバーセキュリティ関係法令Q&Aハンドブック」内閣官房内閣サイバーセキュリティセンター(NISC)編が発刊されましたね。。。

Img_7843

 

これは、NISCの委員会で取りまとめたものを書籍化したものです。

https://security-portal.nisc.go.jp/guidance/law_handbook.html

 

私も作成に関わっていますが、 岡村委員長をはじめ、ワーキンググループの方、事務局がかなりご苦労をされてできたものです。。。

裁判例を含めて関連情報が厚いのが良いところですかね。。。そして、内閣官房謹製。。。

手元に1冊あると参考になることも多いし、PDFと違った良さもあるので、ぜひ1冊。。。

 

●2025.01.10「サイバーセキュリティ関係法令Q&Aハンドブック」内閣官房内閣サイバーセキュリティセンター(NISC)編

商事法務

全国官報販売協同組合

Amazon

e-hon

楽天book

 


まるちゃんの情報セキュリティ気まぐれ日記

・2023.09.26 内閣官房 NISC 関係法令Q&Aハンドブック Ver 2.0

・2020.03.03 NISC 「サイバーセキュリティ関係法令Q&Aハンドブック 」について

 

| | Comments (0)

世界経済フォーラム (WEF) 世界のサイバーセキュリティ概況 2025

こんにちは、丸山満彦です。

 

世界経済フォーラム (WEF)が世界のサイバーセキュリティ概況 2025を公表していましたね。。。調査は毎年アクセンチュアがおこなっていますね。。。

2022年はレジリエンスを、

2023年は地政学リスク・サプライチェーンを、

2024年は格差 (inequity) と新興技術 (Emerging technologie)を中心に置いていましたが、

2025年は、複雑性がテーマとなっていますね...

ただ、この複雑性は、地政学、スキルギャップ、サプライチェーン、AI・新興技術、規制、サイバー犯罪の高度化にその原因があるとしていますね。。。

 

World Economic Forum - Whitepaper

 

プレスリリース

・2025.01.13 Global Cybersecurity Outlook 2025 – Navigating Through Rising Cyber Complexities

 日本語...

・2025.01.13 <報告書発表>2025年のグローバルなサイバーセキュリティの展望を左右するサイバー空間の複雑化

  • 大規模な組織の54%が、サイバーレジリエンスの達成を阻む最大の障壁としてサプライチェーンの相互依存性を挙げています。
  • 地政学的な混乱はリスクに対する認識に影響を与え、CEOの3人に1人がサイバー諜報活動と機密情報の漏洩/知的財産の盗難を最大の懸念事項として挙げています。
  • 複雑性の増大は、サイバー空間に関する不平等をさらに悪化させ、先進国と新興国の格差を深め、セクター間の不均衡を拡大し、大規模な組織と小規模な組織の差を広げることになります。

 

 

・2025.01.13 Global Cybersecurity Outlook 2025

・[PDF] Global Cybersecurity Outlook 2025

20250114-104458

目次...

Foreword まえがき
Executive summary エグゼクティブサマリー
1 Understanding complexity in cyberspace 1 サイバー空間の複雑性を理解する
1.1 Major disparities and disruptions 1.1 大きな格差と混乱
1.2 The challenge for the year ahead 1.2 今年の課題
2 Decoding complexity 2 複雑性を解読する
2.1 The cyberthreat landscape 2.1 サイバー脅威の現状
2.2 Security in the Intelligent Age 2.2 インテリジェント時代のセキュリティ
2.3 Growing ecosystem interdependencies and risks 2.3 拡大するエコシステムの相互依存性とリスク
2.4 The state of cyber resilience 2.4 サイバーレジリエンシーの現状
3 Navigating complexity in cyberspace 3 サイバー空間の複雑性をナビゲートする
3.1 Introducing the economics of cybersecurity 3.1 サイバーセキュリティの経済学の紹介
Conclusion 結論
Appendix: Methodology 附属書:方法論
Contributors 協力者
Acknowledgements 謝辞
Endnotes 脚注

 

 

Key insights

Key insights 主な洞察
In a complex cyberspace characterized by geopolitical uncertainties, widening cyber inequity and sophisticated cyberthreats, leaders must adopt a security-first mindset. 地政学的な不確実性、拡大するサイバー格差、巧妙化するサイバー脅威といった特徴を持つ複雑なサイバー空間においては、リーダーはセキュリティを最優先する考え方を採用しなければならない。
While the 2024 edition of the Global Cybersecurity Outlook highlighted the growing inequity in cyberspace, this year’s report shines a light on the increasing complexity of the cyber landscape, which has profound and far-reaching implications for organizations and nations. 2024年版グローバル・サイバーセキュリティ・アウトルックでは、サイバー空間における格差の拡大が強調されていたが、今年のレポートでは、企業や国家に重大かつ広範な影響を及ぼすサイバー環境の複雑化に焦点が当てられている。
This complexity is driven by a series of compounding factors: この複雑性は、次のような複合的要因によってもたらされている。
・Escalating geopolitical tensions are contributing to a more uncertain environment. ・高まる地政学的な緊張は、より不確実な環境を生み出している。
・Increased integration of and dependence on more complex supply chains is leading to a more opaque and unpredictable risk landscape. ・より複雑なサプライチェーンの統合と依存の増加は、より不透明で予測不可能なリスクの状況につながっている。
・The rapid adoption of emerging technologies is contributing to new vulnerabilities as cybercriminals harness them effectively to achieve greater sophistication and scale. ・新興技術の急速な採用は、サイバー犯罪者がそれらを効果的に利用してより高度で大規模な攻撃を行うことで、新たな脆弱性を生み出す要因となっている。
・Simultaneously, the proliferation of regulatory requirements around the world is adding a significant compliance burden for organizations. ・同時に、世界中で規制要件が増加していることで、企業にとってコンプライアンスの負担が大幅に増大している。
All of these challenges are exacerbated by a widening skills gap, making it extremely challenging to manage cyber risks effectively. これらの課題はすべて、拡大するスキルギャップによってさらに悪化しており、サイバーリスクを効果的に管理することは極めて困難である。
Figure A: Factors compounding the complex nature of cybersecurity 図A:サイバーセキュリティの複雑性を高める要因
A_20250114152201
The growing complexity of cyberspace is exacerbating cyber inequity, widening the gap between large and small organizations, deepening the divide between developed and emerging economies, and expanding sectoral disparities.1 Some 35% of small organizations believe their cyber resilience is inadequate, a proportion that has increased sevenfold since 2022. By contrast, the share of large organizations reporting insufficient cyber resilience has nearly halved. サイバー空間の複雑化は、サイバーにおける不公平性を悪化させ、大企業と中小企業の格差を広げ、先進国と新興国の経済格差を深め、セクター間の格差を拡大させている。1 35%の中小企業が、自社のサイバーレジリエンスが不十分であると考えているが、この割合は2022年から7倍に増加している。一方、大企業でサイバーレジリエンスが不十分であると報告している割合はほぼ半減している。
Figure B: Organizations reporting insufficient cyber resilience 図B:サイバーレジリエンスが不十分であると報告した組織
B_20250114152201
This disparity in cyber resilience is further highlighted by regional differences in preparedness: while only 15% of respondents in Europe and North America lack confidence in their country’s ability to respond to major cyber incidents targeting critical infrastructure, this proportion rises to 36% in Africa and 42% in Latin America. このサイバーレジリエンスの格差は、地域ごとの対応能力の違いによってさらに浮き彫りになっている。欧州と北米では、重要なインフラストラクチャを標的とした重大なサイバーインシデントへの対応能力に自信がないと回答した割合は15%にとどまっているが、アフリカでは36%、中南米では42%に上っている。
The public sector is disproportionately affected, with 38% of respondents reporting insufficient resilience, compared to just 10% of medium-to-large private-sector organizations. This inequity extends to the cyber workforce, with 49% of public-sector organizations indicating they lack the necessary talent to meet their cybersecurity goals – an increase of 33% from 2024. 公共部門は不均衡な影響を受けており、回答者の38%がレジリエンシーの不足を報告しているのに対し、中規模から大規模の民間部門組織ではわずか10%にとどまっている。この不公平性はサイバー人材にも及び、公共部門組織の49%が、サイバーセキュリティ目標を達成するために必要な人材が不足していると回答しており、2024年から33%増加している。
The Global Cybersecurity Outlook 2025 report includes a deeper analysis of the most important drivers of complexity and provides valuable insights into the most pressing cyber challenges in the year ahead and their potential implications for executives. 「グローバル・サイバーセキュリティ・アウトルック2025」レポートでは、複雑性の最も重要な要因についてより深い分析を行い、今後1年間に最も差し迫ったサイバーセキュリティの課題と、経営陣にとっての潜在的な影響に関する貴重な洞察を提供している。
Figure C: Regional differences in cyber resilience 図C:サイバーレジリエンスにおける地域差
C
These are the key findings from this year’s report and the main trends that executives will need to navigate in 2025: 以下は、今年のレポートの主な調査結果と、2025年に経営陣が対応する必要がある主な傾向である。
Supply chain vulnerabilities are emerging as the top ecosystem cyber risk サプライチェーンの脆弱性が、生態系におけるサイバーリスクのトップとして浮上している
Of large organizations, 54% identified supply chain challenges as the biggest barrier to achieving cyber resilience. The increasing complexity of supply chains, coupled with a lack of visibility and oversight into the security levels of suppliers, has emerged as the leading cybersecurity risk for organizations. Key concerns include software vulnerabilities introduced by third parties and propagation of cyberattacks throughout the ecosystem. 大規模な組織の54%が、サイバーレジリエンスの達成を阻む最大の障壁としてサプライチェーンの課題を識別している。サプライチェーンの複雑化と、サプライヤーのセキュリティレベルに対する可視性と監督の不足が相まって、組織にとっての主要なサイバーセキュリティリスクとして浮上している。主な懸念事項には、サードパーティがもたらすソフトウェアの脆弱性や、生態系全体に広がるサイバー攻撃の伝播が含まれる。
Geopolitical tensions shape cybersecurity strategy 地政学的な緊張がサイバーセキュリティ戦略を形作る
Nearly 60% of organizations state that geopolitical tensions have affected their cybersecurity strategy. Geopolitical turmoil has also affected the perception of risks, with one in three CEOs citing cyber espionage and loss of sensitive information/intellectual property (IP) theft as their top concern, while 45% of cyber leaders are concerned about disruption of operations and business processes. ほぼ60%の企業が、地政学的な緊張がサイバーセキュリティ戦略に影響を与えたと述べている。地政学的な混乱はリスクの認識にも影響を与えており、3人に1人のCEOがサイバースパイ行為と機密情報/知的財産(IP)の盗難を最大の懸念事項として挙げている一方で、サイバーセキュリティのリーダーの45%は業務とビジネスプロセスの混乱を懸念している。
Figure D: The effects of geopolitical tensions on organizations' cybersecurity strategies 図D:地政学的な緊張が企業のサイバーセキュリティ戦略に与える影響
D_20250114152201
Rapid adoption of AI introduces new vulnerabilities AIの急速な導入が新たな脆弱性を生み出す
While 66% of organizations expect AI to have the most significant impact on cybersecurity in the year to come, only 37% report having processes in place to assess the security of AI tools before deployment. This reveals the paradox of the gap between the recognition of AI-driven cybersecurity risks and the rapid implementation of AI without the necessary security safeguards to ensure cyber resilience. 今後1年間にAIがサイバーセキュリティに最も大きな影響を与えると予測する企業は66%に上るが、AIツールの展開前にそのセキュリティをアセスメントするプロセスを導入していると回答した企業は37%にとどまった。これは、AIがもたらすサイバーセキュリティリスクに対する認識と、サイバーレジリエンシーを確保するための必要なセキュリティ対策を講じることなくAIを急速に導入していることのギャップという逆説を明らかにしている。
Figure E: Cybersecurity vulnerabilities anticipated in 2025 図 E: 2025年に予想されるサイバーセキュリティの脆弱性
E
Generative AI is augmenting cybercriminal capabilities, contributing to an uptick in social engineering attacks 生成的AIがサイバー犯罪者の能力を増強し、ソーシャルエンジニアリング攻撃の増加に寄与している
Some 72% of respondents report an increase in organizational cyber risks, with ransomware remaining a top concern. Nearly 47% of organizations cite adversarial advances powered by generative AI (GenAI) as their primary concern, enabling more sophisticated and scalable attacks. In 2024 there was a sharp increase in phishing and social engineering attacks, with 42% of organizations reporting such incidents. 回答者の約72%が組織のサイバーリスクの増加を報告しており、ランサムウェアは依然として最大の懸念事項となっている。 約47%の組織が、より洗練された拡張可能な攻撃を可能にする生成的AI(GenAI)による敵対的な進歩を最大の懸念事項として挙げている。 2024年には、フィッシングやソーシャルエンジニアリング攻撃が急増し、42%の組織がそのようなインシデントを報告している。
Regulations bolster cyber resilience, yet their fragmentation introduces significant compliance challenges 規制はサイバーレジリエンシーを強化するが、その断片化はコンプライアンスに大きな課題をもたらす
Regulations are increasingly seen as an important factor for improving baseline cybersecurity posture and building trust. However, their proliferation and disharmony are creating significant challenges for organizations, with more than 76% of chief information security officers (CISOs) at the World Economic Forum’s Annual Meeting on Cybersecurity in 2024 reporting that fragmentation of regulations across jurisdictions greatly affects their organizations’ ability to maintain compliance. 規制は、サイバーセキュリティのベースラインを改善し、信頼を構築するための重要な要素としてますます認識されるようになってきている。しかし、その増殖と不調和は、組織にとって大きな課題を生み出しており、2024年の世界経済フォーラムのサイバーセキュリティに関する年次総会では、76%以上の最高情報セキュリティ責任者(CISO)が、管轄区域間の規制の断片化がコンプライアンスを維持する組織の能力に大きな影響を与えていると報告している。
Organizations are grappling with a shortage of critical cyber talent 企業は、重要なサイバー人材の不足に苦慮している
Since 2024, the cyber skills gap has increased by 8%, with two out of three organizations reporting moderate-to-critical skills gaps, including a lack of essential talent and skills to meet their security requirements. Furthermore, only 14% of organizations are confident that they have the people and skills they need today. 2024年以降、サイバー人材の不足は8%増加し、3社中2社が、セキュリティ要件を満たすために必要な人材やスキルが不足しているなど、中程度から深刻な人材不足を報告している。さらに、現在必要な人材とスキルを確保できていると自信を持っている企業は、わずか14%にとどまっている。

 

序文とエグゼクティブサマリー

 

Preface 序文
| Jeremy Jurgens Managing Director, World Economic Forum | ジェレミー・ユージンズ 世界経済フォーラム マネージング・ディレクター
| Paolo Dal Cin Global Security Lead, Accenture | パオロ・ダル・チン アクセンチュア グローバル・セキュリティ・リード
Following decades of relative stability, the world today is marked by increased geopolitical conflicts. The fallout of this turbulence in the digital realm – the growing prowess of cybercriminals, rapid advances in emerging technologies and widening cyber capabilities – have led to a cyberspace that is more complex than ever before. Against this backdrop, the Global Cybersecurity Outlook serves as an indispensable tool to help leaders navigate such complexity and identify essential actions to build resilient ecosystems. 相対的な安定を保っていた数十年を経て、今日の世界は地政学的な対立の激化が顕著である。 サイバー犯罪者の巧妙化、新興技術の急速な進歩、サイバー能力の拡大といったデジタル領域におけるこの混乱の余波により、かつてないほど複雑なサイバー空間が生み出されている。 このような背景から、グローバル・サイバーセキュリティ・アウトルックは、リーダーがこの複雑性を乗り越え、レジリエントなエコシステムを構築するために不可欠な行動を識別する上で欠かせないツールとなっている。
Last year’s report brought to the fore the prevailing inequity between the cyber haves and have-nots. Despite increased executive awareness of cybersecurity risks, the complexity in cyberspace is further exacerbating cyber inequity as resilient organizations pull ahead, while others struggle with limited resources. Amid increasingly interdependent supply chains, this cyber inequity is resulting in systemic points of failure with significant consequences for the overall resilience of the ecosystem. 昨年のレポートでは、サイバーセキュリティの恩恵を受けている者と受けていない者との間に存在する不公平性が浮き彫りになった。経営陣のサイバーセキュリティリスクに対する認識が高まっているにもかかわらず、サイバー空間における複雑性は、レジリエンスの高い組織が先行する一方で、リソースが限られている他の組織が苦戦を強いられるという形で、サイバー上の不公平性をさらに悪化させている。相互依存がますます高まっているサプライチェーンの中で、このサイバー上の不公平性は、エコシステムの全体的なレジリエンスに重大な影響を及ぼすシステム上の障害につながっている。
The transformative potential of AI technologies presents both unprecedented risks and unmatched opportunities for cybersecurity. As organizations race to adopt AI, cybercriminals are moving at breakneck speed to exploit vulnerabilities while enhancing the efficacy of their methods. Cyber defenders, too, are leaving no stone unturned in harnessing the potential of these technologies to shift the balance in this growing AI arms race. AIテクノロジーの変革の可能性は、サイバーセキュリティに前例のないリスクと比類のない機会の両方をもたらす。企業がAIの導入を急ぐ中、サイバー犯罪者たちはその手法の有効性を高めながら、脆弱性を悪用するために猛スピードで動いている。サイバー防衛側も、このテクノロジーの潜在能力を活用して、この拡大するAI軍拡競争のバランスを変えるために、あらゆる手段を講じている。
Looking to the future, the level of complexity shows no signs of abating. In a borderless cyberspace, greater collaboration between actors in the public and private sectors is crucial for safeguarding the benefits of digitalization for all. This is a call to action, and the time to act is now. 将来を見据えると、複雑性のレベルは弱まる兆しを見せていない。国境のないサイバー空間において、デジタル化の恩恵をすべての人々が享受できるようにするためには、官民の関係者間のより緊密な連携が不可欠である。これは行動を促す呼びかけであり、行動を起こすべき時が今である。
Executive Summary エグゼクティブサマリー
In a complex cyberspace characterized by geopolitical uncertainties, widening cyber inequity and sophisticated cyber threats, leaders must adopt a security-first mindset.< 地政学上の不実性、サイバー格差の拡大、巧妙化するサイバー脅威といった特徴を持つ複雑なサイバー空間においては、リーダーはセキュリティを最優先する考え方を採用しなければならない。
While the 2024 edition of the Global Cybersecurity Outlook highlighted the growing inequity in cyberspace, this year’s report shines a light on the increasing complexity of the cyber landscape, which has profound and far-reaching implications for organizations and nations. This complexity is driven by a series of compounding factors: 2024年版グローバル・サイバーセキュリティ・アウトルックでは、サイバー空間における不平等性の拡大が強調されていたが、今年のレポートでは、企業や国家に重大かつ広範な影響を及ぼすサイバー環境の複雑化に焦点を当てている。この複雑性は、次のような複合的要因によってもたらされている。
– Escalating geopolitical tensions are contributing to a more uncertain environment. – 地政学的な緊張の高まりが、より不確実性の高い環境を生み出している。
– Increased integration of and dependence on more complex supply chains is leading to a more opaque and unpredictable risk landscape.
より複雑なサプライチェーンの統合と依存の増加は、より不透明で予測不可能なリスク環境につながっている。
– The rapid adoption of emerging technologies is contributing to new vulnerabilities as cybercriminals harness them effectively to achieve greater sophistication and scale.
新興技術の急速な採用は、サイバー犯罪者がそれらを効果的に利用して巧妙さと規模を拡大しているため、新たな脆弱性を生み出す要因となっている。
– Simultaneously, the proliferation of regulatory requirements around the world is adding a significant compliance burden for organizations.
同時に、世界中で規制要件が拡大しているため、企業にとってコンプライアンスの負担が大幅に増大している。
All of these challenges are exacerbated by a widening skills gap, making it extremely challenging to manage cyber risks effectively. これらの課題はすべて、スキルギャップの拡大によってさらに深刻化しており、サイバーリスクを効果的に管理することは非常に困難になっている。

 

インフォグラフ...

Infographics and shareables

 

ビデオ...

3 things to know about cybersecurity in 2025

 

ラジオ...

Radio Davos Global Cybersecurity Outlook: the risks we all face and how to fight back

 

 

 ・

Geopolitical tensions, AI and more are complicating the cyberspace. Here's what to know 地政学的な緊張、AIなどにより、サイバー空間は複雑化している。知っておくべきこと
・The cyberspace is becoming more complex, according to the World Economic Forum’s Global Cybersecurity Outlook 2025. ・世界経済フォーラムの「グローバル・サイバーセキュリティ・アウトルック2025」によると、サイバー空間はより複雑化している。
・Geopolitical tensions, the rapid adoption of emerging technologies and increased reliance on interdependent supply chains are key factors contributing to growing complexity. ・地政学的な緊張、新興技術の急速な普及、相互依存のサプライチェーンへの依存度の増加が、複雑化の主な要因となっている。
・Cyberspace complexity is exacerbating cyber inequity, widening the gap between large and small organizations. ・サイバー空間の複雑化は、サイバー上の不公平を悪化させ、大企業と中小企業の格差を広げている。
The global economy is operating in an increasingly complex cyberspace, according to the World Economic Forum’s Global Cybersecurity Outlook 2025, with rapidly advancing technologies and evolving regulations creating new challenges and opportunities. 世界経済フォーラムの「グローバル・サイバーセキュリティ・アウトルック2025」によると、世界経済は、急速に進化するテクノロジーと進化する規制により、新たな課題と機会が生み出される、ますます複雑化するサイバー空間で機能している。
"Cybersecurity is entering an era of unprecedented complexity," the report states, adding that the "stakes have never been higher." 「サイバーセキュリティは、かつてないほど複雑な時代を迎えている」と報告書åは述べ、「リスクはかつてないほど高まっている」と付け加えている。
The report—released ahead of the Forum's Annual Meeting in Davos, Switzerland—draws on a survey of industry experts and identifies the various trends complicating the cyberspace. スイスのダボスで開催される世界経済フォーラムの年次総会に先立って発表されたこの報告書は、業界専門家の調査を基に、サイバー空間を複雑化するさまざまな傾向を識別している。
Here are six of the key issue areas: 以下に、主な問題領域の6つを挙げる。
1. Geopolitical tensions 1. 地政学上の緊張
The Global Cybersecurity Outlook 2025 found that a third of CEOs are concerned about cyber espionage and loss of sensitive information as a result of ongoing global conflicts. Global Cybersecurity Outlook 2025(グローバル・サイバーセキュリティ・アウトルック2025)』では、世界的な紛争の継続により、3分の1のCEOがサイバースパイ行為や機密情報の損失を懸念していることが分かった。
Moreover, geopolitical tensions have affected the cybersecurity strategy for nearly 60% of organizations. While some have modified their insurance policies, a significant portion have changed vendors, trading policies, or ceased business altogether in certain countries. さらに、地政学上の緊張は、ほぼ60%の組織のサイバーセキュリティ戦略に影響を与えている。一部の企業は保険契約を変更したが、かなりの割合の企業はベンダーを変更したり、取引方針を変更したり、特定の国での事業を完全に停止したりしている。
"Escalating geopolitical tensions and increasingly sophisticated cyberthreats pose significant risks to critical infrastructure, which depends on networks of interconnected devices and legacy systems," the report notes. 「高まる地政学上の緊張とますます巧妙化するサイバー脅威は、相互接続されたデバイスやレガシーシステムからなるネットワークに依存する重要なインフラに重大なリスクをもたらす」と、この報告書は指摘している。
1_20250114160901
2. Rapid adoption of AI 2. AIの急速な導入
The report finds a mismatch between organizations’ recognition of cybersecurity risks related to AI and how rapidly AI tools are being adopted without the necessary safeguards. このレポートでは、AIに関連するサイバーセキュリティリスクに対する組織の認識と、必要な安全対策が講じられないまま急速にAIツールが導入されている現状との間にミスマッチが生じていることが指摘されている。
Two-thirds of companies anticipate AI impacting cybersecurity in 2025, but only a third (37%) say they have the requisite tools to assess related security risks. This issue is even more pronounced in smaller organizations, where 69% lack adequate safeguards for the secure deployment of AI technologies. 2025年にはAIがサイバーセキュリティに影響を与えると予測している企業は3分の2に上るが、関連するセキュリティリスクのアセスメントに必要なツールを保有していると回答した企業は3分の1(37%)にとどまった。この問題は小規模な組織でさらに顕著であり、69%がAI技術の安全な展開に必要な安全対策を十分に講じられていない。
"The security of AI systems (or lack thereof) can have far-reaching implications given the increasing adoption of AI," said David Koh, Commissioner of Cybersecurity and Chief Executive, Cyber Security Agency of Singapore. "We must cooperate and work together to secure AI, even in the face of ongoing geopolitical tensions and strategic competition in critical and emerging technologies." 「AIシステムのセキュリティ(またはセキュリティの欠如)は、AIの採用が増加していることを踏まえると、広範囲にわたる影響を及ぼす可能性がある」と、サイバーセキュリティ担当委員であり、シンガポールサイバーセキュリティ庁の最高経営責任者(CEO)であるデビッド・コー氏は述べた。「地政学的な緊張や、重要技術や新興技術における戦略的競争が続いている状況であっても、AIのセキュリティを確保するために協力し、共に取り組む必要がある」
3. Cyber skills gap 3. サイバースキルギャップ
The sector is currently lacking up to 4.8 million cybersecurity professionals. Only 14% of organizations say they have the skilled people they need in the current cyber landscape, while the report finds the cyber skills gap increased by 8% during 2024, predominantly in the public sector. 現在、この分野では最大480万人ものサイバーセキュリティの専門家が不足している。現在のサイバー環境において必要なスキルを持つ人材を確保できていると回答した組織はわずか14%にとどまり、この報告書では、2024年には主に公共部門でサイバースキルギャップが8%増加したことが明らかになっている。
Furthermore, nearly half (49%) of public-sector respondents indicated they do not have the necessary workforce to meet their cybersecurity objectives. さらに、公共部門の回答者のほぼ半数(49%)が、サイバーセキュリティの目標を達成するために必要な人材が確保できていないと回答している。
"It’s critical we help close the growing cyber skills gap with a focus on training, reskilling, recruiting and retaining cybersecurity talent," said Chuck Robbins, Chair and Chief Executive Officer of Cisco. 「サイバーセキュリティ人材の育成、再教育、採用、定着に重点的に取り組むことで、拡大するサイバースキルギャップを埋めることが重要です」と、シスコの会長兼最高経営責任者(CEO)であるチャック・ロビンス氏は述べている。
2_20250114160901
4. Supply chain interdependencies 4. サプライチェーンの相互依存
Over half (54%) of large organization cited complex supply chains as the biggest barrier to achieving cyber resilience. 大規模な組織の半数以上(54%)が、サイバーレジリエンスの達成を阻む最大の障壁として複雑なサプライチェーンを挙げている。
Moreover, concerns about software vulnerabilities, supply chain cyberattacks and limited visibility into third-party security are increasing, with 48% of Chief Information Security Officers (CISOs) reporting difficulties in enforcing security standards and managing the risks associated with reliance on critical providers. さらに、ソフトウェアの脆弱性、サプライチェーンへのサイバー攻撃、サードパーティのセキュリティに対する可視性の限界に対する懸念が高まっており、最高情報セキュリティ責任者(CISO)の48%が、セキュリティ標準の実施や、重要なプロバイダへの依存に伴うリスクの管理に困難を感じていると報告している。
"Smart adversaries exploit third-party vulnerabilities, making collaboration essential," said George Kurtz, Founder and CEO of CrowdStrike. 「賢い敵はサードパーティの脆弱性を悪用するため、コラボレーションが不可欠です」と、CrowdStrikeの創設者兼CEOであるジョージ・カーツ氏は述べている。
5. Cybercrime sophistication 5. サイバー犯罪の巧妙化
While ransomware remains a top concern for organizations, generative AI tools are reshaping the cybercrime landscape by enabling criminals to refine their methods as well as automate and personalize their techniques. Successful phishing, vishing, deepfake and other social engineering attacks were experienced by 42% of organizations during 2024, the report finds. ランサムウェアが組織にとって依然として最大の懸念事項である一方で、生成的AIツールは、犯罪者がその手法を洗練させ、技術を自動化およびパーソナライズすることを可能にすることで、サイバー犯罪の状況を再形成している。2024年中に、42%の組織がフィッシング、ヴィッシング、ディープフェイク、その他のソーシャルエンジニアリング攻撃に成功したことが、このレポートで明らかになった。
"As our digital footprints widen, so does the potential attack surface for nefarious actors," said Ivan John E Uy, Secretary of the Department of Information and Communications Technology in the Philippines. 「デジタル上の足跡が広がるにつれ、悪意ある行為者にとっての攻撃対象領域も拡大する」と、フィリピンの情報通信技術省のイヴァン・ジョン・ユー長官は述べた。
6. Regulatory requirements 6. 規制要件
While everyone agrees guardrails are essential in cyberspace, there is no agreement on which guardrails should be used. The proliferation of regulations – and the disharmony between them – is creating further challenges for companies. サイバー空間におけるガードレールは不可欠であるという点では誰もが同意するが、どのガードレールを使用すべきかについては合意が得られていない。規制の増加と、規制間の不調和が、企業にとってさらなる課題を生み出している。
Almost 70% of survey respondents admitted to finding regulations too complex or convoluted, while over three-quarters of CISOs at the Annual Meeting on Cybersecurity stated that regulatory confusion was greatly impacting their organizations’ ability to maintain compliance. 調査回答者のほぼ70%が、規制が複雑すぎたり、わかりにくすぎたりすると認めている一方で、サイバーセキュリティに関する年次総会に出席したCISOの4分の3以上が、規制の混乱がコンプライアンスの維持能力に大きな影響を与えていると述べている。
20250114-155552
How to navigate cybersecurity complexity in 2025? 2025年のサイバーセキュリティの複雑性をどう乗り切るか?
The compounding factors noted above contribute to the growing complexity and unpredictability of the cyber landscape, impacting organizations in several ways. 上述の複合的要因は、サイバー環境の複雑性と予測不可能性の増大に寄与し、さまざまな形で組織に影響を与えている。
Firstly, they exacerbate cyber inequity, weakening ecosystem resilience by deepening the divide between organizations with the resources and means to adapt and those that struggle to keep up. This imbalance affects the broader ecosystem's resilience, as larger organizations often rely on smaller, less mature suppliers, meaning any disruptions in their operations can ripple throughout the entire supply chain. まず、サイバーセキュリティにおける不公平性が悪化し、適応するためのリソースや手段を持つ組織と、対応に苦慮する組織との格差が深まることで、エコシステムのレジリエンスが弱体化する。この不均衡は、より大規模な組織が、小規模で成熟度の低いサプライヤーに依存していることが多いため、より広範なエコシステムのレジリエンスに影響を及ぼす。つまり、それらの組織の業務に混乱が生じると、サプライチェーン全体に波及する可能性がある。
Secondly, the rising complexity heightens the demand for specialized cybersecurity skills, further widening the skills gap. Staying abreast of technological advances necessitates expertise that is increasingly sought after in cybersecurity, while at the same time, the pressure on already overstretched security teams continues to mount. 第二に、複雑性の増大により、サイバーセキュリティの専門スキルに対する需要が高まり、スキルギャップがさらに拡大する。技術の進歩に遅れずについていくためには、サイバーセキュリティにおいてますます求められる専門知識が必要となるが、一方で、すでに過剰な負担を強いられているセキュリティチームへのプレッシャーは増大し続けている。
These challenges demand a reassessment of cybersecurity strategies at both organizational and ecosystem levels. Leaders must view cybersecurity as a strategic investment, ensuring resilience against new threats and recognizing it as a collective responsibility across all organizations. これらの課題に対処するには、組織レベルおよびエコシステムレベルの両方でサイバーセキュリティ戦略を再評価する必要がある。リーダーは、サイバーセキュリティを戦略的投資と捉え、新たな脅威に対するレジリエンスを確保し、すべての組織に共通する責任として認識しなければならない。
Strong leadership is essential, focusing not just on technical aspects but also on the economic implications of cyber risks. A unified approach between business and cyber leaders is critical to managing the growing complexity of cybersecurity. 強力なリーダーシップは不可欠であり、技術的な側面だけでなく、サイバーリスクの経済的な影響にも焦点を当てる必要がある。ビジネスリーダーとサイバーセキュリティリーダーが一体となったアプローチは、複雑化するサイバーセキュリティの管理に不可欠である。

 

 

 

過去分...

20 2025 2025.01.13 Web PDF Home
19 2024 2024.01.11 Web PDF Home
18 2023 2023.01.11 Web PDF Home
17 2022 2022.01.11 Web PDF Press
16 2021 2021.01.19 Web PDF Press
15 2020 2020.01.15 Web PDF Press
14 2019 2019.01.15 Web PDF Press
13 2018 2018.01.17 Web PDF Press
12 2017 2017.01.11 Web PDF Press
11 2016 2016.01.14 Web PDF Press
10 2015 2015.01.09 Web PDF Press
9 2014 2014.01.12 Web PDF Press
8 2013 2012.10.30 Web PDF Press
7 2012 2012.01.05 Web PDF Press
6 2011 2011.09.27 Web PDF Press
5 2010 2010.01.04 Web PDF Press
4 2009     PDF  
3 2008     PDF  
2 2007     PDF  
1 2006     PDF  

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.01.12 世界経済フォーラム (WEF) 世界のサイバーセキュリティ概況 2024

・2023.03.09 世界経済フォーラム (WEF) 世界のサイバーセキュリティ概況 2023 (2023.01.18)

・2022.01.20 世界経済フォーラム (WEF) 世界のサイバーセキュリティ概況 2022

 

Global Risks Report

・2024.01.12 世界経済フォーラム (WEF) The Global Risks Report 2024 19th Edition グローバルリスク報告書2024

・2023.01.12 世界経済フォーラム (WEF) The Glo bal Risks Report 2023 18th Edition グローバルリスク報告書2023

・2022.01.14 世界経済フォーラム (WEF) The Global Risks Report 2022 17th Edition - 2022年のグローバルリスクのトップは、気候変動への適応の失敗と社会的危機

・2021.01.21 世界経済フォーラム The Global Risks Report 2021 16th Edition - 世界は長期的リスクへの対応に目覚めるべきである

| | Comments (0)

2025.01.14

ドイツ BSI 量子コンピュータ開発の現状 (Ver2.1) (2025.01.02)

こんにちは、丸山満彦です。

ドイツBSIの量子コンピュータ開発の現状についての報告書の紹介です...

現在のバージョンは2.1です...

 

Bundesamt für Sicherheit in der Informationstechnik; BSI

・2025.01.02 Studie: Entwicklungsstand Quantencomputer Version 2.1

Studie: Entwicklungsstand Quantencomputer Version 2.1 研究:量子コンピュータ開発の現状 バージョン2.1
This study discusses the current state of affairs in the theoretical aspects and physical implementation of quantum computing, with a focus on applications in cryptanalysis. It is designed to be an orientation for scientists with a connection to one of the fields involved—such as mathematicians, computer scientists. These will find the treatment of their own field slightly superficial but benefit from the discussion in the other sections. The executive summary and the conclusions to each chapter provide actionable information to decision makers. 本研究では、暗号解読への応用に焦点を当て、量子コンピューティングの理論的側面と物理的実装における現状について論じている。本書は、数学者やコンピューター科学者など、関連分野に携わる科学者向けの入門書として作成されている。これらの科学者にとっては、自身の専門分野の取り扱いはやや表面的に感じられるかもしれないが、他のセクションの議論から有益な情報を得られるだろう。各章のエグゼクティブサマリーと結論は、意思決定者にとって実行可能な情報を提供している。

・[PDF] Status of quantum computer development - Entwicklungsstand Quantencomputer Ver.2.1

20250114-40938

 

 

The status of quantum computer development

The status of quantum computer development 量子コンピュータ開発の現状
The aim of this study is to assess the state of development of current technologies for the realisation of a cryptographically relevant quantum computer and cryptographically relevant quantum algorithms. 本研究の目的は、暗号に関連する量子コンピュータおよび暗号に関連する量子アルゴリズムを実現するための現在のテクノロジーの開発状況をアセスメントすることである。
Today, the security of digital infrastructures is largely based on public-key cryptography (also known as "asymmetric cryptography"). This in turn is essentially based on the assumed difficulty of certain mathematical problems, for example the factorisation problem or the discrete logarithm problem (on elliptic curves). According to the current state of knowledge, the common public-key cryptography used today cannot be broken with classical computers. However, the situation will change fundamentally when universal quantum computers of sufficient performance are available. Already in 1994, the mathematician Peter Shor published quantum algorithms, which can efficiently solve the mathematical problems mentioned above. Other quantum algorithms such as Grover's search algorithm and Simon's algorithm will have implications for symmetric cryptography, in particular for key lengths and operating modes. In recent years, a number of additional algorithms for the cryptanalysis of (asymmetric) protocols have been presented which can also be implemented on so-called NISQ (Noisy Intermediate-Scale Quantum) computers. 今日、デジタルインフラのセキュリティは、主に公開鍵暗号(非対称暗号とも呼ばれる)に基づいている。公開鍵暗号は、因数分解問題や離散対数問題(楕円曲線上の)などの特定の数学的問題の難しさを前提としている。現在の知識水準では、現在一般的に使用されている公開鍵暗号は、従来のコンピュータでは解読できない。しかし、十分な性能を備えた汎用量子コンピュータが利用可能になれば、状況は根本的に変化する。1994年には、数学者のピーター・ショアが、上述の数学的問題を効率的に解決できる量子アルゴリズムを発表している。 グーバーの探索アルゴリズムやサイモンのアルゴリズムなどの他の量子アルゴリズムは、対称暗号、特に鍵の長さや動作モードに影響を与えることになる。近年では、(非対称)プロトコルの暗号解読のためのアルゴリズムがいくつか発表されており、これらはいわゆるNISQ(ノイジー・インターミディエイト・スケール・クアンタム)コンピューターにも実装可能である。
The central challenge in the development of quantum computers is their susceptibility to errors. Quantum systems are very sensitive to disturbances and therefore require an elaborate error correction, which is called quantum error correction (QEC). Currently realized quantum computers, where errors are not corrected (and only mitigated by hardware-related methods if necessary) are called Noisy Intermediate Scale Quantum (NISQ) computers. These are considered an intermediate stage on the way to fault-tolerant and universally programmable quantum computers. Here, due to the error probability, only limited algorithmic depth is available. Creative possibilities stemming from the inherent degrees of freedom of the hardware and alternative programming paradigms arise when developing algorithms for NISQ computers. The resulting solutions are generally heuristic in nature and lack a mathematical proof of convergence or a resource analysis. This is in particular the case for algorithms in the context of cryptoanalysis of (asymmetric) schemes. 量子コンピュータの開発における最大の課題は、エラーに対する脆弱性である。量子システムは外乱に対して非常に敏感であるため、精巧なエラー訂正が必要であり、これは量子エラー訂正(QEC)と呼ばれる。現在実現されている量子コンピュータは、エラーが訂正されず(必要に応じてハードウェア関連の方法で緩和されるのみ)、ノイズ中規模量子(NISQ)コンピュータと呼ばれる。これらは、フォールトトレランスで汎用的なプログラミングが可能な量子コンピュータへの中間段階とみなされている。エラー確率があるため、利用可能なアルゴリズムの深さは限られている。NISQコンピュータ用のアルゴリズムを開発する際には、ハードウェアに固有の自由度と代替プログラミングパラダイムから生じる創造的な可能性が生まれる。その結果得られるソリューションは、一般的に発見的な性質のものであり、収束の数学的証明やリソース分析を欠いている。これは特に、(非対称)スキームの暗号解読に関するアルゴリズムの場合に当てはまる。
Evaluation schemes in the study 研究における評価スキーム
In the first version of the study, an evauation model was developed to categorise quantum computing technologies. It is shown in the following figure. 研究の最初のバージョンでは、量子コンピューティング技術を分類するための評価モデルが開発された。次の図に示されている。
20250114-42858
Figure 1: Levels of development towards a fault-tolerant quantum computerSource: Federal Office for Information Security 図1:フォールトトレラント量子コンピューターの開発レベル出典:連邦情報セキュリティ局
In version 2.0 of the study, a separate evaluation scheme is introduced which allows further consideration of the field of NISQ algorithms. We find that these algorithms often belong to the leftmost branch of Figure 2 while, in contrast, the algorithms by Shor mentioned above fit into the rightmost branch. この研究のバージョン2.0では、NISQアルゴリズムの分野をさらに検討するための、別の評価スキームが導入されている。これらのアルゴリズムは、図2の最も左側の枝に属することが多いことが分かった。一方、前述のショアによるアルゴリズムは、最も右側の枝に属する。
20250114-42819  
Figure 2: Layered evaluation scheme for quantum algorithms based on fault-tolerant quantum computing (right) and NISQ (left)Source: Federal Office for Information Security 図2:フォールトトレラント量子コンピューティングに基づく量子アルゴリズムの階層評価スキーム(右)とNISQ(左)出典:連邦情報セキュリティ局
To analyse the state of development of cyptographically relevant quantum computing requires the joint consideration of hardware and algorithms, as illustrated in the following figure. 暗号に関連する量子コンピューティングの開発状況を分析するには、次の図に示されているように、ハードウェアとアルゴリズムの両方を考慮する必要がある。
3_20250114042701
Figure 3: Quantum computing dependency graph between algorithms and hardwareSource: Federal Office for Information Security 図3:アルゴリズムとハードウェア間の量子コンピューティング依存グラフ出典:連邦情報セキュリティ局
Current state (Version 2.1) 現状(バージョン2.1
The current technologies identified in the study are categorised as follows according to the above evaluation scheme. 研究で識別された現在の技術は、上記の評価スキームに従って以下のように分類される。
4_20250114042701
Figure 4: Evaluation of the main platforms following the developed schemeSource: Federal Office for Information Security 図4:開発されたスキームに基づく主要プラットフォームの評価出典:連邦情報セキュリティ局
Looking ahead, the conclusion of the study is that quantum computing is making steady progress towards cryptanalytic relevance according to the reliable mainstream (fault-tolerant (improved) Shor algorithm, executed either on a superconducting system with the surface code or an ion-based system with the color code). Major roadblocks in this scenario were resolved in 2024, bringing us a lot closer to this goal even without large disruptions. Our conservative estimate is that cryptographically relevant quantum computers are likely to be available within 16 years. 今後の見通しとして、この研究の結論は、量子コンピューティングは、信頼性の高い主流(フォールトトレラント(改善された)ショア・アルゴリズム、表面コードを使用した超伝導システムまたはカラーコードを使用したイオンベースのシステム)に従って、暗号解読に関連するものとして着実に進歩しているということである。このシナリオにおける主な障害は2024年に解決され、大きな混乱がなくてもこの目標にかなり近づくことになる。 保守的な予測では、暗号解読に関連する量子コンピュータは16年以内に利用可能になる可能性が高い。
Moreover, there are now a plethora of new developments in error correction and mitigation as well as hardware with the large progress in neutral atoms. A lot more can move and surprise, and most of possible disruptive results in this context could accelerate the development to below a decade.  さらに、中性原子の分野では大きな進歩を遂げたハードウェアだけでなく、エラー修正や緩和に関する新たな開発も数多く行われている。今後、さらに多くのことが可能になり、驚くようなことが起こる可能性もある。この文脈における破壊的な結果のほとんどは、開発を10年未満に加速させる可能性がある。
Regarding NISQ algorithms, the study currently concludes that the limited evidence available does not yet permit a conclusive assessment. However, it makes a cautious assumption of low relevance for cryptanalysis. NISQアルゴリズムに関しては、現在、入手可能な限られた証拠では、まだ決定的なアセスメントを行うことはできないという結論に達している。しかし、暗号解読との関連性は低いという慎重な想定は行っている。
Download the latest version 最新バージョンのダウンロード
Study: Status of quantum computer development V2.1 研究:量子コンピュータ開発の現状 V2.1
Study: Status of quantum computer development (executive summary in German) V2.1 研究:量子コンピュータ開発の現状(エグゼクティブサマリー(ドイツ語))V2.1
Download of older versions 旧バージョンのダウンロード
Study: Status of quantum computer development V2.0 研究:量子コンピュータ開発の現状 V2.0
Study: Status of quantum computer development (executive summary in German) V2.0 研究:量子コンピュータ開発の現状(エグゼクティブサマリー(ドイツ語))V2.0
Study: Status of quantum computer development V1.2 研究:量子コンピュータ開発の現状 V1.2
Study: Status of quantum computer development (executive summary in German) V1.2 研究:量子コンピュータ開発の現状(エグゼクティブサマリー(ドイツ語))V1.2
Study: Status of quantum computer development V1.1 研究:量子コンピュータ開発の現状 V1.1
Study: Status of quantum computer development (executive summary in German) V1.1 研究:量子コンピュータ開発の現状(エグゼクティブサマリー(ドイツ語))V1.1
Study: Status of quantum computer development V1.0 研究:量子コンピュータ開発の現状 V1.0
Study: Status of quantum computer development (executive summary in German) V1.0 研究:量子コンピュータ開発の現状(エグゼクティブサマリー(ドイツ語))V1.0

 

 

 目次...

Introduction 序文
Index of Figures 図表一覧
Index of Tables 表一覧
PART I: Synopsis and introduction 第1部:概要と序文
1 Deutsche Zusammenfassung 1 ドイツ語要約
1.1 Was ist ein Quantencomputer? 1.1 量子コンピュータとは何か?
1.2 Relevanz von Quantencomputern für die Kryptoanalyse 1.2 暗号解読における量子コンピュータの重要性
1.3 Hardware und Algorithmen für Quantencomputer 1.3 量子コンピュータのハードウェアとアルゴリズム
1.4 Jüngste Entwicklungen 1.4 最新の進展
1.5 Fazit 1.5 結論
2 Synopsis 2 概要
2.1 Basic idea 2.1 基本概念
2.2 Hardware platforms 2.2 ハードウェアプラットフォーム
2.2.1 Global categories 2.2.1 グローバルカテゴリー
2.3 Algorithmic goals 2.3 アルゴリズムの目標
2.4 Computational models 2.4 計算モデル
2.5 Evaluation along computational models 2.5 計算モデルに沿った評価
2.6 Evaluation of platforms 2.6 プラットフォームの評価
2.6.1 Trapped ions 2.6.1 トラップイオン
2.6.2 Superconducting circuits 2.6.2 超伝導回路
2.6.3 Neural atoms 2.6.3 ニューラルアトム
2.6.4 Semiconductors 2.6.4 半導体
2.6.5 Photonic platforms 2.6.5 フォトニックプラットフォーム
2.6.6 State of the art 2.6.6 現在の技術水準
2.7 Global activities and potential for development 2.7 グローバルな活動と開発の可能性
2.8 Risks 2.8 リスク
2.9 Recent developments 2.9 最近の進展
2.10 Conclusions 2.10 結論
3 Evaluation systems for quantum hardware and quantum algorithms 3 量子ハードウェアと量子アルゴリズムの評価システム
3.1 Structure and requirements of an evaluation system 3.1 評価システムの構造と要件
3.1.1 Introduction 3.1.1 序文
3.1.2 Fault tolerant quantum computation vs NISQ computation 3.1.2 耐故障性量子計算 vs NISQ 計算
3.1.3 Gate-based vs adiabatic quantum computation 3.1.3 ゲート方式 vs 断熱的量子計算
3.1.4 Variational quantum computing 3.1.4 変分量子計算
3.2 Evaluation scheme for quantum algorithms 3.2 量子アルゴリズムの評価方式
3.3 Evaluation scheme for quantum hardware 3.3 量子ハードウェアの評価方式
3.3.1 Lowest level (A): Basic operation-do we have working qubits? 3.3.1 最低レベル(A):基本操作 - 動作可能な量子ビットはあるか?
3.3.2 Intermediate level (B): Benchmarking-does our hardware meet fault tolerance criteria? 3.3.2 中間レベル(B):ベンチマーク - ハードウェアは耐故障性の規準を満たしているか?
3.3.3 Central element (C): Fault tolerance analysis-how much quantum volume can we execute? 3.3.3 中心要素(C):耐故障性分析 - どの程度の量子ボリュームを実行できるか?
3.3.4 Compiled level (D): Elementary fault-tolerant gates 3.3.4 コンパイルレベル(D):基本的な耐故障性ゲート
3.3.5 Algorithmic level (E): Fault-tolerant algorithms 3.3.5 アルゴリズムレベル(E):耐故障性アルゴリズム
3.3.6 Conclusions and application 3.3.6 結論と応用
3.4 Risks of our evaluation scheme 3.4 評価スキームのリスク
3.4.1 Risks that make quantum computers more reachable 3.4.1 量子コンピュータをより現実的なものにするリスク
3.4.2 Risks that make quantum computers less reachable 3.4.2 量子コンピュータをより現実的でないものにするリスク
PART II: Evaluation of algorithms 第II部:アルゴリズムの評価
4 Algorithms with proof of termination 4 終了証明付きアルゴリズム
4.1 Minimizing quantum circuits 4.1 最小化量子回路
4.2 Algorithmic innovations with relevance for symmetric cryptography 4.2 対称暗号に関連するアルゴリズムの革新
4.2.1 Grover's algorithm 4.2.1 グローバーのアルゴリズム
4.2.2 Quantum attacks on cryptographic hash functions 4.2.2 暗号ハッシュ関数に対する量子攻撃
4.2.3 Questions on quantum collision search and the case of SHA 4.2.3 量子衝突探索と SHA の場合に関する質問
4.2.4 Leveraging other quantum algorithms 4.2.4 他の量子アルゴリズムの活用
4.3 Algorithmic innovations with relevance for asymmetric cryptography
 4.3 非対称暗号に関連するアルゴリズムの革新
Factoring integers 整数の因数分解

Discrete logarithms
 離散対数

4.3.1
 Factoring integers
 4.3.1 整数の因数分解
4.3.2 
Computing discrete logarithms 4.3.2 離散対数の計算
4.4 The quantum linear system algorithm (HHL) 4.4 量子線形システムアルゴリズム(HHL)
5 Cryptanalysis on NISQ computers including adiabatic quantum computers 5 断熱的量子コンピュータを含むNISQコンピュータでの暗号解読
5.1 Adiabatic quantum computation model 5.1 断熱的量子計算モデル
5.2 Prime factorization 5.2 素因数分解
5.2.1 Digitized adiabatic quantum computation 5.2.1 デジタル化された断熱的量子計算
5.2.2 Quantum annealing 5.2.2 量子アニーリング
5.2.3 Variational quantum factoring 5.2.3 変分量子因数分解
5.3 Discrete logarithm computation 5.3 離散対数計算
5.4 Quantum computing for the shortest vector problem 5.4 量子コンピューティングによる最短ベクトル問題
5.4.1 Approach via quantum annealing 5.4.1 量子アニーリングによるアプローチ
5.4.2 Quantum variational approaches 5.4.2 量子変分法によるアプローチ
5.5 Other linear algebra problems 5.5 その他の線形代数問題
5.6 Focus on algorithmic elements 5.6 アルゴリズム要素に焦点を当てる
PART III: Quantitative description of hardware evaluation scheme 第3部:ハードウェア評価スキームの定量的記述
6 Low-level analysis of qubit systems 6 キュービットシステムの低レベル分析
6.1 Initial remarks 6.1 はじめに
6.1.1 Scope and motivation 6.1.1 範囲と動機
6.1.2 Limitations 6.1.2 制限
6.2 Review of DiVincenzo criteria 6.2 DiVincenzoの規準の再検討
Well-characterized qubit array 十分に特性が明らかになっているキュービットアレイ
Initialization 初期化
Coherence コヒーレンス
Coherent errors コヒーレントエラー
Universal set of gates 汎用ゲートセット
Measurement 測定
Communication-related criteria コミュニケーション関連の規準
6.3 Coherence time scales 6.3 コヒーレンス時間の尺度
6.3.1 Single-qubit level 6.3.1 単一キュービットレベル
6.3.2 Properties unique to multi-qubit noise 6.3.2 マルチキュービットノイズに特有の特性
6.3.3 Non-Markovian effects and other caveats 6.3.3 非マルコフ効果とその他の注意事項
6.3.4 Catastrophic events and noise of the noise 6.3.4 破局的な事象とノイズのノイズ
6.4 Qubit definition indicators 6.4 キュービットの定義指標
6.4.1 Qubit longevity 6.4.1 キュービットの寿命
6.4.2 Leakage 6.4.2 漏れ
6.5 Qubit initialization indicators 6.5 キュービット初期化指標
6.6 Readout indicators 6.6 読み出し指標
6.7 Final remarks 6.7 結語
7 Benchmarking qubits 7 キュービットのベンチマーク
7.1 Introduction 7.1 序文
7.2 Benchmarking and error mitigation techniques 7.2 ベンチマークとエラー緩和技術
7.3 Qualitative criteria beyond DiVincenzo 7.3 DiVincenzoの定性的規準を超えるもの
7.3.1 Connectivity 7.3.1 接続性
7.3.2 Parallel operations 7.3.2 並列操作
7.3.3 Supply of fresh qubits 7.3.3 新鮮な量子ビットの供給
7.4 Benchmarking operations 7.4 操作のベンチマーク
7.4.1 Gate fidelities 7.4.1 ゲートの忠実度
7.4.2 Process tomography-idea and pitfalls 7.4.2 プロセス断層撮影法のアイデアと落とし穴
7.4.3 Randomized benchmarking and interleaved randomized benchmarking 7.4.3 ランダム化ベンチマークとインターリーブ・ランダム化ベンチマーク
7.4.4 Gate set tomography 7.4.4 ゲートセット断層撮影
7.4.5 Cross-entropy benchmarking (XEB) 7.4.5 クロスエントロピーベンチマーク(XEB)
7.4.6 Risks at mid-level 7.4.6 中間レベルのリスク
7.4.7 Recommendation 7.4.7 推奨事項
7.5 Quantum supremacy experiments as indicators of component benchmarking 7.5 コンポーネントベンチマークの指標としての量子優越性実験
8 Quantum error correction 8 量子エラー訂正
8.1 General observations on the role of fault tolerance 8.1 耐故障性の役割に関する一般的な考察
8.1.1 Redundancy and measurement 8.1.1 冗長性と測定
8.1.2 Error detection, matching, and correction 8.1.2 エラー検知、照合、訂正
8.1.3 Concatenated codes and the threshold theorem 8.1.3 連結符号と閾値定理
8.1.4 Fault tolerant computation 8.1.4 耐故障性計算
8.1.5 Conclusions for the evaluation system 8.1.5 評価システムに関する結論
8.2 Quantum error correction codes 8.2 量子誤り訂正符号
8.2.1 Notation 8.2.1 表記
8.2.2 Surface code 8.2.2 表面符号
8.2.3 Color code 8.2.3 色符号
8.2.4 Other error correction codes 8.2.4 その他の誤り訂正符号
8.2.5 Current research goals 8.2.5 現在の研究目標
8.3 Basic requirements 8.3 基本要件
8.4 Performance discussion 8.4 性能に関する考察
8.4.1 Simplifications within stochastic errors 8.4.1 確率誤差における簡略化
8.4.2 Possible Trade-offs 8.4.2 考えられるトレードオフ
8.5 Experimental status of error correction 8.5 エラー訂正の実験状況
8.5.1 Resolution of evaluation levels C and D 8.5.1 評価レベルCおよびDの解決
8.5.2 Evaluation of the Google paper on 105-qubit QEC beyond break-even point 8.5.2 損益分岐点を越えた105量子ビットQECに関するGoogleの論文の評価
8.5.3 Global status of error correction experiments 8.5.3 エラー訂正実験の全体的な状況
8.5.4 Post-deadline achievements in quantum error correction 8.5.4 耐量子エラー訂正における締め切り後の成果
8.6 Summary 8.6 まとめ
8.7 Glossary for error correction 8.7 エラー訂正用語集
9 Benchmarking and fault-tolerance on non-standard architectures 9 非標準アーキテクチャにおけるベンチマークとフォールトトレランス
9.1 Quantum annealing 9.1 量子アニーリング
9.1.1 Coherence and control 9.1.1 コヒーレンスと制御
9.1.2 Benchmarking quantum annealing 9.1.2 量子アニーリングのベンチマーク
9.1.3 Fault tolerance for quantum annealing 9.1.3 量子アニーリングのフォールトトレランス
9.2 One-way quantum computing 9.2 一方向量子コンピューティング
9.2.1 Benchmarking one-way quantum computers 9.2.1 一方向量子コンピューティングのベンチマーク
9.2.2 Error correction in one-way quantum computing 9.2.2 単方向量子コンピューティングにおけるエラー訂正
9.2.3 Resource calculations 9.2.3 リソース計算
9.2.4 Topological cluster states 9.2.4 トポロジカル・クラスター状態
9.3 Quantum computing based on continuous variables 9.3 連続変数に基づく量子コンピューティング
9.3.1 Overview of error correction for continuous variables 9.3.1 連続変数におけるエラー訂正の概要
9.3.2 GKP codes 9.3.2 GKP コード
9.3.3 Cat codes 9.3.3 Cat コード
PART IV: Assessment of platforms 第 IV 部:プラットフォームのアセスメント
10 Global operational criteria for quantum computers 10 量子コンピューティングのグローバルな運用規準
10.1 Extensive parameters 10.1 広範なパラメータ
10.1.1 Scales of extensive parameters 10.1.1 拡張パラメータの規模
10.1.2 Size 10.1.2 サイズ
10.1.3 Power consumption 10.1.3 消費電力
10.1.4 Power dissipation and temperature stability 10.1.4 電力損失と温度安定性
10.1.5 Cycle time 10.1.5 サイクル時間
10.1.6 Classical data flow 10.1.6 古典的データフロー
10.1.7 Reliance on rare materials 10.1.7 希少材料への依存
10.1.8 Vacuum 10.1.8 真空
10.1.9 Production speed 10.1.9 生産速度
10.2 Critical parameters 10.2 重要なパラメータ
10.2.1 Stability 10.2.1 安定性
10.2.2 Yield and scatter 10.2.2 収量とばらつき
10.3 Further descriptors 10.3 その他の記述子
10.4 Articulated architectural extrapolations 10.4 アーキテクチャの推定
11 Quantum technology and computing platforms 11 量子技術およびコンピューティングプラットフォーム
11.1 Other measures 11.1 その他の尺度
11.2 Outdated and exotic qubit candidates 11.2 時代遅れで奇抜なキュービット候補
12 Solid state platforms 12 固体プラットフォーム
12.1 Quantum computing based on superconducting qubits
 12.1 超伝導キュービットに基づく量子コンピューティング
12.1.1
Basic notions and terminology
 12.1.1 基本概念と用語

12.1.2
Various types of superconducting qubits 12.1.2 様々な種類の超伝導量子ビット

12.1.3
Peripheral elements
 12.1.3 周辺要素
12.1.4
Quantum annealing and its status with superconductors
 12.1.4 量子アニーリングとその超伝導体における現状
12.1.5
Operational challenges for superconducting platforms 12.1.5 超伝導プラットフォームの運用上の課題
12.2 Quantum computing based on semiconductor qubits
 12.2 半導体量子ビットに基づく量子コンピューティング
12.2.1
Basic notion and terminology 12.2.1 基本概念と用語
12.2.2 Various types of semiconducting qubits 12.2.2 半導体量子ビットの各種タイプ
12.2.3 Evaluation 12.2.3 評価
12.2.4 Operational challenges for semiconductor platforms 12.2.4 半導体プラットフォームの運用上の課題
13 Atomic and optical platforms 13 原子および光プラットフォーム
13.1 Quantum computing based on trapped ions 13.1 トラップされたイオンに基づく量子コンピューティング
13.1.1 Basic notion and terminology 13.1.1 基本概念と用語
13.1.2 Various types of ion-based qubits 13.1.2 イオンベースの量子ビットの各種タイプ
13.1.3 Evaluation: Ions 13.1.3 評価:イオン
13.2 Quantum computing based on trapped neutral atoms 13.2 捕捉中性原子に基づく量子コンピューティング
13.2.1 Basic notions and terminology 13.2.1 基本概念と用語
13.2.2 Platform designs: Rydberg atoms 13.2.2 プラットフォーム設計:リュードベリ原子
13.2.3 Evaluation: Rydberg atoms 13.2.3 評価:リュードベリ原子
13.3 Operational challenges for atomic and ionic platforms 13.3 原子およびイオンプラットフォームの運用上の課題
Size サイズ
Power Consumption 消費電力
Power dissipation and temperature stability 電力損失と温度安定性
Cycle Time サイクル時間
Classical data flow 古典的データフロー
Reliance on rare materials 希少材料への依存
Vacuum 真空
Stability 安定性
Yield and scatter 歩留まりとばらつき
Further Challenges さらなる課題
Extrapolation to future devices 将来のデバイスへの外挿
13.4 Quantum computing based on photons 13.4 光子に基づく量子コンピューティング
13.4.1 Basic notions and terminology 13.4.1 基本概念と用語
13.4.2 Qubit encoding 13.4.2 キュービットのエンコーディング
13.4.3 Enhanced nonlinear optics, integrated optics 13.4.3 高度な非線形光学、集積光学
13.4.4 KLM proposal 13.4.4 KLM 提案
13.4.5 Cluster states, one-way quantum computing and fusion-based quantum computing 13.4.5 クラスター状態、一方向量子コンピューティング、融合に基づく量子コンピューティング
13.4.6 Continuous variables 13.4.6 連続変数
13.4.7 Evaluation 13.4.7 評価
13.4.8 Operational challenges for photonic platforms 13.4.8 光子プラットフォームの運用上の課題
Appendix 附属書
14 Example: Digitized adiabatic quantum computation for factoring 14 例:因数分解のためのデジタル断熱量子計算
15 Introduction to surface code quantum error correction 15 表面コード量子エラー訂正の序文
15.1 Error syndromes 15.1 エラー症候群
15.1.1 Single errors 15.1.1 単一エラー
15.1.2 Error chains 15.1.2 エラー連鎖
15.1.3 Measurement errors 15.1.3 測定エラー
15.1.4 Syndrome extraction 15.1.4 症候群抽出
15.2 Logical qubits and Pauli operations 15.2 論理キュービットとパウリの演算
15.2.1 Distance 15.2.1 距離
15.2.2 Logical initialization and readout 15.2.2 論理的な初期化と読み出し
15.3 Logical gates: H, T, CNOT 15.3 論理ゲート:H、T、CNOT
15.3.1 Multi-qubit gates 15.3.1 マルチキュービットゲート
15.3.2 Hadamard 15.3.2 ハダマード
15.3.3 S and T gate: Magic state distillation 15.3.3 SとTゲート:マジック状態の蒸留
15.3.4 Ancilla factories 15.3.4 補助ファクトリー
15.3.5 Magic state injection 15.3.5 魔法状態の注入
15.4 Lattice surgery 15.4 格子手術
Reference documentation 参考資料




 

| | Comments (0)

2025.01.13

欧州連合 欧州経済・社会委員会 (EESC) プロワーカーAI:雇用・労働市場政策に関連するAIの可能性を活用し、リスクを緩和するための手段 (2024.01.09)

こんにちは、丸山満彦です。

欧州連合の経済・社会委員会(European Economic and Social Committee; EESC
)が雇用・労働市場政策に関連するAIの可能性を活用し、リスクを緩和するための手段についての意見を公表していますね...

AI開発競争に明け暮れるだけではなく、(特にそれで職を奪われるであろう)労働者に対する配慮、対策がなければ、社会が安定せず、経済発展にもマイナスであるということなのでしょうかね...

法制化についての検討が必要としていますね...

いろいろな見方があるとは思いますが、米国のこれからの政権が力強いがシンプルな政策を進め、中国も共産党政権維持のための政策を進める中、人間の尊重、自由、民主主義、平等、法の支配、人権といった欧州の価値 (European Values) の実現を掲げる欧州の考え方というのも、日本は参考にしても良いかもですね...

どういう社会を私たちは目指しているのか?という軸がなければ、社会的にインパクトの大きなツールを手にした時に、その使い方に対する意見が分かれ、力強い推進ができなくなるかもですね...

立ち戻る原点ということで、憲法の重要性(もちろん、国民の同意があれば改正してもよい)が注目されてもよいかもです...

 

European Economic and Social Committee; EESC

・2025.01.09 Pro-worker AI: levers for harnessing the potential and mitigating the risks of AI in connection with employment and labour market policies

Pro-worker AI: levers for harnessing the potential and mitigating the risks of AI in connection with employment and labour market policies プロワーカーAI:雇用・労働市場政策に関連するAIの可能性を活用し、リスクを緩和するための手段
EESC section opinion: Pro-worker AI: levers for harnessing the potential and mitigating the risks of AI in connection with employment and labour market policies EESCセクションの意見:プロワーカーAI:雇用・労働市場政策に関連するAIの可能性を活用し、リスクを緩和するための手段
Summary 概要
The issue of artificial intelligence and its last evolution lacks specific attention to the impact on workers and their working conditions. While offering opportunities, the evolutions related to AI, if not well anticipated, discussed at highest level with workers representatives, and negotiate with them,  can conduct to massive deplacement of jobs, greater inequalities, intensification at work and lessen human autonomy and decision power, damage mental health and general working conditions. 人工知能とその最後の進化の問題は、労働者とその労働条件への影響に対する特別な配慮を欠いている。機会を提供する一方で、AIに関連する進化を十分に予測し、労働者代表者と最高レベルで議論し、彼らと交渉しなければ、大規模な雇用の奪い合い、不平等の拡大、仕事の激化、人間の自律性と決定力の低下、メンタルヘルスと一般的な労働条件の悪化につながりかねない。
In the EU’s eagerness to win the global AI race, workers' rights may be overlooked. This is why a protective and enforceable legal framework must be developed, with the participation of social partners. EUは世界的なAI競争に勝とうと躍起になっているが、労働者の権利は見過ごされているかもしれない。そのため、社会的パートナーの参加を得て、保護的で強制力のある法的枠組みを構築しなければならない。
Awareness of the use and risks stemming from algorithmic management (AM) is relatively high, in this context, workers are calling for specific provisions and collective negociation for being associated to the governance of algorithms. A framework is needed to prevent abusive practices and that humans remain in control. アルゴリズム・マネジメント(AM)の利用やリスクに対する意識は比較的高く、労働者はアルゴリズムのガバナンスに関連する具体的な規定や団体交渉を求めている。濫用的な慣行を防止し、人間がコントロールし続けるための枠組みが必要である。
The OIO should also focus on providing proposals (legislative and non-legislative) and recommendations to address the protection of workers’ labour, privacy and fundamental rights as discussed at the "sense making/ scenario building" workshop. OIOはまた、「センス・メイキング/シナリオ構築」ワークショップで議論されたように、労働者の労働、プライバシー、基本的権利の防御に取り組むための提案(立法的・非法律的)や勧告のプロバイダに焦点を当てるべきである。
Related links 関連リンク
A guide to Artificial Intelligence at the workplace 職場における人工知能ガイド
Boosting the use of Artificial Intelligence in Europe’s micro, small and medium… 欧州の零細・中小企業における人工知能の利用を促進する...

 

 

・2025.01.08 [PDF] OPINION: Section for Employment, Social Affairs and Citizenship: Pro-worker AI: levers for harnessing the potential and mitigating the risks of AI in connection with employment and labour market policies

20250113-61652

 

・[DOCX][PDF] 仮訳

 


 

関連リンク

・2022.A guide to Artificial Intelligence at the workplace

A guide to Artificial Intelligence at the workplace 職場における人工知能ガイド
A guide to artificial intelligence (AI) designed by a trade union? Yes! Such a technology is very impactful and with its algorithms, it is breaking into the world of work more and more, bringing together a number of technologies that workers encounter on a daily basis: facial or voice recognition, image recognition, prediction of risks and rewards; in all this AI helps decision-making, recommends choices and solutions. 労働組合が作成した人工知能(AI)ガイド? そう! このようなテクノロジーは非常に影響力が大きく、そのアルゴリズムにより、労働者が日常的に遭遇する多くのテクノロジーを統合しながら、ますます労働の世界に浸透しつつある。顔や音声の認識、画像認識、リスクと報酬の予測など、あらゆる場面でAIは意思決定を助け、選択肢や解決策を提案する。
Despite the undeniable advantages of AI in all sectors (justice, HR, financial services, transport, agriculture, health, public services, etc.), certain uses can threaten our private lives, our freedoms, our rights and our democracies. 司法、人事、金融サービス、運輸、農業、医療、公共サービスなど、あらゆる分野においてAIの利点は否定できないが、その利用によっては私たちの私生活、自由、権利、民主主義が脅かされる可能性もある。
We are slowly realizing the full implications of AI in business globally. The gray areas of AI have thus been taken up by the European Court of Human Rights, which clarified that respect for human dignity, individual freedom, equality, non-discrimination , solidarity, social and economic rights could be threatened. At the same time, unions have sprung up in the United States to question certain aspects of the use and purpose of this technology in companies in Silicon Valley, in particular. In France, we want to give meaning to AI and guide it. 私たちは、世界的にビジネスにおけるAIの持つ意味を徐々に理解しつつある。そのため、AIのグレーゾーンは欧州人権裁判所で取り上げられ、人間の尊厳、個人の自由、平等、非識別的、連帯、社会権および経済的権利の尊重が脅かされる可能性があることが明確にされた。同時に、米国ではシリコンバレーの企業におけるこのテクノロジーの利用と目的の特定の側面を問う労働組合が誕生している。フランスでは、AIに意味を与え、AIを導きたいと考えている。
This book, in partnership with CFDT Cadres, is presented as a legal guide for better mastering AI in our immediate environment. If we are faced with facial recognition during recruitment, the use of our personal data without our knowledge, if we are monitored by software during teleworking, that we depend on the arbitrary decision of an algorithm during a promotion, or even in our training course in the company, this book can help us to ask the right questions and to act. This book also features interviews with researchers, sociologists, staff and worker representatives, bodies confronted with the introduction of artificial intelligence in organizations. CFDT Cadresとの提携により、この本は、身近な環境におけるAIをよりよく理解するための法的ガイドとして紹介されている。採用時に顔認識を求められたり、知らないうちに個人データが利用されたり、在宅勤務中にソフトウェアで監視されたり、昇進や社内研修でアルゴリズムの恣意的な決定に頼らざるを得ない状況に直面した場合、この本は正しい問いを立て、行動を起こすのに役立つ。この本では、研究者、社会学者、スタッフ、労働者代表者など、組織における人工知能の導入に直面している団体へのインタビューも紹介している。

 

・[PDF] A Guide to Artificial Intelligence at the Workplace

20250113-85002

 

 

 

 

 


| | Comments (0)

米国 国家安全保障局 商用国家安全保障アルゴリズム・スイート2.0および量子コンピューティングに関するFAQ更新 (2024.12.31)

こんにちは、丸山満彦です。

米国の国家安全保障局が、商用国家安全保障アルゴリズム・スイート2.0および量子コンピューティングに関するFAQを公表していますね...

耐量子暗号への移行についても記載がありますね...

量子コンピュターを米国以外が実用化し、既存の暗号が危殆化することに対する警戒は高いように感じます...

 

U.S. National Security Agency

・2024.12.31 [PDF] CSI: Commercial National Security Algorithm Suite 2.0 (CNSA 2.0) FAQ (December 2024 Update)

20250112-73847

仮対訳...

 

商用国家安全保障アルゴリズム・スイート2.0

Algorithm  Function  Specification  Parameters 
General Purpose Algorithms 
Advanced Encryption Standard (AES)  Symmetric block cipher for information protection  FIPS PUB 197  Use 256-bit keys for all classification levels. 
ML-KEM (previously CRYSTALS-Kyber)  Asymmetric algorithm for key establishment  FIPS PUB 203  ML-KEM-1024 for all classification levels. 
ML-DSA (previously CRYSTALS-Dilithium)  Asymmetric algorithm for digital signatures in any use case, including signing firmware and software  FIPS PUB 204  ML-DSA-87 for all classification levels. 
Secure Hash Algorithm (SHA)  Algorithm for computing a condensed representation of information  FIPS PUB 180-4  Use SHA-384 or SHA-512 for all classification levels. 
Algorithms Allowed in Specific Applications 
Leighton-Micali Signature (LMS)  Asymmetric algorithm for digitally signing firmware and software  NIST SP 800-208   All parameters approved for all classification levels. LMS SHA256/192 is recommended. 
Xtended Merkle Signature Scheme (XMSS)  Asymmetric algorithm for digitally signing firmware and software  NIST SP 800-208  All parameters approved for all classification levels. 
Secure Hash Algorithm 3 (SHA3)  Algorithm used for computing a condensed representation of information as part of hardware integrity  FIPS PUB 202  SHA3-384 or SHA3-512 allowed for internal hardware functionality only (e.g., boot-up integrity checks) 

 

» Continue reading

| | Comments (0)

2025.01.12

中国 2023年8月から2024年12月末までに届出があった生成的AIサービスは302件、API利用したサービス105件

こんにちは、丸山満彦です。

中国は、生成的AIに対して、早々(2023年7月)に生成的AIサービス管理暫定弁法を整備し、届出制度を2023年8月15日から開始していますが、2024年末までの届出数は302件(2024年中の届出数238件、2023年の届出数64件)、APIによりこれらのサービスを呼び出すサービスが105件となったと国家サイバー空間管理局発表していますね...

人口が約14億人といわれている中国でそれなりに統率がとれた形で生成的AIを普及させているのはすごいことですよね...

 

● 中央网安全和信息化委公室 (Cyberspace Administration of China: CAC)

・2024.01.08 国家互联网信息办公室关于发布2024年生成式人工智能服务已备案信息的公告

国家互联网信息办公室关于发布2024年生成式人工智能服务已备案信息的公告 2024年の生成的AIサービスの記録情報の公開に関する国家サイバースペース管理局の発表
促进生成式人工智能服务创新发展和规范应用,2024年,网信部门会同有关部门按照《生成式人工智能服务管理暂行办法》要求,持续开展生成式人工智能服务备案工作。截至2024年12月31日,共302款生成式人工智能服务在国家网信办完成备案,其中2024年新增238款备案;对于通过API接口或其他方式直接调用已备案模型能力的生成式人工智能应用或功能,2024年共105款生成式人工智能应用或功能在地方网信办完成登记,现将相关信息予以公告。 生成的AIサービスの革新的な発展と標準化された応用を促進するため、2024年、サイバー空間管理局は関連部門と協力し、「生成的AIサービス管理暫定弁法」の要求に基づき、引き続き生成的AIサービスの記録を行う。 2024年12月31日時点で、中国サイバー空間管理局に届出を完了した生成的AIサービスは合計302件であり、そのうち2024年の新規届出件数は238件であった。APIインターフェースまたはその他の方法により届出済みのモデルの能力を直接呼び出す生成的AIアプリケーションまたは機能については、2024年に合計105件の生成的AIアプリケーションまたは機能が各地域のサイバー空間管理局に届出を完了した。関連情報はここに公表する。
提供具有舆论属性或者社会动员能力的生成式人工智能服务的,可通过属地网信部门履行备案或登记程序。已上线的生成式人工智能应用或功能,应在显著位置或产品详情页面公示所使用已备案或登记生成式人工智能服务情况,注明模型名称、备案号或上线编号。 世論属性や社会動員能力を持つ生成的AIサービスの提供者は、地元のサイバー空間管理局を通じて、届出または登録手続きを行うことができる。オンラインで公開された生成的AIアプリケーションまたは機能は、目立つ場所または製品詳細ページで、届出または登録された生成的AIサービスの利用を公開し、モデル名、届出番号、または開始番号を記載しなければならない。
附件:国家互联网信息办公室关于发布生成式人工智能服务已备案信息的公告 添付資料:生成的AIサービスの届出に関する国家サイバー空間管理局の発表

 

 

国家互联网信息办公室关于发布生成式人工智能服务已备案信息的公告

国家互联网信息办公室关于发布生成式人工智能服务已备案信息的公告 国家サイバースペース管理局による生成的AIサービスに関する届出情報の公開に関する発表
促进生成式人工智能服务创新发展和规范应用,网信部门会同相关部门按照《生成式人工智能服务管理暂行办法》要求,有序开展生成式人工智能服务备案工作,现将已备案信息予以公告。提供具有舆论属性或者社会动员能力的生成式人工智能服务的,可通过属地网信部门履行备案程序,属地网信部门应及时将已备案信息对外公开发布,我办将在官网定期汇总更新,不再另行公告。 生成的AIサービスの革新的な発展と規範化された利用を促進するため、国家サイバー空間管理局は関連部門と協力し、「生成的AIサービス管理暫定措置」の要求に従って、生成的AIサービスの届出を秩序ある形で実施する。 生成的AIサービスの提供者で、世論属性または社会動員能力を有するものは、所在地のサイバー空間管理部門を通じて届出手続きを行うことができる。所在地のサイバー空間管理部門は、届出情報を速やかに公開しなければならない。当事務所は、公式ウェブサイト上で定期的に情報をまとめ、更新するが、別途の発表は行わない。
已上线的生成式人工智能应用或功能,应在显著位置或产品详情页面公示所使用已备案生成式人工智能服务情况,注明模型名称及备案号。 オンラインでリリースされた生成的AIアプリケーションまたは機能は、目立つ場所または製品詳細ページで、届出済みの生成的AIサービスを公開し、モデル名と届出番号を表示しなければならない。
附件1:生成式人工智能服务已备案信息(2024年4月) 添付資料1:生成的AIサービス届出情報(2024年4月)
附件2:生成式人工智能服务已备案和已登记信息(2024年8月) 添付資料2:生成的AIサービス届出・登録情報(2024年8月)
附件3:生成式人工智能服务已备案和已登记信息(2024年11月) 添付資料3:生成的AIサービス届出・登録情報(2024年11月)
附件4:生成式人工智能服务已备案和已登记信息(2025年1月) 添付資料4:生成的AIサービス届出・登録情報(2025年1月)

 

 

省(属地)毎に集計してみると

属地   国家
届出分
地方
届出分
合計
安徽省 安徽省 2   2
云南省 雲南省 1   1
河南省 河南省 1   1
河北省 河北省 5 1 6
海南省 海南省 2   2
湖南省 湖南省 4   4
湖北省 湖北省 1   1
江西省 江西省 1   1
江苏省 江蘇省 20 14 34
国资委 国有資産監督管理委員会 8   8
山东省 山東省 9   9
四川省 四川省 6 3 9
重庆市 重慶市 4   4
上海市 上海市 60 63 123
天津市 天津市 5 1 6
福建省 福建省 1   1
北京市 北京市 105 12 117
广东省 広東省 32 8 40
浙江省 浙江省 26 2 28
宁夏回族自治区 寧夏回族自治区 1   1
贵州省 貴州省 4 1 5
辽宁省 遼寧省 2   2
陕西省 陝西省 1   1
黑龙江省 黒龍江省 1   1
総計   302 105 407

 

PDFのデータの集計...

[XLSX]

 

1_20210612030101


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.09.23 中国 「人工知能生成の合成コンテンツ識別に関する措置(意見募集稿)」と国家標準 「人工知能が生成したコンテンツのラベル付け方法」に対する意見募集

・2023.09.11 中国 生成的AIについての専門家の解釈 (2023.08.29)

 

・2023.07.14 中国 国家サイバースペース管理局他 生成的AIサービス管理暫定弁法 施行は2023.08.15

 

・2023.04.12 中国 意見募集 生成的人工知能サービス管理弁法

・2022.12.23 中国 インターネット情報サービス深層合成管理規定についての専門家のコメント... (2022.12.12)

・2022.12.17 中国 インターネット情報サービス深層合成管理規定 (深層合成で作ったものにはマークを...)(2022.11.25)

・2022.08.15 中国 国家サイバースペース管理局 インターネット情報サービスのアルゴリズム申請に関する情報公開の公告

・2022.01.30 中国 国家サイバースペース管理局 意見募集 インターネット情報サービスの深層合成の管理に関する規定(意見募集稿)

・2022.01.05 中国 インターネット情報サービスのアルゴリズム推奨管理規

・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」

 

 

| | Comments (0)

ドイツ BSI AIの説明可能性に関するホワイトペーパー

こんにちは、丸山満彦です。

ドイツのBSIが、AIの説明可能性に関するホワイトペーパーを公表していますね...

説明可能なAI (Explainable Artificial Intelligence; XAI) の限界についての話ですね...

 

Bundesamt für Sicherheit in der Informationstechnik; BSI

・2025.01.06 BSI veröffentlicht Whitepaper zur Erklärbarkeit von Künstlicher Intelligenz

BSI veröffentlicht Whitepaper zur Erklärbarkeit von Künstlicher Intelligenz BSI、人工知能の説明可能性に関するホワイトペーパーを公表
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat am 6. Januar 2025 ein Whitepaper veröffentlicht, dass sich mit der Erklärbarkeit von Künstlicher Intelligenz (KI) im adversarialen Kontext beschäftigt. Das Dokument konzentriert sich auf die Beschränkungen von Explainable Artificial Intelligence (XAI). Es kommentiert den aktuellen Stand der Technik, insbesondere im Hinblick auf deren Einsatz im Bewertungsverfahren und die technische Unterstützung des digitalen Verbraucherschutzes. 2025年1月6日、ドイツ連邦情報セキュリティ局(BSI)は、敵対的な文脈における人工知能(AI)の説明可能性に関するホワイトペーパーを公表した。この文書では、説明可能な人工知能(XAI)の限界に焦点を当てている。特に評価プロセスやデジタル消費者保護の技術的サポートにおける利用に関して、現在の技術水準についてコメントしている。
Transparenz für Blackbox-Modelle durch Post-Hoc-Methoden 事後的手法によるブラックボックスモデルの透明性
XAI verfolgt das Ziel, die Entscheidungsprozesse von KI-Systemen nachvollziehbar zu machen. Viele KI-Modelle, insbesondere solche auf Basis von Deep-Learning, agieren als „Blackbox“, deren innere Abläufe schwer zu verstehen sind. Das BSI-Whitepaper fokussiert sich auf Post-Hoc-Methoden, die nachträglich Erklärungen für diese Blackbox-Modelle liefern und den Einfluss einzelner Merkmale auf Entscheidungen analysieren. XAIは、AIシステムの意思決定プロセスを理解可能にすることを目的としている。多くのAIモデル、特にディープラーニングに基づくモデルは、その内部動作を理解することが困難な「ブラックボックス」として機能する。BSIのホワイトペーパーでは、これらのブラックボックスモデルの説明を提供し、個々の特徴が意思決定に与える影響を分析する事後解析手法に焦点を当てている。
Herausforderungen und Chancen von XAI XAIの課題と機会
Obwohl XAI Chancen für Erkenntnisgewinne und Modelloptimierung bietet, gibt es auch Herausforderungen, wie das Uneinigkeitsproblem und die Manipulationsanfälligkeit von Erklärungen. Die Erklärbarkeit von KI ist entscheidend für das Vertrauen in diese Technologien und hilft Entwicklern, sowie Nutzern, die Funktionsweise besser zu verstehen. Dennoch bleibt die Entwicklung standardisierter Methoden zur konsistenten Gewährleistung der Erklärbarkeit eine zentrale Herausforderung. XAIは洞察を得たりモデルを最適化したりする機会を提供するが、意見の相違の問題や説明が操作されやすいといった課題も存在する。AIの説明可能性は、これらのテクノロジーに対する信頼にとって重要であり、開発者とユーザーがその仕組みをよりよく理解するのに役立つ。しかし、一貫して説明可能性を確保するための標準化された手法の開発は依然として重要な課題である。

 

ドイツ語と英語の二つがありますね...

・[PDF] Erklärbarkeit von KI im adversarialen Kontext

 

・[PDF] Explainable Artificial Intelligence in an Adversarial Context

20250111-110249

 

 

Executive Summary  エグゼクティブサマリー
This report provides an overview over issues that arise when methods from the field of explainable artificial intelligence (XAI) are used to provide post-hoc explanations of AI models. XAI methods are beneficial for knowledge discovery in research and model optimization in industry. However, there are limitations and issues that make a secure and reliable use for assessment procedures and digital consumer protection questionable.   本レポートは、説明可能な人工知能(XAI)分野の手法をAIモデルの事後説明に使用した場合に発生する問題を概観するものである。XAI手法は、研究における知識発見や産業におけるモデル最適化に有益である。しかし、アセスメント手続きやデジタル消費者保護のための安全で信頼できる利用を疑問視させる限界や問題がある。 
Disagreement Problem  不一致問題
The disagreement problem can be regularly observed during the application of post-hoc explanation methods. This term describes the situation, that different methods calculate different explanations – sometimes these explanations can be contradictory.  不一致問題は、事後説明法の適用中に定期的に観察される。この用語は、異なる手法が異なる説明を計算するという状況を説明する。
Manipulation  操作
Many XAI-methods are susceptible to manipulation. A manipulated explanation cannot guarantee to accurately depict the decision process of an AI model. Manipulated explanations pose a risk for assessment procedures and digital consumer protection, if they are used to deceive supervisory authorities or consumers.  多くのXAI手法は操作の影響を受けやすい。操作された説明は、AIモデルの意思決定プロセスを正確に描写することを保証できない。操作された説明は、監督当局や消費者を欺くために使用された場合、アセスメント手続きやデジタル消費者保護にリスクをもたらす。
Conclusion  結論
The described issues of post-hoc explanation methods are currently a limiting factor for securely and reliably using them in assessment procedures of AI products. This implies, that alternatives are required for the development of reliable assessment procedures. Such alternatives could be detailed audits using white-box and outside-the-box access to AI products. Additionally, the issues of post-hoc explanation methods have an impact on the digital consumer protection. At the moment, these methods cannot be reliably used for the technical support of digital consumer protection. ポスト・ホック説明法について述べた問題は、現在、AI製品のアセスメント手続きに安全かつ確実に使用するための制限要因となっている。このことは、信頼できるアセスメント手続きを開発するためには、代替手段が必要であることを意味している。そのような代替案は、AI製品へのホワイトボックスやアウトサイド・ザ・ボックス・アクセスを用いた詳細な監査である。さらに、事後的な説明方法の問題は、デジタル消費者保護にも影響を及ぼす。現時点では、これらの手法はデジタル消費者保護の技術的支援に確実に使用することはできない。
Table of Contents  目次
1        Introduction 1 序文
2        Issues when using Post-Hoc Explanations  2 その場しのぎの説明を使う場合の問題点
2.1          The Disagreement Problem  2.1 不一致問題
2.2          The Manipulation Risk 2.2 操作リスク
2.3          Fairwashing 2.3 フェアウォッシング
3        Solutions 3 解決策
3.1          Solving the Disagreement Problem 3.1 不一致問題の解決
3.2          Detecting Manipulations 3.2 操作の検知
3.3          Robustness of Explanations 3.3 説明の頑健性
4        Conclusion  4 結論
Reference 参考
1 Introduction  1 序文
Artificial Intelligence (AI) methods are an integral part of the modern world. Nowadays, everyone who is interacting with a smartphone gets into contact with AI (Herget, 2024) (Wired Insider, 2021). The public awareness of AI’s existence has widely spread since the easy accessibility of large language models (LLMs) (cf (BSI, 2024a) for a commentary by the BSI). However, decision processes were supported or automatically executed by AI algorithms since before the introduction of LLMs. The report by Propublica, that prediction models are used in determining the risk of recidivism of criminal suspects in the USA, received high attention (Angwin, et al., 2016). In the financial sector, AI-based prediction models are used to support the decision on loan applications or to predict developments of financial markets (Aziz, et al., 2022). Furthermore, using AI-based decision support systems for diagnosis and treatment of patients is currently investigated or partially implemented in medicine (Editorial, 2024) (The Royal College of Radiologists, et al., 2023) (BSI, 2024). These are highly sensitive areas where incorrect decisions can lead to social, legal, financial or health damage to citizens.  人工知能(AI)の手法は現代社会に不可欠な要素である。現在では、スマートフォンを操作する誰もがAIと接触している(Herget, 2024)(Wired Insider, 2021)。大規模な言語モデル(LLM)に簡単にアクセスできるようになって以来、AIの存在に対する一般の認識は広く浸透した(BSIによる解説は(BSI, 2024a)を参照)。しかし、意思決定プロセスは、LLMの序文が登場する以前から、AIアルゴリズムによってサポートされたり、自動的に実行されたりしていた。米国では、犯罪容疑者の再犯リスクの判定に予測モデルが使用されているというPropublicaのレポートが高い注目を集めた(Angwin, et al., 2016)。金融分野では、AIベースの予測モデルが融資申し込みの判断支援や金融市場の動向予測に利用されている(Aziz, et al., 2022)。さらに、患者の診断や治療にAIベースの意思決定支援システムを使うことが、現在、医学の分野で研究されたり、部分的に実施されたりしている(Editorial, 2024)(The Royal College of Radiologists, et al, 2023)(BSI, 2024)。これらは、誤った判断が市民の社会的、法的、経済的、健康的損害につながりかねない、非常にセンシティブな分野である。
Awareness of the potential risk associated with AI is rising on the European level, which led to EU regulations to counteract some of these risks, namely the general data protection regulation (GDPR) and the artificial intelligence act (AI Act). These regulations give rise to the question on how to adequately assess AI products due to the black box nature of many of these products. Black box in this context means, that developers and providers of AI products cannot guarantee to fully understand why a certain decision was made by the AI. In accordance with standard practice in the literature, the term black box will be used to describe a technical as well as a functional black box throughout this document. There are several voices in research and application that proclaim a specific field as the solution to many problems of AI: explainable artificial intelligence (XAI)  (EDPS, 2023) (IBM, 2023) (Gerlings, et al., 2020). This subdomain of AI consists of techniques and methods that either use inherently interpretable approaches to create a humancomprehensible decision-making process or apply additional models to compute explanations for decisions made by a black box (Molnar, 2020) (Arrieta, et al., 2020). XAI techniques that are used to explain an already trained black box are called post-hoc approaches and the computed explanations are called post-hoc explanations. In theory, users can utilize calculated explanations to understand decisions, identify faulty behavior of AI systems, or take action against potential discrimination by algorithmic decision-making. Additionally, supervisory authorities could assess AI products with the help of these explanations. However, it is of utmost importance to evaluate the possibility of manipulating XAI methods[1] to ensure that they can be securely and reliably used. Furthermore, there have to be reliable approaches to detect manipulated explanations. This publication is meant to provide an overview of the issues arising from the use of post-hoc XAI methods in an adversarial context. Implications of these issues for assessment procedures and digital consumer protection will be shown.  AIに関連する潜在的リスクに対する認識は欧州レベルで高まっており、その結果、これらのリスクの一部に対抗するためのEU規制、すなわち一般データ保護規制(GDPR)と人工知能法(AI法)が制定された。これらの規制は、AI製品の多くがブラックボックスであることから、AI製品をどのように適切にアセスメントするかという問題を引き起こしている。ここでいうブラックボックスとは、AI製品の開発者やプロバイダが、AIがある決定を下した理由を完全に理解することを保証できないことを意味する。文献における標準的な慣行に従い、本書では技術的なブラックボックスと機能的なブラックボックスを表現するためにブラックボックスという用語を使用する。説明可能な人工知能(XAI)(EDPS, 2023)(IBM, 2023)(Gerlings, et al.) AIのこのサブドメインは、人間にとって理解しやすい意思決定プロセスを生み出すために本質的に解釈可能なアプローチを用いるか、ブラックボックスによってなされた意思決定に対する説明を計算するために追加モデルを適用する(Molnar, 2020)(Arrieta, et al.) 既に訓練されたブラックボックスを説明するために使用されるXAI技術は、ポストホックアプローチと呼ばれ、計算された説明はポストホック説明と呼ばれる。理論的には、ユーザーは計算された説明を利用して、意思決定を理解したり、AIシステムの欠陥行動を特定したり、アルゴリズムによる意思決定による潜在的な識別に対して行動を起こしたりすることができる。さらに、監督当局はこれらの説明の助けを借りてAI製品を評価することができる。しかし、XAI手法[1]を安全かつ確実に使用できるように、操作の可能性を評価することが最も重要である。さらに、操作された説明を検知するための信頼できるアプローチが必要である。本書は、敵対的な状況におけるポストホックXAI手法の使用から生じる問題の概要を提供することを目的としている。アセスメント手続きとデジタル消費者保護に対するこれらの問題の防御を示す。
This publication is targeted at a professional audience with knowledge about the fundamentals of AI and experience with XAI methods. The goal is to make experts, who are participating in committee work towards a practical implementation of the AI Act, aware of the issues with posthoc XAI methods. The document is meant to enable a critical and result-oriented discussion about the chances and limitations that the use of XAI methods provide for the requirements of the AI Act. Furthermore, the publication points towards directions that need to be explored in the development of new XAI methods to ensure their usability in assessment procedures and digital consumer protection.  本書は、AIの基礎知識とXAI手法の使用経験を持つ専門家を対象としている。その目的は、AI法の実用化に向けた委員会作業に参加している専門家に、その場限りのXAI手法の問題点を認識してもらうことである。この文書は、XAI手法の使用がAI法の要件に与える可能性と限界について、批判的かつ結果重視の議論を可能にすることを意図している。さらに、本書は、アセスメント手続きやデジタル消費者保護における有用性を確保するために、新たなXAI手法の開発において探求すべき方向性を指し示している。
2 Issues of Post-Hoc Explanations  2 その場限りの説明の問題点
Throughout this document, the studied scenario consists of two participating parties. On one side is the explanation-providing party, which could be, for example, a company that offers an AI product and uses XAI methods to calculate explanations for decisions made by their product. On the other side is the explanation-receiving party, which could be consumers that are affected by decisions from an AI product or supervisory authorities that want to assess the conformity of an AI product. As a special case, the document will also consider a scenario, where the explanationproviding and the explanation-receiving party are identical and the other party only provides the AI product. This special case can occur during assessment procedures. Academic research often considers a cooperative context, i.e., the explanation-providing party and the explanation-receiving party have the same goal. However, an adversarial context can be prevalent for assessment procedures and digital consumer protection. The term adversarial context means, that the participating parties do not follow the same objective. For example, market players (companies, consumers) can have different economic interests.   本書を通じて、研究シナリオは2つの当事者から構成されている。一方は説明プロバイダであり、例えば、AI製品を提供し、その製品による決定に対する説明を計算するためにXAI手法を使用する企業である。もう一方は説明を受ける側で、AI製品の決定の影響を受ける消費者や、AI製品の適合性を評価したい監督当局などが考えられる。特別なケースとして、説明提供側と説明受領側が同一であり、相手側がAI製品のみを提供するシナリオも考慮する。この特別なケースは、アセスメント手続き中に起こりうる。学術研究では、説明プロバイダと説明受領者が同じ目標を持つという、協力的な状況を考慮することが多い。しかし、アセスメント手続きやデジタル消費者保護においては、敵対的な文脈が広まることもある。敵対的文脈とは、参加当事者が同じ目的に従っていないことを意味する。例えば、市場関係者(企業、消費者)は異なる経済的利益を持ちうる。 
In a perfect (AI) world, consumers have access to XAI methods that they can use to get understandable information about automatic decision-making processes. Furthermore, this understandable information can be used by consumers to identify actions they can take (within the confinement of the law) to achieve a favorable change in the decision. A process that is known as algorithmic recourse (Karimi, et al., 2022). At the same time, supervisory authorities can use the understandable information provided by XAI methods to assess whether AI products abide by mandatory requirements or fulfill the standards of needed certifications (BSI, 2024b). However, the current generation of XAI methods has limitations and issues that make the secure and reliable use of these methods for the described scenarios questionable.  完璧な(AIの)世界では、消費者は自動的な意思決定プロセスに関する理解可能な情報を得るために使用できるXAI手法にアクセスできる。さらに、この識別可能な情報は、消費者が(法律の範囲内で)決定を有利に変更するために取ることができる行動を特定するために使用することができる。アルゴリズミック・リコースと呼ばれるプロセスである(Karimi, et al., 2022)。同時に、監督当局は、XAI手法によって提供される理解可能な情報を利用して、AI製品が必須要件を遵守しているかどうか、あるいは必要な認証の標準を満たしているかどうかを評価することができる(BSI, 2024b)。しかし、現在のXAI手法の生成的な限界や問題点は、説明されたシナリオにこれらの手法を安全かつ確実に使用することを疑問視させるものである。
2.1 The Disagreement Problem  2.1 不一致問題
Post-hoc explanation approaches are using downstream models to make the decision-making process of a black box model understandable for humans. The most common approaches are either using model internals (e.g., learned weights or gradients) or surrogate models[2] to approximate the investigated prediction model’s computations. However due to the fact that these approaches are using an approximation, they cannot guarantee to be faithful to the prediction model’s real computations. The computed explanation is influenced by design decisions of the different post-hoc approaches – so-called a priori assumptions. Since these assumptions differ between different post-hoc explanation approaches, two different approaches can compute vastly different explanations for the decision made by a prediction model for a specific data point. The term that is often used in literature to describe this issue is disagreement problem. The technical reason for this problem can be derived from the fact that calculating post-hoc explanations is underdetermined, which can be seen in two aspects. First, post-hoc explanation methods only have access to a sparse and coarse-grained view of the world. Second, there rarely is a single reason for a specific decision made by modern AI models due to their highly complex decision surfaces (Bordt, et al., 2022). Figure 1 shows a schematic visualization of the disagreement problem.  その場しのぎの説明アプローチは、ブラックボックスモデルの意思決定プロセスを人間に理解できるようにするために、下流モデルを使用する。最も一般的なアプローチは、調査された予測モデルの計算を近似するために、モデル内部(例えば、学習された重みまたは勾配)またはサロゲートモデル[2]を使用することである。しかし、これらのアプローチは近似を用いているため、予測モデルの実際の計算に忠実である保証はない。計算された説明は、異なるポストホックアプローチの設計上の決定、いわゆるアプリオリな仮定の影響を受ける。これらの仮定は異なるポストホック説明アプローチ間で異なるため、2つの異なるアプローチは、特定のデータポイントに対して予測モデルによってなされた決定に対して、大きく異なる説明を計算することができる。この問題を説明するために文献でよく使われる用語が不一致問題である。この問題の技術的な理由は、ポスト・ホック説明を計算することが過小決定であるという事実から導き出される。第一に、ポストホック説明法は疎で粗い世界観にしかアクセスできない。第二に、現代のAIモデルが行う特定の決定には、非常に複雑な決定曲面のため、単一の理由しか存在しないことがほとんどである(Bordt, et al., 2022)。図1は、不一致問題を模式的に視覚化したものである。
*****Fig1****
Figure 1: Schematic visualization of the disagreement problem. An AI black box denies a person’s loan application. Three different XAI methods are used to calculate an explanation for this decision. The used methods are SHAP (SHapley Additive explanation), LIME (Local Interpretable Model-agnostic Explanation), and SOFI (Sparseness-Optimized Feature Importance). All three methods create different explanations. While SHAP puts the most weight onto the equity capital of the applicant, LIME assigns the highest influence to the loan amount. Lastly, SOFI calculates that loan term is the most influential feature for the decision. This example shows the difficulties that the disagreement problem can cause to applicants. They are limited in their ability to identify actions that can cause a favorable change of decision due to the contradictory explanations.   図1:不一致問題の概略図。AIのブラックボックスが融資申請を却下する。この決定に対する説明を算出するために、3つの異なるXAI手法が使用される。使用される手法は、SHAP(SHapley Additive explanation)、LIME(Local Interpretable Model-agnostic Explanation)、SOFI(Sparseness-Optimized Feature Importance)である。3つの手法はすべて異なる説明を作成する。SHAPは申請者の自己資本に最も重み付けするのに対し、LIMEは融資額に最も高い影響力を割り当てる。最後に、SOFIは融資期間が決定に最も影響を与える特徴であると算出する。この例は、意見の相違が申請者に与える困難を示している。矛盾する説明により、決定に好ましい変化をもたらす行動を識別する能力が制限される。
Evidence of the disagreement problem can be found in several different application areas of AI. Within the natural language processing (NLP) domain, it was shown that disagreement between explanation approach occur independently of the used language model (e.g., LSTM or transformer-based) and during different tasks (e.g., language comprehension or sentiment analysis). Different XAI approaches were investigated including permutation-[3], gradient-[4] and propagation-based[5] explanation methods and all approaches showed severe differences in their calculated explanations (Neely, et al., 2021). However, the disagreement problem is not limited to the comparison of different XAI approaches. It can also be found when two explanation methods of the same approach are compared. This was noticed during an investigation of defect detection systems for source code. Two different permutation-based methods – LIME and SHAP – were used to calculate post-hoc explanations. The resulting explanations showed strong differences and were partly contradictory (Roy, et al., 2022). An extensive study on tabular data indicated, that the  disagreement problem can also be found when comparing popular methods that are using a counterfactual approach[6] (Brughmans, et al., 2024). The high prevalence of the disagreement problem became apparent with a study conducted by researchers from Harvard University, MIT, Drexel University, and Carnegie Mellon University. Within the study, eight different prediction models were trained on four different datasets (two tabular datasets, one textual dataset, and one image dataset). All tested prediction models were black boxes. After training, six popular explanation methods were applied to each combination of prediction model and dataset and the resulting explanations were compared. The researchers found clear differences between calculated explanations for all investigated data modalities. These results show the seriousness of the disagreement problem. In the same work, the researchers conducted a user study with professional data scientists to determine how often professionals encounter the disagreement problem. More than 70% of the participants indicated that the disagreement problem is part of their daily work. Additionally, further questioning indicated that there is a lack of standard practices to solve the encountered disagreements. In their daily work, participants usually use internal, subjective metrics to determine which post-hoc explanation they trust (Krishna, et al., 2024). Another aspect of the disagreement problem can be found in the lack of reproducibility that AI applications often face. For examples, small changes in the hardware environment of an AI model can lead to changes in the behavior. The changed behavior can then lead to changed explanations. (BSI, 2022).  不一致問題の証拠は、AIのいくつかの異なる応用分野で見つけることができる。自然言語処理(NLP)領域では、説明アプローチ間の不一致は、使用される言語モデル(例えばLSTMや変換器ベース)とは無関係に、また異なるタスク(例えば言語理解や感情分析)中に発生することが示された。順列法[3]、勾配法[4]、伝播法[5]など、さまざまなXAIアプローチが調査されたが、どのアプローチも、計算された説明文に大きな違いを示した(Neely, et al.) しかし、不一致の問題は、異なるXAIアプローチの比較に限定されるものではない。同じアプローチの2つの説明方法を比較した場合にも見られる。これは、ソースコードの欠陥検知システムの調査中に気づいた。LIMEとSHAPという2つの異なる順列に基づく方法が、事後説明を計算するために使用された。その結果、説明には強い違いが見られ、部分的に矛盾していた(Roy, et al., 2022)。表データに関する広範な研究では、不一致の問題は、反実仮想的アプローチを使用する一般的な方法を比較するときにも見られることが示された[6](Brughmans, et al., 2024)。ハーバード大学、マサチューセッツ工科大学(MIT)、ドレクセル大学、カーネギーメロン大学の研究者によって実施された研究で、不一致問題の有病率の高さが明らかになった。この研究では、8つの異なる予測モデルが4つの異なるデータセット(2つの表データセット、1つのテキストデータセット、1つの画像データセット)で訓練された。テストされた予測モデルはすべてブラックボックスであった。学習後、6種類の一般的な説明方法を、予測モデルとデータセットの各組み合わせに適用し、得られた説明を比較した。研究者は、調査したすべてのデータモダリティについて、計算された説明の間に明確な違いがあることを発見した。これらの結果は、不一致問題の深刻さを示している。同じ研究において、研究者らは、専門家が不一致問題に遭遇する頻度を明らかにするため、プロのデータ科学者を対象としたユーザー調査を実施した。参加者の70%以上が、不一致問題は日常業務の一部であると回答した。さらに質問を進めたところ、遭遇した意見の相違を解決するための標準的なプラクティスが不足していることが示された。日常業務において、参加者は通常、社内の主観的な指標を用いて、どの事後説明を信頼するかを決定している(Krishna, et al., 2024)。不一致問題のもう一つの側面は、AIアプリケーションがしばしば直面する再現性の欠如にある。例えば、AIモデルのハードウェア環境の小さな変化が、動作の変化につながることがある。変化した挙動は、説明の変化につながる可能性がある。(BSI, 2022)。
The disagreement problem is a prominent challenge for the scenarios that this manuscript is focused on. A multitude of different or contradictory explanations could cause consumers to be overwhelmed, if they are supposed to use these explanations to understand a decision process or derive actions for a favorable decision change. Simultaneously, the disagreement between XAI methods give explanation-providing parties the possibility to select one specific explanation that is most suitable to their interest. Since these interests do not necessarily match with the interests of consumers, this could cause conflicts with digital consumer protection. Supervisory authorities can also face challenges due to the disagreement problem. If provided explanations are supposed to support an assessment procedure to assure that an AI product is in accordance with mandatory requirements, then the disagreement problem could allow explanation-providing parties to hide explanations that would make the conformity of their products questionable. Additionally, the disagreement problem can cause challenges, if supervisory authorities are calculating explanations themselves during an assessment procedure. A possible situation could arise where the use of different XAI methods result in different assessments regarding the conformity of an AI product. It is unclear how to solve such a situation.  不一致の問題は、この原稿が焦点を当てているシナリオにとって顕著な課題である。消費者がこれらの説明を使って意思決定プロセスを理解したり、好ましい意思決定変更のための行動を導き出したりする場合、多数の異なる説明や矛盾する説明は、消費者を圧倒してしまう可能性がある。同時に、XAI手法間の不一致は、説明を提供する側に、自分の関心に最も適した特定の説明を1つ選択する可能性を与える。これらの利益は必ずしも消費者の利益と一致しないため、デジタル消費者保護との軋轢を引き起こす可能性がある。監督当局もまた、不一致の問題に起因する課題に直面する可能性がある。提供された説明が、AI製品が必須要件に適合していることを保証するためのアセスメント手続を支援するものとされている場合、不一致問題によって、説明を提供する当事者が、自社製品の適合性を疑わせるような説明を隠すことが可能になる可能性がある。さらに、監督当局がアセスメント手続き中に自ら説明を計算する場合にも、不一致問題は問題を引き起こす可能性がある。異なるXAI手法の使用により、AI製品の適合性に関するアセスメントが異なるという状況が起こりうる。このような状況をどのように解決するかは不明である。
2.2 The Manipulation Risk  2.2 操作リスク
There are additional possibilities to misuse XAI methods beside abusing the disagreement problem. It is also possible to directly manipulate an explanation. This can be achieved by either manipulating the prediction model or the explanation model in a way that conserves the predictive behavior of the AI model but changes the calculated explanations. A schematic visualization of manipulation can be found in Figure 2. The goal of manipulating explanations is to hide undesired or illegal behavior of AI models (Schneider, et al., 2023). Permutation-based explanation methods use small perturbations to inputs in their computation process. This fact can be exploited for manipulations. For two of the most popular methods from this approach – LIME and SHAP – it is possible to discriminate between regular inputs and generated, perturbed inputs. In (Slack, et al., 2020), authors were able to show that this information is sufficient to hide problematic behavior of a prediction model. They combined the “real” prediction model with a manipulated model that did not have the problematic behavior. While the “real” model was used to make predictions, the posthoc explanations were based on the manipulated model. If the investigated AI product is a black box that combines the original model with the manipulated model, the proposed manipulation can be hidden from consumers and supervisory authorities.  不一致問題を悪用する以外にも、XAI手法を悪用する可能性がある。説明を直接操作することも可能である。これは、AIモデルの予測動作はそのままに、計算された説明を変更する方法で、予測モデルまたは説明モデルを操作することで実現できる。操作の概略的な視覚化は図2にある。説明を操作する目的は、AIモデルの望ましくない、あるいは違法な振る舞いを隠すことである(Schneider, et al., 2023)。順列に基づく説明手法は、計算過程で入力に小さな摂動を与える。この事実は、操作に利用できる。LIMEとSHAPの2つは、通常の入力と生成的な摂動入力を識別することができる。Slack, et al., 2020)において、認可者はこの情報が予測モデルの問題行動を隠すのに十分であることを示すことができた。彼らは「本物」の予測モデルを、問題のある振る舞いをしない操作されたモデルと組み合わせた。本物」のモデルは予測に使用されたが、事後説明は操作されたモデルに基づいて行われた。もし調査対象のAI製品が、オリジナルのモデルと操作されたモデルを組み合わせたブラックボックスであれば、提案された操作を消費者や監督当局から隠すことができる。
*****Fig2*****
Figure 2: Schematic visualization of XAI method manipulation. An AI black box denies a person’s loan application.  図2:XAI手法の操作の模式的視覚化。AIのブラックボックスは、ある人のローン申請を拒否する。
Using a post-hoc explanation method indicates, that the applicant’s gender was most influential for the decision – a potential violation of anti-discrimination law. The explanation-providing party wants to hide this illegal behavior to avoid claims of damages. Therefore, the explanation gets manipulated to eradicate the influence of gender from the explanation even though the model still uses this feature.  事後的な説明方法を用いると、申請者の性別がその決定に最も影響したことが示される-これは差別禁止法違反の可能性がある。説明を提供する側は、損害賠償請求を避けるためにこの違法行為を隠したい。そのため、モデルにはこの特徴が使われているにもかかわらず、説明から性別の影響を排除するように説明が操作される。
Counterfactual explanation approaches are also vulnerable to manipulation. If a specially designed loss function is used during training, auditing the trained model with counterfactual explanations would indicate an acceptable model behavior. However, the designed loss function opened a back door that can be misused by providers, to manipulated counterfactual explanations for arbitrary inputs when the model is deployed. Providers could use this back door, for example, to give realistic recourse options only to a selected subgroup of users (Slack, et al., 2021). For image data, researchers were able to show that methods based on saliency maps can be manipulated. This manipulation was achieved by specific optimization formulas for model finetuning. The finetuned models had an unchanged predictive behavior but the computation of saliency maps by different post-hoc explanation methods was altered. With the proposed finetuning either a passive manipulation (i.e., the calculated explanation is randomized) or an active manipulation (i.e., the calculated explanation follows a predetermined form) can be achieved (Heo, et al., 2019). Another group of researchers investigated gradient-based explanation approaches in the NLP field. Their results indicate that many of these methods can be manipulated to hide the real behavior of a prediction model (Wang, et al., 2020). In general, post-hoc explanation methods are vulnerable to several different vectors from the field of adversarial attacks[7]. However, in the explanation case, these vectors will not be used by malicious actors to attack an AI model. Instead, adversarial attacks can be used by explanation-providing parties to deceive explanation-receiving parties about the real behavior of an AI model (Baniecki, et al., 2024).   反実仮想的説明アプローチも操作の脆弱性がある。訓練中に特別に設計された損失機能が使用された場合、反事実的説明で訓練されたモデルを監査すると、許容可能なモデル動作を示すだろう。しかし、設計された損失関数は、モデルが展開されるときに、任意の入力に対する反事実的説明を操作するために、プロバイダによって悪用される可能性のあるバックドアを開いた。プロバイダはこのバックドアを利用して、例えば、現実的な救済オプションを選択されたサブグループのユーザーにだけ与えることができる(Slack, et al., 2021)。画像データについては、研究者は、顕著性マップに基づく手法が操作可能であることを示すことができた。この操作は、モデルの微調整のための特定の最適化公式によって達成された。ファインチューニングされたモデルの予測動作は変わらないが、異なる事後説明法による顕著性マップの計算が変更された。提案されたファインチューニングでは、受動的操作(すなわち、計算された説明がランダムになる)または能動的操作(すなわち、計算された説明があらかじめ決められた形式に従う)のいずれかを達成することができる(Heo, et al.) 別の研究者グループは、NLP分野における勾配ベースの説明アプローチを調査した。彼らの結果は、これらの手法の多くが、予測モデルの実際の振る舞いを隠すように操作できることを示している(Wang, et al., 2020)。一般的に、ポストホック説明手法は、敵対的攻撃の分野からいくつかの異なるベクトルに対して脆弱性を持つ[7]。しかし、説明の場合、これらのベクトルは悪意のある行為者がAIモデルを攻撃するために使用することはない。その代わり、敵対的攻撃は、説明を提供する側が、AIモデルの実際の振る舞いについて説明を受ける側を欺くために使用することができる(Baniecki, et al.) 
Deep Dive  Deep Dive
A group of researchers showed the seriousness of the manipulation issue for popular explanation methods that are based on gradients and propagation. They used differential geometry to show, that for every black box there is a surrogate model with identical behavior on the data manifold but arbitrary gradient- or propagation-based explanations (Anders, et al., 2020). Their argument uses the insight that gradients, which lie orthogonal to the data manifold, do not influence the model’s prediction behavior on the data. Therefore, these gradients can be used to create arbitrary explanations, since they are highly influential for the calculation of gradient- and propagation-based explanations.  研究者グループは、勾配と伝播に基づく一般的な説明手法の操作問題の深刻さを示した。彼らは微分幾何学を用いて、あらゆるブラックボックスに対して、データ多様体上では同一の振る舞いをするが、勾配や伝播に基づく説明は任意である代理モデルが存在することを示した(Anders, et al., 2020)。彼らの議論は、データ多様体に直交する勾配は、データ上でのモデルの予測動作に影響を与えないという洞察を用いている。したがって、これらの勾配は、勾配や伝播に基づく説明の計算に大きな影響を与えるため、任意の説明を作成するために使用することができる。
Manipulating explanations can lead to the same problematic situations as described in the section about the disagreement problem. Consumers could be negatively impacted by deceiving them about the real workings of a decision process or by preventing them from identifying actions for a favorable decision change. Concurrently, supervisory authorities can be deceived during assessment procedures. For example, this could lead to an AI product being cleared for certifications even if the product does not fulfill the requirements.  説明を操作することは、不一致問題のセクションで説明したのと同じような問題を引き起こす可能性がある。消費者は、意思決定プロセスの実際の仕組みについて欺いたり、有利な意思決定変更のための行動を特定できないようにしたりすることで、悪影響を受ける可能性がある。同時に、監督当局はアセスメント手続き中に欺かれる可能性がある。例えば、AI製品が要求事項を満たしていないにもかかわらず、認証をクリアしてしまう可能性がある。
2.3 Fairwashing  2.3 Fairwashing
An important topic for assessment and control of AI products is whether such a product has unfair or discriminating behavior towards a subpopulation of consumers. Equal treatment independent of sensitive attributes like ethnicity, gender identity, or sexual orientation belongs to the basic rights of German and European citizens and, hence, is specially protected (cf Article 3 Basic Law of the Federal Republic of Germany, Article 21 EU Charter of Fundamental Rights, and Article 18 Treaty on the Functioning of the EU). This fundamental right gets affirmed in different legal texts that are important for the application of AI (cf Article 5(1) lit. c AI Act and Article 9(1) GDPR). However, the topic of unfair or discriminating behavior is important for IT security as well. On a fundamental level, unfair or discriminating behavior means that subpopulations are treated differently by an AI product. This could lead to security issues, if such a product is applied in a security-sensitive scenario. As an example, consider an identification software based on biometric data that is biased against a certain ethnicity. In the worst case, deployment of such a biased software could mean that unauthorized persons gain access to restricted areas or information, if the software has difficulties distinguishing between humans of the same ethnicity. Another mandatory characteristic of a secure IT product is the guarantee, that provided information is accurate and trustworthy. An AI product with unfair or discriminating behavior cannot reliably fulfill this mandatory characteristic. In summary, AI products with the described behavior break with basic principles of IT security that are defined in the so-called CIA triad: confidentiality, integrity and availability. In profit-oriented processes, however, unfair or discriminating behavior of AI products might be accepted by providers, if this leads to advantages over competitors – for example due to better prediction performance. This behavior has to be hidden from supervisory authority, since it could violate mandatory requirements. The process of hiding unfair or discriminating behavior of an AI is called fairwashing. The following section will provide a more detailed look onto this topic due to the relevance for IT security and digital consumer protection.  AI製品のアセスメントと管理にとって重要なトピックは、そのような製品が消費者の下位集団に 対して不公正または識別的な行動をとっているかどうかである。民族、性自認、性的指向といった微妙な属性に左右されない平等な扱いは、ドイツおよび欧州市民の基本的権利に属し、それゆえ特別に保護されている(ドイツ連邦共和国基本法第3条、EU基本権憲章第21条、EU機能条約第18条参照)。この基本的権利は、AIの適用にとって重要なさまざまな法文で確認されている(AI法第5条1項c、GDPR第9条1項参照)。しかし、不当な行為や識別的行為は、ITセキュリティにとっても重要である。基本的なレベルでは、不公正または識別的な振る舞いとは、AI製品によって一部の集団が異なる扱いを受けることを意味する。このような製品がセキュリティ上重要なシナリオに適用された場合、セキュリティ上の問題につながる可能性がある。例として、特定の民族に偏った生体データに基づく識別ソフトウェアを考えてみよう。最悪の場合、そのようなバイアスのかかったソフトウェアを展開すると、同じ民族の人間を区別するのが難しい場合、権限のない人間が制限されたエリアや情報にアクセスすることになりかねない。安全なIT製品のもうひとつの必須特性は、プロバイダが提供する情報が正確で信頼できるものであることを保証することである。不公正な、あるいは識別的な振る舞いをするAI製品は、この必須特性を確実に満たすことはできない。要約すると、このような振る舞いをするAI製品は、いわゆるCIAの三原則(機密性、完全性、可用性)で定義されているITセキュリティの基本原則に反している。しかし、利益重視のプロセスでは、AI製品の不公正な振る舞いや識別的な振る舞いがプロバイダに受け入れられる可能性がある。このような行動は、強制的な要件に違反する可能性があるため、監督当局から隠さなければならない。AIの不公正な行動や識別的な行動を隠すプロセスは、フェアウォッシュと呼ばれる。以下では、ITセキュリティやデジタル消費者保護との関連性から、このトピックについてより詳しく見ていく。
Researchers from Canada and Japan proposed an early formalization of the problem (Aivodji, et al., 2019).They defined fairwashing from two different directions. In the first case, the goal is to hide an unfair model from a group of users or a supervisory authority. This case is called model fairwashing. Similar to the standard procedure in XAI, model fairwashing uses an interpretable surrogate model to approximate the behavior of the unfair model. As an additional constraint, the surrogate model also has to optimize a fairness metric[8] compared to the original model. In other words, model fairwashing searches for an interpretable surrogate model that is fairer than the approximated model. This would result in global explanations – this term describes explanations that depict the general behavior of a prediction model – which hide the unfair behavior of the model. Model fairwashing is applicable to the case where a group of users, the so-called suing group, feels unfairly treated by an AI product and demands an explanation. Another case would be the assessment of AI products by a supervisory authority. The suing group in this case would not be a group of users but a control benchmark developed and used by the supervisory authority to evaluate AI products. To assess the product’s conformity with mandatory requirements, explanations are calculated for the control benchmark.  カナダと日本の研究者は、この問題の初期の定式化を提案した(Aivodji, et al. 最初のケースでは、不公正なモデルをユーザーグループや監督機関から隠すことが目的である。このケースはモデルフェアウォッシングと呼ばれる。XAIにおける標準的な手順と同様に、モデル・フェアウォッシングは、解釈可能なサロゲート・モデルを使用して、不公平なモデルの振る舞いを近似する。追加的な制約として、サロゲート・モデルは、オリジナル・モデルと比較して、公平性メトリック[8]を最適化しなければならない。言い換えれば、モデルフェアウォッシングは、近似されたモデルよりも公正な解釈可能な代理モデルを探索する。その結果、グローバルな説明(この用語は、予測モデルの一般的な振る舞いを描写する説明を表す)が、モデルの不公正な振る舞いを隠すことになる。モデルのフェアウォッシングは、ユーザーのグループ、いわゆる訴訟グループが、AI製品によって不当な扱いを受けたと感じ、説明を要求する場合に適用される。もう一つのケースは、監督当局によるAI製品のアセスメントである。この場合、訴える集団はユーザー集団ではなく、監督当局がAI製品を評価するために開発し使用する管理ベンチマークとなる。製品の必須要件への適合性を評価するために、管理ベンチマークに対する説明が計算される。
The second direction from which the authors define fairwashing covers the individual case, i.e., the situation where a single user feels unfairly treated by an AI model. This direction will be called outcome fairwashing in the following. In contrast to model fairwashing, outcome fairwashing does not require that the whole prediction model can be approximated by a fair surrogate model. Instead, a fair behavior has to be counterfeited only within a neighborhood surrounding the considered data point, i.e., for all data points that are similar to the input.  認可者がフェアウォッシングを定義する第二の方向性は、個々のケース、すなわち、一人のユーザーがAIモデルによって不当な扱いを受けたと感じる状況を対象とする。この方向性を、以下では結果フェアウォッシングと呼ぶ。モデルのフェアウォッシングとは対照的に、結果のフェアウォッシングでは、予測モデル全体が公正な代理モデルで近似できる必要はない。その代わり、公正な振る舞いは、考慮されたデータ点を取り囲む近傍領域、つまり入力に類似する全てのデータ点に対してのみ偽造されなければならない。
The definitions of model and outcome fairwashing do not specify the fairness metric, rather, different metrics can be used. This was a conscious decision to accompany the fact, that the choice of the “right” fairness metric is not intuitive and often controversial (cf (Barocas, et al., 2023) for a detailed discussion).  モデルと結果のフェアウォッシングの定義では、公正さの指標を指定していない。これは、「正しい 」フェアネス尺度の選択は直感的ではなく、しばしば論争になる(詳細な議論については(Barocas, et al., 2023)を参照)という事実に伴う意識的な決定であった。
For both fairwashing definitions, the researchers proposed an automatic procedure to generate explanations that hide the problematic behavior of an AI model (Aivodji, et al., 2021). This work investigated the fidelity-unfairness trade-off to better understand fairwashing. This term describes the fact that fairwashing requires an equilibrium between maximizing how accurate a surrogate model can simulate the behavior of a prediction model and minimizing the unfair behavior of the surrogate model compared to the original model. The conducted experiments showed, that manipulated explanation models were able to generalize to new data sets. In other words, explanation models that were manipulated for a certain suing group or control benchmark were able to generate convincing explanations on new data. Here, convincing means that the explanation were not clearly identifiable as manipulated. Furthermore, manipulated explanation models were able to generalize to new prediction models. These results indicate, that identifying fairwashing is challenging for supervisory authorities and users. Another issue is the distinction between intentional and non-intentional fairwashing. A group of researchers were able to show that approximating a black box by a surrogate model always causes a certain amount of fairwashing as long as the black box is not perfectly fair (Shahin Shamsabadi, et al., 2022). For the proof, the term fairness gap was introduced which describes how fair a model under a specific fairness metric is. The researchers were able to show that one can write the fairness gap of a surrogate model as a function of the fairness gap of the corresponding black box. This leads to the proof that fairwashing can only be avoided with certainty, if one intentionally makes the surrogate model unfairer that the black box.  どちらのフェアウォッシング定義についても、研究者はAIモデルの問題行動を隠す説明を生成する自動的な手順を提案した(Aivodji, et al., 2021)。この研究では、フェアウォッシングをよりよく理解するために、忠実性と不公正性のトレードオフを調査した。この用語は、フェアウォッシングが、サロゲートモデルが予測モデルの振る舞いをどれだけ正確にシミュレートできるかを最大化することと、オリジナルモデルと比較したサロゲートモデルの不公正な振る舞いを最小化することの間の均衡を必要とするという事実を表している。実施された実験から、操作された説明モデルは新しいデータセットに汎化できることが示された。言い換えれば、特定の訴求グループやモデル制御ベンチマークに対して操作された説明モデルは、新しいデータに対して説得力のある説明を生成することができた。ここで、説得力のある説明とは、その説明が操作されたものであると明確に識別できないことを意味する。さらに、操作された説明モデルは、新しい予測モデルに一般化することができた。これらの結果は、フェアウォッシングを識別することは、監督当局やユーザーにとって困難であることを示している。もう一つの問題は、意図的なフェアウォッシュと非意図的なフェアウォッシュの区別である。ある研究者グループは、ブラックボックスを代理モデルで近似すると、ブラックボックスが完全に公正でない限り、常に一定量のフェアウォッシングが発生することを示すことができた(Shahin Shamsabadi, et al., 2022)。この証明のために、特定の公平性メトリックの下でモデルがどの程度公平であるかを表す、公平性ギャップという用語が導入された。研究者たちは、サロゲートモデルの公平性ギャップを、対応するブラックボックスの公平性ギャップの関数として書けることを示すことができた。これは、意図的にサロゲート・モデルをブラックボックスよりも不公平にした場合にのみ、フェアウォッシングを確実に回避できるという証明につながる。
Fairwashing is a special case that can arise from the problems previously mentioned in this chapter: the disagreement problem and manipulation. Since fairwashing cannot guarantee conformity with the principles of the CIA triad and could lead to violations of consumers’ basic rights, this issue has to be specifically considered for the design and implementation of assessment procedures for AI products.  フェアウォッシングは、本章で前述した不一致問題と操作の問題から生じうる特殊なケースである。フェアウォッシュはCIAの三原則への適合を保証することはできず、消費者の基本的権利の侵害につながる可能性があるため、この問題はAI製品のアセスメント手続の設計と実施において特に考慮されなければならない。
3 Solutions  3 解決策
There are different proposed ideas in the literature to solve the problems introduced in chapter 2. While solutions for the disagreement problem are not well developed, two approaches can be identified to solve manipulations in theory. Either, reliably working detection methods are developed. These methods have to be able to detect manipulations with high sensitivity and specificity. Or, the possibility for a new generation of explanation methods – that cannot be manipulated – has to be explored. If such robust explanation methods can be developed, mandatory guidelines need to be established which forces providers to exclusively use these robust methods. Research is conducted for both directions. The approaches introduced in this section have to be understood as academic suggestions. It has to be further investigated, whether these approaches can be reliably and securely implemented in praxis.  2章で紹介した問題を解決するために、文献にはさまざまなアイデアが提案されている。不一致問題の解決策はあまり開発されていないが、理論的に操作を解決するための2つのアプローチが確認できる。一つは、確実に動作する検知方法を開発することである。これらの方法は、高い感度と特異性で操作を検知できなければならない。あるいは、操作されない新世代の説明方法の可能性を探る必要がある。もしそのようなロバストな説明方法が開発されれば、プロバイダがこれらのロバストな方法を独占的に使用するよう強制するガイドラインを確立する必要がある。研究は両方の方向から行われる。このセクションで紹介したアプローチは、学術的な提案として理解されなければならない。これらのアプローチが、実際の現場で確実かつ安全に実施できるかどうかは、さらに調査されなければならない。
3.1 Solving the Disagreement Problem  3.1 不一致問題の解決
Currently, there is no sufficient, technical solution for the disagreement problem. In one study, researchers investigated similarities between three popular explanation methods (SHAP, Partial Dependence Plots, Permutation Feature Importance). One result indicated that disagreement occurred partly due to feature interactions[9].  For toy examples, the study showed that disagreement between methods can be reduced by localizing the methods onto areas without feature interactions  (Laberge, et al., 2024). However, the work does not offer insights into the fundamental problem of disagreement between explanation methods. Additionally, the precise definition of these areas cannot be provided in general, which means that the identification of these areas cannot be guaranteed in an application case. Furthermore, it remains unclear whether the proposed approach generalizes to higher feature dimensions and more complex interaction structures.  現在のところ、不一致問題に対する十分で技術的な解決策はない。ある研究において、研究者は3つの一般的な説明方法(SHAP、部分従属プロット、順列特徴重要度)の類似性を調査した。その結果、不一致は部分的に特徴の相互作用に起因することが示された[9]。おもちゃの例に対して、この研究は、特徴相互作用のない領域に手法を局所化することで、手法間の不一致を低減できることを示した(Laberge, et al., 2024)。しかし、この研究は、説明手法間の不一致という根本的な問題に対する洞察を提供していない。さらに、これらの領域の正確な定義は一般的に提供されないため、応用事例においてこれらの領域の特定が保証されないことを意味する。さらに、提案されたアプローチが、より高い特徴次元やより複雑な相互作用構造に対して一般化されるかどうかは不明なままである。
3.2 Detecting Manipulations  3.2 操作の検知
Reliably detecting manipulated explanations requires sufficient domain expertise (Schneider, et al., 2023). One simple example can visualize the issue. Consider an AI product that classifies mushrooms into edible and poisonous. Internally, the AI switches agaricus bisporus (commonly known as cultivated mushroom) and amanita phalloides (commonly known as death cap). Switching means that the prediction behavior together with all associated explanations are switched such that the AI classifies cultivated mushrooms as death caps and vice versa. User without sufficient domain expertise about mushrooms cannot detect such a manipulation because the model is consistently manipulated. However, the potential outcome – users consume highly poisonous mushrooms – is very dangerous.  操作された説明を確実に検知するには、十分な専門知識が必要である(Schneider, et al., 2023)。一つの簡単な例で、この問題を視覚化することができる。キノコを食用と毒キノコに分類するAI製品を考えてみよう。AIは内部で、アガリクス・ビスポラス(一般に栽培キノコとして知られる)とアマニタ・ファレオイデス(一般にデスキャップとして知られる)を切り替える。切り替えとは、AIが栽培キノコをデスキャップと分類するように、関連するすべての説明とともに予測動作を切り替えることを意味する。モデルは一貫して操作されているため、キノコに関する十分な専門知識を持たないユーザーはこのような操作を検知できない。しかし、ユーザが猛毒のキノコを摂取するという潜在的な結果は非常に危険である。
A proposed approach for the detection of manipulated explanations uses an outlier argument (Schneider, et al., 2023). The investigated black box 𝑏 is used to predict labels for a data set. The resulting set of data point and label pairs is called 𝑋audit = (𝑥, 𝑏(𝑥)) 1,⋯,𝑛 and used to train a set of new black box prediction models. A post-hoc explanation method is used to calculate explanations for the original black box and the newly trained prediction models for each data point in 𝑋audit. Afterwards, the gained set of explanations will be used for an outlier analysis to determine whether the explanation of the original black box belongs to the same distribution than the explanations of the newly trained prediction models. An alternative approach uses the explanations of the investigated black box to train new prediction models, i.e., the task is to predict the label given the explanation. In this case, the outlier analysis is conducted using the accuracy of the newly trained prediction models together with the accuracy of the original black box. In either case, further investigation is required, if the original black box turns out to be an outlier since it means that the black box could be manipulated.  操作された説明を検知するために提案されたアプローチは、外れ値論証を使用する(Schneider, et al.) 調査されたブラックボックスᵄは、データセットのラベルを予測するために使用される。結果として得られるデータ点とラベルのペアの集合を𝑋audit = (↪Ll_1D465, ↪Ll_1D44F)(↪Ll_1D465) と呼ぶ。1,⋯,𝑛と呼ばれ、新しいブラックボックス予測モデルを学習するのに使われる。ポストホック説明法を用いて,𝑋audit の各データ点について,元のブラックボックスと新しく学習した予測モデルの説明を計算する.その後、得られた説明の集合は、元のブラックボックスの説明が新しく訓練された予測モデルの説明と同じ分布に属するかどうかを判定する外れ値分析に使用される。別のアプローチでは、調査されたブラックボックスの説明を用いて新しい予測モデルを訓練する、つまり、タスクは説明が与えられたラベルを予測することである。この場合、外れ値分析は、新たに訓練された予測モデルの精度と、元のブラックボックスの精度を併用して行われる。いずれの場合も、元のブラックボックスが外れ値であることが判明した場合、ブラックボックスが操作された可能性があることを意味するため、さらなる調査が必要となる。
For fairwashing, there is a detection approach that uses fundamental statistical values of the explanation model and the black box (Shahin Shamsabadi, et al., 2022). The investigated statistical values are sensitivity or true positive rate (TPR), false positive rate (FPR), specificity or true negative rate (TNR), and false negative rate (FNR). A pronounced discrepancy of these values between the black box and the explanation model could point toward fairwashing of the black box. The discrepancy is quantified using the Kullback-Leibler divergence, a measure for the difference between two probability distributions.  フェアウォッシングについては、説明モデルとブラックボックスの基本的な統計値を使用する検知アプローチがある(Shahin Shamsabadi, et al.) 調査された統計値は、感度または真陽性率(TPR)、偽陽性率(FPR)、特異度または真陰性率(TNR)、偽陰性率(FNR)である。ブラックボックスと説明モデルの間にこれらの値の顕著な不一致がある場合、ブラックボックスのフェアウォッシュが指摘される可能性がある。この不一致は、2つの確率分布の差の尺度であるカルバック・ライブラー発散を用いて定量化される。
3.3 Robustness of Explanations  3.3 説明の頑健性
A proposed approach to create more robust explanations uses insights from differential geometry. Here, the calculation of gradient- and propagation-based explanations gets constrained to gradients that would change the prediction behavior of black box and surrogate model, if these gradients are manipulated  (Anders, et al., 2020). From a technical point of view, the approach projects explanations onto the tangent space of the data manifold to make the explanations more robust against manipulations. However, the correct form of the projection is usually unknown and often needs expensive computations to find heuristically. This limits the usability of the approach in an applied setting.  より頑健な説明を作成するために提案されたアプローチは、微分幾何学からの洞察を利用する。ここでは、勾配と伝搬に基づく説明の計算は、ブラックボックスとサロゲートモデルの予測挙動を変化させる勾配に制約される。技術的な観点からは、このアプローチは、説明をデータ多様体の接線空間に投影することで、説明の操作に対するロバスト性を高めている。しかし、投影の正しい形は通常未知であり、発見的に見つけるには高価な計算を必要とすることが多い。このことは、応用的な設定におけるアプローチの有用性を制限する。
There exists a proposed method to quantify the potential of fairwashing which uses the Rashomon set of the investigated black box. The Rashomon set is the set of all (interpretable) surrogate models within a defined threshold of allowed decrease in performance compared to the investigated black box. If this set can be approximated, the risk of fairwashing can be quantified. Surrogate models with high fairness according to the chosen metric within the Rashomon set enable fairwashing by the explanation-providing party. The risk of fairwashing is minimized, if there are no surrogate models with high fairness in the Rashomon set (Aivodji, et al., 2021). The method fairness in the Rashomon set (FaiRS) provides a heuristic to approximate the variance of fairness within the Rashomon set (Coston, et al., 2021).  フェアウォッシングの可能性を定量化する方法として、調査対象のブラックボックスの羅生門集合を用いる方法が提案されている。羅生門集合とは、調査したブラックボックスと比較して性能の低下が許容される、定義された閾値内のすべての(解釈可能な)サロゲートモデルの集合である。この集合が近似できれば、フェアウォッシュのリスクを定量化することができる。羅生門集合の中で選択された評価基準に従って高い公平性を持つサロゲート・モデルは、説明プロバイダによるフェアウォッシュを可能にする。フェアウォッシングのリスクは、羅生門集合の中に高フェアネスを持つ代理モデルが存在しない場合に最小化される(Aivodji, et al.) 羅生門集合におけるフェアネス(FaiRS)法は、羅生門集合内のフェアネスの分散を近似するヒューリスティックを提供する(Coston, et al.) 
4 Conclusion  4 結論
AI systems in digital markets place new demands on digital consumer protection, assessment procedures and regulation (Hardt, et al., 2016) (Perdomo, et al., 2020) (Hardt, et al., 2022). While XAI methods are promising when used for knowledge discovery in research or model optimization in industry, they cannot guarantee a benefitial impact on assessment procedures and digital consumer protection. From the technical side, current XAI methods are vulnerable to manipulations, i.e., computed explanations can be manipulated by explanation-providing parties to protect their (economic) interests. This can be used to deceive supervisory authorities and consumers and, hence, has the potential to negatively impact the protection of consumers. IT Security can also be compromised if the real behavior of an AI model is intentionally hidden. Therefore, XAI methods have to be robust against manipulation or reliable detection methods have to be available. Neither can be guaranteed by the currently available solutions.  デジタル市場におけるAIシステムは、デジタル消費者保護、評価手続き、規制に新たな要求を突きつけている(Hardt, et al., 2016)(Perdomo, et al., 2020)(Hardt, et al., 2022)。XAI手法は、研究における知識発見や産業界におけるモデル最適化に使用される場合には有望であるが、アセスメント手続きやデジタル消費者保護に有益な影響を与えることを保証するものではない。技術的な側面から見ると、現在のXAI手法は操作に対して脆弱性がある。すなわち、計算された説明は、説明プロバイダによって、(経済的な)利益を守るために操作される可能性がある。これは、監督当局や消費者を欺くために使われる可能性があり、消費者保護に悪影響を及ぼす可能性がある。また、AIモデルの実際の挙動が意図的に隠されている場合、ITセキュリティが損なわれる可能性もある。したがって、XAIの手法は操作に対してロバストでなければならないし、信頼できる検知方法がなければならない。現在利用可能なソリューションでは、どちらも保証できない。
The disagreement problem poses an additional, serious challenge. Since it is a fundamental issue of post-hoc explanations, the possibility of a technical solution cannot be anticipated, currently. One option to mitigate the disagreement problem would be to determine a standard method for the calculation of post-hoc explanations in the areas of assessment procedures and digital consumer protection. However, it could prove difficult to identify the “best” standard method since different XAI methods have advantages and disadvantages depending on the use case. Another option would be that explanation-providing parties declare before the launch of an AI product which XAI method will be used for the calculation of explanations. Afterwards, explanation-providing parties as well as supervisory authorities are restricted to use only the specified method for the calculation of explanations.  A more restrictive approach would be the ban of products based on AI black boxes for high stakes application areas such as critical infrastructure. This would mean that only the use of inherently interpretable solutions would be permitted. However, this would constitute a serious market intervention with a possibly negative impact on technological innovation. A less restrictive approach is desirable, which requires a goaloriented and unbiased discussion about the necessary technological tools to sufficiently assess AI products. A possible approach would be the development of an extensive audit with white box access, i.e., auditors have access to the inner workings of AI models, and outside the box access, i.e., auditors have access to additional important information like training environment, training data, and application case of AI models (Casper, et al., 2024). A less work-intensive approach using an input-output audit with a meaningful benchmark could be sufficient to determine conformity of products in less critical areas. The use of XAI methods is not required in both cases, which would allow to circumvent the disagreement problem.  不一致の問題は、さらに深刻な課題を突きつけている。これは事後説明の基本的な問題であるため、技術的解決の可能性は今のところ期待できない。不一致問題を緩和する一つの選択肢は、アセスメント手続きとデジタル消費者保護の分野において、事後説明の計算のための標準的な方法を決定することであろう。しかし、ユースケースによって異なるXAI手法には長所と短所があるため、「最良」の標準手法を特定することは困難である。もう一つの選択肢は、説明プロバイダがAI製品の発売前に、説明の計算にどのXAI方式を使用するかを宣言することである。その後、認可プロバイダおよび監督当局は、説明の計算に指定された方法のみを使用するよう制限される。より制限的なアプローチとしては、重要インフラストラクチャのようなリスクの高い応用分野では、AIブラックボックスに基づく製品の使用を禁止することである。これは、本質的に解釈可能なソリューションの使用のみが許可されることを意味する。しかし、これは深刻な市場介入となり、技術革新に悪影響を及ぼす可能性がある。より制限の少ないアプローチが望まれる。そのためには、AI製品を十分にアセスメントするために必要な技術ツールについて、目標志向で偏りのない議論が必要だ。可能なアプローチとしては、ホワイトボックス・アクセス、すなわち、監査人がAIモデルの内部構造にアクセスできるようにし、アウトサイド・ボックス・アクセス、すなわち、監査人がAIモデルの訓練環境、訓練データ、適用事例などの追加的な重要情報にアクセスできるようにした広範な監査を開発することである(Casper, et al.) あまり重要でない分野の製品の適合性を判断するには、意味のあるベンチマークを用いたインプット・アウトプット監査を用いた、作業量の少ないアプローチで十分であろう。いずれの場合もXAI手法の使用は必須ではなく、これによって不一致の問題を回避することができる。
The BSI is developing organizational measures that are applicable to different stages of the life cycle of AI products. These measures will support establishing assessment procedures, which are in accordance with legal requirements like the AI Act. Examples of such organizational measures are the definition of transparency criteria as well as AI-specific building blocks for the ITGrundschutz[10]. Furthermore, the BSI investigates technical solutions to overcome the limitations of XAI methods described within this document. Such technical solutions are needed to utilize the positive potential of XAI. Potential use cases are not limited to assessment procedures and digital consumer protection but also include the detection of and defense against (AI-based) cyber attacks.  BSIは、AI製品のライフサイクルのさまざまな段階に適用可能な組織的尺度を開発している。これらの措置は、AI法のような法的要件に従ったアセスメント手順の確立を支援するものである。このような組織的措置の例としては、透明性規準の定義や、ITGrundschutz[10]のためのAI特有の構成要素がある。さらにBSIは、本文書で説明したXAI手法の限界を克服するための技術的解決策を検討している。このような技術的解決策は、XAIのポジティブな可能性を活用するために必要である。アセスメント手続きやデジタル消費者保護に限らず、(AIベースの)サイバー攻撃の検知や防御も潜在的な防御事例に含まれる。
References  参考文献
Aivodji, Ulrich, et al. 2021. Characterizing the risk of fairwashing. Advances in Neural Information Processing Systems. 2021.  Aivodji, Ulrich, et al. フェアウォッシングのリスクを評価する。Advances in Neural Information Processing Systems. 2021. 
Aivodji, Ulrich, et al. 2019. Fairwashing: the risk of rationalization. International Conference on Machine Learning. 2019.  Aivodji, Ulrich, et al. フェアウォッシング:合理化のリスク。機械学習国際会議。2019. 
Anders, Christopher, et al. 2020. Fairwashing explanations with off-manifold detergent. International Conference on Machine Learning. 2020.  Anders, Christopher, et al. オフマニホールド洗剤によるフェアウォッシングの説明。機械学習国際会議。2020. 
Angwin, Julia, et al. 2016. Machine Bias. ProPublica. [Online] 23. Mai 2016. [Zitat vom: 12. Juni 2024.] [web] Angwin, Julia, et al. 機械バイアス。ProPublica. [オンライン] 23. Mai 2016. [Zitat vom: 12. Juni 2024.] [web]
Arrieta, Alejandro Barredo, et al. 2020. Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion. 2020, Bd. 58.  Arrieta, Alejandro Barredo, et al. 説明可能な人工知能(XAI): 責任あるAIに向けた概念、分類、機会と課題。Information fusion. 2020, Bd. 58. 
Aziz, Saqib, et al. 2022. Machine learning in finance: A topic modeling approach. European Financial Management. 2022, Bd. 3, 28.  Aziz, Saqib, et al. 金融における機械学習: トピックモデリングのアプローチ。European Financial Management. 2022, Bd. 3, 28. 
Baniecki, Hubert und Biecek, Przemyslaw. 2024. Adversarial attacks and defenses in explainable artificial intelligence: A survey. Information Fusion. 2024.  Baniecki, Hubert und Biecek, Przemyslaw. 2024. 説明可能な人工知能における敵対的攻撃と防御: サーベイ。情報融合。2024. 
Barocas, Solon, Hardt, Moritz und Narayanan, Arvind. 2023. Fairness and machine learning: Limitations and opportunities. s.l. : MIT press, 2023.  Barocas, Solon, Hardt, Moritz und Narayanan, Arvind. 2023. 公平性と機械学習: MIT press, 2023. 
Bordt, Sebastian, et al. 2022. Post-hoc explanations fail to achieve their purpose in adversarial contexts. Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency. 2022.  Bordt, Sebastian, et al. このような状況下では、その場しのぎの説明では目的を達成することができない。このような状況において、「説明の後付け」は目的を達成することができない。2022. 
Brughmans, Dieter, Melis, Lissa und Martens, David. 2024. Disagreement amongst counterfactual explanations: how transparency can be misleading. TOP. 2024.  Brughmans, Dieter, Melis, Lissa und Martens, David. 2024. このような場合、「説明の透明性」がどのように誤解を招きうるか。TOP. 2024. 
BSI. 2023. AI Security Concerns in a Nutshell. Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2023.  BSI. 2023. AIセキュリティの懸念の概要。Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2023. 
—. 2022. Deep Learning Reproducibility and Explainable AI (XAI). Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2022.  -. 2022. ディープラーニングの再現性と説明可能なAI(XAI)。Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2022. 
—. 2024. Einsatz von künstlicher Intelligenz in medizinischen Diagnose- und Prognosesystemen. Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2024.  -. 2024. 医療診断・予後診断システムにおける人工知能の活用。Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2024. 
—. 2024a. Generative KI Modelle: Chancen und Risiken für Industrie und Behörden. Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2024a.  -. 2024a. 生成的KIモデル:産業と社会にとっての可能性とリスク。Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2024a. 
—. 2021. Sicherer, Robuster und Nachvollziehbarer Einsatz von KI. Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2021.  -. 2021. KI の安全性、信頼性、そして安全な利用。Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2021. 
—. 2024b. Tranzparenz von KI Systemen. Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2024b.  -. 2024b. KI システムの移行。Bonn : Bundesamt für Sicherheit in der Informationstechnik, 2024b. 
Casper, Stephen, et al. 2024. Black-box access is insufficient for rigorous ai audits. The 2024 ACM Conference on Fairness, Accountability, and Transparency. 2024.  Casper, Stephen, et al. ブラックボックス・アクセスは厳密なai監査には不十分である。The 2024 ACM Conference on Fairness, Accountability, and Transparency. 2024. 
Coston, Amanda, Rambachan, Ashesh und Chouldechova, Alexandra. 2021. Characterizing Fairness Over the Set of Good Models Under Selective Labels. Proceedings of the 38th International Conference on Machine Learning. 2021.  Coston, Amanda, Rambachan, Ashesh und Chouldechova, Alexandra. 2021. 選択的ラベルの下で、良いモデルの集合に対する公正さを特徴付ける。第38回機械学習国際会議予稿集. 2021. 
Editorial. 2024. How to support the transition to AI-powered healthcare. Nature Medicine. 2024, Bd. 30.  論説。2024. AIを活用した医療への移行をどう支援するか。ネイチャー・メディシン。2024, Bd. 30. 
EDPS. 2023. TechDispatch - Explainable Artificial Intelligence. s.l. : European Data Protection Supervisor, 2023.  EDPS. 2023. TechDispatch - Explainable Artificial Intelligence. s.l. : European Data Protection Supervisor, 2023. 
Gerlings, Julie, Shollo, Arisa und Constantiou, Ioanna. 2020. Reviewing the need for explainable artificial intelligence (xAI). s.l. : arXiv preprint arXiv:2012.01007, 2020.  Gerlings, Julie, Shollo, Arisa und Constantiou, Ioanna. 2020. 説明可能な人工知能(xAI)の必要性を見直す" s.l. : arXiv preprint arXiv:2012.01007, 2020. 
Hardt, Moritz, et al. 2016. Strategic classification. Proceedings of the 2016 ACM conference on innovations in theoretical computer science. 2016.  Hardt, Moritz, et al. 戦略的分類。理論計算機科学における革新に関する2016年ACM会議議事録。2016. 
Hardt, Moritz, Jagadeesan, Meena und Mendler-Dünner, Celestine. 2022. Performative power. Advances in Neural Information Processing Systems. 2022.  Hardt, Moritz, Jagadeesan, Meena und Mendler-Dünner, Celestine. 2022. パフォーマティブ・パワー。神経情報処理システムの進歩。2022. 
Heo, Juyeon, Joo, Sunghwan und Moon, Taesup. 2019. Fooling neural network interpretations via adversarial model manipulation. Advances in neural information processing systems. 2019.  Heo, Juyeon, Joo, Sunghwan und Moon, Taesup. 2019. 敵対的モデル操作によるニューラルネットワーク解釈の欺瞞。ニューラル情報処理システムの進歩。2019. 
Herget, Steffen. 2024. High-end-smartphones: Ki-features Im überblick. c't Magazin. [Online] heise online, 19. April 2024. [Zitat vom: 23. August 2024.] [web] Herget, Steffen. 2024. ハイエンド・スマートフォン: Ki-features Im überblick. [オンライン] heise online, 19. April 2024. [Zitat vom: 23. August 2024.] [web]
IBM. 2023. What is explainable AI (XAI)? [Online] IBM, 2023. [Zitat vom: 23. August 2024.] [web] IBM. 2023. 説明可能なAI(XAI)とは何か?[オンライン] IBM, 2023. [Zitat vom: 23. August 2024.] [web]
Karimi, Amir-Hossein, et al. 2022. A survey of algorithmic recourse: contrastive explanations and consequential recommendations. ACM Computing Surveys. 2022, Bd. 55, 5.  Karimi, Amir-Hossein, et al. アルゴリズムの再利用に関する調査:対照的な説明と結果的な推奨。ACM Computing Surveys. 2022, Bd. 55, 5. 
Krishna, Satyapriya, et al. 2024. The Disagreement Problem in Explainable Machine Learning: A Practitioner's Perspective. Transactions on Machine Learning Research. 2024.  Krishna, Satyapriya, et al. 説明可能な機械学習における不一致問題: A Practitioner's Perspective. 機械学習研究論文集. 2024. 
Laberge, Gabriel, et al. 2024. Tackling the XAI Disagreement Problem with Regional Explanations. International Conference on Artificial Intelligence and Statistics. 2024.  Laberge, Gabriel, et al. 地域的説明によるXAI不一致問題への取り組み。人工知能と統計に関する国際会議。2024. 
Molnar, Christoph. 2020. Interpretable machine learning. s.l. : Lulu.com, 2020.  モルナール,クリストフ. 解釈可能な機械学習. s.l. : Lulu.com, 2020. 
Neely, Michael, et al. 2021. Order in the court: Explainable ai methods prone to disagreement. s.l. : ICML 2021 Workshop on Theoretic Foundation, Criticism, and Application Trend of Explainable AI, 2021.  Neely, Michael, et al. 裁判所の秩序: 説明可能なAIの理論的基礎、批判、応用動向に関するICML2021ワークショップ, 2021. 
Perdomo, Juan, et al. 2020. Performative prediction. International Conference on Machine Learning. 2020.  Perdomo, Juan, et al. パフォーマティブな予測. 機械学習国際会議. 2020. 
Roy, Saumendu, et al. 2022. Why don’t xai techniques agree? characterizing the disagreements between post-hoc explanations of defect predictions. 2022 IEEE International Conference on Software Maintenance and Evolution (ICSME). 2022.  Roy, Saumendu, et al. なぜxai技術は一致しないのか?欠陥予測のポストホック説明間の不一致を特徴づける。2022 IEEE International Conference on Software Maintenance and Evolution (ICSME). 2022. 
Schneider, Johannes, Meske, Christian und Vlachos, Michalis. 2023. Deceptive xai: Typology, creation and detection. SN Computer Science. 2023.  Schneider, Johannes, Meske, Christian und Vlachos, Michalis. 2023. 欺瞞的xai: 欺瞞的xai:類型論、作成、検知。SNコンピュータサイエンス. 2023. 
Shahin Shamsabadi, Ali, et al. 2022. Washing the unwashable: On the (im)possibility of fairwashing detection. Advances in Neural Information Processing Systems. 2022.  シャヒン・シャムサバディ、アリ、他。洗えないものを洗う: フェアウォッシング検知の可能性について。神経情報処理システムの進歩. 2022. 
Slack, Dylan, et al. 2021. Counterfactual explanations can be manipulated. Advances in neural information processing systems. 2021.  Slack, Dylan, et al. 反実仮想的説明は操作できる。神経情報処理システムの進歩。2021. 
Slack, Dylan, et al. 2020. Fooling lime and shap: Adversarial attacks on post hoc explanation methods. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. 2020.  2020年。ライムとシャップを騙す:事後説明手法に対する敵対的攻撃。AI、倫理、社会に関するAAAI/ACM会議論文集。2020. 
The Royal College of Radiologists und The Royal College of Pathologists. 2023. Embracing AI to support the NHS in delivering early diagnoses. 2023.  ロイヤル・カレッジ・オブ・放射線科医とロイヤル・カレッジ・オブ・病理医。2023. 早期診断を提供するNHSをサポートするためにAIを導入する。2023. 
Wang, Junlin, et al. 2020. Gradient-based analysis of NLP models is manipulable. Findings of the Association for Computational Linguistics: EMNLP 2020. 2020.  Wang, Junlin, et al. 自然言語処理モデルの勾配ベースの分析は操作可能である。計算言語学会の研究成果: EMNLP 2020。2020. 
Wired Insider. 2021. Wired brand lab | meet the AI powering today's smartest smartphones. Wired. [Online] Conde Nast, 2. November 2021. [Zitat vom: 23. August 2024.] [web] ワイアード・インサイダー 2021. ワイアード・ブランド・ラボ|今日の最もスマートなスマートフォンを動かすAIを紹介する。ワイアード. [オンライン] Conde Nast, 2. [Zitat vom: 23. August 2024.] web]

 

注釈

[1] Manipulating an XAI method means, that malicious actors can influence the calculation process of XAI methods by changing either the data or the AI models. The result of such manipulations is, that calculated explanations do not indicate the real behavior of an AI model but a different behavior which was selected by the malicious actor.  [1] XAI手法の操作とは、悪意のある行為者がデータまたはAIモデルを変更することで、XAI手法の計算プロセスに影響を与えることを意味する。このような操作の結果、計算された説明はAIモデルの実際の動作を示さず、悪意のある行為者によって選択された別の動作を示すことになる。
[2] Surrogate models are understandable prediction models of low complexity that approximate the behavior of a more complex model (e.g., an AI black box).  [2] サロゲートモデルとは、より複雑なモデル(例えばAIのブラックボックス)の挙動を近似した、複雑度の低い理解可能な予測モデルである。
[3] For permutation-based approaches, AI models are applied to perturbed inputs. The observed changes in the behavior of the AI model can be used to calculate an explanation, since the used perturbations are known. Some of the best-known examples of this category of XAI methods are SHAP (SHapley Additive exPlanation) and LIME (Local Interpretable Model-agnostic Explanations). [3] 順列ベースのアプローチでは、AIモデルは摂動入力に適用される。使用された摂動は既知であるため、AIモデルの動作で観察された変化は、説明の計算に使用することができる。このカテゴリーのXAI手法の最も有名な例は、SHAP(SHapley Additive exPlanation)とLIME(Local Interpretable Model-agnostic Explanations)である。
[4] For gradient-based approaches, AI models are viewed as functions. The gradient of the function is used to calculate explanations for the decisions of a model. Gradient-based approaches are directly applicable to models that are trained using the backpropagation algorithm (e.g., neural networks).  [4] 勾配ベースのアプローチでは、AIモデルは機能とみなされる。関数の勾配は、モデルの決定に対する説明を計算するために使用される。勾配ベースのアプローチは、バックプロパゲーション・アルゴリズムを用いて学習されたモデル(例えば、ニューラルネットワーク)に直接適用できる。
[5] For propagation-based approaches, AI models are viewed as computation graphs. The explanation gets calculated by redistributing the output onto the graph. Since the structure of neural networks resembles a computation graph, propagation-based approaches can be intuitively applied to these type of prediction models.  [5] 伝播ベースのアプローチでは、AIモデルは計算グラフとみなされる。説明は、出力をグラフ上に再分配することで計算される。グラフ・ニューラル・ネットワークの構造は計算グラフに似ているため、伝播ベースのアプローチは直感的にこの種の予測モデルに適用できる。
[6] Counterfactual explanation methods take an input and generate an alternative (potentially synthetic) data point. This new data point should be as similar to the original input as possible while simultaneously being assigned a different outcome by the investigated AI model. The idea is to indicate why a certain outcome was assigned to the input by a prediction model. Alternatively, counterfactual explanations can be used to identify potential changes of the input that would lead to a different outcome.  [6] 反実仮想的説明法は入力を受け取り、代替の(合成の可能性のある)データ点を生成する。この新しいデータ・ポイントは、可能な限り元の入力に似ている必要があり、同時に調査されたAIモデルによって異なる結果が割り当てられる。このアイデアは、予測モデルによって特定の結果が入力に割り当てられた理由を示すことである。あるいは、反実仮想的な説明を使用して、異なる結果につながる入力の潜在的な変化を特定することもできる。
[7] Adversarial attacks summarize a group of attack vectors on AI models that are using manipulated inputs to enforce a faulty behavior of AI models. More detailed information can be found in different BSI publications (BSI, 2023) (BSI, 2021).  [7] 敵対的攻撃は、AIモデルの欠陥動作を強制するために操作された入力を使用する、AIモデルに対する攻撃ベクトルのグループを要約したものである。より詳細な情報は、BSIの各種出版物(BSI, 2023)(BSI, 2021)に記載されている。
[8] Fairness metrics are statistical values that quantify different aspects of fairness. For AI, fairness metrics are calculated using the distribution of outputs of trained models conditioned on sensitive attributes.  [8] 公正さメトリクスは、公正さのさまざまな側面を定量化する統計的な値である。AIの場合、公平性メトリクスは、敏感な属性を条件とする学習済みモデルの出力分布を用いて計算される。
[9] The term feature interaction describes a situation, where the true influence of two features on the prediction of an AI model cannot be determined in isolation. Since the features depend on each other, their influence changes if the features are considered separately or together. Importantly, the combined influence cannot be expressed as a sum of the isolated influences of the features in such a situation.  [9] 特徴の相互作用という用語は、AIモデルの予測に対する2つの特徴の真の影響が、単独では決定できない状況を表す。特徴は互いに依存しているため、特徴を別々に考慮しても、一緒に考慮しても、その影響力は変化する。重要なことは、このような状況では、複合的な影響力は、特徴の単独の影響力の合計として表すことはできないということである。
[10] [web]
[10] [web]

 

 

| | Comments (0)

2025.01.11

インド デジタル個人データ保護法 2023のガイドライン「デジタル個人データ保護ルール」案についてのパブコメ (2025.01.03)

こんにちは、丸山満彦です。

インドはいろいろありながらも2023年にデジタル個人データ保護法を大統領が署名しましたが、その下位ガイドラインである、デジタル個人データ保護ルールの案に対する意見募集がされていますね...

ちょうど今、日本でも個人情報保護法のいわゆる3年ごとの見直しが行われているわけですので、各国の規制の具体的な運用に関する部分についても参考になることがあるかもですね...

 

Government of India

・2025.01.03 Draft Digital Personal Data Protection Rules, 2025

Draft Digital Personal Data Protection Rules, 2025 2025年デジタル個人データ保護規則(ドラフト)
About 概要
The Ministry of Electronics and Information Technology (MeitY) invites feedback/comments on the draft 'Digital Personal Data Protection Rules, 2025'. 電子・情報技術省(MeitY)は、「2025年デジタル個人データ保護規則(ドラフト)」に対するフィードバック/コメントを募集している。
The Digital Personal Data Protection Act, 2023 (DPDP Act) received the assent of the Hon'ble President on 11th August 2023. Now, draft subordinate legislation in form of Digital Personal Data Protection Rules, 2025 have been drafted in order to provide for necessary details and implementation framework of the Act. デジタル個人データ保護法(DPDP法)は2023年8月11日に大統領の承認を得た。現在、同法の必要な詳細および実施枠組みを規定するために、2025年デジタル個人データ保護規則という形の下位法令の草案が作成されている。
MeitY invites feedback/comments from its stakeholders on the draft Rules. The draft rules along with a explanatory notes of the rules in plain and simple language to facilitate ease of understanding are available on Ministry’s website at [web] MeitYは、規則の草案について利害関係者からのフィードバックやコメントを募集している。規則の草案は、理解を容易にするための平易でシンプルな言語による規則の注釈とともに、同省のウェブサイト [web] で入手できる。
The submissions will be held in fiduciary capacity in MeitY and shall not be disclosed to any one at any stage, enabling persons to submit feedback/comments freely without any hesitation. A consolidated summary of the feedback/comment received, without attribution to stakeholder, shall be published after the finalization of the Rules. 提出された内容はMeitYで受託者責任のもとで管理され、いかなる段階においてもいかなる者にも開示されることはないため、人々はためらいなく自由にフィードバックやコメントを提出することができる。利害関係者を特定せずに集約したフィードバック/コメントの概要は、規則の最終決定後に公表される。
The Ministry has invited feedback from the public on the draft Bill. The submissions will not be disclosed and held in fiduciary capacity, to enable persons submitting feedback to provide the same freely. No public disclosure of the submissions will be made.  同省は、法案のドラフトに対する一般からのフィードバックを募集している。提出された意見は開示されず、受託者責任のもとで保管されるため、フィードバックを提出する人は自由に意見を述べることができる。提出された意見は一般に開示されない。
The feedback/comments on the draft rules in a rule wise manner may be submitted by 18th February 2025 on MyGov portal at the link below:[web] 規則ごとのドラフト規則に関するフィードバック/コメントは、2025年2月18日までにMyGovポータル([web]
)から提出することができる。
Please Click here to view Draft Digital Personal Data Protection Rules, 2025 2025年デジタル個人データ防御規則ドラフトの閲覧はこちらをクリック
Please Click here to view Explanatory Note on Draft Digital Personal Data Protection Rules, 2025 2025年デジタル個人データ防御規則ドラフトに関する説明書の閲覧はこちらをクリック

 

デジタル個人データ保護法関連の情報...

Ministroy of Electronics & Information Technology

Data Protection Framework

Data Protection Framework データ保護枠組み
Draft Digital Personal Data Protection Rules,2025 2025年デジタル個人データ保護規則(ドラフト)
Notice_Consultation - Draft Digital Personal Data Protection Rules,2025 通知 - 2025年デジタル個人データ保護規則(ドラフト)に関する意見募集
Explanatory note to Digital Personal Data Protection Rules, 2025 2025年デジタル個人データ保護規則に関する説明書
Digital Personal Data Protection Act 2023 2023年デジタル個人データ保護法
Extension of time - Inviting feedback on the draft ‘Digital Personal Data Protection Bill, 2022’. 期限延長 - 「2022年デジタル個人データ保護法案」のドラフトに関するフィードバックの募集
Notice - Public Consultation on DPDP 2022 通知 - 2022年デジタル個人データ保護法案に関するパブリックコンサルテーション
The Digital Personal Data Protection Bill, 2022 2022年デジタル個人データ保護法案
Explanatory Note- The Digital Personal Data Protection Bill, 2022 説明書 - 2022年デジタル個人データ保護法案
Feedback on Draft Personal Data Protection Bill 個人データ保護法案のドラフトに関するフィードバック
Data Protection Committee- Report データ保護委員会 - 報告書
Personal Data Protection Bill, 2018 個人データ保護法案、2018年
Office Memorandum dated. 31.07.2017 - Constitution of a Committee of Experts to deliberate on a Data Protection framework for India 2017年7月31日付の事務メモ - インドのデータ保護枠組みを審議する専門家委員会の設置
Public consultation meeting on White Paper at Mumbai - Data Protection Framework for India ムンバイにおけるホワイトペーパーに関する公開協議会議 - インドのデータ保護枠組み
White Paper on Data Protection framework for India - Public Comments invited インドのデータ保護枠組みに関する白書 - 意見公募
Public consultation on White Paper - Data Protection Framework for India インドのデータ保護枠組みに関する白書に関するパブリックコンサルテーション
OFFICE MEMORANDUM - Constitution of a Committee of Experts to deliberate on a data protection framework for India-Nomination of Member Convener 事務所メモ - インドのデータ保護枠組みに関する専門家委員会の設立 - メンバー招集者の指名

 

 

ガイドライン案

・2025.01.03 [PDF] Draft Digital Personal Data Protection Rules, 2025

20250111-52115

・[DOCX][PDF] 仮訳

 

 

解説

・2025.01.03 [PDF] The Ministry of Electronics and Information Technology invites feedback on the draft ‘Digital Personal Data Protection Bill, 2022’.

20250111-52327

Explanatory note to Digital Personal Data Protection Rules, 2025  デジタル個人データ保護規則に関する説明書、2025年
The Digital Personal Data Protection Act, 2023 (Act) received the assent of the Hon'ble President on 11th August 2023. A draft of the Rules as envisaged under different sections of the Act have been made. The Rules provides for the necessary details and implementation framework of the Act.  デジタル個人データ保護法(2023年)は、2023年8月11日に大統領の承認を受けた。同法のさまざまな条項で想定されている規則のドラフトが作成された。規則は、同法の必要な詳細および実施枠組みを規定する。
During the drafting of Rules, certain principles used in the drafting of the Act, like using simple language, avoiding unnecessary cross referencing, providing contextual definition, and providing illustrations etc. have been followed meticulously. This explanatory note provides a brief overview of the contents of the Rules.  規則の起草にあたっては、法律の起草で用いられた一定の原則、例えば、平易な言葉を使用すること、不必要な相互参照を避けること、文脈上の定義を提供すること、図解を提供することなど、が細心の注意を払って踏襲されている。本説明書では、規則の内容について簡潔に概説する。
1. Short title and commencement: These rules, called the Digital Personal Data Protection Rules, 2025, come into force upon publication, except for rules 3 to 15, 21 and 22 which will be effective from a later date.  1. 略称および発効:本規則は「2025年デジタル個人データ保護規則」と呼ばれ、第3条から第15条、第21条、第22条を除き、公布と同時に発効する。
2. Definitions clause: The expression in the act shall have the same meaning as assigned in Act unless context otherwise requires.   2. 定義条項:本法令における表現は、文脈上別段の解釈が必要とされない限り、法令で定められた意味を有するものとする。 
3. Notice by Data Fiduciary to Data Principal: The notice provided by the Data Fiduciary to the Data Principal must be clear, standalone, and understandable, distinct from any other information shared by the Data Fiduciary. It must use simple, plain language to provide the Data Principal with a full and transparent account of the information necessary for giving informed consent for the processing of their personal data. Specifically, the notice should include, itemized list of the personal data being collected and clear description of the purpose for processing, along with an itemized explanation of the goods, services, or uses enabled by such processing.  3. データ受託者からデータ主体への通知:データ受託者がデータ主体に提供する通知は、データ受託者が共有するその他の情報とは区別された、明確かつ独立した理解可能なものでなければならない。また、データ主体が個人データの処理について十分な情報を得た上で同意を与えるために必要な情報を、データ主体にわかりやすく、透明性のある平易な言葉で提供しなければならない。具体的には、通知には収集される個人データの項目別リストと処理の目的の明確な説明、およびそのような処理によって可能になる商品、サービス、または用途の項目別説明を含めるべきである。
Additionally, the notice must provide a communication link of the Data Fiduciary’s website or app, and describe other methods (if applicable) for the Data Principal to withdraw consent easily as comparable to the process of giving consent, exercise their rights and make complaints with the Board.  さらに、通知にはデータ受託者のウェブサイトまたはアプリのコミュニケーションリンクを提供し、データ主体が同意を簡単に撤回できる他の方法(該当する場合)を、同意を与えるプロセスと同等の方法で説明し、権利を行使し、委員会に苦情を申し立てる方法を記載しなければならない。
4. Registration and obligations of a Consent Manager: Consent Manager must be a company incorporated in India with sound financial and operational capacity, having a minimum net worth of two crore rupees, a reputation for fairness and integrity in its management, and a certified interoperable platform enabling Data Principals to manage their consent.   4. 同意管理者の登録および義務:同意管理者は、健全な財務および業務能力を有し、純資産額が2億ルピー以上であり、経営陣が公正かつ誠実であるという評判があり、データ主体が同意を管理できる相互運用可能なプラットフォームを認証取得しているインド法人でなければならない。 
The application for registration is to be made to the Board. Once registered, the Consent Manager must comply with specific obligations of ensuring that Data Principals can easily give, manage, review, and withdraw consent for data processing, maintaining records of consents and data sharing, and providing transparent access to such records. The Consent Manager is also required to implement strong security measures to protect personal data, avoid conflicts of interest, and ensure transparency by publishing key management details and ownership structures. Additionally, the Board may audit the Consent Manager's operations, suspend or cancel its registration if necessary, and issue corrective directions to safeguard the interests of Data Principals.  登録申請は委員会に対して行われる。登録後は、データ管理者は、データ処理に対する同意をデータ主体が容易に付与、管理、確認、撤回できることを保証し、同意およびデータ共有の記録を維持し、そのような記録への透明性のあるアクセスを提供するという特定の義務を遵守しなければならない。また、同意管理者は、個人データを保護し、利益相反を回避し、主要な管理詳細および所有構造を公表することで透明性を確保するために、強力なセキュリティ対策を実施することが求められる。さらに、委員会は同意管理者の業務を監査し、必要に応じて登録を一時停止または取り消し、データ管理者の利益を保護するための是正指示を出すことができる。
The Consent Manager must also maintain independence, with strict rules to prevent conflicts of interest involving its directors or senior management and Data Fiduciaries. They are prohibited from subcontracting or assigning responsibilities, and they must ensure long-term compliance by regularly reviewing their operations. Any transfer of control of the Consent Manager company, such as through sale or merger, requires prior approval from the Board. Through these provisions, the regulation ensures that Consent Managers uphold high standards of transparency, security, and fiduciary duty in managing personal data.  同意管理者は、委員または上級管理職とデータ受託者間の利益相反を防止するための厳格な規則を設け、独立性を維持しなければならない。また、業務委託や責任の譲渡を禁止し、業務を定期的に確認することで、長期的なコンプライアンスを確保しなければならない。同意管理者企業の支配権の移転(売却や合併など)は、すべて理事会の事前承認を必要とする。これらの規定により、規制は、同意管理者が個人データの管理において、高い透明性、セキュリティ、受託者責任の標準を維持することを保証する。
5. Processing for provision or issue of services by the State or its instrumentality: The State and its instrumentalities may process the personal data of Data Principals to provide or issue subsidies, benefits, services, certificates, licenses, or permits, as defined under law or policy or using public funds. Processing in these cases must adhere to the specific standards outlined in Schedule II, which ensures lawful, transparent, and secure handling of personal data for such purposes.  5. 州またはその機関によるサービス提供または発行のための処理: 州およびその機関は、法律または政策で定義されている、または公的資金を使用して、補助金、給付金、サービス、証明書、ライセンス、または許可証を提供または発行するために、データ管理者の個人データを処理することができる。 これらの場合の処理は、付録2に概説されている特定の標準に従わなければならない。これにより、そのような目的のための個人データの合法的、透明性のある、安全な取り扱いが保証される。
According to Schedule II, the processing must meet several key criteria, such as ensuring that personal data is processed lawfully, for the stated purposes, and limited to the data necessary for achieving those purposes. The data must be accurate and retained only as long as necessary, while appropriate security safeguards must be in place to prevent breaches. The Data Principal should be informed about the processing, including the means to access their rights, and the processing must be done in compliance with any applicable laws. The responsible parties must be accountable for adhering to these standards.  付録2によると、処理は、個人データが合法的に、明記された目的のために、その目的達成に必要なデータに限定して処理されることを保証するなど、いくつかの重要な規準を満たさなければならない。データは正確で、必要な期間のみ保持され、漏えいを防ぐために適切なセキュリティ対策が講じられなければならない。データ管理者には、その権利へのアクセス手段を含め、処理について通知しなければならず、処理は適用法を遵守して行われなければならない。責任者は、これらの標準を遵守する責任を負う。
The aim is to ensure that personal data processing is transparent, secure, and in line with legal and policy standards, safeguarding the interests of the Data Principals.  その目的は、個人データの処理が透明性があり、安全で、法的および政策上の標準に沿って行われ、データ管理者の利益が保護されることを保証することである。
6. Reasonable security safeguards: A Data Fiduciary must implement reasonable security measures to protect personal data, including encryption, access control, monitoring for unauthorized access, and data backups etc. These safeguards ensure the confidentiality, integrity, and availability of data, and must include provisions for detecting and addressing breaches and maintenance of logs. Contracts with Data Processors must also ensure security measures are in place. The measures should comply with technical and organizational standards to prevent data breaches.   6. 合理的なセキュリティ対策:データ受託者は、暗号化、アクセス管理、不正アクセス監視、データバックアップなど、個人データを保護するための合理的なセキュリティ対策を実施しなければならない。これらの対策は、データの機密性、完全性、可用性を確保し、違反の検知と対処、およびログの保守に関する規定を含まなければならない。データ処理者との契約も、セキュリティ対策が確実に実施されるようにしなければならない。これらの対策は、データ漏えいを防止するための技術的および組織的標準に準拠していなければならない。 
7. Intimation of Personal Data Breach: When a Data Fiduciary becomes aware of a personal data breach, it is required to promptly notify all affected Data Principals. This notification must be clear and straightforward, explaining the breach's nature, extent, and timing, along with potential consequences for the affected individuals. The Data Fiduciary must also inform the Data Principal of any measures taken to mitigate the risks and provide safety recommendations for protecting their data. Furthermore, contact information of a responsible person for inquiries must be included.  7. 個人データ漏えいの通知:データ受託者が個人データ漏えいに気づいた場合、影響を受けるすべてのデータ主体に速やかに通知することが義務付けられている。この通知は明確かつ簡潔で、漏えいの性質、範囲、時期、および影響を受ける個人に起こりうる結果を説明しなければならない。また、データ受託者は、リスクを緩和するために講じた措置と、データの保護に関する安全対策の推奨事項をデータ主体に通知しなければならない。さらに、問い合わせ先となる担当者の連絡先も記載しなければならない。
Additionally, the Data Fiduciary must inform the Board about the breach without delay. Within 72 hours or a longer time if permitted, the Data Fiduciary is obligated to provide detailed information, including the events that led to the breach, actions taken to mitigate risks, and the identity of the individual responsible, if known. The Data Fiduciary must also report on the remedial steps taken to prevent future breaches and details on the notifications sent to affected Data Principals.  さらに、データ受託者は、違反について遅滞なく委員会に通知しなければならない。データ受託者は、72時間以内、または許可された場合はそれ以上の期間内に、違反につながった出来事、リスク緩和のためにとられた措置、および判明している場合は責任者の身元を含む詳細情報を提供する義務がある。また、データ受託者は、将来の漏えいを防止するための是正措置と、影響を受けるデータ主体に送付した通知の詳細についても報告しなければならない。
8. Time period for specified purpose to be deemed as no longer being served: Under this provision, if a Data Fiduciary processes personal data for purposes outlined in Schedule III and the Data Principal does not engage with the Fiduciary within a specified period, the personal data must be erased unless required for legal compliance. The time period for this erasure is defined in Schedule III for different classes of Data Fiduciaries, such as e-commerce entities, online gaming intermediaries, and social media platforms. These entities may retain personal data for up to three years from the last interaction or the coming in effect of rules, whichever is later, except when the data is needed for the principal to access their account or virtual tokens.   8. 特定の目的がもはや達成されていないとみなされる期間:本規定に基づき、データ受託者が付録3に記載された目的で個人データを処理し、データ主体が指定された期間内に受託者と関与しない場合、その個人データは、法遵守のために必要とされない限り、消去されなければならない。この消去の期間は、電子商取引事業体、オンラインゲーム仲介業者、ソーシャルメディアプラットフォームなど、さまざまな種類のデータ受託者について、付録3で定義されている。これらの事業体は、データ受託者がアカウントまたは仮想トークンにアクセスするためにデータが必要な場合を除き、最後のやりとりまたは規則の発効から最長3年間、個人データを保持することができる。 
Before erasure, the Data Fiduciary must notify the Data Principal at least 48 hours in advance, alerting them that their data will be erased unless they log in or initiate contact with the Fiduciary to fulfil the specified purpose. The notification gives the Data Principal an opportunity to preserve their data by taking action. This rule provides a clear process for erasing personal data if the Data Principal has not interacted with the Data Fiduciary within the specified time, ensuring that data is retained only when necessary for continued use or legal obligations, while offering the Data Principal a chance to retain their data by taking proactive steps.  消去に先立ち、データ受託者はデータ本人に対し、少なくとも48時間前までに通知しなければならない。その際、本人がログインするか、受託者と連絡を取って指定の目的を達成しない限り、本人のデータが消去される旨を警告しなければならない。この通知により、データ主体は行動を起こすことでデータを保存できる機会が得られる。この規則は、データ主体が指定された時間内にデータ受託者とやりとりを行わなかった場合の個人データの消去に関する明確なプロセスを規定しており、継続的な使用や法的義務に必要な場合にのみデータを保持することを保証するとともに、データ主体が積極的な措置を講じることでデータを保持できる機会を提供している。
9. Contact information for addressing data processing queries: This mandates that every Data Fiduciary must clearly display on their website or app the contact details of a designated person who can address questions regarding the processing of personal data. If applicable, this could be the Data Protection Officer (DPO). The contact information should be easily accessible and visible to Data Principals, enable that they can reach out with any concerns or queries about how their personal data is being processed. Additionally, the same contact details must be included in all responses to communications from Data Principals who wish to exercise their rights under the Data Protection Act.  9. データ処理に関する問い合わせ先:これは、すべてのデータ受託者が、個人データの処理に関する質問に対応できる担当者の連絡先を、ウェブサイトまたはアプリに明確に表示することを義務付けるものである。該当する場合、この担当者はデータ保護責任者(DPO)となる可能性がある。連絡先情報は、データ主体が容易にアクセスでき、視認できるものでなければならず、これにより、自身の個人データの処理方法に関する懸念や質問を問い合わせることができる。さらに、データ保護法に基づく権利の行使を希望するデータ主体からのコミュニケーションに対するすべての回答には、同じ連絡先情報を記載しなければならない。
The intent of this provision is to ensure transparency and accountability in data processing practices of Data Fiduciaries, by providing clear contact information, easier access to Data Principals to inquire about their personal data and its processing.  この規定の目的は、明確な連絡先情報を提供し、データ主体が自身の個人データとその処理について問い合わせるためのアクセスを容易にすることで、データ受託者のデータ処理業務における透明性と説明責任を確保することである。
10. Verifiable consent for processing personal data of children and persons with disabilities: This provision outlines the requirements for obtaining verifiable consent from parents or legal guardians before processing the personal data of children or persons with disabilities. Specifically, a Data Fiduciary must implement measures to ensure that the person providing consent for a child’s data processing is the child’s parent or legal guardian, and that the parent or guardian is identifiable. For a child, the Data Fiduciary must verify that the parent is an adult by using reliable identity details or a virtual token mapped to such details. This verification process is critical to ensure that consent is being given by a responsible adult, in compliance with relevant laws. Examples are provided to clarify how this process should work, particularly in cases where the parent is already a registered user or when the parent needs to provide identity details using a Digital Locker service.  10. 児童および障害者の個人データの処理に対する検証可能な同意:この規定は、児童または障害者の個人データを処理する前に、親または法的後見人から検証可能な同意を取得するための要件を概説している。具体的には、データ受託者は、児童のデータ処理に対する同意を提供する者が児童の親または法的後見人であり、かつ、親または後見人が識別可能であることを保証するための措置を実施しなければならない。子供の場合、データ受託者は、信頼できる身元情報またはその情報に紐づく仮想トークンを使用して、親が成人であることを検証しなければならない。この検証プロセスは、関連法規に準拠して、責任ある成人が同意を行っていることを保証するために極めて重要である。このプロセスがどのように機能すべきかを明確にするために、特に親がすでに登録ユーザーである場合や、親がデジタルロッカーサービスを使用して身元情報を提供する必要がある場合の例が示されている。
11. Exemptions from obligations in processing personal data of children: This provision outlines certain exemptions to the standard requirements for processing the personal data of children, as stated in section 9 of the Act. These exemptions are applicable to specific types of Data Fiduciaries and for certain purposes, subject to conditions laid out in Schedule IV. According to Part A of the schedule, certain classes of Data Fiduciaries, such as healthcare professionals, educational institutions, and childcare providers, are exempt from specific provisions related to children's data. The processing of children's personal data by these entities is permitted, but it is restricted to specific activities like health services, educational activities, safety monitoring, and transportation tracking. These activities must be necessary for the well-being and safety of the child, ensuring that data processing is done within a defined and limited scope.  11. 児童の個人データの処理における義務の免除:本規定は、児童の個人データの処理に関する標準要件に対する一定の免除について概説するものであり、法第9条に記載されている。これらの免除は、特定の種類のデータ受託者および特定の目的に適用され、付録4に定められた条件に従う。パートAによると、医療従事者、教育機構、保育プロバイダなどの特定の種類のデータ受託者は、児童データに関する特定の規定が免除される。これらの事業体による児童の個人データの処理は許可されているが、医療サービス、教育活動、安全監視、輸送追跡などの特定の活動に限定されている。これらの活動は、児童の幸福と安全のために必要であり、データ処理が定義された限定的な範囲内で行われることを保証するものでなければならない。
Part B of the schedule outlines specific purposes for which the exemptions apply, such as processing for legal duties, issuing subsidies or benefits to children, creating user accounts for communication purposes, or ensuring the child does not have access to harmful information. In these cases, processing is restricted to what is necessary to perform the function, service, or duty, with an emphasis on protecting the child’s best interests. The provision acknowledges that certain activities, such as verifying the age of a data subject to confirm they are not a child, also fall under this exemption, as long as the processing remains limited to the necessary scope. These exemptions aim to strike a balance between protecting children's personal data and enabling necessary activities for their health, education, and safety.  パートBでは、免除が適用される特定の目的が概説されており、例えば、法的義務の履行、児童への補助金や給付金の支給、コミュニケーション目的のユーザーアカウントの作成、児童が有害な情報にアクセスできないようにする、などが挙げられる。これらの場合、処理は、児童の最善の利益の保護に重点を置いて、機能、サービス、義務の遂行に必要なものに限定される。この規定では、データ対象者の年齢を確認して未成年者でないことを確認するなどの特定の活動も、処理が限定的な範囲にとどまる限り、この例外に該当することを認めている。これらの例外は、子供の個人データの保護と、子供の健康、教育、安全に必要な活動の実現とのバランスを取ることを目的としている。
12. Additional obligations of Significant Data Fiduciaries: This provision brings specific responsibilities for Significant Data Fiduciaries. It mandates that these Fiduciaries must conduct a Data Protection Impact Assessment (DPIA) and a comprehensive audit once every year. The results of these assessments and audits must be reported to the Board, which need to contain key findings related to their adherence to data protection requirements.  12. 重要なデータ受託者の追加義務:この規定は、重要なデータ受託者に対して特定の責任を課すものである。この受託者に対しては、データ保護影響評価(DPIA)および包括的な監査を毎年1回実施することが義務付けられている。これらのアセスメントおよび監査の結果は、データ保護要件への準拠に関する主な調査結果を含めて、取締役会に報告しなければならない。
Further, the provision holds Significant Data Fiduciaries accountable for verifying that any algorithmic software they use to process personal data does not pose a risk to the rights of Data Principals. This includes algorithms used for data hosting, storage, and sharing.   さらに、この規定では、重要なデータ受託者は、個人データの処理に使用するアルゴリズムソフトウェアがデータ管理者の権利にリスクをもたらさないことを検証する責任を負う。これには、データホスティング、保存、共有に使用されるアルゴリズムが含まれる。 
Entities must adopt measures to ensure that personal data identified by the Central Government is processed in compliance with specific restrictions, ensuring that the data and any related traffic data are not transferred outside of India.   事業体は、中央政府が特定した個人データが特定の制限事項に従って処理されることを保証する措置を講じ、データおよび関連するトラフィックデータがインド国外に転送されないことを保証しなければならない。 
13. Rights of Data Principals: Data Fiduciaries and Consent Managers must clearly publish on their website or app the process by which Data Principals can exercise their rights under the Act, including identifying details like usernames to facilitate identification. Data Principals can request to access and erase their personal data by contacting the Data Fiduciary. A Data Fiduciary must also provide clear timelines for responding grievances, ensuring an effective process with the necessary technical and organizational safeguards. Data Principals may nominate one or more individuals to exercise their rights under the law, following the procedures set by the Data Fiduciary and applicable legal norms.  13. データ主体の権利:データ受託者および同意管理者は、データ主体が同法に基づく権利を行使できるプロセスを、ウェブサイトまたはアプリ上で明確に公開しなければならない。これには、識別を容易にするためのユーザー名などの識別情報の詳細も含まれる。データ主体は、データ受託者に連絡することで、自身の個人データへのアクセスと消去を要求できる。データ受託者は、苦情対応の明確なスケジュールを提供し、必要な技術的および組織的保護措置を講じた効果的なプロセスを確保しなければならない。データ主体は、データ受託者が定める手続きおよび適用法規に従い、法律に基づく権利を行使する1人または複数の個人を指名することができる。
14. Processing of personal data outside India: Data Fiduciaries processing data within India or in connection with offering goods or services to Data Principals from outside India must comply with any requirements the Central Government sets in respect of making such personal data available to a foreign State or its entities. This is intended to ensure that personal data remains protected under the Act.  14. インド国外における個人データの処理:インド国内で、またはインド国外のデータ主体に対する商品またはサービスの提供に関連してデータを処理するデータ受託者は、外国政府またはその事業体に対して当該個人データを利用可能にするにあたり、インド中央政府が定めるあらゆる要件を遵守しなければならない。これは、個人データが同法の下で保護され続けることを保証することを目的としている。
15. Exemption from Act for research, archiving, or statistical purposes: The Act does not apply to the processing of personal data carried out for research, archiving, or statistical purposes if it adheres to the specific standards outlined in Schedule II. This exemption ensures that necessary data processing for academic and policy research can occur while maintaining certain safeguards and standards to protect personal data.  15. 研究、アーカイブ、統計目的のための同法の適用除外: 付録2に記載された特定の標準に従う場合、研究、アーカイブ、統計目的のために実施される個人データの処理には、同法は適用されない。この適用除外により、個人データを保護し、標準を維持しながら、学術研究および政策研究に必要なデータ処理を行うことができる。
16. Appointment of Chairperson and other Members: A Search-cum-Selection Committee shall be formed by the Central Government to recommend candidates for the position of Chairperson of the Data Protection Board. The committee will be led by the Cabinet Secretary , Secretary MeitY, Secretary DLA and include two subject matter experts.  16. 議長およびその他の委員の任命:データ保護委員会の議長候補を推薦する捜索兼選考委員会が中央政府によって結成される。委員会は内閣官房長官、MeitY長官、DLA長官が主導し、2名の専門分野の専門家が参加する。
Similarly, the committee will also recommend candidates for the position of other Board Members, with the Ministry of Electronics and Information Technology Secretary overseeing the process.  同様に、電子・情報技術省長官が監督するプロセスにおいて、委員会はその他の委員候補も推薦する。
After considering the recommended individuals' suitability, the Central Government will appoint the Chairperson or Members to the Board.  推薦された人物の適性を検討した上で、中央政府が委員長または委員を任命する。
17: Salary, allowances, and other terms of service for Chairperson and Members: the Rule provides for Salary, allowances, and other service-related conditions for the Chairperson and Members of the Data Protection Board are provided. The Chairperson is entitled to a consolidated salary of ₹4,50,000 per month, while each Member receives ₹4,00,000 per month, with no provisions for housing or a car. A detail description of service conditions is provided for in this Schedule V.  17: 委員長および委員の給与、手当、その他の勤務条件:規則では、データ保護委員会の委員長および委員の給与、手当、その他の勤務条件が規定されている。委員長には月額45万ルピーの給与が支払われ、各委員には月額40万ルピーが支払われるが、住宅手当や車手当は支給されない。勤務条件の詳細は、本付録5に規定されている。
18: Procedure for meetings of the Board and authentication of orders: the Rule outlines the procedure for the meetings of the Data Protection Board, including how they are convened, conducted, and how decisions are made. The Chairperson is responsible for setting the date, time, place, and agenda of the meetings, with the authority to delegate these duties. Meetings are chaired by the Chairperson, or in her absence, by another Member chosen by those present. A quorum for the meetings is one-third of the Board's membership, and decisions are made by majority vote, with the Chairperson having a casting vote in the event of a tie. If a Member has a conflict of interest in any matter being discussed, they are prohibited from participating or voting on that matter. In urgent situations, the Chairperson has the authority to take immediate action, which must then be ratified at the next Board meeting. Additionally, certain issues may be decided by circulating the item to Members for approval, and the Chairperson or any authorized individual can authenticate the Board's orders, directions, or instruments. Also, the Board is required to complete inquiries within six months, extendable for a further three months if necessary.  18: 委員会の会議の手続きおよび命令の認証:規則は、データ保護委員会の会議の手続きを概説しており、会議の招集、実施、および決定の方法が含まれている。議長は、会議の日時、場所、議題を設定する責任があり、これらの職務を委任する権限を有する。会議は議長が議長を務めるが、議長が不在の場合は出席者によって選出された他の委員が議長を務める。会議の定足数は委員会の委員数の3分の1とし、決定は多数決によって行われるが、議長は同数の場合は決定票を持つ。委員が議論中の案件について利害の対立がある場合は、その案件への参加および投票は禁止される。緊急事態においては、議長は即座に措置を講じる権限を有するが、その措置は次の理事会で承認されなければならない。さらに、特定の事項については、会員に回覧して承認を得ることで決定することができ、議長または認可された個人は、理事会の命令、指示、または文書を認証することができる。また、理事会は、必要に応じてさらに3か月間延長できるが、6か月以内に調査を完了することが求められる。
19: Functioning of the Board as a digital office: The Board is to operate as a digital office, utilizing technology to conduct its proceedings efficiently. This provision allows the Board to adopt techno-legal measures to carry out its functions without requiring the physical presence of individuals. The Board retains the power to summon individuals and examine them under oath. The aim is to streamline processes, reduce the need for physical attendance, and enhance the overall efficiency of the Board’s operations.  19:デジタルオフィスとしての委員会の機能:委員会は、テクノロジーを活用して効率的に手続きを行うデジタルオフィスとして運営される。この規定により、委員会は、個人の物理的な出席を必要とせずにその機能を遂行するためのテクノロジーと法律に基づく措置を採用することが可能となる。委員会は、個人を召喚し、宣誓の下で尋問する権限を保持する。その目的は、手続きを合理化し、物理的な出席の必要性を減らし、委員会の運営の全体的な効率性を高めることである。
20: Terms and conditions of appointment and service of officers and employees of the Board: the rule outlines the procedures for the appointment and service terms of officers and employees working for the Data Protection Board. It specifies that the Board can appoint officers and employees necessary for carrying out its functions, with prior approval from the Central Government. The appointments can be made on deputation from various government bodies or public sector enterprises. Additionally, the officers and employees can be appointed from the National Institute for Smart Government, with salaries aligned to market standards and other terms decided by the Board.  20:データ保護委員会の役員および従業員の任命および勤務条件に関する規則:この規則は、データ保護委員会で働く役員および従業員の任命および勤務条件の手続きを概説している。この規則では、中央政府の事前の承認を得た上で、委員会がその機能を遂行するために必要な役員および従業員を任命できることが規定されている。任命は、さまざまな政府機構または公共部門エンタープライズからの出向という形で行うことができる。さらに、役員および従業員は、市場標準に合わせた給与と、委員会が決定するその他の条件で、スマート・ガバメント・ナショナル・インスティチュートから任命することもできる。
Schedule VI elaborates on the specifics of the terms and conditions of service for these officers and employees.   付録6では、これらの役員および従業員の勤務条件の詳細について詳しく説明している。 
21: Appeal to Appellate Tribunal: the rule outlines the process for filing appeals to the Appellate Tribunal for persons dissatisfied with orders or directions of the Board. The appeal must be submitted digitally, in line with the procedure set by the Appellate Tribunal on its website. The appeal is required to be accompanied by a fee, the Appellate Tribunal’s Chairperson may decide to reduce or waive it.  21: 上訴審への上訴:この規則は、委員会の命令または指示に不服のある者が上訴審に上訴する手続きを概説している。上訴は、上訴審がウェブサイトで定めた手続きに従って電子的に提出しなければならない。上訴には手数料を添付する必要があるが、上訴審の議長はこれを減額または免除する決定を下すことができる。
The Appellate Tribunal has the authority to regulate its procedures. Additionally, the Tribunal operates as a digital office, utilizing technology to conduct its proceedings, which eliminates the need for physical presence while retaining the power to summon individuals and administer oaths when necessary. This digital approach allows for more flexible and efficient handling of appeals.  上訴裁判所は、その手続きを規定する権限を有する。さらに、裁判所は、テクノロジーを活用して手続きを行うデジタルオフィスとして運営されており、これにより、物理的な出頭は不要となるが、必要に応じて個人を召喚し宣誓を行う権限は維持される。このデジタルアプローチにより、より柔軟かつ効率的な上訴の処理が可能となる。
22: Calling for information from Data Fiduciary or Intermediary: enables the Central Government to require Data Fiduciaries or intermediaries to provide specific information for purposes outlined in Schedule VII. In cases where the disclosure of information might compromise the sovereignty, integrity, or security of India, the authorized person may restrict disclosure unless prior written permission is obtained. Fulfilling these information requests is part of the legal obligations under Section 36 of the Act. The government is empowered to request data for various purposes, including national security, legal compliance, or to assess the status of certain Data Fiduciaries.   22: データ受託者または仲介者からの情報提供の要請:中央政府が、付録7に記載された目的のために、データ受託者または仲介者に特定の情報の提供を要求することを可能にする。情報の開示がインドの主権、完全性、またはセキュリティを損なう可能性がある場合、認可された担当者は、事前の書面による許可が得られない限り、開示を制限することができる。これらの情報要求に応えることは、同法第36条に基づく法的義務の一部である。政府は、国家安全保障、法令順守、または特定のデータ受託者の状況アセスメントなど、さまざまな目的でデータの提出を要求する権限を有する。 
*** ***

 

 

 

2023年法...

・[PDF

20250111-52444

仮対訳...

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.08.23 インド デジタル個人データ保護法成立(2023年)(2023.08.11)

 

・2023.08.04 インド デジタル個人データ保護法案(2023年)

・2023.01.06 インド デジタル個人情報保護法案 (2022.11.22)

・2022.08.07 インド 個人情報保護法の制定は振り出しに戻る?

・2021.11.24 インド 個人データ保護法が成立しますかね。。。

 

 

| | Comments (0)

2025.01.10

警察庁 MirrorFaceによるサイバー攻撃について(注意喚起)(2025.01.08)

こんにちは、丸山満彦です。

警察庁がNISCと一緒に、「MirrorFaceによるサイバー攻撃について(注意喚起)」を公表していますね...

警察庁としては、捜査等で判明した、攻撃対象、手口、攻撃インフラ等を分析した結果、「MirrorFace」(別名、「Earth Kasha」(アース カシャ)
)による攻撃キャンペーンは、主に日本の安全保障や先端技術に係る情報窃取を目的とした、中国の関与が疑われる組織的なサイバー攻撃であると評価しているようですね...

 

警察庁

・2025.01.08 MirrorFaceによるサイバー攻撃について(注意喚起)

・[PDF] MirrorFace によるサイバー攻撃について (注意喚起) 

20250110-84257

 

・[PDF] 別添資料【Windows Sandbox を悪用した手口及び痕跡・検知策】

20250110-85133

 

 

・[PDF] 別添資料【VS Code を悪用した手口及び痕跡・検知策】

20250110-85144

 

 

内閣官房 NISC

・2025.01.08 MirrorFaceによるサイバー攻撃について 注意喚起

 

 

| | Comments (0)

米国 ホワイトハウス サイバートラストマークを開始...

こんにちは、丸山満彦です。

まだ、宿題はのこっているのですが...

ホワイトハウスから、サイバートラストマーク制度が開始されたというアナウンスがありましたね...

マークの認定はULを主管会社とした上で、合計11社にサイバーセキュリティラベル管理会社を指定したようですね...

米国はEUのような法律ではなく、マーケットパワーを利用する任意の制度として始めたわけですが、そて、運用はどのようになりますでしょうかね...

 

U.S. White House

・ 2025.01.07 White House Launches “U.S. Cyber Trust Mark”, Providing American Consumers an Easy Label to See if Connected Devices are Cybersecure

 

White House Launches “U.S. Cyber Trust Mark”, Providing American Consumers an Easy Label to See if Connected Devices are Cybersecure ホワイトハウスが「U.S. Cyber Trust Mark(米国サイバートラストマーク)」を立ち上げ、米国消費者に接続機器がサイバーセキュアかどうかを簡単に確認できるラベルを提供
Voluntary cybersecurity labeling program for wireless interconnected smart products, administered by the Federal Communications Commission (FCC), will help Americans make more informed decisions about the cybersecurity of products – from baby monitors to security systems – they bring into their homes.   連邦通信委員会(FCC)が運営するワイヤレス相互接続スマート製品向けの自主的サイバーセキュリティ表示プログラムは、米国人がベビーモニターからセキュリティーシステムまで、家庭に持ち込む製品のサイバーセキュリティについて、より多くの情報を得た上で判断するのに役立つ。 
Today, the White House announced the launch of a cybersecurity label for internet-connected devices, known as the U.S. Cyber Trust Mark, completing public notice and input over the last 18 months. During that time, FCC Commissioners decided in a bipartisan and unanimous vote to authorize the program and adopt final rules, as well as the trademarked, distinct shield logo that will be applied to products certified for the U.S. Cyber Trust Mark label. In December 2024, the FCC announced the conditional approval of 11 companies as Cybersecurity Label Administrators and the conditional selection of UL Solutions as the Lead Administrator.     本日、ホワイトハウスは、インターネット接続機器に対するサイバーセキュリティ・ラベル(U.S. Cyber Trust Mark)の開始を発表した。この間、FCC委員会は、超党派かつ全会一致で、プログラムの認可と最終ルールの採択を決定し、また、U.S. Cyber Trust Markラベルの認定を受けた製品に適用される、商標登録された明確なシールド・ロゴも決定した。2024年12月、FCCは11社をサイバーセキュリティ・ラベル管理者として条件付きで承認し、UL Solutionsを主管者として条件付きで選定したと発表した。 
Americans have many “smart” wireless interconnected devices in their homes, from baby monitors to home security cameras to voice-activated assistants. These devices are part of Americans’ daily lives. But Americans are worried about the rise of criminals remotely hacking into home security systems to unlock doors, or malicious attackers tapping into insecure home cameras to illicitly record conversations. The White House launched this bipartisan effort to educate American consumers and give them an easy way to assess the cybersecurity of such products, as well as incentivize companies to produce more cybersecure devise, much as EnergyStar labels did for energy efficiency. Major electronics, appliance, and consumer product manufacturers, as well as retailers and trade associations, have been working to increase cybersecurity for the products they sell. The U.S. Cyber Trust Mark program allows them to test products against established cybersecurity criteria from the U.S. National Institute of Standards and Technology via compliance testing by accredited labs, and earn the Cyber Trust Mark label, providing an easy way for American consumers to see the cybersecurity of products they choose to bring into their homes.   米国人の家庭には、ベビーモニターからホームセキュリティカメラ、音声アシスタントに至るまで、多くの「スマート」な無線相互接続機器が設置されている。これらの機器はアメリカ人の日常生活の一部となっている。しかし、アメリカ人は、犯罪者が遠隔操作でホームセキュリティシステムをハッキングしてドアのロックを解除したり、悪意のある攻撃者が安全でないホームカメラを盗聴して会話を不正に録画したりすることが増加することを懸念している。ホワイトハウスは、アメリカの消費者を啓蒙し、そのような製品のサイバーセキュリティを簡単にアセスメントできるようにするため、また、エネルギー効率に関するエネルギースターラベルのように、よりサイバーセキュリティの高い製品を製造するよう企業にインセンティブを与えるために、この超党派の取り組みを開始した。主要な電子機器、家電製品、消費者向け製品の製造事業者、小売業者、業界団体は、販売する製品のサイバーセキュリティの向上に取り組んできた。米国サイバートラストマーク・プログラムは、認定された研究所によるコンプライアンステストを通じて、米国国立標準技術研究所が定めたサイバーセキュリティ規準に照らして製品をテストし、サイバートラストマークのラベルを取得することを可能にするもので、米国の消費者が家庭内に持ち込む製品のサイバーセキュリティを確認する簡単な方法を提供する。
Reacting to the program’s launch, leading companies are coming forward to express their support and to help educate American consumers about the new Cyber Trust Mark label.   このプログラムの開始を受け、大手企業は支持を表明し、新しいサイバートラスト・マーク・ラベルについてアメリカの消費者を啓蒙するために名乗りを上げている。 
Michael Dolan, Senior Director, Head of Enterprise Privacy & Data Protection, Best Buy:   ベスト・バイ、エンタープライズ・プライバシー&データ防御担当シニア・ディレクター、マイケル・ドーラン: 
“We see great potential in the US Cyber Trust Mark Program. It is a positive step forward for consumers and we are excited about the opportunity to highlight this program for our customers.”    「米国のサイバートラスト・マーク・プログラムには大きな可能性を感じる。これは消費者にとって前向きな一歩であり、当社の顧客にこのプログラムを紹介する機会を得たことに興奮している。」 
Steve Downer, Vice President, Amazon:   スティーブ・ダウナー、アマゾン副社長 
“Amazon supports the U.S. Cyber Trust Mark’s goal to strengthen consumer trust in connected devices. We believe consumers will value seeing the U.S. Cyber Trust Mark both on product packaging and while shopping online. We look forward to collaborating with industry partners and the government on consumer education efforts and implementation strategies.”  「アマゾンは、コネクテッド・デバイスに対する消費者の信頼を強化するという米国サイバートラスト・マークの目標を支持している。アマゾンは、コネクテッド・デバイスに対する消費者の信頼を強化するというU.S. Cyber Trust Markの目標を支持している。我々は、消費者教育の取り組みや実施戦略について、業界のパートナーや政府と協力していくことを楽しみにしている。」 
Justin Brookman, Director of Technology Policy, Consumer Reports: コンシューマー・レポート、テクノロジー・ポリシー・ディレクター、ジャスティン・ブルックマン氏
“Consumer Reports is eager to see this program deliver a meaningful U.S. Cyber Trust Mark that lets consumers know their connected devices meet fundamental cybersecurity standards. The mark will also inform consumers whether or not a company plans to stand behind the product with software updates and for how long. While voluntary, Consumer Reports hopes that manufacturers will apply for this mark, and that consumers will look for it when it becomes available.” 「コンシューマー・レポートは、このプログラムによって、コネクテッド・デバイスが基本的なサイバーセキュリティ基準を満たしていることを消費者に知らせる、意義ある米国サイバートラストマークが提供されることを切望している。このマークはまた、企業がソフトウェアのアップデートで製品をサポートする予定があるかどうか、そしてその期間を消費者に知らせるものでもある。任意ではあるが、コンシューマー・レポートは、製造事業者がこのマークを申請し、利用可能になったときに消費者がこのマークを探すことを期待している。」
The U.S. Cyber Trust Mark embodies public-private collaboration. It connects companies, consumers, and the U.S. government by incentivizing companies to build products securely against established security standards and gives consumers an added measure of assurance – through the label – that their smart device is cybersafe. The program is open for business in 2025: companies will soon be able to submit their products for testing to earn the label, companies like BestBuy and Amazon will be highlighting labeled products, and consumers can look for products bearing the Trust Mark on the shelves.   米国のサイバートラストマークは、官民協働を体現している。確立されたセキュリティ標準に照らして製品を安全に製造するよう企業にインセンティブを与えることで、企業、消費者、米国政府を結びつけ、消費者にはラベルを通じて、スマートデバイスがサイバーセーフであるという追加的な保証を与える。企業は間もなく、ラベルを取得するためのテストに製品を提出できるようになり、BestBuyやAmazonのような企業はラベル付き製品を強調表示し、消費者は棚でトラストマークの付いた製品を探すことができる。 
For more information about the U.S. Cyber Trust Mark, please visit the dedicated page on FCC.gov. 米国サイバートラストマークについての詳細は、FCC.govの専用ページを参照のこと。

 

FCCのサイバートラストマーク制度のウェブページ...

● U.S. Federal Communications Commission; FCC

U.S. Cyber Trust Mark

認証マーク...

Certification Mark – U.S. Cybersecurity Labeling Program for Smart Devices

 

1_20230719051401_20250110015101

 

申請手続き...

FCC Announces IoT Labeling Administrator Application Filing Window

・[DOCX][PDF]

20240913-112620

 

最終規則

U.S. Federal Register

・2024.07.30 Cybersecurity Labeling for Internet of Things

 

 


 

ULを主管とする旨の発表

● U.S. Federal Communications Commission; FCC

・2024.12.04 PUBLIC SAFETY AND HOMELAND SECURITY BUREAU SELECTS UL LLC TO SERVE AS LEAD ADMINISTRATOR OF THE INTERNET OF THINGS CYBERSECURITY LABELING PROGRAM (PS Docket No. 23-239)

20250110-15825

 

ULのプレス等...

UL

プレス...

・2024.12.18 UL Solutions Named Lead Administrator in First-Ever US Federal Cybersecurity Labeling Program

 

サイバートラストマーク制度の紹介のページ...

UL Solutions Guide to the U.S. Cyber Trust Mark

 

 


 

サイバーセキュリティ・ラベル管理者11社の発表

● U.S. Federal Communications Commission; FCC

・2024.12.11 [PDF] PUBLIC SAFETY AND HOMELAND SECURITY BUREAU SELECTS UL LLC TO SERVE AS LEAD ADMINISTRATOR OF THE INTERNET OF THINGS CYBERSECURITY LABELING PROGRAM (PS Docket No. 23-239)

20250110-15503

 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.09.13 米国 FCC IoTのためのサイバーセキュリティ・ラベリングFAQと管理者の申請プロセス (2024.09.10)

・2024.08.02 米国 FCC IoTのためのサイバーセキュリティ・ラベリング最終規則

 

・2024.03.20 米国 連邦通信委員会 (FCC) がIoTサイバーセキュリティ表示プログラム(サイバートラストマーク)の規則を採択 (2024.03.14)

米国...

・2023.07.19 米国 消費者向けIoT製品のセキュリティ認証制度、サイバートラスト・マーク (U.S. Cyber Trust Mark) を発表

・2022.09.24 NIST NISTIR 8425 消費者向けIoT製品のIoTコアベースラインのプロファイル、NISTIR 8431 「NIST基礎の上に築く:IoTセキュリティの次のステップ」ワークショップ概要報告書

・2022.06.19 NISTIR 8425 (ドラフト) 消費者向けIoT製品のIoTコアベースラインのプロファイル

・2022.02.07 NIST ホワイトペーパー :消費者向けソフトウェアのサイバーセキュリティラベルの推奨規準

・2022.02.06 NIST ホワイトペーパー :消費者向けIoT製品のサイバーセキュリティラベルの推奨規準

・2021.11.04 NIST 消費者向けソフトウェアのサイバーセキュリティに関するラベリングについての意見募集

・2021.09.02 NIST ホワイトペーパー(ドラフト):消費者向けIoTデバイスのベースライン・セキュリティ基準

・2021.08.29 NISTIR 8259B IoT非技術的支援能力コアベースライン

・2021.05.13 米国 国家のサイバーセキュリティ向上に関する大統領令

・2020.12.17 NIST SP 800-213 (Draft) 連邦政府向け「 IoTデバイスサイバーセキュリティ要件の確立」、NISTIR 8259B、8259C、8259D

・2020.05.30 NIST IoT機器製造者向けセキュリティの実践資料 NISTIR 8259 Foundational Cybersecurity Activities for IoT Device Manufacturers, NISTIR 8259A IoT Device Cybersecurity Capability Core Baseline

・2020.02.06 NISTがIoT機器製造者向けセキュリティの実践資料のドラフト(Ver.2)を公開していますね。。。

 

EU

・2024.03.19 欧州議会 AI法 (2024.03.13) とサイバーレジリエンス法を採択 (2024.03.12)

・2024.02.02 欧州委員会 サイバーセキュリティ認証制度 (EUCC) を採択

・2024.01.17 欧州 欧州議会の投票にかけられるサイバーレジリエンス法案 (Cyber Resilience Act)

・2023.12.04 欧州理事会、欧州議会がサイバーレジリエンス法について政治的合意

・2023.05.31 ENISA 新技術に対応したEUサイバーセキュリティ認証の実現可能性を探る

・2023.03.21 ENISA サイバーセキュリティ認証のウェブページを開設

・2023.03.01 IPA 欧州規格 ETSI EN 303 645 V2.1.1 (2020-06)の翻訳の公開

・2023.02.02 ドイツ スペースネットAG社のサービスにITセキュリティラベルを渡す

・2022.12.15 ドイツ フランス IT製品のセキュリティ認証に関する共同文書を発行 (固定時間制認証制度)

・2022.10.31 ドイツ シンガポール 消費者向けIoT製品のサイバーセキュリティ・ラベルの相互承認 (2022.10.20)

・2022.05.09 ドイツ ITセキュリティラベル for 消費者向けスマート製品

・2022.02.03 ドイツ BSI Mail.deの電子メールサービスにITセキュリティラベルを付与

・2021.07.18 独国 BSIがITセキュリティラベルについてのウェブページを公開していますね。。。

 

英国

・2023.05.04 英国 インターネットに接続するすべての消費者向け製品に適用される最低セキュリティ基準制度が1年後にはじまりますよ〜 (2023.04.29)

・2023.04.25 Five Eyesの国々が安全なスマートシティを作るための共同ガイダンスを発表 (2023.04.20)

・2022.12.11 英国 製品セキュリティおよび電気通信インフラストラクチャ(PSTI)法成立 at 2022.12.06

・2022.01.27 英国 スマートデバイスのサイバーセキュリティ新法に一歩近づくと発表

・2021.12.09 英国 製品セキュリティおよび電気通信インフラストラクチャ(PSTI)法案 at 2021.11.24

 

中国

・2022.02.15 中国 国家サイバースペース管理局 専門家の解説 ネットワーク重要機器のセキュリティ認証とセキュリティテストによるネットワークセキュリティの基本ディスクの維持

 

日本

・2024.03.17 経済産業省 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会の最終とりまとめを公表し、制度構築方針案に対する意見公募を開始

・2023.05.17 経済産業省 産業サイバーセキュリティ研究会 WG3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会 中間とりまとめ

・2022.11.04 経済産業省 第1回 産業サイバーセキュリティ研究会 ワーキンググループ3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会

 

 

| | Comments (0)

米国 国家サイバー長官室 エネルギー近代化サイバーセキュリティ実施計画 (2024.12.20)

こんにちは、丸山満彦です。

2024年の宿題はかなり減りましたが、まだ少し残っています...

米国の国家サイバー長官室から、「エネルギー近代化サイバーセキュリティ実施計画」が公表されています...

2024.05.07に公表された「米国サイバーセキュリティ態勢2024」、そして2023.03.02に公表された「サイバーセキュリティ戦略」などと関係があるので、合わせて読んでおくと良いかもです。(両方ともこのブログで紹介しています...)

日米の電力供給環境は違うので、そのまま...というわけにはいかない部分もあると思いますが、参考になる部分も多いように思います。経産省や電事連、電力会社の方は目を通しておいてもよいように思いました...

要となる技術として、

  1. バッテリーとバッテリー管理システム
  2. インバーター制御と電力変換装置
  3. 分散型制御システム
  4. ビル・エネルギー管理システム
  5. 電気自動車(EV)と電気自動車供給設備(EVSE)

を挙げています。

 

U.S. White House - ONCD

・2024.12.20 Fact Sheet: Office of the National Cyber Director Publishes an Energy Modernization Cybersecurity Implementation Plan to Secure an Ambitious Energy Future

Fact Sheet: Office of the National Cyber Director Publishes an Energy Modernization Cybersecurity Implementation Plan to Secure an Ambitious Energy Future ファクトシート 国家サイバー長官室が野心的なエネルギーの未来を確保するためのエネルギー近代化サイバーセキュリティ実施計画を発表
Today, the Office of the National Cyber Director (ONCD) released an Energy Modernization Cybersecurity Implementation Plan. 本日、国家サイバー長官室(ONCD)はエネルギー近代化サイバーセキュリティ実施計画を発表した。
America’s energy landscape is becoming increasingly digitized. New internet-connected technologies enhance the efficiency, performance, safety, and resiliency of the electricity grid. These energy technologies are reducing costs for consumers; elevating the quality and reliability of energy services provided; creating new markets and economic growth opportunities; and improving the environment. But, as highlighted in the Nation’s first Report on the Cybersecurity Posture of the United States, adversaries are continuing to target critical infrastructure. Many of these connected and digitized energy technologies can augment system integrity as compared to legacy systems; at the same time, their introduction can increase the attack surface that adversaries could target. Today, clear opportunities exist to secure American energy infrastructure, at scale, against potential cybersecurity threats. 米国のエネルギー事情は、ますますデジタル化が進んでいる。新しいインターネット接続技術は、電力網の効率、性能、安全性、レジリエンスを向上させている。これらのエネルギー技術は、消費者のコストを削減し、提供されるエネルギー・サービスの質と信頼性を向上させ、新たな市場と経済成長の機会を創出し、環境を改善している。しかし、「米国のサイバーセキュリティ態勢」に関する初の報告書で強調されたように、敵対勢力は重要インフラを標的にし続けている。これらの接続されデジタル化されたエネルギー技術の多くは、従来のシステムと比較してシステムの完全性を高めることができる。今日、米国のエネルギー・インフラを、潜在的なサイバーセキュリティの脅威から大規模に保護する明確な機会が存在する。
Securing the next generation of American energy generation, transmission, and distribution requires coordinated action across the government and the private sector. The publication of the Energy Modernization Cybersecurity Implementation Plan (EMCIP) provides a roadmap for this effort to guide the public sector and inform the private sector. The EMCIP outlines 32 high-impact initiatives that the Federal government will carry out to achieve a more secure energy ecosystem. In keeping with ONCD’s commitment to transparency and accountability, each initiative has an identified lead agency with a specific timeline for completion. Twelve agencies have roles in the plan. 米国の次世代エネルギー発電、送電、配電の安全を確保するには、政府と民間部門が協調して行動する必要がある。エネルギー近代化サイバーセキュリティ実施計画(EMCIP)の公表は、この取り組みのロードマップを公共部門に示し、民間部門に情報を提供するものである。EMCIPは、より安全なエネルギー・エコシステムを実現するために連邦政府が実施する32のインパクトの大きいイニシアチブの概要を示している。ONCDの透明性と説明責任へのコミットメントに則り、各イニシアチブは、完了までの具体的なタイムラインとともに、特定された主導機関を持っている。12の機関がこの計画で役割を担っている。
The electric grid is undergoing a significant, rapid transformation across a range of next-generation technologies is redefining how the electric system needs to be designed, built, and operated, highlighting the need for cross-cutting solutions. For instance, in the Plan, the Department of Energy is developing a framework to unify cybersecurity standards and guidelines for digital energy infrastructure into guidance that can be implemented by the states. The Office of the Director of National Intelligence is charged with regularly providing intelligence-informed briefings to energy technologies industry groups about the evolving threat landscape. And the Cybersecurity and Infrastructure Security Agency will encourage the procurement of digital energy systems that incorporate secure by design principles throughout their product life cycles. 電力網は、さまざまな次世代技術によって重要かつ急速な変革期を迎えており、電力系統の設計、構築、運用のあり方が再定義されつつある。例えば、本計画では、エネルギー省が、デジタル・エネルギー・インフラのサイバーセキュリティ標準とガイドラインを、各州が実施可能なガイダンスに統一する枠組みを策定している。国家情報長官室は、進化する脅威の状況について、エネルギー技術の業界団体に情報に基づいたブリーフィングを定期的に提供する役割を担っている。また、サイバーセキュリティ・インフラ・セキュリティ庁は、製品ライフサイクルを通じてセキュア・バイ・デザインの原則を取り入れたデジタル・エネルギー・システムの調達を奨励する。
As our economy electrifies, ensuring cybersecurity is baked in from the outset will be essential for the foundations of our modern energy sector as well as our national competitiveness and economic security. 我々の経済が電化されるにつれ、サイバーセキュリティを当初から確実に組み込むことは、現代のエネルギー部門の基盤だけでなく、国家競争力や経済安全保障にとっても不可欠となる。
Linchpin Technologies 要となる技術
Earlier this year the U.S. government identified five linchpin energy technologies for which cybersecurity and resilience improvements could have the highest return on investment and improve the security of the system. The EMCIP includes many initiatives specific to those technologies: 今年初め、米国政府は、サイバーセキュリティとレジリエンスの改善が最も投資対効果が高く、システムの安全性を向上させる5つの基幹エネルギー技術を特定した。EMCIPには、これらの技術に特化した多くの取り組みが含まれている:
・Batteries & Battery Management Systems. With properly architected and secured software, both firmware and cloud-based, batteries big and small promise an ambitious energy future that is less constrained by the time or geography of electricity generation. 電池と電池管理システム:ファームウェアとクラウドベースの両方で、適切に設計され、保護されたソフトウェアがあれば、大小のバッテリーは、発電の時間や地理的制約の少ない野心的なエネルギーの未来を約束する。
・・The Department of Energy is integrating battery energy storage systems operators into cybersecurity exercise programs in order to address challenges with the battery ecosystem threat analysis picture not consistently shared with stakeholders. ・・エネルギー省は、利害関係者と一貫して共有されていないバッテリーのエコシステム脅威分析図の課題に対処するため、サイバーセキュリティ演習プログラムにバッテリーエネルギー貯蔵システム事業者を統合している。
・Inverter Controls & Power Conversion Equipment. Inverter controls and power conversion equipment underpin every connection between the electrical grid and distributed energy resources (DERs), such as solar panels, batteries, wind turbines, or hydrogen electrolyzers. When paired with robust cybersecurity, inverters support more sophisticated grid services while promoting greater resilience and lower operating costs across the diverse energy assets of our energy future. ・インバータ制御と電力変換装置:インバータ制御と電力変換装置は、電力網と太陽光パネル、バッテリー、風力タービン、水素電解装置などの分散型エネルギー・リソース(DERs)との間のあらゆる接続を支えている。堅牢なサイバーセキュリティと組み合わせることで、インバーターはより高度なグリッドサービスをサポートし、同時に私たちのエネルギーの未来における多様なエネルギー資産において、より高いレジリエンスと運用コストの低減を促進する。
・・The Department of Energy is developing guidance and best practices for the adoption and implementation of tools to increase the cyber posture of operators of network-connected inverters. ・・エネルギー省は、ネットワークに接続されたインバータの運用者のサイバー態勢を強化するためのツールの採用と導入のためのガイダンスとベストプラクティスを開発している。
・Distributed Control Systems. Cloud-enabled distributed control leverages network connectivity to enable sophisticated aggregation, coordination, and management at scale. Secure-by-design management software will enable greater operation and coordination of hundreds of thousands of DERs; virtual power plants; transmission and distribution systems; small nuclear reactors; community microgrids; and other innovative energy systems. ・分散型制御システム:クラウド対応の分散制御は、ネットワーク接続を活用して、規模に応じた高度な集約、調整、管理を可能にする。セキュア・バイ・デザインの管理ソフトウェアは、何十万ものDER、仮想発電所、送電・配電システム、小型原子炉、コミュニティ・マイクログリッド、その他の革新的なエネルギーシステムの、より高度な運用と調整を可能にする。
・・The Department of Energy is developing testing procedures and verification methodologies for the data requirement and data integration interfaces for advanced distribution management systems, distributed energy resource management systems, microgrid controllers, and other integration software in order to provide industry with clear testing and verification methods for ensuring compliant vendor equipment. ・・エネルギー省は、先進配電管理システム、分散型エネルギー資源管理システム、マイクログリッド制御者、その他の統合ソフトウェアのデータ要件とデータ統合インターフェースに関するテスト手順と検証方法を開発中である。
・Building Energy Management Systems. Advanced building energy management systems improve comfort and well-being through the optimization of heating, ventilation, and cooling systems, as well as lighting systems, and the integration of “behind the meter” energy resources. ・ビル・エネルギー管理システム:先進的なビル・エネルギー管理システムは、暖房、換気、冷房システム、照明システムの最適化、「ビハインド・ザ・メーター」エネルギー資源の統合を通じて、快適性と幸福感を向上させる。
・・The Department of Energy is conducting vulnerability assessments for the most commonly-used components and platforms for Building Energy Management Systems. ・・エネルギー省は、ビル・エネルギー管理システムで最も一般的に使用されているコンポーネントとプラットフォームの脆弱性アセスメントを実施している。
・Electric Vehicles (EVs) & Electric Vehicle Supply Equipment (EVSE). Powered by secure and sophisticated distributed energy control systems, digitally-managed EVSE can enable smart charging, by which utilities or consumers can manage the charging schedules of EVs to optimize grid load, reduce energy costs, or maximize alignment with modern energy sources. Similarly, EV batteries can be marshalled to be either local sources of backup electricity or citywide virtual power plants, buttressing systemic resilience. ・電気自動車(EV)と電気自動車供給設備(EVSE):安全で洗練された分散型エネルギー制御システムにより、デジタル管理されたEVSEは、スマート充電を可能にする。これにより、電力会社または消費者は、EVの充電スケジュールを管理し、グリッド負荷を最適化し、エネルギーコストを削減し、最新のエネルギー源との整合性を最大化することができる。同様に、EVのバッテリーは、地域のバックアップ電源として、あるいは都市全体の仮想発電所として活用することができ、システムのレジリエンスを強化することができる。
・・The Joint Office of Energy and Transportation will transition findings from previously completed field testing into a portable test kit that EVSE stakeholders can use to rapidly evaluate the cybersecurity posture of EVSE and EV charging infrastructure based on a cultivated hardware/software platform and provided testing methodology.  ・・エネルギー・運輸合同局は、すでに完了した実地試験から得られた知見を、EVSE関係者が、培われたハードウェア/ソフトウェア・プラットフォームと提供された試験手法に基づいて、EVSEとEV充電インフラのサイバーセキュリティ態勢を迅速に評価するために使用できるポータブル試験キットに移行する。
The United States Government will only succeed in implementing the EMCIP through close collaboration with the private sector; civil society; state, local, Tribal, and territorial governments; international partners; and Congress. Federal agencies will collaborate with interested stakeholders to implement the plan and build new partnerships where possible. 米国政府は、民間セクター、市民社会、州、地方、部族、地域政府、国際パートナー、議会との緊密な協力を通じてのみ、EMCIPの実施を成功させることができる。連邦政府機関は、利害関係者と協力して計画を実施し、可能であれば新たなパートナーシップを構築する。

 

・[PDF] Energy Modernization Cybersecurity Implementation Plan

20250110-10204

・[DOCX][PDF] 仮訳

 

目次...

Introduction 序文
Overview 概要
A Changing Grid 変化するグリッド
Facing Evolving Threats 進化する脅威に立ち向かう
Linchpin Technologies 要となる技術
Implementation Plan Reading Guide 実施計画リーディング・ガイド
Section A: Cross-Cutting Issues セクションA:横断的課題
Goal: Enhance operational collaboration between government and energy sector partners 目標:政府とエネルギー部門のパートナー間の業務協力を強化する
Goal: Create communities of practice able to foster strategic unity, shared goals, and critical information flows 目標:戦略的な団結、目標の共有、重要な情報の流れを促進することができる実践のコミュニティを作る
Goal: Link digital energy infrastructure standards requirements to crosscutting standards agenda 目標:デジタル・エネルギー・インフラの標準要件を横断的な標準アジェンダにリンクさせる
Goal: Get “ahead of the curve” on cybersecurity practices for key currently- or soon-deploying technologies 目標:現在展開中、または近々展開される主要なテクノロジーについて、サイバーセキュリティの実践を「先取り」する
Goal: Develop a better understanding of potential cybersecurity risks with the next generation of energy technology 目標:次世代のエネルギー技術に潜在するサイバーセキュリティ・リスクについて理解を深める
Goal: Strengthen energy technology cybersecurity R&D community of practice capable of identifying priority R&D requirements 目標:優先的な研究開発要件を特定できるエネルギー技術のサイバーセキュリティ研究開発実践コミュニティを強化する
Goal: Build cybersecurity considerations into the foundations of energy modernization, while ensuring it is flexible enough to accommodate not-yetextant cybersecurity practices as they develop 目標:サイバーセキュリティへの配慮をエネルギー近代化の基礎に組み込むと同時に、サイバーセキュリティの慣行が発展していく中で、まだ十分ではないサイバーセキュリティの慣行に対応できる柔軟性を確保する
Goal: Develop a better understanding of potential cybersecurity risks with the next generation of energy technology 目標:次世代のエネルギー技術に潜在するサイバーセキュリティリスクについて理解を深める
Goal: Identify evolving landscape of energy system products bought and installed in the United States 目標:米国で購入・設置されるエネルギーシステム製品の進化する状況を識別する
Goal: Develop a modern energy cybersecurity workforce 目標:最新のエネルギー・サイバーセキュリティ人材を育成する
Section B: Batteries & Battery Management Systems セクションB:バッテリーとバッテリー管理システム
Goal: Create community of practice able to foster strategic unity, shared goals, and critical information flows 目標:戦略的な結束、目標の共有、重要な情報の流れを促進できる実践共同体を作る
Goal: Enhance operational collaboration between government and energy sector partners 目標:政府とエネルギー部門のパートナー間の業務協力を強化する
Section C: Inverters Controls & Power Conversion Equipment セクション C: インバーター 制御・電力変換装置
Goal: Enhance operational collaboration between government and energy sector partners 目標:政府とエネルギー部門のパートナー間の業務協力を強化する
Goal: Develop strategic cyber interconnection plan to enable guidelines to be pushed more regularly to the process of connection to the grid 目標:戦略的なサイバー相互接続計画を策定し、送電網への接続プロセスにより定期的にガイドラインを適用できるようにする
Goal: Get “ahead of the curve” on cybersecurity practices for key currently- or soon-deploying technologies 目標:現在展開中、または近々展開される主要なテクノロジーについて、サイバーセキュリティの実践を「先取り」する
Section D: Distributed Control Systems セクションD:分散制御システム
Goal: Harmonize integration and management of DERs through common data standards 目標:共通のデータ標準を通じてDERの統合と管理を調和させる
Goal: Build cybersecurity considerations into the foundations of distributed control systems rollout while ensuring they are flexible enough to accommodate not-yet-extant standards as they develop 目標:分散型制御システム展開の基盤にサイバーセキュリティへの配慮を組み込むと同時に、標準が開発される際には、まだ存在しない標準にも対応できる柔軟性を確保する
Section E: Building Energy Management Systems セクションE:ビル・エネルギー管理システム
Goal: Get “ahead of the curve” on cybersecurity practices for key currently- or soon-deploying technologies 目標:現在展開中、または近々展開される主要なテクノロジーについて、サイバーセキュリティの実践を「先取り」する
Goal: Diagnose building management system supply chain risk from a cybersecurity perspective and adopt appropriate mitigations 目標:サイバーセキュリティの観点からビルマネジメントシステムのサプライチェーンリスクを診断し、適切な緩和策を採用する
Section F: Electric Vehicles (EVs) & Electric Vehicle Supply Equipment (EVSE) セクションF:電気自動車(EV)と電気自動車供給設備(EVSE)
Goal: Create communities of practice able to foster strategic unity, shared goals, and critical information flows 目標:戦略的な団結、目標の共有、重要な情報の流れを促進することができる実践のコミュニティを作る
Goal: Accelerate the development of cybersecurity-focused technical standards and related guidance, including energy sector CPGs and NIST Privacy Framework profile for EV/EVSE 目標:エネルギー分野の CPG や EV/EVSE の NIST プライバシー枠組みプロファイルなど、サイバーセキュリ ティに焦点を当てた技術標準や関連ガイダンスの策定を加速する
Goal: Drive international adoption of secure modern energy technologies, including EV/EVSE 目標:EV/EVSEを含む安全な近代的エネルギー技術の国際的普及を推進する
Goal: Ensure EVSE platforms are flexible enough to accommodate not-yetextant standards as they develop 目標:EVSEのプラットフォームは、標準が開発された際に、拡張性のない標準にも対応できる柔軟性を確保する。
Goal: Support agency procurement of secure electric vehicle-related infrastructure 目標:安全な電気自動車関連インフラの調達を支援する。
Goal: Develop an EV charging cybersecurity workforce 目標:EV充電サイバーセキュリティ人材の育成
Goal: Enable cyber defenders and managers to better understand systemic risks presented by EVSE integrations and identify opportunities for mitigation 目標:サイバー防御担当者やリスクマネジメント担当者が、EVSEの統合がもたらすシステムリスクをよりよく理解し、緩和の機会を特定できるようにする

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

米国サイバーセキュリティ態勢2024

・2024.10.26 米国 ONCD 2024年のサイバーセキュリティ態勢2024とサイバーセキュリティ戦略実装計画Ver.2 (2024.05.07)

 

サイバーセキュリティ戦略

2023.03.04 米国 国家サイバーセキュリティ戦略を発表

 

 

| | Comments (0)

米国 連邦取引委員会 ブログ AIと消費者被害のリスク

こんにちは、丸山満彦です。

米国連邦取引委員会が、AIと消費者被害のリスクについてのブログ記事を公開していますが、プライバシー関連など、日本の企業でも参考になる部分があるかもですね...

 

Federal Trade Commission - Office of Technology Blog

1_20250109204701

 

・2025.01.03 AI and the Risk of Consumer Harm

 

AI and the Risk of Consumer Harm AIと消費者被害のリスク
By Staff in the Office of Technology and the Division of Advertising Practices テクノロジー局および広告実務部門スタッフによる
People often talk about “safety” when discussing the risks of AI causing harm. AI safety means different things to different people, and those looking for a definition here will be disappointed. These discussions can sometimes focus on the possibility of existential risk stemming from some sort of AI agent or cyborg of the future. But speculation about human extinction is well beyond the FTC’s immediate concerns. Instead, the FTC focuses on AI through the lens of our consumer protection and competition mission. AIが危害を引き起こすリスクについて議論する際、人々はしばしば「安全性」について語る。AIの安全性は人によって異なる意味を持つため、ここで定義を求めている人は失望するだろう。こうした議論では、未来のAIエージェントやサイボーグから生じる実存的リスクの可能性に焦点が当てられることもある。しかし、人類滅亡に関する憶測は、FTCの当面の懸念をはるかに超えている。その代わり、FTCは消費者保護と競争という使命の観点からAIに焦点を当てている。
The FTC is increasingly taking note of AI’s potential for and real-world instances of harmfrom incentivizing commercial surveillance to enabling fraud and impersonation to perpetuating illegal discrimination. FTCは、商業的監視を奨励することから、詐欺やなりすましを可能にすること、違法な差別を永続させることまで、AIの潜在的な可能性や現実世界の悪影響についてますます注目している。
Consumers are encountering AI systems and tools, whether they know it or not, from customer service chatbots, to educational tools, to recommendation systems powering their social media feeds, to facial recognition technology that could flag them as a security risk, and to tools that determine whether or on what terms they’ll get medical help, a place to live, a job, or a loan. Because there is no AI exemption from the laws on the books, firms deploying these AI systems and tools have an obligation to abide by existing laws, including the competition and consumer protection statutes that the FTC enforces. FTC staff can analyze whether these tools violate people’s privacy or are prone to adversarial inputs or attacks that put personal data at risk. We can also scrutinize generative AI tools that are used for fraud, manipulation, or non-consensual imagery, or that endanger children and others. We can consider the impacts of algorithmic products that make decisions in high-risk contexts such as health, housing, employment, or finance. Those are just a few examples, but the canvas is large. 消費者たちは、カスタマーサービスのチャットボットから教育ツール、ソーシャルメディアフィードを動かす推奨システム、セキュリティリスクとしてフラグを立てられる可能性のある顔認識技術、さらには医療支援、住居、仕事、融資などを受けられるかどうか、またその条件を判断するツールに至るまで、知ってか知らずか、AIシステムやツールに遭遇している。現行法にはAIに対する適用除外がないため、これらのAIシステムやツールを展開する企業には、FTCが執行する競争法や消費者保護法を含む現行法を順守する義務がある。FTCのスタッフは、これらのツールが人々のプライバシーを侵害していないか、個人データをリスクにさらす敵対的な入力や攻撃を受けやすいかどうかを分析することができる。また、詐欺、操作、同意のない画像、あるいは子供やその他の人々を危険にさらすために使用される生成的AIツールについても精査することができる。健康、住宅、雇用、金融など、リスクの高い状況で意思決定を行うアルゴリズム製品の影響についても検討することができる。これらはほんの一例に過ぎないが、検討すべき事項は多い。
The following examples from real-world, recent casework and other initiatives highlight the need for companies to consider these factors when developing, maintaining, using, and deploying an AI-based product: 以下に挙げる最近の事例やその他の取り組みから、AIベースの製品の開発、維持、使用、展開にあたり、企業がこれらの要素を考慮する必要性について、いくつかの例を挙げて説明する。
1. Taking necessary steps to prevent harm before and after deploying a product. Last year the FTC alleged that retail pharmacy Rite Aid failed to take reasonable measures to prevent harm to consumers in its use of facial recognition technology (FRT) that falsely tagged consumers in its stores, particularly women and people of color, as shoplifters. For instance, the complaint alleged that the company failed to take reasonable steps to test, assess, measure, document, or inquire about the accuracy of its FRT before deploying the technology. The complaint further alleged that the company failed to take “reasonable steps” after deploying “to regularly monitor or test the accuracy of the technology.” This included failing to “implement any procedure for tracking the rate of false positive facial recognition matches or actions taken on the basis of false positive facial recognition matches.” The agency has highlighted that companies offering AI models need to assess and mitigate potential downstream harm before and during deployment of their tools, which includes addressing the use and impact of the technologies that are used to make decisions about consumers. 1. 製品展開の前後において、被害を防止するための必要な措置を講じる。昨年、連邦取引委員会(FTC)は、小売薬局のライトエイドが、店舗内で特に女性や有色人種を万引き犯として誤ってタグ付けする顔認識技術(FRT)の使用において、消費者への被害を防止するための合理的な措置を講じなかったと主張した。例えば、訴状では、同社が顔認識技術を展開する前に、その正確性をテスト、アセスメント、測定、文書化、または調査するための妥当な措置を講じなかったと主張している。さらに訴状では、同社が「展開後、技術の正確性を定期的に監視またはテストするための妥当な措置」を講じなかったと主張している。これには、「誤認識による顔認識一致率や、誤認識による顔認識一致に基づく措置を追跡するための手順を導入しなかった」ことも含まれる。同機関は、AIモデルを提供する企業は、自社ツールの展開前および展開中に、潜在的な二次被害をアセスメントし緩和する必要があることを強調している。これには、消費者に関する意思決定に使用されるテクノロジーの利用と影響への対応も含まれる。
2. Taking preventative measures to detect, deter, and halt AI-related impersonation, fraud, child sexual abuse material, and non-consensual intimate imagery. Earlier this year, the FTC finalized a rule to combat impersonation of governments and businesses, which can be turbocharged with AI-generated deepfakes. Relatedly, the FTC launched a Voice Cloning Challenge to promote the development of ideas to protect consumers by detecting and halting the misuse of voice cloning software by unauthorized users. In announcing the challenge, FTC staff discussed considerations including applying effective real-time detection or monitoring measures, using solutions to evaluate existing content, preventing and deterring AI-enabled scams and fraud, and leveraging solutions to build robust guardrails that provide authentication or prevent upstream harm. 2. AI関連のなりすまし、詐欺、児童性的虐待画像、および非合意に基づく親密な画像の検知、阻止、および停止のための予防措置を講じる。今年初め、FTCは政府や企業になりすます行為に対抗するための規則を最終決定したが、これはAI生成のディープフェイクによってさらに加速する可能性がある。これに関連して、FTCは、無許可ユーザーによる音声クローニングソフトウェアの悪用を検知し阻止することで消費者を防御するアイデアの開発を促進するために、「ボイス・クローニング・チャレンジ」を開始した。このチャレンジの発表において、FTCのスタッフは、効果的なリアルタイム検知またはモニタリング手段の適用、既存のコンテンツを評価するソリューションの利用、AIを利用した詐欺や不正行為の防止と抑止、認証の提供や上流での被害の防止を行う強固なガードレールの構築に役立つソリューションの活用など、検討事項について議論した。
While generative AI technology may be relatively recent, these harms are not new for the FTC. The agency has discussed deepfakes at PrivacyCon and in its Combatting Online Harms Report to Congress. The agency also took action against MyEx.com, a revenge porn site, that resulted in a court order permanently shutting down the website and requiring the operators pay harmed consumers for illegally posting their intimate images and personal information without their consent and extorting them by charging takedown fees. 生成的AI技術は比較的新しいものかもしれないが、FTCにとってこうした被害は目新しいものではない。同機関は、PrivacyConや議会へのオンライン被害対策報告書でディープフェイクについて議論している。また、リベンジポルノサイトであるMyEx.comに対しても措置を講じ、その結果、裁判所命令によりウェブサイトが恒久的に閉鎖され、運営者に対して、被害者の同意を得ずに親密な画像や個人情報を違法に投稿し、削除料を請求することで脅迫したことに対する賠償を消費者に支払うよう命じた。
3. Avoiding deceptive claims about AI tools that result in people losing money or put users at risk of harm. The FTC has brought a number of cases involving deceptive claims that an AI product would help people start a business or make money, including the cases recently announced as part of Operation AI Comply. Even more recent are actions against Evolv Technologies for deceptive claims about an AI-enabled security screening product, Intellivision Technologies for deceptive claims about its facial recognition software, and accessiBe for misrepresentations about its AI-powered web accessibility tool. Earlier in the year, the FTC banned NGL Labs and its founders from offering anonymous messaging apps to kids and teens under 18 and halted claims around AI-related content moderation that the Commission alleged were deceptive. In its complaint against Everalbum, a photo app developer, the FTC alleged that the company deceived users who deactivated their accounts about the use and retention of their photos and videos and enabled face recognition by default, failing to give consumers the ability to disable it. In terms of biometric and health data, the agency has also challenged companies for allegedly baseless claims around algorithmic solutions and accuracy of their genetic DNA testing reports (CRI Genetics, LLC), and claims that mobile apps could detect symptoms of melanoma, even in its early stages (MelApp and Mole Detective). 3. AIツールに関する誤解を招くような主張を避け、人々が金銭を失ったり、ユーザーが被害のリスクにさらされたりすることを防ぐ。FTCは、AI製品が起業や金儲けに役立つという詐欺的な主張を含む多くの事例を扱っており、その中には最近発表された「Operation AI Comply」の一環として取り上げられた事例も含まれる。さらに最近では、AI対応のセキュリティスクリーニング製品に関する詐欺的な主張を行ったEvolv Technologies、顔認識ソフトウェアに関する詐欺的な主張を行ったIntellivision Technologies、AI対応のウェブアクセシビリティツールに関する虚偽の表示を行ったaccessiBeに対する措置が取られている。今年初め、FTCはNGL Labsとその創設者に対し、18歳未満の子供や青年を対象とした匿名メッセージングアプリの提供を禁止し、委員会が虚偽であると主張したAI関連のコンテンツ管理に関する主張を差し止めた。写真アプリ開発企業Everalbumに対する申し立てで、FTCは、同社がアカウントを非アクティブ化したユーザーに対し、写真や動画の使用と保存について欺瞞的な説明を行い、デフォルトで顔認識を有効にし、消費者がそれを無効にする機能を付与しなかったと主張した。生体データや健康データに関しては、同機関はアルゴリズムによるソリューションや遺伝子DNA検査レポートの正確性(CRI Genetics, LLC)に関する根拠のない主張、および初期段階のメラノーマの症状さえも検知できるとするモバイルアプリの主張(MelApp and Mole Detective)についても企業を非難している。
4. Ensuring privacy and security by default. Generative AI tools require a massive amount of data inputs as part of the training process for large language models, among other types of AI models. Some of this data may be highly sensitive. The Commission has a long record of providing guidance to businesses about ensuring data security and protecting privacy, including via its Policy Statement on Biometric Information. The FTC has also sued companies that failed to abide by their legal obligations. For example, the FTC issued a complaint against Amazon’s voice assistant service, Alexa, over the company’s default settings to retain users’ (including children’s) voice recordings indefinitely. The agency alleged that Amazon “misled Alexa users about their ability to delete voice recordings collected by Alexa” and used the data it unlawfully retained to help improve its Alexa algorithm. FTC staff have also advised that companies shouldn’t quietly or surreptitiously change their terms of service. 4. デフォルトでプライバシーとセキュリティを確保する。生成的AIツールは、大規模言語モデルのトレーニングプロセスにおいて、他のAIモデルと同様に膨大な量のデータ入力が必要となる。これらのデータの中には、極めて機密性の高いものもある。欧州委員会は、生体データに関するポリシー声明などを通じて、データセキュリティの確保とプライバシーの防御に関する企業へのガイダンス提供において、長い実績がある。FTCもまた、法的義務を順守しなかった企業を提訴している。例えば、FTCはAmazonの音声アシスタントサービスAlexaに対し、ユーザー(子供を含む)の音声録音を無期限に保持するデフォルト設定を理由に訴訟を起こした。同機関はAmazonが「Alexaユーザーに対し、Alexaが収集した音声録音を削除できると誤解させるような説明を行っていた」と主張し、同社が違法に保持していたデータをAlexaアルゴリズムの改善に利用していたと主張した。また、FTCのスタッフは、企業がひそかまたはこっそりと利用規約を変更すべきではないと助言している。
The actions above are not a comprehensive overview of what companies should be considering when they design, build, test, and deploy their own products and services to millions of customers. Each case illustrates how the FTC’s enforcement efforts encompass both the claims that companies make about their own products and services and the actions they take to ensure that they do not cause harm to consumers and violate laws enforced by the Commission. 上記の行為は、企業が何百万人もの顧客を対象に独自の製品やサービスを設計、構築、テスト、展開する際に考慮すべきことの包括的な概要ではない。各事例は、FTCの取締りが、企業が自社の製品やサービスについて行う主張と、消費者に損害を与えず、委員会が施行する法律に違反しないことを確実にするために企業が取る行動の両方を対象としていることを示している。
In this blog post, we’re not covering the agency’s other important work relating to AI, including concerns relating to competition. Chair Khan previously outlined several relevant principles that agency staff is keeping in mind: highlighting how business models drive incentives; aligning liability with capability and control; and crafting effective remedies that establish bright-line rules on the development, use, and management of AI inputs. AI will continue to evolve in ways that will reveal both the benefits and the risks of technology, and effectively mitigating those risks can help spur those benefits. Companies can use AI tools in ways that have serious impacts on consumers, so they need to address associated risks before, during, and after consumers come in contact with them. As firms think about their own approach to developing, deploying, and maintaining AI-based systems, they should be considering the risks to consumers that each of them carry in the here-and-now, and take steps to proactively protect the public before their tools become a future FTC case study. 本ブログ記事では、競争に関する懸念など、AIに関連する同機関のその他の重要な取り組みについては取り上げていない。カーン委員長は以前、同機関のスタッフが念頭に置いている関連原則のいくつかを概説した。すなわち、ビジネスモデルがインセンティブをどのように推進するかを強調すること、責任を能力と制御と一致させること、AI入力の開発、使用、管理に関する明確なルールを確立する効果的な救済策を策定すること、などである。AIは今後も進化を続け、テクノロジーのメリットとリスクの両方が明らかになっていく。そして、リスクを効果的に緩和することは、メリットを促進することにつながる。企業はAIツールを、消費者に対して重大な影響を与える方法で使用することが可能であるため、消費者が企業と接触する前、接触中、接触後のいずれにおいても、関連するリスクに対処する必要がある。企業がAIベースのシステムの開発、展開、維持に対する独自の取り組みを考える際には、それぞれの取り組みが現在抱えている消費者に対するリスクを考慮し、自社のツールが将来FTCのケーススタディの対象となる前に、一般の人々を積極的に防御するための措置を講じるべきである。
Thank you to those who contributed to this post: Michael Atleson, Shoshana Wodinsky, Stephanie Nguyen, Dan Salsburg, Leah Frazier, Mark Suter, Sam Levine. この記事に貢献してくださった方々に感謝いたします。マイケル・アトレスン、ショシャナ・ウォディンスキー、ステファニー・グエン、ダン・サルスバーグ、リア・フレイジャー、マーク・スター、サム・レヴィン。

 

 


関連...

まるちゃんの情報セキュリティ気まぐれ日記

・2024.10.09 米国 連邦取引委員会 メリッサ・ホリヨーク委員の全国広告部門基調講演「プライバシー、広告、AIについてのこれからの道筋」(2024.09.17)

・2024.09.27 米国 連邦取引委員会 AIコンプライアンス作戦:過剰な約束やAI関連の嘘に対する取り締まりを継続

・2024.04.02 米国 連邦取引委員会 プライバシーとデータセキュリティの2023年更新版 (2024.03.28)

・2024.01.26 米国 連邦取引委員会 生成的AIへの投資とパートナーシップに関する調査をアルファベット、アマゾン、マイクロソフト、アンソロピックPBC、OpenAIに対して開始

・2024.01.25 米国 FTC プライバシーおよびデータ・セキュリティの法執行に関する協力強化のための多国間協定に署名 (2024.01.17)

・2023.04.28 米国 連邦取引委員会 司法省 消費者金融保護局 雇用機会均等委員会 「自動化システムにおける差別やバイアスに対する執行努力に関する共同声明 」

 

 

| | Comments (0)

米国 NIST SP 800-227(初期公開ドラフト) キーカプセル化メカニズムに関する推奨事項

こんにちは、丸山満彦です。

NISTが、SP 800-227(初期公開草案) キーカプセル化メカニズムに関する推奨事項を公表し、意見募集をしていますね...

 

NIST - ITL

・2025.01.07 NIST SP 800-227 (Initial Public Draft) Recommendations for Key-Encapsulation Mechanisms

NIST SP 800-227 (Initial Public Draft) Recommendations for Key-Encapsulation Mechanisms NIST SP 800-227(初期公開草案) キーカプセル化メカニズムに関する推奨事項
Announcement 発表
NIST recently published FIPS 203, Module-Lattice-Based Key-Encapsulation Mechanism Standard, to update its cryptographic standards with an algorithm designed to provide protection from quantum attacks.  In addition, NIST will select one or two additional quantum-resistant key-encapsulation mechanisms (KEMs) for standardization. To provide guidance on using KEMs, NIST is introducing SP 800-227, Recommendations for Key Encapsulation Mechanisms.  This draft document describes the basic definitions, properties, and applications of KEMs. It also provides recommendations for implementing and using KEMs in a secure manner. NISTは最近、量子攻撃からの防御を目的として設計されたアルゴリズムで暗号化標準を更新するために、FIPS 203(モジュール-格子ベースのキーカプセル化メカニズム標準)を発行した。 さらに、NISTは標準化のために、量子耐性のある鍵カプセル化メカニズム(KEM)を1つまたは2つ追加で選定する予定である。KEMの使用に関する指針を提供するため、NISTは「SP 800-227:鍵カプセル化メカニズムに関する推奨事項」を導入している。このドラフト文書では、KEMの基本的な定義、特性、および用途について説明している。また、KEMを安全に実装および使用するための推奨事項も提供している。
The public comment period is open through March 7, 2025. パブリックコメントの受付期間は2025年3月7日までとなっている。
NIST will also hold a virtual Workshop on Guidance for KEMs on February 25-26, 2025, to gather additional feedback on SP 800-227. また、NISTは2025年2月25日~26日に仮想ワークショップ「KEMに関するガイダンス」を開催し、SP 800-227に関する追加のフィードバックを収集する予定である。
Abstract 概要
A key-encapsulation mechanism (KEM) is a set of algorithms that can be used by two parties under certain conditions to securely establish a shared secret key over a public channel. A shared secret key that is established using a KEM can then be used with symmetric-key cryptographic algorithms to perform essential tasks in secure communications, such as encryption and authentication. This document describes the basic definitions, properties, and applications of KEMs. It also provides recommendations for implementing and using KEMs in a secure manner. 鍵カプセル化メカニズム(KEM)とは、特定の条件下で2つの当事者が使用し、公開チャネル上で安全に共有秘密鍵を確立できるアルゴリズムのセットである。KEMを使用して確立された共有秘密鍵は、その後、対称鍵暗号化アルゴリズムと併用して、暗号化や認証など、安全なコミュニケーションにおける重要なタスクを実行するために使用することができる。本書では、KEMの基本的な定義、特性、および用途について説明する。また、KEMを安全に実装および使用するための推奨事項も提供する。

 

 

・[PDF] SP.800-227.ipd

20250109-182449

 

1. Introduction 1. 序文
1.1. Background 1.1. 背景
1.2. Scope and Purpose 1.2. 範囲と目的
2. Definitions and Requirements 2. 定義と要件
2.1. Definitions 2.1. 定義
2.2. Requirements 2.2. 要件
3. Overview of Key-Encapsulation Mechanisms 3. 鍵カプセル化メカニズムの概要
3.1. Introduction 3.1. 導入
3.2. Basic Definitions and Examples 3.2. 基本的な定義と例
3.3. Theoretical Security of KEMs 3.3. KEMの理論上の安全性
4. Requirements for Secure KEM Implementations 4. 安全なKEM実装の要件
4.1. Compliance to NIST Standards and Validation 4.1. NIST標準への準拠と妥当性確認
4.2. Managing Cryptographic Data 4.2. 暗号データの管理
4.3. Additional Requirements 4.3. 追加要件
5. Using KEMs Securely in Applications 5. アプリケーションにおけるKEMの安全な使用
5.1. How to Establish a Key With a KEM 5.1. KEMによる鍵確立方法
5.2. Conditions for Using KEMs Securely 5.2. KEMを安全に使用するための条件
5.3. Key Derivation 5.3. 鍵の導出
5.4. Key Confirmation 5.4. 鍵の確認
5.4.1. Creating the MAC Data 5.4.1. MACデータの作成
5.4.2. Obtaining the Key-Confirmation Key 5.4.2. 鍵確認鍵の取得
5.4.3. Key-Confirmation Example 5.4.3. 鍵確認の例
5.5. Multi-algorithm KEMs and PQ/T Hybrids 5.5. マルチアルゴリズムKEMとPQ/Tハイブリッド
5.5.1. Constructing a Composite KEM 5.5.1. 複合KEMの構築
5.5.2. Approved Key Combiners 5.5.2. 承認済み鍵結合器
5.5.3. Security Considerations for Composite Schemes 5.5.3. 複合スキームのセキュリティに関する考察
6. Examples 6. 例
6.1. Examples of KEMs 6.1. KEMの例
6.1.1. A KEM From Diffie-Hellman 6.1.1. ディフィー・ヘルマン法に基づくKEM
6.1.2. A KEM from RSA Secret-Value Encapsulation 6.1.2. RSA秘密値カプセル化に基づくKEM
6.1.3. ML-KEM 6.1.3. ML-KEM
6.2. Examples of Applications of KEMs 6.2. KEMの応用例
6.2.1. Hybrid Public-Key Encryption (HPKE) 6.2.1. ハイブリッド公開鍵暗号(HPKE)
6.2.2. Static-Ephemeral Key Establishment 6.2.2. 静的一時鍵確立
6.2.3. Ephemeral Authenticated Key Establishment 6.2.3. 使い捨て認証鍵確立
References 参考文献
Appendix A. Cryptographic Components 附属書 A. 暗号コンポーネント
A.1. Message Authentication Codes (MACs) A.1. メッセージ認証コード(MAC)
A.2. Random Bit Generators A.2. ランダムビット生成器
A.3. Nonces A.3. ノンス

 

 

 

 

| | Comments (0)

米国 NIST SP 800-189 Rev. 1(初期公開ドラフト) ボーダーゲートウェイプロトコルのセキュリティとレジリエンス

こんにちは、丸山満彦です。

NISTが、SP 800-189 Rev. 1(初期公開ドラフト) ボーダーゲートウェイプロトコルのセキュリティとレジリエンスを公表し、意見募集をしていますね...

この年末は、JAL、金融機関に対するDDoS攻撃も話題になりましたからね...

 

NIST - ITL

・2025.01.03 NIST SP 800-189 Rev. 1 (Initial Public Draft) Border Gateway Protocol Security and Resilience

NIST SP 800-189 Rev. 1 (Initial Public Draft) Border Gateway Protocol Security and Resilience NIST SP 800-189 Rev. 1(初期公開草案) ボーダーゲートウェイプロトコルのセキュリティとレジリエンス
Announcement 発表
In recent years, numerous Internet routing incidents — such as Border Gateway Protocol (BGP) prefix hijacking, and route leaks — have resulted in denial of service (DoS), unwanted data traffic detours, and performance degradation. Large-scale distributed denial-of-service (DDoS) attacks on servers using spoofed Internet Protocol (IP) addresses and reflection amplification in the data plane have resulted in significant disruptions of services and damages. 近年、多数のインターネットルーティングインシデント(BGP(ボーダーゲートウェイプロトコル)プレフィックスの乗っ取りやルートリークなど)が、サービス拒否(DoS)攻撃、不要なデータトラフィックの迂回、パフォーマンスの低下を引き起こしている。 偽装されたインターネットプロトコル(IP)アドレスを使用するサーバーに対する大規模な分散型サービス拒否(DDoS)攻撃や、データプレーンにおけるリフレクション増幅により、サービスが大幅に中断され、損害が発生している。
This document provides technical guidance and recommendations to improve the security and resilience of Internet routing based on BGP. Technologies recommended in this document for securing Internet routing include Resource Public Key Infrastructure (RPKI), Route Origin Authorization (ROA), ROA-based route origin validation (ROA-ROV), and prefix filtering. Additionally, the technologies recommended for mitigating DDoS attacks focus on the prevention of IP address spoofing using source address validation (SAV) with access control lists (ACLs) and unicast Reverse Path Forwarding (uRPF). Other technologies are also recommended as part of the overall security mechanisms, such as remotely triggered black hole (RTBH) filtering and flow specification (Flowspec). 本書では、BGPに基づくインターネットルーティングのセキュリティとレジリエンスを改善するための技術的な指針と推奨事項を提示する。インターネットルーティングのセキュリティ確保のために本書で推奨する技術には、リソース公開鍵基盤(RPKI)、ルートオリジン認可(ROA)、ROAに基づくルートオリジン妥当性確認(ROA-ROV)、およびプレフィックスフィルタリングなどがある。さらに、DDoS攻撃の緩和に推奨される技術は、アクセス管理リスト(ACL)とユニキャスト・リバースパス・フォワーディング(uRPF)を用いた送信元アドレスの妥当性確認(SAV)によるIPアドレスのなりすまし防止に重点を置いている。また、リモートトリガー型ブラックホール(RTBH)フィルタリングやフロー仕様(Flowspec)など、その他の技術も総合的なセキュリティ対策の一環として推奨されている。
While this document is intended to guide information security officers and managers of federal enterprise networks, it also applies to the network services of hosting providers (e.g., cloud-based applications and service hosting) and Internet service providers (ISPs) that support federal IT systems. This guidance may also be useful for enterprise and transit network operators and equipment vendors in general. 本書は、連邦政府の企業ネットワークの情報セキュリティ責任者および管理者の指針となることを目的としているが、連邦政府のITシステムをサポートするホスティングプロバイダ(クラウドベースのアプリケーションやサービスホスティングなど)やインターネットサービスプロバイダ(ISP)のネットワークサービスにも適用される。また、本指針は、エンタープライズおよびトランジットネットワークの運用者や機器ベンダーにも一般的に役立つ可能性がある。
Abstract 要約
This publication provides guidance on Internet routing security, preventing IP address spoofing, and certain aspects of DDoS detection and mitigation. It particularly focuses on Border Gateway Protocol, which is the routing protocol used to distribute and compute paths between the tens of thousands of autonomous networks that comprise the internet. Technologies recommended in this document for securing BGP routing include Resource Public Key Infrastructure, Route Origin Authorization, ROA-based route origin validation, and prefix filtering. Additionally, technologies recommended for mitigating DDoS attacks focus on preventing IP address spoofing using source address validation with access control lists and unicast Reverse Path Forwarding. Other technologies are also recommended as part of the overall routing security mechanisms, such as remotely triggered black hole filtering and flow specification. 本書は、インターネットルーティングのセキュリティ、IPアドレススプーフィングの防止、およびDDoS攻撃の検知と緩和の特定の側面に関する指針を提供する。特に、インターネットを構成する何万もの自律ネットワーク間の経路を分配し計算するために使用されるルーティングプロトコルであるボーダーゲートウェイプロトコル(BGP)に焦点を当てている。BGPルーティングのセキュリティ確保のために本書で推奨されている技術には、リソース公開鍵基盤(PKI)、ルートオリジン認可(ROA)、ROAに基づくルートオリジン妥当性確認、およびプレフィックスフィルタリングなどがある。さらに、DDoS攻撃の緩和のために推奨されている技術は、アクセス管理リスト(ACL)とユニキャストRPF(Reverse Path Forwarding)を使用した送信元アドレスの妥当性確認によるIPアドレススプーフィングの防止に重点を置いている。また、ルーティングセキュリティの全体的な仕組みの一部として、リモートトリガーによるブラックホールフィルタリングやフロー指定などの技術も推奨されている。

 

・[PDF] SP.800-189r1.ipd

20250109-172323

 

目次...

Executive Summary エグゼクティブサマリー
1. Introduction 1. 序文
1.1. What This Guide Covers 1.1. 本ガイドの対象範囲
1.2. What This Guide Does Not Cover 1.2. 本ガイドの対象外
1.3. Document Structure 1.3. 文書構成
1.4. Conventions Used in This Guide 1.4. 本ガイドで使用される表記法
2. BGP Vulnerabilities 2. BGP の脆弱性
2.1. Unauthorized BGP Originations (Prefix Hijacks) 2.1. 無許可の BGP 発信(プレフィックスハイジャック
2.2. Unauthorized BGP Update Modification (Path Hijacks) 2.2. 無許可の BGP 更新変更(パスハイジャック
2.3. 8GP Policy Violations (Route Leaks 2.3. 8GPポリシー違反(ルートリーク
3. Other Internet Routing Related Vulnerabilities (IP Address Spoofing) 3. その他のインターネットルーティング関連の脆弱性(IPアドレススプーフィング
3.1. Spoofed Source Addresses 3.1. 偽装されたソースアドレス
3.2. Reflection Amplification attacks 3.2. リフレクション増幅攻撃
4. Improving BGP Security and Resilience - Solutions and Recommendations 4. BGPのセキュリティとレジリエンスの改善 - ソリューションと推奨事項
4.1. Registration of Route Objects in Internet Routing Registries 4.1. インターネットルーティングレジストリにおけるルートオブジェクトの登録
4.2. Certification of Resources in Resource Public Key Infrastructure 4.2. リソース公開鍵基盤におけるリソースの認証
4.3. ROA-based Route Origin Validation (ROA-ROV) 4.3. ROAに基づく経路発信元の妥当性確認(ROA-ROV)
4.3.1. Forged-Origin Hijacks — How to Minimize Them 4.3.1. 偽装発信元の乗っ取り - その最小化方法
4.3.2. General Recommendations Related to RPKI and ROA-ROV 4.3.2. RPKIおよびROA-ROVに関する一般的な推奨事項
4.4. Categories of Prefix Filters... 4.4. プレフィックス・フィルターのカテゴリー...
4.4.1. Unallocated Prefixes 4.4.1. 未割り当てのプレフィックス
4.4.2. Special Purpose Prefixes 4.4.2. 特殊目的のプレフィックス
4.4.3. Single-Homed Prefixes 4.4.3. 単一ホームのプレフィックス
4.4.4. Prefixes that Exceed a Specificity Limit 4.4.4. 特定の制限を超えるプレフィックス
4.4.5. Default Route 4.4.5. デフォルトルート
4.4.6. IXP LAN Prefixes 4.4.6. IXP LAN プレフィックス
4.5. Prefix Filtering for Peers of Different Types 4.5. 異なるタイプのピアに対するプレフィックスフィルタリング
4.5.1. Prefix filtering with Lateral Peer 4.5.1. 水平ピアによるプレフィックスフィルタリング
4.5.2. Prefix Filtering with Transit Provider 4.5.2. トランジットプロバイダによるプレフィックスフィルタリング
4.5.3. Prefix Filtering with Customer... 4.5.3. 顧客によるプレフィックスフィルタリング...
4.5.4. Prefix Filtering Performed in a Leaf Customer Network 4.5.4. リーフカスタマーネットワークで実行されるプレフィックスフィルタリング
4.6. Role of RPKI in Prefix Filtering 4.6. プレフィックスフィルタリングにおけるRPKIの役割
4.7. AS Path Verification. 4.7. ASパス検証
4.7.1. BGPsec Protocol (Emerging/Future) 4.7.1. BGPsecプロトコル(新興/将来
4.7.2. ASPA-based AS Path Verification (Emerging/Future) 4.7.2. ASPAベースのASパス検証(新興/将来
4.7.3. BGP Roles and OTC Attribute Solution for Route Leaks (Future) 4.7.3. BGPの役割とルートリークに対するOTC属性ソリューション(将来
4.8. Route Leak Solution Using BGP Community Tagging 4.8. BGPコミュニティ・タグを使用したルートリーク・ソリューション
4.9. Checking As Path for Disallowed As Numbers 4.9. 許可されていないAS番号に対するAsパス確認
4.10. Generalized TTL Security Mechanism (GTSM) 4.10. 一般化TTLセキュリティメカニズム(GTSM)
4.11. Default External BGP Route Propagation Behavior without Policies 4.11. ポリシーなしのデフォルト外部BGPルート伝搬動作
5. Source Address Validation and DDoS Mitigation 5. 送信元アドレスの妥当性確認とDDoS緩和
5.1. Source Address Validation Techniques 5.1. 送信元アドレスの妥当性確認技術
5.1.1. SAV Using Access Control Lists 5.1.1. アクセス管理リスト(ACL)を使用するSAV
5.1.2. SAV Using Strict Unicast Reverse Path Forwarding 5.1.2. 厳密なユニキャスト・リバースパス・フォワーディングを使用するSAV
5.1.3. SAV Using Feasible-Path Unicast Reverse Path Forwarding 5.1.3. 実現可能パス・ユニキャスト・リバースパス・フォワーディングを使用するSAV
5.1.4. SAV Using Loose Unicast Reverse Path Forwarding 5.1.4. 緩やかなユニキャスト・リバースパス・フォワーディングを使用するSAV
5.1.5. SAV Using VRF Table 5.1.5. VRFテーブルを使用するSAV
5.1.6. SAV Using Enhanced Feasible-Path URPF (Emerging/Future) 5.1.6. 拡張可能経路パスユニキャストリバースパスフォワーディング(Emerging/Future)を使用するSAV
5.1.7. SAV Using BAR-SAV (Emerging/Future) 5.1.7. BAR-SAV(Emerging/Future)を使用するSAV
5.1.8. More Effective Mitigation with Combination of Origin Validation and SAV 5.1.8. オリジン妥当性確認とSAVの組み合わせによるより効果的な緩和
5.2. SAV Recommendations for Various Types of Networks 5.2. さまざまなタイプのネットワークに対するSAVの推奨事項
5.2.1. Customer with Directly Connected Allocated Address Space: Broadband and Wireless Service Providers 5.2.1. 直接接続された割り当てアドレス空間を持つ顧客:ブロードバンドおよびワイヤレスサービスプロバイダ
5.2.2. Enterprise Border Routers 5.2.2. エンタープライズ・ボーダ・ルータ
5.2.3. Internet Service Providers 5.2.3. インターネット・サービス・プロバイダ
5.3. BGP Flow Specification (Flowspec) 5.3. BGP フロー仕様(Flowspec
6. General: Outsourced Services, Supporting Standards, Open Source, and Measurements 6. 一般事項:外部委託サービス、標準規格のサポート、オープンソース、および測定
References 参考文献
Appendix A Consolidated List of Security Recommendations 附属書 A セキュリティ勧告の統合リスト
Appendix B. List of Symbols, Abbreviations, and Acronyms 附属書 B. 記号、略語、および頭字語のリスト
Appendix C. Change Log 附属書 C. 変更履歴

 

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
There have been numerous security and resilience incidents in recent years involving Border Gateway Protocol (BGP), including prefix hijacks, route leaks, and other forms of misrouting. These incidents include both malicious attacks and accidental misconfigurations that result in the denial of service (DoS), unwanted data traffic detours, and performance degradation  [Madory]. Another form of abuse of Internet routing in the data plane is source Internet Protocol (IP) address spoofing,  a technique often used in DoS attacks.   近年、プレフィックスハイジャック、ルートリーク、その他の誤ルーティングなど、ボーダーゲートウェイプロトコル(BGP)に関連するセキュリティおよびレジリエンスのインシデントが数多く発生している。これらのインシデントには、悪意のある攻撃と、サービス拒否(DoS)、不要なデータトラフィックの迂回、パフォーマンスの低下を招く偶発的な誤設定の両方が含まれる [必須]。データプレーンにおけるインターネットルーティングの別の悪用形態は、ソースIP(インターネットプロトコル)アドレススプーフィングであり、DoS攻撃でよく使用される手法である。
This document provides technical guidance and recommendations to improve the security and resilience of Internet routing based on BGP. It primarily focuses on the points of interconnection between enterprise networks or hosted service providers and the public Internet. These are commonly known as “stub” networks (i.e., those networks that only provide connectivity to their end systems) and transit networks (i.e., those networks that serve to interconnect and pass traffic between stub networks and other transit networks), and the points of interconnection between them are often referred to as the “Internet’s edge.” There is usually a contractual relationship between transit networks and the stub networks that they service, and the set of technical procedures and policies defined in that relationship is commonly called the “peering policy.” Many of the recommendations in this document also apply to the points of interconnection between two transit networks, which may vary from those between stub and transit networks.   本書では、BGPに基づくインターネットルーティングのセキュリティとレジリエンスを改善するための技術的な指針と推奨事項を提供する。本書では、主にエンタープライズネットワークやホスティングサービスプロバイダとパブリックインターネット間の相互接続のポイントに焦点を当てている。これらは一般的に「スタブ」ネットワーク(すなわち、エンドシステムへの接続のみを提供するネットワーク)およびトランジットネットワーク(すなわち、スタブネットワークと他のトランジットネットワーク間の相互接続とトラフィックの転送を行うネットワーク)として知られており、それらの相互接続のポイントはしばしば「インターネットのエッジ」と呼ばれる。トランジットネットワークとそれらがサービスを提供するスタブネットワークの間には通常、契約関係が存在し、その関係において定義される一連の技術手順およびポリシーは一般的に「ピアリングポリシー」と呼ばれる。本書で推奨する多くの内容は、2つのトランジットネットワーク間の相互接続ポイントにも適用されるが、スタブネットワークとトランジットネットワーク間の相互接続ポイントとは異なる場合がある。 
These recommendations can reduce the risk of accidental misconfigurations and malicious attacks on the Internet’s BGP routing system and help prevent IP address spoofing and distributed DoS (DDoS) attacks. They primarily cover security and resilience technologies for routers that operate BGP (commonly called BGP routers) but also extend to other systems that support Internet routing security, such as Resource Public Key Infrastructure (RPKI) repositories.   これらの推奨事項は、インターネットのBGPルーティングシステムにおける誤設定や悪意のある攻撃のリスクを低減し、IPアドレススプーフィングや分散型DoS(DDoS)攻撃の防止に役立つ。 主にBGPを運用するルーター(一般的にBGPルーターと呼ばれる)のセキュリティおよびレジリエンシー技術をカバーしているが、RPKI(リソース公開鍵基盤)リポジトリなど、インターネットルーティングセキュリティをサポートする他のシステムにも適用される。 
The guidance in this publication should be incorporated into the security plans and operational processes of federal enterprise networks, and applicable recommendations should be incorporated into requirements for federal contracts for hosted application services and Internet transit services. This document also contributes to the ongoing broader efforts by the Federal Government to secure the foundational protocols of the Internet [NCSIP], particularly Internet routing [WH-ONCD][BITAG], with RPKI, Route Origin Authorization (ROA), ROA-based route origin validation (ROA-ROV), and prefix filtering. Additionally, the technologies recommended for mitigating DDoS attacks focus on the prevention of IP address spoofing using source address validation (SAV) with access control lists (ACLs) and unicast Reverse Path Forwarding (uRPF). Other technologies are also recommended as part of the overall security mechanisms, such as remotely triggered black hole (RTBH) filtering and flow specification (Flowspec).   本書に記載された指針は、連邦エンタープライズネットワークのセキュリティ計画および運用プロセスに組み込むべきであり、また、該当する推奨事項は、ホスティングされたアプリケーションサービスおよびインターネットトランジットサービスに関する連邦契約の要件に組み込むべきである。また、本書は、RPKI、ルートオリジン認可(ROA)、ROAベースのルートオリジン妥当性確認(ROA-ROV)、およびプレフィックスフィルタリングにより、インターネットの基盤プロトコル、特にインターネットルーティング(NCSIP)[WH-ONCD][BITAG]のセキュリティ確保に向けた連邦政府の継続的な広範な取り組みにも貢献する。さらに、DDoS攻撃の緩和に推奨される技術は、アクセス管理リスト(ACL)とユニキャスト・リバースパス・フォワーディング(uRPF)による送信元アドレスの妥当性確認(SAV)を使用したIPアドレス・スプーフィングの防止に重点を置いている。また、リモート・トリガ・ブラックホール(RTBH)フィルタリングやフロー仕様(Flowspec)など、その他の技術も総合的なセキュリティ対策の一部として推奨されている。 

 

 

| | Comments (0)

2025.01.09

NTT 2025年サイバーセキュリティ・トレンド

こんにちは、丸山満彦です。

2024年の宿題....

 

個別企業の話はあまりしないのですが、NTTのサイバーセキュリティトレンドが興味深いので...

英語版が2024.12.19に公表されてから、日本語版が、2024.12.24に公表されていますね...

AI、地政学、グローバルサイバー犯罪、サプライチェーン、消費者保護

 

NTT

・2024.12.19 NTT's Top Five Cybersecurity Trends for 2025

・2024.12.24 2025年サイバーセキュリティトレンド

 

目次的な感じ...

1_20250109213801

NTT's Top Five Cybersecurity Trends for 2025 2025年サイバーセキュリティトレンド
1.Rise in AI-Driven Cyber Threats 1.AIを利用したサイバー脅威の増加
AI driving cybercrime サイバー犯罪を促進するAI
By: Mihoko Matsubara, Chief Cybersecurity Strategist, NTT Corporation NTTチーフ・サイバーセキュリティ・ストラテジスト 松原 実穂子
Gen AI as part of attack frameworks 攻撃フレームワークに組み込まれる生成AI
By: John Petrie, Counselor to the NTT Global CISO NTTグローバル最高情報セキュリティ責任者補佐John Petrie
Rise in attack volume 脅威の増加
By: David Beabout, Chief Information Security Officer, NTT Security Holdings NTT セキュリティ社 最高情報セキュリティ責任者 David Beabout
Deepfake scams will spread ディープフェイク詐欺の拡大
By: Mihoko Matsubara, Chief Cybersecurity Strategist, NTT Corporation NTTチーフ・サイバーセキュリティ・ストラテジスト 松原 実穂子
2.Geopolitical Cyber Warfare 2.地政学
Multinational attacks against like-minded nations 志を同じくする国々に対する多国籍攻撃
By: John Petrie, Counselor to the NTT Global CISO NTTグローバル最高情報セキュリティ責任者補佐John Petrie
China-produced computer chips and security 中国製コンピュータチップとセキュリティ
By: John Petrie, Counselor to the NTT Global CISO NTTグローバル最高情報セキュリティ責任者補佐John Petrie
APAC and geopolitical tensions APACと地政学的緊張
By: David Beabout, Chief Information Security Officer, NTT Security Holdings NTT セキュリティ社 最高情報セキュリティ責任者 David Beabout
3.Global Cybercrime Collaboration and Expansion 3.グローバルなサイバー犯罪の協力と拡大
Collaboration between North Korean APT and Russian cybercrime groups 北朝鮮のAPTとロシアのサイバー犯罪グループの協力
By: Taro Manabe, NTT Security Japan, Senior Manager, Professional Service Division NTTセキュリティ社 真鍋 太郎
The multilingualization and expansion of cybercrime communities サイバー犯罪コミュニティの多言語化と第三世界への拡大
By: Taro Manabe, NTT Security Japan, Senior Manager, Professional Service Division NTTセキュリティ社 真鍋 太郎
4.Supply Chain Attack Expansion 4.サプライチェーン攻撃の拡大
Rise in supply chain attacks サプライチェーン攻撃の増加
By: Taro Manabe, NTT Security Japan, Senior Manager, Professional Service Division NTTセキュリティ社 真鍋 太郎
Ransomware targeting ランサムウェアの標的
By: Mihoko Matsubara, Chief Cybersecurity Strategist, NTT Corporation NTTチーフ・サイバーセキュリティ・ストラテジスト 松原 実穂子
Supply chain attacks against weak links 脆弱なリンクに対するサプライチェーン攻撃
By: David Beabout, Chief Information Security Officer, NTT Security Holdings NTT Security社 最高情報セキュリティ責任者 David Beabout
5.Advancing Consumer Protections 5.消費者保護の推進
Rise in consumer protection transparency and regulation 消費者保護の透明性と規制の強化
By: Itaru Kamiya, Senior Researcher, NTT-CERT NTT-CERT 神谷 造

 

 

| | Comments (0)

欧州会計検査院 人工知能の初期戦略と展開ロードマップ 2024-2025 (2024.10.04)

こんにちは、丸山満彦です。

2024年の宿題シリーズはまだまだ続く...(^^;;

 

欧州会計検査院が、人工知能の初期戦略と展開ロードマップの報告書を公表していました...

European Court of Auditors

・2024.10.04 Artificial Intelligence initial strategy and deployment roadmap 2024-2025

Artificial Intelligence initial strategy and deployment roadmap 人工知能の初期戦略と展開ロードマップ
In October 2023, following a series of recent breakthroughs in the field of artificial intelligence (AI), the European Court of Auditors (ECA) started an internal reflection on its application within the institution with the paper “Opportunities and challenges in responding to and using artificial intelligence”. As a follow-up, this document provides further analysis of the key issues and outlines an initial AI strategy and a deployment roadmap. The current ECA strategy covers the period 2021-2025. Preparation of the next strategy is likely to start soon, and will need to fully reflect AI aspects. This initial strategy should allow implementation of AI activities to start in a structured way, as well as constitute an input for the next ECA strategy. AI is a deeply transformative technology, but it will not replace the critical thinking and professional judgement of our auditors. We envision a use of AI that will assist our staff and augment their capabilities, allowing for more timely, efficient and soundly-based audits. We will uphold the highest ethical standards in the deployment and use of AI systems, safeguarding against biases, prioritising transparency, and applying caution and professional scepticism. We will remain faithful to our core values of independence, objectivity, integrity, transparency, and professionalism. Our vision is to leverage AI as an enabler to ultimately drive greater accountability, transparency, and trust in the EU. In this document, we explain the use of AI for audit and the audit of AI systems, and clarify the distinction between them. We then propose a set of goals and objectives for the ECA and, after an analysis of the risks, an AI roadmap with concrete actions. 2023年10月、人工知能(AI)分野における一連の最近の画期的な進歩を受けて、欧州会計監査院(ECA)は「人工知能への対応と利用における機会と課題」という文書で、機構内でのその適用に関する内部検討を開始した。そのフォローアップとして、本書では主要な問題のさらなる分析を行い、初期のAI戦略と展開ロードマップの概要を提示する。現在のECA戦略は2021年から2025年までの期間を対象としている。次の戦略の準備は間もなく開始される見込みであり、AIの側面を十分に反映させる必要がある。この最初の戦略により、AI活動の実施が体系的な方法で開始されるとともに、次のECA戦略へのインプットが構成されることになる。AIは非常に変革的な技術であるが、我々の監査人の批判的思考や専門的判断に取って代わるものではない。私たちは、スタッフを支援し、その能力を強化するAIの利用を想定しており、それにより、よりタイムリーで効率的かつ確固とした監査が可能になる。私たちは、AIシステムの展開と利用において、最高水準の倫理基準を維持し、バイアスを防止し、透明性を優先し、慎重かつ専門的懐疑主義を適用する。私たちは、独立性、客観性、完全性、透明性、専門性のコアバリューに忠実であり続ける。我々のビジョンは、AIを促進要因として活用し、EUにおける説明責任、透明性、信頼性を最終的に高めることである。本書では、監査におけるAIの利用とAIシステムの監査について説明し、両者の違いを明確にする。次に、ECAの目標と目的のセットを提案し、リスク分析を行った上で、具体的な行動を盛り込んだAIロードマップを提示する。

 

・[PDF]

20250109-64841

・[DOCX][PDF] 仮訳

 

目次...

Introduction 序文
Using AI for auditing/auditing AI AIを監査に活用する/AIを監査する
AI in auditing: enhancing capabilities 監査におけるAI:能力の強化
Auditing AI: ensuring integrity and effectiveness AIの監査:完全性と有効性の確保
Goals and objectives 目標と目標
Goal 1: improve operational efficiency in audit through AI tools 目標1:AIツールによる監査業務の効率化
Objective 1.1: Increase ECA staff knowledge on how to use AI 目標1.1:ECAスタッフのAI活用に関する知識を高める。
Objective 1.2: Ensure that the ECA is technically ready for AI 目標1.2:ECAが技術的にAIに対応できるようにする
Objective 1.3: Introduce AI tools to support the audit process 目標1.3:監査プロセスをサポートするAIツールを導入する
Goal 2: build the ECA’s ability to audit AI-based projects, systems and processes 目標2:AIベースのプロジェクト、 システムとプロセスを監査するECA能力を構築する。
Objective 2.1: Increase ECA staff understanding on how AI works and its associated risks 目標2.1:AIの仕組みと関連リスクについてECAスタッフの理解を深める。
Objective 2.2: Add AI aspects to our audit methodology 目標2.2:監査手法にAIの側面を加える
Goal 3: add value and contribute to EU-wide and international discussions on AI 目標3:AIに関するEU全体および国際的な の議論に価値を与え、貢献する。
Objective 3.1: Contribute actively to EU and international working groups 目標3.1:EUおよび国際的なワーキンググループに積極的に貢献する
Objective 3.2: Make the ECA knowledge on AI available to other EU SAIs 目標3.2:AIに関するECA知識を他のEU SAIが利用できるようにする。
Risk analysis and mitigation strategies リスク分析と緩和戦略
General AI risks 一般的なAIのリスク
Limited transparency and oversight on AI’s logic AIのロジックに関する透明性と監視は限られている。
Biased or discriminatory outputs バイアスまたは差別的な出力
Privacy, data protection and security issues プライバシー・データ保護・セキュリティ問題
Risks linked to implementation 実施に伴うリスク
Insufficient resources and skills for an effective deployment 効果的な展開のためのリソースとスキルが不足している。
Deployment of already outdated services すでに古くなったサービスの展開
Reputational risks 風評リスク
Proposal for an AI roadmap AIロードマップの提案
Action 1: create and follow-up a detailed communication plan アクション1:詳細なコミュニケーション計画を作成し、フォローアップする
Action 2: create an AI training path for ECA staff アクション2:ECAスタッフのためのAIトレーニングパスを作成する
Action 3: enhance the DATA services offered アクション3:提供するDATAサービスを強化する
Action 4: set-up a project proposal portfolio for new or enhanced tools アクション4:新規または 拡張ツールのためのプロジェクト提案ポートフォリオを設定する。
Action 4.1: Creation of an “Audit Draft Assistant” tool アクション4.1:監査ドラフトアシスタント」ツールの作成
Action 4.2: Customise and deploy a tool to retrieve information from large document sets, using an interactive approach based on Questions & Answers アクション4.2: Q&Aに基づく対話型アプローチを使用して、大規模な文書セットから情報を検索するツールをカスタマイズし、展開する。
Action 4.3: Extend the DORA tool with an AI backend for summarising and other natural language processing tasks アクション4.3: 、その他の自然言語処理タスクを要約するためのAIバックエンドでDORAツールを拡張する。
Action 4.4: Semantic search engine on ECA own production アクション4.4:ECA独自の生産物に関する意味検索エンジン
Action 4.5: Training a chatbot with internal knowledge of audit methodology from AWARE and other controlled-quality sources アクション4.5:AWAREおよびその他の管理された品質ソースから、監査 方法論の内部知識を持つチャットボットをトレーニングする。
Action 4.6: Assess the EC DORIS tool for survey analysis アクション4.6:調査分析用EC DORISツールのアセスメントを行う。
Action 4.7: Add AI components to robotic process automation (add intelligence to automation of repetitive tasks) アクション4.7: ロボットによるプロセス自動化にAIコンポーネントを追加する(反復作業の自動化に インテリジェンスを追加する)。
Action 4.8: Add access to AI to existing data science and visualisation tools アクション4.8: 既存のデータサイエンスと可視化ツールにAIへのアクセスを追加する
Action 5: creation of an AI competence centre at the ECA and related governance アクション5:ECAにおけるAIコンピテンスセンターの創設と、 関連ガバナンス。
Action 6: foster interinstitutional and international cooperation アクション6:組織間および国際的な協力を促進する
Closing remarks 最後に
Annex I – Overview of the main regulatory frameworks 附属書 I - 主要な規制枠組みの概要
Main regulatory approaches worldwide 世界の主な規制アプローチ
Regulating AI safety and security AIの安全・安心を規制する
Impact for the ECA ECAへの影響
Annex II – What are other institutions doing on AI? 附属書II - AIに関して他の機構は何をしているのか?
Interinstitutional and international working groups 機関間および国際的なワーキンググループ
European Commission 欧州委員会
Other EU institutions その他のEU機構
EU Supreme Audit Institutions EU最高監査機構
Other non-EU audit institutions その他の非EU監査機構
Annex III – Develop or buy? Cloud-based commercial products versus on-premises tool 附属書 III - 開発か購入か?クラウドベースの商用製品 対 オンプレミスツール
Introduction and definitions 序文と定義
Available options, as of February 2024 2024年2月現在、利用可能なオプション
Conclusions and proposal: start a dual approach in AI deployment (develop and buy) 結論と提案:AI展開における二重アプローチを開始する (開発と購入)。
Annex IV – Risk mapping and analysis 附属書IV - リスクのマッピングと分析

 

 

 

| | Comments (0)

2025.01.08

列国議会同盟 議会におけるAIのガイドライン (2024.12.12)

こんにちは、丸山満彦です。

2024年の宿題シリーズはまだまだ続く...(^^;;

 

列国議会同盟 (Inter-Parliamentary Union; IPU)  [wikipedia] が議会向けにAIに関するガイドラインを公表しています...もちろん、日本もこの列国議会同盟に参加しています...

ユースケースも多くあります...残念ながら日本の事例はないのですが、きっとすでにつかっていると思うので、改訂の際にはユースケースを載せてもらうようにしてもよいかもですね...

また、ユースケースにのっているもので、日本でも採用できそうなものがあれば、積極的に採用していけばよいですね...

 

 

 Inter-Parliamentary Union; IPU

プレス...

・2024.12.12 New IPU tools to harness the potential of AI in parliament

New IPU tools to harness the potential of AI in parliament 議会におけるAIの可能性を活かすためのIPUの新ツール
The IPU has published two new resources to help parliaments unlock the benefits of artificial intelligence (AI) to enhance their efficiency, effectiveness and productivity while mitigating the risks of this rapidly evolving technology. IPUは、人工知能(AI)の急速な進化に伴うリスクを緩和しながら、効率性、有効性、生産性を向上させるために、議会がAIのメリットを活用するための2つの新しいリソースを公開した。
The Guidelines for AI in parliament offer a comprehensive framework for parliaments to understand and implement AI responsibly and effectively. 議会におけるAIのためのガイドラインは、議会がAIを責任を持って効果的に理解し、導入するための包括的な枠組みを提供する。
They provide practical guidance on the importance of a strategic approach, strong governance, ethical considerations and risk management. The Guidelines underscore the importance of using AI to augment and enhance human capability rather than replace it, especially in democratic deliberation and decision-making. 戦略的アプローチ、強固なガバナンス、倫理的配慮、リスクマネジメントの重要性について、実践的な指針を提供している。ガイドラインでは、特に民主的な審議や意思決定において、AIを人間の能力を代替するのではなく、増強・強化するために活用することの重要性を強調している。
The Guidelines cover several key areas, including the potential role of AI in parliaments, the related risks and challenges, suggested governance structures and AI strategy, ethical principles and risk management, training and capacity-building, and how to manage a portfolio of AI projects across parliament.  ガイドラインは、議会におけるAIの潜在的な役割、関連するリスクと課題、提案されたガバナンス構造とAI戦略、倫理原則とリスクマネジメント、トレーニングと能力開発、議会全体にわたるAIプロジェクトのポートフォリオの管理方法など、いくつかの主要分野をカバーしている。
Key recommendations include: 主な提言は以下の通りである。
・Start with small pilot projects to build experience ・経験を積むために小規模なパイロットプロジェクトから着手する
・Focus on use cases with clear benefits and manageable risks ・明確なメリットがあり、管理可能なリスクを持つユースケースに焦点を当てる
・Ensure robust human oversight of AI systems ・AIシステムに対する強固な人的監視を確保する
・Prioritize transparency and accountability ・透明性と説明責任を優先する
・Invest in data and AI literacy across the organization ・組織全体でデータとAIリテラシーに投資する
・Engage with diverse stakeholders throughout the process ・プロセス全体を通じて多様な利害関係者と関わる
The Guidelines are complemented by a series of Use cases for AI in parliaments, which offer potential roadmaps for parliamentary AI adoption ガイドラインは、議会におけるAIのユースケース(使用事例)のシリーズによって補完されており、議会によるAI導入のロードマップとなる可能性がある。
A “use case” describes how a system should work. It is used to plan, develop and measure implementation. Use cases translate the abstract potential of AI into practical applications for parliamentary operations. 「ユースケース」とは、システムがどのように機能すべきかを説明するものである。これは、計画、開発、実施の評価に用いられる。ユースケースは、AIの抽象的な可能性を議会運営の実用的な応用に変換する。
The use cases cover how to use AI tools to support bill drafting and amendments, to improve the production of verbatim reports or subtitles for video content, and to support public engagement, particularly the analysis of large volumes of public submissions, as well as cybersecurity AI tools that support the development of secure parliamentary systems. ユースケースでは、AIツールをどのように使用して、法案のドラフトや修正をサポートするか、逐語報告書や動画コンテンツの字幕の作成を改善するか、また、特に大量の市民提出書類の分析といった市民参加をサポートするか、さらに、安全な議会システムの構築をサポートするサイバーセキュリティAIツールについても取り上げている。
The new resources were published by the IPU’s Centre for Innovation in Parliament in partnership with the Parliamentary Data Science Hub この新しいリソースは、IPUの議会イノベーションセンターが議会データサイエンスハブと共同で作成した。
They follow the adoption of a landmark resolution on The impact of artificial intelligence (AI) on democracy, human rights and the rule of law by IPU Member Parliaments at the 149th IPU Assembly in Geneva in October 2024 これは、2024年10月にジュネーブで開催された第149回国会でIPU加盟議会が採択した画期的な決議「民主主義、人権、法の支配に対する人工知能(AI)の影響」を受けて発表された。
The resolution, among other things, urges parliaments worldwide to swiftly develop and implement robust legal frameworks and policies for the responsible creation, deployment and use of AI technology. この決議では、とりわけ、AI技術の責任ある創造、展開、利用のための強固な法的枠組みと政策を迅速に開発し、実施するよう世界各国の議会に強く求めている。
It calls on parliaments to stay ahead of the curve in regulating AI, striking a balance between innovation and the protection of fundamental rights. また、議会に対しては、AIの規制において時代の先端を走り、イノベーションと基本的人権の防御のバランスを取ることを求めている。

 

 

Guidelines for AI in parliaments

Guidelines for AI in parliaments 議会におけるAIに関するガイドライン
Artificial intelligence (AI) presents significant opportunities for parliaments to enhance their operations and to become more efficient and effective, enabling them to better serve citizens. However, adopting AI introduces new challenges and presents risks that must be carefully managed. The Guidelines for AI in parliaments offer a comprehensive framework for parliaments to understand and implement AI responsibly and effectively. They provide practical guidance on the importance of a strategic approach, strong governance, ethical considerations and risk management. The Guidelines underscore the importance of using AI to augment and enhance human capability rather than replace it, especially in democratic deliberation and decision-making. 人工知能(AI)は、議会の業務を強化し、より効率的かつ効果的にすることで、市民により良いサービスを提供できるという大きな可能性を提示している。しかし、AIの導入には新たな課題がもたらされ、慎重に管理すべきリスクが生じる。議会におけるAIに関するガイドラインは、議会がAIを責任を持って効果的に理解し、導入するための包括的な枠組みを提供する。このガイドラインは、戦略的アプローチ、強力なガバナンス、倫理的配慮、リスクマネジメントの重要性に関する実践的な指針を提供する。ガイドラインは、特に民主的な審議や意思決定において、AIを人間の能力を代替するのではなく、増強し、強化するために活用することの重要性を強調している。
The Guidelines are published by the IPU in partnership with the Parliamentary Data Science Hub in IPU’s Centre for Innovation in Parliament. They follow the adoption of a landmark resolution on The impact of artificial intelligence (AI) on democracy, human rights and the rule of law by IPU member parliaments at the 149th IPU Assembly in Geneva in October 2024. For more information, please contact [mail]
.
本ガイドラインは、列国議会同盟(IPU)のイノベーションセンター内の議会データサイエンスハブとの提携によりIPUが発行した。これは、2024年10月にジュネーブで開催された第149回IPU総会において、IPU加盟議会が「民主主義、人権、法の支配に対する人工知能(AI)の影響」に関する画期的な決議を採択したことを受けたものである。詳細については、[mail] までお問い合わせください。
Download the full set of Guidelines for AI in parliaments in a single PDF file. 議会におけるAIに関するガイドラインの全文を1つのPDFファイルにまとめてダウンロードする。
See also the Use cases for AI in parliaments. 議会におけるAIのユースケースも参照のこと。

 

ガイドライン

Guidelines for AI in parliaments

Guidelines for AI in parliaments 議会におけるAIに関するガイドライン
Artificial intelligence (AI) presents significant opportunities for parliaments to enhance their operations and to become more efficient and effective, enabling them to better serve citizens. However, adopting AI introduces new challenges and presents risks that must be carefully managed. 人工知能(AI)は、議会の業務を強化し、より効率的かつ効果的にすることで、市民により良いサービスを提供できるという大きな可能性を提示している。しかし、AIの導入には新たな課題がもたらされ、慎重に管理すべきリスクが生じる。
The Guidelines for AI in parliaments offer a comprehensive framework for parliaments to understand and implement AI responsibly and effectively. They provide practical guidance on the importance of a strategic approach, strong governance, ethical considerations and risk management. The Guidelines underscore the importance of using AI to augment and enhance human capability rather than replace it, especially in democratic deliberation and decision-making. 議会におけるAIに関するガイドラインは、議会がAIを責任を持って効果的に理解し、導入するための包括的な枠組みを提供する。このガイドラインは、戦略的アプローチ、強力なガバナンス、倫理的配慮、リスクマネジメントの重要性について、実践的な指針を示す。特に民主的な審議や意思決定においては、AIを人間の能力を代替するのではなく、補強し強化するために活用することの重要性を強調している。
he Guidelines are published by the IPU in partnership with the Parliamentary Data Science Hub in IPU’s Centre for Innovation in Parliament. They follow the adoption of a landmark resolution on The impact of artificial intelligence (AI) on democracy, human rights and the rule of law by IPU member parliaments at the 149th IPU Assembly in Geneva in October 2024. For more information, please contact [mail]. 本ガイドラインは、IPUの議会イノベーションセンター内の議会データサイエンスハブとの提携によりIPUが発行する。これは、2024年10月にジュネーブで開催された第149回IPU総会において、IPU加盟議会が人工知能(AI)の民主主義、人権、法の支配への影響に関する画期的な決議を採択したことを受けたものである。詳細については、i [mail] までお問い合わせください。
Explore the web version of the Guidelines for AI in parliaments. ・議会におけるAIに関するガイドラインのウェブ版を参照する。
See also the Use cases for AI in parliaments. ・議会におけるAIのユースケースも参照する。

 

・[PDF]

20250108-32218

・[DOCX][PDF] 仮訳

 

目次...

Forewords まえがき
Introduction 序文
About the Guidelines ガイドラインについて
Key concepts  キーコンセプト
The role of AI in parliaments  議会におけるAIの役割
Risks and challenges for parliaments  議会のリスクと課題
Alignment with national and international AI frameworks and standards 国内および国際的な AI の枠組みや標準との整合
Inter-parliamentary cooperation for AI  AI のための列国議会同盟
Strategy  戦略
Strategic actions towards AI governance  AIガバナンスに向けた戦略的行動
Strategic actions towards AI governance: Policy and structure  AIガバナンスに向けた戦略的行動:政策と構造
Strategic actions towards AI governance: Strategy and innovation  AIガバナンスに向けた戦略的行動:戦略とイノベーション
Strategic actions towards AI governance: Stakeholder engagement  AIガバナンスに向けた戦略的行動:ステークホルダー・エンゲージメント
Strategic actions towards AI governance: Find out more  AIガバナンスに向けた戦略的行動:詳細
Generic risks and biases  一般的なリスクとバイアス
Generic risks and biases: Categories of risk  一般的なリスクとバイアス:リスクのカテゴリー
Generic risks and biases: Cognitive bias types  一般的なリスクとバイアス:認知バイアスの種類
Generic risks and biases: Data bias types  一般的なリスクとバイアス:データのバイアスの種類
Generic risks and biases: Processing and validation bias types  一般的なリスクとバイアス:処理バイアスと妥当性確認バイアス
Ethical principles  倫理原則
Ethical principles: Privacy  倫理原則:プライバシー
Ethical principles: Transparency  倫理原則:透明性
Ethical principles: Accountability  倫理原則:説明責任
Ethical principles: Fairness and non-discrimination 倫理原則:公正と無差別
Ethical principles: Robustness and safety  倫理原則:堅牢性と安全性
Ethical principles: Human autonomy and oversight  倫理原則:人間の自律性と監視
Ethical principles: Societal and environmental well-being  倫理原則:社会的・環境的幸福
Ethical principles: Intellectual property  倫理原則:知的財産権
Introducing AI applications  AIアプリケーションの紹介
Training for data literacy and AI literacy  データ・リテラシーとAIリテラシーのトレーニング
Training for data literacy and AI literacy: Data literacy in an AI context  データリテラシーとAIリテラシーのトレーニング:AIの文脈におけるデータリテラシー
Training for data literacy and AI literacy: Developing AI literacy  データリテラシーとAIリテラシーのトレーニング:AIリテラシーの育成100 
Planning and implementation  計画と実施
Project portfolio management  プロジェクト・ポートフォリオ管理
Project portfolio management: The STEP approach  プロジェクト・ポートフォリオ管理:STEPアプローチ
Data governance  データガバナンス
Data governance: Data quality  データガバナンス:データ品質
Data governance: Personal data protection  データガバナンス:個人データ保護
Data governance: Parliamentary context  データガバナンス:議会の背景
Data governance: Data management for AI systems  データガバナンス:AIシステムのデータ管理
Security management  セキュリティ管理
Security management: Parliamentary context  セキュリティ管理:議会の状況
Security management: Threats  セキュリティ管理:脅威
Security management: Good practices  セキュリティ管理:グッド・プラクティス
Security management: Implementing cybersecurity controls  セキュリティ管理:サイバーセキュリティ対策の実施
Risk management  リスクマネジメント
Risk management: Risk assessment questionnaires  リスクマネジメント:リスクアセスメントアンケート
Systems development  システム開発
Systems development: Systems life cycle and development frameworks  システム開発:システムライフサイクルと開発の枠組み
Systems development: Deployment and implementation  システム開発:展開と実装
Systems development: Deployment patterns  システム開発:展開パターン
Appendices  附属書
Glossary of terms  用語集

 

ユースケース

Use cases for AI in parliaments 議会におけるAIのユースケース
The Use cases have been developed by parliaments for their own use and are shared here to help others to plan, develop and measure the implementation of systems that use AI. A “use case” describes how a system should work. It is used to plan, develop and measure implementation. Use cases translate the abstract potential of AI into practical applications for parliamentary operations.  ユースケースは議会が自らの利用のために開発したものであり、AIを利用するシステムの計画、開発、実施の評価を他者が行う際に役立てるために、ここで共有されている。「ユースケース」とは、システムがどのように機能すべきかを説明するものである。ユースケースは、計画、開発、実施の評価に用いられる。ユースケースは、AIの抽象的な可能性を議会運営の実用的な応用に変換する。
The Use cases cover how to use AI tools to support bill drafting and amendments, to improve the production of verbatim reports or subtitles for video content, and to support public engagement, particularly the analysis of large volumes of public submissions, as well as cybersecurity AI tools that support the development of secure parliamentary systems. ユースケースは、AIツールをどのように利用して、法案のドラフトや修正をサポートし、逐語報告書やビデオコンテンツの字幕の作成を改善し、市民参加をサポートするか、特に大量の市民提出書類の分析、および安全な議会システムの構築をサポートするサイバーセキュリティAIツールについて取り扱っている。
The Use cases are published by the IPU in partnership with the Parliamentary Data Science Hub in IPU’s Centre for Innovation in Parliament. They follow the adoption of a landmark resolution on The impact of artificial intelligence (AI) on democracy, human rights and the rule of law by IPU member parliaments at the 149th IPU Assembly in Geneva in October 2024. For more information, please contact innovation@ipu.org. ユースケースは、列国議会同盟(IPU)の議会イノベーションセンター内の議会データサイエンスハブとの提携により、IPUが公開している。これらは、2024年10月にジュネーブで開催された第149回IPU総会で、IPU加盟議会が「民主主義、人権、法の支配に対する人工知能(AI)の影響」に関する画期的な決議を採択したことに続くものである。詳細については、innovation@ipu.orgまでお問い合わせください。
Download the full set of Use cases for AI in parliaments in a single PDF file. ・議会におけるAIのユースケースの全セットを1つのPDFファイルにまとめてダウンロードする。
See also the Guidelines for AI in parliaments. ・議会におけるAIのガイドラインも参照のこと。

 

・[PDF]

20250108-33450

 

目次...

Classification systems  分類システム 
Automatic classification of policy and control acts on government  政策および政府の管理行為の自動分類 
Automatic classification of legislative documents  立法文書の自動分類 
Tags and summaries of parliamentary reports  議会報告書のタグおよび要約 
Classification of input texts with predefined labels from the EuroVoc thesaurus  EuroVocシソーラスから事前に定義されたラベルを使用した入力テキストの分類 
Thematic classification of portal content  ポータルコンテンツのテーマ別分類 
Text classification based on multiple thesauruses  複数のシソーラスに基づくテキストの分類 
Entity recognition and tagging in legislative texts  立法文書における事業体認識およびタグ付け 
Targeted legislative text extraction and highlighting tool  立法文書の抽出およびハイライトツール 
Parliamentary act metadata extraction and summary generator  議会法メタデータの抽出および要約生成
Data normalization of historical parliamentary affairs and documents  過去の議会業務および文書のデータ正規化
Bill drafting and amendments  法案のドラフトおよび修正
Semi-automated production of verbatim reports of sittings using automatic speech recognition  自動音声認識を使用した会議の逐語記録の半自動生成
Automatic ordering of amendments from presentation order to voting order  修正の提示順から投票順への自動並べ替え
Computation of amendment similarity scores  修正の類似スコアの計算
Automatic production of summary notes for dossiers related to bills  法案に関連する案件の要約メモの自動生成
Distribution of demands from MPs among groups of lawmaking experts  国会議員の要求を立法専門家のグループに分配 
Retrieval of relevant documents for the lawmaking expert handling an MP’s demand  議員の要求を処理する立法専門家の関連文書の取得 
Semantic clustering of amendments  修正案のセマンティック・クラスタリング 
Document summarization for enhanced accessibility and comprehension  アクセシビリティと理解力を高めるための文書要約 
Extraction and marking of legal references  法的参照の抽出とマーキング 
Modification of the text of a law following the approval of an addition or amendment  追加または修正案の承認後の法律のテキストの修正 
Amendment and legislative text similarity assessment tool  修正案と立法文書の類似性アセスメントツール 
Automatic sequencing of the voting order on amendments  修正案の投票順序の自動シーケンス 
Drafting of amendments to legislative texts  立法文書の修正案のドラフト作成 
Entity recognition and tagging in legislative texts  立法文書における事業体認識とタグ付け 
Bill drafting assistant  法案作成アシスタント 
Quorum rating assistant  定足数評価アシスタント 
Argumentation assistant  論証アシスタント 
Admissibility assistant  許容性アシスタント 
Regulatory impact assistant  規制影響アシスタント 
Parliamentary debate assistant  議会討論アシスタント 
AI-powered MP attendance monitoring and real-time quorum calculation with advanced visualizations  AIによる議員の出席状況のモニタリングとリアルタイムの定足数計算(高度な視覚化機能付き) 
Transcription and translation 書き起こしと翻訳
Automatic subtitling of assembly sessions for WebTV ウェブTV用に議会セッションを自動字幕化
Automatic transcription of handwritten manuscripts from historical archives 歴史的アーカイブから手書き原稿を自動書き起こし
AI-powered verbatim records system (HANS) AI による逐語記録システム(HANS)
Speech-to-text transcription 音声からテキストへの書き起こし
Automatic transcription of parliamentary sessions 議会セッションの自動書き起こし
Creation of draft summary reports based on transcripts of parliamentary sessions 議会セッションの書き起こしに基づく要約レポートのドラフト作成
Generation of draft stenographic reports based on transcripts of parliamentary sessions 1 議会セッションの書き起こしに基づく速記録のドラフト生成 1
AI-enhanced parliamentary document translation system 1 AI 強化型議会文書翻訳システム 1
Summarizing of parliamentary documents and conversion into podcasts 1 議会文書の要約とポッドキャストへの変換 1
Audio-to-text parliamentary transcription system 1 音声からテキストへの議会書き起こしシステム 1
Chamber session summary assistant  議院セッションの要約アシスタント 
Committee session summary assistant  委員会セッション要約アシスタント 
Automated Hansard report system: Converting parliamentary audio to text using AI 114 Hansard voice-to-text conversion and review  自動化された議事録報告システム:AIを使用して議会の音声をテキストに変換 114 議事録の音声テキスト変換およびレビュー 
Chatbots and user support  チャットボットおよびユーザーサポート 
Chatbot for the parliamentary documentation website  議会文書ウェブサイト用チャットボット 
Chatbot for a better understanding of the process of a bill  法案のプロセスをより理解するためのチャットボット 
Chatbot for simplifying the comprehension of Italian laws  イタリアの法律の理解を簡素化するためのチャットボット 
Chatbot on security in the European Parliament  欧州議会におけるセキュリティに関するチャットボット 
AI-powered customer support chatbot  AI搭載のカスタマーサポートチャットボット 
AI-powered automated subtitling system  AIによる自動字幕システム 
Regulations and parliamentary allowances assistant  規則および議会手当アシスタント 
Current legal norms assistant  現行の法的規範アシスタント 
Invoice information extraction assistant  請求書情報抽出アシスタント 
Online parliamentary allowances data assistant  オンライン議会手当データアシスタント 
AI-powered parliamentary bill and document chatbot for enhanced legislative analysis 141 Automated assistant for parliamentary query resolutions  AIによる議会法案および文書チャットボットによる立法分析の強化 141 議会問い合わせ解決のための自動アシスタント 
Public engagement and open parliament  市民参加とオープン議会 
Analysis of citizens’ opinions on bills  法案に関する市民の意見分析 
Natural-language querying of parliament’s website  議会ウェブサイトへの自然言語による問い合わせ 
Website content navigation chatbot  ウェブサイトコンテンツナビゲーションチャットボット 
Natural-language querying of legislative processes and contents  立法プロセスおよびコンテンツに関する自然言語による問い合わせ
Natural-language querying of external data sources  外部データソースに関する自然言語による問い合わせ
Translation of natural-language queries into SPARQL queries for parliamentary open data 議会公開データに対する自然言語クエリのSPARQLクエリへの翻訳
Interactive AI-powered parliamentary data visualization with GraphRAG  GraphRAGによるAI搭載のインタラクティブな議会データの視覚化
Cybersecurity and application development  サイバーセキュリティおよびアプリケーション開発
Narrowing of the attack threshold for parliamentary applications  議会アプリケーションに対する攻撃のしきい値の縮小 

 

 

 

 

 

| | Comments (0)

2025.01.07

米国 GAO 人工知能:国土安全保障省は重要インフラ部門のリスク評価ガイダンスを改善する必要がある (2024.12.18)

こんにちは、丸山満彦です。

2024年の宿題シリーズはまだまだ続く...(^^;;

 

米国のGAOが国土安全保障省に、重要インフラを所管する省庁のリスク評価ガイダンスを改善する必要があると勧告していますね...2024年1月までに拡充用インフラ分野に対する初期リスク評価を提出する必要があったのだが、その内容が不十分(例えば、帆潜在的なリスク、特にリスクの発生可能性を特定していない。)であったようですね...

 

U.S. Government Accountability Office

・2024.12.18 Artificial Intelligence:DHS Needs to Improve Risk Assessment Guidance for Critical Infrastructure Sectors

Artificial Intelligence:DHS Needs to Improve Risk Assessment Guidance for Critical Infrastructure Sectors 人工知能:国土安全保障省は重要インフラセクターのリスクアセスメント指針を改善する必要がある
GAO-25-107435 GAO-25-107435
Fast Facts ファスト・ファクト
Artificial intelligence is complex and evolving. It could be used to improve the systems that operate critical infrastructure, like water and energy. But it could also make them more vulnerable to cyberattacks. 人工知能は複雑かつ進化している。水やエネルギーなどの重要インフラを運用するシステムの改善に利用できる可能性がある。しかし、サイバー攻撃に対する脆弱性を高める可能性もある。
Federal agencies that protect critical infrastructure had to assess AI risks to infrastructure sectors. But the Department of Homeland Security's guidance for assessments didn't have agencies fully measure how much harm an attack could cause or the probability of attacks. This information would help agencies address risks and foster responsible AI use. 重要なインフラを防御する連邦機関は、インフラ部門におけるAIのリスクを評価しなければならなかった。しかし、国土安全保障省のアセスメントに関する指針では、攻撃がどれほどの被害をもたらす可能性があるか、また攻撃の確率を完全に測定することはできなかった。この情報は、機関がリスクに対処し、責任あるAIの利用を促進するのに役立つ。
We recommended that DHS quickly update its guidance to address this. 私たちは、国土安全保障省がこの問題に対処するために、指針を迅速に更新することを勧告した。
Highlights ハイライト
What GAO Found GAOの調査結果
Federal agencies with a lead role in protecting the nation's critical infrastructure sectors are referred to as sector risk management agencies. These agencies, in coordination with the Department of Homeland Security's (DHS) Cybersecurity and Infrastructure Security Agency (CISA), were required to develop and submit initial risk assessments for each of the critical infrastructure sectors to DHS by January 2024. Although the agencies submitted the sector risk assessments to DHS as required, none fully addressed the six activities that establish a foundation for effective risk assessment and mitigation of potential artificial intelligence (AI) risks. For example, while all assessments identified AI use cases, such as monitoring and enhancing digital and physical surveillance, most did not fully identify potential risks, including the likelihood of a risk occurring. None of the assessments fully evaluated the level of risk in that they did not include a measurement that reflected both the magnitude of harm (level of impact) and the probability of an event occurring (likelihood of occurrence). Further, no agencies fully mapped mitigation strategies to risks because the level of risk was not evaluated. 米国の重要なインフラセクターの防御を主導する連邦機関は、セクターリスクマネジメント機関と呼ばれる。これらの機関は、国土安全保障省(DHS)のサイバーセキュリティ・インフラセキュリティ庁(CISA)と連携し、2024年1月までに、各重要なインフラセクターの初期リスクアセスメントをDHSに提出することが求められていた。各機関は、要求通りにセクターごとのリスクアセスメントをDHSに提出したが、効果的なリスクアセスメントと潜在的な人工知能(AI)リスクの緩和の基盤となる6つの活動すべてを網羅したものはなかった。例えば、すべてのアセスメントでAIのユースケース(デジタルおよび物理的な監視のモニタリングや強化など)が識別されていたが、ほとんどのアセスメントでは、リスク発生の可能性も含めた潜在的なリスクを完全に識別できていなかった。また、いずれのアセスメントも、被害の規模(影響レベル)と事象発生の確率(発生可能性)の両方を反映する測定値を含んでいないため、リスクのレベルを完全に評価できていない。さらに、リスクのレベルが評価されていないため、緩和戦略をリスクに完全にマッピングしている機関もない。
Extent to Which the Sector Risk Management Agencies (SRMA) Have Addressed Six Activities in Their Sector Risk Assessments of Artificial Intelligence (AI) セクターリスクマネジメント機関(SRMA)が人工知能(AI)のセクターリスクアセスメントにおける6つの活動にどの程度取り組んでいるか
1_20250107021901
Lead agencies provided several reasons for their mixed progress, including being provided only 90 days to complete their initial assessments. A key contributing factor was that DHS's initial guidance to agencies on preparing the risk assessments did not fully address all the above activities. 主導機関は、進捗状況がまちまちである理由として、初期アセスメントの完了までに90日間しか与えられていなかったことなど、いくつかの理由を挙げた。主な要因は、DHSがリスクアセスメントの準備に関して機関に最初に示した指針が、上記のすべての活動を十分に網羅していなかったことである。
DHS and CISA have made various improvements, including issuing new guidance and a revised risk assessment template in August 2024. The template addresses some—but not all—of the gaps that GAO found. Specifically, the new template does not fully address the activities for identifying potential risks including the likelihood of a risk occurring. CISA officials stated that the agency plans to further update its guidance in November 2024 to address the remaining gaps. Doing so expeditiously would enable lead agencies to use the updated guidance for their required January 2025 AI risk assessments. DHSとCISAは、2024年8月に新たな指針と改訂版リスクアセスメントテンプレートを発行するなど、さまざまな改善を行ってきた。このテンプレートは、GAOが発見したギャップの一部(すべてではない)に対処している。具体的には、新しいテンプレートでは、リスク発生の可能性を含む潜在的なリスクの識別活動が十分にカバーされていない。CISA当局者は、残されたギャップに対処するために、2024年11月にガイダンスをさらに更新する計画であると述べた。迅速に更新すれば、主導機関は2025年1月に義務付けられているAIリスクアセスメントに更新されたガイダンスを使用できるようになる。
Why GAO Did This Study GAOがこの調査を実施した理由
AI has the potential to introduce improvements and rapidly change many areas. However, deploying AI may make critical infrastructure systems that support the nation's essential functions, such as supplying water, generating electricity, and producing food, more vulnerable. In October 2023, the President issued Executive Order 14110 for the responsible development and use of AI. The order requires lead federal agencies to evaluate and, beginning in 2024, annually report to DHS on AI risks to critical infrastructure sectors. AIは、多くの分野に改善をもたらし、急速に変化させる可能性がある。しかし、AIの展開は、水の供給、発電、食糧生産など、国家の重要な機能を支える重要なインフラシステムをより脆弱にする可能性がある。2023年10月、大統領はAIの責任ある開発と利用を目的とした大統領令14110を発令した。この大統領令は、主導的な連邦機関がAIの重要なインフラセクターへのリスクを評価し、2024年から毎年DHSに報告することを求めている。
GAO's report examines the extent to which lead agencies have evaluated potential risks related to the use of AI in critical infrastructure sectors and developed mitigation strategies to address the identified risks. To do so, GAO analyzed federal policies and guidance to identify activities and key factors for developing AI risk assessments. GAO analyzed lead agencies' 16 sector and one subsector risk assessments against these activities and key factors. GAO also interviewed officials to obtain information about the risk assessment process and plans for future templates and guidance. GAOの報告書は、主導機関が重要インフラ部門におけるAIの利用に関連する潜在的なリスクをどの程度評価し、特定されたリスクに対処するための緩和戦略をどの程度策定したかを検証している。そのために、GAOは連邦政府の政策と指針を分析し、AIリスクアセスメント策定のための活動と主要な要因を識別した。GAOは、これらの活動と主要な要因に照らして、主導機関の16部門と1つのサブセクターのリスクアセスメントを分析した。GAOはまた、関係者へのインタビューを行い、リスクアセスメントのプロセスや今後のテンプレートやガイダンスに関する計画に関する情報を入手した。
Recommendations 勧告
GAO is recommending that DHS act quickly to update its guidance and template for AI risk assessments to address the remaining gaps identified in this report. DHS agreed with our recommendation and stated it plans to provide agencies with additional guidance that addresses gaps in the report including identifying potential risks and evaluating the level of risk. GAOは、本報告書で特定された残りのギャップに対処するために、AIリスクアセスメントのガイダンスとテンプレートを更新するよう、DHSが迅速に行動することを勧告している。DHSは、我々の勧告に同意し、潜在的なリスクの識別やリスクレベルの評価など、報告書で特定されたギャップに対処する追加のガイダンスを各機関に提供する計画であると述べた。
Recommendations for Executive Action 行政措置に関する勧告
Agency Affected 影響を受ける機関
Department of Homeland Security 国土安全保障省
Recommendation 勧告
The Secretary of Homeland Security should expeditiously update its guidance and template for AI risk assessments to address the gaps identified in this report, including activities such as identifying potential risks and evaluating the level of risk, and ensure that the updates are shared with all the SRMAs. 国土安全保障長官は、潜在的なリスクの識別やリスクレベルの評価などの活動を含め、本報告書で特定されたギャップに対処するために、AIリスクアセスメントの指針とテンプレートを速やかに更新すべきである。また、その更新内容をすべてのSRMAと共有することを確実にすべきである。

 

全文

・[HTML]

目次...

Highlights ハイライト
Why GAO Did This Study GAOがこの研究を行った理由
What GAO Recommends GAOの提言
What GAO Found GAOの調査結果
Letter 書簡
Background 背景
SRMAs' Initial AI Risk Assessments Did Not Incorporate All Aspects of Risk Identification and Mitigation SRMAの初期AIリスクアセスメントでは、リスクの特定と緩和のすべての側面が組み込まれていなかった
Conclusions 結論
Recommendation for Executive Action 行政措置に関する提言
Agency Comments 政府機関のコメント
Appendix I: Beneficial Uses for AI in Critical Infrastructure 附属書I:重要インフラにおけるAIの有益な利用
Appendix II: Comments from the Department of Homeland Security 附属書II:国土安全保障省からのコメント
Appendix III: Comments from the Department of Defense 附属書III:国防総省からのコメント
Appendix IV: GAO Contacts and Staff Acknowledgments 附属書 IV:GAO 連絡先およびスタッフ謝辞
GAO Contacts GAO 連絡先
Staff Acknowledgments スタッフ謝辞

 

・[PDF]

20250107-21650

 

ハイライト

・[PDF

20250107-21955

 

| | Comments (0)

CSA 金融業界におけるサイバーレジリエンス 2024年調査報告書 (2024.12.09)

こんにちは、丸山満彦です。

2024年の宿題シリーズはまだまだ続く...(^^;;

Cloud Security Allianceが金融業界におけるサイバーレジリエンス 2024年調査報告書を公表していますね...

金融業界は製造業の工場にあたるのが、情報システムという感じですから、過去から情報システムの管理については企業努力もしてきているし、社会的な影響も踏まえて、規制当局も適切な規制を心掛けてきているしで、他の業界に比べて、サイバーセキュリティ対策も含めた情報システム関連んのリスク対応はできているイメージですね...

この調査報告書は、参考になる部分も多いように思いました...

 

Cluod Security Alliance

・2024.12.09 Cyber Resiliency in the Financial Industry 2024 Survey Report

 

主な調査結果...
  • 複雑な金融規制環境による運用戦略の簡素化
  • 金融機関、運用レジリエンスのためにクラウドを活用
  • 金融機関のクラウド利用における最大の懸念は顧客管理
  • 生成的AIで最も懸念されるのはデータ・プライバシーと完全性

 

・本文

20250107-13108

 

・プレゼン

20250107-13222

 

Executive Summary エグゼクティブサマリー
• Data Resiliency Priorities ・データレジリエンスの優先事項
• The financial industry’s digital transformation highlights data resiliency and operational security challenges, especially given strict regulations and rising cyber threats. ・金融業界のデジタルトランスフォーメーションは、特に厳しい規制やサイバー脅威の高まりを踏まえ、データレジリエンスと運用セキュリティの課題を浮き彫りにしている。
• Survey Insights ・調査結果
• Based on responses from 872 security practitioners, the report compares data resiliency between financial institutions (FIs) and non-financial institutions (non-FIs), focusing on frameworks, cloud strategies, and regional challenges. ・本報告書では、872名のセキュリティ実務者からの回答に基づき、金融機関(FIs)と非金融機関(non-FIs)のデータレジリエンスを、枠組み、クラウド戦略、地域別の課題に焦点を当てて比較している。
• Confidence in Regulatory Compliance ・規制遵守への自信
• FIs show higher confidence in meeting regulatory requirements than non-FIs, though they emphasize continuous improvement. ・金融機関は非金融機関よりも規制要件への対応に高い自信を示しているが、継続的な改善を重視している。
• Cloud Adoption Trends ・クラウド導入の傾向
• FIs are adopting cautious yet evolving cloud strategies, with growing interest in multi-cloud setups to avoid vendor lock-in and enhance data sovereignty. ・金融機関は慎重ながらも進化するクラウド戦略を採用しており、ベンダーロックインを回避し、データ主権を強化するためのマルチクラウドセットアップへの関心が高まっている。
• Generative AI Concerns ・生成的AIへの懸念
• While generative AI is promising, FIs remain cautious about data accuracy, privacy, and potential misuse. Governance frameworks are essential to ensure regulatory compliance and mitigate risks. ・生成的AIは有望であるが、金融機関はデータの正確性、プライバシー、悪用の可能性について慎重な姿勢を崩していない。ガバナンスの枠組みは、規制コンプライアンスを確保し、リスクを緩和するために不可欠である。
• Regional Challenges ・地域別の課題
• North America faces significant cloud data resiliency challenges despite advanced infrastructure, while Europe benefits from GDPR’s stringent regulations. Asia’s challenges vary due to differing regulatory environments. ・北米は先進的なインフラにもかかわらず、クラウドデータのレジリエンスという大きな課題に直面しているが、欧州はGDPRの厳しい規制の恩恵を受けている。アジアでは規制環境が異なるため、課題も様々である。
• Technological Integration ・技術的統合
• FIs are enhancing resiliency with advanced technologies like containerization and serverless computing, emphasizing regular policy reviews and security assessments beyond regulatory mandates. ・金融機関は、コンテナ化やサーバーレス・コンピューティングのような先進技術でレジリエンスを強化し、規制の義務付けを超えて、定期的なポリシー・レビューやセキュリティ・アセスメントを重視している。
• Key Findings Summary ・主な調査結果の概要
• Regulatory Frameworks Simplify Operations: Regulatory guidelines streamline operations and reduce complexity for FIs. ・規制の枠組みは業務を簡素化する: 規制ガイドラインは業務を合理化し、金融機関の複雑さを軽減する。
• Cloud for Operational Resiliency: FIs use cloud for disaster recovery and continuity, favoring multi-cloud for flexibility and risk management ・業務レジリエンスのためのクラウド: 金融機関はディザスタリカバリと継続性のためにクラウドを利用し、柔軟性とリスクマネジメントのためにマルチクラウドを好む。
Key Finding 1: Complex Financial Regulatory Environments Simplify Operational Strategies 主な調査結果1:複雑な金融規制環境が運用戦略を簡素化する
• Regulatory Frameworks Simplify Resiliency Strategies ・規制枠組みがレジリエンス戦略を簡素化する
• Financial institutions (FIs) predominantly use frameworks like NIST Cybersecurity Framework (67%) compared to non-FIs (39%), due to its comprehensive approach to security and risk management. ・金融機関(FIs)は、NISTサイバーセキュリティ・フレームワーク(67%)のような枠組みを主に使用している。
• ISO 27001 (49%) and PCI DSS (43%) are also widely adopted frameworks with FIs showing higher adoption rates than non-FIs, indicating the importance of standardized frameworks for payment processing and data protection. ・ISO 27001(49%)やPCI DSS(43%)も広く採用されている枠組みで、FIは非FIよりも高い採用率を示しており、決済処理やデータ保護における標準化された枠組みの重要性を示している。
• Regional Regulatory Impact ・地域規制の影響
• Europe’s DORA and GDPR regulations have reduced operational difficulties for FIs, while Australia's Prudential Standard CPS 230 emphasizes third-party risk management. ・欧州のDORA規制とGDPR規制はFIにとって業務上の困難を軽減し、オーストラリアのプルデンシャル・スタンダードCPS230はサードパーティリスク管理を重視している。
• 59% of FIs operate in North America, where 55% face cloud resiliency challenges despite mature infrastructure. Europe shows fewer issues (52%) due to stringent regulations, while Africa and the Middle East struggle with infrastructure gaps. ・59%の金融機関は北米で事業を展開しており、55%が成熟したインフラにもかかわらずクラウドレジリエンスの課題に直面している。ヨーロッパでは、厳しい規制のために問題が少ない(52%)が、アフリカと中東ではインフラのギャップに苦慮している。
• Cloud Adoption Strategies ・クラウド導入戦略
• 78% of FIs use a single cloud provider for simplicity, with multi-cloud strategies gradually gaining traction to enhance resiliency and avoid vendor lock-in. ・78%の金融機関はシンプルさを求めて単一のクラウドプロバイダーを利用しているが、レジリエンスを強化しベンダーロックインを回避するため、マルチクラウド戦略が徐々に浸透しつつある。
• Challenges in cloud adoption include misconfiguration risks, integration complexity, IAM, and cost management. ・クラウド導入の課題としては、設定ミスのリスク、統合の複雑さ、IAM、コストマネジメントなどが挙げられる。
• Cloud Data Resiliency ・クラウドデータのレジリエンス
• North America faces significant cloud resiliency challenges despite advanced infrastructure. ・北米は、先進的なインフラにもかかわらず、クラウドのレジリエンスという大きな課題に直面している。
• Europe benefits from strong regulations like GDPR, while Asia has robust infrastructure but varying regulatory demands. ・欧州はGDPRのような強力な規制の恩恵を受け、アジアは強固なインフラを持つが、規制上の要求は様々である。
• Africa and the Middle East face notable challenges due to gaps in cloud infrastructure. ・アフリカと中東は、クラウドインフラストラクチャの格差により、顕著な課題に直面している。
• Advanced Technologies for Resiliency ・レジリエンスのための先進技術
• FIs are increasingly adopting containerization and serverless computing to improve operational efficiency and workload portability. ・金融機関は、運用効率とワークロードのポータビリティを改善するため、コンテナ化とサーバーレス・コンピューティングの採用を増やしている。
• Multi-cloud strategies help mitigate risks by distributing workloads and reducing single points of failure, enhancing disaster recovery. ・マルチクラウド戦略は、ワークロードを分散し単一障害点を減らすことでリスクを緩和し、ディザスタリカバリを強化するのに役立つ。
• Executive Insights ・経営幹部の洞察
• CISOs note the regulatory landscape (e.g., EU Artificial Intelligence Act) and cost factors as driving forces behind cautious cloud adoption. Multi-cloud may gain popularity in response to concentration risk and regulatory scrutiny. ・CISOは、クラウド導入に慎重である原動力として、規制の状況(EU人工知能法など)やコスト要因を指摘している。マルチクラウドは、集中リスクや規制の監視に対応するために普及する可能性がある。
• Regional differences in operational challenges suggest a need for tailored strategies in cloud resilience and compliance. ・運用上の課題における地域差は、クラウドのレジリエンスとコンプライアンスにおいて、個々の企業に合わせた戦略が必要であることを示唆している。
• Confidence in Meeting Regulatory Requirements ・規制要件を満たす自信
• FIs maintain moderate confidence (3.5/5) in meeting regulatory requirements, but continuous improvement, budget allocation, and regional compliance are necessary to ensure resiliency. ・金融機関は、規制要件を満たすことに中程度の自信(3.5/5)を維持しているが、レジリエンスを確保するためには、継続的な改善、予算配分、地域ごとのコンプライアンスが必要である。
Key Finding 2: Financial Institutions Embrace Cloud for Operational Resiliency 主な調査結果2:金融機関はオペレーショナル・レジリエンスのためにクラウドを採用している。
• Cloud Adoption for Operational Resiliency ・オペレーショナル・レジリエンスのためのクラウド導入
• Financial institutions (FIs) are increasingly using cloud technologies to improve disaster recovery (60%) and infrastructure scalability (58%) compared to non-financial institutions (36% and 41%, respectively). ・金融機関(FIs)は、非金融機関(それぞれ36%、41%)と比較して、ディザスタリカバリ(60%)とインフラのスケーラビリティ(58%)を改善するためにクラウドテクノロジーの利用を増やしている。
• FIs face regulatory pressure to audit and demonstrate cloud operational resiliency, leading to more cautious and adjusted cloud security strategies. ・金融機関は、クラウドの運用レジリエンスを監査し、実証するよう規制当局から圧力を受けており、クラウドのセキュリティ戦略をより慎重に調整するようになっている。
• Cloud Adoption Challenges in Cloud Resiliency ・クラウド・レジリエンスにおけるクラウド導入の課題
• FIs struggle with cloud architecture misconfigurations (62%), integrating third-party services (52%), and managing identity and access systems (35%). ・金融機関は、クラウドアーキテクチャの誤設定(62%)、サードパーティ・サービスの統合(52%)、アイデンティティとアクセス・システムの管理(35%)に苦慮している。
• Encryption of data at rest and in transit is a greater challenge for FIs (26%) than non-FIs (16%). ・静止時および転送時のデータの暗号化は、非金融機関(16%)よりも金融機関(26%)の方が大きな課題となっている。
• Sector-Specific Customer Challenges ・セクター特有の顧客の課題
• FIs emphasize audit and compliance (44%), focusing on regulatory requirements, while non-FIs face more challenges with privacy concerns related to personally identifiable information (PII) and staff expertise. ・金融機関は監査とコンプライアンスを重視し(44%)、規制要件に重点を置いているが、非金融機関は個人を特定できる情報(PII)やスタッフの専門知識に関連するプライバシーへの懸念がより大きな課題となっている。
• Cost and legal enforcement are significant challenges across both sectors when working with cloud service providers. ・クラウド・サービス・プロバイダとの協業においては、コストと法的強制力が両セクターに共通する大きな課題となっている。
• Proactive and Collaborative Approach ・積極的かつ協力的なアプローチ
• The financial industry relies on pre-planning, collaboration, and participation in groups like FS-ISAC to tackle cloud security challenges, ensuring effective security and integration with third-party CSPs. ・金融業界は、クラウドセキュリティの課題に取り組み、効果的なセキュリティとサードパーティCSPとの統合を確保するために、事前の計画、コラボレーション、FS-ISACのようなグループへの参加を頼りにしている。
• Executive Perspective ・経営者の視点
• Industry leaders recognize the need for continuous improvement in managing third-party CSP risks, even when meeting existing compliance standards like PCI DSS and FedRAMP, highlighting a need for vigilance in the evolving cloud landscape. ・業界のリーダーたちは、PCI DSSやFedRAMPといった既存のコンプライアンス標準を満たしている場合でも、サードパーティCSPのリスクマネジメントを継続的に改善する必要性を認識しており、進化するクラウド・ランドスケープにおける警戒の必要性を強調している。
Key Finding 3: Top Concerns for Cloud are within the Customer’s Control 主な調査結果3:クラウドに関する最大の懸念事項は顧客の管理範囲にある
• Internal Cloud Security Challenges ・社内のクラウドセキュリティの課題
• FIs face internal challenges such as cloud and cybersecurity skills gaps (49%), lack of internal security strategies (33%), and inadequate Identity and Access Management (IAM) systems (31%), all critical to data resiliency. ・金融機関は、クラウドやサイバーセキュリティのスキル格差(49%)、社内セキュリティ戦略の欠如(33%)、ID・アクセス管理(IAM)システムの不備(31%)といった社内の課題に直面しており、これらはすべてデータのレジリエンスに不可欠なものである。
• Addressing these gaps involves continuous training, recruiting specialized talent, and enhancing security strategies through automated configuration management and threat intelligence integration. ・これらのギャップに対処するには、継続的なトレーニング、専門人材の採用、自動化された構成管理と脅威インテリジェンスの統合によるセキュリティ戦略の強化が必要である。
• Key Security Practices ・主なセキュリティ対策
• FIs use robust security strategies, including encryption, Security Information and Event Management (SIEM), and Data Loss Prevention (DLP) solutions to safeguard data. ・金融機関はデータを保護するために、暗号化、セキュリティ情報・イベント管理(SIEM)、データ損失防止(DLP)ソリューションなど、堅牢なセキュリティ戦略を使用している。
• Misconfigurations are a top concern, necessitating automated tools and continuous monitoring to prevent vulnerabilities. ・設定ミスは最大の懸念事項であり、脆弱性を防ぐための自動化ツールと継続的なモニタリングが必要である。
• Incident Response & Policy Review ・インシデント対応とポリシーの見直し
• Regular risk assessments and incident response drills are essential for maintaining operational resiliency. ・定期的なリスクアセスメントとインシデント対応訓練は、オペレーションのレジリエンスを維持するために不可欠である。
• FIs conduct more frequent policy reviews than non-FIs to align with evolving threats and regulatory mandates, with 60% of FIs conducting annual reviews compared to 44% of non-FIs. ・金融機関は、進化する脅威や規制上の義務に対応するため、非金融機関よりも頻繁にポリシーの見直しを行っており、非金融機関の44%に対し、金融機関の60%が毎年見直しを行っている。
• Data Localization & SLAs ・データのローカライズとSLA
• Data localization requirements influence cloud deployment strategies, especially in regulated environments. ・データのローカライゼーション要件は、特に規制環境におけるクラウド展開戦略に影響を与える。
• FIs emphasize SLAs to ensure operational continuity and compliance, with increased flexibility in SLAs noted in recent years to address recovery time objectives and availability requirements. ・金融機関は、業務の継続性とコンプライアンスを確保するためにSLAを重視しており、近年は復旧時間の目標や可用性要件に対応するためにSLAの柔軟性が高まっていると指摘されている。
• Cybersecurity in Contract Negotiations ・契約交渉におけるサイバーセキュリティ
• 81% of FIs report that cybersecurity professionals are involved in contract negotiations, particularly for new applications, to strengthen third-party risk management and security posture. ・81%の金融機関は、サードパーティのリスクマネジメントとセキュリティ体制を強化するために、特に新しいアプリケーションの契約交渉にサイバーセキュリティの専門家が関与していると報告している。
• Continuous Auditing & Monitoring ・継続的な監査とモニタリング
• Regular audits and monitoring are essential for regulatory compliance, with a focus on maintaining data integrity and operational resilience. ・定期的な監査とモニタリングは、データの完全性とオペレーションのレジリエンスの維持に重点を置いた規制遵守のために不可欠である。
• Incident response planning, annual IRP testing (40% of FIs), and continuous monitoring allow FIs to adapt to security threats proactively. ・インシデント対応計画、年次IRPテスト(金融機関の40%)、継続的なモニタリングにより、金融機関はセキュリティの脅威にプロアクティブに対応することができる。
• Executive Insights ・経営幹部の洞察
• Misconfiguration and IAM remain top threats in cloud environments, highlighting the need for vigilance in cloud security strategies. ・クラウド環境では、設定ミスやIAMが依然として最大の脅威となっており、クラウドセキュリティ戦略における警戒の必要性が浮き彫りになっている。
• Proactive measures like industry collaboration (FS-ISAC) and continuous improvement are key to navigating third-party cloud security challenges. ・業界連携(FS-ISAC)や継続的改善のような積極的な対策が、サードパーティーのクラウドセキュリティの課題を乗り切る鍵となる。
Key Finding 4: Data Privacy and Integrity is the Top Concern with Generative AI 主な調査結果4:データ・プライバシーと完全性は生成的AIにおける最大の懸念事項である。
• Primary Concern: Data Privacy and Integrity ・主な懸念事項 データ・プライバシーと完全性
• For financial institutions (FIs), data privacy and integrity are critical when using generative AI, with 26% citing this as their top issue, alongside concerns about AI misuse for cyber attacks (20%). ・金融機関(FIs)にとって、生成的AIを使用する場合、データ・プライバシーと完全性は非常に重要であり、サイバー攻撃へのAIの悪用に関する懸念(20%)と並んで、26%がこれを最重要課題として挙げている。
• Challenges of Generative AI ・生成的AIの課題
• Generative AI poses risks of biased outputs, regulatory compliance issues, and heightened vulnerability to cyber threats, requiring strong data governance to avoid biased or inaccurate AI-driven decisions. ・生成的AIは、偏った出力、規制遵守の問題、サイバー脅威に対する脆弱性の高まりといったリスクをもたらすため、AI主導の偏った、あるいは不正確な意思決定を回避するための強力なデータガバナンスが必要となる。
• AI Misuse Risks ・AIの悪用リスク
• AI can enable sophisticated phishing and deepfake attacks, making cyber threats more difficult to detect and defend against. ・AIは高度なフィッシング攻撃やディープフェイク攻撃を可能にし、サイバー脅威の検知と防御をより困難にする。
• Mitigation Strategies ・緩和戦略
• FIs use AI to enhance fraud detection, customer service, risk modeling, and document processing but emphasize the need for diverse datasets, human oversight, and robust security measures like data anonymization. ・金融機関はAIを不正検知、顧客サービス、リスクモデリング、文書処理の強化に活用しているが、多様なデータセット、人間による監視、データの匿名化などの強固なセキュリティ対策の必要性を強調している。
• Future AI Trends ・今後のAI動向
• Key trends include the need for explainable AI, AI-driven compliance tools, advanced cybersecurity measures, and a strong focus on ethical and transparent AI practices. ・主なトレンドとしては、説明可能なAI、AI主導のコンプライアンス・ツール、高度なサイバーセキュリティ対策、倫理的で透明性の高いAIプラクティスの重視などが挙げられる。
• Privacy Management Frameworks ・プライバシー管理の枠組み
• Tools like the NIST AI Risk Management Framework provide structured approaches to manage privacy, security, and regulatory compliance in generative AI. ・NIST AIリスクマネジメントフレームワークのような枠組みは、生成的AIにおけるプライバシー、セキュリティ、規制コンプライアンスを管理するための構造化されたアプローチを提供する。
• Executive Perspective ・経営幹部の視点
• Data privacy remains the top concern for FIs as regulatory and technology landscapes evolve, requiring continuous strategy updates to balance privacy with AI benefits. ・規制やテクノロジーの進化に伴い、データ・プライバシーは金融機関にとって依然として最大の関心事であり、プライバシーとAIのメリットのバランスを取るための継続的な戦略の更新が必要である。
Conclusion 結論
• Core Focus Areas for Data Resiliency ・データレジリエンスの中核となる分野
• FIs prioritize regulatory compliance, cloud strategy, regional considerations, and continuous security improvements to enhance operational resiliency in a complex regulatory environment. ・金融機関は、複雑な規制環境の中でオペレーションのレジリエンスを強化するために、規制遵守、クラウド戦略、地域的配慮、継続的なセキュリティ改善を優先する。
• Executive Priorities ・経営幹部の優先事項
• C-level executives in FIs focus on regulatory compliance, disaster recovery, and infrastructure scalability, with strong reliance on frameworks like NIST CSF and PCI DSS for streamlined compliance. ・金融機関のCレベル幹部は、規制コンプライアンス、災害復旧、インフラの拡張性に重点を置いており、コンプライアンスを合理化するためにNIST CSFやPCI DSSのような枠組みに強く依存している。
• Cloud Adoption Strategies ・クラウド導入戦略
• FIs generally prefer single-cloud provider (CSP) strategies for simplicity and cost-effectiveness, while non-FIs adopt multi-cloud to avoid vendor lock-in and leverage regional flexibility. ・一般的に、金融機関はシンプルさと費用対効果の観点からシングル・クラウド・プロバイダー(CSP)戦略を好むが、非金融機関はベンダーのロックインを回避し、地域の柔軟性を活用するためにマルチクラウドを採用している。
• Top Cloud Security Threats ・クラウドセキュリティの脅威
• Key risks include data breaches, misconfigurations, and insecure interfaces, as highlighted in CSA’s Top Threats to Cloud Computing report. Comprehensive cloud security strategies and regular security assessments are essential to address these. ・主なリスクには、CSAの「クラウド・コンピューティングの主な脅威(Top Threats to Cloud Computing)」レポートで強調されているように、データ漏洩、設定ミス、安全でないインターフェースなどがある。これらに対処するには、包括的なクラウドセキュリティ戦略と定期的なセキュリティアセスメントが不可欠である。
• Resilience Planning Framework ・レジリエンス計画の枠組み
• The CISA Infrastructure Resilience Planning Framework (IRPF) supports FIs in building resilient infrastructures capable of withstanding and recovering from cyber attacks. ・CISAのレジリエンス・プランニング・フレームワーク(IRPF)は、金融機関がサイバー攻撃に耐え、回復できるレジリエンス・インフラを構築することを支援する。
• Industry Balance of Compliance and Innovation ・コンプライアンスとイノベーションの業界バランス
• The financial industry's approach requires balancing regulatory adherence, tech adoption, and strategic planning to manage evolving cyber threats and operational challenges effectively. ・金融業界のアプローチでは、進化するサイバー脅威と業務上の課題を効果的に管理するために、規制の遵守、技術導入、戦略的計画のバランスをとることが必要である。
Survey Creation and Methodology 調査の作成と方法
• Survey by CSA and DTCC ・CSAとDTCCによる調査
• The Cloud Security Alliance (CSA) and DTCC co-developed a survey to understand cyber resiliency challenges, focusing on the financial industry's response to cloud security and operational threats. ・クラウド・セキュリティ・アライアンス(CSA)とDTCCは、クラウドセキュリティと運用上の脅威に対する金融業界の対応に焦点を当て、サイバーレジリエンスの課題を理解するための調査を共同で実施した。
• Survey Purpose ・調査の目的
• The survey aimed to evaluate operational resilience frameworks, analyze cloud adoption strategies, and assess key cybersecurity challenges, including the impact of AI and generative AI on financial institutions. ・本調査の目的は、運用レジリエンスの枠組みを評価し、クラウド導入戦略を分析し、AIや生成的AIが金融機関に与える影響など、サイバーセキュリティ上の主な課題を評価することである。
• Participants ・参加者
• Conducted in April 2024, the survey gathered responses from 872 IT and security professionals across organizations of various sizes and regions, comparing insights from financial institutions (FIs) and non-financial institutions (non-FIs). ・調査は2024年4月に実施され、金融機関(FIs)と非金融機関(non-FIs)の知見を比較しながら、さまざまな規模・地域の組織のITおよびセキュリティの専門家872人から回答を得た。
• Data Analysis ・データ分析
• The CSA Financial Leadership Committee, Research Team, and Data Security Working Group performed data analysis to highlight key trends and differences between FIs and non-FIs in cyber resiliency practices. ・CSA 金融リーダーシップ委員会、調査チーム、データセキュリティ作業部会は、サイバーレジリエンスの実践における金融機関と非金融機関の主な傾向や相違点を浮き彫りにするため、データ分析を実施した。

 

 

 

| | Comments (0)

CSA スタートアップ企業のためのクラウドセキュリティ 2024 (2024.12.18)

こんにちは、丸山満彦です。

2024年の宿題シリーズはまだまだ続く...(^^;;

Cloud Security Allianceがスタートアップ企業のためのクラウドセキュリティ 2024を公表していますね...

スタートアップ企業は、セキュリティチームや開発チームが小規模で、予算も限られていることが多い一方、顧客や利害関係者は、短期間で完全な成熟度を達成すると同時に、そのプロセス全体を通じてセキュリティを確保することを期待している。

急速な成長には、技術革新、スピード、効率性、強固なセキュリティ対策の微妙なバランスが必要であるため、スタートアップ企業に特化したセキュリティ・ガイドラインが必要であるということで、(私は見逃していましたが、)2017年に第1版にあたるCloud Security for Startups という文書のを発表した。

今回は、特にSaaSベースのスタートアップ企業に焦点を当てた、より包括的なガイダンスとして、第2版を公表することにしました...ということのようです。。。

特にエンタープライズレベルのセキュリティ成熟度を達成するために必要な戦略的意思決定戦術的提言に重点を置いているとのことです...

また、新興企業の資金調達ラウンドの構造化されていない性質や、急速に成長する企業の進化する能力についても考察しているとのことです...


Cluod Security Alliance

・2024.12.18 Cloud Security for Startups 2024

主な要点:
  • スタートアップの開発フェーズの特徴
  • 適切なクラウドプラットフォームの選び方
  • クラウドプロバイダとセキュリティ責任を共有する方法
  • 初期アーキテクチャの構築方法
  • 安全なソフトウェア開発ライフサイクルの段階
  • セキュリティ管理のベストプラクティス
  • ガバナンス、リスク、コンプライアンスのベストプラクティス
  • セキュリティモニタリングとインシデント対応のベストプラクティス
  • AI、ゼロ・トラスト、量子コンピューティングに関する考察

20250105-172006

・[DOCX][PDF]仮訳

 

 

| | Comments (0)

2025.01.06

日本銀行金融研究所 「デジタルマネー提供者における情報の取扱いとその規範を巡る法律問題研究会」報告書集積情報の利用と法的課題

こんにちは、丸山満彦です。

2024年の宿題シリーズはまだまだ続く...(^^;;

日本銀行金融研究所が、「デジタルマネー提供者における情報の取扱いとその規範を巡る法律問題研究会」報告書集積情報の利用と法的課題を公表していますね...

デジタルマネー(前払式支払手段と資金移動マネー)提供者が保有する決済情報に対する注目が高まっていることから、デジタルマネー提供者にとって法的不確実性がない形での情報利用のあり方を検討...

集積情報の利用に伴う以下の法的課題を検討

  • デジタルマネー提供者と利用者との関係(プロファイリング)
    • 対象者のプライバシーとの関係で問題になりにくい類型
    • 取引法上考慮が必要と思われる点
  • デジタルマネー提供者と加盟店との関係(私法と競争法の課題)
  • グループによる情報共有(個人情報保護法の共同利用)

 

●  日本銀行金融研究所

・2024.12.13 「デジタルマネー提供者における情報の取扱いとその規範を巡る法律問題研究会」報告書 —— 集積情報の利用と法的課題 ——

 


デジタルマネーの利用が進むなか、デジタルマネー提供者が保有する決済情報に対する注目が高まっている。デジタルマネーの決済情報はグループで運営されるビジネスにおいて集積する情報の重要な構成要素として、さまざまな用途で利用が見込まれる。利用者や加盟店の権利利益を保護しつつ、デジタルマネー提供者にとって法的不確実性がない形での情報利用のあり方を検討する意義は大きい。

本報告書では、決済情報の性質や契約・法令といった情報利用に関する法的枠組みを整理したうえで、デジタルマネー提供者と利用者との関係、デジタルマネー提供者と加盟店との関係、グループによる情報共有の3つの場面において、集積情報の利用に伴う法的課題を検討している。

利用者との関係では、プロファイリングを取り上げて、対象者のプライバシーとの関係で問題になりにくい類型を探る必要があることを指摘するとともに、その目線を提示している。また、プロファイリングを利用した取引(ターゲティング広告、パーソナライズドプライシング)について、取引法上考慮が必要と思われる点を指摘している。

加盟店との関係では、デジタルマネー提供者と加盟店間の関係を規律する法的な枠組みを踏まえ、私法と競争法の課題について整理している。

集積情報を利用する前提となるグループによる情報共有については、個人情報保護法の共同利用を積極的に位置づけていく観点から検討を行っている。


 

・[PDF]

20250105-161936

 

目次...

1.はじめに

2.デジタルマネー提供者が取扱う情報の内容
(1)決済情報の内容
(2)従来の決済事業者との違い
(3)情報の利用可能性
(4)検討対象

3.デジタルマネー提供者の情報の取扱いに関する法的ルール
(1)決済情報は誰に関する情報か
(2)情報の利用に関する法的枠組み
(3)情報の利用に関する契約
(4)情報利用行為とプライバシー

4.デジタルマネー提供者と利用者:プロファイリング
(1)概要
(2)個人情報保護法との関係
(3)プライバシーとの関係
(4)適切なプロファイリングを検討する際の視点
(5)プロファイリングと取引

5.デジタルマネー提供者と加盟店:加盟店情報の利用
(1)加盟店情報の利用
(2)加盟店情報の利用に関する法的枠組み
(3)デジタルマネーサービスの性質を踏まえた検討
(4)競争法による規律の課題

6.グループにおける情報共有:個人情報の共同利用
(1)利用者情報の提供
(2)個人情報保護法制における個人データの提供に関する規律
(3)海外における情報の提供に関する枠組み
(4)検討

7.おわりに

 

 

(座長)
神田 秀樹 東京大学名誉教授

(委員)
井上 聡 弁護士(長島・大野・常松法律事務所パートナー)
加毛 明 東京大学大学院法学政治学研究科教授
神作 裕之 学習院大学大学院法務研究科教授
宍戸 常寿 東京大学大学院法学政治学研究科教授
森 亮二 弁護士(英知法律事務所パートナー)

神田先生、宍戸先生、森先生とは以前からお付き合いがあります...

 

 

| | Comments (0)

«スペイン データ保護庁 ブログ 人工知能におけるデータと情報 (2024.12.03)