« December 2023 | Main | February 2024 »

January 2024

2024.01.31

セキュリティ監査人協会 監査人の警鐘- 2024年 情報セキュリティ十大トレンド (2024.01.09)

こんにちは、丸山満彦です。

JASA(特定非営利活動法人日本セキュリティ監査協会 )が情報セキュリティ監査人が選ぶ2023年の情報セキュリティ十大トレンドを発表していますね。。。

AIの脅威...がトップなんですが、具体的な脅威がそれなりの確度で起こるということよりも、新しい脅威に対する漠然とした不安的な要素が強いのかもしれませんね。。。

 

● JASA

・2024.01.09 監査人の警鐘 – 2024年 情報セキュリティ十大トレンド

 

ちなみに過去分は2018年からあります。。。

情報セキュリティ十大トレンド

 

傾向としてはこんな感じ?

1_20240131091301

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.01.07 JASA  監査人の警鐘- 2023年 情報セキュリティ十大トレンド

・2022.01.07 JASA 監査人の警鐘 – 2022年 情報セキュリティ十大トレンド

Continue reading "セキュリティ監査人協会 監査人の警鐘- 2024年 情報セキュリティ十大トレンド (2024.01.09)"

| | Comments (0)

米国 ホワイトハウス 主要なAI行動を発表

こんにちは、丸山満彦です。

米国がAIに関する大統領令を2023.10.30に公表したわけですが、それから90日を経て、期限が来ていないものも含めてすべきことはすべて完了していますね。。。

 

U.S. White House

・2024.01.29 Fact Sheet: Biden-Harris Administration Announces Key AI Actions Following President Biden’s Landmark Executive Order

 

Fact Sheet: Biden-⁠Harris Administration Announces Key AI Actions Following President Biden’s Landmark Executive Orde ファクトシート バイデン-ハリス政権、バイデン大統領の画期的な大統領令を受け、主要なAIアクションを発表
Three months ago, President Biden issued a landmark Executive Order to ensure that America leads the way in seizing the promise and managing the risks of artificial intelligence (AI). The Order directed sweeping action to strengthen AI safety and security, protect Americans’ privacy, advance equity and civil rights, stand up for consumers and workers, promote innovation and competition, advance American leadership around the world, and more. 3カ月前、バイデン大統領は、人工知能(AI)の有望性を捉え、リスクを管理する上で、米国が主導権を握ることを確実にするため、画期的な大統領令を発布した。この大統領令は、AIの安全性とセキュリティの強化、米国人のプライバシーの保護、公平性と公民権の向上、消費者と労働者の支援、イノベーションと競争の促進、世界における米国のリーダーシップの推進など、広範囲に及ぶ行動を指示した。
Today, Deputy Chief of Staff Bruce Reed will convene the White House AI Council, consisting of top officials from a wide range of federal departments and agencies. Agencies reported that they have completed all of the 90-day actions tasked by the E.O. and advanced other vital directives that the Order tasked over a longer timeframe.   本日、ブルース・リード副参謀総長が、連邦政府各省庁のトップからなるホワイトハウスAI評議会を招集する。各省庁は、E.O.が命じた90日間の行動をすべて完了し、E.O.がより長い期間をかけて命じた他の重要な指令も前進させたと報告した。 
Taken together, these activities mark substantial progress in achieving the EO’s mandate to protect Americans from the potential risks of AI systems while catalyzing innovation in AI and beyond. Visit ai.gov to learn more. これらの活動を総合すると、AIシステムの潜在的リスクから米国人を保護すると同時に、AIやそれ以外の分野でのイノベーションを促進するというEOの使命の達成に向けて、実質的な進展があったことになる。詳細はai.govを参照のこと。
Managing Risks to Safety and Security 安全とセキュリティへのリスク管理
The Executive Order directed a sweeping range of actions within 90 days to address some of AI’s biggest threats to safety and security. These included setting key disclosure requirements for developers of the most powerful systems, assessing AI’s risks for critical infrastructure, and hindering foreign actors’ efforts to develop AI for harmful purposes. To mitigate these and other risks, agencies have: 大統領令は、AIの安全性とセキュリティに対する最大の脅威のいくつかに対処するため、90日以内に広範囲に及ぶ行動をとるよう指示した。これには、最も強力なシステムの開発者に対する重要な情報開示要件の設定、重要インフラに対するAIのリスクの評価、有害な目的のためにAIを開発しようとする外国の行為者の努力の妨げなどが含まれる。これらのリスクやその他のリスクを軽減するために、各省庁は以下のことを行ってきた:
Used Defense Production Act authorities to compel developers of the most powerful AI systems to report vital information, especially AI safety test results, to the Department of Commerce. These companies now must share this information on the most powerful AI systems, and they must likewise report large computing clusters able to train these systems. 国防生産法の権限を使って、最も強力なAIシステムの開発企業に対し、重要な情報、特にAIの安全性テスト結果を商務省に報告するよう強制した。これらの企業は現在、最も強力なAIシステムに関するこの情報を共有しなければならず、同様にこれらのシステムを訓練できる大規模なコンピューティング・クラスターについても報告しなければならない。
Proposed a draft rule that proposes to compel U.S. cloud companies that provide computing power for foreign AI training to report that they are doing so. The Department of Commerce’s proposal would, if finalized as proposed, require cloud providers to alert the government when foreign clients train the most powerful models, which could be used for malign activity. 海外のAIトレーニングにコンピューティング・パワーを提供している米国のクラウド企業に対し、そうしていることを報告するよう義務付ける規則案を提案した。商務省の提案が原案通り最終化されれば、クラウドプロバイダーは、外国のクライアントが最も強力なモデルを訓練した場合、政府に警告することを義務付けられることになる。
Completed risk assessments covering AI’s use in every critical infrastructure sector. Nine agencies—including the Department of Defense, the Department of Transportation, the Department of Treasury, and Department of Health and Human Services—submitted their risk assessments to the Department of Homeland Security. These assessments, which will be the basis for continued federal action, ensure that the United States is ahead of the curve in integrating AI safely into vital aspects of society, such as the electric grid. すべての重要インフラ部門におけるAIの利用を網羅するリスク評価を完了した。国防総省、運輸省、財務省、保健福祉省を含む9つの機関が、リスク評価を国土安全保障省に提出した。連邦政府の継続的な取り組みの基礎となるこれらの評価により、米国は、電力網のような社会の重要な側面にAIを安全に統合することで、先手を打つことができる。
Innovating AI for Good 善のためのAI革新
To seize AI’s enormous promise and deepen the U.S. lead in AI innovation, President Biden’s Executive Order directed increased investment in AI innovation and new efforts to attract and train workers with AI expertise. Over the past 90 days, agencies have: AIの大きな可能性を捉え、AIイノベーションにおける米国のリードを深めるため、バイデン大統領の大統領令は、AIイノベーションへの投資拡大と、AIの専門知識を持つ労働者の誘致・育成に向けた新たな取り組みを指示した。この90日間で、各省庁は以下のことを行った:
Launched a pilot of the National AI Research Resource—catalyzing broad-based innovation, competition, and more equitable access to AI research. The pilot, managed by the U.S. National Science Foundation (NSF), is the first step toward a national infrastructure for delivering computing power, data, software, access to open and proprietary AI models, and other AI training resources to researchers and students. These resources come from 11 federal-agency partners and more than 25 private sector, nonprofit, and philanthropic partners. 広範なイノベーション、競争、AI研究へのより公平なアクセスを促進するため、National AI Research Resourceの試験運用を開始した。米国国立科学財団(NSF)が管理するこの試験運用は、研究者や学生にコンピューティング能力、データ、ソフトウェア、オープンでプロプライエタリなAIモデルへのアクセス、その他のAIトレーニングリソースを提供するための国家インフラに向けた第一歩である。これらのリソースは、11の連邦政府機関パートナーおよび25以上の民間セクター、非営利団体、慈善団体パートナーから提供される。
Launched an AI Talent Surge to accelerate hiring AI professionals across the federal government, including through a large-scale hiring action for data scientists. TheAI and Tech Talent Task Force created by President Biden’s E.O. has spearheaded this hiring action and is coordinating other key initiatives to facilitate hiring AI talent. The Office of Personnel Management has granted flexible hiring authorities for federal agencies to hire AI talent, including direct hire authorities and excepted service authorities. Government-wide tech talent programs, including the Presidential Innovation Fellows, U.S. Digital Corps, and U.S. Digital Service, have scaled up hiring for AI talent in 2024 across high-priority AI projects. More information about the AI Talent Surge is available at ai.gov/apply. データサイエンティストの大規模採用活動を含め、連邦政府全体でAI専門家の採用を加速させるため、AI Talent Surgeを開始した。バイデン大統領のE.O.によって創設されたAI・技術人材タスクフォースは、この採用活動の先頭に立ち、AI人材の採用を促進するための他の重要なイニシアティブを調整している。人事管理局は、連邦政府機関がAI人材を雇用するために、直接雇用権限や例外的勤務権限など、柔軟な雇用権限を付与している。大統領イノベーション・フェロー、U.S. Digital Corps、U.S. Digital Serviceを含む政府全体の技術人材プログラムは、優先度の高いAIプロジェクトにおいて、2024年にAI人材の採用を拡大した。AI Talent Surgeの詳細はai.gov/applyで入手できる。
Began the EducateAI initiative to help fund educators creating high-quality, inclusive AI educational opportunities at the K-12 through undergraduate levels. The initiative’s launch helps fulfill the Executive Order’s charge for NSF to prioritize AI-related workforce development—essential for advancing future AI innovation and ensuring that all Americans can benefit from the opportunities that AI creates. EducateAIイニシアチブを開始し、幼稚園から大学レベルまで、質の高い包括的なAI教育の機会を創出する教育者を支援する。このイニシアチブの開始は、将来のAIイノベーションを推進し、AIが生み出す機会から全てのアメリカ国民が恩恵を受けられるようにするために不可欠な、AI関連の人材育成を優先させるというNSFに対する大統領令の要請を満たすのに役立つ。
Announced the funding of new Regional Innovation Engines (NSF Engines), including with a focus on advancing AI. For example, with an initial investment of $15 million over two years and up to $160 million over the next decade, the Piedmont Triad Regenerative Medicine Engine will tap the world’s largest regenerative medicine cluster to create and scale breakthrough clinical therapies, including by leveraging AI.  The announcement supports the Executive Order’s directive for NSF to fund and launch AI-focused NSF Engines within 150 days. 新しい地域イノベーションエンジン(NSF Engines)への資金提供を発表した。例えば、2年間で1500万ドル、今後10年間で最大1億6000万ドルの初期投資を行うピードモント・トライアドの再生医療エンジンは、世界最大の再生医療クラスターを活用し、AIの活用を含む画期的な臨床治療の創出と拡大を目指す。 この発表は、AIに焦点を当てたNSFエンジンに150日以内に資金を提供し、立ち上げるようNSFに指示した大統領令を支持するものである。
Established an AI Task Force at the Department of Health and Human Services to develop policies to provide regulatory clarity and catalyze AI innovation in health care. The Task Force will, for example, develop methods of evaluating AI-enabled tools and frameworks for AI’s use to advance drug development, bolster public health, and improve health care delivery. Already, the Task Force coordinated work to publish guiding principles for addressing racial biases in healthcare algorithms. 保健福祉省にAIタスクフォースを設置し、規制を明確にし、医療におけるAIイノベーションを促進するための政策を策定する。同タスクフォースは、例えば、医薬品開発の促進、公衆衛生の強化、医療提供の改善にAIを活用するための、AI対応ツールの評価方法やフレームワークを開発する。すでにタスクフォースは、医療アルゴリズムにおける人種的偏見に対処するための指針を発表するための調整を行った。
The table below summarizes many of the activities federal agencies have completed in response to the Executive Order. 以下の表は、大統領令に対応して連邦政府機関が完了した活動の多くをまとめたものである。

 

1_20240130163601

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

大統領令...

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

 

各界からの反応...

・2023.11.06 米国の「人工知能の安全、安心、信頼できる開発と利用に関する大統領令」についての 各界からの反応...


| | Comments (0)

米国 NIST スマートシティプログラムの戦略計画についての意見募集 (2024.01.25)

こんにちは、丸山満彦です。

NISTが、スマートシティプログラムの戦略計画についての意見募集をしていますね。。。

 

NIST

・2024.01.25 NIST is Requesting Public Input on Published Strategic Plan for Smart Cities Program

1_20240130171701

NIST is Requesting Public Input on Published Strategic Plan for Smart Cities Program NISTがスマートシティプログラムの戦略計画について一般からの意見を求めている。
The Global Community Technology Challenge (GCTC) is a U.S. smart cities and communities program led by the Smart Connected Systems Division of the National Institute of Standards and Technology (NIST). The GCTC was formed in 2014 as a partnership of cities and communities, local and state government agencies, business enterprises, non-governmental organizations, universities, and research institutes dedicated to improving the urban environment through the integration of digital technologies. グローバル・コミュニティ・テクノロジー・チャレンジ(GCTC)は、米国国立標準技術研究所(NIST)のスマート・コネクテッド・システム部門が主導する米国のスマートシティおよびコミュニティ・プログラムである。GCTCは、デジタル技術の統合による都市環境の改善に取り組む都市やコミュニティ、地方・州政府機関、企業、非政府組織、大学、研究機関のパートナーシップとして2014年に結成された。
The GCTC program has recently published its first Strategic Plan (2024-2026), which describes a 3-year program of research and development and reaffirms a continuing collaboration between the federal smart cities program led by NIST and communities, cities, and regions across the country.  The GCTC Strategic Plan is built on three key goals: GCTCプログラムは最近、最初の戦略計画(2024~2026年)を発表した。この計画には、3年間の研究開発プログラムが記載されており、NISTが主導する連邦スマートシティプログラムと、全米のコミュニティ、都市、地域との継続的な協力関係を再確認している。 GCTC戦略計画は、3つの重要な目標に基づいている:
・Establish a research-based, scientific foundation for the NIST Smart Cities Infrastructure program, the GCTC, and the broader smart cities community. ・NISTスマートシティ・インフラストラクチャ・プログラム、GCTC、より広範なスマートシティ・コミュニティのための、研究に基づく科学的基盤を確立する。
・Broaden the scope and agenda for smart cities to address current challenges and achieve the equitable distribution of outcomes for community residents, businesses, and organizations. ・現在の課題に対処し、地域住民、企業、組織にとって公平な成果の配分を達成するために、スマートシティの範囲と課題を広げる。
・Enhance the national public-private partnership of smart city programs, research institutions, private sector enterprises, and the next generation of community leaders, scientists, and researchers. ・スマートシティ・プログラム、研究機関、民間企業、次世代のコミュニティ・リーダー、科学者、研究者の官民パートナーシップを強化する。
The GCTC is organized into twelve Technology Sectors, corresponding with city infrastructure systems, services, and programs that can benefit from the integration of advanced digital technologies to improve overall quality of life for community residents. GCTCは12の技術セクターで構成され、地域住民の生活の質を全体的に向上させるために高度なデジタル技術の統合から恩恵を受けることができる都市のインフラシステム、サービス、プログラムに対応している。

 

● NIST - IOT DEVICES AND INFRASTRUCTURES GROUP

Global Community Technology Challenge

 

・[PDF] NIST SP 1900-207 ipd - Global Community Technology Challenge (GCTC) Strategic Plan 2024-2026

20240130-171318

 

 

 

 

 

 

| | Comments (0)

2024.01.30

NPO デジタル・フォレンジック研究会のコラム by 丸山満彦 - 「気候風土と社会」

こんにちは、丸山満彦です。

デジタル・フォレンジック研究会にコラムを載せました。

 IDF - Column

・2024.01.25 第806号コラム:「気候風土と社会

どこが、IDFと関係するんだ???という内容なのですが、、、

実は、これ、あらゆることに関係しているんじゃないかなぁ。。。と思うんですよね。。。

1_20240130101601

なので、みなさんにどこまで参考になるかはわかりませんが、ちょっと考えてみてくださいませ。。。

 

 


私が書いた「NPO デジタル・フォレンジック研究会」の「コラム」の一覧

 

No Date Title
30 806 2024.01.25 気候風土と社会
29 780 2023.07.31 国家安全保障戦略 ― 何をだれから守るのか? 国益 (National Interests) とは何か?
28 754 2023.01.31 「木を見て森を見ず」にならず、「神は細部に宿る」を忘れない
27 731 2022.08.22 サイバー空間の安全に向けて: All for one, One for all
26 702 2022.01.31 サイバーセキュリティは空気のように社会全体に拡がる
25 678 2021.08.16 ティラノサウルスとスズメ
24 650 2021.02.01 データを科学的に分析する
23 627 2020.08.17 若者のサイバー犯罪を無くしたい。。。
22 600 2020.02.03 デジタルフォレンジックスと多様性
21 578 2019.08.26 未来を考えようと思うとき、人は過去を振り返る
20 551 2019.02.11 とらわれずに物事をみつめる
19 521 2018.07.09 AIは科学捜査を騙せるか?
18 493 2017.12.18 セキュリティ・デバイド?
17 474 2017.08.07 『デジタル・フォレンジック』という言葉を今更考える
16 451 2017.02.20 相手を知ることが重要
15 425 2016.08.15 本質を理解する
14 383 2015.10.12 名ばかりCSIRTで良いのか?
13 357 2015.04.13 IoT時代は明るいか暗いか
12 335 2014.11.03 頭を下げるのは社長です
11 308 2014.04.30 標的型攻撃には内部不正対応が重要?
10 286 2013.11.14 セキュリティガバナンスはできる範囲だけやればよいのか?
09 261 2013.05.23 セキュリティの基本はずっとかわっていない
08 240 2012.12.25 さらに組織化が進むサイバー攻撃集団
07 207 2012.05.10 外部から侵入されている想定で情報セキュリティを考える
06 173 2011.09.08 想定外に対応するのが危機管理ではないか
05 139 2011.01.13 データ分析を使った不正発見手法
04 131 2010.11.11 発見的統制の重要性
03 084 2009.12.10 クラウドコンピューティングがもたらす光と影
02 058 2009.06.11 不正をさせない
01 021 2008.09.25 ニーズとシーズ、目的と手段

| | Comments (0)

「生成AI」と「脅威インテリジェンス」はセキュリティの現場をどう変えるのか 古澤氏他

こんにちは、丸山満彦です。

@ITで、「生成AI」と「脅威インテリジェンス」はセキュリティの現場をどう変えるのか、というGoogleのセキュリティイベントを取材した記事がでていますが、運用の参考になる面もあると思います。

生成AIを含むAIをセキュリティ対策い活かすのは重要だと思います。。。

この記事では、ジョン・ハルトキスト氏(Mandiantチーフアナリスト)、 ティム・マンリー氏(Google Cloud)、古澤一憲氏(Google Cloud カスタマーエンジニア)が解説していますね。。。

 

@IT

・2024.01.25 「生成AI」と「脅威インテリジェンス」はセキュリティの現場をどう変えるのか

 

1_20240130153101

| | Comments (0)

内閣官房 経済安全保障法制に関する有識者会議(第9回) 2024.01.29 - 港湾運送事業は基幹インフラに、病院は基幹インフラにはしない...

こんにちは、丸山満彦です。

2024.01.29 に経済安全保障法制に関する有識者会議(第9回)が開催され、港湾運送事業者は基幹インフラに追加指定、病院は機関インフラに指定しない。。。ということになりそうですね。。。

 

⚫︎ 内閣官房 - 経済安全保障法制に関する有識者会議(令和4年度~)

・2024.01.29 第9回

議事次第(PDF/99KB)
資料1 分野別検討会合(基幹インフラ)議事のポイント
資料2 分野別検討会合(基幹インフラ)議事要旨
資料3 分野別検討会合(基幹インフラ)資料
資料4 特定社会基盤役務の安定的な提供の確保に関する制度の施行状況及び対象事業の追加について
資料5 特許出願非公開制度の運用開始に向けたスケジュール
資料6 分野別検討会合(特許出願の非公開)議事のポイント
資料7 分野別検討会合(特許出願の非公開)議事要旨
資料8 分野別検討会合(特許出願の非公開)資料:適正管理措置ガイドライン(案)の概要、損失の補償に関するQ&A(案)の概要
資料9 最終とりまとめ概要(セキュリティ・クリアランス)
資料10 最終とりまとめ(セキュリティ・クリアランス)
議事要旨

 

資料4 [PDF] 特定社会基盤役務の安定的な提供の確保に関する制度の施行状況及び対象事業の追加について

20240130-62226




 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.10.11 内閣府 暫定版 経済安全保障推進法の特定社会基盤役務の安定的な提供の確保に関する制度の解説 (2023.10.06)

・2023.05.08 閣議決定 経済安全保障関係2つ(特定社会基盤役務基本指針, 特許出願非公開基本指針)(2023.04.28)

 

| | Comments (0)

内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議 最終取りまとめ (2024.01.19)

こんにちは、丸山満彦です。

内閣官房に設置された、経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議が2024.01.17に第10回の会議を経て最終とりまとめを公表していますね。。。

こういう形でおわりましたね。。。

 

● 内閣官房 - 経済安全保障推進会議 - 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議

・2024.01.19 [PDF] 最終とりまとめ

20240130-54456

 

目次...


1 はじめに

2 セキュリティ・クリアランス制度に関する必要性
(1) セキュリティ・クリアランス制度に関する国としての必要性
(2) 企業からのニーズ

3 新たな制度の基本的な骨格

4 新たな制度の具体的な方向性
(1) 情報指定の範囲
 ① 制度の対象とすべき情報の分野
 ② 民間事業者等が保有する情報
(2) 情報の管理・提供ルール
 ① 行政機関内における管理ルール
 ② 個人に対するクリアランス
 ③ 事業者に対するクリアランス(民間事業者等に対する情報保全)
(3) プライバシーや労働法制等との関係
 ① 評価対象者への丁寧なプロセス
 ② プライバシーとの関係
 ③ 不利益取扱いの防止等
(4) 漏えい等の罰則
(5) 情報保全を適切に実施していくための取組

5 CI以外の重要な情報の取扱い


 

今後について書いている部分...

 


(5)情報保全を適切に実施していくための取組

  • 上記の方向性に基づく新たな制度を実効的なものとするためには、官民双方において、情報保全の重要性を理解した上で、適切に対応していくことが重要である。
  • そのため、まずは、政府において、こうした理解が国民に広く醸成されるよう、新たな制度の具体的な中身やその必要性、どのような事業者に影響が及ぶのか等について、分かりやすい説明を尽くしていくべきである。その際、特に、諸外国では、このような信頼性の確認を受けることで処遇面も含めて社会での活躍の幅が広がるものと認識されているということを踏まえることも重要である。
  • また、官民双方において、主要国の実態や動向も踏まえながら、適切な体制や設備を整備する必要がある。
  • この点、政府においては、情報保全を適切に実施するため必要な体制整備の在り方を検討する必要がある。前記(2)のとおり、経済安全保障上の重要情報を管理するための保護規程を整備するとともに、調査に関して取得・作成した文書等について公文書管理法や個人情報保護法に基づき厳重に管理していくべきであるほか、実際の保全措置を講ずるに当たり、必要があれば、専用の区画や施設も設けていくべきである。
  • また、民間事業者等における適切な保全に資するよう、事業者から見て分かりやすい基準等の文書を作成、公表していくべきである。その際、経済安全保障分野に関する状況変化に応じて、又はその状況変化を見通して、不断の見直しを徹底していくことも重要である。
  • さらに、セキュリティ・クリアランス制度を日本の民間事業者等の海外ビジネス展開につなげていくためには、それを後押しするような同盟国・同志国との連携も重要であり、政府においては、今回の制度整備を踏まえ、同盟国・同志国との間で新たに必要となる国際的な枠組みについても取組を進めていくべきである。
  • このほか、民間事業者等においても、実際に政府から経済安全保障上の重要情報が提供された際には、専用の区画や施設を設ける必要があるが、こうした施設等の整備は、民間事業者等にとっては少なからぬ負担となるとも考えられる。かかる負担については、民間事業者等が政府からの協力要請に応じてCIに触れることとなる場合など、経緯や実態も踏まえて、民間事業者等における保全の取組に対する支援の在り方について合理的な範囲内で検討していく必要がある。

 

 

ここまでの議論の過程...

 内閣官房 - 経済安全保障推進会議 - 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議

 

2023.02.22 第1回 議事次第
資料1 事務局 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議の開催について
資料2 事務局 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議運営要領
資料3 事務局 経済安全保障分野における
議事要旨    
2023.03.14 第2回 議事次第
資料1 事務局 第1回会議の議論の整理(主なポイント)
資料2 事務局 情報の区分(イメージ)
資料3 電機メーカー・A社 セキュリティ・クリアランス制度への期待
資料4 電機メーカー・B社 セキュリティクリアランス制度に対する要望
議事要旨    
2023.03.27 第3回 議事次第
資料1 事務局 第2回会議の議論の整理(主なポイント)
資料2 事務局 諸外国における情報保全制度の比較
資料3 電機メーカー・C社 セキュリティ・クリアランス制度について~期待と要望~
資料4 永野秀雄委員 米国におけるセキュリティクリアランス制度の基本情報
議事要旨    
2023.04.07 第4回 議事次第
資料1 事務局 第3回会議の議論の整理(主なポイント)
資料2 重要インフラ事業者 セキュリティクリアランス制度に対する要望
資料3   セキュリティ・クリアランス制度について
議事要旨    
2023.04.25 第5回 議事次第
資料1 事務局 第4回会議の議論の整理(主なポイント)
資料2 事務局 スタートアップとの意見交換結果
資料3 内閣情報調査室 特定秘密保護法概要
資料4 防衛装備庁 防衛産業保全について
議事要旨    
2023.05.29 第6回 議事次第
資料 事務局 中間論点整理(骨子案)
議事要旨    
2023.06.06 中間論点整理  
    中間論点整理(骨子)
    中間論点整理
2023.10.11 第7回 議事次第
資料 事務局 中間論点整理の概要
今回の検討の前提
新しい制度の基本的な骨格
経済安全保障上の重要な情報のイメージ
経済安全保障上重要な情報の候補
論点
・新しい制度の射程について
・新しい制度の基本的な骨格について 経済安全保障上の重要な情報の秘密指定
・・指定解除、 経済安全保障上の重要な情報の管理
・・提供ルール、 罰則
・経済安全保障上の重要な情報について
議事要旨    
2023.11.20 第8回 議事次第
資料 事務局 第7回会議の議論の整理(主なポイント)
論点
・事業者に対する信頼性確認
・個人に対する信頼性確認
・漏洩等に対する罰則
議事要旨    
2023.12.20 第9回 議事次第
資料1 事務局 第8回会議の議論の整理(主なポイント)
(1)事業者に対する信頼性確認(クリアランスが必要となる事業者・従業員)
(2)事業者に対する信頼性確認(FOCI)
(3)個人に対する信頼性確認、調査とプライバシー
(4)罰則
(5)その他
資料2 事務局 論点
〇調査の一元化の関係
• 「一元化機関」における調査事項と調査手法
• 調査機能の一元化のスキーム
〇プライバシー・労働法制等との関係
• 評価対象者に対する配慮
資料3 事務局 前回会議の指摘事項について
・アメリカのNISPOMについて
・海外の制度概要(組織・施設クリアランス)
・国内法との関係(外為法)
・罰則
・諸外国における国家秘密情報漏洩時の罰則について
議事要旨 事務局  
2024.01.17 第10回 議事次第
資料   最終取りまとめ案
参考資料    
議事次第    

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.12.22 内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議(第9回)

・2023.10.12 内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議(第7回)

・2023.06.08 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議 中間論点整理

 

 

| | Comments (0)

米国 国防総省 初の国防産業戦略を発表 (2024.01.11)

こんにちは、丸山満彦です。

米国は、軍事面では、装備品の能力だけではなく、装備品をつくる環境としての国防産業についても意識して戦略的に取り組んでいて、すごいと思います。。。

今回、初めての国防産業戦略を公表していますね。。。

考え方自体が興味深いですね。。。

調達等に関しても既存の技術をできるだけ使おうとしていますね。。

ちなみに...

NDISの戦略的優先事項


  1. 現在、そして将来必要とされる製品、サービス、テクノロジーを、スピード、スケール、コストにおいて安全に生産できる、強靭なサプライチェーン

  2. 労働力の準備、十分に熟練した、多様でアメリカを代表する労働力を提供する。

  3. 柔軟な取得、防衛プラットフォームや支援システムにおいて、効率性、保守性、カスタマイズ、標準化のバランスをとりながら、ダイナミックな能力を追求する戦略の開発につながる。柔軟な取得戦略は、開発期間の短縮、コストの削減、拡張性の向上をもたらすだろう。

  4. 経済的抑止、米国と緊密な国際同盟国やパートナーの間で、レジリエトな防衛産業エコシステムを支える公正で効果的な市場メカニズムを促進し、経済安全保障と統合抑止を実現する。効果的な経済的抑止の結果、米国の市場、技術、イノベーションへのアクセスが著しく低下することへの恐怖が、潜在的な侵略者の心に疑念を植え付ける。

 

 

U.S. Department of Defense

・2024.01.11 DOD Releases First-Ever National Defense Industrial Strategy

DOD Releases First-Ever National Defense Industrial Strategy 国防総省、初の国防産業戦略を発表
The Department of Defense today released its inaugural National Defense Industrial Strategy (NDIS), which will guide the Department's engagement, policy development, and investment in the industrial base over the next three to five years. Taking its lead from the National Defense Strategy (NDS), this strategy will catalyze generational change from the existing defense industrial base to a more robust, resilient, and dynamic modernized defense industrial ecosystem. 国防総省は本日、今後3~5年間における国防総省の産業基盤への関与、政策立案、投資の指針となる国防産業戦略(NDIS)を発表した。この戦略は、国家防衛戦略(NDS)から導かれ、既存の防衛産業基盤から、より強固で弾力性があり、ダイナミックな近代化された防衛産業エコシステムへの世代交代を促進するものである。
"The current and future strategic environment demands immediate, comprehensive, and decisive action to strengthen and modernize our defense industrial base ecosystem so it delivers at speed and scale for our warfighters," Deputy Secretary of Defense Kathleen Hicks said. "DoD's first-ever National Defense Industrial Strategy will help ensure we build the modern defense industrial and innovation ecosystem that's required to defend America, our allies and partners, and our interests in the 21st century." 「キャスリーン・ヒックス国防副長官は、「現在および将来の戦略的環境は、防衛産業基盤のエコシステムを強化・近代化し、戦闘員のために迅速かつ大規模に提供できるようにするため、迅速、包括的、かつ断固とした行動を求めている。「国防総省初の国防産業戦略は、21世紀のアメリカ、同盟国、パートナー、そして我々の利益を守るために必要な、近代的な国防産業と技術革新のエコシステムを確実に構築するのに役立つだろう。
"We are proud to release this ground-breaking strategy," said Dr. William A. LaPlante, Under Secretary of Defense for Acquisition and Sustainment, added. "The NDIS recognizes that America's economic security and national security are mutually reinforcing and, ultimately the nation's military strength cannot be untethered from our overall industrial strength. We must act now to build on recent progress and ensure we have the capacity to produce at speed and scale."  「この画期的な戦略を発表できることを誇りに思う」と、ウィリアム・A・ラプランテ国防次官(取得・維持担当)は付け加えた。「NDISは、アメリカの経済的安全保障と国家安全保障は相互に補強し合うものであり、究極的には、国の軍事力を産業力全体から切り離すことはできないと認識している。われわれは、最近の進展に基づき、迅速かつ大規模な生産能力を確保するために、今行動しなければならない。
While the NDS identifies risk to the industrial base, it also guides the Department to solutions. Recognizing that the defense industrial base must provide the required capabilities at the speed and scale necessary for the U.S. military to engage and prevail in a near-peer conflict, the NDIS strategy calls out challenges, solutions, and risks of failure concisely. The strategy offers a strategic vision and path along four strategic priorities: resilient supply chains, workforce readiness, flexible acquisition, and economic deterrence. This proposed pathway to modernize the defense industrial ecosystem also recognizes that this effort cannot be a Department of Defense-only solution, repeatedly emphasizing cooperation and coordination between the entire U.S. government, private industry, and international allies and partners. NDSは産業基盤に対するリスクを特定する一方で、防衛省を解決策へと導くものでもある。防衛産業基盤は、米軍がほぼ同規模の紛争に関与し勝利するために必要なスピードと規模で、必要な能力を提供しなければならないことを認識し、NDIS戦略は課題、解決策、失敗のリスクを簡潔に示している。この戦略は、4つの戦略的優先事項(弾力性のあるサプライチェーン、労働力の即応性、柔軟な取得、経済的抑止力)に沿った戦略的ビジョンと道筋を提示している。防衛産業エコシステムを近代化するためのこの道筋案は、この取り組みが国防総省だけの解決策ではありえないことも認識しており、米政府全体、民間企業、国際的な同盟国やパートナーとの協力と協調を繰り返し強調している。
The full NDIS and a fact sheet are available at: [web] NDISの全文とファクトシートは、[web] で入手できる。

 

・2024.01.12 DOD Releases First Defense Industrial Strategy

DOD Releases First Defense Industrial Strategy DODが初の国防産業戦略を発表
The Defense Department today released its first strategy for ensuring that the U.S. defense industrial base meets the demands of a challenging national security landscape well into the future. 国防総省は本日、米国の国防産業基盤が将来にわたって厳しい国家安全保障情勢の要求に応えられるようにするための初の戦略を発表した。
The 59-page National Defense Industrial Strategy lays out long-term priorities that will guide DOD actions and resource prioritization with the aim of creating a modern, resilient defense industrial ecosystem designed to deter U.S. adversaries and meet the production demands posed by evolving threats.   59ページにわたる国防産業戦略は、米国の敵対勢力を抑止し、進化する脅威がもたらす生産需要に対応するよう設計された、近代的で強靭な国防産業エコシステムを構築することを目的として、国防総省の行動と資源の優先順位付けの指針となる長期的な優先事項を示している。 
"We are implementing the National Defense Industrial Strategy now to ensure that our defense industrial base continues to both strengthen our national security here at home while reassuring and supporting allies and partners," said Laura D. Taylor-Kale, assistant secretary of defense for industrial base policy, in unveiling the strategy from the Pentagon. 国防総省のローラ・D・テイラー=ケール国防次官補(産業基盤政策担当)は、国防総省からこの戦略を発表する中で、「防衛産業基盤が、同盟国やパートナーを安心させ支援しながら、国内での国家安全保障を強化し続けることを確実にするため、我々は今、国防産業戦略を実施している」と述べた。
TTaylor-Kale underscored the urgent need to shore up the defense industrial base as U.S. adversaries build up their military power to levels not seen since World War II. She noted China's increasing threat to upend existing international order. She also highlighted the United States' continued support for Ukraine as it defends itself from Russian aggression and for Israel in its fight against Hamas. テイラー=ケール国防次官補は、米国の敵対勢力が第二次世界大戦以来の水準にまで軍事力を増強する中、国防産業基盤を強化する緊急の必要性を強調した。彼女は、中国が既存の国際秩序を根底から覆す脅威を強めていることを指摘した。また、ロシアの侵略から自国を守るウクライナや、ハマスと闘うイスラエルを米国が継続的に支援していることも強調した。
Spotlight: Support for Ukraine スポットライト ウクライナへの支援
The defense industrial base must continue to meet present demands, while at the same time remaining capable of adapting to future conflicts.   国防産業基盤は、現在の需要に応え続けなければならないが、同時に将来の紛争にも適応できる能力を維持しなければならない。 
"This arsenal of democracy helped win both world wars and the Cold War," Taylor-Kale said. "And long into the future, it can and must provide that same enduring advantage in support of integrated deterrence."  「この民主主義の武器庫は、両世界大戦と冷戦の勝利に貢献した。「そして、将来にわたって、統合抑止を支援するために、同じような永続的な優位性を提供することができ、また提供しなければならない。
The strategy focuses on four key areas critical to building a modernized defense industrial ecosystem over the next three to five years. Those areas include resilient supply chains, workforce readiness flexible acquisition and economic deterrence. この戦略は、今後3年から5年の間に近代化された防衛産業エコシステムを構築するために重要な4つの主要分野に焦点を当てている。これらの分野には、弾力性のあるサプライチェーン、労働力の即応性、柔軟な取得、経済的抑止力が含まれる。
The strategy calls for several actions to achieve resilient supply chains, including establishing public-private partnerships, risk-sharing mechanisms and technology. These are sharing structures aimed at incentivizing industry to improve resilience and invest in extra capacity. 戦略では、弾力性のあるサプライチェーンを実現するために、官民パートナーシップの確立、リスク共有の仕組み、技術の確立など、いくつかの行動を求めている。これらは、産業界がレジリエンスを向上させ、余剰能力に投資するインセンティブを与えることを目的とした共有構造である。
Spotlight: Science & Tech スポットライト 科学技術
The NDIS also calls for increasing stockpiles of strategic and critical systems to decrease near-term risk, diversifying the defense industrial base supplier base, expanding production methods, and addressing evolving cyber threats to the supply chain, among other actions. NDISはまた、目先のリスクを減らすために戦略的で重要なシステムの備蓄を増やすこと、防衛産業基盤のサプライヤーベースを多様化すること、生産方法を拡大すること、サプライチェーンに対する進化するサイバー脅威に対処することなども求めている。
In terms of workforce development, the strategy aims to develop a "sufficiently skilled and staffed workforce that is diverse and representative of America." It calls for investments in skill development programs and advanced manufacturing workforce pipelines and the expansion of recruitment efforts for nontraditional communities, among other actions.   労働力開発の面では、「多様性に富み、米国を代表する、十分な技能を備えた労働力」を育成することを目標としている。この戦略では、技能開発プログラムや高度製造業の人材パイプラインへの投資、非伝統的なコミュニティへの採用活動の拡大などを求めている。 
The strategy also seeks to develop flexible acquisition strategies by emphasizing interoperability with key partners and paying consideration to exportability during the system design phase. The NDIS also calls for the prioritization of commercial, off-the-shelf acquisition where applicable to drive innovation and expand the defense supplier base.   同戦略はまた、主要パートナーとの相互運用性を重視し、システム設計段階での輸出可能性に配慮することで、柔軟な取得戦略の策定を目指している。NDISはまた、技術革新を推進し、防衛サプライヤーの基盤を拡大するために、該当する場合には商業的な既製品の取得を優先することを求めている。 
Additionally, the NDIS calls for strengthening economic security agreements and creating new mechanisms for sharing technology with allies in order to achieve economic deterrence. さらにNDISは、経済的抑止力を達成するために、経済安全保障協定を強化し、同盟国と技術を共有するための新たなメカニズムを構築することを求めている。
Spotlight: Engineering in the DOD スポットライト DODにおけるエンジニアリング
Defense officials said the strategy was far more than an "aspirational document," noting that the department is finalizing its implementation plan, which will detail measurable actions and metrics to gauge progress on the goals. 国防総省関係者は、この戦略は「願望文書」をはるかに超えるものだと述べ、国防総省は現在、目標の進捗状況を測るための測定可能な行動や評価基準を詳述した実施計画を最終的に策定中だと指摘した。
"The [implementation] plan is going to focus on actualizing the four strategic priorities laid out in the strategy, along with more than two dozen discrete, specific actions and associated outcomes and illustrative outputs that we detailed in the plan," said Halimah Najieb-Locke, acting deputy assistant secretary of defense for industrial base resilience.  「この(実施)計画は、戦略で示された4つの戦略的優先事項の実現に焦点を当てるもので、20以上の個別具体的な行動と、計画に詳述した関連する成果や例示的なアウトプットも含まれる」と、ハリマ・ナジエブ=ロック国防次官補代理(産業基盤の強靭性担当)は述べた。
An unclassified overview of the implementation plan is slated for publication in February with the full classified version to follow in March, Najieb-Locke said. ナジェブ=ロック副次官によると、実施計画の非機密版は2月に公表され、完全な機密版は3月に公表される予定だという。
Officials said the strategy is the product of months of engagement from stakeholders from across industry and government, which began at the direction of Deputy Defense Secretary Kathleen Hicks in March 2023.  この戦略は、2023年3月にキャスリーン・ヒックス国防副長官の指示で始まった、産業界と政府の利害関係者の数ヶ月にわたる関与の成果であると、政府関係者は述べた。
The document also reflects President Joe Biden's broader efforts to shore up domestic manufacturing and critical supply chains in the U.S.  この文書はまた、米国内の製造業と重要なサプライチェーンを強化するという、ジョー・バイデン大統領の広範な取り組みも反映している。
"The department's most senior leaders directed and guided development of this first ever NDIS, a part of the effort to reenergize U.S. manufacturing and build the kind of modernized defense industrial ecosystem we need to enable our national defense strategy and to meet the global challenges our nation and our allies will confront," Taylor-Kale said.   「国防総省の最高幹部は、この史上初のNDISの開発を指揮・指導した。これは、米国の製造業を再活性化し、わが国の国防戦略を可能にし、わが国と同盟国が直面するグローバルな課題に対応するために必要な、近代化された防衛産業エコシステムを構築するための努力の一環である。 
"We can no longer afford to wait," she said. "The time for action has come, and we are starting it with this strategy." 「もはや待つ余裕はない。「今こそ行動を起こすべき時であり、我々はこの戦略でそれを開始する」と語った。

 

・2024.01.12 The National Defense Industrial Strategy (NDIS) Enabling a Modernized Defense Industrial Ecosystem

 

ファクトシート

・[PDF] FACT Sheet

20240129-233404

 

Fact Sheet: National Defense Industrial Strategy  ファクトシート 国防産業戦略 
The 2022 National Defense Strategy (NDS) states that the Department of Defense will prioritize coordinated efforts with the full range of domestic and international partners in the defense ecosystem to fortify the defense industrial base, our logistical systems, and relevant global supply chains against subversion, compromise, and theft.   2022年国家防衛戦略(NDS)は、国防省が防衛エコシステムにおける国内外のあらゆるパートナーとの協調的な取り組みを優先し、国防産業基盤、後方支援システム、関連するグローバルサプライチェーンを破壊、危殆化、盗難から強化すると述べている。 
The National Defense Industrial Strategy (NDIS) offers a strategic vision to coordinate and prioritize actions to build a modernized defense industrial ecosystem that is fully aligned with the NDS. It also calls for sustained collaboration and cooperation between the entire U.S.  国防産業戦略(NDIS)は、NDSと完全に整合した近代化された国防産業エコシステムを構築するための行動を調整し、優先順位をつけるための戦略的ビジョンを提供する。また、米国政府全体、民間企業、そしてわが国の全軍との持続的な協力と協調を呼びかけている。
government, private industry, and our Allies and partners abroad.  また、米国政府全体、民間企業、そして海外の同盟国やパートナーとの持続的な協力と協調も求めている。
The NDIS lays out four long-term strategic priorities to serve as guiding beacons for industrial action and resource prioritization in support of the development of this modernized defense industrial ecosystem.  NDISは、この近代化された防衛産業エコシステムの発展を支援するための産業活動と資源優先順位の指針となる4つの長期的戦略優先事項を示している。
1)    Resilient supply chains that can securely produce the products, services, and technologies needed now and in the future at speed, scale, and cost.  1) 現在、そして将来必要とされる製品、サービス、技術を、スピード、規模、コストで安全に生産できるレジリエンとなサプライチェーン。
a)  To address this priority, the DoD will incentivize industry to improve resilience by investing in extra capacity; manage inventory and stockpile planning to decrease near term risk; continue and expand support for domestic production; drive investment in the organic industrial base and production accelerators; diversify the supplier base and invest in new production methods; leverage data analytics to improve sub-tier visibility to identify and minimize strategic supply chain risks and to manage disruptions proactively; engage allies and partners to expand global defense production and increase supply chain resilience; and improve the Foreign Military Sales process.  a) この優先事項に対処するため、国防総省は、余剰生産能力への投資によるレジリエンスの向上、短期的なリスクを低減するための在庫・備蓄計画の管理、国内生産への支援の継続・拡大、有機的産業基盤と生産促進装置への投資の促進、サプライヤー基盤の多様化と新たな生産方式への投資、戦略的サプライチェーンリスクを特定・最小化し、混乱に先手を打って対処するための下層の可視性向上のためのデータ分析の活用、グローバルな防衛生産の拡大とサプライチェーンのレジリエンスの向上のための同盟国・パートナーの関与、対外軍事販売プロセスの改善など、産業界にインセンティブを与える。
b)    The risks of not achieving resilient supply chains include supply and materiel shortfalls; diminished surge capacity; supply chain vulnerability; and falling behind pacing challenges identified in the NDS.  b) レジリエンとなサプライチェーンを達成できないリスクには、供給と物資の不足、サージ能力の低下、サプライチェーンの脆弱性、NDSで特定されたペース配分の課題への遅れが含まれる。
2)    Workforce readiness will provide for a sufficiently skilled, and staffed workforce that is diverse and representative of America.  2) 労働力の即応性は、十分に熟練した、多様で米国を代表する労働力を提供する。
a)     To address this priority, DoD will work to prepare the workforce for future technological innovation; continue targeting critical skill sets in science, technology, engineering, and math; increase access to apprenticeship and internship programs; and reduce stigmatization of industrial careers while expanding recruitment of non-traditional communities.  a) この優先事項に対処するため、国防総省は、将来の技術革新に備えた労働力の準備に取り組み、科学、技術、工学、数学における重要なスキルセットを引き続き対象とし、見習い制度やインターンシップ・プログラムへのアクセスを向上させ、非伝統的コミュニティの採用を拡大しながら、産業キャリアの汚名を減らす。
b)    Insufficient workforce readiness could lead to the inability to successfully onshore critical manufacturing; the inability to compete globally; reduced productivity throughout the full supply chain; and limited innovation.   b) 労働力の準備態勢が不十分な場合、重要な製造業のオンショアを成功させることができなくなり、国際競争に打ち勝つことができなくなり、サプライチェーン全体の生産性が低下し、技術革新が制限される可能性がある。 
3)    Flexible acquisition will lead to the development of strategies that strive for dynamic capabilities while balancing efficiency, maintainability, customization and standardization in defense platforms and support systems. Flexible acquisition strategies would result in reduced development times, reduced costs, and increased scalability.  3) 柔軟な調達は、防衛プラットフォームと支援システムにおいて、効率性、保守性、カスタマイゼーション、標準化のバランスをとりながら、ダイナミックな能力を追求する戦略の開発につながる。柔軟な調達戦略は、開発期間の短縮、コストの削減、拡張性の向上をもたらす。
a)     To address this priority, DoD will work to broaden platform standards and interoperability; strengthen requirements to curb “scope creep;” prioritize off-the-shelf acquisition where applicable and reasonable; increase DoD access to intellectual property and data rights to enhance acquisition and sustainment; consider greater use and policy reform of contracting strategies; continue to support acquisition reform; and update industrial mobilization authorities and planning to ensure preparedness.  a) この優先事項に対処するため、国防総省は、プラットフォームの標準化と相互運用性の拡大、「スコープクリープ」を抑制するための要件の強化、適用可能かつ合理的な場合には既製品の調達を優先、調達と維持を強化するための知的財産権とデータ権への国防総省のアクセスを拡大、契約戦略の利用拡大と政策改革を検討、調達改革の支援を継続、産業動員権限と計画を更新し、準備態勢を確保する。
b)    Flexible acquisition planning will allow the DoD to work with a broader set of industry partners and balance the tension between the need for customization and adopting, where appropriate, industry standards. While some level of customization is necessary to meet specific mission requirements and stay ahead of potential adversaries, there are risks associated with excessive customization that hinder the development of a modern industrial ecosystem. Thus, COTS approaches versus customized systems must be balanced to meet warfighter requirements at speed and scale. Failure to balance these risks strategically can significantly hinder the delivery of critical capabilities. Other risks of failure include limited scale; high costs and lengthy development times; technology obsolescence; diminished industrial base resilience; sustainment and logistics challenges; reduced operational effectiveness; and increased technological risk.  b) 柔軟な調達計画により、国防総省はより広範な業界パートナーと協力し、カスタマイズの必要性と、適切な場合には業界標準の採用との間の緊張のバランスをとることができる。特定の任務要件を満たし、潜在的な敵対勢力の一歩先を行くためには、ある程度のカスタマイズが必要であるが、過度のカスタマイズには、近代的な産業エコシステムの発展を妨げるリスクがある。従って、COTS アプローチとカスタマイズ・システムは、迅速かつ大規模に戦闘員の要求を満たすためにバランスを取る必要がある。これらのリスクを戦略的にバランスさせることに失敗すると、重要な能力の提供に大きな支障をきたす可能性がある。その他の失敗リスクとしては、規模の限定、高コストと開発期間の長期化、技術の陳腐化、産業基盤の回復力の低下、維持とロジスティクスの課題、作戦効果の低下、技術的リスクの増大などがある。
4)    Economic deterrence will promote fair and effective market mechanisms that support a resilient defense industrial ecosystem among the U.S. and close international allies and partners and economic security and integrated deterrence. As a result of effective economic deterrence, fear of materially reduced access to U.S. markets, technologies, and innovations will sow doubt in the mind of potential aggressors.  4) 経済的抑止は、米国と緊密な国際同盟国やパートナーの間で、レジリエンとな防衛産業エコシステムを支え、経済安全保障と統合抑止を支える公正で効果的な市場メカニズムを促進する。効果的な経済的抑止の結果、米国市場、技術、革新へのアクセスが実質的に減少することへの恐怖が、潜在的な侵略者の心に疑念を植え付ける。
a)     To address this priority, DoD will work to strengthen economic security agreements; enable international interoperability standards through active participation in standardssetting bodies; fortify alliances to share science and technology; strengthen enforcement against adversarial ownership and against cyberattacks; and strengthen prohibited sources policies to protect the DIB from adversarial intrusion.  a) この優先事項に対処するため、国防総省は、経済安全保障協定の強化、標準化団体への積極的な参加による国際的な相互運用性標準の実現、科学技術を共有するための同盟関係の強化、敵対的な所有権に対する取締りの強化、サイバー攻撃に対する取締りの強化、敵対的な侵入から国防総省を守るための禁止情報源政策の強化に取り組む。
b)    Failing to deter adversarial entities could generate critical economic, supply chain, and infrastructure vulnerabilities; increased costs and reduced defense budgets; a weakened industrial ecosystem; intellectual property theft and adversarial capital IP control; degraded technological edge, innovation, and quality; and eventually lead to the loss of trust and reputation with international partners.  b) 敵対勢力の抑止に失敗すれば、重要な経済、サプライチェーン、インフラストラクチャーの脆弱性、コストの増大と防衛予算の削減、産業エコシステムの弱体化、知的財産の窃盗と敵対資本による知的財産の支配、技術的な優位性、革新性、品質の低下、そして最終的には国際的なパートナーとの信頼と評判の失墜につながる可能性がある。

 

 

内容確認...

・[PDF] NDIS

20240129-232951

・[DOCX] 仮訳

 

 

目次...

Foreword from the Deputy Secretary of Defense 国防副長官からの序文
Table of Contents 目次
1 Introduction 1 はじめに
1.1 Strategic Framework 1.1 戦略的枠組み
1.1.1 Priorities 1.1.1 優先順位
1.1.2 Challenges 1.1.2 課題
1.1.3 Approach 1.1.3 アプローチ
2 Priorities 2 優先順位
2.1 Resilient Supply Chains 2.1 レジリエントなサプライチェーン
2.1.1 Summary 2.1.1 まとめ
2.1.2 Actions 2.1.2 行動
2.1.2.1 Incentivize Industry to Improve Resiliency by Investing in Extra Capacity 2.1.2.1 余剰設備への投資により、産業界に回復力向上のインセンティブを与える
2.1.2.2 Manage Inventory and Stockpile Planning to Decrease Near-Term Risk 2.1.2.2 当面のリスクを低減するための在庫管理と備蓄計画
2.1.2.3 Continue and Expand Support for Domestic Production 2.1.2.3 国内生産への支援を継続・拡大する
2.1.2.4 Diversify Supplier Base and Invest in New Production Methods 2.1.2.4 サプライヤーの多様化と新しい生産方式への投資
2.1.2.5 Leverage Data Analytics to Improve Sub-Tier Visibility to Identify and Minimize Strategic Supply Chain Risks and to Manage Disruptions Proactively 2.1.2.5 データ分析を活用してサブティアの可視性を向上させ、戦略的サプライチェーンリスクを特定・最小化し、混乱をプロアクティブに管理する
2.1.2.6 Engage Allies and Partners to Expand Global Defense Production and Increase Supply Chain Resilience 2.1.2.6 世界の防衛生産を拡大し、サプライチェーンの回復力を高めるために、同盟国やパートナーを巻き込む
2.1.2.7 Improve the Foreign Military Sales (FMS) Process 2.1.2.7 対外軍事販売(FMS)プロセスの改善
2.1.2.8 Enhance Industrial Cybersecurity 2.1.2.8 産業用サイバーセキュリティの強化
2.1.3 Illustrative Outcomes and Outputs 2.1.3 図解 成果とアウトプット
2.1.4 Risks of Not Achieving 2.1.4 達成できない場合のリスク
2.2 Workforce Readiness 2.2 労働力の準備
2.2.1 Summary 2.2.1 まとめ
2.2.2 Actions 2.2.2 アクション
2.2.2.1 Prepare Workforce for Future Technological Innovation 2.2.2.1 将来の技術革新に備えた労働力の準備
2.2.2.2 Continue Targeting Defense-Critical Skill Sets in Manufacturing and STEM 2.2.2.2 製造業とSTEMにおける防衛上重要なスキルセットを引き続きターゲットとする
2.2.2.3 Increase Access to Apprenticeship and Internship Programs 2.2.2.3 実習・インターンシップ・プログラムへのアクセス向上
2.2.2.4 Destigmatize Industrial Careers 2.2.2.4 産業界でのキャリアに汚名を着せない
2.2.2.5 Expand Recruitment of Non-Traditional Communities 2.2.2.5 非伝統的コミュニティの採用を拡大する
2.2.3 Illustrative Outcomes and Outputs 2.2.3 図解 成果とアウトプット
2.2.4 Risks of Not Achieving 2.2.4 達成できないリスク
2.3 Flexible Acquisition 2.3 柔軟な調達
2.3.1 Summary 2.3.1 まとめ
2.3.2 Actions 2.3.2 行動
2.3.2.1 Broaden Platform Standards and Interoperability 2.3.2.1 プラットフォームの標準化と相互運用性の拡大
2.3.2.2 Strengthen Requirements Process to Curb Scope Creep 2.3.2.2 スコープ・クリープを抑制するための要求プロセスの強化
2.3.2.3 Prioritize Off-the-Shelf Acquisition Where Applicable and Reasonable 2.3.2.3 適用可能かつ合理的な場合、既製品の購入を優先する
2.3.2.4 Increase Access to Intellectual Property (IP) and Data Rights to Enhance Acquisition and Sustainment 2.3.2.4 知的財産(IP)およびデータの権利へのアクセスを増加させ、調達と維持を強化する。
2.3.2.5 Consider Greater Use and Policy Reform of Contracting Strategies 2.3.2.5 契約戦略の一層の活用と政策改革を検討する
2.3.2.6 Continue to Support Acquisition Reform 2.3.2.6 調達改革を引き続き支援する
2.3.2.7 Update Industrial Mobilization Authorities and Planning to Ensure Preparedness 2.3.2.7 産業動員権限と計画を更新し、準備態勢を確保する
2.3.3 Illustrative Outcomes and Outputs 2.3.3 図解 成果とアウトプット
2.3.4 Risks of Not Achieving 2.3.4 達成できない場合のリスク
2.4 Economic Deterrence 2.4 経済的抑止力
2.4.1 Summary 2.4.1 まとめ
2.4.2 Actions 2.4.2 アクション
2.4.2.1 Strengthen Economic Security Agreements 2.4.2.1 経済安全保障協定の強化
2.4.2.2 Enable International Interoperability Standards through Active Participation in Standards Setting Bodies 2.4.2.2 標準化団体への積極的な参加を通じて国際的な相互運用性標準を可能にする
2.4.2.3 Fortify Alliances to Share Science and Technology 2.4.2.3 科学技術を共有するために提携を強化する
2.4.2.4 Strengthen Enforcement Against Adversarial Ownership and Protect Against Cyber Attacks 2.4.2.4 敵対的所有権に対する執行を強化し、サイバー攻撃から保護する
2.4.2.5 Strengthen Prohibited Sources Policy 2.4.2.5 禁止ソース・ポリシーの強化
2.4.3 Illustrative Outcomes and Outputs 2.4.3 図解 成果とアウトプット
2.4.4 Risks of Not Achieving 2.4.4 達成できない場合のリスク
3 Assessment and Reporting 3 評価と報告
4 Conclusion 4 結論
5 Glossary of Terms 5 用語集

 


(2023.02.13 追記)

防衛省 防衛研究所

・2024.02.09 [PDF] 「米国国家防衛産業戦略」を読み解く

20240213-55029


 

 

| | Comments (0)

2024.01.29

ENISA EUデータ空間における個人データ保護エンジニアリング

こんにちは、丸山満彦です。

ENISAが、EUデータ空間における個人データ保護エンジニアリングについての報告書を公表していますね。。。

欧州データ戦略に導入され、データ・ガバナンス法(DGA)の中でさらに詳しく説明されている新しい概念である「Common European data spaces (EU data spaces) 、欧州共通データ空間(EUデータ空間)」における個人データ保護に関する設計原則を整理し、医薬品領域で想定されるEUデータ空間の2つのユースケースを通して、個人データ保護をどのように設計するかを示すものとのことです。。。

 

ENISA

・2024.01.26 Engineering Personal Data Protection in EU Data Spaces

Engineering Personal Data Protection in EU Data Spaces EUデータ空間における個人データ保護エンジニアリング
Common European data spaces (EU data spaces) are a novel concept introduced in the European strategy for data and elaborated further within the Data Governance Act (DGA). This report attempts to contextualise the main design principles regarding protection of personal data and demonstrate how to engineer personal data protection through two use cases of an envisioned EU data space in the pharmaceutical domain. 欧州共通データ空間(EUデータ空間)は、データに関する欧州戦略で導入され、データガバナンス法(DGA)の中でさらに精緻化された新しい概念である。本報告書では、個人データ保護に関する主な設計原則を説明し、医薬品領域で想定されるEUデータ空間の2つのユースケースを通して、個人データ保護をどのように設計するかを示す。

 

・[PDF]

20240129-50420

・[DOCX] 仮訳

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY  要旨 
The recent EU legislative initiatives promoting data sharing are sectoral and cross-sectoral instruments that aim to make data available by regulating the reuse of publicly and privately held data, including personal data. They also facilitate data sharing by creating of novel intermediaries and sharing environments where the parties involved can pool data and facilities in a trusted and secure way.  データ共有を促進する最近のEUの法的イニシアチブは、個人データを含む公的・私的に保有されるデータの再利用を規制することで、データを利用可能にすることを目的とした分野別・分野横断的な手段である。また、関係者が信頼できるセキュアな方法でデータや施設をプールできるような、斬新な仲介業者や共有環境を構築することで、データ共有を促進している。 
Common European data spaces (EU data spaces) are a novel concept introduced in the European strategy for data and elaborated further within the Data Governance Act (DGA). It is envisioned that they will facilitate innovation, economic growth and digital transformation and revolve around creating a framework for data sharing that respects privacy, security and other applicable regulatory considerations while promoting cross-sector collaboration and interoperability.   欧州共通データ空間(EUデータ空間)は、欧州データ戦略に導入され、データ・ガバナンス法(DGA)の中でさらに詳しく説明されている新しい概念である。EUデータ空間は、イノベーション、経済成長、デジタルトランスフォーメーションを促進し、セクターを超えた協力と相互運用性を促進しながら、プライバシー・セキュリティやその他の適用される規制を尊重するデータ共有の枠組みを構築することを中心に展開されることが想定されている。  
This report attempts to contextualise the main design principles regarding protection of personal data and demonstrate how to engineer personal data protection through two use cases of an envisioned EU data space in the pharmaceutical domain.  本報告書では、個人データ保護に関する主な設計原則を整理し、医薬品領域で想定されるEUデータ空間の2つのユースケースを通して、個人データ保護をどのように設計するかを示す。 
Despite the potential of the EU data spaces, there are still considerations regarding appropriate technical and organisational measures and how to engineer them into practice, both from a data protection and from a cybersecurity point of view. Even if there are already a good number of privacy enhancing technologies that can support us in meeting specific data protection goals, we should not neglect the fact that we are called to address new processing operations, where the roles and responsibilities are not always clearly defined.    EUデータ空間の可能性にもかかわらず、データ保護の観点からもサイバーセキュリティの観点からも、適切な技術的・組織的対策や、それをどのように実践していくかという点については、まだ検討すべき点がある。具体的なデータ保護目標を達成するのに役立つプライバ シー向上技術がすでに数多く存在するとしても、役割と責任が必ずしも明確に定義されていない新たな処理 業務への対応が求められているという事実を軽視すべきではない。

 

 

目次...

1. INTRODUCTION 1.序文
1.1 DATA DRIVEN INNOVATION 1.1 データ主導のイノベーション
1.2 COMMON EUROPEAN DATA SPACES 1.2 欧州共通のデータ空間
1.3 DESIGN PRICNIPLES OF EU DATA SPACES 1.3 EUデータ空間のデザイン・プライオリティ
1.4 INTEROPERABILITY AT THE CORE OF EU DATA SPACES 1.4 EUデータ空間の核となる相互運用性
1.5 SCOPE AND OBJECTIVES 1.5 スコープと目標
1.6 STRUCTURE OF THE DOCUMENT 1.6 文書の構成
2. DATA PROTECTION CONSIDERATIONS IN EU DATA SPACES 2. EUデータ空間におけるデータ防御の考慮事項
2.1 TERMINOLOGY AND ROLES ANALYSIS 2.1 用語と役割の分析
2.2 INPUT PRIVACY AND OUTPUT PRIVACY PROBLEMS 2.2 入力プライバシーと出力プライバシーの問題
2.3 THE ROLE OF DATA PROTECTION ENGINEERING 2.3 データ保護エンジニアリングの役割
2.4 DATA PROTECTION IMPACT ASSESSMENTS IN DATA SPACES 2.4 データ空間におけるデータ保護の影響評価
2.5 MAIN ACCOUNTABILITY BUILDING BLOCKS 2.5 主要な説明責任構成要素
2.6 EFFICIENT EU DATA SPACES THROUGH SAFEGUARDS AND TRUSTED INTERMEDIARIES 2.6 セーフガードと信頼できる仲介者による効率的なEUデータ空間
3. HEALTH - PHARMACEUTICAL USE CASES 3.健康 - 医薬品の使用例
3.1 BACKGROUND 3.1 背景
3.2 PROBLEM(S) DEFINITION 3.2 問題の定義
3.3 USE CASE - AVAILABILITY OF PHARMACEUTICAL PRODUCTS IN THE MARKET 3.3 ユースケース - 市場における医薬品の入手可能性
 3.3.1 Technologies to be used  3.3.1 使用する技術
 3.3.2 Considerations  3.3.2 考慮事項
3.4 USE CASE - RESEARCH AND ANALYSIS ON THE EFFICIENCY OF PHARMACEUTICAL PRODUCTS 3.4 ユースケース - 医薬品の効率に関する調査と分析
 3.4.1 Technologies to be used  3.4.1 使用する技術
 3.4.2 Considerations  3.4.2 考慮事項
4. CONCLUSIONS 4.結論
5. REFERENCES 5.参考文献

| | Comments (0)

金融庁 損害保険ジャパン及びSOMPOホールディングスに対する行政処分 (2024.01.25)とそれを受けたSOMPOグループの対応

こんにちは、丸山満彦です。

ビッグモーター事案に関連して、金融庁が損害保険ジャパン及びSOMPOホールディングスに対する業務改善命令をだしていますね。。。

金融庁

・2024.01.25 損害保険ジャパン及びSOMPOホールディングスに対する行政処分について

気になった記述...


BM社による不正請求はその悪質性から、損害保険業界全体の信頼をも失墜させかねない極めて重大かつ影響力のある事案であり、損保ジャパンのBM社に対する管理・けん制態勢が無効化していた実態は、BM社に不正行為を惹起させる「土壌」(不正行為等を行い得る「機会」の存在)を生じさせるとともに、結果としてBM社の不正請求を助長し、顧客被害の拡大につながったことを考えると、損保ジャパンのBM社に対する一連の対応には重大な問題が認められると言わざるを得ない。


 

この処分をうけて...

SOMPOホールディングス

・2024.01.25 [PDF] 金融庁による行政処分(業務改善命令)について [downloaded]

20240129-15147

 

・2024.01.26 [PDF] 金融庁による行政処分(業務改善命令)の概要と再発防止の方向性 [downloaded]

20240129-15004

 

 

Continue reading "金融庁 損害保険ジャパン及びSOMPOホールディングスに対する行政処分 (2024.01.25)とそれを受けたSOMPOグループの対応"

| | Comments (0)

英国 2022年製品セキュリティ・通信インフラ制度のウェブページ(Product Security and Telecommunications Infrastructure Act 2022 関係)

こんにちは、丸山満彦です。

英国の製品セキュリティ・通信インフラ制度のウェブページの紹介です。。。製品セキュリティ・通信インフラ法 (Product Security and Telecommunications Infrastructure Act 2022; PSTI Act 2022) や解説などもありますね。。。。2024年4月29日に施行されますね。。。

EUもサイバーレジリエンス法が決まりそうだし、米国も大統領令でIoTセキュリティの自主的な認証制度(サイバートラスト・マーク)を始めますし、日本も経済産業省でIoTセキュリティの制度についての検討が進んでいますし。。。

先陣を切って英国からですかね。。。

 

GOV.UK

2024.01.26にアップデートされているようです。。。

・2024.01.26 The UK Product Security and Telecommunications Infrastructure (Product Security) regime

 

The UK Product Security and Telecommunications Infrastructure (Product Security) regime 英国の製品セキュリティおよび電気通信インフラ(製品セキュリティ)制度
The UK’s consumer connectable product security regime comes into effect on 29 April 2024. Businesses in the supply chains of these products need to be compliant with the legislation from that date. 英国の消費者向け接続可能製品のセキュリティ制度は、2024年4月29日に開始する。これらの製品のサプライチェーンに含まれる企業は、この日から法令に準拠する必要がある。
From: 以下より:
Department for Science, Innovation and Technology and Viscount Camrose 科学技術革新省とカムローズ子爵
Published 発行
29-Apr-23 2023年4月29日
Last updated 最終更新日
Documents ドキュメント
> 2022年製品安全および電気通信インフラ法 - その1
2022年製品安全および電気通信インフラ法に関する説明文書
製品セキュリティおよび電気通信インフラ(関連接続可能製品に対するセキュリティ要件)規則2023
製品セキュリティおよび電気通信インフラ(関連する接続可能な製品に対するセキュリティ要件)規則2023に対する説明文書
ETSI EN 303 645:消費者向けモノのインターネットのサイバーセキュリティ: ベースライン要件
Details 詳細
The UK’s consumer connectable product security regime comes into effect on 29 April 2024.  英国の消費者向け接続可能製品のセキュリティ体制は、2024年4月29日に施行される。 
From that date, the law will require manufacturers of UK consumer connectable products (or ‘smart’ products) to comply with the relevant obligations set out in the Act, which include ensuring they and their products meet the relevant minimum security requirements.  この法律により、英国の消費者向け接続可能製品(または「スマート」製品)の製造事業者は、同法に定められた関連義務を遵守することが義務付けられる。
The regime comprises of two pieces of legislation:  この制度は2つの法律で構成されている: 
・Part 1 of the Product Security and Telecommunications Infrastructure (PSTI) Act 2022; and  ・2022年製品セキュリティおよび電気通信インフラ(PSTI)法第1部、および 
・The Product Security and Telecommunications Infrastructure (Security Requirements for Relevant Connectable Products) Regulations 2023.  ・製品セキュリティおよび電気通信インフラストラクチャー(関連接続可能製品のセキュリティ要件)規則2023。
The PSTI Act received Royal Assent in December 2022. The government published a full draft of the PSTI (Security Requirements for Relevant Connectable Products) Regulations in April 2023. These regulations were signed into law on 14 September 2023. This guidance page highlights the key provisions businesses should consider in seeking to comply with the regime.  PSTI法は2022年12月に勅許を得た。政府は2023年4月にPSTI(関連接続可能製品のセキュリティ要件)規則の全ドラフトを公表した。これらの規則は2023年9月14日に署名された。本ガイダンスのページでは、企業が本規制に準拠するために考慮すべき主要な条項を紹介する。
Commencement of the regime  制度の開始 
Regulation 3 of The Product Security and Telecommunications Infrastructure Act 2022 (Commencement No. 2) Regulations 2023 provides that all parts of Part 1 of the Act not already in force come into force on 29 April 2024.   製品セキュリティ・電気通信インフラ法2022 (Commencement No. 2) Regulations 2023の第3規則は、同法第1部のうちまだ施行されていないすべての部分が2024年4月29日に施行されることを規定している。 
Regulation 1 of the PSTI (Security Requirements for Relevant Connectable Products) Regulations 2023 provides that those Regulations come into force on 29 April 2024.  PSTI(関連接続製品のセキュリティ要件)規則2023の規則1は、これらの規則が2024年4月29日に施行されることを規定している。
Persons subject to duties under the regime  本制度に基づく義務の対象者 
The economic actors to which the duties of the product security regime apply (“relevant persons”) are the manufacturers, importers, and distributors of relevant connectable products.   製品セキュリティ制度の義務が適用される経済主体(「重要な製品」)は、関連接続可能製品の製造事業者、輸入事業者、頒布事業者である。 
Section 7 of the Act provides definitions of these persons in relation to a product.  同法第7条は、製品に関連するこれらの者の定義を定めている。
Where a manufacturer established abroad authorises a person in the United Kingdom, with the agreement of that person, to perform certain duties on their behalf, section 51 sets out that the authorised representative must comply with those duties, while stipulating that this does not affect the manufacturer’s liability for a failure to comply with a duty.  外国に設立された製造事業者が、その者の同意を得て、英国にいる者に一定の義務を代行させる場合、第51条は、委任された代表者がその義務を遵守しなければならないことを定める一方、このことは、義務を遵守しなかった場合の製造事業者の責任には影響しないと規定している。
Duties of relevant persons  関係者の義務 
Chapter 2 of the Act sets out the duties of relevant persons.   同法第2章は、関係者の義務を定めている。 
Additionally, where a manufacturer has appointed an “authorised representative” as defined in section 51(2) of the act, section 13 of this chapter sets out duties that must be complied with by that authorised representative.  さらに、製造事業者が法第51条第2項に定義される「公認代表者」を任命している場合、本章第13項は、当該公認代表者が遵守すべき義務を定めている。
Certain duties under the regime require a relevant person to consider provisions of the Regulations to discharge those duties:  本制度に基づく特定の義務は、関連者がその義務を果たすために規則の規定を考慮することを求めている: 
・Regulation 3 provides that the security requirements specified in schedule 1 to the Regulations apply to manufacturers of relevant connectable products.  ・規則3は、関連する接続可能製品の製造事業者に対し、規則別表1に定めるセキュリティ要件が適用されることを規定している。
・Regulation 7 provides that the information specified in schedule 4 to the regulations must be included in the statement of compliance. Manufacturers must produce a statement of compliance that includes all the information specified in schedule 4 and ensure that it accompanies the product to make it available.   ・規則7は、規則のスケジュール4に規定された情報を適合声明書に含めなければならないことを規定している。製造事業者は、スケジュール4に規定されたすべての情報を含む適合性確認書を作成し、製品に添付して利用できるようにしなければならない。 
・Sections 15 and 22 of the PSTI Act further set out that importers and distributors respectively also have duties placed upon them to not make available a product unless it is accompanied by a statement of compliance.   ・PSTI法第15条と第22条はさらに、輸入事業者と頒布事業者はそれぞれ、適合説明書が添付されない限り、製品を入手可能な状態にしない義務を負うと定めている。 
Additionally, regulations 8 and 9 set out the requirements for a manufacturer and an importer respectively to retain a copy of the statement of compliance.  さらに、規則第8条および第9条は、製造事業者および輸入事業者がそれぞれ適合宣言書の写しを保管する要件を定めている。
Relevant connectable products  関連する接続可能製品 
The conditions under which a relevant person is subject to a specific duty are set out in the section of the Act where that duty is provided for. Where these conditions, or the duty itself, relates to a “relevant connectable product”, section 4 of the Act provides for the definition of this term. A product is a relevant connectable product if it is an internet-connectable product or a network-connectable product, and not an excepted product.  関連者が特定の関税を課される条件は、当該関税が規定されている法律の条文に定められている。これらの条件または義務そのものが「関連する接続可能な製品」に関するものである場合、法第4条にこの用語の定義が規定されている。製品がインターネット接続可能な製品またはネットワーク接続可能な製品であり、例外製品でない場合、製品は関連接続可能製品である。
Economic actors seeking to determine whether a product is a “relevant connectable product” should therefore review the definitions of “internet-connectable product” and “network-connectable product” provided for in section 5 of the Act, as well as the products specified as excepted products in schedule 3 to the Regulations.  したがって、ある製品が「関連する接続可能な製品」であるかどうかを判断しようとする経済主体は、同法第5条に規定されている「インターネット接続可能な製品」および「ネットワーク接続可能な製品」の定義、ならびに同規則のスケジュール3で除外製品として指定されている製品を確認する必要がある。
The Security Requirements  セキュリティ要件 
The security requirements are actions that relevant businesses in the supply chain must take, or requirements that a product must meet, to address a security problem or eliminate a potential security vulnerability.  セキュリティ要件とは、セキュリティ上の問題に対処し、潜在的なセキュリティの脆弱性を排除するために、サプライチェーンの関連事業者が講じなければならない措置、または製品が満たさなければならない要件である。
Schedule 1 to the 2023 Regulations sets out the specific requirements that must be complied with in relation to relevant connectable products.   2023年規則の別表1には、関連する接続可能な製品に関して遵守しなければならない具体的な要件が定められている。 
1. Passwords   1. パスワード  
Passwords must be unique per product; or capable of being defined by the user of the product.   パスワードは、製品ごとに一意であるか、製品のユーザーが定義できるものでなければならない。 
Paragraph 1(3) of schedule 1 to the Regulations provides further requirements that relate to passwords which are unique per product. They must not be based on incremental counters; based on or derived from publicly available information; based on or derived from unique product identifiers, such as a serial number unless this is done using an encryption method, or keyed hashing algorithm, that is accepted as part of good industry practice; or otherwise easily guessable.  規則別表1の第1項(3)は、製品ごとに一意であるパスワードに関する更なる要件を規定している。パスワードは、インクリメンタルカウンタに基づくもの、一般に入手可能な情報に基づくもの、一般に入手可能な情報に由来するもの、業界の適正な慣行の一部として認められている暗号化方法または鍵付きハッシュアルゴリズムを使用しない限り、シリアル番号などの一意の製品識別子に基づくもの、またはそれらに由来するものであってはならない、その他容易に推測可能なものであってはならない。
2. Information on how to report security issues   2. セキュリティ問題の報告方法に関する情報  
The manufacturer must provide information on how to report to them security issues about their product. The manufacturer must also provide information on the timescales within which an acknowledgment of the receipt of the report and status updates until the resolution of the reported security issues can be expected by person making the report.   製造事業者は、製品に関するセキュリティ上の問題を報告する方法に関する情報を提供しなければならない。また、製造事業者は、報告者が報告を受領したことの確認と、報告されたセキュリ ティ問題の解決までの状況更新を期待できる期間に関する情報を提供しなければならない。 
This information should be made available without prior request in English, free of charge. It should also be accessible, clear and transparent.  この情報は、事前の要請なしに、英語で、無料で提供されなければならない。また、アクセスしやすく、明瞭で透明性のあるものでなければならない。
3. Information on minimum security update periods   3. 最低セキュリティ更新期間に関する情報  
Information on minimum security update periods must be published and made available to the consumer in a clear accessible and transparent manner. This must be the minimum length of time security updates will be provided along with an end date.   最低セキュリティ更新期間に関する情報は、明確でアクセス可能かつ透明性のある方法で公表され、消費者が入手できるようにされなければならない。この情報には、セキュリティ更新が提供される最短期間と、その終了日が記載されていなければならない。 
This information should be available without prior request in English, free of charge and in a such a way that is understandable for a reader without prior technical knowledge.   この情報は、事前の要請なしに、英語で、無償で、専門知識のない読者にも理解できるように提供されなければならない。 
Enforcement  施行 
The Office for Product Safety and Standards (OPSS) will be responsible for enforcing the PSTI Act 2022 and the 2023 Regulations from 29 April 2024, acting under an MoU with DSIT.  製品安全基準局(OPSS)は、DSITとのMoUに基づき、2022年4月29日からPSTI法および2023年規則の施行に責任を負う。
OPSS is part of the Department for Business and Trade and already enforce the UK’s existing product safety regulations  OPSSは商務貿易省の一部であり、すでに英国の既存の製品安全規制を執行している。
OPSS will utilise existing processes and relationships to enforce the UK product security regime in a robust and risk-based manner and take appropriate and proportionate action against businesses that fail to comply with their obligations.   OPSSは既存のプロセスと関係を活用し、英国の製品安全規制を強固かつリスクベースで実施し、義務を遵守しない企業に対して適切かつ相応の措置を講じる。 
Please visit the OPSS web page for further information on OPSS’s enforcement activity and how to work with the enforcing authority. OPSSの取締り活動および取締り当局との協力方法に関する詳細は、OPSSのウェブページを参照されたい。
Resources   リソース  
OPSS and DSIT will continue to provide support to industry as the regime progresses. Please continue to check these web pages for updates - you can sign up to alerts for this page here. OPSSとDSITは、制度が進展するにつれ、産業界にサポートを提供し続ける。引き続き、これらのウェブページの最新情報をチェックしていただきたい。
The resources below provide information to support compliance with the PSTI Product Security regime.    以下のリソースは、PSTI製品セキュリティ体制への準拠をサポートする情報を提供する。  
ETSI standards and supporting guidance  ETSI標準とサポートガイダンス 
ETSI EN 303 645  ETSI EN 303 645 
ETSI Technical Specification 103 645    ETSI 技術仕様 103 645   
ETSI Implementation Guide 103 621    ETSI 実施ガイド 103 621   
ETSI Assessment Specification 103 701    ETSI 評価仕様書 103 701   
Quick guides and webinars   クイックガイドとウェビナー  
iotsecurityfoundation.org/consumer-iot/ iotsecurityfoundation.org/consumer-iot/

Published 29 April 2023

2023年4月29日発行
Last updated 26 January 2024 + show all updates 最終更新 2024年1月26日 + すべての更新を表示する
26-Jan-24 2024年1月26日
The product security law comes into effect on 29 April 2024. We have updated the guidance to help ensure businesses understand the requirements and the need to comply with the legislation from that date. This guidance builds on the wide range of communications with industry over the past few years explaining the security requirements for 'smart' / connectable products. 製品セキュリティ法は2024年4月29日に施行される。私たちは、企業がこの日以降の要件と法令遵守の必要性を確実に理解できるよう、ガイダンスを更新した。このガイダンスは、「スマート」/接続可能な製品のセキュリティ要件について説明する、過去数年間の業界との幅広いコミュニケーションに基づいている。
31-Oct-23 2023年10月31日
These regulations were signed into law on 14 September 2023. The consumer connectable product security regime will enter into effect on 29 April 2024. これらの規制は2023年9月14日に署名された。消費者向け接続可能製品のセキュリティ体制は2024年4月29日に発効する。
30-Aug-23 2023年08月30日
Added link to the updates draft Regulations published in July 2023. These will be debated when Parliamentary time allows. 2023年7月に公表された規則草案へのリンクを追加した。これらは議会の時間が許せば審議される。
29-Apr-23 2023年04月29日
First published. 初稿

 

1_20240129010901

 


 

参考

まるちゃんの情報セキュリティ気まぐれ日記

 

PSTI関係...

・2023.05.04 英国 インターネットに接続するすべての消費者向け製品に適用される最低セキュリティ基準制度が1年後にはじまりますよ〜 (2023.04.29)

・2022.12.11 英国 製品セキュリティおよび電気通信インフラストラクチャ(PSTI)法成立 at 2022.12.06

・2022.01.27 英国 スマートデバイスのサイバーセキュリティ新法に一歩近づくと発表

・2021.12.09 英国 製品セキュリティおよび電気通信インフラストラクチャ(PSTI)法案 at 2021.11.24

 

日本の動きについては...

・2023.05.17 経済産業省 産業サイバーセキュリティ研究会 WG3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会 中間とりまとめ

・2022.11.04 経済産業省 第1回 産業サイバーセキュリティ研究会 ワーキンググループ3 IoT製品に対するセキュリティ適合性評価制度構築に向けた検討会

 

米国のサイバーセキュリティラベル

・2023.07.19 米国 消費者向けIoT製品のセキュリティ認証制度、サイバートラスト・マーク (U.S. Cyber Trust Mark) を発表

・2023.05.10 米国 ホワイトハウス 重要新興技術に関する国家標準化戦略を発表 (2023.05.04)

・2023.04.25 Five Eyesの国々が安全なスマートシティを作るための共同ガイダンスを発表 (2023.04.20)

・2023.03.04 米国 国家サイバーセキュリティ戦略を発表

・2023.05.07 米国 NIST SP 1800-36 (ドラフト) 信頼できるIoTデバイスのネットワーク層オンボーディングとライフサイクル管理:インターネットプロトコルベースのIoTデバイスとネットワークのセキュリティ強化(初期ドラフト)(2023.05.03)

・2022.06.19 NISTIR 8425 (ドラフト) 消費者向けIoT製品のIoTコアベースラインのプロファイル

・2022.05.19 NIST IoTセキュリティ関連の文書についてNISTのブログで簡単に説明されていますね。。。

・2022.02.07 NIST ホワイトペーパー :消費者向けソフトウェアのサイバーセキュリティラベルの推奨規準

・2022.02.06 NIST ホワイトペーパー :消費者向けIoT製品のサイバーセキュリティラベルの推奨規準

・2021.11.04 NIST 消費者向けソフトウェアのサイバーセキュリティに関するラベリングについての意見募集

 

EUのサイバーセキュリティ

・2024.01.17 欧州 2023年12月20日に欧州議会に送致されたサイバーレジリエンス法案 (Cyber Resilience Act)

・2023.12.04 欧州理事会、欧州議会がサイバーレジリエンス法について政治的合意

・2023.03.21 ENISA サイバーセキュリティ認証のウェブページを開設

・2023.03.01 IPA 欧州規格 ETSI EN 303 645 V2.1.1 (2020-06)の翻訳の公開

・2023.01.29 欧州 サイバーレジリエンス法案に対するポジションペーパー by 欧州消費者機構

・2022.09.17 欧州委員会 サイバーレジリエンス法案 製造者は「積極的に悪用される脆弱性」に気づいたら24時間以内にENISAに報告しなければならない...

 

ドイツのセキュリティ製品の認証

・2022.10.31 ドイツ シンガポール 消費者向けIoT製品のサイバーセキュリティ・ラベルの相互承認 (2022.10.20)

・2022.05.09 ドイツ ITセキュリティラベル for 消費者向けスマート製品

・2022.02.03 ドイツ BSI Mail.deの電子メールサービスにITセキュリティラベルを付与

・2021.07.18 独国 BSIがITセキュリティラベルについてのウェブページを公開していますね。。。

 

 

| | Comments (0)

2024.01.28

AI使用に関する国際ガイダンス

こんにちは、丸山満彦です。

AIシステムの「使用」に関するガイダンスとして、オーストラリア、米国、英国、カナダ、ニュージランドとともに作成した「AI使用に関する国際ガイダンス (Engaging with Artificial Intelligence(AI)) について、11カ国が署名をしたようですね。。。

オーストラリア

Australia signals Derectorate; ASD

・2024.01.24 Engaging with Artificial Intelligence (AI)

・[PDF

20240128-63651

 

参加団体

米国 ・サイバーセキュリティ・インフラストラクチャー安全保障庁(CISA)』
・米国連邦捜査局(FBI)
・国家安全保障局(NSA)
英国 ・国家サイバーセキュリティセンター (NCSC-UK)
カナダ ・サイバーセキュリティセンター (CCCS)
豪州 ・通信電子局(ASD)
・豪州サイバーセキュリティセンター(ACSC)
ニュージーランド ・国家サイバーセキュリティセンター (NCSC-NZ)
ドイツ ・連邦情報セキュリティ庁 (BSI)
イスラエル ・国家サイバー総局 (INCD)
日本 ・内閣サイバーセキュリティセンター (NISC) 
・日本内閣府科学技術・イノベーション推進事務局
ノルウェー ・国家サイバーセキュリティセンター (NCSC-NO)
シンガポール ・サイバーセキュリティ庁 (CSA)
スウェーデン ・国家サイバーセキュリティセンター

 

日本

● 内閣府

・2024.01.24 AI使用に関する国際ガイダンスへの共同署名について

内容について、次のように説明していますね。。。


(1)本文:AIシステムに対する脅威を6つ列挙の上、これに対する12の緩和策を注意喚起するもの。

 (ア)導入
この文書はAIシステムを安全に「使用」するガイダンスを提供。なお、安全なAIシステムの「開発」については、(英米が主導した)文書”Guidelines for Secure AI System Development”を参照願いたい。

 (イ)AIとは
機械学習、自然言語プロセス、生成AIを説明し、AIが意図的又は過失で被害をもたらすリスクがあり、リスク管理の必要性を強調。

 (ウ)AIに関する課題
脅威として、①データポイズニング、②インプット改ざん攻撃(プロンプトインジェクション・敵対的サンプル)、③生成AIハルシネーション、④プライバシー・知的財産に関する懸念、⑤モデル窃取攻撃・学習データ漏えい、⑥匿名化データの再特定を列挙。

 (エ)緩和策
AIシステムに関し、それぞれ、①サイバーセキュリティ枠組みの実施、②プライバシー・データ保護義務への影響評価、③多要素認証の実装、④特権アクセスの管理、⑤バックアップ、⑥試行、⑦サプライチェーンを含むセキュアバイデザイン確保、⑧限界や制限の理解、⑨関係スタッフの能力・資格、⑩検査・ヘルスチェック、⑪ログ監視、⑫インシデント対応を列挙。

(2)参考文献:各国のサイバーセキュリティ枠組み、AIセキュリティに関する文書を列挙。(例えば、広島AIプロセス包括的政策枠組みや、米国NISTのCybersecurity Framework, AI Risk Management Framework等。)


 

6つの脅威

①データポイズニング、
②インプット改ざん攻撃(プロンプトインジェクション・敵対的サンプル)、
③生成AIハルシネーション、
④プライバシー・知的財産に関する懸念、
⑤モデル窃取攻撃・学習データ漏えい、
⑥匿名化データの再特定

 

12の緩和策

①サイバーセキュリティ枠組みの実施、
②プライバシー・データ保護義務への影響評価、
③多要素認証の実装、
④特権アクセスの管理、
⑤バックアップ、
⑥試行、
⑦サプライチェーンを含むセキュアバイデザイン確保、
⑧限界や制限の理解、
⑨関係スタッフの能力・資格、
⑩検査・ヘルスチェック、
⑪ログ監視、
⑫インシデント対応

 

仮訳

・[PDF]

20240128-64246

 


 

 

セキュア開発についてのガイドは

 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.11.28 米国 CISA 英国 NCSC 安全なAIシステム開発のための共同ガイドライン

 

を参考に...

 

 

| | Comments (0)

米国 ニューヨーク州 金融サービス局 意見募集 保険引受と価格設定における人工知能システムと外部消費者データおよび情報源の利用に関する通達案 (2024.01.17)

こんにちは、丸山満彦です。

差別的な取り扱いにならないようにするにはどうするか?ということも含めて、保険会社がAIを利用する際に検討すべきこと、という感じですかね。。。

日本でも応用できる考え方ですよね。。。

1_20240127222001

 

New York States - Department of Financial Services; DFS

プレス

・2024.01.17 

DFS Superintendent Adrienne A. Harris Proposes Artificial Intelligence Guidance to Combat Discrimination  DFSのAdrienne A. Harris監督官が識別的差別に対抗するための人工知能ガイダンスを提案した。
Circular Letter Applies to All Insurers Authorized to Write Insurance in New York State 通達はニューヨーク州で保険認可を受けたすべての保険会社に適用される。
Today Superintendent of Financial Services Adrienne A. Harris issued for public comment a proposed circular letter addressing the use of artificial intelligence by licensed insurers. 本日、アドリアン・ハリス金融サービス長官は、認可を受けた保険会社による人工知能の使用に関する通達案を発表し、パブリック・コメントを求めた。
“Technological advances that allow for greater efficiency in underwriting and pricing should never come at the expense of consumer protection,” said Superintendent Harris. “DFS has a responsibility to ensure that the use of AI in insurance will be conducted in a way that does not replicate or expand existing systemic biases that have historically led to unlawful or unfair discrimination.”  「引受や価格設定の効率化を可能にする技術の進歩は、決して消費者保護を犠牲にしてはならない。「DFSは、保険におけるAIの利用が、歴史的に違法または不当な識別的差別につながってきた既存の制度的バイアスを複製または拡大しない方法で行われることを保証する責任がある。
The circular letter outlines DFS’s expectations for how insurers develop and manage the integration of external consumer data and information sources (“ECDIS”), artificial intelligence systems (“AIS”), and other predictive models to mitigate potential harm to consumers. Insurers are expected to:  通達では、保険会社が消費者の潜在的な損害を軽減するために、外部の消費者データや情報源(「ECDIS」)、人工知能システム(「AIS」)、その他の予測モデルの統合をどのように開発・管理するかについて、DFSの期待を概説している。保険会社は以下を行うことが期待される: 
・analyze ECDIS and AIS for unfair and unlawful discrimination; ・ECDISとAISを分析し、不当かつ違法な識別的差別がないか確認する;
・demonstrate the actuarial validity of ECDIS and AIS; ・ECDISとAISの保険数理上の妥当性を実証する;
・maintain a corporate governance framework that provides appropriate oversight of the insurer’s use of ECDIS and AIS; and  ・保険者によるECDISとAISの利用を適切に監督するコーポレート・ガバナンスの枠組みを維持する。
・maintain appropriate transparency, risk management, and internal controls. ・適切な透明性、リスクマネジメント、内部統制を維持する。
DFS recognizes that AIS and ECDIS can simplify underwriting and pricing and potentially make them more accurate. However, the self-learning behavior of AIS may also increase the risks of unfair or unlawful discrimination in violation of the Insurance Law, which may disproportionately impact vulnerable communities or otherwise undermine the New York insurance market. DFSは、AISとECDISが引受と価格設定を簡素化し、より正確なものにする可能性があることを認識している。しかし、AISの自己学習行動は、保険法に違反する不当または違法な識別的差別のリスクを増大させる可能性もあり、脆弱性のある地域社会に不釣り合いな影響を与えたり、ニューヨークの保険市場を弱体化させる可能性がある。
Today’s announcement builds upon Governor Hochul’s first-ever statewide policy governing AI and commitment to making New York a leader in cutting-edge technology development and use. 本日の発表は、ホーチュル政府ガバナーによるAIに関する初の州全体の政策と、ニューヨークを最先端技術の開発と利用におけるリーダーにするというコミットメントに基づくものである。
DFS is soliciting comments from the industry and the public on today’s proposed circular letter until March 17, 2024.  A copy of the circular letter is available on the DFS website. DFSは本日の通達案について、2024年3月17日まで業界および一般からの意見を募集している。 通達のコピーはDFSのウェブサイトで入手できる。

 

通達案

・2024.01.17 Proposed Insurance Circular Letter

Proposed Insurance Circular Letter 保険通達案について
17-Jan-24 1月17日-24日
TO: All Insurers Authorized to Write Insurance in New York State, Licensed Fraternal Benefit Societies, and the New York State Insurance Fund 宛先 ニューヨーク州で保険認可を受けたすべての保険会社、認可を受けた友愛団体、ニューヨーク州保険基金
RE: Use of Artificial Intelligence Systems and External Consumer Data and Information Sources in Insurance Underwriting and Pricing RE: 保険引受および価格設定における人工知能システムおよび外部の消費者データ・情報源の利用
STATUTORY AND REGULATORY REFERENCES: N.Y. Ins. Law §§ 308, 309, 1501, 1503, 1604, 1702, 1717, 2303, 3221, 3425, 3426, 4224, and 4305, and Articles 24 and 26; 11 NYCRR 82; 11 NYCRR 89; 11 NYCRR 90; 11 NYCRR 243 法令および規制の参考文献 ニューヨーク州保険法第 308 条、第 309 条、第 1501 条、第 1503 条、第 1604 条、第 1702 条、第 1717 条、第 2303 条、第 3221 条、第 3425 条、第 3426 条、第 4224 条、第 4305 条、第 24 条、第 26 条、第 11 NYCRR 第 82 条、第 11 NYCRR 第 89 条、第 11 NYCRR 第 90 条、第 11 NYCRR 第 243 条。
I. Purpose and Background I. 目的と背景
1. The New York State Department of Financial Services (“Department”) is committed to innovation and the responsible use of technology to improve financial access and contribute to the safety and stability of insurance markets. The Department expects that insurers use of emerging technologies such as artificial intelligence will be conducted in a manner that complies with all applicable federal and state laws, rules, and regulations. 1. ニューヨーク州金融サービス局(以下 "局")は、金融アクセスを改善し、保険市場の安全性と安定性に貢献するため、技術革新と責任ある技術利用に取り組んでいる。同局は、保険会社が人工知能のような新たなテクノロジーを利用する際には、適用されるすべての連邦法および州法、規則、規制を遵守することを期待している。
2. The use of external consumer data and information sources (“ECDIS”) and artificial intelligence systems (“AIS”) can both benefit insurers and consumers alike by simplifying and expediting insurance underwriting and pricing processes, and potentially result in more accurate underwriting and pricing of insurance. At the same time, ECDIS may reflect systemic biases and its use can reinforce and exacerbate inequality. This raises significant concerns about the potential for unfair adverse effects or discriminatory decision-making. ECDIS may also have variable accuracy and reliability and may come from entities that are not subject to regulatory oversight and consumer protections. Furthermore, the self-learning behavior of AIS increases the risks of inaccurate, arbitrary, capricious, or unfairly discriminatory outcomes that may disproportionately affect vulnerable communities and individuals or otherwise undermine the insurance marketplace in New York. 2. 外部消費者データ・情報源(ECDIS)や人工知能システム(AIS)の利用は、保険の引受・価格決定プロセスを簡素化・迅速化することにより、保険会社と消費者の双方に利益をもたらし、より正確な保険の引受・価格決定をもたらす可能性がある。同時に、ECDISはシステム的なバイアスを反映する可能性があり、その使用は不平等を強化し、悪化させる可能性がある。このことは、不当な悪影響や差別的な意思決定の可能性について重大な懸念を生じさせる。ECDISはまた、精度や信頼性にばらつきがあり、規制監督や消費者保護の対象とならない事業体から提供されている可能性もある。さらに、AIS の自己学習行動は、不正確、恣意的、気まぐれ、不当な差別的結果のリスクを増大させ、脆弱な地域社会と個人に不釣り合いな影響を与えたり、ニューヨークの保険市場を弱体化させる可能性がある。
3. Therefore, it is critical that insurers who utilize such technologies establish a proper governance and risk management framework to mitigate the potential harm to consumers and comply with all relevant legal obligations. The purpose of this circular letter (“Circular Letter”) is to identify DFS’s expectations that all insurers authorized to write insurance in New York State, licensed fraternal benefit societies, and the New York State Insurance Fund (collectively, “insurers”) develop and manage their use of ECDIS, artificial intelligence systems, and other predictive models in underwriting and pricing insurance policies and annuity contracts. 3. したがって、このようなテクノロジーを利用する保険会社は、消費者への潜在的な損害を軽減し、関連するすべての法的義務を遵守するために、適切なガバナンスとリスクマネジメントの枠組みを確立することが極めて重要である。本通達の目的は、ニューヨーク州において保険契約を認可されたすべての保険会社、認可された友愛団体、およびニューヨーク州保険基金(以下、「保険会社」と総称する)が、保険契約および年金契約の引受けと価格決定において、ECDIS、人工知能システム、およびその他の予測モデルの利用を開発し、管理することをDFSが期待することを明らかにすることである。
4. For purposes of this Circular Letter, AIS means any machine-based system designed to perform functions normally associated with human intelligence, such as reasoning, learning, and self-improvement, that is used – in whole or in part – to supplement traditional medical, property or casualty underwriting or pricing, as a proxy for traditional medical, property or casualty underwriting or pricing, or to establish “lifestyle indicators” that may contribute to an underwriting or pricing assessment of an applicant for insurance coverage. 4. 本通達において、AIS とは、推論、学習、自己改善など、通常人間の知能に関連する機能を実行するよう設計された機械ベースのシステムであって、従来の医療、損害、傷害の引受やプライシングを補完するため、従来の医療、損害、傷害の引受やプライシングの代理として、あるいは保険加入申込者の引受やプライシングの評価に資する可能性のある「ライフスタイル指標」を設定するために、全体的あるいは部分的に使用されるものをいう。
5. For purposes of this Circular Letter, ECDIS includes data or information used – in whole or in part – to supplement traditional medical, property or casualty underwriting or pricing, as a proxy for traditional medical, property or casualty underwriting or pricing, or to establish “lifestyle indicators” that may contribute to an underwriting or pricing assessment of an applicant for insurance coverage. For the purposes of this Circular Letter, ECDIS does not include an MIB Group, Inc. member information exchangeservice, a motor vehicle report, or a criminal history search. An insurer conducting a criminal history search for insurance underwriting and pricing purposes must comply with Executive Law § 296(16). See e.g., Insurance Circular Letter No. 13 (2022). 5. 本通達の目的上、ECDIS には、従来の医療、財物、または傷害保険の引受けまたは価格設定を補完するため、従来の医療、財物、または傷害保険の引受けまたは価格設定の代理として、あるいは保険加入申請者の引受けまたは価格設定の評価に資する可能性のある「ライフスタイル指標」を設定するために、全部または一部使用されるデータまたは情報が含まれる。本通達では、ECDIS には MIB Group, Inc.の会員情報交換サービス、自動車事故報告書、犯罪歴調 査は含まれない。保険引受および価格設定の目的で犯罪履歴調査を行う保険会社は、行政法第 296 条(16)に従わなければならない。例えば、保険通達書簡第13号(2022年)を参照のこと。
6. An insurer may deploy ECDIS and AIS in a variety of ways throughout the underwriting and pricing process. The Department recognizes there is no one-size-fits-all approach to managing data and decisioning systems. Therefore, insurers should take an approach to developing and managing their use of ECDIS and AIS that is reasonable and appropriate to each insurer’s business model and the overall complexity and materiality of the risks inherent in using ECDIS and AIS. 6. 保険会社は、保険引受と価格決定プロセスを通じて、様々な方法で ECDIS と AIS を配備することができる。保険局は、データと意思決定システムを管理する上で、万能なアプローチはないと認識している。従って、保険者は、ECDIS と AIS の利用を発展させ、マネジメントするために、各保険者のビジネ スモデルと、ECDIS と AIS の利用に内在するリスクの全体的な複雑さと重要性に対して、合理的で適切なアプロ ーチを取るべきである。
7. This Circular Letter is not intended to provide an exhaustive list of potential issues that could arise from the use of ECDIS or AIS and is not intended to suggest that an insurer’s due diligence in assessing ECDIS or AIS should be limited to the concerns enumerated below. This Circular Letter also is not intended to address phases of the insurance product lifecycle other than underwriting and pricing. 7. 本通達は、ECDIS や AIS の使用から生じる可能性のある問題を網羅的にプロバイダとして提供 することを意図したものではなく、また、ECDIS や AIS を評価する際の保険者のデューディリ ジェンスが、以下に列挙する懸念事項に限定されるべきことを示唆するものでもない。また、本通達は、保険商品のライフサイクルのうち、引受と価格設定以外の段階について言及することを意図したものでもない。
8. The Department may audit and examine an insurer’s use of ECDIS and AIS, including within the scope of regular or targeted examinations pursuant to New York Insurance Law (“Insurance Law”) § 309, or a request for special report pursuant to Insurance Law § 308. 8. 保険局は、ニューヨーク保険法(「保険法」)第 309 条に従った定期的な、あるいは的を絞った審査の範囲内 で、あるいは保険法第 308 条に従った特別報告の要請の範囲内で、保険会社の ECDIS と AIS の使用を監査し、調査することができる。
II. Fairness Principles II. 公正原則
9. An insurer should not use ECDIS or AIS for underwriting or pricing purposes unless the insurer can establish that the data source or model, as applicable, does not use and is not based in any way on any class protected pursuant to Insurance Law Article 26. Moreover, an insurer should not use ECDIS or AIS for underwriting or pricing purposes if such use would result in or permit any unfair discrimination or otherwise violate the Insurance Law or any regulations promulgated thereunder. 9. 保険者は、適用法に従って、そのデータソースやモデルが、保険法第26条に従って保護され ているいかなる階級も使用しておらず、いかなる形でもそれに基づいていないことを証明できな い限り、引受や価格設定の目的でECDISやAISを使用すべきではない。さらに、保険者は、ECDIS や AIS を引受や価格設定の目的で使用することが、不公正な差別をもたらすか、許 容するか、あるいは保険法やその下で公布された規制に違反する場合は、使用すべきではない。
A. Data Actuarial Validity A. データの数理的妥当性
10. As with any other variables employed in underwriting and pricing, insurers should be able to demonstrate that the ECDIS are supported by generally accepted actuarial standards of practice and are based on actual or reasonably anticipated experience, including, but not limited to, statistical studies, predictive modeling, and risk assessments. The underlying analyses should demonstrate a clear, empirical, statistically significant, rational, and not unfairly discriminatory relationship between the variables used and the relevant risk of the insured. 10. 保険会社は、保険引受や料率設定に用いられる他の変数と同様に、ECDIS が一般に認められた保険数理実務の標準によって裏付けられ、統計的研究、予測モデリング、リスクアセスメントを含むが、これらに限定されない、実際または合理的に予測される経験に基づくものであることを証明できなければならない。基礎となる分析は、使用される変数と被保険者の関連リスクとの間に、明確で、経験的で、統計的に有意で、合理的で、不当に差別的でない関係があることを実証するものでなければならない。
11. Proxy Assessment. Insurers must be able to demonstrate that the ECDIS employed for underwriting and pricing are not prohibited by the Insurance Law or regulations promulgated thereunder and should be able to demonstrate that they do not serve as a proxy for any protected classes that may result in unfair or unlawful discrimination. 11. 代理査定。保険者は、保険引受とプライシングのために採用された ECDIS が、保険法またはそれに基づき公布された規制によって禁止されていないことを証明できなければならず、また、不当または違法な識別をもたらす可能性のある保護階級の代理人として機能しないことを証明できなければならない。
B. Unfair and Unlawful Discrimination B. 不当・違法な差別
12. State and federal law prohibits insurers from unlawfully discriminating against certain protected classes of individuals and from engaging in unfair discrimination, including the ability of insurers to underwrite based on certain criteria.1 An insurer should not use ECDIS or AIS in underwriting or pricing unless the insurer has determined that the ECDIS or AIS does not collect or use criteria that would constitute unfair or unlawful discrimination or an unfair trade practice. 12.州法および連邦法は、保険会社が特定の保護対象者を違法に差別すること、また、保険会社が特定の基準に基づいて引受を行うことを含め、不公正な差別を行うことを禁じている[1] 。保険者は、ECDIS やAIS が不当・不法な差別や不公正な取引慣行となるような基準を収集・使用していないと判断しない限り、ECDIS やAIS を引受けやプライシングに使用してはならない。
13. When using ECDIS or AIS as part of their insurance business, insurers are responsible for complying with these anti-discrimination laws irrespective of whether they themselves are collecting data and directly underwriting consumers, or relying on ECDIS or AIS of external vendors that are intended to be partial or full substitutes for direct underwriting or pricing. An insurer may not use ECDIS or AIS to collect or use information that the insurer would otherwise be prohibited from collecting or using directly. An insurer may not rely solely on a vendor’s claim of non-discrimination or a proprietary third-party process to determine compliance with anti-discrimination laws. The responsibility to comply with anti-discrimination laws remains with the insurer at all times. 13. 保険業務の一環として ECDIS や AIS を使用する場合、保険者自身がデータを収集し、直接消費者の引受けを行うか、直接引受けや価格設定の一部または全部の代替となることを意図した外部業者の ECDIS や AIS に依存するかにかかわらず、保険者はこれらの識別的差別禁止法を遵守する責任がある。保険者は、ECDIS や AIS を使って、保険者が直接収集・利用することを禁じられている情報を収集・利用してはならない。保険者は、差別禁止法の遵守を判断するために、識別的でないというベンダーの主張 や、独自のサードパーティ・プロセスだけに頼ってはならない。識別的差別禁止法を遵守する責任は、常に保険者にある。
14. An insurer should not use ECDIS or AIS in underwriting or pricing unless the insurer can establish through a comprehensive assessment that the underwriting or pricing guidelines are not unfairly or unlawfully discriminatory in violation of the Insurance Law. A comprehensive assessment of whether an underwriting or pricing guideline derived from ECDIS or AIS unfairly discriminates between similarly situated individuals or unlawfully discriminates against a protected class should, at a minimum, include the following steps: 14. 保険者は、包括的な評価を通じて、引受または価格設定ガイドラインが保険法に違反する不当または違法な差別的行為でないことを立証できない限り、引受または価格設定においてECDISまたはAISを使用すべきではない。ECDIS または AIS に由来する引受または価格設定ガイドラインが、同様の立場にある個人間 で不当な差別を行うか、または保護されるべき階級に対して違法な差別を行うかどうかの包括的な評 価は、少なくとも以下のステップを含むべきである:
i. assessing whether the use of ECDIS or AIS produces disproportionate adverse effects in underwriting and/or pricing on similarly situated insureds, or insureds of a protected class. If there is no prima facie showing of a disproportionate adverse effect, then the insurer may conclude its evaluation. i. ECDIS または AIS の使用が、引受けおよび/または価格設定において、同様の立場にある被保険 者、あるいは保護された階級の被保険者に不釣り合いな悪影響を及ぼすかどうかを評価すること。不釣り合いな悪影響の疎明がない場合、保険者は評価を終了することができる。
ii. if there is prima facie showing of such a disproportionate adverse effect, further assessing whether there is a legitimate, lawful, and fair explanation or rationale for the differential effect on similarly situated insureds. If no legitimate, lawful, and fair explanation or rationale can account for the differential effect on similarly situated insureds, the insurer should modify its use of such ECDIS or AIS and evaluate the modified use of ECDIS or AIS. ii. そのような不釣り合いな悪影響の一応の証明がある場合は、さらに、同様の立場にある被保険者に対する差別的な影響について、合法的、適法かつ公正な説明や根拠があるかどうかを評価する。合法的、適法かつ公正な説明や理論的根拠がない場合、保険者はECDISやAISの使用を修正し、修正されたECDISやAISの使用を評価しなければならない。
iii. if a legitimate, lawful, and fair explanation or rationale can account for the differential effect, further conducting and appropriately documenting a search and analysis for a less discriminatory alternative variable(s) or methodology that would reasonably meet the insurer’s legitimate business needs. If a less discriminatory alternative exists, the insurer should modify its use of ECDIS or AIS accordingly. iii. 合法的、合法的、かつ公正な説明や根拠で差別的影響を説明できる場合、保険者の合法的なビジネス・ニーズを合理的に満たすような、より差別的でない代替変数や手法の検索と分析をさらに実施し、適切に文書化する。より差別的でない代替手段が存在する場合、保険者はそれに従ってECDISまたはAISの使用を修正すべきである。
C. Analyzing for Unfair or Unlawful Discrimination C. 不当または違法な差別の分析
15. Documentation. An insurer should appropriately document the processes and reasoning behind its testing methodologies and analysis for unfair or unlawful discrimination commensurate with the insurer’s use of ECDIS and AIS and the complexity and materiality of such ECDIS and AIS. An insurer should be prepared to make such documentation available to the Department upon request. 15. 文書化 保険者は、ECDIS や AIS の使用状況、ECDIS や AIS の複雑さ、重要性に見合った、不当または違法な 差別のテスト方法と分析のプロセスと理由を適切に文書化すべきである。保険者は、要請があれば、そのような文書を保険局に提供する用意がなければならない。
16. Frequency of Testing. Unfair or unlawful discrimination testing, and analysis should be administered prior to putting AIS into production and on a regular cadence thereafter, as well as whenever material updates or changes are made to either the ECDIS or AIS. 16. 試験の頻度。不当または違法な識別的試験および分析は、ECDIS または AIS のいずれかに重要な更新または変更が加えられるたびに、AIS を本番稼動させる前、およびその後も定期的に実施されなければならない。
17. Quantitative Assessment. Insurers are encouraged to use multiple statistical metrics in evaluating data and model outputs to ensure a comprehensive understanding and assessment. Such metrics may include, among others: 17. 定量的評価。保険者は、包括的な理解と評価を確実にするため、データ及びモデルの出力を評価する際に、 複数の統計的指標を使用することが推奨される。このような指標には、特に以下のものが含まれる:
i. Adverse Impact Ratio: Analyzing the rates of favorable outcomes between protected classes and control groups to identify any disparities. i. 悪影響を及ぼす比率: i. Adverse Impact Ratio(逆影響率):保護されたクラスと対照群との間の好ましい結果の割合を分析し、格差を特定する。
ii. Denials Odds Ratios: Computing the odds of adverse decisions for protected classes compared to control groups. ii. 拒否のオッズ比: 被保護階級が不利な決定を受ける確率を対照群と比較して計算する。
iii. Marginal Effects: Assessing the effect of a marginal change in a predictive variable on the likelihood of unfavorable outcomes, particularly for members of protected classes. iii. 限界効果: 予測変数のわずかな変化が、特に保護対象集団の構成員にとって不利な結果をもたらす可能性に及ぼす影響を評価すること。
iV. Standardized Mean Differences: Measuring the difference in average outcomes between protected classes and control groups. iV. 標準化平均差: 保護対象群と対照群の間の平均結果の差を測定する。
v. Z-tests and T-tests: Conducting statistical tests to ascertain whether differences in outcomes between protected classes and control groups are statistically significant. v. Z検定とT検定: 統計的検定を実施し、被保護層と対照群間の結果の差が統計的に有意であるかどうかを確認する。
vi. Drivers of Disparity: Identifying variables in AIS that cause differences in outcomes for protected classes relative to control groups. These drivers can be quantitatively computed or estimated using various methods, such as sensitivity analysis, Shapley values, regression coefficients, or other suitable explanatory techniques. vi. 格差の要因: AISにおいて、対照群に対する被保護者層の結果の差異を引き起こす変数を識別する。これらの要因は、感度分析、シャプレー値、回帰係数、その他の適切な説明技法など、様々な方法を用いて定量的に計算または推定することができる。
18. Qualitative Assessment. In addition to quantitative analysis, insurers’ comprehensive assessment should include a qualitative assessment of unfair or unlawful discrimination. This includes being able to explain, at all times, how the insurer’s AIS operates and to articulate the intuitive logical relationship between ECDIS and other model variables with an insured or potential insured individual’s risk. 18. 定性的な評価 定量的分析に加え、保険会社の包括的評価には、不当または不法な差別の質的評価を含めるべきである。これには、保険者のAISがどのように機能するかを常に説明できること、ECDISや他のモデル変数と被保険者又は潜在的被保険者のリスクとの間の直感的な論理的関係を明確に説明できることが含まれる。
III. Governance and Risk Management III. ガバナンスとリスクマネジメント
19. 11 NYCRR § 90.2 requires an insurer to have a corporate governance framework that is appropriate for the nature, scale, and complexity of the insurer.2 11 NYCRR § 90.1(c) defines “corporate governance framework” as “the structures, processes, information, and relationships used for the oversight, direction, control, and management of an insurer or system and for ensuring compliance with legal and regulatory requirements.” An insurer should have a corporate governance framework that provides appropriate oversight of the insurer’s use of ECDIS and AIS to ensure compliance with the Insurance Law and regulations promulgated thereunder. 19. 11NYCRR§90.2は、保険者に、保険者の性質、規模、複雑性に見合ったコーポレート・ガバナンスの枠組みを持つことを求めている[2]。11NYCRR§90.1(c)は、"コーポレート・ガバナンスの枠組み "を "保険者またはシステムの監督、指示、管理、マネジメントのために使われ、法律上、規制上の要件を確実に遵守するための構造、プロセス、情報、関係 "と定義している。保険者は、保険法およびその下で公布された規制の遵守を確保するため、保険者によるECDISおよびAISの利用を適切に監督するコーポレート・ガバナンスの枠組みを持つべきである。
A. Board and Senior Management Oversight A. 取締役会と上級管理職の監督
20. The role of an insurer’s board of directors, or other governing body, is to provide oversight of the insurer’s activities, including providing for an effective governance framework to carry out the board’s or other governing body’s strategic vision and monitor the entity’s risk appetite. 20. 保険会社の取締役会またはその他のガバナンス団体の役割は、取締役会またはその他のガバナンス 団体の戦略的ビジョンを実行し、事業体のリスク選好度を監視するための効果的なガバナンスの枠組 みを提供することを含め、保険会社の活動を監督することである。
21. The board of directors, or other governing body, may delegate specific duties and authorities for overseeing an insurer’s activities, including development and management of ECDIS and AIS, to board or other governing body committees and senior management. When delegating specific duties and authorities, an insurer should ensure appropriate lines of reporting are in place, along with regular, quality reporting to meet the board’s or other governing body’s information needs. This should include all timely and relevant facts for a board or other governing body to understand the material activities and risks associated with the insurer’s use of ECDIS and AIS. 21. 取締役会または他の統治機関は、ECDIS と AIS の開発・管理を含め、保険者の活動を監督す るための特定の任務と権限を、取締役会または他の統治機関の委員会および上級管理職に委譲 することができる。特定の任務と権限を委譲する場合、認可 団体は、理事会または他の統治機関の情報ニーズを満たすため、定期的で質の高い 報告とともに、適切な報告系統を確保すべきである。これには、理事会または他の統治機関が、保険者のECDISやAISの使用に関連する重要な活動やリスクを理解するための、すべての適時かつ関連する事実を含めるべきである。
22. Senior management is responsible for day-to-day implementation of the insurer’s development and management of ECDIS and AIS, consistent with the board’s or other governing body’s strategic vision and risk appetite. This includes establishing adequate policies and procedures, assigning competent staff, overseeing model risk management, ensuring effective challenge and independent risk assessment, reviewing internal audit findings, and taking prompt remedial action when necessary. 22. シニア・マネジメントは、取締役会または他の統治機関の戦略的ビジョンとリスク選好 に合致した、保険者によるECDISとAISの開発とマネジメントの日々の実施に責任を負う。これには、適切な方針と手続の確立、有能なスタッフの配置、モデル・リスク・ マネジメントの監督、効果的なチャレンジと独立したリスク・アセスメントの確保、内部 監査の結果のレビュー、必要な場合の迅速な改善措置などが含まれる。
23. In carrying out their duties to provide for effective implementation of the insurer’s use of ECDIS and AIS, senior management should ensure all relevant operation areas are appropriately engaged, such as through a cross-functional management committee with representatives from key function areas, including legal, compliance, risk management, product development, underwriting, actuarial, and data science, as appropriate. 23. 保険会社がECDISとAISの利用を効果的に実施するための機能を果たすにあたり、シ ニアマネジメントは、法務、コンプライアンス、リスクマネジメント、商品開発、保険引受、 保険数理、データサイエンスなど、主要な機能分野の代表者を適宜集めた部門横断的な マネジメント委員会などを通じて、すべての関連業務分野が適切に関与していることを確認す べきである。
B. Policies, Procedures, and Documentation B. 方針、手続き、文書化
24. Insurers that use ECDIS or AIS should formalize their development and management of ECDIS and AIS in written policies and procedures consistent with this Circular Letter. 24. ECDIS や AIS を使用する保険者は、ECDIS や AIS の開発及び管理を、本サーキュラーレターと整合 性のある、文書化された方針及び手順で正式に行うべきである。
25. An insurer’s board of directors, or other governing body, or senior management through delegated authority, should review and approve the insurer’s ECDIS and AIS-related policies and procedures at least annually to ensure that they are kept current with changes in the insurer’s use of ECDIS and AIS and best practices in the industry. 25. 保険者の取締役会、もしくはその他のガバナンス団体、または委任された権限を持つ上級管理職は、 保険者のECDISやAIS関連の方針と手続きを少なくとも年1回見直し、承認し、保険者の ECDISやAISの使用における変化や、業界におけるベストプラクティスを常に最新のものにしておくべきである。
26. Policies and procedures should include clearly defined roles and responsibilities, as well as monitoring and reporting requirements to senior management. 26. 方針と手続きには、明確に定義された役割と責任、及びモニタリングとシニアマネジメントへの報告要件が含まれていなければならない。
27. Policies and procedures should include training for relevant personnel on the responsible and lawful use of ECDIS and AIS, appropriately tailored to staff responsibilities. Additionally, the training program should include prompt training for new staff and a regular cadence for training thereafter, as well as accountability for completing training in a timely manner. 27. 方針及び手続きは、ECDIS 及び AIS の責任ある合法的な使用に関する、職員の責任に適 切に合わせた関連職員のための訓練を含むべきである。さらに、訓練プログラムには、新入職員に対する迅速な訓練と、その後の定期的な訓練、及び適時 に訓練を完了するための説明責任を含むべきである。
28. Insurers should maintain comprehensive documentation for their use of all AIS, including all ECDIS relied upon for such AIS, whether developed internally or supplied by third parties consistent with 11 NYCRR 243, and be prepared to make such documentation available to the Department upon request. Such documentation may include: 28. 保険会社は、社内で開発されたものであれ、サードパーティから提供されたものであれ、11 NYCRR 243に準拠したECDISを含む、すべてのAISの使用に関する包括的な文書を保持し、要請があった場合には、当該文書を同局に提供できるよう準備しなければならない。当該文書には以下が含まれる:
i. a description of the process for identifying and assessing operational, financial, and compliance risks associated with an insurer’s use of ECDIS and AIS and associated internal controls designed to mitigate such identified risks; i. 保険会社がECDISやAISを使用することに関連する、業務上、財務上、コンプライ アンス上のリスクを特定し、アセスメントするプロセス、及び、特定されたリ スクを軽減するために設計された内部統制の説明;
ii. an up-to-date inventory of all AIS implemented for use, under development for implementation, or recently retired; ii. 使用のために導入された、導入のために開発中である、または最近廃止された全ての AIS の最新のインベントリ;
iii. a description of how each AIS operates, including any ECDIS or other inputs and their sources, the purpose and products for which the AIS is designed, actual or expected usage, any restrictions on use, and any potential risks and appropriate safeguards; iii. ECDIS またはその他の入力とその情報源、AIS が設計された目的と製品、実際のまたは予想される 使用、使用に関する制限、潜在的リスクと適切な保護措置を含む、各 AIS の作動方法の記述;
iv. a description of the process for tracking changes of an insurer’s use of ECDIS and AIS over time, including documented explanation of any changes, associated rationale for such changes, and parties responsible for the approval of such changes; iv. 変更の文書化された説明、当該変更に関連する根拠、及び当該変更の承認に責任を負う者 を含む、保険者による ECDIS 及び AIS の使用の経時的な変更を追跡するプロセスの記述;
v. a description of the process for monitoring ECDIS and AIS usage and performance, including a list of any previous exceptions to policy and reporting; v. ECDISとAISの使用と性能を監視するプロセスの説明。過去の方針と報告に対する例外のリストを含む;
vi. a description of testing conducted to periodically assess the output of AIS models, including drift that may result from the use of machine learning or other automated updates; and vi. 機械学習またはその他の自動更新の使用から生じる可能性のあるドリフトを含め、AIS モデルの出力を 定期的に評価するために実施されるテストの説明。
vii. a description of data lifecycle management process, including ECDIS acquisition, storage, usage and sharing, archival, and destruction. vii. ECDIS の取得、保管、使用及び共有、保存及び破棄を含む、データライフサイクル管理プロセスの記 述。
29. Insurers must be prepared to respond to consumer complaints and inquiries about the use of AIS and ECDIS by implementing procedures to receive and address such complaints. Insurers must maintain any records of complaints regarding AIS or ECDIS in accordance with 11 NYCRR 243 and be prepared to make such records available to the Department upon request. 29. 保険者は、AIS や ECDIS の使用に関する消費者からの苦情や問い合わせに対応するため、苦情を受 け取り、対応する手順を実施しなければならない。保険者は、AISやECDISに関する苦情の記録を11 NYCRR 243に従って保持し、要請があれば、そのような記録を保険局に提供する用意がなければならない。
C. Risk Management and Internal Controls C. リスクマネジメントと内部統制
30. Insurers should manage the relevant risks at each stage of the AIS life cycle and should consider risk from individual AIS models and in the aggregate. Insurers may choose to manage the risks of AIS within an existing enterprise risk management function, as required by the Insurance Law, or separately as part of an independent program.3 30. 保険者は、AIS のライフサイクルの各段階において、関連するリスクを管理すべきであ り、個々の AIS モデルと全体からリスクを検討すべきである。保険者は、保険法で義務付けられているように、既存のエ ンタープライズ・リスクマネジメント機能の中でAIS のリスクを管 理することも、独立したプログラムの一部として個別に管理す ることもできる[3]。
31. Insurers should include standards for model development, implementation, use, and validation, and promote independent review and effective challenge to risk analysis, validation, testing, development, and other processes related to an insurer’s ECDIS and AIS development and risk management. 31. 保険者はモデルの開発、導入、使用、検証に関する標準を含むべきであり、保険者のECDISとAISの開発とリスクマネジメントに関するリスク分析、検証、テスト、開発、その他のプロセスに対する独立したレビューと効果的なチャレンジを促進すべきである。
32. Insurers should have competent and qualified personnel to execute and oversee AIS risk management with clearly defined roles and responsibilities, and appropriate means of accountability. 32. 保険者は、役割と責任を明確に定義し、適切なアカウンタビリティの手段をもって、AISリスクマネ ジメントを実行し、監督する有能で資格のある要員を持つべきである。
33. 11 NYCRR § 89.16 requires an insurer to have an internal audit function to provide general and specific audits, reviews, and tests necessary to protect assets, evaluate control effectiveness and efficiency, and evaluate compliance with policies and regulations. Insurers should ensure the internal audit function is appropriately engaged with the insurer’s use of ECDIS and AIS consistent with the financial, operational, and compliance risk. Such auditing should assess the overall effectiveness of the AIS and ECDIS risk management framework, which may include: 33. 11 NYCRR §89.16は、資産を保護し、コントロールの有効性と効率性を評価し、方針と規制の遵守を評価するために必要な全般的及び特定の監査、レビュー、テストを行う内部監査機能を持つことを保険者に求めている。保険者は、内部監査機能が、財務上、業務上、コンプライアンス上のリスクと整合性を保ちながら、保険者のECDISとAISの利用に適切に関与していることを確認すべきである。このような監査は、AIS と ECDIS のリスクマネジメントの枠組みの全体的な有効性を評価すべきであ り、これには以下が含まれる:
i. verifying that acceptable policies and procedures are in place and are appropriately adhered to; i. 受け入れ可能な方針及び手順が整備され、適切に遵守されていることを検証する;
ii. verifying records of AIS use and validation to test whether validations are performed in a timely manner and AIS models are subject to controls that appropriately account for any weaknesses in validation activities; ii. AIS の使用及び検証の記録を検証し、検証が適時に実施され、AIS モデルが検証活 動の弱点を適切に考慮した制御の対象となっているかどうかを検証する;
iii. assessing the accuracy and completeness of AIS documentation and adherence to documentation standards, including risk reporting; iii. リスク報告を含め、AISの文書化の正確性と完全性、および文書化標準の遵守を評価する;
iv. evaluating the processes for establishing and monitoring internal controls, such as limits on AIS usage; iv.AISの使用限度など、内部統制の確立とモニタリングのプロセスを評価する;
v. assessing supporting operational systems and evaluating the accuracy, reliability, and integrity of ECDIS and other data used by AIS; v. 支援業務システムを評価し、AIS が使用する ECDIS 及びその他のデータの正確性、信頼 性、完全性を評価すること;
vi. assessing potential biases in the ECDIS or other data that may result in unfair or unlawful discrimination against insureds or potential insureds; and vi. 被保険者または潜在的被保険者に対する不当または不法な識別をもたらす可能性のある、ECDIS またはその他のデータの潜在的なバイアスを評価すること。
vii. assessing whether there is sufficient reporting to the board or other governing body and senior management to evaluate whether management is operating within the insurer’s risk appetite and limits for model risk. vii. 経営陣が保険会社のリスク選好度とモデル・リスクの限度額の範囲内で運営されて いるかどうかを評価するために、取締役会その他のガバナンス団体とシニア・マネジメ ントに対して十分な報告が行われているかどうかを評価すること。
D. Third-Party Vendors D. サードパーティ・ベンダー
34. Insurers retain responsibility for understanding any tools, EDCIS, or AIS used in underwriting and pricing for insurance that were developed or deployed by third-party vendors and ensuring such tools, EDCIS, or AIS comply with all applicable laws, rules, and regulations. 34. 保険者は、保険の引受けとプライシングに使用されるツール、EDCIS、AIS がサードパーティによって開発され、または導入されたものであることを理解し、そのようなツール、EDCIS、AIS が適用される全ての法、規則、規制に準拠していることを確認する責任を負う。
35. To ensure appropriate oversight of third-party vendors, insurers should develop written standards, policies, procedures, and protocols for the acquisition, use of, or reliance on ECDIS and AIS developed or deployed by a third-party vendor. Additionally, insurers should put in place procedures for reporting any incorrect information to third-party vendors for further investigation and update, as necessary. Further, insurers should develop procedures to remediate and eliminate incorrect information from their AIS that the insurer has identified or has been reported to a third-party. 35. サードパーティーの適切な監督を確保するため、保険者は、サードパーティーが開 発・配備したECDISやAISの取得、使用、依存について、文書化された標準、方針、手 順、プロトコルを策定すべきである。さらに、保険者は、誤った情報をサードパーティに報告し、必要に応じ、さらなる調査や更新を求める手続きを設けるべきである。さらに、保険者は、保険者が識別した、あるいはサードパーティに報告されたAISの不正確な情報を修正し、排除するための手順を策定すべきである。
IV. Transparency IV. 透明性
E. Disclosure and Notice E. 情報開示と通知
36. As discussed in Circular Letter No. 1 (2019), transparency is an important consideration in the use of ECDIS to underwrite and price insurance. Insurance Law sections 3425 and 3426 provide that non-commercial and certain commercial property and casualty policies may not be cancelled, nonrenewed, or conditionally renewed unless the specific ground or reason is provided in writing to the insured. Additionally, Insurance Law sections 4224(a)(2) and (b)(2) provide that no life or accident and health insurer doing business in this state shall refuse to insure, refuse to continue to insure, or limit the amount, extent, or kind of coverage available to an individual, or charge a different rate for the same coverage solely because of the physical or mental disability, impairment or disease, or prior history thereof, of the insured or potential insured, except where the refusal, limitation, or rate differential is permitted by law or regulation and is based on sound actuarial principles or is related to actual or reasonably anticipated experience, in which case the insurer must notify the insured or potential insured of the right to receive, or to designate a medical professional to receive, the specific reason or reasons for such refusal, limitation, or rate differential. Further, the failure to adequately disclose to the insured or potential insured any other specific reason or reasons for refusal, limitation, or rate differential may be deemed to be an unfair or deceptive act and practice in the conduct of the business of insurance and may be deemed to be a trade practice constituting a determined violation, as defined in Insurance Law section 2402(c), and in such case may be a violation of Insurance Law section 2403. 36. 通達書簡第 1 号(2019 年)で述べたように、透明性は、保険の引受けと価格決定における ECDIS の利用において重要な考慮事項である。保険法第3425条および第3426条は、具体的な根拠や理由が被保険者に書面で提供されない限り、非商業用および特定の商業用損害保険契約を解約、不更新、条件付き更新してはならないと規定している。さらに、保険法第4224条(a)(2)および(b)(2)は、本州で事業を行う生命保険会社または傷害保険会社および医療保険会社は、被保険者または被保険者となる可能性のある者の身体的または精神的な障害、障害、疾病、またはその既往歴のみを理由として、保険を拒否したり、保険の継続を拒否したり、個人が利用できる保険の金額、範囲、種類を制限したり、同じ保険に対して異なる料金を請求したりしてはならないと定めている、 ただし、その拒否、制限、料率差が法律や規則で認められており、健全な保険数理原則に基づいている場合、または実際の経験や合理的に予想される経験に関連している場合はこの限りではない。この場合、保険者は被保険者または被保険者となる可能性のある者に、そのような拒否、制限、または料率差の具体的な理由を受け取る権利、または受け取る医療専門家を指定する権利を通知しなければならない。さらに、被保険者または被保険者となる可能性のある者に対し、拒否、制限、または料率差のその他の具体的な理由または理由を適切に開示しなかった場合は、保険業務の遂行における不公正または欺瞞的な行為および慣行とみなされる可能性があり、保険法第2402条(c)に定義される、決定された違反を構成する取引慣行とみなされる可能性があり、その場合は保険法第2403条の違反となる可能性がある。
37. Where an insurer is using ECDIS or AIS, the reason or reasons provided to the insured or potential insured, or a medical professional designee, should include details about all information upon which the insurer based any declination, limitation, rate differential, or other adverse underwriting decision, including the specific source of the information upon which the insurer based its adverse underwriting or pricing decision. 37. 保険者がECDISまたはAISを使用している場合、被保険者もしくは被保険者となりうる者、または医療専門家が指名した者に提供される理由には、保険者が引受辞退、制限、料率差、またはその他の不利な引受判断の根拠としたすべての情報についての詳細が含まれていなければならない(保険者が不利な引受判断または価格決定の根拠とした具体的な情報源を含む)。
38. The notice should disclose to the insured or potential insured, or a medical professional designee, (i) whether the insurer uses AIS in its underwriting or pricing process, (ii) whether the insurer uses data about the person obtained from external vendors, and (iii) that such person has the right to request information about the specific data that resulted in the underwriting or pricing decision, including contact information for making such request. 38. (i)保険者が引受または料率決定プロセスにおいてAISを使用しているかどうか、(ii)保険者が外部業者から入手した個人に関するデータを使用しているかどうか、(iii)当該個人は、引受または料率決定の根拠となった具体的なデータに関する情報を請求する権利を有していること(その請求のための連絡先を含む)。
39. An insurer may not rely on the proprietary nature of a third-party vendor’s algorithmic processes to justify the lack of specificity related to an adverse underwriting or pricing action. 39. 保険者は、不利な引受または価格決定に関する具体性の欠如を正当化するために、サードパーティ のアルゴリズム・プロセスの独自性に依拠してはならない。
40. The failure to adequately disclose the material elements of an AIS, and the external data sources upon which it relies, to a consumer may constitute an unfair trade practice under Insurance Law Article 24. 40. AISの重要な要素、およびAISが依拠する外部データ・ソースを消費者に適切に開示しないことは、保険法第24条に基づき、不公正な取引方法を構成する可能性がある。
F. Clarification of Insurance Circular Letter No. 1 (2019) F. 保険通達第1号(2019年)の明確化
41. The Department has received requests from life insurers to clarify the statement in the consumer disclosure/transparency section of Circular Letter No. 1 (2019) that states that [a]n adverse underwriting decision would include the inability of the applicant to utilize an expedited, accelerated, or algorithmic underwriting process in lieu of traditional medical underwriting.” This language only addresses disclosure. It does not address any other implications of an adverse underwriting decision. 41. 通達No.1(2019)の消費者向け情報開示/透明性セクションにある「[a]引受不利決定には、従来の医学的引受の代わりに迅速引受、加速引受、アルゴリズム引受プロセスを利用できないことも含まれる」という文言を明確にするよう、生命保険会社から要請を受けている。この文言は情報開示にのみ言及している。不利な引受決定が意味するその他のことについては触れていない。
42. Except as discussed in paragraph 43 below, any objective threshold criteria for using the accelerated process (e.g., only available for certain ages or coverage amounts) should be disclosed prior to application. Failure to disclose such criteria at the outset could raise concerns about misleading advertising or unfair trade practices (e.g., promises of an accelerated underwriting opportunity for which the consumer could never qualify; promises of an accelerated underwriting opportunity for which very few, if any, consumers would qualify). Where the applicant is being rejected from the process because the applicant does not meet objective threshold criteria to use the process, the applicant should be told which objective criteria were not met. 42. 以下の第 43 項で議論する場合を除き、早期プロセスを利用するための客観的な閾値基準(例 えば、特定の年齢や保障額に対してのみ利用可能)は、申込み前に開示されるべきである。このような基準を最初に開示しない場合、誤解を招くような広告や不公正な取引慣行(例 えば、消費者が決して適格となり得ないような早期引受機会の約束、適格となる消費者がいたとしてもごくわず かである早期引受機会の約束)に関する懸念が生じる可能性がある。申請者がプロセスを利用するための客観的な閾値基準を満たさないためにプロセスから拒絶される場 合、申請者は、どの客観的基準が満たされなかったかを知らされるべきである。
43. It is common for insurers to set different levels of underwriting review based on objective criteria, such as age or the amount of coverage requested. These are often internal proprietary guidelines and applicants are not made aware of the existence of these internal standards. The language in Circular Letter No. 1 (2019) does not require that the applicant be given disclosure about internal underwriting guidelines where the applicant was never aware of the existence of these internal standards and therefore had no expectation that they would undergo anything other than full traditional underwriting. 43. 保険会社が、年齢や希望保険金額などの客観的基準に基づいて、引受審査のレベルを異 なるように設定することはよくあることである。これらは社内独自のガイドラインであることが多く、申請者はこうした社内標準の存在を知らされていない。通達No.1 (2019)の文言は、申請者がこうした社内標準の存在を知らず、従って従来の完全な引受審査以外を受けることを期待していなかった場合、申請者に社内引受ガイドラインについて開示することを要求していない。
44. Except as discussed in paragraph 43 above, if the accelerated process determines that an applicant will not be approved for insurance under the accelerated process and can only obtain insurance by submitting to the traditional underwriting process, the applicant has the right to know why. As noted in Circular Letter No. 1 (2019), the accuracy and reliability of external data sources can vary greatly, and many external data sources are entities that are not subject to regulatory oversight and consumer protections. If an applicant will not be approved for insurance under the accelerated process based on data that is incorrect, the applicant needs a mechanism for identifying the incorrect data. The insurer must provide a notice to the applicant, where required by Insurance Law § 4224(a)(2) as discussed above, that the applicant has the right to receive, or designate a medical professional to receive, the details relating to the reasons for that decision. The insurer should include in the notice contact information for the applicant to exercise this right. This notice needs to be provided at the time the applicant is notified that the application cannot be processed under the accelerated process. 44. 上記第 43 項で述べた場合を除き、早期審査プロセスにおいて、申請者が早期審査プロセスでは保 険を承認されず、従来の引受プロセスを受けることによってのみ保険に加入できると判断された場合、 申請者はその理由を知る権利がある。通達レターNo.1(2019)にあるように、外部データソースの正確性と信頼性は大きく異なる可能性があり、外部データソースの多くは規制監督や消費者保護の対象ではない事業体である。申請者が不正確なデータに基づいて加速プロセスで保険が承認されない場合、申請者は不正確なデータを特定する仕組みが必要である。保険者は、前述の保険法第4224条(a)(2)で義務付けられている場合、申請者がその決定の理由に関する詳細を受け取る権利があること、または受け取る医療専門家を指定する権利があることを、申請者に通知しなければならない。保険者は、申請者がこの権利を行使するための連絡先を通知に含めるべきである。この通知は、申請者が早期手続きの下で申請を処理できないことを通知された時点で提供される必要がある。
i. The notice should disclose to the applicant that the insurer’s accelerated underwriting process uses data about the applicant obtained from external vendors, that the applicant has the right to request information about the specific data that resulted in the applicant not qualifying for the accelerated process and contact information for making such request. It is permissible for an insurer to also provide the reason in the initial notice.  i. 通知には、保険会社の早期引受プロセスでは、外部業者から入手した申込者に関するデータを使用していること、申込者が早期プロセスを受けられない結果となった特定のデータに関する情報を請求する権利があること、およびそのような請求を行うための連絡先情報を開示すべきである。保険者が最初の通知でその理由を提示することも許される。
45. In some instances, an insurer may need additional information or clarification from the applicant about a specific data item obtained from a data vendor during the accelerated process in order to process the application under the accelerated process but would not otherwise be moving the applicant to full traditional underwriting. Such limited request would not trigger the notice requirement. If after obtaining the additional information or clarification it is determined that the applicant must go through the full traditional underwriting process, then, at that point, the notice requirement would be triggered. 45. 場合によっては、保険者は、早期審査の下で申請書を処理するために、早期審査中にデータベンダーから入手した特定のデータ項目について、申請者から追加的な情報や説明を必要とすることがあるが、そうでなければ申請者を従来の完全な引受に移行させることはない。このような限定的な要請は、通知要件を発動しない。追加情報や説明を得た後、申請者が従来の完全な引受プロセスを経なければならないと判断された場合、その時点で通知要件が発動されることになる。
46. In some instances, an applicant may be randomly moved to the traditional underwriting process for purposes of testing the results of the accelerated process against the results of the traditional process. In such as case, the disclosure should not give the impression that removal from the process was due to the applicant’s medical or other underwriting criteria. 46. 場合によっては、早期審査の結果を従来の審査の結果と比較するために、無作為に従来の引 受審査に移行することがある。このような場合、情報開示は、プロセスからの除外が申請者の医学的またはその他の引受基準によるものであるかのような印象を与えるべきでない。
V. Feedback Request V. フィードバックの要請
The Department is requesting feedback on all aspects of this Circular Letter. Interested parties are encouraged to provide feedback on the proposed guidance by March 17, 2024. Comments should be submitted to [mail]. Please use “Proposed Circular on the use of AI and ECDIS in Insurance Underwriting and Pricing” in the subject line. Comments may be subject to public inspection and should not include any sensitive or confidential information. The Department looks forward to reviewing and considering feedback on this proposed Circular Letter. 当協会は、本通達のあらゆる側面について意見を求めている。関係者は、2024 年 3 月 17 日までに、提案されたガイダンスについて意見を提出することが望まれる。意見は  [mail] 宛に提出されたい。件名は "Proposed Circular on the use of AI and ECDIS in Insurance Underwriting and Pricing "としてほしい。意見は一般に公開される可能性があり、機密情報や秘密情報を含めないこと。同省は、この通達案に対する意見を検討することを楽しみにしている。
1 E.g., Insurance Law Article 26 and §§ 4224(a)–(b), 3221(q)(3) and 4305(k)(3), Executive Law, General Business Law, and federal Civil Rights Act. See also Insurance Law § 2303 prohibiting unfairly discriminatory rates for property and casualty insurance coverage. [1] 例:保険法第 26 条、第 4224 条(a)-(b)、第 3221 条(q)(3)、第 4305 条(k)(3)、行政法、一般事業法、連邦公民権法。損害保険に対する不当な差別的料率を禁止する保険法第 2303 条も参照のこと。
2 Section 90.2 permits an insurer to satisfy this section if it is a member of a system and the system has a corporate governance framework. [2] 第90.2条は、保険者がシステムのメンバーであり、システムがコーポレート・ガバナンスの枠組みを有している場合、この条項を満たすことを認めている。
3 See Insurance Law §§ 1501, 1503(b), 1604(b), 1702, 1717(b). See also 11 NYCRR § 82. [3] 保険法第1501条、第1503条(b)、第1604条(b)、第1702条、第1717条(b)を参照のこと。11 NYCRR第82条も参照のこと。

 

 

| | Comments (0)

米国 ニューヨーク州 エンパイアAIコンソーシアムの創設 - ニューヨークをAI研究とイノベーションの全米リーダーに (2024.01.08)

こんにちは、丸山満彦です。

テックは西海岸とボストンだけじゃないよ。。。という感じですかね。。。ニューヨーク州がニューヨークをAIの中心地にしようとしているのでしょうかね。。。4億ドル(600億円)を注ぎ込むようです。。。州の単位でこれだけの金額なので、すごいですね。。。

知事のリーダーシップですかね。。。

1_20240127222001

 

New York State

・2024.01.08 Governor Hochul Unveils Fifth Proposal of 2024 State of the State: Empire AI Consortium to Make New York the National Leader in AI Research and Innovation

 

| | Comments (0)

米国 NIST Privacy Framework 1.1への改定に向けて活動を開始...

こんにちは、丸山満彦です。

NISTがプライバシーフレームワークの改定作業にはいるようですね。。。

 

NIST - Cybersecurity Insights

・2024.01.25 New Year, New Initiatives for the NIST Privacy Framework!

New Year, New Initiatives for the NIST Privacy Framework! 新年、NISTプライバシーフレームワークの新たな取り組み!
 It’s been four years since the release of The NIST Privacy Framework: A Tool for Improving Privacy Through Enterprise Risk Management, Version 1.0. Since then, many organizations have found it highly valuable for building or improving their privacy programs. We’ve also been able to add a variety of resources to support its implementation.  NISTプライバシーフレームワークの発表から4年が経過した: エンタープライズ・リスクマネジメントを通じてプライバシーを改善するためのツール」バージョン1.0がリリースされてから4年が経過した。以来、多くの組織がプライバシー・プログラムの構築や改善に大いに役立てている。我々はまた、その実施を支援するための様々なリソースを追加することができた。
We’re proud of how much has been accomplished in just a few short years, but we’re not resting on our laurels. As another, more famous, Dylan once said, “the times they are a-changin’.” For example, the past year has seen the release of the NIST AI Risk Management Framework (AI RMF) and the start of an update to NIST Cybersecurity Framework (CSF), Version 2.0. In light of these and other developments in information technology, our stakeholders have expressed a desire for a Privacy Framework update as well as more help with how to use NIST frameworks and resources in privacy, cybersecurity, Artificial Intelligence (AI), and Internet of Things (IoT) together. 私たちは、わずか数年の間に多くのことを達成できたことを誇りに思っているが、その栄誉に安住しているわけではない。もっと有名なディランがかつて言ったように、"the times they are a changin'"(時代は変わりつつある)のだ。例えば、昨年はNIST AIリスクマネジメントフレームワーク(AI RMF)がリリースされ、NISTサイバーセキュリティフレームワーク(CSF)バージョン2.0の更新が始まった。これらやその他の情報技術の進展を踏まえて、我々の利害関係者からは、プライバシーフレームワークの更新や、プライバシー、サイバーセキュリティ、人工知能(AI)、モノのインターネット(IoT)におけるNISTのフレームワークやリソースの併用方法に関するより多くの支援を望む声が上がっている。
NIST Privacy Framework 1.1 NISTプライバシーフレームワーク1.1
The Privacy Framework is a “living” tool meant to evolve to meet stakeholder needs, and the time has come to update to Version 1.1. The initial version was modeled upon the CSF so that the two frameworks could be used together more easily. We want to maintain the connection by making appropriate adjustments based on CSF 2.0 changes. In addition, stakeholders have had a few years to use the Privacy Framework and have identified areas where targeted improvements can be made. This year, we intend to implement a modest update to the Privacy Framework to support realignment with CSF 2.0, facilitate ease and effectiveness of use, and ensure the tool is responsive to current privacy risk management needs. プライバシーフレームワークは、ステークホルダーのニーズに合わせて進化することを意図した「生きた」ツールであり、バージョン1.1に更新する時が来た。初期バージョンは、2つのフレームワークをより簡単に併用できるように、CSFをモデルとしていた。CSF2.0の変更点に基づいて適切な調整を行うことで、このつながりを維持したい。さらに、関係者はプライバシー・フレームワークを数年間使用し、目標とする改善が可能な領域を特定した。今年、我々は、CSF 2.0 との再調整を支援し、使いやすさと有効性を促進し、現在のプライバシーリスク マネジメントのニーズに対応したツールであることを確実にするために、プライバシーフレームワー クのささやかな更新を実施する予定である。
Joint NIST Frameworks Profile for Data Governance データガバナンスのためのNISTフレームワークプロファイルの統合
As noted above, we recognize that there is a desire for more support in using the NIST frameworks and resources together. In talking with stakeholders, we realized that data governance is the starting point for many organizations seeking to glean the benefits of data processing while managing privacy, cybersecurity, AI, and IoT risks. Then the light bulb went off that a joint Profile for data governance could be a way to effectively demonstrate complementary use of NIST frameworks and resources. This Profile could take many forms, such as a flow chart or a crosswalk among various NIST Framework Subcategories. We plan to leverage the Privacy Framework 1.1 update process to develop the Profile as many of the same stakeholders will be involved. Ultimately, we want to hear from you if you like this idea and what this resource should look like. 上述したように、我々は、NIST のフレームワークとリソースを一緒に使用する際に、より多くのサポー トを望む声があることを認識している。関係者と話をする中で、データ・ガバナンスは、プライバシー、サイバーセキュリティ、AI、IoTのリスクをマネジメントしながらデータ処理のメリットを得ようとする多くの組織にとって出発点であることに気づいた。そして、データガバナンスのための共同プロファイルは、NISTのフレームワークとリソースの補完的な利用を効果的に実証する方法となり得るということに気がついた。このプロファイルは、フローチャートや様々なNISTフレームワークのサブカテゴリー間のクロスウォークなど、様々な形を取ることができる。我々は、プライバシーフレームワーク1.1の更新プロセスを活用してプロファイルを開発する予定である。最終的には、このアイデアが気に入ったかどうか、このリソースがどのようなものであるべきかについて、皆様のご意見を伺いたい。
Next Steps 次のステップ
We hope you’ll contribute your expertise to these endeavors through the numerous opportunities to get involved as outlined in this milestone timeline: 私たちは、このマイルストーンのタイムラインに記載されているように、多くの参加機会を通じて、あなたの専門知識をこれらの取り組みに提供してくださることを願っている:

 

1_20240127120901

参考

Privacy Framework Perspectives and Success Stories

現状...プライバシーフレームワーク Ver.1.0

・[PDF] 2020.01.16 NIST PRIVACY FRAMEWORK: A TOOL FOR IMPROVING PRIVACY THROUGH ENTERPRISE RISK MANAGEMENT, VERSION 1.0

20240127-121717

 

 

AIリスクマネジメントフレームワーク

 ・AI Risk Management Framework

・2023.01.26 AI Risk Management Framework (AI RMF 1.0) 

・[PDF]

20230127-55450

NIST AI RMF Playbook

AI RMF Explainer Video

AI RMF RoadmapAI RMF Crosswalk

Perspectives. 

 

 

サイバーセキュリティフレームワーク

Cybersecurity Framework

・Cybersecurity Fremework 2.0 案 [PDF]

20230810-202921

Timeline_update_102723

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

プライバシーフレームワーク...

・2020.01.21 NIST Releases Version 1.0 of Privacy Framework

 

AIリスクマネジメントフレームワーク

・2023.01.27 NIST AIリスクフレームワーク

 

サイバーセキュリティフレームワーク

・2023.08.11 米国 NIST サイバーセキュリティ・フレームワーク 2.0案

 

| | Comments (0)

2024.01.27

米国 NIST Blog 連合学習におけるプライバシー攻撃

こんにちは、丸山満彦です。

米国のNISTのブログで、連合学習におけるプライバシー攻撃についての記事がありますね。。。

一箇所に全てのデータを中央に集めて学習させようとすると、データが集中しプライバシー上の問題につながることがあり得る。そこで、中央から部分的に訓練されたモデルのコピーを各参加組織に送信し、データの代わりにモデルの更新を収集することにより、一箇所のデータを集めず学習させることができるため、プライバシー上の懸念も緩和させることになる。

ということで、連合学習というのは、プライバシー問題を緩和する技術(いわゆるPET)として注目をあつめているわけですが、それでもやはりプライバシー上の問題は残りますよ。。。という注意喚起ですかね。。。

連合学習におけるプライバシー攻撃は、次の2つに分類できるようです。

  1. 学習中に共有されるモデルの更新を標的とする攻撃
  2. 学習終了後にAIモデルからデータを抽出する攻撃

なかなか興味深い内容ですね。。。

このブログは昨年12月に始まったシリーズもので、次回は、「連合学習における参加エンティティ間のデータ分配」の課題についてだそうです。楽しみですね。。。

 

NIST - Cybersecurity Insights

・2024.01.24 Privacy Attacks in Federated Learning

Privacy Attacks in Federated Learning 連合学習におけるプライバシー攻撃
This post is part of a series on privacy-preserving federated learning. The series is a collaboration between NIST and the UK government’s Centre for Data Ethics and Innovation. Learn more and read all the posts published to date at NIST’s Privacy Engineering Collaboration Space or the CDEI blog. この投稿は、プライバシーを保護する連合学習に関するシリーズの一部である。このシリーズは、NISTと英国政府のCentre for Data Ethics and Innovationとのコラボレーションである。NISTのプライバシー・エンジニアリング・コラボレーション・スペースまたはCDEIのブログで、より詳しく、これまでに発表された全ての投稿を読むことができる。
Our first post in the series introduced the concept of federated learning—an approach for training AI models on distributed data by sharing model updates instead of training data. At first glance, federated learning seems to be a perfect fit for privacy since it completely avoids sharing data. このシリーズの最初の投稿では、連合学習の概念を紹介した。連合学習とは、訓練データの代わりにモデルの更新を共有することで、分散データ上でAIモデルを訓練するアプローチである。一見すると、連合学習はデータの共有を完全に回避するため、プライバシーに完璧に適合しているように見える。
However, recent work on privacy attacks has shown that it’s possible to extract a surprising amount of information about the training data, even when federated learning is used. These techniques fall into two major categories: attacks that target the model updates shared during training, and attacks that extract data from the AI model after training has finished. しかし、プライバシー攻撃に関する最近の研究は、連合学習が使用されている場合でも、学習データに関する驚くほど多くの情報を抽出できることを示している。これらの技術は大きく2つのカテゴリーに分類される:学習中に共有されるモデルの更新をターゲットとする攻撃と、学習終了後にAIモデルからデータを抽出する攻撃だ。
This post summarizes known attacks and provides recent examples from the research literature. The primary goal of the UK-US PETs Prize Challenges was to develop practical defenses that augment federated learning frameworks to prevent these attacks; future posts in this series will describe these defenses in detail. この投稿では、既知の攻撃を要約し、研究文献から最近の例を紹介する。UK-US PETs Prize Challengesの主な目標は、これらの攻撃を防ぐために連合学習フレームワークを補強する実用的な防御策を開発することである。
Attacks on Model Updates モデル更新に対する攻撃
In federated learning, each participant submits model updates instead of raw training data during the training process. In our example from the last post - in which a consortium of banks wants to train an AI model to detect fraudulent transactions - the model updates may consist of updates to the model’s parameters (the components of the model that control how its predictions are made) rather than raw data about financial transactions. At first glance, the model updates may appear to convey no information about financial transactions. 連合学習では、各参加者は学習プロセスにおいて、生の学習データの代わりにモデルのアップデートを提出する。前回の記事で紹介した例(銀行のコンソーシアムが不正取引を検知するAIモデルを学習させようとする場合)では、モデルの更新は、金融取引に関する生のデータではなく、モデルのパラメータ(予測がどのように行われるかを制御するモデルの構成要素)の更新で構成される可能性がある。一見すると、モデルの更新は金融取引に関する情報を伝えていないように見えるかもしれない。
Fig1_20240127054201
Figure 1: Data extracted from model updates by the attack developed by Hitaj et al. The top row contains original training data; the bottom row contains data extracted from model updates. Credit: Hitaj et al. 図1:Hitajらが開発した攻撃によってモデル更新から抽出されたデータ。上段はオリジナルのトレーニングデータ、下段はモデル更新から抽出されたデータである。出典:Hitaj et al.
Credit: NIST 出典:NIST
However, recent research has demonstrated that it’s often possible to extract raw training data from model updates. One early example came from the work of Hitaj et al., who showed that it was possible to train a second AI model to reconstruct training data based on model updates. One example of their results appears in Figure 1: the top row contains training data used to train a model that recognizes handwritten digits, and the bottom row contains data extracted from model updates by their attack. しかし、最近の研究では、モデル更新から生のトレーニングデータを抽出できる場合が多いことが実証されている。Hitajらは、モデルの更新に基づいて訓練データを再構築するために、2番目のAIモデルを訓練することが可能であることを示した。上段は手書き数字を認識するモデルの学習に使用された学習データで、下段は彼らの攻撃によってモデル更新から抽出されたデータである。
Fig2_20240127054201
Figure 2: Data extracted from model updates by the attack developed by Zhu et al. Each row corresponds to a different training dataset and AI model. Each column shows data extracted from model updates during training; columns with higher values for “Iters” represent data extracted later in the training process. Credit: Zhu et al. 図2:Zhuらが開発した攻撃によってモデル更新から抽出されたデータ。各行は異なるトレーニングデータセットとAIモデルに対応している。Iters」の値が高い列は、学習プロセスの後半に抽出されたデータである。Credit: Zhu et al.
Credit: NIST 出典: NIST
Later work by Zhu et al. suggests that this kind of attack is possible for many different kinds of models and their corresponding model updates. Figure 2 contains examples from four different AI models, showing that the attack is able to extract nearly-perfect approximations of the original training data from the model updates. Zhuらによる後の研究によると、この種の攻撃は多くの異なる種類のモデルとそれに対応するモデル更新で可能であることが示唆されている。図2には、4つの異なるAIモデルの例が示されている。この攻撃は、モデル更新から元の訓練データのほぼ完全な近似値を抽出できることを示している。
How to fix it! 修正方法
Attacks on model updates suggest that federated learning alone is not a complete solution for protecting privacy during the training process. Many defenses against such attacks focus on protecting the model updates during training, so that the organization that aggregates the model updates does not have access to individual updates. モデル更新に対する防御は、連合学習モデルだけでは学習プロセス中のプライバシーを保護する完全な解決策にはならないことを示唆している。このような攻撃に対する防御の多くは、モデル更新を集約する組織が個々の更新にアクセスできないように、トレーニング中のモデル更新を保護することに焦点を当てている。
Privacy-enhancing technologies that protect the model updates during training are often said to provide input privacy - they prevent the adversary from learning anything about the inputs (i.e. the model updates) to the system. Many approaches for input privacy, including approaches used in the UK-US PETs Prize Challenges, rely on creative applications of cryptography. We’ll highlight several of these solutions throughout this blog series. トレーニング中のモデル・アップデートを保護するプライバシー保護強化技術は、しばしば入力プライバシーを提供すると言われる。入力プライバシーのための多くのアプローチは、英米PETs賞チャレンジで使用されたアプローチを含め、暗号の創造的な応用に依存している。このブログシリーズを通して、これらの解決策をいくつか紹介する。
Attacks on Trained Models 学習済みモデルへの攻撃
The second major class of attacks target the trained AI model after training has finished. The model is the output of the training process, and often consists of model parameters that control the model’s predictions. This class of attacks attempts to reconstruct the training data from the model’s parameters, without any of the additional information available during the training process. This may sound like a more difficult challenge, but recent research has demonstrated that such attacks are feasible. 2つ目の主要な攻撃は、学習が終了した後の学習済みAIモデルを標的とするものである。モデルは訓練プロセスの出力であり、多くの場合、モデルの予測を制御するモデル・パラメーターで構成されている。このクラスの攻撃は、モデルのパラメータから訓練データを再構築しようとするもので、訓練プロセス中に利用可能な追加情報は一切ない。これはより困難な挑戦に聞こえるかもしれないが、最近の研究では、このような攻撃が実現可能であることが実証されている。
Fig3_20240127054201
Figure 3: Training data extracted from a trained AI model using the attack developed by Haim et al. The top portion of the figure (a) shows extracted data; the bottom portion (b) shows corresponding images from the original training data. Credit: Haim et al. 図3:Haimらが開発した攻撃を使って学習済みAIモデルから抽出された学習データ。図の上部(a)は抽出されたデータを示し、下部(b)は元の学習データから対応する画像を示す。Credit: Haim et al.
Credit: NIST 出典: NIST
AI models based on deep learning are particularly susceptible to the extraction of training data from trained models because deep neural networks seem to memorize their training data in many cases. Researchers are still unsure about why this memorization happens, or whether it is strictly necessary to train effective AI models. From a privacy perspective, however, this kind of memorization is a significant problem. Recent work by Haim et al. demonstrated the feasibility of extracting training data from an AI model trained to recognize objects in images; an example appears in Figure 3. ディープラーニングに基づくAIモデルは、学習済みモデルからの学習データ抽出の影響を特に受けやすい。なぜなら、ディープニューラルネットワークは多くの場合、学習データを記憶しているように見えるからだ。研究者たちは、なぜこのような暗記が起こるのか、あるいは効果的なAIモデルを訓練するために厳密に必要なのかについて、まだよく分かっていない。しかし、プライバシーの観点からは、この種の記憶化は重大な問題である。Haimらによる最近の研究では、画像内の物体を認識するように訓練されたAIモデルから訓練データを抽出することが可能であることが実証された。
Fig4
Figure 4: Training data extracted from a diffusion model using the attack developed by Carlini et al. Diffusion models are designed for generating images; one popular example is OpenAI’s DALL-E. Credit: Carlini et al. 図4:Carliniらによって開発された攻撃を使って拡散モデルから抽出された学習データ。拡散モデルは画像を生成するように設計されており、よく使われる例としてはOpenAIのDALL-Eがある。出典:Carlini et al.
Credit: NIST 出典:NIST
Fig5
Figure 5: Training data extracted from a large language model (LLM) using the attack developed by Carlini et al. This example is from GPT-2, the predecessor of ChatGPT. Credit: Carlini et al. 図5:Carliniらによって開発された攻撃を使って大規模言語モデル(LLM)から抽出されたトレーニングデータ。Credit: Carlini et al.
Credit: NIST 出典: NIST
The challenge of memorized training data seems to be even worse for larger, more complex models - including popular large language models (LLMs) like ChatGPT and image generation models like DALL-E. Figure 4 shows an example of extracting training data from an image generation model using an attack developed by Carlini et al.; Figure 5 shows an example of extracting training data from a large language model using an attack by Carlini et al. ChatGPTのような一般的な大規模言語モデル(LLM)やDALL-Eのような画像生成モデルを含む、より大規模で複雑なモデルでは、記憶された学習データの課題はさらに悪化するようだ。図4は、Carliniらが開発した攻撃を使って画像生成モデルから学習データを抽出した例であり、図5は、Carliniらの攻撃を使って大規模言語モデルから学習データを抽出した例である。
How to fix it! 修正方法
Attacks on trained models show that trained models are vulnerable, even when the training process is completely protected. Defenses against such attacks focus on controlling the information content of the trained model itself, to prevent it from revealing too much about the training data. 学習済みモデルに対する攻撃は、学習プロセスが完全に保護されている場合でも、学習済みモデルが脆弱であることを示している。このような攻撃に対する防御策は、学習モデル自体の情報量を制御し、学習データについてあまり多くのことを明らかにしないようにすることに重点を置いている。
Privacy-enhancing technologies that protect the trained model are often said to provide output privacy - they prevent the adversary from learning anything about the training data from the system’s outputs (i.e. the trained model). The most comprehensive approach for ensuring output privacy is called differential privacy, and is the subject of a previous NIST blog series and new draft guidelines. Many of the solutions developed in the UK-US PETs Prize Challenges leverage differential privacy to defend against attacks on the trained model, which we’ll highlight later in this blog series. 学習済みモデルを保護するプライバシー向上技術は、しばしば出力プライバシーを提供すると言われ、敵対者がシステムの出力(すなわち学習済みモデル)から学習データについて何も知ることができないようにする。出力プライバシーを確保するための最も包括的なアプローチは差分プライバシーと呼ばれ、以前のNISTブログシリーズや新しいドラフトガイドラインの主題となっている。UK-US PETs Prize Challengesで開発されたソリューションの多くは、差分プライバシーを活用して学習済みモデルに対する攻撃を防御するもので、このブログシリーズの後半で紹介する。

 

参考

・2023.12.07 The UK-US Blog Series on Privacy-Preserving Federated Learning: Introduction

 

 

 

 

| | Comments (0)

2024.01.26

米国 連邦取引委員会 生成的AIへの投資とパートナーシップに関する調査をアルファベット、アマゾン、マイクロソフト、アンソロピックPBC、OpenAIに対して開始

こんにちは、丸山満彦です。

米国連邦取引委員会 生成的AIへの投資とパートナーシップに関する調査をアルファベット、アマゾン、マイクロソフト、アンソロピックPBC、OpenAIに対して開始しましたね。。。

すでに寡占状態のクラウド事業者とこれからの発展が期待される生成的AI分野の寡占に関する問題なのでしょうかね。。。

 

● Federal Trade Commission; FTC

・2024.01.25 FTC Launches Inquiry into Generative AI Investments and Partnerships 

 

FTC Launches Inquiry into Generative AI Investments and Partnerships  FTCが生成的AIへの投資とパートナーシップに関する調査を開始
Agency Issues 6(b) Orders to Alphabet, Inc., Amazon.com, Inc., Anthropic PBC, Microsoft Corp., and OpenAI, Inc. アルファベット、アマゾン・ドット・コム、アンソロピックPBC、マイクロソフト、オープンAIに6(b)命令を下す
The Federal Trade Commission announced today that it issued orders to five companies requiring them to provide information regarding recent investments and partnerships involving generative AI companies and major cloud service providers. 米連邦取引委員会は本日、5社に対し、生成的AI企業と大手クラウドサービス・プロバイダーが関与する最近の投資や提携に関する情報提供を求める命令を出したと発表した。
The agency’s 6(b) inquiry will scrutinize corporate partnerships and investments with AI providers to build a better internal understanding of these relationships and their impact on the competitive landscape.  The compulsory orders were sent to Alphabet, Inc., Amazon.com, Inc., Anthropic PBC, Microsoft Corp., and OpenAI, Inc. 同委員会の6(b)調査は、企業のAIプロバイダーとの提携や投資を精査し、こうした関係や競争環境に与える影響について、より良い内部理解を構築することを目的としている。 強制命令は、アルファベット社、アマゾン・ドット・コム社、アンソロピックPBC社、マイクロソフト社、OpenAI社に送られた。
“History shows that new technologies can create new markets and healthy competition. As companies race to develop and monetize AI, we must guard against tactics that foreclose this opportunity, “said FTC Chair Lina M. Khan. “Our study will shed light on whether investments and partnerships pursued by dominant companies risk distorting innovation and undermining fair competition." 「歴史は、新しい技術が新しい市場と健全な競争を生み出すことを示している。FTCのリナ・M・カーン委員長は、「企業がAIを開発し、収益化しようと競争する中、我々はこの機会を閉ざすような戦術を警戒しなければならない。「我々の調査は、支配的な企業が追求する投資や提携がイノベーションを歪め、公正な競争を損なう危険性がないかどうかを明らかにするものである。
The FTC issued its orders under Section 6(b) of the FTC Act, which authorizes the Commission to conduct studies that allow enforcers to gain a deeper understanding of market trends and business practices. Findings stemming from such orders can help inform future Commission actions. FTCは、FTC法第6条(b)に基づいて命令を出した。この命令は、市場動向や商慣行についてより深い理解を得るための調査を実施する権限をFTCに与えている。このような命令から得られた知見は、今後の取引委員会の対応に役立つ。
Companies are deploying a range of strategies in developing and using AI, including pursuing partnerships and direct investments with AI developers to get access to key technologies and inputs needed for AI development. The orders issued today were sent to companies involved in three separate multi-billion-dollar investments: Microsoft and OpenAIAmazon and Anthropic, and Google and Anthropic. The FTC’s inquiry will help the agency deepen enforcers understanding of the investments and partnerships formed between generative AI developers and cloud service providers. 企業は、AIの開発に必要な主要技術やインプットを入手するために、AI開発企業との提携や直接投資を進めるなど、AIの開発・利用においてさまざまな戦略を展開している。本日発表された命令は、3つの別々の数十億ドル規模の投資に関わる企業に送られた: マイクロソフトとOpenAI、アマゾンとAnthropic、グーグルとAnthropicである。FTCの調査は、生成的AI開発者とクラウドサービス・プロバイダーとの間に形成された投資とパートナーシップに関する執行官の理解を深めるのに役立つだろう。
The FTC is seeking information specifically related to: FTCは特に以下の情報を求めている:
・Information regarding a specific investment or partnership, including agreements and the strategic rationale of an investment/partnership. ・具体的な投資や提携に関する情報(契約や投資・提携の戦略的根拠を含む)。
・The practical implications of a specific partnership or investment, including decisions around new product releases, governance or oversight rights, and the topic of regular meetings. ・新製品のリリース、ガバナンスや監督権、定期的な会議のテーマに関する決定を含む、特定のパートナーシップや投資の実際的な意味合い。
・Analysis of the transactions’ competitive impact, including information related to market share, competition, competitors, markets, potential for sales growth, or expansion into product or geographic markets. ・市場シェア、競合、競合他社、市場、売上増加の可能性、製品または地理的市場への拡大に関する情報を含む、取引の競争上の影響の分析。
・Competition for AI inputs and resources, including the competitive dynamics regarding key products and services needed for generative AI.   ・生成的AIに必要な主要製品やサービスに関する競争力学を含む、AIインプットやリソースの競合。 
・Information provided to any other government entity, including foreign government entities, in connection with any investigation, request for information, or other inquiry related to these topics. ・これらのトピックに関連する調査、情報提供要請、その他の照会に関連して、外国政府機関を含むその他の政府機関に提供された情報。
The companies will have 45 days from the date they receive the order to respond. 各社は命令を受けた日から45日以内に回答する必要がある。
The Commission voted 3-0 to issue the Section 6(b) orders and conduct the study of AI investments and partnerships. 取引委員会は、第6(b)項命令を出し、AI投資およびパートナーシップに関する調査を実施することを3対0で決定した。

 

 

・[PDF]  命令

20240126-121601

 

 

| | Comments (0)

Apple EUにおけるiOS、Safari、App Storeの変更を発表

こんにちは、丸山満彦です。

Appleが、EUにおけるiOS、Safari、App Storeの変更を昨日発表していますね。。。

なかなか興味深い...

20240126-115546

Apple

・2024.01.25 Apple announces changes to iOS, Safari, and the App Store in the European Union

一部...

 

Changes to iOS iOSの変更
In the EU, Apple is making a number of changes to iOS to comply with the DMA. For developers, those changes include new options for distributing apps. The coming changes to iOS in the EU include: EUでは、アップルはDMAに準拠するためにiOSに多くの変更を加えている。デベロッパーにとって、これらの変更にはアプリを配布するための新しいオプションが含まれる。EUにおけるiOSの今後の変更には以下が含まれる:
・New options for distributing iOS apps from alternative app marketplaces — including new APIs and tools that enable developers to offer their iOS apps for download from alternative app marketplaces. ・代替アプリマーケットプレイスからiOSアプリを配布するための新しいオプション - 開発者が代替アプリマーケットプレイスからiOSアプリをダウンロードできるようにする新しいAPIとツールを含む。
・New framework and APIs for creating alternative app marketplaces — enabling marketplace developers to install apps and manage updates on behalf of other developers from their dedicated marketplace app. ・代替アプリマーケットプレイスを作成するための新しいフレームワークとAPI - マーケットプレイス開発者は、専用のマーケットプレイスアプリから他の開発者に代わってアプリをインストールし、アップデートを管理することができる。
・New frameworks and APIs for alternative browser engines — enabling developers to use browser engines, other than WebKit, for browser apps and apps with in-app browsing experiences. ・代替ブラウザエンジン用の新しいフレームワークとAPI - ブラウザアプリやアプリ内ブラウジング体験のあるアプリで、開発者がWebKit以外のブラウザエンジンを使用できるようにする。
・Interoperability request form — where developers can submit additional requests for interoperability with iPhone and iOS hardware and software features. ・相互運用性リクエストフォーム - 開発者は、iPhoneおよびiOSのハードウェアおよびソフトウェア機能との相互運用性に関する追加リクエストを提出できる。
As announced by the European Commission, Apple is also sharing DMA-compliant changes impacting contactless payments. That includes new APIs enabling developers to use NFC technology in their banking and wallet apps throughout the European Economic Area. And in the EU, Apple is introducing new controls that allow users to select a third-party contactless payment app — or an alternative app marketplace — as their default. 欧州委員会が発表したように、アップルは非接触型決済に影響するDMA準拠の変更も共有している。これには、開発者が欧州経済領域内の銀行や財布アプリでNFC技術を使用できるようにする新しいAPIが含まれる。そしてEUでは、アップルは、ユーザーがサードパーティの非接触決済アプリ(または代替アプリマーケット)をデフォルトとして選択できるようにする新しいコントロールを導入している。
Inevitably, the new options for developers’ EU apps create new risks to Apple users and their devices. Apple can’t eliminate those risks, but within the DMA’s constraints, the company will take steps to reduce them. These safeguards will be in place when users download iOS 17.4 or later, beginning in March, and include: 必然的に、デベロッパーのEUアプリに対する新しい選択肢は、アップルのユーザーとそのデバイスに新たなリスクをもたらす。アップルはこうしたリスクを排除することはできないが、DMAの制約の範囲内で、リスクを軽減するための措置を講じる。これらの保護措置は、ユーザーが3月からiOS 17.4以降をダウンロードする際に実施され、以下を含む:
・Notarization for iOS apps — a baseline review that applies to all apps, regardless of their distribution channel, focused on platform integrity and protecting users. Notarization involves a combination of automated checks and human review. ・iOSアプリの公証 - プラットフォームの完全性とユーザー保護に焦点を当てた、配布チャネルに関係なくすべてのアプリに適用される基本審査。公証には、自動チェックと人間によるレビューの組み合わせが含まれる。
・App installation sheets — that use information from the Notarization process to provide at-a-glance descriptions of apps and their functionality before download, including the developer, screenshots, and other essential information. ・アプリインストールシート - Notarizationプロセスで得られた情報を使用し、開発者、スクリーンショット、その他の重要な情報を含む、ダウンロード前のアプリとその機能の一目でわかる説明を提供する。
・Authorization for marketplace developers — to ensure marketplace developers commit to ongoing requirements that help protect users and developers. ・マーケットプレイス開発者の認証 - ユーザーと開発者の保護に役立つ継続的な要件にマーケットプレイス開発者がコミットすることを保証する。
・Additional malware protections — that prevent iOS apps from launching if they’re found to contain malware after being installed to a user’s device. ・追加のマルウェア保護 - ユーザのデバイスにインストールされた後にマルウェアが含まれていることが判明した場合、iOSアプリが起動しないようにする。
These protections — including Notarization for iOS apps, and authorization for marketplace developers — help reduce some of the privacy and security risks to iOS users in the EU. That includes threats like malware or malicious code, and risks of installing apps that misrepresent their functionality or the responsible developer. iOSアプリの公証、マーケットプレイス開発者の認証など、これらの保護は、EUのiOSユーザーに対するプライバシーとセキュリティのリスクを軽減するのに役立つ。これには、マルウェアや悪意のあるコードのような脅威や、機能や責任ある開発者を偽っているアプリをインストールするリスクなどが含まれる。
However, Apple has less ability to address other risks — including apps that contain scams, fraud, and abuse, or that expose users to illicit, objectionable, or harmful content. In addition, apps that use alternative browser engines — other than Apple’s WebKit — may negatively affect the user experience, including impacts to system performance and battery life. しかしアップルには、詐欺、詐欺、不正利用を含むアプリや、不正、好ましくない、有害なコンテンツにユーザーをさらすアプリなど、その他のリスクに対処する能力はあまりない。さらに、アップルのWebKit以外の代替ブラウザエンジンを使用するアプリは、システムパフォーマンスやバッテリー寿命への影響など、ユーザーエクスペリエンスに悪影響を及ぼす可能性がある。
Within the DMA’s constraints, Apple is committed to protecting the privacy, security, and quality of the iOS user experience in the EU as much as possible. For instance, App Tracking Transparency will continue to work with apps distributed outside of the App Store — asking a user’s permission before a developer tracks their data across apps or websites. However, the DMA’s requirements mean that App Store features — including Family Purchase Sharing and Ask to Buy — will not be compatible with apps downloaded from outside of the App Store. DMAの制約の中で、AppleはEUにおけるiOSのユーザーエクスペリエンスのプライバシー、セキュリティ、品質を可能な限り保護することを約束する。例えば、App Tracking Transparencyは引き続きApp Store以外で配布されるアプリで機能し、開発者がアプリやウェブサイト全体でユーザーのデータを追跡する前にユーザーの許可を求める。しかし、DMAの要件は、ファミリー購入共有やAsk to Buyを含むApp Storeの機能が、App Store以外からダウンロードされたアプリには対応しないことを意味する。
When these changes come into effect in March, Apple will share more detailed resources explaining the options available to users — including best practices for protecting their privacy and security. これらの変更が3月に施行される際には、Appleは、プライバシーとセキュリティを保護するためのベストプラクティスなど、ユーザーが利用できる選択肢について説明したより詳細なリソースを共有する予定である。
Changes to Safari Safariの変更
Today, iOS users already have the ability to set a third-party web browser — other than Safari — as their default. Reflecting the DMA’s requirements, Apple is also introducing a new choice screen that will surface when users first open Safari in iOS 17.4 or later. That screen will prompt EU users to choose a default browser from a list of options. 現在、iOSユーザーは、Safari以外のサードパーティ製ウェブブラウザをデフォルトに設定することができる。DMAの要求を反映し、アップルはiOS 17.4以降でユーザーが初めてSafariを開いたときに表示される新しい選択画面も導入する。この画面は、EUユーザーに対し、選択肢の中からデフォルトのブラウザを選択するよう促すものだ。
This change is a result of the DMA’s requirements, and means that EU users will be confronted with a list of default browsers before they have the opportunity to understand the options available to them. The screen also interrupts EU users’ experience the first time they open Safari intending to navigate to a webpage. この変更はDMAの要求によるもので、EU圏のユーザーが利用可能な選択肢を理解する前にデフォルトブラウザのリストを突きつけられることを意味する。この画面はまた、EU圏のユーザーがウェブページに移動しようとSafariを初めて開いたときの体験を中断させる。
Changes to the App Store App Storeの変更
On the App Store, Apple is sharing a number of changes for developers with apps in the EU, affecting apps across Apple’s operating systems — including iOS, iPadOS, macOS, watchOS, and tvOS. The changes also include new disclosures informing EU users of the risks associated with using alternatives to the App Store’s secure payment processing. アップルはApp Storeにおいて、EU圏内でアプリを開発する開発者向けに多くの変更を共有しており、iOS、iPadOS、macOS、watchOS、tvOSを含むアップルのオペレーティングシステム全体のアプリに影響を与える。この変更には、App Storeのセキュアな決済処理に代わるものを使用する際のリスクについてEUのユーザーに通知する新しい開示も含まれている。
For developers, those changes include: 開発者向けには、以下の変更が含まれる:
・New options for using payment service providers (PSPs) — within a developer’s app to process payments for digital goods and services. ・デベロッパのアプリ内で決済サービスプロバイダ(PSP)を利用し、デジタル商品およびサービスの決済を処理するための新しいオプション。
・New options for processing payments via link-out — where users can complete a transaction for digital goods and services on the developer’s external website. Developers can also inform EU users of promotions, discounts, and other deals available outside of their apps. ・リンクアウトによる支払い処理の新たな選択肢 - ユーザーがデベロッパーの外部ウェブサイトでデジタル商品やサービスの取引を完了できる。デベロッパーはまた、アプリの外で利用可能なプロモーション、割引、その他のお得な情報をEUユーザーに知らせることができる。
・Business planning tools — for developers to estimate fees and understand metrics associated with Apple’s new business terms for apps in the EU. ・ビジネスプランニングツール - デベロッパが料金を見積もり、AppleのEUにおけるアプリの新しいビジネス条件に関連する指標を理解するためのもの。
The changes also include new steps to protect and inform EU users, including: 今回の変更には、EUユーザーを保護し、情報を提供するための以下のような新たな措置も含まれる:
・App Store product page labels — that inform users when an app they’re downloading uses alternative payment processing. ・App Storeの製品ページのラベル - ダウンロードしようとしているアプリが代替の支払処理を使用している場合に、ユーザに通知する。
・In-app disclosure sheets — that let users know when they are no longer transacting with Apple, and when a developer is directing them to transact using an alternative payment processor. ・アプリ内開示シート - アップルとの取引が終了した場合、およびデベロッパが代替支払処理機関を使用して取引を行うようユーザに指示している場合に、ユーザに通知する。
・New App Review processes — to verify that developers accurately communicate information about transactions that use alternative payment processors. ・新しいApp Reviewプロセス - デベロッパが代替支払処理業者を使用する取引に関する情報を正確に伝えていることを確認する。
・Expanded data portability on Apple’s Data & Privacy site — where EU users can retrieve new data about their usage of the App Store and export it to an authorized third party. ・AppleのData & Privacyサイトにおけるデータポータビリティの拡大 - EUユーザは、App Storeの利用に関する新しいデータを取得し、認定された第三者にエクスポートすることができる。
For apps that use alternative payment processing, Apple will not be able to issue refunds, and will have less ability to support customers encountering issues, scams, or fraud. Helpful App Store features — like Report a Problem, Family Sharing, and Ask to Buy — will also not reflect these transactions. Users may have to share their payment information with additional parties, creating more opportunities for bad actors to steal sensitive financial information. And on the App Store, users’ purchase history and subscription management will only reflect transactions made using the App Store’s In-App Purchase system. Appleは、代替決済手段を使用するアプリについては返金を行うことができず、問題や詐欺、詐欺に遭遇した顧客をサポートする能力も低下する。問題の報告、ファミリー共有、購入依頼など、App Storeの便利な機能も、これらの取引には反映されない。ユーザーは支払い情報をさらに多くの相手と共有しなければならなくなる可能性があり、悪質な業者が機密性の高い金融情報を盗む機会が増える。また、App Storeでは、ユーザーの購入履歴と定期購入管理には、App StoreのIn-App Purchaseシステムを使用して行われた取引のみが反映される。

 

 

 

| | Comments (0)

世界経済フォーラム (WEF) AIガバナンス・アライアンス ブリーフィングペーパーシリーズ (2024.01.18)

こんにちは、丸山満彦です。

世界経済フォーラム (WEF)がAIガバナンス・アライアンス ブリーフィングペーパー3部作を公表していますね。。。IBMが取りまとめたようです。。。

  1. フレームワーク
  2. ガバナンス
  3. 今後の展開

という感じでしょうかね。。。

マルチホルダーアプローチで、リスクアセスメントをし、必要な対策をとりながら進めていくのが良いのでしょうね。。。

 

 

World Economic Forum - Whitepaper

・20214.01.18 AI Governance Alliance: Briefing Paper Series

AI Governance Alliance: Briefing Paper Series AIガバナンス・アライアンス ブリーフィングペーパーシリーズ
In an era marked by rapid technological transformation, this briefing paper series stands as a pivotal point of reference, guiding responsible transformation with artificial intelligence (AI). 急速な技術革新の時代において、このブリーフィングペーパーシリーズは、人工知能(AI)による責任ある変革を導く、極めて重要な参考資料となる。
This collaborative effort brings together over 250 members from more than 200 organizations. Structured around three core working groups (Safe Systems and Technologies, Responsible Applications and Transformation, and Resilient Governance and Regulation), the AI Governance Alliance addresses AI’s multifaceted challenges and opportunities. この共同作業には、200を超える組織から250を超えるメンバーが参加している。AIガバナンス・アライアンスは、3つのコア・ワーキンググループ(安全なシステムとテクノロジー、責任ある応用と変革、レジリエンス・ガバナンスと規制)を中心に構成され、AIの多面的な課題と機会に取り組んでいる。
This briefing paper series, representing collective insights, establishes foundational focus areas for steering AI's development, adoption and governance. The alliance serves as a beacon of multistakeholder collaboration, guiding decision-makers towards an AI future that upholds human values and enhances societal progress. このブリーフィング・ペーパー・シリーズは、AIの開発、導入、ガバナンスを舵取りするための代表的な重点分野を定めるものである。本アライアンスは、マルチステークホルダー協働の道標として、意思決定者を人間の価値を守り、社会の進歩を促進するAIの未来へと導く。
Paper 1 – Presidio AI Framework: Towards Safe Generative AI Models ペーパー1 - 要塞AIフレームワーク: 安全な生成的AIモデルに向けて
This paper navigates the complex rise of generative AI, emphasizing the balance between innovation, safety and ethics. It introduces a comprehensive framework centred on an expanded AI life cycle, robust risk guardrails and a shift-left methodology for early safety integration. Advocating for multistakeholder collaboration, the framework promotes shared responsibility and proactive risk management. 本レポートでは、生成的AIの複雑な台頭を先導し、イノベーション、安全性、倫理のバランスを強調する。拡張されたAIライフサイクル、強固なリスクガードレール、早期安全統合のためのシフト・レフト手法を中心とした包括的なフレームワークを紹介する。マルチステークホルダーによる協働を提唱するこのフレームワークは、責任の共有と積極的なリスクマネジメントを促進する。
This foundational paper by the AI Governance Alliance sets the stage for ongoing efforts to ensure ethical and responsible AI development, advocating for a future where innovation is coupled with stringent safety measures. AIガバナンス・アライアンスによるこの基礎的なペーパーは、倫理的で責任あるAI開発を確保するための継続的な取り組みの段階を設定し、イノベーションが厳格な安全対策と組み合わされる未来を提唱している。
Read the full report here. 報告書全文はこちら
Paper 2 – Unlocking Value from Generative AI: Guidance for Responsible Transformation ペーパー2「生成的AIから価値を引き出す:責任ある変革のためのガイダンス
This paper examines the disruptive potential of generative AI and the imperative for leaders to adopt a use-case-based approach for its deployment. It guides organizations to assess use cases for business impact, operational readiness and investment strategy, and to balance benefits against potential workforce impact and downstream implications. このペーパーでは、生成的AIの破壊的な可能性と、その展開のためにリーダーがユースケースに基づいたアプローチを採用する必要性について検証している。ビジネスへの影響、運用準備、投資戦略についてユースケースを評価し、潜在的な労働力への影響や下流への影響と利益のバランスを取るよう、組織を導く。
Emphasizing a multistakeholder approach, the paper advocates for responsible scaling strategies like transparent governance and value-based change management. This paper equips leaders with insights to responsibly harness generative AI’s benefits while preparing for its evolving future. マルチステークホルダー・アプローチを重視し、透明性のあるガバナンスや価値に基づく変更管理など、責任あるスケーリング戦略を提唱している。本レポートは、進化する未来に備えつつ、生成的AIの利点を責任を持って活用するための洞察をリーダーに提供する。
Read the full report here. 報告書全文はこちら
Paper 3 – Generative AI Governance: Shaping a Collective Global Future ペーパー3「生成的AIガバナンス: グローバルな未来を形成する
This paper navigates the complexities of AI governance amidst rapid technological and societal changes. It compares national responses, focusing on governance approaches and regulatory instruments. The paper highlights key debates in generative AI, including risk prioritization and access spectrum, and advocates for international cooperation to prevent governance fragmentation. It emphasizes the need for equitable access and inclusion, especially for the Global South. 本レポートでは、急速な技術と社会の変化の中で、AIガバナンスの複雑さを先導する。ガバナンスのアプローチと規制手段に焦点を当て、各国の対応を比較する。リスクの優先順位付けやアクセス・スペクトラムなど、生成的AIにおける重要な議論に焦点を当て、ガバナンスの分断を防ぐための国際協力を提唱している。特に「グローバルサウス」において、公平なアクセスとインクルージョンが必要であることを強調している。
This briefing paper informs stakeholders in AI governance and regulation and lays the groundwork for the World Economic Forum’s AI Governance Alliance’s future initiatives on resilient and inclusive governance. このブリーフィング・ペーパーは、AIガバナンスと規制の関係者に情報を提供し、世界経済フォーラムのAIガバナンス・アライアンスがレジリエンスとインクルーシブ・ガバナンスに関して今後取り組むための土台を築くものである。
Read the full report here. 報告書全文はこちら

 

 

・[PDF] Paper 1 – Presidio AI Framework: Towards Safe Generative AI Models

20240126-43057

 

目次..

Exective Summary 要旨
1 Introducing the Presidio AI Framework  1 要塞AIフレームワークの紹介 
2 Expanded AI life cycle  2 拡張AIのライフサイクル 
3 Guardrails across the expanded AI life cycle  3 拡張AIライフサイクル全体のガードレール 
3.1 Foundation model building phase  3.1 基礎モデル構築段階 
3.2 Foundation model release phase  3.2 基礎モデルのリリース段階 
3.3 Model adaptation phase  3.3 モデルの適応段階 
4 Shifting left for optimized risk mitigation  4 最適化されたリスク低減のためのシフト
Conclusion  結論 

 

エグゼクティブサマリー

Executive summary 要旨
The Presidio AI Framework addresses generative AI risks by promoting safety, ethics, and innovation with early guardrails. 要塞AIフレームワークは、早期のガードレールによって安全性、倫理、イノベーションを促進することで、生成的AIのリスクに対処する。
The rise of generative AI presents significant opportunities for positive societal transformations. At the same time, generative AI models add new dimensions to AI risk management, encompassing various risks such as hallucinations, misuse, lack of traceability and harmful output. Therefore, it is essential to balance safety, ethics and innovation. 生成的AIの台頭は、社会をポジティブに変革する大きな機会をもたらす。同時に、生成的AIモデルはAIのリスクマネジメントに新たな次元を追加し、幻覚、誤用、トレーサビリティの欠如、有害な出力などの様々なリスクを包含する。したがって、安全性、倫理、イノベーションのバランスを取ることが不可欠である。
This briefing paper identifies a list of challenges to achieving this balance in practice, such as lack of a cohesive view of the generative AI model life cycle and ambiguity in terms of the deployment and perceived effectiveness of varying safety guardrails throughout the life cycle. Amid these challenges, there are significant opportunities, including greater standardization through shared terminology and best practices, facilitating a common understanding of the effectiveness of various risk mitigation strategies. このブリーフィング・ペーパーでは、生成的AIモデルのライフサイクルに関するまとまった見解の欠如や、ライフサイクル全体を通して様々な安全ガードレールの展開や認識される有効性の曖昧さなど、実際にこのバランスを達成するための課題を挙げている。このような課題がある一方で、用語やベストプラクティスを共有することで標準化を進め、様々なリスク軽減戦略の有効性を共通理解するなどの大きなチャンスもある。
This briefing paper presents the Presidio AI Framework, which provides a structured approach to the safe development, deployment and use of generative AI. In doing so, the framework highlights gaps and opportunities in addressing safety concerns, viewed from the perspective of four primary actors: AI model creators, AI model adapters, AI model users, and AI application users. Shared responsibility, early risk identification and proactive risk management through the implementation of appropriate guardrails are emphasized throughout. 本ブリーフィングペーパーでは、生成的AIの安全な開発、展開、使用への構造的アプローチを提供する要塞AIフレームワークを紹介する。このフレームワークでは、4つの主要なアクターの視点から、安全性に関する懸念に対処するためのギャップと機会を明らかにしている: AIモデル作成者、AIモデル適応者、AIモデル利用者、AIアプリケーション利用者である。責任の共有、早期のリスク特定、適切なガードレールの導入による積極的なリスクマネジメントが全体を通して強調されている。
The Presidio AI Framework consists of three core components: 要塞AIフレームワークは、3つのコア・コンポーネントで構成されている:
1. Expanded AI life cycle: This element of the framework establishes a comprehensive end-toend view of the generative AI life cycle, signifying varying actors and levels of responsibility at each stage.  1. 拡張AIライフサイクル: このフレームワークの要素は、生成的AIライフサイクルの包括的なエンドツーエンドのビューを確立し、各段階における様々なアクターと責任レベルを示す。
2. Expanded risk guardrails: The framework details robust guardrails to be considered at different steps of the generative AI life cycle, emphasizing prevention rather than mitigation.  2. 拡張されたリスクガードレール: このフレームワークでは、生成的AIのライフサイクルのさまざまな段階で考慮すべき強固なガードレールを詳述し、低減よりも予防を重視している。
3. Shift-left methodology: This methodology proposes the implementation of guardrails at the earliest stage possible in the generative AI life cycle. While shift-left is a well-established concept in software engineering, its application in the context of generative AI presents a unique opportunity to promote more widespread adoption. 3. シフト・レフトの方法論: この方法論は、生成的AIのライフサイクルの可能な限り早い段階でのガードレールの実装を提案する。シフト・レフトはソフトウェア工学において確立された概念であるが、生成的AIの文脈に適用することで、より広範な採用を促進するまたとない機会を提供する。
In conclusion, the paper emphasizes the need for greater multistakeholder collaboration between industry stakeholders, policy-makers and organizations. The Presidio AI Framework promotes shared responsibility, early risk identification and proactive risk management in generative AI development, using guardrails to ensure ethical and responsible deployment. The paper lays the foundation for ongoing safety-related work of the AI Governance Alliance and the Safe Systems and Technologies working group. Future work will expand on the core concepts and components introduced in this paper, including the provision of a more exhaustive list of known and novel guardrails, along with a checklist to operationalize the framework across the generative AI life cycle. 結論として、本レポートでは、産業界の利害関係者、政策立案者、組織間のマルチステークホルダー協働を強化する必要性を強調している。Presidio AI Frameworkは、生成的AI開発における責任の共有、早期のリスク特定、積極的なリスクマネジメントを促進し、倫理的で責任ある展開を保証するガードレールを使用する。このペーパーは、AIガバナンス・アライアンスと安全システム・技術作業部会が現在進めている安全関連の作業の基礎を築くものである。今後の作業では、生成的AIのライフサイクル全体にわたってフレームワークを運用するためのチェックリストとともに、既知および新規のガードレールのより包括的なリストを提供するなど、本レポートで紹介した中核概念と構成要素を発展させる予定である。

 

図2:要塞AIフレームワークのAIライフサイクルへの拡大

1_20240126043501

 

 

・[PDF] Paper 2 – Unlocking Value from Generative AI: Guidance for Responsible Transformation

20240126-43116

目次...

Executive summary 要旨
Introduction  序文 
1 New opportunities with generative AI  1 生成的AIがもたらす新たな機会 
2 Assessing use cases for adoption  2 採用のためのユースケースの評価 
2.1 Evaluation gate: business impact  2.1 評価ゲート:ビジネスインパクト 
2.2 Evaluation gate: operational readiness  2.2 評価ゲート:運用準備 
2.3 Evaluation gate: investment strategy  2.3 評価ゲート:投資戦略 
3 Responsible transformation  3 責任ある変革 
3.1 The case for responsible transformation  3.1 責任ある変革のケース 
3.2 Addressing accountability: defined governance for immediate and downstream outcomes  3.2 説明責任への対応:直接的および下流的な成果に対するガバナンスの明確化 
3.3 Addressing trust: enabling transparency through communication  3.3 信頼への対応:コミュニケーションを通じて透明性を確保する 
3.4 Addressing challenges to scale: diverse and agile operations structures  3.4 規模拡大の課題への対応:多様で機敏なオペレーション体制 
3.5 Addressing human impact: value-based change management  3.5 人的影響への対応:価値に基づくチェンジ・マネジメント 
Conclusion  結論

 

エグゼクティブサマリー...

Executive summary 要旨
Organizations should emphasize responsible transformation with generative AI to build a sustainable future. 持続可能な未来を築くために、組織は生成的AIによる責任ある変革を重視すべきである。
Generative AI entered the popular domain with the launch of OpenAI’s ChatGPT in November 2022, igniting global fascination surrounding its capabilities and potential for transformative impact. As generative AI’s technical maturity accelerates, its adoption by organizations seeking to capitalize on its potential is maturing at pace while also swiftly disrupting business and society and forcing leaders to rethink their strategies in real time. This paper addresses the impact of generative AI on industry and introduces best practices for responsible transformation. 生成的AIは、2022年11月のOpenAIのChatGPTの発表で一般的な領域に入り、その能力と変革的インパクトの可能性をめぐる世界的な魅力に火をつけた。生成的AIの技術的成熟が加速するにつれ、その可能性を活かそうとする組織による採用も急速に成熟しつつあり、同時にビジネスや社会を急速に破壊し、リーダーたちはリアルタイムで戦略の見直しを迫られている。本レポートでは、生成的AIが産業に与える影響を取り上げ、責任ある変革のためのベストプラクティスを紹介する。
Leaders have realized new generative AI opportunities for their organizations, from streamlining enterprise processes to supporting artists in reimagining furniture design or even aiding nations in addressing global climate challenges. From the public to the private sector, organizations are witnessing generative AI’s ability to enhance enterprise productivity, create net new products or services, and redefine industries and societies. In adopting generative AI, leaders report a shift towards a use-case-based approach, focusing on evaluating and prioritizing use cases and structures that enable the successful deployment of generative AI technologies and compound value generation. リーダーたちは、エンタープライズ・プロセスの合理化から、家具デザインの再構築におけるアーティストの支援、さらには世界的な気候変動問題への対処における国家の支援に至るまで、組織にとっての新たな生成的AIの可能性に気づいている。公共部門から民間部門まで、組織は生成的AIがエンタープライズの生産性を向上させ、新しい製品やサービスを生み出し、産業や社会を再定義する能力を目の当たりにしている。生成的AIを採用するにあたり、リーダーたちは、生成的AI技術の展開を成功させ、複合的な価値生成を可能にするユースケースと構造の評価と優先順位付けに焦点を当てた、ユースケース・ベースのアプローチへのシフトを報告している。
Organizations should evaluate potential use cases across the following domains: business impact, organisational readiness and investment strategy.  組織は、ビジネスへの影響、組織の準備、投資戦略といった領域にわたって、潜在的なユースケースを評価する必要がある。
– Strategic alignment with the organization’s goals, revenue and cost implications, and impact on resources are key factors when leaders prioritize use cases based on their potential for business impact.  ・組織の目標との戦略的整合性、収益とコストへの影響、リソースへの影響は、ビジネスインパクトの可能性に基づいてリーダーがユースケースに優先順位をつける際の重要な要素である。
– The requisite technical talent and infrastructure, the ability to track data and model lineage, and the governance structure to manage risk are considerations when leaders evaluate use cases against their operational readiness. ・必要な技術的人材とインフラ、データとモデルの系譜を追跡する能力、リスクを管理するガバナンス構造は、リーダーがユースケースを運用準備性と照らし合わせて評価する際の考慮事項である。
– Balancing upfront development cost with reusability potential, projected time to value and an increasingly complex regulatory environment are criteria when leaders select use cases in alignment with an organization’s investment strategy.  ・先行開発コストと再利用の可能性とのバランス、予測される価値実現までの時間、複雑化する規制環境は、リーダーが組織の投資戦略に沿ってユースケースを選択する際の基準である。
Following use case selection, organizations weigh benefits against downstream impacts such as impact to the workforce, sustainability or inherent technology risk such as hallucinations. A multistakeholder approach helps leaders to mitigate risk and scale responsibly. ユースケースを選択した後、組織は、労働力への影響、持続可能性、幻覚などの技術固有のリスクなど、下流への影響と利益を比較検討する。マルチステークホルダーアプローチは、リーダーがリスクを低減し、責任を持って規模を拡大するのに役立つ。
– Multistakeholder governance with distributed ownership is central to addressing accountability.  ・オーナーシップを分散させたマルチステークホルダー・ガバナンスは、アカウンタビリティに対処する上で中心的な役割を果たす。
– Communications teams that shape a cohesive narrative are essential to addressing trust through transparency.  ・まとまりのある物語を形成するコミュニケーション・チームは、透明性を通じて信頼に応えるために不可欠である。
– Operational structures that roadmap and cascade use cases to extract, realize, replicate and amplify value across the entire organization are key to addressing challenges to scale.  ・組織全体で価値を抽出し、実現し、複製し、増幅するためのユースケースをロードマップ化し、カスケード化する運営体制は、規模拡大の課題に対処するための鍵となる。
– Value-based change management is critical to addressing human impact and ensuring the workforce remains engaged and upskilled. ・価値ベースのチェンジマネジメントは、人的影響に対処し、従業員のエンゲージメントとスキルアップを維持するために不可欠である。
The findings in this briefing paper provide leaders with insights on how to realise the benefits of generative AI while mitigating its downstream impacts. Future publications will build on these recommendations for responsible transformation as generative AI becomes increasingly able to mimic human skills and reasoning, and technology advances in pursuit of artificial general intelligence.. このブリーフィング・ペーパーで得られた知見は、生成的AIがもたらす利益を実現する一方で、その下流への影響を低減する方法についての洞察をリーダーに提供するものである。今後の出版物では、生成的AIが人間のスキルや推論をますます模倣できるようになり、人工知能を追求する技術が進歩するにつれて、責任ある変革のためのこれらの提言をベースにしていく予定である。

 

 

・[PDF] Paper 3 – Generative AI Governance: Shaping a Collective Global Future

20240126-43124

目次..

Executive summary 要旨
 Introduction  序文 
1 Global developments in AI governance  1 AIガバナンスの世界的発展 
1.1 Evolving AI governance tensions  1.1 AIガバナンスの緊張の高まり 
2 International cooperation and jurisdictional interoperability  2 国際協力と管轄権の相互運用性 
2.1 International coordination and collaboration  2.1 国際協調と協力 
2.2 Compatible AI standards  2.2 互換性のあるAI標準 
2.3 Flexible regulatory mechanisms  2.3 柔軟な規制メカニズム 
3 Enabling equitable access and inclusive global AI governance  3 衡平なアクセスと包括的なグローバルAIガバナンスの実現 
3.1 Structural limitations and power imbalances  3.1 構造的制約と力の不均衡 
3.2 Inclusion of the Global South in AI governance  3.2 AIガバナンスにおける「南半球」の包摂 
Conclusion  結論 

 

エグゼクティブサマリー

Executive summary 要旨
Shaping a prosperous and equitable global future with AI depends on international cooperation, jurisdictional interoperability and inclusive governance. AIによって豊かで公平な世界の未来を形作るには、国際協力、管轄権の相互運用性、包括的ガバナンスが不可欠である。
The global landscape for artificial intelligence (AI) governance is complex and rapidly evolving, given the speed and breadth of technological advancements, as well as social, economic and political influences. This paper examines various national governance responses to AI around the world and identifies two areas of comparison:  人工知能(AI)ガバナンスの世界的な状況は、社会的、経済的、政治的影響だけでなく、技術的進歩のスピードと幅を考えると、複雑かつ急速に進化している。本レポートでは、世界のAIに対する各国のガバナンスの対応を検証し、比較すべき2つの分野を特定する: 
1. Governance approach: AI governance may be focused on risk, rules, principles or outcomes; and whether or not a national AI strategy has been outlined.  1. ガバナンスのアプローチ: AIガバナンスは、リスク、ルール、原則、成果のいずれに重点を置くか、また、国家AI戦略の概要の有無に重点を置く。
2. Regulatory instruments: AI governance may be based on existing regulations and authorities or on the development of new regulatory instruments. 2. 規制手段: AIガバナンスは、既存の規制や認可に基づく場合もあれば、新たな規制手段の開発に基づく場合もある。
Lending to the complexity of AI governance, the arrival of generative AI raises several governance debates, two of which are highlighted in this paper:  生成的AIの登場は、AIガバナンスの複雑さを助長し、いくつかのガバナンス論議を引き起こしているが、本レポートではそのうちの2つを取り上げる: 
. How to prioritize addressing current harms and potential risks of AI.  1. AIの現在の危害と潜在的リスクに対処する優先順位をどうつけるか。
2. How governance should consider AI technologies on a spectrum of open-to-closed access. 2. ガバナンスはどのようにAI技術をオープンからクローズドまで考慮すべきか。
International cooperation is critical for preventing a fracturing of the global AI governance environment into non-interoperable spheres with prohibitive complexity and compliance costs. Promoting international cooperation and jurisdictional interoperability requires:  国際協力は、グローバルなAIガバナンス環境が、法外な複雑さとコンプライアンス・コストを伴う相互運用不可能な領域へと分断されるのを防ぐために不可欠である。国際協力と管轄権の相互運用性を促進するためには、以下が必要である: 
– International coordination: To ensure legitimacy for governance approaches, a multistakeholder approach is needed that embraces perspectives from government, civil society, academia, industry and impacted communities and is grounded in collaborative assessments of the socioeconomic impacts of AI. ・国際協調: ガバナンス・アプローチの正当性を確保するためには、政府、市民社会、学界、産業界、および影響を受けるコミュニティからの視点を包含し、AIの社会経済的影響の共同評価に基礎を置く、マルチステークホルダー・アプローチが必要である。
– Compatible standards: To prevent substantial divergence in standards, relevant national bodies should increase compatibility efforts and collaborate with international standardization programmes. For international standards to be widely adopted, they must reflect global participation and representation.  ・互換性のある標準: 標準の実質的な乖離を防ぐため、関連する国内団体は互換性を高める努力をし、国際標準化プログラムと協力すべきである。国際標準が広く採用されるためには、グローバルな参加と代表が反映されていなければならない。
– Flexible regulatory mechanisms: To keep pace with AI’s fast-evolving capabilities, investment in innovation and governance frameworks should be agile and adaptable. ・柔軟な規制メカニズム: 日進月歩で進化するAIの能力に対応するため、イノベーションへの投資とガバナンスの枠組みは機敏かつ適応可能でなければならない。
Equitable access and inclusion of the Global South in all stages of AI development, deployment and governance is critical for innovation and for realizing the technology’s socioeconomic benefits and mitigating harms globally.  AIの開発、展開、ガバナンスのすべてのステージにおいて、グローバル・サウスが公平にアクセスし、インクルージョンすることは、イノベーションにとって、また、この技術がもたらす社会経済的便益を実現し、世界的な危害を軽減するために極めて重要である。
– Access to AI: Access to AI innovations can empower jurisdictions to make progress on economic growth and development goals. Genuine access relies on overcoming structural inequalities that lead to power imbalances for the Global South, including in infrastructure, data, talent and governance.  ・AIへのアクセス:AIイノベーションへのアクセスは、経済成長と開発目標の達成を可能にする。真のアクセスは、インフラ、データ、人材、ガバナンスを含め、グローバル・サウスにとって力の不均衡につながる構造的不平等を克服することに依存する。
– Inclusion in AI: To adequately address unique regional concerns and prevent a relegation of developing economies to mere endpoints in the AI value chain, there must be a reimagining of roles that ensure Global South actors can engage in AI innovation and governance. ・AIにおけるインクルージョン:地域特有の懸念に適切に対処し、発展途上経済がAIのバリューチェーンにおける単なる終点に追いやられるのを防ぐためには、グローバル・サウス地域のアクターがAIのイノベーションとガバナンスに関与できるよう、役割の再構築が必要である。
The findings of this briefing paper are intended to inform actions by the different actors involved in AI governance and regulation. These findings will also serve as a basis for future work of the World Economic Forum and its AI Governance Alliance that will raise critical considerations for resilient governance and regulation, including international cooperation, interoperability, access and inclusion 本ブリーフィング・ペーパーの知見は、AIのガバナンスと規制に携わる様々な関係者の行動に役立つことを意図している。また、これらの知見は、世界経済フォーラムとそのAIガバナンス・アライアンスが、国際協力、相互運用性、アクセス、インクルージョンなど、レジリエンス・ガバナンスと規制のための重要な検討事項を提起する今後の作業の基礎となる。

 

 

 

 

| | Comments (0)

米国 CISA FBI EPA 上下水道システム部門向けインシデント対応ガイド (2024.01.18)

こんにちは、丸山満彦です。

米国 サイバーセキュリティ・インフラセキュリティ庁 (CISA) 、連邦捜査局 (FBI) 、環境保護庁 (EPA) が、上下水道システム部門向けインシデント対応ガイドを公表していますね。。。

 

CISA

・2024.01.18 CISA, FBI and EPA Release Incident Response Guide for Water and Wastewater Systems Sector 

CISA, FBI and EPA Release Incident Response Guide for Water and Wastewater Systems Sector  CISA、FBI、EPAが上下水道システム部門向けのインシデント対応ガイドを発表 
CRITICAL INFRASTRUCTURE SECURITY AND RESILIENCE, CYBERSECURITY BEST PRACTICES 重要インフラのセキュリティとレジリエンス、サイバーセキュリティのベストプラクティス
With WWS Sector contributions, guide provides recommended actions and available resources throughout cyber incident response lifecycle  WWSセクターの貢献により、ガイドはサイバーインシデント対応のライフサイクルを通じて推奨される行動と利用可能なリソースを提供する。
WASHINGTON – The Cybersecurity and Infrastructure Security Agency (CISA), Federal Bureau of Investigation (FBI), and Environmental Protection Agency (EPA) published a guide today to assist owners and operators in the Water and Wastewater Systems (WWS) Sector with best practices for cyber incident response and information about federal roles, resources and responsibilities for each stage of the response lifecycle. Technical expertise is not required to understand and use this guide.    ワシントン - サイバーセキュリティ・インフラセキュリティ庁(CISA)、連邦捜査局(FBI)、環境保護庁(EPA)は本日、上下水道システム(WWS)セクターの所有者および運営者を支援するため、サイバーインシデント対応のベストプラクティス、および対応ライフサイクルの各段階における連邦政府の役割、資源、責任に関する情報をまとめたガイドを発表した。このガイドを理解し利用するために、専門的な知識は必要ない。  
Developed in collaboration with over 25 WWS Sector industry, nonprofit, and state/local government partners, this resource covers the four stages of the incident response lifecycle:   25以上のWWSセクターの産業界、非営利団体、および州/地方政府のパートナーとの協力により開発されたこのリソースは、インシデント対応ライフサイクルの4つの段階をカバーしている:  
1. Preparation: WWS Sector organizations should have an incident response plan in place, implement available services and resources to raise their cyber baseline, and engage with the WWS Sector cyber community.   1. 準備: WWSセクターの組織は、インシデント対応計画を策定し、利用可能なサービスやリソースを導入し、サイ バーベースラインを向上させ、WWSセクターのサイバーコミュニティと連携すべきである。 
2. Detection and analysis: Accurate and timely reporting and rapid collective analysis are essential to understand the full scope and impact of a cyber incident. The guidance provides information on validating an incident, reporting levels, and available technical analysis and support.    2. 検知と分析: サイバーインシデントの全容と影響を理解するためには、正確でタイムリーな報告と迅速な集団分析が不可欠である。ガイダンスは、インシデントの検証、報告レベル、利用可能な技術分析と支援に関する情報を提供する。  
3. Containment, eradication, and recovery: While WWS Sector utilities are conducting their incident response plan, federal partners are focusing on coordinated messaging and information sharing, and remediation and mitigation assistance.   3. 封じ込め、根絶、回復:WWSセクターの公益事業者がインシデント対応計画を実施している間、連邦政府のパートナーは、調整されたメッセージングと情報共有、および修復と低減支援に焦点を当てている。 
4. Post-incident activities. Evidence retention, using collected incident data, and lessons learned are the overarching elements for a proper analysis of both the incident and how responders handled it.   4. インシデント発生後の活動:証拠の保持、収集したインシデントデータの活用、教訓は、インシデントと対応者がどのようにそれに対処したかを適切に分析するための包括的な要素である。 
“The Water and Wastewater Systems sector is under constant threat from malicious cyber actors. This timely and actionable guidance reflects an outstanding partnership between industry, nonprofit, and government partners that came together with EPA, FBI and CISA to support this essential sector. We encourage every WWS entity to review this joint guide and implement its recommended actions,” said CISA Executive Assistant Director for Cybersecurity, Eric Goldstein. “In the new year, CISA will continue to focus on taking every action possible to support ‘target-rich, cyber-poor’ entities like WWS utilities by providing actionable resources and encouraging all organizations to report cyber incidents. Our regional team members across the country will continue to engage with WWS partners to provide access to CISA’s voluntary services, such as enrollment in our Vulnerability Scanning, and serve as a resource for continued improvement.”   「上下水道システム部門は、悪意のあるサイバー行為者の絶え間ない脅威にさらされている。このタイムリーで実行可能なガイダンスは、EPA、FBI、CISAがこの不可欠なセクターを支援するために協力した、業界、非営利団体、政府のパートナー間の優れたパートナーシップを反映している。我々は、すべてのWWS事業体がこの共同指針を検討し、その推奨される行動を実行することを奨励する」と、CISAサイバーセキュリティ担当エリック・ゴールドスタイン事務局長補佐は述べた。新年、CISAはWWS公益事業体のような "標的が多く、サイバーに乏しい "事業体を支援するため、実行可能なリソースをプロバイダとして提供し、すべての組織にサイバーインシデントの報告を促すことで、可能な限りの行動をとることに引き続き注力していく。全国の我々の地域チームメンバーは、脆弱性スキャニングへの登録などCISAの自主サービスへのアクセスを提供し、継続的改善のためのリソースとして機能するために、WWSパートナーと関わり続ける。"  
"The Water and Wastewater Systems Sector is a vital part of our critical infrastructure, and the FBI will continue to combat cyber actors who threaten it,” said Assistant Director Bryan Vorndran of the FBI’s Cyber Division. “A key part of our cyber strategy is building strong partnerships and sharing threat information with the owners and operators of critical infrastructure before they are hit with an attack.”    「上下水道システム部門は重要インフラの重要な一部であり、FBIはそれを脅かすサイバー行為者と戦い続ける」とFBIサイバー部門のブライアン・ボルドラン副部長補は述べた。「我々のサイバー戦略の重要な部分は、重要インフラの所有者や運営者が攻撃を受ける前に、強力なパートナーシップを構築し、脅威情報を共有することである。  
“Cyber threats to the water sector represent a real and urgent risk to safe drinking water and wastewater services that our nation relies on. The incident response guide assists utilities with approaches for collaboration with federal entities on lowering cyber risk in our nation’s drinking water and wastewater systems,” said EPA Assistant Administrator for Water, Radhika Fox. “EPA is committed to working with our federal, state, and water sector partners to increase the sector’s resilience and improve cyber-resilience practices.”  「水道セクターに対するサイバー脅威は、わが国が依存している安全な飲料水と下水サービスに対する現実的かつ緊急のリスクである。インシデント対応ガイドは、わが国の飲料水および廃水システムにおけるサイバーリ スクの低減に関する連邦事業体との協力のためのアプローチを事業者に提供するものである。「EPA は、連邦、州、および水部門のパートナーと協力して、水部門のレジリエンスを向上させ、サイ バーレジリエンス慣行を改善することを約束する。
All WWS utilities are encouraged to use this incident response guide to augment their incident response planning and collaboration with federal partners and the WWS before, during, and following a cyber incident. Familiarity with this guide will better prepare WWS utilities to respond to—and recover from—a cyber incident.   すべてのWWS公益事業者は、サイバーインシデントの発生前、発生中、発生後に、インシデント対応計画や連邦パートナーおよびWWSとの協力を強化するために、本インシデント対応ガイドを使用することが推奨される。このガイドに精通することは、WWS公益事業者がサイバーインシデントに対応し、そこから回復するためのより良い準備となるだろう。 

 

・2024.01.18 Water and Wastewater Sector - Incident Response Guide

Water and Wastewater Sector - Incident Response Guide 上下水道セクター - インシデント対応ガイド
Cyber Incident Response Guide for the Water and Wastewater Sector 上下水道セクターのためのサイバーインシデント対応ガイド
WWS SECTOR TOOLS, INFORMATION, AND RESOURCES 上下水道部門のツール、情報、リソース
>RELATED TOPICS:  関連トピック 
PARTNERSHIPS AND COLLABORATION パートナーシップと協力
With contributions from 25+ Water and Wastewater (WWS) Sector organizations spanning private industry, nonprofit, and government this joint guide, co-sealed by CISA, FBI, and EPA provides incident response best practices and information on federal resources. 民間企業、非営利団体、政府にまたがる25以上の上下水道(WWS)セクター組織からの寄稿により、CISA、FBI、EPAが共同発行したこの共同ガイドは、インシデント対応のベストプラクティスと連邦政府のリソースに関する情報を提供する。
The WWS Sector has been impacted by various cyber events, including unauthorized access, and ransomware. Continued compromises or failures of the WWS Sector could cause cascading impacts across critical infrastructure. The guide outlines how water utility owners and operators can expect to work with federal partners as they prepare for, respond to, and mitigate the impact of a cyber incident. WWS セクターは、不正アクセスやランサムウェアを含む様々なサイバー事象の影響を受けてきた。WWSセクターの継続的な侵害や障害は、重要インフラ全体に連鎖的な影響を引き起こす可能性がある。本ガイドは、水道事業者がサイバーインシデントに備え、対応し、その影響を軽減するために、連邦政府のパートナーとどのように協力することが期待されるかを概説している。
This guide aims to enhance WWS Sector cybersecurity by: このガイドは、WWSセクターのサイバーセキュリティを強化することを目的としている:
1. Establishing clear guidance for reporting cyber incidents, 1. サイバーインシデントを報告するための明確な指針を確立する、
2. Connecting utilities with available cybersecurity resources, services, and no-cost trainings, 2. 利用可能なサイバーセキュリティ・リソース、サービス、および無償のトレーニングを公益事業者に提供する、
3. Empowering utilities to build a strong cybersecurity baseline to improve cyber resilience and cyber hygiene, and 3. 公益事業者がサイバーセキュリティの基本方針を確立し、サイバーレジリエンスとサイバー衛生を改善する。
4. Encouraging utilities to integrate into their local cyber communities. 4. ユーティリティ企業が地域のサイバー・コミュニティに統合することを奨励する。

 

・[PDF]

20240125-174440

・[DOCX] 仮訳

 

目次...

Executive Summary エグゼクティブ・サマリー
Acknowledgments 謝辞
Disclaimer 免責事項
Table of Contents 目次
Purpose 目的
Scope 適用範囲
Audience 想定読者
Threat Background 脅威の背景
Collective Response 集団的対応
1. Key Federal Partners 1. 連邦政府の主要パートナー
1.1. Information Sharing 1.1. 情報共有
2. Incident Response Process 2. インシデント対応プロセス
2.1. Preparation 2.1. 準備
 2.1.1. Building An Organizational-Level Incident Response Plan  2.1.1. 組織レベルのインシデント対応計画の構築
 2.1.2. Raising the Cyber Baseline  2.1.2. サイバー・ベースラインを引き上げる
 2.1.3. Building the Water and Wastewater Sector Cyber Community  2.1.3. 上下水道セクターサイバーコミュニティの構築
2.2. Detection & Analysis 2.2. 検知と分析
 2.2.1. Validate  2.2.1. 検証する
 2.2.2. Report  2.2.2. レポート
 2.2.3. CISA Technical Analysis and Support  2.2.3. CISA テクニカル分析とサポート
 2.2.4. FBI Technical Analysis and Support  2.2.4. FBIの技術分析とサポート
2.3. Containment, Eradication, and Recovery 2.3. 封じ込め、根絶、回復
 2.3.1. Coordinated Messaging and Information Sharing  2.3.1. 連携したメッセージングと情報共有
 2.3.2. Remediation and Mitigation Assistance  2.3.2. 修復および低減支援
2.4. Post-Incident Activity 2.4. インシデント後の活動
 2.4.1. Evidence Retention  2.4.1. 証拠の保持
 2.4.2. Using Collected Incident Data  2.4.2. 収集したインシデントデータを使用する
 2.4.3. Lessons Learned  2.4.3. 教訓
Annex I: A More Advanced Collective Response 附属書I:より高度な集団的対応
A. Collective Analysis A. 集団分析
B. Collective Response B. 集団的対応
C. Post-Incident Collective Activities C. インシデント後の集団活動
Annex II: Preparation Resources 附属書II:準備のためのリソース
A. Building an Organizational-Level IR Plan: A. 組織レベルのIR計画を構築する:
B. Resources to Raise the Cyber Baseline: B. サイバー・ベースラインを引き上げるためのリソース:
C. Building the Water Cyber Community C. 水サイバー・コミュニティの構築

 

 

| | Comments (0)

2024.01.25

米国 CISA FBI 重要インフラ所有者・運用者向け 中国製ドローンに関するサイバーセキュリティ・ガイダンス (2024.01.17)

こんにちは、丸山満彦です。

米国のCISAが、重要インフラ所有者・運用者向け 中国製ドローン (Unmanned Aircraft Systems; UAS) に関するサイバーセキュリティ・ガイダンスを公表していますね。。。日本でもこれから、ますますドローンが利用されていくことになるとは思います。経済産業省が 2022.03.31 [PDF] 無人航空機_サイバーセキュリティガイドライン_Ver1.0 を作っていますね。。。安全保障に影響がありそうな部分については、こういうガイダンスを利用する必要がありそうですね。。。

  • 計画・設計 (5)
  • 調達 (5)
  • 維持 (7)
  • 運用 (6)

の合わせて23項目...

 

CISA

・2024.01.17 Release Cybersecurity Guidance on Chinese-Manufactured UAS for Critical Infrastructure Owners and Operators 

Release Cybersecurity Guidance on Chinese-Manufactured UAS for Critical Infrastructure Owners and Operators  中国製UASに関するサイバーセキュリティ・ガイダンスを重要インフラ所有者・運用者向けに発表 
RELATED TOPICS:  関連トピック 
UNMANNED AIRCRAFT SYSTEMSCYBERSECURITY BEST PRACTICESPHYSICAL SECURITY 無人航空機システム、サイバーセキュリティのベストプラクティス、物理的セキュリティ
WASHINGTON – Today, the Cybersecurity and Infrastructure Security Agency (CISA) and the Federal Bureau of Investigation (FBI) released, Cybersecurity Guidance: Chinese-Manufactured Unmanned Aircraft Systems (UAS), to raise awareness of the threats posed by Chinese-manufactured UAS and to provide critical infrastructure and state, local, tribal, and territorial (SLTT) partners with recommended cybersecurity safeguards to reduce the risk to networks and sensitive information ワシントン:本日、サイバーセキュリティ・インフラセキュリティ庁(CISA)と連邦捜査局(FBI)は、「サイバーセキュリティ・ガイダンス」を発表した: 中国製無人航空機システム(UAS)がもたらす脅威に対する認識を高め、ネットワークと機密情報へのリスクを軽減するための推奨サイバーセキュリティ安全対策を重要インフラと州・地方・部族・準州(SLTT)のパートナーに提供するためである。
The People’s Republic of China (PRC) has enacted laws that provide the government with expanded legal grounds for accessing and controlling data held by firms in China. The use of Chinese-manufactured UAS in critical infrastructure operations risks exposing sensitive information to PRC authorities. This guidance outlines the potential vulnerabilities to networks and sensitive information when operated without the proper cybersecurity protocols and the potential consequences that could result.   中華人民共和国(PRC)は、政府が中国国内の企業が保有するデータにアクセスし管理する法的根拠を拡大する法律を制定した。重要インフラの運用に中国製のUASを使用することは、機密情報を中国当局に暴露するリスクになる。このガイダンスは、適切なサイバーセキュリティ・プロトコルがない状態で運用された場合のネットワークや機密情報に対する潜在的脆弱性と、その結果もたらされる可能性のある結果を概説している。 
“Our nation’s critical infrastructure sectors, such as energy, chemical and communications, are increasingly relying on UAS for various missions that ultimately reduce operating costs and improve staff safety. However, the use of Chinese-manufactured UAS risks exposing sensitive information that jeopardizes U.S. national security, economic security, and public health and safety,” said CISA Executive Assistant Director for Infrastructure Security, Dr. David Mussington. “With our FBI partners, CISA continues to call urgent attention to China’s aggressive cyber operations to steal intellectual property and sensitive data from organizations. We encourage any organization procuring and operating UAS to review the guidance and take action to mitigate risk. We must work together to ensure the security and resilience of our critical infrastructure.”   「エネルギー、化学、コミュニケーションなど、わが国の重要インフラ部門は、最終的に運用コストを削減し、スタッフの安全性を改善するさまざまな任務のために、ますますUASに依存している。しかし、中国製造のUASの使用は、米国の国家安全保障、経済安全保障、公衆衛生と安全を危険にさらす機密情報を暴露するリスクがある。「CISAはFBIのパートナーとともに、組織から知的財産や機密データを盗む中国の積極的なサイバー作戦に引き続き緊急の注意を喚起する。我々は、UASを調達し運用するすべての組織がガイダンスを確認し、リスクを低減するための行動をとることを奨励する。我々は、重要インフラのセキュリティとレジリエンスを確保するために協力しなければならない。 
“Without mitigations in place, the widespread deployment of Chinese-manufactured UAS in our nation’s key sectors is a national security concern, and it carries the risk of unauthorized access to systems and data,” said Assistant Director of the FBI’s Cyber Division, Bryan A. Vorndran. “The FBI and our CISA partners have issued UAS guidance in order to help safeguard our critical infrastructure and reduce the risk for all of us.”    FBIサイバー課のブライアン・A・ボーンドラン課長補佐は、「低減措置が講じられなければ、中国製造のUASがわが国の重要部門に広く配備されることは国家安全保障上の懸念であり、システムやデータへの不正アクセスのリスクを伴う」と述べた。「FBIとCISAパートナーは、重要インフラを保護し、我々全員のリスクを軽減するために、UASガイダンスを発表した。  
Critical infrastructure organizations are encouraged to operate UAS that are secure-by-design and manufactured by U.S. companies. This guidance offers cybersecurity recommendations that organizations should consider as part of their UAS program, policies, and procedures.   重要インフラ組織は、セキュア・バイ・デザインで米国企業によって製造されたUASを運用することが奨励されている。このガイダンスは、組織がUASプログラム、方針、手順の一部として考慮すべきサイバーセキュリティの推奨事項を提示している。 

 

・2024.01.17 Cybersecurity Guidance: Chinese-Manufactured UAS

Cybersecurity Guidance: Chinese-Manufactured UAS サイバーセキュリティ・ガイダンス: 中国製UAS
Cybersecurity Guidance: Chinese-Manufactured UAS is a Cybersecurity and Infrastructure Security Agency (CISA) and Federal Bureau of Investigation (FBI) resource that raises awareness on the threats posed by Chinese-manufactured UAS and provides UAS cybersecurity recommendations that reduce risks to networks and sensitive information.   サイバーセキュリティ・ガイダンス: 中国製UASは、サイバーセキュリティ・インフラセキュリティ庁(CISA)と連邦捜査局(FBI)のリソースであり、中国製UASがもたらす脅威に関する認識を高め、ネットワークと機密情報に対するリスクを低減するUASサイバーセキュリティの推奨事項を提供する。 
This guidance also provides additional resources to augment an organization’s preparedness, response, and resilience.  このガイダンスは、組織の準備、対応、レジリエンスを強化するための追加リソースも提供している。

・[PDF

20240125-51040

 

CYBERSECURITY GUIDANCE: CHINESE-MANUFACTURED UAS サイバーセキュリティ・ガイダンス:中国製UAS
OVERVIEW 概要
Chinese-manufactured unmanned aircraft systems (UAS), more commonly referred to as drones, continue to pose a significant risk to critical infrastructure and U.S. national security. While any UAS could have vulnerabilities that enable data theft or facilitate network compromises, the People’s Republic of China (PRC) has enacted laws that provide the government with expanded legal grounds for accessing and controlling data held by firms in China. The use of Chinese-manufactured UAS requires careful consideration and potential mitigation to reduce risk to networks and sensitive information. The Cybersecurity and Infrastructure Security Agency (CISA) and the Federal Bureau of Investigation (FBI) encourage U.S. critical infrastructure owners and operators to procure UAS that follow secure-by- design principles, including those manufactured by U.S. companies. CISA and FBI further recommend following principles and implementing cybersecurity recommendations listed in this guidance to any organization procuring and operating UAS.  インフラ安全保障局(CISA)と連邦捜査局(FBI)は、米国の重要インフラの所有者および運用者に対し、米国企業による製造事業者も含め、セキュア設計の原則に従ったUASを調達するよう奨励している。CISAとFBIはさらに、中国製の無人航空機システム(UAS、一般にドローンと呼ばれる)は、重要インフラと米国の国家安全保障に重大なリスクをもたらし続けているため、原則に従い、サイバーセキュリティを導入することを推奨している。どのようなUASにも、データの窃取を可能にする脆弱性や、UASを調達・運用するあらゆる組織に対する本ガイダンスに記載された表彰事項が存在する可能性がある。ネットワークの侵害を容易にする一方で、中華人民共和国(PRC)は、政府が中国国内の企業が保有するデータにアクセスし、管理する法的根拠を拡大する法律を制定した。中国製造のUASを使用するには、ネットワークと機密情報へのリスクを低減するための慎重な検討と潜在的な低減が必要である。サイバーセキュリティと 
THREAT 脅威
The White House’s 2023 National Cybersecurity Strategy and the Annual Threat Assessment from the Office of the Director of National Intelligence both recognize the PRC as the most advanced, active, and persistent cyber threat to the United States. Their analysis describes how the PRC expanded cyber operations to challenge the global order and U.S. interests. Central to this strategy is the acquisition and collection of data - which the PRC views as a strategic resource and growing arena of geopolitical competition.1 ホワイトハウスの「2023年国家サイバーセキュリティ戦略」と国家情報長官室の「年次脅威評価」は、いずれもPRCを米国にとって最も高度で活発かつ持続的なサイバー脅威と認識している。これらの分析では、PRCがどのようにサイバー作戦を拡大し、世界秩序と米国の利益に挑戦しているかが述べられている。この戦略の中心はデータの取得と収集であり、PRCはこれを戦略的資源と見なし、地政学的競争の舞台として拡大している1。
Since 2015, the PRC has passed or updated comprehensive national security, cybersecurity, and data privacy laws and regulations, expanding their oversight of domestic and foreign companies operating within China.2 One of these laws, the PRC’s 2017 National Intelligence Law, compels Chinese companies to cooperate with state intelligence services, including providing access to data collected within China and around the world. This includes prominent Chinese-owned UAS manufacturers that the Department of Defense has identified as “Chinese military companies” operating within the United States.3 The 2021 Data Security Law expands the PRC’s access to and control of companies and data within China and imposes strict penalties on China-based businesses for non-compliance.4 The data collected by such companies is essential to the PRC’s Military-Civil Fusion strategy, which seeks to gain a strategic advantage over the United States by facilitating access to advanced technologies and expertise.5 The 2021 Cyber Vulnerability Reporting Law requires Chinese-based companies to disclose cyber vulnerabilities found in their systems or software to PRC authorities prior to any public disclosure or sharing overseas. This may provide PRC authorities the opportunity to exploit system flaws before cyber vulnerabilities are publicly known.6 2015年以降、中国は包括的な国家安全保障、サイバーセキュリティ、データ・プライバシーに関する法律や規制を可決・更新し、中国国内で事業を展開する国内外の企業に対する監視を拡大している。2 これらの法律の1つである中国の2017年国家情報法は、中国国内および世界中で収集されたデータへのアクセスを提供するなど、中国企業に国家情報サービスへの協力を義務付けている。これには、国防省が米国内で活動する「中国軍需企業」と認定した中国資本の著名なUAS製造者も含まれる3。2021年データセキュリティ法は、中国国内の企業やデータに対するPRCのアクセスと管理を拡大し、違反した場合には中国に拠点を置く企業に厳しい罰則を課すものである4。このような企業が収集するデータは、高度な技術や専門知識へのアクセスを容易にすることで米国に対する戦略的優位を得ようとする中国の軍民融合戦略にとって不可欠である5。2021年サイバー脆弱性報告法は、中国に拠点を置く企業に対し、自社のシステムやソフトウェアに発見されたサイバー脆弱性を、海外での公開や共有に先立ち、中国当局に開示するよう求めている。これは、サイバー脆弱性が公に知られる前に、中国当局がシステムの欠陥を悪用する機会を提供する可能性がある6。
The use of Chinese-manufactured UAS in critical infrastructure operations risks exposing sensitive information to PRC authorities, jeopardizing U.S. national security, economic security, and public health and safety. 重要インフラの運用に中国製造のUASを使用することは、中国当局に機密情報を暴露し、米国の国家安全保障、経済的安全保障、公衆の健康と安全を危険にさらすリスクがある。
VULNERABILITIES 脆弱性
UAS are information and communications technology (ICT) devices capable of receiving and transmitting data.7 Each point of connection is a potential target that could be exploited to compromise sensitive information.8 Avenues of potential compromise include UASはデータの受信と送信が可能な情報通信技術(ICT)機器である7 。各接続ポイントは、機密情報を侵害するために悪用される可能性のある潜在的な標的である8 。
Data Transfer and Collection:  UAS devices controlled by smartphones and other internet-connected devices provide a path for UAS data egress and storage, allowing for intelligence gathering on U.S. critical infrastructure. データの転送と収集:  データ転送と収集:スマートフォンやその他のインターネット接続機器によって制御されるUASデバイスは、UASデータの送信と保存の経路を提供し、米国の重要インフラに関する情報収集を可能にする。
Patching and Firmware Updates:  While ensuring that network-connected devices are up to date with the latest patches and firmware is critical for the secure operation of any ICT device, updates controlled by Chinese entities could introduce unknown data collection and transmission capabilities without the user’s awareness. That data might be accessed by the PRC through legal authorities. パッチとファームウェアの更新:  ネットワークに接続されたデバイスが最新のパッチとファームウェアに更新されていることを確認することは、あらゆるICTデバイスの安全な運用にとって極めて重要であるが、中国の事業体が管理するアップデートは、ユーザーが気づかないうちに未知のデータ収集・送信機能を導入する可能性がある。そのデータは、法的認可を通じて中国によってアクセスされる可能性がある。
Broader Surface for Data Collection: As UAS and their peripheral devices such as docking stations are incorporated into a network, the potential for data collection and transmission of a broader type—for example, sensitive imagery, surveying data, facility layouts—increases. This new type of data collection can allow foreign adversaries like the PRC access to previously inaccessible intelligence. データ収集の対象が広がる: UASやドッキングステーションなどの周辺機器がネットワークに組み込まれるにつれ、より広範な種類のデータ収集・送信の可能性が高まる。例えば、機密画像、測量データ、施設レイアウトなどである。この新しいタイプのデータ収集は、中国のような外国の敵対勢力に、以前はアクセスできなかったインテリジェンスへのアクセスを可能にする可能性がある。
CONSEQUENCE 結果
The PRC’s collection of sensitive information and potential network access obtained from Chinese-manufactured UAS may result in significant consequences to critical infrastructure security and resilience. Acquisition of such data or network access has the potential to advance the PRC’s strategic objectives and negatively affect U.S. economic and national security by: 中国が中国製のUASから機密情報を収集し、ネットワークにアクセスする可能性は、重要インフラのセキュリティとレジリエンスに重大な結果をもたらす可能性がある。そのようなデータやネットワークへのアクセスの取得は、中国の戦略的目標を促進し、以下のような形で米国の経済および国家安全保障に悪影響を及ぼす可能性がある:
•    Exposing intellectual property to Chinese companies and jeopardizing an organization’s competitive advantage. ・知的財産を中国企業に公開し、組織の競争優位性を危うくする。
•    Providing enhanced details of critical infrastructure operations and vulnerabilities increasing the PRC’s capability to disrupt critical services. ・重要インフラの運用や脆弱性の詳細をプロバイダに提供することで、中国が重要なサービスを妨害する能力を高める。
•    Compromising cybersecurity and physical security controls leading to potential physical effects such as theft or sabotage of critical assets. ・サイバーセキュリティや物理的なセキュリティ管理を侵害し、重要資産の窃盗や妨害行為などの物理的な影響を引き起こす可能性がある。
•    Exposing network access details that enhance the PRC’s capability to conduct cyber-attacks on critical infrastructure. ・重要インフラに対するサイバー攻撃の能力を高めるようなネットワークアクセスの詳細を暴露する。
MITIGATION 低減
Public and private sector organizations using UAS to collect sensitive or national security information are encouraged to procure, or transition to, secure-by-design systems. This recommendation is emphasized for the federal government in Executive Order 13981 – Protecting the United States from Certain UAS where departments and agencies are required to have a plan that addresses risk from UAS manufactured by a foreign adversary.9 Organizations can consult the Department of Defense’s Blue UAS Cleared List to identify UAS compliant with federal cybersecurity policies.10  機密情報または国家安全保障情報を収集するためにUASを使用する官民組織は、セキュア・バイ・デザインのシステムを調達するか、それに移行することが奨励される。この勧告は、大統領令 13981「特定の UAS から米国を守る」において連邦政府に対して強調されており、各省庁は外国の敵対者によって製造された UAS からのリスクに対処する計画を持つことが義務付けられている9 。
Organizations procuring or operating UAS are encouraged to adopt the proven security recommendations such as those provided on the next page to further enhance their cybersecurity posture. UASを調達または運用する組織は、サイバーセキュリティ態勢をさらに強化するために、次ページに示すような実績のあるセキュリティ勧告を採用することが推奨される。
UAS CYBERSECURITY RECOMMENDATIONS: UAS サイバーセキュリティの推奨事項
PLAN/DESIGN 計画/設計
Ensure secure, organization-wide development of the goals, policies, and procedures for the UAS program. UASプログラムの目標、方針、手順を組織全体で確実に策定する。
• Incorporate UAS and its components into an organizational cybersecurity framework for Internet of Things (IoT) devices, subjecting them to the same level of protection and monitoring as other organizational ICT devices.11 ・UASとそのコンポーネントをモノのインターネット(IoT)デバイスのための組織のサイバーセキュリティフレームワークに組み込み、他の組織のICTデバイスと同レベルの防御と監視の対象とする11。
• Isolate, air gap, or segment networks to prevent any potential malware or breach from spreading to the enterprise network. ・潜在的なマルウェアや侵害がエンタープライズ・ネットワークに広がるのを防ぐために、ネットワークを分離、エアギャップ、またはセグメント化する。
Examples of this include setting up separate networks, virtual local area networks (VLANs), or virtual private networks (VPNs).12 This minimizes the organizational impact from potential cyberattacks. この例としては、個別のネットワーク、仮想ローカル・エリア・ネットワーク(VLAN)、または仮想プライ ベート・ネットワーク(VPN)を設定することが挙げられる12 。
• Implement a Zero Trust (ZT) framework for the UAS fleet.13 ・UASフリートに対してゼロ・トラスト(ZT)フレームワークを導入する13。
ZT architecture ensures all network access and transactions are continuously verified and authenticated, minimizing ZTアーキテクチャは、すべてのネットワークアクセスとトランザクションが継続的に検証され、本人認証されることを保証する。
unauthorized access and shrinking the overall attack surface.  ZT アーキテクチャは、すべてのネットワーク・アクセスおよびトランザクションが継続的に検証され、 認証されることを保証し、不正アクセスを最小限に抑え、全体的な攻撃対象領域を縮小する。
• Implement phishing-resistant multifactor authentication methods to secure organizational accounts and data.14 ・フィッシングに耐性のある多要素認証方法を導入し、組織のアカウントとデータを保護する14 。
• Consider integrating cybersecurity and physical security functions across the organization to achieve a unified approach to risk management.15 ・組織全体でサイバーセキュリティと物理セキュリティの機能を統合し、リスクマネジメントへの統一的なアプローチを実現することを検討する15。
PROCURE   調達  
Identify and select the UAS platforms that best meet the operational and security requirements of the organization. 組織の運用要件とセキュリティ要件に最も適合するUASプラットフォームを識別し、選択する。
• Procure UAS that follows secure-by-design principles to proactively address vulnerabilities and emerging threats.16 ・脆弱性と新たな脅威に積極的に対処するために、セキュア・バイ・デザインの原則に従ったUASを調達する16。
• Understand where UAS are manufactured and to what laws the manufacturer is subject to clarify security standards and assess supply chain risk. ・セキュリティ標準を明確にし、サプライ・チェーンのリスクを評価するために、UASがどこで製造され、製造事業者がどのような法律の適用を受けているかを理解する。
• Review the privacy policy for the chosen UAS, including how and where data will be stored and shared. This is essential for the maintenance of data privacy and security. ・選択したUASのプライバシー・ポリシー(データがどこでどのように保存され共有されるかを含む)を確認する。これはデータ・プライバシーとセキュリティの保守に不可欠である。
• Implement a Supply Chain Risk Management (SCRM) Program for ICT devices to ensure the integrity, security, and reliability of the UAS lifecycle.17 ・ICT機器のサプライチェーンリスクマネジメント(SCRM)プログラムを実施し、UASのライフサイクルの完全性、安全性、信頼性を確保する17。
• Ensure critical UAS information and communication components undergo a software bill of materials (SBOM) and hardware bill of materials (HBOM) review and consider implementation of long-term SBOM and HBOM management.18, 19 This minimizes inherent supply chain risks and promotes the resilience of the UAS ecosystem. ・重要なUASの情報通信部品は、ソフトウェア部品表(SBOM)とハードウェア部品表(HBOM)のレビューを受けるようにし、長期的なSBOMとHBOM管理の実施を検討する18、 19。これにより、固有のサプライチェーンリスクを最小化し、UASエコシステムのレジリエンスを促進する。
MAINTAIN 維持
Perform regular updates, analysis, and training in accordance with the organization’s plans and procedures. 組織の計画と手順に従い、定期的な更新、分析、訓練を実施する。
• Manage the UAS program in accordance with an informatio technology (IT) asset framework to ensure proper tracking, monitoring, control, compliance, security controls, and risk management.20 ・情報技術(IT)資産フレームワークに従ってUASプログラムを管理し、適切な追跡、監視、管理、コンプラ イアンス、セキュリティ管理、リスクマネジメントを確保する20 。
• Implement a vulnerability management program to identify, prioritize, acquire, verify, and install firmware patches and updates. This program addresses emerging vulnerabilities and ensures timely application of necessary security fixes.21 ・ファームウェア・パッチおよびアップデートを識別し、優先順位を付け、取得し、検証し、 インストールする脆弱性管理プログラムを実施する。このプログラムは、新たな脆弱性に対処し、必要なセキュ リティ修正をタイムリーに適用することを保証するものである21 。
• Implement a configuration and change management program to maintain adequate security measures and operational capabilities.22 ・適切なセキュリティ対策と運用能力を維持するために、コンフィギュレーションと 変更の管理プログラムを実施する22 。
• Ensure firmware patches and updates are obtained exclusively from the UAS manufacturer or trusted third-party to minimize the risk of system compromise. ・システム侵害のリスクを最小化するために、ファームウェア・パッチ及びアップデートは、UAS製造事業者又は信頼できるサード・パーティからのみ入手するようにする。
• Consider the use of a sandbox or standalone terminal for the download and security verification of firmware patches and updates. This provides an isolated environment to verify the file integrity and mitigate any concerns before introducing it to the UAS.23 ・ファームウェア・パッチとアップデートのダウンロードとセキュリティ検証のために、サンドボッ クスまたはスタンドアロン端末の使用を検討すること。これは、UAS に導入する前に、ファイルの完全性を検証し、あらゆる懸念を軽減するための、隔離された環境を提供する23。
• Perform periodic log analysis and compliance checks to determine if any anomalies exist, allowing for timely identification of unauthorized access attempts. ・定期的なログ分析とコンプライアンス・チェックを実施し、異常の有無を判断し、不正アク セスの試みをタイムリーに特定できるようにする。
• Implement an information technology security education and training awareness schedule focused on current threats and best practices. An effective training program allows UAS operators to identify and mitigate risks and respond effectively to emerging cybersecurity threats.24 ・現在の脅威とベスト・プラクティスに焦点を当てた情報技術セキュリティ教育およびトレーニングの意識向上スケジュールを実施する。効果的な訓練プログラムにより、UAS 運用者はリスクを特定、低減し、新たなサイバーセキュリティの脅威に効果的に対応できるようになる24。
OPERATE 運用
Ensure proper operational and security policies are followed during operational usage. 運用中に適切な運用およびセキュリティ・ポリシーが遵守されていることを確認する。
• Verify current software and firmware versions are installed prior to operational use to minimize emerging threats and vulnerabilities. ・新たな脅威と脆弱性を最小化するために、運用使用前に最新のソフトウェアとファームウェアのバージョンがインストールされていることを確認する。
• Maintain robust data-at-rest and data-in-transit procedures for encryption and storage to ensure the confidentiality and integrity of data collected via UAS.25 ・UASを通じて収集されたデータの機密性と完全性を確保するために、暗号化と保存のための強固なデータ静止時およびデータ転送時の手順を維持する25。
• Delete collected data from the UAS to include imagery, Global Positioning System (GPS) history, and flight telemetry data after data has been transferred and stored. ・UASから収集されたデータ(画像、全地球測位システム(GPS)履歴、飛行テレメトリ・データを含む)は、データが転送・保存された後に削除する。
• Remove and secure portable storage such as secure digital (SD) cards from the UAS prior to storage to prevent unauthorized access. ・セキュア・デジタル(SD)カードなどの可搬記憶媒体は、保管前にUASから取り外して安全な状態にし、不正アクセスを防止する。
• Maintain a secure connection with the drone during operations by using a virtual private network (VPN) or other encryption method to protect the confidentiality and integrity of communication pathways. ・バーチャル・プライベート・ネットワーク(VPN)または通信経路の機密性と完全性を保護するその他の暗号化方法を使用することにより、運用中、ドローンとの安全な接続を維持すること。
• Do not broadcast or live stream to the internet to prevent the unauthorized acquisition of real-time sensitive data. ・リアルタイムの機密データの不正取得を防ぐため、インターネットへのブロードキャストやライブストリーミングを行わないこと。

 

参考文献...

・Unmanned Aircraft Systems: cisa.gov/topics/physical-security/unmanned-aircraft-systems

・Secure Your Drone: Privacy and Data Protection Guidance: cisa.gov/resources-tools/resources/secure-your-drone-privacy-and-data-protection-guidance

・Cybersecurity Best Practices for Operating Commercial Unmanned Aircraft Systems (UASs): cisa.gov/resources-tools/resources/cybersecurity-best-practices-operating-commercial-unmanned-aircraft

・NIST IT Asset Management: csrc.nist.gov/publications/detail/sp/1800-5/final

・Protecting Controlled Unclassified Information in Nonfederal Systems and Organizations: csrc.nist.gov/publications/detail/sp/800-171/rev-2/final

・CISA Vulnerability Scanning: cisa.gov/resources-tools/services/cisa-vulnerability-scanning

・Enhanced Security Requirements for Protecting Controlled Unclassified Information: A Supplement to NIST Special Publication 800-171: csrc.nist.gov/publications/detail/sp/800-172/final

・Zero Trust Architecture: csrc.nist.gov/publications/detail/sp/800-207/final

・China Cyber Threat Overview and Advisories: cisa.gov/topics/cyber-threats-and-advisories/advanced-persistent-threats/china

・Homeland Security Information Network (HSIN): dhs.gov/homeland-security-information-network-hsin

・Domestic Security Alliance Council (DSAC): dsac.gov/

・Defense Innovation Unit (DIU): diu.mil/blue-uas-cleared-list

 

脚注...

  1. Office of the Director of National Intelligence, Annual Threat Assessment of the U.S. Intelligence Community, February 2023, https://www.odni.gov/files/ODNI/ documents/assessments/ATA-2023-Unclassified-Report.pdf; The White House, National Cybersecurity Strategy, March 2023, https://www.whitehouse.gov/wpcontent/uploads/2023/03/National-Cybersecurity-Strategy-2023.pdf.
  2. S. National Counterintelligence and Security Center, Safeguarding our Future: U.S. Business Risk: People’s Republic of China (PRC) Laws Expand Beijing’s Oversight of Foreign and Domestic Companies, 30 June 2023, https://www.dni. gov/files/NCSC/documents/SafeguardingOurFuture/FINAL_NCSC_SOF_Bulletin_ PRC_Laws.pdf
  3. S. Department of Defense, DOD Releases List of People’s Republic of China (PRC) Military Companies in Accordance With Section 1260H of the National Defense Authorization Act for Fiscal Year 2021, October 2022, https://www. defense.gov/News/Releases/Release/Article/3180636/dod-releases-list-ofpeoples-republic-of-china-prc-military-companies-in-accord/.
  4. S. National Counterintelligence and Security Center, Safeguarding our Future: U.S. Business Risk: People’s Republic of China (PRC) Laws Expand Beijing’s Oversight of Foreign and Domestic Companies, 30 June 2023, https://www.dni. gov/files/NCSC/documents/SafeguardingOurFuture/FINAL_NCSC_SOF_Bulletin_ PRC_Laws.pdf
  5. S. Department of State, “Military Civil Fusion and the People’s Republic of China,” accessed August 16, 2023, https://www.state.gov/wp-content/ uploads/2020/05/What-is-MCF-One-Pager.pdf.
  6. S. National Counterintelligence and Security Center, Safeguarding our Future: U.S. Business Risk: People’s Republic of China (PRC) Laws Expand Beijing’s Oversight of Foreign and Domestic Companies, 30 June 2023, https://www.dni. gov/files/NCSC/documents/SafeguardingOurFuture/FINAL_NCSC_SOF_Bulletin_ PRC_Laws.pdf
  7. National Institute of Standards and Technology (NIST), Computer Security Resource Center, “Information and communications technology (ICT),” accessed July 20, 2023, https://csrc.nist.gov/glossary/term/information_and_ communications_technology.
  8. CISA, Cybersecurity and Physical Security Convergence Action Guide, December 2021, https://cisa.gov/resources-tools/resources/cybersecurity-and-physicalsecurity-convergence-action-guide.
  9. Federal Register, “Protecting the United States from Certain Unmanned Aircraft Systems,” January 2021, https://www.federalregister.gov/ documents/2021/01/22/2021-01646/protecting-the-united-states-fromcertain-unmanned-aircraft-systems.
  10. Defense Innovation Unit, “Blue UAS Cleared List,” accessed July 20, 2023, https://www.diu.mil/blue-uas-cleared-list.
  11. NIST, “Cybersecurity IOT Program,” accessed July 20, 2023, https://nist.gov/itl/ applied-cybersecurity/nist-cybersecurity-iot-program.
  12. NIST, “SP 800-172, Enhanced Security Requirements for Protecting Controlled Unclassified Information: A Supplement to NIST Special Publication 800-171,” February 2021, https://csrc.nist.gov/pubs/sp/800/172/final.
  13. NIST, “SP 800-207, Zero Trust Architecture,” August 2020, https://csrc.nist.gov/ pubs/sp/800/207/final.
  14. CISA, “More than a password,” accessed July 20, 2023, https://cisa.gov/MFA.
  15. CISA, Cybersecurity and Physical Security Convergence Action Guide, December 2021, https://cisa.gov/resources-tools/resources/cybersecurity-and-physicalsecurity-convergence-action-guide.
  16. CISA, “Secure-by-Design, Shifting the Balance of Cybersecurity Risk: Principles and Approaches for Secure by Design Software,” accessed October 25, 2023 https://cisa.gov/resources-tools/resources/secure-by-design.
  17. NIST, “Cybersecurity Supply Chain Risk Management,” updated May 2022, https://csrc.nist.gov/projects/cyber-supply-chain-risk-management.
  18. CISA, “Software Bill of Materials (SBOM),” accessed July 20, 2023, https://cisa. gov/sbom.
  19. CISA, “Hardware Bill of Materials (HBOM) Framework for Supply Chain Risk Management,” accessed November 1, 2023, https://www.cisa.gov/resourcestools/resources/hardware-bill-materials-hbom-framework-supply-chain-riskmanagement.
  20. NIST, “SP 1800-5, IT Asset Management,” September 2018, https://csrc.nist. gov/pubs/sp/1800/5/final.
  21. CISA, CRR Resource Guide: Vulnerability Management Volume 4, 2016, https:// gov/sites/default/files/publications/CRR_Resource_Guide-VM_0.pdf.
  22. NIST, “SP 800-128, Guide for Security-Focused Config. Management of Info Systems,” updated October 2019, https://csrc.nist.gov/pubs/sp/800/128/upd1/ final; International Organization for Standardization (ISO), “ISO 10007:2017 – Quality Management – Guidelines for configuration management,” 2017, https:// iso.org/standard/70400.html.
  23. NIST, Computer Security Resource Center, “Sandbox,” accessed July 20, 2023, https://csrc.nist.gov/glossary/term/sandbox.
  24. NIST, “SP 800-50, Building an Information Technology Security Awareness and Training Program,” October 2003, https://csrc.nist.gov/pubs/sp/800/50/final.
  25. NIST, “SP 800-53 Rev.5, Security and Privacy Controls for Information Systems and Organizations,” updated December 2020, https://csrc.nist.gov/pubs/ sp/800/53/r5/upd1/final.

 


 

まるちゃんの情報セキュリティ気まぐれ日記

米国

・2023.02.02 米国 MITRE ドローンの利点、安全性、社会的受容性を評価するための包括的なアプローチ

・2022.04.26 米国 White House ドローン対策国家計画

 

その他...

・2022.06.23 一般社団法人セキュアドローン協議会 ドローンセキュリティガイド 第3版 (2022.06.16)

・2022.04.14 経済産業省 無人航空機を対象としたサイバーセキュリティガイドラインを策定 (2022.03.31)

 

| | Comments (0)

IPA 「情報セキュリティ10大脅威 2024」を公開

こんにちは、丸山満彦です。

IPAが「情報セキュリティ10大脅威 2024」を発表していますね。2006年から始まっていますので、長い間続いていますね。。。

ランサムウェアの脅威はこの4年間トップですね。。。サプライチェーン攻撃もこのところ上位で、この3年間で上昇していますね。。。標的型攻撃による情報漏洩については、4−7年前は連続トップでしたが、このところは2, 3位となっていましたが、今年は4位。

個人については、今年から順序付けせずに、あいうえお順...

ちなみに、組織にとっての情報セキュリティなので、サイバー空間を利用した脅威である、「偽情報等による〜」みたいなものは入っていないのかもしれませんね。。。ただ、個人の脅威にはいっている「偽警告によるインターネット詐欺」は、「偽情報による〜」ということのような気もする。。。

 

● IPA

プレス発表

・2024.01.24 プレス発表 「情報セキュリティ10大脅威 2024」を決定

・2024.01.24 情報セキュリティ10大脅威 2024

 

個人(五十音順) 2024 組織 2023
インターネット上のサービスからの個人情報の窃取 1位 ランサムウェアによる被害 1位
インターネット上のサービスへの不正ログイン 2位 サプライチェーンの弱点を悪用した攻撃 2位
クレジットカード情報の不正利用 3位 内部不正による情報漏えい等の被害 4位
スマホ決済の不正利用 4位 標的型攻撃による機密情報の窃取 3位
偽警告によるインターネット詐欺 5位 修正前の公開前を狙う攻撃(ゼロデイ攻撃) 6位
ネット上の誹謗・中傷・デマ 6位 不注意による情報漏えい等の被害 9位
フィッシングによる個人情報等の詐取 7位 脆弱性対策情報の公開に伴う悪用増加 8位
不正アプリによるスマートフォン利用者への被害 8位 ビジネスメール詐欺による金銭被害 7位
メールやSMS等を使った脅迫・詐欺の手口による金銭要求 9位 テレワーク等のニューノーマルな働き方を狙った攻撃 5位
ワンクリック請求等の不当請求による金銭被害 10位 犯罪のビジネス化(アンダーグラウンドサービス) 10位

 

過去から(組織向け)...

20240125-04344

 

 

2022 個人 2023 組織 2022
1位 フィッシングによる個人情報等の詐取 1位 ランサムウェアによる被害 1位
2位 ネット上の誹謗・中傷・デマ 2位 サプライチェーンの弱点を悪用した攻撃 3位
3位 メールやSMS等を使った脅迫・詐欺の手口による金銭要求 3位 標的型攻撃による機密情報の窃取 2位
4位 クレジットカード情報の不正利用 4位 内部不正による情報漏えい 5位
5位 スマホ決済の不正利用 5位 テレワーク等のニューノーマルな働き方を狙った攻撃 4位
7位 不正アプリによるスマートフォン利用者への被害 6位 修正プログラムの公開前を狙う攻撃(ゼロデイ攻撃) 7位
6位 偽警告によるインターネット詐欺 7位 ビジネスメール詐欺による金銭被害 8位
8位 インターネット上のサービスからの個人情報の窃取 8位 脆弱性対策情報の公開に伴う悪用増加 6位
10位 インターネット上のサービスへの不正ログイン 9位 不注意による情報漏えい等の被害 10位
New ワンクリック請求等の不当請求による金銭被害 10位 犯罪のビジネス化(アンダーグラウンドサービス) New

 

2021 個人 2022 組織 2021
2位 フィッシングによる個人情報等の詐取 1位 ランサムウェアによる被害 1位
3位 ネット上の誹謗・中傷・デマ 2位 標的型攻撃による機密情報の窃取 2位
4位 メールやSMS等を使った脅迫・詐欺の手口による金銭要求 3位 サプライチェーンの弱点を悪用した攻撃 4位
5位 クレジットカード情報の不正利用 4位 テレワーク等のニューノーマルな働き方を狙った攻撃 3位
1位 スマホ決済の不正利用 5位 内部不正による情報漏えい 6位
8位 偽警告によるインターネット詐欺 6位 脆弱性対策情報の公開に伴う悪用増加 10位
9位 不正アプリによるスマートフォン利用者への被害 7位 修正プログラムの公開前を狙う攻撃(ゼロデイ攻撃) New
7位 インターネット上のサービスからの個人情報の窃取 8位 ビジネスメール詐欺による金銭被害 5位
6位 インターネットバンキングの不正利用 9位 予期せぬIT基盤の障害に伴う業務停止 7位
10位 インターネット上のサービスへの不正ログイン 10位 不注意による情報漏えい等の被害 9位

 

2020 個人 2021 組織 2020
1位 スマホ決済の不正利用 1位 ランサムウェアによる被害 5位
2位 フィッシングによる個人情報等の詐取 2位 標的型攻撃による機密情報の窃取 1位
7位 ネット上の誹謗・中傷・デマ 3位 テレワーク等のニューノーマルな働き方を狙った攻撃 NEW
5位 メールやSMS等を使った脅迫・詐欺の手口による金銭要求 4位 サプライチェーンの弱点を悪用した攻撃 4位
3位 クレジットカード情報の不正利用 5位 ビジネスメール詐欺による金銭被害 3位
4位 インターネットバンキングの不正利用 6位 内部不正による情報漏えい 2位
10位 インターネット上のサービスからの個人情報の窃取 7位 予期せぬIT基盤の障害に伴う業務停止 6位
9位 偽警告によるインターネット詐欺 8位 インターネット上のサービスへの不正ログイン 16位
6位 不正アプリによるスマートフォン利用者への被害 9位 不注意による情報漏えい等の被害 7位
8位 インターネット上のサービスへの不正ログイン 10位 脆弱性対策情報の公開に伴う悪用増加 14位
         
2019 個人 2020 組織 2019
NEW スマホ決済の不正利用 1位 標的型攻撃による機密情報の窃取 1位
2位 フィッシングによる個人情報の詐取 2位 内部不正による情報漏えい 5位
1位 クレジットカード情報の不正利用 3位 ビジネスメール詐欺による金銭被害 2位
7位 インターネットバンキングの不正利用 4位 サプライチェーンの弱点を悪用した攻撃 4位
4位 メールやSMS等を使った脅迫・詐欺の手口による金銭要求 5位 ランサムウェアによる被害 3位
3位 不正アプリによるスマートフォン利用者への被害 6位 予期せぬIT基盤の障害に伴う業務停止 16位
5位 ネット上の誹謗・中傷・デマ 7位 不注意による情報漏えい(規則は遵守) 10位
8位 インターネット上のサービスへの不正ログイン 8位 インターネット上のサービスからの個人情報の窃取 7位
6位 偽警告によるインターネット詐欺 9位 IoT機器の不正利用 8位
12位 インターネット上のサービスからの個人情報の窃取 10位 サービス妨害攻撃によるサービスの停止 6位
         
2018 個人 2019 組織 2018
1位 クレジットカード情報の不正利用 1位 標的型攻撃による被害 1位
1位 フィッシングによる個人情報等の詐取 2位 ビジネスメール詐欺による被害 3位
4位 不正アプリによるスマートフォン利用者への被害 3位 ランサムウェアによる被害 2位
NEW メール等を使った脅迫・詐欺の手口による金銭要求 4位 サプライチェーンの弱点を悪用した攻撃の高まり NEW
3位 ネット上の誹謗・中傷・デマ 5位 内部不正による情報漏えい 8位
10位 偽警告によるインターネット詐欺 6位 サービス妨害攻撃によるサービスの停止 9位
1位 インターネットバンキングの不正利用 7位 インターネットサービスからの個人情報の窃取 6位
5位 インターネットサービスへの不正ログイン 8位 IoT機器の脆弱性の顕在化 7位
2位 ランサムウェアによる被害 9位 脆弱性対策情報の公開に伴う悪用増加 4位
9位 IoT 機器の不適切な管理 10位 不注意による情報漏えい 12位
         
2017 個人 2018 組織 2017
1位 インターネットバンキングやクレジットカード情報等の不正利用 1位 標的型攻撃による被害 1位
2位 ランサムウェアによる被害 2位 ランサムウェアによる被害 2位
7位 ネット上の誹謗・中傷 3位 ビジネスメール詐欺による被害 NEW
3位 スマートフォンやスマートフォンアプリを狙った攻撃 4位 脆弱性対策情報の公開に伴う悪用増加 NEW
4位 ウェブサービスへの不正ログイン 5位 脅威に対応するためのセキュリティ人材の不足 NEW
6位 ウェブサービスからの個人情報の窃取 6位 ウェブサービスからの個人情報の窃取 3位
8位 情報モラル欠如に伴う犯罪の低年齢化 7位 IoT機器の脆弱性の顕在化 8位
5位 ワンクリック請求等の不当請求 8位 内部不正による情報漏えい 5位
10位 IoT機器の不適切な管理 9位 サービス妨害攻撃によるサービスの停止 4位
NEW 偽警告によるインターネット詐欺 10位 犯罪のビジネス化(アンダーグラウンドサービス) 9位
         
2016 個人 2017 組織 2016
1位 インターネットバンキングやクレジットカード情報の不正利用 1位 標的型攻撃による情報流出 1位
2位 ランサムウェアによる被害 2位 ランサムウェアによる被害 7位
3位 スマートフォンやスマートフォンアプリを狙った攻撃 3位 ウェブサービスからの個人情報の窃取 3位
5位 ウェブサービスへの不正ログイン 4位 サービス妨害攻撃によるサービスの停止 4位
4位 ワンクリック請求等の不当請求 5位 内部不正による情報漏えいとそれに伴う業務停止 2位
7位 ウェブサービスからの個人情報の窃取 6位 ウェブサイトの改ざん 5位
6位 ネット上の誹謗・中傷 7位 ウェブサービスへの不正ログイン 9位
8位 情報モラル欠如に伴う犯罪の低年齢化 8位 IoT機器の脆弱性の顕在化 NEW
10位 インターネット上のサービスを悪用した攻撃 9位 攻撃のビジネス化(アンダーグラウンドサービス) NEW
NEW IoT機器の不適切な管理 10位 インターネットバンキングやクレジットカード情報の不正利用 8位

 

個人(カッコ内は総合順位) 2016 組織(カッコ内は総合順位)
インターネットバンキングやクレジットカード情報の不正利用(1位) 1位 標的型攻撃による情報流出(2位)
ランサムウェアを使った詐欺・恐喝(3位) 2位 内部不正による情報漏えいとそれに伴う業務停止(8位)
審査をすり抜け公式マーケットに紛れ込んだスマートフォンアプリ(7位) 3位 ウェブサービスからの個人情報の窃取(4位)
巧妙・悪質化するワンクリック請求(9位) 4位 サービス妨害攻撃によるサービスの停止(-)
ウェブサービスへの不正ログイン(5位) 5位 ウェブサイトの改ざん(6位)
匿名によるネット上の誹謗・中傷(-) 6位 脆弱性対策情報の公開に伴い公知となる脆弱性の悪用増加(10位)
ウェブサービスからの個人情報の窃取(4位) 7位 ランサムウェアを使った詐欺・恐喝(3位)
情報モラル不足に伴う犯罪の低年齢化(-) 8位 インターネットバンキングやクレジットカード情報の不正利用(1位)
職業倫理欠如による不適切な情報公開(-) 9位 ウェブサービスへの不正ログイン(5位)
インターネットの広告機能を悪用した攻撃(-) 10位 過失による情報漏えい(-)

 

  2015  
1 インターネットバンキングやクレジットカード情報の不正利用 ~個人口座だけではなく法人口座もターゲットに~
2 内部不正による情報漏えい ~内部不正が事業に多大な悪影響を及ぼす~
3 標的型攻撃による諜報活動 ~標的組織への侵入手口が巧妙化~
4 ウェブサービスへの不正ログイン ~利用者は適切なパスワード管理を~
5 ウェブサービスからの顧客情報の窃取 ~脆弱性や設定の不備を突かれ顧客情報が盗まれる~
6 ハッカー集団によるサイバーテロ ~破壊活動や内部情報の暴露を目的としたサイバー攻撃~
7 ウェブサイトの改ざん ~知らぬ間に、ウイルス感染サイトに仕立てられる~
8 インターネット基盤技術を悪用した攻撃 ~インターネット事業者は厳重な警戒を~
9 脆弱性公表に伴う攻撃 ~求められる迅速な脆弱性対策~
10 悪意のあるスマートフォンアプリ ~アプリのインストールで友人に被害が及ぶことも~
   
  2014
1 標的型メールを用いた組織へのスパイ・諜報活動 サイバー空間(領域)問題
2 不正ログイン・不正利用 ウイルス・ハッキングによるサイバー攻撃
3 ウェブサイトの改ざん ウイルス・ハッキングによるサイバー攻撃
4 ウェブサービスからのユーザー情報の漏えい ウイルス・ハッキングによるサイバー攻撃
5 オンラインバンキングからの不正送金 ウイルス・ハッキングによるサイバー攻撃
6 悪意あるスマートフォンアプリ ウイルス・ハッキングによるサイバー攻撃
7 SNS への軽率な情報公開 インターネットモラル
8 紛失や設定不備による情報漏えい 内部統制・セキュリティマネジメント
9 ウイルスを使った詐欺・恐喝 ウイルス・ハッキングによるサイバー攻撃
10 サービス妨害 ウイルス・ハッキングによるサイバー攻撃
   
  2013
1 クライアントソフトの脆弱性を突いた攻撃
2 標的型諜報攻撃
3 スマートデバイスを狙った悪意あるアプリの横行
4 ウイルスを使った遠隔操作
5 金銭窃取を目的としたウイルスの横行
6 予期せぬ業務停止
7 ウェブサイトを狙った攻撃
8 パスワード流出の脅威
9 内部犯行
10 フィッシング詐欺
   
  2012  
1 機密情報が盗まれる!?新しいタイプの攻撃 ~情報窃取を目的とする標的型の諜報攻撃(APT)~
2 予測不能の災害発生!引き起こされた業務停止 ~自然災害や人為的災害による IT システムの故障、業務データの消失~
3 特定できぬ、共通思想集団による攻撃 ~社会変革をめざす共通的な思想を持つ集団による暴露・妨害攻撃~
4 今もどこかで…更新忘れのクライアントソフトを狙った攻撃 ~標的型攻撃にも悪用されるクライアントソフトの脆弱性~
5 止まらない!ウェブサイトを狙った攻撃 ~狙われ続けるウェブサイトの脆弱性~
6 続々発覚、スマートフォンやタブレットを狙った攻撃 ~狙われる小さなパソコン-スマートデバイス~
7 大丈夫!?電子証明書に思わぬ落し穴 ~電子証明書の管理不備により、引き起こされた問題~
8 身近に潜む魔の手・・・あなたの職場は大丈夫? ~組織内部・関係者による業務妨害や情報漏えい~
9 危ない!アカウントの使いまわしが被害を拡大! ~アカウント情報の管理不備が原因で発生するなりすまし被害~
10 利用者情報の不適切な取扱いによる信用失墜 ~利用者との結びつきが強い情報(利用者情報)の取扱いに関する問題~
   
  2011
1 「人」が起こしてしまう情報漏えい
2 止まらない!ウェブサイトを経由した攻撃
3 定番ソフトウェアの脆弱性を狙った攻撃
4 狙われだしたスマートフォン
5 複数の攻撃を組み合わせた新しいタイプの攻撃
6 セキュリティ対策丌備がもたらすトラブル
7 携帯電話向けウェブサイトのセキュリティ
8 攻撃に気づけない標的型攻撃
9 クラウド・コンピューティングのセキュリティ
10 ミニブログサービスや SNS の利用者を狙った攻撃
   
  2010
1 変化を続けるウェブサイト改ざんの手口
2 アップデートしていないクライアントソフト
3 悪質なウイルスやボットの多目的化
4 対策をしていないサーバ製品の脆弱性
5 あわせて事後対応を!情報漏えい事件
6 被害に気づけない標的型攻撃
7 深刻なDDoS攻撃
8 正規のアカウントを悪用される脅威
9 クラウド・コンピューティングのセキュリティ問題
10 インターネットインフラを支えるプロトコルの脆弱性
   
  2009
  ■組織への脅威
1 DNS キャッシュポイズニングの脅威
2 巧妙化する標的型攻撃
3 恒常化する情報漏えい
   ■利用者への脅威
1 多様化するウイルスやボットの感染経路
2 脆弱な無線 LAN 暗号方式における脅威
3 減らないスパムメール
4 ユーザ ID とパスワードの使いまわしによる危険性
   ■システム管理者・開発者への脅威
1 正規のウェブサイトを経由した攻撃の猛威
2 誘導型攻撃の顕在化
3 組込み製品に潜む脆弱性 
   
  2008
1 高まる「誘導型」攻撃の脅威
2 ウェブサイトを狙った攻撃の広まり
3 恒常化する情報漏えい
4 巧妙化する標的型攻撃
5 信用できなくなった正規サイト
6 検知されにくいボット、潜在化するコンピュータウイルス
7 検索エンジンからマルウェア配信サイトに誘導
8  国内製品の脆弱性が頻発
9 減らないスパムメール
10 組み込み製品の脆弱性の増加 
   
  2007
1 漏えい情報のWinnyによる止まらない流通
2 表面化しづらい標的型(スピア型)攻撃
3 悪質化・潜在化するボット
4 深刻化するゼロデイ攻撃
5 ますます多様化するフィッシング詐欺
6 増え続けるスパムメール
7 減らない情報漏えい
8 狙われ続ける安易なパスワード
9 攻撃が急増するSQLインジェクション
10 不適切な設定のDNSサーバを狙う攻撃の発生
   
  2006
1 事件化するSQLインジェクション
2 Winnyを通じたウイルス感染による情報漏えいの多発
3 音楽CDに格納された「ルートキットに類似した機能」の事件化
4 悪質化するフィッシング詐欺
5 巧妙化するスパイウェア
6 流行が続くボット
7 ウェブサイトを狙うCSRFの流行
8 情報家電、携帯機器などの組込みソフトウェアにひそむ脆弱性
9 セキュリティ製品の持つ脆弱性
10 ゼロデイ攻撃
   
  2004
1 ボット(botnet)の脅威
2 変化し続けるコンピュータウイルスの脅威
3 フィッシング詐欺の脅威
4 サーバからの情報漏えいの脅威
5 複数製品にまたがる脅威の増加
6 ウェブサイトの改ざんの脅威

 

Ipa_20230126142601

 


 

まるちゃんの情報セキュリティ気まぐれ日記

| | Comments (0)

米国 FTC プライバシーおよびデータ・セキュリティの法執行に関する協力強化のための多国間協定に署名 (2024.01.17)

こんにちは、丸山満彦です。

米国の連邦取引委員会が、プライバシーおよびデータ・セキュリティの法執行に関する協力強化のための多国間協定に署名をしていますね。。。

 

Federal Trade Commission; FTC

・2024.01.17 FTC Signs on to Multilateral Arrangement to Bolster Cooperation on Privacy and Data Security Enforcement

FTC Signs on to Multilateral Arrangement to Bolster Cooperation on Privacy and Data Security Enforcement 米連邦取引委員会(FTC)、プライバシーおよびデータ・セキュリティの法執行に関する協力強化のための多国間協定に署名
The Federal Trade Commission has agreed to participate in an international multilateral arrangement that will enable the agency to cooperate, provide assistance with investigations and share information with other privacy authorities around the world that participate in the program. 米連邦取引委員会(FTC)は、国際的な多国間協定に参加することに合意した。この協定により、FTCは、同プログラムに参加する世界中のプライバシー当局と協力し、調査への支援を提供し、情報を共有することが可能になる。
The FTC’s participation in the Global Cooperation Arrangement for Privacy Enforcement (Global CAPE) ensures the agency can keep pace with the increasingly global nature of commerce. The FTC’s participation in the nonbinding Global CAPE will help the agency to cooperate with other members of the organization on privacy and data security related law enforcement issues without having to negotiate a separate memorandum of understanding with each participant. FTCがプライバシーの法執行のためのグローバルな協定 (Global CAPE)に参加することで、ますますグローバル化する商取引に対応することができる。FTCが拘束力のないGlobal CAPEに参加することで、FTCはプライバシーおよびデータ・セキュリティ関連の法執行問題について、各参加者と個別に覚書を取り交わすことなく、組織の他のメンバーと協力することができる。
Global CAPE was created to supplement the Asian Pacific Economic Cooperation Cross-border Privacy Rules (APEC CBPR), which also facilitates cooperation and assistance in privacy and data security investigations among APEC’s Asian Pacific countries. The new arrangement will allow for participation by countries outside the Asia Pacific area. Global CAPEは、アジア太平洋経済協力の国境を越えたプライバシー規則(APEC CBPR)を補完するために創設されたもので、APECのアジア太平洋諸国間のプライバシーとデータ・セキュリティの調査における協力と支援も促進している。この新しい取り決めにより、アジア太平洋地域以外の国も参加できるようになる。
The Commission voted 3-0 to authorize staff to participate in the Global CAPE. 同委員会は、グローバルCAPEへの参加を職員に認可することを3対0で決定した。

 

・[PDF] Global Cooperation Arrangement for Privacy Enforcement

20240124-234835

・[DOCX] 仮訳

 

 

 

| | Comments (0)

2024.01.24

英国 ICO 生成的AIとデータ保護に関する意見募集シリーズ1 ウェブスクレイピングの合法性の根拠 (2024.01.15)

こんにちは、丸山満彦です。

英国の情報コミッショナー事務局 (Information Commissioner's Office; ICO) が生成的AIとプライバシーに関する論点についての意見募集を始めていますね。。。第1弾は、ウェブから学習データを収集する際に個人情報が含まれうるわけですが、それは法的にはどういうことか???

 

U.K. Information Commissioner's Office; ICO

・2024.01.15 ICO consultation series on generative AI and data protection

 

生成的AIは新しい技術でもあり、そのメリットを享受するために社会に実装する際に、既存の法制度等との適合等を考える必要があるわけですが、検討すべき項目として、

  • 生成AIモデルをトレーニングするための適切な合法的根拠は何か?
  • 目的制限の原則は、ジェネレーティブAIの開発と展開の文脈でどのように作用するのだろうか?
  • 正確性の原則を遵守する上で、どのようなことが期待されているのか?
  • データ主体の権利の遵守という点で、どのようなことが期待されているか?

ということがあるとしていますね。。。

今回は、「生成AIモデルを訓練するためのウェブスクレイピングの合法的根拠」についてのICOの考え方と、それに対する意見募集が行われていますね。。。

ICOの考え方については、、、

・2024.01.15 Generative AI first call for evidence: The lawful basis for web scraping to train generative AI models

 

Generative AI first call for evidence: The lawful basis for web scraping to train generative AI models 生成的AI最初の証拠募集: 生成的AIモデルを訓練するためのウェブスクレイピングの合法的基礎
The background 背景
Collecting training data as part of the first stage of the generative AI lifecycle 生成的AIライフサイクルの最初の段階としての訓練データの収集
Developing a generative AI model involves several stages. The first steps are collecting and pre-processing the training data. The data is then used to train the base model. The base model is then fine-tuned for deployment in a specific context and its performance is evaluated. Regular feedback is provided for model improvement post-deployment. 生成的AIモデルの開発にはいくつかの段階がある。最初の段階は、学習データの収集と事前学習である。次に、このデータを使ってベースモデルを訓練する。その後、ベースモデルは特定のコンテキストに展開するために微調整され、そのパフォーマンスが評価される。展開後のモデル改善のために、定期的なフィードバックが提供される。
Figure 1: An indicative model development lifecycle. Some of the later steps may be interchangeable and iterative depending on the context. 図1:モデル開発のライフサイクルを示す。この後のステップの一部は、文脈によって入れ替わったり、反復したりすることができる。
1_20240124060901
Training data for generative AI: what is it and where does it come from? 生成的AIのための学習データ:それは何であり、どこから来るのか?
Most developers of generative AI rely on publicly accessible sources for their training data. Developers either collect training data directly through web scraping, indirectly from another organisation that have web-scraped data themselves, or by a mix of both approaches. In either approach, developers need to ensure the collection of the personal data they process to train models complies with data protection. 生成的AIの開発者のほとんどは、学習データを一般にアクセス可能なソースに頼っている。開発者は、ウェブスクレイピングによって直接学習データを収集するか、ウェブスクレイピングしたデータを持つ他の組織から間接的に収集するか、あるいは両方のアプローチをミックスして収集する。いずれのアプローチにおいても、開発者はモデルを訓練するために処理する個人データの収集がデータ保護に準拠していることを確認する必要がある。
What is web scraping? ウェブスクレイピングとは何か?
Web scraping involves the use of automated software to ‘crawl’ web pages, gather, copy and/or extract information from those pages, and store that information (e.g. in a database) for further use. The information can be anything on a website – images, videos, text, contact details, etc. ウェブスクレイピングとは、自動化されたソフトウェアを使用してウェブページを「クロール」し、それらのページから情報を収集、コピー、および/または抽出し、さらに使用するためにその情報を(データベースなどに)保存することである。情報とは、画像、動画、テキスト、連絡先など、ウェブサイト上のあらゆるものである。
Information scraped from internet environments such as blogs, social media, forum discussions, product reviews and personal websites contains personal data that individuals have placed there. It is important to note the internet also contains information that was not placed there by the person to whom it relates (eg discussion forums, leaked information etc). ブログ、ソーシャルメディア、フォーラムでの議論、製品レビュー、個人ウェブサイトなどのインターネット環境からスクレイピングされた情報には、個人がそこに置いた個人データが含まれている。インターネットには、その情報に関連する人物がそこに置いていない情報も含まれていることに注意することが重要である(例:ディスカッション・フォーラム、リーク情報など)。
What are the possible lawful bases for collecting training data? トレーニングデータ収集の合法的根拠にはどのようなものがあるか?
As part of complying with the lawfulness principle of data protection, developers need to ensure their processing: データ保護の合法性原則を遵守する一環として、開発者はその処理を確実にする必要がある:
(a) is not in breach of any laws; and (a) いかなる法律にも違反していない。
(b) has a valid lawful basis under UK GDPR. (b) 英国GDPRに基づく有効な合法的根拠がある。
The first aspect (a) will not be met if the scraping of personal data infringes other legislation outside of data protection such as intellectual property or contract law. 個人データのスクレイピングが、知的財産権や契約法など、データ保護以外の他の法律を侵害する場合、最初の側面(a)は満たされない。
To address point (b) and determine a lawful basis, generative AI developers need to consider the six lawful bases set out in Article 6(1) UK GDPR. Based on current practices, five of the six lawful bases are unlikely to be available for training generative AI on web-scraped data. (b)の点に対処し、合法的根拠を決定するために、生成的AI開発者は英国GDPR第6条(1)に規定されている6つの合法的根拠を検討する必要がある。現在の慣行に基づけば、6つの合法的根拠のうち5つは、ウェブスクレイピングされたデータで生成的AIを訓練する際に利用できる可能性は低い。
For this reason, this call for evidence focuses on the legitimate interests lawful basis (Article 6(1)(f) of the UK GDPR), which may apply in some circumstances. To meet the legitimate interests basis, the controller must pass the ‘three-part’ test 1 and demonstrate that: このため、今回の証拠募集では、状況によっては適用される可能性のある正当な利益の根拠(英国GDPR第6条1項(f))に焦点を当てる。正当な利益の根拠を満たすには、コントローラーは「3つのテスト」1に合格し、以下を実証しなければならない:
1. the purpose of the processing is legitimate; 1.処理の目的が正当である;
2. the processing is necessary for that purpose; and 2.処理がその目的のために必要である。
3. the individual’s interests do not override the interest being pursued. 3.個人の利益は、追求される利益に優先しない。
In more detail – ICO guidance on legitimate interest: 詳しくは、正当な利益に関するICOのガイダンスを参照のこと:
Legitimate interests 正当な利益
Our analysis 我々の分析
Is legitimate interests a valid lawful basis for training generative AI models on web-scraped data? 正当な利益は、ウェブスクレイピングされたデータで生成的AIモデルをトレーニングするための有効な合法的根拠となるか?
Legitimate interests can be a valid lawful basis for training generative AI models on web-scraped data, but only when the model’s developer can ensure they pass the three-part test. In order to do that they can undertake a variety of actions, which we will explore below. 正当な利益は、ウェブスクレイピングされたデータで生成的AIモデルを訓練するための有効な合法的根拠となり得るが、モデルの開発者が3つのテストに合格することを保証できる場合に限られる。そのために、開発者は様々な行動をとることができる。
Purpose test: is there a valid interest? 目的テスト:有効な関心はあるか?
As controllers for the generative AI model training, developers need to identify a legitimate interest for processing the web-scraped personal data in the first place. Despite the many potential downstream uses of a model, they need to frame the interest in a specific, rather than open-ended way, based on what information they can have access to at the time of collecting the training data. 生成的AIモデル学習のコントローラーとして、開発者はそもそもウェブスクレイピングされた個人データを処理する正当な利益を特定する必要がある。モデルの下流での使用には多くの可能性があるにもかかわらず、開発者は、トレーニングデータの収集時にアクセス可能な情報に基づき、自由形式ではなく、具体的な方法で利益を設定する必要がある。
The developer’s interest could be the business interest in developing a model and deploying it for commercial gain, either on their own platform or bringing it into the market for third parties to procure. There may also be wider societal interests related to the applications that the models could potentially power – but in order to rely on these the developer must be able to evidence the model’s specific purpose and use. 開発者の関心とは、モデルを開発し、商業的利益を得るために、自社のプラットフォームで、あるいはサードパーティが調達できるように市場に導入することである。また、モデルが潜在的に力を発揮しうるアプリケーションに関連する、より広範な社会的利益もありうる。しかし、これらに依拠するためには、開発者はモデルの特定の目的と用途を証明できなければならない。
The key question is this: if you don’t know what your model is going to be used for, how can you ensure its downstream use will respect data protection and people’s rights and freedoms? 重要なのは次のような点である。もし自分のモデルが何に使われるのかわからないのであれば、その川下での利用がデータ保護と人々の権利と自由を尊重するものであることをどうやって保証できるのか?
Developers who rely on broad societal interests need to ensure that those interests are actually being realised rather than assumed, by applying appropriate controls and monitoring measures on the use of the generative AI models they build on web-scraped data. 広範な社会的利益に依存する開発者は、ウェブスクレイピングされたデータに基づいて構築された生成的AIモデルの使用に適切なコントロールと監視手段を適用することで、それらの利益が仮定されたものではなく、実際に実現されていることを保証する必要がある。
Necessity test: is web scraping necessary given the purpose? 必要性テスト:ウェブスクレイピングは目的から見て必要か?
The necessity test is a factual assessment that asks whether the processing is necessary to achieve the interest identified in the purpose test. The ICO’s understanding is that currently, most generative AI training is only possible using the volume of data obtained though large-scale scraping. 必要性テストは、目的テストで特定された利益を達成するために処理が必要かどうかを問う事実評価である。ICOの理解では、現在、ほとんどの生成的AIのトレーニングは、大規模なスクレイピングによって得られる大量のデータを用いてのみ可能である。
Even though future technological developments may provide novel solutions and alternatives, currently there is little evidence that generative AI could be developed with smaller, proprietary databases. We welcome views on this point. 将来の技術開発が斬新な解決策や代替策を提供する可能性があるとしても、現在のところ、生成的AIが小規模な独自のデータベースを用いて開発できるという証拠はほとんどない。この点に関する意見を歓迎する。
Balancing test: do individuals’ rights override the interest of the generative AI developer? バランステスト:個人の権利は生成的AI開発者の利益に優先するか?
If a controller has established there is a legitimate purpose is using web-scraped data for generative AI training, and the processing is necessary for that purpose, the final step is to assess the impact on individuals and identify whether the interests, rights and freedoms of those individuals override those pursued by the controller or third parties. コントローラーが、生成的AIのトレーニングのためにウェブスクレイピングされたデータを使用することに正当な目的があり、その目的のために処理が必要であることを立証した場合、最後のステップは、個人への影響を評価し、それらの個人の利益、権利、自由が、コントローラーまたはサードパーティが追求するものに優先するかどうかを特定することである。
Collecting data though web-scraping is an ‘invisible processing’ activity, where people are not aware their personal data is being processed in this way. This means people may lose control over how and what organisations process their personal data or become unable to exercise the information rights granted by UK data protection law. Invisible processing and AI related processing are both seen as high-risk activities that require a DPIA under ICO guidance.2 ウェブスクレイピングによるデータ収集は「目に見えない処理」であり、人々は自分の個人データがこのように処理されていることに気づかない。つまり、人々はどの組織がどのように個人データを処理しているのかコントロールできなくなったり、英国のデータ保護法で認められている情報の権利を行使できなくなったりする可能性がある。目に見えない処理とAIに関連する処理は、ICOのガイダンスのもと、DPIAを必要とする高リスクの活動とみなされている2。
How do individuals’ interests play out in the balancing test? 個人の利益はどのようにバランステストに反映されるのか?
There is a growing literature on the risks and harms of generative AI models. 3, 4 Individuals whose data is scraped for generative AI development can experience harm, either related to the collection of the training data or because of the use of the generative AI model. These harms can manifest in two ways: 生成的AIモデルのリスクと有害性に関する文献は増えている3, 4。3, 4 生成的AI開発のためにデータをスクレイピングされた個人は、学習データの収集に関連して、あるいは生成的AIモデルの使用のために、被害を経験する可能性がある。これらの危害は2つの方法で現れる可能性がある:
Upstream risks and harms: For example, people may lose of control over their personal data, 5 as they are not informed of its processing and therefore are prevented from exercising their information rights or evaluate the impact of that processing on them, including its fairness. 上流リスクと危害: 例えば、人々は自分の個人データに対するコントロールを失う可能性がある。5 というのも、人々はその処理について知らされていないため、情報の権利を行使したり、その処理の公正さを含む自分への影響を評価したりすることができないからである。
Downstream risks and harms: For example, generative AI models can be used to generate inaccurate information about people 6 resulting in distress 7 , 8 or reputational harm, be used by hackers 9 deploying social engineering tactics to generate phishing emails 10 tailored to individuals or undertake other adversarial attacks 11. 下流のリスクと危害: 例えば、生成的AIモデルは、人々に関する不正確な情報を生成するために使用され、その結果、苦痛7、8や風評被害をもたらしたり、ソーシャル・エンジニアリング戦術を展開するハッカー9に使用され、個人に合わせたフィッシング・メール10を生成したり、その他の敵対的攻撃11を行ったりする可能性がある。
Further reading さらに読む
What are the individual’s ‘interests, rights and freedoms’? 個人の「利益、権利、自由」とは何か?
What is the importance of reasonable expectations? 合理的な期待の重要性とは何か?
Risk mitigations to consider in the balancing test バランステストにおいて考慮すべきリスク低減
There are a number of considerations that may help generative AI developers pass the third part of the legitimate interests test, relevant to both the development and deployment of a model. 生成的AI開発者が正当な利益テストの3番目の部分をパスするのに役立つかもしれない考慮事項が、モデルの開発と展開の両方に関連していくつかある。
The extent to which generative AI developers can mitigate downstream harms during deployment depends on the way in which the models are put into the market. 生成的AI開発者が展開中に下流の損害をどの程度軽減できるかは、モデルが市場に投入される方法に依存する。
Generative AI models deployed by the initial developer 最初の開発者によって導入された生成的AIモデル
Where a generative AI model developer deploys the model on its own platform, the expectation is they can exercise complete control over how the generative AI model is used. If the developer relies on the public interest of the wider society for the first part of the test, in order to pass the entire test they should still be able to: 生成的AIモデルの開発者が自身のプラットフォーム上にモデルを展開する場合、生成的AIモデルがどのように使用されるかを完全にコントロールできることが期待される。もし開発者がテストの最初の部分でより広い社会の公益に依存していたとしても、テスト全体に合格するためには、開発者は以下のことができるはずである:
control and evidence whether the generative AI model is actually used for the stated wider societal benefit; 生成的AIモデルが、より広い社会の利益のために実際に使用されるかどうかをコントロールし、証明する;
assess risks to individuals (both in advance during generative AI development and as part of ongoing monitoring post-deployment); and 個人に対するリスクアセスメント(生成的AI開発中、および導入後の継続的モニタリングの一環として)。
implement technical and organisational measures to mitigate risks to individuals. 個人に対するリスクを低減するための技術的・組織的措置を実施すること。
Generative AI models deployed by a third-party (not the initial developer), through an API (最初の開発者ではない)サードパーティによりAPIを通じて展開された生成的AIモデル
Another route to generative AI model deployment is for the developer to make the model available via an API to a third-party. In this context, the third party does not have their own copy of the underlying generative AI model but can query it through the API, feeding into it their own data. This is sometimes referred to as a ‘closed-source’ approach. 生成的AIモデル展開のもう一つのルートは、開発者がAPIを通じてサードパーティにモデルを提供することである。この場合、サードパーティは基盤となる生成的AIモデルの独自のコピーを持たないが、APIを通じてクエリーを実行し、独自のデータを投入することができる。これは「クローズド・ソース」アプローチと呼ばれることもある。
In this case, the initial generative AI developer can seek to ensure that the third party’s deployment is in line with the legitimate interest identified at the generative AI training phase, by implementing technical (eg output filters, etc) and organisational controls over that specific deployment. この場合、最初の生成的AI開発者は、サードパーティの展開が、生成的AIのトレーニング段階で特定された正当な利益に沿ったものであることを、その特定の展開に対して技術的(例えば出力フィルタなど)および組織的な管理を実施することで保証しようとすることができる。
For example, API access can be used to limit queries (preventing those likely to result in risks or harms to individuals) and to monitor the use of the model. Contractual restrictions and measures could also be used to support this, with the developer legally limiting the ways in which the generative AI model can be used by its customers. We are interested in hearing more about mitigation measures and how their efficacy is evaluated and documented. 例えば、APIアクセスは、クエリーアクセスの制限(個人へのリスクや危害をもたらす可能性の高いクエリーの防止)やモデルの使用の監視に使用することができる。契約上の制限や措置も、これをサポートするために使用することができ、開発者は生成的AIモデルがその顧客によって使用される方法を法的に制限することができる。我々は、低減策と、その有効性がどのように評価され文書化されるかについて、より多くの情報を得たいと考えている。
Generative AI models provided to third parties 生成的AIモデルのサードパーティへの提供
If copies or extensive details (eg model weights, starting code, etc) of the underlying generative AI models are made available by the initial developer to third parties, developers are expected to have much less control over how the model will be used downstream. In these cases (sometimes referred to as an ‘open-source’ approach), customers typically run their own instance of the generative AI model. 基礎となる生成的AIモデルのコピーまたは広範な詳細(モデルの重み、開始コードなど)が、最初の開発者によってサードパーティに提供される場合、開発者はモデルが下流でどのように使用されるかについて、あまりコントロールできないと予想される。このような場合(「オープンソース」アプローチと呼ばれることもある)、顧客は通常、生成的AIモデルの独自のインスタンスを実行する。
Where the generative AI model has the capacity to be implemented in unlimited variety of downstream applications, its initial developers may not be able to restrict or monitor how the model is used and therefore its impact. This means they may have no way of knowing whether the potential broad societal interest identified at the initial training stage is being realised in practice. Additionally, where the third-party’s use of the model is unrestricted, articulating clearly and with precision the broad societal interest of developing the initial model could become extremely difficult, as the developer may not meaningfully know or monitor how the model will be used. 生成的AIモデルが無制限に様々な下流アプリケーションに展開できる能力を持つ場合、その最初の開発者は、モデルがどのように使用され、その結果どのような影響を与えるかを制限したり監視したりすることができない可能性がある。このことは、最初の訓練段階で特定された潜在的な広範な社会的関心が、実際に実現されているかどうかを知る方法がない可能性があることを意味する。加えて、サードパーティによるモデルの利用が制限されない場合、 開発者はモデルがどのように利用されるかを有意義に知ることも監視す ることもできないため、最初のモデルを開発することによる広範な社会的利益を 明確かつ正確に表現することが極めて困難になる可能性がある。
Contractual controls may mitigate this risk, though the developer would also need to evidence that any such controls are being complied with in practice" 契約による管理はこのリスクを軽減するかもしれないが、開発者は、そのような管理が実 際に遵守されていることを証明する必要もある。
Conclusion 結論
Training generative AI models on web scraped data can be feasible if generative AI developers take their legal obligations seriously and can evidence and demonstrate this in practice. 生成的AI開発者が法的義務を真摯に受け止め、それを実際に証明することができれば、ウェブスクレイピングされたデータで生成的AIモデルをトレーニングすることは実現可能である。
Key to this is the effective consideration of the legitimate interest test. Developers using web scraped data to train generative AI models need to be able to: その鍵となるのは、合法的利益テストを効果的に考慮することである。生成的AIモデルの学習にウェブスクレイプデータを使用する開発者は、以下のことができる必要がある:
・Evidence and identify a valid and clear interest. ・有効かつ明確な利益を証明し、特定する。
・Consider the balancing test particularly carefully when they do not or cannot exercise meaningful control over the use of the model. ・モデルの使用について意味のあるコントロールを行わない、または行えない場合は、特にバランステストを慎重に検討する。
・Demonstrate how the interest they have identified will be realised, and how the risks to individuals will be meaningfully mitigated, including their access to their information rights. ・特定した利益がどのように実現されるのか、また、個人の情報権利へのアクセスを含め、個人に対するリスクがどのように有意義に低減されるのかを実証する。

 

 

 

| | Comments (0)

ドイツ 連邦情報セキュリティー局 BSI 強化学習のセキュリティ概要 (2024.01.16)

こんにちは、丸山満彦です。

ドイツの連邦情報セキュリティー局 (Bundesamt für Sicherheit in der Informationstechnik; BSI) が、強化学習のセキュリティ概要という簡単な報告書を公表していますね。。。

AIのセキュリティというのは最近よく見るようになりましたが、強化学習にしぼった(^^)のは、珍しいかなぁと思いました。。。そして、なんとドイツ語ではなく英語の報告書です(^^)

 

Bundesamt für Sicherheit in der Informationstechnik; BSI 

・2024.01.16 Neues Whitepaper 'Reinforcement Learning Security in a Nutshell' veröffentlicht

・[PDF] Reinforcement Learning Security in a Nutshell

20240123-144942

 

目次...

Reinforcement Learning Security in a Nutshell 強化学習のセキュリティ概要
Table of Contents 目次
1 Introduction 1 序文
1.1 Concept of Reinforcement Learning 1.1 強化学習の概念
1.2 Outline 1.2 概要
2 Importance of Classical IT Security 2 古典的ITセキュリティの重要性
3 Reward Minimization Attacks 3 報酬最小化攻撃
3.1 Robustness 3.1 堅牢性
3.2 Attacks at Training Time 3.2 訓練時の攻撃
3.3 Attacks at Deployment 3.3 配備時の攻撃
3.4 Defences 3.4 防御
4 Policy Injection 4 ポリシー・インジェクション
4.1 Attacks at Training Time 4.1 トレーニング時の攻撃
4.2 Attacks at Deployment 4.2 展開時の攻撃
4.3 Defences 4.3 防御
5 Privacy Attacks 5 プライバシー攻撃
5.1 Attacks at Deployment 5.1 配備時の攻撃
5.2 Defences 5.2 防御
6 Conclusion 6 まとめ
Bibliography 参考文献

 

本文...

1 Introduction 1 序文
In this whitepaper, we give a compact overview of possible attacks on Reinforcement Learning systems as well as corresponding defences. The document is targeted at developers of artificial intelligence systems and experts assessing the security of such systems, especially those focused on Reinforcement Learning. Its goal is to sensitize for possible attack vectors and to present possible defences, without going into too much technical detail. The document can be used as a substantive basis for a risk analysis. このホワイトペーパーでは、強化学習システムに対する攻撃の可能性と、それに対応する防御策をコンパクトに概観する。この文書は、人工知能システムの開発者と、そのようなシステム、特に強化学習に焦点を当てたシステムのセキュリティを評価する専門家を対象としている。このドキュメントの目的は、可能性のある攻撃ベクトルに対して注意を喚起し、可能性のある防御策を提示することである。この文書は、リスク分析の実質的な基礎として使用することができる。
1.1 Concept of Reinforcement Learning 1.1 強化学習の概念
Reinforcement Learning is, like Supervised and Unsupervised Learning, a popular technique in Machine Learning. It can be interpreted as a sort of feedback loop between an acting agent and its environment. This is typically modeled as a fully or partially observable Markov Decision Process. Such a process is defined by a state space 𝑆 containing all possible states of the system, an action space 𝐴 containing every action, a transition function 𝑃, which can be probabilistic and describes how a state changes under a given action, and finally a reward function 𝑅, defining the rewards for state-action pairs. In this document, we will sometimes denote the agent as the model, while system means the complete feedback loop. 強化学習は教師あり学習や教師なし学習と同様、機械学習でよく使われる手法である。強化学習は、行動するエージェントとその環境との間の一種のフィードバック・ループと解釈することができる。これは通常、完全または部分的に観測可能なマルコフ決定過程としてモデル化される。このようなプロセスは、システムのすべての可能な状態を含む状態空間𝑆、すべてのアクションを含むアクション空間𝐴、確率的であることができ、与えられたアクションの下で状態がどのように変化するかを記述する遷移関数𝑃、そして最後に、状態とアクションのペアの報酬を定義する報酬関数𝑅によって定義される。本書では、エージェントをモデル、システムを完全なフィードバックループと呼ぶ。
In image 1, this feedback loop is schematically pictured, with the transition function P, the reward function R and π denominating the agent’s policy (the dashed line denotes a jump in time, see index of the states and rewards). The goal of Reinforcement Learning is to find a policy, that performs optimally, or close to optimally, in this environment. This means maximizing the return, which is usually a weighted sum of all rewards ∑𝑡 𝛾𝑡𝑟𝑡, with rewards 𝑟 and weights 𝛾. Implied in this is the fact, that Reinforcement Learning learns strategies that have temporal cohesion, contrary to typical classifiers. Famous applications include chess engines, robotics or autonomous driving. イメージ1では、このフィードバックループを、遷移関数P、報酬関数R、エージェントのポリシーを表すπで模式的に描いている(破線は時間ジャンプを表し、状態と報酬のインデックスを参照)。強化学習のゴールは、この環境で最適な、あるいは最適に近いパフォーマンスをするポリシーを見つけることである。これは、通常、報酬ᵅと重み𝑡を持つすべての報酬∑𝑡の重み付き合計であるリターンを最大化することを意味する。このことは、強化学習が、典型的な分類器とは逆に、時間的なまとまりを持つ戦略を学習するという事実を暗示している。有名な応用例としては、チェスのエンジン、ロボット工学、自律走行などがある。
1: Reinforcement Learning Scheme 1: 強化学習スキーム
Security for Reinforcment Learning has, of course, an overlap with general AI security. Many concepts are similar and some of the general attacks also apply to Reinforcement Learning systems. While this document is intended to be self contained, for a more detailed and thourough understanding it is advisable to also read an overview on general AI specific attacks and defences, which is for example given in the detailed publication of BSI (BSI, 2022) or the more concise publication (BSI, 2023). 強化学習のセキュリティは、もちろん一般的なAIのセキュリティと重なる部分がある。多くの概念は類似しており、一般的な攻撃のいくつかは強化学習システムにも当てはまる。本書は自己完結を意図しているが、より詳細かつ徹底的な理解のためには、例えばBSIの詳細な出版物(BSI、2022)や、より簡潔な出版物(BSI、2023)に記載されている、一般的なAI特有の攻撃と防御に関する概要も読むことが望ましい。
1.2 Outline 1.2 概要
In the following, we categorize three different types of attacks, which are defined by the goal an attacker aims to reach. 以下では、攻撃者が到達しようとする目標によって定義される3つの異なるタイプの攻撃を分類する。
• Attacks to minimize the return. These attacks aim to decrease the performance, which is measured by the return, and thereby the usefulness of the system. ・リターンを最小化する攻撃。これらの攻撃は,リターンによって測定されるパフォーマンスを低下させること,ひいてはシステムの有用性を低下させることを目的としている。
• Policy injection attacks, in contrast, do not care as much about the return but rather aim to make the agent follow a specific policy. A relaxed form of this attack is given, when the attacker just aims for the system to reach a specific state. ・対照的に,ポリシーインジェクション攻撃は,リターンをあまり気にせず,むしろエージェントを特定のポリシーに従わせることを目的とする。攻撃者が単にシステムが特定の状態に到達することを目的とする場合,この攻撃の緩やかな形が与えられる。
• Attacks that try to extract information from the system. On the one hand, this can be critical data that is used in the training, like e.g. in healthcare applications. On the other hand, the models themselves might get copied, which can hold economical value. ・システムから情報を抽出しようとする攻撃。一方では,例えばヘルスケアアプリケーションのように,トレーニングに使用される重要なデータである可能性がある。一方では,モデル自体がコピーされる可能性があり,経済的な価値を持つこともある。
For each of these attack types, we present possible defences. これらの攻撃の種類ごとに、可能な防御策を示す。
Note, that there is no guarantee that the presented defences work against every possible attack and are suited for every possible situation. The document merely provides a broad overview about some of the possibilities, and special care has to be taken when applying these suggestions in a real world application. The document is intended as a basis to start thinking about security risks of Reinforcement Learning and mitigate them. It is important to stress, that the application of defences might have negative consequences on the performance of the agent and hence careful trade offs have to be made. 提示された防御策が、起こりうるすべての攻撃に対して有効であり、起こりうるすべての状況に適しているという保証はないことに注意されたい。この文書は、単に可能性のいくつかについて大まかな概要を提供するものであり、これらの提案を実世界のアプリケーションに適用する際には、特別な注意を払う必要がある。この文書は、強化学習のセキュリティリスクについて考え始め、それらを低減するための基礎として意図されている。防御を適用することは、エージェントのパフォーマンスに否定的な結果をもたらす可能性があり、したがって、慎重なトレードオフが必要であることを強調することが重要である。
To get a deeper understanding of this important topic, we advise the reader to read further into the relevant literature. Surveys about security in Reinforcement Learning, such as for example (Demontis, et al., 2022) or (Lei, et al., 2023), serve as an additional starting point and give more technical details on certain topics. Note, that this is an actively researched field, and new findings are frequent. この重要なトピックをより深く理解するために、読者には関連する文献をさらに読むことを勧める。例えば(Demontis、et al.、2022)や(Lei、et al.、2023)のような強化学習におけるセキュリティに関するサーベイは、追加の出発点として役立ち、特定のトピックについてより技術的な詳細を与えてくれる。これは活発に研究されている分野であり、新しい発見が頻繁にあることに留意されたい。
2 Importance of Classical IT Security 2 古典的ITセキュリティの重要性
Reinforcement Learning has some unique attack angles that we will present in this guide. However, Reinforcement Learning agents are by design always embedded into a larger IT system. At the very least, it possesses an interface with the environment. Typically, a Reinforcement Learning system includes 強化学習には、このガイドで紹介するいくつかのユニークな攻撃方法がある。しかし、強化学習エージェントは、設計上、常に大きなITシステムに組み込まれている。少なくとも、環境とのインターフェースを持っている。通常、強化学習システムには以下が含まれる。
• the action interface between the agent and the environment, i.e. the output of the agent is sent as the input for the environment, ・エージェントと環境の間のアクションインターフェース、つまり、エージェントの出力が環境の入力として送られる
• the state interface , i.e. an output of the environment is sent as an input for the agent, and • the reward interface, also an output of the environment that is sent as an input for the agent. ・状態インターフェイス,つまり環境の出力がエージェントの入力として送られる,そして報酬インターフェイス,これも環境の出力がエージェントの入力として送られる。
Because of this, a holistic security approach is essential, and classical IT security is an important factor in the security of AI systems that can provide an additional layer of defence. このため、全体的なセキュリティ・アプローチが不可欠であり、古典的なITセキュリティは、AIシステムのセキュリティにおいて、追加の防御層を提供できる重要な要素である。
Especially important is the security of the aforementioned interfaces, which needs to be taken into account when analysing the overall security of a Reinforcement Learning system. This can prevent e.g. man-in-themiddle attacks by denying access to unauthorized users. Changes in the in- and output of the AI agent can be fatal, so firewalls, strict user management and physical access management can be an important part of the security measures. 特に重要なのは、前述の輸入事業者のセキュリティであり、強化学習システムの全体的なセキュリティを分析する際に考慮する必要がある。これは、権限のないユーザーのアクセスを拒否することで、例えば中間者攻撃を防ぐことができる。AIエージェントのインプットとアウトプットの変更は致命的となりうるので、ファイアウォール、厳格なユーザー管理、物理的なアクセス管理は、セキュリティ対策の重要な一部となりうる。
These measures are also useful techniques against privacy attacks. A sophisticated defence against attacks to extract the model by making queries is useless, if an attacker can get access to the model data and copy them from the hardware. Good documentation and the logging of system operations to check for anomalies in usage or system behaviour are useful security measure, too. An emergency plan in case of an attack or corruption of data should be in place. これらの対策は、プライバシー攻撃に対する有効なテクニックでもある。クエリーアクセスによってモデルを抽出する攻撃に対する高度な防御も、攻撃者がモデルデータにアクセスしてハードウェアからコピーすることができれば意味がない。使用状況やシステムの動作に異常がないかチェックするための、適切な文書化とシステム操作のロギングも、有用なセキュリティ対策である。攻撃やデータの破損が発生した場合の緊急対策も講じておく必要がある。
In addition, public models can contain backdoors or other intrinsic security risks, so one needs to be cautious when using pretrained models. This also applies for training environments or reward functions, which are used in training. さらに、公開モデルにはバックドアやその他の本質的なセキュリティリスクが含まれている可能性があるため、事前学習済みモデルの使用には注意が必要である。これは、トレーニング環境や、トレーニングに使用される報酬機能にも当てはまる。
Overall, classical IT security is a wide field, adresses many topics and we will not go into detail here. In the IT-Grundschutz (BSI, 2022) there can be found in-depth recommendations by the BSI. Often, AI systems are embedded in a cloud environment, which then also makes measures of Cloud security important. Similar to classical IT security, the BSI provides guidelines for Cloud security (BSI, 2020), and even specifically tailored for AI (BSI, 2021). 全体として、古典的なITセキュリティは広い分野であり、多くのトピックを扱っているため、ここでは詳細には触れない。IT-Grundschutz(BSI、2022年)には、BSIによる詳細な勧告がある。多くの場合、AIシステムはクラウド環境に組み込まれるため、クラウドセキュリティ対策も重要になる。従来のITセキュリティと同様に、BSIはクラウドセキュリティのガイドラインをプロバイダとして提供しており(BSI、2020)、特にAI向けにカスタマイズされている(BSI、2021)。
3 Reward Minimization Attacks 3 報酬最小化攻撃
The first class of attacks we want to look at are attacks that aim at causing a poor agent performance. Thus, they may in practice be considered as attacks on the availability of the system, as it is not usable when minimizing the return. 最初の攻撃は、エージェントのパフォーマンスを低下させることを目的とした攻撃である。したがって、実際には、報酬を最小化する際にシステムが使用できないため、システムの可用性に対する攻撃とみなすことができる。
Some examples of such attacks are: そのような攻撃の例をいくつか挙げる:
• A Reinforcement Learning agent is used to manage cybersecurity tools. During training, the reward is large when an intrusion is defended. By minimizing the rewards, an attacker can influence the agent such that the system allows intrusion. ・強化学習エージェントがサイバーセキュリティツールの管理に使われる。訓練中,侵入を防御したときの報酬は大きい。報酬を最小化することで,攻撃者はシステムが侵入を許すようにエージェントに影響を与えることができる。
• An autonomous robot is controlled by Reinforcement Learning. The reward is coupled to desirable behaviour, such as staying on the correct path or doing planned procedures. By changing the camera inputs of the robot, a fatal misbehaviour is provoked that can destroy the robot and damage the surroundings. This trajectory of states has, of course, an overall low return. ・自律ロボットは強化学習によって制御される。報酬は,正しい経路に留まるとか,計画された手順を実行するといった望ましい行動と結びついている。ロボットのカメラ入力を変更することで,ロボットを破壊し周囲に損害を与える致命的な誤動作が誘発される。このような状態の軌跡は,もちろん全体的にリターンが少ない。
Closely related to this type of attack is the notion of robustness, which we will briefly explain in the following subsection. Afterwards, we provide an overview of the attacks separated by the life cycle phase they happen at, i.e. if the attacks occur during training phase or operation. Lastly, we outline possible defences. The subsequent chapters follow a similar structure. この種の攻撃と密接に関連するのが堅牢ネス(頑健性)という概念である。その後に、攻撃が発生するライフサイクルのフェーズ、つまりトレーニング中か運用中かに分けて、攻撃の概要を説明する。最後に、可能な防御策を概説する。以降の章も同様の構成に従う。
3.1 Robustness 3.1 堅牢性
Robustness is a broad concept that occurs, for example, in control theory. It describes how well a system performs under unexpected circumstances. Classically, it is used to describe how a model reacts to general errors and measurement uncertainties. These are naturally occuring phenomena, but it is easy to see how this concept can also be useful in the context of cybersecurity. A system that is robust against natural phenomena is probably more robust against tampering from an attacker than a model that is not robust against these phenomena. 堅牢性は、例えば制御理論に見られるような幅広い概念である。予期せぬ状況下でシステムがどの程度うまく機能するかを表す。古典的には、一般的な誤差や計測の不確実性に対してモデルがどのように反応するかを説明するために使われる。これらは自然に発生する現象であるが、この概念がサイバーセキュリティの文脈でも有用であることは容易に理解できる。自然現象に対して堅牢なシステムは、おそらく攻撃者からの改ざんに対して、これらの現象に対して堅牢でないモデルよりも堅牢である。
As we will see in section 3.4, most defence mechanisms against reward minimization aim to increase the robustness of the Reinforcement Learning model. However, a drawback of robustness is that it typically comes with a price. A model that produces an optimal return in training is usually not robust and increasing robustness often leads to suboptimal performances. セクション3.4で見るように、報酬最小化に対するほとんどの防御メカニズムは、強化学習モデルの頑健性を高めることを目的としている。しかし、堅牢性の欠点は、一般的に代償を伴うことである。訓練で最適なリターンを生み出すモデルは通常堅牢ではなく、堅牢性を高めるとしばしば最適以下のパフォーマンスになる。
In the following, only an intuitive understanding of robustness is required. For a more detailed definition and a method to estimate robustness, which can be useful to find weaknesses of the model, we refer the reader to (Korkmaz, et al., 2023). The source focuses on Deep Reinforcement Learning, i.e. Reinforcement Learning that uses Deep Neural Networks, which are one of the most important types of Reinforcement Learning. 以下では、堅牢性の直感的な理解のみを必要とする。より詳細な定義と、モデルの弱点を見つけるのに有用な堅牢ネスの推定方法については、(Korkmaz、et al.、2023)を参照されたい。この情報源は、ディープ強化学習、すなわち、強化学習の最も重要なタイプの一つであるディープ・ニューラル・ネットワークを用いた強化学習に焦点を当てている。
3.2 Attacks at Training Time 3.2 訓練時の攻撃
Attacks at training time focus on changing some value of the Markov Decision Process to sabotage the training. Due to the nature of the process, changing any value, e.g. the action or the communicated state, can cascade through the feedback loop and have a profound influence. Typical attack vectors are: 訓練時の攻撃は、マルコフ決定過程の何らかの値を変更し、訓練を妨害することに焦点を当てる。マルコフ決定過程の性質上、アクションやコミュニケーション状態など、どの値を変更してもフィードバックループに連鎖し、大きな影響を与える。典型的な攻撃ベクトルは以下の通りである:
• Changing the reward function by direct access is the most obvious attack. For example, just changing the sign of the reward function typically leads to a considerably worse policy. ・ 直接アクセスによって報酬機能を変更することは、最も明白な攻撃である。例えば、報酬関数の符号を変えるだけで、通常はかなり悪いポリシーになる。
• Changing the actions or the observed states might also lead to a worse performance. In order to explicitly minimize the rewards, white box knowledge of the system is beneficial. However, even without detailed knowledge, attackers might achieve a decrease in return. ・行動や観測された状態を変更することも,パフォーマンスの悪化につながる可能性がある。報酬を明示的に最小化するためには,システムのホワイトボックス知識が有益である。しかし,詳細な知識がなくても,攻撃者はリターンの減少を達成できるかもしれない。
• If the attacker has access to the training environment, a change in the transition function can lead to similar effects as outlined before. ・攻撃者がトレーニング環境にアクセスできる場合,遷移関数を変更することで,先に概説したのと同様の効果が得られる。
A potential method an attacker might use to implement the aforementioned changes involves an adversarial agent during training to sabotage the system. 攻撃者が前述の変更を実行するために使用する可能性のある方法として、訓練中に敵対的なエージェントがシステムを妨害することがある。
3.3 Attacks at Deployment 3.3 展開時の攻撃
Since training is sometimes performed in a secure or isolated setup, the attack surface during deployment might be larger. 訓練は安全な、あるいは隔離された環境で行われることがあるため、配備時の攻撃対象は より大きくなる可能性がある。
In this phase, the attacker needs to overrule or trick an existing policy. This can be done, similar to the methods seen in the last subsection, by altering or influencing the actions, the observed states or the transition probabilities. The rewards do not play a role in the operation phase anymore, as they are only used to train the Reinforcement Learning model. この段階では、攻撃者は既存のポリシーを覆すか、騙す必要がある。これは、最後のサブセクションで見た方法と同様に、アクション、観測された状態、または遷移確率を変更または影響を与えることによって行うことができる。報酬は強化学習モデルの学習に使われるだけなので、操作フェーズではもう役割を果たさない。
The attacks in this category are typically a type of adversarial attack. Adversarial attacks, generally speaking, aim to change the output of the AI agent by changing the input, see (BSI, 2023). Often, the change is unnoticeable to the human eye, e.g. in the form of a slight noise. As in other artificial intelligence models, gradient methods can often be used to find adversarial examples, see e.g. (Evasion attacks against machine learning at test time, ECML PKDD, 2013), (Adversarial Attacks on Neural Network Policies, 2017) or (Characterizing Attacks on Deep Reinforcement Learning, 2022). このカテゴリーの攻撃は、典型的には敵対的攻撃の一種である。敵対的攻撃は、一般的に言って、入力を変更することによってAIエージェントの出力を変更することを目的としている。多くの場合、その変化は人間の目には気づかれない、例えばわずかなノイズのような形である。他の人工知能モデルと同様に、勾配法はしばしば敵対的なサンプルを見つけるために使用することができる。例えば、(Evasion attacks against machine learning at test time、ECML PKDD、2013)、(Adversarial Attacks on Neural Network Policies、2017)、または(Characterizing Attacks on Deep Reinforcement Learning、2022)を参照。
In the case of white box knowledge, the attacker has direct access to the gradient of the agent. It is however often possible, even with black box knowledge only, to approximate the gradient, e.g. with the use of a socalled shadow model, that imitates the deployed model (Chen, et al., 2020). ホワイトボックス知識の場合、攻撃者はエージェントの勾配に直接アクセスできる。しかし、ブラックボックスの知識しかない場合でも、展開されたモデルを模倣したいわゆるシャドーモデルを使用するなどして、勾配を近似することが可能な場合が多い(Chen、et al.)
3.4 Defences 3.4 防御策
The following defensive measures might be used against such attacks: このような攻撃に対して、以下のような防御策が考えられる:
• Attack detection allows a user to fend off an attack, or at least prevent a model from doing harm by shutting it off. For this, the time continous nature of Reinforcement Learning can be used. As there is often temporal cohesion, the next state can, to some degree, be predicted from the history. This is especially true for any type of state that can be interpreted as ‚visual‘, e.g. provided by a camera. If the observed state is, in some appropriate sense, too far away from the expected one, an attack might be assumed. If an attack or unusual situation is detected in this way, one possible reaction is to switch the actual observation with the predicted state. Such an approach might increase the effort for an attacker, which is forced to alter the relevant history of the states. This is shown e.g. in (Tekgul, et al., 2021), (Xiong, et al., 2022) ・攻撃検知により、ユーザーは攻撃をかわすことができ、少なくともモデルを停止させることで、危害を加えることを防ぐことができる。これには、強化学習の時間的連続性を利用することができる。多くの場合、時間的な結合があるため、履歴から次の状態をある程度予測することができる。これは、例えばカメラによってプロバイダから提供されるような、「視覚的」と解釈できるタイプの状態には特に当てはまる。観測された状態が、ある適切な意味において、予想された状態から離れすぎている場合、攻撃が想定されるかもしれない。このようにして攻撃や異常事態が検知された場合、考えられる一つの反応は、実際の観測を予測された状態に切り替えることである。このようなアプローチは、状態の関連履歴を変更せざるを得ない攻撃者の労力を増大させるかもしれない。これは例えば、(Tekgul、et al.、2021)や(Xiong、et al.、2022)に示されている。
• One of the most prevalent methods to defend against such attacks is to make the model more robust by adversarial training. For this purpose, the aforementioned attacks during training time can be intentionally deployed in a controlled manner, see e.g. (Robust Deep Reinforcement Learning with Adversarial Attacks, 2018) ・このような攻撃を防御する最も一般的な方法の一つは、敵対的訓練によってモデルをより頑健にすることである。この目的のために、訓練時間中の前述の攻撃を制御された方法で意図的に展開することができる、例えば(Robust Deep Reinforcement Learning with Adversarial Attacks、2018)を参照されたい。
• Besides adversarial training, methods of robust optimization can help to create more robust policies, as can be seen in e.g. (Wang, 2022). With this ansatz, instead of searching for the policy that creates the greatest return, one looks at the worst case under an attack and chooses the policy that performs best in that situation. Therefore, one can effectively cap the damage. ・敵対的な学習以外にも,堅牢最適化の手法は,より堅牢なポリシーの作成に役立つ。このアナタツでは,最大のリターンを生み出すポリシーを探索する代わりに,攻撃下での最悪のケースに注目し,その状況で最高のパフォーマンスを発揮するポリシーを選択する。したがって,効果的に損害に上限を設けることができる。
To effectively use the last two methods, one needs to define a suitable search range. That is, a maximal effort one expects the attacker to put into the attack, as well as a minimal deviation that is interesting. The importance of this is e.g. apparent in attacks on the states. There, one would search the whole state space for worst cases if no maximal effort is defined. If no minimal threshold is chosen, attacks are detected when the observed state is just barely different from the predicted state. 最後の2つの方法を効果的に使うには、適切な探索範囲を定義する必要がある。つまり、攻撃者が攻撃に費やすと予想される最大の努力と、興味深い最小の偏差である。このことの重要性は、例えば状態に対する攻撃で明らかである。そこでは、最大限の努力が定義されていない場合、最悪のケースについて状態空間全体を探索することになる。最小の閾値が選択されない場合、攻撃は、観測された状態が予測された状態とぎりぎり異なるときに検知される。
All of the described methods increase robustness but typically decrease optimal performance. An analysis of this trade off is necessary to find the acceptable amount of optimality with highest possible robustness. 説明した方法はすべて堅牢性を高めるが、一般的に最適性能を低下させる。このトレードオフの分析は、可能な限り高い堅牢性を持つ最適性の許容量を見つけるために必要である。
4 Policy Injection 4 ポリシー・インジェクション
Policy injection attacks aim to implement a specific given policy. We also consider a weaker form of policy injection, where the attacker does not want to inject a completely new policy, but rather just aims for the system to reach a specific state. ポリシー・インジェクション攻撃は、特定の与えられたポリシーを実行することを目的とする。また、攻撃者が完全に新しいポリシーを注入するのではなく、システムが特定の状態に到達することだけを目的とする、より弱い形のポリシー注入も考える。
Policy injections differ from the attacks in the previous section, because they do not necessarily imply minimization of return. One could argue that reward minimization is a form of policy injection, implementing the policy for reward minimization. However, since the used attacks tend to differ, we separate the two attack classes. ポリシー・インジェクションは前節の攻撃とは異なり、必ずしもリターンの最小化を意味しない。報酬の最小化はポリシー注入の一形態であり、報酬最小化のためのポリシーを実装している、と主張することもできる。しかし、使用される攻撃は異なる傾向があるので、2つの攻撃クラスを分離する。
Examples for this type of attack are: この種の攻撃の例としては、以下のようなものがある:
• An autonomous driving system that is based on Reinforcement Learning is working correctly in most cases, and hence no problem is noticed. Then in deployment, the agent is presented with a traffic sign that has a sticker on it. This sticker was malevolently introduced in the training as a trigger, and the agent reacts to it by leaving the road and crashing the car. ・強化学習に基づく自律走行システムは,ほとんどの場合正しく動作しており,したがって問題はない。しかし配備中に,エージェントはステッカーが貼られた交通標識を提示される。このステッカーは訓練でトリガーとして悪意を持って導入されたもので,エージェントはそれに反応して道路から離れ,車を衝突させる。
• A Reinforcement Learning agent is set up to manage a production line. By altering the states, an attacker changes the policy. The policy still reaches the goal, but the costs are increased, maybe by higher energy consumption. ・強化学習エージェントは,生産ラインを管理するように設定されている。状態を変更することで,攻撃者はポリシーを変更する。ポリシーはゴールに到達するが,エネルギー消費が増えるなど,コストが増加する。
4.1 Attacks at Training Time 4.1 トレーニング時の攻撃
In order to make the agent follow a specific policy at operation time, a backdoor approach can be taken: In the training, the attacker tries to place a trigger, which the agent learns. If the agent is presented with the trigger during operation, it will follow the specified policy. 操作時にエージェントを特定のポリシーに従わせるために、バックドアアプローチを取ることができる: トレーニングにおいて、攻撃者はエージェントが学習するトリガーを設置しようとする。もしエージェントが動作中にトリガーを提示されれば、指定されたポリシーに従うようになる。
• One way to implement such a backdoor is via Reward Hacking, i.e. changing the reward function in the training phase. In contrast to reward minimization, a deeper knowledge of the state and action space is necessary to create a specific policy. If the attacker only aims at reaching a specific state, raising the reward for actions reaching this state can already be enough. ・このようなバックドアを実装する1つの方法は,報酬ハッキング,すなわち訓練段階で報酬機能を変更することである。報酬の最小化とは対照的に,特定のポリシーを作成するためには,状態と行動空間に関するより深い知識が必要となる。攻撃者が特定の状態に到達することだけを目的とするのであれば,その状態に到達する行動に対する報酬を上げれば十分である。
• One can also force the agent to learn a specific policy by changing state observations, actions or transition probabilities. This however requires a deep understanding of the dependencies between these values and their interdependencies. This is in general only possible with full white box knowledge of the system. Therefore, these attacks are not as easy to carry out as backdoor attacks with Reward Hacking. ・また,状態観測,行動,または遷移確率を変更することで,エージェントに特定のポリシーを学習させることもできる。しかし,そのためには,これらの値間の依存関係や相互依存関係を深く理解する必要がある。これは一般に,システムの完全なホワイトボックス知識がなければ不可能である。従って,これらの攻撃は,報酬ハッキングによるバックドア攻撃ほど簡単には実行できない。
4.2 Attacks at Deployment 4.2 展開時の攻撃
What makes attacks at deployment difficult is the existence of an already established policy that needs to be, in some way, overruled. 配備時の攻撃を難しくしているのは、何らかの方法で覆す必要のある、すでに確立されたポリシーが存在することである。
• If the attacker can set the actions, the injection of a policy is trivial. Therefore, this needs to be prevented by classical IT security measures, like access control. ・攻撃者がアクションを設定できれば,ポリシーの注入は些細なことだ。したがって,これはアクセス制御のような古典的なITセキュリティ対策によって防ぐ必要がある。
• If the attacker can only slightly change the actions, but not set them freely, a policy injection attack is still possible. For this, white box knowledge, in particular about how the action is influencing the environment and thereby the states and through that the agent, is necessary. This is shown in (Provably Efficient Black-Box Action Poisoning Attacks Against Reinforcement Learning, 2021). ・攻撃者がアクションを少し変更できるだけで、自由に設定できない場合、ポリシー注入攻撃はまだ可能である。このためには、ホワイトボックス知識、特にアクションがどのように環境に影響を与え、それによって状態、そしてそれを通してエージェントに影響を与えるかについての知識が必要である。これは(Provably Efficient Black-Box Action Poisoning Attacks Against Reinforcement Learning、2021)で示されている。
• The same holds, if the attacker is able to change the state observations or the transition probabilities. To get knowledge about the deployed policy, the ansatz of a shadow model can also be used in this sort of attacks. ・攻撃者が状態観測や遷移確率を変更できる場合も同様である。展開されたポリシーに関する知識を得るために,シャドーモデルのansatzもこの種の攻撃に利用できる。
If we look at the somewhat weaker attack that aims to reach at a certain state, then the attacker can get by with black box knowledge more often. If there is some sort of predictability in the system, or if the attacker can change the transition probabilities, the system might be tricked into reaching the goal state of the ある状態に到達することを目的とした、やや弱い攻撃を見てみると、攻撃者はブラックボックスの知識でやり過ごせることが多い。もしシステムにある種の予測可能性があれば、あるいは攻撃者が遷移確率を変えることができれば、システムを騙して目標の状態に到達させることができるかもしれない。
attacker. This type of attack is sometimes called ‚Enchanting Attack‘ (Tactics of Adversarial Attack on Deep Reinforcement Learning Agents, 2017). 攻撃者の目標状態に到達するようにシステムをだますかもしれない。この種の攻撃は「魅惑攻撃」と呼ばれることがある(Tactics of Adversarial Attack on Deep Reinforcement Learning Agents、2017)。
4.3 Defences 4.3 防御
The defence mechanisms we saw in the previous section increasing the robustness of the system can also help against the presented policy injection attacks during deployment. 前節で見たシステムの堅牢性を高める防御メカニズムは、デプロイ時に提示されたポリシー・インジェクション攻撃に対しても役立つ。
Against backdoor attacks, we will present some more specific defences here. バックドア攻撃に対して、ここではより具体的な防御策をいくつか紹介する。
• One possibility is to use a projection method. There, the basic assumption is that the triggers, which are special states, are usually placed outside of common states, so they are not detected easily. If that is the case, one can create a subspace from a clean collection of common states, that by assumption do not contain a trigger, and project observations on this subspace, eliminitating the trigger in the process (Provable Defense against Backdoor Policies in Reinforcement Learning, NeurIPS, 2022). ・一つの可能性は、投影法を使うことである。そこでは、特殊な状態であるトリガーは通常、一般的な状態の外側に配置されるため、容易に検知されないという基本的な前提がある。もしそうであれば、トリガーを含まない前提で、共通状態のクリーンなコレクションから部分空間を作成し、この部分空間にオブザベーションを投影し、その過程でトリガーを排除することができる(Provable Defense against Backdoor Policies in Reinforcement Learning、NeurIPS、2022)。
This also works with high-dimensional state spaces, but the sample complexity grows. これは高次元の状態空間でも機能するが、サンプルの複雑さが増大する。
• There have also been methods proposed, that try to detect the triggers. In (Backdoor Detection and Mitigation in Competitive Reinforcement Learning, 2023), an agent is trained to look for states that lead to a drop in the return of the Reinforcement Learning system. If such states are detected, a backdoor is assumed. Then, an unlearning step might be possible to sanitize the system. This uses the observation that often states near the trigger also lead to drops in the return. Alternatively, if this is not possible or if one is unsure if every backdoor is detected, the system can be replaced with a new one, trained on clean data.   ・また、トリガーを検知しようとする手法も提案されている。(Backdoor Detection and Mitigation in Competitive Reinforcement Learning、2023)では、強化学習システムのリターンが低下する状態を探すようにエージェントが訓練される。そのような状態が検知された場合、バックドアが想定される。そして、システムをサニタイズするために、学習解除ステップが可能かもしれない。これは、しばしばトリガーに近い状態もリターンの低下につながるという観察を利用する。あるいは、これが不可能な場合、あるいはすべてのバックドアが検知されるかどうか確信が持てない場合、システムをクリーンなデータで学習させた新しいものに置き換えることもできる。 
5 Privacy Attacks 5 プライバシー攻撃
Privacy attacks are very different in nature to the previously described attacks. They do not disturb the functionality of the system, but rather want to extract some sort of information from the Reinforcement Learning system. This can be e.g. information about the reward function, about the training environment or the policy itself. Often, this information is critical, especially protected or of economical interest. It is therefore important to protect the system from leaking information to others. Examples for information leaks are: プライバシー攻撃は、先に述べた攻撃とは性質が大きく異なる。それらはシステムの機能を妨害するのではなく、むしろ強化学習システムから何らかの情報を抽出しようとする。例えば、報酬機能に関する情報、学習環境に関する情報、あるいは方針そのものに関する情報である。多くの場合、この情報は重要であり、特に保護されているか、経済的な関心がある。したがって、システムが他者に情報を漏らさないように保護することが重要である。情報漏洩の例としては、以下のようなものがある:
• A Reinforcement Learning agent is used to assist in medical diagnosis. It was trained on data from real patients. This data is highly sensitive, and an attacker could try to reconstruct patient information through querying the system. ・強化学習エージェントは,医療診断を支援するために使用される。このエージェントは実際の患者からのデータで訓練されている。このデータは非常に機密性が高く,攻撃者はシステムに問い合わせることで患者情報を再構築しようとする可能性がある。
• The navigation of a robot is done via Reinforcement Learning. It was trained in a special parcour, which was built after extensive and costly testing. An attacker might extract a map of this training ground from the behaviour of the robot. ・ロボットのナビゲーションは強化学習によって行われる。ロボットのナビゲーションは,強化学習によって行われる。強化学習は,大規模かつ高価なテストを経て構築された特別なパルクールで行われる。攻撃者はロボットの行動からこの訓練場の地図を抽出するかもしれない。
• An agent was trained to perform on a very high level, so it is the best on the market. A competitor queries the model and by imitating it gets a good model with low effort. ・エージェントは非常に高いレベルで動作するように訓練されているので,市場で最高である。競合はそのモデルを照会し,それを模倣することで,少ない労力で優れたモデルを手に入れる。
5.1 Attacks at Deployment 5.1 展開時の攻撃
We only present attacks during deployment, as during training time, classical IT security is most relevant, and there are no Reinforcement Learning specific attacks during training we know of. At deployment phase, the system has gathered all the information during training and has become vulnerable to extraction. トレーニング中は、古典的なITセキュリティが最も重要であり、トレーニング中に強化学習特有の攻撃は存在しない。デプロイメント段階では、システムはトレーニング中にすべての情報を収集し、抽出に対して脆弱性を持つようになる。
• In the previous sections, a possible use of a stolen policy has been shown. There, a shadow model that imitates the true model has been used to get gradients or other information in a black box setting. A way to get this shadow model is via imitation learning (Chen, et al., 2020). Here, the attacker trains a model on queries or observations of the target system, with the goal to act the same. This works better, if the basic architecture of the target is known, but can also be done with black box knowledge. ・前のセクションで,盗まれたポリシーの使用可能性が示された。そこでは,真のモデルを模倣したシャドーモデルが,ブラックボックス設定で勾配やその他の情報を得るために使用されている。このシャドーモデルを得る方法として,模倣学習がある(Chen、et al.) ここで攻撃者は,ターゲットシステムのクエリや観察に基づいてモデルを訓練し,同じ動作をすることを目標とする。これは攻撃対象の基本的なアーキテクチャーがわかっている場合に有効だが,ブラックボックス的な知識でも可能である。
• If the attacker has knowledge about the reward function and the state and action space, the reconstruction of the transition probabilities is possible. This means, it is possible to extract information about the training environment. In (How You Act Tells a Lot: Privacy-Leaking Attack on Deep Reinforcement Learning, AAMAS, 2019) an actual map of the training room a robot was trained in was reconstructed. ・攻撃者が報酬機能と状態・行動空間に関する知識を持っていれば、遷移確率の再構築が可能である。つまり、訓練環境に関する情報を抽出することが可能である。How You Act Tells a Lot: Privacy-Leaking Attack on Deep Reinforcement Learning、AAMAS、2019)では、ロボットが訓練された訓練室の実際の地図が再構築された。
• Attacks on the reward function can also leak important information and should not be ignored. Even when the policy is trained in a privacy-preserving manner, the reward function might still be vulnerable. (Prakash, et al., 2021) show, how this can be done with an inverse Reinforcement Learning approach. There, based on the optimal policy, the reward function is reconstructed with linear programming, i.e. one finds what reward function leads most likely to the policy at hand. Note that inverse Reinforcement Learning presents a whole class of methods, and other methods in addition to linear programming exist. ・報酬機能への攻撃も重要な情報を漏らす可能性があり、無視できない。ポリシーがプライバシーを守る方法でトレーニングされたとしても、報酬関数は脆弱性を持つ可能性がある。(Prakash, et al., 2021) 逆強化学習アプローチで、これがどのようにできるかを示す。そこでは、最適な方針に基づいて、報酬関数が線形計画法で再構築される、 すなわち、どのような報酬関数が手元の政策に最も近いかを見つける。逆強化学習は,一群の方法を提示し,線形計画法以外の方法も存在することに注意されたい.
5.2 Defences 5.2 防衛
The general concept of the typical defence mechanisms discussed in literature is built on Differential Privacy (Differential Privacy, ICALP, 2006). Formulaic, for a stochastic mechanism M and any two training sets U, U‘ that only differ in one data point, this is written as 文献で議論されている典型的な防御メカニズムの一般的概念は、差分プライバシー(Differential Privacy、ICALP、2006)に基づいて構築されている。数式で説明すると、確率的メカニズムMと、1つのデータポイントだけが異なる2つの学習セットU、U'に対して、これは次のように書かれる。
𝑃[𝑀(𝑈)] ≤ 𝑒𝜖𝑃[𝑀(𝑈′)] + 𝛿 𝑃[𝑀(𝑈)] ≤ 𝑒𝜖𝑃[𝑀(𝑈′)] + 𝛿
for some non-negative parameters 𝜖, 𝛿. 𝑃 denotes here the probabilities of different results of the mechanism, not the transition function. For smaller 𝜖 and 𝛿 it gets harder to tell what dataset the mechanism M was applied to. は、非負のパラメータ 𝜖、𝛿 に対応する。ここで ↪Lu_1D443 は、遷移関数ではなく、メカニズムの異なる結果の確率を表す。𝜖とǿが小さくなると、メカニズムMがどのデータセットに適用されたかを見分けるのが難しくなる。
Differential Privacy is typically implemented by adding stochastic noise to different values. These values can include: 差分プライバシーは通常、異なる値に確率的ノイズを加えることで実装される。これらの値には以下が含まれる:
• network parameters, ・ネットワーク・パラメータ
• rewards, ・報酬
• value functions, ・値機能、
• loss function, ・損失関数、
• training observations or  ・学習オブザベーション
• transition probabilities. ・遷移確率である。
In order to apply the noise at every time step, a suitable stochastic process with fitting parameters must be chosen. Adding the noise makes it unclear, if information one extracted is a real datapoint or one added through noise, thereby protecting the real data. 時間ステップごとにノイズを適用するためには、適切な確率過程とそれに適合するパラメータを選択しなければならない。ノイズを加えることで、抽出された情報が実際のデータポイントなのか、ノイズによって追加されたものなのかを不明確にし、実際のデータを保護する。
The drawback of this approach is, that it adds a computational overhead and can slow down the training and can make it computationally harder. Furthermore, if unique datapoints are important, this approach can lower the quality of the agent. Moreover, finetuning of hyperparameters, in particular the size of noise, can be challenging. このアプローチの欠点は、計算オーバーヘッドが追加され、トレーニングが遅くなり、計算が難しくなることである。さらに、ユニークなデータポイントが重要な場合、このアプローチはエージェントの質を低下させる可能性がある。さらに、ハイパーパラメータ、特にノイズの大きさの微調整は困難である。
Of course, classical IT security is especially important for privacy attacks. If an attacker is able to gain access to the model data or the training environment, no extraction algorithm is necessary and the attacker can directly pull the information from the system. もちろん、古典的なITセキュリティはプライバシー攻撃に対して特に重要である。攻撃者がモデルデータや訓練環境にアクセスすることができれば、抽出アルゴリズムは必要なく、攻撃者はシステムから直接情報を引き出すことができる。
6 Conclusion 6 結論
Reinforcement Learning has some specific vulnerabilities that we presented here. We categorized them into three attack classes and presented possible defences. Note, that we do not claim to be comprehensive. All defences can help mitigate attacks, but they do not guarantee complete security. Furthermore, they do affect the performance of the model. The defence mechanisms may lead to suboptimal policies, a trade off users should be aware of. Effects like that should be carefully assessed in a risk reward analysis. That the performance can decrease when using defence mechanisms becomes apparent, when we see that some of the defences can also be used as intentionally placed attacks during training. 強化学習には、ここで紹介したような特有の脆弱性がある。我々はそれらを3つの攻撃クラスに分類し、可能な防御策を示した。なお、我々は包括的であると主張しているわけではない。すべての防御策は攻撃を軽減するのに役立つが、完全なセキュリティを保証するものではない。さらに、これらはモデルの性能に影響を与える。防御メカニズムは、最適でないポリシーを導くかもしれない。このような影響は、リスク報酬分析において注意深く評価されるべきである。防御メカニズムを使用するとパフォーマンスが低下する可能性があることは、トレーニング中に防御の一部が意図的に配置された攻撃として使用される可能性があることを見れば明らかである。
Additionally, the defence strategies often introduce additional computation time and effort, which should be included in the considerations. 加えて、防御戦略はしばしば追加の計算時間と労力をもたらすので、それも考慮しなければならない。
As some applications for Reinforcement Learning are critical, attacks can present substantial dangers to the privacy of protected data as well as to the integrity and availability in crucial sectors, e.g. autonomous driving or health applications. Hence, defence mechanisms should often not be neglected, and the drawbacks can be well worth.   強化学習のいくつかのアプリケーションは重要であるため、攻撃は、保護されたデータのプライバシーだけでなく、例えば自律走行や健康アプリケーションのような重要な分野での完全性と可用性に大きな危険をもたらす可能性がある。したがって、防御メカニズムはしばしば無視されるべきではなく、その欠点は十分に価値がある。 

 

 

| | Comments (0)

2024.01.23

NIST SP 800-55 第1巻(初期ドラフト) 情報セキュリティのための測定ガイド:第1巻 - 措置の識別と選択、第2巻 - 情報セキュリティ測定プログラムの策定 (2024.01.17)

こんにちは、丸山満彦です。

NISTが、NIST SP 800-55 第1巻(初期ドラフト) 情報セキュリティのための測定ガイド

  • 第1巻 - 措置の識別と選択
  • 第2巻 - 情報セキュリティ測定プログラムの策定

の改訂版の初期ドラフトを公開し、意見募集をしていますね。。。

リスクアセスメントについては、リスクマネジメントの一環として、金融のリスクも併せて勉強していたことはあるのですが、情報セキュリティ分野に信用リスクのような定量的なリスク分析を持ち込むのは難しいと思い、一旦横においていたのですが...ゆるい定量リスクということであれば、直感的なリスクよりも、すこしはましだろうとは思っているので、これを機会に勉強をしておこうかな。。。

 

第1巻 - 措置の識別と選択

  • 情報セキュリティ対策の策定、選択、優先順位付けに対する柔軟なアプローチ。
  • 定量的評価と定性的評価の両方を検討し、データ分析手法や影響度・尤度モデリングに関する基本的なガイダンスを提供する。

 

第2巻 - 情報セキュリティ測定プログラムの策定

  • 情報セキュリティ測定プログラムの構造を策定し、実施するための方法論

 

 ● NIST - ITL

・2024.01.17 NIST SP 800-55 Vol. 1 (Initial Public Draft) Measurement Guide for Information Security: Volume 1 — Identifying and Selecting Measures

・[PDF] SP.800-55v1.ipd

20240123-61128

目次...

1. Introduction 1. 序文
1.1. Purpose and Scope 1.1. 目的と範囲
1.2. Relationship to Other NIST Publications 1.2. 他のNIST出版物との関係
1.3. Document Organization 1.3. 文書の構成
1.4. Document Terminology 1.4. 文書の用語
2. Fundamentals 2. 基礎知識
2.1. Types of Assessment 2.1. アセスメントの種類
2.2. Benefits of Using Measures 2.2. メジャーを使用する利点
2.3. Measurement and Quantitative Assessment 2.3. 測定と定量的評価
2.4. Measurement Considerations 2.4. 測定に関する考慮事項
 2.4.1. Measures Documentation  2.4.1. 対策の文書化
 2.4.2. Data Management  2.4.2. データ管理
 2.4.3. Data Quality  2.4.3. データの質
 2.4.4. Uncertainty and Errors  2.4.4. 不確実性とエラー
2.5. Metrics 2.5. 指標
3. Selecting and Prioritizing Measures 3. 尺度の選択と優先順位付け
3.1. Identification and Definition 3.1. 識別と定義
3.2. Types of Measures 3.2. 対策の種類
 3.2.1. Implementation Measures  3.2.1. 実施対策
 3.2.2. Effectiveness Measures  3.2.2. 効果測定
 3.2.3. Efficiency Measures  3.2.3. 効率対策
 3.2.4. Impact Measures  3.2.4. インパクト対策
 3.2.5. Comparing Measures and Assessment Results  3.2.5. 対策と評価結果の比較
3.3. Prioritizing Measures 3.3. 対策の優先順位付け
 3.3.1. Likelihood and Impact Modeling  3.3.1. 可能性と影響のモデリング
 3.3.2. Weighing Scale  3.3.2. 計量尺度
3.4. Evaluating Methods for Supporting Continuous Improvement 3.4. 継続的改善を支援する方法の評価
References 参考文献
Appendix A. Glossary 附属書A. 用語集
Appendix B. Data Analysis Dictionary 附属書B. データ分析辞典
B.1. Bayesian Methodology B.1. ベイズの方法論
B.2. Classical Data Analysis B.2. 古典的データ分析
B.3. Exploratory Data Analysis B.3. 探索的データ分析
Appendix C. Modeling Impact and Likelihood 附属書C.影響と尤度のモデル化
C.1. Bayesian Methodology C.1. ベイズ法
C.2. Monte Carlo Methodology C.2. モンテカルロ法
C.3. Time Series Analysis C.3. 時系列分析
C.4. Value at Risk C.4. バリュー・アット・リスク
Appendix D. Change Log 附属書D. 変更記録

 

 

・2024.01.17 NIST SP 800-55 Vol. 2 (Initial Public Draft) Measurement Guide for Information Security: Volume 2 — Developing an Information Security Measurement Program

・[PDF] SP.800-55v2.ipd

20240123-61135

 

目次...

1. Introduction 1. 序文
1.1. Purpose and Scope 1.1. 目的と範囲
1.2. Relationship to Other Publications 1.2. 他の出版物との関係
1.3. Document Organization 1.3. 文書の構成
1.4. Document Terminology 1.4. 文書の用語
2. Fundamentals 2. 基礎知識
2.1. Measurement Program Benefits 2.1. 測定プログラムの利点
2.2. Program Scope 2.2. プログラムの範囲
2.3. Foundations for a Successful Information Security Measurement Program 2.3. 情報セキュリティ測定プログラムを成功させるための基盤
2.4. Roles and Responsibilities 2.4. 役割と責任
2.5. Programmatic Value of Metrics 2.5. 測定基準のプログラム上の価値
2.6. Aggregation and Communication 2.6. 集計とコミュニケーション
2.7. Measurement Program Considerations 2.7. 測定プログラムに関する考察
 2.7.1. Organizational Considerations  2.7.1. 組織上の考慮事項
 2.7.2. Manageability  2.7.2. 管理可能性
 2.7.3. Data Management Concerns  2.7.3. データ管理に関する懸念
3. Information Security Measurement Program 3. 情報セキュリティ測定プログラム
3.1. Evaluation and Definition of the Existing Security Program 3.1. 既存のセキュリティ・プログラムの評価と定義
 3.1.1. Gathering Stakeholder Input  3.1.1. 利害関係者の意見の収集
 3.1.2. Goals and Objectives  3.1.2. 目標と目的
 3.1.3. Information Security Policies, Procedures, and Guidelines  3.1.3. 情報セキュリティ方針、手順、ガイドライン
 3.1.4. Evaluating Current Implementation  3.1.4. 現在の実施状況の評価
3.2. Identify and Prioritize Measures 3.2. 対策の識別と優先順位付け
3.3. Identify and Prioritize Measures 3.3. 対策の識別と優先順位付け
 3.3.1. Identify and Prioritize Measures  3.3.1. 対策の識別と優先順位付け
 3.3.2. Identify Corrective Actions  3.3.2. 是正措置の識別
 3.3.3. Apply Corrective Actions  3.3.3. 是正措置の適用
References 参考文献
Appendix A. Glossary 附属書A. 用語集
Appendix B. Change Log 附属書 B. 変更記録

 

1_20240123063401

Fig. 2. Information security measurement program workflow

 

 

 

| | Comments (0)

Atlantic Council 2024年の世界予測 - 今年のトップリスクと機会、6つの注目すべきこと、10年後の世界

こんにちは、丸山満彦です。

Atlantic Councilの世界予測についての紹介です。Atlantic Council [wikipedia]は米国のThink tankですが、英国政府からの寄付金も多いようです...あとFacebook...

 

Atlantic Councilによる300名の有識者への質問の結果です。。。約6割が米国人、中国人もロシア人も1人。日本人は0。

Atlantic Council

1_20240123051901

 

・2024.01.17 Global Foresight 2024

完全な調査結果...

・2024.01.12 The Global Foresight 2024 survey: Full results

  • 10年後は今よりも悪くなっているかも...
  • 10年後も米国は、軍事力、ITは覇者だけど、経済とか外交は弱まっているかも...
  • 10年後は米中関係は、今より冷え込むかも...
  • 10年後は中国は台湾を併合しているかも...でも、ロシアとNATOは直接対決しないだろう...
  • 10年間に破綻しそうな国は、ロシア?、パキスタン?
  • 10年間で核兵器を保有しそうな国は、イラン、サウジアラビア、韓国、日本!...
  • 10年のうちに核兵器は利用されることはないとは思うけど、ひょっとしたらテロリストが使ってしまう?
  • 10年後には、ウクライナはEU、NATOの一員?
  • 10年後には、イスラエルはサウジアラビアと国交正常化している?
  • 10年間で、国連は機能しなくなる?
  • 10年以内に国連安全保障理事国になる国はないとは思うけど、もし、あるとするならインド?
  • 10年間でロシアは政治的に崩壊する?
  • 10年間で国際協力が進む分野はやはり環境問題!
  • 10年後も中国共産党は安泰だし、北朝鮮のキム主席もたぶんそう、でも、プーチンはもう大統領ではないだろう...
  • 10年間で女性の権利は拡大される
  • 10年間で、バイオテクノロジーも量子技術も良い使い方をされる、AIはまさに半々、SNSは悪い使い方される
  • 10年間で大規模な環境問題解決運動をするかもだけど、温室ガスの排出は今と同じくらい?
  • 10年間で民主主義国家は今と同じくらいか、へっているかも...
  • 10年間で世界の貧困は増えるかも、減るかも、、、
  • 10年間の世界の繁栄の唯一の脅威は、やはり気候変動かな...
  • 10年間で、欧州は戦略的に自立することはないし、インドは独自路線を歩みそう。米国は欧州、アジア、中得と同盟関係は維持しそう。ロシアと中国は正式な同盟関係になるかどうかはわからない。世界の多極化は進み、米国派と中国派にわかれるかどうかはわからない...

 

10のテーマに分けた分析...

・2024.01.12 Welcome to 2034: What the world could look like in ten years, according to nearly 300 experts

  1. イスラエルとその近隣諸国
  2. 台湾をめぐる対立
  3. ポスト・プーチンの時代
  4. 米国パワーの軌跡
  5. 国際機関への信頼
  6. 無秩序な核時代
  7. ウクライナの将来
  8. 気候変動の脅威
  9. AIの時代
  10. 悲観的な世界的見通し

 

専門家が指摘するあまり注目されていないが、6つの注目すべき項目(6匹のユキヒョウ)...

・2024.01.17 Six ‘snow leopards’ to watch for in 2024

  • 南極(資源、地政学的価値)
  • 航路(海の安全、川の水位低下)
  • 超白色ペンキによる熱反射
  • 長距離精密兵器の拡散
  • 太平洋の島国の地政学的重要性
  • 淡水化技術の進歩

 

2024年のトップリスク・機会

・2024.01.17 The top risks and opportunities for 2024

(1)可能性は高くない <-> (5) 可能性が高い...

  • (4) イスラエルとハマスの対立は、より広範な中東戦争の引き金となる
  • (3) ウクライナ勝利の可能性は後退、欧米の支援も薄れる
  • (2) 気候変動が引き起こした暴風雨が巨大都市を壊滅させる
  • (2) 中国が台湾を封鎖、米国と衝突の危険性
  • (3) 核保有国と通常兵器が衝突し、核がエスカレートする危険性がある。
  • (3) 気候変動に対する進展がないため、各国は、あるいは裕福な市民は、自らの手で問題を解決するようになる。
  • (4) アフリカの "クーデター・ベルト "が拡大し、社会的・経済的進歩が阻害され
  • (5) 中国がラテンアメリカとカリブ海諸国への影響力を強め、米国を犠牲にする
  • (3) 世界の民主主義を活性化させる重要な選挙
  • (5) AIが主流になり、あらゆる場所に広がる
  • (2) ウクライナがロシアとの戦いで突破口を開く
  • (5) 離陸する宇宙経済
  • (4) アフリカが世界の主要フォーラムで議題設定力を獲得
  • (1) 国連安全保障理事会が改革され、低下していた正当性が強化される
  • (3) 公海条約が批准され、世界の海洋の集団管理が進む
  • (3) 重要鉱物のサプライチェーンが方向転換を始める

世界的にみると日本は商業ベースでの宇宙開発が遅れているように感じるのですが、どうなんでしょうか???経済産業省の宇宙関連のセキュリティのSWGのメンバーでもあるのですが...

 


 

過去の記事も含めて...

トップページ... 2022 2023 2024
全項目    
10年後
6匹のユキヒョウ
トップリスク・機会

 

6匹のユキヒョウの意訳...

2022 2023 2024
気候変動対策の真のリーダーは都市 アルゴリズム規制の強化 南極(資源、地政学的価値)
遺伝子操作による無害な蚊 先進偉業の中国からの撤退 航路(海の安全、川の水位低下)
イノベーションの世界的拡大 バッテリー革命による電気自動車の普及 超白色ペンキによる熱反射
人工肉 プラットフォーム企業労働者の労働運動 長距離精密兵器の拡散
環境保護主義の台頭 地球工学(改造) 太平洋の島国の地政学的重要性
飢餓が引き起こす紛争 日韓の和解によるインド太平洋地域の変化 淡水化技術の進歩

 

 

| | Comments (0)

2024.01.22

欧州 EDPB 個人データ処理のセキュリティとデータ侵害通知に関するワンストップショップ事例概要の公表

こんにちは、丸山満彦です。

欧州のEDPBが、個人データ処理のセキュリティとデータ侵害通知に関するワンストップショップ事例概要を公表していますね。。。いろいろと参考になるかもしれませんが、具体的な事例にあたると言語が... 欧州だから(^^)...

ちなみにGDPRの条文...

GDPR

Art. 32 Security of processing

Art. 33 Notification of a personal data breach to the supervisory authority

Art. 34 Communication of a personal data breach to the data subject

 

European Data Protection Board; EDPB

・2024.01.18 EDPB publishes OSS case digest on Security of Processing and Data Breach Notification

EDPB publishes OSS case digest on Security of Processing and Data Breach Notification EDPB、処理のセキュリティとデータ侵害通知に関するOSS事例概要を公表
The EDPB has published a thematic one-stop-shop case digest on Security of Processing (Art. 32 GDPR) and Data Breach Notification (Art. 33 & 34 GDPR). EDPBは、データ処理のセキュリティ(GDPR第32条)およびデータ侵害通知(GDPR第33条および第34条)に関するテーマ別のワンストップショップ事例概要を公表した。
Since the entry into force of the GDPR, data protection authorities (DPAs) have closely cooperated to adopt a growing number of one-stop-shop decisions on data security and data breaches. GDPRの発効以来、データ保護当局(DPA)は緊密に協力し、データセキュリティとデータ侵害に関するワンストップショップの決定が増え続けている。
The case digest offers valuable insights on how DPAs have interpreted and applied GDPR provisions in diverse scenarios, such as hacking, ransomware, or accidental data disclosure. 事例概要は、ハッキング、ランサムウェア、偶発的なデータ開示など、多様なシナリオにおいて、DPAがGDPRの規定をどのように解釈し、適用してきたかについての貴重な洞察を提供する。
Case handlers working within DPAs now have a rich pool of analyses of security incidents, along with the corresponding security measures found to be appropriate or not in the specific context. DPAのケース担当者は、セキュリティインシデントに関する豊富な分析結果を、特定の状況において適切または不適切と判断された対応するセキュリティ対策とともに入手することができる。
The summary and analysis of these decisions are useful for organisations (both controllers and processors) when assessing whether their security measures are appropriate, both before and following a data breach. これらの判断の要約と分析は、組織(データ管理者と処理者の両方)にとって、データ侵害の前と後の両方において、自社のセキュリティ対策が適切かどうかを評価する際に有用である。
This is the second instalment of the EDPB’s case digests, which look at a selection of one-stop-shop decisions taken from the EDPB’s public register. The one-stop-shop case digest are produced within the framework of the EDPB Support Pool of Experts, a strategic initiative that helps DPAs increase their capacity to supervise and enforce.  この概要は、EDPBの公開登録から抜粋したワン・ストップ・ショップ判決を取り上げるもので、EDPBのケース・ダイジェストの第2弾である。ワンストップショップのケースダイジェストは、EDPBサポート専門家集団の枠組みの中で作成されており、DPAの監督・執行能力の向上を支援する戦略的イニシアチブである。

 

・2024.01.18 One-Stop-Shop case digest on Security of Processing and Data Breach Notification

 

20240122-53709

 

 

 

| | Comments (0)

総務省 経済産業省 意見募集 「AI事業者ガイドライン案」

こんにちは、丸山満彦です。

AI戦略会議の「[PDF]AIに関する暫定的な論点整理」(2023.05.26) による検討を踏まえ、経済産業省「AI事業者ガイドライン検討会」、総務省「AIネットワーク社会推進会議」を開催し、両会議での検討を踏まえ「AI事業者ガイドライン案」ができたようですね。。。

内容については、昨年末に私のブログ(2023.12.23 総務省 経済産業省 AI事業者ガイドライン案
)で紹介していますので、それをみれば目次的なことは大体わかるかもです。。。

 

欧州、中国は法制度により、米国は大統領令に基づく政府調達を通じてAIを規制しようとしていますが、日本はガイドラインでソフトに行く感じですかね。。。それぞれ、お国柄ですかね。。。

米国の主要AI製造者のCEOは欧州が規制をするのであれば、グローバルに展開する以上、それに従う必要があるので、自国で規制がなくても規制があるのと同じなので、米国でも法規制すべき、、、という意見をいっていたように思います。

マーケットが国際化している以上、国益を含む、あるべき国の姿を実現するための規制というのは、もはや外交手段の一つとなっているわけですよね。。。日本のAI事業者がグローバルに活躍しやすいようにするということも含めた、日本の国益にとって、どのような制度にすべきか?ということを本質的に議論をしないといけないのだろうと思います。そのために、日本は何を目指しているの?、どのような価値観を重要視しているの?ということについての、少なくとも国民的なコンセンサスがないと、そういうのを作りにくいのだろうと思います。。。(どんな優秀な学者や実務家を集めても...)

ということを考えると、欧州、中国が法制度に踏み切っているのは、欧州の価値観や、中国(習近平政権)が目指している姿が明確でコンセンサスがとられていることになっているからとも考えられますね。。。

しかし、規制が外交手段になるのであれば、国の目指す方向や価値観というのが明確になっていない国というのは、衰退していく可能性が高いのかもしれませんね。。。(企業でもそうかも知れませんが...)

 

雑談が長くなりましたが(^^)...

 

E-Gov パブリックコメント募集中

・2024.01.20 「AI事業者ガイドライン案」に関する意見募集

・[PDF] 「AI事業者ガイドライン案」本編

20240122-43226

 

・[PDF] 「AI事業者ガイドライン案」別添 

20240122-43323

 

 


 

経済産業省

・2024.01.19 「AI事業者ガイドライン案」の意見公募手続(パブリックコメント)を開始します

・・関連リンク

 

審議会・研究会 - ものづくり/情報/流通・サービス - AI事業者ガイドライン検討会 - AI事業者ガイドライン案

・資料

・・[PDF] 「AI事業者ガイドライン案」本編

・・[PDF] 「AI事業者ガイドライン案」別添

・参考資料

・・[PDF] 「AI事業者ガイドライン案」(概要)

20240122-44134

・・[PDF] Draft AI Guidelines for Business

・・[PDF] Draft AI Guidelines for Business - Appendices

・・[PDF] Outline of Draft AI Guidelines for Business

 

 


● 総務省

・2024.01.19 「AI事業者ガイドライン案」に関する意見募集

・・[PDF] 「AI事業者ガイドライン案」本編(別紙1)

・・[PDF] 「AI事業者ガイドライン案」別添(別紙2)

 

参考

 

価値観に関しては、このあたりも...

・2024.01.07 価値観の普及(輸出ではなく...)

 

 

| | Comments (0)

2024.01.21

欧州 EDPB データ保護責任者 (DPO) の役割と認知を促進するための改善点

こんにちは、丸山満彦です。

EDPBがGPDRが施行されてから5年を迎えるということで、各組織に設置されることになったデータ保護責任者 (Data Protection Officer; DPO) の能力が十分か等の状況について調査をしていますね。。。

次のような課題があると認識したようですね。。。

  • DPOの指定が必須であるにもかかわらず、指定されていない。
  • DPOの専門的知識とトレーニングが不十分である。
  • DPOは、GDPR/EUDPRの下で要求される業務を完全または明確に委託されていない。
  • DPOの利益相反および独立性の欠如
  • DPOによる組織の最高経営層への報告の欠如
  • 監督当局からのさらなるガイダンスが必要

環境は違いますが、日本でも同じ項目で調査をしてみても面白いかもしれませんね。。。

 

European Data Protection Board; EDPB

・2024.01.17 EDPB identifies areas of improvement to promote the role and recognition of DPOs

EDPB identifies areas of improvement to promote the role and recognition of DPOs EDPB、DPOの役割と認知を促進するための改善点を特定
Brussels, 17 January - During its latest plenary, the EDPB adopted a report on the findings of its second coordinated enforcement action, which focused on the designation and position of Data Protection Officers (DPOs). The report is the result of an EU-wide coordinated investigation and lists the obstacles currently faced by DPOs, along with a series of recommendations to further strengthen their role. ブリュッセル、1月17日 - EDPBは最新の本会議で、データ保護責任者(DPO)の指名と地位に焦点を当てた第2回協調執行行動の調査結果に関する報告書を採択した。この報告書は、EU全域を対象とした協調調査の結果であり、DPOが現在直面している障害と、その役割をさらに強化するための一連の勧告が記載されている。
Anu Talus, EDPB Chair said: “The Coordinated Enforcement Framework (CEF) enables data protection authorities (DPAs) to cooperate more closely on selected topics in order to achieve better efficiency and more consistency. DPOs play an important part in contributing to compliance with data protection law and promoting effective protection of data subject rights. Through the CEF, DPAs investigated whether DPOs have the means to fulfil their tasks, as required by the GDPR. The report provides an analysis of the challenges faced by DPOs, along with points of attention and recommendations to address these challenges.” EDPBのアヌ・タルス委員長は次のように述べた: 「調整された執行枠組み(CEF)により、データ保護当局(DPA)は、より良い効率性と一貫性を達成するために、特定のテーマについてより緊密に協力することができる。DPOは、データ保護法の遵守に貢献し、データ主体の権利の効果的な保護を促進する上で重要な役割を果たしている。CEFを通じて、DPAはDPOがGDPRで要求される任務を遂行する手段を有しているかどうかを調査した。報告書は、DPOが直面する課題の分析と、これらの課題に対処するための注意点および推奨事項を示している。"
In the course of 2023, 25 DPAs across the European Economic Area (EEA) (including the EDPS) launched coordinated investigations into this topic. Various organisations, as well as DPOs were contacted across the EEA, covering a wide range of sectors (both public and private entities), and more than 17,000 replies were received and analysed. Extensive data was collected offering valuable insights into the profile, position and work of DPOs 5 years after the entry into application of the GDPR.  2023年の過程で、欧州経済領域(EEA)全域の25のDPA(EDPSを含む)がこのテーマについて協調調査を開始した。DPOだけでなく、さまざまな組織がEEA全域で、幅広い分野(公共事業体、民間事業体の両方)にわたって接触し、17,000件以上の回答が寄せられ、分析された。GDPRの適用開始から5年後のDPOのプロフィール、立場、仕事について貴重な洞察を提供する広範なデータが収集された。
Despite some concerns and challenges faced by some DPOs  (such as the lack of designation of a DPO, even if mandatory; insufficient resources or expert knowledge for the DPO; DPOs not being fully entrusted with the tasks required under data protection law; lack of independence or of reporting to the highest management), the results are encouraging. The majority of the DPOs interrogated declare that they have the necessary skills and knowledge to do their work and receive regular trainings; they have clearly defined tasks in line with the GDPR and do not receive instructions on how to exercise their duties. In addition, they indicate that they are consulted in most cases, and provided with sufficient information to fulfil their tasks, and their opinions are followed quite well. Moreover, most consider that they have the means to do their job. However, there are still too many DPOs who are not in such a position.  一部のDPOが直面している懸念や課題(DPOの指定が必須であるにもかかわらず指定されていない、DPOのためのリソースや専門知識が不十分、DPOがデータ保護法で要求される業務を十分に任されていない、独立性や最高経営層への報告が不足しているなど)があるにもかかわらず、結果は勇気づけられるものであった。質問したDPOの大半は、業務に必要なスキルや知識を持ち、定期的な研修を受けていること、GDPRに沿った業務が明確に定義されていること、職務の遂行方法について指示を受けていないことを表明している。また、ほとんどの場合、相談を受け、業務を遂行するのに十分な情報がプロバイダから提供され、その意見にはかなり従っていると回答している。また、ほとんどの場合、職務を遂行するための手段を備えていると考えている。しかし、そのような立場にないDPOもまだまだ多い。
In order to address the challenges identified, the report lists some recommendations for organisations, DPOs and DPAs to strengthen DPOs’ independence and to guarantee that they have the necessary resources to carry out their tasks. Among others, the report encourages DPAs to carry out more awareness-raising activities, information and enforcement actions. The report also encourages organisations to ensure that DPOs have sufficient opportunities, time and resources to refresh their knowledge and learn about the latest developments. 指摘された課題に対処するため、報告書は、DPOの独立性を強化し、任務遂行に必要な資源を保証するために、組織、DPO、DPAに対するいくつかの勧告を挙げている。なかでも報告書は、DPAに対し、啓発活動や情報提供、強制執行を強化するよう促している。報告書はまた、DPOが知識を新たにし、最新の動向を学ぶための十分な機会、時間、資源を確保するよう組織に奨励している。
The report is accompanied by two appendices: the statistics gathered during this action and the national reports of each participating DPA. 報告書には2つの附属書が付されている。この行動で収集された統計と、各参加DPAの国内報告書である。
The CEF is a key action of the EDPB under its 2021-2023 Strategy, aimed at streamlining enforcement and cooperation among DPAs. The CEF 2024 action will be on the implementation of the right of access by data controllers. CEFは、EDPBの2021-2023年戦略における重要な活動であり、DPA間の執行と協力の合理化を目的としている。CEFの2024年アクションは、データ管理者によるアクセス権の実施に関するものである。

 

・2023.01.17 Coordinated Enforcement Action, Designation and Position of Data Protection Officers



・[PDF] Designation and Position of Data Protection Officers

20240121-64321

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY 要旨
In October 2020, the European Data Protection Board (EDPB) decided to set up a Coordinated Enforcement Framework (CEF) with a view to streamlining enforcement and cooperation among supervisory authorities, consistently with the EDPB 2021-2023 Strategy. A first CEF was conducted in 2021 on the Use of Cloud Services by Public Bodies. 2020年10月、欧州データ保護委員会(EDPB)は、EDPB 2021-2023年戦略と整合的に、執行と監督当局間の協力を合理化する観点から、調整執行枠組み(CEF)を設置することを決定した。最初のCEFは2021年に公共団体によるクラウドサービスの利用について実施された。
For the second CEF, the EDPB selected in September 2022 'the Designation and Position of Data Protection Officers' for its 2023 Coordinated Enforcement Action. 第2次CEFでは、EDPBは2022年9月に「データ保護オフィサーの任命と防御」を2023年の協調執行行動として選択した。
Throughout 2023, 25 supervisory authorities ('SAs') across the EEA launched coordinated investigations into the role of Data Protection Officers ('DPOs'). The CEF was implemented at national level in one or several of the following ways: (1) fact-finding exercise, (2) questionnaire to identify if a formal investigation is warranted, and/or (3) commencement of a formal enforcement investigation, or follow-up of ongoing formal investigations. 2023年を通じて、EEA全域の25の監督当局(SA)がデータ保護責任者(DPO)の役割について協調調査を開始した。CEFは、(1)実態調査、(2)正式な調査が必要かどうかを確認するためのアンケート、(3)正式な強制捜査の開始、または進行中の正式捜査のフォローアップ、のいずれか、または複数の方法で各国レベルで実施された。
Between November 2022 and February 2023, these supervisory authorities discussed the aims and the means of their actions in the context of the CEF. In this context, the SAs drafted a questionnaire in a neutral way so that it would be possible for either the controller/processor or the PO to fill it in. 2022年11月から2023年2月にかけて、これらの監督当局は、CEFの文脈における行動の目的と手段について協議した。この文脈で、監督機関は、管理者/処理者またはPOのいずれもが記入できるように、中立的な方法で質問票をドラフトした。
While doing this, they ensured that it would be possible for SAs to adjust the questionnaire or to draft their own, based on (or inspired by) the commonly drafted questionnaire. The present report aggregates the findings of all the supervisory authorities participating in the CEF. Particular attention is paid to challenges identified by supervisory authorities and/or respondents during the CEF action. その一方で、SAが一般的に作成された質問票を基に(あるいはそれに触発されて)、質問票を調整したり、独自の質問票を作成したりすることも可能であることを確認した。本報告書は、CEFに参加したすべての監督当局の調査結果を集約したものである。特に、CEFの活動中に監督当局および/または回答者によって特定された課題に注目している。
These include issues such as insufficient resources allocated to DPOs, insufficient expert knowledge and training of DPOs and risks of conflicts of interests. これには、DPOに割り当てられるリソースの不足、DPOの専門的知識やトレーニングの不足、利益相反のリスクなどの問題が含まれる。
This report provides, among other things, a list of recommendations that organisations, DPOs and/or SAs may take into account to address the challenges identified, without prejudice to the provisions of the GDPR/EUDPR and the powers of supervisory authorities. 本報告書は、特に、GDPR/EUDPRの規定および監督当局の権限を損なうことなく、特定された課題に対処するために、プロバイダ、DPOおよび/またはSAが考慮すべき勧告のリストを提供する。
List of recommendations / Points of attention 推奨事項/留意事項のリスト
Absence of designation of a DPO, even if mandatory DPOの指定が必須であるにもかかわらず、指定されていない。
◦ More initiatives by SAs could raise awareness among organisations regarding their obligation to designate a DPO, including as to whether or not a DPO is actually required. Further guidance from SAs on the applicable requirements to designate a DPO, further awareness campaigns to promote existing guidance on this topic and enforcement actions can be part of the solution to educate controllers and processors. ◦ DPOが実際に必要かどうかも含め、DPOを指定する義務について、SAがさらにイニシアチブをとることで、組織間の認識を高めることができる。DPOを指定するために適用される要件に関するSAからのさらなるガイダンス、このトピックに関する既存のガイダンスを促進するためのさらなる啓発キャンペーン、および強制措置は、コントローラとプロセッサーを教育するための解決策の一部となり得る。
Insufficient resources allocated to the DPO ◦ DPOに割り当てられるリソースが不十分である。
◦ More initiatives and actions by SAs could incentivise organisations management to dedicate more resources to DPOs and their team. ◦ DPOとそのチームにもっと多くのリソースを割くよう、SAがもっとイニシアチブを発揮し、行動することで、組織の経営陣のインセンティブを高めることができる。
◦ At all times, controllers and processors must be performing an appropriate, case-by-case analysis of what resources a DPO needs. We recommend that controllers take this obligation seriously and are ready to show their work. ◦ コントローラーとプロセッサーは常に、DPOに必要なリソースをケースバイケースで適切に分析しなければならない。管理者はこの義務を真摯に受け止め、その仕事ぶりを示す用意があることを推奨する。
◦ Controllers and processors must carefully verify that the DPO has sufficient resources to properly exercise their functions. In some cases when employing an external DPO, this may require controllers and processors to verify how many clients that DPO has, to ensure that they have sufficient time and capacity to fulfil the relevant GDPR obligations. ◦ コントローラーおよびプロセッサーは、DPOがその機能を適切に行使するための十分なリソースを有していることを慎重に確認しなければならない。外部のDPOを雇用する場合、場合によっては、管理者及び処理者は、DPOがGDPRの関連義務を果たすのに十分な時間と能力を有していることを確認するため、そのDPOが何人の顧客を有しているかを確認する必要がある。
◦ Further guidance from SAs as well as additional training materials could help DPOs to navigate complex issues and save time. ◦ DPOが複雑な問題に対処し、時間を節約するためには、SAからのさらなるガイダンスや追加の研修資料が役立つ可能性がある。
Insufficient expert knowledge and training of the DPO DPOの専門的知識とトレーニングが不十分である。
◦ SAs and/or the EDPB could provide further guidance and training sessions for DPOs. These trainings (and the amount of trainings necessary) can be customised according to the specific needs of each Member State. ◦ SAおよび/またはEDPBは、DPOに対してさらなるガイダンスやトレーニングセッションを提供することができる。これらの研修(および必要な研修の量)は、各加盟国の特定のニーズに応じてカスタマイズすることができる。
◦ Controllers and processors should ensure that they are documenting their organisations' knowledge and training needs and progress. This can also be important to ensure compliance with Articles 24 and 5(2) GDPR, and Articles 26 and 4(2) EUDPR. ◦ 管理者及び処理者は、組織の知識及び研修のニーズと進捗状況を文書化することを確保すべきである。これは、GDPR第24条及び第5条2項、並びにEUDPR第26条及び第4条2項の遵守を確保するためにも重要である。
◦ Controllers and processors should ensure that DPOs are given sufficient opportunities, time and resources to refresh their knowledge and learn about the latest developments, including, if it is relevant to their activities, on new EU digital- and Al-related legislation. ◦ 管理者及び処理者は、DPOが知識を更新し、最新の動向を学ぶための十分な機会、時間及びリソースを与えられるようにすべきである。
◦ Increased use of certification mechanisms and initiatives where relevant. ◦ 関連する場合には、認証メカニズムやイニシアチブの利用を増やす。
◦ Increased cooperation from stakeholders with universities and market-led training courses. ◦ 関係者による大学や市場主導の研修コースへの協力の増加。
DPOs not being fully or explicitly entrusted with the tasks required under the GDPR/EUDPR DPOは、GDPR/EUDPRの下で要求される業務を完全または明確に委託されていない。
◦ More initiatives and actions by SAs could incentivise controllers and processors to maintain a proper separation between, on the one hand, the controller/processor obligations and, on the other, the DPO's own obligations and duties as set out under the GDPR/EUDPR. ◦ SAによるより多くの取り組みや行動が、一方では管理者/処理者の義務、他方ではGDPR/EUDPRに規定されたDPO自身の義務や責務との適切な分離を維持するよう、管理者や処理者のインセンティブとなりうる。
◦ Controllers should make sure to promote the role of their DPO internally. ◦ 管理者は、DPOの役割を社内に浸透させるべきである。
◦ Controllers should work together with their DPOs to build up their roles in an appropriately comprehensive and independent way. ◦ 管理者はDPOと協力し、適切な包括的かつ独立した方法でDPOの役割を構築すべきである。
◦ SAs could include DPOs and/or their opinions in a structural fashion into the SA's processes when contacting a controller and/or processor, which will help to enable and promote DPOs in their roles. ◦ SAは、管理者および/または処理者にコンタクトする際、DPOおよび/またはその意見をSAのプロセスに構造的に含めることができ、これはDPOの役割を可能にし、促進するのに役立つ。
◦ All stakeholders should promote the role of the DPO within organisations to ensure that the
DO is seen as necessary and given effective support by the controller (processor) in accordance with the GDPR/EUDPR. ◦ すべての利害関係者は、GDPR/EUDPR に従って、DO が必要であるとみなされ、管理者(処理者)から効果的な支援が与えられるよう、組織内で DPO の役割を推進すべきである。
◦ SAs can support and encourage initiatives to protect and enhance a DO's independence regardless of the form of the contract under which they perform their function, so that DPOs feel safe to fulfil all aspects of their role. ◦ SAは、DPOが安心してその役割のあらゆる側面を果たすことができるように、DOがその機能を果たす契約の形態にかかわらず、DOの独立性を保護し強化するためのイニシアチブを支援し奨励することができる。
◦ Controllers and processors should ensure that they are actively reviewing and (where necessary) improving the DPO's involvement within the organisation. Such review may, among other things, consider the Guidelines on DPOs, an annual report of the DPO's activities, and general good practices. ◦ 管理者および処理者は、組織内におけるDPOの関与を積極的に見直し、(必要な 場合には)改善していることを確認すべきである。このような見直しは、とりわけ、DPOに関するガイドライン、DPOの活動に関する年次報告書、および一般的なグッドプラクティスを考慮することができる。
Conflict of interests and lack of independence of the DPO DPOの利益相反および独立性の欠如
◦ SAs recall that the term 'conflict of interests was already clarified in the Guidelines on DPOs and more recently by the Court of Justice in its X-Fab Dresden Judgment. Despite this, the results of the CEF action showed risks of possible conflicts of interests. Based on this, the Guidelines on DPOs should be developed further, also taking into account the new roles taken on by DPOs in certain organisations under the new pieces of EU legislation in the digital field. ◦ SAは、「利益相反」という用語がすでにDPOsに関するガイドラインで明確化されており、さらに最近では、X-Fabドレスデン判決において司法裁判所が明確化していることを想起する。にもかかわらず、CEFの行動結果は利益相反のリスクを示していた。これに基づき、DPOに関するガイドラインは、デジタル分野におけるEUの新しい法律の下で、特定の組織においてDPOが担う新たな役割も考慮に入れながら、さらに発展させるべきである。
◦ More initiatives and actions by SAs could verify that controllers and processors have appropriate safeguards in their procedures to ensure that the DPO is not responsible for carrying out tasks that lead to a conflict of interests. ◦ DPOが利益相反につながる業務を遂行する責任を負わないことを保証するための適切なセーフガードを、管理者と処理者がその手続において有していることを、SAがより多くのイニシアティブと行動によって検証することができる。
◦ More awareness-raising activities, information and enforcement actions on the independence of the DPO could be envisaged (including on the prohibition on penalising and dismissing DPOs for performing their DPOs tasks), either by SAs or internally by organisations themselves. ◦ DPOの独立性に関する啓発活動、情報提供、実施措置(DPOの業務遂行を理由とするDPOへの罰則や解雇の禁止を含む)を、SAまたは組織内部でさらに強化することが考えられる。
◦ Organisations and DPOs could formalise the DPO duties and conditions for performing the DPO's duties in an 'engagement letter'. ◦ 組織とDPOは、「エンゲージメント・レター」において、DPOの義務およびDPOの任務遂行の条件を正式に定めることができる。
◦ DPOs should be able to collect evidence in the event of interferences with their independence. ◦ DPOは、その独立性が阻害された場合に証拠を収集できるようにすべきである。
Lack of reporting by the DPO to the organisations highest management level DPOによる組織の最高経営層への報告の欠如
◦ The legal obligation to have the DPO report to the organisation's highest management level may benefit from further guidance to help controllers and processors implement it in practice. SAs could encourage the drafting and adoption of industry standards, internal data protection policies and best practices to better define the conditions, frequency, content and effectiveness of the direct reporting of the DPO to the highest management level. ◦ DPOを組織の最高経営層に報告させる法的義務は、管理者及び処理者が実際に実施する上で、さらなるガイダンスが必要である。SAは、DPOの最高経営レベルへの直接報告の条件