AI/Deep Learning

2020.11.24

フェイク画像はここまで来たのか・・・ (The New York Times)+IDF辻井先生のコラム

こんにちは、丸山満彦です。

これ、もはや本物とわからないし、スライドバーで色々な顔を作れる。。。ここまで来たら、真贋判定機も同時にリリースしてもらわないと。。。

● The New York Times

・2020.11.21 Artificial Intelligence Fake People Faces 

Designed to Deceive: Do These People Look Real to You? b

 

これから通信ソフトでは、好きな顔、声、言語等の組み合わせで複数のアバターの登録ができるようになるかもですね。。。ネット上では本当の自分というものをどう定義したら良いやら・・・

特に自分がやっていないことを証明するのが難しくなりますね。。。

 

■ 参考

● デジタル・フォレンジック研究会

・2020.11.23 第641号コラム:「暗号学者の視た理念と現実(天国からの恩師のご下問に応えて)―『楕円曲線暗号から情報セキュリティ総合科学まで』」 by 辻井重男 [wikipedia]

STR(Short Tandem Repeat)という、センシティブな個人情報は含まないDNA情報を公開鍵暗号の中の秘密鍵に秘密に内蔵させるという方式

というのは、自分がやったことの証明には使えそうですね。。。

このコラム面白いです。

シャノン・染谷の標本化定理」の話と「五月みどり」が・・・

あと、板倉征男先生の話も出てきますね。。。まもなくなくなってから10年ですね。。。

ネットの信頼性についてはちょっと考えないとですね。。。

Fig_20201124102401

| | Comments (0)

2020.11.23

Europol, UNICRI, Trendmicro 犯罪者もAIを活用!(ディープフェイクだけではない)

こんにちは、丸山満彦です。

Europolと国連の犯罪研究所であるUnited Nations Interregional Crime and Justice Research Institute (UNICRI) [wikipedia]がTrendmicroの協力を得て、Malicious Uses and Abuses of Artificial Intelligence (AIの悪意ある利用とAIの悪用)という報告書を出していますね。。。

Europol

・2020.11.19 NEW REPORT FINDS THAT CRIMINALS LEVERAGE AI FOR MALICIOUS USE – AND IT’S NOT JUST DEEP FAKES

Europol, UNICRI and Trend Micro uncover current and future threats of AI and how to combat them

・・[PDF] Malicious Uses and Abuses of Artificial Intelligence

 

リコメンデーションとして、

  • 犯罪と戦うツールとしてのAI技術を利用する
  • 防御技術の開発を促進するための研究を継続する
  • 安全なAI設計フレームワークを促進し、開発する
  • サイバーセキュリティ目的でのAIの使用に関して政治的な美辞麗句を辞める
  • 官民パートナーシップを活用し、学際的な専門家グループを設立する

という感じでしょうか・・・

内容を見出しレベルで書き出すと・・・

仮章番 原文 仮訳
[1] Introduction 序章
[2]  The Present State of Malicious Uses and Abuses of AI  AIの悪意ある利用とAIの悪用の現状
[2-1] AI Malware AIマルウェア
[2-2] AI Malware at Large 大規模なAIマルウェア
[2-3] Abusing AI Cloud Services AIクラウドサービスの悪用
[2-4] Abusing Smart Assistants スマートアシスタントの悪用
[2-5] AI-Supported Password Guessing AIに支援されたパスワード推測
[2-6] AI-Supported CAPTCHA Breaking AIに支援されたCAPTCHA突破
[2-7] AI-Aided Encryption AI援用暗号化
[2-8] Trends Found on Underground Forums 地下フォーラムで見つけたトレンド
[2-8-1] Human Impersonation on Social Networking Platforms ソーシャル・ネットワーキング・プラットフォーム上での人間のなりすまし
[2-8-2] Online Game Cheats オンラインゲームのチート
[2-8-3] AI-Supported Hacking AIに支援されたハッキング
[2-8-4] AI-Supported Cryptocurrency Trading AIに支援された暗号通貨取引
[2-8-5] Social Engineering ソーシャルエンジニアリング
[3] Future Scenarios of Malicious Uses and Abuses of AI AIの悪用と悪用の将来シナリオ
[3-1] Social Engineering at Scale スケールアップしたソーシャルエンジニアリング
[3-2] Content Generation コンテンツ生成
[3-3] Content Parsing コンテンツ解析
[3-4] Improved Social Profile Aging for Forums and Botnets フォーラムやボットネットのためのソーシャル・プロフィール・エイジングの改善
[3-5] Robocalling v2.0 ロボコーリング v2.0
[3-6] Criminal Business Intelligence 犯罪者ビジネスインテリジェンス
[3-7] Abusing Image Recognition Systems 画像認識システムの悪用
[3-7-1] Autonomous Cars 自律走行車
[3-7-2] Drones, Connected Skies, and the Internet of Flying Things ドローン、コネクテッドスカイ、空を飛ぶIoT
[3-8] Escaping an Image Recognition System 画像認識システムの回避
[3-9] Remote Machine Learning Sets Pollution 汚染させられた遠隔機械学習
[3-9-1] Security Algorithms セキュリティアルゴリズム
[3-9-2] AI-Enabled Stock Market Manipulation AIを活用した株式市場の操作
[3-10] Business Process Compromise and Injection of Safelisted Telemetry ビジネスプロセスの汚染と安全なテレメ遠隔測定の注入
[3-11] Insider Attacks: Banking and Trading Floor AI インサイダー攻撃:銀行と取引所のAI
[3-12] Local Library Poisoning by Resident Malware 常駐マルウェアによる地域の図書館中毒
[3-13] AI-Supported Ransomware AIに支援されたランサムウェア
[3-14] Escaping AI Detection Systems AI検出システムの回避
[3-14-1] Fraud and Voice Recognition in Banks 銀行における不正行為と音声認識
[4] Recommendations 勧告
[5] Case Study: A Deep Dive Into Deepfakes ケーススタディ:ディープフェイクスへのディープダイブ
[5-1] Deepfakes ディープフェイクス
[5-2] The Technology Behind Deepfakes ディープフェイクスを支える技術
[5-2-1] Deepfake Creation: Apps and Tools ディープフェイク作成:アプリとツール
[5-3] The Current State of the Abuse of Deepfakes ディープフェイクスの悪用の現状
[5-4] Potential Reasons for the Low Rate of Adoption of Deepfakes ディープフェイクスの採用率が低い潜在的な理由
[5-5] Some Possible Future Threats of Deepfakes ディープフェイクの将来的な脅威のいくつかの可能性
[5-6] Countering Deepfakes ディープフェイクに対抗する
[5-6-1] Deepfake Detection ディープフェイクの検出
[5-6-2] Deepfake Policies ディープフェイクポリシー
[5-6-3] Recommendations and Considerations for Further Research さらなる研究への提言と考察
[6] Conclusion 結論
[7] Appendix 付録
[7-1] YARA Rules for AI-Powered Malware Detection AIを活用したマルウェア検出のためのYARAルール
[8] References 参考文献

Eut 

 

Continue reading "Europol, UNICRI, Trendmicro 犯罪者もAIを活用!(ディープフェイクだけではない)"

| | Comments (0)

2020.11.17

NIST SP 800-181 Rev. 1 Workforce Framework for Cybersecurity (NICE Framework)

こんにちは、丸山満彦です。

NIST SP 800-181 Rev. 1 Workforce Framework for Cybersecurity (NICE Framework) が確定しましたね。

SP 800-181本文はフレームワークで、詳細な内容は補足のエクセルです。エクセルの方はこれから更新されていくようですね。

主要な変更案は。。。

  • サイバーセキュリティ業務を行う多様な人材をより包括的にするための名称の変更、 
  • 重要な用語の定義と正規化
  • 俊敏性、柔軟性、相互運用性、モジュール性を促進する原則
  • コンピテンシーの導入

のようですね。。。

● NIST - ITL

・2020.11.16 (PUBLICATIONS)  SP 800-181 Rev. 1 Workforce Framework for Cybersecurity (NICE Framework)

・[PDF]  SP 800-181 Rev. 1

補足資料:

NICE Framework homepage (web)

・・Employers

・・Education and Training Providers

・・Learners

NICE Framework Supplemental Material

・・Reference Spreadsheet (XLSX)

Blog

・2020.11.16 "Back to the Basics: Announcing the New NICE Framework" (web)

■ 参考

● まるちゃんの情報セキュリティ気まぐれ日記

・2020.11.17 NIST SP 800-181 Rev. 1 (Draft) Workforce Framework for Cybersecurity (NICE Framework)

 

Continue reading "NIST SP 800-181 Rev. 1 Workforce Framework for Cybersecurity (NICE Framework)"

| | Comments (0)

2020.11.14

防衛省 防衛研究所 「中国安全保障レポート2021 ― 新時代における中国の軍事戦略 ―」は中国のサイバー戦略についての章がありますね

こんにちは、丸山満彦です。

防衛省 防衛研究所は2009年から「中国安全保証レポート」を毎年出していますが、今年は「新時代における中国の軍事戦略 」ということで、「情報化戦争」、「サイバー戦略」、「宇宙の軍事利用」「軍民融合発展戦略」の4つですね。。。

● 防衛省 - 防衛研究所

・2020.11.13『中国安全保障レポート2021』を掲載しました。


第 1 章 情報化戦争の準備を進める中国
1 中国軍事戦略の変遷

1)毛沢東時代(1927 1976最終戦争の呪縛と積極防御
2)鄧小平時代(1976 1989最終戦争からの脱却と局地戦争への移行
3)江沢民時代(1989 2004ハイテク条件下での局地戦争
4)胡錦濤時代(2004 2012情報化条件下での局地戦争

2 習近平時代(2012 ~)―情報化戦争、智能化戦争への転換
1)情報化戦争
2)智能化戦争

コラム 情報化戦争・智能化戦争と親和性が高い超限戦

第 2 章 中国のサイバー戦略
1 サイバー戦力の向上を図る中国

1)「情報化」建設を進める人民解放軍
2)戦略支援部隊の任務と組織

2 人民解放軍のサイバー戦に係る認識
1)情報化戦争におけるサイバー作戦
2)人民解放軍のサイバー戦の諸相
3)中国のサイバー戦力の課題と今後の方向性

3
 サイバーセキュリティをめぐる中国の対外行動とその反応
1)サイバー・ガバナンスをめぐる中国の取り組み
2)サイバー空間をめぐる米中関係

第 3 章 中国における宇宙の軍事利用
1 宇宙政策と国防政策の関係

1)宇宙活動の長期目標と軍の位置付け
2)国防政策と部隊運用における宇宙の位置付け

2
 宇宙活動の現状とその軍事的意味合い
1)宇宙システムの運用
2)宇宙利用妨害能力の整備
3)宇宙分野における軍民融合

3 宇宙領域をめぐる国際関係
1)米国との関係
2)そのほかの国際関係

第 4 章 中国の軍民融合発展戦略
1 中国における軍民関係の史的展開

1)改革開放期までの軍民関係
2)改革開放期の軍民関係

2
 習近平政権における軍民融合発展戦略
1)習近平政権の軍民融合の背景
2)軍民融合の政策制度システム
3)軍民融合の組織管理システム
4)軍民融合の業務運用システム
5)軍民融合が直面する課題

3 軍民融合発展戦略に対する国際社会の反応
1)軍民融合による技術移転の懸念
2)欧米における投資規制策の強化

 


年度 副題 テーマ
2021 新時代における中国の軍事戦略 1 情報化戦争の準備を進める中国
2 中国のサイバー戦略
3 中国における宇宙の軍事利用
4 中国の軍民融合発展戦略
2020 ユーラシアに向かう中国 1 中国のユーラシア外交
2 中央アジア・ロシアから見た中国の影響力拡大
3 ユーラシアにおけるエネルギー・アーキテクチャ
2019 アジアの秩序をめぐる戦略とその波紋 1 既存秩序と摩擦を起こす中国の対外戦略
2 中国による地域秩序形成とASEANの対応 ――「台頭」から「中心」へ
3 「一帯一路」と南アジア――不透明さを増す中印関係
4 太平洋島嶼国 ――「一帯一路」の南端
2018 岐路に立つ米中関係 1 中国の対米政策
2 米国の対中政策
3 地域における米中関係の争点
2017 変容を続ける中台関係 1 中国の台湾政策の変遷
2 台湾から見た中台関係
3 米国にとっての台湾問題
4 中台関係の変容と「現状維持」
2016 拡大する人民解放軍の活動範囲とその戦略 1 遠海での作戦能力強化を図る中国海軍
2 空軍の戦略的概念の転換と能力の増大
3 ミサイル戦力の拡充
4 統合的な作戦能力の強化
2014 多様化する人民解放軍・人民武装警察部隊の役割 1 中央国家安全委員会創設とその背景
2 人民武装警察部隊の歴史と将来像
3 人民解放軍による災害救援活動
4 軍事外交としての国連平和維持活動
5 ソマリア沖・アデン湾における海賊対処活動
2013   1 中国の対外危機管理体制
2 中国の危機管理概念
3 危機の中の対外対応
2012   1 「党軍」としての性格を堅持する人民解放軍
2 深化する軍と政府の政策調整
3 軍と政府が連携を深める安全保証政策
4 政策調整の制度化を求める人民解放軍
2011   1 海洋に向かう中国
2 南シナ海で摩擦を起こす中国
3 外洋に進出する中国海軍
4 対外園で発言力を増す人民解放軍
創刊号   1 中国の対外姿勢
2 拡大する活動範囲
3 役割を増す軍事外交
4 進む装備の近代化

 

Continue reading "防衛省 防衛研究所 「中国安全保障レポート2021 ― 新時代における中国の軍事戦略 ―」は中国のサイバー戦略についての章がありますね"

| | Comments (0)

2020.11.10

中国 TC260 パブコメ AI倫理に関するガイドライン案

こんにちは、丸山満彦です。

中国の国家情報セキュリティ標準化技術委員会 (TC260) が「AI倫理に関するガイドライン案」について意見募集をしていますね。。。

人工知能 (AI) の定義は、

デジタルコンピュータまたはデジタルコンピュータ制御の機械を用いて、人間の知能を模倣、拡張、拡大し、環境を知覚し、知識を獲得し、その知識を利用して最適な結果を得るための理論、技術、システム、製品、サービス。

という感じでしょうか?中国語がわかる方に教えてもらいたいところです。。。

 

全国信息安全标准化技术委员会 (National Information Security Standardization Technical Committee)

・2020.11.09 关于对《网络安全标准实践指南—人工智能伦理道德规范指引(征求意见稿)》公开征求意见的通知

・・[PDF] 网络安全标准实践指南—人工智能伦理道德规范指引(征求意见稿).pdf

 

スコープ、つまり適用される対象は、「AI の研究開発、設計・製造、展開・応用、その他関連する活動を行っている関係機関または個人」ということで、およそAIに関連する業務をする場合に適用されるということのようですね。

「3. AIの倫理的、道徳的セキュリティリスク」では、「AIに関連する活動にいては、リスク分を行う要がある」として、以下のようなリスクが考えられるとしています。

a. 制御不能リスク AIの行動や影響が、研究開発者、設計者、アプリケーション展開者によって、あらかじめ決められたこと、理解されたこと、制御可能なことを超えてしまうリスクであり、社会的価値に負の結果をもたらす。
b. 社会的リスク AIの誤用や悪用などの非合理的な利用が社会的価値観に影響を与え、体系的な社会問題を引き起こすリスク。
c. 侵害リスク AIが人の基本的権利、個人、プライバシー、財産などを侵害したり、悪影響を及ぼすリスク。
d. 差別的リスク AIが特定のグループの人間に対して主観的または客観的なバイアスをかけ、権利侵害や否定的な結果をもたらすリスク。
e. 責任リスク AIに関わるすべての当事者の責任の境界が不明確で不合理であり、すべての当事者の不正行為につながり、社会的信頼や社会的価値に悪影響を及ぼすリスク。

その後、AI一般的な倫理指針、研究開発倫理指針、設計製造倫理指針、アプリケーション展開倫理指針、利用倫理指針が示されていますね。。。

 

目次

目 录 目次
摘 要 摘要
1 范围 1 スコープ
2、术语与定义 2.用語と定義
2.1 人工智能 2.1 AI
2.2 研究开发者 2.2 研究開発者
2.3 设计制造者 2.3 設計製造者
2.4 部署应用者 2.4 アプリケーション展開者
2.5 用户 2.5 利用者
3 人工智能伦理道德安全风险 3 AIの倫理的・道徳的セキュリティリスク
4 人工智能伦理道德规范指引 4 AIの倫理指針
4.1 基本要求 4.1 基本的な要件
4.2 研究开发指引 4.2 研究開発ガイドライン
4.3 设计制造指引 4.3 設計・製造ガイドライン
4.4 部署应用指引 4.4 アプリケーション展開ガイドライン
4.5 用户使用指引 4.5 利用ガイドライン
参考文献 参考文献

 

・[word] 仮訳

 

| | Comments (0)

The California Privacy Rights Act of 2020 ('CPRA') が成立 @2020.11.04

こんにちは、丸山満彦です。

大統領選挙と同日にカリフォルニア州で新しいプライバシー法 (The California Privacy Rights Act of 2020: CPRA) を含む法案について選挙がありましたね。結果、56.1%の賛成で可決されましたね。。。

■ 選挙のための情報

州の選挙のページには全ての31の提案についての詳細な情報がのっていますね。こういうところ日本も参考にすると良いかもですね。何と言っても投票ガイドの言語の対応が、英語スペイン語中国語ヒンディー語日本語クメール語韓国語タガログ語タイ語ベトナム語と10か国語の対応がされています。もちろん法案文も10か国語の対応。まさに多様な社会を目指しているのが言語の面からも分かりますよね。

California General Election Tuesday, November 3, 2020

選挙結果は↓

State Ballot Measures - Statewide Results

プライバシー法に関しては↓

PROP 24 AMENDS CONSUMER PRIVACY LAWS. INITIATIVE STATUTE.

・・Voter Information Guide 投票者ガイド

・・・[PDF] English

・・・[PDF] 日本語 / Japanese

・・Text of Proposed Laws 法案文

・・・[PDF] English

・・・[PDF] 日本語 / Japanese

 


 


州政府

● State of California Department of Justice

California Consumer Privacy Act (CCPA) 

・[PDF] 2019.11.13 Submission of Amendments to The California Privacy Rights and Enforcement Act of 2020, Version 3, No. 19-0021, and Request to Prepare Circulating Title and Summary (Amendment) 


■ 法案のスポンサー

このページには、法案の説明が詳細にされていますね。。。

Californians for Consumer Privacy

・2020.11.04 California Voters Decisively Approve Prop 24, the California Privacy Rights Act

 

 

 

| | Comments (0)

2020.11.04

カナダプライバシー委員会 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書(2020.10.28)

こんにちは、丸山満彦です。

カナダプライバシー委員会 (Office of the Privacy Commissioner of Canada) が、 Cadillac Fairview社が500万人の顔データを取得していたことに関する報告書を2020.10.28に公開していましたね。。。

話は遡ること2018年7月になります。連邦、アルバータ州、ブリティッシュコランビア州のプライバシー委員会が、北米最大級の商業用不動産会社であるCadillac Fairview社[wikipedia]がカナダの12のショッピングモールの情報キオスクにカメラを設置し、顧客の同意なしに顔認証技術を使用していたことを明らかにしました。

Cadillac Fairview社は、

  1. カメラによる顔認証技術の使用目的は買い物客の年齢や性別を分析することであり、個人を特定することではない
  2. 買い物客は、顔認証技術の使用目的はショッピングモールの入口ドアに貼り付けられていたステッカーを介して認識された
  3. カメラで撮影した画像は簡易な分析後に削除しているので個人情報を収集していない

と主張したが、「有意義な同意 (meaningful consent)」が取られていなかった等の理由で退けられてたようですね。

 

Office of the Privacy Commissioner of Canada

・2020.10.29 (release) Cadillac Fairview collected 5 million shoppers’ images - Customers not aware that their sensitive biometrics information was gathered

このリリースからは報告書「有意義な同意 (meaningful consent)」についてのガイドラインがリンクされています。

・2020.10.28 (report) Joint investigation of the Cadillac Fairview Corporation Limited by the Privacy Commissioner of Canada, the Information and Privacy Commissioner of Alberta, and the Information and Privacy Commissioner for British Columbia

Guidelines for obtaining meaningful consent (2018.05)


Joint investigation of the Cadillac Fairview Corporation Limited by the Privacy Commissioner of Canada, the Information and Privacy Commissioner of Alberta, and the Information and Privacy Commissioner for British Columbia

が報告書になるのですが、詳細で大変参考になると思います。

今回の事案の課題として、2つを挙げています。

課題 1. Cadillac Fairview社がモール内で匿名によるビデオ分析 (Anonymous Video Analytics: AVA) 技術を使用し個人情報を収集、利用、開示をしたかどうか、その場合
 (1) 収集、利用、開示について適切な同意を得たかどうか、
 (2) 必要以上に情報を保持していたかどうか

課題 2. Cadillac Fairview社がモバイル端末の位置情報技術を使用し、個人情報を収集、使用、開示したかどうか、その場合
その収集、利用、開示について適切な同意を得たかどうか

ということですかね。。。

課題 1.についての結論としては、

(1) AVA 技術の利用について個人情報に関する識別、同意、通知が不十分なまま個人情報の収集、利用を行った
(2) AVA 技術の利用により収集した顔の数値化された個人情報および関連情報を適時に廃棄することができていなかった

ということで違反した(ただし是正されている)と判断していますね。(段落106 - 110)

課題 2.についての結論としては、

「匿名状態での買い物客」としては個人情報を収集しておらず、また、「ログインした状態での買い物客」としてはwi-fi三角測量による位置情報を収集していないと判断し、この問題には違反とするには明確な根拠がないと結論付けているようですね。(段落171,172)


Guidelines for obtaining meaningful consent (2018.05)

は、法体系や文化の違いはあるでしょうが、それでも参考になると思います。

要は、「有意義な同意」つまり、実態的に意味をなす同意とは何かということについて7つの原則を示しているからです。

Seven guiding principles for meaningful  有意義についての7つの指針 
1 Emphasize key elements 重要な部分を強調する
2 Allow individuals to control the level of detail they get and when いつ、どの程度の詳細な情報を取得されるかを個人が選択できるようにする
3 Provide individuals with clear options to say ‘yes’ or ‘no’ 個人に「はい」か「いいえ」かの明確な選択肢を提供する
4 Be innovative and creative 革新的で創造的であること
> “Just-in-time” notices 適時の通知
> Interactive tools 対話形式のツール
> Customized mobile interfaces モバイル用のインターフェース
5 Consider the consumer’s perspective 消費者目線で考える
6 Make consent a dynamic and ongoing process 同意を動的で継続的なプロセスにする
7 Be accountable: Stand ready to demonstrate compliance 説明責任を果たす:遵守していることを示すための準備をする

| | Comments (0)

情報ネットワーク法学会 第20回第20回研究大会

こんにちは、丸山満彦です。

情報ネットワーク法学会が11月28日、29日に 第20回研究大会を開催します。

今年は、COVID-19の影響でオンライン開催です。

以下、プログラムの要約です。各発表の日時、発表者はプログラムのページで確認してくださいませ。。。

個別報告

  1. プロバイダ責任法4条3項(発信者情報をみだりに用いることの禁止)に関する検討
  2. 本人の知らない個人情報の流通に対する政策の日米欧比較
  3. 閲覧制限情報と非公開情報の交錯
  4. 大学の個人情報保護関連規程の事例比較―日本と韓国の国立・私立大学の当該規程に表れた利活用に係る規定の態様と国家機関との関係を中心に―
  5. 青少年のネット利用対策(コロナ禍下でのSNS相談を通じての考察)
  6. 信認義務に依拠したプライバシーの再構築―専門家責任に基づく義務論として
  7. 構造上の問題」に挑む―デジタルプラットフォーム規制の欧州アプローチ
  8. デジタルプラットフォームにおける外国会社登記義務及び国内代表者・代理人指定義務についての考察
  9. 顔認証技術の適正な利用の促進に向けた法的課題 ―ポートランド市顔認証技術禁止条例の検討を通じて―
  10. SNSを介した世論操作と国際法上の不干渉原則に関する一考察―COVID-19パンデミックにおけるディスインフォメーション戦略の適法性を中心に―
  11. スマートシティのデータガバナンス:Sidewalk Labsによるトロントスマートシティプロジェクトからの一考察
  12. 選挙に関するフェイクニュース・ディスインフォメーションの法的規制
  13. 航空法2020年改正と今後のドローンの利活用に係る法制度設計の課題

研究会報告は、

1 インターネット投票研究会 インターネット投票実現に向けた最新展望
2 ビジネス法務研究会 最近のシステム開発取引の実務の変化(改正債権法施行の影響等)
3 ビジネス法務研究会 ウィズコロナを念頭に医療情報の課題整理
4 ソーシャルメディア研究会  キャンセルカルチャーとソーシャルメディア
5 個人情報保護研究会  組織間の協創・協業によるデータ活用とコミュニケーション~企業の立場から~
6 ネット社会法務研究会  コンピューター・ウイルス罪がはらむ諸問題―コインハイブ事件控訴審判決と最高裁への上告をめぐって―
7 プロバイダ責任制限法研究会 2020年発信者情報開示制度改正の最前線
8   サイバー攻撃被害情報の共有と公表に係る諸課題について(仮)
9 個人情報保護研究会 官民一元化・COVID-19対応を踏まえた2000個問題の再定位
10 ロボット法研究会 対話知能システムの研究開発及び社会実装のための法社会規範の研究

となっています。。。

 

情報ネットワーク法学会は2002年5月に設立されたので、いま18年目です。私も、この学会の発起人の一人として名前を連ねております。

当時、法律面の勉強をするために色々なセミナーを探して参加し、積極的に大学の先生や弁護士の方に質問等をしておりました。当時から弁護士では岡村先生は経験も豊富でしたね。。。高橋郁夫弁護士、小松弁護士(不慮の事故でなくなってしまいました)はプログラムもかける弁護士でした。当初学会に事務所を提供してくれていたのは藤田先生でした。お世話になりました。落合先生は当時ヤフーでしたね。。。丸橋さん、鈴木正朝さん、当時パナソニックの金子さんが同じく実務界では積極的に活動されていたように思います。大学の先生では、夏井先生(元裁判官)、指宿先生、笠原先生、町村先生、水谷先生(京大の情報倫理)、藤本先生、米丸先生の活躍が記憶にあります。プライバシーからロボット法に中心をうつされた新保先生は当時は助手でしたかね。。。役所からは総務省の阪本和男さん(その後内閣官房で一緒に働くことになりました)、法務省の早貸さん(経済産業省に出向し、その後JPCERT/CCで一緒に働くことになりました)、警察庁の坂明さん(今の東京オリンピック委員会のCISOですね)。もちろん、発起人代表でISO/IEC13335, SC27で活躍されていた苗村先生も。。。名簿をみると当時の方の一人一人が思い出されますね。。。確か、私は第一期の監事になったような気がします。違うかも(^^;;

米国から帰って2年ほど立っていた当時の私は、ある企業へのコンサルティングがきっかけでセキュリティの仕事もするようになったのですが、その際に、セキュリティはマネジメント、技術、法律の三位一体で進めないといけないということに気付き、色々と考えていました。

たまたま、日本公認会計士協会のJICPAジャーナル(現在の「会計・監査ジャーナル
」)の編集に関わっていた和田頼知さん(現在は日本触媒の監査役で、長く米国アトランタ事務所に駐在していた方)から「丸山、今どんなことしてんねん!」と言われて、「情報セキュリティをしている」と答えたら、これからは「セキュリティが重要となるから、会計士のみんなにも広く知ってもらわないといけないな。お前記事かけ」と言われて、特集の段取りをして2001年3月号の特集記事として書きました。当時、情報セキュリティマネジメントに関する英国の標準(BS7799)を国際標準にしようとか、経済産業省の「情報処理サービス業情報システム安全対策実施事業所認定制度」 を廃止して民間の認証制度(JIPDECによるISMS適合性評価制度)に変えようとしていた時でした。国際的調和を考えてISO化が見えていたBS7799をベースにした制度を私は推奨し、そうなりました。。。

 

● 日本公認会計士協会

・[PDF] JICPAジャーナル年間総目次 2001年(平成13年1月号-12月号)

3月号の特集でした。。。

●特集:情報セキュリティマネジメント

  • 情報セキュリティマネジメントについての政府の方向性 山本 文土
  • BS7799の概要とISO化 高橋 圭二
  • 先進企業における情報セキュリティマネジメントの実際と公認会計士の役割 丸山 満彦
  • 法律面から見た情報セキュリティマネジメントの重要性 牧野 二郎

20年前から基本のところは変わっていないのだろうと思います。。。まぁ、概ねすべてのことが、マネジメント、技術、法律(制度)から考えることが必要ということなのかもしれませんが。。。

ちなみに山本文土さんは外務省からの出向の方で、頭脳明晰で決断もできる優秀な方でしたね。。。2019.09.09の異動で現在は、アジア大洋州局地域政策参事官となられているようですね。。。

| | Comments (0)

2020.10.25

『スマートサイバー AI活用時代のサイバーリスク管理』第24回 コンピュータ犯罪に関する白浜シンポジウムの発表資料

こんにちは、丸山満彦です。

今年の8月27日に私が「第24回 コンピュータ犯罪に関する白浜シンポジウム」で発表した資料を公開しておきますね。。。今年のテーマは、「AIはサイバーセキュリティの夢を見るか? 」でしたね。

● 第24回 コンピュータ犯罪に関する白浜シンポジウム

プログラム


  スマートサイバー AI活用時代のサイバーリスク管理 丸山 満彦 氏(PwCコンサルティング合同会社)

機械学習、深層学習をはじめとするいわゆる人工知能技術(AI)の社会での実装が進んできています。サイバーリスクの防御の面でも機械学習、深層学習を活用したサイバー防御製品やサービスが広がってきています。サイバーリスク管理にAIがどのように活用できるのか、人間とのかかわりはどうすべきか、そしてAIを活用したサイバー攻撃、AIに対するサイバー攻撃といったことにも触れていきながら、これからの課題を考えていきたいと思います。


・[PDF] スマートサイバー AI活用時代のサイバーリスク管理(配布用)

Title

 

「コンピュータ犯罪に関する白浜シンポジウム」は今年はCOVID-19の影響もあり時期も例年の5月から8月になり、日程も3日から2日になり、さらにオンラインでの実施になり、リアルナイトセッションなどのイベントがなく寂しかったですね。

一方、録画した講演を流しながら、チャットで講演者と視聴者が会話をするというのは楽しかったですね。。。

| | Comments (0)

2020.10.24

敵対的機械学習に対する脅威マトリックス (Adversarial ML Threat Matrix)

こんにちは、丸山満彦です。

Microsoft、MITRE、Bosch、IBM、NVIDIA、Airbus、PwC、Deep Instinct、Two Six Labs、University of Toronto、Cardiff University、Software Engineering Institute/Carnegie Mellon University、Berryville Institute of Machine Learningのメンバーが集まってAdversarial ML Threat Matrixというイニシアティブを立ち上げ、機械学習(ML)システムに対する敵対的な攻撃を検出、対応、および修復できるようにすることを目的とした新しいオープンフレームワークを公表していますね。。。

GitHub/advmlthreatmatrix

  1. Adversarial ML 101
  2. Adversarial ML Threat Matrix
  3. Case Studies
  4. Contributors
  5. Feedback and Getting Involved
  6. Contact Us

 

・1. Adversarial Machine Learning 101

Attack Overview Type
Model Evasion Attacker modifies a query in order to get a desired outcome. These attacks are performed by iteratively querying a model and observing the output. Inference
Functional Extraction Attacker is able to recover a functionally equivalent model by iteratively querying the model. This allows an attacker to examine the offline copy of the model before further attacking the online model. Inference
Model Poisoning Attacker contaminates the training data of an ML system in order to get a desired outcome at inference time. With influence over training data an attacker can create "backdoors" where an arbitrary input will result in a particular output. The model could be "reprogrammed" to perform a new undesired task. Further, access to training data would allow the attacker to create an offline model and create a Model Evasion. Access to training data could also result in the compromise of private data. Train
Model Inversion Attacker recovers the features used to train the model. A successful attack would result in an attacker being able to launch a Membership inference attack. This attack could result in compromise of private data. Inference
Traditional Attacks Attacker uses well established TTPs to attain their goal. Both

(仮訳)

   
攻撃 概要 タイプ
モデルの回避 攻撃者は、目的を達成するためにクエリを修正する。これらの攻撃は、モデルへの問い合わせを繰り返し行い、出力を観測することで実行される。 推論
機能抽出 攻撃者は、モデルを反復的にクエリすることで、機能的に等価なモデルを回復することができる。これにより、攻撃者は、オンラインモデルを攻撃する前に、モデルのオフラインコピーを調べることができる。 推論
モデル中毒 攻撃者は推論時に目的を達成するために機械学習システムの学習データを汚染する。学習データに影響を与えることで、攻撃者は任意の入力が特定の出力になるような「バックドア」を作成することができる。このようなバックドアを作成することで、モデルを「再プログラム」することが可能になる。さらに、学習データへのアクセスは、攻撃者がオフラインモデルを作成し、モデル回避を行うことを可能にする。学習データへのアクセスは、個人データの漏洩につながる可能性がある。 トレーニング
モデルの反転 攻撃者はモデルの訓練に使用された特徴を回復する。攻撃が成功すると、攻撃者はメンバーシップ推論攻撃を実行できるようになる。この攻撃は、個人データの漏洩につながる可能性がある。 推論
伝統的な攻撃 攻撃者は、目的を達成するために確立されたTTPを使用する。 推論・トレーニング

 

・2. Adversarial ML Threat Matrix

 

Adversarial ML Matrix - Description Adversarial ML マトリックス - 説明
Reconnaissance 偵察
Acquire OSINT Information OSINT情報の取得
ML Model Discovery 機械学習モデルの発見
Reveal ML Ontology 機械学習オントロジーの公開
Reveal ML Model Family 機械学習モデルファミリーの公開
Gathering Datasets データセットの収集
Exploit Physical Environment 物理環境を利用する
Model Replication モデルの複製
Exploit API - Shadow Model エクスプロイトAPI - シャドーモデル
Alter Publicly Available, Pre-Trained Weights アルター 公募・予習済みウェイト
Model Stealing モデルの盗用
Initial Access 初期アクセス
Pre-Trained ML Model with Backdoor バックドア付き事前学習済み機械学習モデル
Included ATT&CK Techniques ATT&CK技術の参照
Exploit Public-Facing Application 公開されているアプリケーションの悪用
Valid Accounts 有効なアカウント
Phishing フィッシング
External Remote Services 外部リモートサービス
Trusted Relationship 信頼関係
Execution 実行
Execute Unsafe ML Models 安全でない機械学習モデルの実行
ML Models from Compromised Sources 危殆化したソースからの機械学習モデル
Pickle Embedding ピクルの埋め込み
Included ATT&CK Techniques ATT&CK技術の参照
Execution via API API経由での実行
Traditional Software Attacks 従来のソフトウェア攻撃
Persistence 永続化
Execute unsafe ML Model Execution 安全でない機械学習モデルの実行
Included ATT&CK Techniques ATT&CK技術の参照
Account Manipulation アカウント操作
Implant Container Image インプラントコンテナイメージ
Evasion 回避
Evasion Attack 回避攻撃
Offline Evasion オフライン回避
Online Evasion オンライン回避
Model Poisoning モデル中毒
Data Poisoning データ中毒
Tainting Data from Acquisition - Label Corruption 取得データの汚染 - ラベルの破損
Tainting Data from Open Source Supply Chains オープンソースのサプライチェーンからのデータの汚染
Tainting Data from Acquisition - Chaff Data 取得データの汚染 - 不要データ
Tainting Data in Training - Label Corruption トレーニングにおけるデータの汚染 - ラベルの破損
Exfiltration ろ過
Exfiltrate Training Data トレーニングデータを流出させる
Membership Inference Attack メンバーシップ推論攻撃
ML Model Inversion 機械学習モデルの反転
ML Model Stealing 機械学習モデルの盗用
Included ATT&CK Techniques ATT&CK技術の参照
Insecure Storage 安全でないストレージ
Impact 影響
Defacement 改ざん
Denial of Service サービスの拒否
Included ATT&CK Techniques ATT&CK技術の参照
Stolen Intellectual Property 盗まれた知的財産
Data Encrypted for Impact 影響を考慮した暗号化されたデータ
Stop System Shutdown/Reboot システムの停止/再起動
Next Recommended Reading 次の推奨文書

 

・3. Case Studies Page

 




Microsoft - Security - Blog

・2020.10.22 機械学習システムに対するサイバー攻撃は、あなたが思っているよりも一般的です by Ram Shankar Siva Kumar and Ann Johnson


機械学習(ML)は、金融、医療、防衛などの重要な分野で驚くべき変革を遂げており、私たちの生活のほぼすべての側面に影響を与えています。MLの進歩を利用することを熱望している多くの企業は、MLシステムのセキュリティを精査していません。本日、MITRE、およびIBM、NVIDIA、Boschを含む11の組織からの貢献により、マイクロソフトは、セキュリティアナリストがMLシステムに対する脅威を検出、対応、および修復できるようにするために、業界に焦点を当てたオープンフレームワークであるAdversarial ML ThreatMatrixをリリースします。 。

過去4年間で、マイクロソフトは商用MLシステムへの攻撃が著しく増加しました。市場レポートもこの問題に注目しています。2019年10月に公開されたGartnerの2020年の戦略的テクノロジートレンドトップ10は、「2022年まで、すべてのAIサイバー攻撃の30%がトレーニングデータ中毒、AIモデルの盗難、または敵対的なサンプルを活用すると予測しています。 AIを利用したシステムを攻撃します。」MLシステムを保護するこれらの説得力のある理由にもかかわらず、28の企業にまたがるMicrosoftの調査ほとんどの業界の実務家は、敵対的な機械学習にまだ同意していないことがわかりました。28の企業のうち25は、MLシステムを保護するための適切なツールが整っていないことを示しています。さらに、彼らは明確にガイダンスを求めています。準備は小規模な組織だけに限定されないことがわかりました。Fortune 500企業、政府、非営利団体、中小企業に話を聞きました。


 

● MITRE

・2020.10.22 (Project Stories) MITRE, MICROSOFT, AND 11 OTHER ORGANIZATIONS TAKE ON MACHINE-LEARNING THREATS

MITRE is partnering with Microsoft and collaborating with other organizations on the Adversarial Machine Learning Threat Matrix, an industry-focused open framework to empower security analysts to detect, respond, and remediate threats.

 

■ 参考(報道等)

● The Hacker News

・2020.10.23 New Framework Released to Protect Machine Learning Systems From Adversarial Attacks by 

Microsoft, in collaboration with MITRE, IBM, NVIDIA, and Bosch, has released a new open framework that aims to help security analysts detect, respond to, and remediate adversarial attacks against machine learning (ML) systems.

Called the Adversarial ML Threat Matrix, the initiative is an attempt to organize the different techniques employed by malicious adversaries in subverting ML systems.

● Neowin

・2020.10.23 Microsoft partners with Nvidia, IBM, and more to release Adversarial ML Threat Matrix by  

Microsoft is observing National Cyber Security Awareness Month (NCSAM) currently, and cybersecurity seems to be at the forefront for the firm. Over the past few weeks, the company has announced new initiatives to promote cybersecurity awareness, Zero Trust Deployment Center, and an offensive against the malicious Trickbot botnet.

Now, it has released the Adversarial ML Threat Matrix framework in collaboration with various organizations such as IBM, Nvidia, MITRE, and more.

● The Daily Swig

・2020.10.23 Microsoft launches machine learning cyber-attack threat matrix by James Walker

Framework aimed at helping security pros detect and remediate threats against ML systems

 

● IT Pro (U.K.)

・2020.10.23 Microsoft spearheads industry-wide charter against AI cyber attacks by Keumars Afifi-Sabet

Security professionals can rely on the framework to fight cyber attacks targeting corporate machine learning systems



● GIGAZIN

 ・2020.10.23 Microsoftがオープンソースの機械学習セキュリティフレームワークをリリース

機械学習は金融・医療・軍事などの分野で飛躍的な発展を遂げているというだけでなく、市民の生活にも大きな影響を与えています。しかし、Mircosoftは「機械学習に対する注目が高まっているにもかかわらず機械学習システムに対するサイバー攻撃対策は不十分」だとして、機械学習に対する攻撃を検出・対応・修正できる企業向けオープンフレームワーク「Adversarial ML Threat Matrix」をリリースしました。

 

 

 

 

| | Comments (0)

より以前の記事一覧