ESG/CSR

2026.04.07

防衛省 防衛力の変革

こんにちは、丸山満彦です。

防衛力の強化が言われていますが、技術の進捗に応じて作戦の方法も変わり、そのために必要となる情報や兵器等も変わってきますよね・・・将来を見据えて常に考えていかなくならない...難しい世界ですね...

米国は、1957年のスプートニク・ショックで1958年にDARPA(米国防高等研究計画局)が始まりましたよね...当時から軍事・宇宙技術での優位性確保が国家安全保障の核心と考えていました。軍事的に革新的なことを生み出す研究が重視されていたようです...

なのでその後のインターネットにつながるARPANETは有名です。技術的には貢献度の多少はありますが、TCP/IPGUIGPS、ステルス技術、自動運転車、無人航空機、ロボット、高エネルギーレーザー兵器、音声アシスタント、ブレインマシンインターフェースなどは、DRAPAに関連する成果といえそうですね...

日本の国力でどれほどのことができるかはわかりませんが、防衛力の変革のために科学技術を活用するというのは重要かもしれません。上記のDARPAの成果を見ていてもわかると思いますが、基礎的な技術であれば軍事技術としか使えない技術というのはほぼないように思います。なので、基礎的な技術を発展させるために、DAPRAのような取り組みをするのは重要かもしれませんね...

というようなことを、防衛省の資料をみながら思いました...

 

防衛省 - 防衛力変革推進本部

・2026.03.19 第6回 防衛力変革推進本部

・・[PDF] 小泉大臣冒頭発言

・・[PDF] 防衛力の変革の方向性②/同志国との連携

  • 無人アセット防衛能力
  • 宇宙領域
  • サイバー領域

20260404-142419

20260404-142513

  • 電磁波領域
  • 指揮統制・通信

20260404-142742

20260404-142751

20260404-142812

  • 同志国との連携

 

・2026.03.04 第5回 防衛力変革推進本部

・・小泉大臣冒頭発言

・・防衛力の変革の方向性①

  • スタンド・オフ防衛能力
  • 統合防空ミサイル防衛
  • 太平洋・シーレーン防衛

 


 

防衛省 - 防衛力の抜本的強化に関する有識者会議

・2026.03.10 第7回 防衛力の変革に向けた検討状況等 

・・[PDF] 会議資料

20260404-144017

20260404-144028

20260404-144037

20260404-144046

 

さて、どういう技術が重要となりそうですかね...

DARPAのニュースを見ると良いかもですね...

 

 

 

 

 

 

| | Comments (0)

2026.03.17

英国 ケンブリッジ人工知能の法、倫理、政策ハンドブック

こんにちは、丸山満彦です。

ケンブリッジ大学出版局が、人工知能の法、倫理、政策ハンドブックを公表しています。460ページにも及ぶ大作...

Cambridge Unviersity Press

・2026.02.05 The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

・[PDF]

20260316-215141

 

 

 

表題はこんな感じ...

# Title タイトル
第一部 AI, Ethics and Philosophy
基礎と倫理
序論 Beyond the Hype: Why We Need a Multidisciplinary Perspective on AI ハイプを超えて:なぜAIに多角的な視点が必要なのか
第1章 The Technical Foundations of AI: Machine Learning and Logic AIの技術的基礎:機械学習と論理
第2章 The Philosophy of AI: Between Hopes and Fears AIの哲学:希望と恐怖の間で
第3章 The Ethics of AI: From Principles to Practice AIの倫理:原則から実践へ
第4章 Fairness and AI: A Multi-dimensional Challenge 公平性とAI:多次元的な課題
第5章 Responsibility and AI: Bridging the Gap between Law and Ethics 責任とAI:法と倫理の溝を埋める
第6章 Sustainability and AI: Environmental and Social Dimensions 持続可能性とAI:環境的および社会的側面
第2部 AI, Law and Policy 法規制と制度
第7章 Data Protection and AI: GDPR as a Facilitator データ保護とAI:促進者としてのGDPR
第8章 Tort Law and AI: Liability for Damage Caused by AI Systems 不法行為法とAI:AIシステムによって引き起こされた損害の責任
第9章 Competition Law and AI: Algorithmic Collusion and Personalized Pricing 競争法とAI:アルゴリズムによる協調行為とパーソナライズされた価格設定
第10章 Consumer Protection and AI: Addressing Structural Vulnerabilities 消費者保護とAI:構造的脆弱性への対処
第11章 Intellectual Property and AI: A Human-Centric Perspective 知的財産とAI:人間中心の視点
第12章 The EU AI Act: A Critical Analysis EU AI法:批判的分析
第3部 AI across Sectors
セクター別の応用
第13章 Education and AI: Replacing or Empowering the Learner? 教育とAI:学習者を代替するのか、能力を強化するのか?
第14章 Media and AI: Opportunities and Risks in the Digital Public Sphere メディアとAI:デジタル公共圏における機会とリスク
第15章 Health and AI: Secondary Use of Data and Patient Autonomy 医療とAI:データの二次利用と患者の自律性
第16章 Finance and AI: Credit Scoring and Algorithmic Bias 金融とAI:クレジット・スコアリングとアルゴリズムのバイアス
第17章 Work and AI: Challenges for Labour Law 労働とAI:労働法への課題
第18章 Policing and AI: The Case of Predictive Policing 警察活動とAI:予測警察の事例
第19章 Public Administration and AI: Algorithmic Decision-Making and Due Process 行政とAI:アルゴリズムによる意思決定と適正手続き
第20章 War and AI: Lethal Autonomous Weapon Systems and International Humanitarian Law 戦争とAI:致死性自律型武器システムと国際人道法

 

ざっと斜め読みしかしていないけど、これだけ集めても語られていない論点はいくつもある。急速な技術の進歩に社会の仕組みが悲鳴をあげている感じがする...

説明可能性を高めることがまずは重要ですね...技術に偏りすぎないことが重要ですね。..

AIに各章の要約をつくってもらいました...

 

序論 ハイプを超えて:なぜAIに多角的な視点が必要なのか AIは歴史的・社会的文脈から切り離せず、そのガバナンスは既存の法的枠組みと倫理的洞察を動員し、多層的・学際的に行うべきである。単なる技術的解決や新法万能論に陥らず、人間の行動と社会の価値に焦点を当てた統治が必要である。 AIはダートマス会議から約70年の歴史を持つが、近年の生成AIの隆盛により真の「AIブーム」を迎えている。しかし著者は、AIの歴史が古代の自動人形神話にまで遡ること、そしてAIが多くの技術の一つに過ぎないことを指摘し、過度な「ハイプ」に警鐘を鳴らす。AIを完全に新規で特別な現象として扱うことは、過去のガバナンス経験から学ぶ機会を逃すだけでなく、AIを抽象的で不可避的なものとして捉え、その具体的な構成要素(コード、データ、CPU、そして人間)を見えにくくすると主張する。また、AIは社会に埋め込まれており、相互形成プロセスを通じて社会に影響を与えるため、その影響を法・倫理・政策によっていかに統治し、中核的価値(人権、民主主義、法の支配)を保護するかが中心的課題であると述べる。本書は欧州に焦点を当て、AIの哲学的・倫理的基盤(第I部)、法的・政策的枠組み(第II部)、そして各セクターにおける応用(第III部)の三部門から構成され、学際的かつ包括的な理解を提供することを目的としている。
第1章 AIの技術的基礎:機械学習と論理 機械学習と推論は相互補完的であり、信頼できるAIのためには、精度だけでなく説明可能性と堅牢性が不可欠である。技術者はこれらの要件を設計段階から組み込むべきであり、また、その限界を認識する必要がある。 本章はAIの技術的基盤として、機械学習と機械推論の二つの領域を解説する。機械学習とは、Tom Mitchellの定義に従えば「特定のタスクにおけるパフォーマンスが経験によって向上する」ことであり、チェッカーや囲碁のプログラムがその典型例である。機械学習は学習される関数のタイプ(深層関数、記号関数、ベイズ関数)とフィードバックのタイプ(教師あり学習、強化学習、教師なし学習)によって分類される。一方、機械推論とは「新たな質問に答えるための既存知識の代数的操作」であり、論理的推論と確率的推論の二つが主要なパラダイムである。推論は知識駆動型であり、本質的に説明可能なAIを提供する。著者らは、複雑なソフトウェアを手動でプログラミングすることが不可能な場合や、多様な質問に柔軟に対応する必要がある場合に、これら二つのアプローチの統合が重要であると指摘する。さらに、信頼できるAIのためには、説明可能性(XAI)や堅牢性(敵対的事例への耐性、 fairness)が不可欠であり、これらは単なるパフォーマンス指標を超えた評価軸であると結論づける。
第2章 AIの哲学:希望と恐怖の間で AIの哲学は、単にAIを分析するだけでなく、人間の知性、意識、責任といった伝統的哲学概念を新たな視点から理解する方法を提供する。AIは哲学の実験室であり、哲学はAIの設計指針を与える双方向的関係にある。 本章は、AIの哲学を「AIとは何か」「AIは何ができるか」「AIはどうあるべきか」という三つのカント的問いから整理する。古典的なAI(強いAI)は、知性が記号的表現に基づくルールベースの計算として理解できるという前提に立つが、現在の技術的AI(機械学習等)はこの前提から乖離している。知性とは「幅広い環境で目標を達成する能力」と定義され、これは環境に相対的な概念である。計算主義(認知=計算)は強いAIの基盤だが、物理的実装と抽象的アルゴリズムの区別、そして「意味」の問題が哲学的課題として残る。本章では知覚と行動のループ、予測処理、4E認知(身体的・埋め込まれた・行為的・拡張された)といった認知科学の知見を導入し、従来の受動的な知覚観を批判する。さらに、中国語の部屋論証を通じて、単なる記号操作では意味が生まれないこと、意図性には因果的接続が必要であることを論じる。合理的選択理論は期待効用の最大化を規範とするが、現実のエージェントは限られたリソース( bounded rationality)の中で判断しており、フレーム問題(何が関連するかを決める問題)は依然として重要である。自由意志と責任については、決定論と両立論の観点から、責任の帰属条件としての自由意志の機能を考察する。意識については、アクセス意識と現象意識の区別を導入し、物理的性質に還元されない現象意識の哲学的難問を提示する。最後に、AIが単なる手段的知性を超えて、目標そのものを内省する規範性の問題を提起する。
第3章 AIの倫理:原則から実践へ 抽象的な倫理原則を掲げるだけでは不十分であり、倫理を具体的な設計要件に変換する方法論(Design for Values)が不可欠である。そのためには、哲学的概念分析と工学的実装をつなぐ学際的協働が決定的に重要である。 本章は、AIがもたらす倫理的課題に対処する方法として、伝統的倫理理論(徳倫理、帰結主義、義務論)の限界を指摘し、より実践的な「Design for Values」アプローチを提案する。AIシステムは従来の技術と比較して、より高度な行為主体性(自律的な決定・行動)と認識論的 opacity(不透明性)を持ち、これが責任ある開発・展開を困難にしている。具体例として、採用AIによる差別、クレジットスコアリングの偏り、福祉給付詐欺検出システムによるオランダ政府辞職事件などが挙げられ、これらの問題は技術単体ではなく、それを取り巻く社会技術的システム全体に起因する。伝統的倫理理論は重要な「感度を高める概念」を提供するが、具体的な設計指針には欠ける。そこで必要となるのが、特定の価値(公平性、責任、説明可能性など)に関するより詳細な哲学的説明と、それを設計要件に変換する方法論である。Design for Valuesアプローチは、(1)ステークホルダーから価値を特定し(経験的作業)、(2)その価値を規範的に正当化し(哲学的作業)、(3)価値を規範に、さらに設計要件に翻訳し、(4)実装後に評価する、という反復的プロセスを含む。このアプローチは学際的協働を前提とし、価値観の変化や予期せぬ影響にも対応できる適応性が求められる。
第4章 公平性とAI:多次元的な課題 公平性は単一の定義に還元できず、手続き的側面と実質的側面の両方から不断に問い直されるべきである。技術的公平性指標に頼るだけでは、関係的不正義や構造的差別を見逃す危険があり、多様な声に開かれた民主的プロセスが必要である。 本章は、AIガバナンスにおいて中心的原則とされながらも多義的な「公平性」概念を、手続き的公平性と実質的公平性の区別から分析する。手続き的公平性は、恣意性の排除として理解され、(1)予測可能性、(2)事前規則による拘束、(3)合理性(理由の提示)という三つの側面から検討される。しかし、AIは相関関係に基づく判断を無数に生成できるため、これらの手続き的条件を満たすだけでは十分ではない。実質的公平性は、手続きの背後にある政治的・道徳的見解(例:どのような社会的格差が正当化されるか)を明確にし、それに基づいて手続きを評価することを求める。本章はロールズの「公正としての正義」を導入し、分配的正義の観点からAIが社会的弱者の不利益を固定化・増幅するリスクを指摘する。しかし同時に、分配的アプローチだけでは不十分であり、関係的公正(relational justice)の視点が重要であると論じる。AIは単なる分配メカニズムではなく、人々の関係性、権力構造、文化的解釈を媒介するため、文化的帝国主義やステレオタイプの固定化といった関係的不正義を引き起こす可能性がある。最後に、公平性の技術的解決(fairness metrics)の限界を指摘し、技術的解決主義(techno-solutionism)への警告を発する。公平性は設計段階だけで達成されるものではなく、社会構造や生きた経験に根ざした継続的プロセスであり、多様な声に開かれた民主的討議が不可欠であると結論づける。
第5章 責任とAI:法と倫理の溝を埋める 自律的AIによる損害について「誰も責任を負えない」という主張は誤りである。ユーザーはリスクを予見可能であり、自らの選択でAIを利用する以上、道徳的責任を負う。仮に責任のギャップがあっても、予防と尊厳の回復は別の手段で可能である。 本章は、自律的AIシステムが引き起こす損害について、誰も責任を負えない「責任のギャップ」が存在するという主張を批判的に検討する。まず、責任の概念を因果的責任、道徳的責任、役割責任に区別し、議論の対象が道徳的責任であることを明確にする。責任のギャップ論者は、AIの自律性と学習能力により、開発者やユーザーがシステムの行動を制御できないため、道徳的責任を問えないと主張する。しかし著者らは、AI自体に道徳的責任を帰属させる可能性を検討した上で(現在のAIには感覚能力がなく無理だが、将来的には否定できない)、むしろ人間の側の責任が依然として存在すると論じる。道徳的責任の条件(因果的関与、自律性、知識)を満たせば、たとえ制御が及ばなくとも責任は生じる。例えば、発作のリスクを知りながら運転する者は、発作で事故を起こせば責任を負う。同様に、自律型兵器や自動運転車のユーザーは、起こりうる結果を予見可能であり(正確なタイミングや場所は予測できなくとも、事故の種類は予測可能)、自らの選択でリスクを受容しているため、道徳的責任を負う。さらに、仮に責任のギャップが存在したとしても、それは必ずしも問題ではない。責任帰属の目的は予防と被害者の尊厳の象徴的承認にあるが、予防は技術的介入によっても達成可能であり、尊厳の承認は責任帰属以外の手段(例:葬儀)でも可能だからである。
第6章 持続可能性とAI:環境的および社会的側面 AIの持続可能性は、環境負荷(炭素排出、資源採掘)と社会的公正(権力非対称性、差別)の両面から捉えるべきである。表面的な「AI for Good」論を超え、AI産業の裏側にある不公正を可視化し、変革する視点が必要である。 本章は、AIと持続可能性の関係を二側面から分析する。第一に「持続可能性のためのAI」、すなわちAIが気候変動対策やSDGs達成に貢献する可能性(例:衛星画像による森林伐採の監視、スマートシティでのエネルギー最適化)である。第二に「AIの持続可能性」、すなわちAI自体の開発・運用が環境や社会に与える負の影響である。AIモデルの訓練には膨大な炭素排出を伴い、鉱物採掘や水資源消費、電子廃棄物の問題も無視できない。さらに、偏った訓練データによる差別の固定化、監視社会の進展、選挙介入といった社会的影響も「持続可能性」の一部として捉えるべきである。著者らは、持続可能なAIの概念を「生態学的完全性と社会的正義に向けたAI製品のライフサイクル全体の変革を促進する運動」と定義する。この視点から見えるのは、AIの背後にある権力非対称性である。例えば、データ汚染(data pollution)という比喩は、ビッグデータ経済の負の外部性(プライバシー侵害、差別)を環境汚染になぞらえ、権力構造を可視化する。著者らは「データ倫理の権力分析」(data ethics of power)を提唱し、ミクロ(設計)、メゾ(組織・制度)、マクロ(地政学・歴史)の三層でAIの権力動態を分析する必要性を説く。持続可能なAIは、現在の慣行を単に維持するのではなく、修復し変革することを含意し、将来世代に対する intergenerational justice の観点からも重要な課題である。
第7章 データ保護とAI:促進者としてのGDPR GDPRはAIの発展を阻害するものではなく、必要かつ比例的なバランスを取るための柔軟な枠組みを提供する。重要なのは、技術者と法曹の協働により、抽象的な法原則を具体的な設計に落とし込む解釈実践である。 本章は、欧州の一般データ保護規則(GDPR)とAIシステムの関係を包括的に解説する。GDPRは技術中立的な法であり、AIのような新技術にも適用されるが、その抽象的な規定ゆえに解釈には困難が伴う。まず、GDPRの適用範囲を確定するため、「個人データ」の概念を詳細に分析する。個人データとは「識別され得る自然人に関する情報」であり、識別可能性は「合理的に用いられる可能性のある手段」を基準に判断される(Breyer判決)。AIシステムでは、訓練段階、モデル自体、推論段階のいずれにおいても個人データが処理される可能性があり、匿名化は容易ではない。次に、管理者(controller)と処理者(processor)の役割分担を論じ、AIシステムの複雑なサプライチェーンにおいては「段階志向アプローチ」(phase-oriented approach)で責任を割り当てる必要があると指摘する。実体的な論点としては、(1) 目的外利用の制限:AIの訓練は当初収集目的と「両立可能」か、という問題(Clearview AI事件)、(2) 透明性と説明可能性:GDPR22条の「完全に自動化された決定」の意義と「説明を受ける権利」の解釈、(3) リスクベース・アプローチと説明責任:データ保護影響評価(DPIA)の義務と、AIシステム特有のリスク(差別、バイアス)への対応、を論じる。結論として、GDPRはAIの展開を妨げるものではなく、必要性と比例性のバランスを取るための柔軟な枠組みを提供するが、その解釈と適用には学際的協力が不可欠であると述べる。
第8章 不法行為法とAI:AIシステムによって引き起こされた損害の責任 AIによる損害の責任は、国内法の重要性を無視してEUレベルだけで解決できるものではない。手続き的救済(証拠開示、推定規定)は前進だが、その解釈は各国裁判所に委ねられており、法的断片化のリスクに注意が必要である。 本章は、AIによって引き起こされる損害に対する不法行為責任(特に EU における対応)を論じる。AI の特徴(複雑性、自己学習能力、不透明性、予測困難性)は、伝統的な不法行為法の概念に挑戦を突きつける。第一に、国内法の重要性が依然として高い。EU レベルでは AI 責任指令案と改正製造物責任指令案が提案されているが、これらの指令は多くの概念を国内法・国内裁判所の解釈に委ねており、法的断片化のリスクがある。第二に、手続き的要素が重要である。被害者は、ブラックボックス化した AI システムについて、責任主体の特定、欠陥の証明、因果関係の立証が困難である。これに対し、AI 責任指令案は証拠開示義務(disclosure of evidence)と因果関係の推定(rebuttable presumption)を導入する。改正製造物責任指令案も、欠陥と因果関係の推定規定を設け、立証負担を軽減する。第三に、伝統的な不法行為概念の AI への適用困難性がある。(1) 「製品」概念:ソフトウェア単体が製造物責任指令の「製品」に該当するかという問題に対し、改正指令はソフトウェアを明示的に含めた。(2) 「欠陥」概念:消費者の正当な安全期待(legitimate expectations)という基準は、AI の新規性・複雑性ゆえに適用が難しい。改正指令は、継続的学習能力の影響を考慮要素に加えた。(3) 「過失」概念:AI 責任指令が用いる「注意義務(duty of care)」は、国内法の伝統的な過失概念(主観的要素+客観的要素)と整合しない可能性がある。結論として、AI と不法行為法の課題に対処するには、学際的アプローチ(例:政策プロトタイピング)が今後ますます重要になると指摘する。
第9章 競争法とAI:アルゴリズムによる協調行為とパーソナライズされた価格設定 競争法はアルゴリズムによる協調行為の多くを既に捕捉可能だが、自律的アルゴリズムによる暗黙の協調は伝統的な「オリゴポリー問題」と同様に難しい。今後の課題は、法・経済・技術の知見を統合し、実効的な執行手段を開発することである。 本章は、アルゴリズム(特に価格設定アルゴリズム)が競争法に与える影響を分析する。価格の透明性向上は、消費者にとっては価格比較を容易にする一方、事業者にとっては競合他社の価格監視を容易にし、協調的行為(collusion)を促進する可能性がある。本章は、水平カルテルと垂直的制限に分けて検討する。水平カルテルでは三つのシナリオがある。(1) 事前合意をアルゴリズムで実施する場合(例:ポスター事件)は伝統的競争法で捕捉可能。(2) 共通のアルゴリズム(例:Uber の価格設定、RealPage の賃料設定ソフト)を用いる場合(ハブ・アンド・スポーク型)は、Eturas 事件の法理(受動的参加、反証可能な推定)が適用可能だが、効率性による正当化(101条3項)の余地もある。(3) 各社が独自の価格アルゴリズムを用い、結果的に協調的均衡に達する場合(暗黙の協調)は、伝統的な「オリゴポリー問題」と同様、101条の捕捉範囲外となる可能性が高い。垂直的制限では、オンライン小売価格の固定(RPM)が監視ソフトウェアの活用で強化される事例(Asus、Samsung 事件)を紹介する。濫用(支配的地位の濫用)については、排他的行為としての自己優遇(Google Shopping事件)と、搾取的行為としての個人別価格設定(personalized pricing)を論じる。個人別価格設定は競争法だけでは十分に対処できず、GDPR、消費者法、DMA、DSA、AI法など複数の法規の重層的適用が必要である。結論として、アルゴリズムによる協調が現実の市場条件でどの程度発生するかは未解明であり、法的枠組みの適応には法・経済・技術の学際的協力が不可欠であると述べる。
第10章 消費者保護とAI:構造的脆弱性への対処 AI時代の消費者は「構造的脆弱性」に置かれており、従来の情報提供モデルでは保護しきれない。消費者法、競争法、データ保護法の連携強化と、ダークパターンなど具体的害悪に対応する明確な規制が急務である。 本章は、AIが消費者に与える機会とリスクを概観し、EU消費者法の現状と課題を分析する。AIは消費者にとって、エネルギー最適化、詐欺検出、情報翻訳などの恩恵をもたらす一方、偏った情報・アドバイス、操作的なデザイン(ダークパターン)、個人別価格設定など、自律性と自己決定を損なうリスクも孕む。消費者法の根本的前提(合理的消費者、情報提供による保護)は、AI時代において根本的な見直しを迫られている。特に「平均的消費者」というベンチマークは、認知バイアスの現実を無視しており、AIによる操作可能性の高まりに耐えられない。また、デジタル脆弱性(digital vulnerability)は従来の脆弱性概念(年齢・障害など)を拡張し、ほぼすべての消費者が状況的に脆弱になりうることを示す。消費者法、競争法、データ保護法のサイロ(縦割り)からの脱却も必要である(例:Meta(旧Facebook)事件)。既存の消費者保護指令(UCPD、CRD、UCTD、CSD/DCSD)は、開かれた規範を用いてAIの悪用に対抗する可能性を持つが、解釈の不確実性が課題である。新たな立法(DMA、DSA、AI法)は追加的な保護を提供するが、その射程や執行方法には限界がある。特にダークパターンを事例に、現行法の適用可能性と限界を示す。結論として、AI時代の消費者保護には、情報提供モデルを超えたより強力な規制と、消費者の意識向上への継続的努力が不可欠であると主張する。
第11章 知的財産とAI:人間中心の視点 AIと知的財産法の関係では、人間中心主義の枠組みを性急に放棄すべきではない。AIの発展に合わせて制度を調整する必要はあるが、「創作者は人間」という根本原則を変えるには、説得的な経済的証拠と国際的合意が不可欠である。 本章は、AIと知的財産法の複雑な関係を、主にEU法の観点から分析する。第一に、AI技術自体の保護手段として、特許法と著作権法の可能性と限界を検討する。特許法では、AIアルゴリズムは数学的方法として特許対象から除外されるが、技術的効果を伴うコンピュータ実装発明として特許取得が可能である。しかし、発明の開示要件(十分に明確かつ完全な開示)は、ディープラーニングのブラックボックス性と緊張関係にあり、説明可能なAI(XAI)へのインセンティブとなる。著作権法では、AIを実装するソフトウェア(ソースコード・オブジェクトコード)は、独創性の条件を満たせばコンピュータプログラムとして保護される。第二に、AIが生成したアウトプットの保護をめぐる問題を論じる。著作者性(authorship)については、EU著作権法は自然人を前提としており、AI自体を著作者と認めることは現状では不可能である。しかし、AIの自律性が高まった場合、既存の枠組みでは不十分であり、データベース権のような隣接権・sui generis権の創設も選択肢となる。発明者性(inventorship)についても同様に、特許法は自然人を前提としており、DABUS事件で欧州特許庁はAIを発明者と認めなかった。所有権(ownership)については、AI生成物への関与度合いに応じて、プログラマー、トレーナー、ユーザーなど複数のステークホルダーが権利を主張しうるが、いずれも一長一短があり、現状では契約による解決が主流となる。第三に、その他の論点として、AI訓練のためのデータ利用と著作権侵害(テキスト・データマイニング例外とAI法53条の関係)、特許法の「当業者」概念へのAIの影響、商標法における「平均的消費者」概念への影響、そしてIP実務におけるAI活用(特許分類、商標検索等)を論じる。結論として、AI時代のIP法は、人間中心主義の枠組みを堅持しつつも、新たな法的課題に国際的な協調で対応する必要があると述べる。
第12章 EU AI法:批判的分析 EUのAI法は、その高尚な目的にもかかわらず、執行アーキテクチャに根本的な欠陥がある。自己評価と民間標準化機関への委任は実効的な人権保護を約束せず、結局はGDPRや欧州人権条約といった既存の枠組みがより重要な役割を果たすだろう。 本章は、2024年に成立したEUのAI法を批判的に検討する。著者らは、AI法の高尚な目的(民主主義、基本的人権、法の支配の保護)にもかかわらず、その実効性には深刻な疑問があると論じる。まず、AI法の成立過程を振り返り、高級専門家グループ(HLEG)の倫理ガイドラインが法的拘束力を持つべきという勧告が、最終的には市場調和を優先する「新立法フレームワーク(New Legislative Framework)」型の製品安全規制にすり替えられた経緯を描く。AI法は、リスクベース・アプローチを採用し、禁止されるAI行為(社会的スコアリング、職場・学校での感情認識等)、高リスクAIシステム(附則III)、汎用AIモデル(GPAI)、限定的リスクAI(透明性義務)を区分する。しかし、その執行アーキテクチャに根本的問題がある。高リスクAIシステムの適合性評価は、生物識別システムを除き、原則としてプロバイダー自身による自己評価(自己宣言)で足りる。これは「メタ規制(meta-regulation)」の典型であり、規制される主体に解釈権限を委ねるものである。さらに、具体的な技術基準は、欧州標準化機関(CEN/CENELEC)が策定する「調和規格(harmonized standards)」に委ねられるが、これらの機関は民間主導で透明性・民主的説明責任に欠け、基本的人権に関する専門性も乏しい。製造物責任の文脈で自己認証の有効性が疑問視されてきた実証研究(PIP乳房インプラント事件等)を踏まえると、AI法が掲げる人権保護は「お題目」に終わる可能性が高い。著者らは、真の保護はGDPRや欧州人権条約といった既存の法的枠組みに依然として依存せざるを得ないと結論づける。
第13章 教育とAI:学習者を代替するのか、能力を強化するのか? 教育におけるAIの目標は、人間の学習と教授を「代替」ではなく「増強」することにある。そのためには、AIが教育プロセスをどのように「オフロード」するかを分析し、教育の本質的価値(自律、正義、人間性)を設計に埋め込む不断の取り組みが必要である。 本章は、AIと教育の関係を「代替(replacement)」ではなく「増強(augmentation)」の視点から捉えるべきだと主張する。教育におけるAIの役割は、人間の学習と教授を最適化することにあり、AIと人間の強みを組み合わせる「ハイブリッド知能」が目指される。AIが教育タスクを「オフロード(肩代わり)」する度合いを分析するための枠組みとして、Detect-Diagnose-Actフレームワークと6段階オートメーションモデルを提示する。具体的なAI応用としては、学習者向け(アダプティブ・ラーニング、ITS)、教師向け(ダッシュボード)、管理向け(スケジューリング)の三類型を紹介する。倫理的枠組みの歴史的発展を概観した後、AIと教育に特化した主要な国際的枠組み(ユネスコ北京コンセンサス、欧州委員会の教育的ガイドライン)を分析する。これらの枠組みは、教育の本質的価値(資格付与、社会化、主体形成)を尊重しつつ、AIがもたらす公平性、透明性、人間の主体性等の課題に対処しようとしている。最後に、オランダの事例として、「教育のための価値コンパス」(自律、正義、人間性)と、NOLAI(National Education Lab AI)の「埋め込まれた倫理(embedded ethics)」アプローチを紹介する。NOLAIは、産学官の協働により、AIシステムの開発段階から倫理学者が関与し、実際の教室での価値葛藤を経験的に研究することで、責任あるAIの実装を目指している。
第14章 メディアとAI:デジタル公共圏における機会とリスク AIはメディアの制作・配信・検証を変革する可能性を持つが、同時に表現の自由、メディア多様性、独立性への深刻な脅威ももたらす。DSAやAI法は重要な一歩だが、その実効的執行と、プラットフォームへの過度な依存からの脱却が今後の焦点である。 本章は、AIがメディア産業にもたらす機会と、それが引き起こす法的・倫理的課題を多角的に分析する。AIの応用分野として、(1) コンテンツ制作(ロボットジャーナリズム、生成AIによる記事・画像作成)、(2) コンテンツ配信(レコメンデーション・システム、パブリック・サービス・メディアにおける価値実装)、(3) ファクトチェック(偽情報特定・検証)、(4) コンテンツ・モデレーション(コメント削除、違法コンテンツ対策)を概観する。課題としては、(1) データアクセスの困難さ(プラットフォームがデータを囲い込み、研究者・ジャーナリストの検証を妨げる)、(2) 訓練データのバイアス(特定集団に対する差別的表現の増幅)、(3) 透明性の欠如(アルゴリズムの内部動作が不透明)、(4) 表現の自由へのリスク(過剰削除(over-blocking)と過少削除(under-blocking)の両方の問題)、(5) メディアの多様性と独立性への脅威(プラットフォームのアルゴリズムがメディアのコンテンツを非表示にする、インフラ依存による編集独立性の低下)を論じる。EUの法的対応としては、DSA(透明性義務、VLOPのリスク評価義務、研究者へのデータアクセス)、AI法(深層偽造の開示義務、高リスクAI分類)、EMFA(メディア事業者に対する事前通知義務等の特別保護)を分析する。結論として、AIとメディアの関係は表現の自由、民主主義、文化の多様性に直結するため、これらの法規の実効的な執行と、小規模メディアを含む責任あるAI開発の支援が不可欠であると述べる。
第15章 医療とAI:データの二次利用と患者の自律性 健康データの二次利用は、患者の権利を侵害するものではなく、適切な技術的・組織的措置(仮名化、連合学習、透明性)を講じることで、データ保護とイノベーションは両立可能である。重要なのは、データの「管理者(custodian)」としての責任を自覚することである。 本章は、ヘルスケア分野におけるAIの開発・展開に不可欠な健康関連データの法的・倫理的課題を、特にデータ保護法(GDPR)の観点から分析する。ヘルスケアAIのライフサイクル(研究開発、市場投入、市販後調査)の各段階で、リアルワールドデータ(RWD)の利用が求められるが、これは多くの場合「個人データ」であり、かつ「機微データ」(GDPR9条)に該当する。まず、データの「所有権」概念を批判し、患者はデータの「所有者」ではなく、医療機関はデータの「管理者(custodian)」としての責任を負うと論じる。患者の自律性は、GDPR6条・9条が許容する範囲内で、同意(opt-in)またはオプトアウトを通じて尊重されるが、科学研究のための二次利用は原則として同意不要である(ただし、加盟国は9条4項により追加的制限を課すことができる)。データ共有の課題としては、(1) 匿名化と仮名化の区別(匿名化はGDPRの適用除外となるが、リンケージ攻撃のリスクが高まっている)、(2) プライバシー強化技術の例としての連合学習(federated learning:データを中央集約せずにモデル学習を行う技術)、(3) 組織的措置としての透明性の重要性(患者が自身のデータの二次利用状況を把握できる仕組み)を論じる。結論として、健康データの二次利用を妨げるのではなく、技術的・組織的措置を適切に実装することで、データ主体(患者)の保護とデータ活用の両立を図るべきであると主張する。
第16章 金融とAI:クレジット・スコアリングとアルゴリズムのバイアス AIによるクレット・スコアリングは金融包摂の可能性を秘める一方、従来の差別禁止法では捕捉しきれない新たな差別形態を生み出す。AI法や消費者信用指令は対応を試みるが、技術の複雑さと冗長な符号化が規制の実効性を脅かす。 本章は、金融サービス、特にクレット・スコアリングと与信判断におけるAI活用を事例に、その機会、倫理的課題、法的対応を分析する。伝統的な与信判断は、限定的な変数(収入、資産、過去の返済履歴)に基づく統計的手法であったが、AIとビッグデータの活用により、「あらゆるデータが信用データ」となる新たな段階に移行している(例:スマートフォンのアプリ種類、タイプミスの頻度、SNS上の交友関係など)。これにより、従来「信用履歴が薄い(thin-file)」層への金融包摂が進む可能性がある一方、深刻な倫理的課題も生じる。第一に、アルゴリズムによる差別(algorithmic discrimination)である。歴史的バイアス(過去の差別が訓練データに反映される)、 majority bias(多数派の属性が重視される)、あるいは企業の利潤最大化目的で脆弱な層が標的化されるリスクがある。第二に、不透明な監視(opaque surveillance)である。消費者は、どのデータが判断に用いられているかを知らず、スコアを操作するために行動を変えざるを得なくなる可能性がある( conformity)。法的対応としては、(1) 差別禁止法(直接差別・間接差別の法理)が適用されるが、AIによる「マスキング」や冗長な符号化(redundant encoding)が立証を困難にする。(2) EU AI法は、与信判断を高リスクAIシステムに分類し、リスク管理、データガバナンス、人間の監督を義務付ける。(3) 消費者信用指令(CCD)は、自動化された与信判断について説明を求める権利を付与し、センシティブデータの利用を禁止する。しかし、これらの規定も、技術の複雑さや冗長な符号化によって実効性が損なわれる可能性がある。最後に、信用スコアリングから社会生活全般を評価する「ソーシャル・スコアリング」への拡大の危険性に言及する。
第17章 労働とAI:労働法への課題 職場におけるAIの導入は、使用者と労働者の力の非対称性を劇的に拡大する。労働法は、情報・協議権、団体交渉権といった既存の道具立てを活用するとともに、アルゴリズム管理の透明性と説明責任を確保する新たなルール(プラットフォーム労働指令)を発展させる必要がある。 本章は、職場におけるAIの活用が労働法に投げかける課題を包括的に検討する。労働法の目的は、使用者と労働者の力の非対称性を調整し、労働者の尊厳と社会正義を保護することにある。AI、特にアルゴリズム管理(algorithmic management)の導入は、この非対称性をさらに拡大するリスクがある。アルゴリズム管理は、タスク割当、パフォーマンス評価、懲戒処分などを自動化し、大量のデータ処理を通じて労働者を「数値化」する。これにより、透明性の欠如、差別、プライバシー侵害、テクノストレス(technostress)などの問題が生じる。労働者の基本的権利として、情報・協議・参加権(ILO条約、EU指令)、団体交渉権、社会対話(social dialogue)が重要である。欧州の社会パートナーは、2020年に「デジタル化に関する自律的枠組み協定」を締結し、AIに関して「人間による制御(human-in-control)」の原則を確認した。EUの立法イニシアチブとしては、(1) AI法が、採用・人事評価などのシステムを高リスクに分類し、透明性・人間の監督を義務付ける(ただし、労働者に直接の権利を与えるものではない)、(2) AI責任指令が、高リスクAIによる損害の立証負担を軽減する可能性があるが、労働契約関係には適用が難しい、(3) 機械規則(Machinery Regulation)が、AI統合機械の安全性要件を強化する、(4) プラットフォーム労働指令(Directive on Platform Work)が、アルゴリズム管理の透明性と説明責任を初めて労働法に組み込む、などを紹介する。結論として、AI時代の労働法は、自律性の保持、説明を受ける権利の実効性確保、リスク評価への労働者代表の関与、監視の限界設定、AIリテラシーの向上など、多岐にわたる課題に取り組む必要がある。
第18章 警察活動とAI:予測警察の事例 予測警察は、その有効性が実証されていないにもかかわらず、社会的弱者に対する差別的影響や警察の正当性低下など深刻な害悪をもたらす。AI法による規制だけでなく、市民参加型のガバナンスと、実証されていない利益よりも害悪防止を優先する姿勢が不可欠である。 本章は、法執行におけるAI活用の一例として予測警察(predictive policing)を取り上げ、その法的・倫理的・社会的問題を詳細に分析する。予測警察には、犯罪発生場所を予測する「予測マッピング」と、犯罪者・被害者を予測する「予測識別」の二種類がある。欧州では、米国に遅れて2010年代から導入が進み、オランダのCAS、ドイツのPRECOBS、ベルギーの独自開発アルゴリズムなどの事例がある。しかし、その有効性については、犯罪減少効果を示す確固たるエビデンスは乏しく、Kent Policeやドイツの一部警察は運用を停止している。問題点として、(1) 法的課題:AI法案は法執行用途に広範な例外を認めており、LED(法執行指令)の「個人データ」該当性をめぐる解釈も分かれる(オランダのCASは非個人データと判断された)。(2) 有効性の課題:予測精度と犯罪減少効果は別問題であり、フィードバック・ループ(警官が同じ地域に繰り返し派遣されることでデータが偏る)や、透明性の欠如(ブラックボックス)が評価を困難にする。(3) 社会的課題:社会的弱者に対する差別的影響の固定化、過剰な監視による chill効果、警察の正当性(legitimacy)の低下。(4) ガバナンスの課題:評価基準の欠如、監督機関の専門性不足、市民参加の必要性。(5) 組織的課題:現場警察官のテクノロジーへの懐疑、オートメーション・バイアス(自動生成された判断を過信する傾向)、 deskillingのリスク。結論として、AI法による規制だけでなく、民主的な監視メカニズムと市民参加型のガバナンスが不可欠であり、実証されていない利益よりも社会的害悪が優先されるべきだと主張する。
第19章 行政とAI:アルゴリズムによる意思決定と適正手続き 行政機関によるアルゴリズム利用は、効率化の名の下に、法の支配と基本的人権を侵食する危険性を孕む。既存の行政法原則とGDPR、AI法を組み合わせた多層的なガバナンスが必須だが、最終的には行政職員一人ひとりの批判的判断力と倫理観に依存する部分が大きい。 本章は、行政機関がアルゴリズム・システム(アルゴリズム規制)を利用する際の倫理的・法的課題を分析する。行政機関は、社会福祉給付の決定、税務調査、罰則賦課など、市民の権利に直結する多様な決定を行っており、その効率化・迅速化を目的としてAI導入が進んでいる。しかし、実際にはオランダの託児所給付金スキャンダル、フランスのプール検出AI、英国のAレベル成績判定アルゴリズム、米国アイダホ州の医療給付アルゴリズムなど、深刻な問題が発生している。これらの事例は、基本的人権(プライバシー、差別禁止)の侵害だけでなく、「法の支配」の核心的な諸原則(合法性、法的確実性、恣意的権力の禁止、平等、実効的司法保護)を侵食するリスクを示す。アルゴリズム規制は、条文をコードに翻訳する過程で法の柔軟な解釈可能性を損ない、「法の支配」を「アルゴリズムによる法の支配(algorithmic rule by law)」に転換させる危険性がある。また、行政裁量が現場の職員からシステム設計者(多くは民間企業)に移転し、責任の所在が不明確になる。さらに、民間企業への依存(デジタル主権の問題)も生じる。法的ガバナンスとしては、憲法・行政法の一般原則(合法性、平等、比例性、参加、透明性)が引き続き適用されるほか、GDPR(特に22条の自動化された決定に対する権利)、そして新たなAI法(高リスクシステムの要件、禁止行為)が適用される。しかし、AI法の適用範囲には限界があり、行政法の原則を補完的に用いることが重要である。結論として、法的遵守だけでなく、行政職員のリテラシー向上と批判的判断を可能にする環境整備が不可欠である。
第20章 戦争とAI:致死性自律型武器システムと国際人道法 AI(特にLAWS)をめぐる議論は、殺人ロボットの全面禁止に集中しがちだが、より重要なのは既存の国際人道法をAIの設計・開発・使用に確実に埋め込むことである。AIは殺すためにも守るためにも使える。その方向性を決めるのは、技術ではなく、私たち人間の選択である。 本章は、武力紛争におけるAIの利用、特に致死性自律型兵器システム(LAWS)を中心に、国際人道法(IHL)の観点から検討する。IHLは、1864年ジュネーブ条約以降、戦争の悲惨さを軽減するために発展してきた。その中核的原則として、(1) 文民と戦闘員の区別、(2) 戦闘不能者(hors de combat)への攻撃禁止、(3) 不必要な苦痛の禁止、(4) 軍事上の必要性、(5) 均衡性(予想される軍事利益と付随的な文民被害の釣り合い)、(6) 人道性の原則がある。LAWSはこれらの原則に深刻な挑戦を突きつける。LAWSの定義は国際的に合意されておらず(米国国防総省と欧州議会の定義にも差異がある)、その能力や展開に関する情報も限られている(2020年リビアでのKargu-2の使用が初の公的認識例)。CCW(特定通常兵器使用禁止制限条約)の下での政府専門家会合(GGE)は11の基本原則を採択したが、法的拘束力はなく、進展は遅い。LAWS以外にも、AIは軍事意思決定支援、データ収集・監視、サイバー戦争など多様な用途で利用されており、これらもIHLの適用対象となる(特にサイバー攻撃の無差別性)。著者は、LAWSの全面禁止論よりも、既存のIHLをAIシステムの設計・開発・使用に組み込むことの重要性を強調する。AIは「殺すための武器」としても「守るための盾」としても使用可能であり、IHLを技術に埋め込むことで、後者の方向に傾ける努力が必要であると結論づける。

 

課題と解決案...

  課題 解決案
第1部:基盤と倫理    
序論(多角的視点) 学問領域ごとの断絶による「全体最適」の欠如。 法・倫理・政策の相互補完性を前提とした共通言語化。学際的タスクフォースによる多層的ガバナンス。
第1章(技術的基礎) ブラックボックス性に伴う「説明可能性」と「堅牢性」の両立の困難。 神経記号論的AI等のハイブリッド化に加え、ルールベースと機械学習の「適材適所の使い分け」の徹底。
第2章(哲学) AIを単なる道具と見なすことによる、知性や責任の概念の形骸化。 AIを鏡として「人間理解(意識・責任)」を再定義するプロセスの構築。拡張エージェントとしての新たな倫理規範の策定。
第3章(倫理) 倫理原則が形骸化する「倫理ウォッシュ」と、価値観の固定化。 Design for Valuesに基づく技術要件化。学際的協働による、社会の価値観変化に合わせた不断の要件見直し。
第4章(公平性) 公平性の定義衝突と、議論プロセスにおける「弱者の声」の不在。 関係的公正を重視した民主的討議。文脈に応じた合意形成プロセス自体をガバナンスとして設計する。
第5章(責任) AIによる損害に対し、責任の所在が曖昧になる(とされる)ギャップ。 ユーザーへのリスク受容の可視化と、予見可能性の高いリスク情報の提供。ログ記録による事実認定の効率化。
第6章(持続可能性) 環境負荷に加え、AI開発の背後にある権力非対称性や搾取的労働。 環境負荷の可視化に加え、サプライチェーン全体における社会的持続可能性(労働環境)の監査義務化。
第2部:法規制と制度    
第7章(データ保護/GDPR) データ最小化原則と、AI学習における比例性(バランス)の維持。 リスクベース・アプローチの徹底。何のためのデータ利用かを厳格に問う「目的拘束性」の再定義。
第8章(不法行為法) 複雑なサプライチェーンによる過失証明の困難と、国内法との不整合。 無過失責任の検討と共に、証拠開示や推定規定などの「手続き的救済」の整備。国内法との整合性確保。
第9章(競争法) 自律アルゴリズムによる協調行為(暗黙のカルテル)の捕捉困難。 サンドボックスによる発見に加え、アルゴリズムによる協調を規制するための新たな法規制枠組みの策定。
第10章(消費者保護) ダークパターン等の構造的脆弱性と、規制機関(消費者・データ保護・競争)の縦割り。 法域を超えた「サイロからの脱却」による統合的監視。消費者の撤回権と構造的保護の強化。
第11章(知的財産) AI生成物の権利化と学習データ利用の対立による市場の混乱。 オプトアウト方式の標準化。性急な法改正を避けつつ、既存の著作権法の解釈指針を明確化する。
第12章(EU AI法) 民間標準化機関への委任による「保護のお題目化」と執行アーキテクチャの欠陥。 独立した第三者認証の義務化。技術標準化プロセスへの市民参加と、民主的コントロールの担保。
第3部:セクター別の応用  
第13章(教育) 思考の「オフロード化(AI任せ)」による主体的な学びの喪失。 何をAIに委ね、何を人間に残すべきかの「オフロード分析」。思考を促すソクラテス的対話AIの開発。
第14章(メディア) ディープフェイクに加え、プラットフォーム依存によるメディア独立性の脅威。 出所証明(C2PA)の普及と、プラットフォームへの「データアクセス権」の強化による透明性確保。
第15章(医療) データの代表性欠如によるバイアスと、患者の自律性の毀損。 データ管理者(Custodian)の責任明確化。データ共有と患者の自律的な意思決定(インフォームド・コンセント)の両立。
第16章(金融) 直接的な差別変数を隠蔽する「冗長な符号化(代理変数)」によるバイアス。 XAIの義務化に加え、代理変数の相関性を検知するアルゴリズム監査の実施。
第17章(労働) AI監視によるテクノストレスと心理社会的リスクの増大。 評価項目の制限、監視の時間的制約の策定。アルゴリズム管理に関する団体交渉権の確立。
第18章(警察活動) 有効性が未実証な技術(予測警察等)の導入によるバイアスの固定化。 導入前の厳格な正当性評価。必要に応じた顔認証等の「導入モラトリアム(一時停止)」も選択肢に含める。
第19章(行政) 行政裁量のシステム設計者への移転と、民間企業への構造的依存。 公共調達要件の強化、職員のリテラシー向上。行政手続きの「適正手続き(Due Process)」の再設計。
第20章(戦争) 責任なき殺傷(LAWS)のリスクと、国際的な定義・条約合意の難航。 有意な人間による制御(MHC)の義務化。条約交渉と並行した、既存の国際人道法(兵器審査義務等)の厳格適用。

 

 

| | Comments (0)

2026.03.14

欧州 ETSI GR ISC 004 V1.1.1 (2026-02) 統合センシング・コミュニケーション(ISAC);セキュリティ、プライバシー、信頼性、および持続可能性 (2026.03.02)

こんにちは、丸山満彦です。

6G における ISAC(Integrated Sensing and Communication)を安全・プライバシー保護・信頼性・サステナビリティの観点から体系的に整理した包括的なレポートです...

6G の ISAC が社会実装される際に直面する課題を網羅し、19 の主要課題(15 がセキュリティ/プライバシー、4 がサステナビリティ)として整理していますね...

重要課題

5  Key issues on security and privacy 5 セキュリティとプライバシーに関する重要課題
#1: Use of 6GS for unauthorized sensing #1:不正な検知における6GSの利用
#2: Use of sensing signals by the target for data eavesdropping #2:データ盗聴を目的としたターゲットによるセンシング信号の利用
#3: Over-the-air manipulation of 6G RF sensing signals #3:6G RFセンシング信号の無線による操作
#4: Secure handling of sensing data #4:センシングデータの安全な取り扱い
#5: Integrity of ISAC-enabled 6GS entities, and immutability of sensing data or sensing results #5:ISAC対応6GS事業体の完全性、およびセンシングデータまたはセンシング結果の不変性
#6: Sensing privacy, confidentiality, and consent in non-public spaces #6:非公共空間におけるセンシングのプライバシー、機密性、および同意
#7: Privacy issues related to consent and transparency #7:同意と透明性に関するプライバシーの問題
#8: Privacy-related aspects regarding sensing of humans that are not connected to the 6GS #8:6GSに関連しない、人間を対象としたセンシングに関するプライバシー関連の側面
#9: Privacy-related aspects regarding sensing of humans that are connected to the 6GS #9:6GSに接続された人間のセンシングに関するプライバシー関連の側面
#10: Unauthorized passive 6G RF sensing #10:不正な受動的 6G RF センシング
#11: Authorization of ISAC-enabled 6GS entities #11:ISAC対応6GS事業体の認可
#12: Privacy-related aspects regarding UE positioning in sensing #12:センシングにおける UE 位置情報に関するプライバシー関連の側面
#13: Privacy risks from heterogeneous sensing capabilities #13:異種センシング機能に起因するプライバシーリスク
#14: Privacy-related aspects of AI-based sensing data processing #14:AI ベースのセンシングデータ処理におけるプライバシー関連の側面
#15: Privacy challenges and malicious attacks in cooperative sensing #15:協調センシングにおけるプライバシーの課題と悪意のある攻撃
7  key issuess on sustainability 7 持続可能性に関する重要課題
#1: Power consumption of ISAC-enabled 6GS #1:ISAC対応6GSの電力消費
#2: Utilization of spectrum resources in ISACenabled 6GS #2:ISAC対応6GSにおける周波数資源の利用
#3: Overall environmental system footprint of ISAC-enabled 6GS #3:ISAC対応6GSの環境システム全体への影響
#4: Considerations on 'good health and well-being' with ISAC-enabled 6GS #4:ISAC対応6GSにおける「健康と福祉」に関する考慮事項

 

 

ETSI

・2026.03.02 ETSI issues new Report on Security, Privacy, Trustworthiness and Sustainability for 6G Integrated Sensing and Communications 

ETSI issues new Report on Security, Privacy, Trustworthiness and Sustainability for 6G Integrated Sensing and Communications  ETSI、6G統合センシング・コミュニケーションのセキュリティ、プライバシー、信頼性、持続可能性に関する新たな報告書を公表
The ETSI Industry Specification Group on Integrated Sensing and Communications (ISAC) has published ETSI GR ISC 004, a comprehensive report addressing security, privacy, trustworthiness, and sustainability considerations for Integrated Sensing and Communications (ISAC) in future 6G systems. ETSIの統合センシング・コミュニケーション(ISAC)産業仕様グループは、将来の6Gシステムにおける統合センシング・コミュニケーション(ISAC)のセキュリティ、プライバシー、信頼性、および持続可能性に関する検討事項を網羅した報告書「ETSI GR ISC 004」を公表した。
The report identifies 19 key issues, including 15 related to security and privacy and 4 focused on sustainability, reflecting the growing importance of responsible design in next-generation networks. As ISAC enables 6G systems to simultaneously communicate and sense their environment, new technical, ethical, and regulatory challenges emerge—particularly around unauthorised sensing, data confidentiality, human privacy, AI-based data processing, and secure handling of sensing data. 本報告書は、次世代ネットワークにおける責任ある設計の重要性の高まりを反映し、セキュリティとプライバシーに関連する15項目、持続可能性に焦点を当てた4項目を含む計19の重要課題を識別している。ISACにより6Gシステムは通信と環境センシングを同時に行うことが可能となるため、特に不正なセンシング、データの機密性、個人のプライバシー、AIベースのデータ処理、およびセンシングデータの安全な取り扱いに関して、新たな技術的、倫理的、規制上の課題が生じている。
The ETSI Report addresses the following main topics: ETSIの報告書は、以下の主要なトピックを取り上げている:
・Protection against unauthorised use of 6G systems for sensing ・6Gシステムがセンシング目的で不正に使用されることへの対策
・Safeguards against target-based eavesdropping and over-the-air signal manipulation ・標的型盗聴および無線信号の改ざんに対する防護策
・Secure transport, storage, and immutability of sensing data ・センシングデータの安全な転送、保存、および不変性
・Consent, transparency, and privacy-preserving mechanisms for sensing humans (connected and non-connected) ・人間(接続されているか否かを問わず)をセンシングする際の同意、透明性、およびプライバシー保護メカニズム
・Confidentiality in non-public and sensitive spaces ・非公開および機密性の高い空間における機密性
・Sustainability challenges including power consumption, spectrum efficiency, environmental footprint, and health considerations ・消費電力、スペクトル効率、環境負荷、健康への配慮を含む持続可能性の課題
The report consolidates potential technical and non-technical requirements that future 6G systems should meet to ensure ISAC services are secure, privacy-preserving, trustworthy, and environmentally sustainable. 本報告書は、ISACサービスが安全で、プライバシーを保護し、信頼性が高く、環境的に持続可能なものであることを確保するために、将来の6Gシステムが満たすべき潜在的な技術的および非技術的要件をまとめたものである。
By providing a structured analysis of threats, regulatory considerations, and performance metrics, ETSI GR ISC 004 establishes an important foundation for embedding trust, resilience, and sustainability into the design of future 6G ISAC-enabled systems. 脅威、規制上の考慮事項、および性能指標に関する体系的な分析を提供することで、ETSI GR ISC 004は、将来の6G ISAC対応システムの設計に信頼性、レジリエンス、および持続可能性を組み込むための重要な基盤を確立している。

 

・[PDF

20260314-15703

・[DOCX][PDF] 仮訳

 

エグゼクティブサマリー...

Executive summary エグゼクティブサマリー
The present document provides a comprehensive study on aspects related to security, privacy, trustworthiness, and sustainability within the context of Integrated Sensing and Communications (ISAC). 本文書は、統合センシング・コミュニケーション(ISAC)の文脈における、セキュリティ、プライバシー、信頼性、および持続可能性に関連する側面について包括的な調査を提供する。
The present document identifies 19 key issues, of which 15 are related to privacy and security, and 4 related to sustainability. For each key issue, a detailed description is provided, together with potential technical and non-technical requirements. For the privacy and security key issues, the analysis is supported with a comprehensive set of threats per key issue. 本ドキュメントでは 19 の重要課題を特定しており、そのうち 15 はプライバシーとセキュリティに関連し、4 つは持続可能性に関連している。各重要課題について、詳細な説明と、想定される技術的および非技術的要件が示されている。プライバシーとセキュリティに関する重要課題については、各課題ごとの包括的な脅威のセットを用いて分析が裏付けられている。
In addition, the present document includes initial considerations on aspects related to trustworthiness and ownership of sensing data. The potential technical and non-technical requirements are analysed to identify consolidated requirements that future 6G systems should meet to deploy secure, privacy-preserving, trustworthy, and sustainable ISAC services. さらに、本報告書では、センシングデータの信頼性や所有権に関連する側面について、初期的な考察を盛り込んでいる。技術的および非技術的な要件の候補を分析し、安全でプライバシーを保護し、信頼性が高く、持続可能なISACサービスを展開するために、将来の6Gシステムが満たすべき統合要件を特定する。

 

目次...

Executive summary エグゼクティブサマリー
Introduction 序論
1 Scope 1 範囲
2 References 2 参考文献
2.1 Normative references 2.1 規範的参照
2.2 Informative references 2.2 参考資料
3 Definition of terms, symbols and abbreviations 3 用語、記号および略語の定義
3.1 Terms 3.1 用語
3.2 Symbols 3.2 記号
3.3 Abbreviations 3.3 略語
4 Definitions and foundations for security, privacy, trustworthiness, and sustainability 4 セキュリティ、プライバシー、信頼性、および持続可能性に関する定義と基礎
4.1 System terminology for ISAC-enabled 6G systems 4.1 ISAC対応6Gシステムのためのシステム用語
4.2 Security 4.2 セキュリティ
4.3 Personal Identifiable Information (PII) 4.3 個人を特定できる情報(PII)
4.4 Privacy 4.4 プライバシー
4.5 Trustworthiness 4.5 信頼性
4.6 Sensing policy, sensing consent and sensing transparency 4.6 センシング方針、センシング同意、およびセンシングの透明性
4.6.1 Sensing policy 4.6.1 センシング方針
4.6.2 Sensing consent 4.6.2 センシング同意
4.6.3 Sensing transparency 4.6.3 センシングの透明性
4.7 Sustainability 4.7 持続可能性
4.8 Types of Sensing Targets in ISAC-Enabled 6GS 4.8 ISAC対応6GSにおけるセンシング対象の種類
5 Key issues on security and privacy 5 セキュリティとプライバシーに関する主要課題
5.1 Key issue #1: Use of 6GS for unauthorized sensing 5.1 重要課題 #1:不正な検知における6GSの利用
5.1.1 Key issue details 5.1.1 主要課題の詳細
5.1.2 Security, privacy, and trustworthiness threats 5.1.2 セキュリティ、プライバシー、および信頼性に対する脅威
5.1.3 Potential requirements and metrics 5.1.3 想定される要件と評価指標
5.2 Key issue #2: Use of sensing signals by the target for data eavesdropping 5.2 重要課題 #2:データ盗聴を目的としたターゲットによるセンシング信号の利用
5.2.1 Key issue details 5.2.1 主要課題の詳細
5.2.2 Security, confidentiality, and trustworthiness threats 5.2.2 セキュリティ、機密性、および信頼性に対する脅威
5.2.3 Potential requirements and metrics 5.2.3 想定される要件と評価指標
5.3 Key issue #3: Over-the-air manipulation of 6G RF sensing signals 5.3 重要課題 #3:6G RFセンシング信号の無線による操作
5.3.1 Key issue details 5.3.1 主要課題の詳細
5.3.2 Security, privacy, and trustworthiness threats 5.3.2 セキュリティ、プライバシー、信頼性に対する脅威
5.3.3 Potential requirements and metrics 5.3.3 想定される要件と指標
5.4 Key issue #4: Secure handling of sensing data 5.4 重要課題 #4:センシングデータの安全な取り扱い
5.4.1 Key issue details 5.4.1 主要課題の詳細
5.4.2 Security, privacy, and trustworthiness threats 5.4.2 セキュリティ、プライバシー、信頼性に関する脅威
5.4.3 Potential requirements and metrics 5.4.3 想定される要件と測定基準
5.5 Key issue #5: Integrity of ISAC-enabled 6GS entities, and immutability of sensing data or sensing results 5.5 重要課題 #5:ISAC対応6GS事業体の完全性、およびセンシングデータまたはセンシング結果の不変性
5.5.1 Key Issue details 5.5.1 重要課題の詳細
5.5.2 Potential threats 5.5.2 潜在的な脅威
5.5.3 Potential requirements and metrics 5.5.3 潜在的な要件と指標
5.6 Key issue #6: Sensing privacy, confidentiality, and consent in non-public spaces 5.6 重要課題 #6:非公共空間におけるセンシングのプライバシー、機密性、および同意
5.6.1 Key issue details 5.6.1 重要課題の詳細
5.6.2 Security, privacy, and trustworthiness threats 5.6.2 セキュリティ、プライバシー、信頼性に関する脅威
5.6.3 Potential requirements and metrics 5.6.3 想定される要件と指標
5.7 Key issue #7: Privacy issues related to consent and transparency 5.7 重要課題 #7:同意と透明性に関するプライバシーの問題
5.7.1 Key issue details 5.7.1 主要な課題の詳細
5.7.2 Security, privacy, and trustworthiness threats 5.7.2 セキュリティ、プライバシー、および信頼性に対する脅威
5.7.3 Potential new requirements 5.7.3 想定される新たな要件
5.8 Key issue #8: Privacy-related aspects regarding sensing of humans that are not connected to the 6GS 5.8 重要課題 #8:6GSに関連しない、人間を対象としたセンシングに関するプライバシー関連の側面
5.8.1 Key issue details 5.8.1 主要課題の詳細
5.8.2 Security, privacy, and trustworthiness threats 5.8.2 セキュリティ、プライバシー、信頼性に関する脅威
5.8.3 Potential requirements and metrics 5.8.3 想定される要件と指標
5.8.4 Potential regulatory requirements 5.8.4 想定される規制要件
5.9 Key issue #9: Privacy-related aspects regarding sensing of humans that are connected to the 6GS 5.9 重要課題 #9:6GSに接続された人間のセンシングに関するプライバシー関連の側面
5.9.1 Key issue details 5.9.1 重要課題の詳細
5.9.2 Security, privacy, and trustworthiness threats 5.9.2 セキュリティ、プライバシー、および信頼性に関する脅威
5.9.3 Potential requirements and metrics 5.9.3 想定される要件と指標
5.9.4 Potential regulatory requirements 5.9.4 想定される規制要件
5.10 Key issue #10: Unauthorized passive 6G RF sensing 5.10 重要課題 #10:不正な受動的 6G RF センシング
5.10.1 Key issue details 5.10.1 重要課題の詳細
5.10.2 Security, privacy, and trustworthiness threats 5.10.2 セキュリティ、プライバシー、および信頼性に対する脅威
5.10.3 Potential requirements and metrics 5.10.3 想定される要件と評価指標
5.11 Key issue #11: Authorization of ISAC-enabled 6GS entities 5.11 重要課題 #11:ISAC対応6GS事業体の認可
5.11.1 Key Issue details 5.11.1 主要課題の詳細
5.11.2 Potential threats 5.11.2 潜在的な脅威
5.11.3 Potential requirements and metrics 5.11.3 想定される要件と指標
5.12 Key issue #12: Privacy-related aspects regarding UE positioning in sensing 5.12 重要課題 #12:センシングにおける UE 位置情報に関するプライバシー関連の側面
5.12.1 Key issue details 5.12.1 主要課題の詳細
5.12.2 Security, privacy, and trustworthiness threats 5.12.2 セキュリティ、プライバシー、信頼性に対する脅威
5.12.3 Potential requirements and metrics 5.12.3 想定される要件と指標
5.13 Key issue #13: Privacy risks from heterogeneous sensing capabilities 5.13 重要課題 #13:異種センシング機能に起因するプライバシーリスク
5.13.1 Key issue details 5.13.1 主要課題の詳細
5.13.2 Security, privacy and trustworthiness threats 5.13.2 セキュリティ、プライバシー、信頼性に対する脅威
5.13.3 Potential new requirements 5.13.3 想定される新たな要件
5.14 Key issue #14: Privacy-related aspects of AI-based sensing data processing 5.14 重要課題 #14:AI ベースのセンシングデータ処理におけるプライバシー関連の側面
5.14.1 Key issue details 5.14.1 重要課題の詳細
5.14.2 Security, privacy, and trustworthiness threats 5.14.2 セキュリティ、プライバシー、信頼性に関する脅威
5.14.3 Potential requirements and metrics 5.14.3 想定される要件と指標
5.15 Key issue #15: Privacy challenges and malicious attacks in cooperative sensing 5.15 重要課題 #15:協調センシングにおけるプライバシーの課題と悪意のある攻撃
5.15.1 Key issue details 5.15.1 主要課題の詳細
5.15.2 Security, privacy, and trustworthiness threats 5.15.2 セキュリティ、プライバシー、信頼性に対する脅威
5.15.3 Potential requirements and metrics 5.15.3 潜在的な要件と指標
6 Considerations and consolidation for privacy, security, and trustworthiness 6 プライバシー、セキュリティ、信頼性に関する考慮事項と統合
6.1 Considerations on sensing data ownership and accountability in ISAC System 6.1 ISACシステムにおけるセンシングデータの所有権および説明責任に関する考慮事項
6.2 Considerations for trustworthiness 6.2 信頼性に関する考察
6.3 Consolidated Potential Functional Requirements 6.3 統合された潜在的な機能要件
7 Key issues on sustainability 7 持続可能性に関する主要課題
7.1 Key issue #1: Power consumption of ISAC-enabled 6GS 7.1 重要課題 #1:ISAC対応6GSの電力消費
7.1.1 Key issue details 7.1.1 主要課題の詳細
7.1.2 Potential requirements and metrics 7.1.2 想定される要件と指標
7.2 Key issue #2: Utilization of spectrum resources in ISACenabled 6GS 7.2 重要課題 #2:ISAC対応6GSにおける周波数資源の利用
7.2.1 Key issue details 7.2.1 主要課題の詳細
7.2.2 Potential requirements and metrics 7.2.2 想定される要件と評価指標
7.3 Key issue #3: Overall environmental system footprint of ISAC-enabled 6GS 7.3 重要課題 #3:ISAC対応6GSの環境システム全体への影響
7.3.1 Key issue details 7.3.1 重要課題の詳細
7.3.2 Potential requirements and metrics 7.3.2 想定される要件と評価指標
7.4 Key issue #4: Considerations on 'good health and well-being' with ISAC-enabled 6GS 7.4 重要課題 #4:ISAC対応6GSにおける「健康と福祉」に関する考慮事項
7.4.1 Key issue details 7.4.1 重要課題の詳細
7.4.2 Potential requirements and metrics 7.4.2 想定される要件と指標
8 Considerations and consolidation on sustainability 8 持続可能性に関する考察と統合
8.1 High-level objectives for sustainability 8.1 持続可能性に関する高レベルな目標
9 Conclusion 9 結論
Annex A: Mapping of security and privacy key issues to use cases of ETSI GR ISC 001 附属書A:セキュリティおよびプライバシーの主要課題とETSI GR ISC 001のユースケースとの対応関係
Annex B: Mapping of sustainability key issues to use cases of ETSI GR ISC 001 附属書B:持続可能性に関する主要課題とETSI GR ISC 001のユースケースとの対応関係
History 沿革

 

 

 

| | Comments (0)

2026.01.24

Europol FS-ISAC 他 金融サービスにおける耐量子暗号移行活動の優先順位付け (2026.01.21)

こんにちは、丸山満彦です。

PQCですが、Europol(欧州刑事警察機構)がFS-ISAC、QRWGCFDIRQSFFが協力して、金融サービスにおける耐量子暗号移行活動の
優先順位付け
についての報告書を公表していますね...

金融機関が耐量子暗号への移行準備を進めるための体系的なリスクベースアプローチを提供するものとのことです...

なんか、金融機関がある意味実験台のようになっているような気もしないわけではないですが...

 

 

Europol

・2026.01.21 Prioritising post-quantum cryptography migration activities in financial services

・[PDF

20260122-183507

・「DOCX][PDF] 仮訳

 

目次...

EXECUTIVE SUMMARY エグゼクティブサマリー
CONTRIBUTORS 協力者
ENDORSEMENTS 支持声明
DISCLAIMER 免責事項
QUANTUM-SAFETY PRIORITISATION 量子安全性の優先順位付け
Assessing Risk with a Quantum Risk Score 量子リスクスコアによるリスクアセスメント
Assessing Migration Time 移行時期のアセスメント
Determining Migration Priority 移行優先度の決定
EXAMPLE USE CASES 使用例
Use case 1: Points of Sale ユースケース1:販売時点情報管理(POS)
Prioritisation analysis 優先順位付け分析
Migration Priority 移行優先度
Use case 2: Public websites ユースケース2:公開ウェブサイト
Prioritisation analysis 優先順位付け分析
Migration Priority 移行優先度
CRYPTOGRAPHIC ANTIPATTERNS 暗号化アンチパターン
CONCLUSION 結論

 

 

 

EXECUTIVE SUMMARY エグゼクティブサマリー
As post-quantum cryptography (PQC) becomes integrated into mainstream information technology (IT) products and services, financial services institutions must begin to execute their transition strategies. This document provides actionable guidelines to incorporate quantum safety into existing risk management frameworks by assessing the ‘Migration Priority’ based on the ‘Quantum Risk’ and ‘Migration Time’ of business use cases and highlighting opportunities for immediate execution. 耐量子暗号(PQC)が主流の情報技術(IT)製品やサービスに組み込まれるにつれ、金融機関は移行戦略の実行を開始しなければならない。本資料は、ビジネスユースケースの「量子リスク」と「移行時間」に基づき「移行優先度」を評価し、即時実行の機会を明確化することで、既存のリスクマネジメント枠組みに量子耐性を組み込むための実践的な指針を提供する。
A critical first step is to inventory all business use cases that rely on public key cryptography. This inventory enables the creation of a prioritised transition roadmap by assessing the Quantum Risk of each use case based on three parameters: 重要な第一歩は、公開鍵暗号に依存する全てのビジネスユースケースを洗い出すことだ。この洗い出しにより、以下の3つのパラメータに基づいて各ユースケースの量子リスクを評価し、優先順位付けされた移行ロードマップを作成できる。
▪ Shelf Life of Protected Data: How long the data remains sensitive. 保護データの有効期限:データが機密性を保つ期間。
▪ Exposure: The extent to which data is accessible to potential attackers. エクスポージャー:潜在的な攻撃者がデータにアクセスできる範囲。
▪ Severity: The business impact of a potential compromise. 深刻度:潜在的な侵害が発生した場合のビジネスへの影響度。
When the Quantum Risk is assessed, organisations can prioritise actions based on each use case’s Migration Time, i.e., the complexity and timeline required to achieve Quantum Safety for a use case. As part of this activity, organisations will identify, for instance, actions that can be launched immediately and the use cases that require coordination with long-term asset lifecycles. 量子リスクをアセスメントした組織は、各ユースケースの移行時間(つまり、そのユースケースで量子耐性を達成するために必要な複雑さと所要時間)に基づいて対策を優先順位付けできる。この活動の一環として、組織は例えば、直ちに開始できる対策や、長期的な資産ライフサイクルとの調整が必要なユースケースを特定する。
▪ Solution Availability: Maturity of PQC standards, and their general availability in products and services. ソリューションの可用性:PQC標準の成熟度、および製品・サービスにおける一般的な利用可能性。
▪ Execution Cost: The effort, cost, and complexity of implementing the quantum-safe solutions within the organisation. 実行コスト:組織内で量子耐性ソリューションを導入する際の労力、コスト、複雑さ。
▪ External Dependencies: Execution complexity due to coordination required with third parties and their transition roadmaps (standardisation bodies, vendors, peers, regulators, and customers).  ▪ 外部依存性:サードパーティ(標準化団体、ベンダー、同業者、規制当局、顧客)との調整やそれらの移行ロードマップが必要となるため、実行が複雑化する要因。
Examples of use cases that financial organisations can begin implementing today include: 金融機関が今日から導入できるユースケースの例には以下が含まれる:
▪ Integration of post-quantum requirements into the long-term roadmap for hardware-intensive use cases aligned with financial asset lifecycles.  ▪ 金融資産のライフサイクルに沿ったハードウェア集約型ユースケースの長期ロードマップへの耐量子要件の統合。 
▪ Enhancement of confidentiality protection for transactional websites. ▪ 取引用ウェブサイトの機密性保護の強化。
▪ Identification and elimination of cryptographic antipatterns to reduce future technical debt. ▪ 将来の技術的負債を削減するための暗号化アンチパターンの特定と排除。
These are examples of how financial institutions can take timely, structured steps toward an efficient and forward-looking transition to post-quantum cryptography. これらは機構が、効率的かつ先を見据えた耐量子暗号への移行に向けて、タイムリーかつ体系的な措置を講じられる具体例である。

 

 

 

| | Comments (0)

2026.01.22

世界経済フォーラム (WEF) The Global Risks Report 2026 21st Edition グローバルリスク報告書2026 (2026.01.14)

こんにちは、丸山満彦です。

今年もグローバルリスク報告書が、ダボス会議にあわせて公表されていますね。。。

ちなみに、この調査は2025年8月12日から9月22日に実施されているので、その後の大きな事案についての影響は反映されていないかもしれませんね。。。

2026年版の特徴は、地経学的リスクがトップとなったことですかね。経済手段が戦略的武器化されているということなのだろうと思います。これは、経済大国がその経済的な力を利用した外交あるいは安全保障のための行動をとっているということですかね...トップ10には経済的リスクは入っていませんが、経済的なリスクが上昇していますね...

そして、AIやサイバーといった技術要素も引き続き高いリスクとなっていますね...AIについては、AI単体のリスクというよりもAIの利用が派生的に招くリスクというのに注目が集まっていますね...

20260121-232007

20250117-54123

Fig1_20230112162401

ちなみに現在のリスクでいうと...

1_20260121232901

長期的なリスクと比較すると...

20260121-225308

20260121-225510

 

影響を考えてどの分野のリスクの解決を優先すべきかを考える際に参考になりますかね...

20260121-225424

 

 

 

● World Economic Forum

・2026.01.14 Global Risks Report 2026

・[PDF] Global Risks Report 2026

20260122-65352

Global Risks Report 2026

Preface 序文
Overview of methodology 方法論の概要
Global Risks 2025: A world of growing divisions グローバルリスク2025:分断が深まる世界
Global Risks 2035: The point of no return グローバルリスク2035:後戻りできない地点
Appendix: A 附属書A
Appendix: B 附属書B
Appendix: C 附属書C
Appendix: D 附属書D
Partner Institutes 協力機関
Acknowledgements 謝辞

 

 


過去分...

 

21 2025 2026.01.14 Web PDF Home
20 2025 2025.01.15 Web PDF Home
19 2024 2024.01.11 Web PDF Home
18 2023 2023.01.11 Web PDF Home
17 2022 2022.01.11 Web PDF Press
16 2021 2021.01.19 Web PDF Press
15 2020 2020.01.15 Web PDF Press
14 2019 2019.01.15 Web PDF Press
13 2018 2018.01.17 Web PDF Press
12 2017 2017.01.11 Web PDF Press
11 2016 2016.01.14 Web PDF Press
10 2015 2015.01.09 Web PDF Press
9 2014 2014.01.12 Web PDF Press
8 2013 2012.10.30 Web PDF Press
7 2012 2012.01.05 Web PDF Press
6 2011 2011.09.27 Web PDF Press
5 2010 2010.01.04 Web PDF Press
4 2009     PDF  
3 2008     PDF  
2 2007     PDF  
1 2006     PDF  

 


 

 まるちゃんの情報セキュリティ気まぐれ日記

・2025.01.17 世界経済フォーラム (WEF) The Global Risks Report 2025 20th Edition グローバルリスク報告書2025

・2024.01.12 世界経済フォーラム (WEF) The Global Risks Report 2024 19th Edition グローバルリスク報告書2024

・2023.01.12 世界経済フォーラム (WEF) The Global Risks Report 2023 18th Edition グローバルリスク報告書2023

・2022.01.14 世界経済フォーラム (WEF) The Global Risks Report 2022 17th Edition - 2022年のグローバルリスクのトップは、気候変動への適応の失敗と社会的危機

・2021.01.21 世界経済フォーラム The Global Risks Report 2021 16th Edition - 世界は長期的リスクへの対応に目覚めるべきである

 

 

| | Comments (0)

2025.12.25

米国 国家安全保障戦略 (2025.12.04)

こんにちは、丸山満彦です。

バイデン大統領が2022.10.13に国家安全保障戦略を公表していましたが、トランプ政権になって8ヶ月、トランプ大統領の国家安全保障戦略が公表されています...

バイデン大統領の国家安全保障戦略と比較すると、焦点が絞られていて、かつ内容は経済に関することが大部分となっていますね...中国、ロシア、北朝鮮、イランを明確に意識したつくりから、それらの4カ国に関する章はなく、地域の章にまとめられています。そして、北朝鮮に関しては一言も触れられていませんね...

米国の強みを見つめ直し、トランプさんの過去の経験やこれからの希望を踏まえた理念を混ぜて、作ったのですかね...

 

変化のポイントでいうと...

・基本的な見方:「民主主義vs専制主義」から「アメリカの国益重視」

・基本的な姿勢:「国際協力」から「アメリカの国益優先」

・外交姿勢:「価値観外交」から「実利重視外交」

・軍事;「多様性と統合抑止(サイバー含む)」から「圧倒的な物理的な力による抑止」(陸海空軍の強さの維持)

・環境:「クリーンエネルギー」から「石油エネルギー」(石油資源は米国の強み)

・同盟:「戦略的資産」から「国益に従った条件付き支援(負担分担)」

・中国;「競争しつつも協力(気候変動等)も」から「全面的な競争。特に経済領域」

・ロシア:「目前の脅威」から「停戦優先」

・優先地域:「欧州、アジア太平洋」から「西半球」(麻薬、経済面含め)

・移民:「管理した受け入れ」から「大量移民の阻止」

 

日本としては、米国の国益と合う部分と合わない部分を見極めて、米国の国益と合わない部分については、欧州、アジア諸国などの他国との連携も含めて対応(もちろん、米国の顔色を伺いながら...)するという感じになるのですかね...

 

White House

・2025.12.04 [PDF] National Security Strategy of the United States of America  [downloaded]

20251225-43420

 

・[DOCX][PDF] 仮訳

 


 

Atlantic Council の専門家のコメント

・2025.12.05 Experts react: What Trump’s National Security Strategy means for US foreign policyB

 

Brookings研究所の専門家のコメント

・2025.12.08 Breaking down Trump’s 2025 National Security Strategy

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2022.10.14 米国 国家安全保障戦略

 

| | Comments (0)

2025.10.31

紹介 クロスセクター・サイバーセキュリティ法 蔦大輔監修 森・濱田松本法律事務所

こんにちは、丸山満彦です。

蔦大輔さんが監修で 森・濱田松本法律事務所外国法共同事業(サイバーセッキュリティ法研究チーム)著で[amazon]「クロスセクター・サイバーセキュリティ法」が商事法務から出版されていますね...

帯はNTTセキュリティCEOの横浜さん。「圧倒されました。基本用語からAIや宇宙など最先端まで、サイバーセキュリティに関わるリーガルイシューすべてを網羅。現場実務に寄り添った法務解説が満載のデジタル社会ではすべての会社に必携の1冊」

クロスセクターというのが、まさにポイントですね...サイバーセキュリティ単独の法律問題というよりも、実務がサイバーとフィジカルな空間で融合して行われてきているということから、サイバー(デジタル)空間での活動量が増えるとことによる変化が各分野でどのようにおこるのか?という視点でまとめられているように思いました...そういう意味では、ここまで網羅的に書籍をまとめるというのは大変な話で、かつ大手の法律事務所だからこそできたという面はあるかもしれません。。。

 

 No.00 法律(総論) サイバーセキュリティに関連する様々な法令
第1部 主要法分野  
 No.01 会社法 内部統制システムの構築とランサムウェア対応
 No.02 ディスクロージャー 金融商品取引法を中心とするサイバーセキュリティ関連の情報開示
 No.03 個人情報保護法 個人データ漏えい等対応における諸論点
 No.04 営業秘密保護 機密情報の持ち出し・持込への対応
 No.05 独禁法・競争法 サイバーセキュリティ向上のための取組に際して独禁法・競争法上留意すべき事項
 No.06 労働法 セキュリティ目的でのモニタリングと雇用管理上の諸論点
 No.07 システム開発 裁判例からみるシステムベンダとの関係
 No.08 弁護士実務(Column) 弁護士実務におけるセキュリティの重要性
 No.09 刑事法 サイバーセキュリティに関する犯罪に対する刑事的分析および実務対応
 No.10 危機管理 外部からのサイバー攻撃を念頭に置いた危機管理対応
 No.11 M&A デュー・ディリジェンス、契約条項、FDI規制
 No.12 経済安全保障① 外為法に基づく輸出管理・投資管理・経済制裁とサイバーセキュリティ
 No.13 経済安全保障② セキュリティ・クリアランス
第2部 各種インフラ  
 No.14 インフラ防護 能動的サイバー防御を含む重要インフラ・基幹インフラの防護とサプライチェーン・リスク対策
 No.15 金融 金融分野におけるサイバーセキュリティ
 No.16 保険関連法 サイバー保険に関する諸論点
 No.17 エネルギー・インフラ 電気事業におけるサイバーセキュリティ対策
 No.18 通信インフラ 電気通信事業者におけるセキュリティ対策と通信の秘密
 No.19 データセンタービジネス(Column) データセンター事業の発達とセキュリティ対策
 No.20 医療 医療機関・医療機器のサイバーセキュリティ
 No.21 モビリティ 自動車のサイバーセキュリティ保安基準と自動運転に関する諸論点
 No.22 空・海のインフラ(Column) 航空・船舶とサイバーセキュリティの諸論点
第3部 応用・複合分野  
 No.23 クラウド クラウドサービスのセキュリティに関する法令等と実務対応
 No.24 IoT IoT機器のセキュリティ
 No.25 ECサイト クレジットカード情報の取扱いに係る留意点
 No.26 防災 サイバーリスクに備えたBCPの策定
 No.27 AI AI技術の進化と、AIとセキュリティに関する法的課題
 No.28 メタバース メタバースに関する官民の取組とデジタルアイデンティティ
 No.29 宇宙(Column) 宇宙事業の拡大とサイバーセキュリティの重要性
 No.30 Fintech 資金決済法に関する事業者におけるセキュリティ対策
 No.31 DFFT(Column) 国際的なデータ流通の枠組みを日本が主導するために企業に求められる対応
第4部 国際法務  
 No.32 アジア法務 シンガポール、タイ、ベトナム、インドネシアにおけるサイバーセキュリティ法制
 No.33 中国法務 いわゆるデータ三法とサイバーセキュリティ
 No.34 EU 法務 EUにおけるサイバーセキュリティ分野の法規制
 No.35 アメリカ法務 アメリカにおけるサイバーセキュリティ関連法規制
 No.36 イスラエル法務 サイバーセキュリティビジネスのエコシステムとイスラエル法

 

・書籍...

Img_1142

 

みなさん、是非、ご一読を...

ちなみに、アフェリエイトではないです(^^)...

 

 

| | Comments (0)

2025.10.09

OECD 方針文書:AIトレーニングのための関連データ収集メカニズムのマッピング(2025.10.03)他

こんにちは、丸山満彦です。

OECDがいくつかのAIに関する方針文書と作業文書(ワーキングペーパー)を公表していたので、まとめて備忘録...

 

2025.10.03 Policy paper: Mapping relevant data collection mechanisms for AI training 方針文書:AIトレーニングのための関連データ収集メカニズムのマッピング
2025.09.26 Working paper: Advancing the measurement of investments in artificial intelligence 作業文書:人工知能への投資測定の推進
2025.09.25 Working paper: How are AI developers managing risks? - Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct 作業文書:AI開発者はリスクをどのように管理しているか? - 広島AIプロセス行動規範の報告枠組みへの回答から得られた知見
2025.09.25 Working paper: Leveraging artificial intelligence to support students with special education needs 作業文書:特別支援教育を必要とする生徒の学習目標達成に向けた人工知能の活用
2025.08.14 Policy paper: AI openness 方針文書:AIのオープン性
2025.07.31 Working paper: Exploring win-win outcomes of algorithmic management 作業文書:アルゴリズム管理におけるウィンウィンの成果の探求
2025.06.30 Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies 作業文書:G7経済圏における人工知能(AI)によるマクロ経済的生産性向上
2025.06.30 Policy paper: AI and the future of social protection in OECD countries 方針文書:OECD諸国におけるAIと社会保障の未来
2025.06.27 Working paper: Is generative AI a General Purpose Technology? - Implications for productivity and policy 作業文書:生成AIは汎用技術か? - 生産性と政策への示唆

 

 

OECD

・2025.10.03 Policy paper: Mapping relevant data collection mechanisms for AI training

Policy paper: AI openness 方針文書:AIのオープン性
Abstract 要旨
This paper explores the concept of openness in artificial intelligence (AI), including relevant terminology and how different degrees of openness can exist. It explains why the term "open source" – a term rooted in software – does not fully capture the complexities specific to AI. This paper analyses current trends in open-weight foundation models using experimental data, illustrating both their potential benefits and associated risks. It incorporates the concept of marginality to further inform this discussion. By presenting information clearly and concisely, the paper seeks to support policy discussions on how to balance the openness of generative AI foundation models with responsible governance. 本稿は人工知能(AI)におけるオープン性の概念を探求し、関連用語や異なるレベルのオープン性の存在形態を考察する。ソフトウェア分野に由来する「オープンソース」という用語がAI特有の複雑性を完全に捉えきれない理由を説明する。実験データを用いてオープン重み付け基盤モデルの現状動向を分析し、その潜在的利点と関連リスクを明らかにする。議論を深めるため限界性の概念を取り入れている。情報を明確かつ簡潔に提示することで、生成AI基盤モデルの開放性と責任あるガバナンスのバランスに関する政策議論を支援することを目的とする。

 

・[PDF]

20251008-54829

 

 


・2025.09.26 Working paper: Advancing the measurement of investments in artificial intelligence

 

Working paper: Advancing the measurement of investments in artificial intelligence 作業文書:人工知能への投資測定の推進
Abstract 要旨
This working paper presents a methodology for estimating public and private artificial intelligence (AI) investments in European Union (EU) Member States, focusing on assets and capabilities. It categorises investments into four groups: skills, research and development, data and equipment, and other intellectual property products. Using publicly available national accounts and sector-specific sources, AI investments are estimated by applying AI intensity coefficients derived from patent data, academic programmes, and workforce statistics. The estimates highlight how AI investments are distributed across EU countries. The methodology also disaggregates investments in areas such as information and communication technologies, specialist remuneration, corporate training, software and databases, and telecommunications equipment. This work supports efforts to measure the evolving AI investment landscape in the EU. 本作業文書は、欧州連合(EU)加盟国における公的・民間の人工知能(AI)投資を、資産と能力に焦点を当てて推定する手法を提示する。投資をスキル、研究開発、データ・設備、その他の知的財産製品の4グループに分類する。公開されている国民経済計算及び業種別情報源を用い、特許データ、学術プログラム、労働力統計から導出されたAI集約度係数を適用することでAI投資を推計する。この推計は、EU諸国におけるAI投資の分布状況を明らかにする。本手法は、情報通信技術、専門家報酬、企業研修、ソフトウェア・データベース、通信機器などの分野への投資を細分化する。本研究は、EUにおける進化するAI投資環境の測定努力を支援するものである。

 

 

・[PDF]

20251008-54834

 


・2025.09.25 Working paper: How are AI developers managing risks?

Working paper: How are AI developers managing risks? 作業文書:AI開発者はリスクをどのように管理しているか?
Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct 広島AIプロセス行動規範の報告枠組みへの回答から得られた知見
Abstract 要旨
Rapid advances in artificial intelligence (AI) are reshaping economies and societies, creating significant opportunities while also raising important considerations around the effective governance and risk management of advanced AI systems. Launched in February 2025, the Hiroshima AI Process Reporting Framework is the first international, voluntary tool to help organisations report on their practices compared to the Hiroshima AI Process International Code of Conduct for Organisations Developing Advanced AI Systems. This report presents preliminary insights from submissions by 20 organisations across diverse sectors and countries, examining their approaches to risk identification and management, transparency, governance, content authentication, AI safety research, and the advancement of global interests. 人工知能(AI)の急速な進歩は経済と社会を再構築し、大きな機会を生み出す一方で、高度なAIシステムの効果的なガバナンスとリスク管理に関する重要な考慮事項も提起している。2025年2月に開始された「広島AIプロセス報告枠組み」は、先進的AIシステムを開発する組織向けの「広島AIプロセス国際行動規範」に照らした自組織の実践状況を報告するための、初の国際的かつ自主的なツールである。本報告書は、多様な分野・国々の20組織からの提出資料に基づく予備的知見を提示し、リスクの特定・管理、透明性、ガバナンス、コンテンツ認証、AI安全研究、およびグローバルな利益の推進に関する各組織のアプローチを検証する。

 

・[PDF]

20251008-54840

 


・2025.09.25 Working paper: Leveraging artificial intelligence to support students with special education needs

Working paper: Leveraging artificial intelligence to support students with special education needs 作業文書:特別支援教育を必要とする生徒の学習目標達成に向けた人工知能の活用
Abstract 要旨
This working paper examines how artificial intelligence (AI) can support students with special education needs (SEN) to achieve their learning goals, while underlining key risks and limitations. It defines central terms and the rationale for using AI in this context and reviews a selection of research-backed AI tools that aim to empower students with SEN. Based on this review, it highlights risks and limitations to consider and mitigate when procuring, creating and employing AI-enabled tools for students with SEN and beyond. The paper discusses governance and operational mechanisms for ensuring their implementation is ethical, sustainable and secure. It concludes with policy considerations for developing, selecting and integrating AI tools to foster inclusive education, particularly related to ethical design, research and monitoring, data protection and security, and accountability. 本作業文書は、人工知能(AI)が特別支援教育を必要とする生徒(SEN)の学習目標達成をいかに支援できるかを検証するとともに、主要なリスクと限界を強調する。この文脈におけるAI活用の核心用語と根拠を定義し、SEN生徒の能力強化を目的とした研究裏付けのあるAIツールを厳選して検討する。この検討に基づき、SEN生徒およびそれ以外の生徒向けにAI搭載ツールを調達・開発・導入する際に考慮・軽減すべきリスクと限界を指摘する。本稿では、その導入が倫理的、持続可能かつ安全であることを保証するためのガバナンスと運用メカニズムについて論じる。最後に、特に倫理的な設計、研究とモニタリング、データ保護とセキュリティ、説明責任に関連して、インクルーシブ教育を促進するためのAIツールの開発、選択、統合に関する政策上の考慮事項を結論として提示する。

 

・[PDF]

20251008-54845

 


・2024.08.14 Policy paper: AI openness

Policy paper: AI openness 方針文書:AIのオープン性
Abstract 要旨
This paper explores the concept of openness in artificial intelligence (AI), including relevant terminology and how different degrees of openness can exist. It explains why the term "open source" – a term rooted in software – does not fully capture the complexities specific to AI. This paper analyses current trends in open-weight foundation models using experimental data, illustrating both their potential benefits and associated risks. It incorporates the concept of marginality to further inform this discussion. By presenting information clearly and concisely, the paper seeks to support policy discussions on how to balance the openness of generative AI foundation models with responsible governance. 本稿は人工知能(AI)におけるオープン性の概念を探求し、関連用語や異なるレベルのオープン性の存在形態を考察する。ソフトウェア分野に由来する「オープンソース」という用語がAI特有の複雑性を完全に捉えきれない理由を説明する。実験データを用いてオープン重み付け基盤モデルの現状動向を分析し、その潜在的利点と関連リスクを明らかにする。議論を深めるため限界性の概念を取り入れている。情報を明確かつ簡潔に提示することで、生成AI基盤モデルの開放性と責任あるガバナンスのバランスに関する政策議論を支援することを目的とする。

 

 

・[PDF]

20251008-54850

 


・2025.07.31 Working paper: Exploring win-win outcomes of algorithmic management

Working paper: Exploring win-win outcomes of algorithmic management 作業文書:アルゴリズム管理におけるウィンウィンの成果の探求
Abstract 要旨
This research project explores how worker consultation can deliver “win-win” outcomes for firms and workers in the context of the introduction of an algorithmic management system in firms. It does so using a novel research design: a laboratory experiment involving worker participants carried out in three German manufacturing firms in which a simulation of an algorithmic management system was altered to affect firm outcomes (productivity) and worker outcomes (job quality). The results show that consultations between workers, managers and works council representatives can lead to agreement on the design of a new technology that stakeholders deem to preserve firm-level productivity gains while also improving workers’ job quality. The project advances research methods for understanding the dynamics underlying worker consultation and how it can be beneficial in contexts of new technology introduction. Further research should expand the scope of this methodology (in terms of the number of participants, sectors and other countries), to substantiate the findings. 本研究プロジェクトは、企業におけるアルゴリズム管理システムの導入という文脈において、労働者との協議が企業と労働者の双方にとって「ウィンウィン」の結果をもたらす方法を模索する。そのために、独創的な研究デザインを採用している:ドイツの3つの製造企業で実施された労働者参加型の実験室実験であり、アルゴリズム管理システムのシミュレーションを改変して企業成果(生産性)と労働者成果(仕事の質)に影響を与えた。結果は、労働者・管理職・労働評議会代表者間の協議が、企業レベルの生産性向上を維持しつつ労働者の仕事の質を改善すると関係者が判断する新技術設計への合意につながることを示した。本プロジェクトは、労働者協議の基盤となる力学と、新技術導入の文脈におけるその有益性を理解するための研究手法を発展させる。今後の研究では、この方法論の範囲(参加者数、業種、他国)を拡大し、知見を実証すべきである。

 

 

・[PDF]

20251008-54855

 


・2025.06.30 Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies

Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies 作業文書:G7経済圏における人工知能(AI)によるマクロ経済的生産性向上
Abstract 要旨
The paper studies the expected macroeconomic productivity gains from Artificial Intelligence (AI) over a 10-year horizon in G7 economies. It builds on our previous work that introduced a micro-to-macro framework by combining existing estimates of micro-level performance gains with evidence on the exposure of activities to AI and likely future adoption rates. This paper refines and extends the estimates from the United States to other G7 economies, in particular by harmonising current adoption rate measures among firms and updating future adoption path estimates. Across the three scenarios considered, the estimated range for annual aggregate labour productivity growth due to AI range between 0.4-1.3 percentage points in countries with high AI exposure – due to stronger specialisation in highly AI-exposed knowledge intensive services such as finance and ICT services – and more widespread adoption (e.g. United States and United Kingdom). In contrast, projected gains in several other G7 economies are up to 50% smaller, reflecting differences in sectoral composition and assumptions about the relative pace of AI adoption. 本稿は、G7経済圏における人工知能(AI)の10年間にわたるマクロ経済的生産性向上の見込みを分析する。既存のミクロレベルにおけるパフォーマンス向上の推計値と、AIへの活動露出度および将来の採用率に関する証拠を組み合わせたミクロからマクロへの枠組みを導入した我々の先行研究を発展させたものである。本稿では、米国から他のG7諸国への推計を精緻化・拡張し、特に企業間の現行導入率指標の調和化と将来導入経路推計の更新を行った。検討した3つのシナリオにおいて、AIの影響度が高い国々(金融やICTサービスなどAIの影響を強く受ける知識集約型サービスへの高度な特化が進み、導入がより広範な米国や英国など)では、AIによる年間総労働生産性成長率の推定値は0.4~1.3パーセントポイントの範囲となる。対照的に、他のいくつかのG7経済圏では、部門構成の違いやAI導入の相対的なペースに関する仮定の違いを反映し、予測される利益は最大50%小さくなっている。

 

 

・[PDF]

20251008-54900

 


・2025.06.30 Policy paper: AI and the future of social protection in OECD countries

Policy paper: AI and the future of social protection in OECD countries 方針文書:OECD諸国におけるAIと社会保障の未来
Abstract 要旨
Governments in OECD countries are increasingly applying advanced uses of data and technology to improve the coverage, effectiveness and efficiency of social programmes, yet they are proceeding with caution when introducing artificial intelligence (AI). Common AI uses in social protection include client support, automating back-office processes and fraud detection. Looking ahead, there is significant potential for AI to help improve the performance of social programmes – including through predictive analytics, enhanced outreach and better-tailored interventions – but governments must continue to build trust and foster transparency when using AI. OECD諸国の政府は、社会保障プログラムの適用範囲、効果、効率性を向上させるため、データと技術の高度な活用をますます進めているが、人工知能(AI)の導入には慎重な姿勢を示している。社会保障分野におけるAIの一般的な用途には、クライアント支援、バックオフィス業務の自動化、不正検知などが含まれる。今後、予測分析、アウトリーチ強化、より適切な介入などを通じて、AIが社会プログラムのパフォーマンス向上に大きく貢献する可能性はあるが、政府はAI利用において信頼構築と透明性確保を継続しなければならない。

 

 

・[PDF]

20251008-54906

 


・2025.06.27 Working paper: Is generative AI a General Purpose Technology?

Working paper: Is generative AI a General Purpose Technology? 作業文書:生成AIは汎用技術か?
Implications for productivity and policy 生産性と政策への示唆
Abstract 要旨
The rapid rise of generative AI has sparked discussions about its potentially transformative effects and whether the technology will bring significant benefits in the form of widespread productivity increases. Through a review of theoretical literature and early empirical evidence, including novel descriptive analysis, this study suggests that generative AI has considerable potential to qualify as a new general-purpose technology (GPT). Despite the early evidence, generative AI appears to exhibit the defining characteristics of GPTs: i) pervasiveness, ii) continuous improvement over time and iii) innovation spawning. While productivity gains may not materialise immediately, the evolution of earlier GPTs seems to provide encouraging signs that generative AI could lead to substantial improvements in productivity in the future, notably through the innovation-spawning channel. The full realisation of generative AI’s productivity potential in the long-term will depend on the implementation of relevant policies. 生成AIの急速な台頭は、その変革的な影響の可能性と、この技術が広範な生産性向上という形で大きな利益をもたらすかどうかについての議論を喚起している。理論的文献と初期の実証的証拠(新規記述分析を含む)のレビューを通じて、本研究は生成AIが新たな汎用技術(GPT)として認定される可能性を十分に有していることを示唆する。初期段階の証拠にもかかわらず、生成AIはGPTの定義的特徴であるi) 普遍性、ii) 時間の経過に伴う継続的改善、iii) イノベーション創出を示している。生産性向上が直ちに実現しない可能性はあるものの、先行するGPTの進化は、特にイノベーション創出経路を通じて、生成AIが将来的に生産性の大幅な向上をもたらす可能性を示す有望な兆候を提供している。生成AIの生産性向上の可能性が長期的に完全に実現されるかどうかは、関連する政策の実施にかかっている。

 

・[PDF]

20251008-54913

 


 

 

| | Comments (0)

2025.09.20

AIイノベーションのための共同プライバシー宣言を採択 (2025.09.17)

こんにちは、丸山満彦です。

2025.09.15-17に第47回グローバルプライバシー総会(GPA)が、韓国のソウルで開催されていましたが、最終日に、2025.02.11に韓国、フランス、英国、アイルランド、オーストラリアの5カ国で署名された「AIイノベーションのための共同プライバシー宣言」に15カ国が署名し、合計20カ国採択することになりましたね。。。

署名国は、カナダ、イタリア、ドイツ、オランダ、スペイン、ニュージーランド、香港が新たな署名国ですね...日本の名前はないですね...

 

 

개인정보위

・2025.09.17 GPA 서울 총회 계기, 20개 감독기구 간 AI 혁신 위한 프라이버시 공동 선언문 채택

 

GPA 서울 총회 계기, 20개 감독기구 간 AI 혁신 위한 프라이버시 공동 선언문 채택 GPAソウルサミット:20の監督団体がAIイノベーションのための共同プライバシー宣言を採択
  서울에서 개최된 제47차 글로벌 프라이버시 총회(GPA)를 계기로 국내 혁신 지향적 인공지능(이하 ‘AI’) 프라이버시 정책에 대한 국제적 외연이 대폭 확장된다. ソウルで開催された第47回グローバルプライバシーアセンブリ(GPA)は、韓国のイノベーション志向型人工知能(AI)プライバシー政策の国際的影響力を大幅に拡大した。
  개인정보보호위원회(위원장 고학수, 이하 ‘개인정보위’)는 9월 17일(수) 고학수 위원장과 캐나다·뉴질랜드·홍콩 등 20개 개인정보 감독기구 대표가 참석한 가운데, AI 시대 개인정보 보호와 국제 데이터 거버넌스 구축 관련 공동 선언문에 대한 서명식을 진행했다.  個人情報保護委員会(PIPC、高鶴秀委員長)は9月17日(水)、AI時代における個人情報保護と国際データガバナンス構築に関する共同宣言の調印式を開催した。式典には高鶴秀委員長と、カナダ、ニュージーランド、香港など20の個人情報監督機関の代表者が出席した。
  개인정보위는 지난 2월 파리 인공지능 액션 서밋(AI Action Summit)에서 프랑스(CNIL), 영국(ICO), 아일랜드(DPC), 호주(OAIC) 개인정보 감독기구와 함께 ‘AI 시대의 국제 데이터 거버넌스와 개인정보 보호’를 주제로 고위급 원탁회의를 개최하고 AI 시대 혁신 친화적 개인정보 정책에 대한 공동의 비전을 제시하는 공동 선언문*을 채택했다.  今年2月には、パリAIアクションサミットにおいて、フランス(CNIL)、英国(ICO)、アイルランド(DPC)、オーストラリア(OAIC)の個人情報監督機関と共に「AI時代の国際データガバナンスと個人情報保護」に関するハイレベル円卓会議を主催。AI時代におけるイノベーションに友好的な個人情報政策の共通ビジョンを示す共同宣言*を採択した。
   * (영문) Joint statement on building trustworthy data governance frameworks to encourage development of innovative and privacy-protective AI  * (英語) Joint statement on building trustworthy data governance frameworks to encourage development of innovative and privacy-protective AI 
     (국문) 혁신적이고 개인정보를 보호하는 AI 개발 장려를 위한 신뢰할 수 있는 데이터 거버넌스 체계 구축에 관한 공동 선언문 (韓国語) 革新的かつプライバシー型のAI開発を促進する信頼性あるデータガバナンス枠組み構築に関する共同宣言
  최근 AI에이전트 등 급속한 기술발전을 뒷받침하는 프라이버시 정책의 중요성이 높아지는 가운데, 한국의 혁신 친화적 AI 정책에 공감대를 형성한 캐나다, 독일, 이탈리아 등 15개국* 개인정보 감독기구가 동 공동선언문에 참여하여 총 20개국으로 외연이 확대됐다. AIエージェントなどの急速な技術進歩を支えるプライバシー政策の重要性が高まる中、カナダ、ドイツ、イタリアを含む15カ国*の個人情報監督当局が共同宣言に賛同し、その範囲は20カ国に拡大した。これは韓国のイノベーションに友好的なAI政策に対する共通認識を反映している。
   * 벨기에(APD), 불가리아(CPDP), 캐나다(OPCC), 크로아티아(AZOP), 핀란드(ODPO), 독일(BfDI), 홍콩(PCPD), 스웨덴(IMY) 이탈리아(GPDP), 뉴질랜드(OPC), 룩셈부르크(CNPD), 마카오(PDPB), 폴란드(UODO), 스페인(AEPD), 네덜란드(AP) * ベルギー(APD)、ブルガリア(CPDP)、カナダ(OPCC)、クロアチア(AZOP)、フィンランド(ODPO)、ドイツ(BfDI)、香港(PCPD)、スウェーデン(IMY)、イタリア(GPDP)、ニュージーランド(OPC)、 ルクセンブルク(CNPD)、マカオ(PDPB)、ポーランド(UODO)、スペイン(AEPD)、オランダ(AP)
  본 선언문은 ▲개인정보 적법처리근거에 대한 다양한 적용 가능성 모색, ▲AI 리스크에 대한 과학적·비례적 접근, ▲개인정보 중심설계(Privacy by Design) 등 내부관리체계 정립, ▲AI 혁신지원·국제공조 등 개인정보 감독기구의 주도적 역할 등에 대한 내용을 담고 있다. 本宣言は▲個人データの処理の法的根拠の多様な適用可能性の模索▲AIリスクへの科学的かつ比例的なアプローチ▲プライバシー・バイ・デザインを含む内部管理システムの構築▲AIイノベーション支援と国際協力における個人情報保護当局の主導的役割をカバーする。
  고학수 개인정보위 위원장은 “AI 심화시대의 복합적 데이터 환경에서 개인정보 감독기구가 선제적·주도적 역할을 강화할 필요가 있다”라며, “이번 공동 선언문 확장을 통해 혁신 지향적 AI에 대한 국제적 공감대를 확장해 나가겠다.”라고 밝혔다. 個人情報保護委員会のコ・ハクス委員長は「AI時代が深化する複雑なデータ環境において、個人情報監督当局は積極的かつ主導的な役割を強化する必要がある」と述べ、「今回の共同宣言の拡大を通じ、イノベーション志向のAIに関する国際的な合意を拡大していく」と付け加えた。
* 기타 자세한 내용은 첨부파일을 확인해주시기 바랍니다. * 詳細は添付ファイルを参照のこと

 

 

・[PDF

20250918-61749

 

CNIL

・2025.02.11 Data governance and AI: Five Data Protection Authorities Commit to Innovative and Privacy-Protecting AI

Data governance and AI: Five Data Protection Authorities Commit to Innovative and Privacy-Protecting AI データガバナンスとAI:5つのデータ保護当局が革新的かつプライバシー保護型AIへの取り組みを表明
At the AI Action Summit in Paris (6-11 February 2025), the Australian, Korean, Irish, French and UK data protection authorities signed a joint declaration to reaffirm their commitment to establishing data governance that fosters innovative and privacy-protective AI. パリで開催されたAIアクションサミット(2025年2月6日~11日)において、オーストラリア、韓国、アイルランド、フランス、英国のデータ保護当局は共同宣言に署名し、革新的かつプライバシー保護型AIを促進するデータガバナンスの確立に向けた取り組みを再確認した。
Building a Reliable Governance Framework for Trusted AI 信頼されるAIのための確固たるガバナンス枠組みの構築
This initiative aims to promote an artificial intelligence (AI) governance framework that provides legal certainty for stakeholders and safeguards for individuals, including in terms of transparency and respect for fundamental rights. 本イニシアチブは、透明性や基本的権利の尊重を含む、関係者に法的確実性を提供し個人を保護する人工知能(AI)ガバナンス枠組みの推進を目的とする。
The declaration highlights the many opportunities offered by AI in various fields such as innovation, research, economy and society. It also warns of several risks relating to personal data protection and privacy, algorithmic discrimination and bias, disinformation and AI hallucinations. 宣言は、イノベーション、研究、経済、社会など様々な分野におけるAIの多くの可能性を強調する一方、個人データ保護とプライバシー、アルゴリズムによる差別とバイアス、偽情報、AIによる幻覚(AI hallucinations)に関連する複数のリスクについても警告している。
To ensure AI is compliant with current regulations, the authorities advocate incorporating data protection principles by design of AI systems, establishing robust data governance and anticipating risk management. AIが現行規制に準拠するよう、当局はAIシステム設計段階でのデータ保護原則の組み込み、強固なデータガバナンスの確立、リスクマネジメントの事前対応を提唱している。
The statement also highlights the increasing complexity of data processing via AI in areas such as health and public services, public security or human resources and education. It also highlights the diversity of actors involved and the need for a regulatory framework adapted to technological evolutions. 声明はまた、医療・公共サービス、公共安全、人事・教育などの分野におけるAIを介したデータ処理の複雑化を指摘。関与する主体の多様性と、技術進化に適応した規制枠組みの必要性も強調している。
Faced with the challenges posed by AI, the commitments of the authorities AIがもたらす課題に直面する当局の取り組み
In this joint declaration, the main commitments of the authorities are: 本共同宣言における当局の主な取り組みは以下の通り:
・clarify legal bases for the processing of data by AI; ・AIによるデータ処理の法的根拠を明確化
・share information and establish appropriate security measures; ・情報共有と適切なセキュリティ対策の確立
・monitor the technical and societal impacts of AI by involving various actors; ・多様な関係者を巻き込んだAIの技術的・社会的影響の監視
・encourage innovation while reducing legal uncertainty;  ・法的不確実性を低減しつつイノベーションを促進
・strengthen cooperation with other competent authorities (consumer protection, competition, intellectual property). ・他管轄当局(消費者保護、競争、知的財産)との連携強化

 

 

・[PDF] Joint statement on building trustworthy data governance frameworks to encourage development of innovative and privacy-protective AI

20250918-64204

 

 

Joint statement on building trustworthy data governance frameworks to encourage development of innovative and privacy-protective AI  信頼性の高いデータガバナンス枠組みの構築に関する共同声明:革新的かつプライバシー保護型のAI開発を促進するために
11 February 2025
2025年2月11日
1. Artificial intelligence (AI) presents immense opportunities for the benefit of humanity, innovation in science, the economy, and society as a whole. AI also poses significant risks with respect to the protection of fundamental rights such as data protection and privacy, but it also poses risks of discrimination, misinformation and hallucination that are often caused by the inappropriate processing of data.  1. 人工知能(AI)は、人類の利益、科学・経済・社会全体の革新にとって計り知れない可能性を秘めている。一方でAIは、データ保護やプライバシーといった基本的権利の保護に関して重大なリスクをもたらすだけでなく、データの不適切な処理によって引き起こされることが多い差別、誤情報、幻覚のリスクも孕んでいる。
2. We recognize the need to fully cultivate public trust and harness the transformative benefits AI could bring. We recall that AI should be developed and deployed in accordance with data protection and privacy rules and other norms. This includes embedding privacy-by-design principles into AI systems from the initial planning stage and implementing robust internal data governance frameworks. These frameworks should incorporate technical and procedural safeguards for effective management and mitigation of risks throughout the entire lifecycle of an AI system.  2. 我々は、公共の信頼を十分に醸成し、AIがもたらしうる変革的な恩恵を活用する必要性を認識する。AIはデータ保護・プライバシー規則その他の規範に従って開発・展開されるべきであることを想起する。これには、初期計画段階からプライバシー・バイ・デザイン原則をAIシステムに組み込み、強固な内部データガバナンス枠組みを実施することが含まれる。これらの枠組みは、AIシステムの全ライフサイクルを通じたリスクの効果的管理・緩和のための技術的・手続き的保護措置を組み込むべきである。
3. Moreover, we recognize that in the current environment surrounding AI development and deployment, data processing has become exceedingly complex. Indeed:  3. さらに、AI開発・展開を取り巻く現状環境において、データ処理が極めて複雑化していることを認識する。実際:
a. It is developed and deployed across many different sectors, including health, public services, public security, human resources, and education;  a. 医療、公共サービス、公安、人事、教育など多様な分野で開発・展開されている;
b. It involves a great number of stakeholders scattered all over the world and complex value chains, including dataset creators, model providers, dataset and model hosting platforms, integrators, annotators, system deployers, and end-users; 
b. 世界中に散在する多数のステークホルダーと複雑なバリューチェーンが関与しており、これにはデータセット作成者、モデルプロバイダ、データセットおよびモデルのホスティングプラットフォーム、インテグレーター、アノテーター、システム展開者、エンドユーザーなどが含まれる
c. It operates at large scale with AI technologies necessitating vast amounts of data that are at the core of these systems;  c. AI技術は膨大なデータ量を必要とする大規模運用を前提としており、データがシステムの中核を成す;
d. It implies complex data processing that poses significant challenges for its control and increases the needs for transparency to foster the protection of privacy and other fundamental rights; and 
d. これは複雑なデータ処理を意味し、その管理に重大な課題を提起するとともに、プライバシーその他の基本的権利の保護を促進するための透明性の必要性を高めるものである;そして
e. It evolves at a very fast pace with major scientific and technological breakthroughs being recorded on a daily basis.  e. 科学技術の大幅な進歩が日々記録される極めて急速な進化を遂げている。
4. Citizens’ and businesses’ need for answers and legal certainty is therefore increasingly pressing in order to enable the development of AI within trustworthy data governance frameworks. At the same time, the application of rules should provide a sufficient degree of flexibility for various innovative efforts to take place consistently with the protection of privacy and personal data. We recognize therefore the importance of supporting players in the AI ecosystem in their efforts to comply with data protection and privacy rules and help them reconcile innovation with respect for individuals’ rights.  4. したがって、信頼できるデータガバナンス枠組み内でのAI開発を可能とするため、市民と企業による回答と法的確実性へのニーズはますます切迫している。同時に、規則の適用は、プライバシー及び個人データの保護と整合しながら様々な革新的な取り組みが行われるための十分な柔軟性を提供すべきである。我々は、AIエコシステムの関係者がデータ保護及びプライバシー規則を遵守する取り組みを支援し、革新と個人の権利尊重との調和を図る重要性を認識する。
Highlighting data protection authorities’ leading role in shaping data governance to address AI’s evolving challenges, we commit to the following:  AIの進化する課題に対処するためのデータガバナンス形成におけるデータ保護当局の主導的役割を強調し、我々は以下を約束する:
5. To foster our shared understanding of lawful grounds for processing data in the context of AI training in our respective jurisdictions. Clear standards and requirements should be developed to ensure that AI training data is processed lawfully, whether based on consent, contractual necessity, legitimate interest, or other legal justifications. In doing so, attention should be paid to various relevant factors, including the specific purposes of AI development, the characteristics of the requisite data, the reasonable expectation of data subjects, and associated risk mitigation strategies.  5. それぞれの管轄区域におけるAIトレーニングの文脈でデータを処理する法的根拠に関する共通理解を促進する。同意、契約上の必要性、正当な利益、その他の法的根拠に基づくかを問わず、AIトレーニングデータが合法的に処理されることを確保するため、明確な標準と要件を策定すべきである。この際、AI開発の具体的な目的、必要データの特性、データ対象者の合理的な期待、関連するリスク緩和戦略など、様々な関連要素に留意すべきである。
6. To exchange information and establish a shared understanding of proportionate safety measures based on rigorous scientific and evidence-based assessments and tailored to diversity of use cases. The relevance of these measures should be regularly updated to keep pace with evolving AI data processing technologies and practices.  6. 厳格な科学的・証拠に基づくアセスメントに基づき、多様なユースケースに適応した比例原則に基づく安全対策に関する情報を交換し、共通認識を確立する。これらの対策の妥当性は、進化するAIデータ処理技術と実践に歩調を合わせるため、定期的に更新されるべきである。
7. To continuously monitor both the technical and societal implications of AI and to leverage the expertise and experience of Data Protection Authorities and other relevant entities, including NGOs, public authorities, academia, and businesses, in AI-related policy matters when possible.  7. AIの技術的・社会的影響を継続的に監視し、可能な限りAI関連政策課題において、データ保護当局やNGO、公的機関、学術界、企業等の専門知識・経験を活用すること。
8. To reduce legal uncertainties and secure space for innovation where data processing is essential for the development and deployment of AI. This may include institutional measures, such as regulatory sandboxes, as well as tools for sharing best practices.  8. AIの開発・展開にデータ処理が不可欠な分野において、法的不確実性を低減しイノベーションの余地を確保すること。これには規制サンドボックス等の制度的措置や、ベストプラクティス共有ツールが含まれ得る。
These measures and tools should be grounded in public trust and be consistent with principles of privacy and data protection.  これらの措置とツールは、公衆の信頼に基づき、プライバシーの原則とデータ保護の原則と整合性を保つべきである。
9. To strengthen our interactions with relevant authorities, including those in charge of competition, consumer protection and intellectual property, to facilitate consistency and foster synergies between different applicable regulatory frameworks to AI systems, tools and applications. Dialogues involving diverse players in the AI ecosystem should also be encouraged. 9. 競争政策、消費者保護、知的財産権を担当する機関を含む関連当局との連携を強化し、AIシステム・ツール・アプリケーションに適用される異なる規制枠組み間の一貫性と相乗効果を促進する。AIエコシステムにおける多様な関係者を巻き込んだ対話も奨励すべきである。

 

 

 

 

| | Comments (0)

2025.08.13

中国 国家情報化発展報告 (2024年) (2025.07.30)

こんにちは、丸山満彦です。

中国の国家互联网信息办公室(国家サイバースペース管理局)が、国家情報化発展報告 (2024年) を公表しています。中国の通信白書的なものですかね...民事領域についての発表ですが、世界でも最もインターネットの活用が進んでいる国の一つである、中国の状況を理解する上で、これからのサイバー空間の活用に関して参考になると思います。

求める世界観がおそらく民主主義、自由主義国家とは異なる面もあるので、そのままというわけにはいかないとは思いますが...

あと、どこまで情報が現実を反映しているのか?という点も気になる点ではあります(できたことにしないといろいろと不味くなることもある?もうそういうことはない?)。

人口が多いだけに、普及等の絶対数は圧倒的に凄いですね...

 

● 中央网安全和信息化委公室 (Cyberspace Administration of China: CAC)

・2025.07.30 国家互联网信息办公室发布《国家信息化发展报告(2024年)》

国家互联网信息办公室发布《国家信息化发展报告(2024年)》 国家サイバースペース管理局、「国家情報化開発報告書(2024年)」を発表
7月30日,《国家信息化发展报告(2024年)》(以下简称《报告》)发布会在京召开。《报告》坚持以习近平总书记关于网络强国的重要思想为指导,深入贯彻落实党中央、国务院关于信息化发展的重要部署,系统总结我国信息化发展成就,分析面临的新形势新挑战,阐明下一步重点任务,为推进我国信息化发展凝聚理念共识、提供指引参考。 7月30日、「国家情報化発展報告(2024年)」(以下、「報告」という)の発表会が北京で開催された。報告は、習近平総書記のネットワーク強国に関する重要な思想を指針とし、党中央、国務院の重要な情報化発展の配置を深く実施し、中国の情報化発展の成果を体系的に総括し、直面する新たな情勢と課題について分析し、次の重点課題について明らかにし、中国の情報化発展を推進するための理念の共通認識の形成と指針の参考を提供している。
《报告》指出,2024年是网络强国战略目标提出10周年和我国全功能接入国际互联网30周年,党的二十届三中全会胜利召开,赋予信息化发展新使命新任务。深入推进信息化发展,是牢牢把握信息革命历史机遇、抢占国际竞争新优势的战略选择,是培育发展新质生产力、推动经济高质量发展的迫切需要,是保障和改善民生、满足人民群众美好生活新期待的内在要求,是推进国家治理体系和治理能力现代化的有力支撑。 報告書は、2024年はネットワーク強国戦略目標が提唱されてから10周年、中国が国際インターネットに全機能で接続してから30周年であり、中国共産党第20回中央委員会第3回全体会議が成功裏に開催され、情報化の発展に新たな使命と任務が課せられたと指摘している。情報化の発展を深く推進することは、情報革命の歴史的機会を確実に捉え、国際競争における新たな優位性を確保するための戦略的選択であり、新たな質の高い生産力を育成し、経済の高品質発展を推進するための緊急の必要性であり、民生を保障し改善し、国民の新たな生活への期待に応えるための内在的な要求であり、国家の統治体制と統治能力の現代化を推進するための強力な支えである。
《报告》显示,2024年,各地区、各部门深入贯彻落实党中央、国务院决策部署,积极谋划改革创新举措、凝聚政策资源合力,扎实推进《“十四五”国家信息化规划》重大任务、重点工程、优先行动实施,创新发展能力显著增强,赋能发展作用日益明显,普惠发展效应持续释放,安全发展基础不断夯实,开放发展成果更加丰硕,全国信息化发展水平迈上新台阶,为开创新时代新征程网络强国建设新局面提供强大动力和坚实支撑。 『報告』によると、2024年、各地域、各部門は党中央、国務院の決定・方針を深く貫徹し、改革・イノベーションの施策を積極的に立案し、政策資源の結集を図り、『「第14次5カ年計画」国家情報化計画』の重大任務、重点プロジェクト、優先行動の実施を着実に推進し、イノベーション・発展能力は著しく強化され、発展への貢献はますます顕著になった。普及発展の効果が持続的に発揮され、安全発展の基盤がさらに強化され、開放発展の成果がさらに充実し、全国の情報化の発展レベルが新たな段階に到達し、新時代におけるネットワーク強国建設の新たな局面を切り開くための強力な原動力と強固な基盤を提供した。
《报告》分析了2024年国家信息化发展情况网络问卷调查结果。调查结果显示,受访网民普遍认为,2024年信息化在创新学习工作方式、提升生活服务水平、增强公共治理能力等方面发挥了更加重要的作用,人民群众的获得感、幸福感、安全感更加明显;受访企业表示,2024年加强信息技术创新和人才培育,积极布局新产品、新应用、新业务,不断提升企业竞争力。 報告書は、2024年の国家情報化の発展状況に関するネットワークアンケート調査の結果を分析している。調査結果によると、回答したネットユーザーは、2024年に情報化が、学習・仕事の方法の革新、生活サービスの向上、公共の統治能力の強化などにおいて、より重要な役割を果たし、国民の獲得感、幸福感、安心感がより顕著になったと広く認識している。また、回答した企業は、2024年に情報技術の革新と人材の育成を強化し、新製品、新アプリケーション、新事業の展開を積極的に推進し、企業の競争力を継続的に強化すると回答している。
《报告》提出,2025年是“十四五”规划收官、“十五五”规划谋篇布局之年,也是全面深化网信领域改革、推进网络强国建设的关键一年。要坚持以习近平新时代中国特色社会主义思想特别是习近平总书记关于网络强国的重要思想为指导,深入贯彻党的二十届三中全会精神和2025年全国两会精神,以更大力度、更实举措推进信息化发展迈上新台阶。一是坚持自立自强,加快推动网络信息技术创新和产业生态发展;二是坚持驱动引领,加快推动信息化赋能新质生产力发展;三是坚持为民惠民,加快推动信息化发展成果更多更公平惠及全民;四是坚持系统观念,加快优化完善信息化健康可持续发展的环境;五是坚持全球视野,加快推进多层次网络空间国际交流合作。 報告書は、2025年は「第14次5カ年計画」の最終年であり、「第15次5カ年計画」の立案・策定の年であり、ネット情報分野における改革を全面的に深化させ、ネットワーク強国建設を推進する重要な年であると指摘している。習近平新時代中国特色社会主義思想、特に習近平総書記のネットワーク強国に関する重要な思想を指針とし、党第20回中央委員会第3回全体会議の精神と2025年の全国人民代表大会の精神を深く貫き、より大きな力、より実効的な措置をもって情報化の発展を新たな段階へと推進していく必要がある。一是自立自強を堅持し、ネットワーク情報技術の革新と産業生態系の発展を加速する。二是駆動と先導を堅持し、情報化が新質生産力の発展に資する役割を加速する。三是民衆に恩恵をもたらすことを堅持し、情報化の発展の成果がより公平に国民全体に及ぶよう加速する。四は体系的な考え方を堅持し、情報化の健全で持続可能な発展のための環境を最適化・整備する。五はグローバルな視野を堅持し、多層的なネットワーク空間の国際交流・協力を加速する。
会上,国家网信办信息化发展局负责同志介绍了《报告》主要内容和推动信息化发展工作情况,网络管理技术局负责同志介绍了生成式人工智能发展和管理有关工作情况。工业和信息化部信息通信发展司、农业农村部市场与信息化司以及北京市委网信办负责同志,围绕部门和地区推动信息化发展工作情况进行交流发言。 会議では、国家インターネット情報管理委員会情報化発展局担当者が「報告書」の主な内容と情報化推進の取り組みについて紹介し、ネットワーク管理技術局担当者が生成型人工知能の開発と管理に関する取り組みについて紹介しました。工業情報化部情報通信発展司、農業農村部市場情報化司、北京市委インターネット情報管理委員会担当者が、各部門や地域における情報化推進の取り組みについて発表した。
信息化发展相关研究机构专家学者、媒体单位代表和网信企业代表参加了发布会。 情報化推進に関する研究機関の研究者、メディア関係者、インターネット情報企業代表も発表会に参加した。

 

・[PDF] 国家信息化发展报告(2024年) [downloaded]

20250812-63354

・[DOCX][PDF] 仮訳

 

 

目次...

摘 要 要約
第一章 进一步全面深化改革赋予信息化发展新使命 第1章 改革をさらに全面的に深化させ、情報化の発展に新たな使命を課す
一、深刻认识推进信息化领域改革创新发展的重要意义 1. 情報化分野の改革とイノベーション発展の推進の重要性について深く認識する
二、准确把握推进信息化领域改革创新发展的丰富内涵 2. 情報化分野における改革と革新の発展の豊かな内容を正確に把握する
三、全面落实推进信息化领域改革创新发展的实践要求 3. 情報化分野における改革と革新の発展を全面的に推進するための実践的要件
第二章 创新发展能力显著增强 第2章 革新発展能力の著しい強化
一、网络信息技术创新加速突破 1. ネットワーク情報技術イノベーションの加速的突破
二、数字产业创新生态不断完善 2. デジタル産業のイノベーションエコシステムが不断に充実
三、信息化创新人才队伍持续壮大 3. 情報化イノベーション人材の継続的な拡充
第三章 赋能发展作用日益明显 第3章 能力強化の発展作用がますます顕著に
一、信息基础设施提档升级 1. 情報インフラのグレードアップ
二、数据资源开发利用提质扩面 2. データ資源の開発利用の質的向上と範囲の拡大
三、数字技术和实体经济深度融合 3. デジタル技術と実体経済の深い融合
第四章 普惠发展效应持续释放 第4章 普及発展効果が持続的に発揮される
一、数智生活服务加速普及 1. デジタル・スマートな生活サービスの普及が加速
二、数字文化动能更加强劲 2. デジタル文化の動力がさらに強化される
三、电子政务赋能减负增效 3. 電子政府が負担軽減と効率向上を支援
第五章 安全发展基础不断夯实 第5章 安全発展の基盤が不断に強化される
一、网络安全保障有力有序 1. サイバーセキュリティの保障が力強く秩序あるものとなっている
二、数据安全治理扎实推进 2. データセキュリティガバナンスの着実な推進
三、网络综合治理更加完善 3. ネットワーク総合治理のさらなる充実
第六章 开放发展成果更加丰硕 第6章 開放発展の成果がさらに豊かになる
一、理念主张凝聚国际广泛共识 1. 理念・主張が国際的な広範なコンセンサスを形成
二、网络空间交流合作深化拓展 2. サイバー空間における交流・協力の深化・拡大
三、数字贸易促进高水平对外开放 3. デジタル貿易が高度な対外開放を促進
第七章 2024年全国信息化发展水平迈上新台阶 第7章 2024年、全国の信息化発展水準が新たな段階へ
一、2024 年各地区信息化发展成效评价 1. 2024年の各地域の情報化推進成果の評価
二、2024 年国家信息化发展网络调查分析 2. 2024年国家情報化発展ネットワーク調査分析
第八章 2025年信息化发展形势与任务 第8章 2025年の情報化発展の情勢と任務
一、信息化发展面临新机遇新挑战 1. 情報化発展が直面する新たな機会と課題
二、2025 年我国信息化发展重点任务 2. 2025 年までの我が国の情報化発展の重点任務

 

要約...

摘 要 要約
2024 年是网络强国战略目标提出 10 周年和我国全功能接入国际互联网 30 周年。党的二十届三中全会胜利召开,系统擘画了进一步全面深化改革、以中国式现代化全面推进中华民族伟大复兴的宏伟蓝图。习近平主席向 2024 年世界互联网大会乌镇峰会开幕视频致贺,指出“我们应当把握数字化、网络化、智能化发展大势,把创新作为第一动力、把安全作为底线要求、把普惠作为价值追求,加快推动网络空间创新发展、安全发展、普惠发展,携手迈进更加美好的‘数字未来’”,为推动构建网络空间命运共同体指明了前进方向。 2024 年は、ネットワーク強国戦略目標が提唱されてから 10 周年、我が国が国際インターネットに全機能で接続してから 30 周年となる年である。中国共産党第 20 回中央委員会第 3 回全体会議が成功裏に開催され、改革をさらに全面的に深化させ、中国式現代化を全面的に推進して、中華民族の偉大な復興を実現するための壮大な青写真が描かれた。習近平国家主席は、2024年世界インターネット大会烏鎮サミットの開会式にビデオメッセージで祝辞を送り、「私たちは、デジタル化、ネットワーク化、インテリジェント化の大きな潮流を捉え、イノベーションを第一の原動力とし、安全を最低限の要件とし、普及を価値の追求とし、ネットワーク空間の革新的な発展、安全な発展、普及の発展を加速し、より素晴らしい『デジタル未来』に向けて共に前進すべきだ」と述べ、ネットワーク空間の運命共同体の構築を推進するための進むべき方向性を示した。
当前,新一轮科技革命和产业变革迅猛发展,人工智能等新技术方兴未艾,信息化迈向数字化、网络化、智能化全面跃升的新阶段。深入推进信息化发展,是牢牢把握信息革命历史机遇、抢占国际竞争新优势的战略选择,是培育发展新质生产力、推动经济高质量发展的迫切需要,是保障和改善民生、满足人民群众美好生活新期待的内在要求,是推进国家治理体系和治理能力现代化的有力支撑。 現在、新たな科学技術革命と産業変革が急速に進展し、人工知能などの新技術が台頭し、情報化はデジタル化、ネットワーク化、インテリジェント化という新たな段階へと飛躍的に発展している。情報化の進展を深く推進することは、情報革命の歴史的機会を確実に捉え、国際競争における新たな優位性を確保するための戦略的選択であり、新たな生産力を育成・発展させ、経済の高品質な発展を推進するための急務であり、国民生活の保障と改善、そして国民のより良い生活への新たな期待に応えるための内在的な要求であり、国家の統治体制と統治能力の現代化を推進するための強力な支えである。
2024 年,各地区各部门深入贯彻落实党中央、国务院决策部署,积极谋划改革创新举措,凝聚政策资源合力,扎实推进《“十四五”国家信息化规划》重大任务、重点工程、优先行动实施,创新发展能力显著增强,赋能发展作用日益明显,普惠发展效应持续释放,安全发展基础不断夯实,开放发展成果更加丰硕,全国信息化发展水平迈上新台阶,为开创新时代新征程网络强国建设新局面提供强大动力和坚实支撑。 2024 年、各地域、各部門は、党中央、国務院の決定・方針を深く貫徹し、改革・イノベーションの施策を積極的に立案し、政策資源の結集を図り、 「第 14 次 5 カ年国家情報化計画」の主要任務、重点プロジェクト、優先行動の実施を着実に推進し、イノベーション開発能力が著しく強化され、開発への貢献がますます顕著になり、普及発展の効果が持続的に発揮され、安全発展の基盤がさらに強化され、開放発展の成果がさらに充実し、全国の情報化発展レベルが新たな段階に到達し、新時代におけるネットワーク強国建設の新たな局面を切り開くための強力な原動力と確固たる基盤を提供した。
一、2024 年国家信息化发展取得显著成效 1. 2024 年の国家情報化発展は顕著な成果を上げた
(一)创新发展能力显著增强。一是网络信息技术创新加速突破。集成电路研发制造能力不断增强,操作系统加速规模化应用,开源鸿蒙装机量超 10 亿台,量子信息、脑机接口、数字孪生等前沿技术创新成果不断涌现。生成式人工智能大模型技术能力持续跃升,截至 2024 年底,共 302 款生成式人工智能服务完成备案,注册用户总数超过 6 亿,多款大模型产品性能位于全球前列。区块链创新应用提质增效,加速融入货物运输、贸易、制造、能源、政务等重点领域,赋能实体经济发展。二是数字产业创新生态不断完善。2024 年,我国数字产业完成业务收入 35 万亿元,同比增长 5.5%。软件业务收入 13.73 万亿元,同比增长 10.0%。操作系统、数据库、人工智能等开源社区持续完善,产学研创新布局持续加强。信息化标准建设迈出新步伐,发布人工智能、物联网、数据等重点领域标准体系建设指南。三是信息化创新人才队伍持续壮大。信息化人才培养体系更加健全,全国数字经济本科专业达 227 个,教育科研模式变革加速演进,文献情报、化工、海洋、气象等重点领域大模型有效提升科研效率。国家教育数字化战略行动深入实施,建成世界最大的国家智慧教育公共服务平台。全民数字素养与技能持续提升,我国 60.61%的成年人和 64.69%的未成年人(12-17 周岁)具备初级及以上数字素养与技能。 (1)イノベーションと発展の能力が著しく強化された。第一に、ネットワーク情報技術のイノベーションが加速し、突破口を開いた。集積回路の研究開発・製造能力が不断に強化され、オペレーティングシステムの規模拡大が加速し、オープンソースの「鴻蒙」のインストール台数が10億台を超え、量子情報、脳機インターフェース、デジタルツインなどの先端技術イノベーションの成果が次々と現れている。生成型人工知能の大規模モデル技術能力は飛躍的に向上し、2024年末までに302件の生成型人工知能サービスが登録され、登録ユーザー数は6億人を超え、複数の大規模モデル製品の性能は世界トップクラスとなっている。ブロックチェーンの革新的な活用が効率と効果を向上させ、貨物輸送、貿易、製造、エネルギー、行政などの重点分野への統合が加速し、実体経済の発展に貢献している。第二に、デジタル産業のイノベーションエコシステムが継続的に整備された。2024 年、中国のデジタル産業の事業収入は 35 兆元、前年比 5.5% 増となる。ソフトウェア事業の収入は 13.73 兆元、前年比 10.0% 増となる。オペレーティングシステム、データベース、人工知能などのオープンソースコミュニティが継続的に整備され、産学連携のイノベーション体制が強化された。情報化標準の構築が新たな段階に入り、人工知能、モノのインターネット、データなどの重点分野における標準体系の構築指針が発表された。第三に、情報化イノベーション人材の育成が継続的に強化された。情報化人材の育成体制がさらに充実し、全国のデジタル経済関連学部学科は 227 学科に達し、教育研究モデルの変革が加速し、文献情報、化学、海洋、気象などの重点分野における大規模モデルが研究開発の効率を効果的に向上させている。国家教育デジタル化戦略行動が深く実施され、世界最大の国家スマート教育公共サービスプラットフォームが構築された。国民のデジタルリテラシーとスキルが継続的に向上し、中国の成人(60.61%)と未成年者(12~17歳、64.69%)の初級以上のデジタルリテラシーとスキルを有する割合が向上した。
(二)赋能发展作用日益明显。一是信息基础设施提档升级。截至 2024 年底,累计建成开通 5G 基站总数达 425.1 万个,5G 用户普及率超 71%,300 多个城市实现 5G-A 网络覆盖。建成 207 个千兆城市,千兆及以上速率光纤接入用户达到 2.07 亿户。IPv6 活跃用户数达 8.23 亿,移动网络和固定网络 IPv6 流量占比分别达到 65.60%和 24.95%。我国智能算力规模达 493EFLOPS(FP16)。移动物联网加快向“万物智联”发展,移动物联网(蜂窝)用户达 26.56 亿户。工业互联网加速规模化应用,实现 41 个工业大类全覆盖,车联网基础设施加速布局。北斗规模应用加速推进,北斗终端设备(不含消费类电子)应用数量超过 2800 万台(套)。二是数据资源开发利用提质扩面。数据基础制度体系初步建立,数据资源规模质量持续提升,2024 年我国年度数据生产量达 41.06ZB,同比增长 25%,累计数据存储量达 2.09ZB,同比增长 20.81%,数据标注成为新兴产业,7 个数据标注基地加快建设,数商企业数量超过 100 万家。三是数字技术和实体经济深度融合。智慧农业加快发展,实施《关于大力发展智慧农业的指导意见》。制造业数字化转型稳步推进,截至 2024 年底,重点工业企业数字化研发设计工具普及率、关键工序数控化率分别达到 82.7%、65.3%。服务业数字化有力拉动消费增长,全国网上零售额达 15.23 万亿元,数字消费规模超6 万亿元。数字化绿色化协同转型发展加快推进,印发《数字化绿色化协同转型发展实施指南》,累计建设 246 家国家绿色数据中心,产业数字化智能化同绿色化的融合程度持续深化。网信企业活力更加强劲,我国市值排名前 100 的互联网企业总市值、总营收、总利润和总研发投入均实现同比增长。 (2)発展への貢献がますます顕著になっている。第一に、情報インフラの高度化が進んだ。2024年末までに、5G基地局の累計設置数は425.1万基に達し、5Gユーザーの普及率は71%を超え、300以上の都市で5G-Aネットワークがカバーされる。207のギガビット都市が建設され、ギガビット以上の速度の光ファイバー接続ユーザー数は2億700万世帯に達した。IPv6のアクティブユーザー数は8億2300万に達し、モバイルネットワークと固定ネットワークのIPv6トラフィックの割合はそれぞれ65.60%と24.95%に達した。中国のスマートコンピューティング能力は493EFLOPS(FP16)に達した。モバイルIoTは「万物知能接続」への発展を加速し、モバイルIoT(セルラー)ユーザー数は26.56億に達した。産業用インターネットは規模拡大を加速し、41の主要産業分野をすべてカバーし、車載用インターネットインフラの整備が加速している。北斗の規模応用が加速し、北斗端末機器(消費電子製品を除く)の応用台数は2,800万台(セット)を超えた。第二に、データ資源の開発利用の質的向上と範囲が拡大した。データ基盤制度体系が概ね確立され、データ資源の規模と品質が継続的に向上し、2024年の中国の年間データ生産量は で41.06ZBに達し、前年比25%増加した。累計データ蓄積量は2.09ZBに達し、前年比20.81%増加した。データ注釈が新興産業として台頭し、7つのデータ注釈基地の建設が加速され、データ商社数は100万社を超えた。第三に、デジタル技術と実体経済の融合が深化した。スマート農業が急速に発展し、『スマート農業の積極的な発展に関する指導意見』が実施された。製造業のデジタル化転換が着実に進み、2024年末までに、重点工業企業のデジタル化研究開発設計ツール普及率、主要工程のNC化率はそれぞれ82.7%、65.3%に達した。サービス業のデジタル化が消費の伸びを強力に牽引し、全国のネット小売額は15.23兆元に達し、デジタル消費規模は6兆元を超えた。デジタル化とグリーン化の協調的発展が加速し、「デジタル化とグリーン化の協調的発展実施ガイドライン」が発行され、246 の国家グリーンデータセンターが建設され、産業のデジタル化、インテリジェント化、グリーン化の融合がさらに深まった。ネット情報企業の活力はさらに高まり、中国の上場企業時価総額トップ 100 社の総時価総額、総売上高、総利益、総研究開発費はいずれも前年比で増加した。
(三)普惠发展效应持续释放。一是数智生活服务加速普及。2024 年,我国网民规模达 11.08 亿人,互联网普及率升至 78.6%。数字健康服务资源扩容下沉,远程医疗覆盖全国所有市县,互联网医疗用户规模达 4.18 亿人,全国医保码用户超 12 亿人。电子社保卡领用人数达 10.7 亿人,提供线上服务 170.51 亿次。全国养老服务信息平台开通线上运营,累计访问量超 1800 万人次。全国就业信息资源库、就业公共服务平台加快建设,全国“一库一平台”初步建成。数字乡村建设向纵深推进,全面实现“县县通千兆、乡乡通 5G、村村通宽带”,乡村治理数字化水平不断提升。二是数字文化动能更加强劲。国家文化大数据体系建设稳步推进,公共文化数字化服务水平持续提升,推动优质文化资源直达基层。中央广播电视总台和 9 省市卫视超高清频道开播,带动超高清产业加速升级迭代。网络视听行业繁荣发展,用户规模达 10.91 亿人,成为群众文化生活的重要渠道。人工智能技术赋能网络文化传播,沉浸式数字演艺等文化新业态不断涌现。网络视频、网络游戏、网络新媒体平台蓬勃发展,网文、网剧、网游等数字内容加速出海,文化国际传播影响力不断提升。三是电子政务赋能减负增效。2024 年我国电子政务发展指数全球排名第 35 位,较 2022 年提升 8 位。各地依托政务服务平台推进“高效办成一件事”落地,重点事项覆盖范围逐步扩大,人工智能等新技术在政务服务部署应用。党政机关信息化建设深入推进,“数字人大”“数字政协”“数字纪检监察”建设取得新成效,数智化赋能司法公平正义。深化整治“指尖上的形式主义”,数字赋能基层工作取得积极成效。 (3) 普遍的な発展の効果が持続的に発揮された。第一に、デジタル・インテリジェントな生活サービスの普及が加速した。2024 年、中国のインターネットユーザー数は 11.08 億人に達し、インターネット普及率は 78.6% に上昇した。デジタル・ヘルスケアサービスの資源が拡大し、地方にも普及し、遠隔医療は全国のすべての市と県をカバーし、インターネット医療のユーザー数は 4.18 億人に達し、全国医療保険コードのユーザー数は 12 億人を超えた。電子社会保障カードの利用者数は10.7億人に達し、オンラインサービス提供回数は170.51億回に達した。全国高齢者サービス情報プラットフォームがオンライン運営を開始し、累計アクセス数は1,800万人を超えた。全国雇用情報資源庫、雇用公共サービスプラットフォームの構築が加速し、全国「一庫一プラットフォーム」が初步的に完成した。デジタル農村建設がさらに進展し、「県県千兆、郷郷5G、村村ブロードバンド」が全面的に実現し、農村統治のデジタル化レベルが不断に向上している。第二に、デジタル文化の動力がさらに強化された。国家文化ビッグデータ体系の構築が着実に進展し、公共文化のデジタル化サービスレベルが継続的に向上し、優良文化資源が基層に直接届くよう推進された。中央放送局と9つの省・直轄市の衛星放送局の超高精細チャンネルが放送を開始し、超高精細産業の急速なアップグレードと進化を推進している。ネットワーク視聴業界は繁栄し、ユーザー数は10億9,100万人に達し、国民文化生活の重要なチャネルとなっている。人工知能技術がネットワーク文化の伝播に力を与え、没入型デジタル芸能などの新しい文化産業が次々と登場している。ネット動画、ネットゲーム、ネット新メディアプラットフォームが活発に発展し、ネット小説、ネットドラマ、ネットゲームなどのデジタルコンテンツの海外進出が加速し、文化の国際的な発信力が不断に高まっている。第三に、電子政府が負担軽減と効率向上に貢献した。2024 年、中国の電子政府開発指数は世界ランキングで 35 位となり、2022 年から 8 位上昇した。各地は行政サービスプラットフォームを活用して「1 件の事務を効率的に処理」の実現を推進し、重点事項の対象範囲を徐々に拡大し、人工知能などの新技術を行政サービスに導入している。党政機関の情報化建設が深く推進され、「デジタル人民代表大会」「デジタル政治協商会議」「デジタル紀律検査」の構築が新たな成果を上げ、デジタル化による司法の公平・正義の実現に貢献している。指先での形式主義の是正を深め、デジタル化による草の根レベルの業務に積極的な成果を上げている。
(四)安全发展基础不断夯实。一是网络安全保障有力有序。网络安全顶层设计持续完善,《互联网政务应用安全管理规定》发布施行,《人工智能安全治理框架》1.0 版制定发布。组建全国网络安全标准化技术委员会,发布 36 项国家标准,推动 3 项强制性国家标准立项、3 项国际标准正式发布。网络安全教育、技术、产业融合发展,推进建设一流网络安全学院、网络安全专业院校,2024 年国家网络安全宣传周成功举办,宣传普及活动不断深入。二是数据安全治理扎实推进。数据跨境流动制度进一步优化完善,《促进和规范数据跨境流动规定》发布施行,截至 2024 年底,共完成数据出境安全评估项目 285 个,个人信息出境标准合同备案 1071 个。持续开展 APP 违法违规收集使用个人信息问题专项治理,累计受理群众投诉举报 9 万余条。三是网络综合治理更加完善。网络法治体系不断健全,我国已制定出台网络领域法律、行政法规、部门规章等 150 余部。开展“全国网络普法行”系列活动,网络普法工作取得明显成效。“清朗” 系列专项行动有力实施,着力整治打击涉企侵权信息、违法信息外链、“自媒体”无底线博流量、网络直播虚假和低俗信息等 10 类乱象。“净网 2024”专项行动持续推进,全年共侦办网络违法犯罪案件 11.9 万余起,有力维护网络空间秩序和公民合法权益。 (4)安全保障の基盤が着実に強化された。第一に、サイバーセキュリティの保障が強力かつ秩序正しく行われた。サイバーセキュリティのトップレベルの設計が継続的に改善され、「インターネット行政アプリケーションのセキュリティ管理規定」が公布・施行され、「人工知能のセキュリティガバナンスの枠組み」1.0版が策定・公表された。全国サイバーセキュリティ標準化技術委員会が設立され、36件の国家標準が公表され、3件の強制的な国家標準の制定と3件の国際標準の正式公表が進められた。ネットワークセキュリティ教育、技術、産業の融合発展を推進し、一流のネットワークセキュリティ学院、ネットワークセキュリティ専門学校の建設を推進し、2024年に国家ネットワークセキュリティ宣伝週間を成功裏に開催し、宣伝普及活動をさらに深化させた。第二に、データセキュリティのガバナンスが着実に推進された。データ越境流通制度がさらに最適化・整備され、「データ越境流通の促進と規範化に関する規定」が公布・施行され、2024年末までに、285件のデータ越境セキュリティアセスメントプロジェクトが完了し、1071件の個人情報越境に関する標準契約が登録された。APPによる個人情報の違法収集・使用に関する特別対策を引き続き実施し、9万件以上の国民からの苦情・通報を受け付けた。第三に、ネットワークの総合的な管理がさらに充実した。ネットワークの法治体制が継続的に整備され、中国はネットワーク分野に関する法律、行政法規、部門規則など150件以上を制定・公布した。「全国ネットワーク法普及運動」シリーズを展開し、ネットワークの法普及活動が顕著な成果を上げている。「清朗」シリーズ特別措置が強力に実施され、企業に関する権利侵害情報、違法情報への外部リンク、「自媒体」による無節操なアクセス数稼ぎ、ネットワーク生放送における虚偽や低俗な情報など、10種類の乱雑な現象の取締りに力を入れている。「ネット浄化2024」特別措置が継続的に推進され、年間で11万9,000件以上のネットワーク犯罪事件を捜査し、ネットワーク空間の秩序と市民の合法的な権利を強力に保護した。
(五)开放发展成果更加丰硕。一是理念主张凝聚国际广泛共识。主场外交深化网络空间国际合作,成功举办世界互联网大会乌镇峰会、中非互联网发展与合作论坛等重要国际会议活动,发布《全球数据跨境流动合作倡议》,积极搭建网络空间国际开放合作平台,深入参与人工智能全球治理,推动达成《全球数字契约》。二是网络空间交流合作深化拓展。在世贸组织达成《电子商务协定》,推动加入《全面与进步跨太平洋伙伴关系协定》(CPTPP)和《数字经济伙伴关系协定》(DEPA)相关进程。积极参与联合国、世贸组织、亚太经合组织、二十国集团、金砖国家、上海合作组织等机制下网络和数字议题交流。建立中欧数据跨境流动交流机制,与德国签署《关于中德数据跨境流动合作的谅解备忘录》。三是数字贸易促进高水平对外开放。出台《关于数字贸易改革创新发展的意见》,推动构建高水平对外开放的国际合作环境。2024 年,我国跨境电商进出口约 2.71 万亿元,同比增长 14%。“丝路电商”伙伴国数量增至 33 个,形成电子提单应用等制度创新成果。 (5)開放的な発展の成果がさらに充実した。第一に、理念と主張が国際的な幅広いコンセンサスを形成した。ホームグラウンド外交を通じて、サイバー空間における国際協力を深め、世界インターネット大会ウズベンサミット、中非インターネット開発・協力フォーラムなどの重要な国際会議を成功裏に開催し、「グローバルデータ越境流動協力イニシアチブ」を発表し、サイバー空間における国際的な開放的協力プラットフォームの構築に積極的に取り組み、人工知能のグローバルガバナンスに深く関与し、 「グローバルデジタル契約」の締結を推進した。第二に、サイバー空間における交流と協力がさらに深まり、拡大した。世界貿易機関(WTO)で「電子商取引協定」が締結され、「包括的および先進的な環太平洋パートナーシップ協定」(CPTPP)および「デジタル経済パートナーシップ協定」(DEPA)への加盟プロセスが進められた。国連、WTO、アジア太平洋経済協力会議(APEC)、主要20カ国・地域(G20)、金砖諸国、上海協力機構などの枠組みにおけるネットワークとデジタルに関する議題の交流に積極的に参加した。中欧データ越境流動交流メカニズムを設立し、ドイツと「中独データ越境流動協力に関する覚書」に署名した。第三に、デジタル貿易は高度な対外開放を促進した。デジタル貿易の改革と革新的な発展に関する意見を発表し、高度な対外開放のための国際協力環境の構築を推進した。2024 年、中国の越境電子商取引の輸出入額は約 2.71 兆元となり、前年比 14% 増加する。「シルクロード電子商取引」パートナー国の数は 33 カ国に増加し、電子船荷証券の利用など制度面の革新的な成果が生まれた。
二、2024 年信息化发展成效评价 2. 2024年の情報化開発成果の評価
为扎实推进国家信息化发展战略规划实施,国家网信办组织有关部门和单位,开展了2024年国家信息化发展评价工作,重点分析31个省(自治区、直辖市)在关键能力、驱动引领、发展环境等方面的进展成效。评价结果显示,北京、浙江、上海、广东、江苏、山东、福建、四川、重庆、天津等10个地区信息化综合发展水平位居全国第一梯队。 国家情報化開発戦略計画の実行を確実に推進するため、国家インターネット情報通信局は関連部門および機関を組織し、2024年の国家情報化開発の評価作業を実施し、31の省(自治区、直轄市)の主要能力、推進力、開発環境などの分野における進展と成果を重点的に分析した。評価結果によると、北京、浙江、上海、広東、江蘇、山東、福建、四川、重慶、天津の10地域が、情報化の総合開発レベルで全国トップクラスに位置した。
同时,国家网信办开展了2024年国家信息化发展情况网络问卷调查活动。调查结果显示,受访网民普遍认为,2024 年信息化在创新学习工作方式、提升生活服务水平、增强公共治理能力等方面发挥了更加重要的作用,人民群众的获得感、幸福感、安全感更加明显;受访数字企业表示,2024年加强信息技术创新和人才培育,积极布局新产品、新应用、新业务,不断提升企业竞争力。 同時に、国家インターネット情報弁公室は、2024年国家情報化発展状況に関するインターネットアンケート調査を実施した。調査結果によると、回答したネットユーザーは、2024年に情報化が、学習・業務の方法の革新、生活サービスの向上、公共の統治能力の強化などにおいて、より重要な役割を果たし、国民の獲得感、幸福感、安心感がさらに高まったと広く認識している。また、回答したデジタル企業は、2024年に情報技術の革新と人材の育成を強化し、新製品、新アプリケーション、新事業の展開に積極的に取り組み、企業の競争力を継続的に向上させていくと回答した。
三、2025 年信息化发展形势与任务 3. 2025年の情報化発展の情勢と任務
当前,网络信息技术创新加速演进,以人工智能为代表的战略性新兴产业和未来产业蓬勃发展,信息化成为培育新质生产力、重塑世界发展格局的重要力量。从外部环境看,世界百年变局和信息革命浪潮叠加演进,国际形势复杂多变,不确定性、不稳定性因素增多。从技术趋势看,人工智能成为生产力发展新引擎,区块链带来生产关系新范式,要素内涵不断拓展,应用范式深入变革,数据、算法、算力成为重要战略资源。从自身发展看,网络信息技术产业生态有待加强,数据供给质量不高、流通机制不畅、应用潜力释放不够等问题依然存在,促进和规范新技术新应用发展面临新挑战。 現在、ネットワーク情報技術の革新が加速し、人工知能に代表される戦略的新興産業や未来産業が活発に発展しており、情報化は新しい生産力を育成し、世界の発展構造を再構築する重要な力となっている。外部環境を見ると、100年に1度の世界的な変化と情報革命の波が重なり合い、国際情勢は複雑かつ変化し、不確実性や不安定要素が増えている。技術動向を見ると、人工知能が生産力の発展の新たなエンジンとなり、ブロックチェーンが生産関係に新たなパラダイムをもたらし、要素の内包が拡大し、応用形態が深く変化し、データ、アルゴリズム、計算能力が重要な戦略的資源となっている。自体の発展を見ると、ネットワーク情報技術産業のエコシステムは強化が必要であり、データ供給の品質が低く、流通メカニズムが不十分、応用ポテンシャルが十分に発揮されていないなどの問題が依然として存在し、新技術・新応用の発展を促進・規範化するための新たな課題に直面している。
2025 年是“十四五”规划收官、“十五五”规划谋篇布局之年,也是全面深化网信领域改革、推进网络强国建设的关键一年。要坚持以习近平新时代中国特色社会主义思想特别是习近平总书记关于网络强国的重要思想为指导,深入贯彻党的二十届三中全会精神和 2025 年全国两会精神,以更大的力度、更实的举措推进信息化发展迈上新台阶。 2025 年は「第 14 次 5 カ年計画」の最終年であり、「第 15 次 5 カ年計画」の立案・策定の年であり、ネット情報分野における改革を全面的に深化させ、ネットワーク強国建設を推進する重要な年でもある。習近平新時代中国特色社会主義思想、特に習近平総書記のネットワーク強国に関する重要な思想を指針とし、第 20 回中国共産党中央委員会第 3 回全体会議の精神と 2025 年の全国人民代表大会の精神を深く貫き、より大きな力、より具体的な施策をもって、情報化の発展を新たな段階へと推進していく必要がある。
一是坚持自立自强,加快推动网络信息技术创新和产业生态发展。加快核心技术创新突破,强化集成电路、基础软件和工业软件、人工智能、量子信息等重点领域布局,全链条推进技术攻关、成果应用。推动人工智能、操作系统、数据库、第五代精简指令集(RISC-V)等生态建设,支持开源社区和开源基础设施发展,鼓励和规范发展新型研发机构。强化企业科技创新主体地位,推动建立健全投融资支持服务体系。推进数字产业创新发展,促进平台经济健康发展,打造具有国际竞争力的数字产业集群。培育量子科技、具身智能、6G等未来产业,积极推动“人工智能+”行动,深化人工智能大模型垂直领域应用,培育数智化新服务新产品。建强信息化创新人才队伍,加强信息化基础学科、新兴学科、交叉学科建设,培养多层次复合型人才队伍。 第一に、自立自強を堅持し、ネットワーク情報技術の革新と産業生態系の発展を加速する。コア技術の革新と突破を加速し、集積回路、基礎ソフトウェア、産業用ソフトウェア、人工知能、量子情報などの重点分野への取り組みを強化し、技術開発と成果の応用を全工程にわたって推進する。人工知能、オペレーティングシステム、データベース、第5世代簡略命令セット(RISC-V)などのエコシステムの構築を推進し、オープンソースコミュニティとオープンソースインフラストラクチャの発展を支援し、新しい研究開発機関の育成と規範化を促進する。企業の科学技術イノベーションの主体としての地位を強化し、投資・融資支援サービスの体系の確立を推進する。デジタル産業の革新的な発展を推進し、プラットフォーム経済の健全な発展を促進し、国際競争力のあるデジタル産業クラスターを構築する。量子技術、具身知能、6Gなどの未来産業を育成し、「人工知能+」の取り組みを積極的に推進し、人工知能の大規模モデルを垂直分野に応用し、デジタル化による新しいサービスや新製品を育成する。情報化イノベーション人材の育成を強化し、情報化基礎学、新興学、学際学の発展を推進し、多層的な複合型人材を育成する。
二是坚持驱动引领,加快推动信息化赋能新质生产力发展。建设泛在智联的信息基础设施,有序推进 5G-A 规模部署,加快 6G 技术研发和标准研制,持续提升“双千兆”网络覆盖广度和深度,适度超前建设移动物联网络,深化 IPv6 技术创新和融合应用,深入实施“东数西算”工程,推动卫星互联网发展。加快完善数据基础制度体系,扩大公共数据资源供给,提升数据资源开发利用水平,探索建立公共数据分类分级授权机制,分类施策开展公共数据、企业数据、个人数据开发利用,打造安全可信流通环境。推进数字技术与实体经济深度融合,加快发展智慧农业,深入实施制造业数字化转型发展行动、中小企业数字化赋能专项行动、智能制造工程,推动数字技术与现代服务业深度融合。加速数字化绿色化协同转型发展,促进网信企业高质量发展。 第二に、推進力を維持し、情報化による新しい生産力の開発を加速する。ユビキタスな情報インフラを構築し、5G-A の規模展開を順序よく推進し、6G 技術の研究開発と標準の策定を加速し、「双千兆」ネットワークのカバー範囲と深さを継続的に向上させ、モバイル IoT ネットワークを適度に先行して構築し、IPv6 技術の革新と融合アプリケーションを深め、「東数西算」プロジェクトを徹底的に実施し、衛星相互 ネットワークの開発を推進する。データ基盤制度体系の整備を加速し、公共データ資源の供給を拡大し、データ資源の開発利用レベルを高め、公共データ、企業データ、個人データの分類・段階別認可メカニズムの構築を模索し、分類別施策を実施して公共データ、企業データ、個人データの開発利用を推進し、安全で信頼性の高い流通環境を構築する。デジタル技術と実体経済の融合を推進し、スマート農業の発展を加速し、製造業のデジタル化転換発展行動、中小企業デジタル化能力強化特別行動、スマート製造プロジェクトを深く実施し、デジタル技術と現代サービス業の融合を推進する。デジタル化とグリーン化の協調的転換発展を加速し、ネット情報企業の質の高い発展を促進する。
三是坚持为民惠民,加快推动信息化发展成果更多更公平惠及全民。深化信息为民惠民服务,深入实施国家教育数字化战略,建强用好国家智慧教育公共服务平台,推进智慧医疗建设,发展智慧养老服务,优化数字社保、就业和人力资源服务。实施数字乡村强农惠农富农专项行动,推动城乡信息化融合发展。深化全民数字素养与技能提升行动,加快弥合数字鸿沟、智能鸿沟。推进文化数字化创新发展,深入实施国家文化数字化战略,丰富优质数字文化产品供给,培育全景式沉浸体验文化新业态。以信息化推进国家治理体系和治理能力现代化,推动智能社会发展与治理,深化数字赋能政务服务,推进人工智能、区块链等新技术创新应用,推进“高效办成一件事”基本覆盖政务服务高频事项,深化整治“指尖上的形式主义”。深入推进公共安全和应急、国土空间、生态环境等领域治理信息化建设。 第三に、国民のために、国民に恩恵をもたらすことを堅持し、情報化の発展の成果をより公平に国民全体に迅速に還元する。国民に恩恵をもたらす情報化サービスを深め、国家教育デジタル化戦略を徹底的に実施し、国家のスマート教育公共サービスプラットフォームの構築と活用を強化し、スマート医療の構築を推進し、スマート介護サービスを育成し、デジタル社会保障、雇用、人材サービスを最適化する。デジタル農村強化、農業振興、農民の富の増大のための特別措置を実施し、都市と農村のデジタル化融合の発展を推進する。国民全体のデジタルリテラシーとスキルの向上策を深め、デジタル格差、スマート格差の解消を加速する。文化のデジタル化の革新的な発展を推進し、国家文化デジタル化戦略を深く実施し、質の高いデジタル文化製品の供給を充実させ、全景的な没入型体験という新しい文化産業を育成する。情報化により国家の統治体制と統治能力の近代化を推進し、スマート社会の発展と統治を推進し、デジタルによる行政サービスの強化を深め、人工知能、ブロックチェーンなどの新技術の革新的な活用を推進し、「1つのことを効率的に成し遂げる」ことを行政サービスの頻度の高い事項にほぼ適用し、「指先での形式主義」の是正を深める。公共の安全と緊急事態、国土空間、生態環境などの分野における統治の情報化建設を深く推進する。
四是坚持系统观念,加快优化完善信息化健康可持续发展的环境。筑牢网络和数据安全屏障,强化关键信息基础设施安全保护,深化网络安全教育技术产业融合发展,推进网络和数据安全产业发展,加快研制关键信息基础设施安全、网络安全产品互联互通、数据分类分级、数据安全风险评估等方面标准规范,进一步完善数据出境安全管理制度。健全信息化发展治理体系,加强网络空间法治建设,积极探索新兴领域立法,推进网络执法协调,严厉打击网络违法行为,加强网络法治宣传,保障网络空间主体合法权益。健全网络综合治理体系,规范网络信息内容和传播秩序,持续开展“清朗”系列专项行动,培育积极健康的网络环境。 第四に、システム概念を堅持し、情報化の健全かつ持続可能な発展のための環境の最適化と整備を加速する。ネットワークとデータのセキュリティのバリアを強化し、重要な情報インフラのセキュリティ保護を強化し、ネットワークセキュリティ教育と産業の融合を深め、ネットワークとデータセキュリティ産業の発展を推進し、重要な情報インフラのセキュリティ、ネットワークセキュリティ製品の相互接続、データの分類・格付け、データセキュリティリスクのアセスメントなどに関する標準・規範の策定を加速し、データ越境のセキュリティ管理体制をさらに整備する。情報化の発展に関する統治体制を整備し、ネットワーク空間の法治建設を強化し、新興分野における立法を積極的に模索し、ネットワーク法執行の調整を推進し、ネットワーク上の違法行為を厳しく取り締まり、ネットワークの法治に関する広報を強化し、ネットワーク空間の主体の合法的な権利と利益を確保する。ネットワークの総合的な統治体制を整備し、ネットワーク上の情報内容と伝播の秩序を規範化し、「清朗」シリーズ特別措置を継続的に実施し、積極的で健全なネットワーク環境を育成する。
五是坚持全球视野,加快推进多层次网络空间国际交流合作。加强世界互联网大会等国际组织建设,共同推进网络空间成果共享。积极参与构建网络空间国际规则和标准体系,提升贡献度和影响力。推动“数字丝绸之路”走深走实,深化同新兴市场国家、周边和发展中国家网络空间务实合作。积极推动制度型开放,主动对接国际高标准经贸规则,推进数字贸易高质量发展。支持网信企业出海,提升企业国际竞争力。 第五に、グローバルな視野を堅持し、多層的なサイバー空間の国際交流と協力を加速する。世界インターネット大会などの国際組織の構築を強化し、サイバー空間の成果の共有を共同で推進する。サイバー空間の国際的なルールや標準体系の構築に積極的に参加し、貢献度と影響力を高める。「デジタルシルクロード」の深化と実践を推進し、新興市場諸国、周辺諸国、開発途上諸国とのサイバー空間における実践的な協力を深める。制度面の開放を積極的に推進し、国際的な高水準の経済貿易ルールに自主的に対応し、デジタル貿易の高品質な発展を推進する。ネット情報企業の海外進出を支援し、企業の国際競争力を高める。

 

 

| | Comments (0)

より以前の記事一覧