個人情報保護 / プライバシー

2026.01.16

フランス CNIL 観光用カメラ:個人のプライバシー保護のために遵守すべき規則を明確化 (2026.01.05)

こんにちは、丸山満彦です。

自治体が観光地をPRするために、公共の場所を映す観光用カメラを設置し、撮影された映像が、自治体のウェブサイトでリアルタイムで公開されるケースが増えているようですが、これらのカメラが意図せずに個人情報を収集・発信していることが判明したということのようです。。。

観光用カメラは禁止されていないけど、

  • 映った人物の識別が可能な状態での配信
  • 車のナンバープレートの記録と発信
  • カフェのテラスやデモ参加者など、プライベートな生活の瞬間の記録

などがあれば、個人情報の収集となりますよね...で、「正当な利益」となることはありません...

ただ、個人情報を一切収集しないカメラであれば、データ保護法の規制対象にはならないので、

 

  • 撮影角度を、公共建築物や自然景観に限定する
  • たとえぼかしであっても、人物、住宅内部(窓や出入口を含む)を映さない

というようなことをすれば、大丈夫ですね、ウェブページにもOK事例とNG事例ものっています...

日本の自治体も気をつけないといけないですね、、、日本のいくつかの自治体のウェブページを見たのですが、違反してそうなものはなかったのですが気をつけないとですね...

参考になります...

 

CNIL

・2026.01.05 Caméras touristiques : la CNIL précise les règles à suivre pour protéger la vie privée des personnes

 

参考まで...

20260115-184022

 

 

 

 

 

| | Comments (0)

2026.01.15

英国 ICO技術展望: エージェント型AI(Agentic AI)

こんにちは、丸山満彦です。

前回は、米国NISTによるAI Agent Systemのセキュリティ強化についてのRFIを紹介しましたが、今回は英国の情報コミッショナー事務局の技術の将来(tech futures)シリーズの2026年版からAgentic AIについての報告書が公表されています...

エージェント型AIに対するICOの理解、エージェント型AIの潜在的な用途、および予想される技術的発展について概説しています。

また、組織がエージェント型AIの導入を検討する際に考慮すべきデータ保護への影響、具体的にはデータ保護上のリスクと機会について、ICOの初期の見解を共有してくれています。

そして、組織がエージェント型AIをどのように採用するか、また今後2~5年間でその能力がどのように発展するかに関する不確実性を探るため、4つの可能性のあるシナリオを示していますね...

ICOはエージェント型AIを次のようにとらえているように思えます...

 

  • 目標指向で行動し、計画し、ツールを使い、環境に作用するAI

  • 人間の介入なしに意思決定や行動を継続できるAI

  • 複数のAIが協調・競合するマルチエージェント環境も含む

 

その上で、エージェント型AIは人間がだしたプロンプトを返してくる従来のAIに比べて、より高度なリスクが存在しますよね。。。

例えば、

  • 自律行動による 予期せぬ結果
  • 外部ツール/APIの利用による 攻撃面の拡大
  • マルチエージェント相互作用による 複雑なリスク連鎖
  • 個人データの収集・推論・共有の 透明性低下
  • 人間の監督が追いつかない 責任の曖昧化

 

これは個人情報(個人データのみならず)を取り扱う上でも重要になってくるのだろうと思います。例えば、

  • 取扱の透明性
  • 利用目的の限定
  • 利用データの最小化
  • 公正性
  • 自動化された意思決定(ADM)に関する規

のあたりですかね...

そしてこれから重要となってくる技術分野について

  • プライバシー保護を組み込んだスキャフォルディング
  • 透明性を高める説明可能性ツール
  • 行動ログ・監査可能性の強化
  • 人間監督を支援するインターフェース
  • 安全なマルチエージェント協調プロトコル

が考えられますね...

 

報告書の内容は非常に興味深いです...日本も取り組み始めないとですね...

 

● ICO

・2026.01.08 ICO tech futures: Agentic AI

 

 

Foreword まえがき
In this Tech Futures report on agentic AI, we set out our understanding of the emerging technology, including its potential uses and expected technical developments. We share our early thoughts about the data protection implications that organisations will have to consider as they explore the deployment of agentic AI, including data protection risks and opportunities. We share four possible scenarios to explore the uncertainty around how organisations might adopt agentic AI and how its capabilities might develop over the next two to five years. 本エージェント型AIに関する技術展望報告書では、この新興技術に対する我々の理解、その潜在的な用途、予想される技術的発展について述べる。組織がエージェント型AIの展開を検討する際に考慮すべきデータ保護上の影響、具体的にはデータ保護リスクと機会について、我々の初期の見解を共有する。組織がエージェント型AIをどのように採用するか、また今後2~5年間でその機能がどのように発展するかに関する不確実性を探るため、4つの可能性のあるシナリオを提示する。
Executive summary エグゼクティブサマリー
Agentic artificial intelligence (AI) is evolving at pace, attracting intense scrutiny from innovators, technology adopters and regulators worldwide. As organisations consider deploying agentic AI, understanding its capabilities and the associated risks is essential. エージェント型人工知能(AI)は急速に進化しており、世界中のイノベーター、技術導入者、規制当局から強い関心が寄せられている。組織がエージェント型AIの展開を検討する際、その能力と関連するリスクを理解することが不可欠である。
Agentic AI combines the capabilities of generative AI with additional tools and new ways of interacting with the world. This increases the ability of AI systems to work with contextual information, operate using natural human language and automate more open-ended tasks. Agentic AI systems are being developed for use in research, coding, planning and transactions. Their potential applications span commerce, government, the workplace, cybersecurity, medicine and the consumer space. Many believe that agentic capabilities can form the foundation for powerful personal assistants. エージェント型AIは、生成的AIの能力に追加ツールと新たな世界との相互作用方法を組み合わせる。これにより、AIシステムが文脈情報を活用し、自然な人間の言語を用いて動作し、より自由度の高いタスクを自動化する能力が向上する。エージェント型AIシステムは、研究、コーディング、計画立案、取引での使用を目的に開発されている。その潜在的な応用範囲は、商業、政府、職場、サイバーセキュリティ、医療、消費者領域に及ぶ。多くの専門家は、エージェント型能力が強力なパーソナルアシスタントの基盤となり得ると考えている。
While agentic AI offers some new technological capabilities we are at an early stage in development, with many use cases unproven or at the development stage. At the ICO, we are building a well-informed evidence base about: エージェント型AIは新たな技術的可能性を提供するものの、開発は初期段階にあり、多くのユースケースは実証されていないか開発中である。ICOでは以下の点について、十分な情報に基づいたエビデンス基盤を構築している:
•  where the technology is now; and  •  技術が現在どの段階にあるか、そして
•  how to exercise caution about the proven abilities of agentic AI while identifying and managing the data protection issues and risks related to supporting privacy-led innovation.  •  実証済みの能力に対して慎重な対応を講じつつ、プライバシー主導のイノベーションを支える上で生じるデータ保護上の課題やリスクを特定・管理する方法
As developing agentic AI increases the potential for automation, organisations remain responsible for data protection compliance of the agentic AI they develop, deploy or integrate in their systems and processes. 能動的AIの開発が進むにつれ自動化の可能性が高まるが、組織は自らが開発・展開・システム/プロセスに統合する能動的AIのデータ保護コンプライアンスについて責任を負い続ける。
We have already explored in our consultation series on generative AI the many issues that agentic AI shares. Novel agentic AI data protection risks include: 我々は生成的AIに関する一連の協議において、エージェント型AIが共有する多くの課題を既に検討している。新たなエージェント型AIのデータ保護リスクには以下が含まれる:
•  issues around determining controller and processor responsibilities through the agentic AI supply chain;  •  エージェント型AIのサプライチェーンにおける管理者および処理者の責任範囲の確定に関する問題
•  rapid automation of increasingly complex tasks resulting in a larger amount of automated decision-making;  •  複雑化するタスクの急速な自動化による自動意思決定量の増加
•  purposes for agentic processing of personal information being set too broadly to allow for open-ended tasks and general-purpose agents;  •  オープンエンドなタスクや汎用エージェントを許容するため、個人情報のエージェント処理目的が過度に広く設定されること;
•  agentic systems processing personal information beyond what is necessary to achieve instructions or aims;  •  指示や目的達成に必要な範囲を超えて個人情報を処理するエージェント型システム;
•  potential unintended use or inference of special category data;  •  特別カテゴリーデータの意図しない使用や推論の可能性;
•  increased complexity impacting transparency and the ease with which people can exercise their information rights;  •  透明性や情報権利行使の容易さに影響する複雑性の増大;
•  new threats to cyber security resulting from the nature of agentic AI; and  •  エージェント型AIの性質に起因する新たなサイバーセキュリティ上の脅威;および
•  concentration of personal information facilitating personal assistant agents.  •  パーソナルアシスタントエージェントを可能にする個人情報の集中。
One of our key findings from this initial work is that the specific design and architecture of agentic systems impact how data protection law applies and how people exercise their data protection rights. Choices such as the data and tools that a system can access and which governance and control measures to put in place really matter. この初期調査における主要な知見の一つは、エージェント型システムの具体的な設計とアーキテクチャが、データ保護法の適用方法や人々がデータ保護権利を行使する方法に影響を与えることだ。システムがアクセスできるデータやツール、導入すべきガバナンスや管理措置といった選択は極めて重要である。
Poorly implemented agentic systems will increase the risks of data protection harms. For example, this could include systems that: 不適切に実装されたエージェント型システムは、データ保護上の危害リスクを高める。例えば、以下のようなシステムが該当する:
•  have no clear purposes;  •  明確な目的を持たないもの
•  are connected to databases not needed for their tasks; or  •  任務に不要なデータベースに接続されているもの
•  have no measures in place to secure access, monitor or stop activity, or control the further sharing of information.  •  アクセスを保護し、活動を監視・停止し、情報のさらなる共有を制御する措置が全く講じられていないシステム。
The importance of design and architecture also means that there are good opportunities for privacy by design and privacy-friendly innovation in agentic AI, and organisations should use them for responsible deployment. We are already seeing some features and tools intended to address privacy issues. 設計とアーキテクチャの重要性は、エージェント型AIにおいてプライバシーバイデザインやプライバシーに配慮したイノベーションを実現する好機があることも意味する。組織は責任ある展開のためにこれらを活用すべきだ。既にプライバシー問題に対処する意図で設計された機能やツールがいくつか見られる。
We have identified innovation opportunities with agentic AI that have the potential to support data protection and information rights and contribute to privacy-positive outcomes. Potential areas include: 我々は、データ保護と情報権利を支援し、プライバシーに積極的な成果に貢献する可能性を秘めた、エージェント型AIにおけるイノベーションの機会を特定した。潜在的な分野には以下が含まれる:
•  data protection compliant agents;  •  データ保護に準拠したエージェント
•  agentic controls;  •  エージェント制御;
•  privacy management agents;  •  プライバシー管理エージェント;
•  information governance agents; and  •  情報ガバナンスエージェント;および
•  ways to benchmark and evaluate agentic systems.  •  エージェントシステムのベンチマークと評価手法。
Due to the pace of development of agentic AI and the speed at which developers are experimenting, we are trying two new approaches with this report. We are using scenarios of four different potential futures to explore the uncertainty about how agentic AI might be adopted and how its capabilities might develop over the next two to five years. エージェント型AIの開発ペースと開発者の実験速度を考慮し、本報告書では二つの新たなアプローチを試みる。今後2~5年間におけるエージェント型AIの採用方法や能力発展の不確実性を探るため、四つの異なる将来シナリオを用いる。
The ICO’s role ICOの役割
Our aim at the Information Commissioner’s Office (ICO) is to ensure that innovation in agentic AI develops in ways that protect people’s information rights, while providing clarity and support for organisations. Our next steps on agentic AI include the following: 情報コミッショナー事務局(ICO)の目的は、自律型AIの革新が人々の情報権利を保護する形で発展するよう確保すると同時に、組織に対して明確さと支援を提供することだ。自律型AIに関する今後の取り組みは以下の通りである:
•  Hosting workshops with industry to gather further information on agentic AI, including on agentic capabilities and adoption, and how industry is mitigating data protection and privacy risks.  •  業界とのワークショップを開催し、エージェント型AIに関する追加情報を収集する。これにはエージェント機能や導入状況、業界がデータ保護・プライバシーリスクをどのように緩和しているかなどが含まれる。
•  Updating guidance on automated decision-making and profiling, in light of the Data (Use and Access) Act, starting with public consultations in 2026.  •  データ(使用およびアクセス)法に照らして、自動化された意思決定およびプロファイリングに関するガイダンスを更新する。2026 年の公開協議から開始する。
•  Working with partner regulators through the Digital Regulation Cooperation Forum (DRCF) to understand the cross-regulatory implications of agentic AI and invite innovators to participate in the Thematic Innovation Hub on agentic AI.  •  デジタル規制協力フォーラム(DRCF)を通じて、パートナー規制当局と協力し、エージェント型 AI が規制に及ぼす影響を理解するとともに、イノベーターをエージェント型 AI に関するテーマ別イノベーションハブに参加するよう招待する。
•  Continuing our work with international partners through the G7 Data Protection Authorities Emerging Technologies Working Group.  •  G7 データ保護当局新興技術ワーキンググループを通じて、国際的なパートナーとの協力を継続する。
•  Inviting stakeholders working on agentic AI applications to access our innovation support services. For organisations that are in the process of developing innovative products and services using personal information and agentic AI in the public interest, we encourage them to explore our Regulatory Sandbox.  •  エージェント型 AI アプリケーションに取り組むステークホルダーに対し、我々のイノベーション支援サービスへのアクセスを呼びかける。公共の利益のために個人情報とエージェント型 AI を使用して革新的な製品やサービスを開発している組織については、我々の規制サンドボックスの利用を検討するよう奨励する。
We would like to encourage and support data protection–focused opportunities in agentic AI. We will address innovation opportunities proactively as agentic AI matures and our role in regulating it develops. 能動的AIにおけるデータ保護に焦点を当てた機会を促進・支援したい。能動的AIが成熟し、我々の規制役割が発展するにつれ、イノベーションの機会を積極的に取り扱う。
We will keep our approach under review as technologies, markets and risks evolve. 技術、市場、リスクが進化するにつれ、我々のアプローチを見直し続ける。

  

・[PDF

20260115-100607

・[DOCX][PDF] 仮訳

 

ICO tech futures: Agentic AI ICO技術展望:エージェント型AI
Foreword まえがき
Executive summary エグゼクティブサマリー
The ICO’s role ICOの役割
Introduction 序論
Why agentic AI? なぜエージェント型AIなのか?
What are agentic AI and AI agents? エージェント型AIとAIエージェントとは何か?
Potential use cases 潜在的なユースケース
Agentic commerce エージェント型コマース
Workplace applications 職場での応用
Government services 政府サービス
Automated cybersecurity applications 自動化されたサイバーセキュリティアプリケーション
Integrated personal assistants 統合型パーソナルアシスタント
Medical sector 医療分野
Technical developments 技術開発
Data protection and privacy risks データ保護とプライバシーリスク
Human responsibility and controllership 人間の責任と管理責任
Governance ガバナンス
Automated decision-making 自動化された意思決定
Purpose limitation and data minimisation 目的限定とデータ最小化
Purpose limitation 目的の限定
Data minimisation データ最小化
Rapid generation of personal information by agentic AI systems 能動的AIシステムによる個人情報の迅速な生成
Special category data and agentic AI 特別カテゴリーデータと能動的AI
Transparency and explainability 透明性と説明可能性
Accountability 説明責任
Accuracy 正確性
Individual information rights and fairness 個人情報の権利と公平性
Fairness 公平性
The role of the data protection officer データ保護責任者の役割
Challenges in maintaining oversight over novel processing 新たな処理に対する監視を維持する上での課題
Increased complexity of documenting decision-making 意思決定の文書化の複雑化
Evolving role of the DPO DPOの役割の進化
Agentic AI security threats and mitigations エージェント型AIのセキュリティ脅威と緩和
Agent business models and the concentration of personal information エージェント型ビジネスモデルと個人情報の集中
Innovation opportunities – What innovation might the ICO want to see in agentic AI? イノベーションの機会 – ICOはエージェント型AIにおいてどのようなイノベーションを望むか?
Data protection compliant agents データ保護に準拠したエージェント
Agentic controls エージェント制御
Privacy and personal information management agents プライバシー及び個人情報管理エージェント
Local agents and trusted computing ローカルエージェントと信頼できるコンピューティング
Freedom of information and data protection agents 情報公開とデータ保護エージェント
Benchmarks and evaluations for agents エージェントのベンチマークと評価
Scenarios for the future of agentic AI エージェント型AIの未来シナリオ
Scenario planning シナリオ計画
Scenario one: Scarce, simple agents (low adoption, low agentic capability) シナリオ1:希少で単純なエージェント(普及率低、エージェント能力低)
Scenario two: just good enough to be everywhere (high adoption, low agentic capability) シナリオ2:どこにでも存在する程度の性能(普及率高、エージェント能力低)
Scenario three: Agents in waiting (low adoption, high agentic capability) シナリオ3:待機状態のエージェント(普及率低、エージェント能力高)
Scenario four: Ubiquitous agents (high adoption, high agentic capability) シナリオ4:遍在するエージェント(普及率高、能動的能力高)
Next steps 次のステップ
Engagement, guidance development and collaboration 関与、ガイダンスの策定、協力
Digital Regulation Cooperation Forum (DRCF) デジタル規制協力フォーラム(DRCF)
International engagement 国際的な関与
Annex I: Methodology 附属書 I:方法論
Futurecast 将来予測
Stakeholder engagement ステークホルダーとの関わり
Scenario planning シナリオ計画
Steps taken to build and validate scenarios シナリオ構築と妥当性確認のために講じた措置
Annex II: Some drivers impacting the use of agentic AI 附属書II:能動的AIの利用に影響を与える要因
Agentic AI drivers 能動的AIの推進要因
Model training costs モデル訓練コスト
A drop in compute prices and increased processing power driving accessibility コンピューティング価格の低下と処理能力の向上によるアクセシビリティの向上
Increasingly large, high-quality datasets are available 大規模で高品質なデータセットが利用可能になる
Venture capital funding and the AI bubble ベンチャーキャピタルの資金調達とAIバブル
‘Fear of missing out’ driven by the hype cycle and marketing ハイプサイクルとマーケティングによる「取り残される恐怖」
Highly intersectional technology 高度に交差する技術
Cost savings from reduced staff costs and labour 人件費削減によるコスト削減
A push on AI from national governments 各国政府によるAI推進
Annex III: Glossary of terms 附属書III:用語集
Annex IV: Further reading 附属書IV:参考文献
Annex V: Acknowledgements 附属書V:謝辞

 

 

| | Comments (0)

2026.01.14

中国 パブコメ インターネットアプリケーション個人情報取得・利用規定 (2026.01.10)

こんにちは、丸山満彦です。

インターネットアプリケーション(App)(スマート端末にプリインストールされ、ダウンロード・インストールされるアプリケーションソフトウェア、及びアプリケーションソフトウェアのオープンプラットフォームインターフェースに基づいて開発され、インストール不要で使用可能なミニアプリ、クイックアプリ等を)における個人情報の取得・利用活動を規範化するものということのようです...

内容としては、

 

  • 第 1 章 総則: 目的、適用範囲、基本原則など、規定全体の基本的な事項を規定
  • 第 2 章 インターネットアプリケーション運営安全管理要求: App 運営者が遵守すべき具体的な安全管理要件を規定。告知と同意、最小限の取得、ユーザーの権利、SDK の管理など、App 運営者の義務が詳細に規定
  • 第 3 章 ソフトウェア開発ツール包運営安全管理要求: SDK 運営者が遵守すべき安全管理要件を規定
  • 第 4 章 アプリケーション配布プラットフォーム安全管理要求: アプリストアなどの配布プラットフォームが遵守すべき安全管理要件を規定
  • 第 5 章 スマート端末安全管理要求: スマートフォンの製造業者などが遵守すべき安全管理要件を規定
  • 第 6 章 監督管理: 監督管理部門の権限、App 運営者の協力義務など、監督管理に関する事項を規定
  • 第 7 章 附則: 用語の定義、施行日など、規定の解釈・適用に関する補足的な事項を規定

 

このような規制を作る背景としては、App等を通じた過度な(不必要な)個人情報の取得(バックグラウンドでの情報取得含む)、強制的な同意(長ーい同意文を読ませて、同意しないとアプリを使わせないとか。。。)、個人データの違法な利用や越境移転、安全管理不足(暗号化しない)などの事案があったからのようです...

細かく決めているという点では日本よりも細かい欧州以上かもしれませんが、それでも中国は日本よりもどんどん新しい産業がでてきいるようにも思います。

日本でそのまま適用しても問題なさそうな感じかもですね...

 

 

国家互联网信息办公室(国家サイバースペース管理局)

・2026.01.10 

国家互联网信息办公室关于《互联网应用程序个人信息收集使用规定(征求意见稿)》公开征求意见的通知 国家サイバースペース管理局による「インターネットアプリケーション個人情報取得・利用規定(意見募集稿)」の公開意見募集に関する通知
互联网应用程序个人信息收集使用规定 インターネットアプリケーション個人情報取得・利用規定
(征求意见稿) (意見募集稿)
第一章 总则 第一章 総則
第一条 为了规范互联网应用程序个人信息收集使用活动,保护个人信息权益,促进个人信息合理利用,根据《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《网络数据安全管理条例》等法律法规,制定本规定。 第一条 インターネットアプリケーションにおける個人情報の取得・利用活動を規範化し、個人情報の権利を保護し、個人情報の合理的な利用を促進するため、「中華人民共和国サイバーセキュリティ法」「中華人民共和国個人情報保護法」「ネットワークデータ安全管理条例」等の法律・法規に基づき、本規定を制定する。
第二条 在中华人民共和国境内运营互联网应用程序过程中收集使用个人信息,以及软件开发工具包、分发平台、智能终端等为互联网应用程序收集使用个人信息活动提供服务的,应当遵守相关法律法规和本规定的要求。 第二条 中華人民共和国国内においてインターネットアプリケーションを運営する際の個人情報の取得・利用、及びソフトウェア開発キット、配信プラットフォーム、スマート端末等がインターネットアプリケーションの個人情報取得・利用活動にサービスを提供する場合、関連法令及び本規定の要求を遵守しなければならない。
互联网应用程序在中华人民共和国境外收集使用中华人民共和国境内自然人个人信息的活动,符合《中华人民共和国个人信息保护法》第三条第二款规定情形的,适用本规定。 インターネットアプリケーションが中華人民共和国国外において中華人民共和国内の自然人の個人情報を取得・利用する活動は、「中華人民共和国個人情報保護法」第三条第二項に規定する状況に該当する場合、本規定を適用する。
第三条 收集使用个人信息应当遵循合法、正当、必要和诚信原则,不得通过误导、欺诈、胁迫等方式收集使用个人信息。 第三条 個人情報の取得及び利用は、合法性、正当性、必要性及び誠実性の原則に従わなければならない。誤解を招く行為、詐欺、脅迫等の方法による個人情報の取得及び利用は禁止される。
收集使用个人信息应当向个人信息主体充分告知收集使用规则,并取得个人信息主体同意;收集使用敏感个人信息的,应当取得个人信息主体的单独同意。法律、行政法规另有规定的,依照其规定。 個人情報の取得及び利用に際しては、個人情報主体に対し取得・利用規則を十分に告知し、その同意を得なければならない。機微な個人情報を取得・利用する場合は、個人情報主体の別途の同意を得なければならない。法律・行政法規に別段の定めがある場合は、その規定に従う。
收集使用个人信息应当采取对个人信息主体权益影响最小的方式,限于提供产品或者服务所必需,不得超范围收集使用个人信息。 個人情報の取得及び利用は、個人情報主体の権益への影響を最小限とする方法を採用し、製品またはサービスの提供に必要最小限の範囲に限定し、範囲を超えた取得及び利用をしてはならない。
不得以个人信息主体不同意收集使用其个人信息或者撤回同意为由,拒绝提供产品或者服务,个人信息属于提供产品或者服务所必需的除外。 個人情報主体が個人情報の取得及び利用に同意しないこと、または同意を撤回したことを理由として、製品またはサービスの提供を拒否してはならない。ただし、当該個人情報が製品またはサービスの提供に必要不可欠な場合はこの限りではない。
第四条 互联网应用程序、软件开发工具包运营者分别对所运营的互联网应用程序、软件开发工具包个人信息收集使用活动及安全保护承担主体责任。 第四条 インターネットアプリケーション及びソフトウェア開発キットの運営者は、それぞれが運営するインターネットアプリケーション及びソフトウェア開発キットにおける個人情報の取得・利用活動及び安全保護について主体責任を負う。
互联网应用程序运营者对嵌入的软件开发工具包、分发平台运营者对分发的互联网应用程序、智能终端厂商对预置的互联网应用程序依法履行审核义务。未能进行有效审核,对个人信息主体权益造成损害的,依法承担相应责任。 インターネットアプリケーション運営者は組み込まれたソフトウェア開発キットに対し、配布プラットフォーム運営者は配布するインターネットアプリケーションに対し、スマート端末メーカーはプリインストールされたインターネットアプリケーションに対し、法に基づき審査義務を履行する。有効な審査が行われず、個人情報主体の権益に損害を与えた場合、法に基づき相応の責任を負う。
第五条 互联网应用程序、软件开发工具包、分发平台运营者和智能终端厂商对汇聚、关联后属于国家秘密事项的个人信息,按照国家有关安全保密规定加强管理。 第五条 インターネットアプリケーション、ソフトウェア開発キット、配布プラットフォームの運営者及びスマート端末メーカーは、集約・関連付け後に国家機密事項に該当する個人情報について、国家の関連する安全保密規定に基づき管理を強化する。
互联网应用程序、软件开发工具包、分发平台运营者和智能终端厂商对掌握的属于通信秘密的个人信息,不得对内容进行检查,不得向第三方提供。法律、行政法规另有规定的,依照其规定。 インターネットアプリケーション、ソフトウェア開発キット、配布プラットフォームの運営者及びスマート端末メーカーは、保有する通信秘密に該当する個人情報について、内容の検査を行ってはならず、第三者に提供してはならない。法律・行政法規に別段の定めがある場合は、その規定に従う。
第六条 鼓励行业组织建立完善行业自律机制,制定个人信息保护行业规范和自律公约,指导会员单位依法依规开展个人信息收集使用活动,接受社会监督。 第六条 業界団体は、業界自律メカニズムの整備、個人情報保護に関する業界規範及び自律規約の制定を促進し、会員企業が法令に基づき個人情報の取得・利用活動を実施するよう指導し、社会の監督を受けることを推奨する。
第二章 互联网应用程序运营安全管理要求 第二章 インターネットアプリケーション運営の安全管理要件
第七条 互联网应用程序收集使用个人信息应当遵循公开、透明原则,制定公开个人信息收集使用规则,通过清晰易懂的语言真实、准确、完整、逐项列明下列事项: 第七条 インターネットアプリケーションが個人情報を取得・利用する際は、公開・透明性の原則に従い、個人情報の取得・利用規則を策定し、明確で理解しやすい言語を用いて、以下の事項を真実かつ正確に、完全かつ項目ごとに列挙しなければならない:
(一)运营者名称或者姓名和有效的联系方式; (一)運営者の名称または氏名及び有効な連絡先
(二)以结构化清单形式列明每项功能服务收集使用个人信息的目的、方式、种类,调用权限名称、频度,收集使用敏感个人信息的必要性以及对用户权益的影响; (二)構造化されたリスト形式で、各機能サービスにおける個人情報の取得・利用目的、方法、種類、呼び出し権限名、頻度、機微な個人情報の取得・利用の必要性及びユーザーの権益への影響を明記すること
(三)嵌入软件开发工具包的,应当以结构化清单形式列明嵌入的软件开发工具包名称(包名)、版本、主要功能、运营者名称或者姓名、收集使用个人信息的种类和完整的软件开发工具包个人信息收集使用规则链接; (三)ソフトウェア開発キット(SDK)を組み込む場合、組み込まれたSDKの名称(パッケージ名)、バージョン、主要機能、運営者の名称または氏名、取得・利用する個人情報の種類、およびSDKの個人情報取得・利用規則への完全なリンクを構造化されたリスト形式で明記すること。
(四)个人信息保存期限和到期后的处理方式,保存期限难以确定的,应当明确保存期限的确定方法; (四)個人情報の保存期間及び保存期間満了後の処理方法。保存期間が確定困難な場合は、保存期間の確定方法を明示すること。
(五)用户查阅、复制、转移、更正、补充、删除、限制处理个人信息以及注销账号、撤回同意的方法和途径等; (五)ユーザーが個人情報の閲覧、複製、移転、訂正、補充、削除、処理制限、アカウント解約、同意撤回を行う方法及び手段等。
(六)法律、行政法规规定应当告知的其他事项。 (六)法律・行政法規で告知が義務付けられているその他の事項。
互联网应用程序对于前款所述重点内容,应当以加粗字体、放大字号、标记不同颜色等显著方式向用户提示。 インターネットアプリケーションは、前項に定める重点事項について、太字、拡大フォント、異なる色での表示など、目立つ方法でユーザーに提示しなければならない。
第八条 收集使用个人信息的目的、方式、种类、保存期限或者保存期限的确定方法,调用权限名称、频度和嵌入的软件开发工具包收集使用个人信息行为等情况发生变化的,互联网应用程序应当及时修订、更新个人信息收集使用规则。 第八条 個人情報の取得・利用の目的、方法、種類、保存期間または保存期間の確定方法、権限の呼び出し名称・頻度、組み込まれたソフトウェア開発キットによる個人情報の取得・利用行為などに変更が生じた場合、インターネットアプリケーションは速やかに個人情報取得利用規則を改訂・更新しなければならない。
注册用户5000万以上或者月活跃用户1000万以上,业务类型复杂的互联网应用程序依照前款规定修订、更新个人信息收集使用规则的,应当同步通过互联网应用程序首页、官方网站、公众号等途径公开征求意见,征求意见期限不少于7个工作日。 登録ユーザーが5000万人以上、または月間アクティブユーザーが1000万人以上で、業務タイプが複雑なインターネットアプリケーションが前項の規定に基づき個人情報取得利用規則を改訂・更新する場合、インターネットアプリケーションのホームページ、公式ウェブサイト、公式アカウント等の経路を通じて同時に意見募集を行い、意見募集期間は7営業日以上とする。
第九条 互联网应用程序应当在首次启动时,通过弹窗等显著方式向用户告知个人信息收集使用规则,并在用户充分知情的前提下,取得用户同意规则的明确表示。 第九条 インターネットアプリケーションは初回起動時、ポップアップ等の顕著な方法でユーザーに個人情報取得利用規則を告知し、ユーザーが十分に理解した上で規則への同意を明確に表明させるものとする。
互联网应用程序向第三方提供个人信息的,应当取得用户的单独同意。互联网应用程序应当在设置页面等醒目位置提供个人信息收集使用规则一键访问功能,方便用户查阅和保存。 インターネットアプリケーションが第三者に個人情報を提供する場合は、ユーザーの個別同意を取得しなければならない。インターネットアプリケーションは設定画面等の目立つ位置に個人情報取得利用規則へのワンクリックアクセス機能を提供し、ユーザーが閲覧・保存しやすいようにするものとする。
互联网应用程序更新个人信息收集使用规则,符合第八条第一款所列情形的,应当通过弹窗、消息推送等显著方式及时向用户告知更新的具体内容,并重新征得用户同意。 インターネットアプリケーションが個人情報取得・利用規則を更新し、第八条第一項に掲げる状況に該当する場合、ポップアップやメッセージプッシュ等の顕著な方法で更新内容を速やかにユーザーに通知し、改めてユーザーの同意を得なければならない。
第十条 互联网应用程序不得通过调用通讯录、通话记录、短信权限收集使用用户以外其他个人信息主体的个人信息,确需用于满足通讯联系、添加好友、数据备份的除外。 第十条 インターネットアプリケーションは、連絡先、通話記録、SMS権限を呼び出してユーザー以外の個人情報主体の個人情報を取得・利用してはならない。ただし、通信連絡、友達追加、データバックアップの目的で必要不可欠な場合はこの限りではない。
互联网应用程序收集使用前款个人信息,属于通信秘密的,应当符合本规定第五条第二款规定。 インターネットアプリケーションが前項の個人情報を取得・利用する場合、通信の秘密に該当するときは、本規定第五条第二項の規定に適合しなければならない。
第十一条 互联网应用程序应当提供基于功能场景的个人信息收集使用配置选项,允许用户根据需要,同意部分功能场景收集使用相关个人信息。 第十一条 インターネットアプリケーションは、機能シナリオに基づく個人情報の取得・利用設定オプションを提供し、ユーザーが必要に応じて一部の機能シナリオにおける関連個人情報の取得・利用に同意できるようにしなければならない。
第十二条 互联网应用程序应当在用户使用具体功能时方可索要对应的必要个人信息权限,并同步告知使用目的,不得提前索要。用户拒绝的,互联网应用程序不得频繁索要影响用户正常使用其他功能。 第十二条 インターネットアプリケーションは、ユーザーが具体的な機能を利用する際にのみ、対応する必要な個人情報権限を要求し、同時に利用目的を通知しなければならない。事前に要求してはならない。ユーザーが拒否した場合、インターネットアプリケーションは頻繁に要求してユーザーの他の機能の正常な使用に影響を与えてはならない。
第十三条 互联网应用程序不得在用户同意个人信息收集使用规则前收集使用个人信息,不得超出用户同意的目的、方式、种类、保存期限收集使用个人信息。 第十三条 インターネットアプリケーションは、ユーザーが個人情報の取得・利用規則に同意する前に個人情報を取得・利用してはならず、ユーザーの同意した目的、方法、種類、保存期間を超えて個人情報を取得・利用してはならない。
互联网应用程序调用权限需与当前功能场景直接相关,应当仅在用户使用具体功能时以所需的最低频度、最小范围收集个人信息。在当前功能场景不再需要权限时停止调用权限,不得收集非必要个人信息、调用非必要权限。 インターネットアプリケーションが権限を呼び出す必要がある場合、それは現在の機能シナリオと直接関連している必要があり、ユーザーが特定の機能を利用する際にのみ、必要な最小限の頻度と最小範囲で個人情報を取得しなければならない。当該機能シナリオで権限が不要となった時点で権限の呼び出しを停止し、不要な個人情報の取得や不要な権限の呼び出しを行ってはならない。
第十四条 互联网应用程序应当仅在用户主动选择使用拍照、发送语音、录音录像等功能时调用相机、麦克风权限,不得在用户停止使用相关功能或者无关场景调用相机、麦克风权限。 第十四条 インターネットアプリケーションは、ユーザーが自発的に写真撮影、音声送信、録音・録画等の機能を選択して使用する場合に限り、カメラやマイクの権限を呼び出すものとし、ユーザーが関連機能の使用を停止した場合や無関係なシナリオにおいてカメラやマイクの権限を呼び出してはならない。
互联网应用程序在地图导航、路径记录、外卖闪送、位置共享等需要实时定位的场景,持续调用位置权限的频率应当限于实现业务功能的最低频度;在添加地点、内容搜索、内容推荐、广告营销等需单次定位场景,应当仅在用户进入功能界面或者用户主动刷新时调用一次位置权限。除法律、行政法规另有规定或者所提供业务功能确需后台持续获取位置外,互联网应用程序不应索要后台访问用户位置信息权限。 インターネットアプリケーションは、地図ナビゲーション、経路記録、出前・宅配サービス、位置情報共有などリアルタイム位置情報が必要な場面において、位置情報権限を継続的に呼び出す頻度は業務機能を実現する最低限の頻度に限定しなければならない。場所の追加、コンテンツ検索、コンテンツ推薦、広告マーケティングなど単回位置情報が必要な場面では、ユーザーが機能画面に入った時またはユーザーが自ら更新した時にのみ位置情報権限を一度呼び出さなければならない。法律・行政法規に別段の定めがある場合、または提供する業務機能においてバックグラウンドでの継続的な位置情報の取得が真に必要な場合を除き、インターネットアプリケーションはバックグラウンドでの位置情報アクセス権限を要求してはならない。
用户选择使用上传或者发送图片、文件等功能,互联网应用程序可使用智能终端提供的存储访问框架实现的,不得索要手机相册、通讯录、短信、存储等权限。互联网应用程序通过提供文件编辑、文件备份等功能获得存储权限的,不得访问用户主动选择以外的文件。 ユーザーが画像・ファイルのアップロードや送信機能を利用する場合、インターネットアプリケーションはスマート端末が提供するストレージアクセスフレームワークを利用できる。この場合、携帯電話のアルバム・連絡先・SMS・ストレージなどの権限を要求してはならない。ファイル編集・バックアップ機能の提供を通じてストレージ権限を取得する場合、ユーザーが自ら選択したファイル以外へのアクセスは禁止される。
第十五条 互联网应用程序收集人脸、指纹、声纹等生物识别信息应当具有特定的目的和充分的必要性,采取对个人权益影响最小的方式,并实施严格的保护措施。 第十五条 インターネットアプリケーションが顔、指紋、声紋等の生体認証情報を取得する場合、特定の目的と十分な必要性を有し、個人の権益への影響を最小限とする方法を採用するとともに、厳格な保護措置を実施しなければならない。
除法律、行政法规另有规定或者取得用户单独同意外,互联网应用程序收集使用人脸、指纹、声纹等信息应当存储于生物识别设备内,不得通过互联网对外传输。除法律、行政法规另有规定外,生物识别信息的保存期限不得超过实现处理目的所必需的最短时间。 法律・行政法規に別段の定めがある場合、またはユーザーの個別同意を得た場合を除き、インターネットアプリケーションが顔、指紋、声紋等の情報を取得・利用する場合、当該情報は生体認証デバイス内に保存され、インターネット経由で外部に送信してはならない。法律・行政法規に別段の定めがある場合を除き、生体識別情報の保存期間は処理目的達成に必要な最短期間を超えてはならない。
第十六条 互联网应用程序运营者应当采取充分的管理措施和必要的技术措施,严格落实未成年人个人信息保护要求,切实防范未成年人个人信息泄露、篡改、丢失。 第十六条 インターネットアプリケーション運営者は、十分な管理措置及び必要な技術的措置を講じ、未成年者の個人情報保護要求を厳格に履行し、未成年者の個人情報の漏洩・改ざん・紛失を確実に防止しなければならない。
互联网应用程序收集使用不满十四周岁未成年人个人信息的,应当制定专门的个人信息收集使用规则,并取得未成年人父母或者其他监护人的同意。 インターネットアプリケーションが14歳未満の未成年者の個人情報を取得・利用する場合、専用の個人情報取得利用規則を策定し、未成年者の父母またはその他の保護者の同意を得なければならない。
第十七条 互联网应用程序通过自动化决策方式向用户进行信息推送、商业营销的,应当设置易于理解、便于访问和操作的个性化推荐关闭选项。 第十七条 インターネットアプリケーションが自動化された意思決定方式によりユーザーに情報プッシュや商業マーケティングを行う場合、理解しやすく、アクセスや操作が容易なパーソナライズド推薦の停止オプションを設定しなければならない。
用户关闭个性化推荐功能时,互联网应用程序应当停止将用户相关个人信息用于个性化推荐目的。 ユーザーがパーソナライズド推薦機能を停止した場合、インターネットアプリケーションは当該ユーザーの個人情報をパーソナライズド推薦目的に使用することを直ちに停止しなければならない。
第十八条 互联网应用程序应当为用户提供注销账号的便捷功能。用户注销账号的,除确有必要用于防范黑灰产、安全风控等情形,互联网应用程序不得要求用户新增提供人脸、手持身份证照片等超出互联网应用程序已收集范围以外的个人信息。 第十八条 インターネットアプリケーションは、ユーザーに対しアカウント削除の簡便な機能を提供しなければならない。ユーザーがアカウントを削除する場合、ブラックマーケット対策やセキュリティリスク管理など真に必要な場合を除き、インターネットアプリケーションは顔写真や身分証を手に持った写真など、既に取得済みの範囲を超える個人情報の追加提供をユーザーに要求してはならない。
用户注销账号的,互联网应用程序应当在15个工作日内完成账号注销,删除已收集的相关个人信息或者进行匿名化处理,法律、行政法规另有规定的除外。 ユーザーがアカウントを削除した場合、インターネットアプリケーションは15営業日以内にアカウント削除を完了し、取得済みの関連個人情報を削除または匿名化処理しなければならない。ただし、法律・行政法規に別段の定めがある場合は除く。
对于同一企业主体或者集团旗下多款互联网应用程序采用统一账号进行一体化管理的,应当允许用户选择注销其中一款互联网应用程序账号,或者允许用户选择关闭该账号在此互联网应用程序的使用权限,并删除仅用于此互联网应用程序的个人信息。 同一企業主体またはグループ傘下の複数インターネットアプリケーションが統一アカウントで統合管理されている場合、ユーザーが当該グループ内のいずれか一つのアプリケーションアカウントを削除するか、当該アカウントの当該アプリケーションにおける使用権限を停止することを選択できるようにし、かつ当該アプリケーション専用に利用されていた個人情報を削除しなければならない。
第十九条 互联网应用程序应当与嵌入的软件开发工具包约定收集使用个人信息的目的、方式、种类和安全保护责任及违约责任,并采取有效的技术措施对嵌入的软件开发工具包个人信息收集使用行为进行审核,确保软件开发工具包实际个人信息收集和权限调用行为与互联网应用程序个人信息收集使用规则中声明的软件开发工具包相关内容保持一致。 第十九条 インターネットアプリケーションは、組み込まれたソフトウェア開発キット(SDK)に対し、個人情報の取得・利用目的、方法、種類、安全保護責任及び違約責任を定め、組み込まれたSDKの個人情報取得・利用行為を審査するための有効な技術的措置を講じなければならない。これにより、SDKの実際の個人情報取得及び権限呼び出し行為が、インターネットアプリケーションの個人情報取得・利用規則に明記されたSDK関連内容と一致することを確保する。
用户向互联网应用程序提出查阅、复制、更正、补充、删除、限制处理其个人信息,或者注销账号、撤回同意等相关请求涉及软件开发工具包个人信息收集使用活动的,互联网应用程序应当将用户请求及时通知软件开发工具包,并督促软件开发工具包及时响应用户请求。 ユーザーがインターネットアプリケーションに対し、個人情報の閲覧・複製・訂正・補充・削除・処理制限、アカウント削除、同意撤回等の請求を行い、当該請求がSDKの個人情報取得・利用活動に関わる場合、インターネットアプリケーションは速やかにSDKにユーザー請求を通知し、SDKが速やかにユーザー請求に対応するよう促さなければならない。
第二十条 互联网应用程序就个人信息收集使用行为进行优化、改进,发布或者更新版本后,应当采取有效方式提醒用户进行版本升级,并对所有授权发布渠道的旧版本互联网应用程序进行更新替换。 第二十条 インターネットアプリケーションは、個人情報の取得・利用行為を最適化・改善し、バージョンをリリースまたは更新した後、効果的な方法でユーザーにバージョンアップを促すとともに、全ての認可リリースチャネルにおける旧バージョンのインターネットアプリケーションを更新・置換しなければならない。
第二十一条 鼓励互联网应用程序接入国家网络身份认证公共服务,用以支持用户使用网号、网证登记、核验真实身份信息。 第二十一条 インターネットアプリケーションは、国家ネットワーク身分認証公共サービスへの接続を推奨する。これにより、ユーザーがネットID・ネット証明書による登録・本人確認を行うことを支援する。
用户选择使用网号、网证登记、核验身份信息并通过验证的,互联网应用程序不得强制要求用户另行提供明文身份信息,法律、行政法规另有规定或者用户同意提供的除外。 ユーザーがネットID・ネット認証による登録・本人確認を選択し、かつ認証を通過した場合、インターネットアプリケーションはユーザーに対し平文の本人情報を別途提供するよう強制してはならない。ただし、法律・行政法規に別段の定めがある場合、またはユーザーが提供に同意した場合はこの限りではない。
第三章 软件开发工具包运营安全管理要求 第三章 ソフトウェア開発キットの運営安全管理に関する要求
第二十二条 软件开发工具包收集使用个人信息的,应当制定个人信息收集使用规则并在产品官方网站公开。 第二十二条 ソフトウェア開発キットが個人情報を取得・利用する場合、個人情報取得利用規則を策定し、製品公式サイトで公開しなければならない。
对于同时运营多个历史版本的,软件开发工具包应当在个人信息收集使用规则中列明不同版本个人信息收集使用行为。 複数の旧バージョンを同時に運用する場合、SDKは個人情報取得利用規則において各バージョンの個人情報の取得利用行為を明記しなければならない。
软件开发工具包收集使用个人信息的目的、方式、范围等发生变化的,应当同步更新相应的个人信息收集使用规则。 SDKが個人情報の取得利用目的、方法、範囲等を変更する場合、対応する個人情報取得利用規則を同時に更新しなければならない。
第二十三条 软件开发工具包不得超出收集使用规则声明的范围收集使用个人信息,不得超出实现业务功能的最小范围收集使用个人信息,不得超出实现业务功能的最低频度调用权限。 第二十三条 SDKは、取得利用規則で宣言した範囲を超えて個人情報を取得利用してはならない。業務機能を実現する最小範囲を超えて個人情報を取得利用してはならない。業務機能を実現する最低頻度を超えて権限を呼び出してはならない。
第二十四条 软件开发工具包应当提供基于功能的个人信息配置选项,允许互联网应用程序按照不同功能需要对软件开发工具包个人信息收集行为进行管理配置。 第二十四条 ソフトウェア開発キットは、機能に基づく個人情報設定オプションを提供し、インターネットアプリケーションが異なる機能ニーズに応じてソフトウェア開発キットの個人情報取得行為を管理設定できるようにしなければならない。
软件开发工具包通过自动化决策方式向用户进行信息推送、商业营销的,应当向互联网应用程序提供个性化推荐关闭选项,在关闭后停止将用户相关个人信息用于个性化推荐目的。 ソフトウェア開発キットが自動化された意思決定方式によりユーザーへ情報プッシュや商業マーケティングを行う場合、インターネットアプリケーションにパーソナライズド推薦の停止オプションを提供し、停止後はユーザー関連個人情報をパーソナライズド推薦目的に使用してはならない。
软件开发工具包应当及时响应互联网应用程序通知的用户个人信息查阅、复制、更正、补充、删除、限制处理等相关请求。 ソフトウェア開発キットは、インターネットアプリケーションから通知されたユーザーの個人情報閲覧、複製、修正、補充、削除、処理制限等の関連要求に速やかに応じるものとする。
第二十五条 软件开发工具包应当建立有效方式和途径,直接响应用户查阅、复制、转移、更正、补充、删除、限制处理个人信息的请求,相关方式和途径应当在个人信息收集使用规则中予以列明。 第二十五条 ソフトウェア開発キットは、ユーザーによる個人情報の閲覧、複製、移転、修正、補充、削除、処理制限の要求に直接応じる有効な方法及び手段を確立するものとする。関連する方法及び手段は、個人情報取得利用規則に明記するものとする。
第四章 应用程序分发平台安全管理要求 第四章 アプリケーション配信プラットフォームの安全管理要求
第二十六条 分发平台应当加强互联网应用程序上架审核,建立互联网应用程序收集使用个人信息规范性档案,在受理互联网应用程序发布及版本更新上架申请时,登记并核验互联网应用程序运营者的真实身份、联系方式等信息,记录互联网应用程序个人信息收集使用问题以及因违法违规收集使用个人信息被省级以上履行个人信息保护职责的部门通报或行政处罚的情况。对未提供相关信息或者提供虚假信息,互联网应用程序无个人信息收集使用规则、无账号注销功能或者删除个人信息途径的,不予上架。 第二十六条 配信プラットフォームは、インターネットアプリケーションの掲載審査を強化し、インターネットアプリケーションの個人情報取得・利用に関する規範的ファイルを構築しなければならない。インターネットアプリケーションの公開及びバージョン更新の掲載申請を受理する際には、インターネットアプリケーション運営者の実体、連絡先等の情報を登録・確認し、インターネットアプリケーションの個人情報取得・利用に関する問題及び違法・規制違反による個人情報取得・利用により省級以上の個人情報保護職責履行部門から通報または行政処分を受けた状況を記録しなければならない。関連情報を提供しない、虚偽の情報を提供する、インターネットアプリケーションに個人情報取得利用規則がない、アカウント削除機能や個人情報削除手段がない場合、掲載を認めない。
分发平台在上架审核中应根据互联网应用程序运营者获得个人信息保护认证和互联网应用程序安全认证的结果,予以优先展示推荐。 配信プラットフォームは掲載審査において、インターネットアプリケーション運営者が個人情報保護認証及びインターネットアプリケーションセキュリティ認証を取得した結果に基づき、優先的に表示・推奨するものとする。
分发平台应当自本规定生效之日起6个月内,完成对在架存量互联网应用程序的审核,审核不通过的予以清理下架。 配信プラットフォームは、本規定発効日より6ヶ月以内に、既に掲載されている既存インターネットアプリケーションの審査を完了し、審査に合格しないものは削除する。
第二十七条 分发平台应当在互联网应用程序分发、下载页面,清晰准确展示下列信息: 第二十七条 配信プラットフォームは、インターネットアプリケーションの配信・ダウンロードページにおいて、以下の情報を明確かつ正確に表示しなければならない:
(一)互联网应用程序运营者名称或者姓名、联系方式; (一)インターネットアプリケーション運営者の名称または氏名、連絡先
(二)互联网应用程序主要功能介绍; (二)インターネットアプリケーションの主な機能説明
(三)互联网应用程序运行所需具体权限列表; (三)インターネットアプリケーションの動作に必要な具体的な権限リスト
(四)个人信息收集使用规则文本或者链接; (四)個人情報の取得・利用に関する規則の本文またはリンク
(五)对因违法违规收集使用个人信息被省级以上履行个人信息保护职责的部门通报或行政处罚的互联网应用程序,应当自通报或处罚之日起6个月内,在分发、下载页面发布个人信息安全风险提示。 (五)法令違反による個人情報の取得・利用で省級以上の個人情報保護担当部門から通報または行政処分を受けたインターネットアプリケーションについては、通報または処分の日から6か月以内に、配布・ダウンロードページに個人情報セキュリティリスクに関する注意喚起を掲載しなければならない。
第二十八条 对履行个人信息保护职责的部门认定存在违法违规收集使用个人信息行为的互联网应用程序,分发平台应当积极配合采取警示、不予分发、暂停分发或者终止分发等处置措施。 第二十八条 個人情報保護職責を履行する部門が違法・違規な個人情報の取得・利用行為があると認定したインターネットアプリケーションに対し、配布プラットフォームは警告、配布拒否、配布停止または配布終了などの措置を積極的に協力して講じなければならない。
第五章 智能终端安全管理要求 第五章 スマート端末の安全管理要件
第二十九条 智能终端厂商在受理互联网应用程序预置申请时,应当登记并核验互联网应用程序运营者的真实身份、联系方式等信息,对未提供上述信息或者提供虚假信息,互联网应用程序无个人信息收集使用规则、无账号注销功能或者删除个人信息途径的,不予预置。 第二十九条 スマート端末メーカーは、インターネットアプリケーションのプリインストール申請を受理する際、当該アプリケーション運営者の実体情報、連絡先等の情報を登録・確認しなければならない。上記情報を提供しない、または虚偽情報を提供した場合、あるいは当該アプリケーションに個人情報の取得・利用に関する規則がなく、アカウント削除機能や個人情報の削除手段がない場合には、プリインストールを認めない。
第三十条 互联网应用程序索要日历、通话记录、相机、通讯录、位置、麦克风、电话、短信、存储、身体活动等权限时,智能终端操作系统应弹窗征得用户同意,根据权限特点提供可基于时间、频度、精度等精细化授权模式选项。 第三十条 インターネットアプリケーションがカレンダー、通話記録、カメラ、連絡先、位置情報、マイク、電話、SMS、ストレージ、身体活動等の権限を要求する場合、スマート端末のオペレーティングシステムはポップアップ表示でユーザーの同意を得るものとし、権限の特性に応じて時間、頻度、精度等に基づく詳細な許可モードの選択肢を提供しなければならない。
第三十一条 智能终端应当在屏幕顶部等显著位置,以易于理解的图标等显著标识,如实地向用户提示当前正在调用的麦克风、摄像头、位置等权限。 第三十一条 スマート端末は画面上部などの目立つ位置に、分かりやすいアイコンなどの明確な表示を用いて、現在使用中のマイク、カメラ、位置情報などの権限をユーザーに事実通り提示しなければならない。
第三十二条 智能终端应当如实记录并集中展示互联网应用程序调用日历、通话记录、相机、通讯录、位置、麦克风、电话、短信、存储、身体活动等权限情况;互联网应用程序后台静默期间自启动、关联启动情况;互联网应用程序通过智能终端收集剪切板、设备唯一标识、应用程序列表等个人信息行为。记录规则应当予以公开。 第三十二条 スマート端末は、インターネットアプリケーションによるカレンダー・通話記録・カメラ・連絡先・位置情報・マイク・電話・SMS・ストレージ・身体活動等の権限利用状況を正確に記録し集中表示しなければならない。また、インターネットアプリケーションのバックグラウンド静止期間における自動起動・関連起動状況、ならびにスマート端末を通じてクリップボード・デバイス固有識別子・アプリケーションリスト等の個人情報を取得する行為を記録しなければならない。記録ルールは公開されるべきである。
智能终端应当准确提示互联网应用程序调用权限可能带来的安全风险。 スマート端末は、インターネットアプリケーションが権限を呼び出すことで生じる可能性のあるセキュリティリスクを正確に通知しなければならない。
第六章 监督管理 第六章 監督管理
第三十三条 国家网信部门负责统筹协调和监督管理互联网应用程序、软件开发工具包、分发平台和智能终端个人信息保护工作。国务院电信主管部门、公安部门和其他有关机关依照有关法律法规和本规定的要求,在各自职责范围内负责互联网应用程序、软件开发工具包、分发平台和智能终端个人信息保护和监督管理工作。 第三十三条 国家サイバースペース管理局は、インターネットアプリケーション、ソフトウェア開発キット、配信プラットフォーム及びスマート端末における個人情報保護業務の統括調整及び監督管理を担当する。国務院電気通信主管部門、公安部門及びその他の関係機関は、関連法令及び本規定の要求に基づき、それぞれの職責の範囲内でインターネットアプリケーション、ソフトウェア開発キット、配信プラットフォーム及びスマート端末における個人情報保護及び監督管理業務を担当する。
地方网信部门负责统筹协调和监督管理本行政区域内互联网应用程序、软件开发工具包、分发平台和智能终端个人信息保护工作,地方电信管理部门、公安部门和其他有关机关依据各自职责做好本行政区域内互联网应用程序、软件开发工具包、分发平台和智能终端个人信息保护和监督管理工作。 地方ネット情報部門は、管轄区域内のインターネットアプリケーション、ソフトウェア開発キット、配布プラットフォーム及びスマート端末における個人情報保護業務の調整・監督管理を統括する。地方電気通信管理部門、公安部門及びその他の関係機関は、それぞれの職責に基づき、管轄区域内のインターネットアプリケーション、ソフトウェア開発キット、配布プラットフォーム及びスマート端末における個人情報保護及び監督管理業務を適切に実施する。
第三十四条 互联网应用程序、软件开发工具包运营者应当在产品官方网站、个人信息收集使用规则中提供有效的、易于访问的投诉举报渠道,健全投诉举报的受理、处置、反馈机制,在承诺时限内(承诺时限不得超过15个工作日,无承诺时限的,以15个工作日为限)受理并处置个人信息相关投诉。 第三十四条 インターネットアプリケーション及びソフトウェア開発キットの運営者は、製品公式サイト及び個人情報取得利用規則において、有効かつ容易にアクセス可能な苦情申立窓口を提供し、苦情申立の受理・処理・フィードバックの仕組みを整備しなければならない。また、承諾した期限内(承諾期限は15営業日を超えてはならず、期限を承諾していない場合は15営業日を上限とする)に個人情報関連の苦情を受け付け処理する。
互联网应用程序运营者应当同时受理、处置、反馈关于嵌入的软件开发工具包相关个人信息问题举报,核验属实的,应当督促软件开发工具包运营者进行整改。分发平台运营者、智能终端厂商应当同时受理、处置、反馈关于分发和预置的互联网应用程序相关个人信息问题举报,核验属实的,应当督促互联网应用程序运营者进行整改。 インターネットアプリケーション運営者は、組み込まれたソフトウェア開発キットに関連する個人情報問題の通報についても同時に受理・処理・フィードバックを行うものとする。事実確認が取れた場合は、ソフトウェア開発キット運営者に対し是正を促さなければならない。配布プラットフォーム運営者及びスマート端末メーカーは、配布・プリインストールされたインターネットアプリケーションに関連する個人情報問題の通報についても同時に受理・処理・フィードバックを行うものとする。事実確認が取れた場合は、インターネットアプリケーション運営者に対し是正を促さなければならない。
第三十五条 互联网应用程序、软件开发工具包、分发平台运营者和智能终端厂商应当制定内部管理制度和操作规程,建立健全内部合规管理体系和问责机制,防止个人信息被用于电信网络诈骗等违法犯罪活动,充分保护用户个人信息。 第三十五条 インターネットアプリケーション、ソフトウェア開発キット、配信プラットフォーム運営者及びスマート端末メーカーは、内部管理制度と操作手順を策定し、内部コンプライアンス管理体制と責任追及メカニズムを整備し、個人情報が電信ネットワーク詐欺等の違法犯罪活動に利用されることを防止し、ユーザーの個人情報を十分に保護しなければならない。
互联网应用程序、软件开发工具包、分发平台运营者和智能终端厂商应当对履行个人信息保护职责的部门依法开展的个人信息保护监督检查予以配合,并提供必要的技术支持和协助。 インターネットアプリケーション、ソフトウェア開発キット、配布プラットフォームの運営者及びスマート端末メーカーは、個人情報保護の職責を履行する部門が法に基づき実施する個人情報保護監督検査に協力し、必要な技術支援と協力を提供しなければならない。
第三十六条 互联网应用程序、软件开发工具包运营者应当强化对个人信息查阅、复制、修改、删除等操作的权限管理,采取加密、去标识化等安全技术措施,防止个人信息泄露、丢失或者未经授权的访问。 第三十六条 インターネットアプリケーション及びソフトウェア開発キットの運営者は、個人情報の閲覧、複製、修正、削除等の操作に対する権限管理を強化し、暗号化、非識別化等の安全技術措置を講じ、個人情報の漏洩、紛失又は不正アクセスを防止しなければならない。
发生个人信息泄露、丢失的,互联网应用程序、软件开发工具包运营者应该将泄露个人信息的种类、原因、可能造成的危害、采取的补救措施等信息及时告知用户,并向履行个人信息保护职责的部门报告。 個人情報の漏洩・紛失が発生した場合、インターネットアプリケーション及びソフトウェア開発キットの運営者は、漏洩した個人情報の種類、原因、引き起こす可能性のある危害、講じた是正措置等の情報を速やかに利用者に通知し、個人情報保護の職責を履行する部門に報告しなければならない。
第三十七条 互联网应用程序、软件开发工具包、分发平台运营者和智能终端厂商违反本规定的,履行个人信息保护职责的部门依照《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《网络数据安全管理条例》等相关法律法规处理;构成犯罪的,依法追究刑事责任。 第三十七条 インターネットアプリケーション、ソフトウェア開発キット、配布プラットフォームの運営者及びスマート端末メーカーが本規定に違反した場合、個人情報保護の職責を履行する部門は『中華人民共和国サイバーセキュリティ法』『中華人民共和国個人情報保護法』『ネットワークデータ安全管理条例』等の関連法令に基づき処理する。犯罪を構成する場合は、法に基づき刑事責任を追及する。
第七章 附则 第七章 附則
第三十八条 本规定中下列用语的含义: 第三十八条 本規定における以下の用語の定義は次の通りである:
互联网应用程序(App),是指智能终端预置、下载安装的应用软件,以及基于应用软件开放平台接口开发的、无需安装即可使用的小程序、快应用等。 インターネットアプリケーション(App)とは、スマート端末にプリインストールされ、ダウンロード・インストールされるアプリケーションソフトウェア、及びアプリケーションソフトウェアのオープンプラットフォームインターフェースに基づいて開発され、インストール不要で使用可能なミニアプリ、クイックアプリ等を指す。
互联网应用程序运营者,是指互联网应用程序的开发者、所有者、管理者或者提供者。 インターネットアプリケーション運営者とは、インターネットアプリケーションの開発者、所有者、管理者又は提供者を指す。
软件开发工具包(SDK),是指协助软件开发的软件库。 ソフトウェア開発キット(SDK)とは、ソフトウェア開発を支援するソフトウェアライブラリを指す。
软件开发工具包运营者,是指软件开发工具包的开发者、所有者、管理者或者提供者。 ソフトウェア開発キット運営者とは、ソフトウェア開発キットの開発者、所有者、管理者または提供者を指す。
个人信息主体,是指个人信息所标识或者关联的自然人。 個人情報主体とは、個人情報が識別または関連付けられる自然人を指す。
用户,是指使用互联网应用程序相关功能服务的自然人。 ユーザーとは、インターネットアプリケーション関連機能サービスを利用する自然人を指す。
分发平台,是指通过互联网提供互联网应用程序发布、下载、动态加载等服务提供者,包括应用商店、应用市场、快应用中心、小程序平台等。 配布プラットフォームとは、インターネットを通じてインターネットアプリケーションの公開、ダウンロード、動的ロード等のサービスを提供する者を指し、アプリストア、アプリマーケット、クイックアプリセンター、ミニアプリプラットフォーム等を含む。
智能终端,是指能够接入公众网络、具有操作系统、可由用户自行安装和卸载应用软件的移动通信终端产品。 スマート端末とは、公衆ネットワークに接続可能で、オペレーティングシステムを備え、ユーザーが自らアプリケーションソフトウェアをインストール・アンインストールできる移動通信端末製品を指す。
必要个人信息,是指为了保障基本功能服务或者用户所选择使用的功能服务正常运行所必需的个人信息,缺少该信息无法向用户提供相应的功能服务。 必要個人情報は、基本機能サービスまたはユーザーが選択した機能サービスの正常な動作を保障するために必要な個人情報を指す。この情報が欠如すると、ユーザーに対応する機能サービスを提供できない。
可收集个人信息权限,是指智能终端操作系统向互联网应用程序开放的,具有收集个人信息功能的系统权限,包括日历、通话记录、相机、通讯录、位置、麦克风、电话、短信、存储、身体活动等,简称权限。 個人情報を取得できる権限とは、スマート端末のオペレーティングシステムがインターネットアプリケーションに開放する、個人情報を取得する機能を持つシステム権限を指す。これにはカレンダー、通話記録、カメラ、連絡先、位置情報、マイク、電話、SMS、ストレージ、身体活動などが含まれ、略して権限と呼ぶ。
第三十九条 本规定自 年 月 日起施行。 第三十九条 本規定は 年 月 日から施行する。

 

 

 

1_20210612030101

 

| | Comments (0)

2026.01.13

中国 個人情報保護に関する政策法規Q&A(2026年1月)

こんにちは、丸山満彦です。

2026.01.01より、改正ネットワークセキュリティ法の施行、機微な個人情報の取り扱いに関する技術標準の施行、外資系企業などによる個人データの適切な越境処理の確認も含めて?、個人情報保護に関する政策放棄Q&Aが公表されていますね...

 

 

国家互联网信息办公室(国家サイバースペース管理局)

・2026.01.09 个人信息保护政策法规问答(2026年1月)

 

个人信息保护政策法规问答(2026年1月) 個人情報保護に関する政策法規Q&A(2026年1月)
国家互联网信息办公室持续加强个人信息保护相关政策法规宣贯,指导帮助个人信息处理者规范开展个人信息处理活动,保护个人信息权益。现将一些具有代表性的问题和答复公布如下。 国家サイバースペース管理局は、個人情報保護関連の政策法規の周知徹底を継続的に強化し、個人情報取扱者が規範的に個人情報の処理活動を行い、個人情報の権利を保護するよう指導・支援している。代表的な質問と回答を以下に公表する。
1.什么是个人信息? 1. 個人情報とは何か?
个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。 個人情報とは、電子的その他の方法で記録された、識別されたまたは識別可能な自然人に関するあらゆる情報を指す。匿名化処理後の情報は含まれない。
个人信息包括但不限于以下类型,如个人姓名、生日、年龄等个人基本资料,身份证、军官证、护照等个人身份信息,人脸、基因、声纹、虹膜、指纹等生物识别信息,用户账号、用户标识符(用户ID)等网络身份标识信息,教育经历、职业、职位等个人教育工作信息,金融账户、消费记录、收入状况、借款信息等个人财产信息,账号口令、数字证书等身份鉴别信息,通信记录、短信、电子邮件等个人通信信息,通讯录、好友列表等联系人信息,网页浏览记录、软件使用记录等个人上网记录,国际移动设备识别码(IMEI)等个人设备信息,交通出行信息等个人位置信息,用户标签、画像信息等个人标签信息,步数、步频等个人运动信息,以及其他与已识别或者可识别的自然人有关的各种信息。 個人情報には以下のような種類が含まれるが、これらに限定されない。・個人名、生年月日、年齢などの基本情報・身分証明書、軍人証、パスポートなどの個人識別情報・顔、遺伝子、声紋、虹彩、指紋などの生体認証情報・ユーザーアカウント、ユーザー識別子(ユーザーID)などのネットワーク識別情報・教育情報、職業情報、健康情報などの個人データ 身分証明書、軍人証、パスポート等の個人身分情報、顔、遺伝子、声紋、虹彩、指紋等の生体識別情報、ユーザーアカウント、ユーザー識別子(ユーザーID)等のネットワーク身分識別情報、学歴、職業、役職等の個人教育・就業情報、金融口座、消費記録、収入状況、借入情報等の個人財産情報、アカウントパスワード、デジタル証明書等の身分認証情報、通信記録、SMS、電子メール等の個人通信情報、 連絡先リスト、フレンドリストなどの連絡先情報、ウェブ閲覧履歴、ソフトウェア使用記録などの個人インターネット利用記録、国際移動体装置識別番号(IMEI)などの個人端末情報、交通移動情報などの個人位置情報、ユーザータグ、プロファイル情報などの個人タグ情報、歩数、歩数頻度などの個人運動情報、その他識別された、または識別可能な自然人に関連する各種情報。
2.什么是敏感个人信息? 2. 機微な個人情報とは何か?
敏感个人信息是一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害的个人信息,包括生物识别、宗教信仰、特定身份、医疗健康、金融账户、行踪轨迹等信息,以及不满十四周岁未成年人的个人信息。 機微な個人情報とは、漏洩または不正使用された場合、自然人の人格的尊厳が侵害されたり、身体・財産の安全が危害を受ける恐れがある個人情報を指す。これには生体認証情報、宗教的信仰、特定身分、医療健康情報、金融口座情報、行動軌跡情報などが含まれ、14歳未満の未成年者の個人情報も該当する。
国家标准GB/T 45574-2025《数据安全技术 敏感个人信息处理安全要求》明确了敏感个人信息识别和界定方法,并在附录A中给出常见的敏感个人信息类别,如人脸、基因、声纹等生物识别信息,个人信仰的宗教、加入的宗教组织等宗教信仰信息,残障人士身份信息、不适宜公开的职业身份信息等特定身份信息,病症、既往病史、医疗就诊记录、检验检查数据等医疗健康信息,银行、证券、基金、保险账户的账号及密码等金融账户信息,连续精准定位轨迹信息、车辆行驶轨迹信息等行踪轨迹信息,居民身份证照片、征信信息、犯罪记录信息等其他敏感个人信息。 標準GB/T 45574-2025『データセキュリティ技術 機微な個人情報の処理に関する安全要件』は、機微な個人情報の識別及び定義方法を明確化しており、付録Aにおいて一般的な機微な個人情報のカテゴリーを示している。例えば、顔、遺伝子、声紋などの生体認証情報、個人の信仰する宗教、加入する宗教組織などの宗教信仰情報、障害者身分情報、公開に適さない職業身分情報などの特定身分情報、 疾病・既往歴・診療記録・検査データ等の医療健康情報、銀行・証券・投資信託・保険口座の番号及びパスワード等の金融口座情報、連続的な精密位置情報・車両走行軌跡情報等の行動軌跡情報、住民身分証写真・信用情報・犯罪記録情報等のその他の機微な個人情報である。
3.应用人脸识别技术处理人脸信息前如何进行个人信息保护影响评估? 3.顔認識技術を用いた顔情報の処理前に、個人情報保護アセスメントをどう行うか?
人脸识别技术应用安全管理办法》第九条规定,使用人脸识别技术前应当进行个人信息保护影响评估,并对处理情况进行记录。个人信息保护影响评估由应用人脸识别技术的个人信息处理者组织开展,可有第三方机构参与。若有第三方机构参与,需在评估报告中说明第三方机构的基本情况及参与评估的情况。 『顔認識技術応用セキュリティ評価弁法』第9条は、顔認識技術使用前に個人情報保護アセスメントを実施し、処理状況を記録すべきと規定している。個人情報保護アセスメントは、顔認識技術を利用する個人情報処理者が実施し、第三者機関の参加が可能である。第三者機関が参加する場合、評価報告書に当該機関の基本情報及び評価への参加状況を記載する必要がある。
主要评估四方面内容,一是人脸信息的处理目的、处理方式是否合法、正当、必要;二是对个人权益带来的影响,以及降低不利影响的措施是否有效;三是发生人脸信息泄露、篡改、丢失、毁损或者被非法获取、出售、使用的风险以及可能造成的危害;四是所采取的保护措施是否合法、有效并与风险程度相适应。 主に四つの側面についてアセスメントを行う。第一に、顔情報の処理目的・処理方法が合法的・正当・必要か。第二に、個人の権益への影響及び不利な影響を軽減する措置の有効性。第三に、顔情報の漏洩・改ざん・紛失・毀損、あるいは不正取得・販売・使用のリスク及び引き起こし得る危害。第四に、講じた保護措置が合法的・有効であり、リスクの程度に見合っているか。
4.符合什么条件的个人信息处理者需指定个人信息保护负责人和报送负责人信息? 4. どのような条件を満たす個人情報処理者は個人情報保護責任者を指定し、責任者情報を報告する必要があるのか?
中华人民共和国个人信息保护法》第五十二条规定,处理个人信息达到国家网信部门规定数量的个人信息处理者应当指定个人信息保护负责人,负责对个人信息处理活动以及采取的保护措施等进行监督。《个人信息保护合规审计管理办法》第十二条规定,处理100万人以上个人信息的个人信息处理者应当指定个人信息保护负责人,负责个人信息处理者的个人信息保护合规审计工作。 『中華人民共和国個人情報保護法』第52条は、個人情報の処理が国家サイバー空間管理局が定める数量に達した個人情報処理者は、個人情報保護責任者を指定し、個人情報処理活動及び講じた保護措置等の監督を担当させなければならないと規定している。『個人情報保護コンプライアンス監査管理弁法』第12条は、100万人以上の個人情報を処理する個人情報の取扱者が個人情報保護責任者を指定し、当該取扱者の個人情報保護コンプライアンス監査業務を担当させることを規定している。
2025年7月18日,国家互联网信息办公室发布《关于开展个人信息保护负责人信息报送工作的公告》,明确个人信息保护负责人信息报送要求、报送时间、报送方式等。个人信息保护负责人信息报送采用线上方式。可直接访问“个人信息保护业务系统”([web]),按照系统首页提供的《个人信息保护负责人信息报送系统填报说明(第一版)》,准备相关材料并履行信息报送手续,也可从中国网信网([web])首页“全国网信政务办事大厅”栏目访问“个人信息保护业务系统”。 2025年7月18日、国家サイバースペース管理局は『個人情報保護責任者情報報告業務の実施に関する公告』を発表し、個人情報保護責任者情報の報告要件、報告時期、報告方法等を明確化した。個人情報保護責任者情報の報告はオンライン方式を採用する。「個人情報保護業務システム」(web)に直接アクセスし、システムホームページに掲載されている『個人情報保護責任者情報報告システム記入説明(第一版)』に従い、関連資料を準備して情報報告手続きを行うか、中国網信網([web])ホームページの「全国網信政務サービスホール」欄から「個人情報保護業務システム」にアクセスすることもできる。

 

 

1_20210612030101

 

 

| | Comments (0)

2026.01.11

個人情報保護委員会 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)(2026.01.09)

こんにちは、丸山満彦です。

2026.01.09に開催された第347回 個人情報保護委員会で、個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)が議論されたようですね...

いろいろと議論をしてきたのですが、首相の発言もあって、今回の国会で議論されることになるのでしょうかね...(総選挙?でいろいろと変わるかもですが...)

で、制度改正方針(案) 概要がぱっと見はわかりやすいのですが、

20260110-151344

本文もみてみますかね...

制度改正方針(案)

 

・同意不要例外の拡大(研究、統計、AI開発等の例外拡大、匿名加工済みデータの緩和、正当な利益に基づく二次利用の拡大、委託先・関連事業者への利用拡大、行政・公共目的の例外拡大)ですが、事前規制を緩める反面、事後規制(例えば、第三者の評価、罰則等)を厳しくしなければバランスが取れませんよね...

・課徴金の件は、導入の方向は良い方向。いきなりEU並みは難しいので、段階的に進めるというのも現実的かも...ただ、不当利得相当額の算定、相当の注意についてのガイド等の策定が必要となるでしょうね...

・団体訴訟の見送りは、これはどうですかね...事前規制は緩和しつつ、事後規制、特に個人救済が弱いままというのはバランスが悪い感じもするかなぁ...(抑止的な対策というのが、利活用の萎縮になるという産業界の論理にもおもえるので、産業界の意見を汲み取れば、抑止的な対策が進まないかもしれませんね..)

・AIとの関係でいうと、顔認識が関係してくるように思いますが、これだけに限定?

・子供の個人情報保護については、反対のしようもないので概ねグローバルな流れ...ただし、具体的な年齢確認手段等は欧米と連携するのが良いかもですね...

でも、規制が産業の育成を阻害するという単純な考えをする経済人はすでに少ないとは思います。問題はどのような規制が望ましい社会の実現に適切か?ということで、

一つの軸は、憲法に沿った社会になるためにはどうするか?

もう一つの軸は、市場の失敗をできる限り是正していく

ということになるとは思います...

さて、最終的にはどのような法案になりますかね...

 

これまでの議論も含めて...

 

個人情報保護委員会

・2026.01.09 第347回 個人情報保護委員会

 

2026.01.09 第347回 個人情報保護委員会
資料1-1 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)
資料1-2 個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案) 概要
資料1-3 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方」に対して寄せられた意見の概要
2025.09.19 第1回個人情報保護政策に関する懇談会
資料1 個人情報保護政策に関する懇談会開催要綱
資料2 越塚会員資料「データ利活用と個人情報保護」
資料3ー1 別所会員資料
資料3ー2 村上会員資料
資料3ー3 神谷会員資料
参考資料1 個人情報保護政策に関する政府方針
参考資料2―1 令和8年度 予算概算要求・機構定員要求の概要
参考資料2―2 令和8年度 個人情報保護委員会 重点施策のポイント
参考資料2―3 令和8年度 個人情報保護委員会 重点施策
議事概要 第1回個人情報保護政策に関する懇談会(概要)
  「個人情報保護政策に関する懇談会」について
議事録 第1回個人情報保護政策に関する懇談会議事録
2025.04.16 第320回個人情報保護委員会
資料2 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要
  議事概要
  議事録
2025.03.26 第319回個人情報保護委員会
資料1 「個人情報保護政策に関する懇談会」の開催について(案)
資料2-1 令和7年度個人情報保護委員会活動方針(概要)(案)
資料2-2 令和7年度個人情報保護委員会活動方針(案)
  議事概要
  議事録
2025.03.05 第316回個人情報保護委員会
資料1-1 個人情報保護法の制度的課題に対する考え方(案)について
資料1-2 個人情報保護法の制度的課題の再整理
資料1-3 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要
  議事概要
  議事録
2025.02.19 第315回個人情報保護委員会
資料1 個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)
  議事概要
  議事録
2025.02.05 第314回 個人情報保護委員会
資料1 個人情報保護法の制度的課題に対する考え方(案)について
  議事概要
  議事録
2025.01.22 第312回 個人情報保護委員会
資料1-1 「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について(案)
資料1-2 個人情報保護法の制度的課題の再整理
  議事概要
  議事録
2024.12.25 第311回 個人情報保護委員会
資料1 個人情報保護法のいわゆる3年ごと見直しに関する検討会 報告書
  議事概要
  議事録
2024.12.18 第7回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 現行制度と検討の方向性について(課徴金制度③)
資料2 検討会報告書(案)
参考資料1 これまでの主な論点及び関連御意見
参考資料2 第2回~第6回検討会における主な御意見
参考資料3 関係参考資料
参考資料4 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」に関するヒアリングの概要について
議事録 第7回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.12.17 第310回 個人情報保護委員会
資料1-1 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」 に関するヒアリングの概要について
資料1-2 事務局ヒアリングにおける主な御意見
参考資料1-1  
参考資料1-2 事務局ヒアリングの各参加者提出資料
  議事概要
  議事録
2024.11.28 第6回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 現行制度と検討の方向性について(課徴金制度②)
資料2 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度③)
資料3 これまでの主な論点及び関連御意見 (PDF : 2006KB)
参考資料1 第2回~第5回検討会における主な御意見
議事録 第6回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.11.12 第5回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 国内他法令における課徴金額の算定方法等について
資料2 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度②)
資料3 認定個人情報保護団体制度について
資料4 第4回までの主な論点及び関連意見 
資料5 個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点・今後の検討の進め方
参考資料1 第2回~第4回検討会における主な御意見
参考資料2 関係参考資料 
議事録 第5回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.10.16 第304回 個人情報保護委員会
資料1-1 個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点(案) 
資料1-2 今後の検討の進め方
  議事概要
  議事録 
2024.10.11 第4回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 全国消費生活相談員協会プレゼン資料 
資料2 中川構成員プレゼン資料 
資料3 第3回事務局資料に対する御質問と考え方
参考資料1 第2回及び第3回検討会における主な御意見 
参考資料2 関係参考資料
前回資料1ー1 総合的な案内所(個人情報保護法相談ダイヤル)における受付状況 
前回資料1ー2 名簿販売事業者に対する個人情報の保護に関する法律に基づく行政上の対応について
前回資料2 個人情報保護法の違反行為に係る事例等 
前回資料3 現行制度と検討の方向性について(課徴金制度)
前回資料4 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度)
議事録 第4回個人情報保護法のいわゆる3年ごと見直しに関する検討会 
2024.09.26 第3回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第 
資料1-1 総合的な案内所(個人情報保護法相談ダイヤル)における受付状況 
資料1-2 名簿販売事業者に対する個人情報の保護に関する法律に基づく行政上の対応について 
資料2 個人情報保護法の違反行為に係る事例等 
資料3 現行制度と検討の方向性について(課徴金制度)
資料4 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度)
参考資料1 第2回検討会における主な御意見 
参考資料2 個人情報の保護に関する基本方針
参考資料3 個人情報の保護に関する法律に基づく行政上の対応について(令和6年9月11日公表資料)
参考資料4 関係参考資料 
議事録 第3回個人情報保護法のいわゆる3年ごと見直しに関する検討会 
2024.09.05 第2回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
資料1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果
資料2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果(概要)
資料3 今後の検討の進め方
資料4 監視・監督活動及び漏えい等報告に関する説明資料
参考資料1 第1回検討会における主な意見
参考資料2 第1回検討会における主な質問及び回答
参考資料3 関係参考資料 
 議事録  
 2024.09.04 第299回 個人情報保護委員会
資料1-1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果
資料1-2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果(概要)
 議事概要  
 議事録  
2024.07.31 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
資料1 開催要綱(案)
資料2 主婦連合会御提出資料
資料3 新経済連盟御提出資料
資料4 全国消費者団体連絡会御提出資料
資料5 全国消費生活相談員協会御提出資料
資料6 日本IT 団体連盟御提出資料
資料7 日本経済団体連合会御提出資料
参考資料1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」概要
参考資料2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」本文
議事録  
2024.07.24 第296回 個人情報保護委員会
資料1 個人情報保護法のいわゆる3年ごと見直しに関する検討会の設置について
議事概要  
議事録  
 2024.06.26  第292回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理(案)
【委員長預かりで会議後に修正した資料】 資料1 個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理
資料2−1 日EU相互認証の枠組みの拡大に向けた対応について
資料2−2 個人情報保護委員会藤原靜雄委員長と欧州委員会ベラ・ヨウロバー副委員長(価値・透明性担当)の会談に関する共同プレス・ステートメント(英語)
資料2−3 個人情報保護委員会藤原靜雄委員長と欧州委員会ベラ・ヨウロバー副委員長(価値・透明性担当)の会談に関する共同プレス・ステートメント(日本語仮訳)
資料3 一般送配電事業者及び関係小売電気事業者等における顧客情報の不適切な取扱事案に対する個人情報の保護に関する法律に基づく行政上の対応について
議事概要  
議事録  
2024.06.13 第290回 個人情報保護委員会
資料1-1 第二次いわゆる3年ごと見直しへのコメント(ひかり総合法律事務所 板倉弁護士)
資料1-2 デジタル社会の個人情報保護法(新潟大学 鈴木教授)
議事概要  
議事録  
2024.06.12 第289回 個人情報保護委員会
資料1-1 個人情報保護委員会「いわゆる3年ごと見直し」ヒアリング(国立情報学研究所 佐藤教授) 
資料1-2 個人情報保護法3年ごと見直し令和6年に対する意見(産業技術総合研究所 高木主任研究員)
議事概要  
議事録  
2024.06.03 第287回 個人情報保護委員会
資料1-1 個人情報保護法見直しに関するコメント(京都大学 曽我部教授)
資料1-2 いわゆる3年ごと見直しに関する意見(慶應義塾大学 山本教授) 
資料1-3 3年ごと見直しヒアリング2024(英知法律事務所 森弁護士) 
資料1-4-1 個人情報保護法のいわゆる3年ごと見直しに関する意見(東京大学 宍戸教授)
資料1-4-2 宍戸常寿氏御提出資料(令和元年5月21日提出)
議事概要  
議事録  
2024.05.29 第286回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方③)
議事概要  
議事録  
2024.05.15 第284回 個人情報保護委員会
資料2 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(データ利活用に向けた取組に対する支援等の在り方)
資料3 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方②)
議事概要  
議事録  
2024.05.10 第283回 情報保護委員会
資料1-1 個人情報保護法における課徴金制度導入にかかる諸論点(名古屋大学 林教授)
資料1-2 個人情報保護法における法執行の強化について(神戸大学 中川教授)
議事概要  
議事録  
2024.04.24 第281回 個人情報保護委員会
資料1 個人情報保護法の3年ごと見直しに対する意見
資料2 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方③)
議事概要  
議事録  
2024.04.10 第280回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方② )
議事概要  
議事録  
2024.04.03 第279回 個人情報保護委員会
資料1―1 AIと個人情報保護:欧州の状況を中心に(一橋大学 生貝教授) 
資料1―2 AI利用と個人情報の関係の考察(NTT社会情報研究所 高橋チーフセキュリティサイエンティスト)
資料1−3 医療情報の利活用の促進と個人情報保護(東京大学 森田名誉教授)
資料1―4 医療・医学系研究における個人情報の保護と利活用(早稲田大学 横野准教授)
議事概要  
議事録  
2024.03.22 第277回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方①)
議事概要  
議事録  
2024.03.06 第275回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)
議事概要  
議事録  
2024.02.21 第273回 個人情報保護委員会
資料4 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討項目
【委員長預かりで会議後に修正した資料】資料4 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討項目
議事概要   
議事録   
2024.02.14 第272回 個人情報保護委員会
資料2-1 地方公共団体における個人情報保護法運用状況のヒアリング(京都府総務部政策法務課)
資料2-2 岡山市における個人情報保護法の運用状況(岡山市総務局行政事務管理課)
資料2-3 個人情報保護法運用状況について(都城市総務部総務課)
資料2-4 個人情報保護法運用状況について(上里町総務課)
議事概要  
議事録  
2024.02.07 第271回 個人情報保護委員会
資料1 インターネット広告における個人に関する情報の取扱いについての取組状況(日本インタラクティブ広告協会)
議事概要   
議事録  
2024.01.31 第270回 個人情報保護委員会
資料2 個人情報保護法の3 年ごと見直しに対する意見(日本経済団体連合会)
議事概要  
議事録   
2024.01.23 第268回 個人情報保護委員会
資料1―1 (特定)適格消費者団体の活動について(消費者支援機構関西)
資料1―2 個人情報保護委員会ヒアリング資料(日本商工会議所)
議事概要  
議事録  
2023.12.21 第266回 個人情報保護委員会
資料1―1 個人情報保護法の3年ごと見直しに関する意見(電子情報技術産業協会)
資料1―2 ヒアリング資料(全国商工会連合会)
議事概要  
議事録  
2023.12.20 第265回 個人情報保護委員会
資料1―1 ACCJ Comments for the Personal Information Protection Commission Public Hearing(在米国商工会議所)
資料1―2 公開ヒアリングに向けたACCJ意見(在米国商工会議所)
議事概要  
議事録  
2023.12.15 第264回 個人情報保護委員会
資料1―1 個人情報保護法の見直しについて(新経済連盟)
資料1―2 個人情報保護法見直しに関する意見(日本IT団体連盟) 
議事概要  
議事録  
2023.12.06 第263回 個人情報保護委員会
資料2 個人情報保護法に関する欧州企業の代表的な課題(欧州ビジネス協会)
議事概要  
議事録   
2023.11.29 第262回 個人情報保護委員会
資料1 ヒアリング資料(一般社団法人日本情報経済社会推進協会)
議事概要  
議事録   
2023.11.15 第261回 個人情報保護委員会
資料2-1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討 
資料2-2 個人情報保護に係る主要課題に関する海外・国内動向調査 概要資料
議事概要  
議事録  
   

 

 

 

 

 

 

 

 




まるちゃんの情報セキュリティ気まぐれ日記

・2025.09.25 個人情報保護委員会 第1回個人情報保護政策に関する懇談会

・2025.04.26 個人情報保護委員会 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要 (2025.04.16) と個人情報保護政策に関する懇談会の開催 (2025.04.21)

・2025.03.12 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第315 - 316回委員会)(2025.03.05)

・2025.02.10 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会)

・2025.01.23 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第311-312回委員会)

・2024.12.20 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第310回委員会、第6-7回検討会)

・2024.11.26 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第304回委員会、第3-5回検討会)

・2024.09.06 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第299回委員会、第2回検討会)

・2024.08.04 個人情報保護委員会 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会

・2024.06.28 個人情報保護委員会 意見募集 いわゆる3年ごと見直しに係る検討の中間整理

・2024.06.04 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中... (2)

・2024.04.25 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中...

・2024.01.06 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング中...

 

| | Comments (0)

2026.01.10

英国 データとAIの倫理フレームワークの改訂 (2025.12.18)

こんにちは、丸山満彦です。

昨年の話ですが、栄光のデータとAIの倫理フレームワークが改訂されています。

前回の改訂が2020年9月でしたから、5年3ヶ月ぶりの改訂となります。この間、いろいろとありましたよね。。。

ということで、今回の改訂から、

・表題が、「Data Ethics Framework」から「Data and AI Ethics Framework」に変わりました。

・実装ツールとなるData and AI Ethics Self-Assessment Tool(自己評価ツール) を追加し、実際のプロジェクト計画やレビューに活用できるようになっていますね。

・原則についても透明性、説明責任、公平性からプライバシー、環境持続可能性、社会的影響、安全性の4つが加わり7原則となりました...

Transparency 透明性
Accountability 説明責任
Fairness 公平性
Privacy プライバシー
Environmental sustainability 環境持続可能性
Societal impact 社会的影響
Safety 安全性

 

Principle Definition 原則 定義
Transparency Transparency means that information about your project, actions, processes and data are communicated to relevant parties in an understandable, easily accessible and free way. Transparency includes the concept of explainability, which refers to the ability to understand and communicate how a system makes decisions, including how it arrived at an individual decision. 透明性 透明性とは、プロジェクトや行動、プロセス、データに関する情報を、関係者に理解しやすく、容易にアクセス可能で、かつ無料で伝達することを意味する。透明性には説明可能性の概念が含まれ、これはシステムが意思決定を行う仕組み、個々の決定に至った過程を含む、その理解と伝達能力を指す。
Accountability Accountability means that data and AI projects have appropriate and effective governance, oversight, and routes to challenge decisions in place, where this is necessary. It involves setting clear roles and responsibilities, and being transparent about the system and the processes around it. 説明責任 説明責任とは、データ及びAIプロジェクトにおいて、必要に応じて適切かつ効果的なガバナンス、監視体制、決定への異議申し立て手段が整備されていることを意味する。これには明確な役割と責任の設定、システム及び関連プロセスに関する透明性の確保が含まれる。
Fairness Fairness means avoiding unfair biases and impacts, and addressing accessibility barriers, while actively maximising positive impacts. You should assess data representativeness, bias, and the different potential impacts that can result from data use. You should mitigate model biases and aim for outputs and decisions generated with the help of automated processes to: * be non-discriminatory * be just * respect dignity * align with the public interest, human rights and democratic values * comply with the Equality Act 2010 and the Public Sector Equality Duty (PSED) 公平性 公平性とは、不当なバイアスや影響を回避し、アクセシビリティの障壁に対処しつつ、積極的に好影響を最大化することを指す。データの利用から生じうる代表性の欠如、バイアス、様々な潜在的影響をアセスメントすべきである。モデルバイアスを緩和し、自動化プロセスで生成される出力や決定が以下を満たすよう目指す必要がある:* 差別的でないこと* 公正であること* 尊厳を尊重すること* 公共の利益、人権、民主主義的価値観に沿うこと* 2010年平等法および公共部門平等義務(PSED)
Privacy Privacy means that personal data is respected and handled responsibly, ensuring it’s used only for intended purposes with an appropriate legal basis. It also means adhering to UK data protection regulation, including principles of data minimisation, purpose limitation and informed consent. プライバシー に準拠すること。プライバシーとは、個人データが尊重され責任を持って取り扱われ、適切な法的根拠のもとで意図された目的のみに使用されることを意味する。また、データ最小化、目的限定、情報に基づく同意といった原則を含む、英国のデータ保護規制を順守することも意味する。
Safety Safety refers to the use of data or development of a system without causing harm to people, organisations, wider social institutions or the environment. Data-driven systems such as AI should be robust, secure and safe at every stage of their life cycle. This means ensuring that they operate properly and reliably, without causing unnecessary safety or security risks. 安全性 安全性とは、個人、組織、広範な社会機構、環境に害を及ぼさずにデータを利用したりシステムを開発したりすることを指す。AIなどのデータ駆動型システムは、ライフサイクルのあらゆる段階で堅牢で安全かつ安心であるべきだ。これは、不必要な安全・セキュリティリスクを引き起こさず、適切かつ確実に動作することを保証することを意味する。
Societal impact Societal impact is about how the development and use of data and data-driven technologies impact wider society. For example, by helping to solve societal challenges and deliver public good. 社会的影響 社会的影響とは、データ及びデータ駆動型技術の開発・利用が広範な社会に与える影響を指す。例えば、社会的課題の解決や公共の利益の提供に寄与することなどが挙げられる。
Environmental sustainability Sustainability calls for responsible design and use of data and AI that minimises environmental impact, and supports long-term wellbeing for people and the planet. This means considering biospheric consequences when scoping potential AI and data projects, and building tools and systems that are robust and energy efficient. Biospheric consequences are the effects a project can have not only on the planet’s ecosystems but also its climate and the entire biosphere. 環境持続可能性 持続可能性とは、環境への影響を最小限に抑え、人と地球の長期的な健全性を支える、データとAIの責任ある設計・利用を求めるものである。これは、AIやデータプロジェクトの可能性を検討する際に生物圏への影響を考慮し、堅牢でエネルギー効率の高いツールやシステムを構築することを意味する。生物圏への影響とは、プロジェクトが地球の生態系だけでなく、気候や生物圏全体に及ぼしうる影響を指す。

 

GOV.UK

・2025.12.15 Data and AI Ethics Framework

ガイダンス

・[HTML] Data and AI Ethics Framework

・[ODT] Data and AI Ethics Self-Assessment Tool

 

序論の一部...

Introduction 序論
This framework provides a set of principles and activities to guide the responsible development, procurement and use of data and artificial intelligence (AI) in the public sector. It helps public servants understand ethical considerations and how to address these in their work. この枠組みは、公共部門におけるデータと人工知能(AI)の責任ある開発、調達、利用を導く一連の原則と活動を提供する。公務員が倫理的配慮を理解し、業務でこれらに対処する方法を助けるものである。
Data and AI ethics is about using data and data-driven technologies responsibly, including: データとAIの倫理とは、データおよびデータ駆動型技術を責任を持って使用することを意味し、以下を含む:
・respecting privacy ・プライバシーの尊重
・promoting fairness ・公平性の促進
・protecting individuals, communities and society from harm ・個人、コミュニティ、社会を危害から防御すること
This includes ensuring that data is collected, shared and used in appropriate, fair, safe, sustainable and transparent ways. これには、データが適切、公平、安全、持続可能かつ透明性のある方法で収集、共有、使用されることを確保することが含まれる。
The framework applies to any project that involves: 本枠組みは、以下のいずれかを伴うあらゆるプロジェクトに適用される:
・data (collection, sharing or use) ・データ(収集、共有、または使用)
・data-driven technologies ・データ駆動型技術
・AI ・AI
・automated decision-making and algorithmic tools ・自動化された意思決定およびアルゴリズムツール
In this guidance, this is what we mean when we refer to ‘data and AI’. 本ガイドラインにおいて「データとAI」とは、この意味を指す。
Who this guidance is for 対象者
The framework is for people who work in government and other public sector organisations. It’s mainly written for people who are designing, building, maintaining, using or updating projects that use data and AI. 本枠組みは、政府及びその他の公共部門組織で働く者を対象とする。主に、データとAIを利用するプロジェクトの設計、構築、維持、利用、更新に携わる者を想定している。
This may include: 具体的には以下のような立場の者が含まれる:
・developers ・開発者
・project managers ・プロジェクトマネージャー
・analysts ・アナリスト
・statisticians ・統計学者
・policy makers ・政策立案者
・commercial or procurement professionals ・商業・調達担当者
We also encourage anyone who works directly or indirectly with data and AI to read this guidance and apply it to their work. This includes operational staff and anyone helping to produce data-informed insight. また、データとAIに直接的・間接的に関わる全ての関係者にも、本ガイドラインを読み、業務に適用することを推奨する。これには運用スタッフやデータに基づく知見の創出を支援する者も含まれる。
How to use this guidance 本ガイドラインの活用方法
Your team should work through the framework together as you plan, implement and evaluate a project. You should regularly revisit it throughout your project, especially when you make changes to your work or project. プロジェクトの計画・実施・評価の過程で、チーム全体で本枠組みを順を追って適用すべきである。プロジェクト全体を通じて、特に作業内容やプロジェクトに変更を加える際には、定期的に見直すべきだ。
The framework covers a broad range of use cases and challenges that you might encounter. Some projects may be limited to certain aspects – for example, data collection and processing – while others may cover a full AI development life cycle. This means you might find certain parts of this guidance more or less relevant to your project. 本枠組みは、遭遇する可能性のある幅広いユースケースと課題を網羅している。プロジェクトによっては、データ収集や処理といった特定の側面に限定される場合もあれば、AI開発ライフサイクル全体をカバーする場合もある。つまり、本ガイダンスの特定の部分が、プロジェクトとの関連性の度合いが異なる可能性があるということだ。
Data and AI Ethics Self-Assessment Tool データ・AI倫理アセスメントツール
If your team is working on an AI or data-driven technology project, then as well as reading this guidance you should use the Data and AI Ethics Self-Assessment Tool. チームがAIまたはデータ駆動型技術プロジェクトに取り組む場合、本ガイダンスの読解に加え、データ・AI倫理アセスメントツールを使用すべきである。
The tool will help you capture information, and share learnings, challenges and progress with colleagues. We recommend that you maintain it along with your other project documentation to record decision making across the life cycle of a project. このツールは情報の収集を支援し、同僚との学び・課題・進捗の共有を可能にする。プロジェクトライフサイクル全体の意思決定を記録するため、他のプロジェクト文書と共に維持することを推奨する。
Why this guidance is important 本ガイダンスの重要性
Government guidance needs to address the rapidly evolving ethical challenges and risks posed by data and AI technologies. We’ve updated the previous version of this guidance to meet this need. 政府のガイダンスは、データとAI技術がもたらす急速に進化する倫理的課題とリスクに対処する必要がある。この必要性に応えるため、以前のガイダンスを更新した。
The Data and AI Ethics Framework bridges the gap between high-level ethical principles and practical actions. It considers themes such as safety, security and privacy through an ethical lens. It does not replace technical or regulatory guidance in these areas, but instead complements and connects to them. データとAI倫理枠組みは、高次元の倫理原則と実践的行動の間のギャップを埋める。安全性、セキュリティ、プライバシーといったテーマを倫理的観点から考察する。これらの分野における技術的・規制的ガイダンスに取って代わるものではなく、それらを補完し連携するものである。
It complements existing tools, standards and guidance, including the: 本指針は、以下の既存のツール、標準、指針を補完するものである:
・AI Playbook for the UK Government ・英国政府向けAIプレイブック
・Model for Responsible Innovation ・責任あるイノベーションのためのモデル
・Algorithmic Transparency Recording Standard (ATRS) ・アルゴリズム透明性記録標準(ATRS)
This guidance does not replace: 本指針は以下に代わるものではない:
・existing ethics guidance and tools for statisticians and social researchers, such as the UKSA’s Ethics Self-Assessment Tool ・統計学者や社会調査研究者向けの既存の倫理指針やツール(例:英国統計庁の倫理自己評価ツール)
・bespoke guidance provided by individual departments, devolved administrations or for specific professions ・個別省庁、地方分権行政機関、または特定職業向けに提供される特注の指針

 

序論の最後にトレードオフについての留意点?が記載されています。一般的な内容なので参考になるかもです...


トレードオフ

複数の倫理原則が互いに矛盾する場合がある。例えば、より多くの人口統計情報を使用すればバイアスを識別し公平性を促進できるが、個人のプライバシーを犠牲にする可能性がある。こうした状況ではトレードオフを考慮する必要がある。倫理的なトレードオフは本質的に複雑であり、慎重に対処しなければならない。

適切なトレードオフを確立するためのアプローチ例は以下の通りだ:

  • 影響を受けるコミュニティと関わり、価値観や影響を理解することでステークホルダーの視点を組み込む
  • 法的・人権的枠組みを参照し、決定が国内および国際標準に沿うことを確保する
  • 比例性と必要性のバランスを取る
  • 有意義かつ包括的な審議を確保する
  • 結果を監視する仕組みを確立し、必要に応じて調整する

 

1_20260110064901

 


 

 まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.06 英国 議会 政府におけるAIの活用 (2025.03.26)

・2025.02.12 英国 英国政府のためのAIプレイブック(2025.02.10)

・2025.02.03 英国 AI安全報告書 2025

・2025.01.27 英国 現代的デジタル政府のための青写真 (2025.01.21)

・2025.01.26 英国 AI機会行動計画 (2025.01.13)

 

 

 

| | Comments (0)

2026.01.07

欧州 サイバーセキュリティ法の改正に向けた動き... (2025.12.09)

こんにちは、丸山満彦です。

すこし古い話です(^^;;  サイバーセキュリティ法(CSA)改正に関するはなし...

EUのサイバーセキュリティ関係法はデータ関連の法令も併せて混乱気味ですよね...

サイバー領域でも、CSAに続いてNIS2、サイバーレジリエンス法(CRA)、DORAが後から制定されました。規制簡素化はEUの重要なアジェンダですよね...

また、2019年から比較すると、地政学的な状況も変わってきています。2004年に時限的につくられたENISAが2019年のCSAにより恒久組織化されたわけですが、その後新たにいろいろと役割も追加されてきていることもあり、CSAで再定義する必要があるようです。

EUでは安全保障は各国ですることになっていますが、サイバーセキュリティは安全保障とのつながりが強いため、EUで機関をおかない(おいても時限的)と言う流れだったようです...2004年ENISA設置当時の話では...

さらに、欧州サイバーセキュリティ認証枠組み(ECCF)もうまくいっていない面もあり、再度調整が必要そうです。

クラウド認証(EUCS)の導入をめぐっては、主権要件をいれるかどうかで意見が分かれているようです...

この文書は、EUのサイバーセキュリティ法制度の今後の方向性を大まかに理解する上でも読んでおいた方が良いと思いました...

 

European Parliament - Think Tank

・2025.12.09 Cybersecurity Act review: What to expect

Cybersecurity Act review: What to expect サイバーセキュリティ法の見直し:今後の見通し
The Cybersecurity Act (CSA) came into force in 2019 as part of the EU's efforts to build strong cybersecurity. Since its introduction, the EU cybersecurity regulatory framework has become more complex in response to the rise in cyber-attacks. New EU rules, as well as changes in the geopolitical context, have impacted the CSA, and the regulation is currently under review. Although stakeholders are aligned on most issues, significant differences remain, notably in addressing non-technical risks relating to the security of the information and communications technology (ICT) supply chain. サイバーセキュリティ法(CSA)は、EUが強力なサイバーセキュリティを構築する取り組みの一環として2019年に施行された。導入以来、サイバー攻撃の増加に対応し、EUのサイバーセキュリティ規制枠組みはより複雑化している。新たなEU規則や地政学的状況の変化がCSAに影響を与え、現在見直しが進められている。関係者の間では大半の課題で意見が一致しているが、情報通信技術(ICT)サプライチェーンのセキュリティに関連する非技術的リスクへの対応など、重要な相違点は依然として残っている。

 

・[PDF]

20260106-195118

 

Cybersecurity Act review: What to expect サイバーセキュリティ法の見直し:今後の見通し
The Cybersecurity Act (CSA) came into force in 2019 as part of the EU's efforts to build strong cybersecurity. Since its introduction, the EU cybersecurity regulatory framework has become more complex in response to the rise in cyber-attacks. New EU rules, as well as changes in the geopolitical context, have impacted the CSA, and the regulation is currently under review. Although stakeholders are aligned on most issues, significant differences remain, notably in addressing non-technical risks relating to the security of the information and communications technology (ICT) supply chain. サイバーセキュリティ法(CSA)は、EUが強力なサイバーセキュリティを構築する取り組みの一環として2019年に施行された。導入以来、サイバー攻撃の増加に対応し、EUのサイバーセキュリティ規制枠組みはより複雑化している。新たなEU規則や地政学的状況の変化がCSAに影響を与え、現在見直しが進められている。関係者の間では大半の課題で意見が一致しているが、情報通信技術(ICT)サプライチェーンのセキュリティに関連する非技術的リスクへの対応など、重要な相違点は残っている。
The Cybersecurity Act in short サイバーセキュリティ法の概要
Regulation (EU) 2019/881 (the CSA) formalised the role of the European Cybersecurity Agency (ENISA), giving it a permanent mandate, resources and tasks, including operational ones. It also established a voluntary EU cybersecurity certification framework (ECCF) for ICT products, services and processes. The ECCF aims to set up and maintain specific certification schemes, allowing companies operating in the EU to use the certificates recognised across all Member States. In January 2025, a targeted amendment to the CSA was adopted, to enable the future adoption of European certification schemes for 'managed security services' covering areas such as incident response, penetration testing, security audits and consultancy. The CSA requires an evaluation and review every five years. Postponed several times, this is now expected on 14 January 2026. 規則(EU)2019/881(CSA)は欧州サイバーセキュリティ庁(ENISA)の役割を正式に定め、恒久的な権限・資源・任務(運用面を含む)を付与した。またICT製品・サービス・プロセス向けの任意参加型EUサイバーセキュリティ認証枠組み(ECCF)を設立した。ECCFは特定の認証スキームを確立・維持し、EU域内で事業を行う企業が全加盟国で認められる認証を利用できるようにすることを目的としている。2025年1月には、インシデント対応、ペネトレーションテスト、セキュリティ監査、コンサルティングなどの分野をカバーする「マネージドセキュリティサービス」向けの欧州認証スキームを将来的に導入可能とするため、CSAの特定改正が採択された。CSAは5年ごとの評価と見直しを義務付けている。数度延期された後、現在は2026年1月14日に実施が予定されている。
Evolving context 変化する状況
Since the CSA entered into force, cyber-attacks have been on the rise. This has prompted new EU cybersecurity laws to address the growing number and complexity of cyber threats. As a result, ENISA's roles and responsibilities have expanded. For example, ENISA supports implementation of the Directive on measures for a high common level of cybersecurity across the Union (NIS2) by providing technical guidelines, facilitating information sharing, and enhancing coordination between Member States. Similarly, ENISA supports implementation and enforcement of the Cyber Resilience Act (CRA) by providing technical expertise, developing a single reporting platform for vulnerability and incident reporting, and supporting cybersecurity certification schemes. CSA発効以降、サイバー攻撃は増加傾向にある。これにより、増加するサイバー脅威の数と複雑性に対処するため、新たなEUサイバーセキュリティ法が制定された。結果として、ENISAの役割と責任は拡大した。例えば、ENISAは技術ガイドラインの提供、情報共有の促進、加盟国間の連携強化を通じて、EU全域における高度な共通サイバーセキュリティ水準確保のための措置に関する指令(NIS2)実施を支援している。同様に、ENISAは技術的専門知識の提供、脆弱性・インシデント報告のための単一プラットフォームの開発、サイバーセキュリティ認証スキームの支援を通じて、サイバーレジリエンス法(CRA)実施と執行を支援している
As regards certification, implementation of the ECCF has been challenging. So far, only one EU certification scheme has been adopted – the European cybersecurity scheme on common criteria (EUCC), dedicated to certifying ICT products. All other schemes (cloud services – EUCS, 5G, digital identity wallets and managed security services) are still under development. Additionally, there are concerns whether the ECCF effectively addresses non-technical supply-chain cybersecurity risks such as geopolitical dependencies. Questions have also been raised about how voluntary certification frameworks will align with the CRA, which establishes a presumption of conformity (in Article 27) for products certified under a recognised European scheme such as the EUCC. 認証に関しては、ECCFの実施は困難を極めている。現時点で採用されているEU認証スキームは、ICT製品の認証に特化した共通規準に基づく欧州サイバーセキュリティスキーム(EUCC)のみである。その他のスキーム(クラウドサービス向けEUCS、5G、デジタルIDウォレット、およびマネージドセキュリティサービス向け)はいずれも開発段階にある。さらに、ECCFが地政学的依存関係などの非技術的サプライチェーンサイバーセキュリティリスクを効果的に対処できるか懸念されている。また、EUCCのような認定欧州スキームで認証された製品に対して適合性の推定第27条)を定めるCRAと、任意認証枠組みがどのように整合するかも疑問視されている。
The proposal for a revised CSA therefore aims to address both ENISA's growing responsibilities and ECCF implementation. During the consultation, the Commission also gathered views on ICT supply chain security challenges and the simplification of cybersecurity rules, such as how to streamline reporting obligations. したがって、改正CSA提案は、ENISAの拡大する責任とECCF実施の両方に対処することを目的としている。協議期間中、欧州委員会はICTサプライチェーンのセキュリティ課題やサイバーセキュリティ規則の簡素化(報告義務の効率化方法など)に関する意見も収集した。
CSA review: Points of convergence among stakeholders CSA見直し:ステークホルダー間の合意点
The replies to the call for evidence for the CSA review have shown broad agreement that the CSA should be revised on the following issues: (i) streamline cybersecurity measures; (ii) enhance cyber resilience; and (iii) simplify the EU regulatory landscape. The review is seen as an opportunity to reduce administrative burden and compliance costs. A significant convergence point is the need to harmonise definitions and reporting requirements across major EU acts – such as NIS2, CRA and the General Data Protection Regulation (GDPR) – and establish a single EU incident notification platform. Such a platform has now been put forward in the proposal for a 'digital omnibus' regulation. CSA見直しに向けた証拠提出要請への回答からは、以下の点でCSAを改正すべきとの広範な合意が示された:(i) サイバーセキュリティ対策の効率化、(ii) サイバーレジリエンスの強化、(iii) EU規制環境の簡素化。この見直しは行政負担とコンプライアンスコストを削減する機会と見なされている。主要なEU法令(NIS2、CRA、一般データ保護規則(GDPR)など)における定義と報告要件の調和、および単一のEUインシデント通知プラットフォーム確立が必要であるという点で、大きな合意が得られた。このようなプラットフォームは、「デジタルオムニバス」規制の提案において現在提唱されている。
There is consensus that ENISA's mandate should be clarified and strengthened to reflect the agency's growing operational responsibilities under new EU rules such as NIS2 and CRA. Stakeholders note that this expansion should be matched by adequate financial resources and staffing in order to ensure the agency's effectiveness. The view is that ENISA should serve as a central technical coordinator, to promote consistency and harmonise implementation of EU cybersecurity laws across the Member States, thereby reducing regulatory divergence. This echoes the Council conclusions of December 2024 on a stronger EU Agency for Cybersecurity. Poland went as far as calling for a separate law for ENISA, to separate this item from potential controversy around the EUCS discussions. NIS2やCRAといった新たなEU規則下でENISAの業務責任が増大していることを反映し、ENISAの権限を明確化・強化すべきという点で合意が形成されている。関係者らは、この権限拡大には十分な財政資源と人員配置が伴わなければ、機関の有効性が確保できないと指摘する。ENISAは中核的な技術調整機関として機能し、加盟国間でEUサイバーセキュリティ法の一貫性と調和を促進し、規制の乖離を縮小すべきだという見解だ。これは、2024年12月の理事会結論「強化されたEUサイバーセキュリティ機関」の趣旨と一致する。ポーランドはさらに踏み込み、ENISAのための独立した法律を制定し、EUCS議論に伴う潜在的な論争からこの項目を切り離すよう求めた。
Stakeholders widely acknowledge that the process for developing and adopting certification schemes is too slow and opaque. They highlight that a more agile, transparent and inclusive process with clearer timelines is urgently needed. Furthermore, stakeholders underline that certification schemes should be based on and align with international standards in order to ensure global interoperability, maximise acceptance, and reduce compliance costs for companies operating internationally. The prevailing view is that certification schemes should also be leveraged as a recognised means of demonstrating conformity or compliance with security requirements stemming from other major EU legislative acts, including NIS2, CRA and the AI Act. 関係者らは広く、認証スキームの開発・採択プロセスが遅く不透明すぎることを認めている。彼らは強調する、より機敏で透明性が高く包括的なプロセスと明確なタイムラインが緊急に必要だと。さらに、ステークホルダーは、認証スキームが国際標準に基づき整合性を保つべきだと強調する。これにより、国際的な相互運用性を確保し、受容性を最大化し、国際的に事業を展開する企業のコンプライアンスコストを削減できるからだ。認証スキームは、NIS2、CRA、AI法を含む他の主要なEU立法措置から生じるセキュリティ要件への適合性またはコンプライアンスを証明する公認手段としても活用されるべきだという見解が主流だ。
Potential challenges 潜在的な課題
Disagreements revolve around the specific content and scope of certification schemes, particularly regarding sovereignty and the legal limits of ENISA's influence. The most contentious point is the inclusion of sovereignty requirements in certification schemes such as the EUCS. This issue divides stakeholders into those advocating measures to protect European digital autonomy (e.g. both data localisation and corporate headquarters based in the EU) and those prioritising open markets and technical neutrality. Pro-sovereignty advocates, and stakeholders supporting 'cloud by Europe' models (i.e. entirely EU-based cloud service providers, not controlled by non-EU stakeholders), argue that these measures are crucial to protecting sensitive data and reinforcing EU strategic autonomy. By contrast, major tech companies, such as Microsoft, Amazon and Google, argue that non-technical criteria are subjective and do not improve cybersecurity outcomes, potentially restricting market access and innovation. At Member State level, too, positions are divided, with some countries expressing concern over sovereignty requirements, and others advocating in their favour. 意見の相違は、認証スキームの具体的な内容と範囲、特に主権とENISAの影響力の法的限界に関する点に集中している。最も議論の的となる点は、EUCSなどの認証スキームに主権要件を含めることである。この問題は利害関係者を、欧州のデジタル自律性を防御する措置(例:データローカリゼーションとEU域内に本社を置く企業の両方)を主張する側と、開放的な市場と技術的中立性を優先する側に分断している。主権重視派や「欧州発クラウド」モデル(非EU関係者に支配されない完全EU拠点のクラウドプロバイダ)を支持する関係者は、こうした措置が機密データの保護とEUの戦略的自律性強化に不可欠だと主張する。一方、Microsoft、AmazonGoogleなどの大手テック企業は、非技術的基準は主観的でサイバーセキュリティ効果を高めず、市場参入やイノベーションを阻害する可能性があると反論する。加盟国レベルでも立場は分かれており、一部の国々は主権要件に懸念を表明する一方、他の国々はこれを支持している。
On the nature of certification, the majority view is that it should remain mostly voluntary, to maintain flexibility and innovation. However, mandatory certification in critical sectors where high-security assurance is essential was also proposed. In addition, ENISA's regulatory power has sparked debate. Some stakeholders, including Amazon, oppose granting ENISA the authority to issue binding opinions or regulatory guidance, arguing that its role should remain technical and advisory. 認証の性質については、柔軟性と革新性を維持するため、主に任意のままであるべきという見解が大多数を占める。しかし、高いセキュリティ保証が不可欠な重要分野における義務的認証も提案された。加えて、ENISAの規制権限も議論を呼んでいる。Amazonを含む一部の利害関係者は、ENISAに拘束力のある意見や規制ガイダンスを発行する権限を与えることに反対し、その役割は技術的・助言的なものに留まるべきだと主張している。
It remains to be seen to what extent the Commission will consider stakeholders' views. The CSA review will also need to fit into the simplification of cybersecurity-related incident reporting obligations, which are part of the 'digital omnibus' proposal published on 19 November 2025. 欧州委員会が利害関係者の意見をどの程度考慮するかは、まだ見通せない。CSAの見直しは、2025年11月19日に公表された「デジタルオムニバス」提案の一部である、サイバーセキュリティ関連のインシデント報告義務の簡素化にも適合させる必要がある。

 

 

 

参考まで...

分類 法令名 種別 概要 発効日 適用開始日
個人データ保護 GDPR(Regulation (EU) 2016/679) 規則 EU全域の個人データ保護の基盤となる包括規則 2016.05.24 2018.05.25
データ共有・流通 Data Governance Act(Regulation (EU) 2022/868) 規則 データ共有の信頼性確保・データ仲介サービスの規律 2022.06.23 2023.09.24
Data Act(Regulation (EU) 2023/2854) 規則 IoT等のデータアクセス権・データ共有義務を定める横断規則 2024.01.11 2025.09.12 段階的
デジタル市場・プラットフォーム Digital Services Act(Regulation (EU) 2022/2065) 規則 プラットフォームの透明性・違法コンテンツ対策を統一規制 2022.11.16 2024/2/17  VLOPs/VLOSEsは2023.08.25
Digital Markets Act(Regulation (EU) 2022/1925) 規則 GAFA等ゲートキーパー企業の市場支配力を規制 2022.11.01 2023.05.02
AI AI Act(Regulation (EU) 2024/1689) 規則 リスクベースでAIを規制し、高リスクAIに義務を課す 2024.08.01 2025〜2027年に段階的適用
サイバーセキュリティ Cybersecurity Act(Regulation (EU) 2019/881) 規則 ENISA恒久化とEUサイバーセキュリティ認証制度(ECCF)創設 2019.06.27 2019.06.27〜認証は段階的
NIS2 Directive(Directive (EU) 2022/2555) 指令 重要事業体のサイバー義務・インシデント報告を強化 2023.01.16 2024.10.17までに国内法化
製品セキュリティ CRA(Cyber Resilience Act)Regulation (EU) 2024/2847 規則 ソフトウェア・IoT等の製品に「セキュリティ・バイ・デザイン」を義務化し、脆弱性管理・報告を規定
2024.12.10 2027.12.11から適用開始。製造者の脆弱性報告義務は2026.09.11から
金融ICTレジリエンス DORA(Regulation (EU) 2022/2554) 規則 金融セクターのICTリスク管理・インシデント報告を統一 2023.01.16 2025.01.17

 

 


参考...

ENISA

EUサイバーセキュリティ認証の声

・2025.12.15 Voices of EU Cybersecurity Certification

Voices of EU Cybersecurity Certification EUサイバーセキュリティ認証の声
A special publication by ENISA that incorporates feedback from stakeholders involved in building, maintaining, operating, and applying the first EU cybersecurity certification schemes. ENISAによる特別刊行物。EU初のサイバーセキュリティ認証スキームの構築、維持、運用、適用に関わる関係者からのフィードバックをまとめたものである。

 

・[PDF

20260106-212011

 

| | Comments (0)

米国 CSET AIによる被害のメカニズム - AIインシデントから得た教訓 (2025.10)

こんにちは、丸山満彦です。

昨年やり残していたことをしばらく...サイバー空間と新興技術に関する安全保障政策を主導する組織である米国のワシントンDCにあるCenter for Security and Emerging Technology:CSET(安全保障・新興技術センター)[wikipedia]から公表されている報告書をいくつか紹介します... 

 

非常に興味深い内容と思います。

この報告書の分析のもととなった、AI Incident Database (AIID) では、現在は1200件を超えるAIインシデントデータが蓄積されています...それぞれの内容の精度はどうなのか分かりませんが、これほどのデータが集まっているのはそれなりの価値がありそうです。

昔、畑村先生(東京電力福島原子力発電所における事故調査・検証委員会の委員長)がつくった失敗知識データベースのAI版ですかね...

 

内容ですが、危害を構造的に整理したことから、危害の種類から、対策についても構造的に分析できるようになっています。これは、政策を考える上、企業が対策を考える上でも有益な整理だと思いました。

さらに、この整理を踏まえて、AIIDの内容をより精査していくことでより良い対策ができるような気がします。。。

 

この報告書では、危害を意図的な危害3、非意図的な危害3の合計6に分類しています。

意図性 Mechanism メカニズム 概要 主体
意図的 Harm by Design 設計による危害  有害な目的で設計・開発されたAIシステムによる危害 開発者
AI Misuse AIの悪用 開発者の意図に反する危害を及ぼすためのAIシステムの使用 利用者
Attacks on AI Systems AIシステムへの攻撃  サイバー攻撃によって引き起こされたAIの行動または(不)作為による危害  攻撃者
非意図的 AI Failures AIの失敗 AIのエラー、誤動作、またはバイアスによって引き起こされる危害  AIシステム
Failures of Human Oversight 人間の監視の失敗  間と機械のチームが機能しなかった結果生じる危害  人間
Integration Harm 統合的な危害  特定の文脈での展開が意図せぬ結果として引き起こす危害  組織・社会

 

対応...

意図性 メカニズム 典型的な事例 発生原因 政策・ガバナンス上の論点 主な対策
意図的 設計による危害  監視AI、兵器AI、ディープフェイク生成ツール 開発段階で害を目的化 禁止・規制の対象、国際ルール必要 法規制、輸出管理、開発許可制
AIの悪用 フィッシング生成、マルウェア生成、詐欺支援 汎用モデルの悪用 開発者責任の範囲、利用者規制の難しさ ガードレール、利用規約、監査ログ
AIシステムへの攻撃  Jailbreak、データ汚染、モデル盗難 AIの脆弱性、攻撃耐性不足 AIセキュリティの標準化不足 レッドチーム、堅牢化、サイバー防御
非意図的 AIの失敗 誤認識、バイアス、誤判断 データ品質、モデル限界 評価指標の不備、透明性の欠如 テスト、監視、バイアス対策
人間の監視の失敗  自動運転事故、医療AIの誤用 過信、理解不足、介入遅れ 人間中心設計、教育訓練の不足 トレーニング、説明性、介入権限
統合的な危害  監視強化、差別の制度化、業務崩壊 社会制度との不整合 モデル性能ではなく制度設計の問題 影響評価、社会的ガバナンス、制度調整

 

「設計による危害」については、社会で受け入れられない危害を生み出すAIを法的に禁止するというアプローチが有用となりうる。EUは禁止領域を法制化しましたね...日本も社会で受け入れられない危害を生み出すAIの開発(利用も)は明確に禁止すべきですね...ただ、そのときに、社会で受け入れられない危害というのはどういうものか?というのがある程度明確にならないと新たに禁止することを決めるのは難しい。

「AIの悪用」はソフトローによる事前のガイドと、説明責任の明確化というのが考えられそうです。これは日本がとっているアプローチですね...利用に重きを置いているからそうなるような気がしました。

この報告書では政策に対する示唆として次の3つを挙げていますね...

1. A one-size-fits-all approach to harm mitigation will not work.  1. 危害軽減への画一的なアプローチは機能しない。
The pathways to harm are diverse, as this report illustrates, and require equally diverse mitigation strategies. Purely technical approaches will fall short, especially in addressing integration harms and failures of human oversight.   本報告書が示す通り、危害に至る経路は多様であり、同様に多様な緩和戦略を必要とする。純粋に技術的なアプローチでは不十分であり、特に統合的な危害や人間の監視の失敗に対処する上で限界がある。  
2. Model capabilities, as proxied by computing power, are an inadequate predictor for the propensity to do harm.  2. 計算能力で測られるモデルの能力は、危害発生の傾向を予測する上で不十分である。
This report showcases many examples of single-purpose AI systems being implicated in harm. Concentrating risk mitigation efforts on advanced AI systems would fail to address the very real risks stemming from the irresponsible design, deployment, and use of specialized AI systems.   本報告書は、単一目的のAIシステムが危害に関与した事例を数多く示している。高度なAIシステムにリスク緩和策を集中させても、専門的なAIシステムの無責任な設計・展開・使用から生じる現実的なリスクには対処できない。  
3. Comprehensive incident tracking is necessary to enhance our capacity to identify and respond to risks posed by AI.  3. AIがもたらすリスクを識別し対応する能力を高めるには、包括的なインシデント追跡が不可欠である。
While implementing broad, sociotechnical mitigation strategies can significantly reduce the occurrence of harm from AI, it will not prevent incidents entirely. As AI innovation reveals new capabilities with new failure modes, deployers design new use cases, and nefarious actors find new ways to attack and misuse AI systems, new harms will emerge. Agile responses and rapid adaptation of mitigating approaches, enabled by effective learning from incident reporting, are necessary to keep pace with technological innovation.   広範な社会技術的緩和策を実施すればAIによる被害発生を大幅に減らせるが、インシデントを完全に防ぐことはできない。 AIの革新が新たな機能と新たな故障モードを明らかにし、展開者が新たな利用ケースを設計し、悪意ある主体がAIシステムを攻撃・悪用する新たな方法を見出すにつれ、新たな被害が発生する。技術革新に追いつくためには、インシデント報告からの効果的な学習によって可能となる、機敏な対応と緩和策の迅速な適応が必要である。  

 

これから、AIIDはより充実してくると思うので、見ておくと良いかもですし、日本からもどんどんデータを入れていけば良いように思いました...

 

CSET

・2025.10 The Mechanisms of AI Harm: Lessons Learned from AI Incidents

 

 

・[PDF]

20260106-55732

 

・[DOCX][PDF] 仮訳

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2011.03.29 これも仕分けられたん? 「失敗知識データベース」サービス終了

ちなみに、失敗知識データベースは、畑村創造工学研究所に移った後、今は、特定非営利活動法人失敗学会でメンテされています...

 

・2005.03.24 失敗知識データベース これはイイ

 

| | Comments (0)

2026.01.06

米国 CSET AIガイダンスの調和 - 自主標準とベストプラクティスを統一的枠組みに集約する (2025.09)

こんにちは、丸山満彦です。

昨年やり残していたことをしばらく...サイバー空間と新興技術に関する安全保障政策を主導する組織である米国のワシントンDCにあるCenter for Security and Emerging Technology:CSET(安全保障・新興技術センター)[wikipedia]から公表されている報告書をいくつか紹介します... 

サイバーセキュリティもそうなのですが、AIのコントロールについて、国際標準を決めている一方で、行政機関を含む様々な団体が、それぞれの目標を意識して、さまざまなAIのガイド等を公表しているので、それぞれの組織がどのようなガイドを、どのように利用するべきかを検討する必要がある。ところが小さな組織等では、その分析の時間もとれずに何も進まないということもおきているように思える。。。

現状には次のような問題がある、ガイド等の乱立による情報過多、情報源の分散による理解不足。そして、ガイドについても、理解困難な用語、実装詳細の欠如があり、実装にたどり着けない。。。そして、よくある万能型ガイドを目指した結果、かえって誰も使えないガイドになってしまう。。。

ということで、世界のガイド等を収集(52文書)し、推奨事項(約7,700)を抽出し、用語等の標準化を行い、推奨事項を分析し、クラスタリングをし、妥当性の確認をした統一的な推奨事項(調和編)を作成したようです。

5つの包括的カテゴリ、34のトピック領域、258の推奨事項...

そしてその後、推奨事項を実装するガイド(運用編)を作成し、AIユースケースにガイドを適用した事例の紹介文書(適応編)をつくっていくようです...

大変興味深く意義深い取り組みだと思います。問題はこれがどれだけ認知され、利用され、改善されていくかということなのでしょうね...

ちなみに5つの包括的カテゴリ、34のトピック領域とそこに含まれる推奨事項の数はこんな感じ...

I ガバナンス 57  
(1) 戦略とリーダーシップ(SL)    5
(2) 管理 (MG)    8
(3) リスクマネジメント(RM)    10
(4) IT管理(IT)    10
(5) サプライチェーン(SC)    7
(6) 労働力と訓練(WF)    5
(7) インベントリー(IV)    5
(8) 監査とコンプライアンス(AU)    7
II 安全  64  
(1) 責任ある事業活動(RC)   6
(2) ステークホルダー (ST)   6
(3) 社会的影響(SI)   7
(4) 影響力と信頼 (IM)   8
(5) 公平性と合成コンテンツ (FS)    5
(6) テストと評価(TE)    8
(7) パフォーマンス監視(PM)    5
(8) トレーサビリティ(TR)    6
(9) 透明性と監視(TO)    7
(10) モデルセーフガード(SG)    6
III セキュリティ  84  
(1) セキュリティ管理(SM)    8
(2) 設計・開発(DD)    10
(3) 脆弱性 (VN)    7
(4) IDと認証(IA)    9
(5) アクセス管理(AC)    9
(6) ネットワークセキュリティ(NS)    8
(7) 情報セキュリティ(IS)    9
(8) エンドポイントセキュリティ(ES)    8
(9) 人事・メディアセキュリティ(MS)    10
(10) 物理的セキュリティ(PS)    6
IV プライバシー  20  
(1) プライバシープログラム(PP)    10
(2) 監査可能性とコンプライアンス    10
V 検知と対応  33  
(1) 監査ログ記録(LG)   7
(2) 監視(MO)   8
(3) インシデント対応(IR)    9
(4) レジリエンスと復旧(RR)    9

 

CSET

・2025.09 Harmonizing AI Guidance: Distilling Voluntary Standards and Best Practices into a Unified Framework

Harmonizing AI Guidance: Distilling Voluntary Standards and Best Practices into a Unified Framework AIガイダンスの調和:自主標準とベストプラクティスを統一枠組みに集約する
Organizations looking to adopt artificial intelligence (AI) systems face the challenge of deciphering a myriad of voluntary standards and best practices—requiring time, resources, and expertise that many cannot afford. To address this problem, this report distills over 7,000 recommended practices from 52 reports into a single harmonized framework. Integrating new AI guidance with existing safety and security practices, this work provides a road map for organizations navigating the complex landscape of AI guidance. 人工知能(AI)システムの導入を検討する組織は、無数の自主標準とベストプラクティスを解読するという課題に直面している。これには多くの組織が負担できない時間、リソース、専門知識が必要だ。この問題を解決するため、本報告書は52の報告書から7,000件以上の推奨実践を抽出し、単一の調和された枠組みに集約した。新たなAIガイダンスを既存の安全・セキュリティ慣行と統合することで、複雑なAIガイダンス環境をナビゲートする組織のためのロードマップを提供する。

・[PDF]

20260105-41531

・[DOCX][PDF] 仮訳

 

目次...

Executive Summary エグゼクティブサマリー
Introduction 序論
Background 背景
A Divided and Shifting Landscape 分断され、変化する状況
Challenges in Operationalizing AI Guidance AIガイダンスの実践における課題
Methods 方法論
Collating Existing Guidance 既存ガイダンスの収集
Harmonizing Recommendations 推奨事項の調和
Limitations 制限事項
Harmonization Results 調和化結果
Clustering クラスタリング
Framework Validation 枠組み妥当性確認
CSET’s Harmonized AI Framework CSETの調和されたAI枠組み
Governance ガバナンス
Strategy & Leadership (SL) 戦略とリーダーシップ(SL)
Management (MG) 管理 (MG)
Risk Management (RM) リスクマネジメント(RM)
IT Management (IT) IT管理(IT)
Supply Chain (SC) サプライチェーン(SC)
Workforce & Training (WF) 労働力と訓練(WF)
Inventory (IV) インベントリー(IV)
Audit & Compliance (AU) 監査とコンプライアンス(AU)
Safety 安全性
Responsible Business Conduct (RC) 責任ある事業活動(RC)
Stakeholders (ST) ステークホルダー (ST)
Societal Impact (SI) 社会的影響(SI)
Impact & Trust (IM) 影響力と信頼 (IM)
Fairness & Synthetic Content (FS) 公平性と合成コンテンツ (FS)
Test & Evaluation (TE) テストと評価(TE)
Performance Monitoring (PM) パフォーマンス監視(PM)
Traceability (TR) トレーサビリティ(TR)
Transparency & Oversight (TO) 透明性と監視(TO)
Model Safeguards (SG) モデルセーフガード(SG)
Security セキュリティ
Security Management (SM) セキュリティ管理(SM)
Design & Development (DD) 設計・開発(DD)
Vulnerabilities (VN) 脆弱性 (VN)
Identity & Authentication (IA) IDと認証(IA)
Access Control (AC) アクセス管理(AC)
Network Security (NS) ネットワークセキュリティ(NS)
Information Security (IS) 情報セキュリティ(IS)
Endpoint Security (ES) エンドポイントセキュリティ(ES)
Personnel & Media Security (MS) 人事・メディアセキュリティ(MS)
Physical Security (PS) 物理的セキュリティ(PS)
Privacy プライバシー
Privacy Program (PP) プライバシープログラム(PP)
Handling PII (PI) 個人識別情報(PII)の取り扱い
Detection & Response 検知と対応
Audit Logging (LG) 監査ログ記録(LG)
Monitoring (MO) 監視(MO)
Incident Response (IR) インシデント対応(IR)
Resilience & Recovery (RR) レジリエンスと復旧(RR)
Insights インサイト
The Focus of Existing AI Guidance Reports 既存のAIガイダンス報告書の焦点
Where There Are Gaps in AI Guidance AIガイダンスの不足箇所
Conclusion 結論
Authors 著者
Acknowledgements 謝辞
Appendix 附属書
List of Guidance Documents Examined 検討したガイダンス文書の一覧
Example of Standardization 標準の例
Summary of Clustering and Harmonization Results クラスタリングと調和の結果の概要
Endnotes 脚注

 

258のすべての推奨事項の仮訳...

Continue reading "米国 CSET AIガイダンスの調和 - 自主標準とベストプラクティスを統一的枠組みに集約する (2025.09)"

| | Comments (0)

2025.12.31

国家サイバー統括室 サイバーセキュリティ関連法令Q&A Ver2.0 HTML版 (2025.12.24)

こんにちは、丸山満彦です。

国家サイバー統括室からサイバーセキュリティ関連法令Q&A Ver2.0 HTML版が公表されています。私も作成には関与しております。2023年にPDFで公開されたものですが、HTML版となりました。タグもつけてもらいましたが、読みやすさ、調べやすさについては改善が必要ですが、1歩1歩前進です。

タグによる一覧性があがるとよいですね。。。また、判例へのリンクがつけばさらに良いですね...

Ver3.0への改定にむけて粛々と進めています...

 

国家サイバー統括室

サイバーセキュリティ関係法令Q&Aハンドブック


・[PDF] Ver2.0 令和5年9月(誤記訂正 令和6年12月)
・[PDF] Ver1.0 令和2年3月

 

1_20251231155901

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.09.26 内閣官房 NISC 関係法令Q&Aハンドブック Ver 2.0

 

 

 

| | Comments (0)

より以前の記事一覧