« 警察庁 サイバー警察局便りVol.14「ログ、保存していますか?」 | Main | 中国 国家標準「情報セキュリティ技術:データセキュリティのリスクアセスメント手法」の公開と意見募集 (2023.08.21) »

2023.08.26

中国 国家標準「情報セキュリティ技術:個人情報に基づく自動意思決定セキュリティ要求事項」の公開と意見募集 (2023.08.16)

こんにちは、丸山満彦です。


個人情報に基づく自動判定(自動意思決定)についての国家標準案ですね。。。他国では考えていないので、中国独自ということになりますね。。。本当にそれをしてもよいのか?という話もありますが、この標準案は興味深いです。

まず、「自動意思決定」を、「特徴生成」と「意思決定」にわけていますね。この考え方はなるほど。。。と思いました。。。

 

● 全国信息安全标准化技术委员会

・2023.08.16 关于国家标准《信息安全技术 基于个人信息的自动化决策安全要求》征求意见稿征求意见的通知

標準案

・[DOCX] 信息安全技术 基于个人信息的自动化决策安全要求-标准文本

20230826-63707

 

信息安全技术 基于个人信息的自动化决策安全要求 情報セキュリティ技術 - 個人情報に基づく自動意思決定のためのセキュリティ要件
Information security technology — Security requirements for Automated decision making based on personal information Information security technology — Security requirements for Automated decision making based on personal information
(征求意见稿) (公開草案)
(本稿完成时间:2023年8月13日) (本草案の完成:2023年8月13日)
在提交反馈意见时,请将您知道的相关专利连同支持性文件一并附上。 ご意見をお寄せいただく際には、あなたがご存知の関連特許を添付していただきたい。
目  次 目次
前言 前文
1 范围 1 適用範囲
2 规范性引用文件 2 引用規格
3 术语和定义 3 用語と定義
4 缩略语 4 略語
5 概述 5 概要
5.1 自动化决策行为的环节 5.1 自動意思決定行動の区分
5.2 自动化决策使用的计算机程序和算法 5.2 自動意思決定に用いられるコンピュータプログラムおよびアルゴリズム
5.3 自动化决策活动处理信息的范围 5.3 自動意思決定活動によって処理される情報の範囲
5.4 自动化决策活动的安全风险 5.4 自動意思決定活動のセキュリティリスク
5.5 自动化决策活动的总体安全策略 5.5 自動意思決定活動の全体的なセキュリティ戦略
6 基本安全原则 6 セキュリティの基本原則
7 基本安全要求 7 基本的なセキュリティ要件
8 自动化决策算法的安全要求 8 自動意思決定アルゴリズムのセキュリティ要件
8.1 一般性要求 8.1 一般要件
8.2 算法影响评估 8.2 アルゴリズムの影響評価
8.3 算法安全的技术原则 8.3 アルゴリズムのセキュリティの技術的原則
8.4 算法安全的逻辑原则 8.4 アルゴリズムのセキュリティの論理的原則
8.5 算法安全的人工介入要求 8.5 アルゴリズムの安全性のための人的介入要件
8.6 算法安全的训练和测试数据要求 8.6 アルゴリズムの安全性に関する訓練及び試験データの要件
8.7 算法开发的技术文档要求 8.7 アルゴリズム開発における技術文書の要件
8.8 算法安全的运行要求 8.8 アルゴリズムの安全性に関する運用上の要件
9 特征生成的安全要求 9 特徴生成に関するセキュリティ要件
9.1 特征生成的个人信息处理要求 9.1 特徴生成における個人情報処理に関する要求事項
9.2 特征生成的计算安全要求 9.2 特徴生成の計算セキュリティ要件
10 决策的安全要求 10 意思決定に関するセキュリティ要件
10.1 决策的基本安全要求 10.1 意思決定に関する基本的セキュリティ要件
10.2 决策的告知要求 10.2 意思決定情報に関する要求事項
10.3 决策中的个人权益保障要求 10.3 意思決定における個人の権利利益保護のための要件
11 对个人权益有重大影响的自动化决策典型场景特殊要求 11 個人の権利と利益に重大な影響を及ぼす自動意思決定の典型的シナリオに対する特別な要件
11.1 教育或职业机会 11.1 教育またはキャリアの機会
11.2 信用贷款或保险评估 11.2 信用評価または保険評価
11.3 社会福利资格等公共治理领域 11.3 社会福祉の適格性などの公的統治分野
11.4 特殊群体的自动化决策场景安全要求 11.4 特別な集団に対する自動意思決定シナリオのセキュリティ要件
12 其他典型的自动化决策场景特殊要求 12 その他の典型的な自動意思決定シナリオの特別要件
12.1 信息推送、商业营销 12.1 情報プッシュ、商業マーケティング
12.2 商业交易 12.2 商取引
13 风险管理要求 13 リスク管理要件
参考文献 参考文献
前  言 序文
本文件按照GB/T 1.1—2020《标准化工作导则 第1部分:标准化文件的结构和起草规则》的规定起草。 本文書はGB/T 1.1-2020 Guidelines for Standardisation Work Part 1: Structure and Drafting Rules for Standardisation Documentsの規定に基づき作成した。
本文件由全国信息安全标准化技术委员会(SAC/TC260)提出并归口。 本文書は国家情報セキュリティ標準化技術委員会(SAC/TC260)により提案された。
本文件起草单位: 北京理工大学、中国信息通信研究院、中国网络安全审查技术与认证中心、上海交通大学、北京字节跳动科技有限公司、北京百度网讯科技有限公司、下一代互联网国家工程中心、北京尚隐科技有限公司、北京小桔科技有限公司、北京三快在线科技有限公司、公安部第一研究所、北京小米移动软件有限公司、携程旅游信息技术(上海)有限公司、华为技术有限公司、北京汉华飞天信安科技有限公司、贝壳找房(北京)科技有限公司、阿里巴巴(北京)软件服务有限公司、北京快手科技有限公司、蚂蚁科技集团股份有限公司、北京腾云天下科技有限公司、杉涌律师事务所、竞天公诚律师事务所、中伦律师事务所、云从科技集团股份有限公司等。 この文書の起草者は、北京工科大学、中国情報通信技術研究院、中国ネットワークセキュリティ審査技術認証センター、上海交通大学、Beijing ByteDance Technology Co. Ltd.、Beijing Xiaomi Mobile Software Company Limited、Ctrip Travel Information Technology (Shanghai) Company Limited、Huawei Technology Company Limited、Beijing Hanhua Feitian Xin'an Technology Company Limited、Shell Housing (Beijing) Technology Company Limited、Alibaba (Beijing) Software Services Company Limited、Beijing Racer Technology Company Limited、Ant Science and Technology Group Company Limited、Beijing TengYunTian Technology Co. Ltd.、杉忠法律事務所、景天恭城法律事務所、中倫法律事務所、クラウド・テクノロジー・グループ有限公司、アリババ(北京)ソフトウェア・サービス有限公司、北京レーサー・テクノロジー有限公司、蟻科技集団有限公司、北京騰雲天科技有限公司
本文件主要起草人:洪延青、田申、葛鑫、彭诚信、刘笑岑、李杭敏、彭根、臧雷、余方、张仁卓、樊华、王海棠、张朝、陈湉、何延哲、赵冉冉、薛晶、葛梦莹、王敬周、落红卫、刘东、徐全全、黄晓林、张娜、孙铁、许锐、邱少林、韩煜、李军、裴轶、王磊、李昳婧、刘榕、刘瑾、顾伟、郭建领、康天娇、张曜、史波良、袁立志、吴佳蔚、呼娜英、付艳艳、白晓媛、石玉珍、赵晓娜等。 本文書の主な起草者:洪延慶、田沈、葛新、彭承信、劉暁前、李漢民、彭元、蔵磊、余芳、張仁柱、范華、王海棠、張超、陳麗、何燕澤、趙蘭蘭、薛静、葛孟英、王靖州、洛宏偉、劉東、徐全権、黄暁林、張娜、孫鉄、徐瑞、邱少林、韓愈、李俊、沛亦志、王磊、李仙鼎、劉栄、劉金、顧維、 郭建凌、康天象、張耀、石博良、袁麗嗣、呉家偉、胡寧、傅燕燕、白暁源、石宇鎮、趙暁娜などである。
信息安全技术 基于个人信息的自动化决策安全要求 情報セキュリティ技術 個人情報に基づく自動意思決定におけるセキュリティ要件
1 范围 1 適用範囲
本文件规定了个人信息处理者进行自动化决策处理活动时,在数据处理及自动化决策相关典型应用场景下的数据安全和个人信息保护义务、自动化决策的透明度、决策结果公平公正、保障个人合法权益等方面的要求。 本文書は、個人情報取扱事業者が自動意思決定処理活動を行う際の、データ処理および自動意思決定に関連する典型的な適用シナリオにおける、データセキュリティおよび個人情報保護義務、自動意思決定の透明性、意思決定結果の公正性および公平性、ならびに個人の正当な権利および利益の保護に関する要求事項を規定する。
本文件适用于开展自动化决策活动的个人信息处理者规范其个人信息处理和决策活动,也适用于监管部门、第三方评估机构对自动化决策处理活动进行监督、管理、评估时参考。 この文書は、自動意思決定活動を行う個人情報処理者が、その個人情報処理および意思決定活動を規制するために適用され、また、自動意思決定処理活動を監督、管理、評価する際に参照するために、監督当局および第三者評価機関にも適用される。
2 规范性引用文件 2 参考となる規範
下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。 以下の文書の内容は、本文中の規範的参照を通じて、本文書の必須規定を構成する。 その中で、日付のある引用文書の日付に対応するバージョンのみが本文書に適用され、日付のない引用文書の最新バージョン(すべての修正シートを含む)が本文書に適用される。
GB/T 25069—2010 信息安全技术 术语 GB/T 25069-2010 情報セキュリティ技術用語集
GB/T 35273—2020 信息安全技术 个人信息安全规范 GB/T 35273-2020 情報セキュリティ技術 個人情報セキュリティ規定
GB/T 41479—2022 信息安全技术 网络数据处理安全规范 GB/T 41479-2022 情報セキュリティ技術 ネットワークデータ処理セキュリティ規定
GB/T 41391—2022  信息安全技术 移动互联网应用(App)收集个人信息基本规范 GB/T 41391-2022 情報セキュリティ技術 モバイルインターネットアプリケーション(アプリ)による個人情報収集に関する基本規範
3 术语和定义 3 用語と定義
GB/T 35273—2020界定的以及下列术语和定义适用于本文件。 GB/T 35273-2020 で定義された用語と定義、及び以下の用語と定義が本文書に適用される。
3.1 3.1
自动化决策 automated decision-making 自動意思決定 
通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。 コンピュータプログラムを通じて、個人の行動習慣、興味、または経済、健康、信用状態を自動的に分析・評価し、意思決定を行う活動。
[来源:《中华人民共和国个人信息保护法》第七十三条第(二)款] [出典:中華人民共和国個人情報保護法第73条第2項)。
注:自动化决策可进一步分解为特征生成和决策两个环节。 注:自動意思決定はさらに、特徴生成と意思決定の2つのセグメントに分けることができる。
3.2 3.2
计算机程序 computer Program コンピュータプログラム
符合特定编程语言规则的语法单元,由解决特定功能、任务或问题所需的声明和语句或指令组成。 特定のプログラミング言語の規則に準拠し、特定の機能、タスク、または問題を解決するために必要な宣言および文または命令からなる構文単位。
3.3 3.3
算法 algorithm アルゴリズム
用于解决问题的有限有序规则集。 ある問題を解くための、順序付けられた規則の有限集合。
3.4 3.4
特征生成 特徴生成
通过计算机程序自动处理个人信息,经过个人特征提取、特征选择、特征计算、特征输出等步骤,生成开展针对个人决策所需的输入信息的过程。 個人の特徴抽出、特徴選択、特徴計算、特徴出力のステップを通じて、個人の意思決定を行うために必要な入力情報を生成するコンピュータプログラムを通じて、個人情報を自動的に処理するプロセス。
3.5 3.5
决策 decision-making 意思決定
以生成的个人特征信息为输入,作出针对个人将采取具体行动的决定。 生成された個人特徴情報を入力として、個人が取るべき具体的な行動について意思決定が行われる。
注:具体行动包括但不限于雇佣或解聘特定个人、授予特定个人贷款、针对个人开展特定的信息推送和商业营销、针对服务提供报价等能够对个人人身财产状态、行为、意识等产生影响的动作。 注:具体的な行動には、特定の個人の雇用や解雇、特定の個人への融資、特定の個人への情報提供や商業マーケティングの実施、サービスの見積もりの提供、その他個人の個人的・財産的状態、行動、意識に影響を与える行動が含まれるが、これらに限定されない。
3.6 3.6
对个人权益有重大影响的决定 decision with significant impact on individual’s rights and interests 個人の権利や利益に重大な影響を及ぼす決定
对个人法定权益的实现造成法律影响以及对个人其他权益造成类似显著影响的决定。 個人の法的権利および利益の実現に法的影響を及ぼす決定、ならびに個人のその他の権利および利益に同様の重大な影響を及ぼす決定をいう。
注1:影响可以是正向的也可以是负向的。 注1:影響は、肯定的である場合も否定的である場合もある。
注2:法律影响包括但不限于:被赋予享有或被剥夺享有一种法律上的特定权益,如子女抚养或房产权益;被剥夺或限制行动自由;拒绝进入边境或特定区域;被有关执法机构强制增加安全或监管措施等。 注2:法的影響には、児童扶養や財産権など、法的に定義された利益へのアクセスを認められたり拒否されたりすること、移動の自由が否定されたり制限されたりすること、国境や特定の地域へのアクセスが拒否されたりすること、関連する法執行機関による追加的な保安措置や規制措置が課されたりすることなどが含まれるが、これらに限定されない。
注3:类似显著影响包括但不限于:对个人不合理的排斥或歧视行为、对个人可能产生长期或永久影响的决策行为、以及其他对个人的处境、行为或选择产生普遍认知方面的重大影响。 注3:同様に重大な影響には、個人に対する不当な排除又は差別、個人に長期的又は永続的な影響を及ぼす可能性のある意思決定行動、及び個人の状況、行動又は選択に対する一般的な認識の観点からのその他の重大な影響が含まれるが、これらに限定されない。
3.7 3.7
个人特征信息 individual characteristics 個人の特性
个人偏好以及个人职业、经济、健康、教育、信用情况等可以对特定自然人形象加以描绘,并分析、预测个人行为的信息类型。 個人の職業、経済、健康、教育、信用状況など、特定の自然人を描写し、個人の行動を分析・予測するために使用できる情報の種類。
3.8 3.8
不合理的差别待遇 unreasonable differential treatment 不合理な差別待遇
通过收集、分析作为交易相对方的用户的交易信息、浏览内容及次数、交易时使用的终端设备品牌及价值等情况,对交易条件相同的交易相对方不合理地提供不同交易条件的行为。 利用者の取引情報、閲覧セッションの内容や回数、取引に使用した端末機器のブランドや価値などを収集・分析することにより、同じ取引条件である相手方に対して不合理な差別待遇を与える行為。
3.9 3.9
个人信息保护影响评估 personal information protection impact assessment 個人情報保護影響評価
针对个人信息处理活动,检验其合法合规程度,判断其对个人信息主体合法权益造成损害的各种风险,以及评估用于保护个人信息主体的各项措施有效性的过程。 個人情報処理活動に関する法令遵守の程度を検討し、個人情報主体の正当な権利利益を害する様々なリスクを判断し、個人情報主体を保護するために用いられる様々な措置の有効性を評価するプロセス。
4 缩略语 4 略語
下列缩略语适用于本文件。 本文書では、以下の略語を使用する。
App:移动互联网应用程序(mobile internet application) アプリ:モバイルインターネットアプリケーション
5 概述 5 概要
5.1 自动化决策行为的环节 5.1 自動意思決定行動の区分
自动化决策行为可以分为两个环节:特征生成和决策。如图1所示。 自動意思決定行動は、特徴生成と意思決定の2つのセグメントに分けることができる。 図1に示すとおりである。
特征生成是为实现特定业务目的,选定和收集特定的个人信息,并通过计算机程序自动分析、评估、预测特定个人的行为习惯、兴趣爱好等个人特征,以及作为决策输入用于针对个人的具体决策之中。一般来说,特征生成的过程包括特征提取、特征选择、特征计算、特征输出等步骤。特征提取是指从原始的个人信息中提取出有价值信息的过程。特征选择是指从提取的特征中选择就特定业务目的来说最有用的特征的过程。它的目的是降低维度,减少计算量,并避免过拟合。特征计算是指基于选择的特征计算新的特征或修改现有特征的过程。特征输出是指将处理好的特征信息作为输入,以支持针对个人的决策作出。得益于目前大数据和人工智能技术的发展,上述步骤主要由计算机程序自动开展,无需人工参与。 特徴生成とは、特定のビジネス目的のために特定の個人情報を選択・収集し、コンピュータプログラムを通じて、特定の個人の行動習慣、興味、その他の個人的特徴を自動的に分析、評価、予測し、また、個人の特定の意思決定のための意思決定入力として使用するプロセスである。 一般に、特徴生成のプロセスには、特徴抽出、特徴選択、特徴計算、特徴出力のステップが含まれる。 特徴抽出とは、元の個人情報から価値ある情報を抽出するプロセスを指す。 特徴選択とは、抽出された特徴から特定のビジネス目的に最も有用な特徴を選択するプロセスである。 その目的は、次元を減らし、計算を減らし、オーバーフィッティングを避けることである。 特徴計算とは、選択された特徴に基づいて新しい特徴を計算したり、既存の特徴を修正したりするプロセスである。 特徴出力は、個人の意思決定をサポートするための入力として処理された特徴情報である。 現在のビッグデータと人工知能技術の発展により、上記のステップは主に、人間が関与することなくコンピュータプログラムによって自動的に実行される。
决策是在特征生成环节所提供的个人特征信息的参与下,对个人采取具体行动。决策活动可以由不同程度的人工参与,例如特征生成环节所提供的个人特征信息是人工决策的唯一依据,或者特征生成环节所提供的信息仅仅是人工决策所依赖的依据之一。决策活动也可以无需人工参与,完全由计算机程序作出具体决定。 意思決定とは、特徴生成セッションによって提供された個人の特徴に関する情報を関与させながら、個人に対して具体的な行動を起こすことである。 意思決定活動は、例えば、特徴生成プロセスによって提供される個人の特性に関する情報が、人間の意思決定の唯一の根拠である場合、又は、特徴生成プロセスによって提供される情報が、人間の意思決定の基礎となる根拠の一つに過ぎない場合など、様々な程度の人間の関与の下で実施することができる。 意思決定活動は、コンピュータプログラムが特定の意思決定を行うことで、人間が関与することなく実施することもできる。
1_20230826065401
图 1 自动化决策流程 図1 自動意思決定プロセス
5.2 自动化决策使用的计算机程序和算法 5.2 自動意思決定のためのコンピュータ・プログラムとアルゴリズム
我国现行法律法规对自动化决策的界定中强调“对个人的行为习惯、兴趣爱好或者经济、健康、信用状况等”的“分析、评估”应是通过计算机程序自动完成,意在突出个人信息处理者为了实现特定的目的而事先自行开发并部署(或使用第三方开发的)特定的计算机程序。例如为了完成精准广告投放,个人信息处理者有意识地通过在网站或App页面上“埋点”收集个人的点击或浏览等行为信息,并通过预设的特征模型计算出特定个人的特征信息。 中国の現行法規は、自動意思決定を、個人の行動習慣、関心、または経済、健康、信用状態などの「分析と評価」がコンピュータプログラムによって自動的に行われることを強調する形で定義しており、個人情報の処理者が次のような事実を強調する意図がある。 特定の目的のために、あらかじめ特定のコンピュータ・プログラムを開発し、配備する(または第三者が開発したものを使用する)こと。 例えば、正確な広告を完成させるために、個人情報処理者が意識的にウェブサイトやアプリページのクリックや閲覧などの行動情報を収集し、あらかじめ定義された特性モデルによって特定個人の特性情報を算出する。
除了特征生成由计算机程序完成之外,决策也可以由计算机程序辅助人工完成,或完全由计算机程序根据特征生成形成的个人特征信息而作出。 コンピュータプログラムによる特徴生成に加えて、特徴生成によって形成された個人の特徴に関する情報に基づいて、コンピュータプログラムによって意思決定を支援したり、完全にコンピュータプログラムによって意思決定を行ったりすることもできる。
    计算机程序是具体的指令序列,而算法是对计算机上执行的指令序列背后的计算过程的具体描述。因此完成特征生成的或用于决策的算法,在很大程度上决定了自动化决策过程的透明性和自动化决策结果的公平公正性等。     コンピュータプログラムとは特定の命令列であり、アルゴリズムとはコンピュータ上で実行される命令列の背後にある計算プロセスの具体的な記述である。 したがって、特徴生成を完成させるアルゴリズム、又は意思決定に使用されるアルゴリズムは、とりわけ、自動意思決定プロセスの透明性、及び自動意思決定結果の公正性及び公平性を大きく左右する。
5.3 自动化决策活动处理信息的范围 5.3 自動意思決定活動によって処理される情報の範囲
自动化决策活动所处理的个人信息包括:1)个人主动提供的个人信息;2)个人信息处理者自动收集的个人信息;3)个人信息处理者从第三方获得的个人信息;4)以前述三类个人信息为处理对象,经由计算机程序分析形成的衍生信息(如与个人相关的标签、参数等)。 自動意思決定活動によって処理される個人情報には、1)個人が自発的に提供した個人情報、2)個人情報処理機関によって自動的に収集された個人情報、3)個人情報処理機関によって第三者から取得された個人情報、4)前述の3種類の個人情報を処理対象として分析された後、コンピュータプログラムによって形成された派生情報(個人に関連するラベル、パラメータなど)が含まれる。
5.4   自动化决策活动的安全风险 5.4 自動意思決定活動のセキュリティリスク
自动化决策活动的安全风险包括但不限于: 自動意思決定活動のセキュリティリスクには、以下のものが含まれるが、これらに限定されるものではない:
a)       为开展特征生成,个人信息处理者违法违规或过度收集用户个人信息、未充分告知处理目的; a) 機能生成を行うために、個人情報処理者が法律に違反したり、ユーザーから過剰な個人情報を収集したり、処理の目的を適切に通知しなかったりする;
b)      在特征生成过程中,个人信息处理者在不具备合法性基础前提下(如超出用户明确授权范围)对个人信息过度分析或挖掘,侵犯用户隐私或造成用户焦虑恐慌; b) 機能を生成する過程で、個人情報処理業者が合法性の根拠なく(例えば、利用者の明示的な許可の範囲を超えて)個人情報を過剰に分析またはマイニングし、利用者のプライバシーを侵害したり、利用者に不安やパニックを感じさせたりする場合;
c)       对计算机程序开展特征生成背后的算法逻辑或模型等,无法解释或解释不清; c) コンピュータプログラムによって実行される特徴生成の背後にあるアルゴリズム論理やモデルが説明できないか、明確に説明されていない;
d)      特征生成所得出的个人特征与客观情况不符,或不准确; d) 特徴生成から得られる個人的特徴が、客観的状況に対応していない、または不正確である;
e)       特征生成所得出的个人特征包含淫秽、色情、赌博、迷信、恐怖、暴力等内容,或表达对民族、种族、宗教、残疾、疾病等歧视的内容 e) 特徴生成から得られる個人的特徴に、わいせつ、ポルノ、ギャンブル、迷信、テロリズム、暴力などの内容や、民族、人種、宗教、障害、疾病などに対する差別を表す内容が含まれている。
f)       未经合适的评估,完全根据特征生成所提供的信息而对个人开展决策; f) 個人に関する決定が、適切な評価なしに、プロフィール作成によって提供された情報のみに基づいて行われる;
g)      未根据自动化决策造成个人合法权益影响的程度,适当地设置人工介入、干预、修正决策结果的机制; g) 自動化された意思決定が個人の正当な権利と利益に影響を与える程度に応じて、適切な形で、自動化された意思決定の結果に対する人間の介入、干渉、修正のための仕組みを導入していない;
h)      未向个人披露开展自动化决策的具体方式或范围,损害个人的知情权、选择权、拒绝权等。 h) 情報、選択、拒否などに関する個人の権利を害するために、自動意思決定が実施される具体的な方法または範囲を本人に開示しないこと。
i)       在开展自动化决策之前,未开展事前评估而造成不公平或不公正的决策结果,或决策结果对个人权益影响过大且无法修正。 i) 不公正もしくは不当な意思決定結果、または個人の権利および利益に不釣り合いな影響を及ぼし、是正することができない意思決定結果をもたらす、自動意思決定を実施する前の事前評価の不履行。
5.5   自动化决策活动的总体安全策略 5.5 自動意思決定活動の全体的なセキュリティ戦略
针对5.5提出的自动化决策活动的安全风险,开展自动化决策活动的个人信息处理者应根据图1所示的自动化决策流程中的各个环节,实施相应的安全控制措施。 5.5で示した自動意思決定活動のセキュリティリスクに対応し、自動意思決定活動を行う個人情報取扱事業者は、図1に示す自動意思決定プロセスの各段階に基づき、適切なセキュリティ管理措置を実施すべきである。
注:根据图1所示的自动化决策流程中的各个环节,本标准8、9、10章提出了相应的安全要求。 注:図1に示す自動意思決定プロセスの様々なリンクに従って、本基準の第8章、第9章及び第10章は、対応するセキュリティ要件を提案している。
6 基本安全原则 6 セキュリティ基本原則
个人信息处理者应基于以下原则开展自动化决策处理活动: 個人情報処理者は、以下の原則に基づき、自動意思決定処理活動を実施しなければならない:
a)       合法正当原则——应符合相关法律法规规定,不应以欺诈、诱骗、误导的方式进行处理; a) 適法性および正当性の原則 - 関連する法令を遵守し、詐欺的、誘引的、または誤解を招くような方法で処理してはならない;
注:开展自动化决策处理活动的合法性基础包括充分告知,取得同意或为订立/履行个人作为一方当事人的合同所必需或履行法定职责或法定义务所必需等; 注:自動化された意思決定処理活動を実施するための正当な根拠には、特に、十分な情報提供を受けていること、同意を得ていること、または個人が当事者である契約を締結/履行するために必要であること、法的義務もしくは法的義務を履行するために必要であることが含まれる;
b)      公开透明原则——应以明确、易懂和合理的方式向用户公开自动化决策处理活动的方式、范围、逻辑、目的、规则等; b) 公開性と透明性の原則 - 自動化された意思決定処理活動の方法、範囲、論理、目的、規則などは、明確で理解しやすく、合理的な方法で利用者に開示されなければならない;
c)       公平公正原则——应遵循维护社会公平、道德伦理的精神进行处理活动,自动化决策的结果应公平、公正,不应造成不合理的差别待遇; c) 公平・公平の原則 - 処理活動は、社会的公正、道徳、倫理を維持する精神で実施されなければならず、自動意思決定の結果は公正かつ公平でなければならず、不合理な差別的取り扱いをもたらすものであってはならない;
d)      主体参与原则——应向用户提供关于自动化决策的选择、解释、拒绝、投诉等方法。 d) 主体参加の原則-利用者は、自動化された意思決定に関して、選択、解釈、拒否、苦情等の方法を提供されるべきである。
e)       确保数据质量原则——自动化决策应当保证所处理的个人信息的质量,避免因个人信息不准确、不完整对个人权益造成不利影响。 e) データの品質確保の原則 - 自動的意思決定は、処理される個人情報の品質を確保し、不正確で不完全な個人情報によって個人の権利と利益に悪影響が及ぶことを回避しなければならない。
7 基本安全要求 7 基本的なセキュリティ要件
个人信息处理者应满足以下基本要求: 個人情報処理者は、以下の基本要件を満たさなければならない:
a)       自动化决策相关的数据处理活动应符合GB/T 41479—2022要求; a) 自動化された意思決定に関連する情報処理活動は、GB/T 41479-2022 の要求事項を満たさなければならない;
b)      自动化决策相关的个人信息处理活动应符合GB/T 35273—2020要求,如系通过App开展自动化决策处理行为,还应符合GB/T 41391—2022要求; b) 自動意思決定に関連する個人情報処理活動は、GB/T 35273-2020 の要件を満たすものとし、自動意思決定処理がアプリを通じて行われる場合は、GB/T 41391-2022 の要件も満たすものとする;
8 自动化决策算法的安全要求 8 自動意思決定アルゴリズムのセキュリティ要件
8.1 一般性要求 8.1 一般要件
自动化决策算法,包括特征生成中所使用的算法,以及决策中所使用的算法,均应符合本章的要求。如果使用的是机器学习算法,还应满足《信息安全技术 机器学习算法安全评估规范》的要求。 自動意思決定アルゴリズムは、特徴生成に使用されるアルゴリズム及び意思決定に使用されるアルゴリズ ムを含め、本章の要件に準拠しなければならない。 機械学習アルゴリズムを使用する場合は、「機械学習アルゴリズムのセキュリ ティ評価のための情報セキュリティ技術仕様」の要件も満たすものとする。
8.2 算法影响评估 8.2 アルゴリズムの影響評価
个人信息处理者或算法开发方在自动化决策算法开发前应: 個人情報取扱者又はアルゴリズム開発者は、自動意思決定アルゴリズムの開発に先立ち、以下のことを行わなければならない:
a)   明确自动化决策算法所用于的目的或场景,包括但不限于: a) 自動意思決定アルゴリズムが使用される目的またはシナリオを定義する:
1)   使用自算法的产品或服务所属的行业或领域,以及其所满足的具体用户需求 1) アルゴリズムが使用される製品またはサービスの業種または分野、およびそれが満たす特定のユーザーニーズ
2)   使用算法的产品或服务与对象人群的互动方式; 2) アルゴリズムが使用される製品またはサービスが対象集団と相互作用する方法;
3)   算法所适用的对象人群的基本情况和一般期待。 3) アルゴリズムが適用される対象集団の基本プロファイルと一般的な期待。
b)   明确自动化决策算法就所用于的目的或场景来说所支持的具体任务,例如计算价格、信息内容推荐等; b) 自動意思決定アルゴリズムが使用される目的またはシナリオ(例えば、価格計算、情報コンテンツの推奨など)において、そのアルゴリズムがサポートする具体的なタスクを特定する;
c)   开展自动化决策算法影响评估。评估内容包括但不限于: c) 自動意思決定アルゴリズムの影響評価を実施する。 評価には以下が含まれるが、これらに限定されない:
1)   预期的自动化决策算法的行为表现及相应的效率或收益的提升; 1) 自動意思決定アルゴリズムの期待される行動性能と、それに対応する効率または収益の利益;
2)   明确非预期或错误的自动化决策算法的行为表现及相应的成本; 2) 意図しない又は誤った自動意思決定アルゴリズムの行動実績及び対応するコストの特定;
3)   根据预期的自动化决策算法的使用情况、过去在类似情况下对自动化决策算法的使用、事件报告或其他数据,了解自动化决策算法可能产生负面影响的风险,特别是对个人权益的影响。 3) 自動意思決定アルゴリズムの意図された使用、類似の状況における自動意思決定アルゴリズムの過去の使用、事故報告又はその他のデータに基づく、特に個人の権利及び利益に対する、自動意思決定アルゴリズムの起こりうる負の影響のリスクの理解。
d)   在自动化决策算法可能对个人权益造成重大影响时,通过独立第三方或组建专家委员会开展自动化决策算法影响评估; d) 自動意思決定アルゴリズムが個人の権利・利益に重大な影響を及ぼす可能性がある場合、独立した第三者を通じて、または専門家委員会を組織して、自動意思決定アルゴリズム影響評価を実施する;
e)   根据自动化决策算法影响评估的结果,明确与算法支持的具体任务相适配的算法安全目标,包括但不限于算法安全的技术特征要求、逻辑特征要求、人工介入、训练和测试数据要求。 e) 自動意思決定アルゴリズム影響評価の結果に基づき、アルゴリズムセキュリティの技術的機能要件、論理的機能要件、人の介入、訓練及びテストデータ要件を含むがこれらに限定されない、アルゴリズムがサポートする特定のタスクに適切なアルゴリズムセキュリティ目標を特定する。
8.3 算法安全的技术原则 8.3 アルゴリズム・セキュリティの技術的原則
个人信息处理者或算法开发方应根据算法影响评估结果,确保用于自动化决策算法具备符合其所支持的具体任务所需的: 個人情報処理機関またはアルゴリズム開発者は、自動意思決定に使用されるアルゴリズムが、アルゴリズム影響評価の結果に基づき、それらがサポートする特定のタスクを満たすために必要な要件を備えていることを保証しなければならない:
a)   准确度,即算法能正确捕捉训练数据中存在的相关或因果关系; a) 正確性:アルゴリズムが訓練データに存在する相関関係又は因果関係を正しく捉えていること;
b)   可靠性,即算法能在可接受的统计误差范围内持续产生相同的结果; b) 信頼性:アルゴリズムが許容可能な統計的誤差の範囲内で、一貫し て同じ結果を出すこと;
c)   稳健性,即算法对不可控因素的变化具有最小的敏感性; c) 堅牢性:アルゴリズムが制御不能な要因の変化に対して最小限の感度を持つこと;
d)   复原力,即算法能够抵御对抗性攻击。 d) 弾力性:アルゴリズムが敵の攻撃に耐えることができる。
8.4 算法安全的逻辑原则 8.4 アルゴリズムセキュリティの論理原則
个人信息处理者或算法开发方应根据算法影响评估结果,确保用于自动化决策算法具备符合其所支持的具体任务所需的: 個人情報取扱事業者またはアルゴリズム開発者は、アルゴリズム影響評価の結果に基づき、自動化された意思決定に使用されるアルゴリズムが、それらがサポートする特定のタスクを満たすために必要なものを有していることを保証すべきである:
a)   可解释性,即个人信息处理者能够提供一个关于算法分析或评估结果如何产生的程序性或因果性的描述; a) 解釈可能性:個人情報処理者が、アルゴリズムによる分析または評価の結果がどのように生成されたかについて、手続き上または原因上の説明を提供できること;
b)   可理解性,即算法分析或评估结果就其所用于的目的或场景来说具有能被人所认识的含义; b) 理解可能性:アルゴリズムによる分析または評価の結果が、それらが使用される目的またはシナリオに関連して、人間が認識できる意味を持つこと;
c)   隐私性,即算法对个人私密空间、私密活动、私密信息的侵扰可度量和可控制; c) プライバシー:個人の私的空間、私的活動、私的情報へのアルゴリズ ムの侵入が測定可能であり、制御可能であること;
d)   非歧视性,即算法基于具有人群代表性的数据开展训练,以及算法设计中避免人为歧视性观念; d) 非差別的:アルゴリズムは母集団を代表するデータに基づいて訓練され、またアルゴリズムは人為的な差別的認識を避けるように設計されている;
e)   公平性,即算法应一致地适用于就起所用于的目的或场景来说条件相同的个人。 e) 公平性:アルゴリズムが使用される目的またはシナリオに関して同質である個人に一貫して適用されるべきである。
8.5 算法安全的人工介入要求 8.5 アルゴリズムのセキュリティのための人的介入要件
个人信息处理者或算法开发方应: 個人情報処理機関またはアルゴリズム開発者は、以下のことを行わなければならない:
a)   开发支持人机交互的界面和工具,以便自然人能够有效监督自动化决策算法及其计算机程序在运行过程中持续符合算法安全的技术特征要求和逻辑特征要求; a) 自動意思決定アルゴリズム及びそのコンピュータ・プログラムが、その運用中、アルゴリズム・セキュリティの技術的機能要件及び論理的機能要件を一貫して満たしていることを、自然人が効果的に監督できるように、人間とコンピュータの対話をサポートするインターフェース及びツールを開発する;
b)   确保所开发的支持人机交互的界面和工具能够让自然人: b) 人とコンピュータのインタラクションを支援するために開発されたインタ フェースとツールにより、自然人が以下を行うことができるようにす る:
1)   了解自动化决策算法的能力和限制,并监测其运行状况,以便尽快检测并解决运作异常、功能失调和突发问题; 1) 自動意思決定アルゴリズムの能力と限界を理解し、その運用を監視することで、運用上の異常、誤動作、予期せぬ問題を可能な限り迅速に検知し、解決できるようにする;
2)   正确解释自动化决策算法的输出; 2) 自動意思決定アルゴリズムの出力を正しく解釈する;
3)   在任何特定情况下决定不使用自动化决策算法及其计算机程序,或忽略、推翻或撤销自动化决策算法的输出; 3) どのような状況においても、自動意思決定アルゴリズムとそのコンピュータプログラムを使用しないこと、または自動意思決定アルゴリズムの出力を無視、上書き、取り消すことを決定すること;
4)   能够干预自动化决策算法及其计算机程序的运行,尤其是中断其运行。 4) 自動意思決定アルゴリズム及びそのコンピュータプログラムの操作に、特にその操作を中断することによって介入できるようにすること。
8.6 算法安全的训练和测试数据要求 8.6 アルゴリズムのセキュリティのための訓練及びテストデータの要件
个人信息处理者或算法开发方应确保用于训练和测试算法的数据: 個人情報処理者またはアルゴリズム開発者は、アルゴリズムの訓練およびテストに使用されるデータが以下のものであることを保証しなければならない。
a)   准确性、均衡性、相关性、充分性、可靠性、规范程度符合要求; a) 正確性、バランス、関連性、妥当性、信頼性、標準化のレベルが要求事項を満たしている;
b)   相关数据在最初选择、标注等环节不存在缺乏公平、包含偏见与歧视或者范围是否与算法目标相匹配的问题; b) 関連データが公正さを欠いたり、偏りや差別を含んでいたり、最初の選択、ラベリング等においてアルゴリズムの目標と範囲が一致していない;
c)   不存在被攻击或污染的情况; c) 攻撃や汚染を受けていない;
d)   在用于训练和测试时具备合适的合法性基础,如样本数据采集和标注、测试数据进行模型测试、算法模型收敛且可用于生成个人信息(例如使用训练好的算法模型对个人进行信用评分或者偏好预测)等阶段。 d) サンプルデータの収集とラベリング、テストデータによるモデルテスト、アルゴリズミックモデルの収束の段階など、トレーニングやテストに使用され、個人情報を生成するために使用できる場合(例えば、トレーニングされたアルゴリズミックモデルを使用した信用スコアリングや個人の嗜好予測など)に、適切な正当性の根拠がある。
注:对于预处理(向量化)的数据,也可能会构成个人信息,若确实有证据可证明无法直接或间接根据在模型训练过程中所涉及的数据用于关联或识别个人,即相关数据进行了匿名化处理,此类数据不再构成个人信息。 注:前処理された(ベクトル化された)データも個人情報を構成する可能性があるが、モデルの訓練に関係するデータに基づいて、直接又は間接的に個人を関連付け又は識別することが不可能であるという証拠がある場合、すなわち当該データが匿名化されている場合、当該データはもはや個人情報を構成しない。
8.7 算法开发的技术文档要求 8.7 アルゴリズム開発のための技術文書要件
开发自动化决策算法应当形成配套的技术文档以供相关方查阅。技术文档的内容包括但不限于: 自動意思決定アルゴリズムの開発には、関係者が利用できる技術文書を添付しなければならない。 技術文書の内容は以下を含むが、これに限定されない。
a)   对自动化决策算法的一般描述,包括: a) 自動意思決定アルゴリズムの一般的な説明:
1)   预期支持的具体任务、系统开发人员和日期、系统版本; 1) サポートが期待される具体的なタスク、システム開発者および日付、 システムのバージョン;
2)   自动化决策算法与系统外的硬件或软件交互方式; 2) 自動意思決定アルゴリズムがシステム外のハードウェアまたはソフトウェアとどのように相互作用するか;
3)   相关计算机程序或固件的版本以及所有版本更新要求; 3) 関連するコンピュータプログラムまたはファームウェアのバージョンおよびすべてのバージョン更新要件;
4)   对自动化决策算法投入使用的所有形式的说明; 4) 自動意思決定アルゴリズムが使用されるすべての形態の説明;
5)   对搭载自动化决策算法的硬件的描述; 5) 自動意思決定アルゴリズムのベースとなるハードウェアの説明;
6)   搭载自动化决策算法的产品的外部特征展示照片或插图、标记和内部布局; 6) 自動意思決定アルゴリズムを組み込んだ製品の外形的特徴、マーキング、内部レイアウトの写真またはイラスト;
7)   使用说明或安装指南。 7) 使用説明書または設置ガイド
b)   对自动化决策算法的要素及其开发流程的详细说明,包括: b) 自動意思決定アルゴリズムの要素とその開発プロセスの詳細な説明:
1)   为开发自动化决策算法所采取的方法和步骤,包括使用第三方提供的预训练系统或工具以及提供方使用、集成或修改这些系统或工具的方式; 1) 自動意思決定アルゴリズムを開発するために取られた方法論と手順(第三者によって提供される事前訓練システムまたはツールの使用、およびプロバイダがそれらのシステムまたはツールを使用、統合、または修正する方法を含む。
2)   自动化决策算法的设计规范,即通用逻辑、关键设计选择(包括所作的理由和假设,也涉及该系统拟针对的个人或群体)、主要分类选择、算法旨在优化的内容,以及不同参数的相关性; 2) 自動意思決定アルゴリズムの設計仕様、すなわち、一般的なロジック、主要な設計上の 選択(根拠及び仮定を含むが、システムが対象とする個人又は個人のグループとの関連も 含む)、主要な分類の選択、アルゴリズムが最適化することを意図するもの、及び異なるパラメー タの関連性;
3)   为实现算法的技术特征要求和逻辑特征要求而采用的技术解决方案相关的任何可能的权衡决定; 3) アルゴリズムの技術的・論理的特性化要件を実現するために使用する技術的解決策に関連する、トレードオフの決定が可能なもの;
4)   对计算机程序架构的描述,说明程序组件如何相互依赖或相互输入并集成到整体处理中; 4) コンピュータプログラムのアーキテクチャの説明。プログラムの構成要素が、どのように互いに依存し、または互いに影響し合い、全体的な処理に統合されているかを示す。
5)   用于开发、训练、测试和验证自动化决策算法的计算资源。 5) 自動意思決定アルゴリズムの開発、訓練、試験、検証に使用した計算資源。
c)   对自动化决策算法训练过程的记录,特别是对训练方法和技术以及使用的训练数据集进行描述(包括:数据集的来源、范围和主要特征、获取和选择数据的方式、标签程序、数据清理方法等) c) 自動意思決定アルゴリズムの訓練プロセスの文書、特に訓練方法と技法及び使用した訓練データセットの説明(データセットの出所、範囲及び主な特徴、データの取得と選択の方法、ラベリング手順、データクリーニングの方法などを含む。)
d)   使用的验证和测试程序的相关信息,包括: d) 使用した検証および試験手順に関する情報(以下を含む):
1)   所用验证和测试数据及其主要特征的信息; 1) 使用した検証・試験データとその主な特徴に関する情報;
2)   用于衡量对算法技术特征要求和逻辑特征要求的符合性的指标; 2) アルゴリズムの技術的特性要件及び論理的特性要件への準拠を測定するために使用された測定基準;
3)   测试日志以及所有由责任人注明日期并签名的测试报告。 3) 責任者が署名した日付入りの試験記録及びすべての試験報告書。
e)   对为符合人工介入要求所采取措施的评估情况。 e) 人の介在に関する要求事項を遵守するために講じられた措置の評価。
8.8 算法安全的运行要求 8.8 アルゴリズムのセキュリティに関する運用上の要求事項
为持续监测在算法影响评估中所确定的负面影响的相关情况,决定部署自动化决策算法及其计算机程序的个人信息处理者应: アルゴリズムによる影響評価で特定された負の影響に関連する状況を継続的に監視するため、自動意思決定アルゴリズム及びそのコンピュータプログラムの導入を決定した個人情報処理者は、以下の事項を実施しなければならない:
a)   明确针对技术特征、逻辑特征、人工介入要求的定量或定性监测指标和监测方法; a) 技術的特徴、論理的特徴及び人的介入要件に対応する定量的又は定性的な監視指標及び監視方法を規定する;
b)   明确对应各个负面影响的定量或定性监测指标和监测方法,例如用户反馈、投诉、事件舆情等; b) ユーザーのフィードバック、苦情、イベント世論など、個別の負の影響に対応する定量的または定性的な監視指標および監視方法を規定する;
c)   建立有效的影响追踪机制,在必要的情况下,通过外部人员协助监测自动化决策算法及其计算机程序与预期行为表现的偏差,例如功能蠕变; c) 自動意思決定アルゴリズム及びそのコンピュータプログラムの、期待される行動性能からの逸脱、例えばファンクションクリープを監視するための効果的な影響追跡メカニズムを、必要に応じて外部の支援を通じて確立する;
d)   基于监测结果定期开展算法影响评估。对个人权益有重大影响的自动化决策算法应每半年开展一次算法影响评估; d) モニタリング結果に基づき、アルゴリズムによる影響評価を定期的に実施する。 個人の権利や利益に重大な影響を与える自動意思決定アルゴリズムは、6ヶ月ごとにアルゴリズム影響評価を実施する;
e)   根据算法影响评估结果采取减轻负面影响的措施; e) アルゴリズム影響評価の結果に基づき、負の影響を緩和するための措置を講じる;
f)   事先建立负面影响应对方案和机制,以更新、替代或停用与其预期行为表现不一致的自动化决策算法及其计算机程序。 f) 自動意思決定アルゴリズムおよびそのコンピュータプログラムが期待される行動性能と矛盾する場合、更新、交換、または無効化するための負の影響対応プログラムおよびメカニズムを事前に確立する。
9 特征生成的安全要求 9 特徴生成のためのセキュリティ要件
9.1 特征生成的个人信息处理要求 9.1 特徴生成における個人情報の取り扱いに関する要求事項
9.1.1 个人信息处理的基本要求 9.1.1 個人情報処理の基本要件
个人信息处理者应选择和收集与特定业务目的相匹配的个人信息类型,并同时符合9.1.2至9.1.4的要求。 個人情報処理者は、特定の事業目的に合致した個人情報の種類を選択し収集すると同時に、9.1.2 から 9.1.4 の要求事項を遵守しなければならない。
9.1.2 个人信息收集的真实性要求 9.1.2 個人情報収集の真正性に関する要求事項
个人信息处理者应确保所收集的个人信息的真实性,包括但不限于: 個人情報処理者は、収集した個人情報の真正性を確保しなければならない:
a)   确保个人信息来源真实,即保障个人信息来自原始、可靠的数据源,而非虚构或伪造的来源; a) 個人情報の出所が真正であることを保証すること、すなわち、個人情報が、架空または改ざんされた出所からではなく、オリジナルで信頼できるデータ出所から提供されたものであることを保証すること;
b)   确保个人信息未经篡改,即保障个人信息在收集、处理和传输的过程中保持了原始状态,没有受到恶意篡改、损坏或删除; b) 個人情報が改ざんされていないことを保証すること、すなわち、個人情報が収集、処理、送信の間、元の状態に維持され、悪意による改ざん、損傷、削除が行われていないことを保護すること;
c)   必要的情况下开展身份验证,即保障个人信息提供者或收集者的身份是否经过验证,其身份情况是否能够保障个人信息的真实性和准确性; c) 必要に応じて本人確認を行うこと、すなわち、個人情報の提供者または収集者の身元を確認し、その身元が個人情報の真実性および正確性を保証する状態にあることを保護すること;
d)   确保个人信息收集的透明度,即保障个人信息收集和清洗的过程透明,以及可审查和可验证,以确保个人信息的真实性。 d) 個人情報の収集における透明性の確保、すなわち、個人情報の収集および浄化のプロセスが透明であり、個人情報の真正性を確保するためにレビュー可能で検証可能であることを保護する。
9.1.3 个人信息收集的准确性要求 9.1.3 個人情報収集の正確性に関する要求事項
个人信息处理者应确保所收集的个人信息的准确性,包括但不限于: 個人情報処理者は、収集した個人情報の正確性を確保するものとする:
a)   确认所收集的个人信息类型应能反映个人信息主体的实际情况; a) 収集する個人情報の種類が、個人情報の主体の実態を反映していることを確認すること;
注:必要时可采取相关措施对个人信息的客观性进行验证。 注)必要に応じて、個人情報の客観性を確認するための措置を講じることがある。
b)   确认所收集的个人信息的相关性与典型性; b) 収集する個人情報の関連性及び典型性を確認すること;
c)   确认所收集的个人信息为最新状态,避免因信息过时而影响个人信息的准确性。 c)古い情報により個人情報の正確性が損なわれないよう、収集した個人情報が最新のものであることを確認すること。
注:如果数据不准确或过时,依赖于此的特征生成也可能由于建立在过期的数据或带有错误解释的外部数据基础之上。 注:データが不正確または古い場合、それに依拠する機能生成もまた、古いデータまたは不正確な解釈を伴う外部データに基づいている可能性がある。
9.1.4 个人信息收集的合法性要求 9.1.4 個人情報の収集に関する正当性の要件
个人信息处理者应确保收集个人信息的合法性,包括但不限于: 個人情報の処理者は、以下を含むがこれに限定されない、個人情報の収集の合法性を確保しな ければならない:
a)   根据收集个人信息的不同阶段以及不同场景考虑选择适当的合法性基础,包括但不限于: a) 個人情報収集の様々な段階及び様々なシナリオに基づいて、適切な合法性の根拠を選 択することを検討する:
1)   基于同意时,提供充分清楚且全面的信息确保个人信息主体理解其同意的内容,引入颗粒化同意流程,提供简单的路径为不同目的的数据处理获取同意并提供便捷的撤回同意机制; 1) 同意に基づく場合、個人情報の主体が同意の内容を理解できるよう十分明確で 包括的な情報を提供し、きめ細かな同意プロセスを導入し、異なるデータ処理 目的について同意を得るための簡単な経路を提供し、同意を撤回するための便利なメ カニズムを提供する;
2)   基于履行合同之必要时,根据具体场景下的合同或服务目的的必要性和正当性适用,且客观上已衡量过其他的方式后谨慎采用; 2) 契約の履行に必要な場合、特定のシナリオにおける契約またはサービスの目的の必要性と正当性に従って適用し、代替方法を客観的に比較検討した上で慎重に採用する;
3)   基于履行法定义务时,仅在出于公共利益、风险防控或者确保个人信息处理者提供服务的安全性和可靠性等目的,并制定适当的措施保障用户的权利与正当利益后开展,例如预防欺诈、反作弊策略以及反洗钱等情形。 3) 法的義務の履行に基づく場合、公益、リスクの予防および管理、または個人情報の処理者が提供するサービスの安全性および信頼性を確保する目的のためにのみ実施され、詐欺防止、不正行為対策、マネーロンダリング対策の場合など、利用者の権利および正当な利益を保護するための適切な措置が講じられた後に実施される。
b)   在最小范围和数量内收集为实现特征生成所必需的具有直接关联的个人信息; b) 機能の生成に必要な個人情報に直接関連する個人情報を、最小限の範囲と量で収集する;
c)   确保公开透明,通过清晰易懂的方式主动披露存在特征生成的动作,并宜事先告知处理逻辑。 c) 明確かつ理解しやすい方法で、特徴生成の行為の存在を積極的に開示し、適切な 場合には処理ロジックを事前に通知することにより、公開性と透明性を確保する。
9.2 特征生成的计算安全要求 9.2 特徴生成に関する計算セキュリティ要件
9.2.1 一般安全要求 9.2.1 一般的なセキュリティ要件
利用计算机程序开展特征提取、特征选择、特征计算、特征输出时,个人信息处理者应确保计算机程序及其算法满足第8章的要求,并同时符合9.2.2至9.2.4的要求。 コンピュータプログラムを使用して特徴抽出、特徴選択、特徴計算及び特徴出力を行う場合、 個人情報処理組織は、コンピュータプログラム及びそのアルゴリズムが第8章の要求事項を満たし、 同時に9.2.2~9.2.4の要求事項を満たすことを保証しなければならない。
9.2.2 特征提取的要求 9.2.2 特徴抽出に関する要求事項
个人信息处理者应: 個人情報処理者は、次のことを行わなければならない:
a)   预先对所收集的个人信息进行有效的预处理,包括数据清洗与特征工程等; a) 収集した個人情報を、データクレンジング、特徴工学を含む効果的な前処理を行う;
b)   排查所收集的个人信息的缺失值、异常值、重复值,规范个人信息的格式、结构、类型等要素; b) 収集した個人情報の欠損値、異常値、重複を検査し、個人情報のフォーマット、構造、型、その他の要素を標準化する;
c)   确保提取的数据特征的一致性、有效性和可用性; c) 抽出されたデータ特徴の一貫性、妥当性、使いやすさを確保する;
d)   确保所提取的特征不存在不公平、偏见的情形。 d) 抽出された特徴が不公平または偏ったものでないことを確認する。
9.2.3 特征选择和特征计算的要求 9.2.3 特徴の選択及び特徴の計算に関する要求事項
个人信息处理者应: 個人情報処理事業者は、次のことを行わなければならない:
a)   选择对实现特定业务目的最有预测能力的特征; a) 特定のビジネス目的を達成するために最も予測力のある特徴を選択する;
b)   考虑到选择的特征之间的相关性,避免过多的相关性冗余; b) 選択された特徴間の相関を考慮することにより、関連性の過度の冗長性を避ける;
c)   避免选择可能引入不公平或歧视性待遇的特征; c) 不公平または差別的取り扱いをもたらす可能性のある特徴を選択しないこと;
d)   确保选择数据特征时的平衡性,避免因偏重或缺失某一类型的个人信息导致特征计算和输出存在错误的情形; d) データ特徴の選択がバランスよく行われ、特定の種類の個人情報が優先されたり欠落 したりすることにより、特徴の計算や出力に誤りが生じるような状況を回避す る;
e)   开展进一步的特征计算,如发现选取的数据特征与实现特定业务目标之间存在不足关系时。  e) 選択されたデータ特徴と特定のビジネス目的の達成との間に不十分な関係が見出された場 合、さらなる特徴計算を行うこと。
9.2.4 特征输出的安全要求 9.2.4 特徴出力のセキュリティ要件
个人信息处理者应: 個人情報処理機関は、次のことを行わなければならない:
a)   确保输出的对个人信息主体特征的描述不应表达对性别、民族、种族、年龄、宗教、残疾、疾病、性取向歧视的内容; a) 個人情報の対象者の特徴に関する記述の出力が、性別、民族性、人種、年齢、宗教、障 害、疾病、または性的指向に対する差別を表現しないことを保証する;
b)   对特征生成所使用计算机程序中的函数机制、网络结构机制、数据机制、模型评价机制等进行审慎评估与测试,并采用特定的机制削弱程序输出可能带来的偏见与歧视,保障输出的准确性、适当性与公平性 b) 特徴生成に使用するコンピュータプログラムの機能メカニズム、ネットワーク構造メカニズム、データメカニズム、モデル評価メカニズムなどを慎重に評価・テストし、プログラムの出力によってもたらされる可能性のある偏りや差別を弱めるための具体的なメカニズムを採用し、出力の正確性、適切性、公正性を保証する。
10 决策的安全要求 10 意思決定に必要なセキュリティ要件
10.1 决策的基本安全要求 10.1 意思決定に関する基本的なセキュリティ要件
个人信息处理者基于特征生成进行针对个人的决策时: 個人情報処理機関が特徴生成に基づき個人固有の意思決定を行う場合
a)   不应侵害公民、法人和其他组织的合法权益; a) 国民、法人、その他の組織の正当な権利と利益を侵害してはならない;
b)   不应危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视; b) 国家の安全、名誉、利益を危険にさらし、国家権力の転覆と社会主義体制の転覆を扇動し、国家の分離独立を扇動し、国民団結を損ない、テロリズムと過激主義を助長し、民族憎悪と民族差別を助長してはならない;
c)   不应传播暴力、淫秽色情信息,编造、传播虚假信息扰乱经济秩序和社会秩序。 c) 暴力的、わいせつ、ポルノ的な情報を流布し、経済・社会秩序を乱す虚偽の情報を捏造・流布してはならない。
10.2 决策的告知要求 10.2 意思決定のための情報提供要件
个人信息处理者应向个人提供关于自动化决策的相关信息: 個人情報取扱者は、自動的な意思決定に関する関連情報を個人に提供しなければならない:
a)   易于理解的自动化决策处理说明指引,包括但不限于: a) 以下を含むがこれに限定されない、自動意思決定処理指示のための分かりやすいガイドライン:
1)   自动化决策处理动作所基于的个人信息; 1) 自動化された意思決定処理の根拠となる個人情報;
2)   自动化决策处理的逻辑; 2) 自動化された意思決定処理の論理
b)   个人对自动化决策行为及结果享有的权利以及行使方式; b) 自動化された意思決定行為とその結果に関する個人の権利、およびその行使方法;
c)   便捷有效的反馈渠道与机制。 c) 便利で効果的なフィードバックの経路と仕組み
10.3 决策中的个人权益保障要求 10.3 意思決定における個人の権利および利益の保護に関する要件
    个人信息处理者应基于特定的自动化决策场景情形为个人提供权益保障,包括但不限于:     個人情報処理機関は、特定の自動意思決定シナリオに基づき、以下の事項を含むがこれに限定されない、個人の権利および利益の保護を提供しなければならない:
a)   响应解释请求。面对个人对自动化决策的解释请求,针对提出解释请求的个人的基本情况,适当地说明决策逻辑、价值权重、个人数据利用情况等; a) 説明要求への対応。 自動化された意思決定に関する説明を求める個人の要求に直面した場合、説明要求を行う個人の基本的な状況に関して、意思決定の論理、価値の重み付け、個人データの利用などを適切に説明しなければならない;
b)   响应干预请求,包括但不限于: b) 介入要請に対応する:
1)   向个人提供选择或者删除用于算法推荐服务的针对其个人特征的标签的机制; 1) アルゴリズムによる推薦サービスで使用するために、個人の特性に特化したラベルを選択または削除する仕組みを個人に提供する;
2)   在通过自动化决策方式向个人进行信息推送、商业营销时,向个人提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式; 2) 自動化された意思決定手法や商業マーケティングを通じて情報が個人に押し付けられる場合、個人特性を対象としない選択肢を個人に提供する、または、それを拒否する便利な方法を個人に提供する;
3)   向个人提供拒绝个人信息处理者仅通过自动化决策的方式作出决定的机制。 3) 自動化された意思決定のみによって個人情報の処理者が行う決定を拒否する仕組みを個人に提供すること。
11 对个人权益有重大影响的自动化决策典型场景特殊要求 11 個人の権利および利益に重大な影響を及ぼす自動意思決定の典型的なシナリオに関する特別な要件
11.1 教育或职业机会 11.1 教育またはキャリアの機会
在教育、工作机会推荐或候选人评估过程中通过计算机程序自动分析人选特征,并根据特定特征指标完成筛选匹配时,个人信息处理者: 教育、就職機会の推薦または候補者評価の過程で、コンピュータプログラムを通じて候補者の特性を自動的に分析し、特定の特性指標に基づくスクリーニングマッチを完了する場合、個人情報処理機関は以下のことを行う:
a)   不应设置歧视性或者偏见性用户标签并据此设定筛选策略,例如仅在通过行为分析推测候选人为中年已育女性的情况下,直接将该候选人筛出面试名单,或设置为其匹配高薪主管岗位的机会远低于同等情况下的男性候选人的系统策略等; a)差別的または偏った利用者ラベルを設定し、それに応じてスクリーニング戦略を設定してはならない。例えば、候補者が中年で出産経験のある女性であると行動分析によって推定される場合にのみ、面接リストから候補者を直接スクリーニングしたり、同じ状況にある男性候補者よりも高給の監督職とマッチングする確率が大幅に低くなるような体系的戦略を設定したりする等である;
b)   应为用户提供拒绝个人信息处理者仅通过自动化决策的方式作出决定的机制。 b) 利用者は、自動化された意思決定のみによる個人情報処理者による決定を拒否する仕組みを提供されるべきである。
11.2 信用贷款或保险评估 11.2 与信枠または保険の評価
在判定是否向某位申请人发放贷款或通过某项保险险种申请、确定贷款发放额度等场景下,通过计算机程序自动分析人选行为特征推断其信用、健康情况作出决定时,个人信息处理者: 申込者に対する融資の可否、保険契約による申込の可否、融資額の決定等において、申込者の行動特性を自動的に分析し、申込者の信用や健康状態を推測するコンピュータ・プログラムによって決定が行われる場合、個人情報処理機関は、次のことを行う:
a)   不应在用户不知情且未获得用户授权或具备其他合法性基础前提下,仅通过对该用户的App浏览行为习惯等间接指标,甚至与该用户具有同类特征的一类用户的情况间接推断对该用户进行信用评分,未直接基于其信用记录情况下,作出不通过其前述申请的决定; a) 利用者が知らないうちに、また、利用者の承認やその他の合法性の根拠を得ずに、利用者のアプリ閲覧習慣などの間接的な指標のみに基づいて、あるいは、利用者と類似した特性を持つ利用者のカテゴリーの状況を間接的に推測して、利用者の申請を承認しない決定を下してはならない;
b)   不应设置歧视性或者偏见性用户标签,例如残疾、患有恶疾等标签内容,如评估行为所必须,仅得如实、客观、准确该用户身体特征及疾病情况; b) 障害者、悪性疾患に罹患しているなどの差別的・偏見的な利用者レッテルを設定してはならず、審査行動に必要な場合のみ、利用者の身体的特徴や病気について真実かつ客観的で正確でなければならない;
c)   应为用户提供拒绝个人信息处理者仅通过自动化决策的方式作出决定的机制。 c)利用者が、自動化された意思決定のみによって個人情報処理者が行う決定を拒否できる仕組みを提供すべきである。
11.3 社会福利资格等公共治理领域 11.3 社会福祉資格などの公的ガバナンス分野
通过自动化决策在行政管理活动中作出例如给予或不给予行政许可或审批等决定的行为时,个人信息处理者应: 行政上の許認可を与えるか与えないかといった行政活動において、例えば自動化された意思決定によって意思決定を行う行為を行う場合、個人情報処理者は以下のことを行わなければならない:
a)   考虑到决策行为可能对个人产生极为重大的影响,并提供便捷有效的方式为个人提供申诉渠道,及时对个人诉求予以处理; a) 意思決定行為が個人に極めて重大な影響を及ぼす可能性があることを考慮し、個人に不服申し立ての手段を提供し、個人の主張を適時に処理するための便利で効果的な方法を提供する。
b)   建立安全可行的公示方式,在合理范围内确保公众知情权,接受公众监督; b) 国民の知る権利を合理的な範囲内で確保し、国民の監視を受けるために、安全かつ実行可能な公開手段を確立する;
a)       为个人提供拒绝个人信息处理者仅通过自动化决策的方式作出决定的机制。 a) 自動化された意思決定のみによって個人情報取扱事業者が行う決定を、個人が拒否できる仕組みを提供する。
11.4 特殊群体的自动化决策场景安全要求 11.4 特別な集団に対する自動意思決定シナリオのセキュリティ要件
11.4.1 儿童 11.4.1 子ども
针对儿童进行自动化决策处理时,个人信息处理者: 自動化された意思決定処理が子どものために行われる場合、個人情報処理者は、以下のことを行う:
a)   除有充分事由且考虑了儿童的最大利益、并采取适当措施保护儿童免受有害影响外,原则上不应对儿童开展自动化决策处理: a) 原則として、正当な理由があり、子どもの最善の利益が考慮され、子どもを有害な影響から保護するための適切な措置が講じられていない限り、子どもに対して自動意思決定処理を実施すべきではない:
b)   如需对儿童进行自动化决策(例如为了保护儿童的福利),需要提供适合该年龄段理解的信息,说明儿童个人数据会怎么处理以及潜在风险,并采取适当的保障措施确保有效保护儿童的权利和合法利益; b) 自動化された意思決定が子どもに対して必要な場合(子どもの福祉を守るためなど)、子どもの個人データがどのように処理されるのか、また潜在的なリスクについて、その年齢層の理解に適した情報を提供する必要があり、子どもの権利と正当な利益が効果的に保護されるよう、適切な保護措置を講じる必要がある;
c)   不应利用算法推荐服务诱导未成年人沉迷网络; c) アルゴリズムによる推奨サービスは、未成年者をインターネット中毒にさせるために使用すべきではない;
d)   不应出于营销目的对儿童进行特征生成分析并开展相应个性化营销服务。 d) マーケティング目的のために子どもをプロファイリングすべきではなく、それに応じてパーソナライズされたマーケティングサービスを実施すべきではない。
11.4.2 老年人 11.4.2 高齢者
针对老年人进行自动化决策处理时,个人信息处理者应在自动化决策算法设计中做好针对老年人的适老化改造,避免将老年人排除于自动化决策之外。 高齢者を対象とした自動意思決定処理を行う場合、個人情報取扱事業者は、自動意思決定から高齢者を排除しないよう、自動意思決定アルゴリズムの設計において、高齢者のために年齢に応じた適応を行うべきである。
11.4.3 劳动者 11.4.3 労働者
针对劳动者进行自动化决策处理时,个人信息处理者: 労働者を自動意思決定処理の対象とする場合、個人情報処理機関は以下のことを行う:
a)   不应利用自动化决策算法对劳动者进行压榨与操纵; a) 労働者を抑圧し、操作するために自動意思決定アルゴリズムを使用してはならない;
b)   不应侵害法律法规所规定的劳动者合法权益; b) 法律および規制で定義されている労働者の正当な権利および利益を侵害してはならない;
c)   利用算法进行绩效管理、人事管理时,应在算法设计层面引入劳动权益保护考量;  c) 業績管理および人事管理のためにアルゴリズムを使用する場合、労働者の権 利および利益の保護に対する配慮をアルゴリズム設計のレベルで導入す べきである; 
d)   向劳动者提供工作调度功能时(劳动报酬、休息休假,订单分配、工作时间、奖惩措施等功能),应为劳动者设立便捷明晰的意见反馈与投诉处理机制。 d) 労働者に作業スケジュール機能(報酬、休憩、休暇、命令割当、労働時間、褒賞、懲罰など)を提供する場合、労働者にとって便利で明確なフィードバックおよび苦情処理メカニズムを設定すべきである。
12 其他典型的自动化决策场景特殊要求 12 その他の典型的な自動意思決定シナリオに関する特別要件
12.1 信息推送、商业营销 12.1 情報プッシュ、商業マーケティング
利用特定个人或其所在群体相关的个人信息通过弹窗等形式向个人进行信息精准分发或向其发送商业广告时,个人信处理者: 特定の個人または集団に関連する個人情報を使用して、ポップアップウィンドウやその他のフォームを通じて、情報を正確に配信したり、商業広告を個人に送信したりする場合、個人情報処理機関は以下のことを行う:
a)   不应利用用户标签进行诱导营销与过度推荐; a) 餌マーケティングや過度の推薦のためにユーザータグを使用してはならない;
b)   不应包含拜金炫富、色情低俗类的信息关键词记入用户标签,并向其推送类似信息; b) ユーザータグに、拝金主義、富の拡大、ポルノ、下品なカテゴリーの情報キーワードを含め、同様の情報をプッシュしてはならない;
c)   不应以违法和不良信息关键词对用户贴标签、归类并针对性推送信息; c) 違法で好ましくない情報キーワードを、ラベル付け、分類、ユーザーへのプッシュ情報のターゲットに使用してはならない;
d)   不应设置歧视性或者偏见性用户标签; d) 差別的または偏ったユーザーラベルを設定すべきではない;
e)   不应算法屏蔽信息、过度推荐、操纵榜单及控制热搜等可能造成信息茧房的操纵行为; e) アルゴリズム的に情報をブロックしたり、過剰に推薦したり、リストを操作したり、ホットサーチを制御したり、情報のコクーニングをもたらす可能性のあるその他の操作的行動を行うべきではない;
f)   应向个人提供动态调整的推荐比例选项。 f) 個人には、推薦比率を動的に調整するオプションを提供すべきである。
12.2 商业交易 12.2 商取引
利用特定个人或其所在群体相关的个人信息向个人进行商品、产品服务营销推荐时,个人信息处理者: 特定の個人またはそのグループに関連する個人情報を使用して、商品および製品サービスのマーケティングのために個人への推薦を行う場合、個人情報取扱事業者は、次のことを行うものとする:
a)   不应开展任何可能造成交易价格、交易机会、交易条件等实际差别待遇的行为; a) 取引価格、取引機会、取引条件において、実質的な待遇差を生じさせるような行為をしてはならない。
b)   不应实施虚构原价、虚假优惠折价等不正当价格行为; b) 架空の元値、虚偽の優待割引など、不公正な価格設定を行ってはならない;
c)   不应对消费者收取未予以标明的费用; c) 表示されていない手数料を消費者に請求してはならない;
d)   不应通过利用算法操纵中奖概率、中奖结果、中奖人员等欺骗方式进行有奖销售; d) アルゴリズムを使用して当選確率、当選結果、当選者を操作するなど、欺瞞的な手段による懸賞販売をしてはならない;
e)   不应滥用市场支配地位,利用算法在无正当理由的情况下操纵价格,排除、限制市场竞争。 e) 正当な理由なく、アルゴリズムを使用して価格を操作することにより、市場における支配的地位を乱用し、市場における競争を排除または制限してはならない。
13 风险管理要求 13 リスク管理要件
个人信息处理者应: 個人情報取扱事業者は、次のことを行わなければならない:
a)   加强个人信息处理全生命周期保护,在开展自动化决策处理动作前开展个人信息保护影响评估,并对处理情况进行记录,确保日志记录支持事件溯源与处置; a) 個人情報処理の全ライフサイクル保護を強化し、自動化された意思決定処理行為を実施する前に個人情報保護影響評価を実施し、インシデントのトレーサビリティと廃棄をサポートするログ記録を確保するために処理を記録する;
b)   定期自行或委托外部机构对自动化决策处理行为进行合规审计; b) 自ら、または外部機関に委託して、自動化された意思決定処理行為のコンプライアンス監査を定期的に実施する;
c)   采取加密等方式实现自动化决策开展所涉及的个人信息从生产环境到开发环境,再到线上运行的安全传输,并在处理活动中对所涉及的敏感信息进行脱敏处理; c) 自動意思決定に関わる個人情報を、本番環境から開発環境、そしてオンライン運用へと安全に伝送するために、暗号化およびその他の手段を採用し、処理活動に関わる機密情報を減感させる;
d)   建立完整的对画像标签等数据访问权限的申请、审批、授权、回收的权限生命周期管控; d) 似顔絵ラベルなどのデータへのアクセス権の申請、承認、認可、回復の完全なライフサイクル管理を確立する;
e)   为用户提供便捷明晰的意见反馈渠道,并设置专门责任人跟进处置响应。 e) 利用者に便利で明確なフィードバック・チャンネルを提供し、廃棄対応をフォローする特別な責任者を設置する。
参 考 文 献 参考文献

 

説明

・[DOCX] 信息安全技术 基于个人信息的自动化决策安全要求-编制说明

国家标准《信息安全技术 基于个人信息的自动化决策安全要求》 国家標準「個人情報に基づく自動的な意思決定に係る情報セキュリティ技術の安全確保措置に関する要求事項」(公開草案
(征求意见稿)编制说明 (公開草案)説明
一、工作简况 I. 概要
1.1任务来源 1.1 課題の出所
根据国家标准化管理委员会2023年下达的国家标准制修订计划,《信息安全技术 基于个人信息的自动化决策安全要求》由北京理工大学负责承办,计划号:20230253-T-469。该标准由全国信息安全标准化技术委员会归口管理。 国家標準化管理委員会が2023年に発布した国家標準作成・改正計画によると、「個人情報に基づく自動意思決定のための情報セキュリティ技術セキュリティ要求事項」は、国家情報セキュリティ標準化技術委員会(NTCIS)の管理下にある計画番号20230253-T-469の下、北京理工学院(BIT)が担当している。
1.2 制定背景 1.2 開発の背景
2021年8月,我国《个人信息保护法》正式颁布,并于2021年11月正式实施。其中,第二十四条有关“自动化决策”条款备受关注。2022年3月,全国信息安全标准化技术委员会发布《关于发布2022年度网络安全国家标准需求的通知》,将本标准纳入2022年网络安全国家安全标准需求项目。 2021年8月、中国の個人情報保護法が正式に公布され、2021年11月に正式に施行された。 2022年3月、国家情報セキュリティ標準化技術委員会は「2022年サイバーセキュリティ国家標準要求事項の公表に関する通知」を発表し、本標準は2022年サイバーセキュリティ国家標準要求事項プロジェクトに含まれた。
2022年10月,全国信息安全标准化技术委员会发布《关于2022年网络安全国家标准项目立项的通知》,明确本标准由北京理工作为项目牵头单位负责标准编制工作。 2022年10月、国家情報セキュリティ標準化専門委員会は「2022年サイバーセキュリティ国家標準プロジェクト設立に関する通知」を発表し、本標準は北京工業技術院(BIT)が標準作成作業を担当するプロジェクトの主管部門として作成されることを明らかにした。
1.3 起草过程 1.3 起草プロセス
1、2022年2月,北京理工大学牵头组建标准前期研究工作小组,小组对基于个人信息的自动化决策要求有关的国内外法律法规、标准等进行详细调研,形成相应标准草案,并准备申报材料。 1、2022年2月、北京理工学院が主体となって標準事前研究ワーキンググループを設置し、個人情報に基づく自動意思決定要件に関連する国内外の法律法規、標準等について詳細な調査を行い、対応する標準草案を形成し、宣言資料を作成した。
2、2022年4月,北京理工大学编制组在全国信息安全标准化技术委员会进行标准申报汇报。 2、2022年4月、BITの準備チームは国家情報セキュリティ標準化技術委員会で標準宣言を報告した。
3、2022年10月,全国信息安全标准化技术委员会发布《关于2022年网络安全国家标准项目立项的通知》,同意本标准由北京理工大学作为项目牵头单位负责标准编制工作。 3、2022年10月、国家情報セキュリティ標準化技術委員会は「2022年サイバーセキュリティ国家標準化プロジェクト設立に関する通知」を発表し、BITがプロジェクトリーダーとして本標準の作成に責任を持つことに同意した。
4、2022年11月-12月,北京理工大学对外公开征集标准参编单位,正式成立标准编制组,召开第一次工作组组内会议,并就标准草案内容向标准编制组内部征求意见,对标准内容进行更新完善。 4、2022年11月~12月、北京工業大学は外部から規格参加単位を公募し、正式に規格準備グループを設立し、作業グループ内で第一回会議を開催し、規格準備グループ内から規格草案の内容に対する意見を募集し、規格内容を更新・改善した。
5、2022年12月,标准编制组在2022年标准周大数据工作组上进行汇报,通过组内成员单位投票。标准编制组根据意见进行认真修改后形成征求意见稿。 5、2022年12月、標準準備グループは、2022年標準週間ビッグデータワーキンググループの報告書は、グループのメンバー単位の投票を通じて。 標準準備グループは、コメントのための草案の形成後の慎重な修正のためのコメントに応じて。
6、2023年4月,召开编制组会议,就标准内容和文本进行研讨、完善。 6、2023年4月、標準の内容とテキストを議論し、改善するために準備グループの会議を開催した。
8、2023年6月,标准编制组在2023年全国信息安全标准化技术委员会标准周大数据工作组进行汇报。根据意见进行认真修改。 8、2023年6月、標準準備グループは、2023年国家情報セキュリティ標準化技術委員会標準週間ビッグデータワーキンググループで報告した。 慎重な修正のためのコメントによると。
9、2023年7月,参加征求意见稿专家审查会,经评审专家投票一致通过,同意该标准面向社会发起公开征求意见。 9、2023年7月、コメントのための草案の専門家のレビュー会議に参加するために、レビューの専門家は、全会一致で投票し、コミュニティのための標準は、パブリックコンサルテーションを開始することに合意した。
二、标准编制原则、主要内容及其确定依据 II. 規格作成の原則、主な内容とその決定根拠である。
2.1 标准编制原则 2.1 規格作成の原則
本标准的编制遵循以下原则:  本基準の作成は、以下の原則に従っている: 
(1) 先进性:标准反映当前《个人信息保护法》等最新法律要求以及个人信息保护的先进技术水平; (1) 先進性:現行の個人情報保護法等の最新の法的要求事項及び個人情報保護の高度な技術水準を反映する;
(2) 开放性:标准的编制、评审与使用具有开放性; (2)公開性:本基準の作成、評価、利用は公開される;
(3) 适应性:标准结合我国国情; (3)適応性:基準は中国の国情に合わせる;
(4) 简明性:标准易于理解、实现和应用; (4)簡潔性:基準は理解しやすく、実現しやすく、適用しやすい;
(5) 中立性:公正、中立,不与任何利益攸关方发生关联; (5) 中立性:公平性、中立性、いかなる利害関係者とも関係がない;
(6) 一致性:术语与国内外标准所用术语最大程度保持一致。 (6) 一貫性:用語は、可能な限り、国内外の基準で使用されている用語と一致している。
本标准通过“数据安全”和“服务安全”两个维度,对个人信息处理者自动化决策活动开展过程中涉及的数据处理环节安全保护要求作出明确规范,同时对自动化决策在实践应用层面如何充分保障用户权利、避免侵害用户权利作出指导,以实现明确个人信息处理者在进行自动化决策及相关应用的典型场景中数据安全和个人信息保护义务要求的整体目的。 この標準は、"データセキュリティ "と "サービスセキュリティ "の2つの次元を通じて、個人情報処理機関の自動意思決定活動は、データ処理リンクのセキュリティ保護要件の過程で明確な仕様を作成すると同時に、どのようにレベルの実用的なアプリケーションで自動意思決定に関する。 同時に、自動意思決定の実務応用において、ユーザーの権利を十分に保護し、ユーザーの権利侵害を回避する方法について指導を行い、自動意思決定及び関連応用の典型的なシナリオにおいて、個人情報処理者のデータセキュリティ及び個人情報保護義務の要求を明確にするという全体的な目的を実現する。
2.2 主要内容及其确定依据 2.2 主な内容と決定根拠
本项目旨在于支撑《个人信息保护法》第二十四条对利用个人信息进行自动化决策的要求的落地实施,试图明确个人信息处理者在进行自动化决策及相关应用的典型场景中数据安全和个人信息保护义务要求,并解决自动化决策开展过程中存在的不透明性、决策责任人缺失导致结果准确性不足、对个人权益造成显著影响等问题。 本事業は、個人情報の自動的な意思決定への利用に関する個人情報保護法第24条の要求事項の実施を支援することを目的とし、自動的な意思決定及び関連するアプリケーションの典型的なシナリオにおける個人情報取扱事業者のデータセキュリティ及び個人情報保護義務の要求事項を明確化するとともに、自動的な意思決定における透明性の欠如、意思決定責任者の不在による結果の正確性の欠如、個人の権利及び利益への重大な影響等の問題を解決しようとするものである。 個人の権利と利益など
三、试验验证的分析、综述报告,技术经济论证,预期的经济效益、社会效益、生态效益 III. 試験検証、技術的・経済的正当性、期待される経済的・社会的・生態学的便益の分析と統合報告書
3.1 试验验证的分析、综述报告 3.1 試験検証の分析と統合報告書
标准在编制过程中,参与标准编制的各单位积极使用标准进行了试验应用,标准适用的对象为受《个人信息保护法》管辖的个人信息处理者。具体来说,个人信息处理者“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策”时,应遵守本标准中提出的安全要求。在试验验证本标准时,个人信息处理者将本标准的要求分项落实到合规、法务、业务等部门之中,并最终由法务部门来评估对个人合法权益造成损害风险的大小。根据风险大小,法务部门联合技术部门做出了关于特定产品、服务、功能等上线与否或做出何种修改的决定。在试验应用过程中对自动化决策安全要求的落地实践方式进行探索,最后将实施经验转化为标准的具体内容,以增加标准的实用性。 本標準の作成期間中、本標準の作成に関与した部門は、本標準を積極的に使用して実験的な応用を実施し、本標準は個人情報保護法が適用される個人情報処理事業者に適用される。 具体的には、個人情報取扱事業者は、「コンピュータプログラムを通じて、個人の行動習慣、興味、または経済、健康、信用状態などを自動的に分析・評価し、意思決定を行う」場合、本基準に定めるセキュリティ要求事項を遵守しなければならない。 個人情報取扱事業者は、本基準のテスト及び検証に際し、本基準の要求事項をコンプライアンス部門、法務部門及び業務部門に実施し、法務部門は、個人の法的権利利益を毀損するリスクを評価する。 リスクの程度に基づき、法務部門は技術部門と連携して、特定の製品、サービス、機能の発売または変更の可否を決定する。 自動意思決定セキュリティ要求事項の着地方法は、試行適用の過程で検討され、最終的に、実施経験は、規格の実用性を高めるために、規格の具体的な内容に変換される。
3.2 技术经济论证 3.2 技術的・経済的正当性
虽然落实本标准提出的安全要求,在短期内给个人信息处理者增加了经济成本,包括但不限于:新增合规人员的成本、调整算法模型和计算机程序开发过程的成本、安全风险自评估的成本等,但这些安全要求能够有效地增加具有自动化决策功能的新产品、新应用、新业务在个人信息主体、服务群体整体以及公众舆论方面的接受度乃至认可度,降低个人信息处理者处理纠纷、争议等方面的成本。总的来说,该技术标准给企业带来正面的经济效应。 本基準で提案するセキュリティ要求事項の実施により、短期的には、個人情報処 理者の経済的コストが増加する。追加的なコンプライアンス要員のコスト、アルゴリズ ムモデルとコンピュータプログラム開発プロセスの調整コスト、セキュリティリス クの自己評価コストなどであるが、これらに限定されない。 また、個人情報処理者が紛争や論争を処理するコストを削減することができる。 全体として、技術標準は企業にプラスの経済効果をもたらす。
3.3 预期的经济效益、社会效益和生态效益 3.3 期待される経済的、社会的及び生態学的利益
该标准的社会效益在于保护具有自动化决策功能的新产品、新应用、新业务所服务的个人、群体的合法权益,确保各个个人信息处理者拉齐合规基线,并在此基础上促进商业方面的良性竞争。 本基準の社会的便益は、自動意思決定機能を持つ新製品、アプリケーションおよびビジネスによってサービスを受ける個人および集団の正当な権利と利益を保護すること、個々の個人情報取扱事業者が整合されたコンプライアンス・ベースラインを有することを保証すること、およびこれを基礎としたビジネスにおける健全な競争を促進することである。
该标准不涉及生态效益。 本基準は環境効率には関与しない。
四、与国际、国外同类标准技术内容的对比情况,或者与测试的国外样品、样机的有关数据对比情况 IV. 同種の国際及び外国標準の技術内容との比較、または試験された外国サンプル及びプロトタイプの関連データとの比較
目前基于个人信息的自动化决策安全要求不存在对应的国际标准,也未见其他国家制定了对应的技术标准。 現在のところ、個人情報に基づく自動意思決定のセキュリティ要件に対応する国際基準はなく、また、諸外国が策定した対応する技術基準も見られない。
五、以国际标准为基础的起草情况,以及是否合规引用或者采用国际国外标准,并说明未采用国际标准的原因 V.  国際規格に基づく起草、準拠する国際規格及び外国規格の引用又は採用の有無、国際規格を採用しない理由
当前,国际标准并没有对基于个人信息的自动化决策安全要求开展标准化工作,其他国家也没有制定对应的技术标准,因此本标准制定工作中没有采用国际标准或国外标准。 現在、国際標準は個人情報に基づく自動意思決定のセキュリティ要求事項に関する標準化作業を行っておらず、諸外国も対応する技術標準を策定していないため、本基準の策定において国際標準や外国標準を採用していない。
六、与现行相关法律、法规、规章及相关标准的协调性 VI. 既存の関連法規、規則及び関連標準との調整
本标准与现行法律、法规以及国家标准不存在冲突与矛盾。 本規格と既存の法律、規則、国家規格との間に矛盾や齟齬はない。
本标准为《个人信息保护法》等法律法规的落地实施提供支撑,建议与国家标准《信息安全技术 个人信息安全规范》(GB/T 35273-2020)等配套使用。 本標準は、個人情報保護法及びその他の法規の実施を支援するものであり、国家標準である「個人情報セキュリティのための情報セキュリティ技術仕様」(GB/T 35273-2020)と合わせて使用することを推奨する。
七、重大分歧意见的处理经过和依据 VII. 重大な意見の相違の処理とその根拠
无。 なし。
八、涉及专利的有关说明 VIII. 特許に関する説明
无。 なし。
九、实施国家标准的要求,以及组织措施、技术措施、过渡期和实施日期的建议等措施建议 IX. 国内規格の実施要件、並びに提案された勧告及びその他の措置の組織的措置、技術的措置、移行期 間及び実施日
 建议本标准作为推荐性国家标准发布实施。同时建议个人信息处理者建立专门的合规工作组,根据本标准的要求制定相应的内部规范作为合规基线。在上线具有自动化决策的新功能或新应用前,基于合规基线开展内部的安全风险自评估。在具有自动化决策功能的新产品、新应用、新业务上线后,每一年开展一次安全风险自评估。建议本标准在正式发布后的六个月后开始实施。  本規格を推奨される国家規格として発行し、実施することが提案される。 また、個人情報処理機関は、特別なコンプライアンス・ワーキンググループを設置し、本基準の要求事項に基づき、コンプライアンス・ベースラインとして対応する内部仕様を策定することが推奨される。 自動意思決定を伴う新たな機能またはアプリケーションを立ち上げる前に、コンプライアンス・ベースラインに基づいて社内のセキュリティリスク自己評価を実施する。 自動意思決定機能を有する新しい製品、アプリケーション及び事業がオンライン化された後、1年に1回、セキュリティリスクの自己評価を実施する。 本基準は、正式リリースから6ヵ月後に実施することが推奨される。
十、其他应当说明的事项 X. その他説明すべき事項
无。 なし。
《信息安全技术 基于个人信息的自动化决策安全要求》 個人情報に基づく自動意思決定のための情報セキュリティ技術セキュリティ要件
国家标准编制组 国家標準準備グループ
2023年8月13日 2023年8月13日

 

 

|

« 警察庁 サイバー警察局便りVol.14「ログ、保存していますか?」 | Main | 中国 国家標準「情報セキュリティ技術:データセキュリティのリスクアセスメント手法」の公開と意見募集 (2023.08.21) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 警察庁 サイバー警察局便りVol.14「ログ、保存していますか?」 | Main | 中国 国家標準「情報セキュリティ技術:データセキュリティのリスクアセスメント手法」の公開と意見募集 (2023.08.21) »