« 中国 TC260 ネットワークセキュリティ状況認識技術の標準化に関する白書 | Main | ENISAがIoTサプライチェーンの保護に関するガイドラインを公開していますね »

2020.11.10

中国 TC260 パブコメ AI倫理に関するガイドライン案

こんにちは、丸山満彦です。

中国の国家情報セキュリティ標準化技術委員会 (TC260) が「AI倫理に関するガイドライン案」について意見募集をしていますね。。。

人工知能 (AI) の定義は、

デジタルコンピュータまたはデジタルコンピュータ制御の機械を用いて、人間の知能を模倣、拡張、拡大し、環境を知覚し、知識を獲得し、その知識を利用して最適な結果を得るための理論、技術、システム、製品、サービス。

という感じでしょうか?中国語がわかる方に教えてもらいたいところです。。。

 

全国信息安全标准化技术委员会 (National Information Security Standardization Technical Committee)

・2020.11.09 关于对《网络安全标准实践指南—人工智能伦理道德规范指引(征求意见稿)》公开征求意见的通知

・・[PDF] 网络安全标准实践指南—人工智能伦理道德规范指引(征求意见稿).pdf

 

スコープ、つまり適用される対象は、「AI の研究開発、設計・製造、展開・応用、その他関連する活動を行っている関係機関または個人」ということで、およそAIに関連する業務をする場合に適用されるということのようですね。

「3. AIの倫理的、道徳的セキュリティリスク」では、「AIに関連する活動にいては、リスク分を行う要がある」として、以下のようなリスクが考えられるとしています。

a. 制御不能リスク AIの行動や影響が、研究開発者、設計者、アプリケーション展開者によって、あらかじめ決められたこと、理解されたこと、制御可能なことを超えてしまうリスクであり、社会的価値に負の結果をもたらす。
b. 社会的リスク AIの誤用や悪用などの非合理的な利用が社会的価値観に影響を与え、体系的な社会問題を引き起こすリスク。
c. 侵害リスク AIが人の基本的権利、個人、プライバシー、財産などを侵害したり、悪影響を及ぼすリスク。
d. 差別的リスク AIが特定のグループの人間に対して主観的または客観的なバイアスをかけ、権利侵害や否定的な結果をもたらすリスク。
e. 責任リスク AIに関わるすべての当事者の責任の境界が不明確で不合理であり、すべての当事者の不正行為につながり、社会的信頼や社会的価値に悪影響を及ぼすリスク。

その後、AI一般的な倫理指針、研究開発倫理指針、設計製造倫理指針、アプリケーション展開倫理指針、利用倫理指針が示されていますね。。。

 

目次

目 录 目次
摘 要 摘要
1 范围 1 スコープ
2、术语与定义 2.用語と定義
2.1 人工智能 2.1 AI
2.2 研究开发者 2.2 研究開発者
2.3 设计制造者 2.3 設計製造者
2.4 部署应用者 2.4 アプリケーション展開者
2.5 用户 2.5 利用者
3 人工智能伦理道德安全风险 3 AIの倫理的・道徳的セキュリティリスク
4 人工智能伦理道德规范指引 4 AIの倫理指針
4.1 基本要求 4.1 基本的な要件
4.2 研究开发指引 4.2 研究開発ガイドライン
4.3 设计制造指引 4.3 設計・製造ガイドライン
4.4 部署应用指引 4.4 アプリケーション展開ガイドライン
4.5 用户使用指引 4.5 利用ガイドライン
参考文献 参考文献

 

・[word] 仮訳

 

|

« 中国 TC260 ネットワークセキュリティ状況認識技術の標準化に関する白書 | Main | ENISAがIoTサプライチェーンの保護に関するガイドラインを公開していますね »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 中国 TC260 ネットワークセキュリティ状況認識技術の標準化に関する白書 | Main | ENISAがIoTサプライチェーンの保護に関するガイドラインを公開していますね »