中国 TC260 パブコメ AI倫理に関するガイドライン案
こんにちは、丸山満彦です。
中国の国家情報セキュリティ標準化技術委員会 (TC260) が「AI倫理に関するガイドライン案」について意見募集をしていますね。。。
人工知能 (AI) の定義は、
デジタルコンピュータまたはデジタルコンピュータ制御の機械を用いて、人間の知能を模倣、拡張、拡大し、環境を知覚し、知識を獲得し、その知識を利用して最適な結果を得るための理論、技術、システム、製品、サービス。
という感じでしょうか?中国語がわかる方に教えてもらいたいところです。。。
● 全国信息安全标准化技术委员会 (National Information Security Standardization Technical Committee)
・2020.11.09 关于对《网络安全标准实践指南—人工智能伦理道德规范指引(征求意见稿)》公开征求意见的通知
・・[PDF] 网络安全标准实践指南—人工智能伦理道德规范指引(征求意见稿).pdf
スコープ、つまり適用される対象は、「AI の研究開発、設計・製造、展開・応用、その他関連する活動を行っている関係機関または個人」ということで、およそAIに関連する業務をする場合に適用されるということのようですね。
「3. AIの倫理的、道徳的セキュリティリスク」では、「AIに関連する活動については、リスク分析を行う必要がある」として、以下のようなリスクが考えられるとしています。
a. | 制御不能リスク | AIの行動や影響が、研究開発者、設計者、アプリケーション展開者によって、あらかじめ決められたこと、理解されたこと、制御可能なことを超えてしまうリスクであり、社会的価値に負の結果をもたらす。 |
b. | 社会的リスク | AIの誤用や悪用などの非合理的な利用が社会的価値観に影響を与え、体系的な社会問題を引き起こすリスク。 |
c. | 侵害リスク | AIが人の基本的権利、個人、プライバシー、財産などを侵害したり、悪影響を及ぼすリスク。 |
d. | 差別的リスク | AIが特定のグループの人間に対して主観的または客観的なバイアスをかけ、権利侵害や否定的な結果をもたらすリスク。 |
e. | 責任リスク | AIに関わるすべての当事者の責任の境界が不明確で不合理であり、すべての当事者の不正行為につながり、社会的信頼や社会的価値に悪影響を及ぼすリスク。 |
その後、AI一般的な倫理指針、研究開発倫理指針、設計製造倫理指針、アプリケーション展開倫理指針、利用倫理指針が示されていますね。。。
目次
目 录 | 目次 |
摘 要 | 摘要 |
1 范围 | 1 スコープ |
2、术语与定义 | 2.用語と定義 |
2.1 人工智能 | 2.1 AI |
2.2 研究开发者 | 2.2 研究開発者 |
2.3 设计制造者 | 2.3 設計製造者 |
2.4 部署应用者 | 2.4 アプリケーション展開者 |
2.5 用户 | 2.5 利用者 |
3 人工智能伦理道德安全风险 | 3 AIの倫理的・道徳的セキュリティリスク |
4 人工智能伦理道德规范指引 | 4 AIの倫理指針 |
4.1 基本要求 | 4.1 基本的な要件 |
4.2 研究开发指引 | 4.2 研究開発ガイドライン |
4.3 设计制造指引 | 4.3 設計・製造ガイドライン |
4.4 部署应用指引 | 4.4 アプリケーション展開ガイドライン |
4.5 用户使用指引 | 4.5 利用ガイドライン |
参考文献 | 参考文献 |
・[word] 仮訳
Comments