UK ICO 雇用決定にアルゴリズムを使用する際に考慮すべき6つのこと
こんにちは、丸山満彦です。
UK ICO [wikipedia] が雇用決定にアルゴリズムを使用する際に考慮すべき6つのことを公表していますね。。。
● UK Information Commissioner's Office (ICO)
・2020.12.18 Six things to consider when using algorithms for employment decisions
# | 原文 | 仮訳 |
1 | Bias and discrimination are a problem in human decision-making, so it is a problem in AI decision making | 偏見や差別は人間の意思決定で問題になるので、AIの意思決定でも問題になる |
2 | It is hard to build fairness into an algorithm | 公平性をアルゴリズムに組み込むのは難しい |
3 | The advancement of big data and machine learning algorithms is making it harder to detect bias and discrimination | ビッグデータや機械学習アルゴリズムの進歩により、偏見や差別の検出が難しくなっている |
4 | You must consider data protection law AND equalities law when developing AI systems. | AIシステムを開発する際には、データ保護法と平等法を考慮する必要があります。 |
5 | Using solely automated decisions for private sector hiring purposes is likely to be illegal under the GDPR | 民間企業の採用目的で自動化された意思決定のみを使用することは、GDPRの下で違法となる可能性があります。 |
6 | Algorithms and automation can also be used to address the problems of bias and discrimination | アルゴリズムや自動化は、偏見や差別の問題にも対応できる |
参考となるICOのウェブ
・[html] Guidance on AI and data protection(AIとデータ保護に関するガイダンス)
・[PDF]
原文 | 仮訳 |
Information Commissioner's foreword | 情報長官の序文 |
Executive Summary | 概要 |
About this guidance | 本ガイダンスについて |
What are the accountability and governance implications of AI? | AIの説明責任(アカウンタビリティ)とガバナンスは何を意味するのか? |
What do we need to do to ensure lawfulness, fairness, and transparency in AI systems? | AIシステムの合法性、公平性、透明性を確保するために何をすべきか? |
How should we assess security and data minimisation in AI? | AIにおけるセキュリティとデータの最小化をどのように評価すべきか? |
How do we ensure individual rights in our AI systems? | AIシステムにおける個人の権利をどのように確保すべきか? |
Glossary | 用語集 |
・[html] Explaining decisions made with AI (AIが決定したことを説明する)
・[PDF]
« UK ICO 新しいデータ共有実践規範 (Data sharing code of practice)を発表し、データ共有情報ハブを開設 | Main | え〜っ!!! 「東証、統治及ばず「引責」 システム障害で辞任、「必要なし」から一転 官邸の空気察し自ら決断」 »
Comments