カナダ プライバシーコミッショナー ブログ:アルゴリズムによる公正さの可能性と限界
こんにちは、丸山満彦です
カナダのプライバシーコミッショナーが「アルゴリズムによる公正さの可能性と限界」についてブログに記事(二部構成)を載せていますが、興味深いです。。。
AIには公正さが必要という話がありますが、アルゴリズムの公正さ (algorithmic fairness) について検討をしています。。。
・2023.04.05 Privacy Tech-Know blog: When worlds collide – The possibilities and limits of algorithmic fairness (Part 1)
結論の部分だけ...
| Conclusion | 結論 |
| In this first part of our blog series on algorithmic fairness, we gained a number of insights into the history, context, nature and challenges of algorithmic fairness: | アルゴリズム・フェアネスに関するブログシリーズの第一弾として、アルゴリズム・フェアネスの歴史、背景、性質、課題などについて、さまざまな知見を得ることができた: |
| ・Algorithmic fairness is an emerging field of research that arises when the future-oriented ambiguity of fairness meets the past-is-prologue precision of AI/ML | ・アルゴリズム・フェアネスとは、未来志向のフェアネスという曖昧さと、AI/MLの「過去は進行形」という精密さが相まって生まれる新しい研究分野である。 |
| ・As a type of fairness, it shares in the basic properties of the ethical concept of fairness: | ・公正の一種であり、倫理的概念である公正の基本的性質を共有する: |
| ・・It involves recognition of both similarities and differences | ・・類似と相違の両方を認識すること。 |
| ・・It has multiple standards | ・・複数の規格を持つ |
| ・・The standards are generally incompatible | ・・一般的に相容れない規格である |
| ・In general, there are three main definitions of algorithmic fairness: | ・一般に、アルゴリズムの公正さには、大きく分けて3つの定義がある: |
| ・・Sufficiency or parity of predictive values | ・・予測値の充足度、パリティ。 |
| ・・Separation or parity of error rates | ・・誤差の分離・均等性 |
| ・・Independence or statistical parity | ・・独立性または統計的パリティ |
| ・The definitions are generally incompatible due to an inherent trade-off between maximizing accuracy and minimizing differences among groups | ・精度の最大化とグループ間の差異の最小化というトレードオフの関係にあるため、一般的に定義が相容れない。 |
| ・It is possible for some or all of the definitions to be satisfied simultaneously, albeit only in highly constrained special cases with trivial solutions | ・いくつかの定義を同時に満たすことは可能であるが、それは些細な解を持つ高度に制約された特殊な場合のみである。 |
| Based on these insights, it is clear that algorithmic fairness is a complex discipline. On the one hand, it offers useful mathematical definitions that create a framework for evaluating how our uses of AI/ML can be made more compatible with the idea of a fair and just society. Yet, at the same time, the general incompatibility of the definitions presents important challenges to practitioners. Many questions remain. For example, what measures can be applied to help achieve algorithmic fairness? How do we choose between definitions? What are the limits of mathematical notions of fairness? | これらの洞察に基づくと、アルゴリズム・フェアネスが複雑な学問であることは明らかである。一方では、AI/MLの利用が公平で公正な社会の実現にどのように適合するかを評価するための枠組みとして、有用な数学的定義が提示されている。しかし、同時に、定義の一般的な非互換性は、実務家に重要な課題を提示している。多くの疑問が残る。例えば、アルゴリズムの公正さを実現するために、どのような手段を適用することができるのか。どのように定義を選択すればよいのか?数学的な公平性の概念の限界はどこにあるのか? |
| Please continue to the second part of our blog series on algorithmic fairness, where we will discuss these questions and more. | アルゴリズムの公正さに関するブログシリーズの第2部では、これらの疑問などについて解説していく。 |
・2023.04.05 Privacy Tech-Know blog: When worlds collide – The possibilities and limits of algorithmic fairness (Part 2)
| Conclusion | 結論 |
| In this second, final part of our blog series on algorithmic fairness, we further developed our analysis from a practical perspective and gained additional insights into the nature of algorithmic fairness: | アルゴリズムの公正さに関するブログシリーズの最終回であるこの第2回では、実践的な観点から分析をさらに発展させ、アルゴリズムの公正さの本質についてさらなる洞察を得ることができた: |
| ・Measures to help achieve algorithmic fairness can be organized into three groups based on the stages of the AI/ML training lifecycle: | ・アルゴリズムによる公平性を実現するために、AI/MLのトレーニングライフサイクルのステージに応じて、3つのグループに分類することができる: |
| ・・Pre-processing | ・・プリプロセッシング |
| ・・・Ensure that training data is balanced and representative of the population | ・・・トレーニングデータは、母集団を代表するバランスのとれたデータであることを確認する。 |
| ・・・Ensure that the ground truth is objective | ・・・客観的な真実を確認する。 |
| ・・・Ensure that features equally predict the target variable across groups | ・・・グループ間で均等に目標変数を予測する機能を確保する。 |
| ・・In-processing | ・・インプロセシング |
| ・・・Add one or more fairness-enhancing regularization terms to the cost function | ・・・コスト関数に公平性を高める正則化項を1つ以上追加する。 |
| ・・・Use fair adversarial learning | ・・・公正な逆境学習 |
| ・Post-processing | ・ポストプロセッシング |
| ・・Set the threshold to a value that satisfies your fairness criteria | ・・閾値を、あなたの公平性の基準を満たす値に設定する。 |
| ・・Use a separate threshold for each group | ・・グループごとに敷居を分けて使用する。 |
| ・・Due to its mathematical nature, algorithmic fairness suffers from several ethical limitations: | ・・アルゴリズムによる公平性は、その数学的性質上、いくつかの倫理的制約がある: |
| ・・It does not address the ethical implications of the actual task an AI/ML model performs | ・・AI/MLモデルが実際に行うタスクの倫理的意味合いに対処していない |
| It cannot determine which definition is appropriate or “fair” in the circumstances | どの定義が適切か、あるいは状況に応じて「公正」であるかを判断することはできない |
| Its results can be manipulated | その結果を操作することができる |
| It cannot evaluate its own effects | 自らの効果を評価することができない |
| Based on these additional insights, it is clear that algorithmic fairness is not only a complex discipline, but that it is no panacea. While various practical measures can be applied to help achieve it, ultimately mathematical notions of fairness have inherent ethical limitations that can only be properly dealt with using non-technical thinking. As always when it comes to evaluating ethical uses of technology, the key is to continue the process of deliberation and not let your thinking be replaced by calculation! | これらの追加的な洞察に基づくと、アルゴリズムの公正さは複雑な学問であるだけでなく、万能薬でもないことが明らかです。公正さを実現するために様々な実用的な手段を適用することはできるが、最終的に数学的な公正さの概念は、非技術的な考え方を用いてのみ適切に対処することができる固有の倫理的限界を持っている。テクノロジーの倫理的な利用を評価する場合、重要なのは、熟慮のプロセスを継続することであり、思考を計算に置き換えることではない! |
« 米国 GAO 意見募集 監査基準書 (イエローブック)2023年版 ドラフト (2023.01.30) | Main | 自民党 セキュリティ・クリアランスで法整備を経済安保推進本部・安全保障調査会・サイバーセキュリティ対策本部・デジタル社会推進本部が提言 »

Comments