AIによる何らかの人への点数付けはどうすれば人権問題とならないのか
こんにちは、丸山満彦です。AIを活用して信用スコアをつけたり、再犯可能性を評価したり、AIによる人への点数付けがこれからも伸びてくる可能性がありそうです。
が、つぎのような問題もでてきますよね。
●2020.02.10 <平和博>「福祉手当の不正受給者」を予測するAIが“人権侵害”で差し止め
この記事によると
オランダ・ハーグの裁判所が5日、政府がAIシステムで行っている福祉手当の「不正受給者」洗い出しのための危険度予測が、欧州人権条約に違反しているとして、使用停止を命じる判決を出した。
ということのようです。懸念は、
その仕組みや効果が不透明な一方で、人権侵害への批判、特に貧困層やマイノリティへのダメージにつながる、との疑問の声も高まっている。
ということのようです。実際に結果について、
人権団体の調査によると、高止まりが指摘される勾留件数が、AIシステム導入によって減少するなどの効果はほとんど明らかにされていない、という。その一方で、これらのシステムが人種による差別的判定をすることが、数年前から注目されている。
なかなか興味深い話です。
AIの関与にもいろいろとありますよね。
- AIのみで判断し点数付けする
- AIが判断し点数付けした結果を、人間が確認し、最終点数化する
- 人間がデータに基づき点数化するが、その際にAIの結果もつかう
- 人間にのみがデータに基づき点数化する
どいうことが問題となるのか?
- どういうデータを使って、かつ、どのようなロジックで判断しているかも不明
- どういうデータを使っているかは明確だが、どのようなロジックで判明しているかは不明
- どういうデータを使っているかも、どのようなロジックで判断しているかは明確
というような点が問題なのか?
いろいろと考えないといけないですね。。。
Comments