« 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事 | Main | 欧州データ保護監督官 (EDPS) 2020年次報告 - COVID-19状況下のデータ保護 »

2021.04.21

U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。

こんにちは、丸山満彦です。

日本でもFTCで知られる、米国連邦政府の取引委員会(U.S. Federal Trade Commission: FTC)[wikipedia]は、米国の消費者保護政策等に関わり、独禁法や消費者保護法を所管する委員会で、かなり強力な権限を持っていますので、硬いイメージがあるのですが、こうやって、ブログで色々と啓発活動をしていますね。。。こうすることによって、常識形成というか世論形成をすることができるので、良いですね。日本の政府機関等もDXの一環(^^)として、もっと情報発信や情報公開を進めれば良いのにと思ってりもします。

さて、今回紹介するのは、会社でAIを使ったサービス等を提供する場合の注意点として、FTCの立場からのアドバイスということになっていますね。

意識として、Truth(真実)Fairness(公正)Equity(公平)を目指そうという内容で、とても参考になりますね。。。これからAIを社会実装したいと思っている人は、このブログの内容を参考にすれば良いと思いました。。。

正直言って、当たり前のことを堂々と書かれているので、反論する余地が無いような内容です(^^)

 

U.S. Federal Trade Commission: FTCTips & Advice  - Business Center - Business Blog 

・2021.04.19 Aiming for truth, fairness, and equity in your company’s use of AI

 

ここでは、次の3つの法律が例示されていますね。

 

Start with the right foundation. With its mysterious jargon (think: “machine learning,” “neural networks,” and “deep learning”) and enormous data-crunching power, AI can seem almost magical. But there’s nothing mystical about the right starting point for AI: a solid foundation. If a data set is missing information from particular populations, using that data to build an AI model may yield results that are unfair or inequitable to legally protected groups. From the start, think about ways to improve your data set, design your model to account for data gaps, and – in light of any shortcomings – limit where or how you use the model. 正しい出発点から始める。「機械学習」、「ニューラルネットワーク」、「ディープラーニング」などの神秘的な専門用語や膨大なデータ処理能力を持つAIは、まるで魔法のように思えるかもしれません。しかし、AIの正しい出発点である強固な基本には、神秘的なものはありません。あるデータセットに特定の集団の情報が欠けている場合、そのデータを使ってAIモデルを構築すると、法的に保護された集団に対して不公平な結果が出る可能性があります。最初から、データセットを改善する方法を考え、データのギャップを考慮してモデルを設計し、欠点を考慮してモデルを使用する場所や方法を制限してください。
Watch out for discriminatory outcomes. Every year, the FTC holds PrivacyCon, a showcase for cutting-edge developments in privacy, data security, and artificial intelligence. During  PrivacyCon 2020,  researchers presented work showing that algorithms developed for benign purposes like healthcare resource allocation and advertising actually resulted in racial bias. How can you reduce the risk of your company becoming the example of a business whose well-intentioned algorithm perpetuates racial inequity? It’s essential to test your algorithm – both before you use it and periodically after that – to make sure that it doesn’t discriminate on the basis of race, gender, or other protected class. 差別的な結果に注意する。FTCは毎年、プライバシー、データセキュリティ、人工知能の最先端の発展を紹介するPrivacyConを開催しています。PrivacyCon 2020では、医療資源の配分や広告などの良心的な目的で開発されたアルゴリズムが、実際には人種的な偏見をもたらしていることを示す研究成果が発表されました。良かれと思って開発したアルゴリズムが人種間の不公平を助長してしまう、という例に自社がなってしまうリスクを減らすにはどうしたらよいでしょうか。アルゴリズムを使用する前に、また使用後も定期的にテストを行い、人種や性別、その他の保護されたクラスに基づく差別が行われていないことを確認することが重要です。
Embrace transparency and independence. Who discovered the racial bias in the healthcare algorithm described at PrivacyCon 2020 and later published in Science? Independent researchers spotted it by examining data provided by a large academic hospital. In other words, it was due to the transparency of that hospital and the independence of the researchers that the bias came to light. As your company develops and uses AI, think about ways to embrace transparency and independence – for example, by using transparency frameworks and independent standards, by conducting and publishing the results of independent audits, and by opening your data or source code to outside inspection. 透明性と独立性を受け入れる。PrivacyCon 2020で発表され、その後Sサイエンス誌に掲載されたヘルスケアアルゴリズムの人種的偏りを発見したのは誰でしょうか?独立した研究者が、大規模な学術病院から提供されたデータを調査することで発見しました。つまり、その病院の透明性と研究者の独立性があったからこそ、偏りが明らかになったのです。あなたの会社でも、AIを開発・利用する際には、透明性と独立性を確保する方法を考えましょう。例えば、透明性フレームワークや独立した基準を利用する、独立した監査を実施してその結果を公表する、データやソースコードを外部に公開するなどの方法があります。
Don’t exaggerate what your algorithm can do or whether it can deliver fair or unbiased results. Under the FTC Act, your statements to business customers and consumers alike must be truthful, non-deceptive, and backed up by evidence. In a rush to embrace new technology, be careful not to overpromise what your algorithm can deliver. For example, let’s say an AI developer tells clients that its product will provide “100% unbiased hiring decisions,” but the algorithm was built with data that lacked racial or gender diversity. The result may be deception, discrimination – and an FTC law enforcement action. アルゴリズムができることや、公正で偏見のないな結果を出せるかどうかを誇張してはいけません。FTC法では、企業の顧客や消費者に向けた声明は、真実であり、欺瞞的でなく、証拠に裏付けられたものでなければならないとされています。新技術の導入を急ぐあまり、アルゴリズムが提供できる結果を過大評価しないように注意してください。例えば、AI開発者がクライアントに「100%偏りのない採用判断」を提供すると言っておきながら、そのアルゴリズムは人種や性別の多様性を欠いたデータで構築されていたとします。そうであれば、欺瞞的で差別のある結果になるかもしれません。そしてその結果、FTCによる法執行が行われるかもしれません。 
Tell the truth about how you use data. In our guidance on AI  last year, we advised businesses to be careful about how they get the data that powers their model. We noted the FTC’s complaint against Facebook which alleged that the social media giant misled consumers by telling them they could opt in to the company’s facial recognition algorithm, when in fact Facebook was using their photos by default. The recent action against app developer Everalbum reinforces that point. According to the complaint, Everalbum used photos uploaded by app users to train its facial recognition algorithm. The FTC alleged that the company deceived users about their ability to control the app’s facial recognition feature and made misrepresentations about users’ ability delete their photos and videos upon account deactivation. To deter future violations, the proposed order  requires the company to delete not only the ill-gotten data, but also the facial recognition models or algorithms developed with users’ photos or videos. データの使用方法について真実を伝える。昨年のAIに関するガイダンスで、私たちは企業に対し、モデルの動力源となるデータの入手方法に注意するようアドバイスしました。これは、ソーシャルメディア大手のFacebookが、同社の顔認識アルゴリズムへの参加を選択できると伝えて消費者を欺いていたが、実際にはFacebookはデフォルトで消費者の写真を使用していたとするものです。今回のFTCによるアプリ開発会社Everalbumに対する措置は、この点を補強するものです。訴状によると、Everalbumはアプリのユーザーがアップロードした写真を使って、顔認識アルゴリズムを訓練していました。FTCは、同社がアプリの顔認識機能をコントロールする能力についてユーザーを欺き、アカウント停止時にユーザーが写真やビデオを削除できることについて虚偽の説明をしたと主張しています。今後の違反行為を抑止するため、今回の命令案では、不正に取得したデータだけでなく、ユーザーの写真や動画を用いて開発された顔認識モデルやアルゴリズムも削除するよう求めています。
Do more good than harm. To put it in the simplest terms, under the FTC Act, a practice is unfair if it causes more harm than good. Let’s say your algorithm will allow a company to target consumers most interested in buying their product. Seems like a straightforward benefit, right? But let’s say the model pinpoints those consumers by considering race, color, religion, and sex – and the result is digital redlining (similar to the Department of Housing and Urban Development’s case against Facebook in 2019). If your model causes more harm than good – that is, in Section 5 parlance, if it causes or is likely to cause substantial injury to consumers that is not reasonably avoidable by consumers and not outweighed by countervailing benefits to consumers or to competition – the FTC can challenge the use of that model as unfair. 害になることではなく良いことをする。もっとも簡単に言えば、FTC法では、ある行為が善よりも害をもたらす場合、その行為は不公正であるとしています。例えば、あなたのアルゴリズムによって、ある企業が自社製品の購入に最も関心のある消費者をターゲットにできるようになるとします。一見、単純なメリットに見えますよね?しかし、そのモデルが、人種、肌の色、宗教、性別を考慮してそれらの消費者をピンポイントで特定し、その結果、デジタル・レッドラインとなったとしましょう(2019年に住宅都市開発省がFacebookに対して行った訴訟に似ています)。あなたのモデルが善よりも害をもたらす場合、つまり、セクション5の言葉で言えば、消費者によって合理的に回避できず、消費者または競争に対する相殺される利益によって相殺されない実質的な損害を消費者にもたらす、またはその可能性がある場合、FTCはそのモデルの使用を不公正として異議を唱えることができます。
Hold yourself accountable – or be ready for the FTC to do it for you. As we’ve noted, it’s important to hold yourself accountable for your algorithm’s performance. Our recommendations for transparency and independence can help you do just that. But keep in mind that if you don’t hold yourself accountable, the FTC may do it for you. For example, if your algorithm results in credit discrimination against a protected class, you could find yourself facing a complaint alleging violations of the FTC Act and ECOA. Whether caused by a biased algorithm or by human misconduct of the more prosaic variety, the FTC takes allegations of credit discrimination very seriously, as its recent action against Bronx Honda demonstrates. 自分で責任を負うか、さもなくばFTCが責任を負わせるということを覚悟してください。これまで述べてきたように、自社のアルゴリズムのパフォーマンスに責任を持つことは重要です。透明性と独立性に関する私たちの推奨事項は、まさにそのためのものです。しかし、説明責任を果たさなければ、FTCが代わりに説明責任を果たさせることを覚悟しておいてください。例えば、アルゴリズムの結果、保護されるべきクラスに対する信用差別が発生した場合、FTC法およびECOAの違反を主張する訴状に直面する可能性があります。偏ったアルゴリズムによるものであれ、より平凡な人間の不正行為によるものであれ、FTCは信用差別の申し立てを非常に深刻に受け止めており、Bronx Hondaに対する最近の措置がそれを示しています。

 

Fec-seal



  

|

« 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事 | Main | 欧州データ保護監督官 (EDPS) 2020年次報告 - COVID-19状況下のデータ保護 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事 | Main | 欧州データ保護監督官 (EDPS) 2020年次報告 - COVID-19状況下のデータ保護 »