米国 連邦取引委員会 司法省 消費者金融保護局 雇用機会均等委員会 「自動化システムにおける差別やバイアスに対する執行努力に関する共同声明 」
こんにちは、丸山満彦です。
米国の連邦取引委員会、司法省、消費者金融保護局、雇用機会均等委員会が、「自動化システムにおける差別やバイアスに対する執行努力に関する共同声明 」を公表していますね。。。
欧州のAI法案で、原則禁止、高リスク分野の内容に関連するような話ですかね。。。
結構、高い決意表明のように読みました。。。
FTCのウェブページから...
・2023.04.25 FTC Chair Khan and Officials from DOJ, CFPB and EEOC Release Joint Statement on AI
FTC Chair Khan and Officials from DOJ, CFPB and EEOC Release Joint Statement on AI | 連邦取引委員会のカーン委員長、司法省、消費者金融保護局 (CFPB) 、雇用機会均等委員会 (EEOC) の関係者がAIに関する共同声明を発表 |
FTC Chair Lina M. Khan and officials from three other federal agencies jointly pledged today to uphold America’s commitment to the core principles of fairness, equality, and justice as emerging automated systems, including those sometimes marketed as “artificial intelligence” or “AI,” become increasingly common in our daily lives – impacting civil rights, fair competition, consumer protection, and equal opportunity. | FTCのリナ・M・カーン委員長と他の3つの連邦政府機関の関係者は本日、「人工知能」(AI)として販売されることもある自動システムが私たちの日常生活にますます浸透し、市民権、公正競争、消費者保護、機会均等に影響を及ぼす中、公正、平等、正義という米国の基本原則を堅持することを共同で誓約した。 |
Chair Khan and officials with the Civil Rights Division of the U.S. Department of Justice, the Consumer Financial Protection Bureau, and the U.S. Equal Employment Opportunity Commission released their joint statement outlining a commitment to enforce their respective laws and regulations to promote responsible innovation in automated systems. | カーン議長および米国司法省公民権局、消費者金融保護局、米国雇用機会均等委員会の関係者は、自動化システムの責任あるイノベーションを促進するために、それぞれの法律や規制を強化することを表明する共同声明を発表した。 |
All four agencies have previously expressed concerns about potentially harmful uses of automated systems and resolved to vigorously enforce their collective authorities and to monitor the development and use of automated systems. | 4つの機関はすべて、以前に自動化システムの潜在的に有害な使用について懸念を表明し、それぞれの集団的な権限を強力に執行し、自動化システムの開発と使用を監視することを決議している。 |
“We already see how AI tools can turbocharge fraud and automate discrimination, and we won’t hesitate to use the full scope of our legal authorities to protect Americans from these threats,” said Chair Khan. “Technological advances can deliver critical innovation—but claims of innovation must not be cover for lawbreaking. There is no AI exemption to the laws on the books, and the FTC will vigorously enforce the law to combat unfair or deceptive practices or unfair methods of competition.” | カーン委員長は、次のように述べている。「我々はすでに、AIツールが詐欺を加速させ、差別を自動化することを目の当たりにしており、これらの脅威から米国人を守るために、法的権限の全範囲を行使することを躊躇しない。技術の進歩は重要なイノベーションをもたらすが、イノベーションを主張することが法律違反の隠れ蓑になってはいけない。FTCは、不公正または欺瞞的な行為や不公正な競争方法と闘うために、精力的に法律を執行していく。」 |
・[PDF] JOINT STATEMENT ON ENFORCEMENT EFFORTS AGAINST DISCRIMINATION AND BIAS IN AUTOMATED SYSTEMS
JOINT STATEMENT ON ENFORCEMENT EFFORTS AGAINST DISCRIMINATION AND BIAS IN AUTOMATED SYSTEMS | 自動化システムにおける差別やバイアスに対する執行努力に関する共同声明 |
Rohit Chopra, Director of the Consumer Financial Protection Bureau, | 消費者金融保護局長のロヒト・チョプラ氏、 |
Kristen Clarke, Assistant Attorney General for the Justice Department’s Civil Rights Division, | 司法省公民権局検事補のKristen Clarke氏、 |
Charlotte A. Burrows, Chair of the Equal Employment Opportunity Commission, and | 雇用機会均等委員会委員長のシャーロット・A・バローズと |
Lina M. Khan, Chair of the Federal Trade Commission | リナ・M・カーン 連邦取引委員会委員長 |
issued the following joint statement about enforcement efforts to protect the public from bias in automated systems and artificial intelligence: | は、自動化システムや人工知能のバイアスから国民を保護するための執行努力について、以下の共同声明を発表した: |
America’s commitment to the core principles of fairness, equality, and justice are deeply embedded in the federal laws that our agencies enforce to protect civil rights, fair competition, consumer protection, and equal opportunity. These established laws have long served to protect individuals even as our society has navigated emerging technologies. Responsible innovation is not incompatible with these laws. Indeed, innovation and adherence to the law can complement each other and bring tangible benefits to people in a fair and competitive manner, such as increased access to opportunities as well as better products and services at lower costs. | 公平、平等、正義という基本原則に対する米国のコミットメントは、市民権、公正な競争、消費者保護、機会均等を守るために私たちの機関が執行する連邦法に深く組み込まれている。これらの確立された法律は、私たちの社会が新興の技術を利用する際にも、個人を保護するために長い間役立ってきた。責任あるイノベーションは、これらの法律と相容れないものではない。実際、イノベーションと法律の遵守は互いに補完し合い、公平で競争力のある方法で人々に具体的な利益をもたらすことができる。例えば、機会へのアクセスの増加や、より良い製品やサービスをより低コストで提供することができる。 |
Today, the use of automated systems, including those sometimes marketed as “artificial intelligence” or “AI,” is becoming increasingly common in our daily lives. We use the term “automated systems” broadly to mean software and algorithmic processes, including AI, that are used to automate workflows and help people complete tasks or make decisions. Private and public entities use these systems to make critical decisions that impact individuals’ rights and opportunities, including fair and equal access to a job, housing, credit opportunities, and other goods and services. These automated systems are often advertised as providing insights and breakthroughs, increasing efficiencies and cost-savings, and modernizing existing practices. Although many of these tools offer the promise of advancement, their use also has the potential to perpetuate unlawful bias, automate unlawful discrimination, and produce other harmful outcomes. | 今日、「人工知能」または「AI」として販売されているものを含む自動化システムの使用は、私たちの日常生活においてますます一般的になってきている。私たちは、「自動化システム」という言葉を、ワークフローを自動化し、人々がタスクを完了したり意思決定するのを助けるために使用される、AIを含むソフトウェアやアルゴリズムプロセスを意味する広義なものとして使用している。民間および公的機関は、これらのシステムを使用して、仕事、住宅、信用機会、その他の財やサービスへの公平かつ平等なアクセスを含む、個人の権利と機会に影響を与える重要な意思決定を行っている。これらの自動化されたシステムは、しばしば、洞察やブレークスルーを提供し、効率とコスト削減を高め、既存の慣行を近代化すると宣伝されている。これらのツールの多くは、進歩が期待できるものであるが、その使用は、違法なバイアスを永続させ、違法な差別を自動化し、その他の有害な結果をもたらす可能性もある。 |
Our Agencies’ Enforcement Authorities Apply to Automated Systems | 自動化されたシステムに適用される当局の取締り権限 |
Existing legal authorities apply to the use of automated systems and innovative new technologies just as they apply to other practices. The Consumer Financial Protection Bureau, the Department of Justice’s Civil Rights Division, the Equal Employment Opportunity Commission, and the Federal Trade Commission are among the federal agencies responsible for enforcing civil rights, non-discrimination, fair competition, consumer protection, and other vitally important legal protections. We take seriously our responsibility to ensure that these rapidly evolving automated systems are developed and used in a manner consistent with federal laws, and each of our agencies has previously expressed concern about potentially harmful uses of automated systems. For example: |
既存の法的権限は、他の慣行に適用されるのと同様に、自動化システムや革新的な新技術の使用にも適用される。消費者金融保護局、司法省公民権局、雇用機会均等委員会、連邦取引委員会は、公民権、無差別、公正競争、消費者保護、その他の極めて重要な法的保護を執行する責任を負う連邦機関の一つである。我々は、急速に進化する自動システムが連邦法に合致した方法で開発・使用されることを保証する責任を真剣に受け止めており、各機関はこれまで、自動システムの潜在的な有害利用について懸念を表明してきました。例えば、以下のようなものである: |
• The Consumer Financial Protection Bureau (CFPB) supervises, sets rules for, and enforces numerous federal consumer financial laws and guards consumers in the financial marketplace from unfair, deceptive, or abusive acts or practices and from discrimination. The CFPB published a circular confirming that federal consumer financial laws and adverse action requirements apply regardless of the technology being used. The circular also made clear that the fact that the technology used to make a credit decision is too complex, opaque, or new is not a defense for violating these laws. | ・消費者金融保護局(CFPB)は、連邦消費者金融法の監督、規則制定、執行を行い、金融市場における消費者を不当、欺瞞的、虐待的行為や差別から保護している。CFPBは、連邦消費者金融法および不利益処分の要件は、使用されている技術に関係なく適用されることを確認する回覧を発表した。また、信用判断に使用される技術が複雑すぎる、不透明である、または新しいという事実は、これらの法律に違反することの抗弁にはならないことを明らかにした。 |
• The Department of Justice’s Civil Rights Division (Division) enforces constitutional provisions and federal statutes prohibiting discrimination across many facets of life, including in education, the criminal justice system, employment, housing, lending, and voting. Among the Division’s other work on issues related to AI and automated systems, the Division recently filed a statement of interest in federal court explaining that the Fair Housing Act applies to algorithm-based tenant screening services. | ・司法省公民権局(Division)は、教育、刑事司法制度、雇用、住宅、融資、投票など、生活のさまざまな場面で差別を禁止する憲法条項と連邦法を執行している。AIや自動化システムに関連する問題に対する同課の他の活動の中で、同課は最近、連邦裁判所に、アルゴリズムに基づく入居審査サービスに公正住宅法が適用されることを説明する利害声明書を提出した。 |
• The Equal Employment Opportunity Commission (EEOC) enforces federal laws that make it illegal for an employer, union, or employment agency to discriminate against an applicant or employee due to a person’s race, color, religion, sex (including pregnancy, gender identity, and sexual orientation), national origin, age (40 or older), disability, or genetic information (including family medical history). In addition to the EEOC’s enforcement activities on discrimination related to AI and automated systems, the EEOC issued a technical assistance document explaining how the Americans with Disabilities Act applies to the use of software, algorithms, and AI to make employment-related decisions about job applicants and employees. | ・雇用機会均等委員会(EEOC)は、人種、肌の色、宗教、性別(妊娠、性自認、性的指向を含む)、国籍、年齢(40歳以上)、障害、遺伝情報(家族病歴を含む)を理由に、雇用主、組合、雇用機関が応募者や従業員を差別することを違法としている連邦法の施行者である。AIや自動化システムに関連する差別に関するEEOCのエンフォースメント活動に加え、EEOCは、求職者や従業員に関する雇用関連の判断を行うためのソフトウェア、アルゴリズム、AIの使用について、アメリカ障害者法の適用方法を説明した技術支援文書を発行した。 |
• The Federal Trade Commission (FTC) protects consumers from deceptive or unfair business practices and unfair methods of competition across most sectors of the U.S. economy by enforcing the FTC Act and numerous other laws and regulations. The FTC issued a report evaluating the use and impact of AI in combatting online harms identified by Congress. The report outlines significant concerns that AI tools can be inaccurate, biased, and discriminatory by design and incentivize relying on increasingly invasive forms of commercial surveillance. The FTC has also warned market participants that it may violate the FTC Act to use automated tools that have discriminatory impacts, to make claims about AI that are not substantiated, or to deploy AI before taking steps to assess and mitigate risks. Finally, the FTC has required firms to destroy algorithms or other work product that were trained on data that should not have been collected. | ・連邦取引委員会(FTC)は、FTC法およびその他多数の法律や規制を施行することにより、米国経済のほとんどの分野において、欺瞞的または不正な商習慣や不公正な競争方法から消費者を保護している。FTCは、議会が特定したオンライン上の害悪に対抗するためのAIの使用と影響を評価する報告書を発行した。同報告書は、AIツールが設計上不正確、バイアス、差別的である可能性があり、ますます侵襲的な形態の商業的監視に依存するインセンティブを与えるという重大な懸念について概説している。また、FTCは、差別的な影響を与える自動化ツールの使用、実証されていないAIに関する主張、リスクの評価と軽減のための措置を講じる前のAI導入は、FTC法に違反する可能性があると市場参加者に警告している。最後に、FTCは企業に対し、収集されるべきではなかったデータで訓練されたアルゴリズムやその他の作業成果物を破棄するよう求めている。 |
Automated Systems May Contribute to Unlawful Discrimination and Otherwise Violate Federal Law | 自動化されたシステムは違法な差別を助長し、連邦法に違反する可能性がある。 |
Many automated systems rely on vast amounts of data to find patterns or correlations, and then apply those patterns to new data to perform tasks or make recommendations and predictions. While these tools can be useful, they also have the potential to produce outcomes that result in unlawful discrimination. Potential discrimination in automated systems may come from different sources, including problems with: | 自動化されたシステムの多くは、膨大な量のデータからパターンや相関関係を見つけ出し、そのパターンを新しいデータに適用してタスクを実行したり、推奨や予測を行ったりします。これらのツールは有用である一方、違法な差別をもたらす結果をもたらす可能性もある。自動化されたシステムにおける潜在的な差別は、以下のようなさまざまな原因から生じる可能性がある: |
• Data and Datasets: Automated system outcomes can be skewed by unrepresentative or imbalanced datasets, datasets that incorporate historical bias, or datasets that contain other types of errors. Automated systems also can correlate data with protected classes, which can lead to discriminatory outcomes. | ・データおよびデータセット: データおよびデータセット:自動化システムの結果は,代表的でない,あるいは不均衡なデータセット,過去のバイアスを組み込んだデータセット,あるいは他の種類のエラーを含むデータセットによって歪められることがある。また,自動化されたシステムは,データを保護されたクラスと相関させ,差別的な結果をもたらす可能性がある。 |
• Model Opacity and Access: Many automated systems are “black boxes” whose internal workings are not clear to most people and, in some cases, even the developer of the tool. This lack of transparency often makes it all the more difficult for developers, businesses, and individuals to know whether an automated system is fair. | ・モデルの不透明性とアクセス: 自動化されたシステムの多くは「ブラックボックス」であり,その内部構造はほとんどの人,場合によってはツールの開発者でさえも明確ではない。このような透明性の欠如は,開発者,企業,そして個人にとって,自動化されたシステムが公正であるかどうかを知ることをより困難にしている場合がある。 |
• Design and Use: Developers do not always understand or account for the contexts in which private or public entities will use their automated systems. Developers may design a system on the basis of flawed assumptions about its users, relevant context, or the underlying practices or procedures it may replace. | ・設計と使用: 開発者は,民間企業や公的機関が自動化システムを使用する際の状況を必ずしも理解したり,考慮したりしていない。開発者は,ユーザー,関連する文脈,またはシステムが置き換える可能性のある基本的な慣行や手順に関する誤った仮定に基づいて,システムを設計することがある。 |
Today, our agencies reiterate our resolve to monitor the development and use of automated systems and promote responsible innovation. We also pledge to vigorously use our collective authorities to protect individuals’ rights regardless of whether legal violations occur through traditional means or advanced technologies. | 本日、両機関は、自動化システムの開発と利用を監視し、責任あるイノベーションを促進するという決意を改めて表明する。また、法的侵害が従来の手段によるものであれ、先端技術によるものであれ、個人の権利を保護するために、私たちの総力を結集して強力に取り組むことを誓う。 |
この報告書で各省からでているガイダンス等は読んでいた方が良いですね。。。おそらく日本もこういうのをつくっていかないと思われます...
⚫︎Consumer Financial Protection Bureau (CFPB)
⚫︎Department of Justice’s Civil Rights Division
⚫︎Equal Employment Opportunity Commission (EEOC)
⚫︎ Federal Trade Commission (FTC)
・2023.03.20 Chatbots, deepfakes, and voice clones: AI deception for sale
・2023.02.27 Keep your AI claims in check
・2022.10.18 [PDF] Joint Statement of Chair Lina M. Khan, Commissioner Rebecca Kelly Slaughter, and Commissioner Alvaro M. Bedoya In the Matter of Passport Auto Group Commission File No. 2023199
・2022.06.16 FTC Report Warns About Using Artificial Intelligence to Combat Online Problems - Agency Concerned with AI Harms Such As Inaccuracy, Bias, Discrimination, and Commercial Surveillance Creep
・2021.04.19 Aiming for truth, fairness, and equity in your company’s use of AI
Comments