« TCFDコンソーシアム:気候関連財務情報開示に関するガイダンス3.0 | Main | 米国 NIST 国際的活動に関する最新情報:CSF2.0アップデートワークショップなど (2022.09.30) »

2022.10.07

米国 科学技術政策局 AI権利章典の青写真

こんにちは、丸山満彦です。

ホワイトハウスの科学技術政策局がAI権利章典の青写真を公表していますね。。。

5原則...

・Safe and Effective Systems ・安全で効果的なシステム
・Algorithmic Discrimination Protections ・アルゴリズムによる差別に対する保護
・Data Privacy ・データプライバシー
・Notice and Explanation ・通知と説明
・Human Alternatives, Consideration, and Fallback ・人的代替手段、配慮、およびフォールバック

 

  • 安全で効果的なシステム:安全で効果的なシステム:安全でない、あるいは効果的でないシステムから保護されるべきである。

  • アルゴリズムによる差別に対する保護:アルゴリズムによる差別に直面してはいけない。また、システムは公平な方法で使用、設計されるべきである。

  • データプライバシー:ユーザーは、組み込みの保護機能によって乱用的なデータ処理から保護されるべきであり、ユーザーに関するデータがどのように使用されるかについて代理権を持つ必要がある。

  • 通知と説明:自動化されたシステムがいつ使用されているかを知り、それが自分に影響を与える結果にどのように、そしてなぜ寄与しているかを理解する必要がある。

  • 人的代替手段、配慮、およびフォールバック:適切な場合にはオプトアウトが可能であるべきであり、また、あなたが遭遇した問題を迅速に検討し、改善できる担当者にアクセスできるようにすべきである。

プレス...

White House

・2022.10.04 Blueprint for an AI Bill of Rights: A Vision for Protecting Our Civil Rights in the Algorithmic Age

Blueprint for an AI Bill of Rights: A Vision for Protecting Our Civil Rights in the Algorithmic Age AI権利書の青写真。アルゴリズム時代における我々の市民権を守るためのビジョン
The White House Office of Science and Technology Policy (OSTP) is today releasing the Blueprint for an AI Bill of Rights to help guide the design, development, and deployment of artificial intelligence (AI) and other automated systems so that they protect the rights of the American public. ホワイトハウスの科学技術政策室(OSTP)は本日、人工知能(AI)やその他の自動化システムの設計、開発、配備が米国民の権利を保護するよう導くための「AI権利章典のための青写真」を発表する。
These technologies can drive great innovations, like enabling early cancer detection or helping farmers grow food more efficiently. But in the United States and abroad, people are increasingly being surveilled or ranked by automated systems in their workplaces and in their schools, in housing and banking, in healthcare and the legal system, and beyond. Algorithms used across many sectors are plagued by bias and discrimination, and too often developed with without regard to their real-world consequences and without the input of the people who will have to live with their results. これらの技術は、がんの早期発見を可能にしたり、農家がより効率的に食料を栽培できるようにしたりと、素晴らしいイノベーションを推進することができる。しかし、米国や海外では、職場や学校、住宅や銀行、医療や法制度などにおいて、人々が自動化されたシステムによって監視されたり、順位付けされたりすることが増えている。多くの分野で使用されているアルゴリズムは、偏見や差別に悩まされており、現実世界での影響を考慮せず、その結果と共に生きなければならない人々の意見を聞かずに開発されることがあまりに多い。
These problems, which have expanded dramatically over the past decade, are threatening the rights of millions and hurting people in historically marginalized communities. 過去10年間に劇的に拡大したこれらの問題は、何百万人もの人々の権利を脅かし、歴史的に疎外されたコミュニティの人々を傷つけている。
That’s why today we’re laying out five common sense protections to which everyone in America should be entitled: だからこそ今日、我々はアメリカのすべての人が権利を有するべき、5つの常識的な保護策を提示する。
Safe and Effective Systems: You should be protected from unsafe or ineffective systems. 安全で効果的なシステム:安全で効果的なシステム:安全でない、あるいは効果的でないシステムから保護されるべきである。
Algorithmic Discrimination Protections: You should not face discrimination by algorithms and systems should be used and designed in an equitable way. アルゴリズムによる差別に対する保護:アルゴリズムによる差別に直面してはいけない。また、システムは公平な方法で使用、設計されるべきである。
Data Privacy: You should be protected from abusive data practices via built-in protections and you should have agency over how data about you is used. データプライバシー:ユーザーは、組み込みの保護機能によって乱用的なデータ処理から保護されるべきであり、ユーザーに関するデータがどのように使用されるかについて代理権を持つ必要がある。
Notice and Explanation: You should know when an automated system is being used and understand how and why it contributes to outcomes that impact you. 通知と説明:自動化されたシステムがいつ使用されているかを知り、それが自分に影響を与える結果にどのように、そしてなぜ寄与しているかを理解する必要がある。
Human Alternatives, Consideration, and Fallback: You should be able to opt out, where appropriate, and have access to a person who can quickly consider and remedy problems you encounter. 人的代替手段、配慮、およびフォールバック:適切な場合にはオプトアウトが可能であるべきであり、また、あなたが遭遇した問題を迅速に検討し、改善できる担当者にアクセスできるようにすべきである。
We have been guided in this effort by a set of pressing questions: What could it look like for industry developers and academic researchers to think about equity at the start of a design process, and not only after issues of discrimination emerged downstream? What kind of society could we have if all innovation began with ethical forethought? How do we ensure that the guardrails to which we are entitled in our day-to-day lives carry over into our digital lives? 我々は、この取り組みにおいて、一連の緊急の質問を指針としてきた。産業界の開発者や学術研究者が、差別問題が表面化した後ではなく、設計の初期段階から公平性について考えるようになったら、どのような姿になるだろうか?もし、すべての技術革新が倫理的な先見性を持って始まったとしたら、我々はどのような社会を実現できるだろうか?我々が日常生活で享受しているガードレールを、デジタルライフにも適用するにはどうしたらよいのだろうか?
The Blueprint for an AI Bill of Rights begins to answer these questions. It offers a vision for a society where protections are embedded from the beginning, where marginalized communities have a voice in the development process, and designers work hard to ensure the benefits of technology reach all people. 「AI権利章典のための青写真」は、このような問いに答えるために始まりまった。保護が最初から組み込まれ、疎外されたコミュニティが開発プロセスにおいて発言権を持ち、設計者が技術の恩恵をすべての人に届けるために努力するような社会のビジョンを提示するものである。
More than a set of principles, this is a blueprint to empower people, companies, and policymakers across the United States and meet President Biden’s call to hold big technology accountable, protect the civil rights of Americans, and ensure technology is working for the American people. これは単なる原則ではなく、全米の人々、企業、政策立案者に力を与え、大きな技術に責任を持たせ、アメリカ人の公民権を保護し、技術がアメリカ人のために働くことを確実にするというバイデン大統領の要請に応えるための青写真なのである。
We led a year-long process to develop this framework, diving deeply into how people across the country are affected by these systems. People from many backgrounds offered input through panel discussions, public listening sessions, meetings, a formal request for information, and other outreach formats. 我々は、全米の人々がこれらのシステムからどのような影響を受けているかを深く掘り下げ、このフレームワークを開発するために1年にわたるプロセスを主導した。パネルディスカッション、公聴会、会議、正式な情報提供の要請、その他のアウトリーチ形式を通じて、さまざまな背景を持つ人々から意見をいただいた。
We heard from hundreds of people: workers and high school students, business associations and scholarly associations, software engineers and researchers, civil society organization and community activists, CEOs and entrepreneurs, public servants across federal agencies, and members of the international community who spoke up about both the promises and potential harms of these technologies. 労働者や高校生、企業団体や学術団体、ソフトウェア技術者や研究者、市民団体や地域活動家、CEOや起業家、連邦政府機関の公務員、国際社会のメンバーなど、何百人もの人々から、これらの技術の約束と潜在的な害悪について意見を聞くことができたのである。
Nearly every person who spoke up shared a profound eagerness for clear federal leadership and guidelines to protect the public. This framework is an answer to those calls—and a response to the urgent threats posed to the American public by unchecked automated systems. 発言したほぼすべての人が、国民を保護するための明確な連邦政府のリーダーシップとガイドラインを強く望んでいることを共有している。このフレームワークは、そのような声に応えるものであり、抑制されていない自動化システムが米国民にもたらす緊急の脅威への対応策でもある。
This blueprint is for the older Americans denied critical health benefits because of an algorithm change. The student erroneously accused of cheating by AI-enabled video surveillance. The fathers wrongfully arrested because of facial recognition technology. The Black Americans blocked from a kidney transplant after an AI assumed they were at lesser risk for kidney disease. It is for everyone who interacts daily with these technologies—and every person whose life has been altered by an unaccountable algorithm. この青写真は、アルゴリズムの変更のために重要な医療給付を拒否された高齢のアメリカ人のためのものである。AIを搭載したビデオ監視システムによって、誤ってカンニングを疑われた学生。顔認識技術によって不当に逮捕された父親たち。AIによって腎臓病のリスクが低いと判断され、腎臓移植を断念させられたアメリカ黒人。これらの技術に日々接しているすべての人のために、そして、説明のつかないアルゴリズムによって人生を変えられてしまったすべての人のために、この青写真はある。
The work of bringing these protections to life starts with leading by example—beginning with the U.S. government’s own policies and practices. That’s why today, the Biden-Harris Administration announced a slate of actions across the federal government aligned with the Blueprint for an AI Bill of Rights to protect and support the American people. These commitments are only a down payment on these principles; they mark the start of a long-term process to bring transformative change to the way the U.S. government designs, uses, and regulates automated systems. これらの保護を実現するための作業は、米国政府自身の政策と実践を始めとする、模範を示すことから始まる。だからこそ、バイデン=ハリス政権は本日、米国民を保護し支援するための「AI権利章典」の青写真に沿った、連邦政府全体の一連の行動を発表したのである。これらのコミットメントは、これらの原則の頭金に過ぎず、米国政府が自動化システムを設計、使用、規制する方法に変革をもたらしていくための長期プロセスの始まりを意味している。
Now, we’re rallying leaders across all sectors—policymakers, industry, and communities—to meet this urgent call, and commit to bold action to build a fairer, safer, and more just tech future. The Blueprint for an AI Bill of Rights includes a technical companion which provides examples and concrete steps for communities, industry, governments, and others to take in order to build these key protections into policy, practice, or the technological design process. 今、我々は、政策立案者、産業界、コミュニティなど、あらゆる分野のリーダーを集め、この緊急の呼びかけに応え、より公平で安全、そしてより公正な技術の未来を築くための大胆な行動にコミットしているのである。「AI権利章典のための青写真」には、コミュニティ、産業界、政府などが、政策、実践、技術設計プロセスにこれらの重要な保護を組み込むために取るべき例と具体的なステップを示す技術的な付属文書が含まれている。
The Blueprint for an AI Bill of Rights is designed to be used by people across American society: 「AI権利章典のための青写真」は、米国社会全体で利用できるように設計されている。
Project managers leading the development of new AI products can use the framework as a checklist and incorporate safeguards into the design process. 新しいAI製品の開発を率いるプロジェクトマネージャーは、このフレームワークをチェックリストとして使用し、設計プロセスにセーフガードを組み込むことができる。
Policymakers can codify these measures into law or use the framework and its technical companion to help develop specific guidance on the use of automated systems within a sector. 政策立案者は、これらの措置を法律として成文化したり、このフレームワークとその技術的支柱を利用して、ある分野における自動化システムの使用に関する具体的なガイダンスを策定することができる。
Parents can use the framework as a set of questions to ask school administrators about what protections exist for their children. 保護者は、このフレームワークを、自分の子どもたちのためにどのような保護がなされているかを学校の管理者に尋ねるための一連の質問として利用することができる。
Workers can use the framework to advocate for better workplace conditions. 労働者は、このフレームワークを利用して、より良い職場環境を求めることができる。
Doctors, patients, and healthcare advocates can ask questions about what safeguards from the framework are in place in the automated systems used in healthcare settings. 医師、患者、医療従事者は、医療現場で使用されている自動化されたシステムに、このフレームワークのどのような保護措置が講じられているかを質問することができる。
All of us have a role to play to ensure that innovation is rooted in inclusion, integrity, and our common humanity. Let us know how you are using the Blueprint for an AI Bill of Rights by writing to [address]. 我々は皆、イノベーションがインクルージョン、インテグリティ、そして我々の共通の人間性に根ざしたものであることを保証するために、果たすべき役割を担っているのである。AI権利条約のためのブループリントをどのように活用しているか、[address] まで知らせること。
With the Blueprint for an AI Bill of Rights, the Biden-Harris Administration is charting the course toward making automated systems work for all of us. We look forward to forging this path alongside the American people. バイデン=ハリス政権は、「AI権利章典のためのブループリント」によって、自動化されたシステムを我々全員のために機能させるための道筋を示そうとしている。我々は、米国人と共にこの道を切り開くことを楽しみにしている。

 

ウェブページ

Blueprint for an AI Bill of Rights

Blueprint for an AI Bill of Rights AI権利章典のための青写真
MAKING AUTOMATED SYSTEMS WORK FOR THE AMERICAN PEOPLE 自動化システムをアメリカ国民のために活用する
BLUEPRINT FOR AN AI BILL OF RIGHTS AI権利条約の青写真
What is the Blueprint for an AI Bill of Rights? AI権利章典とは?
Applying the Blueprint for an AI Bill of Rights AI権利章典の適用について
Relationship to Existing Law and Policy 既存の法律や政策との関係
Definitions 定義
From Principles to Practice 原則から実践へ
+ Safe and Effective Systems ・安全で効果的なシステム
+ Algorithmic Discrimination Protections ・アルゴリズムによる差別に対する保護
+ Data Privacy ・データプライバシー
+ Notice and Explanation ・通知と説明
+ Human Alternatives, Consideration, and Fallback ・人的代替手段、配慮、およびフォールバック
Examples of Automated Systems 自動化システムの例
Listening to the American People アメリカの人々の声に耳を傾ける
About this Document この文書について
Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent. 今日の民主主義に突きつけられた大きな課題の中に、米国民の権利を脅かすような形で技術、データ、自動化システムが使用されていることがある。これらのツールは、我々の機会を制限し、重要な資源やサービスへのアクセスを妨げるために使われることがあまりにも多い。これらの問題は、よく知られている。アメリカでも世界でも、患者の治療に役立つはずのシステムが、安全でないこと、効果がないこと、あるいは偏ったものであることが証明されている。雇用や信用に関する判断に使われるアルゴリズムが、既存の望ましくない不公平を反映・再現したり、新たな有害な偏見や差別を埋め込んだりしていることが判明している。ソーシャルメディアにおける無制限のデータ収集は、人々の機会を脅かし、プライバシーを損ない、多くの場合、本人の認識や同意なしに人々の活動を広く追跡するために利用されている。
These outcomes are deeply harmful—but they are not inevitable. Automated systems have brought about extraordinary benefits, from technology that helps farmers grow food more efficiently and computers that predict storm paths, to algorithms that can identify diseases in patients. These tools now drive important decisions across sectors, while data is helping to revolutionize global industries. Fueled by the power of American innovation, these tools hold the potential to redefine every part of our society and make life better for everyone. このような結果は非常に有害であるが、決して避けられないものではない。自動化されたシステムは、農家の食糧生産を効率化する技術や嵐の進路を予測するコンピュータ、患者の病気を特定するアルゴリズムなど、並外れた利益をもたらしてきた。これらのツールは今やあらゆる分野の重要な意思決定を促し、データは世界の産業の革新に役立っている。アメリカのイノベーションの力によってもたらされたこれらのツールは、社会のあらゆる部分を再定義し、すべての人の生活をより良いものにする可能性を持っている。
This important progress must not come at the price of civil rights or democratic values, foundational American principles that President Biden has affirmed as a cornerstone of his Administration. On his first day in office, the President ordered the full Federal government to work to root out inequity, embed fairness in decision-making processes, and affirmatively advance civil rights, equal opportunity, and racial justice in America.[i] The President has spoken forcefully about the urgent challenges posed to democracy today and has regularly called on people of conscience to act to preserve civil rights—including the right to privacy, which he has called “the basis for so many more rights that we have come to take for granted that are ingrained in the fabric of this country.”[ii] この重要な進歩は、バイデン大統領が政権の礎としている米国の基本原則である公民権や民主的価値観と引き換えになるものであってはならない。大統領は就任初日に、連邦政府全体に対して、不公平をなくし、意思決定プロセスに公正さを埋め込み、米国における公民権、機会均等、人種的正義を積極的に推進するよう命じた[i]。大統領は、今日の民主主義に突き付けられた緊急課題について力強く語り、良心ある人々に対して、「この国の構造に染み付いた、我々が当然視するようになっている非常に多くの権利の基礎」と呼ぶプライバシー権を含む市民権を守るために行動するよう定期的に呼びかけている[ii]。
To advance President Biden’s vision, the White House Office of Science and Technology Policy has identified five principles that should guide the design, use, and deployment of automated systems to protect the American public in the age of artificial intelligence. The Blueprint for an AI Bill of Rights is a guide for a society that protects all people from these threats—and uses technologies in ways that reinforce our highest values. Responding to the experiences of the American public, and informed by insights from researchers, technologists, advocates, journalists, and policymakers, this framework is accompanied by From Principles to Practice—a handbook for anyone seeking to incorporate these protections into policy and practice, including detailed steps toward actualizing these principles in the technological design process. These principles help provide guidance whenever automated systems can meaningfully impact the public’s rights, opportunities, or access to critical needs. バイデン大統領のビジョンを推進するため、ホワイトハウスの科学技術政策局は、人工知能の時代に米国民を保護するための自動化システムの設計、使用、展開の指針となるべき5つの原則を明らかにした。「AI権利章の青写真」は、こうした脅威からすべての人々を守り、我々の最高の価値を強化する方法で技術を活用する社会のための指針である。このフレームワークは、米国民の経験に応え、研究者、技術者、擁護者、ジャーナリスト、政策立案者の洞察に基づき、「原則から実践へ」という、これらの保護を政策と実践に取り入れようとする人のためのハンドブックが付属しており、技術設計プロセスにおいてこれらの原則を実現するための詳細な手順が含まれている。これらの原則は、自動化されたシステムが一般市民の権利、機会、重要なニーズへのアクセスに重大な影響を与える可能性がある場合に、ガイダンスを提供するために役立つ。
・Safe and Effective Systems ・安全で効果的なシステム
・Algorithmic Discrimination Protections ・アルゴリズムによる差別に対する保護
・Data Privacy ・データプライバシー
・Notice and Explanation ・通知と説明
・Human Alternatives, Consideration, and Fallback ・人的代替手段、配慮、およびフォールバック
Applying the Blueprint for an AI Bill of Rights 「AI権利条約の青写真」を適用する
Download the Blueprint for an AI Bill of Rights AI権利条約の青写真をダウンロードする
Safe and Effective Systems 安全で効果的なシステム
You should be protected from unsafe or ineffective systems. Automated systems should be developed with consultation from diverse communities, stakeholders, and domain experts to identify concerns, risks, and potential impacts of the system. Systems should undergo pre-deployment testing, risk identification and mitigation, and ongoing monitoring that demonstrate they are safe and effective based on their intended use, mitigation of unsafe outcomes including those beyond the intended use, and adherence to domain-specific standards. Outcomes of these protective measures should include the possibility of not deploying the system or removing a system from use. Automated systems should not be designed with an intent or reasonably foreseeable possibility of endangering your safety or the safety of your community. They should be designed to proactively protect you from harms stemming from unintended, yet foreseeable, uses or impacts of automated systems. You should be protected from inappropriate or irrelevant data use in the design, development, and deployment of automated systems, and from the compounded harm of its reuse. Independent evaluation and reporting that confirms that the system is safe and effective, including reporting of steps taken to mitigate potential harms, should be performed and the results made public whenever possible. 安全でない、または効果のないシステムから保護されるべきである。 自動化されたシステムは、懸念事項、リスク、およびシステムの潜在的な影響を特定するために、多様なコミュニティ、利害関係者、および分野の専門家から相談を受けて開発されるべきである。システムは、展開前のテスト、リスクの特定と軽減、意図された用途に基づく安全性と有効性、意図された用途を超えたものを含む安全でない結果の軽減、およびドメイン固有の標準の遵守を実証する継続的なモニタリングを受ける必要がある。これらの保護措置の結果には、システムを配備しない、またはシステムを使用から削除する可能性が含まれるべきである。自動化システムは、あなたやあなたのコミュニティの安全を脅かす意図や合理的に予見可能な可能性をもって設計されるべきではない。自動化システムの意図しない、しかし予見可能な使用や影響に起因する損害から、あなたを積極的に保護するように設計されるべきである。自動化システムの設計、開発、配備における不適切または無関係なデータの使用、およびその再利用による複合的な被害から保護されるべきである。システムが安全かつ効果的であることを確認する独立した評価と報告(潜在的な害を軽減するためにとられた措置の報告を含む)を行い、可能な限りその結果を公表すべきである。
From Principles to Practice: Safe and Effective Systems 原則から実践へ。 安全で効果的なシステム
Algorithmic Discrimination Protections アルゴリズムによる差別に対する保護
You should not face discrimination by algorithms and systems should be used and designed in an equitable way. Algorithmic discrimination occurs when automated systems contribute to unjustified different treatment or impacts disfavoring people based on their race, color, ethnicity, sex (including pregnancy, childbirth, and related medical conditions, gender identity, intersex status, and sexual orientation), religion, age, national origin, disability, veteran status, genetic information, or any other classification protected by law. Depending on the specific circumstances, such algorithmic discrimination may violate legal protections. Designers, developers, and deployers of automated systems should take proactive and continuous measures to protect individuals and communities from algorithmic discrimination and to use and design systems in an equitable way. This protection should include proactive equity assessments as part of the system design, use of representative data and protection against proxies for demographic features, ensuring accessibility for people with disabilities in design and development, pre-deployment and ongoing disparity testing and mitigation, and clear organizational oversight. Independent evaluation and plain language reporting in the form of an algorithmic impact assessment, including disparity testing results and mitigation information, should be performed and made public whenever possible to confirm these protections. アルゴリズムによる差別に直面してはならず、システムは公平な方法で使用され、設計されなければならない。 アルゴリズムによる差別は、自動化されたシステムが、人種、肌の色、民族、性別(妊娠・出産・関連する健康状態、性自認、性差、性的指向を含む)、宗教、年齢、国籍、障害、退役軍人、遺伝情報、または法律で保護されているその他の分類に基づいて人々を不当に異なる扱いや影響を与えることに貢献する場合に発生する。具体的な状況によっては、このようなアルゴリズムによる差別は法的保護に違反する可能性がある.自動化システムの設計者、開発者、配備者は、アルゴリズムによる差別から個人とコミュニティを保護し、公平な方法でシステムを使用・設計するために、積極的かつ継続的な措置を講じる必要がある.この保護には、システム設計の一環としての積極的な公平性評価、代表的なデータの使用と人口統計的特徴のプロキシに対する保護、設計と開発における障害者のアクセシビリティの確保、配備前および継続中の格差テストと緩和、明確な組織の監視が含まれる必要がある.これらの保護を確認するために、格差テストの結果や緩和情報を含むアルゴリズムの影響評価という形で、独立した評価と平易な報告を実施し、可能な限り公開する必要がある。
From Principles to Practice: Algorithmic Discrimination Protections 原則から実践へ アルゴリズムによる差別に対する保護
Data Privacy データプライバシー
You should be protected from abusive data practices via built-in protections and you should have agency over how data about you is used. You should be protected from violations of privacy through design choices that ensure such protections are included by default, including ensuring that data collection conforms to reasonable expectations and that only data strictly necessary for the specific context is collected. Designers, developers, and deployers of automated systems should seek your permission and respect your decisions regarding collection, use, access, transfer, and deletion of your data in appropriate ways and to the greatest extent possible; where not possible, alternative privacy by design safeguards should be used. Systems should not employ user experience and design decisions that obfuscate user choice or burden users with defaults that are privacy invasive. Consent should only be used to justify collection of data in cases where it can be appropriately and meaningfully given. Any consent requests should be brief, be understandable in plain language, and give you agency over data collection and the specific context of use; current hard-to-understand notice-and-choice practices for broad uses of data should be changed. Enhanced protections and restrictions for data and inferences related to sensitive domains, including health, work, education, criminal justice, and finance, and for data pertaining to youth should put you first. In sensitive domains, your data and related inferences should only be used for necessary functions, and you should be protected by ethical review and use prohibitions. You and your communities should be free from unchecked surveillance; surveillance technologies should be subject to heightened oversight that includes at least pre-deployment assessment of their potential harms and scope limits to protect privacy and civil liberties. Continuous surveillance and monitoring should not be used in education, work, housing, or in other contexts where the use of such surveillance technologies is likely to limit rights, opportunities, or access. Whenever possible, you should have access to reporting that confirms your data decisions have been respected and provides an assessment of the potential impact of surveillance technologies on your rights, opportunities, or access. ユーザーは、組み込みの保護機能によって不正なデータ処理から保護されるべきであり、自分に関するデータがどのように使用されるかを管理する権限を持つべきである。 データ収集が合理的な期待に沿うものであること、特定の状況に厳密に必要なデータのみが収集されることなど、そのような保護がデフォルトで含まれるような設計上の選択によって、プライバシー侵害から保護されるべきである。自動化されたシステムの設計者、開発者、および配備者は、適切な方法で、かつ可能な限りお客様のデータの収集、使用、アクセス、転送、および削除に関するお客様の決定を尊重し、お客様の許可を求めるべきである。システムは、ユーザーの選択を難しくしたり、プライバシーを侵害するようなデフォルト値をユーザーに負担させたりするようなユーザー体験や設計上の決定を採用してはならない。同意は、適切かつ有意義に与えられる場合にのみ、データ収集を正当化するために使用されるべきである。同意の要請は簡潔で、平易な言葉で理解でき、データ収集と使用の特定の状況について代理権を与えるべきである。データの広範な使用に関する現在の理解しがたい通知と選択の慣行は変更されるべきである。健康、仕事、教育、刑事司法、金融などのセンシティブな領域に関連するデータや推論、そして青少年に関連するデータに対する保護と制限を強化し、あなたを第一に考えるべきである。センシティブな領域では、あなたのデータや関連する推論は必要な機能にのみ使用されるべきであり、あなたは倫理的審査や使用禁止によって保護されるべきである。監視技術は、少なくともプライバシーと市民の自由を守るために、潜在的な害悪と範囲制限の配備前評価を含む、高度な監視の対象となるべきである。継続的な監視とモニタリングは、教育、仕事、住宅、またはそのような監視技術の使用が権利、機会、アクセスを制限する可能性があるその他の文脈で使用されるべきではない。可能な限り、あなたのデータに関する決定が尊重されていることを確認し、監視技術があなたの権利、機会、またはアクセスに及ぼす潜在的な影響の評価を提供する報告書にアクセスできるようにすべきである。
From Principles to Practice: Data Privacy 原則から実践へ。 データプライバシー
Notice and Explanation 通知と説明
You should know that an automated system is being used and understand how and why it contributes to outcomes that impact you. Designers, developers, and deployers of automated systems should provide generally accessible plain language documentation including clear descriptions of the overall system functioning and the role automation plays, notice that such systems are in use, the individual or organization responsible for the system, and explanations of outcomes that are clear, timely, and accessible. Such notice should be kept up-to-date and people impacted by the system should be notified of significant use case or key functionality changes. You should know how and why an outcome impacting you was determined by an automated system, including when the automated system is not the sole input determining the outcome. Automated systems should provide explanations that are technically valid, meaningful and useful to you and to any operators or others who need to understand the system, and calibrated to the level of risk based on the context. Reporting that includes summary information about these automated systems in plain language and assessments of the clarity and quality of the notice and explanations should be made public whenever possible. 自動化されたシステムが使用されていることを知り、それがあなたに影響を与える結果にどのように、そしてなぜ寄与しているのかを理解する必要がある。 自動化システムの設計者、開発者、および配備者は、システム全体の機能と自動化が果たす役割の明確な説明、そのようなシステムが使用されていることの通知、システムに責任を負う個人または組織、および明確でタイムリー、かつアクセスしやすい結果の説明を含む一般的にアクセスしやすい平易な文書を提供しなければならない。このような通知は最新の状態に保つべきであり、重要なユースケースや主要機能の変更については、システムの影響を受ける人々に通知する必要がある。自分に影響を与える結果が、自動化されたシステムによってどのように、そしてなぜ決定されたのかを知るべきである(自動化されたシステムが結果を決定する唯一の入力でない場合を含む)。自動化システムは、技術的に有効で、あなた及びシステムを理解する必要のあるオペレーター等にとって有意義かつ有用であり、文脈に基づくリスクレベルに適合した説明を提供する必要がある。これらの自動化システムに関する要約情報を平易な言葉で記載した報告書、および通知と説明の明確さと質の評価を可能な限り公開すべきである。
From Principles to Practice: Notice and Explanation 原則から実践へ。 通知と説明
Human Alternatives, Consideration, and Fallback 人的代替手段、配慮、およびフォールバック
You should be able to opt out, where appropriate, and have access to a person who can quickly consider and remedy problems you encounter. You should be able to opt out from automated systems in favor of a human alternative, where appropriate. Appropriateness should be determined based on reasonable expectations in a given context and with a focus on ensuring broad accessibility and protecting the public from especially harmful impacts. In some cases, a human or other alternative may be required by law. You should have access to timely human consideration and remedy by a fallback and escalation process if an automated system fails, it produces an error, or you would like to appeal or contest its impacts on you. Human consideration and fallback should be accessible, equitable, effective, maintained, accompanied by appropriate operator training, and should not impose an unreasonable burden on the public. Automated systems with an intended use within sensitive domains, including, but not limited to, criminal justice, employment, education, and health, should additionally be tailored to the purpose, provide meaningful access for oversight, include training for any people interacting with the system, and incorporate human consideration for adverse or high-risk decisions. Reporting that includes a description of these human governance processes and assessment of their timeliness, accessibility, outcomes, and effectiveness should be made public whenever possible. あなたは、適切な場合にはオプトアウトすることができ、あなたが遭遇した問題を迅速に検討し、改善することができる人にアクセスすることができるべきである。 適切な場合には、自動化されたシステムからオプトアウトし、人間による代替手段を選択することができるべきである。適切性は、与えられた状況における合理的な期待に基づき、幅広いアクセス性を確保し、特に有害な影響から一般市民を保護することに重点を置いて決定されるべきである。場合によっては、人間または他の代替案が法律で義務付けられていることもある。自動化されたシステムが失敗した場合、エラーが発生した場合、またはその影響について訴えたり異議を唱えたりしたい場合には、フォールバックおよびエスカレーションプロセスにより、タイムリーに人間による検討と救済を受けることができるようにすべきである。人間による配慮とフォールバックは、アクセス可能で、公平で、効果的で、維持され、適切なオペレータの訓練を伴うべきであり、公衆に不合理な負担を課してはならない。刑事司法、雇用、教育、健康など、機密性の高い領域での使用を意図した自動化システムは、さらに、目的に合わせ、監督のための有意義なアクセスを提供し、システムに関わるすべての人のための訓練を含み、有害または高リスクの決定に対する人間の配慮を取り入れるべきである。これらのヒューマンガバナンスプロセスの説明と、その適時性、アクセス性、成果、および有効性の評価を含む報告は、可能な限り公開されるべきである。
From Principles to Practice: Human Alternatives, Consideration, and Fallback 原則から実践へ。 人間の代替案、検討、およびフォールバック
Applying the Blueprint for an AI Bill of Rights AI権利章典のための青写真の適用
While many of the concerns addressed in this framework derive from the use of AI, the technical capabilities and specific definitions of such systems change with the speed of innovation, and the potential harms of their use occur even with less technologically sophisticated tools. このフレームワークで扱う懸念の多くはAIの使用に由来するものであるが、そのようなシステムの技術的能力と具体的定義は技術革新のスピードとともに変化し、技術的に洗練されていないツールであっても、その使用による潜在的被害は発生する。
Thus, this framework uses a two-part test to determine what systems are in scope. This framework applies to (1) automated systems that (2) have the potential to meaningfully impact the American public’s rights, opportunities, or access to critical resources or services. These Rights, opportunities, and access to critical resources of services should be enjoyed equally and be fully protected, regardless of the changing role that automated systems may play in our lives. そこで、本フレームワークでは、どのようなシステムが対象となるかを2つのテストにより判断している。 この枠組みは、(2) 米国民の権利、機会、または重要な資源やサービスへのアクセスに重大な影響を与える可能性がある(1)自動化システムに適用される。 これらの権利、機会、重要な資源やサービスへのアクセスは、自動化システムが我々の生活において果たす役割が変化しようとも、平等に享受され、完全に保護されるべきものである。
This framework describes protections that should be applied with respect to all automated systems that have the potential to meaningfully impact individuals’ or communities’ exercise of: この枠組みは、個人またはコミュニティの以下の権利行使に重大な影響を与える可能性のあるすべての自動化システムに関して適用されるべき保護を記述している。
Rights, Opportunities, or Access 権利、機会、またはアクセス
Civil rights, civil liberties, and privacy, including freedom of speech, voting, and protections from discrimination, excessive punishment, unlawful surveillance, and violations of privacy and other freedoms in both public and private sector contexts; 市民権、市民的自由、プライバシー(言論の自由、投票の自由、差別、過剰な処罰、違法な監視、公共部門と民間部門の両方におけるプライバシーおよびその他の自由の侵害からの保護を含む)。
Equal opportunities, including equitable access to education, housing, credit, employment, and other programs; or, 教育、住宅、クレジット、雇用、その他のプログラムへの公平なアクセスを含む、機会均等、または。
Access to critical resources or services, such as healthcare, financial services, safety, social services, non-deceptive information about goods and services, and government benefits. 医療、金融サービス、安全、社会サービス、商品・サービスに関する欺瞞的でない情報、政府給付など、重要な資源やサービスへのアクセス。
A list of examples of automated systems for which these principles should be considered is provided in the Appendix. The Technical Companion, which follows, offers supportive guidance for any person or entity that creates, deploys, or oversees automated systems. これらの原則を考慮すべき自動化システムの例の一覧は、附属書に記載されている。この後に続く「テクニカルコンパニオン」は、自動化システムを構築、展開、または監督するあらゆる個人または団体に対して、支援となるガイダンスを提供するものである。
Considered together, the five principles and associated practices of the Blueprint for an AI Bill of Rights form an overlapping set of backstops against potential harms. This purposefully overlapping framework, when taken as a whole, forms a blueprint to help protect the public from harm. The measures taken to realize the vision set forward in this framework should be proportionate with the extent and nature of the harm, or risk of harm, to people’s rights, opportunities, and access. AI権利章典」の5つの原則と関連する実践を総合すると、潜在的な被害に対して重なり合ったバックストップを形成することになります。このように意図的に重なり合ったフレームワークは、全体として、国民を被害から守るための青写真を形成している。この枠組みで提示されたビジョンを実現するために取られる措置は、人々の権利、機会、アクセスに対する危害、または危害のリスクの程度と性質に比例したものであるべきである。
[i] The Executive Order On Advancing Racial Equity and Support for Underserved Communities Through the Federal Government.  [i] 人種的平等の推進と連邦政府を通じた恵まれない地域への支援に関する大統領令
[ii] The White House. Remarks by President Biden on the Supreme Court Decision to Overturn Roe v. Wade. Jun. 24, 2022.  [ii] ホワイトハウス:2022.06.24 ロー対ウェイド裁判を覆す最高裁判決に関するバイデン大統領の発言。

 

報告書全文PDF

・[PDF] Blueprint for an AI Bill of Rights

20221007-63103

 

|

« TCFDコンソーシアム:気候関連財務情報開示に関するガイダンス3.0 | Main | 米国 NIST 国際的活動に関する最新情報:CSF2.0アップデートワークショップなど (2022.09.30) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« TCFDコンソーシアム:気候関連財務情報開示に関するガイダンス3.0 | Main | 米国 NIST 国際的活動に関する最新情報:CSF2.0アップデートワークショップなど (2022.09.30) »