« AIが普及すると所得格差はより拡大する?(BIS 人工知能、サービスのグローバル化、所得格差)(2023.10.25) | Main | 米国 ピュー研究所 米国民のプライバシー、AI等に対する意識調査 (2023.10.18) »

2023.11.06

米国の「人工知能の安全、安心、信頼できる開発と利用に関する大統領令」についての 各界からの反応...

こんにちは、丸山満彦です。

2023.10.30に「人工知能の安全、安心、信頼できる開発と利用に関する大統領令」(Factsheet, EO)が発出されましたが、これについての反応...

まぁ、概ね期待する意見ですね。。。

 

議会関係

Homeland Security & Governmental Affairs logo

Senate Committee on Homeland Security Gvoernmental Affairs

・2023.10.31 PETERS STATEMENT ON PRESIDENT BIDEN’S EXECUTIVE ACTIONS ON ARTIFICIAL INTELLIGENCE

PETERS STATEMENT ON PRESIDENT BIDEN’S EXECUTIVE ACTIONS ON ARTIFICIAL INTELLIGENCE バイデン大統領の人工知能に関する行政行動に関するピーターズの声明
WASHINGTON, DC – U.S. Senator Gary Peters (D-MI), Chairman of the Homeland Security and Governmental Affairs Committee, released the following statement after President Joe Biden issued an executive order to establish new standards for use of artificial intelligence (AI): ワシントンDC - 国土安全保障・政府問題委員会委員長のゲーリー・ピーターズ上院議員(民主党)は、ジョー・バイデン大統領が人工知能(AI)利用に関する新たな標準を定める大統領令を発表したことを受け、以下の声明を発表した:
“We need to ensure there are guardrails in place for artificial intelligence to be used safely, ethically, and in a way that protects privacy rights and American jobs. The executive actions the Administration announced today will build on legislation I passed into law to set standards for how the federal government uses artificial intelligence and will help expand those standards to the private sector. It’s critical that we work to help ensure the United States continues to lead the world in artificial intelligence development and its safe and responsible use.” 「我々は、人工知能が安全かつ倫理的に、そしてプライバシーの権利とアメリカの雇用を保護する方法で使用されるためのガードレールを確保する必要がある。本日ガバナンスが発表した行政措置は、連邦政府が人工知能をどのように利用するかの標準を定めるために私が可決し、法律化した法案を基礎とするものであり、そうした標準を民間部門に拡大する一助となる。米国が人工知能の開発とその安全かつ責任ある利用において、世界をリードし続けることを確実にするために、我々が取り組むことは極めて重要だ。
The Executive Order announced today comes after the AI in Government Act, which Peters cosponsored, became law in 2020. That legislation required the Administration to provide resources and guidance to federal agencies on the responsible acquisition and use of AI, advancing AI innovation, and managing AI risks in the federal government. The Executive Order reiterates and expands on the requirements of the AI in Government Act, and tasks the Office of Management and Budget to provide specific guidelines and oversee government use of AI. 本日発表された大統領令は、ピーターズが共同提出したAI in Government Actが2020年に法制化された後のものだ。この法律は、AIの責任ある取得と使用、AIイノベーションの促進、連邦政府におけるAIのリスクマネジメントについて、連邦政府機関にリソースとガイダンスを提供することをガバナンスに求めていた。大統領令は、AI in Government Actの要件を繰り返し、さらに拡大し、行政管理予算局に具体的なガイドラインを提供し、政府によるAIの利用を監督するよう命じている。
In addition, the Executive Order requires federal agencies to make AI training opportunities available. This requirement builds on Peters’ legislation that was signed into law in 2022 to create a training program to help federal employees responsible for purchasing and managing AI capabilities better understand the capabilities and risks of these technologies. Peters has also introduced bipartisan legislation to create an AI training program for federal supervisors and management officials.  さらに大統領令は、連邦政府機関に対してAIのトレーニング機会を提供することを求めている。この要求は、AI能力の購入と管理を担当する連邦政府職員が、これらの技術の能力とリスクをよりよく理解できるようにするための研修プログラムを創設するもので、2022年に署名されたピーターズの法案に基づくものである。ピーターズ氏はまた、連邦政府の監督・管理官を対象としたAI研修プログラムを創設する超党派法案を提出している。
The Executive Order also reiterates the requirements set out in Peters’ Advancing American AI Act­—which was signed into law last year—for federal agencies to protect privacy, civil rights, and civil liberties, among other considerations, when purchasing AI systems, and for agencies to ensure transparency through publication of inventories of the AI systems they are using. The Administration is also requiring federal agencies to appoint a Chief AI Officer and creating an inter-agency AI Council, both requirements that Peters championed through his AI LEAD Act, which passed out of the Homeland Security and Governmental Affairs Committee earlier this year. The Executive Order also highlights the importance of transparency when agencies use automated systems. Peters’ bipartisan Transparent Automated Governance Act would require federal agencies to notify individuals when they are interacting with or subject to decisions made using automated systems, and directs agencies to establish a redress process with human review of AI-generated decisions. 大統領令はまた、昨年署名されたピーターズのAdvancing American AI Actで規定された、連邦政府機関がAIシステムを購入する際にプライバシー、公民権、市民的自由などを保護すること、そして連邦政府機関が使用しているAIシステムのインベントリーを公表することで透明性を確保することを改めて要求している。この2つの要件は、ピーターズ氏が今年初めに国土安全保障・政府問題委員会を通過させた「AI LEAD Act(AIリード法)」を通じて提唱したものである。大統領令はまた、各省庁が自動システムを利用する際の透明性の重要性を強調している。ピーターズ氏の超党派の「透明性のある自動ガバナンス法」は、連邦政府機関に対して、自動システムを使って意思決定が行われた場合、またはその対象となった場合、その旨を個人に通知することを義務付けるもので、AIが生成した意思決定について、人間がレビューする救済プロセスを確立するよう指示している。

 

 

 

 


政府関係...

ホームランドセキュリティ省

U.S. Department of Homeland Security logo

Department of Homeland Security: DHS

・2023.10.30 Statement from Secretary Mayorkas on President Biden’s Executive Order on Artificial Intelligence

 

Statement from Secretary Mayorkas on President Biden’s Executive Order on Artificial Intelligence バイデン大統領の人工知能に関する大統領令に関するマヨルカス長官の声明
Release Date: October 30, 2023 発表日 2023年10月30日
WASHINGTON – Today, Secretary of Homeland Security Alejandro N. Mayorkas released the following statement regarding the Biden-Harris Administration Executive Order on Artificial Intelligence: ワシントン - 本日、アレハンドロ・N・マヨルカス国土安全保障長官は、バイデン-ハリス政権による人工知能に関する大統領令に関して以下の声明を発表した:
“I was proud to join President Biden at the White House today to mark the signing of his Executive Order on Artificial Intelligence (AI). The President has asked the Department of Homeland Security (DHS) to play a critical role in ensuring that AI is used safely and securely. This is a top priority for our Department. 「本日、ホワイトハウスでバイデン大統領とともに、人工知能(AI)に関する大統領令に署名できたことを誇りに思う。大統領は国土安全保障省(DHS)に対し、AIが安全かつ確実に使用されるよう、重要な役割を果たすよう要請した。これは当省の最優先事項である。
“The unprecedented speed of AI’s development and adoption presents significant risks we must quickly mitigate, along with opportunities to advance and improve our work on behalf of the American people. The President’s Executive Order defines a seminal path for the safe and secure use of AI. It directs DHS to manage AI in critical infrastructure and cyberspace, promote the adoption of AI safety standards globally, reduce the risk of AI’s use to create weapons of mass destruction, combat AI-related intellectual property theft, and ensure our immigration system attracts talent to develop responsible AI in the United States. The AI Safety and Security Advisory Board, which I look forward to chairing, will bring together industry experts, leading academics, and government leaders to help guide the responsible development and safe deployment of AI. 「前例のないスピードで進むAIの開発と普及は、米国民のために我々の活動を前進・改善させる機会とともに、我々が速やかに低減しなければならない重大なリスクをもたらしている。大統領令は、AIの安全かつ確実な利用のための重要な道筋を定義している。DHSに対し、重要インフラやサイバー空間におけるAIのマネジメント、世界的なAI安全基準の採用促進、AIが大量破壊兵器を生み出すリスクの低減、AI関連の知的財産の窃盗との闘い、米国で責任あるAIを開発する人材を惹きつける移民制度の確保を指示している。私が議長を務めることを楽しみにしているAI安全・セキュリティ諮問委員会は、業界の専門家、一流の学者、政府のリーダーを集め、AIの責任ある開発と安全な配備を導く手助けをする。
“DHS is already deploying AI responsibly to achieve our missions, and this Executive Order will build on that leadership. In April 2023, I established the Department’s first AI Task Force to drive specific applications of AI and, since then, we have quickly developed guidance on the acquisition and use of AI technology and the responsible use of face recognition technologies. I have also appointed the Department’s first Chief AI Officer to promote these efforts. As we continue this critical work, it will be centered on our commitment and responsibility to protect privacy, civil rights, and civil liberties.” 「国土安全保障省(DHS)はすでに、任務を達成するために責任を持ってAIを導入しており、この大統領令はそのリーダーシップに基づくものだ。2023年4月、私はAIの具体的な応用を推進するため、同省初のAIタスクフォースを設置し、それ以来、AI技術の取得と使用、顔認識技術の責任ある使用に関する指針を迅速に策定してきた。私はまた、こうした取り組みを推進するため、同省初のAI最高責任者を任命した。われわれがこの重要な作業を継続する際には、プライバシー、市民権、市民的自由を保護するというわれわれのコミットメントと責任を中心に据えることになる」。
For more information on the DHS’s use of AI, please visit: www.dhs.gov/ai. In addition, DHS has published a fact sheet on how it is leading the responsible development of AI. DHSのAI活用に関する詳細は、www.dhs.gov/ai。また、DHSはAIの責任ある開発をどのように主導しているかについてのファクトシートを公表している。
### ###

 

 


 

国立科学財団

NSF - National Science Foundation - Home

U.S. National Science Foundation

・2023.10.31 NSF invests $10.9M in the development of safe artificial intelligence technologies

NSF invests $10.9M in the development of safe artificial intelligence technologies NSF、安全な人工知能技術の開発に1,090万ドルを投資
The U.S. National Science Foundation today announced an investment of $10.9 million to support research that will help ensure advances in artificial intelligence go hand in hand with user safety. 米国国立科学財団(NSF)は本日、人工知能の進歩が利用者の安全性と確実に両立するための研究を支援するため、1,090万ドルを投資することを発表した。
The objective of the Safe Learning-Enabled Systems program, a partnership between NSF, Open Philanthropy and Good Ventures, is to foster foundational research that leads to the design and implementation of safe computerized learning-enabled systems — including autonomous and generative AI technologies — that are both safe and resilient. NSF、Open Philanthropy、Good VenturesのパートナーシップによるSafe Learning-Enabled Systemsプログラムの目的は、安全でレジリエンスに優れた、自律的・生成的AI技術を含む安全なコンピュータ学習可能システムの設計と実装につながる基礎研究を促進することである。
"NSF's commitment to studying how we can guarantee the safety of AI systems sends a clear message to the AI research community: We consider safety paramount to the responsible expansion and evolution of AI," said NSF Director Sethuraman Panchanathan. "NSF continues to drive cutting-edge AI research — not only to find opportunities for innovation, but also to improve safety." 「NSFがAIシステムの安全性を保証する方法を研究するというコミットメントは、AI研究コミュニティに明確なメッセージを送るものだ: NSFのセスラマン・パンチャナサン所長は、「我々は、AIの責任ある拡大と進化には安全性が最も重要であると考えている。「NSFは、イノベーションの機会を見つけるだけでなく、安全性を改善するためにも、最先端のAI研究を推進し続ける。
As AI systems rapidly grow in size, acquire new capabilities, and are deployed in high-stakes settings like healthcare, commerce and transportation, the safety of those systems becomes extremely important. These awards represent key NSF investments in AI by designing resilient automated systems with clear and precise end-to-end safety constraints that have been rigorously tested to ensure that unsafe behaviors will not arise when deployed. AIシステムが急速に規模を拡大し、新たな能力を獲得し、医療、商業、輸送などの重要な場面で導入されるにつれ、これらのシステムの安全性は極めて重要になっている。これらの賞は、配備時に危険な挙動が生じないことを確実にするために厳格にテストされた、明確かつ正確なエンドツーエンドの安全制約を持つレジリエンス自動化システムを設計することで、AIに対するNSFの重要な投資を代表するものである。
The following list identifies and summarizes the recipients' projects: 以下のリストは、取得者のプロジェクトを特定し、要約したものである:
・Foundations of Safety-Aware Learning in the WildUniversity of Wisconsin-Madison. ・ウィスコンシン大学マディソン校「Foundations of Safety-Aware Learning in the Wild」。
Researchers will design new safety-aware machine learning algorithms and methodologies that can detect data that are outside of the normal distribution to protect systems that are deployed in the wild in increasingly dynamic and unpredictable environments. 研究者たちは、ますますダイナミックで予測不可能な環境の中で、野生のシステムに配備されるシステムを保護するために、正規分布から外れたデータを検知できる新しい安全認識機械学習アルゴリズムと方法論を設計する。
・Vision-Based Maximally-Symbolic Safety Supervisor with Graceful Degradation and Procedural ValidationPrinceton University. Vision-Based Maximally-Symbolic Safety Supervisor with Graceful Degradation and Procedural Validation、プリンストン大学。
Researchers will work to develop new technology that can continuously monitor the actions of autonomous robotic systems, such as self-driving cars and home robots, and intervene as needed to ensure safety. 自動運転車や家庭用ロボットなどの自律型ロボットシステムの動作を継続的に監視し、必要に応じて介入して安全を確保する新技術の開発に取り組む。
・Safety under Distributional Shift in Learning-Enabled Power Systems, Virginia Tech and University of California, Berkeley. 学習可能な電力システムにおける分配シフト下での安全性、バージニア工科大学およびカリフォルニア大学バークレー校。
Primarily focusing on power systems, researchers will design novel learning-enabled, safety-critical systems, explore systems for cooperative decision-making, and apply rigorous stress testing to ensure the capability of these systems during rare or unexpected events. 主に電力システムに焦点を当て、研究者は、新規の学習可能なセーフティ・クリティカル・システムを設計し、協調的意思決定のためのシステムを探求し、稀な事象や予期せぬ事象が発生した場合に、これらのシステムの能力を確保するための厳格なストレステストを適用する。
・Safe Distributional-Reinforcement Learning-Enabled Systems: Theories, Algorithms, and Experiments, University of MichiganArizona State University and The Ohio State University. 安全な分布強化学習可能システム: 理論、アルゴリズム、実験、ミシガン大学、アリゾナ州立大学、オハイオ州立大学。
Researchers will work towards limiting a major obstacle associated with reinforcement learning techniques — a lack of safety guarantees — by developing foundational technologies for safe learning-enabled systems based on distributional reinforcement learning techniques. 研究者らは、分布型強化学習技術に基づく安全な学習可能システムの基盤技術を開発することにより、強化学習技術に関連する主要な障害である安全性の保証の欠如を制限することに取り組む。
・Specification-guided Perception-enabled Conformal Safe Reinforcement Learning, University of Pennsylvania. 仕様ガイド付き知覚対応適合安全強化学習、ペンシルベニア大学。
This project will bring together researchers with expertise in reinforcement learning, formal methods, theory of machine learning, and robotics to design and implement a reinforcement learning framework with precise mathematical and empirical safety guarantees and constraints. このプロジェクトは、強化学習、形式手法、機械学習理論、ロボット工学の専門知識を持つ研究者を集め、正確な数学的・経験的安全性保証と制約を持つ強化学習フレームワークを設計・実装する。
・A Theoretical Lens on Generative AI Safety: Near and Long Term, Harvard University. 生成的AIの安全性に関する理論的レンズ: ハーバード大学。
Researchers will develop mathematically rigorous AI deployment methods that come with solid theoretical assurances that AI systems will not stray from their intended behavior. This is done by establishing sustainable checks and fail-safes for generative AI technologies like ChatGPT.  研究者は、AIシステムがその意図した行動から外れることがないという確かな理論的保証を伴う、数学的に厳密なAIの展開方法を開発する。これは、ChatGPTのような生成的AI技術に対して、持続可能なチェックとフェイルセーフを確立することによって行われる。
・Guaranteed Tubes for Safe Learning across Autonomy ArchitecturesUniversity of Illinois Urbana-Champaign and University of South Carolina. Guaranteed Tubes for Safe Learning across Autonomy Architectures(イリノイ大学アーバナ・シャンペーン校とサウスカロライナ大学)。
This research will design a novel system, called "Data-enabled Simplex," that lays the groundwork for advancing autonomous learning-enabled systems by allowing them to learn and adapt to unexpected changes and unknown obstacles. この研究では、「データ対応シンプレクス」と呼ばれる新しいシステムを設計し、予期せぬ変化や未知の障害に対して学習・適応できるようにすることで、自律学習対応システムを進歩させるための基礎を築く。
・Bridging offline design and online adaptation in safe learning-enabled systems, University of Pennsylvania and University of California, Berkeley. 安全な学習可能システムにおけるオフライン設計とオンライン適応の橋渡し、ペンシルバニア大学およびカリフォルニア大学バークレー校。
This project is focused on mitigating the uncertainties associated with learning-enabled systems in unknown environments by using novel designs that allow for principled tradeoffs between risks to system safety and active data collection and learning, thus closing the loop between online safety monitoring and offline design. このプロジェクトは、システムの安全性に対するリスクと能動的なデータ収集と学習の間の原則的なトレードオフを可能にする斬新な設計を使用することにより、未知の環境における学習可能システムに関連する不確実性を低減することに焦点を当てている。
・CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardening, University of Virginia. CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardening、バージニア大学。
This project will develop a new framework to stress test existing autonomous vehicle software, helping identify potential software failures. The framework uses rare, but realistic, scenarios that may cause autonomous vehicles to fail, and then enhances the software to ensure failure does not reoccur. このプロジェクトは、既存の自律走行車ソフトウェアをストレステストする新しいフレームワークを開発し、潜在的なソフトウェアの不具合を特定するのに役立てる。このフレームワークは、自律走行車が故障する可能性のある、まれではあるが現実的なシナリオを使用し、故障が再発しないようにソフトウェアを強化する。
・Foundations of Qualitative and Quantitative Safety Assessment of Learning-enabled Systems, University of Nebraska-Lincoln and Augusta University Research Institute. 学習可能システムの定性的・定量的安全性評価の機構、ネブラスカ大学リンカーン校およびオーガスタ大学研究所。
This project aims to build the foundations of end-to-end qualitative and quantitative safety assessments for learning-enabled autonomous systems, allowing for a thorough understanding of safety concerns and enabling effective safety verification in uncertain environments. このプロジェクトは、学習可能な自律システムのエンドツーエンドの定性的・定量的安全性評価の基礎を構築することを目的としており、安全性に関する懸念を徹底的に理解し、不確実な環境における効果的な安全性検証を可能にする。
Verifying and Enforcing Safety Constraints in AI-based Sequential Generation, UCLA and University of Illinois at Urbana-Champaign. AIベースの逐次生成における安全制約の検証と実施、UCLAとイリノイ大学アーバナ・シャンペーン校。
A team of researchers will develop algorithms to assess the safety of AI programs under various scenarios and provide assurance of their behavior under mission-critical situations. This analysis will reduce unexpected AI failures, prevent bias and discrimination in AI technologies, align AI systems with human values and societal norms, and build public trust for AI-enabled applications. 研究者チームは、様々なシナリオ下でのAIプログラムの安全性を評価するアルゴリズムを開発し、ミッションクリティカルな状況下での挙動を保証する。この分析により、予期せぬAIの失敗を減らし、AI技術におけるバイアスや差別を防ぎ、AIシステムを人間の価値観や社会規範に合致させ、AI対応アプリケーションに対する社会的信頼を構築する。

 


FedRAMP.gov

FedRAMP

・202310.31 FedRAMP's Role In The AI Executive Order

FedRAMP's Role In The AI Executive Order AI大統領令におけるFedRAMPの役割
On Monday, October 30, the White House issued an Executive Order (EO) on Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (AI), which will support an array of work across the federal government. To advance the objectives of the AI EO, FedRAMP will establish strategies for authorizing emerging technologies, including cloud-based AI-related products, ensuring agencies have the tools they need to more effectively serve the public. ホワイトハウスは10月30日(月)、連邦政府全体のさまざまな業務を支援する「人工知能(AI)の安全、安心、信頼できる開発と使用に関する大統領令(EO)」を発表した。AI EOの目的を推進するため、FedRAMPはクラウドベースのAI関連製品を含む新技術を認可するための戦略を確立し、各省庁がより効果的に国民にサービスを提供するために必要なツールを確保する。
In collaboration with stakeholders from the commercial and federal space, FedRAMP is conducting an analysis to determine the impact to security controls with the introduction of AI systems into a FedRAMP authorized system boundary. We will also spearhead collaboration with the FedRAMP Board, the Office of Management & Budget, the National Institute of Standards and Technology, and the Federal Secure Cloud Advisory Committee to create and gain consensus on the authorization strategy for emerging technologies. FedRAMPは、民間および連邦政府の関係者と協力して、FedRAMPが認可したシステム境界へのAIシステムの導入に伴うセキュリティ管理への影響を判断するための分析を実施している。また、FedRAMP理事会、行政管理予算局、国立標準技術研究所、連邦セキュア・クラウド諮問委員会との協力の先頭に立ち、新興技術の認可戦略を策定し、コンセンサスを得る。
FedRAMP will communicate the details of the finalized framework through a series of FAQs, blogs, and forums to educate and train the community. FedRAMPは、一連のFAQ、ブログ、フォーラムを通じて、最終化されたフレームワークの詳細を伝え、コミュニティを教育・訓練する。
We look forward to partnering with our stakeholders on this important endeavor as we set the standard for what’s possible through AI and emerging technologies. われわれは、AIと先端技術によって可能なことの標準を設定するために、この重要な取り組みで関係者と協力することを楽しみにしている。

 

 


民間...

米国商工会議所

20231106-44950


・2023.10.30 AI Executive Order Addresses Important Priorities but Needs More Work

AI Executive Order Addresses Important Priorities but Needs More Work AI大統領令は重要な優先事項に取り組んでいるが、さらなる取り組みが必要
Tom Quaadman, Executive Vice President of the U.S. Chamber’s Technology Engagement Center, issued the following statement in response to the Biden Administration’s Executive Order on Artificial Intelligence. 米国商工会議所テクノロジー・エンゲージメント・センターのトム・クワッドマン上級副会頭は、バイデン政権の人工知能に関する大統領令に対し、以下の声明を発表した。
WASHINGTON, D.C. — Tom Quaadman, Executive Vice President of the U.S. Chamber’s Technology Engagement Center, issued the following statement in response to the Biden Administration’s Executive Order on Artificial Intelligence.  ワシントンD.C.-米国商工会議所テクノロジー・エンゲージメント・センターのトム・クオードマン上級副会頭は、バイデン政権の人工知能に関する大統領令を受けて、以下の声明を発表した。
“The United States faces stiff competition from China in AI development. This competition is so fierce that it is unclear which nation will emerge as the global leader, raising significant security concerns for the United States and its allies. It is imperative for the United States to lead the effort to create a risk-based AI regulatory and policy framework that is reinforced by industry standards and promotes the safe and responsible development and use of this transformational technology. The Biden Administration’s AI Executive Order is a step towards achieving that goal, but more work needs to be done. 「米国はAI開発において中国との厳しい競争に直面している。この競争は熾烈を極め、どの国が世界のリーダーになるかは不透明であり、米国とその同盟国に安全保障上の重大な懸念をもたらしている。米国は、業界標準によって強化され、この変革的技術の安全かつ責任ある開発と利用を促進する、リスクに基づくAIの規制と政策の枠組みを構築する努力を主導することが不可欠である。バイデン政権のAI大統領令はその目標達成に向けた一歩であるが、より多くの作業を行う必要がある。
“The Chamber appreciates the priorities outlined in the Executive Order, such as attracting highly skilled workers, bolstering resources needed for intra-government coordination, and speeding up the development of standards. 「商工会議所は、大統領令で示された優先事項、例えば、高度なスキルを持つ労働者の誘致、政府内調整に必要なリソースの強化、標準開発の迅速化などを高く評価している。
“However, substantive and process problems still exist. Short overlapping timelines for agency-required action endangers necessary stakeholder input, thereby creating conditions for ill-informed rulemaking and degrading intra-government cooperation. Finally, agencies such as the FTC and CFPB, should not view this as a license to do as they please—all agencies must continue to act within the limits of their Congressional mandates and abide by the Major Questions Doctrine as articulated by the Supreme Court. 「しかし、実質的な問題やプロセス上の問題は依然として存在している。政府機関が要求する措置のスケジュールが短期間で重複することは、必要な利害関係者の意見を危険にさらすものであり、その結果、情報不足のルール作りの条件を作り出し、政府内の協力を低下させる。最後に、FTCやCFPBのような機関は、これを自分たちの好きなように行動するためのライセンスと見なすべきではない。
“The U.S. Chamber’s Commission on AI Competitiveness, Inclusion, and Innovation and AI Working Group have been at the forefront in providing the federal government a roadmap for achieving an AI regulatory framework that optimizes the benefits of the technology and mitigates its potential risks. We look forward to working with the Administration and Congress to ensure American technological leadership, the safeguarding of America’s national security and values, and the enabling of responsible AI leadership at scale.” 「米国商工会議所のAI競争力、インクルージョン、イノベーションに関する委員会とAI作業部会は、連邦政府に対し、AI技術の利点を最適化し、潜在的リスクを軽減するAI規制の枠組みを実現するためのロードマップを提供する最前線に立ってきた。我々は、米国の技術的リーダーシップを確保し、米国の国家安全保障と価値を守り、責任あるAIのリーダーシップを大規模に可能にするために、政権および議会と協力することを楽しみにしている。

 


 

情報技術産業協会

Information Technology Industry Council

The Information Technology Industry Council: ITI

ITI: AI Executive Order Can Advance Safe and Secure AI With Industry Collaboration ITI:AI大統領令は産業界の協力により安全でセキュアなAIを推進できる
WASHINGTON - Today, global tech trade association ITI issued the following statement from its Executive Vice President of Policy Rob Strayer in response to President Biden’s Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence: ワシントン - 本日、世界的なハイテク業界団体であるITIは、バイデン大統領の「安全、安心、信頼できる人工知能に関する大統領令」に対し、ロブ・ストレイヤー政策担当上級副社長から以下の声明を発表した:
“The tech industry is committed to developing and deploying safe and responsible AI. We appreciate the Biden Administration’s thorough approach in considering how to help this transformative technology flourish while mitigating risk. As we review today’s extensive Executive Order, we are encouraged to see a whole-of-government approach to AI policy, steps to harness innovation, commitments to working with international partners, and a call to pass comprehensive federal privacy legislation to address privacy-related AI risks. 「ハイテク業界は、安全で責任あるAIの開発と導入に取り組んでいる。ハイテク業界は、安全で責任あるAIの開発と導入に尽力している。我々は、リスクを低減しつつ、この革新的なテクノロジーの発展を支援する方法を検討するバイデン政権の徹底したアプローチを高く評価する。本日の広範な大統領令を検討する中で、AI政策への政府全体のアプローチ、イノベーションを活用するためのステップ、国際的なパートナーとの協力へのコミットメント、プライバシー関連のAIリスクに対処するための包括的な連邦プライバシー法成立の呼びかけを目にし、勇気づけられた。
“To successfully implement this significant measure, we urge the administration to work with its global partners and industry to advance a common vision of safe and secure AI, leveraging a risk-based approach to address potential harms while also realizing AI’s incredible potential. Agencies must prioritize appropriate resources for the activities needed to operationalize these new AI policies, while managing an increasingly complex procurement environment without suppressing innovation. ITI looks forward to continuing to work with the administration to implement a policy framework that advances AI in a way that benefits everyone.” 「この重要な措置を成功させるために、我々は政権が世界的なパートナーや産業界と協力し、安全でセキュアなAIの共通ビジョンを推進し、リスクベースのアプローチを活用して潜在的な危害に対処する一方で、AIの驚くべき可能性を実現することを強く求める。各省庁は、イノベーションを抑制することなく、複雑化する調達環境を管理しながら、これらの新しいAI政策の運用に必要な活動に適切な資源を優先的に投入しなければならない。ITIは、すべての人に利益をもたらす方法でAIを発展させる政策枠組みを実施するため、引き続き政権と協力していくことを楽しみにしている。
ITI is actively engaged in AI policy around the world. ITI’s Global Policy Principles for Enabling Transparency of AI Systems underscore that transparency is a critical part of developing accountable and trustworthy AI systems and avoiding unintended outcomes or other harmful impacts. ITI’s comprehensive Global AI Policy Recommendations are a guide for governments around the world as they consider how to approach the establishment of AI policy frameworks, and emphasize the importance of private and public sector collaboration. ITI’s Executive Vice President of Policy Rob Strayer testified before the U.S. Senate for the hearing, The Need for Transparency in Artificial Intelligence outlining how Congress to support a pro-innovation agenda that harnesses AI’s potential and mitigates risk. ITI’s affiliated standards development organization INCITS leads and convenes the U.S. standardization program on AI (ISO/IEC JTC 1/SC 42), which can be a voluntary method for companies to measure, assess, and take steps to ensure its safe and responsible deployment. ITIは世界中でAI政策に積極的に取り組んでいる。ITIの「AIシステムの透明性を実現するためのグローバル政策原則」は、説明責任を果たし信頼できるAIシステムを開発し、意図しない結果やその他の有害な影響を回避するためには、透明性が重要な要素であることを強調している。ITIの包括的な「グローバルAI政策提言」は、世界各国の政府がAI政策の枠組み構築にどのように取り組むべきかを検討する際の指針となるもので、官民協力の重要性を強調している。ITIの政策担当エグゼクティブ・バイス・プレジデントのロブ・ストレイヤーは、米上院の公聴会「人工知能における透明性の必要性」で証言し、AIの潜在能力を活用しリスクを低減するイノベーション促進アジェンダを議会が支援する方法を概説した。ITIの関連標準開発組織であるINCITSは、AIに関する米国の標準化プログラム(ISO/IEC JTC 1/SC 42)を主導し、招集している。

 

ついでに...

・2023.10.31 ITI Welcomes Industry Engagement in UK Global AI Safety Summit and G7 Hiroshima AI Process

・2023.11.01 ITI to Join Majority Leader Schumer’s AI Forum

 

 


 

プライバシー関係...

20231106-45157

Eletronic Privacy Information Center: EPIC

・2023.10.31 White House Publishes Wide-Ranging AI Executive Order

White House Publishes Wide-Ranging AI Executive Order ホワイトハウス、広範なAI大統領令を発表
The Biden-Harris Administration issued an Executive Order entitled “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” that emphasizes the need for regulation of high-risk AI and critically recognizes the link between privacy and AI. バイデン-ハリス政権は、「安全、安心、信頼できる人工知能の開発と利用」と題する大統領令を発表し、リスクの高いAIに対する規制の必要性を強調するとともに、プライバシーとAIの関連性を批判的に認識した。
“EPIC commends the Biden-Harris Administration for this landmark executive action, which calls on agencies throughout the federal government to combat algorithmic discrimination and establish human rights safeguards around AI,” said EPIC Executive Director Alan Butler. “EPIC looks forward to working with federal agencies to carry out the Executive Order and ensure that artificial intelligence systems reflect our fundamental values and serve the public interest.” 「EPICは、バイデン-ハリス政府によるこの画期的な行政措置を称賛する。この行政措置は、連邦政府全体に対し、アルゴリズムによる差別と闘い、AIをめぐる人権保障措置を確立するよう求めるものである」とEPICのアラン・バトラー事務局長は述べた。「EPICは、大統領令を実行し、人工知能システムが我々の基本的価値観を反映し、公共の利益に資することを確実にするために、連邦政府機関と協力することを楽しみにしている。
Notably, the order requires the developers of the most powerful AI systems to share their safety test results with the government, promises federal support for development and agencies use of privacy-preserving techniques, requires an evaluation of how agencies collect and use commercially available data (including from data brokers), and requires increased training on how to investigate and prosecute civil rights violations related to AI. 注目すべきは、この大統領令は、最も強力なAIシステムの開発者に対し、その安全性テスト結果を政府と共有することを要求し、プライバシー保護技術の開発と政府機関の利用に対する連邦政府の支援を約束し、政府機関が(データブローカーからのものも含め)商業的に入手可能なデータを収集し利用する方法の評価を要求し、AIに関連する公民権侵害を調査し起訴する方法に関するトレーニングの強化を要求していることだ。
The order tasks agencies with a number of responsibilities that will lead to standards from the National Institute of Standards and Technology to layout responsible AI testing frameworks and guidance for content authentication and watermarking. この命令は、国立標準技術研究所が責任あるAIのテストフレームワークや、コンテンツ認証と電子透かしに関するガイダンスを策定するための標準につながる、多くの責任を機構に課している。
For government use of AI, the EO requires the development of guidance for agency use of AI and a faster and more efficient process for agencies to procure AI products and services. The directive also calls for the rapid hiring of AI professionals and the training of employees at all levels. The content of a forthcoming Office of Management and Budget memo will dictate the details of how government AI use will change. 政府によるAIの利用については、EOは、政府機関によるAI利用のためのガイダンスの策定と、政府機関によるAI製品やサービスの調達プロセスの迅速化・効率化を求めている。この指令はまた、AIの専門家を迅速に雇用し、あらゆるレベルの職員を訓練することも求めている。今後発表される行政管理予算局のメモの内容によって、政府のAI利用がどのように変化するのかの詳細が決まるだろう。
EPIC has long advocated for comprehensive privacy protections, rigorous testing protocols, expanded resources for evaluation of AI systems, and a government-whole effort to fighting algorithmic discrimination. EPICは以前から、包括的なプライバシー保護、厳格なテストプロトコル、AIシステム評価のためのリソース拡大、アルゴリズムによる差別と闘う政府全体の取り組みを提唱してきた。

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.11.02 英国 AI安全サミット出席国によるブレッチリー宣言

・2023.10.31 外務省 G7 広島AIプロセスに関するG7首脳声明

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

・2023.10.30 中国 グローバルAIガバナンス・イニシアティブ (2023.10.19)

 

|

« AIが普及すると所得格差はより拡大する?(BIS 人工知能、サービスのグローバル化、所得格差)(2023.10.25) | Main | 米国 ピュー研究所 米国民のプライバシー、AI等に対する意識調査 (2023.10.18) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« AIが普及すると所得格差はより拡大する?(BIS 人工知能、サービスのグローバル化、所得格差)(2023.10.25) | Main | 米国 ピュー研究所 米国民のプライバシー、AI等に対する意識調査 (2023.10.18) »