« 英国 AI安全サミット出席国によるブレッチリー宣言 | Main | NIST SP 1800-36 (初期ドラフト第2版) 信頼できるIoT機器のネットワーク層の実装とライフサイクル管理:インターネットプロトコルベースのIoT機器とネットワークのセキュリティ強化 (B,C,E) »

2023.11.03

米国 OMB AI実施ガイダンス案

こんにちは、丸山満彦です。

先日、AIに関する大統領令がでましたが、その大統領令を受けて、OMB(行政管理予算局)が実施ガイダンス案(2023.12.05まで意見を受け付け)を公開していますね。。。

最高AI責任者(CAIO: Chief AI Officer)の設置が求められていますね。。。

CAIOは、連邦政府でのAIの利用促進とリスク管理の両方をすることになっていますね。。。

 

OMB Releases Implementation Guidance Following President Biden’s Executive Order on Artificial Intelligence OMB、バイデン大統領による人工知能に関する大統領令を受け、実施ガイダンスを発表
This week, President Biden signed a landmark Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. As the United States takes action to realize the tremendous promise of AI while managing its risks, the federal government will lead by example and provide a model for the responsible use of the technology. As part of this commitment, today, ahead of the UK Safety Summit, Vice President Harris will announce that the Office of Management and Budget (OMB) is releasing for comment a new draft policy on Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence. This guidance would establish AI governance structures in federal agencies, advance responsible AI innovation, increase transparency, protect federal workers, and manage risks from government uses of AI. 今週、バイデン大統領は、人工知能の安全、安心、信頼できる開発と利用に関する画期的な大統領令に署名した。米国が人工知能のリスクを管理しつつ、その大きな可能性を実現するための行動を起こすにあたり、連邦政府は模範を示し、責任ある技術利用のモデルを提供する。このコミットメントの一環として、本日、英国安全サミットに先立ち、ハリス副大統領は、行政管理予算局(OMB)が、人工知能の政府機関利用のためのガバナンス、イノベーション、リスク管理の推進に関する新たな方針案をコメント募集のために公表することを発表する。このガイダンスは、連邦政府機関におけるAIのガバナンス構造を確立し、責任あるAIのイノベーションを推進し、透明性を高め、連邦政府職員を保護し、政府によるAI利用によるリスクを管理するものである。
Every day, the federal government makes decisions and takes actions that have profound impacts on the lives of Americans. Federal agencies have a distinct responsibility to identify and manage AI risks because of the role they play in our society. OMB’s proposed guidance builds on the Blueprint for an AI Bill of Rights and the AI Risk Management Framework by mandating a set of minimum evaluation, monitoring, and risk mitigation practices derived from these frameworks and tailoring them to context of the federal government. In particular, the guidance provides direction to agencies across three pillars:
連邦政府は毎日、アメリカ人の生活に重大な影響を与える決定を下し、行動を起こしている。連邦政府機関は、我々の社会で果たす役割のため、AIリスクを特定し管理する明確な責任を負っている。OMBが提案するガイダンスは、AI権利章典のための青写真とAIリスク管理フレームワークに基づいており、これらのフレームワークから派生した一連の最低限の評価、監視、リスク軽減の実践を義務付け、連邦政府の状況に合わせたものとなっている。特に、ガイダンスは3つの柱にわたって各機関に方向性を示している:
Strengthening AI Governance AIガバナンスの強化
To improve coordination, oversight, and leadership for AI, the draft guidance would direct federal departments and agencies to: AIに関する調整、監督、リーダーシップを向上させるため、ガイダンス草案では連邦政府各機関に以下のことを指示している:
・Designate Chief AI Officers, who would have the responsibility to advise agency leadership on AI, coordinate and track the agency’s AI activities, advance the use of AI in the agency’s mission, and oversee the management of AI risks. ・AI最高責任者(Chief AI Officer)を任命し、AIに関する政府指導部への助言、政府機関のAI活動の調整と追跡、政府機関の任務におけるAI利用の促進、AIリスクの管理を監督する。
Establish internal mechanisms for coordinating the efforts of the many existing officials responsible for issues related to AI. As part of this, large agencies would be required to establish AI Governance Boards, chaired by the Deputy Secretary or equivalent and vice-chaired by the Chief AI Officer. ・AIに関連する問題を担当する多くの既存職員の努力を調整するための内部メカニズムを確立する。その一環として、大規模な機関には、副長官またはそれに準ずる者が議長を務め、AI最高責任者が副議長を務めるAIガバナンス委員会の設置を義務付ける。
Expand reporting on the ways agencies use AI, including providing additional detail on AI systems’ risks and how the agency is managing those risks. ・AIシステムのリスクとそのリスク管理方法に関する追加的な詳細を提供するなど、機関のAI活用方法に関する報告を拡大する。
・Publish plans for the agency’s compliance with the guidance. ・機関がガイダンスを遵守するための計画を公表する。
Advancing Responsible AI Innovation 責任あるAIイノベーションの推進
To expand and improve the responsible application of AI to the agency’s mission, the draft guidance would direct federal agencies to: 政府機関の使命に対するAIの責任ある適用を拡大・改善するため、ガイダンス案は連邦政府機関に以下を指示する:
・Develop an agency AI strategy, covering areas for future investment as well as plans to improve the agency’s enterprise AI infrastructure, its AI workforce, its capacity to successfully develop and use AI, and its ability to govern AI and manage its risks. ・AI戦略を策定し、将来の投資分野や、AIインフラ、AI人材、AIを開発・利用する能力、AIを管理しリスクを管理する能力を向上させる計画を策定する。
・Remove unnecessary barriers to the responsible use of AI, including those related to insufficient information technology infrastructure, inadequate data and sharing of data, gaps in the agency’s AI workforce and workforce practices, and cybersecurity approval processes that are poorly suited to AI systems. ・不十分な情報技術インフラ、不十分なデータとデータの共有、機関のAI労働力と労働力の慣行におけるギャップ、AIシステムに適していないサイバーセキュリティ承認プロセスなどに関連するものを含め、AIの責任ある利用に対する不必要な障壁を取り除く。
・Explore the use of generative AI in the agency, with adequate safeguards and oversight mechanisms. ・適切な保護措置と監視メカニズムを備えた上で、同庁におけるジェネレーティブAIの利用を検討する。
Managing Risks from the Use of AI AIの使用によるリスクを管理する
To ensure that agencies establish safeguards for safety- and rights-impacting uses of AI and provide transparency to the public, the draft guidance would: AIの安全性や権利に影響を与える使用に対するセーフガードを機関が確立し、国民に透明性を提供することを確実にするため、ガイダンス案は以下のようになる:
・Mandate the implementation of specific safeguards for uses of AI that impact the rights and safety of the public. These safeguards include conducting AI impact assessments and independent evaluations; testing the AI in a real-world context; identifying and mitigating factors contributing to algorithmic discrimination and disparate impacts; monitoring deployed AI; sufficiently training AI operators; ensuring that AI advances equity, dignity, and fairness; consulting with affected groups and incorporating their feedback; notifying and consulting with the public about the use of AI and their plans to achieve consistency with the proposed policy; notifying individuals potentially harmed by a use of AI and offering avenues for remedy; and more. ・国民の権利と安全に影響を与えるAIの使用について、特定のセーフガードの実施を義務付ける。これらのセーフガードには、AIの影響評価と独立した評価の実施、現実世界でのAIのテスト、アルゴリズムによる差別や格差のある影響の要因の特定と緩和、導入されたAIの監視、AIのオペレーターの十分な訓練、AIが公平性、尊厳、公正さを向上させることの確保、影響を受けるグループとの協議とそのフィードバックの反映、AIの使用と提案された方針との整合性を達成するための計画についての一般市民への通知と協議、AIの使用によって被害を受ける可能性のある個人への通知と救済手段の提供、などが含まれる。
・Define uses of AI that are presumed to impact rights and safety, including many uses involved in health, education, employment, housing, federal benefits, law enforcement, immigration, child welfare, transportation, critical infrastructure, and safety and environmental controls. ・保健、教育、雇用、住宅、連邦給付、法執行、移民、児童福祉、交通、重要インフラ、安全・環境管理など、権利と安全に影響を与えると推定されるAIの利用を定義する。
・Provide recommendations for managing risk in federal procurement of AI. After finalization of the proposed guidance, OMB will also develop a means to ensure that federal contracts align with its recommendations, as required by the Advancing American AI Act and President Biden’s AI Executive Order of October 30, 2023. ・AIの連邦調達におけるリスク管理のための勧告を提供する。ガイダンス案の最終決定後、OMBは、Advancing American AI Actとバイデン大統領のAI大統領令(2023年10月30日)で義務付けられているように、連邦政府の契約がガイダンスの勧告に沿うようにするための手段も開発する。
AI is already helping the government better serve the American people, including by improving health outcomes, addressing climate change, and protecting federal agencies from cyber threats. In 2023, federal agencies identified over 700 ways they use AI to advance their missions, and this number is only likely to grow. When AI is used in agency functions, the public deserves assurance that the government will respect their rights and protect their safety. AIはすでに、健康状態の改善、気候変動への対応、サイバー脅威からの連邦政府機関の保護など、政府による米国民へのサービス向上に役立っている。2023年、連邦政府機関は、その任務を推進するためにAIを使用する700以上の方法を特定し、この数は増える一方である。AIが政府機関の機能で使用される場合、国民は政府が国民の権利を尊重し、安全を守ることを保証される必要がある。
Some examples of where AI has already been successfully deployed by the Federal government include: 連邦政府がすでにAIの導入に成功している例としては、以下のようなものがある:
・Department of Health and Human Services, whereAI is used to predict infectious diseases and assist in preparing for potential pandemics, as well as anticipate and mitigate prescription drug shortages and supply chain issues.  ・保健福祉省では、AIを使って感染症を予測し、潜在的なパンデミックへの備えを支援するとともに、処方箋薬の不足やサプライチェーンの問題を予測・緩和している。
・Department of Energy, whereAI is used to predict natural disasters and preemptively prepare for recoveries. ・エネルギー省では、AIが自然災害を予測し、先手を打って復旧に備えるために使用されている。
・Department of Commerce, where AI is used to provide timely and actionable notifications to keep people safe from severe weather events. ・商務省では、厳しい気象現象から人々の安全を守るため、タイムリーで実用的な通知を提供するためにAIが使用されている。
・National Aeronautics and Space Administration, whereAI is used to assist in the monitoring of Earth’s environment, which aids in safe execution of mission-planning. ・米航空宇宙局(National Aeronautics and Space Administration)では、AIが地球環境のモニタリングを支援し、ミッション計画の安全な遂行を助けている。
・Department of Homeland Security, whereAI is used to assist cyber forensic specialists to detect anomalies and potential threats in federal civilian networks. ・国土安全保障省では、連邦政府の民間ネットワークにおける異常や潜在的な脅威を検知するために、サイバーフォレンジックの専門家を支援するためにAIが使用されている。
The draft guidance takes a risk-based approach to managing AI harms to avoid unnecessary barriers to government innovation while ensuring that in higher-risk contexts, agencies follow a set of practices to strengthen protections for the public. AI is increasingly common in modern life, and not all uses of AI are equally risky. Many are benign, such as auto-correcting text messages and noise-cancelling headphones. By prioritizing safeguards for AI systems that pose risks to the rights and safety of the public—safeguards like AI impact assessments, real-world testing, independent evaluations, and public notification and consultation—the guidance would focus resources and attention on concrete harms, without imposing undue barriers to AI innovation. ガイダンス草案では、リスクベースのアプローチでAIの害を管理し、政府のイノベーションに対する不必要な障壁を回避する一方、よりリスクの高い状況においては、各機関が一連の慣行に従うことで、国民への保護を強化することを保証している。AIは現代生活においてますます一般的になってきており、AIのすべての用途が同じようにリスクが高いわけではない。自動修正テキストメッセージやノイズキャンセリングヘッドフォンなど、多くのものは良性である。一般市民の権利と安全にリスクをもたらすAIシステムに対するセーフガード(AI影響評価、実環境テスト、独立評価、一般市民への通知と協議などのセーフガード)を優先することで、ガイダンスは、AIイノベーションに過度の障壁を課すことなく、具体的な危害に資源と注意を集中させるだろう。
This announcement is the latest step by the Biden-Harris Administration to advance the safe, secure, and trustworthy development and use of AI, and it is a major milestone for implementing President Biden’s AI Executive Order. The proposed guidance would establish the specific leadership, milestones, and transparency mechanisms to drive and track implementation of these practices. With the current rapid pace of technological development, bold leadership in AI is needed. With this draft guidance, the government is demonstrating that it can lead in AI and ensure that the technology benefits all. 今回の発表は、バイデン-ハリス政権がAIの安全、安心、信頼できる開発と利用を推進するための最新のステップであり、バイデン大統領のAI大統領令を実施するための大きなマイルストーンである。提案されているガイダンスは、これらの実践を推進・追跡するための具体的なリーダーシップ、マイルストーン、透明性のメカニズムを確立するものである。現在の技術開発の急速なペースに伴い、AIにおける大胆なリーダーシップが必要とされている。このガイダンス案により、政府はAIをリードし、このテクノロジーがすべての人に利益をもたらすことを確実にできることを実証する。
Make your voice heard 声を届ける
To help ensure public trust in the applications of AI, OMB is soliciting public comment on the draft guidance until December 5th, 2023. AIの応用に対する国民の信頼を確保するため、OMBは2023年12月5日までガイダンス草案に対するパブリックコメントを募集している。
Learn more 詳細はこちら
Read the draft guidance: WH.gov ガイダンス草案を読む: WH.gov
Submit a public comment: regulations.gov パブリックコメントを提出する:regulations.gov
See the full scope of AI actions from the Biden-Harris Administration: AI.gov バイデン-ハリス政権のAIアクションの全範囲を見る: AI.gov

 

・[PDF] Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence

20231215-143709


・[DOCX] 仮訳

内容...

1. OVERVIEW 1. 概要
2. SCOPE 2. 範囲
3. STRENGTHENING ARTIFICIAL INTELLIGENCE GOVERNANCE 3. 人工知能ガバナンスの強化
a. Actions a. 行動
b. Roles, Responsibilities, Seniority, Position, and Reporting Structure of Chief Artificial Intelligence Officers b. 最高AI責任者の役割、責任、序列、役職、報告体制
c. Internal Agency AI Coordination c. 機関内部のAI調整
4. ADVANCING RESPONSIBLE ARTIFICIAL INTELLIGENCE INNOVATION 4. 責任ある人工知能イノベーションを推進する
a. AI Strategies a. AI戦略
b. Removing Barriers to the Responsible Use of Artificial Intelligence b. 人工知能の責任ある利用への障壁を取り除く
5. MANAGING RISKS FROM THE USE OF ARTIFICIAL INTELLIGENCE 5. 人工知能の使用によるリスクを管理する
a. Actions a. 行動
b. Determining Which Artificial Intelligence Is Presumed to Be Safety-Impacting or RightsImpacting b. どの人工知能が安全性に影響を与えるか、あるいは権利に影響を与えると推定されるかを判断する。
c. Minimum Practices for Safety-Impacting and Rights-Impacting Artificial Intelligence c. 安全性に影響を与える人工知能と権利に影響を与える人工知能のための最低実施事項
d. Managing Risks in Federal Procurement of Artificial Intelligence d. 人工知能の連邦調達におけるリスク管理
6. DEFINITIONS 6. 定義
Appendix I: Consolidated Table of Actions 附属書I:統合行動表

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

|

« 英国 AI安全サミット出席国によるブレッチリー宣言 | Main | NIST SP 1800-36 (初期ドラフト第2版) 信頼できるIoT機器のネットワーク層の実装とライフサイクル管理:インターネットプロトコルベースのIoT機器とネットワークのセキュリティ強化 (B,C,E) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 英国 AI安全サミット出席国によるブレッチリー宣言 | Main | NIST SP 1800-36 (初期ドラフト第2版) 信頼できるIoT機器のネットワーク層の実装とライフサイクル管理:インターネットプロトコルベースのIoT機器とネットワークのセキュリティ強化 (B,C,E) »