米国 ホワイトハウス 「米国人の権利と安全を守る責任あるAIイノベーションを推進する新たな行動」 (2023.05.04)
こんにちは、丸山満彦です。
米国での生成的AIを含む、AIへの投資及びその活動についてのルールづくりが急ピチで進んでいますね。。。同じような動きは、欧州、英国、中国でもあるわけですが、米国と欧州は若干の立ち位置が異なる(英国は欧州と米国の間くらい?)わけですが、プライバシーの問題とおなじようにどこかで折り合いをつけていくのでしょうね。。。中国は、政府のコントロールが効く範囲での投資と活動という感じでのルールづくりが進むのでしょうね。。。
日本は、、、欧州と米国を見ながら、両者の落とし所のようなところにルールをつくるって感じが良いように思います。そういう意味では、英国との協力というのも考えられますね。。。日本が独自に主体的に動くほどの技術的な能力や、政治的な力はないように感じますし。。。
⚫︎ White House
2023.05.04 | Readout of White House Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation | 責任ある人工知能イノベーションの推進に関するホワイトハウスとCEOとの会合についての文書 |
2023.05.04 | Statement from Vice President Harris After Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation | 責任ある人工知能のイノベーションの推進に関するCEOとの会合後のハリス副大統領の声明文 |
2023.05.04 | Background Press Call on New Artificial Intelligence Announcements | 人工知能の新発表の背景プレスコール |
2023.05.04 | FACT SHEET: Biden-Harris Administration Announces New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety | ファクトシート:バイデン-ハリス政権、米国人の権利と安全を守る責任あるAIイノベーションを推進する新たな行動を発表 |
・2023.05.04 Readout of White House Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation
Readout of White House Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation | 責任ある人工知能イノベーションの推進に関するホワイトハウスとCEOとの会合についての文書 |
Today, Vice President Harris and senior Administration officials met with CEOs of four American companies at the forefront of AI innovation to share concerns about the risks associated with AI. President Biden dropped by the meeting to underscore that companies have a fundamental responsibility to make sure their products are safe and secure before they are deployed or made public. | 本日、ハリス副大統領と政権上級行政官は、AIイノベーションの最前線にいる米国企業4社のCEOと会談し、AIに関連するリスクに関する懸念を共有した。バイデン大統領もこの会合に立ち寄り、企業には、自社製品が展開・公開される前に安全・安心であることを確認する基本的な責任があることを強調した。 |
The President and Vice President were clear that in order to realize the benefits that might come from advances in AI, it is imperative to mitigate both the current and potential risks AI poses to individuals, society, and national security. These include risks to safety, security, human and civil rights, privacy, jobs, and democratic values. | 大統領と副大統領は、AIの進歩によってもたらされるかもしれない利益を実現するためには、AIが個人、社会、国家安全保障にもたらす現在および潜在的なリスクの両方を軽減することが不可欠であると明言した。これには、安全、セキュリティ、人権・市民権、プライバシー、雇用、民主的価値観に対するリスクが含まれる。 |
Given the role these CEOs and their companies play in America’s AI innovation ecosystem, Administration officials also emphasized the importance of their leadership, called on them to model responsible behavior, and to take action to ensure responsible innovation and appropriate safeguards, and protect people’s rights and safety. This includes taking action consistent with the Biden-Harris Administration’s Blueprint for an AI Bill of Rights and the AI Risk Management Framework. | これらのCEOとその企業がアメリカのAIイノベーション・エコシステムで果たす役割を考慮し、行政当局も彼らのリーダーシップの重要性を強調し、責任ある行動を模範とし、責任あるイノベーションと適切なセーフガードを確保し、人々の権利と安全を守るために行動するよう呼びかけました。これには、バイデン-ハリス政権の「AI権利章典のための青写真」や「AIリスクマネジメントの枠組み」に沿った行動をとることが含まれる。 |
The meeting also included frank and constructive discussion on three key areas: the need for companies to be more transparent with policymakers, the public, and others about their AI systems; the importance of being able to evaluate, verify, and validate the safety, security, and efficacy of AI systems; and the need to ensure AI systems are secure from malicious actors and attacks. | また、会議では、企業が政策立案者や一般市民などに対して、自社のAIシステムについてより透明性を高める必要性、AIシステムの安全性、セキュリティ、有効性を評価、検証、検証できることの重要性、AIシステムが悪意のある行為者や攻撃から安全であることを保証する必要性の3点について、率直かつ建設的に議論された。 |
Administration officials and CEOs agreed that more work is needed to develop and ensure appropriate safeguards and protections, and CEOs committed to continue engaging with the Administration to ensure the American people are able to benefit from AI innovation. | 行政当局とCEOは、適切なセーフガードと保護を開発し確保するためにさらなる作業が必要であることに同意し、CEOは、米国民がAIイノベーションの恩恵を受けられるように、行政との関与を継続することを約束した。 |
Today’s meeting was part of a broader, ongoing effort to engage with advocates, companies, researchers, civil rights organizations, not-for-profit organizations, communities, international partners, and others on critical AI issues. This effort builds on the considerable steps the Administration has taken to date to promote responsible innovation and risk mitigation in AI. This includes additional actions announced this morning, the Blueprint for an AI Bill of Rights and related executive actions, the AI Risk Management Framework, and a roadmap for standing up a National AI Research Resource. | 本日の会合は、AIに関する重要な問題について、擁護者、企業、研究者、公民権団体、非営利団体、地域社会、国際的なパートナーなどと協力するための、より広範で継続的な取り組みの一環である。この取り組みは、AIにおける責任あるイノベーションとリスク軽減を促進するために、これまで行政が取ってきた多大な措置に基づくものである。これには、今朝発表された追加行動、「AI権利章典のための青写真」と関連する行政措置、AIリスクマネジメントの枠組み、全米AI研究リソースの立ち上げのためのロードマップが含まれる。 |
Participants | 参加者 |
Vice President Kamala Harris | カマラ・ハリス 副大統領 |
Gina Raimondo, Secretary of Commerce | ジーナ・ライモンド, 商務省長官 |
Arati Prabhakar, Assistant to the President and Director of the Office of Science and Technology Policy | Arati Prabhakar, 大統領補佐官兼米国科学技術政策局 局長 |
Jeff Zients, Assistant to the President and Chief of Staff | ジェフ・ザイアント, 大統領補佐官兼首席補佐官 |
Bruce Reed, Assistant to the President and Deputy Chief of Staff | ブルース・リード, 大統領補佐官兼副参謀長 |
Mike Donilon, Assistant to the President and Senior Advisor | マイク・ドニロン, 大統領補佐官兼シニアアドバイザー |
Jake Sullivan, Assistant to the President for National Security Affairs | ジェイク・サリバン, 国家安全保障問題担当大統領補佐官 |
Susan Rice, Assistant to the President for Domestic Policy | スーザン・ライス, 国内政策担当大統領補佐官 |
Lael Brainard, Assistant to the President and Director of the National Economic Council | Lael Brainard, 大統領補佐官兼国家経済会議部長 |
Stuart Delery, Assistant to the President and White House Counsel | スチュアート・デレリー, 大統領補佐官兼ホワイトハウス・カウンセル |
Sam Altman, CEO of OpenAI | サム・アルトマン, OpenAI社CEO |
Dario Amodei, CEO of Anthropic | ダリオ アモダイ, Anthropic社CEO |
Satya Nadella, Chairman and CEO of Microsoft | サティア・ナデラ, マイクロソフト会長兼CEO |
Sundar Pichai, CEO of Google and Alphabet | スンダル・ピチャイ, Google・Alphabet CEO |
Statement from Vice President Harris After Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation | 責任ある人工知能のイノベーションの推進に関するCEOとの会合後のハリス副大統領の声明文 |
Advances in technology have always presented opportunities and risks, and generative AI is no different. AI is one of today’s most powerful technologies, with the potential to improve people’s lives and tackle some of society’s biggest challenges. At the same time, AI has the potential to dramatically increase threats to safety and security, infringe civil rights and privacy, and erode public trust and faith in democracy. | 技術の進歩は常にチャンスとリスクをもたらするが、生成的AIもその例に漏れない。AIは今日最も強力な技術の一つであり、人々の生活を向上させ、社会の最大の課題に取り組む可能性を持っている。同時に、AIは、安全やセキュリティに対する脅威を劇的に増大させ、市民の権利やプライバシーを侵害し、民主主義に対する国民の信頼と信用を損なう可能性も秘めている。 |
Throughout my career I have focused on protecting consumers from the risks associated with technology. As Attorney General for the State of California, I worked to protect seniors from online scammers, women and girls from online harassment, and consumers from privacy breaches, including by establishing a Privacy Enforcement and Protection Unit within the California Department of Justice. | 私は、キャリアを通じて、テクノロジーに関連するリスクから消費者を守ることに注力してきました。カリフォルニア州の司法長官として、私は、カリフォルニア州司法省にプライバシー執行・保護ユニットを設置するなど、高齢者をオンライン詐欺師から、女性や少女をオンラインハラスメントから、そして消費者をプライバシー侵害から守ることに努めた。 |
As a United States Senator and member of the Intelligence and Judiciary Committees, we investigated Russian interference in the 2016 election and produced empirical evidence that state actors will use technology to undermine democracy. | 米国上院議員として、また情報委員会と司法委員会のメンバーとして、2016年の選挙におけるロシアの干渉を調査し、国家主体がテクノロジーを使って民主主義を弱体化させるという実証的証拠を作成した。 |
Through this work, it was evident that advances in technology, including the challenges posed by AI are complex. Government, private companies, and others in society must tackle these challenges together. President Biden and I are committed to doing our part – including by advancing potential new regulations and supporting new legislation – so that everyone can safely benefit from technological innovations. | この仕事を通じて、AIがもたらす課題を含むテクノロジーの進歩が複雑であることが明らかになりました。政府、民間企業、そして社会の他の人々が一緒にこれらの課題に取り組まなければなりません。バイデン大統領と私は、誰もが安全に技術革新の恩恵を受けられるよう、新しい規制の可能性を進め、新しい法律をサポートすることを含め、私たちの役割を果たすことを約束する。 |
As I shared today with CEOs of companies at the forefront of American AI innovation, the private sector has an ethical, moral, and legal responsibility to ensure the safety and security of their products. And every company must comply with existing laws to protect the American people. I look forward to the follow through and follow up in the weeks to come. | 本日、米国のAIイノベーションの最前線にいる企業のCEOと共有したように、民間企業には、製品の安全性とセキュリティを確保する倫理的、道徳的、法的責任がある。そして、どの企業もアメリカ国民を守るために既存の法律を遵守しなければなりません。今後数週間のフォロースルーとフォローアップに期待する。 |
・2023.05.04
Background Press Call on New Artificial Intelligence Announcements | 人工知能の新発表の背景プレスコール |
Via Teleconference | 電話会議にて |
6:36 P.M. EDT | 6:36 P.M. EDT |
MS. PATTERSON: Thanks, everyone, for hoping on today’s press call. Today, we’ll be discussing a new AI announcement from the Biden-Harris administration. | MS.パターソン: 皆さん、本日のプレスコールにご期待いただき、ありがとうございます。 今日は、バイデン=ハリス政権からの新しいAI発表についてです。 |
On today’s call will be [senior administration official]. After she delivers remarks, we’ll open up the call for Q&A from reporters. | 今日の電話では、[上級行政官]が登場します。 彼女が発言した後、記者からの質疑応答を受け付けます。 |
As a reminder, this call is on background, attributable to a senior administration official. And the remarks in the call, as well as the embargoed factsheet that you all should have received, is embargoed until 5:00 a.m. Eastern on Thursday morning. | 注意事項として、この通話は政権上級行政官に起因するバックグラウンドです。 そして、この通話での発言と、皆さんが受け取ったはずの禁輸されたファクトシートは、東部時間の木曜日午前5時まで禁輸される。 |
And with that, I’ll hand things over to [senior administration official]. | それでは、[上級行政官]に引き継ぎます。 |
SENIOR ADMINISTRATION OFFICIAL: Thank you, Robyn. Thank you all for joining. I know you all have the factsheet, so I’ll just say a few words before we get to your questions. | 上級行政官:ありがとうございます、ロビン。 ご参加いただいた皆様、ありがとうございました。 皆さんはファクトシートをお持ちだと思いますので、質問に入る前に少しお話しします。 |
Artificial intelligence has been part of our lives for years. And right now, the pace of innovation is accelerating, and the applications are getting broader and broader. | 人工知能は、何年も前から私たちの生活の一部になっています。 そして今、イノベーションのペースは加速しており、応用範囲はどんどん広がっています。 |
As new tools hit the market, the extraordinary opportunities that AI presents are coming more into focus. But as is true with all technologies, we know there are some serious risks. | 新しいツールが市場に出回るにつれ、AIがもたらす並外れた機会がよりクローズアップされてきています。 しかし、すべてのテクノロジーに言えることですが、深刻なリスクがあることも承知しています。 |
As President Biden has underscored, in order to seize the benefits of AI, we need to start by mitigating its risks. And this core principle has guided our work on AI from the beginning. | バイデン大統領が強調したように、AIの恩恵を享受するためには、まずそのリスクを軽減することから始める必要があります。そして、この基本原則は、当初から私たちのAIに関する取り組みの指針となっています。 |
Here’s the bottom line: The Biden-Harris administration has been leading on these issues since long before these newest generative AI products. | これが結論です: バイデン-ハリス政権は、この最新の生成的AI製品よりもずっと以前から、この問題に関して主導的な役割を担ってきました。 |
Last fall, we released the landmark Blueprint for an AI Bill of Rights. At a time of rapid innovation, it was essential that we make clear the values we must advance and the commonsense rights we must protect. It’s an important anchor and a roadmap. And we’ve built on this foundation. | 昨年秋、私たちは画期的な「AI権利章典のための青写真」を発表しました。 急速な技術革新が進む今、私たちが進めるべき価値と守るべき常識的な権利を明確にすることが必要不可欠でした。 これは重要なアンカーであり、ロードマップです。 そして、私たちはこの基盤の上に成り立っています。 |
We’ve also released the AI Risk Management Framework. And with this and the Blueprint for an AI Bill of Rights, we’ve given companies and policymakers and the individuals building these technologies some clear ways that they can mitigate the risks. | AIリスクマネジメントのフレームワークも発表しました。 このフレームワークと「AI権利章典のための青写真」によって、私たちは企業や政策立案者、そしてこれらの技術を構築する個人に対して、リスクを軽減するためのいくつかの明確な方法を示しました。 |
We’ve also been clear that the federal government will leverage existing authorities to protect people and to hold companies accountable. Just last week, four enforcement agencies reiterated that commitment. And through executive actions and investments, we are making sure that the federal government is leading by example. | また、連邦政府が人々を保護し、企業の責任を追及するために、既存の権限を活用することも明確にしてきました。 先週も、4つの執行機関がこの約束を再確認しました。 そして、行政措置や投資を通じて、私たちは連邦政府が模範となるような行動をとるようにしています。 |
To further the President’s vision on AI, we’re making new announcements tomorrow. | AIに関する大統領のビジョンをさらに推進するため、私たちは明日、新たな発表を行います。 |
First, we’re investing an additional $140 million to stand up seven new National AI Research Institutes. That will bring the total 25 National AI Research Institutes across the country, with half a billion dollars of funding to support responsible innovation that advances the public good. | まず、1億4000万ドルを追加投資して、新たに7つの国立AI研究機関を立ち上げます。 これにより、全米に25の国立AI研究機関が誕生し、公益を増進する責任あるイノベーションを支援するために5億ドルの資金を提供することになります。 |
Second, we’re announcing that OMB, in the coming months, will issue clear policy guidance on the use of AI by the federal government. And this will make sure that we’re responsibly leveraging AI to advance agencies’ ability to improve lives and deliver results for the American people. And it will further our efforts to lead by example in mitigating AI risks and harnessing AI opportunities. | 次に、OMBが今後数ヶ月のうちに、連邦政府によるAIの利用について明確な政策指針を発表することを発表します。 これにより、私たちが責任を持ってAIを活用し、各省庁が生活を改善し、米国民のために結果を出す能力を向上させることを確認することができます。 そして、AIのリスクを軽減し、AIの機会を活用する上で、模範となるような我々の努力を促進するものです。 |
Now, there’s a lot the federal government can do to make sure we get AI right, but we also need companies and innovators to be our partners in this work. Tech companies have a fundamental responsibility to make sure their products are safe and secure and that they protect people’s rights before they’re deployed or made public. | さて、AIを正しく活用するために連邦政府ができることはたくさんありますが、企業やイノベーターにもこの仕事のパートナーになってもらう必要があります。 テック企業は、自社製品が安全・安心であることを確認し、配備や公開の前に人々の権利を保護する基本的な責任を負っているのです。 |
Tomorrow, here at the White House, we’ll be meeting with the CEOs of four companies at the forefront of AI innovation. The meeting will be led by Vice President Harris, with participation from senior White House officials, including me. | 明日、ここホワイトハウスで、AIイノベーションの最前線にいる4社のCEOと会談する予定です。 会議はハリス副大統領が主導し、私を含むホワイトハウスの上級行政官も参加する予定です。 |
We aim to have a frank discussions about the risks we see in current and near-term AI development. We’re working with — in this meeting, we’re also aiming to underscore the importance of their role on mitigating risks and advancing responsible innovation, and we’ll discuss how we can work together to protect the American people from the potential harms of AI so that they can reap the benefits of these new technologies. | 私たちは、現在および近い将来のAI開発に見られるリスクについて、率直な議論をすることを目的としています。 私たちは、この会議で、リスクを軽減し、責任あるイノベーションを進める上での彼らの役割の重要性を強調することも目的としています。そして、アメリカ国民をAIの潜在的な害から守り、これらの新しい技術の恩恵を享受できるようにするために、どのように協力できるかを話し合います。 |
Many companies are stepping up. Tomorrow, we’re announcing that major AI companies have committed to participate in an independent, public evaluation of their AI systems at the AI Village at DEF CON 31 — this is one of the largest hacker conventions in the world. | 多くの企業が歩み寄っています。 明日、私たちは、主要なAI企業が、DEF CON 31のAIビレッジ(これは世界最大のハッカー大会の1つ)で、自社のAIシステムの独立した公開評価に参加することを約束したことを発表します。 |
And there, these models will be evaluated by thousands of community partners and AI experts to see how they align with the values outlined in the Blueprint for an AI Bill of Rights and the AI Risk Management Framework. | そこで、これらのモデルは、何千人ものコミュニティ・パートナーやAI専門家によって評価され、「AI権利章典のための青写真」や「AIリスクマネジメントの枠組み」で説明されている価値観にどのように合致しているかを確認することになります。 |
Let me close where I started. These are important new steps to promote responsible innovation and to make sure AI improves people’s lives without putting rights and safety at risk. They build on the foundation that we have laid. | 最後に、私が始めたことを紹介します。 これらは、責任あるイノベーションを促進し、AIが権利や安全を危険にさらすことなく人々の生活を向上させるための重要な新しいステップです。 これらは、私たちが築いた土台の上に成り立っています。 |
To be clear: The Biden-Harris administration is leading on responsible AI. And in the weeks and months ahead, you’ll continue to see us advance these goals. | はっきり言って、バイデン=ハリス政権は、責任あるAIをリードしています。 そして、これからの数週間、数ヶ月の間に、私たちがこれらの目標を前進させるのを引き続きご覧いただけるでしょう。 |
And with that, I’m happy to take your questions. | それでは、質問をお受けします。 |
MS. PATTERSON: Thanks so much, [senior administration official]. With that, we will open up the call for questions. If you have a question, please feel free to use the “raise hand” function on your Zoom. | MS. パターソン:ありがとうございました、[上級行政官]。 これをもって、質問の募集を開始します。 質問のある方は、Zoomの「挙手」機能をご自由にお使いください。 |
And, first, we will go to Nandita Bose. | そして、まずはナンディタ・ボーズさんにお願いします。 |
Q Hi, can you hear me? | Q こんにちは、聞こえますか? |
SENIOR ADMINISTRATION OFFICIAL: Yes. | 上級行政官:はい。 |
Q Thank you for doing this call. The EU — RT, as you’re aware, is trying to reshape the regulatory landscape for open AI and its competitors, and has acted way more swiftly to regulate generative AI. I’m wondering if there’ll be any discussion on potential ways to regulate AI at this meeting. | Q この電話会議に招待頂きありがとうございます。 EU-RTは、ご存知のように、オープンAIとその競争相手に対する規制の状況を再構築しようとしており、生成的AIを規制するために、より迅速に行動しています。 この会議では、AIを規制するための潜在的な方法について何か議論されるのでしょうか。 |
And also, should we think of this meeting as sort of a precursor to the administration asking for a legislative push on this issue? Thank you. | また、この会議は、政権がこの問題に関して立法化を求める前触れのようなものだと考えるべきでしょうか。 ありがとうございました。 |
SENIOR ADMINISTRATION OFFICIAL: Thank you for that question. On the EU AI Act, we don’t see this as a race. In fact, we’re working closely with our EU counterparts through the U.S.-EU Trade and Technology Council. You know, what we’re working on is advancing approaches to AI that serve our people in responsible and equitable and beneficial ways. | 上級行政官:その質問、ありがとうございます。 EUのAI法について、私たちはこれを競争とは考えていません。 実際、私たちは米欧貿易技術協議会を通じて、EUのカウンターパートと緊密に連携しています。 私たちが取り組んでいるのは、責任ある公平で有益な方法で国民に貢献するAIのアプローチを進めることなのです。 |
And the work that we’re doing here at home is currently to take this comprehensive approach to harness AI benefits and mitigate the risks. And the President, of course, has also been very clear about the need for Congress to step up and act on a bipartisan basis to hold tech companies accountable, including for algorithmic discrimination. | そして、私たちが国内で行っている作業は、現在、AIの利点を活用し、リスクを軽減するために、この包括的なアプローチを取ることです。 また、大統領はもちろん、アルゴリズムによる差別を含め、テック企業の責任を問うために議会が歩み寄り、超党派で行動する必要性について非常に明確にしています。 |
And, you know, mitigating these harms that are present in these technologies today is, of course, also going to provide the basis for effective responses for what’s likely to be much more powerful technologies in the future ahead. And, you know, again, that’s why we think it’s so important that the companies take seriously this fundamental responsibility to make sure their systems are trustworthy and safe and secure before they’re released or deployed. | そして、現在のテクノロジーに存在するこれらの害を軽減することは、もちろん、将来、より強力なテクノロジーになる可能性のあるものに対して効果的な対応をするための基礎となるものでもあります。 だからこそ、私たちは、企業がリリースや配備の前に、自社のシステムが信頼に足る安全なものであることを確認するという基本的な責任を真剣に果たすことが非常に重要だと考えているのです。 |
MS. PATTERSON: Thanks for the question. Next, we’ll go to Josh Boak. | MS. パターソン:質問ありがとうございました。 次は、ジョシュ・ボークにお願いします。 |
Q Thanks so much for doing this. I wanted to dovetail on what Nandita was asking. Do you believe that international standards need to be set regarding AI, given that its reach goes far beyond the U.S. and Europe? And what’s the process by which you achieve that, given today’s announcement — or given tomorrow’s announcement? | Q ありがとうございます。 ナンディタが質問していたことと関連させたいと思います。 AIがアメリカやヨーロッパをはるかに超えていることから、AIに関して国際的な基準を設ける必要があるとお考えでしょうか? また、今日の発表、あるいは明日の発表を踏まえて、それを達成するためのプロセスはどのようなものでしょうか? |
MS. PATTERSON: [Senior administration official], you may still be (inaudible). | MS. パターソン:[上級行政官]、あなたはまだ(聞き取れない)かもしれませんね。 |
SENIOR ADMINISTRATION OFFICIAL: No, thank you. Thank you. Thanks for the question. Look, I mean, I think this is — we need to — we need to take an approach that is — you know, we’re clear about what we’re focusing on. And we need to take one step at a time. | 上級行政官:いいえ、 ありがとうございます。 質問ありがとうございます。 これは、つまり、私たちは、何に焦点を当てるかを明確にしたアプローチを取る必要があるのだと思います。 そして、一度に一歩ずつ進む必要があります。 |
This is clearly a global technology. And that cooperation that I mentioned with our EU colleagues is going to be an essential part of where we need to go. | これは明らかにグローバルな技術です。 そして、先ほど申し上げたEUの仲間との協力は、私たちが進むべき道にとって不可欠なものになるでしょう。 |
MS. PATTERSON: Thanks for your question, Josh. Our next question will come from Cat Zakrzewski. | MS. パターソン:質問ありがとうございます、ジョシュ。 次の質問は、Cat Zakrzewskiさんです。 |
Q Thank you so much. I just wanted to ask you — you know, you talked about the need for the companies to ensure that they are responsibly releasing products and checking the safety of those products. Does the Biden administration trust these companies to do that proactively given the history that we’ve seen in Silicon Valley with other technologies like social media? | Q ありがとうございます。 あなたは、企業が責任を持って製品をリリースし、その製品の安全性を確認する必要があると話していましたね。 バイデン政権は、ソーシャルメディアのような他の技術でシリコンバレーに見られるような歴史を踏まえて、これらの企業が積極的にそれを行うことを信頼しているのでしょうか? |
SENIOR ADMINISTRATION OFFICIAL: Thank you for the question. The broad implications of this new generation of AI is going to call on — it’s going to demand responsible behavior from all parties. And it’s — you know, clearly there will be things that we are doing and will continue to do in government, but we do think that these companies have an important responsibility. And many of them have spoken to their responsibilities. And, you know, part of what we want to do is make sure we have a conversation about how they’re going to fulfill those pledges. | 上級行政官:質問ありがとうございます。 この新世代のAIが持つ幅広い意味合いは、すべての関係者に責任ある行動を求めることになります。あなたもご存知のとおり、私たちが政府として行っていること、そしてこれからも行っていくことがあるのは明らかですが、私たちは、これらの企業には重要な責任があると考えています。 そして、多くの企業がその責任について述べています。 そして、私たちがしたいことのひとつは、その誓約をどのように果たしていくのかについて、しっかりと話し合うことです。 |
MS. PATTERSON: Thanks for question, Cat. Our next question will come from David McCabe. | MS. パターソン:質問ありがとうございました、キャット。 次の質問は、デビッド・マッケイブさんです。 |
And, David, you should be able to unmute yourself. Not sure if we still have David. Oh, there you are. | デビッドさん、ミュートを解除してください。 まだ、デビッドがいるかどうかわかりませんが。 あ、聞こえました、どうぞ。 |
Q Can you hear me? Great. So, [senior administration official], I have a quick logistical question, which is just two things. This is the first meeting like this with CEOs of these companies in the kind of current AI boom, right? And then the second is just: When do you expect to read the meeting out? | Q 聞こえますか? 素晴らしい。 それで、[上級行政官]、簡単なロジスティックな質問があるのですが、それは2つだけです。 これは、現在のAIブームのようなもので、これらの企業のCEOとこのような会議をするのは初めてですよね? そして、2つ目は、ただ: いつ頃、この会議を読み上げる予定でしょうか? |
And then a more substantive question for the call, which is, like: When you look at — when the administration looks at generative AI and AI more generally, like what would be a comparable historic compar- — what would be a historic comparison, right? A technological development that you think is of equal import to artificial intelligence when you sort of think about the impact here. | そして、もっと本質的な質問として次のようなものがあります。:生成的AIやAIをより一般的に見るとき、比較可能な歴史的な比較対象は何でしょうか? 人工知能と同等に重要だと思われる技術開発について、その影響を考えてみたいのです。 |
SENIOR ADMINISTRATION OFFICIAL: I can take the first two questions. | 上級行政官:最初の2つの質問については、私が答えましょう。 |
The first one is just: In terms of logistics, we will — we’re working to get — we will work to get a readout out tomorrow afternoon, soon after the meeting concludes. | 最初の1つめのロジスティクスに関しては、明日の午後、会議が終了した後、すぐに読み上げられるよう努力します。 |
And then, as to the first question about whether this is the first meeting with these CEOs: I believe it is, but let me double check and get back to you. | そして、最初の質問である、これがCEOたちとの最初の会合なのかどうかということについては、そうだと思います: そうだと思いますが、再確認してお返事します。 |
SENIOR ADMINISTRATION OFFICIAL: Yeah, let me address that. We — as you might imagine, in the work that we’ve been doing, we are in constant contact not only with the many companies who are working on AI technologies, but also with nonprofits and academic experts. We really need all those different perspectives, and so that’s been an active part of our engagement throughout. | 上級行政官:そうですね、それについてお答えします。 私たちは、ご想像のとおり、私たちが行ってきた仕事では、AI技術に取り組んでいる多くの企業だけでなく、非営利団体や学術専門家とも常に連絡を取り合っています。 私たちは、このようなさまざまな視点を必要としているのです。 |
MS. PATTERSON: Thanks, David. Our next question comes from Kevin Collier. | MS. パターソン:ありがとう、デビッド。 次の質問は、ケビン・コリアーからです。 |
Q Hi. Thanks for doing this. It feels like there’s a lot of different parts of the government that have different concerns about AI, which itself is a very broad term. But I’m curious about AI threats — ways it can go haywire; it can be used for hacking, disinformation, exploiting critical infrastructure. Is that your concern? Is that something that is going to come up in this meeting? Is this the NSC’s purview? How do you think about it? | Q こんにちは。 ありがとうございます。 AIについては、政府のさまざまな部署が異なる懸念を抱いているように感じますが、それ自体が非常に幅広い用語です。 しかし、私はAIの脅威について興味があります。AIが暴走する可能性、ハッキングや偽情報、重要インフラの悪用に使われる可能性があります。 それが心配なのでしょうか? この会議では、そのようなことが話題になるのでしょうか。 これはNSCの権限なのか? どのようにお考えですか? |
SENIOR ADMINISTRATION OFFICIAL: Well, the starting point is very much our — you know, our North Star here is this idea that if we’re going to seize these benefits, we have to start by managing the risks. The risks are very — they’re quite diverse, as you might imagine, for a technology that has so many different applications. | 上級行政官:そうですね、私たちの出発点は、まさにこの「北極星」のようなものです。 リスクは非常に多岐にわたります。ご想像のとおり、これほど多様なアプリケーションを持つ技術ですから。 |
I’ll mention some of the primary categories. One is safety and security risks — everything from autonomous vehicles to cybersecurity risks and beyond. There are risks to civil rights, such as bias that’s embedded in housing or employment decisions; risks to privacy, such as enabling real-time surveillance; risks to trust in democracy, such as the risks from deep fake; and, of course, risks to jobs and the economy, thinking about job displacement from automation now coming into fields that we previously thought were immune. So it’s a very broad set of risks that need to be grappled with. | 主なカテゴリーをいくつか挙げてみます。 自律走行車からサイバーセキュリティーのリスク、そしてそれ以上のものまで、あらゆるリスクがあります。 また、住宅や雇用の決定に組み込まれたバイアスなど、公民権に対するリスク、リアルタイムの監視を可能にするプライバシーに対するリスク、ディープフェイクのリスクなど民主主義に対する信頼に対するリスク、そしてもちろん、雇用と経済に対するリスクです。これまで免疫がないと思われていた分野にも自動化が進み、雇用が奪われることを考えてみましょう。 このように、取り組むべきリスクは非常に多岐にわたります。 |
MS. PATTERSON: I appreciate the question. Our next question comes from Mohar Chatterjee. | MS. パターソン:質問をありがとうございました。 次の質問は、Mohar Chatterjeeさんからのものです。 |
Q Hi. Oh, I am unmuted. I have actually two quick questions. One is about the NAIR Institutes. I’m wondering how you’re practically seeing that interplay between research coming out of those National AI Research Institutes, how that will actually feed into federal agency efforts to kind of achieve that vision that was laid out in the White House Bill of Rights. That’s question one. | Q こんにちは。 ああ、私はミュートされていないのです。 実は、2つほど簡単な質問があります。 ひとつは、NAIRインスティテュートについてです。 国立AI研究所から生まれる研究が、ホワイトハウスの権利章典で示されたビジョンを達成するための連邦機関の取り組みにどのように反映されるのか、実際どのように見ているのでしょうか? これが質問1です。 |
Question two is just: The O- — you mentioned the OMB as part of the factsheet. I know that the Biden administration has, like, billions in AI asks right now. And I’m wondering how those budget negotiations are proceeding, if at all. | 質問2です: ファクトシートの中で、OMBについて言及されています。 バイデン政権では、AIに何十億もの予算を要求していることは知っています。 その予算交渉がどのように進んでいるのか、もしそうであれば教えてください。 |
SENIOR ADMINISTRATION OFFICIAL: You know, I — thanks for — I think those are great questions. The place to start is to recognize that this is a technology that has many, many, many different applications and that — well, that’s true commercially, and it’s equally true in terms of public purposes. So you — I think it’s exactly right. But you will see it embedded in lots of different parts of what the government does. | 上級行政官:素晴らしい質問だと思います。 まずは、この技術にはさまざまな用途があり、それは商業的にもそうですし、公共の目的という点でも同じことが言えます。 ですから、まさにその通りだと思います。 しかし、政府が行うさまざまな部分に組み込まれているのを見ることができます。 |
Specifically to your question about the national AI research resource: The purpose of that work that the advisory committee — the task force came back with is to provide the data and the compute infrastructure that’s so essential to build these systems. So that’s the foundational piece of infrastructure that — that the taskforce has recommended. | 具体的には、国家AI研究資源についての質問です: 諮問委員会(タスクフォース)がまとめたこの仕事の目的は、こうしたシステムを構築するために不可欠なデータと計算機のインフラを提供することです。 つまり、これがタスクフォースが推奨するインフラの基礎となる部分なのです。 |
MS. PATTERSON: Our next question comes from Natalie Alms. | MS. パターソン:次の質問はナタリー・アルムスさんからです。 |
Q Hey, guys. Thank you so much for hosting this. I appreciate it. So I wanted to ask a little bit about the guidance that you guys are previewing for the federal government itself and federal agencies. Could you give us any more details on what government agencies should expect? And will there be any similar sorts of evaluations or assessments of AI that government is already using, similar to what you sort of previewed for the private sector? | Q やあ、みなさん。 このような場を設けていただき、本当にありがとうございます。 感謝します。 そこで、あなた方が連邦政府自身や連邦政府機関向けにプレビューしているガイダンスについて、少しお聞きしたいと思います。 政府機関が期待すべきことについて、もう少し詳しく教えてください。 また、政府がすでに使用しているAIについて、民間企業向けのプレビューと同様の評価や査定が行われるのでしょうか? |
SENIOR ADMINISTRATION OFFICIAL: Yes, I — one of the things I mentioned was that OMB would be forthcoming with guidance across the federal government. That’s not — that’s — what we’re announcing tomorrow is that that’s coming down the pike. But it’ll come out for comment in the summer. And I think you’ll see the more comprehensive answer to that there. | 上級行政官:はい、私が申し上げたことのひとつに、OMBは連邦政府全体のガイダンスについて近々発表する予定であるということがあります。 これは、明日発表するのは、そのようなガイダンスを作成するということではありません。 しかし、夏にはコメント募集が行われる予定です。 そして、それに対するより包括的な回答は、そちらでご覧いただけると思います。 |
And, you know, again, we’re just going to keep coming back to this North Star of making sure that we’re mitigating the risks while we’re reaching for the benefits. | そして、私たちはこの北極星に立ち返り、リスクを軽減しながらメリットを追求することを確認するつもりです。 |
MS. PATTERSON: Our next question will come from Jory Heckman. | MS. パターソン:次の質問は、ジョリー・ヘックマンさんからです。 |
Q Hi, thanks for doing this, and thanks for taking my question. Going back to the OMB guidance that we’ll see later this summer, what’s your message to federal employees who may be wary of this new era of generative AI? | Q こんにちは、この度は私の質問にお答えいただきありがとうございます。 この夏以降に発表されるであろうOMBのガイダンスに戻りますが、この新しい時代の生成的AIに警戒心を抱いている連邦政府職員へのメッセージは何でしょうか? |
And you said earlier about, you know, job displacement and what that could mean for the workforce more broadly. In terms of the federal workforce and agencies getting more and more comfortable with using this technology, you know, what’s your message to them? | また、先ほど、雇用の奪い合いと、それが労働力により大きな影響を与える可能性があるとおっしゃいました。 連邦政府の職員や機関が、この技術を使うことにますます慣れていくという点で、彼らへのメッセージは何でしょうか? |
SENIOR ADMINISTRATION OFFICIAL: I think, to me, the message keeps coming back to understanding that this is a very powerful technology. And I think for federal workers in particular, it’s an opportunity to show how serving the public can be a place to lead on using AI wisely and responsibly. | 上級行政官:私にとってのメッセージは、この技術が非常に強力な技術であることを理解することに尽きます。 特に連邦政府職員にとっては、公共への奉仕が、AIの賢明かつ責任ある利用をリードする場となり得ることを示す機会だと思います。 |
There are so many public missions that the government does for which AI can be enormously beneficial. But the whole ballgame is going to be how it’s implemented. And it’s really on the shoulders of these federal employees, and I’m sure they’re going to step up to it. | 政府には、AIが非常に有益となる公共的な任務がたくさんあります。 しかし、それをどのように導入するかが勝負の分かれ目です。 そしてそれは、連邦政府の職員たちの肩にかかっているのです。 |
Q And then just one more on the OMB memo here — or the OMB guidance, rather, that’s coming up. In terms of the other documents you described — the AI Bill of Rights, other policies that the administration has put out on this — are there any areas of concern that the administration is looking to underscore in all of this or hasn’t addressed before that this upcoming guidance is really particularly looking to address? | Q もうひとつ、OMBのメモ、あるいはOMBのガイダンスについてお聞きしたいのですが、これはこれから発表されるものです。 AI権利章典や、この件に関して政権が発表している他の文書について、政権がこれらすべてにおいて強調したい、あるいはこれまで取り上げてこなかった懸念事項で、今度の指針が特に取り上げたいと考えているものはありますか? |
SENIOR ADMINISTRATION OFFICIAL: The OMB guidance, you know, is going to be broad across government. I think, you know, much of — a lot of the issue with responsible AI comes right back to the executive order that the President signed in February — his equity executive order — because at the end of the day, if you’re going to use this powerful technology, you have to do it in a way that protects rights and protects safety. So I think that’s really what it keeps — you know, that’s the foundation of this whole — the whole thing here. | 上級行政官:OMBの指針は、政府全体に及ぶものです。 責任あるAIに関する問題の多くは、大統領が2月に署名した大統領令(株式に関する大統領令)に帰結すると思います。結局のところ、この強力なテクノロジーを使うのであれば、権利を守り、安全を守る方法で行わなければならないのです。このことが、このプロジェクト全体の基礎となっています。 |
MS. PATTERSON: And our next question will come from Brittany Trang. | MS. パターソン:では、次の質問はブリタニー・トランさんからです。 |
Q Hi. I was wondering if this has any impact on how individual federal agencies regulate AI. I’m thinking in particular of the FDA that’s already had to deal with this issue in AI-enabled medical devices. Does this have any impact on that? | Q こんにちは。 連邦政府の各機関がAIを規制する方法について、何か影響があるのかと思っていました。 特にFDAは、AIを搭載した医療機器について、すでにこの問題に対処しなければならないと思っているのですが。 これには何か影響があるのでしょうか? |
SENIOR ADMINISTRATION OFFICIAL: Yeah, thank you for the question. I don’t want to get ahead of the guidance and the work that’s being done. But I think you really highlighted the fact that AI is coming into virtually every part of public missions. And so I — you know, I think it is going to be important for people to step up across the board. | 上級行政官:ええ、質問ありがとうございます。 ガイダンスや行われている作業を先取りしたいわけではありません。 しかし、AIが公的任務のほぼすべての部分に入り込んでいるという事実は、本当に強調されていると思います。 ですから、私は、人々が全体的にステップアップすることが重要になると思います。 |
MS. PATTERSON: Our next question comes from Mona Austin. | MS. パターソン:次の質問は、モナ・オースティンさんからです。 |
Q Hi, can you hear me? | Q ハイ、聞こえますか? |
MS. PATTERSON: We can hear you great. | MS. パターソン: 聞こえますよ。 |
Q Hi. Are there any stakeholders from the intellectual property community? Because there are enormous implications about rights and ownership across the board when it comes to artificial intelligence. That’s the one question. | Q こんにちは。 知的財産権関係者の方はいらっしゃいますか? 人工知能に関しては、権利と所有権に関して、全面的に甚大な影響がありますから。 それが1つの質問です。 |
And then you talked earlier about broad application of how AI can be utilized. And I’m just wondering if we are strictly talking about the technological aspects. Because there — as you are aware, there’s so many layers to how this is being used, and it’s mainly technological, but there are other aspects of it as well. So I’m wondering how broad your conversations have been or will be. | それから、先ほど、AIをどのように活用するかという幅広い応用についてお話がありました。 これは、技術的な側面についての話なのでしょうか? というのも......あなたもご存知のように、この活用方法には非常に多くのレイヤーがあり、それは主に技術的なものですが、それ以外の側面もありますよね。 そこで、これまで、あるいはこれから、どの程度幅広い話をされるのでしょうか。 |
SENIOR ADMINISTRATION OFFICIAL: Yeah, first, thank you. To your point about intellectual property, we’re very aware of that as one of the many issues. And it’s — it’s part — that’s very much part of the community that we — we’re talking with and engaged with. | 上級行政官:ええ、まず、ありがとうございます。 知的財産に関するご指摘ですが、私たちは、多くの問題の1つとして、それを強く意識しています。 そして、それは、私たちが話し、関わっているコミュニティーの一部であり、非常に重要なことです。 |
And I can’t emphasize too strongly — I think part of the reason it’s so important that President Biden stepped up to lead in this area is simply because of the breadth of the applications here. It’s going to affect so many different aspects of Americans’ lives. And I think that really underscores why we feel that this work has to be done in a way that does take us into the — into the best future we can possibly craft. | バイデン大統領がこの分野をリードするために歩み寄ったことが、非常に重要な理由の1つだと思います。 アメリカ人の生活のさまざまな側面に影響を与えることになるのです。 このことは、私たちがこの仕事を、私たちが作り得る最高の未来へと導くような方法で行わなければならないと感じている理由を、如実に物語っていると思います。 |
MS. PATTERSON: And our last question will come from Justin Sink. | MS. パターソン:では、最後の質問はジャスティン・シンクからです。 |
Q Hey, guys. Hopefully you can hear this. I just wanted to ask about the company commitments real quick. Just to be clear, the evaluation, will it just be from attendees of DEF CON? I wasn’t sure what you meant by “community partners.” | Q はい、みなさん。 聞こえているといいのですが。 会社のコミットメントについて簡単にお聞きしたいのですが。 はっきりさせたいのですが、評価はDEF CONの参加者だけなのでしょうか? コミュニティ・パートナー」というのがどういう意味なのか、よくわかりませんでした。 |
And then is it just going to be open for the few days in August? Or is it going to be something ongoing? So when new products are rolled out or existing ones evolve, you know, is there going to be some sort of continuing platform that that evaluation can go on going forward? Or is this just kind of a one-shot snapshot? | また、8月の数日間だけ行われるのでしょうか? それとも継続的なものなのでしょうか? 新製品が発売されたり、既存の製品が進化したりしたときに、その評価を行うためのプラットフォームが継続的に用意されるのでしょうか。 それとも、これは単なる一過性のものなのでしょうか? |
SENIOR ADMINISTRATION OFFICIAL: Thank you for that question. I think this is going to be an important first step. This is the first public assessment of multiple large language models. And it’s going to be done in a way that responsibly discloses any of the issues that are discovered to the companies to let them mitigate those issues. | 上級行政官:質問ありがとうございます。 これは重要な最初のステップになると思います。これは、複数の大規模言語モデルの最初の公開評価です。 そして、発見された問題点を責任を持って企業に開示し、その問題点を軽減できるようにする方法で行われる予定です。 |
Of course, what we’re drawing on here, red-teaming has been really helpful and very successful in cybersecurity for identifying vulnerabilities. That’s what we’re now working to adapt for large language models. So I think it’s an important step, and there’ll be more details about it as the event draws closer. | もちろん、サイバーセキュリティの分野では、脆弱性の特定にレッド・ティームが大いに役立ち、大きな成功を収めています。 これを大規模な言語モデルに適応させるべく、現在取り組んでいます。 ですから、これは重要なステップだと思いますし、イベントが近づくにつれて、より詳細な情報が得られると思います。 |
MS. PATTERSON: Thanks, Justin. And thanks, everyone, for hopping on. I know we weren’t able to get to all the questions, but please feel free to shoot me a note, or Subhan from OSTP, with any additional questions, and we’re happy to get you the info that you need. | MS. パターソン:ありがとう、ジャスティン。 そして、みなさん、ご参加いただきありがとうございました。 すべての質問にお答えすることはできませんでしたが、質問があれば、私またはOSTPのSubhanまでお気軽にお知らせください。 |
As a reminder, today’s call and the factsheet are embargoed until 5:00 a.m. Thursday morning. And then, logistically, for tomorrow’s meeting, it will be closed press, but we’ll be releasing a readout tomorrow afternoon after it happens. | 注意事項として、本日の通話とファクトシートは木曜日の朝5:00まで公開禁止とされています。 そして、明日の会議については、ロジスティックス上、非公開の報道となりますが、明日の午後には、その後に声明を公開する予定です。 |
Thanks, everyone, for hopping on. | 皆さん、ありがとうございました。 |
6:59 P.M. EDT | 6:59 P.M. EDT |
FACT SHEET: Biden-Harris Administration Announces New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety | ファクトシート:バイデン-ハリス政権、米国人の権利と安全を守る責任あるAIイノベーションを推進する新たな行動を発表 |
Today, the Biden-Harris Administration is announcing new actions that will further promote responsible American innovation in artificial intelligence (AI) and protect people’s rights and safety. These steps build on the Administration’s strong record of leadership to ensure technology improves the lives of the American people, and break new ground in the federal government’s ongoing effort to advance a cohesive and comprehensive approach to AI-related risks and opportunities. | 本日、バイデン-ハリス政権は、人工知能(AI)における米国の責任あるイノベーションをさらに促進し、人々の権利と安全を守るための新しい行動を発表する。これらの措置は、テクノロジーが米国民の生活を向上させることを確実にするための、政権の強力なリーダーシップの実績を基礎とし、AI関連のリスクと機会に対する結束した包括的なアプローチを進める連邦政府の進行中の努力に新たな境地を開くものである。 |
AI is one of the most powerful technologies of our time, but in order to seize the opportunities it presents, we must first mitigate its risks. President Biden has been clear that when it comes to AI, we must place people and communities at the center by supporting responsible innovation that serves the public good, while protecting our society, security, and economy. Importantly, this means that companies have a fundamental responsibility to make sure their products are safe before they are deployed or made public. | AIは現代において最も強力な技術の一つであるが、それがもたらす機会をつかむためには、まずそのリスクを軽減する必要がある。バイデン大統領は、AIに関しては、社会、安全、経済を守りつつ、公益に資する責任あるイノベーションを支援することで、人々とコミュニティを中心に据える必要があると明言している。重要なことは、企業が製品を展開・公開する前に、その製品の安全性を確認する基本的な責任があることを意味する。 |
Vice President Harris and senior Administration officials will meet today with CEOs of four American companies at the forefront of AI innovation—Alphabet, Anthropic, Microsoft, and OpenAI—to underscore this responsibility and emphasize the importance of driving responsible, trustworthy, and ethical innovation with safeguards that mitigate risks and potential harms to individuals and our society. The meeting is part of a broader, ongoing effort to engage with advocates, companies, researchers, civil rights organizations, not-for-profit organizations, communities, international partners, and others on critical AI issues. | ハリス副大統領と上級行政官は本日、AIイノベーションの最前線に立つ米国企業4社(アルファベット、アントロピック、マイクロソフト、OpenAI)のCEOと会談し、この責任を強調するとともに、個人と社会に対するリスクと潜在的被害を軽減するセーフガードによって、責任と信頼、そして倫理的イノベーションを推進する重要性を強調する予定である。この会議は、AIに関する重要な問題について、支持者、企業、研究者、公民権団体、非営利団体、地域社会、国際的なパートナー、その他の人々と協力するための、より広範で継続的な取り組みの一部である。 |
This effort builds on the considerable steps the Administration has taken to date to promote responsible innovation. These include the landmark Blueprint for an AI Bill of Rights and related executive actions announced last fall, as well as the AI Risk Management Framework and a roadmap for standing up a National AI Research Resource released earlier this year. | この取り組みは、責任あるイノベーションを促進するために、これまで行政が取ってきた多大な措置に基づくものである。これには、昨年秋に発表された画期的な「AI権利章典のための青写真」と関連する行政措置、今年初めに発表された「AIリスクマネジメントの枠組み」と「国立AI研究資源を立ち上げるためのロードマップ」などがある。 |
The Administration has also taken important actions to protect Americans in the AI age. In February, President Biden signed an Executive Order that directs federal agencies to root out bias in their design and use of new technologies, including AI, and to protect the public from algorithmic discrimination. Last week, the Federal Trade Commission, Consumer Financial Protection Bureau, Equal Employment Opportunity Commission, and Department of Justice’s Civil Rights Division issued a joint statement underscoring their collective commitment to leverage their existing legal authorities to protect the American people from AI-related harms. | 政権は、AI時代に米国人を保護するための重要な行動もとっている。2月、バイデン大統領は、AIを含む新技術の設計と使用におけるバイアスを根絶し、アルゴリズムによる差別から国民を保護するよう連邦機関に指示する大統領令に署名した。先週、連邦取引委員会、消費者金融保護局、雇用機会均等委員会、司法省公民権課は共同声明を発表し、AI関連の被害から米国民を守るために既存の法的権限を活用するという共同コミットメントを強調した。 |
The Administration is also actively working to address the national security concerns raised by AI, especially in critical areas like cybersecurity, biosecurity, and safety. This includes enlisting the support of government cybersecurity experts from across the national security community to ensure leading AI companies have access to best practices, including protection of AI models and networks. | 政権はまた、AIがもたらす国家安全保障上の懸念、特にサイバーセキュリティ、バイオセキュリティ、安全性といった重要な分野に積極的に取り組んでいる。これには、国家安全保障コミュニティ全体から政府のサイバーセキュリティ専門家の支援を得て、主要なAI企業がAIモデルやネットワークの保護を含むベストプラクティスにアクセスできるようにすることが含まれる。 |
Today’s announcements include: | 本日の発表内容は以下の通りである: |
New investments to power responsible American AI research and development (R&D). The National Science Foundation is announcing $140 million in funding to launch seven new National AI Research Institutes. This investment will bring the total number of Institutes to 25 across the country, and extend the network of organizations involved into nearly every state. These Institutes catalyze collaborative efforts across institutions of higher education, federal agencies, industry, and others to pursue transformative AI advances that are ethical, trustworthy, responsible, and serve the public good. In addition to promoting responsible innovation, these Institutes bolster America’s AI R&D infrastructure and support the development of a diverse AI workforce. The new Institutes announced today will advance AI R&D to drive breakthroughs in critical areas, including climate, agriculture, energy, public health, education, and cybersecurity. | 責任ある米国のAI研究開発(R&D)を強化するための新たな投資。 全米科学財団は、新たに7つの全米AI研究機関を立ち上げるための1億4,000万ドルの資金提供を発表する。この投資により、全米で25の研究所が設立され、関係する組織のネットワークはほぼすべての州に拡大される。これらの研究所は、高等教育機関、連邦政府機関、産業界などが協力して、倫理的で、信頼でき、責任感があり、公共の利益にかなう、変革的なAIの進歩を追求するための触媒となる。これらの研究所は、責任あるイノベーションを促進するだけでなく、米国のAI研究開発インフラを強化し、多様なAI労働力の育成を支援するものである。本日発表された新しい研究所は、気候、農業、エネルギー、公衆衛生、教育、サイバーセキュリティなどの重要な分野におけるブレークスルーを促進するためにAI研究開発を推進する。 |
Public assessments of existing generative AI systems. The Administration is announcing an independent commitment from leading AI developers, including Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI, and Stability AI, to participate in a public evaluation of AI systems, consistent with responsible disclosure principles—on an evaluation platform developed by Scale AI—at the AI Village at DEFCON 31. This will allow these models to be evaluated thoroughly by thousands of community partners and AI experts to explore how the models align with the principles and practices outlined in the Biden-Harris Administration’s Blueprint for an AI Bill of Rights and AI Risk Management Framework. This independent exercise will provide critical information to researchers and the public about the impacts of these models, and will enable AI companies and developers to take steps to fix issues found in those models. Testing of AI models independent of government or the companies that have developed them is an important component in their effective evaluation. | 既存の生成的AIシステムの公開評価。 政権は、Anthropic、Google、Hugging Face、Microsoft、NVIDIA、OpenAI、Stability AIなどの主要なAI開発者が、DEFCON 31のAI Villageにおいて、Scale AIが開発した評価プラットフォーム上で責任ある情報開示の原則に沿ったAIシステムの公開評価に参加することを独自に約束したと発表している。これにより、これらのモデルは、何千人ものコミュニティ・パートナーやAI専門家によって徹底的に評価され、モデルがバイデン-ハリス政権の「AI権利章典およびAIリスクマネジメントの枠組みのための青写真」に概説されている原則と実践に合致しているかどうかを探ることができるようになる。この独立した運動は、これらのモデルの影響について研究者や一般市民に重要な情報を提供し、AI企業や開発者がこれらのモデルで見つかった問題を修正するための措置を取ることを可能にする。政府や開発企業から独立したAIモデルのテストは、その効果的な評価において重要な要素である。 |
Policies to ensure the U.S. government is leading by example on mitigating AI risks and harnessing AI opportunities. The Office of Management and Budget (OMB) is announcing that it will be releasing draft policy guidance on the use of AI systems by the U.S. government for public comment. This guidance will establish specific policies for federal departments and agencies to follow in order to ensure their development, procurement, and use of AI systems centers on safeguarding the American people’s rights and safety. It will also empower agencies to responsibly leverage AI to advance their missions and strengthen their ability to equitably serve Americans—and serve as a model for state and local governments, businesses and others to follow in their own procurement and use of AI. OMB will release this draft guidance for public comment this summer, so that it will benefit from input from advocates, civil society, industry, and other stakeholders before it is finalized. | AIリスクの軽減とAI機会の活用について、米国政府が模範となるような政策をとること。 行政管理予算局(OMB)は、米国政府によるAIシステムの利用に関する政策ガイダンスのドラフトを公開し、パブリックコメントを求めると発表している。このガイダンスは、AIシステムの開発、調達、利用が、アメリカ国民の権利と安全を守ることを中心に据えるために、連邦政府各省庁が従うべき具体的な方針を確立するものである。また、各省庁が責任を持ってAIを活用し、そのミッションを推進し、米国人に公平にサービスを提供する能力を強化することを後押しし、州政府や地方自治体、企業などが独自のAI調達・活用において従うべきモデルとして機能することになる。OMBはこの夏、このドラフトガイダンスを公開し、パブリックコメントを求める予定であるため、最終決定前に擁護者、市民社会、業界、その他の関係者からの意見を参考にすることができる。 |
リンクが貼られているウェブページ等
⚫︎ White House
・Blueprint for an AI Bill of Rights
⚫︎ NIST
⚫︎ AI Gov.
・[PDF] Strengthening andDemocratizing the U.S. Artificial Intelligence Innovation Ecosystem
⚫︎ White House
⚫︎ まるちゃんの情報セキュリティ気まぐれ日記
・2022.10.07 米国 科学技術政策局 AI権利章典の青写真
・2023.01.27 NIST AIリスクフレームワーク
・2023.04.04 米国 ファクトシート:「民主主義のための技術の進歩」と「バイデン-ハリス政権の国内外における民主主義の再生への揺るぎないコミットメント」 (2023.03.29)
« 米国 NIST SP 1800-36 (ドラフト) 信頼できるIoTデバイスのネットワーク層オンボーディングとライフサイクル管理:インターネットプロトコルベースのIoTデバイスとネットワークのセキュリティ強化(初期ドラフト)(2023.05.03) | Main | 閣議決定 経済安全保障関係2つ(特定社会基盤役務基本指針, 特許出願非公開基本指針)(2023.04.28) »
Comments