米国 ホワイトハウス 7つの米国AI企業が、バイデン政権とした3つの分野の8つの約束
こんにちは、丸山満彦です。
米国の7つのAI企業が、バイデン政権と大きくいうと3つの分野の8つの約束をしたようですね。。。
Voluntary AI Commitments
という表題が米国流かもですね。。。
7つの米国AI企業
3つの分野...
キーワードは、safety, security, trust。 日本語にすると、安全、セキュリティ、信頼...このニュアンスの違いをうまく伝えるのは難しいですね。。。
Ensuring Products are Safe Before Introducing Them to the Public | 製品を市場に出す前に、その安全性を確認する。 |
Building Systems that Put Security First | セキュリティ第一のシステム構築 |
Earning the Public’s Trust | 国民の信頼を得る |
8つの自主的な約束(コミットメント)...
Safety | 安全 |
1) Commit to internal and external red-teaming of models or systems in areas including misuse, societal risks, and national security concerns, such as bio, cyber, and other safety areas. | 1) バイオ、サイバー、その他の安全分野など、誤用、社会的リスク、国家安全保障上の懸念を含む領域において、モデルやシステムの社内外でのレッドチーム化にコミットする。 |
2) Work toward information sharing among companies and governments regarding trust and safety risks, dangerous or emergent capabilities, and attempts to circumvent safeguards | 2) 信頼と安全のリスク、危険な、あるいは出現しつつある能力、セーフガードを回避しようとする試みに関して、企業と政府の間で情報共有に努める。 |
Security | セキュリティ |
3) Invest in cybersecurity and insider threat safeguards to protect proprietary and unreleased model weights | 3) 独自かつ未公開のモデルウェイトを保護するために、サイバーセキュリティと内部脅威の保護措置に投資する。 |
4) Incent third-party discovery and reporting of issues and vulnerabilities | 4) サードパーティによる問題や脆弱性の発見と報告を奨励する。 |
Trust | 信頼 |
5) Develop and deploy mechanisms that enable users to understand if audio or visual content is AI-generated, including robust provenance, watermarking, or both, for AI-generated audio or visual content | 5) AIが生成した音声または映像コンテンツについて、堅牢な証明、電子透かし、またはその両方を含め、利用者が音声または映像コンテンツがAI生成的かどうかを理解できる仕組みを開発し、展開する。 |
6) Publicly report model or system capabilities, limitations, and domains of appropriate and inappropriate use, including discussion of societal risks, such as effects on fairness and bias | 6) 公正性やバイアスへの影響など社会的リスクについての議論を含め、モデルやシステムの能力、限界、適切な使用領域と不適切な使用領域を公に報告する。 |
7) Prioritize research on societal risks posed by AI systems, including on avoiding harmful bias and discrimination, and protecting privacy | 7) 有害なバイアスや差別の回避、プライバシーの保護など、AIシステムがもたらす社会的リスクに関する研究を防御する。 |
8) Develop and deploy frontier AI systems to help address society’s greatest challenges | 8) フロンティアAIシステムを開発・展開し、社会の最も大きな課題の解決に貢献する。 |
国益のために、こういう国際的に影響力を及ぼすことができる米国企業が結束できるところが強いですね。。。
これから、AIについての国際的なルールが作られていくでしょうが、米国、欧州、英国、中国とそれぞれの思惑があります。もちろん、日本にもあるのでしょう。。。
どう落とすかですね。。。
● U.S. White House
FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI | ファクトシート:バイデン-ハリス政権は、AIがもたらすリスクを管理するため、大手人工知能企業の自主的なコミットメントを確保した。 |
Voluntary commitments – underscoring safety, security, and trust – mark a critical step toward developing responsible AI | 安全、安心、信頼を強調する自主的なコミットメントは、責任あるAIの開発に向けた重要な一歩となる。 |
Biden-Harris Administration will continue to take decisive action by developing an Executive Order and pursuing bipartisan legislation to keep Americans safe | バイデン-ハリス政権は、大統領令を策定し、アメリカ人の安全を守るための超党派の法案を追求することで、断固とした行動を取り続ける。 |
Since taking office, President Biden, Vice President Harris, and the entire Biden-Harris Administration have moved with urgency to seize the tremendous promise and manage the risks posed by Artificial Intelligence (AI) and to protect Americans’ rights and safety. As part of this commitment, President Biden is convening seven leading AI companies at the White House today – Amazon, Anthropic, Google, Inflection, Meta, Microsoft, and OpenAI – to announce that the Biden-Harris Administration has secured voluntary commitments from these companies to help move toward safe, secure, and transparent development of AI technology. | 就任以来、バイデン大統領、ハリス副大統領、そしてバイデン-ハリス政権全体は、人工知能(AI)がもたらす非常に大きな可能性を捉え、リスクをマネジメントし、米国人の権利と安全を守るために緊急に動いてきた。このコミットメントの一環として、バイデン大統領は本日、アマゾン、Anthropic、グーグル、Inflection、Meta、マイクロソフト、OpenAIの大手AI企業7社をホワイトハウスに招集し、バイデン-ハリス政権が、AI技術の安全、安心、透明性のある開発への移行を支援するために、これらの企業から自発的なコミットメントを確保したことを発表する。 |
Companies that are developing these emerging technologies have a responsibility to ensure their products are safe. To make the most of AI’s potential, the Biden-Harris Administration is encouraging this industry to uphold the highest standards to ensure that innovation doesn’t come at the expense of Americans’ rights and safety. | このような新興技術を開発している企業には、その製品の安全性を確保する責任がある。AIの可能性を最大限に活用するため、バイデン-ハリス政権はこの業界に対し、イノベーションが米国人の権利と安全を犠牲にすることのないよう、最高標準を維持するよう奨励している。 |
These commitments, which the companies have chosen to undertake immediately, underscore three principles that must be fundamental to the future of AI – safety, security, and trust – and mark a critical step toward developing responsible AI. As the pace of innovation continues to accelerate, the Biden-Harris Administration will continue to remind these companies of their responsibilities and take decisive action to keep Americans safe. | 各社が直ぐにに着手することを選択したこれらのコミットメントは、AIの将来にとって基本的でなければならない3つの原則(安全、セキュリティ、信頼)を強調するものであり、責任あるAIの開発に向けた重要な一歩となる。技術革新のペースが加速し続けるなか、バイデン-ハリス政権は、これらの企業にその責任を喚起し、アメリカ人の安全を守るために断固とした行動を取り続ける。 |
There is much more work underway. The Biden-Harris Administration is currently developing an executive order and will pursue bipartisan legislation to help America lead the way in responsible innovation. | 現在進行中の仕事はまだたくさんある。バイデン=ハリス政権は現在、大統領令を策定中であり、米国が責任あるイノベーションを先導できるよう、超党派の法案を追求する予定である。 |
Today, these seven leading AI companies are committing to: | 本日、これら7つの主要AI企業は以下のことを約束する: |
Ensuring Products are Safe Before Introducing Them to the Public | 製品を市場に出す前に、その安全性を確認する。 |
・The companies commit to internal and external security testing of their AI systems before their release. This testing, which will be carried out in part by independent experts, guards against some of the most significant sources of AI risks, such as biosecurity and cybersecurity, as well as its broader societal effects. | ・各社は、AIシステムのリリース前に社内外のセキュリティ・テストを実施する。 このテストは独立した専門家によって実施され、バイオセキュリティーやサイバーセキュリティーのようなAIの最も重大なリスク源や、より広範な社会的影響から保護する。 |
・The companies commit to sharing information across the industry and with governments, civil society, and academia on managing AI risks. This includes best practices for safety, information on attempts to circumvent safeguards, and technical collaboration. | ・各社は、AIのリスクマネジメントについて、業界全体、政府、市民社会、学界と情報を共有することを約束する。 これには、安全性に関するベストプラクティス、セーフガードを回避しようとする試みに関する情報、技術協力などが含まれる。 |
Building Systems that Put Security First | セキュリティ第一のシステム構築 |
・The companies commit to investing in cybersecurity and insider threat safeguards to protect proprietary and unreleased model weights. These model weights are the most essential part of an AI system, and the companies agree that it is vital that the model weights be released only when intended and when security risks are considered. | ・各社は、独自のモデルウェイトや未発表のモデルウェイトを保護するため、サイバーセキュリティや内部脅威に対するセーフガードに投資することを約束する。 これらのモデルウェイトはAIシステムの最も重要な部分であり、両社は、モデルウェイトは意図された場合にのみ、またセキュリティリスクを考慮した場合にのみ公開されることが不可欠であることに同意する。 |
・The companies commit to facilitating third-party discovery and reporting of vulnerabilities in their AI systems. Some issues may persist even after an AI system is released and a robust reporting mechanism enables them to be found and fixed quickly. | ・両社は、サードパーティによるAIシステムの脆弱性の発見と報告を促進することを約束する。 問題の中には、AIシステムがリリースされた後でも残るものがあり、強固な報告メカニズムがあれば、それらを迅速に発見し、修正することができる。 |
Earning the Public’s Trust | 国民の信頼を得る |
・The companies commit to developing robust technical mechanisms to ensure that users know when content is AI generated, such as a watermarking system. This action enables creativity with AI to flourish but reduces the dangers of fraud and deception. | ・両社は、電子透かしシステムなど、コンテンツがAIによって生成されたものであることをユーザーに確実に伝えるための強固な技術的メカニズムを開発することを約束する。 この措置は、AIによる創造性を開花させるとともに、詐欺や欺瞞の危険性を低減する。 |
・The companies commit to publicly reporting their AI systems’ capabilities, limitations, and areas of appropriate and inappropriate use. This report will cover both security risks and societal risks, such as the effects on fairness and bias. | ・各社は、自社のAIシステムの能力、限界、適切な使用領域と不適切な使用領域を公に報告することを約束する。 この報告書は、セキュリティリスクと、公平性やバイアスへの影響などの社会的リスクの両方をカバーする。 |
・The companies commit to prioritizing research on the societal risks that AI systems can pose, including on avoiding harmful bias and discrimination, and protecting privacy. The track record of AI shows the insidiousness and prevalence of these dangers, and the companies commit to rolling out AI that mitigates them. | ・各社は、有害なバイアスや差別の回避、プライバシーの保護など、AIシステムがもたらしうる社会的リスクに関する研究を優先することを約束する。 AIの実績は、これらの危険の狡猾さと蔓延を示しており、両社はこれらを低減するAIを展開することを約束する。 |
・The companies commit to develop and deploy advanced AI systems to help address society’s greatest challenges. From cancer prevention to mitigating climate change to so much in between, AI—if properly managed—can contribute enormously to the prosperity, equality, and security of all. | ・各社は、社会の最大の課題に対処するための高度なAIシステムを開発し、展開することを約束する。 がんの予防から気候変動の低減まで、AIは適切に管理されれば、すべての人の繁栄、平等、安全保障に大きく貢献することができる。 |
As we advance this agenda at home, the Administration will work with allies and partners to establish a strong international framework to govern the development and use of AI. It has already consulted on the voluntary commitments with Australia, Brazil, Canada, Chile, France, Germany, India, Israel, Italy, Japan, Kenya, Mexico, the Netherlands, New Zealand, Nigeria, the Philippines, Singapore, South Korea, the UAE, and the UK. The United States seeks to ensure that these commitments support and complement Japan’s leadership of the G-7 Hiroshima Process—as a critical forum for developing shared principles for the governance of AI—as well as the United Kingdom’s leadership in hosting a Summit on AI Safety, and India’s leadership as Chair of the Global Partnership on AI. We also are discussing AI with the UN and Member States in various UN fora. | 国内でこのアジェンダを推進すると同時に、政府は同盟国やパートナーと協力し、AIの開発と利用を管理する強力な国際的枠組みを確立する。米国はすでに、オーストラリア、ブラジル、カナダ、チリ、フランス、ドイツ、インド、イスラエル、イタリア、日本、ケニア、メキシコ、オランダ、ニュージーランド、ナイジェリア、フィリピン、シンガポール、韓国、アラブ首長国連邦、英国との自主的な約束について協議している。米国は、これらのコミットメントが、AIガバナンスのための共有原則を策定するための重要なフォーラムであるG7広島プロセスにおける日本のリーダーシップや、AIの安全性に関するサミット開催における英国のリーダーシップ、AIに関するグローバル・パートナーシップの議長としてのインドのリーダーシップを確実に支援し、補完することを目指す。 また、国連の様々な場において、国連や加盟国ともAIについて議論している。 |
Today’s announcement is part of a broader commitment by the Biden-Harris Administration to ensure AI is developed safely and responsibly, and to protect Americans from harm and discrimination. | 本日の発表は、AIが安全かつ責任を持って開発され、米国人を危害や差別から守るための、バイデン-ハリス政権によるより広範なコミットメントの一環である。 |
・Earlier this month, Vice President Harris convened consumer protection, labor, and civil rights leaders to discuss risks related to AI and reaffirm the Biden-Harris Administration’s commitment to protecting the American public from harm and discrimination. | ・今月初め、ハリス副大統領は消費者保護、労働、公民権のリーダーを招集し、AIに関連するリスクについて話し合い、アメリカ国民を被害や差別から守るというバイデン=ハリス政権のコミットメントを再確認した。 |
・Last month, President Biden met with top experts and researchers in San Francisco as part of his commitment to seizing the opportunities and managing the risks posed by AI, building on the President’s ongoing engagement with leading AI experts. | ・先月、バイデン大統領は、AIがもたらす機会を捉え、リスクをマネジメントするためのコミットメントの一環として、サンフランシスコでトップクラスの専門家や研究者と会談した。 |
・In May, the President and Vice President convened the CEOs of four American companies at the forefront of AI innovation—Google, Anthropic, Microsoft, and OpenAI—to underscore their responsibility and emphasize the importance of driving responsible, trustworthy, and ethical innovation with safeguards that mitigate risks and potential harms to individuals and our society. At the companies’ request, the White House hosted a subsequent meeting focused on cybersecurity threats and best practices. | ・大統領と副大統領は5月、AIイノベーションの最前線にいる4つの米国企業(グーグル、Anthropic、マイクロソフト、OpenAI)のCEOを招集し、その責任を強調するとともに、個人と社会に対するリスクと潜在的な危害を軽減するセーフガードを備えた、責任ある、信頼できる、倫理的なイノベーションを推進することの重要性を強調した。各社の要請を受けて、ホワイトハウスはサイバーセキュリティの脅威とベストプラクティスに焦点を当てた会議を開催した。 |
・The Biden-Harris Administration published a landmark Blueprint for an AI Bill of Rights to safeguard Americans’ rights and safety, and U.S. government agencies have ramped up their efforts to protect Americans from the risks posed by AI, including through preventing algorithmic bias in home valuation and leveraging existing enforcement authorities to protect people from unlawful bias, discrimination, and other harmful outcomes. | ・バイデン-ハリス政権は、米国人の権利と安全を守るための画期的な「AI権利章典」の青写真を発表した。米国政府機関は、AIがもたらすリスクから米国人を保護するための取り組みを強化しており、これには、家庭評価におけるアルゴリズムによるバイアスを防止し、違法な偏見や差別、その他の有害な結果から人々を守るために既存の執行権限を活用することが含まれる。 |
・President Biden signed an Executive Order that directs federal agencies to root out bias in the design and use of new technologies, including AI, and to protect the public from algorithmic discrimination. | ・バイデン大統領は、AIを含む新技術の設計と使用におけるバイアスを根絶し、アルゴリズムによる差別から国民を保護するよう連邦政府機関に指示する大統領令に署名した。 |
・Earlier this year, the National Science Foundation announced a $140 million investment to establish seven new National AI Research Institutes, bringing the total to 25 institutions across the country. | ・今年初め、全米科学財団は1億4,000万ドルを投じて7つの国立AI研究機構を新設することを発表し、これにより全米で25の機構が設立されることになった。 |
・The Biden-Harris Administration has also released a National AI R&D Strategic Plan to advance responsible AI. | ・バイデン=ハリス政権も、責任あるAIを推進するための国家AI研究開発戦略計画を発表した。 |
・The Office of Management and Budget will soon release draft policy guidance for federal agencies to ensure the development, procurement, and use of AI systems is centered around safeguarding the American people’s rights and safety. | ・行政管理予算局は、AIシステムの開発・調達・利用が米国民の権利と安全を守ることを中心としたものであることを確実にするため、連邦政府機関向けの政策指針案を近く発表する。 |
・[PDF] Ensuring Safe, Secure, and Trustworthy AI
仮対訳は下に...
記者発表...
・2023.07.21 [YouTube] President Biden Delivers Remarks on Artificial Intelligence
・2023.07.21 Remarks by President Biden on Artificial Intelligence
Remarks by President Biden on Artificial Intelligence | 人工知能に関するバイデン大統領の発言 |
Roosevelt Room | ルーズベルト・ルーム |
1:18 P.M. EDT | 東部夏時間 午後1時18分 |
THE PRESIDENT: I’m the AI. (Laughter.) If any of you think I’m Abe Lincoln, blame it on the AI. | 大統領:私はAIだ。 (笑)。私がエイブ・リンカーンだと思っている人がいたら、AIのせいにしてくれ。 |
First of all, thanks. Thanks for coming. And I want to thank my colleagues here for taking the time to come back again and again as we try to deal with the — we’re joined by leaders of seven American companies who are driving innovation in artificial intelligence. And it is astounding. | まずは、ありがとう。 来てくれてありがとう。 そして、このような問題に対処するために、時間を割いて何度も足を運んでくれた同僚たちに感謝したい。今回は、人工知能のイノベーションを推進する7つのアメリカ企業のリーダーが参加している。 それは驚くべきことだ。 |
Artificial intelligence or — it promises an enormous — an enormous promise of both risk to our society and our economy and our national security, but also incredible opportunities — incredible opportunities. | 人工知能は、私たちの社会、経済、そして国家安全保障に対するリスクであると同時に、信じられないようなチャンスでもある。 |
Just two months ago, Kamala and I met with these leaders — most of them are here again — to underscore the responsibility of making sure that products that they are producing are safe and — and making them public — what they are and what they aren’t. | ちょうど2ヶ月前、カマラ副大統領と私はこれらの指導者たち-彼らのほとんどは再びここにいる-と会い、彼らが生産している製品が安全であることを確認し、それが何であり、何でないかを公表する責任を強調した。 |
Since then, I’ve met with some of America’s top minds in technology to hear the range of perspectives and possibilities and risk of AI. | それ以来、私はアメリカのテクノロジー界のトップたちと会い、AIのさまざまな視点や可能性、リスクについて話を聞いてきた。 |
Kamala can’t be here because she’s traveling to Florida, but she’s met with civil society leaders to hear their concerns about the impacts on society and ways to protect the rights of Americans. | カマラ副大統領はフロリダに出張中のためここには来られないが、市民社会のリーダーたちと会い、社会への影響やアメリカ人の権利を守る方法についての懸念を聞いてきた。 |
Over the past year, my administration has taken action to guide responsible innovation. | この1年間、私の政権は責任あるイノベーションを導くための行動をとってきた。 |
Last October, we introduced a first-of-its-kind AI Bill of Rights. | 昨年10月には、世界で初めてのAI権利章典を導入した。 |
In February, I signed an executive order to direct agencies to protect the public from algorithms that discriminate. | 2月には、差別的なアルゴリズムから国民を守るよう各省庁に指示する大統領令に署名した。 |
In May, we unveiled a new strategy to establish seven new AI research institutes to help drive breakthroughs in responsible AI innovention [innovation]. | 5月には、責任あるAIイノベーション(技術革新)のブレークスルーを促進するために、7つの新しいAI研究機構を設立する新戦略を発表した。 |
And today, I’m pleased to announce that these seven companies have agreed volun- — to voluntary commitments for responsible innovation. These commitments, which the companies will implement immediately, underscore three fundamental principles: safety, security, and trust. | そして本日、これら7社が責任あるイノベーションのための自発的なコミットメントに合意したことを発表できることを嬉しく思う。 各社が直ちに実施するこれらのコミットメントは、安全、セキュリティ、信頼という3つの基本原則を強調している。 |
First, the companies have an obligation to make sure their technology is safe before releasing it to the public. That means testing the capabilities of their systems, assessing their potential risk, and making the results of these assessments public. | 第一に、各社はその技術を市場に出す前に、安全性を確認する義務がある。 つまり、システムの機能をテストし、潜在的なリスクを評価し、その結果を公表することである。 |
Second, companies must prioritize the security of their systems by safeguarding their models against cyber threats and managing the risks to our national security and sharing the best practices and industry standards that are — that are necessary. | 第二に、企業はサイバー脅威から自社モデルを守り、国家安全保障に対するリスクをマネジメントし、必要なベストプラクティスと業界標準を共有することで、システムのセキュリティを優先しなければならない。 |
Third, the companies have a duty to earn the people’s trust and empower users to make informed decisions — labeling content that has been altered or AI-generated, rooting out bias and discrimination, strengthening privacy protections, and shielding children from harm. | 第三に、企業は国民の信頼を獲得し、ユーザーが十分な情報を得た上で意思決定できるようにする義務がある。改ざんされたコンテンツやAIが生成したコンテンツにはラベルを付け、バイアスと差別を根絶し、プライバシー保護を強化し、子どもたちを被害から守るのだ。 |
And finally, companies have agreed to find ways for AI to help meet society’s greatest challenges — from cancer to climate change — and invest in education and new jobs to help students and workers prosper from the opportunities, and there are enormous opportunities of AI. | そして最後に、企業はAIが癌から気候変動に至るまで、社会の最も大きな課題を解決するのに役立つ方法を見つけ、学生や労働者がAIの機会から繁栄できるよう、教育や新たな仕事に投資することに合意した。 |
These commitments are real, and they’re concrete. They’re going to help fulfill — the industry fulfill its fundamental obligation to Americans to develop safe, secure, and trustworthy technologies that benefit society and uphold our values and our shared values. | これらの公約は現実的で具体的だ。 これらのコミットメントは現実的であり、具体的である。これらのコミットメントは、社会に利益をもたらし、我々の価値観と共通の価値観を支持する、安全、安心、信頼できるテクノロジーを開発するという、アメリカ人に対する基本的な義務を果たすことにつながる。 |
Let me close with this. We’ll see more technology change in the next 10 years, or even in the next few years, than we’ve seen in the last 50 years. That has been an astounding revelation to me, quite frankly. Artificial intelligence is going to transform the lives of people around the world. | 最後に言わせてほしい。 我々は今後10年、あるいは数年のうちに、過去50年間に経験した以上のテクノロジーの変化を目の当たりにするだろう。 これは、率直に言って、私にとって驚くべき啓示だった。 人工知能は世界中の人々の生活を一変させるだろう。 |
The group here will be critical in shepherding that innovation with responsibility and safety by design to earn the trust of Americans. And, quite frankly, as I met with world leaders, all — all — all our Eur- — all the G7 is focusing on the same thing. | ここのグループは、アメリカ人の信頼を得るために、責任とデザインによる安全性をもって、このイノベーションの舵取りをする上で重要な役割を果たすだろう。 そして率直に言って、私が世界の指導者たちと会ったとき、すべての、すべての、すべての我々のEurが、すべてのG7が同じことに焦点を当てていた。 |
Social media has shown us the harm that powerful technology can do without the right safeguards in place. | ソーシャルメディアは、強力なテクノロジーが適切な保護措置を講じることなくもたらす弊害を我々に示している。 |
And I’ve said at the State of the Union that Congress needs to pass bipartisan legislation to impose strict limits on personal data collection, ban targeted advertisements to kids, require companies to put health and safety first. | 私は一般教書演説で、議会は超党派の法案を可決し、個人データ収集に厳格な制限を課し、子供へのターゲット広告を禁止し、企業に健康と安全を最優先させる必要があると述べた。 |
But we must be clear-eyed and vigilant about the threats emerging — of emerging technologies that can pose — don’t have to, but can pose — to our democracy and our values. | しかし、私たちは、民主主義と私たちの価値観に脅威をもたらす可能性のある(もたらす必要はないが、もたらす可能性のある)新興テクノロジーについて、明確な目を向け、警戒しなければならない。 |
Americans are seeing how advanced artificial intelligence and the pace of innovation have the power to disrupt jobs and industries. | 高度な人工知能と技術革新のスピードが、いかに雇用と産業を破壊する力を持っているかを、アメリカ国民は目の当たりにしている。 |
These commitments — these commitments are a promising step, but the — we have a lot more work to do together. | これらの公約は、有望な一歩ではあるが、われわれは共になすべき多くの仕事を抱えている。 |
Realizing the promise of AI by managing the risk is going to require some new laws, regulations, and oversight. | リスクをマネジメントすることで、AIの有望性を実現するには、いくつかの新しい法律、規制、監視が必要になるだろう。 |
In the weeks ahead, I’m going to continue to take executive action to help America lead the way toward responsible innovation. And we’re going to work with both parties to develop appropriate legislation and regulation. I’m pleased that Leader Schumer and Leader Jeffries and others in the Congress are making this a top bipartisan priority. | 今後数週間、私は、米国が責任あるイノベーションへの道をリードできるよう、引き続き行政措置を講じるつもりだ。 そして、適切な法律や規制を策定するために、両党と協力していくつもりだ。 シューマー党首やジェフリーズ党首をはじめとする議会関係者が、これを超党派の最優先課題としていることをうれしく思う。 |
As we advance the agenda here at home, we’ll lead the work with — we’ll lead work with our allies and partners on a common international framework to govern the development of AI. | 国内でアジェンダを進めると同時に、我々は、AI開発をガバナンスするための国際的な共通の枠組みについて、同盟国やパートナーとの作業を主導していく。 |
I think these leaders and — I thank these leaders that are in the room with me today — (clears throat) — and their partnership — excuse me — and their commitments that they’re making. This is a serious responsibility, and we have to get it right. And there’s enormous, enormous potential upside as well. | 私は、今日私と一緒に部屋にいるこれらの指導者たち、そして彼らのパートナーシップ、失礼、そして彼らのコミットメントに感謝している。 これは重大な責任であり、我々はそれを正しく理解しなければならない。 そして、莫大な潜在的なプラス面もある。 |
So I want to thank you all. And they’re about to go down to a meeting, which I’ll catch up with them later. | だから、私は皆さんに感謝したい。 彼らはこれからミーティングに行くので、後で追いつくことにする。 |
So thank you, thank you, thank you. | ありがとう、ありがとう、ありがとう。 |
1:24 P.M. EDT | 東部夏時間 午後1時24分 |
情報技術産業協議会の反応...
ここの関連団体であるINCITSが、ISO/IEC JTC 1/SC 42にも関わっていますからね。。。
● Information Technology Industry Council; ITI
・2023.07.21 ITI: New White House AI Commitments Can Mitigate Risks, Advance Trust in Technology
ITI: New White House AI Commitments Can Mitigate Risks, Advance Trust in Technology | ITI:ホワイトハウスの新しいAIコミットメントはリスクを低減し、技術への信頼を前進させることができる |
WASHINGTON – Today, global tech trade association ITI’s President and CEO Jason Oxman reacted to the Biden Administration’s voluntary commitment with seven AI companies, including several ITI members, to ensure the safe and responsible deployment of artificial intelligence (AI): | ワシントン - 本日、世界的なハイテク業界団体であるITIのジェイソン・オックスマン会長兼CEOは、バイデン政権がITI会員数社を含むAI企業7社と、人工知能(AI)の安全で責任ある展開を確保するための自主的なコミットメントを交わしたことに対応した: |
“Safe and responsible AI development and deployment must be grounded in trust, transparency and ethical design, and collaboration between government, industry, civil society, and academia. The voluntary commitments announced by the White House today will advance the tech industry’s ongoing work to make AI safer for all. We’re encouraged that many of the commitments reflect those recommended by ITI and encourage participation in the AI activities of our affiliated standards activities organization INCITS. ITI looks forward to our continued partnership with the Biden Administration and the U.S. Congress to advance strategic and effective AI policy.” | 「安全で責任あるAIの開発と導入は、信頼、透明性、倫理的な設計、政府、産業界、市民社会、学界の協力に基づくものでなければならない。ホワイトハウスが本日発表した自主的なコミットメントは、すべての人にとってAIをより安全なものにするためのテック業界の継続的な取り組みを前進させるだろう。ITIが推奨する公約の多くがこの公約に反映されており、ITIの関連標準活動組織であるINCITSのAI活動への参加を奨励するものであることを心強く思う。ITIは、戦略的かつ効果的なAI政策を推進するため、バイデン政権および米国議会との継続的なパートナーシップを期待している。」 |
ITI’s Global Policy Principles for Enabling Transparency of AI Systems underscore that transparency is a critical part of developing accountable and trustworthy AI systems and avoiding unintended outcomes or other harmful impacts. ITI’s comprehensive Global AI Policy Recommendations are a guide for governments around the world as they consider how to approach AI, and emphasize the importance of private and public sector collaboration as demonstrated in today’s White House announcement. ITI’s affiliated standards development organization INCITS leads and convenes the U.S. standardization program on AI (ISO/IEC JTC 1/SC 42), which can be a voluntary method for companies to measure, assess, and take steps to meet the commitments announced today. | AIシステムの透明性を実現するためのITIのグローバル政策原則は、透明性が説明責任を果たし信頼できるAIシステムを開発し、意図しない結果やその他の有害な影響を回避するために重要な部分であることを強調している。ITIの包括的な「グローバルAI政策提言」は、世界各国の政府がAIへのアプローチ方法を検討する際の指針となるもので、本日のホワイトハウスの発表で示されたように、民間と公的セクターの協力の重要性を強調している。ITIの関連標準開発組織であるINCITSは、AIに関する米国の標準化プログラム(ISO/IEC JTC 1/SC 42)を主導し、招集している。このプログラムは、企業が測定、評価、本日発表された公約を満たすための措置を講じるための自主的な方法となりうる。 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2023.05.27 米国 国家人工知能研究開発 戦略計画 2023更新 (2023.05.23)
・2023.05.26 米国 ファクトシート:バイデン-ハリス政権、責任ある人工知能の研究・開発・実装を進める新たなステップを導入
・2023.05.08 米国 ホワイトハウス 「米国人の権利と安全を守る責任あるAIイノベーションを推進する新たな行動」 (2023.05.04)
・2022.10.07 米国 科学技術政策局 AI権利章典の青写真
5原則...
・Safe and Effective Systems | ・安全で効果的なシステム |
・Algorithmic Discrimination Protections | ・アルゴリズムによる差別に対する保護 |
・Data Privacy | ・データプライバシー |
・Notice and Explanation | ・通知と説明 |
・Human Alternatives, Consideration, and Fallback | ・人的代替手段、配慮、およびフォールバック |
- 安全で効果的なシステム:安全で効果的なシステム:安全でない、あるいは効果的でないシステムから保護されるべきである。
- アルゴリズムによる差別に対する保護:アルゴリズムによる差別に直面してはいけない。また、システムは公平な方法で使用、設計されるべきである。
- データプライバシー:ユーザーは、組み込みの保護機能によって乱用的なデータ処理から保護されるべきであり、ユーザーに関するデータがどのように使用されるかについて代理権を持つ必要がある。
- 通知と説明:自動化されたシステムがいつ使用されているかを知り、それが自分に影響を与える結果にどのように、そしてなぜ寄与しているかを理解する必要がある。
- 人的代替手段、配慮、およびフォールバック:適切な場合にはオプトアウトが可能であるべきであり、また、あなたが遭遇した問題を迅速に検討し、改善できる担当者にアクセスできるようにすべきである。
・2023.04.28 米国 連邦取引委員会 司法省 消費者金融保護局 雇用機会均等委員会 「自動化システムにおける差別やバイアスに対する執行努力に関する共同声明 」
中国については、
・2023.07.14 中国 国家サイバースペース管理局他 生成型AIサービス管理暫定弁法 施行は2023.08.15
欧州については、
・2022.12.08 EU理事会 AI法に関する見解を採択
英国については、
・2023.07.20 英国 Ada Lovelace 協会 英国のAI規制、AIリスクなど4つの報告書
と、その下の関連記事を併せて読むと全体がみえてくるかもです。。。
Ensuring Safe, Secure, and Trustworthy AI 仮対訳...
↓↓↓↓↓↓↓↓↓↓
Ensuring Safe, Secure, and Trustworthy AI | 安全、安心、信頼できるAIを確保する |
Artificial intelligence offers enormous promise and great risk. To make the most of that promise, America must safeguard our society, our economy, and our national security against potential risks. | 人工知能は大きな将来性と大きなリスクをもたらす。その可能性を最大限に活用するために、アメリカは潜在的リスクから社会、経済、そして国家安全保障を守らなければならない。 |
The companies developing these pioneering technologies have a profound obligation to behave responsibly and ensure their products are safe. | こうした先駆的技術を開発する企業は、責任を持って行動し、自社製品の安全性を確保する重大な義務を負っている。 |
The voluntary commitments that several companies are making today are an important first step toward living up to that responsibility. These commitments – which the companies are making immediately – underscore three principles that must be fundamental to the future of AI: safety, security, and trust. | 今日、いくつかの企業が行っている自主的なコミットメントは、その責任を果たすための重要な第一歩である。各社が即座に表明しているこれらのコミットメントは、AIの未来にとって基本的でなければならない3つの原則、すなわち安全、セキュリティ、信頼を強調している。 |
Safety: Companies have a duty to make sure their products are safe before introducing them to the public. That means testing the safety and capabilities of their AI systems, subjecting them to external testing, assessing their potential biological, cybersecurity, and societal risks, and making the results of those assessments public. | 安全: 企業には、製品を市場に出す前に、その製品が安全であることを確認する義務がある。つまり、AIシステムの安全性と能力をテストし、外部テストを実施し、潜在的な生物学的リスク、サイバーセキュリティリスク、社会的リスクをアセスメントし、その結果を公表することである。 |
Security: Companies have a duty to build systems that put security first. That means safeguarding their models against cyber and insider threats and sharing best practices and standards to prevent misuse, reduce risks to society, and protect national security. | セキュリティ: 企業はセキュリティを第一に考えたシステムを構築する義務がある。つまり、サイバー脅威や内部脅威からモデルを保護し、悪用を防ぎ、社会へのリスクを低減し、国家安全保障を守るためのベストプラクティスと標準を共有することである。 |
Trust: Companies have a duty to do right by the public and earn the people’s trust. That means making it easy for users to tell whether audio and visual content is in its original form or has been altered or generated by AI. It means ensuring that the technology does not promote bias and discrimination, strengthening privacy protections, and shielding children from harm. Finally, it means using AI to help meet society’s greatest challenges, from cancer to climate change, and managing AI’s risks so that its benefits can be fully realized. | 信頼: 企業は国民に対して正しい行動をとり、国民の信頼を得る義務がある。つまり、音声や映像のコンテンツがオリジナルのままなのか、それともAIによって改変・生成されたものなのかを、ユーザーが簡単に見分けられるようにすることである。それは、テクノロジーがバイアスや差別を助長しないようにすること、プライバシー防御を強化すること、子どもたちを危害から守ることを意味する。最後に、がんから気候変動に至るまで、社会が直面する最大の課題を解決するためにAIを活用し、その恩恵が十分に発揮されるようにAIのリスクをマネジメントすることを意味する。 |
These voluntary commitments are only a first step in developing and enforcing binding obligations to ensure safety, security, and trust. Realizing the promise and minimizing the risk of AI will require new laws, rules, oversight, and enforcement. The Biden-Harris Administration will continue to take executive action and pursue bipartisan legislation to help America lead the way in responsible innovation and protection. As we advance this agenda at home, we will work with allies and partners on a strong international code of conduct to govern the development and use of AI worldwide. | これらの自主的なコミットメントは、安全、安心、信頼を確保するための拘束力のある義務を策定し、実施するための第一歩に過ぎない。AIの将来性を実現し、リスクを最小化するためには、新たな法律、規則、監督、執行が必要となる。 バイデン-ハリス政権は、米国が責任あるイノベーションと保護において主導権を握ることができるよう、引き続き行政措置を講じるとともに、超党派の法案を追求していく。国内でこのアジェンダを進めると同時に、我々は同盟国やパートナーとともに、世界的なAIの開発と利用を管理するための強力な国際行動規範に取り組んでいく。 |
Voluntary AI Commitments | AIに関する自主的なコミットメント |
The following is a list of commitments that companies are making to promote the safe, secure, and transparent development and use of AI technology. These voluntary commitments are consistent with existing laws and regulations, and designed to advance a generative AI legal and policy regime. Companies intend these voluntary commitments to remain in effect until regulations covering substantially the same issues come into force. Individual companies may make additional commitments beyond those included here. | 以下は、AI技術の安全、安心、透明な開発と利用を促進するために企業が行っているコミットメントのリストである。これらの自主的なコミットメントは、既存の法律や規制と整合性があり、生成的なAIの法的・政策体制を推進することを目的としている。企業は、実質的に同じ問題をカバーする規制が施行されるまで、これらの自主的なコミットメントが有効であることを意図している。個々の企業は、ここに記載された以外の追加的なコミットメントを行うことができる。 |
Scope: Where commitments mention particular models, they apply only to generative models that are overall more powerful than the current industry frontier (e.g. models that are overall more powerful than any currently released models, including GPT-4, Claude 2, PaLM 2, Titan and, in the case of image generation, DALL-E 2). | 範囲: 例えば、GPT-4、Claude 2、PaLM 2、Titan、そして画像生成の場合はDALL-E 2を含む、現在リリースされているどのモデルよりも全体的に強力なモデルである。 |
Safety | 安全 |
1) Commit to internal and external red-teaming of models or systems in areas including misuse, societal risks, and national security concerns, such as bio, cyber, and other safety areas. | 1) バイオ、サイバー、その他の安全分野など、誤用、社会的リスク、国家安全保障上の懸念を含む領域において、モデルやシステムの社内外でのレッドチーム化にコミットする。 |
Companies making this commitment understand that robust red-teaming is essential for building successful products, ensuring public confidence in AI, and guarding against significant national security threats. Model safety and capability evaluations, including red teaming, are an open area of scientific inquiry, and more work remains to be done. Companies commit to advancing this area of research, and to developing a multi-faceted, specialized, and detailed red-teaming regime, including drawing on independent domain experts, for all major public releases of new models within scope. In designing the regime, they will ensure that they give significant attention to the following: | このコミットメントを行う企業は、成功する製品を構築し、AIに対する国民の信頼を確保し、国家安全保障上の重大な脅威から身を守るためには、強固なレッドチーミングが不可欠であることを理解している。レッド・チーミングを含むモデルの安全性と能力の評価は、科学的探求の未解決の分野であり、より多くの仕事が残されている。企業は、この分野の研究を推進し、独立した専門家の活用を含む、多面的で専門的かつ詳細なレッドチーム体制を構築することを約束する。この体制を設計するにあたっては、以下の点に十分な注意を払う: |
● Bio, chemical, and radiological risks, such as the ways in which systems can lower barriers to entry for weapons development, design, acquisition, or use | ・バイオ、化学、放射線のリスク、例えば、兵器開発、設計、取得、使用への参入障壁を低くするようなシステムである。 |
● Cyber capabilities, such as the ways in which systems can aid vulnerability discovery, exploitation, or operational use, bearing in mind that such capabilities could also have useful defensive applications and might be appropriate to include in a system | ・システムが脆弱性の発見、悪用、または作戦上の利用を支援する方法などのサイバー能力であり、そのような能力は有用な防御的用途も持ちうることを念頭に置き、システムに含めることが適切であるかもしれない。 |
● The effects of system interaction and tool use, including the capacity to control physical systems | ・物理システムを制御する能力を含む、システムの相互作用とツール使用の効果 |
● The capacity for models to make copies of themselves or “self-replicate” | ・モデルが自分自身のコピーを作成したり、「自己複製」したりする能力 |
● Societal risks, such as bias and discrimination | ・バイアスや差別などの社会的リスク |
To support these efforts, companies making this commitment commit to advancing ongoing research in AI safety, including on the interpretability of AI systems’ decision-making processes and on increasing the robustness of AI systems against misuse. Similarly, companies commit to publicly disclosing their red-teaming and safety procedures in their transparency reports (described below). | これらの取り組みを支援するため、このコミットメントを行う企業は、AIシステムの意思決定プロセスの解釈可能性や、悪用に対するAIシステムの堅牢性の向上など、AIの安全性に関する継続的な研究を推進することを約束する。同様に、企業は透明性報告書(後述)において、レッド・チーミングと安全性の手順を公表することを約束する。 |
2) Work toward information sharing among companies and governments regarding trust and safety risks, dangerous or emergent capabilities, and attempts to circumvent safeguards | 2) 信頼と安全のリスク、危険な、あるいは出現しつつある能力、セーフガードを回避しようとする試みに関して、企業と政府の間で情報共有に努める。 |
Companies making this commitment recognize the importance of information sharing, common standards, and best practices for red-teaming and advancing the trust and safety of AI. They commit to establish or join a forum or mechanism through which they can develop, advance, and adopt shared standards and best practices for frontier AI safety, such as the NIST AI Risk Management Framework or future standards related to red-teaming, safety, and societal risks. The forum or mechanism can facilitate the sharing of information on advances in frontier capabilities and emerging risks and threats, such as attempts to circumvent safeguards, and can facilitate the development of technical working groups on priority areas of concern. In this work, companies will engage closely with governments, including the U.S. government, civil society, and academia, as appropriate. | このコミットメントを行う企業は、レッド・ティームを行い、AIの信頼と安全性を高めるための情報共有、共通標準、ベスト・プラクティスの重要性を認識する。これらの企業は、NISTのAIリスクマネジメントフレームワークや、レッドチーミング、安全性、社会的リスクに関連する将来の標準など、フロンティアAIの安全性のための共有標準やベストプラクティスを開発、推進、採用できるフォーラムやメカニズムを設立または参加することを約束する。フォーラムやメカニズムは、フロンティア能力の進歩や、セーフガードを回避しようとする試みなどの新たなリスクや脅威に関する情報の共有を促進し、優先的に懸念される分野に関する技術ワーキンググループの開発を促進することができる。この作業において、企業は、適宜、米国政府、市民社会、学界を含む政府と緊密に関与する。 |
Security | セキュリティ |
3) Invest in cybersecurity and insider threat safeguards to protect proprietary and unreleased model weights | 3) 独自かつ未公開のモデルウェイトを保護するために、サイバーセキュリティと内部脅威の保護措置に投資する。 |
Companies making this commitment will treat unreleased AI model weights for models in scope as core intellectual property for their business, especially with regards to cybersecurity and insider threat risks. This includes limiting access to model weights to those whose job function requires it and establishing a robust insider threat detection program consistent with protections provided for their most valuable intellectual property and trade secrets. In addition, it requires storing and working with the weights in an appropriately secure environment to reduce the risk of unsanctioned release. | このコミットメントを行う企業は、特にサイバーセキュリティとインサイダー脅威のリスクに関して、対象モデルの未公開AIモデルウェイトを自社のビジネスの中核的な知的財産として扱う。この機能には、モデルウェイトへのアクセスを職務上必要な者に限定すること、最も貴重な知的財産や企業秘密に提供される防御と一致する強固な内部脅威検知プログラムを確立することが含まれる。加えて、許可なく公表されるリスクを低減するため、適切に安全な環境においてウェイトを保管し、作業することが必要となる。 |
4) Incent third-party discovery and reporting of issues and vulnerabilities | 4) サードパーティによる問題や脆弱性の発見と報告を奨励する。 |
Companies making this commitment recognize that AI systems may continue to have weaknesses and vulnerabilities even after robust red-teaming. They commit to establishing for systems within scope bounty systems, contests, or prizes to incent the responsible disclosure of weaknesses, such as unsafe behaviors, or to include AI systems in their existing bug bounty programs. | このコミットメントを行う企業は、強固なレッドチーミングを行った後でも、AIシステムには脆弱性が存在し続ける可能性があることを認識している。これらの企業は、安全でない動作などの脆弱性を責任を持って開示するインセンティブを与えるために、報奨金制度、コンテスト、または賞金の範囲内にシステムを設定するか、既存のバグ報奨金プログラムにAIシステムを含めることを約束する。 |
Trust | 信頼 |
5) Develop and deploy mechanisms that enable users to understand if audio or visual content is AI-generated, including robust provenance, watermarking, or both, for AI-generated audio or visual content | 5) AIが生成した音声または映像コンテンツについて、堅牢な証明、電子透かし、またはその両方を含め、利用者が音声または映像コンテンツがAI生成的かどうかを理解できる仕組みを開発し、展開する。 |
Companies making this commitment recognize that it is important for people to be able to understand when audio or visual content is AI-generated. To further this goal, they agree to develop robust mechanisms, including provenance and/or watermarking systems for audio or visual content created by any of their publicly available systems within scope introduced after the watermarking system is developed. They will also develop tools or APIs to determine if a particular piece of content was created with their system. Audiovisual content that is readily distinguishable from reality or that is designed to be readily recognizable as generated by a company’s AI system—such as the default voices of AI assistants—is outside the scope of this commitment. The watermark or provenance data should include an identifier of the service or model that created the content, but it need not include any identifying user information. More generally, companies making this commitment pledge to work with industry peers and standards-setting bodies as appropriate towards developing a technical framework to help users distinguish audio or visual content generated by users from audio or visual content generated by AI. | このコミットメントを行う企業は、人々が音声または映像コンテンツがAI生成的であることを理解できるようにすることが重要であることを認識する。この目標を達成するため、各社は、電子透かしシステムの開発後に導入される範囲内で、一般に利用可能なシステムによって作成された音声または映像コンテンツについて、証明システムおよび/または電子透かしシステムを含む堅牢なメカニズムを開発することに同意する。また、特定のコンテンツがそのシステムで作成されたかどうかを判断するためのツールやAPIも開発する。現実と容易に区別できる視聴覚コンテンツや、AIアシスタントのデフォルト音声など、企業のAIシステムによって生成されたと容易に認識できるように設計されたコンテンツは、このコミットメントの範囲外である。透かしや実績データには、コンテンツを作成したサービスやモデルの識別子を含めるべきだが、ユーザーを特定する情報を含める必要はない。より一般的には、このコミットメントを行う企業は、ユーザーが生成した音声・映像コンテンツとAIが生成した音声・映像コンテンツを区別するための技術的枠組みの開発に向けて、適宜、業界の同業者や標準化団体と協力することを誓約する。 |
6) Publicly report model or system capabilities, limitations, and domains of appropriate and inappropriate use, including discussion of societal risks, such as effects on fairness and bias | 6) 公正性やバイアスへの影響など社会的リスクについての議論を含め、モデルやシステムの能力、限界、適切な使用領域と不適切な使用領域を公に報告する。 |
Companies making this commitment acknowledge that users should understand the known capabilities and limitations of the AI systems they use or interact with. They commit to publish reports for all new significant model public releases within scope. These reports should include the safety evaluations conducted (including in areas such as dangerous capabilities, to the extent that these are responsible to publicly disclose), significant limitations in performance that have implications for the domains of appropriate use, discussion of the model’s effects on societal risks such as fairness and bias, and the results of adversarial testing conducted to evaluate the model’s fitness for deployment. | このコミットメントを行う企業は、利用者が使用または対話するAIシステムの既知の能力と限界を理解すべきであることを認める。企業は、対象範囲内で新たに公開されるすべての重要なモデルについて、報告書を公表することを約束する。これらの報告書には、実施された安全性評価(危険な能力など、公表する責任がある範囲を含む)、適切な使用領域に影響を及ぼす性能の重大な制限、公平性やバイアスなどの社会的リスクに対するモデルの影響についての議論、モデルの配備適性を評価するために実施された敵対的テストの結果を含めるべきである。 |
7) Prioritize research on societal risks posed by AI systems, including on avoiding harmful bias and discrimination, and protecting privacy | 7) 有害なバイアスや差別の回避、プライバシーの保護など、AIシステムがもたらす社会的リスクに関する研究を防御する。 |
Companies making this commitment recognize the importance of avoiding harmful biases from being propagated by, and discrimination enacted by, AI systems. Companies commit generally to empowering trust and safety teams, advancing AI safety research, advancing privacy, protecting children, and working to proactively manage the risks of AI so that its benefits can be realized. | このコミットメントを行う企業は、AIシステムによる有害なバイアスの伝播や差別を回避することの重要性を認識する。企業は一般的に、信頼と安全チームの強化、AIの安全性研究の推進、プライバシーの保護、子どもの保護、AIのリスクマネジメントに積極的に取り組み、AIの利点を実現することを約束する。 |
8) Develop and deploy frontier AI systems to help address society’s greatest challenges | 8) フロンティアAIシステムを開発・展開し、社会の最も大きな課題の解決に貢献する。 |
Companies making this commitment agree to support research and development of frontier AI systems that can help meet society’s greatest challenges, such as climate change mitigation and adaptation, early cancer detection and prevention, and combating cyber threats. Companies also commit to supporting initiatives that foster the education and training of students and workers to prosper from the benefits of AI, and to helping citizens understand the nature, capabilities, limitations, and impact of the technology. | このコミットメントを行う企業は、気候変動の低減と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会の最大の課題の解決に役立つフロンティアAIシステムの研究開発を支援することに同意する。企業はまた、AIの恩恵によって繁栄する学生や労働者の教育や訓練を促進するイニシアティブを支援し、市民がAIの性質、能力、限界、影響について理解できるよう支援することを約束する。 |
ISO
・ISO/IEC FDIS 42001 Information technology — Artificial intelligence — Management system
・(Preview)
プレビューで見られる範囲の目次...
Contents | 目次 |
Foreword | まえがき |
Introduction | 序文 |
1 Scope | 1 適用範囲 |
2 Normative references | 2 引用規格 |
3 Terms and definitions | 3 用語及び定義 |
4 Context of the organization | 4 組織の状況 |
4.1 Understanding the organization and its context | 4.1 組織及びその状況の理解 |
4.2 Understanding the needs and expectations of interested parties | 4.2 利害関係者のニーズ及びその期待の理解 |
4.3 Determining the scope of the AI management system | 4.3 AIマネジメントシステムの適用範囲の決定 |
4.4 AI management system | 4.4 AIマネジメントシステム |
5 Leadership | 5 リーダーシップ |
5.1 Leadership and commitment | 5.1 リーダーシップ及びコミットメント |
5.2 AI Policy | 5.2 AI方針 |
5.3 Roles, responsibilities and authorities | 5.3 役割、責任及び権限 |
6 Planning | 6 計画 |
6.1 Actions to address risks and opportunities | 6.1 リスク及び機会にへの取組み |
6.1.1 General | 6.1.1 一般 |
6.1.2 AI risk assessment | 6.1.2 AIリスクアセスメント |
6.1.3 AI risk treatment | 6.1.3 AIリスク処理 |
6.1.4 AI system impact assessment | 6.1.4 AIシステム影響評価 |
6.2 AI objectives and planning to achieve them | 6.2 AI目標とその達成計画 |
6.3 Planning of changes | 6.3 変更の計画 |
7 Support | 7 支援 |
7.1 Resources | 7.1 資源 |
7.2 Competence | 7.2 力量 |
7.3 Awareness | 7.3 認識 |
7.4 Communication | 7.4 コミュニケーション |
7.5 Documented information | 7.5 文書化した情報 |
7.5.1 General | 7.5.1 一般 |
7.5.2 Creating and updating documented information | 7.5.2 文書化した情報の作成及び更新 |
7.5.3 Control of documented information | 7.5.3 文書化した情報の管理 |
8 Operation | 8 運用 |
8.1 Operational planning and control | 8.1 運用計画と管理 |
8.2 AI risk assessment | 8.2 AIリスクアセスメント |
8.3 AI risk treatment | 8.3 AIリスク処理 |
8.4 AI system impact assessment | 8.4 AIシステム影響評価 |
9 Performance evaluation | 9 パフォーマンス評価 |
9.1 Monitoring, measurement, analysis and evaluation | 9.1 モニタリング、測定、分析、評価 |
9.2 Internal audit | 9.2 内部監査 |
9.2.1 General | 9.2.1 一般 |
9.2.2 Internal audit programme | 9.2.2 内部監査プログラム |
9.3 Management review | 9.3 マネジメントレビュー |
9.3.1 General | 9.3.1 一般 |
9.3.2 Management review inputs | 9.3.2 マネジメントレビューのインプット |
9.3.3 Management review results | 9.3.3 マネジメントレビューの結果 |
10 Improvement | 10 改善 |
10.1 Continual improvement | 10.1 継続的改善 |
10.2 Nonconformity and corrective action | 10.2 不適合及び是正処置 |
Annex A (normative) Reference control objectives and controls | 附属書 A(参考) 参照管理目標及び管理策 |
A.1 General | A.1 一般 |
Annex B (normative) Implementation guidance for AI controls | 附属書 B(参考) AI 管理の実施指針 |
B.1 General | B.1 一般 |
B.2 Policies related to AI | B.2 AIに関する方針 |
B.2.1 General | B.2.1 一般 |
B.2.2 AI policy | B.2.2 AI方針 |
B.2.3 Alignment with other organizational policies | B.2.3 他の組織の方針との整合性 |
B.2.4 Review of the AI policy | B.2.4 AI方針の見直し |
B.3 Internal organization | B.3 内部組織 |
B.3.1 General | B.3.1 一般 |
B.3.2 AI roles and responsibilities | B.3.2 AIの役割と責任 |
B.3.3 Reporting of concerns | B.3.3 懸念事項の報告 |
B.4 Resources for AI systems | B.4 AIシステムのためのリソース |
B.4.1 General | B.4.1 一般 |
B.4.2 Resource documentation | B.4.2 リソースの文書化 |
B.4.3 Data resources | B.4.3 データリソース |
B.4.4 Tooling resources | B.4.4 ツール資源 |
B.4.5 System and computing resources | B.4.5 システムおよびコンピューティング資源 |
B.4.6 Human resources | B.4.6 人的資源 |
B.5 Assessing impacts of AI systems | B.5 AIシステムの影響の評価 |
B.5.1 General | B.5.1 一般 |
B.5.2 AI system impact assessment process | B.5.2 AIシステムの影響評価プロセス |
B.5.3 Documentation of AI system impact assessments | B.5.3 AIシステムの影響評価の文書化 |
B.5.4 Assessing AI system impact on individuals and groups of individuals | B.5.4 個人及び個人の集団に対するAIシステムの影響の評価 |
B.5.5 Assessing societal impacts of AI systems | B.5.5 AIシステムの社会的影響の評価 |
B.6 AI system life cycle | B.6 AIシステムのライフサイクル |
B.6.1 Management guidance for AI system development | B.6.1 AIシステム開発のための管理指針 |
B.6.1.1 General | B.6.1.1 一般 |
B.6.1.2 Objectives for responsible development of AI system | B.6.1.2 AIシステムの責任ある開発のための目標 |
B.6.1.3 Processes for responsible design and development of AI systems | B.6.1.3 AIシステムの責任ある設計及び開発のためのプロセス |
B.6.2 AI system development life cycle | B.6.2 AIシステム開発のライフサイクル |
B.6.2.1 General | B.6.2.1 一般 |
B.6.2.2 AI system requirements and specification | B.6.2.2 AIシステムの要件及び仕様 |
... | ... |
« CSA クラウドの攻撃ベクトルを理解する (2023.06.06) | Main | NIST SP 1800-35(第2次初期ドラフト) ゼロトラストアーキテクチャの実装 (Vol. B, C) »
Comments