« ロシア 科学技術センター 認知作戦・心理作戦の理論的・概念的側面 | Main | 欧州 安全な宇宙ベースの接続プログラムを欧州理事会が承認 »

2023.03.08

米国 情報技術産業協会 (ITI) AIに関する新たな政策提言を発表 (2023.03.02)

こんにちは、丸山満彦です。

米国のIT業界団体である情報技術産業協会 (The Information Technology Industry Council: ITI) がAIに関する新たな政策提言を発表しています。過去に2回だしていますが、それを踏まえて、昨今の状況の変化を踏まえての内容になっているというとのことです。。。

The Information Technology Industry Council: ITI

・2023.03.02 New ITI Recommendations Detail How to Harness AI’s Potential

 

WASHINGTON – As consumers and businesses benefit from innovative new artificial intelligence (AI) technologies, global tech trade association ITI issued new policy recommendations today to harness AI’s potential in a responsible manner. ワシントン - 消費者と企業が革新的な新しい人工知能(AI)技術の恩恵を受ける中、世界的なハイテク業界団体であるITIは本日、AIの潜在能力を責任ある方法で活用するための新しい政策提言を発表した。
ITI’s eight recommendations urge the federal government to seize AI’s transformational impact by increasing AI investments, adopting AI solutions across the U.S. government and commercial sectors, and utilizing international standards for AI governance and oversight. ITIの8つの提言は、連邦政府に対し、AIへの投資を増やし、米国政府および商業部門全体でAIソリューションを採用し、AIのガバナンスと監視のための国際基準を活用することによって、AIの変革的インパクトをつかむよう求めている。
“AI holds great promise to improve the lives of all Americans and grow business and economic activity across all sectors, and ITI is committed to working with lawmakers to shape policy that supports innovation and investment in AI technologies and ensures responsible and secure deployment,” said ITI’s President and CEO Jason Oxman. “ITI’s new guide will help policymakers capitalize on AI’s momentum to the benefit of all Americans and advance U.S. competitiveness in a challenging geopolitical and economic environment.” ITI会長兼CEOのJason Oxmanは以下のように述べている。「AIは、すべてのアメリカ人の生活を向上させ、あらゆる分野のビジネスと経済活動を成長させる大きな可能性を秘めている。ITIは、AI技術の革新と投資を支援し、責任ある安全な展開を確保するための政策を策定するため、国会議員と協力することを約束する。ITIの新しいガイドは、政策立案者がすべてのアメリカ人の利益のためにAIの勢いを活用し、厳しい地政学的・経済的環境において米国の競争力を高めるのに役立つだろう。」
ITI encourages lawmakers to precisely define AI and related terms, use partnerships and other initiatives supported by federal funding for AI research and development, and leverage international standards to align regulatory requirements around the globe. ITIは、AIと関連する用語を正確に定義し、AIの研究開発のために連邦政府の資金で支援されるパートナーシップやその他のイニシアチブを利用し、国際基準を活用して世界中の規制要件を調整することを議員に奨励している。
These new recommendations build on ITI’s longstanding expertise on AI policy, including its Global Policy Principles for Enabling Transparency of AI Systems and comprehensive Global AI Policy Recommendations. これらの新しい提言は、AIシステムの透明性を実現するためのグローバル政策原則や包括的なグローバルAI政策提言など、AI政策に関するITIの長年の専門知識に基づくものである。

 

・[PDF]

20230308-52930

仮訳...

Harnessing AI: Recommendations for Policymakers AIの活用:政策立案者への提言
Artificial Intelligence (AI) is a suite of technologies capable of learning, reasoning, adapting, and performing tasks in ways inspired by the human mind. To capitalize on AI’s transformational impact, ITI urges the U.S. Congress to support legislation that increases federal investment and fosters greater adoption of AI solutions across the federal government and commercial sectors. Lawmakers should focus on creating policy that supports innovation and investment in AI technologies to advance tomorrow’s workforce. In doing so, lawmakers should focus first on leveraging voluntary international standards as a baseline for legislative approaches to AI governance. When considering legislation on AI, we encourage lawmakers to do the following: 人工知能(AI)とは、人間の精神に触発された方法で、学習、推論、適応、タスク実行が可能な一連の技術である。AIがもたらす変革のインパクトを活かすため、ITIは米国議会に対し、連邦政府への投資を増やし、連邦政府および商業部門全体でAIソリューションの採用拡大を促進する法律を支援するよう要請する。議員たちは、明日の労働力を向上させるために、AI技術への革新と投資を支援する政策づくりに注力すべきである。その際、議員たちはまず、AIガバナンスに対する立法アプローチのベースラインとして、自主的な国際標準を活用することに焦点を当てるべきである。AIに関する法案を検討する際、我々は議員に以下のことを行うよう勧める。
・Craft a precise and complete definition of AI and other supporting and derivative terms, such as “transparency,” “high-risk,” and “algorithm,” among others. ・AI、および「透明性」、「高リスク」、「アルゴリズム」など、その他の補助的・派生的な用語の正確かつ完全な定義を作成すること。
・Federal funding for AI research and development should encourage multi-stakeholder partnerships and lab-to-market initiatives, such as centers for excellence, innovation hubs, or research centers that underpin industry’s crucial role in developing and deploying AI solutions. ・AIの研究開発に対する連邦政府の資金援助は、AIソリューションの開発と展開における産業の重要な役割を支える、卓越センター、イノベーションハブ、研究センターなど、複数の利害関係者のパートナーシップとラボから市場へというイニシアティブを奨励すべきである。
・Examine existing legislation before proposing new regulation. If regulation is warranted, we encourage lawmakers to recognize that regulation should be flexible, design-neutral, context-specific, and risk-based – with measured regulatory attention dedicated to “high-risk” AI applications and uses. ・新たな規制を提案する前に、既存の法律を検討すること。規制が必要な場合、規制は柔軟で、デザインニュートラルで、状況に応じた、リスクベースであるべきであり、「高リスク」のAIアプリケーションと用途に特化した規制の注意を喚起するよう、議員に促す。
・Encourage reliance on international standards and seek to align regulatory requirements with international approaches to AI regulation. ・国際標準への依存を奨励し、AI規制の国際的アプローチと規制要件の整合性を図る。
・Delineate how potential responsibilities stemming from legislation should be allocated within the AI stakeholder ecosystem. Examples of stakeholders include AI producers, providers, customers, developers, subjects, and partners. ・法規制から生じる潜在的な責任を、AI関係者のエコシステムの中でどのように割り当てるべきかを明確にする。ステークホルダーの例としては、AIの生産者、プロバイダー、顧客、開発者、被験者、パートナーなどがある。
・For federal acquisition opportunities, the federal government should maximize its procurement and deployment of relevant AI solutions to help agencies deliver on their mission and optimize constituent services ・連邦政府の調達について、連邦政府は、AIソリューションの調達と展開を最大化し、各省庁の任務遂行と構成員サービスの最適化に役立てるべきである。
・Avoid mandating prescriptive algorithmic impact assessment and related requirements, recognizing the importance of taking a risk-based approach. ・リスクベースのアプローチの重要性を認識し、規定的なアルゴリズム影響評価や関連要件の義務付けを回避する。
・Support provisions within legislation that protect the foundation of AI systems, including source code, proprietary algorithms, and other intellectual property. Congress should avoid requirements that force companies to transfer or provide access to technology, source code, algorithms, or encryption keys as conditions for doing business with the federal government or as a general practice for business-to-business operations. ・ソースコード、独自のアルゴリズム、その他の知的財産を含むAIシステムの基盤を保護する条項を法律で支持する。連邦議会は、連邦政府との取引の条件として、あるいは企業間取引の一般的な慣行として、技術、ソースコード、アルゴリズム、暗号鍵の譲渡やアクセスを企業に強制する要件を回避するべきである。
Policymakers should leverage and refer to recommendations outlined in ITI’s Policy Principles for Enabling Transparency of AI Systems and Global AI Policy Recommendations to inform congressional staff on how thoughtful legislation and federal investments can accelerate the adoption of AI solutions in a transparent and ethical manner. Spurring innovation, federal funding and acquisition, and multi-stakeholder partnerships across various AI solutions will solidify the U.S. as the global leader in AI technology. 政策立案者は、ITIの「AIシステムの透明性を実現するための政策原則」と「グローバルAI政策提言」で概説された提言を活用し、議会スタッフに、思慮深い法律と連邦投資が透明で倫理的な方法でAIソリューションの採用を加速させる方法について伝えるべきである。様々なAIソリューションのイノベーション、連邦政府の資金調達と買収、マルチステークホルダー・パートナーシップを促進することで、米国はAI技術のグローバルリーダーとして確固たる地位を築くことができるだろう。

 

 

過去の発表について。。。

・2022.09.15 ITI Publishes Global Policy Principles for Enabling Transparency of AI Systems

ITI Publishes Global Policy Principles for Enabling Transparency of AI Systems ITI、AIシステムの透明性を実現するためのグローバルポリシー原則を発表
WASHINGTON – Today, global tech trade association ITI published new Policy Principles for Enabling Transparency of AI Systemsto help inform and guide policymaking. In its principles, ITI underscores that transparency is a critical part of developing accountable and trustworthy AI systems and avoiding unintended outcomes or other harmful impacts. At the highest level, transparency is about being clear about how an AI system is built, operated, and functions. When executed well, AI transparency can help to analyze outputs and hold appropriate AI stakeholders accountable. ワシントン - 本日、世界的なハイテク業界団体であるITIは、政策立案への情報提供と指針として、AIシステムの透明性を実現するための新しい政策原則を発表した。ITIはその原則の中で、透明性が、説明責任を果たし信頼できるAIシステムを開発し、意図しない結果やその他の有害な影響を回避するために重要な要素であることを強調している。最も高いレベルでは、透明性とは、AIシステムがどのように構築され、運用され、機能するのかを明確にすることである。うまく実行されれば、AIの透明性は、アウトプットを分析し、適切なAI関係者に説明責任を果たさせるのに役立つ。
Among its principles, ITI recommends policymakers empower users by including provisions within legislation that provide sufficient information to understand decisions of an AI system that may negatively affect users’ fundamental rights and give them the ability to review and/or challenge such decisions. ITI also outlines the need to make it clear to users when they are interacting directly with an AI system. ITIは、その原則の中で、政策立案者がユーザーの基本的権利に悪影響を及ぼす可能性のあるAIシステムの決定を理解するのに十分な情報を提供し、そのような決定を見直し、異議を申し立てる能力を与える条項を法律内に含めることによって、ユーザーに権限を与えることを推奨する。また、ITIは、ユーザーがAIシステムと直接対話する際に、それを明確にする必要があることを概説している。
“Transparency of AI systems has rightfully been a prime focus for policymakers in the U.S. and across the globe,” said ITI’s President and CEO Jason Oxman. “Regulations must effectively mitigate risk for users while preserving innovation of AI technologies and encouraging their uptake. ITI’s Policy Principles for Enabling Transparency of AI Systems offer a clear guide for policymakers to learn about and facilitate greater transparency of AI systems.” ITI会長兼CEOであるJason Oxmanは、「AIシステムの透明性は、米国をはじめ世界中の政策立案者にとって当然のことながら最重要課題となっている。 規制は、AI技術のイノベーションを維持し、その普及を促進しながら、利用者のリスクを効果的に軽減する必要がある。ITIの「AIシステムの透明性を実現するための政策原則」は、政策立案者がAIシステムについて学び、透明性を高めることを促進するための明確な指針を提供するものである。」
AI systems are comprised of sets of algorithms, which are capable of learning and evolving, whereas an algorithm alone is usually more simplistic, often executing a finite set of instructions. ITI’s Policy Principles for Enabling Transparency of AI Systems suggest that the most effective way to approach policymaking around transparency is to apply transparency requirements to specific, high-risk uses of AI systems – which are applications in which a negative outcome could have a significant impact on people — especially as it pertains to health, safety, freedom, discrimination, or human rights. AIシステムはアルゴリズムのセットで構成され、学習や進化が可能であるが、アルゴリズム単体では通常より単純化され、有限の命令セットを実行することが多い。ITIの「AIシステムの透明性を実現するための政策原則」では、透明性に関する政策立案の最も効果的な方法は、AIシステムの特定の高リスクな用途に透明性要件を適用することであると提言している。この用途とは、特に健康、安全、自由、差別、人権に関連するような、マイナスの結果が人々に大きな影響を与える可能性がある用途である。
ITI’s Policy Principles for Enabling Transparency of AI Systemsadvise policymakers to: ITIの「AIシステムの透明性を実現するための政策原則」は、政策立案者に次のように助言している。
・Consider what the ultimate objective of transparency requirements are. ・透明性要求の究極の目的は何かを検討すること。
・Consider the intended audience of any transparency requirements and at what point of the AI system lifecycle they would apply. ・透明性要件の最終的な目的は何かを検討する。
・Take a risk-based approach to transparency when considering requirements. ・要件を検討する際には、透明性に関してリスクベースのアプローチをとる。
・Include clear definitions of what is meant by transparency in the context of a regulation or policy proposal. ・規制や政策提案の文脈で、透明性が意味するものを明確に定義する。
・Consider that there are different ways to approach transparency and improve trust, and that explainability is only one component. ・透明性にアプローチして信頼を向上させる方法は様々であり、説明可能性は1つの要素に過ぎないことを考慮する。
・Consider including provisions within legislation that are intended to provide users with sufficient information to understand decisions of an AI system that may negatively affect their fundamental rights and provide users with the ability to review and/or challenge such decisions. ・基本的権利に悪影響を及ぼす可能性のあるAIシステムの決定を理解するのに十分な情報を利用者に提供し、そのような決定を見直し、異議を申し立てる能力を利用者に提供することを意図した規定を、法律内に含めることを検討する。
・Ensure that transparency requirements do not require companies to divulge sensitive IP or source code or otherwise reveal sensitive individual data. ・透明性要件が、企業に対して、機密性の高いIPやソースコードの開示、あるいは機密性の高い個人データの公開を要求しないことを確認する。
・Leverage voluntary international standards in order to maintain interoperability of various AI transparency requirements to the extent possible. ・様々なAIの透明性要件の相互運用性を維持するため、可能な限り自主的な国際標準を活用すること。
・Consider that when an AI system is directly interacting with a user, that fact should be easily discoverable and that disclosure requirements can help facilitate this. ・AIシステムがユーザーと直接対話する場合、その事実を容易に発見できるようにすべきであり、開示要件がこれを促進するのに役立つことを考慮する。
・Regulations pertaining to disclosure should be flexible and avoid prescribing specific information or technical details to be included. ・開示に係る規制は柔軟であるべきであり、含まれるべき特定の情報や技術的な詳細を規定することは避けるべきである。
・Only the actual deployer of the AI system should be responsible for disclosure. ・AIシステムの実際の導入者のみが情報開示の責任を負うべきである。
These principles build on ITI’s Global AI Policy Recommendations, released in 2021, which offered a comprehensive set of policy recommendations for global policymakers seeking to foster innovation in AI while also addressing specific harms. これらの原則は、2021年に発表されたITIの「グローバルAI政策提言」に基づくもので、特定の危害に対処しつつAIのイノベーションを促進しようとする世界の政策立案者に対して包括的な政策提言を行ったものである。
Read ITI’s Policy Principles for Enabling Transparency of AI Systems here. ITIの「AIシステムの透明性を実現するための政策原則」はこちらを参照。

 

・[PDF]

20230308-53915

 

・2021.03.24 New ITI Global AI Policy Recommendations Promote Government, Industry, and Stakeholder Collaboration on AI

 

New ITI Global AI Policy Recommendations Promote Government, Industry, and Stakeholder Collaboration on AI 新しいITIグローバルAI政策提言は、AIに関する政府、産業界、ステークホルダーの協働を促進する。
WASHINGTON — Today, global tech trade association ITI published its new Global AI Policy Recommendations to help guide governments around the world as they consider how to approach Artificial Intelligence (AI). The recommendations provide globally applicable AI policy proposals in five key areas: innovation and investment; facilitating public understanding and public trust; ensuring security and privacy; approaches to regulation; and global engagement. ワシントン - 本日、世界的なハイテク業界団体であるITIは、世界各国の政府が人工知能(AI)への取り組み方を検討する際の指針となる、新しい「グローバルAI政策提言」を発表した。本提言は、「イノベーションと投資」「国民の理解と信頼の促進」「セキュリティとプライバシーの確保」「規制へのアプローチ」「グローバルな関与」の5つの主要分野において、グローバルに適用できるAI政策の提言を提供する。
“Artificial Intelligence plays an increasingly integral role in the way we connect, work, and learn,” said John Miller, ITI’s Senior Vice President for Policy and General Counsel. “It’s critical that policymakers around the world collaborate with industry, academia, and community stakeholders to ensure that this technology continues to be developed and used in a secure, trustworthy, and transparent manner everywhere. ITI’s Global AI Policy Recommendations serve as a guide for global governments as they consider policies to encourage responsible AI innovation while addressing challenges related to the use of the technology in its various applications. We look forward to working with policymakers and stakeholders as they consider and apply these recommendations.” ITIの政策担当上級副会長兼法律顧問であるジョン・ミラーは、次のように述べている。「人工知能は、私たちがつながり、働き、学ぶ方法において、ますます不可欠な役割を担っている。世界中の政策立案者が、産業界、学術界、地域社会の関係者と協力し、この技術があらゆる場所で安全、信頼、透明な方法で開発、使用され続けることを確実にすることが重要である。ITIの「グローバルAI政策提言」は、世界各国の政府が、責任あるAIイノベーションを促進するための政策を検討する際の指針となるものであり、同時に、この技術の様々な用途での使用に関連する課題に対処するものである。私たちは、政策立案者や関係者がこれらの提言を検討し、適用する際に協力することを楽しみにしている。」
ITI’s recommendations include: ITIの提言は以下の通りである。
・Increasing innovation and investment in AI, with an emphasis on workforce development, increased investment for R&D, and prioritizing public sector procurements of AI-based technology. ・労働力開発、研究開発への投資拡大、AIベースの技術の公共部門調達の優先順位付けに重点を置き、AIへのイノベーションと投資を増加させる。
・Facilitating public trust and understanding that promote the development of meaningfully explainable AI systems and encourage an ethical design approach. ・有意義に説明できるAIシステムの開発を促進し、倫理的な設計アプローチを奨励する、社会的信頼と理解を促進する。
・Approaches to regulation, with a series of recommendations as to how policymakers should approach regulating AI in a way that focuses on responding effectively to specific harms while allowing for advancements in technology and innovation. ・規制へのアプローチ。政策立案者が、技術やイノベーションの進歩を許容しつつ、特定の危害に効果的に対応することに焦点を当てた方法で、AIを規制することにどのようにアプローチすべきかについて、一連の勧告を示す。
・Ensuring the security and privacy of AI systems, with recommendations that consider how privacy, cybersecurity, and AI interact to ensure that users can trust that their personal and sensitive data is protected and handled appropriately. ・AIシステムのセキュリティとプライバシーの確保。プライバシー、サイバーセキュリティ、AIがどのように相互作用するかを検討し、ユーザーが個人情報や機密データが保護され、適切に取り扱われることを信頼できるようにするための提言を行う。
・Promoting continued global engagement, which will be key to ensuring that approaches to AI are aligned and interoperable to the extent possible. ・AIへのアプローチの整合性と相互運用性を可能な限り確保するための鍵となる、グローバルな取り組みの継続を促進する。
ITI's new Global AI Policy Recommendations build on principles released in 2018 and can help inform an evolving global policy debate. ITI’s new recommendations feature a glossary of key definitions around which global consensus is emerging as well as an appendix highlighting different AI use cases. ITIの新しいグローバルAI政策提言は、2018年に発表された原則に基づいており、進化するグローバルな政策議論に情報を提供するのに役立つ。ITIの新しい勧告は、世界的なコンセンサスが生まれつつある重要な定義の用語集と、さまざまなAIのユースケースを強調した附属書を備えている。
See ITI’s full Global AI Policy Recommendations here. ITIのグローバルAI政策提言の全文はこちらを参照。

 

 

政策提言...

・[PDF]

20230308-54846

 

2018年にすでに考えていた...

AI方針原則...

・2018 [PDF] AI Policy Principles

20230308-54658

 

AI Policy Principles AI方針原則
Executive Summary エグゼクティブサマリー
Artificial Intelligence (AI) is a suite of technologies capable of learning, reasoning, adapting, and performing tasks in ways inspired by the human mind. With access to data and the computational power and human ingenuity required to extract increasing value from it, researchers are building intelligent software and machines to enhance human productivity and empower people everywhere. Startups, medium-sized companies, and larger technology companies have all developed AI systems to help solve some of society’s most pressing problems, from medical diagnosis to education to economic productivity and empowerment.   人工知能(AI)とは、人間の心理に触発された方法で学習、推論、適応、タスク実行が可能な一連の技術である。データへのアクセス、そこから価値を高めるために必要な計算能力、人間の創意工夫により、研究者は人間の生産性を高め、あらゆる人々に力を与える知的ソフトウェアやマシンを開発している。スタートアップ企業、中堅企業、そして大手テクノロジー企業はいずれも、医療診断から教育、経済的生産性やエンパワーメントに至るまで、社会の最も差し迫った問題の解決に役立つAIシステムを開発している。 
While it is impossible to predict the full transformational nature of AI, like technological evolutions before it, we expect the potential implications to be vast. To ensure that AI can deliver its greatest positive potential, the Information Technology Industry Council (ITI) — the global voice of the tech sector — takes industry’s responsibility seriously to be a catalyst for preparing for an AI world. In our Policy Principles, we outline specific areas where industry, governments, and others can collaborate, as well as specific opportunities for public-private partnership. To advance these principles, which we expect will evolve alongside AI technology, we acknowledge the following:  AIがどのような変革をもたらすかを予測することは不可能であるが、これまでの技術革新と同様に、その潜在的な意味は非常に大きいと考えている。AIがその最大の可能性を発揮できるようにするため、ハイテク産業のグローバルな代弁者である情報技術産業協会(ITI)は、AIの世界に備えるための触媒となるべく、産業の責任を真剣に受け止めている。私たちの政策原則では、産業界、政府、その他が協力できる具体的な分野と、官民パートナーシップの具体的な機会について概説している。私たちは、AI技術とともに進化していくことを期待するこれらの原則を推進するために、以下のことを認識する。
Industry’s Responsibility in Promoting Responsible Development and Use: We recognize our responsibility to integrate principles into the design of AI technologies, beyond compliance with existing laws. While the potential benefits to people and society are amazing, AI researchers, subject matter experts, and stakeholders should continue to spend a great deal of time working to ensure the responsible design and deployment of AI systems, including addressing safety and controllability mechanisms, use of robust and representative data, enabling greater interpretability and recognizing that solutions must be tailored to the unique risks presented by the specific context in which a particular system operates.   責任ある開発と利用を促進する業界の責任:責任ある開発と利用を促進する業界の責任:私たちは、既存の法律の遵守にとどまらず、AI技術の設計に原則を統合する責任を認識している。人や社会に対する潜在的な利益は素晴らしいものであるが、AI研究者、データ管理者、関係者は、安全性と制御性のメカニズムへの取り組み、堅牢で代表的なデータの使用、解釈可能性の向上、特定のシステムが動作する特定のコンテキストによってもたらされる固有のリスクに合わせたソリューションの必要性の認識など、AIシステムの責任ある設計と展開を確保するために引き続き多くの時間を費やす必要がある。 
The Opportunity for Governments to Invest In and Enable the AI Ecosystem: We encourage robust support for research and development (R&D) to foster innovation through incentives and funding.  As the primary source of funding for long-term, high-risk research initiatives, we support governments’ investment in research fields specific or highly relevant to AI, including: cyber-defense, data analytics, detection of fraudulent transactions or messages, robotics, human augmentation, natural language processing, interfaces, and visualizations.  We also encourage governments to evaluate existing policy tools and use caution before adopting new laws, regulations, or taxes that may inadvertently or unnecessarily impede the responsible development and use of AI.  This extends to the foundational nature of protecting source code, proprietary algorithms, and other intellectual property.  Failure to do so could present a significant cyber risk.    政府がAIエコシステムに投資し、それを可能にする機会:我々は、インセンティブと資金提供を通じてイノベーションを促進するために、研究開発(R&D)に対する強固なサポートを推奨する。 長期的でリスクの高い研究イニシアチブの主要な資金源として、我々は、サイバー防衛、データ分析、不正な取引やメッセージの検出、ロボット工学、人間拡張、自然言語処理、インターフェース、可視化など、AIに特有または関連性の高い研究分野への政府の投資を支持する。 また、各国政府には、既存の政策手段を評価し、AIの責任ある開発と利用を不注意または不必要に妨げる可能性のある新しい法律、規制、または税金を採用する前に注意を払うことを奨励する。 このことは、ソースコード、独自のアルゴリズム、その他の知的財産を保護するという基本的な性質にも及んでいる。 これを怠ると、重大なサイバーリスクが発生する可能性がある。  
The Opportunity for Public-Private Partnerships (PPPs): Many emerging AI technologies are designed to perform a specific task, assisting human employees and making jobs easier. Our ability to adapt to rapid technological change, however, is critical. That is why we must continue to be prepared to address the implications of AI on the existing and future workforce. By leveraging PPPs – especially between industry partners, academic institutions, and governments – we can expedite AI R&D, democratize access, prioritize diversity and inclusion, and prepare our workforce for the jobs of the future.  官民パートナーシップ(PPP)の機会:多くの新しいAI技術は、特定のタスクを実行するように設計されており、人間の従業員を支援し、仕事を容易にする。しかし、急速な技術革新に適応する能力は非常に重要である。そのため、AIが既存および将来の労働力に与える影響に対処するための準備を続けていく必要がある。特に産業界のパートナー、学術機関、政府間のPPPを活用することで、AIの研究開発を促進し、アクセスを民主化し、多様性と包括性を優先させ、未来の仕事に対応できる労働力を準備することができる。
AI Policy Principles AI方針原則
Artificial Intelligence (AI) is a suite of technologies capable of learning, reasoning, adapting, and performing tasks in ways inspired by the human mind. With access to data and the computational power and human ingenuity required to extract increasing value from it, researchers are building intelligent software and machines to enhance human productivity and empower people everywhere.  人工知能(AI)とは、人間の心理にヒントを得て、学習、推論、適応、タスク実行を行うことができる一連の技術である。データへのアクセス、そこから価値を高めるために必要な計算能力、そして人間の創意工夫により、研究者は人間の生産性を高め、あらゆる人々に力を与えるインテリジェントなソフトウェアやマシンを構築している。
We are already experiencing how AI benefits people, society, and the economy in a diverse array of fields. AI systems assist in medical diagnostics, alerting doctors to early warning signs, and helping personalize patient treatments. They increase accessibility, fueling software programs that make digital content accessible to people with disabilities, such as helping the blind “read” millions of photos or websites on the internet. And intelligent systems already monitor huge volumes of economic transactions – identifying potential fraud in real time and saving consumers millions of dollars.  私たちはすでに、AIが多様な分野で人々や社会、経済にどのような利益をもたらすかを体験している。AIシステムは医療診断に役立ち、早期警告のサインを医師に知らせ、患者の治療を個別化するのに役立っている。また、アクセシビリティを向上させ、目の不自由な人がインターネット上の何百万もの写真やウェブサイトを「読む」ことを支援するなど、デジタルコンテンツにアクセスできるようにするソフトウェアプログラムに拍車をかけている。また、インテリジェント・システムはすでに膨大な量の経済取引を監視しており、潜在的な不正行為をリアルタイムで発見し、消費者を何百万ドルも節約している。
By pairing the power of AI computing with land cover maps, weather forecasts, and soil data, technology can empower people with the data and tools they need to better conserve lands, improve ecosystems, and increase agricultural yields. AI-powered machines can even make dangerous or difficult tasks safer for people, opening new environments that were previously inaccessible to human exploration.  AIコンピューティングのパワーを土地被覆図、天気予報、土壌データと組み合わせることで、土地の保全、生態系の改善、農業の収量増加に必要なデータとツールを人々に提供することができる。AIを搭載した機械は、危険な作業や困難な作業をより安全なものにし、これまで人間の手が届かなかった新しい環境を切り開くこともできるのである。
Startups, medium-sized companies, and larger technology companies have all developed AI systems to help solve some of society’s most pressing problems. By allowing smaller businesses to do more with less, AI will jumpstart small businesses, helping them take risks and grow at faster rates than ever before.  新興企業、中堅企業、そして大手テクノロジー企業は、社会の最も差し迫った問題の解決に貢献するAIシステムを開発している。AIは、中小企業がより少ない労力でより多くのことを行えるようにすることで、中小企業を飛躍的に成長させ、リスクを取ってこれまでよりも速いスピードで成長することを支援する。
Like other transformative technological evolutions before it, it is impossible to fully predict the impact of AI, but like the development of the internet, we expect the potential implications to be vast. In the United States alone, the market for AI technologies that analyze unstructured data is projected to reach $40 billion by 2020, potentially generating more than $60 billion worth of productivity improvements per year. By their very nature, these innovations create new products and services that did not exist before. By 2025, AI technologies are expected to add between $7.1 trillion and $13.17 trillion to the global economy.    これまでの技術革新のように、AIがもたらす影響を完全に予測することは不可能であるが、インターネットの発達と同様に、潜在的な影響力は膨大なものになると予想されます。米国だけでも、非構造化データを分析するAI技術の市場は、2020年までに400億ドルに達すると予測され、年間600億ドル以上の価値のある生産性向上を生み出す可能性がある。こうしたイノベーションは、その性質上、これまで存在しなかった新しい製品やサービスを生み出する。2025年までに、AI技術は世界経済に7兆1,000億ドルから13兆1,700億ドルの利益をもたらすと予想されている。  
These transformations should not cloud the fact that AI remains an active area of research that is constantly evolving and improving.  As it evolves, we take our responsibility seriously to be a catalyst for preparing for an AI world, including seeking solutions to address potential negative externalities and helping to train the workforce of the future.   これらの変革は、AIが依然として活発な研究分野であり、常に進化と改善を続けているという事実を曇らせるべきではありません。 その進化に伴い、潜在的な負の外部性に対処するための解決策を模索し、未来の労働力の育成を支援するなど、AIの世界に備えるための触媒となる責任を、私たちは真剣に受け止めている。 
To ensure that AI is able to deliver its greatest positive potential, the Information Technology Industry Council (ITI) — representing the technology sector’s leading companies — urges collaboration among stakeholders across public and private sectors. We, as an industry, acknowledge the need to develop dialogues with governments and other interested parties to make this an inclusive process at every stage.  Outlined below are specific areas where industry and governments can collaborate, followed by specific opportunities for public-private partnerships (PPPs). To advance these principles, which we expect will evolve alongside AI technology, we acknowledge the following:   AIがその最大の可能性を発揮できるようにするため、テクノロジー分野の主要企業を代表するITI(Information Technology Industry Council)は、官民のステークホルダー間の連携を強く求めている。私たち産業界は、あらゆる段階で包括的なプロセスを実現するために、政府やその他の利害関係者との対話を深める必要性を認識している。 以下に、産業界と政府が協力できる具体的な分野と、官民パートナーシップ(PPP)の具体的な機会を列挙する。私たちは、AI技術とともに進化することを期待するこれらの原則を推進するために、以下のことを認識する。 
Our Responsibility: Promoting Responsible Development and Use.  私たちの責任:責任ある開発と使用を促進する。
Responsible Design and Deployment: We recognize our responsibility to integrate principles into the design of AI technologies, beyond compliance with existing laws. While the potential benefits to people and society are amazing, AI researchers, subject matter experts, and stakeholders should and do spend a great deal of time working to ensure the responsible design and deployment of AI systems. Highly autonomous AI systems must be designed consistent with international conventions that preserve human dignity, rights, and freedoms. As an industry, it is our responsibility to recognize potentials for use and misuse, the implications of such actions, and the responsibility and opportunity to take steps to avoid the reasonably predictable misuse of this technology by committing to ethics by design.  責任ある設計と実装:私たちは、既存の法律の遵守にとどまらず、AI技術の設計に原則を統合する責任を認識している。人と社会に対する潜在的な利益は素晴らしいものであるが、AIの研究者、主題専門家、および関係者は、AIシステムの責任ある設計と展開を確実にするために、多くの時間を費やすべきであるし、実際に費やしている。高度に自律的なAIシステムは、人間の尊厳、権利、自由を保護する国際条約に合致するように設計されなければならない。業界として、使用と誤用の可能性、そのような行為の意味、そして、デザインによる倫理にコミットすることによって、この技術の合理的に予測可能な誤用を避けるための措置を講じる責任と機会を認識することは、我々の責任である。
Safety and Controllability: Technologists have a responsibility to ensure the safe design of AI systems. Autonomous AI agents must treat the safety of users and third parties as a paramount concern, and AI technologies should strive to reduce risks to humans. Furthermore, the development of autonomous AI systems must have safeguards to ensure controllability of the AI system by humans, tailored to the specific context in which a particular system operates.    安全性と制御性:技術者は、AIシステムの安全な設計を保証する責任がある。自律型AIエージェントは、ユーザーと第三者の安全を最優先事項として扱わなければならず、AI技術は人間に対するリスクを低減するよう努めなければならない。さらに、自律型AIシステムの開発には、特定のシステムが動作する特定のコンテキストに合わせて、人間によるAIシステムの制御性を確保するためのセーフガードが必要である。  
Robust and Representative Data: To promote the responsible use of data and ensure its integrity at every stage, industry has a responsibility to understand the parameters and characteristics of the data, to demonstrate the recognition of potentially harmful bias, and to test for potential bias before and throughout the deployment of AI systems. AI systems need to leverage large datasets, and the availability of robust and representative data for building and improving AI and machine learning systems is of utmost importance.   ロバストで代表的なデータ:データの責任ある利用を促進し、あらゆる段階でデータの完全性を確保するために、産業界には、データのパラメータと特性を理解し、潜在的に有害なバイアスの認識を実証し、AIシステムの展開前および展開中に潜在的なバイアスをテストする責任がある。AIシステムは大規模なデータセットを活用する必要があり、AIや機械学習システムを構築・改善するための堅牢で代表的なデータの入手が最も重要である。 
Interpretability: We are committed to partnering with others across government, private industry, academia, and civil society to find ways to mitigate bias, inequity, and other potential harms in automated decision-making systems. Our approach to finding such solutions should be tailored to the unique risks presented by the specific context in which a particular system operates.  In many contexts, we believe tools to enable greater interpretability will play an important role. 解釈のしやすさ:私たちは、自動意思決定システムにおけるバイアス、不公平、その他の潜在的な害を軽減する方法を見つけるために、政府、民間企業、学術界、市民社会の他の人々と協力することを約束する。このような解決策を見つけるための私たちのアプローチは、特定のシステムが動作する特定のコンテキストによって提示される固有のリスクに合わせて調整されるべきである。 多くの文脈では、より大きな解釈可能性を可能にするツールが重要な役割を果たすと考えている。
Liability of AI Systems Due to Autonomy: The use of AI to make autonomous consequential decisions about people, informed by – but often replacing decisions made by – human-driven bureaucratic processes, has led to concerns about liability. Acknowledging existing legal and regulatory frameworks, we are committed to partnering with relevant stakeholders to inform a reasonable accountability framework for all entities in the context of autonomous systems.  自律性に起因する AI システムの責任:人間主導の官僚的プロセスによってなされた決定から情報を得て、しかししばしばそれに取って代わる、人間に関する自律的な結果決定を行うためのAIの使用は、責任に関する懸念につながっている。私たちは、既存の法律や規制の枠組みを理解した上で、関連するステークホルダーと協力し、自律型システムの文脈におけるすべての事業体のための合理的な説明責任の枠組みを伝えることにコミットしている。
The Opportunity for Governments: Investing and Enabling the AI Ecosystem. 政府にとっての機会 AIエコシステムへの投資と実現化。
Investment in AI Research and Development: We encourage robust support for research and development (R&D) to foster innovation through incentives and funding.  As the primary source of funding for long-term, high-risk research initiatives, we support governments’ investment in research fields specific or highly relevant to AI, including: cyber-defense, data analytics, detection of fraudulent transactions or messages, robotics, human augmentation, natural language processing, interfaces, and visualizations.  AI研究開発への投資:我々は、インセンティブと資金提供を通じてイノベーションを促進するために、研究開発(R&D)に対する強固な支援を奨励する。 長期的でリスクの高い研究イニシアチブの主要な資金源として、我々は、サイバー防衛、データ分析、不正な取引やメッセージの検出、ロボット工学、人間の増強、自然言語処理、インターフェース、可視化など、AIに特有または高度に関連する研究分野への政府の投資を支持する。
Flexible Regulatory Approach: We encourage governments to evaluate existing policy tools and use caution before adopting new laws, regulations, or taxes that may inadvertently or unnecessarily impede the responsible development and use of AI. As applications of AI technologies vary widely, overregulating can inadvertently reduce the number of technologies created and offered in the marketplace, particularly by startups and smaller businesses. We encourage policymakers to recognize the importance of sector-specific approaches as needed; one regulatory approach will not fit all AI applications. We stand ready to work with policymakers and regulators to address legitimate concerns where they occur.  柔軟な規制アプローチ:我々は、各国政府が既存の政策手段を評価し、不注意または不必要にAIの責任ある開発と使用を妨げる可能性のある新しい法律、規制、または税金を採用する前に注意することを奨励する。AI技術の用途は多岐にわたるため、過剰な規制は、特に新興企業や中小企業によって、市場で創造・提供される技術の数を不用意に減らすことになりかねない。私たちは、政策立案者が必要に応じて分野別のアプローチの重要性を認識することを奨励する。1つの規制アプローチがすべてのAIアプリケーションに適合するわけではありません。私たちは、政策立案者や規制当局と協力し、正当な懸念が生じた場合には、それに対処する用意がある。
Promoting Innovation and the Security of the Internet: We strongly support the protection of the foundation of AI, including source code, proprietary algorithms, and other intellectual property. To this end, we believe governments should avoid requiring companies to transfer or provide access to technology, source code, algorithms, or encryption keys as conditions for doing business. We support the use of all available tools, including trade agreements, to achieve these ends. イノベーションとインターネットの安全性の促進:私たちは、ソースコード、独自のアルゴリズム、その他の知的財産を含む、AIの基盤の保護を強く支持する。この目的のために、政府は、ビジネスを行うための条件として、技術、ソースコード、アルゴリズム、または暗号化キーの譲渡またはアクセスを企業に要求することを避けるべきだと考えます。私たちは、これらの目的を達成するために、貿易協定を含むあらゆる利用可能なツールの使用を支持する。
Cybersecurity and Privacy: Just like technologies that have come before it, AI depends on strong cybersecurity and privacy provisions. We encourage governments to use strong, globally-accepted and deployed cryptography and other security standards that enable trust and interoperability. We also promote voluntary information-sharing on cyberattacks or hacks to better enable consumer protection. The tech sector incorporates strong security features into our products and services to advance trust, including using published algorithms as our default cryptography approach as they have the greatest trust among global stakeholders, and limiting access to encryption keys. Data and cybersecurity are integral to the success of AI. We believe for AI to flourish, users must trust that their personal and sensitive data is protected and handled appropriately. AI systems should use tools, including anonymized data, de-identification, or aggregation to protect personally identifiable information whenever possible. サイバーセキュリティとプライバシー:これまでの技術と同様に、AIは強力なサイバーセキュリティとプライバシーの規定に依存している。私たちは、信頼と相互運用を可能にする強力で世界的に受け入れられ、展開されている暗号技術やその他のセキュリティ標準を使用することを政府に奨励する。また、サイバー攻撃やハッキングに関する自主的な情報共有を促進し、消費者保護をより効果的に行えるようにする。ハイテクセクターは、信頼を高めるため、製品やサービスに強力なセキュリティ機能を組み込んでいる。これには、世界のステークホルダーから最も信頼されている公開アルゴリズムをデフォルトの暗号手法として使用することや、暗号鍵へのアクセスを制限することなどが含まれます。データとサイバーセキュリティは、AIの成功に不可欠である。私たちは、AIが繁栄するためには、ユーザーが自分の個人データや機密データが保護され、適切に扱われることを信頼しなければならないと考えている。AIシステムは、可能な限り、個人を特定できる情報を保護するために、匿名化データ、非識別化、または集計を含むツールを使用する必要がある。
Global Standards and Best Practices: We promote the development of global voluntary, industry-led, consensus-based standards and best practices. We encourage international collaboration in such activities to help accelerate adoption, promote competition, and enable the cost-effective introduction of AI technologies.   グローバルスタンダードとベストプラクティス:私たちは、業界主導のコンセンサスに基づくグローバルな自主基準およびベストプラクティスの開発を推進する。私たちは、AI技術の採用を加速し、競争を促進し、費用対効果の高い序文を可能にするために、このような活動における国際協力を奨励する。 
The Opportunity for Public-Private Partnerships: Promoting Lifespan Education and Diversity.   官民のパートナーシップの機会。生涯教育と多様性の促進。 
Democratizing Access and Creating Equality of Opportunity: While AI systems are creating new ways to generate economic value, if the value favors only certain incumbent entities, there is a risk of exacerbating existing wage, income, and wealth gaps. We support diversification and broadening of access to the resources necessary for AI development and use, such as computing resources, education, and training, including opportunities to participate in the development of these technologies.    アクセスの民主化と機会均等の創出:AIシステムは経済的価値を生み出す新たな方法を生み出しているが、その価値が特定の既存事業者だけに有利なものであれば、既存の賃金、所得、富の格差を悪化させる危険性がある。私たちは、これらの技術開発に参加する機会を含め、コンピューティング資源、教育、トレーニングなど、AIの開発および使用に必要な資源へのアクセスの多様化と拡大を支持する。  
Science, Technology, Engineering and Math (STEM) Education: Current and future workers need to be prepared with the necessary education and training to help them succeed. We recognize that delivering training is critical and will require significant investment, not only in STEM education, but also in understanding human behavior via the humanities and social sciences. To ensure employability of the workforce of the future, the public and private sectors should work together to design and deliver work-based learning and training systems, and advance approaches that provide students with real work experiences and concrete skills. In conjunction, prioritizing diversity and inclusion in STEM fields, and in the AI community specifically, will be a key part in ensuring AI develops in the most robust way possible.   科学、技術、工学、数学(STEM)教育:現在および将来の労働者は、成功のために必要な教育と訓練を受ける必要がある。私たちは、トレーニングを提供することが重要であり、STEM教育だけでなく、人文科学や社会科学を通じて人間の行動を理解するためにも、多額の投資が必要であると認識している。将来の労働力の雇用可能性を確保するために、官民が協力して、ワークベースの学習・訓練システムを設計・提供し、学生に実際の仕事体験と具体的なスキルを提供するアプローチを進めるべきである。また、STEM分野、特にAIコミュニティにおける多様性と包摂を優先することは、AIが最も強固な方法で発展するための重要な要素になる。 
Workforce: There is concern that AI will result in job change, job loss, and/or worker displacement. While these concerns are understandable, it should be noted that most emerging AI technologies are designed to perform a specific task and assist rather than replace human employees. This type of augmented intelligence means that a portion, but most likely not all, of an employee’s job could be replaced or made easier by AI. While the full impact of AI on jobs is not yet fully known, in terms of both jobs created and displaced, an ability to adapt to rapid technological change is critical. We should leverage traditional human-centered resources as well as new career educational models and newly developed AI technologies to assist both the existing workforce and future workforce in successfully navigating career development and job transitions. Additionally, we must have PPPs that significantly improve the delivery and effectiveness of lifelong career education and learning, inclusive of workforce adjustment programs.  We must also prioritize the availability of job-driven training to meet the scale of need, targeting resources to programs that produce strong results.  労働力:AIが雇用の変化、雇用の喪失、労働者の移動につながるという懸念がある。こうした懸念は理解できるが、新興のAI技術の多くは、特定のタスクを実行し、人間の従業員を置き換えるのではなく、支援するように設計されていることに留意する必要がある。この種の拡張知能は、従業員の仕事の一部がAIに取って代わられたり、より簡単になったりする可能性があることを意味する(ただし、ほとんどの場合、すべてではありません)。AIが雇用に与える影響はまだ完全には分かっていませんが、雇用の創出と喪失の両面から、急速な技術変化に適応する能力が重要である。私たちは、従来の人間中心のリソースだけでなく、新しいキャリア教育モデルや新しく開発されたAI技術を活用し、既存の労働力と未来の労働力の両方が、キャリア開発とジョブトランジションをうまく乗り切れるように支援する必要がある。さらに、労働力調整プログラムを含む生涯キャリア教育・学習の提供と効果を大幅に向上させるPPPが必要である。 また、ニーズの規模に応じた職業主導型トレーニングの提供を優先し、強力な成果を生み出すプログラムに資源を集中させなければならない。
Public Private Partnership: PPPs will make AI deployments an attractive investment for both government and private industry, and promote innovation, scalability, and sustainability. By leveraging PPPs – especially between industry partners, academic institutions, and governments – we can expedite AI R&D and prepare our workforce for the jobs of the future.  官民パートナーシップ:PPPは、政府および民間企業の双方にとって、AIの導入を魅力的な投資とし、イノベーション、拡張性、持続可能性を促進することができる。特に産業界のパートナー、学術機関、政府間のPPPを活用することで、AIの研究開発を加速させ、将来の仕事に対応できる労働力を準備することができる。

 

 

|

« ロシア 科学技術センター 認知作戦・心理作戦の理論的・概念的側面 | Main | 欧州 安全な宇宙ベースの接続プログラムを欧州理事会が承認 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« ロシア 科学技術センター 認知作戦・心理作戦の理論的・概念的側面 | Main | 欧州 安全な宇宙ベースの接続プログラムを欧州理事会が承認 »