« インターポール 国連地域間犯罪司法研究所 (UNICRI) 法執行機関によるAIの責任ある利用のための青写真を発表 | Main | 中国 意見募集 国家サイバースペース管理局「近接アドホックネットワーク情報サービス管理弁法(案)」(2023.06.06) »

2023.06.15

米国 GAO 科学技術スポットライト:生成的AI

こんにちは、丸山満彦です。

米国のGAOが、生成的AIについての報告書を公表していますね。。。

機会

  1. 情報の要約
  2. 自動化
  3. 生産性の向上

懸念は、

  1. 信頼と監督への懸念
  2. 偽情報
  3. 経済的課題(著作権等)
  4. プライバシー

 

● U.S. GAO

・2023.06.13 Science & Tech Spotlight:Generative AI

 

Science & Tech Spotlight:Generative AI 科学技術スポットライト:生成的AI
GAO-23-106782 GAO-23-106782
Fast Facts 概要
Generative AI systems—like ChatGPT and Bard—create text, images, audio, video, and other content. This Spotlight examines the technology behind these systems that are surging in popularity. ChatGPTやBardのような生成的AIシステムは、テキスト、画像、音声、動画、その他のコンテンツを作成する。このスポットライトでは、人気急上昇中のこれらのシステムを支える技術を検証する。
These systems are trained to recognize patterns and relationships in massive datasets and can quickly generate content from this data when prompted by a user. These growing capabilities could be used in education, government, medicine, law, and other fields. これらのシステムは、膨大なデータセットのパターンと関係を認識するよう訓練されており、ユーザーに促されると、このデータからコンテンツを素早く生成することができる。こうした能力の向上は、教育、ガバナンス、医療、法律、その他の分野で利用される可能性がある。
But these systems can also generate "hallucinations"—misinformation that seems credible—and can be used to purposefully create false information. Other challenges include oversight and privacy concerns. しかし、これらのシステムは「幻覚」、つまり信憑性があるように見える誤情報を生成する可能性もあり、意図的に偽の情報を作り出すために使われる可能性もある。その他の課題としては、監視やプライバシーの問題がある。
Highlights ハイライト
Why This Matters なぜ重要なのか
Use of generative AI, such as ChatGPT and Bard, has exploded to over 100 million users due to enhanced capabilities and user interest. This technology may dramatically increase productivity and transform daily tasks across much of society. Generative AI may also spread disinformation and presents substantial risks to national security and in other domains. ChatGPTやBardのような生成的AIの利用は、機能の向上とユーザーの関心の高さから爆発的に増加し、1億人以上のユーザーが利用している。この技術は、生産性を劇的に向上させ、社会の多くの日常業務を変革する可能性がある。生成的AIは偽情報を広める可能性もあり、国家安全保障やその他の領域において大きなリスクをもたらす。
The Technology テクノロジー
What is it? Generative artificial intelligence (AI) is a technology that can create content, including text, images, audio, or video, when prompted by a user. Generative AI systems create responses using algorithms that are trained often on open-source information, such as text and images from the internet. However, generative AI systems are not cognitive and lack human judgment. 生成的AIとは何か?生成的人工知能(AI)とは、ユーザーに促されると、テキスト、画像、音声、動画などのコンテンツを作成できる技術である。生成的AIシステムは、多くの場合、インターネット上のテキストや画像などのオープンソースの情報に基づいて訓練されたアルゴリズムを使用して応答を作成する。しかし、生成的AIシステムは認知的ではなく、人間の判断力を欠いている。
Generative AI has potential applications across a wide range of fields, including education, government, medicine, and law. Using prompts—questions or descriptions entered by a user to generate and refine the results—these systems can quickly write a speech in a particular tone, summarize complex research, or assess legal documents. Generative AI can also create artworks, including realistic images for video games, musical compositions, and poetic language, using only text prompts. In addition, it can aid complex design processes, such as designing molecules for new drugs or generating programming codes. 生成的AIは、教育、政府、医療、法などの幅広い分野で応用される可能性がある。プロンプト(ユーザーが入力した質問や説明)を使って結果を生成し、改良することで、これらのシステムは、特定のトーンでスピーチを素早く書いたり、複雑な研究を要約したり、法律文書を評価したりすることができる。生成的AIはまた、ビデオゲーム用のリアルな画像、楽曲、詩的言語などの芸術作品を、テキストプロンプトだけで作成することもできる。さらに、新薬の分子設計やプログラミングコードの生成など、複雑な設計プロセスを支援することもできる。
How does it work? Generative AI systems learn patterns and relationships from massive amounts of data, which enables them to generate new content that may be similar, but not identical, to the underlying training data. They process and create content using sophisticated machine learning algorithms and statistical models. For example, large language models use training data to learn patterns in written language. Generative AI can then use models to emulate a human writing style. Generative AI can also learn to use many other data types, including programming codes, molecular structures, or images. どのように機能するのか?生成的AIシステムは、膨大な量のデータからパターンと関係を学習し、基礎となる学習データと似ているが同一ではない新しいコンテンツを生成することができる。高度な機械学習アルゴリズムと統計モデルを用いてコンテンツを処理し、生成する。例えば、大規模な言語モデルは、学習データを使って書き言葉のパターンを学習する。生成的AIは、モデルを使って人間の文体をエミュレートすることができる。生成的AIはまた、プログラミングコード、分子構造、画像など、他の多くのデータタイプの使用も学習できる。
The systems generally require a user to submit prompts that guide the generation of new content (see fig. 1). Many iterations may be required to produce the intended result because generative AI is sensitive to the wording of prompts. このシステムでは一般に、新しいコンテンツの生成を導くプロンプトをユーザーが提出する必要がある(図1参照)。生成的AIはプロンプトの文言に敏感であるため、意図した結果を生成するには何度も反復する必要があるかもしれない。
1_20230920131901
Figure 1. Example of a generative AI system creating an image from prompts. 図1. プロンプトから画像を生成する生成的AIシステムの例。
How mature is it? Advanced chatbots, virtual assistants, and language translation tools are mature generative AI systems in widespread use. Improved computing power that can process large amounts of data for training has expanded generative AI capabilities. As of early 2023, emerging generative AI systems have reached more than 100 million users and attracted global attention to their potential applications. For example, a research hospital is piloting a generative AI program to create responses to patient questions and reduce the administrative workload of health care providers. Other companies could adapt pre-trained models to improve communications with customers. どの程度成熟しているのか?高度なチャットボット、バーチャルアシスタント、言語翻訳ツールは、広く使われている成熟した生成的AIシステムである。トレーニングのために大量のデータを処理できるコンピューティング能力の改善により、生成的AIの能力は拡大している。2023年初頭の時点で、新興の生成的AIシステムは1億人以上のユーザーに達し、その応用の可能性に世界的な注目が集まっている。例えば、ある研究病院では、患者の質問に対する回答を作成し、医療プロバイダの事務作業を軽減するための生成的AIプログラムを試験的に導入している。他の企業は、顧客とのコミュニケーションを改善するために、事前に訓練されたモデルを適応させることができる。
Opportunities 機会
・Summarizing information. By rapidly aggregating a wide range of content and simplifying the search process, generative AI quickens access to ideas and knowledge and can help people more efficiently gather new information. For example, researchers can identify a new chemical for a drug based on an AI-generated analysis of established drugs. ・情報の要約。生成的AIは、幅広いコンテンツを迅速に集約し、検索プロセスを簡素化することで、アイデアや知識へのアクセスを迅速化し、人々が新しい情報をより効率的に収集するのを助けることができる。例えば、研究者はAIが生成した既存薬の分析に基づいて、新薬の化学物質を特定することができる。
・Enabling automation. Generative AI could help automate a wide variety of administrative or other repetitive tasks. For example, it could be used to draft legal templates, which could then be reviewed and completed by a lawyer. It can also improve customer support by creating more nuanced automated responses to customer inquiries. ・自動化を可能にする。自動化を可能にする。生成的AIは、様々な管理業務やその他の反復業務の自動化に役立つ可能性がある。例えば、法的なテンプレートのドラフトを作成し、それを弁護士が確認して完成させることができる。また、顧客からの問い合わせに対して、よりニュアンスの異なる自動応答を作成することで、カスタマーサポートを改善することもできる。
・Improving productivity. Because it is capable of quickly automating a variety of tasks, generative AI has the potential to enhance the productivity of many industries. Multiple studies and working papers have shown generative AI can enhance the speed of administrative tasks and computer programming, although users may need to edit the generated result. ・生産性の改善。生成的AIは様々なタスクを迅速に自動化できるため、多くの産業の生産性を向上させる可能性を秘めている。生成された結果をユーザーが編集する必要があるかもしれないが、生成的AIが事務作業やコンピューター・プログラミングのスピードを向上させることができることは、複数の研究やワーキングペーパーで示されている。
Challenges 課題
・Trust and oversight concerns. In June 2021, GAO identified key practices, such as a commitment to values and principles for responsible use, to help ensure accountability and responsible use of AI across the federal government and other entities. Generative AI systems can respond to harmful instructions, which could increase the speed and scale of real-world harms. For example, generative AI could help produce new chemical warfare compounds. Additionally, generative AI systems share challenges to oversight similar to other AI applications—such as assessing the reliability of data used to develop the model—because their inputs and operations are not always visible. The White House announced in May 2023 that a working group would provide, among other things, input on how best to ensure that generative AI is developed and deployed equitably, responsibly, and safely. Other agencies, such as the National Institute of Standards and Technology, have also promoted responsible use of generative AI. ・信頼と監督への懸念。2021年6月、GAOは、連邦政府やその他の事業体全体におけるAIの説明責任と責任ある利用を確保するために、責任ある利用のための価値観や原則へのコミットメントといった重要なプラクティスを特定した。生成的AIシステムは有害な指示に対応することができるため、実社会における危害のスピードと規模を増大させる可能性がある。例えば、生成的AIは新たな化学兵器化合物の生成に役立つ可能性がある。さらに、生成的AIシステムは、他のAIアプリケーションと同様に、モデルの開発に使用されるデータの信頼性を評価するなど、監視に対する課題を共有している。ホワイトハウスは2023年5月、生成的AIが公平かつ責任を持って安全に開発・導入されるための最良の方法について、ワーキンググループが意見を提供することを発表した。国立標準技術研究所など他の機構も、生成的AIの責任ある利用を推進している。
・False information. Generative AI tools may produce “hallucinations”—erroneous responses that seem credible. One reason hallucinations occur is when a user requests information not in the training data. Additionally, a user could use AI to purposefully and quickly create inaccurate or misleading text, thus enabling the spread of disinformation. For example, generative AI can create phishing e-mails or fake but realistic social media posts with misleading information. Further, bias in the training data can amplify the potential for harm caused by generative AI output. ・偽情報。生成的AIツールは、「幻覚」-信憑性があるように見える誤った反応-を生み出す可能性がある。幻覚が起こる理由の一つは、ユーザーが学習データにない情報を要求した場合である。さらに、ユーザーがAIを使って不正確な、あるいは誤解を招くような文章を意図的かつ迅速に作成し、偽情報の拡散を可能にする可能性もある。例えば、生成的AIは、フィッシングメールや、偽の、しかし現実的なソーシャルメディアの投稿を、誤解を招く情報で作成することができる。さらに、学習データにバイアスがかかると、生成的AIの出力による危害の可能性が増幅される。
・Economic issues. Generative AI systems could be trained on copyrighted, proprietary, or sensitive data, without the owner's or subject's knowledge. There are unresolved questions about how copyright concepts, such as authorship, infringement, and fair use, will apply to content created or used by generative AI. ・経済的問題。生成的AIシステムは、所有者やデータ主体が知らないうちに、著作権で保護されたデータ、所有権で保護されたデータ、機密データで学習される可能性がある。著作権、侵害、フェアユースといった著作権の概念が、生成的AIによって作成または使用されるコンテンツにどのように適用されるかについては、未解決の問題がある。
・Privacy risks. Specific technical features of generative AI systems may reduce privacy for users, including minors. For example, a generative AI system may be unable to “forget” sensitive information that a user wishes to delete. Additionally, if a user enters personally identifiable information, that data could be used indefinitely in the future for other purposes without the user's knowledge. Section 230 of the Communications Decency Act of 1996 shields online service providers and users from legal liability for hosting or sharing third-party content, but it is unclear how this statute might apply to AI-generating content systems and their creators. ・プライバシーのリスク。生成的AIシステムの特定の技術仕様は、未成年者を含む利用者のプライバシーを低下させる可能性がある。例えば、生成的AIシステムは、ユーザーが削除を希望する機密情報を「忘れる」ことができない可能性がある。さらに、ユーザーが個人を特定できる情報を入力した場合、そのデータは将来、ユーザーが知らないうちに他の目的で無期限に使用される可能性がある。1996年のコミュニケーション良識法第230条は、サードパーティ・コンテンツのホスティングや共有に関する法的責任からオンライン・サービス・プロバイダとユーザーを保護するが、この法律がAI生成的コンテンツ・システムとその作成者にどのように適用されるかは不明である。
・National security risks. Information about how and when some generative AI systems retain and use information entered into them is sparse or unavailable to many users, which poses risks for using these tools. For example, if a user enters sensitive information into a prompt, it could be stored and misused or aggregated with other information in the future. Furthermore, when systems are publically and internationally accessible, they could provide benefits to an adversary. For example, generative AI could help rewrite code making it harder to attribute cyberattacks. It may also generate code for more effective cyberattacks even by attackers with limited computer programming skills. ・国家安全保障上のリスク。生成的AIシステムの中には、入力された情報をいつ、どのように保持し、利用するのかについての情報が乏しかったり、多くのユーザーが利用できなかったりするものがあり、こうしたツールの利用にリスクが生じる。例えば、ユーザーがプロンプトに機密情報を入力した場合、それが保存され、悪用されたり、将来他の情報と統合されたりする可能性がある。さらに、システムが一般的かつ国際的にアクセス可能である場合、敵対者に利益を提供する可能性がある。例えば、生成的AIはコードの書き換えを支援し、サイバー攻撃の帰属を困難にする可能性がある。また、コンピュータのプログラミングスキルが低い攻撃者であっても、より効果的なサイバー攻撃のためのコードを生成できるかもしれない。
Policy Context and Questions 政策の背景と課題
・What AI guidelines can best ensure generative AI systems are used responsibly, and are generative AI systems following existing guidance? ・どのようなAIガイドラインが、生成的AIシステムが責任を持って使用されることを最も確実にできるか。
・What standards could be used or developed to evaluate the methods and materials used to train generative AI models and ensure fairness and accuracy of their responses for different use cases? ・生成的AIモデルを訓練するために使用される方法と材料を評価し、さまざまな使用ケースに対する反応の公正さと正確さを保証するために、どのような標準を使用または開発することができるか。
・How can public, private, academic, and nonprofit organizations strengthen their workforce to ensure responsible and accountable use of generative AI technologies? ・生成的AI技術の責任ある、説明可能な使用を保証するために、公共、民間、学術、非営利組織はどのように労働力を強化できるか?
・What privacy laws can be used or developed to protect sensitive information used or collected by generative AI systems, including information provided by minors? ・生成的AIシステムによって使用または収集される機密情報(未成年者から提供される情報を含む)を保護するために、どのような個人情報保護法を利用または開発することができるか?

 

 

・[PDF]

20230920-132121

|

« インターポール 国連地域間犯罪司法研究所 (UNICRI) 法執行機関によるAIの責任ある利用のための青写真を発表 | Main | 中国 意見募集 国家サイバースペース管理局「近接アドホックネットワーク情報サービス管理弁法(案)」(2023.06.06) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« インターポール 国連地域間犯罪司法研究所 (UNICRI) 法執行機関によるAIの責任ある利用のための青写真を発表 | Main | 中国 意見募集 国家サイバースペース管理局「近接アドホックネットワーク情報サービス管理弁法(案)」(2023.06.06) »