« OECD 生成的人工知能(AI)に関するG7広島プロセス (2023.09.07) | Main | IISS サイバー対応能力と国家力 2回目の評価は10カ国 »

2023.09.14

カナダ 連邦政府 生成的AI活用ガイド (2023.09.06)

こんにちは、丸山満彦です。

カナダ連邦政府が、連邦政府の職員向け?に生成的AI活用ガイドを発表していますね。。。

よく考えられているように思うので、まだ組織で生成的AIの利用ガイド等をつくっていないところは、参考にするとよいと思います。

ただ、カナダ連邦政府の場合は、ここに至る前に「自動意思決定に関する指令(Directive on Automated Decision-Making 
)」を2019.04.01に発効していて、その上にこのガイドが成り立っているということは理解しておいたほうがよいかもです。。。

また、2023.07.14 には、サイバーセキュリティセンター(CCCS)から、生成的AIのガイダンス (Generative artificial intelligence (AI) - ITSAP.00.041) も公開されています。。。

Flag_of_canadasvg

Government of CanadaAbout government - Government in a digital age - Digital government innovation - Responsible use of artificial intelligence (AI)

・2023.09.06 Guide on the use of Generative AI

Guide on the use of Generative AI 生成的AI活用ガイド
Table of contents 目次
Overview 概要
What is generative AI? 生成的AIとは何か?
Challenges and concerns 課題と懸念
Recommended approach 推奨されるアプローチ
Policy considerations and best practices 政策上の考慮事項とベストプラクティス
Use of this guide and additional support available 本ガイドの活用と追加サポート
Frequently asked questions よくある質問
Overview 概要
Generative artificial intelligence (AI) tools offer many potential benefits to Government of Canada (GC) institutions. Federal institutions should explore potential uses of generative AI tools for supporting and improving their operations. However, because these tools are evolving, they should not be used in all cases. Federal institutions must be cautious and evaluate the risks before they start using them. The use of these tools should be restricted to instances where risks can be effectively managed. 生成的人工知能(AI)ツールは、カナダ政府(GC)機構に多くの潜在的利益をもたらす。連邦政府機関は、業務を支援し改善するための生成的AIツールの潜在的な利用法を探るべきである。しかし、これらのツールは進化しているため、すべてのケースで使用すべきではない。連邦政府機関は、利用を開始する前に慎重を期し、リスクを評価しなければならない。これらのツールの使用は、リスクを効果的にマネジメントできる場合に限定すべきである。
This document provides preliminary guidance to federal institutions on their use of generative AI tools. This includes instances where these tools are deployed by federal institutions. It provides an overview of generative AI, identifies challenges and concerns relating to its use, puts forward principles for using it responsibly, and offers policy considerations and best practices. 本文書は、連邦機関が生成的AIツールを使用する際の予備的ガイダンスを提供する。これには、連邦機関がこれらのツールを導入する場合も含まれる。生成的AIの概要を説明し、その使用に関する課題と懸念を特定し、責任を持って使用するための原則を提示し、政策上の考慮事項とベストプラクティスを提供する。
This guide also seeks to raise awareness and foster coordination among federal institutions. It highlights the importance of engaging key stakeholders before deploying generative AI tools for public use and before using them for purposes such as service delivery. These stakeholders include legal counsel, privacy and security experts, and the Office of the Chief Information Officer at the Treasury Board of Canada Secretariat (TBS). 本ガイドブックはまた、連邦政府機関の認識を高め、連携を促進することを目的としている。生成的AIツールを公共用に展開する前や、サービス提供などの目的で使用する前に、主要な利害関係者を関与させることの重要性を強調している。これらの利害関係者には、法律顧問、プライバシーとセキュリティの専門家、カナダ財務省事務局(TBS)の最高情報責任者室などが含まれる。
The guide complements and supports compliance with many existing federal laws and policies, including in areas of privacy, security, intellectual property, and human rights. The guide is intended to be evergreen as TBS recognizes the need for iteration to keep pace with regulatory and technological change. 本ガイドは、プライバシー、セキュリティ、知的財産、人権の分野を含む、多くの既存の連邦法や政策を補完し、その遵守を支援するものである。TBSは、規制や技術の変化に対応するため、本ガイドを常に進化させる必要性を認識している。
What is generative AI? 生成的AIとは何か?
The Directive on Automated Decision-Making defines AI as information technology that performs tasks that would ordinarily require biological brainpower to accomplish, such as making sense of spoken language, learning behaviours, or solving problems. 自動意思決定に関する指令は、AIを、話し言葉の理解、行動の学習、問題の解決など、通常は生物学的な脳力を必要とするタスクを実行する情報技術と定義している。
Generative AI is a type of AI that produces content such as text, audio, code, videos and images. Footnote1 This content is produced based on information that the user inputs, which consists of prompts (typically short instructional texts). 生成的AIは、テキスト、音声、コード、動画、画像などのコンテンツを生成するAIの一種である。脚注1 このコンテンツは、プロンプト(通常は短い指示文)からなるユーザーが入力した情報に基づいて生成される。
Examples of generative AI tools include chatbots such as ChatGPT and Bing Chat; GitHub Copilot, which produces code based on text prompts; and DALL-E, Midjourney and Stable Diffusion, which produce images from text or image prompts. In addition, generative AI models can be fine-tuned, or custom models can be trained and deployed to meet an organization’s needs. Footnote2 生成的AIツールの例としては、ChatGPTやBing Chatなどのチャットボット、テキストのプロンプトに基づいてコードを生成するGitHub Copilot、テキストや画像のプロンプトから画像を生成するDALL-E、Midjourney、Stable Diffusionなどがある。さらに、生成的AIモデルを微調整したり、組織のニーズに合わせてカスタムモデルをトレーニングして導入することもできる。脚注2
Many generative AI models have been trained on large volumes of data, including publicly available data from the Internet. Based on the training data, these models generate content that is statistically likely in response to a prompt, Footnote3 for example, by predicting the next word in a sentence. Techniques such as human supervision and reinforcement learning can also be applied to further improve the outputs, Footnote3
and users can provide feedback or change their prompt to refine the response. Generative AI can therefore produce content that looks as though a human produced it.
生成的AIモデルの多くは、インターネットから一般に入手可能なデータを含む、大量のデータで訓練されている。これらのモデルは学習データに基づいて、例えば文中の次の単語を予測するなどして、プロンプトに対して統計的に可能性の高いコンテンツを生成する。また、人間の監視や強化学習などの技術を適用して、Footnote3の出力をさらに改善することもでき、プロバイダはフィードバックを提供したり、プロンプトを変更して応答を洗練させることができる。そのため生成的AIは、あたかも人間が作成したかのようなコンテンツを作成することができる。
Generative AI can be used to perform or support various tasks including: 生成的AIは、以下のようなさまざまなタスクの実行やサポートに使用できる:
・writing and editing documents and emails ・文書や電子メールの作成・編集
・coding tasks, such as debugging and generating templates and common solutions ・デバッグ、テンプレートや一般的なソリューションの生成などのコーディング作業
・summarizing information ・情報を要約する
・brainstorming ・ブレインストーミング
・research, translation and learning ・リサーチ、翻訳、学習
・providing support to clients (for example, answering questions, troubleshooting) ・クライアントへのサポート提供(質問への回答、トラブルシューティングなど)
Challenges and concerns 課題と懸念
Before federal institutions start using generative AI tools, they must assess and mitigate certain ethical, legal and other risks. For example, these tools can generate inaccurate content; amplify biases; and violate intellectual property, privacy and other laws. Further, some tools may not meet federal privacy and security requirements. When institutions use these tools, they must protect personal information and sensitive data. As well, because these tools generate content that can look as though a human produced it, people might not be able to tell whether they are interacting with a person or a tool. The use of these tools can also affect the skill and judgment of public servants and can have environmental costs. 連邦機関が生成的AIツールの使用を開始する前に、倫理的、法的、その他のリスクを評価し、軽減する必要がある。例えば、これらのツールは不正確なコンテンツを生成したり、バイアスを増幅させたり、知的財産権、プライバシー、その他の法律に違反したりする可能性がある。さらに、一部のツールは、連邦政府のプライバシーおよびセキュリティ要件を満たしていない可能性がある。機構がこれらのツールを使用する場合、個人情報や機密データを保護しなければならない。また、これらのツールは、あたかも人間が作成したかのようなコンテンツを生成するため、人々は、自分が人とやりとりしているのか、それともツールとやりとりしているのかを見分けることができないかもしれない。このようなツールの使用は、公務員のスキルや判断力にも影響を与え、環境コストも発生させる可能性がある。
Generative AI tools rely on models that pose various challenges, including limited transparency and explainability. They also rely on training data that is difficult to access and assess. These challenges stem in part from large model sizes, high volumes of training data, and the proprietary nature of many of the tools. In addition, the outputs of the models are constrained by the prompts and the training data, which may lack context that is not publicly available on the Internet. Training data could also be outdated; for example, ChatGPT is trained on data up to 2021, so it has a limited ability to provide information on events after that. Footnote4 Footnote5 As well, these tools have limitations that reduce their utility for certain purposes; for example, they tend to perform poorly on tasks related to emotion. Footnote6 Footnote7 生成的AIツールは、透明性や説明可能性に限界があるなど、さまざまな課題をもたらすモデルに依存している。また、アクセスや評価が困難な学習データにも依存している。これらの課題は、モデルのサイズが大きいこと、学習データが大量であること、多くのツールが独自仕様であることなどに起因している。さらに、モデルの出力は、プロンプトとトレーニングデータによって制約を受ける。例えば、ChatGPTは2021年までのデータでトレーニングされているため、それ以降のイベントに関する情報を提供する能力は限られている。脚注4 脚注5 同様に、これらのツールには特定の目的に対する有用性を低下させる限界がある。例えば、感情に関連するタスクでは性能が低い傾向がある。脚注6 脚注7
Generative AI could also pose risks to the integrity and security of federal institutions, given its potential misuse by threat actors. Federal institutions should be aware of these risks and ensure that the necessary mitigation measures are in place in accordance with the Canadian Centre for Cyber Security’s guidance on generative AI. 生成的AIは、脅威行為者によって悪用される可能性があることから、連邦機関の完全性と安全性にもリスクをもたらす可能性がある。連邦機関はこうしたリスクを認識し、生成的AIに関するカナダ・サイバーセキュリティセンターのガイダンスに従って、必要な低減措置を確実に講じるべきである。
Recommended approach 推奨されるアプローチ
Federal institutions should explore how they could use generative AI tools to support their operations and improve outcomes for Canadians. However, given the challenges and concerns relating to these tools, institutions should assess and mitigate risks and should restrict their use to activities where they can manage the risks effectively. Given the growing adoption of these technologies in different sectors and by the public, their use in government will help keep pace with the evolving digital landscape. 連邦機関は、生成的AIツールをどのように活用すれば業務を支援し、カナダ国民の成果を改善できるかを検討すべきである。しかし、これらのツールに関する課題や懸念を考慮すると、機構はリスクをアセスメントし、軽減し、リスクを効果的にマネジメントできる活動に使用を制限すべきである。様々なセクターや一般市民によるこれらのテクノロジーの導入が進んでいることを考えると、政府におけるこれらのツールの利用は、デジタル環境の進化に歩調を合わせるのに役立つだろう。
Federal institutions should evaluate the tools for their potential to help employees, not replace them. When deciding whether to use generative AI tools, public servants should refer to the guide to ethical decision-making in section 6 of Values Alive: A Discussion Guide to the “Values and Ethics Code for the Public Sector.” 連邦機関は、職員に取って代わるのではなく、職員を助ける可能性のあるツールを評価すべきである。生成的AIツールを使用するかどうかを決定する際、公務員は『Values Alive』の第6章にある「倫理的意思決定の指針」を参照すべきである。
To maintain public trust and ensure the responsible use of generative AI tools, federal institutions should align with the “FASTER” principles: 国民の信頼を維持し、生成的AIツールの責任ある使用を確保するために、連邦機関は「FASTER」原則に沿うべきである:
Fair: ensure that content from these tools does not include or amplify biases and that it complies with human rights, accessibility, and procedural and substantive fairness obligations 公正:これらのツールから得られるコンテンツがバイアスを含んだり増幅したりしないようにし、人権、アクセシビリティ、手続き上および実質上の公正義務を遵守する。
Accountable: take responsibility for the content generated by these tools. This includes making sure it is factual, legal, ethical, and compliant with the terms of use 説明責任:これらのツールによって生成されたコンテンツに責任を持つ。これには、事実に基づいているか、合法的か、倫理的か、利用規約を遵守しているかを確認することも含まれる。
Secure: ensure that the infrastructure and tools are appropriate for the security classification of the information and that privacy and personal information are protected 防御:インフラとツールが情報のセキュリティ分類に適しており、プライバシーと個人情報が保護されていることを確認する。
Transparent: identify content that has been produced using generative AI; notify users that they are interacting with an AI tool; document decisions and be able to provide explanations if tools are used to support decision-making 透明性:生成的AIを使用して作成されたコンテンツを識別すること、AIツールとやりとりしていることを利用者に通知すること、意思決定を支援するためにツールが使用されている場合、意思決定を文書化し、説明を提供できるようにすること。
Educated: learn about the strengths, limitations and responsible use of the tools; learn how to create effective prompts and to identify potential weaknesses in the outputs 教育:ツールの長所、限界、責任ある使用について学び、効果的なプロンプトの作成方法を学び、出力の潜在的な弱点を特定する。
Relevant: make sure the use of generative AI tools supports user and organizational needs and contributes to improved outcomes for Canadians; identify appropriate tools for the task; AI tools aren’t the best choice in every situation 関連性:生成的AIツールの使用が、ユーザーと組織のニーズをサポートし、カナダ人の成果改善に貢献することを確認する。
For assistance in determining the appropriate use of these tools, public servants should engage with relevant stakeholders such as their institution’s legal services, privacy and security experts, Chief Information Office, Chief Data Office and diversity and inclusion specialists. As well, the Canadian Centre for Cyber Security, Statistics Canada and the Office of the Chief Information Officer at TBS are also available to support federal institutions in the responsible use of these tools. これらのツールの適切な使用を決定するための支援として、公務員は各機関の法務サービス、プライバシーとセキュリティの専門家、最高情報責任者、最高データ管理責任者、ダイバーシティとインクルージョンの専門家など、関連する利害関係者と関わるべきである。また、Canadian Centre for Cyber Security(カナダ・サイバーセキュリティセンター)、Statistics Canada(カナダ統計局)、TBSのOffice of the Chief Information Officer(最高情報責任者室)も、連邦機関がこれらのツールを責任を持って使用するためのサポートを行っている。
Policy considerations and best practices 政策上の考慮事項とベストプラクティス
Does the Directive on Automated Decision-Making apply? 自動意思決定に関する指令は適用されるか?
The  Directive on Automated Decision-Making applies to automated systems, including those that rely on AI, used to influence or make administrative decisions. Like other AI systems, generative AI systems have capabilities that allow them to make assessments or determinations about clients in service delivery. For example, a generative AI system could be used to summarize a client’s data or to determine whether they are eligible for a service. Footnote8 These administrative uses have the potential to affect how an officer views and decides on a case, which has implications for the client’s rights, interests or privileges. The directive therefore applies to the use of generative AI systems to make or inform administrative decisions. 自動意思決定に関する指令は、行政上の意思決定に影響を与えたり決定したりするために使用される、AIに依存するものを含む自動化システムに適用される。他のAIシステムと同様、生成的AIシステムにも、サービス提供におけるクライエントの評価や決定を行うことができる機能がある。例えば、生成的AIシステムは、クライアントのデータを要約したり、サービスを受ける資格があるかどうかを判断したりするために使用することができる。脚注8 こうした行政上の利用は、担当官が案件をどのように見て判断するかに影響を及ぼす可能性があり、それはクライアントの権利、利益、または特権に影響を及ぼす。したがって、この指令は、行政上の決定を下すため、または行政上の決定に情報を提供するための生成的AIシステムの使用に適用される。
However, generative AI may not be suited for use in administrative decision-making at this stage. The design and functioning of generative models can limit federal institutions’ ability to ensure transparency, accountability and fairness in decisions made by generative AI systems or informed by their outputs. As well, the terms of use for the generative AI products of many leading technology companies prohibit using their products to make high-impact decisions. For example, OpenAI instructs users not to employ ChatGPT in decisions about credit, employment, educational institutions, or public assistance services; law enforcement and criminal justice; and migration and asylum. Footnote9 Similarly, Google prohibits users of their generative AI product from making “automated decisions in domains that affect material or individual rights or well-being.” Footnote10 These limitations underscore the importance of complying with the directive’s requirement to consult legal services during the design phase of an automation project. The consultation allows federal institutions to understand the legal risks of administrative uses of generative AI systems both for themselves and for their clients. しかし、生成的AIは、現段階では行政上の意思決定に使用するには適さないかもしれない。生成的モデルの設計と機能は、生成的AIシステムによって下された、あるいはその出力によって知らされた意思決定の透明性、説明責任、公平性を確保する連邦機関の能力を制限する可能性がある。また、多くの大手テクノロジー企業の生成的AI製品の利用規約は、影響力の大きい意思決定を行うためにその製品を使用することを禁じている。例えば、オープンAIは、信用、雇用、教育機関、公的扶助サービス、法執行と刑事司法、移民と亡命に関する意思決定にChatGPTを使用しないようユーザーに指示している。脚注9 同様に、グーグルは生成的AI製品のユーザーに対し、「物質的または個人の権利や幸福に影響を与える領域における自動化された決定」を行うことを禁止している。脚注10 これらの制限は、自動化プロジェクトの設計段階で法律事務所に相談するという指令の要件を遵守することの重要性を強調している。この相談によって、連邦機関は、自分たちのためにもクライアントのためにも、生成的AIシステムの行政利用の法的リスクを理解することができる。
Not all uses of generative AI are subject to the directive. For example, using generative tools in research or to brainstorm, plan, or draft routine correspondence falls outside the scope of the directive. However, such non-administrative uses are still subject to the laws and policies that govern federal institutions. 生成的AIのすべての用途が指令の対象となるわけではない。例えば、研究、ブレーンストーミング、計画、日常的な通信文のドラフトに生成ツールを使用することは、指令の範囲外である。しかし、このような非管理的な使用は、依然として連邦政府機構をガバナンスする法律やポリシーの対象となる。
Privacy considerations プライバシーへの配慮
As with any online system, personal information should not be entered into a generative AI tool or service unless a contract is in place with the supplier and covers how the information will be used and protected. Before using a generative AI tool, federal institutions must also make sure that the collection and use of personal information, including information used to train the tool, meets their privacy obligations. 他のオンラインシステムと同様、供給業者と契約が締結され、情報の使用方法と保護方法が網羅されていない限り、生成的AIツールやサービスに個人情報を入力すべきではない。生成的AIツールを使用する前に、連邦機関は、ツールの訓練に使用される情報を含む個人情報の収集と使用が、プライバシー保護義務を満たしていることも確認しなければならない。
All personal information used by, created or obtained through, and disclosed for the use of generative AI by federal institutions is subject to the requirements of the Privacy Act and related policy instruments. This means that: 連邦政府機関が生成的AIを使用するために使用し、生成または取得し、開示するすべての個人情報は、個人情報保護法および関連する政策文書の要件に従う。これは次のことを意味する:
・personal information can only be collected if it is directly related to the program or activity ・個人情報は、プログラムや活動に直接関連する場合のみ収集できる。
・it may only be used for the purpose for which it was collected or for a use consistent with that purpose ・個人情報は、収集された目的またはその目的に沿った用途にのみ使用できる。
・it has limited permissible disclosures outlined in the legislation ・個人情報の開示は法律で制限されている。
・institutions must be transparent about how they treat and safeguard the personal information they collect once it is under the control of the government ・機関は、収集した個人情報が政府の管理下に置かれた後、どのように扱い、保護するかについて透明性を持たなければならない。
The privacy risks will vary based on how the AI tool collects and processes information about individuals and, potentially, makes decisions about them. An AI tool could, for example, decide whether someone is eligible for a service, determine the level of benefit someone is entitled to, or process survey data to inform policy direction. プライバシーのリスクは、AIツールがどのように個人に関する情報を収集・処理し、潜在的には個人に関する意思決定を行うかによって異なる。例えば、AIツールは、誰かがサービスを受ける資格があるかどうかを決定したり、誰かが受ける権利がある給付のレベルを決定したり、政策の方向性を知らせるために調査データを処理したりすることができる。
The Privacy Act requires that a government institution take all reasonable steps to ensure that personal information that is used for an administrative purpose by the institution is as accurate, up-to-date and complete as possible. When using a generative AI system to make or inform decisions about individuals, federal institutions must have confidence that the personal information the system collects, creates or uses is accurate. For this reason, direct collection from the individual is required in most situations. Direct collection also allows for the individual to be notified of the collection and of how their information will be used and managed. 個人情報保護法は、政府機関が行政目的のために使用する個人情報が、可能な限り正確で、最新かつ完全であることを保証するために、あらゆる合理的な措置を講じることを義務付けている。生成的AIシステムを使用して個人に関する決定を下したり、情報を提供したりする場合、連邦政府機関は、システムが収集、作成、使用する個人情報が正確であるという確信を持たなければならない。このため、ほとんどの場合、本人からの直接収集が必要となる。直接収集することで、個人は収集について、また自分の情報がどのように使用・管理されるかについて通知される。
If the output of a generative AI tool results in the creation of new personal information, the new information must also be managed according to privacy requirements. For example, a summary of an application for a service or benefit produced by a generative AI tool could constitute new personal information. Users should validate any personal information created by a generative AI tool to make sure that it is accurate, up-to-date and complete. As well, users must ensure that any new personal information is not disclosed for a purpose that is inconsistent with that for which it was collected. From the example above, sharing the new information about the individual with a different program for an unrelated benefit may not be appropriate and may constitute a privacy breach. 生成的AIツールの出力によって新たな個人情報が作成される場合、その新たな情報もプライバシー要件に従って管理されなければならない。例えば、生成的AIツールによって生成されたサービスや便益の申し込みの要約は、新たな個人情報を構成する可能性がある。ユーザーは、生成的AIツールによって作成された個人情報が正確で、最新で、完全なものであることを確認するために、それを検証しなければならない。また、利用者は、新たな個人情報が、それが収集された目的と矛盾する目的のために開示されないようにしなければならない。上記の例からすると、個人に関する新しい情報を、無関係な利益のために別のプログラムと共有することは適切でない可能性があり、プライバシー侵害を構成する可能性がある。
Federal institutions must also make sure that all personal information they collect and use can be made available to the individual concerned and that the individual can access and correct it upon request. Federal institutions must retain personal information that is used to make a decision about an individual for at least two years. This gives the individual enough time to exercise their right to access and correct the information. Federal institutions should not hold onto personal information for longer than required. The longer federal institutions hold personal information, the greater the likelihood of a potential privacy breach. 連邦機関はまた、収集し利用するすべての個人情報を当該本人が利用できるようにし、本人が要求に応じてアクセスし訂正できるようにしなければならない。連邦機関は、個人に関する決定に使用された個人情報を少なくとも2年間保持しなければならない。これは、個人が情報にアクセスし、訂正する権利を行使するのに十分な期間を与えるものである。連邦機関は、個人情報を必要以上に長く保持すべきではない。連邦機関が個人情報を保有する期間が長ければ長いほど、プライバシー侵害の可能性が高まる。
De-identification and the use of synthetic data can help institutions reduce the impact and likelihood of privacy breaches when training, using and evaluating the outputs of generative AI tools. Privacy Implementation Notice 2023-01: De-identification contains more information about these privacy preserving techniques. Other safeguards such as administrative controls, access rights, and auditing are also important to reduce the risk of inadvertent disclosure or unauthorized access, re-identification or inference, and to generally preserve the privacy of individuals. 非識別化と合成データの使用は、機関が生成的AIツールの出力を訓練、使用、評価する際に、プライバシー侵害の影響と可能性を減らすのに役立つ。プライバシー実施通知2023-01 個人情報保護実施通知2023-01:個人情報の非識別化」には、これらの個人情報保護技術に関する詳細が記載されている。管理統制、アクセス権、監査などのその他の保護措置も、不注意による開示や不正アクセス、再識別、推論のリスクを低減し、一般的に個人のプライバシーを保護するために重要である。
Before considering procuring, using or deploying generative AI tools, federal institutions’ privacy officials must determine whether a Privacy Impact Assessment is needed. 生成的AIツールの調達、使用、配備を検討する前に、連邦機関のプライバシー担当者は、プライバシー影響評価が必要かどうかを判断しなければならない。
When federal institutions are building IT solutions that use generative AI, they must make sure they meet privacy requirements. The Digital Privacy Playbook contains more information on these requirements and on how to incorporate privacy guidance into IT solutions that use generative AI. 連邦機関が生成的AIを使用するITソリューションを構築する場合、プライバシー要件を満たしていることを確認しなければならない。デジタル・プライバシー・プレイブック』には、これらの要件と、生成的AIを使用するITソリューションにプライバシーガイダンスを組み込む方法の詳細が記載されている。
Potential issues and best practices 潜在的な問題とベスト・プラクティス
The following section provides a brief overview of several areas of risk and sets out best practices for the responsible use of generative AI in federal institutions. In addition to the best practices identified for all users of generative AI in the federal government, best practices specific to federal institutions developing or deploying these tools are also identified to ensure that risks are appropriately assessed and mitigated, and to distinguish between the responsibilities of users and developers. 以下のセクションでは、いくつかのリスク領域を簡単に概観し、連邦機関における生成的AIの責任ある使用のためのベストプラクティスを示す。連邦政府における生成的AIの全ユーザーのために特定されたベスト・プラクティスに加えて、リスクが適切にアセスメントされ、低減されることを保証し、ユーザーと開発者の責任を区別するために、これらのツールを開発または導入する連邦機関に固有のベスト・プラクティスも特定される。
Protection of information 情報の防御
Issue: some generative AI tools do not meet government information security requirements 課題:一部の生成的AIツールは、政府の情報セキュリティ要件を満たしていない。
The protection of personal, classified, protected and proprietary information is critical when using generative AI systems. The providers of some generative AI tools may inspect input data or use this data to further train their models, which could result in privacy and security breaches. Risks can also arise from input data being stored on servers not controlled by the GC, where data might be retained for longer than necessary, made accessible, further distributed, or vulnerable to a data breach. Footnote11 Some tools, public or otherwise, may not meet privacy and security requirements established in federal law and policy. 生成的AIシステムを使用する場合、個人情報、機密情報、保護情報、専有情報の保護は極めて重要である。一部の生成的AIツールのプロバイダは、入力データを検査したり、このデータを使ってモデルをさらに訓練したりすることがあり、その結果、プライバシーやセキュリティが侵害される可能性がある。また、GCが管理していないサーバーに入力データが保存され、データが必要以上に長く保持されたり、アクセス可能になったり、さらに配布されたり、データ侵害の脆弱性が生じたりするリスクも生じうる。脚注11 公共のものであれ、そうでないものであれ、一部のツールは、連邦法や政策で確立されたプライバシーやセキュリティの要件を満たしていない場合がある。
Best practices for all users of generative AI in federal institutions 連邦機関において生成的AIを利用するすべてのユーザーにとってのベストプラクティス
・Don’t enter sensitive or personal information into any tools not managed by the GC. ・GCが管理していないツールに機密情報や個人情報を入力しない。
・Don’t submit queries on non-GC managed tools that could undermine public trust if they were disclosed. Refer to Appendix B of the Directive on Service and Digital for examples of unacceptable uses. ・GCが管理していないツールに、公開された場合に社会的信用を損なうようなクエリーを提出しない。容認できない使用例については、「サービスおよびデジタルに関する指令」の附属書Bを参照のこと。
・Understand how a system uses input data (for example, whether it’s used as training data or accessible to providers). ・システムが入力データをどのように使用しているか(例えば、トレーニングデータとして使用されているか、プロバイダがアクセスできるかなど)を理解する。
・Ask legal services and the departmental chief security officer (CSO) to review a supplier’s terms of use, privacy policy and other legal documents before using any system to process sensitive or proprietary information. ・機密情報または専有情報を処理するシステムを使用する前に、法務部および部門の最高セキュ リティ責任者(CSO)に、サプライヤーの利用規約、プライバシーポリシー、その他の法 的文書を確認するよう依頼する。
・Use infrastructure and tools that are appropriate for the security classification of the information, in accordance with the Directive on Security Management. ・セキュリティ管理に関する指令」に従い、情報のセキュリティ分類に適したイン フラとツールを使用する。
・Consult the departmental CSO before using, procuring or deploying generative AI for protected or other sensitive information. ・保護された情報またはその他の機密情報に対して生成的AIを使用、調達または配備する前に、部門CSOに相談する。
Consider the requirements for information and data residency in the Directive on Service and Digital and the related guidance in the Guideline on Service and Digital. ・サービスおよびデジタルに関する指令の情報およびデータの居住に関する要件と、サービスおよびデジタルに関するガイドラインの関連ガイダンスを考慮する。
・Use the “opt-out” feature, where possible, to ensure that prompts are not used to train or further develop an AI system. ・可能であれば「オプトアウト」機能を使用し、プロンプトがAIシステムの訓練やさらなる開発に使用されないようにする。
Additional best practices for federal institutions deploying a generative AI tool 連邦機関が生成的AIツールを導入する際のその他のベストプラクティス
・Conduct regular system testing prior to and throughout the operation of a system to ensure that it meets key performance targets. ・システムの運用開始前および運用期間中、定期的にシステムテストを実施し、システムが主要なパフォーマンス目標を満たしていることを確認する。
・Plan independent audits for assessing generative AI systems against risk and impact frameworks. ・生成的AIシステムをリスクと影響の枠組みに照らして評価するための独立監査を計画する。
Bias バイアス
Issue: generated content may amplify biases or other harmful ideas that are dominant in the training data 問題:生成されたコンテンツは、学習データで優勢なバイアスやその他の有害な考えを増幅する可能性がある。
Generative AI tools can produce content that is discriminatory or not representative, or that includes biases or stereotypes (for example, biases relating to multiple and intersecting identity factors such as gender, race and ethnicity). Footnote12 Footnote13 Footnote14 Many generative models are trained on large amounts of data from the Internet, which is often the source of these biases. For example, training data is likely to reflect predominant historical biases and may not include perspectives that are less prevalent in the data or that have emerged since the model was trained. Footnote12 Other sources that may contribute to biased content include data filtering, which can amplify the biases in the original training set, Footnote15 framing of the prompt, Footnote16 and model bias. Widespread use of these technologies could amplify or reinforce these biases and dominant viewpoints, and lead to less diversity in ideas, perspectives and language, Footnote12 Footnote17 as well as potential harms. 生成的AIツールは、差別的であったり、代表者でなかったり、バイアスやステレオタイプ(例えば、ジェンダー、人種、民族性などの複数の交差するアイデンティティ要因に関するバイアス)を含むコンテンツを生成する可能性がある。脚注12 脚注13 脚注14 多くの生成モデルは、こうしたバイアスの原因となりがちなインターネットからの大量のデータで学習される。例えば、学習データは歴史的に優勢なバイアスを反映している可能性が高く、データにあまり見られない視点や、モデルの学習後に出現した視点が含まれていない可能性がある。脚注12 偏った内容の一因となりうる他の原因としては、元の訓練セットのバイアスを増幅しうるデータのフィルタリング、脚注15 プロンプトのフレーミング、脚注16 モデルのバイアスなどがある。これらの技術が広く使用されることで、これらのバイアスや支配的な視点が増幅または強化され、潜在的な害だけでなく、アイデア、視点、言語の多様性の低下につながる可能性がある。
Best practices for all users of generative AI in federal institutions 連邦機関において生成的AIを利用するすべてのユーザーのためのベストプラクティス
・Review generated content to ensure that it aligns with GC commitments, values and ethics and meets legal obligations. This includes assessing for biases or stereotypical associations. ・生成されたコンテンツがGCのコミットメント、価値観、倫理に合致し、法的義務を満たしていることを確認するために、生成されたコンテンツをレビューする。これには、バイアスやステレオタイプな連想の評価が含まれる。
・Formulate prompts to generate content that provides holistic perspectives and minimizes biases. ・全体的な視点を提供し、バイアスを最小限に抑えるコンテンツを生成するためのプロンプトを策定する。
・Strive to understand the data that was used to train the tool, for example, where it came from, what it includes, and how it was selected and prepared. ・ツールを訓練するために使用されたデータ、例えば、それがどこから来たのか、何が含まれ ているのか、どのように選択され準備されたのかを理解するよう努める。
・Learn about bias, diversity, inclusion, anti-racism, and values and ethics to improve your ability to identify biased or discriminatory content. ・バイアス、多様性、インクルージョン、反人種主義、価値観と倫理について学び、偏見や差別的なコンテンツを識別する能力を向上させる。
・Notify recipients when content has been produced by generative AI. ・コンテンツが生成的AIによって作成された場合、取得者に通知する。
Additional best practices for federal institutions deploying a generative AI tool 連邦機関が生成的AIツールを導入する際のその他のベストプラクティス
・Consider potential biases and mitigation approaches from the planning and design stage, including by completing a gender-based analysis plus (GBA Plus) to understand how your deployment of generative AI tools might impact different population groups. ・生成的AIツールの導入が異なる集団にどのような影響を与えるかを理解するために、ジェンダーに基づく分析プラス(GBA Plus)を完了することを含め、計画・設計段階から潜在的なバイアスと低減アプローチを考慮する。
・Consult GBA Plus and other diversity and inclusion experts in your organization to identify impacts of the use of generative AI tools on different population groups and to develop measures to address those impacts. ・生成的AIツールの使用が異なる集団に与える影響を特定し、それらの影響に対処するための対策を開発するために、GBAプラスおよび組織内の他の多様性と包摂の専門家に相談する。
・Test for biases in the data, model and outputs before deploying a system, and on an ongoing basis. ・システム導入前および継続的に、データ、モデル、出力にバイアスがないかテストする。
Quality 品質
Issue: generated content may be inaccurate, incoherent or incomplete 問題:生成されたコンテンツは不正確、支離滅裂、不完全である可能性がある。
Generative AI technologies can produce content that appears to be well developed, credible and reasonable but that is in fact inaccurate, nonsensical or inconsistent with source data. Footnote18 Footnote19 This content is sometimes referred to as a “hallucination.” Also, content generated by AI tools may not provide a holistic view of an issue. Instead, it may focus on prevalent perspectives in the training data. Footnote12 It also might be out of date, depending on the time period the training data covers and whether the system has live access to recent data. The quality of the tools and outputs in different languages should also be considered to ensure compliance with official languages requirements. 生成的AI技術は、よく練られ、信頼性が高く、合理的であるように見えるが、実際には不正確であったり、無意味であったり、ソースデータと矛盾していたりするコンテンツを生成する可能性がある。脚注18 脚注19 このようなコンテンツは "幻覚 "と呼ばれることもある。また、AIツールによって生成されたコンテンツは、問題の全体的な見方を提供しないことがある。その代わりに、学習データにおいて一般的な視点に焦点を当てている可能性がある。脚注12 また、学習データがカバーしている期間や、システムが最新のデータにライブでアクセスできるかどうかによっては、古くなっている可能性もある。公用語要件への準拠を確実にするため、異なる言語におけるツールおよびアウトプットの質も考慮すべきである。
The risks associated with inaccurate content will vary based on the context and should be assessed. For example, using generative AI tools to learn about a topic may produce incorrect information or non-existent sources, Footnote20 which, if used in decision-making, could lead to unfair treatment of individuals or misguided policy. As well, the use of generative AI tools for public-facing communications could result in the government sharing inaccurate information, which would contribute to misinformation and erode public trust. 不正確なコンテンツに関連するリスクは文脈によって異なるため、リスクアセスメントを行う必要がある。例えば、あるトピックについて学習するために生成的AIツールを使用すると、誤った情報や存在しない情報源(脚注20)が生成される可能性があり、これが意思決定に使用されると、個人の不当な扱いや誤った政策につながる可能性がある。また、一般市民向けのコミュニケーションに生成的AIツールを使用すると、政府が不正確な情報を共有することになり、誤情報を助長して国民の信頼を損なう可能性がある。
Best practices for all users of generative AI in federal institutions 連邦機関において生成的AIを利用するすべてのユーザーにとってのベストプラクティス
・Clearly indicate that you have used generative AI to develop content. ・コンテンツ開発に生成的AIを使用していることを明確に示す。
・Don’t consider generated content as authoritative. Review it for factual and contextual accuracy by, for example, checking it against information from trusted sources. ・生成されたコンテンツを権威あるものとみなしてはならない。信頼できる情報源の情報と照合するなど、事実関係や文脈の正確性を確認する。
・Review personal information created using generative AI to ensure it is accurate, up-to-date and complete. ・生成的AIを用いて作成された個人情報が正確で、最新かつ完全であることを確認する。
・Assess the impact of inaccurate outputs. Don’t use generative AI when factual accuracy or data integrity is needed. ・不正確な出力が与える影響を評価する。事実の正確性やデータの完全性が必要な場合には、生成的AIを使用しない。
・Strive to understand the quality and source of training data. ・学習データの質とソースの理解に努める。
・Consider your ability to identify inaccurate content before you use generative AI. Don’t use it if you can’t confirm the content quality.・ ・生成的AIを使用する前に、不正確なコンテンツを識別する能力を検討する。コンテンツの品質を確認できない場合は使用しない。
・Learn how to create effective prompts and provide feedback to refine outputs to minimize the generation of inaccurate content. ・効果的なプロンプトを作成し、フィードバックを提供することで、不正確なコンテンツの生成を最小限に抑える。
Additional best practices for federal institutions deploying a generative AI tool 連邦政府機関が生成的AIツールを導入する際のその他のベストプラクティス
・Make sure the quality of tools and outputs meets official languages requirements before deployment. ・ツールおよびアウトプットの品質が公式言語要件を満たしていることを、導入前に確認する。
・Notify users that they are interacting with generative AI. ・ユーザーが生成的AIとやりとりしていることを通知する。
・Use watermarks to help users identify content generated by AI. ・ユーザーが生成的AIによって生成されたコンテンツを識別できるよう、透かしを使用する。
・When content is generated by AI, provide links to authoritative sources and encourage users to verify the content at the links provided. ・コンテンツが生成的AIによって生成された場合、権威ある情報源へのリンクをプロバイダに提供し、提供されたリンクでコンテンツを確認するよう利用者に促す。
・Provide information about the source of training data and how models were developed. ・学習データのソースやモデルの開発方法に関する情報を提供する。
Public servant autonomy 公務員の自律性
Issue: overreliance on AI can unduly interfere with judgment, stifle creativity and erode workforce capabilities 課題:AIへの過度の依存は、判断を不当に妨げ、創造性を抑制し、労働力を蝕む可能性がある。
Overreliance on generative AI tools can interfere with individual autonomy and judgment. For example, some users may be prone to uncritically accept system recommendations or other outputs, which could be incorrect. Footnote21  Footnote22 Overreliance on the system can be a sign of automation bias, which is a tendency to favour results generated by automated systems, even in the presence of contrary information from non-automated sources. Footnote21 As well, confirmation bias can contribute to overreliance Footnote21 because the outputs of generative AI systems can reinforce users’ preconceptions, especially when prompts are written in a way that reflects the user’s assumptions and beliefs. Footenote23 Overreliance on AI systems can result in a decline in critical thinking and can limit diversity in thought, thereby stifling creativity and innovation and resulting in partial or incomplete analyses. Overreliance on AI can impede employees’ ability to build and maintain the skills they need to complete tasks that are assigned to generative AI systems. This could reinforce the government’s reliance on AI and potentially erode workforce capabilities. 生成的AIツールへの過度の依存は、個人の自律性と判断を妨げる可能性がある。例えば、ユーザーによってはシステムの推奨やその他の出力を無批判に受け入れてしまいがちだが、それは正しくない可能性がある。システムに対する過度の信頼は、自動化バイアスの兆候である可能性がある。自動化バイアスとは、自動化されていない情報源からの反対情報がある場合でも、自動化システムによって生成された結果を好む傾向のことである。生成的AIシステムの出力がユーザーの先入観を強化する可能性があるためで、特にプロンプトがユーザーの思い込みや信念を反映するような書き方をしている場合はなおさらである。脚注23 AIシステムに過度に依存すると、批判的思考が低下し、思考の多様性が制限されるため、創造性と革新性が阻害され、部分的または不完全な分析が行われる可能性がある。AIへの過度の依存は、従業員が生成的AIシステムに割り当てられたタスクを完了するために必要なスキルを構築し、維持する能力を阻害する可能性がある。これは、政府のAIへの依存を強化し、潜在的に労働力の能力を低下させる可能性がある。
Best practices for all users of generative AI in federal institutions 連邦機関において生成的AIを利用するすべてのユーザーのためのベストプラクティス
・Consider whether you need to use generative AI to meet user and organizational needs. ・ユーザーと組織のニーズを満たすために生成的AIを使用する必要があるかどうかを検討する。
・Consider the abilities and limits of generative AI when assigning tasks and reviewing system outputs. ・タスクの割り当てやシステム出力のレビュー時に、生成的AIの能力と限界を考慮する。
・Build your AI literacy so that you can critically assess these tools and their outputs. ・AIツールやそのアウトプットを批判的に評価できるAIリテラシーを身につける。
・Use generative AI tools as aids, not as substitutes. Do not outsource a skill that you do not understand or possess. ・生成的AIツールを代用ではなく、補助として使用する。自分が理解していない、あるいは持っていないスキルを外注してはならない。
・Form your own views before you seek ideas or recommendations from AI tools. ・AIツールにアイデアや推奨を求める前に、自分自身の意見を形成する。
・Learn how to write prompts that are likely to result in content that provides a holistic perspective and minimizes biases. ・全体的な視点を提供し、バイアスを最小限に抑えたコンテンツになりやすいプロンプトの書き方を学ぶ。
・Always review content generated by AI, even if the system seems to be reliable in providing accurate responses. ・AIが生成したコンテンツは、たとえそのシステムが正確な回答を提供する信頼できるものであったとしても、常に見直す。
Legal risks 法的リスク
Issue: generative AI poses risks to human rights, privacy, intellectual property protection, and procedural fairness 問題:生成的AIは人権、プライバシー、知的財産保護、手続きの公平性にリスクをもたらす。
The government’s use of generative AI systems poses risks to the legal rights and obligations of federal institutions and their clients. These risks arise from the data used to train AI models, the way systems process input data, and the quality of system outputs. 政府による生成的AIシステムの利用は、連邦機関とそのクライアントの法的権利と義務にリスクをもたらす。これらのリスクは、AIモデルの訓練に使用されるデータ、システムが入力データを処理する方法、およびシステム出力の質から生じる。
The use by suppliers or federal institutions of copyright-protected materials like articles, books, code, paintings or music to train AI models may infringe intellectual property rights. The use or reproduction of the outputs generated by these models could also infringe on such rights if they contain material that is identical or substantially similar to a copyright-protected work. Further, the ownership of content created by or with the help of generative AI is uncertain. Privacy rights could also be at risk because data used to train generative AI models could include unlawfully collected or used personal information, including personal information obtained from publicly accessible online sources. AIモデルを学習させるために、論文、書籍、コード、絵画、音楽といった著作権で保護された素材をサプライヤーや連邦機関が使用することは、知的財産権を侵害する可能性がある。また、これらのモデルによって生成されたアウトプットの使用や複製も、著作権で保護された作品と同一または実質的に類似した素材を含む場合、そのような権利を侵害する可能性がある。さらに、生成的AIによって、あるいは生成的AIの助けを借りて作成されたコンテンツの所有権は不確実である。生成的AIモデルの学習に使用されるデータには、一般にアクセス可能なオンライン・ソースから取得された個人情報を含め、違法に収集または使用された個人情報が含まれる可能性があるため、プライバシーの権利もリスクにさらされる可能性がある。
Risks could also arise from the opacity of generative AI models and their potential for producing inaccurate, biased or inconsistent outputs. This opacity makes it difficult to trace and understand how the AI system produces outputs, which can undermine procedural fairness in instances where a federal institution is obliged to provide clients with reasons for administrative decisions, such as decisions to deny benefits. The quality of AI outputs can also impact individuals’ legal rights. For example, biased outputs could lead to discrimination in services, potentially violating human rights. 生成的AIモデルの不透明性や、不正確、バイアス、一貫性のない出力を生成する可能性からもリスクが生じる可能性がある。このような不透明性は、AIシステムがどのようにアウトプットを生成したかを追跡・理解することを困難にし、連邦機関が給付拒否の決定など行政決定の理由を顧客に提供する義務を負う場合、手続き上の公平性を損なう可能性がある。AIのアウトプットの質は、個人の法的権利にも影響を与える可能性がある。例えば、バイアスのかかったアウトプットは、サービスにおける差別につながり、人権を侵害する可能性がある。
These risks extend beyond decision-making scenarios. When federal institutions use generative AI tools to help the public find information (as is the case, for example, with the use of chatbots on departmental websites) or to produce public communications, there’s a risk that these tools will generate inappropriate content or misinformation that could contribute to or cause harm for which the government could be liable. こうしたリスクは、意思決定シナリオ以外にも及ぶ。連邦政府機構が生成的AIツールを使って一般市民が情報を見つけやすくしたり(例えば、省庁のウェブサイトでのチャットボットの利用がそうであるように)、パブリック・コミュニケーションを作成したりする場合、これらのツールが不適切なコンテンツや誤情報を生成し、政府が責任を負う可能性のある危害に加担したり、危害を引き起こしたりするリスクがある。
Best practices for all users of generative AI in federal institutions 連邦機関において生成的AIを利用するすべてのユーザーにとってのベストプラクティス
・Consult your institution’s legal services about the legal risks of deploying generative AI tools or using them in service delivery. The consultation could involve a review of the supplier’s terms of use, copyright policy, privacy policy and other legal documents. ・生成的AIツールの導入やサービス提供における使用の法的リスクについて、機関の法務サービスに相談する。相談には、サプライヤーの利用規約、著作権ポリシー、プライバシーポリシー、その他の法的文書のレビューが含まれる。
・Comply with the Directive on Automated Decision-Making when using generative AI in administrative decision-making. ・行政上の意思決定において生成的AIを使用する場合、自動意思決定に関する指令を遵守する。
・Check whether system outputs are identical or substantially similar to copyright-protected material. Give proper attribution, where appropriate, or remove this material to minimize the risk of infringement of intellectual property rights. ・システムの出力が著作権で保護された素材と同一または実質的に類似していないか確認する。知的財産権侵害のリスクを最小化するため、適切な場合は適切な帰属表示を行うか、この素材を削除する。
・Consult designated officials on the licensing and administration of Crown copyright if you are planning to include outputs in public communications, in accordance with the Procedures for Publishing. ・公的なコミュニケーションに出力を含める予定がある場合は、「出版に関する手続き」に従い、国庫著作権の使用許諾および管理について指定職員に相談する。
・Evaluate the quality of outputs for factual inaccuracies, biases or harmful ideas that may conflict with GC values. ・成果物が事実に反していないか、バイアスがかかっていないか、あるいはGCの価値観と相反するような有害な思想が含まれていないか、成果物の質を評価する。
・Keep up-to-date on legal and policy developments related to AI regulation. ・AI規制に関連する法的・政策的動向を常に把握する。
Additional best practices for federal institutions deploying a generative AI tool 連邦機関が生成的AIツールを導入する際のその他のベストプラクティス
・Verify the legality of the method used to obtain data for training AI models and make sure you have permission to use the data for this purpose. Where feasible, train your model using open-source data that has no restrictions on such use. ・AIモデルを訓練するためのデータを取得するために使用される方法の合法性を検証し、この目的のためにデータを使用する許可を得ていることを確認する。可能であれば、そのような使用に制限のないオープンソースのデータを使用してモデルを訓練する。
・Be transparent about your use of generative AI, including by notifying users if they are interacting with a system rather than a human. Where relevant, include a disclaimer to minimize liability risks. ・生成的AIの使用について透明性を確保する。関連する場合は、責任リスクを最小化するために免責事項を含める。
・Use watermarks to help users identify generated content. ・ユーザーが生成されたコンテンツを識別しやすくするために、透かしを使用する。
Distinguishing humans from machines 人間と機械を区別する
Issue: people may not know that they are interacting with an AI system, or they may wrongly assume that AI is being used 課題:人々はAIシステムとインタラクションしていることを知らないかもしれないし、AIが使われていると誤解するかもしれない。
Conversational agents or chatbots that use generative AI can produce responses that are so human-like that it may be difficult to distinguish them from those of a real person. Footnote24 As a result, clients may be misled into believing that they are interacting with a human. Similarly, clients might assume that an email they have received was written by a person when it was actually generated by an AI tool. On the other hand, clients might think they are interacting with an AI tool when they are actually dealing with a real person. Transparency about whether a client is interacting with a person or a chatbot is essential to ensure that the client is not misled and to maintain trust in government. 生成的AIを使用する会話エージェントやチャットボットは、人間のような応答を生成することができるため、実際の人間の応答と区別することが難しい場合がある。脚注24 その結果、顧客は人間とやりとりしていると誤解する可能性がある。同様に、受け取ったEメールが実際にはAIツールによって生成されたにもかかわらず、人が書いたものだと思い込んでしまう可能性もある。一方、顧客は、実際には生身の人間とやりとりしているにもかかわらず、AIツールとやりとりしていると思い込むかもしれない。クライアントが人とやりとりしているのかチャットボットとやりとりしているのかについての透明性は、クライアントが惑わされないようにし、政府に対する信頼を維持するために不可欠である。
Best practices for all users of generative AI in federal institutions 連邦政府機関における生成的AIの全ユーザーのためのベストプラクティス
・Clearly communicate when and how the GC is using AI in interactions with the public. ・国民とのコミュニケーションにおいて、いつ、どのようにAIを使用しているかを明確に伝える。
・Inform users when messages addressed to them are generated by AI. ・利用者宛てのメッセージがAIによって生成された場合、その旨を利用者に伝える。
Additional best practices for federal institutions deploying a generative AI tool 連邦機関が生成的AIツールを導入する際のその他のベストプラクティス
・Consider offering non-automated means of communicating with the GC. ・自動化されていないGCとのコミュニケーション手段を提供することを検討する。
・Use watermarks so that users can identify content generated by AI. ・生成的AIによって生成されたコンテンツを利用者が識別できるよう、透かしを使用する。
Publish information about the system, such as a plain-language description of how it works, the reasons for using it, and the quality assurance steps taken. AIの仕組み、使用理由、品質保証の手順などをわかりやすく説明し、システムに関する情報を公開する。
Environmental impacts 環境への影響
Issue: the development and use of generative AI systems can have significant environmental costs 課題:生成的AIシステムの開発と使用は、大きな環境コストをもたらす可能性がある。
The development and use of generative AI systems can be a significant source of greenhouse gas emissions. These emissions come not only from the compute used to train and operate generative models but also from the production and transportation of the servers that support the AI programs. Footnote25 While generative AI has the potential to help combat climate change, its use must be balanced against the need for swift and drastic action to reduce global greenhouse gas emissions and avert irreversible damage to the environment. Footnote26 生成的AIシステムの開発と使用は、温室効果ガスの重大な排出源となりうる。これらの排出は、生成的モデルの訓練と運用に使用される計算だけでなく、AIプログラムをサポートするサーバーの製造と輸送からも生じる。脚注25:生成的AIは気候変動対策に役立つ可能性を秘めているが、その使用は、世界的な温室効果ガスの排出を削減し、環境への不可逆的なダメージを回避するための迅速かつ抜本的な行動の必要性とのバランスを取る必要がある。脚注26
Best practices for all users of generative AI in federal institutions 連邦機関において生成的AIを利用するすべてのユーザーにとってのベストプラクティス
・Use generative AI tools hosted in zero-emission data centres. ・ゼロエミッションのデータセンターでホストされる生成的AIツールを使用する。
・Use generative AI tools only when relevant to program objectives and desired outcomes. ・生成的AIツールは、プログラムの目的と望ましい成果に関連する場合にのみ使用する。
Additional best practices for federal institutions deploying a generative AI tool 生成的AIツールを導入する連邦機関のためのその他のベストプラクティス
・Consider whether your AI supplier has set any greenhouse-gas reduction targets. Footnote27 ・AIサプライヤーが温室効果ガス削減目標を設定しているかどうかを検討する。脚注27
・Complete an environmental impact assessment as part of the proposal to develop or procure generative AI tools. Make sure any decision to procure these tools is made in accordance with the Policy on Green Procurement. ・生成的AIツールの開発または調達の提案の一部として、環境影響評価を完了する。これらのツールの調達決定が、グリーン調達に関する方針に従って行われることを確認する。
Use of this guide and additional support available 本ガイドラインの使用と利用可能な追加サポート
As departments further evolve their guidance on use of generative AI, this document is to be used as overarching guidance to build from. For more information, including guidance on specific uses of generative AI, contact the TBS Responsible Data and AI team (ai-ia@tbs-sct.gc.ca). Additional resources exist within the federal government which institutions can access by contacting the Communications Security Establishment (including  Canadian Centre for Cyber Security’s guidance on generative AI) and Statistics Canada. The community of practice and the TBS guide will continue to evolve over the next number of years. 各省庁が生成的AIの使用に関するガイダンスをさらに発展させる際、本書は包括的なガイダンスとして使用される。生成的AIの具体的な使用方法に関するガイダンスを含む詳細については、TBSのResponsible Data and AIチーム(ai-ia@tbs-sct.gc.ca)に問い合わせること。連邦政府内にもリソースがあり、機構はコミュニケーション・セキュリティ・エスタブリッシュメント(Canadian Centre for Cyber Securityの生成的AIに関するガイダンスを含む)やカナダ統計局に問い合わせることでアクセスできる。実践コミュニティとTBSガイドは、今後数年にわたって進化し続けるだろう。
Frequently asked questions よくある質問
Can I use generative AI to draft emails or briefing notes? 生成的AIを電子メールやブリーフィング・ノートのドラフトに使用できるか?
Yes. Depending on the context, you can use a generative AI tool to support drafting of emails or briefing notes that don’t contain personal or sensitive information. The person generating the content is responsible for making sure that:    はい。文脈にもよるが、生成的AIツールを使って、個人情報や機密情報を含まない電子メールやブリーフィング・ノートのドラフトをサポートすることができる。コンテンツを生成する人は、以下のことを確認する責任がある:   
・input data does not include protected, classified or other sensitive information ・入力データに保護、機密、その他の機密情報が含まれていないこと。
・generated content is accurate, non-partisan, unbiased, and doesn’t violate intellectual property laws ・作成されたコンテンツが正確で、超党派で、偏りがなく、知的財産法に違反していないこと。
・management is notified that a generative tool was used in the development of the product ・製品の開発にジェネレーティブ・ツールが使用されたことが経営陣に通知される。
Can I use generative AI to develop content for public communications (for example, web posts, social media)? 生成的AIをパブリックコミュニケーション(例えば、ウェブ投稿、ソーシャルメディア)のコンテンツ開発に使用できるか?
Use caution. When you generate content, you are responsible for making sure it is accurate, clear, non-partisan and unbiased. You are also responsible for making sure permissions to reproduce, adapt, translate or publish third-party material have been secured and that the content does not violate intellectual property laws. You should also inform the public of any significant use of generative AI in the production of content. It is also critical to ensure that outputs are trusted given the potential reach and impact of public communications. 注意してほしい。コンテンツを作成する際には、それが正確で、明確で、超党派で、偏りのないものであることを確認する責任がある。また、サードパーティーの素材を複製、翻案、翻訳、出版する許可を確保し、コンテンツが知的財産権法に違反していないことを確認する責任がある。また、コンテンツの制作において生成的AIを大幅に使用した場合は、その旨を一般に知らせるべきである。また、パブリックコミュニケーションの潜在的な範囲と影響力を考えると、アウトプットが信頼されるようにすることも重要である。
Can I use generative AI for programming tasks? 生成的AIをプログラミング作業に使うことはできるか?
Yes, but you must consider the security classification of the code. Also, when it comes to code generation, some generative AI tools can produce content that violates the open-source licences of the source code they were trained on. To address this issue, use available tools to identify potential matches in public code repositories or limit the use of generative AI to tasks like debugging or code explanation. 可能だが、コードのセキュリティ分類を考慮する必要がある。また、コード生成に関しては、生成的AIツールの中には、学習させたソースコードのオープンソースライセンスに違反するコンテンツを生成するものもある。この問題に対処するには、利用可能なツールを使って公開コード・リポジトリにある潜在的なマッチを特定するか、生成的AIの使用をデバッグやコード説明のようなタスクに限定する。
Can I use generative AI to inform policy? 生成的AIを政策に役立てることはできるか?
Yes, but you must be mindful of the strengths and limits of generative AI tools and tailor the tasks you assign to them accordingly. You can use these tools to assist with research during policy development, but don’t use them to recommend, make or interpret policy. はい。しかし、生成的AIツールの長所と限界に留意し、それに応じて割り当てるタスクを調整する必要がある。政策立案中の調査を支援するためにこれらのツールを使うことはできるが、政策を推奨したり、決定したり、解釈したりするために使ってはならない。
When deciding on policy positions, make your own value judgments, in consultation with the relevant stakeholders and consistent with applicable laws. Strive to be transparent and vigilant about any significant use of generative AI during the policy process, including in research and stakeholder engagement. The prompts used in such contexts should not include any information that would pose legal or reputational risks to the government. 政策の立場を決定する際には、関連する利害関係者と協議の上、適用法に沿った独自の価値判断を行う。調査や利害関係者とのエンゲージメントを含め、政策プロセスにおいて生成的AIを有意に使用する場合は、透明性を保ち、警戒するよう努める。このような文脈で使用されるプロンプトには、政府に法的リスクや風評リスクをもたらすような情報を含めてはならない。
Can I use generative AI to automate assessments, recommendations or decisions about clients? 生成的AIを使って、顧客に関する評価、推奨、決定を自動化することは可能か?
Use caution when considering whether to use generative AI in administrative decision-making. Carefully consider how you will comply with the Directive on Automated Decision-Making, which seeks to ensure transparency, accountability and fairness in decisions made or informed by automated systems such as those that use generative AI. For example, make sure that you understand how the tool produces its outputs and that you can find the data it relied on. You should assess outputs for factual accuracy and undue bias toward clients. You should also consider potential variation in outputs produced in response to similar prompts, which could lead to inequalities in the treatment of clients. 行政上の意思決定において生成的AIを使用するかどうかを検討する際には、注意が必要である。生成的AIを使用するような自動化されたシステムによってなされ、あるいは通知される意思決定において、透明性、説明責任、公平性を確保しようとする「自動化された意思決定に関する指令(Directive on Automated Decision-Making)」をどのように遵守するかを慎重に検討すること。例えば、ツールがどのようにアウトプットを生成するかを理解し、そのツールが依拠したデータを見つけることができることを確認する。アウトプットが事実に基づいて正確かどうか、また顧客に対する過度のバイアスがないかどうかを評価する必要がある。また、同じようなプロンプトに対して出力されるアウトプットにばらつきがある可能性も考慮すべきである。

 

Bibliography  
Footnote 1 McKinsey & Company, "What is Generative AI?," 19 January 2023. [Accessed 8 May 2023].
Footnote 2 F. Candelon, A. Gupta, L. Krayer and L. Zhukov, "The CEO’s Guide to the Generative AI Revolution," 7 March 2023. [Accessed 11 May 2023].
Footnote 3 K. Martineau, "What Is Generative AI?," 20 April 2023 [Accessed 8 May 2023].
Footnote 4 OpenAI, "Documentation - Models Overview," [Accessed 8 May 2023].
Footnote 5 OpenAI, "What is ChatGPT?," [Accessed 8 May 2023].
Footnote 6 J. Kocoń, I. Cichecki, O. Kaszyca, M. Kochanek, D. Szydło, J. Baran, J. Bielaniewicz, M. Gruza, A. Janz, K. Kanclerz, A. Kocoń, B. Koptyra, W. Mieleszczenko-Kowszewicz, P. Miłkowski, M. Oleksy, M. Piasecki, Ł. Radliński, K. Wojtasik, S. Woźniak and P. Kazienko, "ChatGPT: Jack of All Trades, Master of None," SSRN preprint, pp. 1-40, 28 February 2023.
Footnote 7 K. Yang, S. Ji, T. Zhang, Q. Xie and S. Ananiadou, "On the Evaluations of ChatGPT and Emotion-enhanced Prompting for Mental Health Analysis," arXiv preprint, 2023.
Footnote 8 Council of the European Union, "ChatGPT in the Public Sector - Overhyped or Overlooked?," European Union, 2023.
Footnote 9 OpenAI, "OpenAI Usage Policies," OpenAI, 2023 [Accessed 12 May 2023].
Footnote 10 Google, "Google Generative AI Prohibited Use Policy," Google, 2023 [Accessed 12 May 2023].
Footnote 11 OpenAI, "March 20 ChatGPT Outage: Here’s What Happened," 24 March 2023 [Accessed 10 May 2023].
Footnote 12 E. M. Bender, T. Gebru, A. McMillan-Major and S. Shmitchell, "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜," FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, pp. 610-623, 2021.
Footnote 13 A. S. Luccioni, C. Akiki, M. Mitchell and Y. Jernite, "Stable Bias: Analyzing Societal Representations in Diffusion Models," arXiv preprint, pp. 1-44, 2023.
Footnote 14 W. Guo and A. Caliskan, "Detecting Emergent Intersectional Biases: Contextualized Word Embeddings Contain a Distribution of Human-like Biases," AIES '21: Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society, pp. 122-133, July 2021.
Footnote 15 OpenAI, "DALL·E 2 Pre-training Mitigations," 28 June 2022 [Accessed 4 May 2023].
Footnote 16 University of Waterloo Library, "ChatGPT and Generative Artificial Intelligence (AI): Potential for Bias Based on Prompt," 27 April 2023 [Accessed 5 May 2023].
Footnote 17 C. Bjork, "ChatGPT Threatens Language Diversity. More Needs to Be Done to Protect Our Differences in the Age of AI," 9 February 2023 [Accessed 5 May 2023].
Footnote 18 Z. Ji, N. Lee, R. Frieske, T. Yu, D. Su, Y. Xu, E. Ishii, Y. Bang, W. Dai, A. Madotto and P. Fung, "Survey of Hallucination in Natural Language Generation," arXiv preprint, pp. 1-47, 7 November 2022.
Footnote 19 OpenAI, "Introducing ChatGPT," 22 November 2022 [Accessed 1 May 2023].
Footnote 20 H. Alkaissi and S. I. McFarlane, "Artificial Hallucinations in ChatGPT: Implications in Scientific Writing," Cureus, vol. 15, no. 2, p. e35179, 2023.
Footnote 21 S. Passi and M. Vorvoreanu, "Overreliance on AI: Literature review," June 2022. [Accessed 3 May 2023].
Footnote 22 Z. Buçinca, M. B. Malaya and K. Z. Gajos, "To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-assisted Decision-making," Proceedings of the ACM on Human-Computer Interaction, vol. 5, no. CSCW1, pp. 1-21, April 2021.
Footnote 23 M. Grawitch, "Confirmation Bias in the Era of Large AI," 1 May 2023 [Accessed 11 May 2023].
Footnote 24 A. James, "ChatGPT Has Passed the Turing Test and if You're Freaked Out, You're Not Alone," 29 March 2023 [Accessed 4 May 2023].
Footnote 25 S. McLean, "The Environmental Impact of ChatGPT: A Call for Sustainable Practices In AI Development," 28 April 2023 [Accessed 4 May 2023].
Footnote 26 IPCC, "Summary for Policymakers. In: Global Warming of 1.5°C. An IPCC Special Report on the Impacts of Global Warming of 1.5°C above pre-industrial levels and related global greenhouse gas emission pathways, in the context of strengthening the global response to the threat of climate change, sustainable development, and efforts to eradicate poverty," Cambridge University Press, Cambridge, UK; New York, NY, USA, 2018.
Footnote 27 United Nations Climate Change, "Race To Zero Campaign," [Accessed 5 May 2023].

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.07.16 カナダ サイバーセキュリティセンター 生成的人工知能(AI) - ITSAP.00.041

・2022.08.22 カナダ サイバーセキュリティセンター 人工知能 - ITSAP.00.040

 

|

« OECD 生成的人工知能(AI)に関するG7広島プロセス (2023.09.07) | Main | IISS サイバー対応能力と国家力 2回目の評価は10カ国 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« OECD 生成的人工知能(AI)に関するG7広島プロセス (2023.09.07) | Main | IISS サイバー対応能力と国家力 2回目の評価は10カ国 »