« ENISA 新技術に対応したEUサイバーセキュリティ認証の実現可能性を探る | Main | 中国 国家サイバースペース管理局「個人情報の越境移転に関する標準契約条項(第一版)」 »

2023.06.01

生成的AIとプライバシー当局(カナダ ニュージーランド)

こんにちは、丸山満彦です。

生成的AIは、その学習の過程で、いろいろな情報を収集することになるのですが、その際にプライバシーに関連する情報、知的財産権で保護されている情報等もまとめて収集してしまう場合があります。収集する際に、本人からの同意がとれていなかったり、使う際に知的財産権で保護されている情報と認識されることなく利用してしまうなどの問題が起こりうるわけですが、このような問題をどのように解決していくか。。。

規制当局も色々と悩ましいのでしょうね。。。。

カナダの個人情報保護当局(連邦と地方)が合同でChatGPTを調査するといっていますし、、、ニュージーランドの個人情報保護委員会が、AI利用についての留意点を公表していますね。。。。

 

まずは、カナダ...

⚫︎ Office of the Privacy Commissioner of Canada

・2023.05.23 OPC to investigate ChatGPT jointly with provincial privacy authorities

OPC to investigate ChatGPT jointly with provincial privacy authorities OPC、ChatGPTを各州の個人情報保護当局と合同で調査へ
The privacy authorities for Canada, Québec, British Columbia and Alberta will jointly investigate the company behind artificial intelligence-powered chatbot ChatGPT. カナダ、ケベック州、ブリティッシュコロンビア州、アルバータ州のプライバシー当局が、人工知能を搭載したチャットボットChatGPTの開発会社を共同で調査することになった。
The Office of the Privacy Commissioner of Canada (OPC), the Office of the Information and Privacy Commissioner for British Columbia, the Commission d’accès à l’information du Québec, and the Office of the Information and Privacy Commissioner of Alberta will carry out the investigation into OpenAI’s ChatGPT. カナダのプライバシーコミッショナー事務所(OPC)、ブリティッシュコロンビア州の情報・プライバシーコミッショナー事務所、ケベック州の情報アクセス委員会、アルバータ州の情報・プライバシーコミッショナー事務所が、OpenAIのChatGPTに関する調査を実施する。
The OPC announced in April that it had launched an investigation into OpenAI in response to a complaint alleging the collection, use and disclosure of personal information without consent. OPCは4月に、同意なしに個人情報を収集、使用、開示したという苦情を受けて、OpenAIに対する調査を開始したことを発表した。
Given the broad scope and significant privacy impact of artificial intelligence and its relevance to all Canadians, the 4 offices have decided to jointly investigate the matter. Through collaboration, the offices will be able to leverage their combined resources and expertise to more effectively and efficiently enforce privacy laws. This joint investigation reflects the strong collaboration between privacy authorities in Canada in dealing with key issues that impact Canadians. 人工知能の広範な範囲とプライバシーへの重大な影響、そしてすべてのカナダ人に関連することを考慮し、4つのオフィスは共同でこの問題を調査することを決定した。協力を通じて、各オフィスは、それぞれのリソースと専門知識を活用し、より効果的かつ効率的にプライバシー法を執行することができるようになる。今回の共同調査は、カナダ国民に影響を与える重要な問題に対処するための、カナダにおけるプライバシー当局間の強力な協力関係を反映している。
The privacy authorities will investigate whether OpenAI: プライバシー当局は、OpenAIが、
・has obtained valid and meaningful consent for the collection, use and disclosure of the personal information of individuals based in Canada via ChatGPT; ・ChatGPTを通じてカナダに住む個人の個人情報を収集、使用、開示することについて、有効かつ意味のある同意を得たかどうか;
・has respected its obligations with respect to openness and transparency, access, accuracy, and accountability; and オープン性、透明性、アクセス、正確性、説明責任に関する義務を遵守しているか。
・has collected, used and/or disclosed personal information for purposes that a reasonable person would consider appropriate, reasonable or legitimate in the circumstances, and whether this collection is limited to information that is necessary for these purposes. ・合理的な人がその状況において適切、合理的、または合法的と考える目的のために個人情報を収集、使用、および/または開示しており、この収集がこれらの目的に必要な情報に限定されているかどうか、を確認する。
“AI technology and its effects on privacy are global issues and key focus areas for privacy authorities in Canada and around the world,” said Philippe Dufresne, Privacy Commissioner of Canada. “As regulators, we need to keep up with – and stay ahead of – fast-moving technological advances in order to protect the fundamental privacy rights of Canadians.” AI技術とそのプライバシーへの影響は、世界的な問題であり、カナダおよび世界中のプライバシー当局にとって重要な重点分野である。とカナダプライバシーコミッショナーのフィリップ・デュフレスヌは述べている。"規制当局として、カナダ人の基本的なプライバシー権を保護するために、動きの速い技術の進歩に対応し、その先を行く必要がある。"
Privacy legislation in Québec, British Columbia and Alberta has been declared substantially similar to federal laws, and the privacy authorities frequently work together on matters with a national impact. Each office will investigate compliance with the law which it oversees. ケベック州、ブリティッシュ・コロンビア州、アルバータ州のプライバシー法は、連邦法と実質的に類似していると宣言されており、プライバシー当局は、全国的に影響を与える事柄について頻繁に協力し合っている。各局は、自らが監督する法律の遵守状況を調査する。
As this is an active investigation, no additional details are available at this time. これは活発な調査であるため、現時点では追加の詳細は得られていない。

 

つぎに、ニュージーランド...

⚫︎ Privacy Commissioner

・2023.05.25 Privacy Commissioner outlines expectations around AI use

Privacy Commissioner outlines expectations around AI use プライバシーコミッショナー、AI利用に関する期待事項を概説
Privacy Commissioner Michael Webster has today outlined his expectations around New Zealand agencies, businesses, and organisations using generative artificial intelligence (AI).  マイケル・ウェブスター個人情報保護委員会委員長は、ニュージーランドの機関、企業、組織が生成的人工知能(AI)を使用する際の期待について、本日概要を述べた。 
“I would expect all agencies using systems that can take the personal information of New Zealanders to create new content to be thinking about the consequences of using generative AI before they start”, he says. 「私は、新しいコンテンツを作成するためにニュージーランド人の個人情報を取得できるシステムを使用するすべての機関が、開始する前に、生成的AIを使用することの結果について考えていることを期待する」と彼は述べている。
AI’s use of New Zealanders’ personal information is regulated under the Privacy Act 2020. AIによるニュージーランド人の個人情報の利用は、プライバシー法2020の下で規制されている。
It’s the Commissioner’s role to ensure New Zealanders privacy rights are protected, which is why he is calling for businesses and organisations to check their obligations around generative AI use before they begin. ニュージーランド人のプライバシー権を確実に保護するのがコミッショナーの役割であり、だからこそ、企業や組織に対して、ジェネレーティブAIの利用をめぐる義務を事前に確認するよう呼びかけている。
Mr Webster has outlined seven points of advice to help businesses and organisations engage with the potential of AI in a way that respects people’s privacy rights. ウェブスター氏は、企業や組織が人々のプライバシー権を尊重する形でAIの可能性に取り組むためのアドバイスとして、7つのポイントを紹介している。
1. Have senior leadership approval 1. シニアリーダーの承認を得る
Businesses and organisations must involve their senior leaders and privacy officer in deciding whether or how to implement a generative AI system. 企業や組織は、ジェネレーティブAIシステムを導入するかどうか、あるいはどのように導入するかを決定する際に、シニアリーダーやプライバシーオフィサーを巻き込む必要がある。
2. Review whether a generative AI tool is necessary and proportionate 2. 生成的AIツールが必要かつ適切かどうかを検討する。
Given the potential privacy implications, review whether it is necessary and proportionate to use a generative AI tool or whether an alternative approach could be taken. 潜在的なプライバシーへの影響を考慮し、生成的AIツールを使用することが必要かつ適切であるか、または別のアプローチを取ることができるかどうかを検討する。
3. Conduct a Privacy Impact Assessment 3. プライバシー影響評価の実施
Assess the privacy impacts before implementing any system. This should include seeking feedback from impacted communities and groups including Māori. Ask the provider to clarify how information and evidence about how privacy protections have been designed into the system.  システムを実装する前に、プライバシーへの影響を評価する。これには、マオリ族を含む影響を受けるコミュニティやグループからのフィードバックを求めることが含まれる。プライバシー保護がどのようにシステムに設計されているか、その情報や証拠を明確にするようプロバイダーに求める。 
4. Be transparent 4. 透明性を保つ
Be clear and upfront when you tell your customers and clients that you’re using generative AI and how you are managing the associated privacy risks. Generative AI is a new technology, and many people will be uncomfortable with its use or don’t understand the risks for them. Giving them information about the generative AI system you’re using in plain language will be essential to maintain consumer trust and your organisation’s social licence to use AI. 顧客やクライアントに、生成的AIを使用していること、関連するプライバシーリスクをどのようにマネジメントしているかを伝える際には、明確かつ率直であること。ジェネレーティブAIは新しい技術であり、多くの人がその使用に抵抗があったり、自分にとってのリスクを理解していないでしょう。消費者の信頼とAIを使用する組織の社会的ライセンスを維持するためには、使用しているジェネレーティブAIシステムに関する情報を平易な言葉で伝えることが不可欠となる。
5. Develop procedures about accuracy and access by individuals 5. 正確性と個人によるアクセスに関する手順を策定する
Develop procedures for how your agency will take reasonable steps to ensure that the information is accurate before use or disclosure and how you will respond to requests from individuals to access and correct their personal information. 利用や開示の前に情報が正確であることを保証するために、あなたの機関がどのように合理的な手段を講じるか、また、個人からの個人情報へのアクセスや訂正の要求にどのように対応するかについての手順を作成する。
6. Ensure human review prior to acting 6. 行動する前に人間によるレビューを確保する
Having a human review the outputs of a generative AI tool prior to your agency taking any action because of that output will mitigate the risk of acting based on inaccurate information. Any review of output data should also assess the risk of re-identification of the inputted information. 生成的AIツールの出力に起因する行動を起こす前に、人間がその出力を確認することで、不正確な情報に基づいて行動するリスクを軽減することができます。出力データのレビューは、入力された情報の再識別のリスクも評価する必要がある。
7. Ensure that personal or confidential information is not retained or disclosed by the generative AI tool 7. 個人情報または機密情報が生成的AIツールによって保持または開示されないことを確認する。
Do not input into a generative AI tool personal or confidential information, unless it has been explicitly confirmed that inputted information is not retained or disclosed by the provider. An alternative could be stripping input data of any information that enables re-identification. We would strongly caution against using sensitive or confidential data for training purposes. 入力された情報が提供者によって保持または開示されないことが明示的に確認されない限り、生成的AIツールに個人情報または機密情報を入力しないこと。また、入力データから、再識別を可能にする情報を取り除くことも考えられる。私たちは、トレーニングの目的で機密データを使用することに強く注意を促する。
“I would expect agencies to do their due diligence and privacy analysis to assess how they comply with the law before stepping into using generative AI,” says Mr Webster. ウェブスター氏は、以下のように述べた。「生成的AIの使用に踏み切る前に、各省庁がデューデリジェンスとプライバシー分析を行い、法律をどのように遵守しているかを評価することを期待する。
“Generative AI is covered by the Privacy Act 2020 and my Office will be working to ensure that is being complied with; including investigating where appropriate." 生成的AIはプライバシー法2020の対象であり、私の事務局は、それが遵守されていることを確認するために働き、適切な場合には調査をする。」
The Commissioner has previously sent a letter to government agencies outlining his caution around prematurely jumping into using generative AI without a proper assessment and signalling the need for a whole-of-government response to the growing challenges posed by this tool.  同長官は以前、政府機関に書簡を送り、適切な評価なしに早急に生成的AIの使用に踏み切ることへの注意を促し、このツールがもたらす増大する課題への政府全体の対応の必要性を示唆している。 

 

・2023.05.25 Generative Artificial Intelligence

Generative Artificial Intelligence ジェネレーティブ・アーティフィシャル・インテリジェンス
This page sets out the expectations of the Office of Privacy Commissioner with respect to the use of generative Artificial Intelligence (AI) by agencies. The evolving nature of generative AI is such that the material on this page is subject to change as we continue to review the situation. It was updated on 25 May 2023. このページでは、機関による生成的人工知能(AI)の使用に関して、プライバシーコミッショナー室が期待することを説明する。生成的人工知能は進化しているため、状況を確認し続ける中で、このページの資料が変更される可能性がある。(2023年5月25日更新)
Generative AI are tools and apps that have recently been prominent in the media. These tools use large amounts of information (including personal information) to transform and generate a variety of content, including human-like conversations, writing essays, creating images or videos, and computer code. 生成的AIは、最近メディアで目立つようになったツールやアプリである。これらのツールは、大量の情報(個人情報を含む)を使って、人間のような会話、エッセイの作成、画像や動画の作成、コンピュータコードなど、さまざまなコンテンツを変換・生成する。
Prominent generative AI tools include: 著名な生成的AIツールには、以下のようなものがある:
・OpenAI’s ‘ChatGPT’, which is an app leveraging their GPT-3 / GPT-4 large language models ・OpenAIの「ChatGPT」は、同社のGPT-3 / GPT-4大規模言語モデルを活用したアプリである。
・Microsoft’s Bing search or Copilot products, which leverages GPT-4, and ・マイクロソフト社のBing検索Copilot製品は、GPT-4を活用している。
・Google’s Bard. ・GoogleのBard
Generative AI tools, capabilities, and their impact are rapidly evolving. Regulators across the world are actively reviewing the situation, and the Privacy Commissioner has called for New Zealand regulators to come together to determine how best to protect the rights of New Zealanders. 生成的AIのツール、能力、そしてその影響は急速に進化している。世界中の規制当局が積極的に検討しており、プライバシーコミッショナーは、ニュージーランドの規制当局が集まって、ニュージーランド人の権利を保護するための最善の方法を決定するよう呼びかけている。
Potential privacy risks associated with generative AI tools 生成的AIツールに関連する潜在的なプライバシーリスク
Agencies considering whether to use a generative AI tool need to be aware of potential privacy risks that have been associated with these tools. These risks include: 生成的AIツールを使用するかどうかを検討している機関は、これらのツールに関連する潜在的なプライバシーリスクを認識する必要がある。これらのリスクは以下の通りである:
・The training data used by the generative AI ・生成的AIが使用するトレーニングデータ
Generative AI models are trained on vast amounts of information, some of which is personal information. This presents various privacy risks, including around how personal information has been collected, whether there is sufficient transparency and whether the information is accurate or contains bias. 生成的AIのモデルは、膨大な量の情報に基づいて学習され、その中には個人情報も含まれます。このため、個人情報がどのように収集されたか、十分な透明性があるか、情報が正確かバイアスを含んでいるかなど、さまざまなプライバシーリスクが存在する。
 We would strongly caution against using sensitive or confidential data for training purposes.  私たちは、機密性の高いデータや機密性の高いデータをトレーニングの目的に使用しないよう、強く注意を促する。
・Confidentiality of information your agency will enter into a generative AI ・あなたの機関が生成的AIに入力する情報の機密性
Generative AI tools require a prompt for them to undertake their activities. This prompt could be a few words or a large amount of data and could include personal and confidential business information. There is a risk that personal information entered into the generative AI is retained or disclosed by the provider of the generative AI tool and used to continue training the model. 生成的AIツールは、その活動を行うためにプロンプトを必要とする。このプロンプトは、数語または大量のデータであり、個人情報やビジネスの機密情報を含む可能性がある。生成的AIに入力された個人情報が、生成的 AIツールの提供者によって保持または開示され、モデルのトレーニングを継続するために使用されるリスクがある。
・Accuracy of information created by the generative AI ・生成的AIが作成する情報の正確性
Generative AI tools often produce very confident errors of fact or logic and can perpetuate bias and discrimination. Do not rely on the output of generative AI tools without first taking appropriate steps to fact check and ensure the accuracy of the output. 生成的AIツールは、しばしば非常に確信犯的な事実や論理の誤りを生み出し、バイアスや差別を永続させる可能性がある。最初に事実確認と出力の正確性を確保するための適切な手順を踏まずに、生成的AIツールの出力に依存しないようにしてください。
・Access and correction to personal information ・個人情報へのアクセスおよび訂正
The Privacy Act provides individuals with a right to access and correct personal information held by an agency. Generative AI tools may not always be compatible with such rights.  個人情報保護法は、機関が保有する個人情報にアクセスし、訂正する権利を個人に与えている。生成的AIツールは、このような権利に必ずしも適合するとは限りません。 
OPC position on generative AI tools 生成的AIツールに関するOPCの見解
The responsibility of complying with the requirements of the Privacy Act lies with agencies (whether in the public, private, or not-for-profit sectors). The Privacy Act is technology-neutral and takes a principle-based approach, meaning the same privacy rights and protections apply to generative AI tools that apply to other activities that use personal information (such as collecting and using personal information via paper or computer). 個人情報保護法の要件を遵守する責任は、(公共、民間、非営利のいずれの部門であっても)機関にある。プライバシー法は技術に中立的であり、原則に基づくアプローチをとっているため、個人情報を使用する他の活動(紙やコンピュータによる個人情報の収集や使用など)に適用されるのと同じプライバシー権や保護が生成的AIツールに適用されることを意味する。
The Office of the Privacy Commissioner expects that agencies considering implementing a generative AI tool will: プライバシーコミッショナー事務局は、生成的AIツールの導入を検討している機関が以下を行うことを期待している:
1. Have senior leadership approval 1. 上級指導者の承認があること
Ensure that senior leadership has given full consideration of the risks and mitigations of adopting a generative AI tool and explicitly approved its use. 上級指導者が、生成的AIツールを採用するリスクと緩和策を十分に考慮し、その使用を明確に承認していることを確認する。
2. Review whether a generative AI tool is necessary and proportionate 2. 生成的AIツールが必要かつ適切であるかどうかを検討する。
Given the potential privacy implications, review whether it is necessary and proportionate to use a generative AI tool or whether an alternative approach could be taken. プライバシーへの影響を考慮し、生成的AIツールの使用が必要かつ適切であるか、または別のアプローチが可能であるかを検討する。
3. Conduct a Privacy Impact Assessment 3. プライバシー影響評価を実施する
Only use a generative AI tool after conducting a Privacy Impact Assessment (and/or Algorithmic Impact Assessment) to help identify and mitigate privacy and wider risks. This should include seeking feedback from impacted communities and groups, including Māori. Confirm if the provider of the generative AI tool has published any information about how privacy has been designed into the tool and undertake due diligence on the potential risks of using the generative AI tool. プライバシーやより広範なリスクの特定と軽減に役立つプライバシー影響評価(および/またはアルゴリズム影響評価)を実施した後にのみ、生成的AIツールを使用する。これには、マオリ族を含む、影響を受けるコミュニティやグループからのフィードバックを求めることも含まれるはずである。生成的AIツールの提供者が、プライバシーがツールにどのように設計されているかについての情報を公開しているかどうかを確認し、生成的AIツールを使用することの潜在的リスクに関するデューデリジェンスを実施する。
4. Be transparent 4. 透明性を確保する
If the generative AI tool will be used in a way likely to impact customers and clients and their personal information, they must be told how, when, and why the generative AI tool is being used and how potential privacy risks are being addressed. This must be explained in plain language so that people understand the potential impacts for them before any information is collected from them. Particular care must be taken with children. 生成的AIツールが、顧客や取引先とその個人情報に影響を与える可能性のある方法で使用される場合、顧客は、生成的AIツールがどのように、いつ、なぜ使用されるのか、潜在的なプライバシーリスクにどのように対処されているのかを知る必要がある。これは、情報が収集される前に、人々が自分への潜在的な影響を理解できるように、分かりやすい言葉で説明されなければなりません。特に子供には注意が必要である。
5. Develop procedures about accuracy and access by individuals 5. 正確さと個人によるアクセスに関する手順の開発
If the generative AI tool will involve the collection of personal information of customers or clients, develop procedures for how your agency will take reasonable steps to ensure that the information is accurate before use or disclosure, and for responding to requests from individuals to access and correct their personal information. 生成的AIツールが顧客やクライアントの個人情報の収集を伴う場合は、使用または開示前に情報が正確であることを保証するために機関が合理的な手段を講じる方法、および個人からの個人情報へのアクセスや訂正の要求への対応に関する手順を策定する。
6. Ensure human review prior to acting 6. 行動する前に人間によるレビューを確保する
Having a human review the outputs of a generative AI tool prior to your agency taking any action because of that output can help mitigate the risk of acting on the basis of inaccurate or biased information. Review of output data should also assess the risk of re-identification of inputted information. 生成的AIツールの出力に起因する行動を起こす前に、人間がその出力をレビューすることは、不正確な情報やバイアスに基づいて行動するリスクを軽減するのに役立ちます。出力データのレビューでは、入力された情報が再識別されるリスクも評価する必要がある。
7. Ensure that personal or confidential information is not retained or disclosed by the generative AI tool 7. 個人情報または機密情報が生成的AIツールによって保持または開示されないことを確認する。
Do not input into a generative AI tool personal or confidential information, unless it has been explicitly confirmed that inputted information is not retained or disclosed by the tool provider. An alternative could be stripping input data of any information that enables re-identification. We would strongly caution against using sensitive or confidential data for training purposes 入力された情報がツール提供者によって保持または開示されないことが明示的に確認されていない限り、生成的AIツールに個人情報または機密情報を入力しないこと。また、入力データから、再識別を可能にする情報を取り除くことも考えられる。私たちは、機密性の高いデータを学習目的で使用することに強く注意を払いる。
We recognise that generative AI is an evolving technology and will continue monitoring its developments in this area. Further updates to this guidance will be provided soon. 我々は、生成的AIが進化する技術であることを認識し、この分野での発展を監視し続ける。このガイダンスのさらなる更新は、近日中に提供される予定である。
Making a privacy complaint about generative AI tools 生成的AIツールに関するプライバシーに関する苦情の申し立て
Generative AI is covered by the Privacy Act 2020, which means that New Zealanders can complain to us if they think their privacy has been breached. 生成的AIは、プライバシー法2020の対象であり、ニュージーランド人は、プライバシーが侵害されたと思う場合、私たちに苦情を言うことができることを意味する。
Organisations reporting a privacy breach  use the NotifyUs tool here プライバシー侵害を報告する組織は、NotifyUsのツールを使用してください。
Individuals wanted to make a complaint use the complaint form here  個人からの苦情は、苦情フォームをご利用ください。 
New Zealand resources relating to Artificial Intelligence 人工知能に関連するニュージーランドのリソース
Privacy Impact Assessment Toolkit ・プライバシー影響評価ツールキット
Principles for the Safe and Effective Use of Data and Analytics ・データおよびアナリティクスの安全かつ効果的な使用のための原則
Government Chief Data Steward ・政府のチーフデータスチュワード
Government algorithm transparency and accountability ・政府アルゴリズムの透明性と説明責任
AI Forum - Trustworthy AI in Aotearoa - the AI Principles ・AIフォーラム - アオテアロアの信頼できるAI - AI原則
International Association of Privacy Professionals AI Governance Centre ・国際プライバシー・プロフェッショナル協会 AIガバナンス・センター
International resources 国際的なリソース
UK Information Commissioner's Office - Guidance on AI and data protection ・英国情報コミッショナー事務所 - AIとデータ保護に関するガイダンス
UK Government White Paper: AI Regulation: A Pro-Innovation Approach ・英国政府白書 AI規制: イノベーションを促進するアプローチ
Pan-Canadian Artificial Intelligence Strategy Overview ・全カナダ人工知能戦略概要
European Commission: Regulatory Framework Proposal On Artificial Intelligence ・欧州委員会 人工知能に関する規制枠組み案

 

1_20230601044201

 

 


 

⚫︎ まるちゃんの情報セキュリティ気まぐれ日記

・2023.05.27 米国 国家人工知能研究開発 戦略計画 2023更新 (2023.05.23)

・2023.05.19 ドイツ BSI 大規模AI言語モデル - 産業界と公的機関の可能性とリスク (2023.05.10)

・2023.05.18 フランス CNIL 人工知能に対する行動計画

・2023.05.15 欧州 CERT-EU 生成的AIの潜在的な影響とリスク

・2023.05.10 ロシア 科学技術センター 大規模言語モデル:認知的な視点

・2023.05.08 米国 ホワイトハウス 「米国人の権利と安全を守る責任あるAIイノベーションを推進する新たな行動」 (2023.05.04)

・2023.05.06 米国 連邦取引委員会 AIと消費者の信頼の工学 (It’s cool to use the computer. Don’t let the computer use you. by Prince in 1999)

・2023.05.04 イタリア データ保護庁 ChatGPTが復活... (2023.04.28)

・2023.05.01 米国 国家人工知能諮問委員会1年間の活動報告書

・2023.04.29 英国 AIに関する英国政府の発表をいくつか。。。

・2023.04.22 東北大学、東京工業大学の生成的AI利用の留意事項

・2023.04.20 大阪大学 生成AI(Generative AI)の利用について

・2023.04.14 EDPB Metaによる米国への個人データ転送に関する紛争解決、Chat GPTに関するタスクフォースを設置

・2023.04.14 スペイン ChatGPTを運営するOpenAI社に対して職権で調査手続きを開始

・2023.04.14 イタリア データ保護庁 ChatGPT復活へ... 4月30日までに改善できれば...

・2023.04.10 イタリア データ保護庁委員とOpenAI社CEOが会談

・2023.04.06 OpenAI ブログ AIの安全への取り組み

・2023.04.06 カナダ プライバシーコミッショナー ChatGPTに対する調査を開始

・2023.04.06 東京大学 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について

・2023.04.05 英国 ICO ブログ 生成的人工知能:開発者とユーザーが問うべき8つの質問...

・2023.04.03 欧州 EU外交部 人工知能時代に事実を正しく伝えるために

・2023.04.02 イタリア データ保護庁がOpenAI社にプライバシー規制を遵守するまでChatGPTがイタリア人ユーザのデータ処理の制限を直ちに命じた...

・2023.04.01 英国 意見募集 AI規制白書

・2023.03.30 欧州 ユーロポール ChatGPTの犯罪利用-大規模言語モデルに関する注意事項

・2023.03.21 米国 FTCのブログ チャットボット、ディープフェイク、ボイスクローン:AIによるインチキを売り物にする

・2023.03.20 英国 イノベーションを促進する技術規制の見直し:デジタルテクノロジー

 

 

|

« ENISA 新技術に対応したEUサイバーセキュリティ認証の実現可能性を探る | Main | 中国 国家サイバースペース管理局「個人情報の越境移転に関する標準契約条項(第一版)」 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« ENISA 新技術に対応したEUサイバーセキュリティ認証の実現可能性を探る | Main | 中国 国家サイバースペース管理局「個人情報の越境移転に関する標準契約条項(第一版)」 »