« 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会) | Main | 米国 司法省 ハッキングツールを販売するサイバー犯罪者用のウェブサイトを押収 (2025.01.30) »

2025.02.10

フランス CNIL AIについてガイダンス(データ主体への通知、データ主体の権利行使の尊重と促進)(2025.02.07)

こんにちは、丸山満彦です。

フランスのCNILが、AIについての新しいガイダンス?を2つ公表していますね...

 

CNIL

プレス

・2025.02.07 AI and GDPR: the CNIL publishes new recommendations to support responsible innovation

AI and GDPR: the CNIL publishes new recommendations to support responsible innovation AIとGDPR:CNILが責任あるイノベーションを支援する新たな勧告を発表
The GDPR enables the development of innovative and responsible AI in Europe. The CNIL’s new recommendations illustrate this by providing concrete solutions to inform individuals whose data is used and to facilitate the exercise of their rights. GDPRは欧州における革新的で責任あるAIの開発を可能にする。CNILの新しい勧告は、データが使用される個人に情報を提供し、その権利の行使を促進するための具体的なソリューションを提供することで、これを示している。
GDPR enables innovative AI while respecting personal data GDPRは個人データを尊重しつつ革新的なAIを可能にする
The AI Action Summit, organized by France from February 6th to 11th, 2025, will host numerous events highlighting AI’s potential for innovation and competitiveness in the coming years. 2025年2月6日から11日までフランスが主催するAIアクションサミットでは、今後数年間のイノベーションと競争力におけるAIの可能性を強調する数多くのイベントが開催される。
Since 1978, France has established regulations to govern the use of personal data by digital technologies. In Europe, these rules were harmonized through the General data protection regulation (GDPR), whose principles have inspired regulations in many countries around the world. 1978年以来、フランスはデジタル技術による個人データの利用を統制するための規制を設けてきた。欧州では、これらの規則は一般データ保護規則(GDPR)によって調和され、その原則は世界各国の規制に影響を与えている。
Recognizing the need to clarify the legal framework, the CNIL actively works to provide security for stakeholders, fostering AI innovation while ensuring the protection of fundamental rights. Since launching its AI Action Plan in May 2023, the CNIL has issued a series of recommendations for AI system development. With those clarifications, GDPR compliance will build trust among individuals and provides legal certainty for businesses. 法的枠組みを明確にする必要性を認識しているCNILは、基本的権利の保護を確保しつつ、関係者に安全性を提供し、AIイノベーションを促進するために積極的に取り組んでいる。2023年5月にAI行動計画を発表して以来、CNILはAIシステム開発に関する一連の勧告を発表している。これらの明確化により、GDPRの遵守は個人の信頼を築き、企業に法的確実性を提供する。
Adapting GDPR principles to the specificities of AI GDPRの原則をAIの特殊性に適応させる
Some AI models are anonymous and thus not subject to the GDPR. However, other models—such as a large language model (LLM)—may contain personal data. The European data protection board (EDPB) recently provided relevant criteria on the application of the GDPR to AI models. 一部のAIモデルは匿名であるため、GDPRの対象とはならない。しかし、大規模言語モデル(LLM)のような他のモデルには個人データが含まれる可能性がある。欧州データ保護委員会(EDPB)は最近、AIモデルへのGDPR適用に関する関連規準を示した。
When the GDPR applies, individuals’ data must be protected, whether within training datasets, within models that may have memorized data, or through model usage via prompts. While the fundamental principles of data protection remain applicable, they must be adapted to AI’s specific context. GDPRが適用される場合、学習データセット内であれ、データを記憶している可能性のあるモデル内であれ、プロンプトによるモデルの使用を通じてであれ、個人のデータは保護されなければならない。データ保護の基本原則は引き続き適用可能だが、AI特有の状況に適応させる必要がある。
The CNIL has determined that: CNILは次のように決定している:
The determination of the purpose will be applied flexibly to general-purpose AI systems: an operator who cannot define all potential applications at the training stage may instead describe the type of system being developed and illustrate key potential functionalities. 目的に決定は汎用AIシステムに柔軟に適用される:訓練段階ですべての潜在的な用途を定義できない処理者は、代わりに開発中のシステムの種類を説明し、主要な潜在的機能を説明することができる。
The data minimisation principle does not prevent the use of large training datasets. However, the data should generally be selected and cleaned to optimise algorithm training while avoiding the unnecessary processing of personal data. データ最小化の原則は、大規模な訓練データセットの使用を妨げるものではない。しかし、一般的には、パーソナルデータの不必要な処理を避けつつ、アルゴリズム学習を最適化するためにデータを選択し、クリーニングすべきである。
Retention of training data can be extended if justified and if the dataset is subject to appropriate security measures. This is particularly relevant for databases requiring significant scientific and financial investment, which sometimes become recognised standards within the research community. 正当な理由があり、データセットが適切なセキュリティ対策の対象者であれば、訓練データの保持期間を延長することができる。これは特に、多額の科学的・財政的投資を必要とし、研究コミュニティ内で標準として認知されることもあるデータベースに関連する。
Reuse of databases, including those available online, is possible in many cases, provided that the data was not collected unlawfully and that its reuse aligns with the original purpose of collection. オンラインを含むデータベースの再利用は、データが違法に収集されたものでなく、その再利用が当初の収集目的に沿ったものであれば、多くの場合可能である。
New recommendations 新しい勧告
Today, the CNIL is publishing two new recommendations to promote the responsible use of AI while ensuring compliance with personal data protection. These recommendations confirm that GDPR requirements are sufficiently balanced to address the specific challenges of AI. They provide concrete and proportionate solutions to inform individuals and facilitate the exercise of their rights: 本日、CNILは、個人データ保護のコンプライアンスを確保しつつ、AIの責任ある利用を促進するための2つの新しい勧告を発表した。これらの勧告は、GDPRの要件がAI特有の課題に対処するために十分にバランスが取れていることを確認するものである。これらの勧告は、個人に情報を提供し、権利の行使を促進するための具体的かつ適切な解決策を提供している:
・When personal data is used to train an AI model and may potentially be memorised by it, the individuals concerned must be informed. ・個人データがAIモデルの訓練に使用され、AIモデルによって記憶される可能性がある場合、関係する個人に通知されなければならない。
The way this information is provided can be adapted based on the risks to individuals and operational constraints. Under the GDPR, in certain cases—especially when AI models rely on third-party data sources and the provider cannot contact individuals directly—organizations may limit themselves to general information (e.g., published on their website). When multiple sources are used, as is common with general-purpose AI models, a broad disclosure indicating the categories of sources or listing a few key sources is generally sufficient. この情報提供の方法は、個人に対するリスクと運用上の制約に基づいて適合させることができる。GDPRの下では、特定の場合(特にAIモデルがサードパーティーのデータソースに依存し、プロバイダが個人に直接連絡できない場合)、組織は一般的な情報(例えば、ウェブサイトで公表)に限定することができる。汎用のAIモデルで一般的なように、複数の情報源を使用する場合は、情報源のカテゴリーを示すか、いくつかの重要な情報源を列挙した広範な開示で一般的には十分である。
See CNIL’s recommendations on informing individuals 個人への情報提供に関するCNILの勧告を参照のこと。
・European regulations grant individuals the right to access, rectify, object and delete their personal data. ・欧州の規則では、個人データへのアクセス、修正、異議申し立て、削除の権利を個人に認めている。
However, exercising these rights can be particularly challenging in the context of AI models — whether due to difficulties in identifying individuals within the model or modifying the model itself. The CNIL urges AI developers to incorporate privacy protection from the design stage and pay special attention to personal data within training datasets by: しかし、これらの権利を行使することは、モデル内の個人を特定することが困難であったり、モデル自体を修正することが困難であったりと、AIモデルにおいては特に困難である。CNILはAI開発者に対し、設計段階からプライバシー保護を取り入れ、訓練データセット内の個人データに特別な注意を払うよう、次のように促している:
・・striving to anonymise models whenever it does not compromise their intended purpose; ・・意図した目的を損なわない限り、モデルの匿名化に努めること;
・・developing innovative solutions to prevent the disclosure of confidential personal data by AI models. ・・AIモデルによる機密個人データの漏洩を防ぐための革新的なソリューションを開発する。
In some cases, the cost, technical impossibility, or practical difficulties may justify a refusal to comply with a request to exercise these rights. However, where the right must be guaranteed, the CNIL will consider reasonable solutions available to the model creator and may allow for flexible timelines. The CNIL also emphasizes that scientific research in this area is evolving rapidly and urges AI stakeholders to stay informed of the latest advancements to ensure the best possible protection of individuals' rights. 場合によっては、コスト、技術的な不可能性、現実的な困難性によって、これらの権利行使の要請に応じないことが正当化されることがある。しかし、権利を保証しなければならない場合、CNILはモデル作成者が利用できる合理的な解決策を検討し、柔軟なスケジュールを認めることもある。CNILはまた、この分野の科学的研究は急速に発展していることを強調し、AI関係者に対し、個人の権利の最良の保護を確保するため、最新の進歩に関する情報を常に入手するよう促している。
See CNIL’s recommendations on individuals' rights 個人の権利に関するCNILの勧告を見る
► See all CNIL recommandations on AI (in French) AIに関する全てのCNIL勧告を見る(フランス語)
Consultation with AI stakeholders and civil society AI関係者および市民社会との協議
These recommendations were developed following a public consultation. Various stakeholders—including businesses, researchers, academics, associations, legal and technical advisors, trade unions, and federations—were able to share their perspectives. This allowed the CNIL to issue recommendations that closely align with their concerns and the real-world applications of AI. これらの勧告は、公開協議の後に作成された。企業、研究者、学者、団体、法律・技術顧問、労働組合、連盟を含む様々な利害関係者がそれぞれの見解を共有することができた。これにより、CNILは、彼らの懸念やAIの現実の応用に密接に沿った勧告を出すことができた。
Read the summary of contributions (In French) 寄稿の要約を読む(フランス語)
The CNIL’s efforts to ensure a pragmatic and comprehensive application of the GDPR in the AI sector will continue in the coming months. This includes issuing new recommendations and providing support to organisations. AI分野におけるGDPRの実用的かつ包括的な適用を確保するためのCNILの取り組みは、今後数ヶ月間継続される。これには、新たな勧告の発行や組織へのサポートのプロバイダが含まれる。
Additionally, the CNIL is closely following the work of the European Commission’s AI Office, particularly in the development of a code of good practices for general-purpose AI. These efforts are coordinated with broader initiatives to clarify the legal framework at the European level. さらに、CNILは欧州委員会のAI事務局の作業、特に汎用AIのためのグッドプラクティス規範の策定を注視している。これらの取り組みは、欧州レベルでの法的枠組みを明確にするための幅広い取り組みと連携している。
Document reference 文書参照
Summary of contributions 貢献の概要
Consultation publique - Fiches pratiques sur l’information et l’exercice des droits pour le développement de systèmes d’IA - Synthèse des contributions 公的協議 - IAシステム開発のための情報と権利行使に関する実践規範 - 寄稿要約

 

要約...

・[PDF] Consultation publique - Fiches pratiques sur l’information et l’exercice des droits pour le développement de systèmes d’IA - Synthèse des contributions

20250210-60944

 

以下の実践的AIファクトシートの9,10が新しいですかね...

Fiche 9 シート9
・2025.02.07 Informer les personnes concernées 2025.02.07 データ主体への通知
Fiche 10 シート10
・2025.02.07 Respecter et faciliter l’exercice des droits des personnes concernées 2025.02.07 データ主体の権利行使の尊重と促進

 

実践的AIファクトシート...

 

Les fiches pratiques IA 実践的AIファクトシート
Fiche synthèse 概要シート
・2024.04.08 Les recommandations de la CNIL en bref 2024.04.08 CNIL勧告の概要
Les recommandations de la CNIL sur l’application du RGPD au développement des systèmes d’IA permettent de concilier innovation et respect des droits des personnes. Que faut-il retenir ? AIシステムの開発に対するRGPDの適用に関するCNILの勧告は、イノベーションと人々の権利の尊重を両立させることを可能にする。我々は何に留意すべきだろうか?
Note : cette synthèse ne concerne que les fiches « Introduction » à 7 pour le moment. 注:本要約は、当面の間、7枚のシートの「はじめに」のみを対象とする。
> En savoir plus > 詳細はこちら
Introduction はじめに
・2024.04.08 Quel est le périmètre des fiches pratiques sur l’IA ? 2024.04.08 AIに関する実務情報シートの範囲は?
La CNIL apporte des réponses concrètes pour la constitution de bases de données utilisées pour l’apprentissage des systèmes d’intelligence artificielle (IA), qui impliquent des données personnelles. CNILは、個人情報に関わる人工知能(AI)システムの学習に使用されるデータベースの構成について、具体的な回答を提供している。
> En savoir plus > 詳細はこちら
Fiche 1 シート1
・2024.04.08 Déterminer le régime juridique applicable 2024.04.08 適用される法的体制の決定
La CNIL vous aide à déterminer le régime juridique applicable aux traitements de données personnelles en phase de développement. CNILは、開発段階における個人データの処理に適用される法体系の決定を支援する。
> En savoir plus > 詳細はこちら
Fiche 2 シート2
・2024.04.08 Définir une finalité 2024.04.08 目的の定義
La CNIL vous aide à définir la ou les finalités en tenant compte des spécificités du développement de systèmes d’IA. CNILは、AIシステム開発の特殊性を考慮した目的の定義を支援する。
> En savoir plus > 詳細はこちら
Fiche 3 シート3
・2024.04.08 Déterminer la qualification juridique des fournisseurs de systèmes d’IA 2024.04.08 AIシステム供給者の法的地位の決定
Responsable de traitement, responsable conjoint ou sous-traitant : la CNIL aide les fournisseurs de systèmes d’IA à déterminer leur qualification. データ管理者、共同管理者または処理者:CNILはAIシステム提供者がその資格を決定するのを支援する。
> En savoir plus > 詳細はこちら
Fiche 4 (1/2) シート4 (1/2)
・2024.04.08 Assurer que le traitement est licite - Définir une base légale 2024.04.08 情報処理の適法性を確保する - 法的根拠の定義
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données. CNILは、貴社の責任およびデータの収集または再利用の方法に応じて、貴社の義務を決定することを支援する。
> En savoir plus > 詳細はこちら
Fiche 4 (2/2) シート4 (2/2)
・2024.04.08 Assurer que le traitement est licite - En cas de réutilisation des données 2024.04.08 情報処理の適法性の確保 - 情報が再利用される場合
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données. CNILは、貴社の責任およびデータの収集または再利用の方法に応じて、貴社の義務を決定するのに役立つ。
> En savoir plus > 詳細はこちら
Fiche 5 シート5
・2024.04.08 Réaliser une analyse d’impact si nécessaire 2024.04.08 必要に応じて影響評価を実施する
La CNIL vous explique comment et dans quels cas réaliser une analyse d’impact sur la protection des données (AIPD) en tenant compte des risques spécifiques au développement de modèles d’IA. CNILは、AIモデルの開発に特有のリスクを考慮したデータ保護影響評価(DPAI)の実施方法とケースについて説明している。
> En savoir plus > 詳細はこちら
Fiche 6 シート6
・2024.04.08 Tenir compte de la protection des données dans la conception du système 2024.04.08 システム設計においてデータ保護を考慮する
Pour assurer le développement d’un système d’IA respectueux de la protection des données, il est nécessaire de mener une réflexion préalable lors de la conception du système. La CNIL en détaille les étapes. データ保護に配慮したAIシステムの開発を確実にするためには、システム設計時に予備的な検討を行う必要がある。CNILはその手順を示している。
> En savoir plus > 詳細はこちら
Fiche 7 シート7
・2024.04.08 Tenir compte de la protection des données dans la collecte et la gestion des données 2024.04.08データ収集・管理におけるデータ保護の考慮
La CNIL donne les bonnes pratiques pour sélectionner les données et limiter leur traitement afin d’entraîner un modèle performant dans le respect des principes de protection des données dès la conception et par défaut. CNILは、データ保護の原則に準拠した高性能モデルを設計段階からデフォルトで作成するために、データを選択し、その処理を制限するためのベストプラクティスを概説している。
> En savoir plus > 詳細はこちら
Fiche 8 シート8
・2024.06.10 Mobiliser la base légale de l’intérêt légitime pour développer un système d’IA 2024.06.10 正当な利益を法的根拠としてAIシステムを開発する
La base légale de l’intérêt légitime sera la plus couramment utilisée pour le développement de systèmes d’IA. Cette base légale ne peut toutefois pas être mobilisée sans en respecter les conditions et mettre en œuvre des garanties suffisantes. 正当な利益という法的根拠は、AIシステムの開発において最も一般的に使用される。しかし、この法的根拠は、条件を遵守し、十分な保証を実施しなければ、利用することはできない。
> En savoir plus > 詳細はこちら
Fiche 8 (1/2) シート8 (1/2)
・2024.06.10 La base légale de l’intérêt légitime : fiche focus sur la diffusion des modèles en source ouverte (open source) 2024.06.10 正当な利益の法的根拠:オープンソースモデルの配布に焦点を当てる
Compte tenu des bénéfices qu’elles peuvent présenter, les pratiques d’ouverture sont à prendre en compte dans l’évaluation de l’intérêt légitime d’un fournisseur de système d’IA. Il est toutefois nécessaire d’adopter des garanties permettant de limiter les atteintes qu’elles peuvent porter aux personnes. AIシステム提供者の合法的利益を評価する際には、その潜在的利益を考慮に入れてオープンソースを利用すべきである。しかし、オープンソースが個人にもたらす害を制限するためのセーフガードを採用する必要がある。
> En savoir plus > 詳細はこちら
Fiche 8 (2/2) シート8 (2/2)
・2024.06.10 La base légale de l’intérêt légitime : fiche focus sur les mesures à prendre en cas de collecte des données par moissonnage (web scraping) 2024.06.10 正当な利益の法的根拠:ウェブスクレイピングによるデータ収集の際の措置に焦点を当てる
La collecte des données accessibles en ligne par moissonnage (web scraping) doit être accompagnée de mesures visant à garantir les droits des personnes concernées. ウェブ・スクレイピングによるオンライン・アクセス可能なデータの収集には、データ主体の権利を保証する措置が伴わなければならない。
> En savoir plus > 詳細はこちら
Fiche 9 シート9
・2025.02.07 Informer les personnes concernées 2025.02.07 データ主体への通知
Les organismes qui traitent des données personnelles pour développer des modèles ou des systèmes d’IA doivent informer les personnes、 concernées. La CNIL précise les obligations en la matière. AIモデルやシステムを開発するために個人データを処理する組織は、関係者に通知しなければならない。CNILはこの分野における義務を定めている。
> En savoir plus > 詳細はこちら
Fiche 10 シート10
・2025.02.07 Respecter et faciliter l’exercice des droits des personnes concernées 2025.02.07 データ主体の権利行使の尊重と促進
Les personnes dont les données sont collectées, utilisées ou réutilisées pour développer un système d’IA disposent de droits sur leurs données qui leur permettent d’en conserver la maîtrise. Il appartient aux responsables des traitements de les respecter et d’en faciliter l’exercice. AIシステムを開発するためにデータが収集、使用または再利用される個人は、データに対する権利を有し、データに対するコントロールを保持することができる。これらの権利を尊重し、その行使を促進することは、データ管理者の責務である。
> En savoir plus > 詳細はこちら
Fiche 11 シート11
・2024.06.10 Annoter les données 2024.06.10 データに注釈を付ける
La phase d’annotation des données est cruciale pour garantir la qualité du modèle entraîné. Cet enjeu de performance peut être atteint au moyen d’une méthodologie rigoureuse garantissant le respect de la protection des données personnelles. データの注釈付けは、学習されたモデルの品質を保証するために極めて重要である。このパフォーマンス上の課題は、個人データ保護の尊重を保証する厳格な方法論を用いることで解決できる。
> En savoir plus > 詳細はこちら
Fiche 12 シート12
・2024.06.10 Garantir la sécurité du développement d’un système d’IA 2024.06.10 AIシステム開発のセキュリティを保証する
La sécurité des systèmes d’IA est une obligation afin de garantir la protection des données tant lors du développement du système que par anticipation de son déploiement. Cette fiche détaille les risques et mesures à prendre recommandées par la CNIL. AIシステムのセキュリティは、システム開発中およびシステム配備を見越したデータ保護を保証するための義務である。このファクトシートでは、CNILが推奨するリスクと対策について詳述する。
> En savoir plus > 詳細はこちら

 

 

シート9

・2025.02.07 IA : Informer les personnes concernées

IA : Informer les personnes concernées AI:データ主体への情報提供
Les organismes qui traitent des données personnelles pour développer des modèles ou des systèmes d’IA doivent informer les personnes concernées. La CNIL précise les obligations en la matière. AIモデルやシステムを開発するために個人データを処理する組織は、関係者に通知しなければならない。CNILはこの分野における義務を定めている。
Assurer la transparence des traitements 処理の透明性を確保する
Quand fournir l’information ? いつ情報を提供すべきか?
Comment fournir l’information ? どのように情報を提供するか?
Les dérogations à une information individuelle 個人情報の例外
Quelles informations fournir ? どのような情報を提供すべきか?

 

 

シート10

・2025.02.07 IA : Respecter et faciliter l’exercice des droits des personnes concernées

IA : Respecter et faciliter l’exercice des droits des personnes concernées AI:データ主体の権利の尊重と行使の促進
Les personnes dont les données sont collectées, utilisées ou réutilisées pour développer un système d’IA disposent de droits sur leurs données qui leur permettent d’en conserver la maîtrise. Il appartient aux responsables des traitements de les respecter et d’en faciliter l’exercice. AIシステムを開発するためにデータが収集、使用、再利用される個人は、そのデータに対する権利を有し、それによってそのデータを管理することができる。これらの権利を尊重し、その行使を促進することは、データ管理者の責任である。
L’exercice des droits est étroitement lié à l’information donnée sur les traitements, qui constitue également une obligation. これらの権利の行使は、データ処理に関する情報の提供と密接に関連しており、これも義務である。
Rappel général sur les droits applicables 適用される権利の一般的注意事項
Les personnes concernées disposent des droits suivants sur leurs données personnelles : データ主体は個人データに関して以下の権利を有する:
droit d’accès (article 15 du RGPD) ; アクセス権(GDPR第15条);
droit de rectification (article 16 du RGPD) ; 訂正権(GDPR第16条);
droit à l’effacement, également appelé droit à l’oubli (article 17 du RGPD) ; 消去権(忘れられる権利としても知られる)(GDPR第17条);
droit à la limitation du traitement (article 18 du RGPD) ; 処理制限権(GDPR第18条);
droit à la portabilité des données lorsque la base légale du traitement est le consentement ou le contrat (article 20 du RGPD) ; 処理の法的根拠が同意または契約である場合、データポータビリティに対する権利(GDPR第20条);
droit d’opposition lorsque le traitement est fondé sur l’intérêt légitime ou la mission d’intérêt public (article 21 du RGPD) ; 処理が正当な利益または公共の利益に基づいている場合、異議を唱える権利(RGPD第21条);
droit de retirer son consentement à tout moment lorsque le traitement de données à caractère personnel est fondé sur le consentement (article 7.3 du RGPD). 個人データの処理が同意に基づいている場合、いつでも同意を撤回する権利(RGPD第7.3条)。
Les personnes concernées doivent pouvoir exercer leurs droits à la fois : データ主体はその権利を行使できなければならない:
sur les bases de données d’apprentissage et, 学習データベースおよび
sur les modèles d’IA si ces derniers ne sont pas considérés comme anonymes comme précisé dans l’avis du CEPD 28/2024 sur certains aspects de la protection des données liés au traitement des données à caractère personnel dans le contexte des modèles d'IA. AIモデルが、AIモデルの文脈における個人データ処理の特定のデータ保護の側面に関するEDPS意見28/2024に規定されているように、匿名であるとみなされない場合、データ主体は以下の権利を行使できなければならない。
Si l’exercice d’un droit d’accès, de rectification ou d’effacement sur une base de données d’entraînement présente des problématiques assez comparables par rapport à d’autres grandes bases de données, l’exercice des mêmes droits sur le modèle d’IA lui-même présente des difficultés particulières et inédites. Cela doit conduire à l’adoption de solutions réalistes et proportionnées, afin de garantir les droits des personnes sans empêcher l’innovation en matière d’intelligence artificielle. La CNIL estime ainsi que le RGPD permet d’appréhender les spécificités des modèles d’IA pour l’exercice des droits. La complexité et les coûts des demandes qui s’avèreraient disproportionnées sont ainsi des facteurs qui peuvent être pris en compte. 訓練用データベースに対するアクセス権、修正権、削除権の行使は、他の大規模データベースと比較して、ほぼ同等の問題をもたらすが、AIモデル自体に対する同権利の行使は、特別かつ前例のない困難をもたらす。人工知能の技術革新を妨げることなく個人の権利を保障するためには、現実的かつ適切な解決策を採用する必要がある。したがってCNILは、RGPDによって、権利行使のためのAIモデル特有の特徴を理解することが可能になると考えている。不釣り合いな要求の複雑さとコストは考慮できる要素である。
En matière de développement de modèles ou de systèmes d’IA : comment répondre aux demandes d’exercice de droits ? AIモデルやシステムの開発に関して:権利行使の要請はどのように対応すべきか?
Dérogations à l’exercice des droits sur les bases de données ou sur le modèle d’IA データベースやAIモデルに対する権利行使の例外

 

 

 

|

« 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会) | Main | 米国 司法省 ハッキングツールを販売するサイバー犯罪者用のウェブサイトを押収 (2025.01.30) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会) | Main | 米国 司法省 ハッキングツールを販売するサイバー犯罪者用のウェブサイトを押収 (2025.01.30) »