« 英国 議会情報・安全保障委員会 英国に対するイランの脅威と英国の対応について調査した「イラン」報告書を議会に提出(2025.07.10) | Main | オランダ データ保護庁 「AI による感情認識は疑わしく、リスクが高い」(2025.07.15) »

2025.07.27

フランス CNIL AIシステムの開発:(2025.07.22)

こんにちは、丸山満彦です。

AIシステムの開発に関して、3つのファクトシート

が確定し、公表されていますね...

 

CNIL

1_20250725160501

・2025.07.22 IA : la CNIL finalise ses recommandations sur le développement des systèmes d’IA et annonce ses futurs travaux

 

IA : la CNIL finalise ses recommandations sur le développement des systèmes d’IA et annonce ses futurs travaux AI:CNIL、AIシステムの開発に関する勧告を最終決定、今後の取り組みを発表
La CNIL publie ses dernières fiches IA, en précisant les conditions d’applicabilité du RGPD aux modèles, les impératifs de sécurité et les conditions d’annotation des données d’entraînement. Elle poursuivra ses travaux avec des analyses sectorielles et des outils d’évaluation de la conformité. CNIL は、モデルへの GDPR の適用条件、セキュリティ要件、トレーニングデータの注釈付けの条件などを明記した最新の AI ファクトシートを発表した。今後も、セクター別の分析やコンプライアンス評価ツールを用いた取り組みを継続する予定である。
Les nouvelles recommandations de la CNIL CNIL の新しい勧告
Les modèles d’IA entraînés sur des données personnelles peuvent être soumis au RGPD 個人データを用いて訓練された AI モデルは GDPR の適用対象となる可能性がある
L’avis adopté par le comité européen de la protection des données (CEPD) en décembre 2024 rappelle que le RGPD s’applique, dans de nombreux cas, aux modèles d’IA entraînés sur des données personnelles en raison de leurs capacités de mémorisation. 2024 年 12 月に欧州データ保護会議(EDPB)が採択した意見では、その記憶能力から、個人データを用いて訓練された AI モデルは多くの場合 GDPR の適用対象となることを改めて確認している。
Dans ses nouvelles recommandations, la CNIL guide les acteurs dans la conduite et la documentation de l’analyse qui doit être réalisée pour savoir si l’utilisation de leur modèle est soumise ou non au RGPD. Elle propose également des solutions concrètes pour que cette utilisation n’entraîne pas le traitement de données personnelles, telles que la mise en place de filtres robustes au niveau du système encapsulant le modèle. CNIL は、新しい勧告において、モデルの使用が GDPR の適用対象であるかどうかを判断するために実施すべき分析の実施および文書化について、関係者に指針を示している。また、モデルをカプセル化するシステムレベルで堅牢なフィルタを実装するなど、この使用が個人データの処理を伴わないことを保証するための具体的な解決策も提案している。
La conformité du processus d’annotation et la sécurité du développement d’un système d’IA doivent être assurés AI システムの開発における注釈プロセスのコンプライアンスとセキュリティの確保
Deux fiches pratiques sont également mises à la disposition des professionnels : 専門家向けに、2 つの実用的なファクトシートも用意している。
Annoter les données データの注釈
La phase d’annotation des données d’entraînement est déterminante pour garantir la qualité du modèle entraîné et la protection du droit des personnes, tout en développant des systèmes d’IA plus fiables et performants. トレーニングデータの注釈段階は、トレーニングされたモデルの品質と個人の権利の保護を確保し、より信頼性が高く効果的な AI システムを開発するために非常に重要である。
Garantir la sécurité du développement d’un système d’IA AI システム開発のセキュリティの確保
La CNIL détaille les risques et mesures à prendre en compte lors du développement d’un système d’IA pour permettre le développement de systèmes d’IA dans un environnement sécurisé. CNIL は、AI システムを安全な環境で開発するために、AI システムを開発する際に考慮すべきリスクと対策について詳しく説明している。
Consulter les recommandations 推奨事項を確認する
Un travail élaboré en concertation avec les parties prenantes 利害関係者と協議して作成された作業
Les trois nouvelles recommandations ont, comme les précédentes, été élaborées à la suite d’une consultation publique. Entreprises, chercheurs, universitaires, associations, conseils juridiques et techniques, syndicats, fédérations, etc. ont ainsi pu s’exprimer et aider la CNIL à proposer des recommandations au plus proche de leurs questionnements et de la réalité des usages de l’IA. 以前の推奨事項と同様に、3つの新たな推奨事項は公聴会を経て作成された。企業、研究者、学術関係者、団体、法的・技術的アドバイザー、労働組合、連盟など、多様な関係者が意見を表明し、CNILが彼らの懸念とAIの実際の利用状況に即した推奨事項を提案するのを支援した。
Consulter la synthèse des réponses au questionnaire ・アンケートへの回答の概要を見る
Consulter la synthèse des contributions ・意見の概要を見る
Une fiche synthèse et une liste des points à vérifier 概要シートとチェックリスト
Pour permettre à tous les professionnels concernés de s’approprier facilement ces recommandations, la CNIL met à disposition deux outils pratiques : 関係するすべての専門家がこれらの推奨事項を容易に採用できるように、CNIL は 2 つの実用的なツールを提供している。
Une synthèse des recommandations ・推奨事項の概要
Une liste des points à vérifier ・確認すべきポイントのリスト
Ils permettent de s’assurer rapidement que les enjeux de protection des données sont bien pris en compte dans le développement d’un système d’IA. これらのツールを使用することで、AI システムの開発においてデータ保護の問題が確実に考慮されるようになる。
L’IA au prisme du RGPD : la CNIL dévoile ses futurs travaux GDPR の観点から見た AI:CNIL が今後の取り組みを発表
La publication de ces nouvelles recommandations marque une étape importante pour la CNIL. Elle s’inscrit dans une volonté d’encadrer le développement de systèmes d’IA respectueux des enjeux de protection des données, tout en favorisant l’innovation. この新しい勧告の公表は、CNIL にとって重要な一歩である。これは、データ保護の問題を尊重しつつイノベーションを促進する AI システムの開発を規制する、より広範な取り組みの一環である。
Dans le cadre de son plan stratégique 2025-2028, la CNIL poursuivra ses travaux autour de plusieurs axes complémentaires. CNIL は、2025 年から 2028 年までの戦略計画の一環として、いくつかの補完的な分野での取り組みを継続していく。
Des recommandations sectorielles セクター別勧告
Face à la diversité des contextes d’usage de l’IA, la CNIL élabore des recommandations ciblées par secteur, afin de sécuriser juridiquement les acteurs et de favoriser une IA respectueuse des droits. AI が利用される状況は多様であるため、CNIL は、関係者に法的確実性を提供し、権利を尊重する AI を促進するためのセクター別勧告を策定している。
IA et éducation AI と教育
La CNIL a récemment publié deux foires aux questions (FAQ) destinées aux enseignants et aux responsables de traitement (chefs d’établissement, ministère, autorités académiques). Elles permettent d’accompagner l’usage de systèmes d’IA dans le cadre des missions pédagogiques de l’enseignant, d’apporter des conseils pratiques, et de préciser obligations légales et les conditions de mise en conformité. CNIL は最近、教師およびデータ管理者(学校長、省庁、教育当局)向けに 2 つのよくある質問(FAQ)を公開した。この FAQ は、教師の教育業務における AI システムの利用に関するガイダンス、実践的なアドバイス、法的義務およびコンプライアンス要件の明確化について記載している。
IA et santé AI と健康
Dans le secteur de la santé, la CNIL souhaite favoriser l’inter-régulation et a des échanges réguliers avec les autorités sanitaires afin de formuler des recommandations transversales. Elle participe activement aux travaux de la Haute autorité de santé sur l’usage des systèmes d’IA (SIA) en contexte de soins. Une fiche récapitulant les règles applicables au développement de systèmes d’IA dans le domaine de la santé, avec des exemples concrets issus des demandes d’autorisation, du bac à sable ou de l’accompagnement renforcé, sera bientôt publiée. 健康分野では、CNIL は規制間の連携を促進し、健康当局と定期的に意見交換を行い、分野横断的な勧告を策定している。CNIL は、医療における AI システム(SIA)の利用に関するフランス保健高等庁(Haute Autorité de Santé)の作業に積極的に参加している。医療分野における AI システムの開発に適用される規則を、認可申請、サンドボックス試験、支援の強化などの具体例とともにまとめたファクトシートがまもなく公開される予定である。
IA et travail AI と仕事
Si le déploiement de l’IA dans un contexte professionnel est porteur de promesses, il soulève également des enjeux forts pour les droits et libertés fondamentaux des personnes concernées : employés, clients, usagers, prestataires. La CNIL a initié une réflexion en lien avec les acteurs du secteur (développeurs de solutions, employeurs y ayant recours, syndicats, fédérations professionnelles, institutions publiques et scientifiques, etc.) pour préciser l’encadrement de ces usages. 職業分野における AI の展開は有望である一方、従業員、顧客、ユーザー、サービスプロバイダなど、関係者の基本的権利と自由にとって大きな課題も生じている。CNIL は、この分野の関係者(ソリューション開発者、AI を利用する雇用者、労働組合、職業団体、公的機関、科学機関など)と協議を開始し、AI の利用に関する枠組みの明確化に取り組んでいる。
Des recommandations à venir sur les responsabilités des acteurs de la chaîne de valeur de l’IA AI価値チェーンにおける関係者の責任に関する今後の推奨事項
Au second semestre 2025, la CNIL publiera de nouvelles recommandations pour éclairer les acteurs de la chaîne de création d’un système d’IA (concepteurs de modèles, hébergeurs, réutilisateurs, intégrateurs, etc.) sur leurs responsabilités au regard du RGPD. 2025年後半、CNILは、AIシステム作成チェーンの関係者(モデル設計者、ホスト、再利用者、統合者など)に対し、GDPRに基づく責任について説明する新たな推奨事項を公表する。
L’objectif sera notamment de : 主な目的は以下の通りである:
・de préciser les conséquences de l’application du RGPD aux modèles qui ne seraient pas anonymes ; ・GDPRを匿名化されていないモデルに適用した場合の影響を明確化すること;
・d’étudier le cas de l’open source, pratique essentielle pour le développement des technologies d’IA. ・AI技術の開発において不可欠な実践であるオープンソースのケースを研究すること。
Ces recommandations feront l’objet d’une consultation publique afin d’associer l’ensemble de la communauté aux réflexions. これらの推奨事項は、議論に全関係者を巻き込むため、公開意見募集の対象となる。
Des outils techniques pour les professionnels 専門家向けの技術ツール
Pour faciliter la mise en œuvre concrète de ses recommandations, la CNIL développe un outillage technique adapté. 推奨事項の実務的な実施を容易にするため、CNILは適切な技術ツールの開発を進めている。
Elle a ainsi lancé le projet partenarial PANAME (Privacy AuditiNg of Ai ModEls) avec l’ Agence nationale de la sécurité des systèmes d'information (ANSSI), le programme et équipements prioritaires de recherche iPoP (Interdisciplinary Project on Privacy) et le Pôle d'Expertise de la Régulation Numérique (PEReN). Ce projet vise à développer une bibliothèque logicielle destinée à évaluer si un modèle traite ou non des données personnelles. Cet outil permettra d’offrir des solutions techniques concrètes et opérationnelles aux développeurs et utilisateurs de modèles d’IA, faisant le lien entre les recommandations de la CNIL et leur mise en œuvre pratique sur le terrain. そのため、CNIL は、フランス国家サイバーセキュリティ庁(ANSSI)、iPoP(プライバシーに関する学際的プロジェクト)優先研究プログラムおよび設備、デジタル規制専門知識センター(PEReN)と共同で、PANAME(Privacy AuditiNg of Ai ModEls)パートナーシッププロジェクトを立ち上げた。このプロジェクトは、モデルが個人データを処理しているかどうかを評価するためのソフトウェアライブラリを開発することを目的としている。このツールは、AI モデルの開発者やユーザーに具体的かつ実用的な技術的ソリューションを提供し、CNIL の推奨事項を現場での実践に結びつけるものである。
Des travaux de recherche sur l’explicabilité dans le domaine de l’IA (xAI) AI 分野の説明可能性に関する研究 (xAI)
Lancé à l’été 2024, un travail de recherche sur l’explicabilité des modèles d’IA (xAI) est en cours. La CNIL publiera prochainement, sur le site de son laboratoire LINC, les premiers résultats de ce projet. Ceux-ci s’appuient sur des analyses mathématiques des techniques utilisées, croisées avec des éléments quantitatifs et qualitatifs issus des sciences sociales, qui sont menées en collaboration avec des chercheurs de SciencesPo et du Centre de recherche en économie et statistique (CREST). 2024 年夏に開始された AI モデルの説明可能性に関する研究 (xAI) が現在進行中である。CNIL は、このプロジェクトの初期成果を LINC 研究所のウェブサイトに間もなく公開する予定である。これらの結果は、使用された手法の数学的分析と、社会科学の定量的および定性的データとの相互参照に基づいており、SciencesPo および経済統計研究センター(CREST)の研究者との協力により実施されている。
Ces travaux permettront d’apporter de la sécurité juridique aux acteurs qui souhaitent mettre en œuvre ces technologies dans ces secteurs et ainsi accompagner le développement d’une IA innovante et respectueuse des droits. この作業は、これらの分野においてこれらの技術を実装したいと考える関係者に法的確実性を提供し、それによって権利を尊重する革新的な AI の開発を支援するものである。
Texte reference 参考資料
Pour approfondir 詳細
Les fiches pratiques IA AI ファクトシート
Développement des systèmes d’IA : les recommandations de la CNIL pour respecter le RGPD AI システムの開発:GDPR の遵守に関する CNIL の推奨事項
À télécharger ダウンロード
Consultation publique - Questionnaire sur l'application du RGPD aux modèles d'IA : Synthèse des contributions ・公開協議 - AI モデルへの GDPR の適用に関するアンケート:意見の要約
Consultation publique - Fiches pratiques IA sur l'annotation des données et la sécurité du développement des systèmes d'IA : Synthèse des contributions ・公開協議 - データアノテーションと AI システム開発のセキュリティに関する AI ファクトシート:意見の要約
Développement des systèmes d'IA : Que faut-il vérifier ? ・AI システムの開発:確認すべき事項

 

AI実践ガイド...

Les fiches pratiques IA

Les fiches pratiques IA AI 実践ガイド
Fiche synthèse 概要
Les recommandations de la CNIL en bref CNIL の推奨事項の概要
Les recommandations de la CNIL sur l’application du RGPD au développement des systèmes d’IA permettent de concilier innovation et respect des droits des personnes. Que faut-il retenir ? AI システムの開発における GDPR の適用に関する CNIL の推奨事項は、イノベーションと個人の権利の尊重の両立を可能にする。重要なポイントは何ですか?
Note : cette synthèse ne concerne que les fiches « Introduction » à 7 pour le moment. 注:この概要は、現時点では「導入」の 7 つのシートのみを対象としている。
> En savoir plus > 詳細
Introduction 導入
Quel est le périmètre des fiches pratiques sur l’IA ? AI に関する実践的情報シートの範囲
La CNIL apporte des réponses concrètes pour la constitution de bases de données utilisées pour l’apprentissage des systèmes d’intelligence artificielle (IA), qui impliquent des données personnelles. CNIL は、個人データを含む人工知能(AI)システムの学習に使用されるデータベースの構築について、具体的な回答を提供している。
> En savoir plus > 詳細
Fiche 1 シート 1
Déterminer le régime juridique applicable 適用される法的枠組みの決定
La CNIL vous aide à déterminer le régime juridique applicable aux traitements de données personnelles en phase de développement. CNIL は、開発段階にある個人データの処理に適用される法的枠組みの決定を支援している。
> En savoir plus > 詳細
Fiche 2 シート 2
Définir une finalité 目的の設定
La CNIL vous aide à définir la ou les finalités en tenant compte des spécificités du développement de systèmes d’IA. CNIL は、AI システムの開発の特殊性を考慮して、目的を設定する支援を行っている。
> En savoir plus > 詳細
Fiche 3 シート 3
Déterminer la qualification juridique des fournisseurs de systèmes d’IA AI システムプロバイダーの法的資格を決定する
Responsable de traitement, responsable conjoint ou sous-traitant : la CNIL aide les fournisseurs de systèmes d’IA à déterminer leur qualification. データ管理者、共同管理者、または委託業者:CNIL は、AI システムプロバイダーが自らの資格を決定するお手伝いをしている。
> En savoir plus > 詳細
Fiche 4 シート 4
(1/2) (1/2)
Assurer que le traitement est licite - Définir une base légale 処理が合法であることを確認する - 法的根拠を定義する
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données. CNIL は、お客様の責任およびデータの収集または再利用の方法に応じて、お客様の義務を決定するお手伝いをします。
> En savoir plus > 詳細
Fiche 4 シート 4
(2/2) (2/2)
Assurer que le traitement est licite - En cas de réutilisation des données 処理が合法であることを確認する - データの再利用の場合
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données. CNIL は、お客様の責任およびデータの収集または再利用の方法に応じて、お客様の義務を決定するお手伝いをします。
> En savoir plus > 詳細
Fiche 5 シート 5
Réaliser une analyse d’impact si nécessaire 必要に応じて影響評価を実施する
La CNIL vous explique comment et dans quels cas réaliser une analyse d’impact sur la protection des données (AIPD) en tenant compte des risques spécifiques au développement de modèles d’IA. CNIL は、AI モデルの開発に特有のリスクを考慮して、データ保護に関する影響評価 (AIPD) を実施する方法と、その実施すべき場合について説明している。
> En savoir plus > 詳細
Fiche 6 シート 6
Tenir compte de la protection des données dans la conception du système システムの設計においてデータ保護を考慮する
Pour assurer le développement d’un système d’IA respectueux de la protection des données, il est nécessaire de mener une réflexion préalable lors de la conception du système. La CNIL en détaille les étapes. データ保護に配慮した AI システムを開発するには、システムの設計段階で事前の検討を行う必要がある。CNIL はその手順を詳しく説明している。
> En savoir plus > 詳細
Fiche 7 シート 7
Tenir compte de la protection des données dans la collecte et la gestion des données データの収集および管理においてデータ保護を考慮する
La CNIL donne les bonnes pratiques pour sélectionner les données et limiter leur traitement afin d’entraîner un modèle performant dans le respect des principes de protection des données dès la conception et par défaut. CNIL は、設計段階から、そしてデフォルトでデータ保護の原則を遵守しながら、高性能のモデルをトレーニングするために、データの選択と処理の制限に関するベストプラクティスを紹介している。
> En savoir plus > 詳細
Fiche 8 シート 8
Mobiliser la base légale de l’intérêt légitime pour développer un système d’IA AI システムの開発における正当な利益の法的根拠の活用
La base légale de l’intérêt légitime sera la plus couramment utilisée pour le développement de systèmes d’IA. Cette base légale ne peut toutefois pas être mobilisée sans en respecter les conditions et mettre en œuvre des garanties suffisantes. AI システムの開発には、正当な利益の法的根拠が最もよく利用される。ただし、この法的根拠は、その条件を守り、十分な保証措置を講じなければ利用できない。
> En savoir plus > 詳細
Fiche 8 bis シート 8 bis
Fiche focus moissonnage フォーカスシート データハーベスティング
La base légale de l’intérêt légitime : fiche focus sur les mesures à prendre en cas de collecte des données par moissonnage (web scraping) 正当な利益の法的根拠:データハーベスティング(ウェブスクレイピング)によるデータ収集の際に講じるべき措置に関するフォーカスシート
La collecte des données accessibles en ligne par moissonnage (web scraping) doit être accompagnée de mesures visant à garantir les droits des personnes concernées. ウェブスクレイピングによるオンラインでアクセス可能なデータの収集には、関係者の権利を保証するための措置を講じる必要がある。
> En savoir plus > 詳細
Fiche 9 シート 9
Informer les personnes concernées 関係者への情報提供
Les organismes qui traitent des données personnelles pour développer des modèles ou des systèmes d’IA doivent informer les personnes concernées. La CNIL précise les obligations en la matière. AI モデルやシステムの開発のために個人データを処理する機関は、関係者にその旨を通知しなければならない。CNIL は、この点に関する義務を明確にしている。
> En savoir plus > 詳細
Fiche 10 シート 10
Respecter et faciliter l’exercice des droits des personnes concernées 関係者の権利の尊重と行使の促進
Les personnes dont les données sont collectées, utilisées ou réutilisées pour développer un système d’IA disposent de droits sur leurs données qui leur permettent d’en conserver la maîtrise. Il appartient aux responsables des traitements de les respecter et d’en faciliter l’exercice. AI システムの開発のためにデータが収集、使用、再利用される個人は、そのデータに関する権利を有しており、そのデータを管理することができる。データ処理責任者は、これらの権利を尊重し、その行使を促進する義務がある。
> En savoir plus > 詳細
Fiche 11 シート 11
Annoter les données データの注釈
La phase d’annotation des données est cruciale pour garantir la qualité du modèle entraîné. Cet enjeu de performance peut être atteint au moyen d’une méthodologie rigoureuse garantissant le respect de la protection des données personnelles. データの注釈段階は、トレーニングされたモデルの品質を確保するために非常に重要だ。このパフォーマンス上の課題は、個人データの保護を確実に遵守する厳格な方法論によって達成することができる。
> En savoir plus > 詳細
Fiche 12 シート 12
Garantir la sécurité du développement d’un système d’IA AI システム開発のセキュリティ保証
La sécurité des systèmes d’IA est une obligation afin de garantir la protection des données tant lors du développement du système que par anticipation de son déploiement. Cette fiche détaille les risques et mesures à prendre recommandées par la CNIL. AIシステムのセキュリティは、システムの開発段階から展開前の段階まで、データの保護を保証するために必須の要件である。この資料では、CNILが推奨するリスクと対応策を詳細に説明する。
> En savoir plus > 詳細
Fiche 13 シート 13
IA : Analyser le statut d’un modèle d’IA au regard du RGPD
AIモデルのGDPR適用の可否分析
Les modèles d’IA peuvent relever du RGPD s’ils mémorisent des données personnelles issues de leur entraînement. La CNIL propose une méthode à destination des fournisseurs pour évaluer si leurs modèles sont soumis au RGPD ou non. AI モデルは、そのトレーニングで取得した個人データを記憶している場合、GDPR の適用対象となる可能性がある。CNIL は、サプライヤーが自社のモデルが GDPRの適用対象であるかどうかを評価するための手法を提案しています。
> En savoir plus > 詳細

 


データの注釈

・2025.07.22 IA : Annoter les données

IA : Annoter les données AI:データの注釈
La phase d’annotation des données est cruciale pour garantir la qualité du modèle entraîné. Cet enjeu de performance peut être atteint au moyen d’une méthodologie rigoureuse garantissant le respect de la protection des données personnelles. データのannotation段階は、トレーニングされたモデルの品質を保証するために不可欠である。このパフォーマンスの課題は、個人データの保護を遵守する厳格なメソドロジーにより達成可能である。
La phase d’annotation des données est une étape déterminante dans le développement d’un modèle d’IA de qualité, tant pour des enjeux de performance que pour le respect des droits des personnes. Cette étape est centrale en apprentissage supervisé, mais peut également permettre d’obtenir un jeu de validation en apprentissage non-supervisé. Elle consiste à attribuer une description, appelée « label » ou « étiquette », à chacune des données qui servira de « vérité de terrain » (ground truth) pour le modèle qui doit apprendre à traiter, classer, ou encore discriminer les données en fonction de ces informations. データ注釈段階は、パフォーマンスの課題と個人の権利の尊重の両方の観点から、高品質の AI モデルを開発する上で決定的な段階だ。この段階は、教師あり学習では中心的な役割を果たすが、教師なし学習では検証用データセットの取得にも役立つ。これは、学習モデルがデータを処理、分類、またはこれらの情報に基づいて判別することを学ぶための「現場真実(ground truth)」となる、各データに「ラベル」と呼ばれる説明文を割り当てる作業だ。
L’annotation peut porter sur tous types de données, personnelles ou non, et contenir tous types d’informations, personnelles ou non. L’annotation peut être humaine, semi-automatique, ou automatique. Elle peut être un procédé à part entière, ou résulter de processus existants lors desquels une caractérisation des données a déjà été réalisée pour un certain besoin, puis réutilisée pour l’entraînement de modèles d’IA (comme dans le cas du diagnostic médical décrit ci-dessous). Dans certains cas, l'entraînement de l'IA reposera sur des données et annotations existantes. 注釈は、個人データかどうかに関わらず、あらゆる種類のデータに付けられ、個人データかどうかに関わらず、あらゆる種類の情報を含むことができる。アノテーションは、人間によるもの、半自動、または自動のものがある。これは、独立したプロセスである場合もあれば、特定のニーズのためにデータの特徴付けがすでに実施されており、その特徴付けを AI モデルのトレーニングに再利用する場合もある(後述の医療診断の場合など)。場合によっては、AI のトレーニングは既存のデータおよび注釈に基づいて行われる。
Cette fiche, ainsi que celles sur la protection des données lors du développement du système et de la collecte des données, devront alors être appliquées. Le périmètre de cette fiche vise l’ensemble des cas évoqués ci-dessus où l’annotation porte sur ou contient des données personnelles. その場合は、このシート、およびシステム開発およびデータ収集時のデータ保護に関するシートも適用する必要がある。このシートの適用範囲は、上記で述べた、注釈が個人データに関する、または個人データを含むすべてのケースである。
Exemples d’annotations : 注釈の例:
・Afin d’entraîner un modèle d’IA de reconnaissance du locuteur intégré dans un assistant vocal, des enregistrements vocaux sont annotés avec l’identité du locuteur ; ・音声アシスタントに組み込まれた話者認識 AI モデルをトレーニングするために、音声記録に話者の身元を注釈で付加する。
・Afin d’entraîner un modèle d’IA de détection de chutes intégré dans le système de vidéosurveillance d’un EHPAD, des images sont annotées avec la position des personnes représentées selon plusieurs labels tels que « debout » ou « couché » ; ・EHPAD のビデオ監視システムに組み込まれた転倒検出 AI モデルをトレーニングするために、画像に「立っている」や「横になっている」などの複数のラベルで、画像に写っている人物の位置を注釈で付加する。
・Afin d’entraîner un modèle d’IA de reconnaissance des plaques minéralogiques intégré dans une barrière d’accès à un espace privé, des images sont annotées avec la position des pixels contenant une plaque minéralogique ; ・私有地へのアクセスゲートに組み込まれたナンバープレート認識 AI モデルをトレーニングするために、ナンバープレートを含むピクセルの位置で画像に注釈を付ける。
・Afin d’entraîner un modèle d’IA de prédiction du risque d’une certaine pathologie, ayant vocation à être utilisé comme une aide au diagnostic par le personnel soignant d’un établissement hospitalier, les résultats sanguins de patients sont annotés avec le diagnostic réalisé par un médecin sur la pathologie en question. ・病院の医療スタッフが診断の補助として使用する、特定の疾患のリスクを予測する AI モデルをトレーニングするために、患者の血液検査結果に、医師が診断した疾患名が注釈として付されている。
Les enjeux de l’annotation pour les droits et libertés des personnes 注釈の課題と個人の権利・自由
Garantir la qualité de l’annotation 注釈の品質保証
L’information et l’exercice des droits 情報と権利の行使
L’annotation à partir de données sensibles 機微なデータに基づく注釈

 

 


 

AIシステム開発のセキュリティ保証

・2025.07.22 IA : Garantir la sécurité du développement d’un système d’IA

IA : Garantir la sécurité du développement d’un système d’IA AI:AIシステムの開発の安全性を確保する
La sécurité des systèmes d’IA est un enjeu trop souvent mis au second plan par leurs concepteurs. Elle reste pourtant une obligation afin de garantir la protection des données tant lors du développement du système que par anticipation de son déploiement. Cette fiche détaille les risques et mesures à prendre recommandés par la CNIL. AIシステムの安全性は、その設計者によってあまり重視されない傾向がある。しかし、システムの開発段階および導入前の段階において、データの保護を確保するためには、この安全性は依然として必須の要件である。この資料では、CNILが推奨するリスクと対策について詳しく説明している。
La sécurité des traitements de données personnelles est une obligation prévue par l’article 32 du RGPD. Celui-ci précise qu’elle doit être mise en œuvre en tenant compte « de l’état des connaissances, des coûts de mise en œuvre et de la nature, de la portée, du contexte et des finalités du traitement ainsi que des risques, dont le degré de probabilité et de gravité varie, pour les droits et libertés des personnes physiques ». La sécurité du traitement est donc une obligation qu’il convient de mettre en œuvre par des mesures adaptées aux risques. 個人データの処理のセキュリティは、GDPR第32条で義務付けられている。同条は、セキュリティは「知識のレベル、実施コスト、処理の性質、範囲、文脈、目的、および個人に対する権利と自由に対するリスク(その発生の可能性と深刻度の程度を含む)」を考慮して実施されなければならないと規定している。したがって、処理のセキュリティは、リスクに応じた適切な措置によって実施すべき義務である。
En pratique, pour le développement d’un système d’IA, y compris pour l’ajustement d’un modèle pré-entraîné (fine-tuning) utilisé pour le système, il convient de combiner une analyse de sécurité « classique » portant notamment sur la sécurité de l’environnement (ce qui inclut notamment les infrastructures, les habilitations, les sauvegardes, ou encore la sécurité physique) et celle du développement logiciel et de sa maintenance (ce qui inclut notamment la mise en œuvre des bonnes pratiques de développement, ou encore la gestion des vulnérabilités et des mises à jour) avec une analyse des risques spécifiques aux systèmes d’IA et aux bases de données d’entraînement de grande taille. 実際には、AI システムの開発(システムに使用される事前学習済みモデル(ファインチューニング)の調整を含む)においては、特に環境のセキュリティに関する「従来の」セキュリティ分析 (インフラストラクチャ、アクセス権限、バックアップ、物理的セキュリティなど)と、ソフトウェア開発およびそのメンテナンスの安全性(開発のベストプラクティスの実施、脆弱性管理、更新管理など)を、AIシステムおよび大規模なトレーニングデータベースに特有のリスク分析と組み合わせる必要がある。
Cette fiche détaille ainsi : このシートでは、以下の事項について詳しく説明している。
・l’approche méthodologique à adopter pour gérer la sécurité du développement d’un système d’IA ; AI システムの開発におけるセキュリティを管理するために採用すべき方法論的アプローチ
・les objectifs de sécurité principaux à viser lors du développement d’un système d’IA ; AI システムの開発において目指すべき主なセキュリティ目標
・les facteurs de risques à prendre en considération, dont certains sont spécifiques à l’IA ; 考慮すべきリスク要因(その一部は AI に特有のもの)
・les mesures recommandées afin de rendre le niveau de risque résiduel acceptable. 残存リスクを許容可能なレベルに抑えるために推奨される措置
L’approche méthodologique à adopter 採用すべき方法論的アプローチ
Les objectifs de sécurité liés au développement en IA AI開発に関連するセキュリティ目標
Les facteurs de risque pour la sécurité d’un système d’IA AIシステムのセキュリティに関するリスク要因
Les mesures de sécurité à envisager pour le développement d’un système d’IA AIシステムの開発において検討すべきセキュリティ対策
Ressources utiles 有用なリソース

 


 

AIモデルのGDPR適用の可否分析

・2025.07.22 IA : Analyser le statut d’un modèle d’IA au regard du RGPD

 

IA : Analyser le statut d’un modèle d’IA au regard du RGPD AI:AIモデルのGDPR適用の可否分析
Les modèles d’IA peuvent relever du RGPD s’ils mémorisent des données personnelles issues de leur entraînement. La CNIL propose une méthode à destination des fournisseurs pour évaluer si leurs modèles sont soumis au RGPD ou non. AI モデルは、そのトレーニングから取得した個人データを記憶している場合、GDPR の適用対象となる可能性がある。CNIL は、サプライヤーが自社のモデルが GDPR の適用対象であるかどうかを評価するための手法を提案している。
Les modèles d’IA peuvent être anonymes : le RGPD ne leur est alors pas applicable. AIモデルは匿名である場合があり、その場合はGDPRは適用されない。
Dans certains cas, les modèles d’IA mémorisent une partie des données utilisées pour leur apprentissage, il devient alors possible d’en extraire des données personnelles, si celles-ci étaient présentent dans le jeu d’entraînement. Quand cette extraction a lieu avec des moyens raisonnablement susceptibles d’être mis en œuvre, ces modèles entrent dans le champ d’application du RGPD. La CNIL aide les fournisseurs de modèles à déterminer si cela est le cas ou non. 場合によっては、AIモデルは学習に使用したデータの一部を記憶するため、そのデータセットに個人情報が含まれている場合、その個人情報を抽出することが可能になる。この抽出が合理的に実施される可能性のある手段によって行われる場合、これらのモデルはRGPDの適用対象となる。CNILは、モデル提供者がこれが該当するか否かを判断するための支援を行っている。
De quoi parle-t-on ? 何について話しているの?
Mise en œuvre de l’analyse 分析の実施

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.07.01 フランス CNIL AIシステムの開発:正当な利益に関する勧告(AIの学習のためのウェブスクレイピングの問題等)(2025.06.19)

・2025.02.10 フランス CNIL AIについてガイダンス(データ主体への通知、データ主体の権利行使の尊重と促進)(2025.02.07)

・2024.04.11 フランス CNIL 人工知能システムの開発に関する勧告

 

|

« 英国 議会情報・安全保障委員会 英国に対するイランの脅威と英国の対応について調査した「イラン」報告書を議会に提出(2025.07.10) | Main | オランダ データ保護庁 「AI による感情認識は疑わしく、リスクが高い」(2025.07.15) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 英国 議会情報・安全保障委員会 英国に対するイランの脅威と英国の対応について調査した「イラン」報告書を議会に提出(2025.07.10) | Main | オランダ データ保護庁 「AI による感情認識は疑わしく、リスクが高い」(2025.07.15) »