« 米国 CISA ホワイトペーパー サイバーフィジカル重要インフラの回復力を高めるための研究、開発、イノベーション:ニーズと戦略的行動 | Main | フランス CNIL Cookieに関するウェブプラクティスの変化:CNILが行動計画の影響を評価 »

2023.05.18

フランス CNIL 人工知能に対する行動計画

こんにちは、丸山満彦です。

AIの開発・運用とプライバシーの問題は、きってもきりはなせないですからね。。。CNILがAIに対する行動計画について公表していますね。。。

ポイントは次の4つですかね。。。

1. Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes 1. AIシステムの機能および個人への影響を理解する。
2. Permettre et encadrer le développement d’IA respectueuses des données personnelles 2. 個人データを尊重するAIの開発を可能にし、監督する。
3. Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe 3. フランスおよび欧州のAIエコシステムの革新的な関係者を連携させ、支援する。
4. Auditer et contrôler les systèmes d’IA et protéger les personnes 4. AIシステムを監査・管理し、個人を保護する

 

それにしても、システム監査の団体が、AIについては割と静かな感じがするんですけど、まさにシステム監査が重要な場面なので、活発な議論が期待されますね。。。(2023.06.16 システム監査学会第37回研究大会

 

⚫︎ CNIL

・2023.05.16 Intelligence artificielle : le plan d’action de la CNIL

 

Intelligence artificielle : le plan d’action de la CNIL 人工知能:CNILの行動計画
Devant les récentes actualités sur l’intelligence artificielle, et en particulier des IA dites génératives telles que ChatGPT, la CNIL publie un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus. 人工知能、特にChatGPTのようないわゆる生成型AIに関する最近のニュースを踏まえ、CNILは個人のプライバシーを尊重したAIシステムの展開に向けた行動計画を発表する。
L’essentiel : 要点:
・La CNIL a engagé depuis plusieurs années des travaux pour anticiper et répondre aux enjeux soulevés par l’IA. ・CNILは数年前から、AIが提起する問題を予測し、それに対応するための活動を続けている。
・En 2023, elle va prolonger son action sur les caméras augmentées et souhaite élargir ses travaux aux IA génératives aux grands modèles de langage et aux applications dérivées (notamment les chatbots). ・2023年には、拡張カメラに関する活動を拡大し、生成型AIに関する活動を大規模な言語モデルや派生アプリケーション(チャットボットを含む)にも広げたいと考えている。
・Son plan d’action s’articule autour de 4 volets : ・その行動計画は、4つの要素に基づいている:
・・appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes ; ・・AIシステムの機能と人々への影響について理解する。
・・permettre et encadrer le développement d’IA respectueuses de la vie privée ; ・・個人データを尊重するAIの開発を可能にし、監督する;
・・fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe ; ・・フランスおよび欧州のAIエコシステムの革新的な関係者を連連携させ、支援する;
・・auditer et contrôler les systèmes d’IA et protéger les personnes. ・・AIシステムを監査・管理し、個人を保護する。
・Ces travaux permettront également de préparer l’entrée en application du projet de règlement européen IA, actuellement en cours de discussion. ・また、この作業は、現在議論されている欧州のAI規制案の実施に向けた準備にもなる。
La protection des données personnelles, un enjeu fondamental dans le développement de l’IA AIの発展における基本的な問題である個人データ保護
Le développement de l’IA s’accompagne d’enjeux en matière de protection des données et des libertés individuelles auxquels la CNIL s’attache à répondre depuis maintenant plusieurs années. Depuis la publication en 2017 de son rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, la CNIL s'est prononcée à plusieurs reprises sur les questions soulevées par les nouveaux outils amenés par cette nouvelle technologie. AIの発展には、CNILが数年前から取り組んでいるデータ保護と個人の自由の問題が伴う。2017年にアルゴリズムと人工知能の倫理的問題に関する報告書を発表して以来、CNILは、この新しい技術がもたらす新しいツールがもたらす問題について、何度か意見を表明してきた。
En particulier, les intelligences artificielles génératives (voir encadré ci-dessous) se développent rapidement depuis plusieurs mois, que ce soit dans le domaine du texte et de la conversation, via les grands modèles de langage (Large Language Models ou LLMs en anglais), tels que GPT-3, BLOOM ou Megatron NLG et les agents conversationnels (« chatbots ») dérivés (ChatGPT ou Bard), mais également dans ceux de l’imagerie (Dall-E, Midjourney, Stable Diffusion, etc.) ou encore de la parole (Vall-E). 特に、GPT-3、BLOOM、Megatron NLGなどの大規模言語モデル(LLM)や派生するチャットボット(ChatGPTやBard)を介したテキストや会話の分野でも、画像(Dall-E、Midjourney、Stable Diffusionなど)または音声(Vall-E)分野でも、生成人工知能(以下のボックスを参照)は数ヶ月前から急速に発展してきている。
Ces modèles de fondation (Foundation models en anglais) et les briques technologiques qui se reposent sur eux semblent d’ores et déjà trouver de nombreux cas d’application dans des secteurs variés. Néanmoins, la compréhension de leur fonctionnement, de leurs possibilités et de leurs limites, ainsi que les enjeux juridiques, éthiques et techniques autour de leur développement et leur usage restent encore largement en débat. これらの基盤モデルやそれに基づく技術的な構成要素は、すでに様々な分野で多くの応用が期待されているようだ。しかし、その機能、可能性、限界の理解や、開発・利用を取り巻く法的、倫理的、技術的な問題は、まだほとんど議論されていない。
Considérant que la protection des données personnelles est un enjeu majeur pour la conception et l’utilisation de ces outils, la CNIL publie son plan d’action sur l’intelligence artificielle qui vise – entre autres – à encadrer le développement des IA génératives. 個人データの保護は、これらのツールの設計と使用にとって大きな問題であることを考慮し、CNILは人工知能に関する行動計画を発表し、特に、生成型AIの開発を促進することを目的としている。
Qu’est-ce qu’une IA générative ? 生成型AIとは何であるか?
Une intelligence artificielle générative est un système capable de créer du texte, des images ou d’autres contenus (musique, vidéo, voix, etc.) à partir d’une instruction d’un utilisateur humain. Ces systèmes peuvent produire des nouveaux contenus à partir de données d’entraînement. Leurs performances sont aujourd’hui proches de certaines productions réalisées par des personnes en raison de la grande quantité de données ayant servi pour leur entraînement. Ces systèmes nécessitent toutefois que l’utilisateur spécifie clairement ses requêtes pour obtenir les résultats attendus. Se développe donc un véritable savoir-faire autour de la composition des requêtes de l'utilisateur (prompt engineering).   生成型AIとは、人間のユーザーからの指示に基づいて、テキスト、画像、その他のコンテンツ(音楽、ビデオ、音声など)を作成できるシステムである。これらのシステムは、学習データから新しいコンテンツを作り出すことができる。その性能は、訓練に使用するデータが多いため、人が作った作品に近いものも出てきている。しかし、期待通りの結果を得るためには、ユーザーの要望を明確にする必要がある。そのため、ユーザーの要望を構成する(プロンプトエンジニアリング)ことに真のノウハウが生まれつつある。  
Par exemple, l’image ci-dessous, intitulée « Théâtre d’Opéra Spatial » a été générée par l’utilisateur Jason M. Allen grâce à l’outil Midjourney sur la base d’une instruction textuelle décrivant ses attentes (décor théâtral, toges, inspirations picturales, etc.). 例えば、「スペースオペラ劇場」と題された下の画像は、ユーザーのJason M. AllenがMidjourneyツールによって、期待すること(劇場装飾、ガウン、絵のインスピレーションなど)を記述したテキスト指示に基づき生成したものである。
1_20230518051401
Crédit : Jason M. Allen (2022), licence CCo クレジット:Jason M. Allen (2022), CCoライセンス
Un plan d’action en quatre volets 4つの行動計画
La CNIL a engagé depuis plusieurs années des travaux visant à anticiper et à répondre aux défis posés par l’intelligence artificielle, ses différentes déclinaisons (classification, prédiction, génération de contenus, etc.) et ses différents cas d’usage. Son nouveau service de l’intelligence artificielle sera dédié à ces questions, et appuiera les autres services de la CNIL qui sont également confrontés à des utilisations de ces algorithmes dans de nombreux contextes. 数年前からCNILは、人工知能、そのさまざまな形態(分類、予測、コンテンツ生成など)、そのさまざまな用途がもたらす課題を予測し、それに対応するために取り組んできた。新しい人工知能部門は、これらの問題を専門に扱うとともに、多くの文脈でこれらのアルゴリズムの使用に直面しているCNILの他の部門をサポートする予定である。
Face aux enjeux liés à la protection des libertés, à l’accélération de l’IA et à l’actualité liée aux IA génératives, la régulation de l’intelligence artificielle constitue un axe principal de l’action de la CNIL. 自由の保護、AIの加速、生成的AIに関するニュースに関連する課題に直面し、人工知能の規制はCNILの活動の主な焦点となっている。
Cette régulation se structure autour de quatre objectifs : この規制は、4つの目的を中心に構成されている:
・Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes ・AIシステムの機能および個人への影響を理解する。
・Permettre et encadrer le développement d’IA respectueuses des données personnelles ・個人データを尊重するAIの開発を可能にし、監督する。
・Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe ・フランスおよび欧州のAIエコシステムの革新的な関係者を連携させ、支援する。
・Auditer et contrôler les systèmes d’IA et protéger les personnes ・AIシステムを監査・管理し、個人を保護する
1. Appréhender le fonctionnement des systèmes d’IA et leurs impacts sur les personnes 1. AIシステムの機能と個人への影響を理解する。
Les techniques innovantes utilisées pour la conception et le fonctionnement des outils d’IA posent des questions nouvelles sur la protection des données, en particulier : AIツールの設計と運用に使用される革新的な技術は、特にデータ保護に関する新たな問題を提起する。
・la loyauté et la transparence des traitements de données sous-jacents au fonctionnement de ces outils ; AIツールの運用の基礎となるデータ処理の公正さと透明性
la protection des données publiquement accessibles sur le Web face à l’utilisation du moissonnage, ou scraping, de données pour la conception des outils ; ツールの設計にデータハーベスティング(スクレイピング)が使用されている場合、ウェブ上で一般にアクセス可能なデータの保護。
la protection des données transmises par les utilisateurs lorsqu’ils utilisent ces outils, allant de leur collecte (via une interface) à leur éventuelle réutilisation, en passant par leur traitement par les algorithmes d’apprentissage automatique  ; 機械学習アルゴリズムによる処理を含む、(インターフェースを介した)収集から再利用の可能性に至るまで、ユーザーがこれらのツールを使用する際に送信するデータの保護;
les conséquences sur les droits des personnes sur leurs données, tant en ce qui concerne celles collectées pour l’apprentissage de modèles que celles qui peuvent être fournies par ces systèmes, telles que les contenus créés dans le cas d’IA génératives ; モデル学習のために収集されたデータ、および生成型AIの場合に作成されるコンテンツなど、これらのシステムによって提供される可能性のあるデータの両方に関して、データに対する個人の権利に及ぼす影響;
la protection contre les biais et les discriminations susceptible de survenir ;   発生しうる偏見や差別に対する保護;  
・les enjeux de sécurité inédits de ces outils. これらのツールは、かつてないほどのセキュリティ上の課題を抱えている
Ces aspects constitueront un des axes de travail prioritaires pour le service de l’intelligence artificielle et le laboratoire d’innovation numérique de la CNIL (LINC). これらの側面は、人工知能部門とCNILのデジタルイノベーション研究所(LINC)が優先的に取り組むべき分野の1つである。
DOSSIER DU LINC LINCファイル
Afin de souligner certains de ces enjeux spécifiques aux IA générativesle Laboratoire d’innovation numérique de la CNIL (LINC) a publié un dossier qui leur est consacré. Constitué de quatre volets, ce dossier : CNILのデジタル・イノベーション・ラボラトリー(LINC)は、生成型AIの具体的な問題のいくつかを強調するために、それらに特化した資料を発表しました。 このファイルは、4つのパートから構成されている:
・détaille le fonctionnement technique des agents conversationnels récents et rappelle la place centrale des données pour la constitution des modèles de fondation sous-jacents ; ・最近の会話型エージェントの技術的機能を詳述し、基礎となるモデルの構成におけるデータの中心的位置を想起させる。
・expose différentes questions juridiques posées par la conception de ces modèles, tant pour la propriété intellectuelle que pour la protection des données ; ・知的財産とデータ保護の両面で、これらのモデルの設計がもたらすさまざまな法的問題を概説する;
・précise les enjeux éthiques des IA génératives pour la fiabilité de l’information, les utilisations malveillantes ainsi que les pistes de la détection et de l’avertissement du public quant à la présence de contenus ainsi générés ; ・情報の信頼性、悪意のある使用、そのような生成されたコンテンツの存在を検知して一般に警告する手段など、生成型AIの倫理的利害を明らかにする;
・illustre par différentes expérimentations les usages positifs ou négatifs qui peuvent être faits de ces outils. ・様々な実験を通して、これらのツールのポジティブまたはネガティブな利用法を説明する。
Ce dossier complète les ressources proposées par la CNIL sur son site web pour les professionnels et le grand public. この資料は、CNILが専門家や一般市民向けにウェブサイト上で提供するリソースを補完するものである。
2. Permettre et encadrer le développement d’IA respectueuses des données personnelles 2. 個人データを尊重するAIの開発を可能にし、監督する。
De nombreux acteurs ont fait part à la CNIL de l’incertitude entourant l’application du RGPD à l’IA, notamment pour l’entraînement des IA génératives. 多くの関係者が、GDPRのAIへの適用、特にジェネレーティブAIの育成をめぐる不確実性をCNILに伝えている。
Afin d’accompagner les acteurs du domaine de l’intelligence artificielle et pour préparer l’entrée en application du règlement européen sur l’IA (en cours de discussion au niveau européen et sur lequel la CNIL et ses homologues européennes avaient publié un avis en 2021), la CNIL propose déjà : 人工知能分野の関係者に寄り添い、AIに関する欧州規制(欧州レベルで議論中で、CNILと欧州の関係者が2021年に意見を発表していた)の発効を準備するため、CNILはすでに提案を行っている:
de premières fiches sur l’IA, publiées en 2022sur cnil.fr, comprenant notamment des contenus pédagogiques sur les grands principes de l’IA et un guide pour accompagner les professionnels dans leur mise en conformité ; ・AIに関する最初のファクトシート(2022年にcnil.frで発行、特にAIの主要原則に関する教育コンテンツと、専門家のコンプライアンスを支援するガイドを含む
une position, également publiée en 2022, sur l’usage de la vidéosurveillance « augmentée » qui utilise l’IA sur des images de l’espace public. ・公共空間の映像にAIを使用する「拡張型」ビデオ監視の使用に関する見解(同じく2022年発表)。
Elle poursuit ses travaux doctrinaux et publiera prochainement plusieurs documents. Ainsi : また、現在も教義的な作業を続けており、近々いくつかの文書を発表する予定である。このように
・la CNIL soumettra bientôt à une consultation un guide sur les règles applicables au partage et à la réutilisation de données. Ces travaux incluront notamment la question de la réutilisation de données librement accessibles sur internet et aujourd’hui utilisées pour l’apprentissage de nombreux modèles d’IA. Ce guide sera donc pertinent pour toute une partie des traitements de données nécessaires à la conception des systèmes d’IA, dont les IA génératives. CNILは、データの共有と再利用に適用される規則に関するガイドを近日中に提出し、協議する予定である。 この作業には、特に、インターネット上で自由にアクセスでき、現在多くのAIモデルのトレーニングに使用されているデータの再利用に関する問題が含まれる予定である。したがって、このガイドは、生成AIを含むAIシステムの設計に必要なデータ処理の一部と関連することになる。
elle poursuivra également ses travaux sur la conception de systèmes d’IA et la constitution de bases de données pour l’apprentissage automatique. Ceux-ci donneront lieu à plusieurs publications à partir de l’été 2023, à la suite de la concertation qui a déjà été organisée avec plusieurs acteurs, afin d’apporter des recommandations concrètes, notamment en ce qui concerne la conception des systèmes d’IA comme ChatGPT. Les thématiques suivantes seront progressivement abordées
:
・また、AIシステムの設計や機械学習のためのデータベースの構成に関する作業も継続する予定である。 特にChatGPTのようなAIシステムの設計に関して、具体的な提言を行うため、すでに開催された関係者との協議に基づき、2023年夏からいくつかの出版物を作成する予定である。以下のトピックを順次取り上げていく予定である。
・・l’utilisation du régime de la recherche scientifique pour la constitution et la réutilisation des bases de données d’entraînement ; ・・トレーニングデータベースの構築と再利用のための科学研究制度の利用;
・・l’application du principe de finalité aux IA à usage général et aux modèles de fondation que sont par exemple les grands modèles de langage ; ・・汎用AIや大規模言語モデルのような基礎モデルへの最終性の原則の適用。
・・l’explicitation du partage des responsabilités entre les entités qui constituent les bases de données, celles qui élaborent des modèles à partir de ces données et celles qui utilisent ces modèles ; ・・データベースを構成する主体、これらのデータからモデルを開発する主体、これらのモデルを使用する主体間の責任分担を明確にすること;
・・les règles et bonnes pratiques applicables à la sélection des données pour l’entraînement, au regard des principe d’exactitude et de minimisation des données ; ・・データの正確性と最小化の原則を考慮した、トレーニング用データの選択に適用されるルールとグッドプラクティス;
・・la gestion des droits des personnes et notamment les droits d’accès, de rectification et d’opposition ; ・・個人の権利、特にアクセス権、修正権、異議申立権の管理
・・les règles applicables concernant la durée de conservation, notamment pour les bases d’entraînement et les modèles les plus complexes à constituer ; ・・保存期間に関する適用規則、特にトレーニング用データベースと設定される最も複雑なモデルについて;
・enfin, consciente que les problématiques soulevées par les systèmes d’intelligence artificielle ne s’arrêtent pas à leur conception, la CNIL poursuit également ses réflexions éthiques sur l’utilisation et le partage des modèles d’apprentissage automatique, la prévention et la correction des biais et discriminations, ou encore sur la certification des systèmes d’IA. ・最後に、人工知能システムが引き起こす問題はその設計にとどまらないことを認識し、CNILは機械学習モデルの使用と共有、偏見と差別の防止と是正、AIシステムの認証に関する倫理的考察も進めている。
3. Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe 3. フランスおよび欧州のAIエコシステムの革新的な関係者を連携させ、支援する。
La régulation de l’IA de la CNIL vise à faire émerger, promouvoir et aider à prospérer des acteurs dans un cadre fidèle aux valeurs de protection de droits et libertés fondamentaux françaises et européennes. Cet accompagnement, déjà engagé, prend trois formes : CNILのAI規制は、フランスおよび欧州の基本的権利と自由の保護という価値観に忠実な枠組みで、アクターの出現、促進、繁栄を支援することを目的としている。この支援は、すでに進行中であり、3つの形態がある:
・la CNIL a lancé depuis 2 ans un « bac à sable » pour accompagner les projets et acteurs innovants, ce qui l’a notamment conduite à se pencher sur des projets reposant sur l’IA. Les « bacs à sable » sur la santé en 2021 (12 projets accompagnés) et sur l’éducation en 2022 (10 projets accompagnés) ont ainsi permis de fournir des conseils adaptés à des acteurs innovants de l’IA dans ces domaines. La CNIL ouvrira bientôt un nouvel appel à projet pour l’édition de 2023, qui concernera notamment l’usage de l’intelligence artificielle dans le secteur public ; ・2年前、CNILは革新的なプロジェクトやアクターを支援するための「サンドボックス」を立ち上げ、AIに基づくプロジェクトに焦点を当てることになった。2021年の健康に関する「サンドボックス」(12プロジェクトが支援)、2022年の教育に関する「サンドボックス」(10プロジェクトが支援)により、これらの分野における革新的なAIアクターに適応したアドバイスを提供することが可能になった。CNILは、2023年版の新しいプロジェクト募集をまもなく開始する予定である;
・elle a lancé un programme d’accompagnement spécifique des fournisseurs de vidéosurveillance « augmentée » dans le cadre de l’expérimentation prévue par la loi relative aux Jeux olympiques et paralympiques de 2024 ; ・また、2024年オリンピック・パラリンピック競技大会に関する法律で定められた実験の一環として、「拡張型」ビデオ監視のサプライヤーに対する特別支援プログラムを開始した;
・enfin, la CNIL a ouvert en 2023 un nouveau programme « d’accompagnement renforcé » pour assister des entreprises innovantes dans leur conformité au RGPD : les premiers lauréats de cet accompagnement renforcé sont des entreprises innovantes dans le domaine de l’IA. ・最後に、2023年、CNILは、革新的な企業がRGPDを遵守するのを支援するための新しい「強化支援」プログラムを開設した。この強化支援の最初の受賞者は、AI分野の革新的企業である。
Plus généralement, la CNIL souhaite engager un dialogue nourri avec les équipes de recherche, centres de R&D et entreprises françaises développant, ou souhaitant développer, des systèmes d’IA dans une logique de conformité aux règles de protection des données personnelles. より一般的には、CNILは、個人データ保護規則を遵守する論理でAIシステムを開発している、または開発を希望するフランスの研究チーム、研究開発センター、企業と持続的に対話することを希望している。
Ces équipes et entreprises peuvent prendre contact avec la CNIL à l’adresse ia@cnil.fr. これらのチームや企業は、CNIL(ia@cnil.fr)に連絡することができます。
4. Auditer et contrôler les systèmes d’IA et protéger les personnes   4. AIシステムを監査・管理し個人を保護する  
La définition du cadre permettant le développement des systèmes d’intelligence artificielle dans le respect des droits et libertés individuelles implique, en aval, que la CNIL en contrôle le respect. Il est donc essentiel pour la CNIL de développer un outillage permettant d’auditer les systèmes d’IA qui lui sont soumis et cela tant de manière à priori qu’à postériori. 個人の権利と自由を尊重しながら人工知能システムの開発を可能にする枠組みを定義することは、下流では、CNILがコンプライアンスを監視することを意味します。したがって、CNILは、提出されたAIシステムを事前・事後に監査するツールを開発することが不可欠である。
L’action de contrôle de la CNIL portera notamment en 2023 sur : 2023年、CNILの管理活動は、特に以下の点に焦点を当てる:
・le respect de la position sur l’usage de la vidéosurveillance « augmentée », publiée en 2022, par les acteurs publics et privés ; ・2022年に発表された、官民による「拡張型」ビデオ監視の使用に関する見解の遵守
・l’usage de l’intelligence artificielle pour la lutte contre la fraude, par exemple pour la lutte contre la fraude à l’assurance sociale, au regard des enjeux liés à l’usage de tels algorithmes ; ・不正行為との闘いにおける人工知能の使用、例えば社会保険不正行為との闘いにおける、そのようなアルゴリズムの使用に関連する問題点に関して
・l’instruction de plaintes déposées auprès de la CNIL. S le cadre juridique de l’entraînement et de l’utilisation des IA génératives nécessite d’être clarifié, ce à quoi la CNIL va s’employer, des plaintes ont d’ores et déjà été déposées. La CNIL a, en particulier, reçu plusieurs plaintes à l’encontre de la société OpenAI qui gère le service ChatGPT, et a ouvert une procédure de contrôle. En parallèle, un groupe de travail dédié a été créé au sein du Comité européen de la protection des données ou CEPD (en anglais), en vue d’assurer une démarche coordonnée des autorités européennes et une analyse harmonisée des traitements de données mis en œuvre par l’outil d’OpenAI. ・CNILに申し立てられた苦情の調査。 生成AIの訓練と使用に関する法的枠組みを明確にする必要がある場合、CNILはそれを行う予定であるが、すでに苦情は提出されている。特にCNILは、ChatGPTサービスを運営するOpenAI社に対して複数の苦情を受け、管理手続きを開始した。これと並行して、欧州データ保護委員会(EDPS)内に専門のワーキンググループが設置され、欧州当局による協調的なアプローチとOpenAIツールによって実施されたデータ処理に関する調和のとれた分析が行われるようになった。
La CNIL sera particulièrement attentive à ce que les acteurs traitant des données personnelles afin de développer, d’entraîner ou d’utiliser des systèmes d’intelligence artificielle aient : CNILは、人工知能システムの開発、訓練、使用を目的として個人データを処理する事業者が、以下のことを行っているかどうかに特に注意を払う:
・réalisé une analyse d’impact relative à la protection des données (AIPD) pour documenter les risques et pris des mesures permettant de les diminuer ; ・データ保護影響評価(DPIA)を実施し、リスクを文書化し、リスクを低減するための措置を講じていること;
・pris des mesures d’information des personnes ; ・個人に通知するための措置を講じていること
・prévu des mesures d’exercice des droits des personnes adaptées à ce contexte particulier. ・この特定の状況に適応した個人の権利を行使するための手段を提供すること。
Grâce à ce travail collectif et essentiel, la CNIL souhaite instaurer des règles claires, protectrices des données personnelles des citoyens européens afin de contribuer au développement de systèmes d’IA respectueux de la vie privée. CNILは、この集団的かつ不可欠な作業により、欧州市民の個人データを保護する明確なルールを確立し、プライバシーに配慮したAIシステムの開発に貢献することを望んでいる。

 

Pour approfondir

|

« 米国 CISA ホワイトペーパー サイバーフィジカル重要インフラの回復力を高めるための研究、開発、イノベーション:ニーズと戦略的行動 | Main | フランス CNIL Cookieに関するウェブプラクティスの変化:CNILが行動計画の影響を評価 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 米国 CISA ホワイトペーパー サイバーフィジカル重要インフラの回復力を高めるための研究、開発、イノベーション:ニーズと戦略的行動 | Main | フランス CNIL Cookieに関するウェブプラクティスの変化:CNILが行動計画の影響を評価 »