オランダ AI利用ガイド (2024.10.16)
こんにちは、丸山満彦です。
オランダの経済省が、AI利用ガイドを公表していますね...
EUのAI法のガイドという位置付けですかね...
2027年からの適用開始だが、一部のAIシステムは2025年2月に禁止されるようです...
苦労してAI法を成立させたEUは、AIをうまく利用できる社会をつくるのだろうと思います...
・2024.10.16 Gids AI-verordening
本ガイドブックは、起業家や組織が人工知能(AI)の利用や開発について、欧州AI規則の内容と潜在的な影響を理解するのに役立つ。 AI規制は、人々の安全、健康、基本的権利を保護することを目的として、企業、政府、その他の組織による責任あるAIの開発と利用のための規則を定めている。
・[PDF]
| Gids AI-verordening | ガイド AI規制 |
| Versie 1.0 – oktober 2024 | バージョン1.0 - 2024年10月 |
| De AI-verordening | AI規則 |
| De AI-verordening is een uitgebreide wet over artificiële intelligentie (AI) voor de hele Europese Unie (EU). In de AI-verordening staan regels voor het verantwoord ontwikkelen en gebruiken van AI door bedrijven, overheden en andere organisaties met als doel om de veiligheid, gezondheid en fundamentele rechten van mensen te beschermen. Hierdoor kunnen organisaties erop vertrouwen dat de AI die zij gebruiken verantwoord is en kunnen ze optimaal profiteren van de kansen van AI. | AI規則は、欧州連合(EU)全体の人工知能(AI)に関する包括的な法律である。AI規則は、人々の安全、健康、基本的権利を保護することを目的として、企業、政府、その他の組織による責任あるAIの開発および使用に関する規則を定めている。これにより組織は、使用するAIが責任あるものであることを確信し、AIの機会を最大限に活用できるようになる。 |
| De verordening gaat in stappen in en zal medio 2027 voor het grootste deel van toepassing zijn. Een aantal AI-systemen zijn vanaf februari 2025 al verboden. Daarom is het slim om u nu alvast voor te bereiden. Om u hierbij te helpen, worden in deze gids de belangrijkste bepalingen uit de AI-verordening genoemd. Er kunnen geen rechten ontleend worden uit dit document, dat puur ter ondersteuning dient. De volledige wettekst vindt u hier.[1] | この規制は段階的に施行され、2027年半ばまでに大部分が適用される。一部のAIシステムはすでに2025年2月から禁止される。したがって、今から準備しておくのが賢明だ。その一助となるよう、本ガイドではAI規制の主な条項を列挙する。本ガイドは、純粋にサポートするためのものであり、本ガイドからいかなる権利も派生させることはできない。法律全文はこちらを参照されたい[1]。 |
| Wat betekent de AI-verordening voor uw organisatie? | AI規制は組織にとって何を意味するのか? |
| Afhankelijk van het AI-systeem en wat een organisatie met dat systeem doet, gaan er eisen gelden voor de ontwikkeling en het gebruik van dit systeem. Of er eisen gaan gelden, is onder andere afhankelijk van het risico dat het AI-systeem heeft voor veiligheid, gezondheid en fundamentele rechten. Ook worden er andere eisen gesteld aan organisaties die AI (laten) ontwikkelen, dan aan organisaties die AI gebruiken. Om erachter te komen wat de AI-verordening voor uw organisatie betekent, is het belangrijk om de volgende vier stappen te doorlopen. Deze stappen worden in de rest van de gids toegelicht: | AIシステムと、そのシステムを使って組織が何をするかによって、その開発と使用には要求事項が適用されることになる。要件が適用されるかどうかは、とりわけ、AIシステムが安全、健康、基本的権利に及ぼすリスクによって決まる。また、AIを開発(または委託)する組織は、AIを使用する組織とは異なる要件が課されることになる。AI規制が組織にとってどのような意味を持つかを知るためには、以下の4つのステップを踏むことが重要である。これらのステップについては、本ガイドの残りの部分で説明する: |
| Stap 1 (Risico): Valt ons (AI-)systeem binnen één van de risicocategorieën? | ステップ1(リスク):自社の(AI)システムはリスク・カテゴリーのいずれかに該当するか? |
| Stap 2 (AI): Is ons systeem ‘AI’ volgens de AI-verordening? | ステップ2(AI): ステップ2(AI):我々のシステムは、AI規制に従って「AI」であるか? |
| Stap 3 (Rol): Zijn wij de aanbieder of gebruiksverantwoordelijke van het AI-systeem? | ステップ3(役割):我々はAIシステムの提供者なのか、利用者なのか? |
| Stap 4 (Verplichtingen): Aan welke verplichtingen moeten wij ons houden? | ステップ4(義務): どのような義務を遵守しなければならないか? |
| Stap 1. (Risico) Valt ons (AI-)systeem binnen één van de risicocategorieën? | ステップ1(リスク):我々の(AI)システムはリスク・カテゴリーのいずれかに該当するか? |
| Alle AI-systemen vallen onder de AI-verordening, maar er worden verschillende eisen gesteld aan verschillende categorieën, gebaseerd op het risico. Dit risico wordt bepaald door de beoogde toepassing of product waarvoor het AI-systeem wordt ontwikkeld, verkocht en gebruikt: | すべてのAIシステムはAI規制に該当するが、リスクに応じてカテゴリーごとに要求事項が異なる。このリスクは、AIシステムが開発・販売・使用される用途や製品によって決定される: |
| • Verboden AI: deze AI-systemen mogen niet verkocht, gebruikt of in gebruik gesteld worden. | - 禁止AI:これらのAIシステムは、販売、使用、稼働させてはならない。 |
| • Hoog-risico AI: deze AI-systemen moeten aan verschillende eisen voldoen om risico’s te beperken voordat ze mogen worden verkocht of gebruikt. | - 高リスクAI:これらのAIシステムは、販売または使用する前に、リスクを低減するための様々な要件を満たさなければならない。 |
| Daarnaast gaan er eisen gelden voor AI-modellen en AI-systemen die specifieke dingen kunnen: | さらに、特定のことができるAIモデルやAIシステムにも要件が適用される: |
| • AI-modellen en systemen voor algemene doeleinden: hier gaan specifieke informatie-eisen voor gelden. In sommige gevallen moet ook voldaan worden aan eisen om risico’s te beperken. | - AIモデルと汎用システム:これらには特定の情報要件が適用される。場合によっては、リスク軽減要件も満たさなければならない。 |
| • Generatieve AI en chatbots: hier gaan specifieke transparantie-eisen voor gelden onafhankelijk of het systeem hoog-risico is of niet.[2] | - 生成的AIとチャットボット:ここでは、システムが高リスクかどうかとは関係なく、特定の透明性要件が適用される[2]。 |
| Soms kan hetzelfde AI-systeem onder meerdere categorieën vallen. Zo kan een chatbot ingezet worden voor een hoog-risico toepassing. AI-systemen die niet onder één van de bovenstaande categorieën vallen, hoeven ook niet uit eisen uit de AI-verordening te voldoen. Het kan wel zo zijn dat deze systemen nog steeds aan eisen uit andere regelgeving moeten voldoen, zoals de Algemene Verordening Gegevensbescherming (AVG). | 同じAIシステムが複数のカテゴリーに分類されることもある。例えば、チャットボットが高リスクのアプリケーションに使用されることがある。上記のいずれにも該当しないAIシステムは、AI規制の要件に準拠する必要もない。しかし、これらのシステムは、一般データ保護規則(AVG)など、他の規制の要件を満たす必要がある場合がある。 |
| Om te weten of u aan eisen uit de AI-verordening moet voldoen, is het van belang om eerst te bepalen onder welke categorie uw AI-systeem valt. Hieronder worden de verschillende risico-categorieën uitgebreid toegelicht. | AI規制の要件に準拠する必要があるかどうかを知るには、まず、自社のAIシステムがどのカテゴリーに該当するかを判断することが重要である。異なるリスク・カテゴリーを以下に詳しく説明する。 |
| 1.1. Verboden AI-systemen | 1.1. 禁止AIシステム |
| Bepaalde AI-praktijken brengen een onaanvaardbaar risico met zich mee voor mensen en de samenleving en zijn daarom vanaf februari 2025 verboden. Dit betekent dat deze systemen niet in de handel gebracht, gebruikt of in gebruik gesteld mogen worden. Deze verboden gelden zowel voor aanbieders als gebruiksverantwoordelijken (verder toegelicht onder Stap 3. Zijn wij de aanbieder of gebruiksverantwoordelijke van het AI-systeem? op pagina 10). | ある種のAIは、人や社会にとって許容できないリスクをもたらすため、2025年2月から禁止される。つまり、これらのシステムを販売、使用、運用することはできない。これらの禁止措置は、プロバイダーと使用責任者の両方に適用される(ステップ3. 我々はAIシステムの提供者なのか、利用責任者なのか」(10ページ)で詳しく説明する)。 |
| Verboden AI-systemen | 禁止AIシステム |
| 1. Systemen die erop zijn gericht menselijk gedrag te manipuleren om de vrije keuze van personen te beperken en die tot aanzienlijke schade voor die personen kunnen leiden. | 1. 人間の行動を操作して個人の自由な選択を制限することを目的とし、その結果、個人に重大な危害を及ぼす可能性のあるシステム。 |
| 2. Systemen die misbruik maken van de kwetsbaarheden van personen als gevolg van hun leeftijd, handicap of specifieke sociale of economische situatie en tot aanzienlijke schade voor die personen kunnen leiden. | 2. 年齢、障害、特定の社会的・経済的状況に起因する個人の脆弱性を悪用し、その個人に重大な危害を及ぼす可能性のあるシステム。 |
| 3. Systemen voor het opstellen van belonende en bestraffende puntensystemen gebaseerd op sociaal gedrag of persoonlijke kenmerken, bekend als social scoring, met een nadelige en oneerlijke behandeling tot gevolg. | 3. 社会的採点として知られる、社会的行動や個人的特徴に基づく報奨的・懲罰的なポイントシステムを確立し、不利で不公正な扱いをもたらす制度。 |
| 4. Verbod op systemen voor risicobeoordelingen voor het plegen van strafbare feiten, uitsluitend op basis van profilering of (persoonlijkheids)kenmerken. | 4. プロファイリングや(性格的)特徴のみに基づく、犯罪を犯す危険性の評価システムの禁止。 |
| 5. Systemen die databanken voor gezichtsherkenning aanleggen of uitbreiden door middel van het ongericht scrapen van gezichtsafbeeldingen van het internet of CCTV-beelden. | 5. インターネットやCCTV画像から無差別に顔画像をスクラップすることにより、顔認識データベースを作成または拡大するシステム。 |
| 6. Systemen voor emotieherkenning in de werkomgeving en het onderwijs, tenzij dit wordt gedaan voor medische of veiligheidsredenen. | 6. 職場や教育現場における感情認識システム。ただし、医療やセキュリティ上の理由がある場合を除く。 |
| 7. Systemen die worden gebruikt om mensen op basis van biometrische gegevens te categoriseren in bepaalde gevoelige categorieën. | 7. バイオメトリクスデータに基づき、人を特定の機密カテゴリーに分類するために使用されるシステム。 |
| 8. Het gebruik van biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving. Er gelden enkele uitzonderingen in gevallen waarin het gebruik strikt noodzakelijk is, bijvoorbeeld voor het zoeken naar specifieke slachtoffers van ontvoering en mensenhandel of vermiste personen. Voor deze toepassingen gelden wel nog aanvullende waarborgen. | 8. 法執行を目的とした公共の場におけるリアルタイムの遠隔生体認証の使用。拉致や人身売買の特定の被害者、行方不明者の捜索など、利用が厳密に必要な場合には例外が適用される。これらの使用には、追加の保護措置が適用される。 |
| 1.2. Hoog-risico AI-systemen | 1.2. 高リスクAIシステム |
| Hoog-risico AI-systemen kunnen risico’s hebben voor de gezondheid, veiligheid of fundamentele rechten van personen, zoals het recht op privacy en om niet gediscrimineerd te worden. Tegelijkertijd kunnen deze systemen ook toepassingen hebben met positieve effecten op mensen en organisaties, als ze betrouwbaar zijn en de risico’s worden beperkt. Daarom moeten hoog risico AI-systemen vanaf augustus 2026 aan verschillende eisen voldoen voordat ze in de handel gebracht, gebruikt of in gebruik gesteld mogen worden. Dit betekent dat aanbieders er tijdens de ontwikkeling van het systeem voor moeten zorgen dat het aan de eisen voldoet voordat het voor het eerst verkocht of gebruikt wordt. Een professionele partij die het AI-systeem onder eigen verantwoordelijkheid gebruikt, is een gebruiksverantwoordelijke (verder toegelicht onder Stap 3. Zijn wij de aanbieder of gebruiksverantwoordelijke van het AI-systeem? op pagina 10). Voor gebruiksverantwoordelijken gelden ook verplichtingen, om risico’s als gevolg van de specifieke inzet van het systeem te beperken. | リスクの高いAIシステムは、健康、安全、あるいはプライバシーの権利や差別されない権利など、個人の基本的権利に対するリスクを持つ可能性がある。同時に、これらのシステムは、信頼性が高く、リスクが軽減されていれば、人々や組織にプラスの効果をもたらす応用も可能である。したがって、2026年8月以降、リスクの高いAIシステムは、販売、使用、委託を受ける前に、いくつかの要件を満たさなければならない。つまりプロバイダーは、システムの開発段階で、最初に販売または使用される前に、そのシステムが要件を満たしていることを確認しなければならない。専門家が自らの責任でAIシステムを使用する場合は、ユーザーの責任となる(ステップ3.でさらに説明)。我々はAIシステムの提供者なのか、利用管理者なのか? 10ページ)。また、使用責任者にも、システムの特定の展開から生じるリスクを軽減する義務が適用される。 |
| Er zijn twee typen hoog-risico AI-systemen: | 高リスクAIシステムには2種類ある: |
| • Hoog-risico producten: AI-systemen die direct of indirect ook onder een selectie van bestaande productregelgeving (zie hieronder) valt. Bijvoorbeeld een AI-systeem als veiligheidsonderdeel van een lift of een AI-systeem dat een medisch hulpmiddel is. | - 高リスク製品: 高リスク製品:既存の製品規制の一部(下記参照)が直接的または間接的に適用されるAIシステム。例えば、リフトの安全コンポーネントとしてのAIシステムや、医療機器としてのAIシステムなどである。 |
| • Hoog-risico toepassingen: AI-systemen die voor bepaalde toepassingen in ‘hoog-risico toepassingsgebieden’ worden ontwikkeld en ingezet. Dit zijn acht toepassingsgebieden die variëren van AI voor rechtshandhaving tot AI in het onderwijs. Binnen die acht gebieden zijn ongeveer 30 verschillende specifieke toepassingen opgenomen die mogelijk hoge risico’s met zich meebrengen, zoals AI-systemen om te helpen bij het uitsturen van nooddiensten. | - 高リスク用途: 高リスク用途:「高リスク用途分野」の特定の用途のために開発・導入されたAIシステム。これらは、法執行のためのAIから教育におけるAIまで、8つの応用分野である。この8つの分野の中には、緊急サービスの派遣を支援するAIシステムなど、潜在的に高リスクの意味を持つ約30種類の具体的なアプリケーションが含まれている。 |
| De productgroepen en toepassingsgebieden waarin AI-systemen als hoog-risico worden aangemerkt, staan in onderstaande figuren. | AIシステムが高リスクに分類される製品グループと応用分野は下図の通りである。 |
| De verplichtingen voor deze categorie staan beschreven onder 4.2. Hoog-risico AI op pagina 11. | このカテゴリーの義務については、4.2. 11ページの「高リスクAI」に記載されている。 |
| Hoog-risico AI als (veiligheidsonderdeel van) bestaande producten | 既存製品の安全部分としての高リスクAI |
| Dit zijn producten die al gereguleerd zijn in de EU. Een product wordt als risicovol gezien wanneer volgens de bestaande productregelgeving goedkeuring van een derde partij nodig is voordat het in de handel mag worden gebracht (conformiteitsbeoordeling). Als AI een veiligheidsonderdeel van het risicoproduct is of als het risicoproduct zélf een AI-systeem is, dan wordt het als hoog-risico AI gezien. Dit geldt voor producten die onder de volgende productwetgeving vallen: | EUですでに規制されている製品である。既存の製品規制により、上市前に第三者の承認(適合性評価)が必要な場合、その製品は高リスクとみなされる。AIがリスク製品の安全コンポーネントである場合、またはリスク製品自体がAIシステムである場合は、高リスクAIとみなされる。これは、以下の製品法の対象となる製品に適用される: |
| • Machines (Richtlijn 2006/42/EG) | - 機械(指令2006/42/EC) |
| • Speelgoed (Richtlijn 2009/48/EG) | - 玩具(指令2009/48/EC) |
| • Pleziervaart (Richtlijn 2013/53/EU) | - レクリエーショナルクラフト(指令2013/53/EU) |
| • Liften (Richtlijn 2014/33/EU) | - リフト(指令2014/33/EU) |
| • Apparaten en beveiligingssystemen voor gebruik op plaatsen met ontploffingsgevaar (Richtlijn 2014/34/EU) | - 爆発の危険性がある雰囲気での使用を意図した機器および保護システム(指令 2014/34/EU) |
| • Radioapparatuur (Richtlijn 2014/53/EU) | - 無線機器(指令2014/53/EU) |
| • Drukapparatuur (Richtlijn 2014/68/EU) | - 圧力機器(指令2014/68/EU) |
| • Kabelbaaninstallaties (Verordening (EU) 2016/424) | - 索道設備(規則(EU)2016/424) |
| • Persoonlijke beschermingsmiddelen (Verordening (EU) 2016/425) | - 個人用保護具(規則(EU)2016/425) |
| • Gasverbrandingstoestellen (Verordening (EU) 2016/425) | - ガス燃焼機器(規則(EU)2016/425) |
| • Medische hulpmiddelen (Verordening (EU) 2017/745) | - 医療機器(規則(EU)2017/745) |
| • Medische hulpmiddelen voor in-vitrodiagnostiek (Verordening (EU) 2017/746) | - 体外診断用医療機器(規則(EU)2017/746) |
| Daarnaast wordt in de AI-verordening nog een lijst producten genoemd die ook worden gezien als hoog-risico AI, maar waar vanuit de AI-verordening geen directe eisen voor gaan gelden. Wél worden de eisen uit de AI-verordening op een later moment gebruikt om invulling te geven aan de specifieke productwetgeving die voor deze producten geldt. Wanneer dit gebeurt, is nog niet bekend en zal per product verschillen. Het gaat om de producten die onder de volgende productwetgeving vallen: | さらに、AI規則には、高リスクAIとみなされるが、AI規則からの直接的な要求事項が適用されない製品もリストアップされている。しかし、これらの製品に適用される具体的な製品法規を具体化するために、後日、AI規則の要件が使用されることになる。それがいつになるかはまだわかっておらず、製品ごとに異なる。以下の製品法が適用される製品に関するものである: |
| • (Beveiliging van) burgerluchtvaart (Verordening (EG) 300/2008 en Verordening (EU) 2018/1139) | - 民間航空の安全保障(規則(EC)300/2008および規則(EU)2018/1139 |
| • Twee- of driewielige voertuigen en vierwielers (Verordening (EU) 168/2013) | - 二輪または三輪自動車および四輪自動車(規則(EU)168/2013) |
| • Landbouw- en bosbouwvoertuigen (Verordening (EU) 167/2013) | - 農業用および林業用車両(規則(EU)167/2013) |
| • Uitrusting van zeeschepen (Richtlijn 2014/90/EU) | - 舶用機器(指令2014/90/EU) |
| • Interoperabiliteit van het spoorwegsystem in de EU (Richtlijn (EU) 2016/797) | - EUにおける鉄道システムの相互運用性(指令(EU)2016/797) |
| • Motorvoertuigen en aanhangwagens (Verordening (EU) 2018/858 en Verordening (EU) 2019/2144) | - 自動車およびトレーラー(規則(EU)2018/858および規則(EU)2019/2144) |
| Hoog-risico toepassingsgebieden | 高リスクの応用分野 |
| Een AI-systeem valt onder een van de toepassingsgebieden als de aanbieder het gebruik van het AI-systeem voor een toepassing binnen één van deze gebieden heeft bedoeld. De aanbieder moet het doel expliciet opnemen in de documenten van het AI-systeem, waaronder de gebruiksinstructies, reclamematerialen en verdere technische documentatie. | AIシステムは、提供者がAIシステムをこれらの分野のいずれかの用途に使用することを意図している場合、いずれかの用途分野に該当する。提供者は、使用説明書、広告資料、詳細な技術文書など、AIシステムの文書にその目的を明示的に記載しなければならない。 |
| Er zijn acht hoog-risico toepassingsgebieden. Dit betekent niet dat alle AI-systemen die binnen dat, vaak abstract omschreven, toepassingsgebied vallen hoog-risico zijn. Per gebied worden een aantal specifieke toepassingen genoemd. | リスクの高い応用分野は8つある。これは、抽象的に定義されることが多いこの範囲に含まれるすべてのAIシステムが高リスクであることを意味するものではない。各分野ごとに、具体的な用途がいくつか挙げられている。 |
| Tip: Ga eerst na of uw AI-systeem onder één van de acht gebieden valt, en kijk vervolgens of uw AI-systeem één van de beschreven AI-systemen in die categorie is. Alleen in dat geval heeft u te maken met een hoog-risico AI-systeem dat aan eisen moet gaan voldoen. | ヒント:まず、自分のAIシステムが8つの分野のいずれかに該当するかどうかを確認し、次に、自分のAIシステムがそのカテゴリーに記載されているAIシステムの一つであるかどうかを確認する。その場合のみ、要件を満たし始める必要のある高リスクのAIシステムを扱っていることになる。 |
| 1. Biometrie | 1. バイオメトリクス |
| • Systemen voor biometrische identificatie op afstand, tenzij het systeem alleen voor verificatie gebruikt wordt. | - 遠隔生体認証システム。ただし、そのシステムが認証にのみ使用される場合を除く。 |
| • Systemen voor biometrische categorisering op basis van gevoelige eigenschappen of kenmerken. | - 機微な特徴や特性に基づくバイオメトリクス分類システム。 |
| • Systemen voor emotieherkenning. | - 感情認識システム |
| 2. Kritieke infrastructuur | 2. 重要インフラ |
| • Systemen als veiligheidscomponent voor beheer en exploitatie van kritieke digitale infrastructuur, voor wegverkeer of voor levering van water, gas, verwarming en elektriciteit. | - 重要なデジタル・インフラ、道路交通、水、ガス、暖房、電力供給の管理・運用のためのセキュリティ・コンポーネントとしてのシステム。 |
| 3. Onderwijs en beroepsopleiding | 3. 教育および職業訓練 |
| • Systemen voor toelating tot of toewijzing van onderwijs. | - 教育への入学や配分のためのシステム |
| • Systemen voor het evalueren van leerresultaten. | - 学習成果を評価するシステム |
| • Systemen voor het beoordelen van het onderwijsniveau. | - 教育達成度を評価するシステム |
| • Systemen voor het monitoren van leerlingen tijdens examens. | - 試験中の学生を監視するシステム |
| 4. Werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid | 4. 雇用、人事管理、自営業へのアクセス |
| • Systemen voor het werven of selecteren van kandidaten. | - 候補者を募集または選考するシステム |
| • Systemen voor het maken van besluiten die gevolgen hebben voor het arbeidscontract en de arbeidsvoorwaarden, voor het verdelen van taken en voor het monitoren en evalueren van werknemers. | - 雇用契約や雇用条件に影響を与える決定、業務配分、従業員の監視・評価のためのシステム |
| 5. Essentiële particuliere en publieke diensten en uitkeringen | 5. 必要不可欠な民間および公的サービスと給付 |
| • Systemen voor het beoordelen van (de mate van) toegang tot essentiële overheidsuitkeringen en -diensten. | - 必要不可欠な公的給付やサービスへのアクセス(の程度)を評価するためのシステム。 |
| • Systemen voor het beoordelen van de kredietwaardigheid of -score van personen, tenzij dit gebeurt om financiële fraude op te sporen. | - 個人の信用度やスコアを評価するためのシステム(金融詐欺を発見するためのものを除く)。 |
| • Systemen voor de risicobeoordeling en prijsbepaling voor levens- en ziektekostenverzekeringen. | - 生命保険および医療保険のリスク評価と価格設定のためのシステム。 |
| • Systemen voor het prioriteren van de inzet van hulpdiensten of voor de triage van patiënten in de zorg. | - 医療における緊急サービスや患者のトリアージに優先順位をつけるためのシステム。 |
| 6. Rechtshandhaving | 6. 法執行 |
| • Systemen voor rechtshandhaving om te bepalen hoe groot de kans is dat iemand slachtoffer van een misdrijf wordt. | - 犯罪被害者になる確率を判定するための法執行システム。 |
| • Systemen voor rechtshandhaving die worden ingezet als leugendetector. | - 嘘発見器として使用される法執行システム。 |
| • Systemen voor rechtshandhaving om betrouwbaarheid van bewijsmateriaal te beoordelen. | - 証拠の信頼性を評価するための法執行システム。 |
| • Systemen voor rechtshandhaving om te beoordelen of te voorspellen hoe groot de kans is dat iemand een strafbaar feit zal plegen of om eerder crimineel gedrag van (groepen) personen te beoordelen. | - 誰かが犯罪を犯す可能性を評価または予測する、あるいは(集団の)個人の過去の犯罪行動を評価するための法執行システム。 |
| • Systemen voor rechtshandhaving voor het profileren van personen tijdens opsporing of vervolging. | - 捜査または起訴の際に個人をプロファイリングするための法執行システム。 |
| 7. Migratie-, asiel- en grensbeheer | 7. 移民、亡命、国境管理 |
| • Systemen voor overheidsinstanties om te gebruiken als leugendetector. | - 公的機関が嘘発見器として使用するためのシステム。 |
| • Systemen voor overheidsinstanties om risico’s voor veiligheid, op illegale migratie of een gezondheidsrisico bij binnenkomst van een land te beoordelen. | - 公的機関が、不法移民や入国時の健康リスクなど、安全保障上のリスクを評価するためのシステム。 |
| • Systemen om overheidsinstanties bij te staan bij het behandelen van asiel, visa of verblijfsvergunning, inclusief aanverwante klachten. | - 庇護、ビザ、居住許可(関連する苦情を含む)に対処する政府機関を支援するシステム。 |
| • Systemen voor overheidsinstanties voor het opsporen, herkennen of identificeren van personen, met uitzondering van de verificatie van reisdocumenten. | - 渡航文書の検証を除き、公的機関が人物を検知、認識、特定するためのシステム。 |
| 8. Rechtspraak en democratische processen | 8. 司法および民主的プロセス |
| • Systemen om de rechtspraak en geschillenbeslechting te ondersteunen bij het onderzoeken en uitleggen van feiten of om de wet uit te leggen of toe te passen op een set aan feiten. | - 司法および紛争解決を支援するためのシステムで、事実を調査・説明するため、または一 連の事実に対して法律を説明・適用するためのもの。 |
| • Systemen voor het beïnvloeden van verkiezingen of referenda of het stemgedrag van personen, met uitzondering van de ondersteuning van politieke campagnes uit administratief of logistiek oogpunt. | - 選挙や国民投票、または個人の投票行動に影響を与えるためのシステム。ただし、管理上または物流上の観点から政治キャンペーンを支援するものは除く。 |
| Uitzonderingen op de hoog-risico toepassingsgebieden | リスクの高い適用分野の例外 |
| Er zijn een aantal specifieke uitzonderingen waarbij AI-systemen die onder één van de toepassingsgebieden vallen tóch niet als hoog-risico AI worden gezien. Dat is het geval wanneer het AI-systeem geen wezenlijke invloed heeft op een besluit, omdat het systeem bedoeld is om: | 適用分野のいずれかに該当するAIシステムであっても、高リスクAIとはみなされない例外もある。これは、AIシステムが以下のことを意図しているため、意思決定に実質的な影響を与えない場合である: |
| • Een beperkte procedurele taak uit te voeren; | - 限定された手続き的タスクを実行する; |
| • Het resultaat van een eerder voltooide menselijke activiteit te verbeteren; | - 以前に完了した人間の活動の結果を改善する; |
| • Om te controleren of menselijke besluiten afwijken van een eerder patroon zonder het besluit te vervangen of te beïnvloeden; | - 人間の意思決定が以前のパターンから逸脱していないかどうかを、意思決定に取って代わったり影響を与えたりすることなくチェックする; |
| • Een voorbereidende taak uit te voeren voor een beoordeling die relevant is voor een van de hoog-risico toepassingsgebieden. | - 高リスクの適用分野の一つに関連する評価の準備作業を行う。 |
| Als u heeft vastgesteld dat uw AI-systeem onder één van de uitzonderingen valt, moet u dit vastleggen en het AI-systeem registreren in de EU-databank voor hoog-risico AI-systemen. De Europese Commissie stelt op een later moment nog een lijst met voorbeelden op om te verduidelijken wat wel en niet onder de uitzonderingen valt. | 自社のAIシステムが例外のいずれかに該当すると判断した場合は、その旨を記録し、EUの高リスクAIシステム用データベースに登録しなければならない。何が例外に該当し、何が例外に該当しないかを明確にするため、欧州委員会は後日、別の事例リストを作成する予定である。 |
| 1.3. AI modellen en AI-systemen voor algemene doeleinden | 1.3. AIモデルと汎用AIシステム |
| Een AI-model voor algemene doeleinden, ook wel bekend als ‘General Purpose AI’, kan een breed scala aan verschillende taken op een goede manier uitvoeren en kan daardoor worden geïntegreerd in allerlei verschillende AI-systemen. Vaak worden deze modellen getraind op grote hoeveelheden data en met behulp van self-supervision technieken. | 汎用AIモデルは、「汎用AI」とも呼ばれ、さまざまなタスクを適切に実行できるため、さまざまなAIシステムに組み込むことができる。多くの場合、これらのモデルは大量のデータを用いて、自己監視技術を用いて学習される。 |
| De brede inzetbaarheid van deze modellen, via specifieke AI-systemen, zorgt ervoor dat ze voor allerlei soorten toepassingen worden gebruikt. Dit kunnen ook hoog-risico toepassingen zijn. Vanwege de potentieel grote impact van deze modellen, moeten ze vanaf augustus 2025 aan verschillende eisen voldoen. | 特定のAIシステムを通じてこれらのモデルが幅広く適用できるため、あらゆる種類のアプリケーションに使用できる。その中にはリスクの高いアプリケーションも含まれる。これらのモデルは大きな影響を与える可能性があるため、2025年8月からのいくつかの要件を満たす必要がある。 |
| Als een AI-systeem gebaseerd is op een AI-model voor algemene doeleinden en dat ook zelf daadwerkelijk verschillende doeleinden kan dienen, dan is het een AI systeem voor algemene doeleinden. | AIシステムが汎用のAIモデルに基づいており、実際にそれ自体がさまざまな目的に対応できる場合、それは汎用のAIシステムである。 |
| De verplichtingen voor deze categorie staan beschreven onder 4.3. AI-modellen en systemen voor algemene doeleinden op pagina 16. | このカテゴリーの義務は、4.3. 汎用AIモデルとシステム(16ページ)」に記載されている。 |
| 1.4. Generatieve AI en chatbots | 1.4. 生成的AIとチャットボット |
| Aan sommige AI-systemen worden transparantieverplichtingen gesteld. Dit zijn systemen waarmee mensen vaak direct in aanraking komen. Daarom moet het voor mensen duidelijk zijn dat er sprake is van interactie met AI of dat de content is gemanipuleerd of gegenereerd. | 一部のAIシステムには透明性の義務が課せられている。これらは、人々が直接対話することが多いシステムである。したがって、AIが人々と相互作用していること、あるいはコンテンツが操作されたり生成されたりしていることは、人々にとって明らかでなければならない。 |
| • Systemen die gebruikt worden om audio, beeld, video of tekst te genereren (generatieve AI); | - 音声、画像、動画、テキストを生成するために使用されるシステム(ジェネレーティブAI); |
| • Systemen die gemaakt zijn voor interactie (chatbots). | - 対話のために作成されたシステム(チャットボット)。 |
| De verplichtingen voor deze categorie staan beschreven onder 4.4. Generatieve AI en Chatbots op pagina 17. | このカテゴリーの義務は、4.4. 17ページの「ジェネレーティブAIとチャットボット」に記載されている。 |
| 1.5. Overige AI | 1.5. その他のAI |
| Zie 4.5. Overige AI op pagina 17 voor meer informatie over AI-systemen die niet onder één van de hierboven beschreven risicocategorieën vallen. | 4.5. その他のAI」を参照のこと。上記のリスク・カテゴリーに該当しないAIシステムの詳細については、17ページの「その他のAI」を参照のこと。 |
| Stap 2. Is ons systeem ‘AI’ volgens de AI-verordening? | ステップ2. 我々のシステムはAI規制による 「AI 」なのか? |
| De AI-verordening stelt eisen aan AI-systemen. Er bestaan verschillende beelden over wat ‘AI’ wel of niet is. In de AI-verordening staat de volgende definitie die bedoeld is om af te bakenen wat AI is als product op de markt: | AI規制は、AIシステムの要件を定めている。何が「AI」なのか、あるいは「AI」でないのかについては、さまざまなイメージがある。AI規制には、市場に出回る製品としてのAIとは何かを明確にするための以下の定義が含まれている: |
| “Een AI-systeem is een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na de uitrol aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen.” | 「AIシステムとは、さまざまなレベルの自律性で動作するように設計され、導入後に適応性を示すことができる機械ベースのシステムであり、明示的または暗黙的な目的のために、受け取った入力から予測、コンテンツ、推奨、決定などの出力を生成する方法を導き出すものである。 |
| Wat valt hier onder andere onder? | これには何が含まれるのか? |
| • Systemen die gebruik maken van machinaal leren (machine learning) waarbij op basis van data wordt geleerd hoe bepaalde doelstellingen kunnen worden bereikt; | - データに基づいて特定の目的を達成する方法を学習する機械学習(マシンラーニング)を使用するシステム; |
| • Systemen die gebruik maken van op logica en kennis gebaseerde benaderingen (knowledge and logic-based approaches) die leren, redeneren of modelleren mogelijk maken. | - 学習、推論、モデリングを可能にする論理ベースのアプローチ(知識と論理ベースのアプローチ)を使用するシステム。 |
| Wat valt hier niet onder? | ここに含まれないものは何か? |
| • Systemen die gebaseerd zijn op regels die uitsluitend door mensen zijn vastgesteld om automatisch handelingen uit te voeren. | - 人間のみが設定したルールに基づき、自動的にアクションを実行するシステム。 |
| Als uw systeem niet gezien wordt als ‘AI’ onder de AI-verordening maar wel onder één van de risicocategorieën valt, is het belangrijk om binnen uw organisatie het gesprek te voeren in hoeverre het systeem niet toch risico’s vormt en of deze risico’s te mitigeren zijn door aan (bepaalde) eisen uit de AI-verordening te voldoen. Daarnaast moeten de systemen die buiten de AI-verordening vallen mogelijk wel aan eisen uit andere regelgeving voldoen. | AI規制では「AI」とはみなされないが、リスク・カテゴリーに該当するシステムがある場合、そのシステムがどの程度のリスクをもたらさないのか、またAI規制の(一定の)要件を満たすことでリスクを軽減できるのかについて、組織内で話し合うことが重要である。さらに、AI規制の対象外となるシステムは、他の規制の要件に準拠しなければならない場合もある。 |
| Stap 3. Zijn wij de aanbieder of gebruiksverantwoordelijke van het AI-systeem? | ステップ3. AIシステムの提供者なのか、ユーザー管理者なのか? |
| Nadat u heeft bepaald onder welke risicocategorie uw AI-systeem valt en of uw AI-systeem ook onder de AI-verordening valt, moet u bepalen of u een aanbieder of een gebruiksverantwoordelijke bent. | 自社のAIシステムがどのリスク・カテゴリーに該当するのか、またAIシステムもAI規制の対象となるのかを判断した後は、自社がプロバイダーなのかユーザー・エージェントなのかを判断する必要がある。 |
| • Aanbieder (provider): een persoon of organisatie die een AI-systeem of model ontwikkelt of laat ontwikkelen en dat systeem in de handel brengt of zelf in gebruik neemt. | - 提供者(provider):AIシステムまたはモデルの開発を開発または委託し、そのシステム自体を販売または展開する個人または組織。 |
| • Gebruiksverantwoordelijke (deployer): een persoon of organisatie die een AI-systeem onder eigen verantwoordelijkheid gebruikt. Niet-professioneel gebruik valt hier niet onder. | - 責任ある利用者(配備者):自らの責任においてAIシステムを利用する個人または組織。専門家以外の利用は含まない。 |
| In de beschrijving van de eisen in stap 4 wordt per risicocategorie beschreven welke verplichtingen gelden voor aanbieders en gebruiksverantwoordelijken. Zij moeten elk aan andere verplichtingen voldoen, waarbij de zwaarste verplichtingen voor aanbieders gelden. | ステップ4の要求事項の説明では、リスクカテゴリーごとに、プロバイダーと使用責任者に適用される義務を説明している。それぞれ異なる義務を果たさなければならないが、最も厳しい義務がプロバイダに適用される。 |
| Let op: Als gebruiksverantwoordelijke kunt u in sommige gevallen ook aanbieder worden van een hoog-risico AI-systeem en moet u voldoen aan de hoog-risico verplichtingen voor aanbieders. Dit wordt verder toegelicht onder stappen 4.2. Hoog-risico AI op pagina 11 en 4.3. AI-modellen en systemen voor algemene doeleinden op pagina 16. | 注:利用責任者として、場合によっては高リスクAIシステムのプロバイダにもなり、プロバイダに対する高リスクの義務を遵守しなければならない。これについては、ステップ4.2. 高リスクAI(11ページ)および4.3. 汎用AIモデルおよびシステム(16ページ)」で説明する。 |
| Let op: er zijn ook andere rollen onder de AI-verordening, bijvoorbeeld gemachtigden, importeurs en distributeurs. Op verplichtingen voor deze actoren gaat deze gids niet in. | AI規制には、代理店、輸入業者、販売業者など、他の役割もあることに留意されたい。これらの行為者に対する義務は、本ガイドでは扱わない。 |
| Stap 4. Aan welke verplichtingen moeten wij ons houden? | ステップ4. どのような義務を遵守しなければならないか? |
| 4.1. Verboden AI | 4.1. 禁止されているAI |
| Deze AI-systemen brengen een onaanvaardbaar risico met zich mee en zijn daarom vanaf 2 februari 2025 verboden. Dit betekent dat deze systemen niet in de handel gebracht of gebruikt mogen worden. Deze verboden gelden zowel voor aanbieders als gebruiksverantwoordelijken. | これらのAIシステムは許容できないリスクをもたらすため、2025年2月2日から禁止される。つまり、これらのシステムは販売も使用もできない。これらの禁止は、プロバイダーとユーザーの両方に適用される。 |
| Voor het verbod op biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving bestaan scherp afgebakende uitzonderingen en de inzet ervan dient te worden voorzien van een nationale wettelijke grondslag. Ook gelden er aanvullende waarborgen rond de inzet van deze systemen. | 法執行を目的とした公共の場でのリアルタイムの遠隔生体認証の禁止については、明確に定義された例外があり、その展開には国内法的根拠が必要である。また、これらのシステムの配備には、追加のセーフガードも適用される。 |
| 4.2. Hoog-risico AI | 4.2. 高リスクAI |
| De zwaarste verplichtingen uit de AI-verordening gaan gelden voor hoog-risico AI-systemen. Aanbieders moeten aan (verschillende) verplichtingen voldoen: | AI規制の下で最も厳しい義務が適用されるのは、高リスクAIシステムである。プロバイダーは(様々な)義務を遵守しなければならない: |
| • Systeem voor risicomanagement; | - リスク管理システム |
| • Data en datagovernance; | - データとデータガバナンス |
| • Technische documentatie; | - 技術文書 |
| • Logging; | - ロギング |
| • Transparantie en informatie; | - 透明性と情報 |
| • Menselijk toezicht; | - 人的監視; |
| • Nauwkeurigheid, robuustheid en cyberbeveiliging; • Systeem voor kwaliteitsbeheer; | - 正確性、堅牢性、サイバーセキュリティ - 品質管理システム |
| • Monitoring. | - モニタリング |
| Als u als aanbieder aan al deze verplichtingen voldoet of denkt te voldoen, zult u een conformiteitsbeoordeling moeten uitvoeren. In sommige gevallen mag u dit zelf doen en in sommige gevallen moet een derde partij dit voor u doen. Een latere versie van deze gids zal ingaan op wanneer u welke procedure moet uitvoeren. | プロバイダーとして、これらの義務をすべて満たしている、あるいは満たしていると考える場合、適合性評価を実施しなければならない。場合によっては自分で実施することもできるし、第三者が実施しなければならないこともある。どのような場合にどのような手続きを行う必要があるかについては、本ガイドの後のバージョンで取り上げる予定である。 |
| Ook gebruiksverantwoordelijken moeten aan verschillende verplichtingen voldoen, waarbij er extra verplichtingen gelden voor overheidsorganisaties die AI-systemen gebruiken. | また、利用管理者はいくつかの義務を遵守しなければならないが、AIシステムを利用する政府機関にはさらに義務が適用される。 |
| In het figuur hieronder wordt elke verplichting toegelicht. Deze verplichtingen worden komende jaren verder uitgewerkt in Europese normen, waaraan iedereen kan deelnemen via de normalisatieorganisaties in de Europese lidstaten. In Nederland is dit het NEN.[3] | 下図は、それぞれの義務について説明したものである。これらの義務は、今後数年のうちに欧州標準としてさらに発展していく予定で、欧州加盟国の標準化団体を通じて誰もが参加できるようになる。オランダではNENがこれにあたる[3]。 |
| Let op: In twee gevallen kunt u als gebruiksverantwoordelijke van een hoog-risico AI-systeem zélf de aanbieder van dat systeem worden: | 注:2つのケースにおいて、高リスクAIシステムの使用責任者として、あなた自身が提供者になることができる: |
| • Wanneer u als gebruiksverantwoordelijke uw eigen naam of merk op het hoog-risico systeem zet; | - 使用責任者として、高リスクシステムに自分の名前やブランドを付ける場合; |
| • Wanneer u als gebruiksverantwoordelijke een aanzienlijke wijziging aan het hoog-risico AI-systeem aanbrengt die niet door de aanbieder was voorzien en waardoor het systeem niet meer aan de eisen voldoet of waardoor het door de aanbieder beoogde doel van het systeem verandert. | - 利用責任者として、提供者が予見していなかった重大な変更を高リスクAIシステムに加え、それによってシステムが要件を満たさなくなった場合、または提供者が意図したシステムの目的が変更された場合。 |
| Regels voor aanbieders van hoog-risico AI-systemen | 高リスクAIシステムの提供者に対する規則 |
| 1. Systeem voor risicomanagement | 1. リスク管理体制 |
| Er moeten verschillende stappen worden ondernomen voor dit systeem: | このシステムには、いくつかのステップを踏む必要がある: |
| • Het vaststellen en analyseren van voorzienbare risico’s voor onder andere gezondheid, veiligheid of grondrechten. | - 健康、安全、基本的権利などに対する予見可能なリスクを特定し、分析すること。 |
| • Het nemen van geschikte risicobeheersmaatregelen die ervoor zorgen dat risico’s die na de maatregelen overblijven aanvaardbaar zijn. | - 対策後に残るリスクが許容できることを保証する適切なリスク管理措置を講じること。 |
| Hierbij moet rekening gehouden met de volgende punten: | これには以下の点を考慮すべきである: |
| • Het vaststellen en aanpakken van risico’s moet eenmalig plaatsvinden voordat het AI-systeem in de handel gebracht of gebruikt wordt en daarna continu tijdens het gebruik van het AI-systeem. | - リスクの特定と対処は、AIシステムの市場投入前または使用前に一度行われ、その後AIシステムの使用中も継続的に行われるべきである。 |
| • Er moet rekening gehouden worden met voorzienbaar misbruik van het systeem. | - システムの予見可能な誤用が考慮されるべきである。 |
| • Er moet rekening gehouden worden met de context van het gebruik, waaronder de kennis en ervaring van de gebruiksverantwoordelijke met dergelijke AI-systemen of het feit dat kinderen of kwetsbare groepen gevolgen van het AI-systeem ondervinden. Het kan bijvoorbeeld nodig zijn om een opleiding aan te bieden aan degenen die met het AI-systeem gaan werken. | - そのようなAIシステムに関するユーザー管理者の知識や経験、あるいは子どもや社会的弱者がAIシステムの影響を受けるという事実を含め、使用の状況を考慮すべきである。例えば、AIシステムを扱う人にトレーニングを提供する必要があるかもしれない。 |
| • De risicobeheersmaatregelen moeten getest worden om te controleren of ze ook daadwerkelijk werken. Dit moet gebeuren aan de hand van benchmarks die passen bij het doel waarvoor het AI-systeem wordt ingezet. | - リスク管理措置は、実際に機能するかどうかを確認するためにテストされるべきである。これは、AIシステムが導入される目的に適したベンチマークを用いて行われるべきである。 |
| • Als onder bestaande productwetgeving ook een risicobeheersysteem moet worden opgesteld, dan mag het samengevoegd worden tot één risicobeheersysteem. | - 既存の製品法のもとで、リスクマネジメントシステムも確立する必要がある場合は、一つのリスクマネジメントシステムに統合することができる。 |
| 2. Data en datagovernance | 2. データとデータガバナンス |
| Er worden verschillende eisen gesteld aan de datasets die voor het trainen, valideren en testen van hoog-risico AI-systemen worden gebruikt. | 高リスクAIシステムの訓練、検証、テストに使用されるデータセットには、さまざまな要件がある。 |
| • Databeheer die past bij het doel van het AI-systeem, waaronder: | - 以下のような、AIシステムの目的に適したデータガバナンスが必要である: |
| • Het registreren van de processen, waaronder die van dataverzameling en -verwerking; | - データの収集と処理を含むプロセスを記録する; |
| • Het vastleggen van aannames over de datasets; | - データセットに関する仮定を記録すること; |
| • Een beoordeling van de beschikbaarheid, hoeveelheid en geschiktheid van de datasets, waaronder mogelijke vertekeningen die gevolgen voor mensen kunnen hebben; | - 人々に影響を与える可能性のある偏りを含む、データセットの利用可能性、量、適切性の評価; |
| • Maatregelen om vertekeningen op te sporen, te voorkomen en te beperken; | - バイアスを検出し、防止し、緩和するための措置; |
| • Het aanpakken van tekortkomingen in de datasets die het voldoen aan de AI-verordening in de weg kunnen zitten (denk bijvoorbeeld aan het beperken van risico’s onder het risicomanagementsysteem). | - AI規制の遵守を妨げる可能性のあるデータセットの欠陥に対処すること(例 えば、リスクマネジメントシステムに基づくリスクの軽減を検討すること)。 |
| • Datasets moeten voor het doel waarvoor ze gebruikt worden voldoende representatief en zoveel mogelijk foutenvrij zijn. Hierbij moet ook rekening gehouden worden met de context waarin het AI-systeem gaat worden gebruikt; bijvoorbeeld de geografische of sociale context. | - データセットは、使用される目的に対して、十分に代表的で、可能な限りエラーのないものでなければならない。これは、AIシステムが使用される文脈(例えば、地理的または社会的文脈)も考慮に入れるべきである。 |
| • Onder een aantal strenge voorwaarden mogen bijzondere categorieën persoonsgegevens (een begrip uit de Algemene Verordening Gegevensbescherming) verwerkt worden om vertekeningen in de datasets tegen te gaan. | - 厳密な条件のもとでは、データセットの偏りを打ち消すために、特別カテゴリーの個人データ(一般データ保護規則の概念)を処理することができる。 |
| 3. Technische documentatie | 3. 技術文書 |
| In de technische documentatie moet worden aangetoond dat het hoog-risico AI-systeem voldoet aan de eisen uit de AI-verordening. In de technische documentatie moet onder andere worden opgenomen: | 技術文書は、高リスクAIシステムがAI規則の要件に準拠していることを証明するものでなければならない。技術文書には以下を含める: |
| • Een algemene beschrijving van het AI-systeem, waaronder het beoogde doel van het systeem, de naam van de aanbieder en de instructies voor gebruik; | - AIシステムの一般的な説明(システムの意図する目的、提供者名、使用上の注意を含む); |
| • Een gedetailleerde beschrijving van de elementen van het AI-systeem en van het proces voor de ontwikkeling ervan, waaronder de stappen van ontwikkeling, de ontwerpkeuzen, de verwachte output van het systeem, het risicobeheersysteem en de gebruikte datasets. | - AIシステムの要素及びその開発プロセスに関する詳細な説明(開発のステップ、設計の選択、システムの期待される出力、リスク管理システム及び使用されるデータセットを含む)。 |
| • Gedetailleerde informatie over de monitoring, werking en controle van het AI-systeem, waaronder de mate van nauwkeurigheid op individueel en algemeen niveau, risico’s, het systeem voor evaluatie tijdens gebruik en maatregelen voor monitoring en menselijk toezicht. | - AIシステムの監視、運用、管理に関する詳細な情報。これには、個人レベルおよび全体レベルの精度レベル、リスク、稼働中評価システム、監視および人的監督のための措置が含まれる。 |
| • Een overzicht van de standaarden die worden toegepast. | - 適用されている規格の概要。 |
| • De EU-conformiteitsverklaring (het CE-keurmerk). | - EU適合宣言(CEマーク)。 |
| MKB-bedrijven kunnen de technische documentatie op een versimpelde manier vastleggen. De Europese Commissie verstrekt hier op een later moment een formulier voor. | 中小企業は、簡易な方法で技術文書を記録することができる。欧州委員会は後日、このための書式を提供する予定である。 |
| 4. Logging | 4. ログの記録 |
| Er moeten automatisch logs worden bijgehouden tijdens de levensduur van het AI-systeem om hiermee risico’s tijdig op te kunnen sporen en de werking van het systeem te kunnen monitoren. De logs moeten voor ten minste zes maanden bewaard worden. Er moet in ieder geval het volgende gelogd worden: | リスクの適時検出とシステム運用の監視を可能にするため、AIシステムの耐用期間中、ログを自動的に保存しなければならない。ログは少なくとも6ヶ月間保存されなければならない。少なくとも以下のログを記録しなければならない: |
| • De duur van elk gebruik van het AI-systeem; | - AIシステムの各使用期間; |
| • De inputdata en de controle daarvan door het AI-systeem (en de referentiedatabank); | - 入力データとAIシステム(および参照データベース)によるその検証; |
| • De identificatie van de personen die betrokken zijn bij de verificatie van de resultaten. | - 結果の検証に関与した者の特定。 |
| 5. Transparantie en informatie | 5. 透明性と情報 |
| De aanbieder van het AI-systeem weet hoe het systeem werkt en hoe hiermee om gegaan moet worden. Zij moet er daarom voor zorgen dat het AI-systeem zodanig transparant is dat gebruiksverantwoordelijken begrijpen hoe zij de output ervan op een goede manier kunnen gebruiken. | AIシステムの提供者は、システムがどのように機能し、どのように対処すべきかを知っている。したがって、AIシステムの使用責任者が、その出力の適切な使用方法を理解できるよう、AIシステムの透明性を確保しなければならない。 |
| Hiervoor moeten instructies voor gebruik opgesteld worden, die onder andere de volgende punten bevat: | そのために、以下を含む使用説明書を作成すべきである: |
| • Contactgegevens; | - 連絡先の詳細; |
| • Het doel, de kenmerken, de capaciteiten en de beperkingen van de prestaties van het AI-systeem; | - AIシステムの目的、特徴、能力、性能の限界; |
| • De maatregelen voor menselijk toezicht. | - 人間の監督方法。 |
| 6. Menselijk toezicht | 6. 人間の監督 |
| Hoog-risico AI-systemen moeten door de aanbieder zo worden ontworpen dat er tijdens het gebruik menselijk toezicht op kan worden uitgeoefend, om hiermee risico’s voor personen te beperken. Het menselijk toezicht is contextafhankelijk – des te groter de risico’s des te sterker het toezicht moet zijn. De maatregelen voor het toezicht kunnen technisch van aard zijn (bijvoorbeeld een duidelijke mens-machine interface), of maatregelen die de gebruiksverantwoordelijken moeten uitvoeren (bijvoorbeeld een verplichte cursus voor hun personeel). | 高リスクAIシステムは、提供者により、使用中に人間による監督を可能にするよう設計されるべきであり、それにより個人へのリスクを軽減する。人間の監視は状況に依存し、リスクが高ければ高いほど、監視は強化されるべきである。監督措置は、技術的なもの(例えば、明確なヒューマン・マシン・インターフェース)であっても、使用責任者が実施する措置(例えば、スタッフに対する義務的なトレーニング)であってもよい。 |
| Uiteindelijk moeten de maatregelen ervoor zorgen dat de personen die het AI-systeem gaan gebruiken, het volgende kunnen: | 最終的には、AIシステムを使用する者が以下のことを確実に行えるような対策が必要である: |
| • De capaciteiten van het systeem begrijpen en de werking monitoren; | - システムの能力を理解し、その運用を監視する; |
| • Bewust zijn van ‘automation bias’; | - 自動化バイアス」に注意する; |
| • De output juist interpreteren en indien nodig negeren of vervangen; | - 出力を正しく解釈し、必要に応じて無視したり置き換えたりする; |
| • Het systeem stopzetten. | - システムを停止する。 |
| 7. Nauwkeurigheid, robuustheid en cyberbeveiliging | 7. 精度、堅牢性、サイバーセキュリティ |
| Hoog-risico AI-systemen moeten een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging bieden. Hiervoor worden, onder andere door de Europese Commissie, benchmarks en meetmethoden ontwikkeld. | 高リスクAIシステムは、適切なレベルの精度、堅牢性、サイバーセキュリティを提供しなければならない。この目的のために、欧州委員会を含め、ベンチマークや測定方法が開発されている。 |
| Hiervoor worden in ieder geval de volgende maatregelen genoemd: | この目的のために、少なくとも以下の対策が挙げられている: |
| • Technische en organisatorische maatregelen om fouten te voorkomen die ontstaan bij het gebruik van het AI-systeem door personen; | - 個人がAIシステムを使用する際に生じるエラーを防止するための技術的・組織的対策; |
| • Oplossingen voor robuustheid, zoals back-ups of veiligheidsmaatregelen bij defecten; | - 障害発生時のバックアップやセキュリティ対策などの堅牢性対策; |
| • Negatieve beïnvloeding van het systeem wegnemen of beperken door feedback loops te beperken; | - フィードバック・ループを制限することにより、システムへの悪影響を除去または軽減する; |
| • Cyberbeveiliging die ongewenste toegang door derden voorkomt, door aanvallen te traceren, erop te reageren en op te lossen. Het gaat dan om aanvallen die gericht zijn op datavervuiling, modelvervuiling, aanpassen van input of het verkrijgen van vertrouwelijke gegevens. | - 攻撃を追跡し、対応し、解決することで、第三者による不要なアクセスを防ぐサイバーセキュリティ。これには、データ汚染、モデル汚染、入力の変更、機密データの取得を目的とした攻撃が含まれる。 |
| 8. Systeem voor kwaliteitsbeheer | 8. 品質管理システム |
| Het systeem van kwaliteitsbeheer moet ervoor zorgen dat de eisen uit de AI-verordening worden nageleefd. Hoe uitgebreid dit systeem van kwaliteitsbeheer moet zijn, is afhankelijk van de grootte van de organisatie. Onder andere door het vastleggen van : | 品質管理システムは、AI規則の要求事項への準拠を保証するものでなければならない。この品質管理システムをどの程度広範なものにするかは、組織の規模によって異なる。品質マネジメントシステムには、以下を含めるべきである: |
| • Een strategie voor naleving; | - 遵守のための戦略; |
| • Technieken, procedures en maatregelen voor het ontwerp, de ontwikkeling en kwaliteitscontrole van het AI-systeem; | - AIシステムの設計、開発、品質管理のための技術、手順、手段; |
| • Het wel of niet gebruiken van standaardisatie; | - 標準化の使用、不使用 |
| • Systemen en procedures voor databeheer, risicobeheer, monitoring, incidentmelding en documentatie. | - データ管理、リスク管理、モニタリング、事故報告、文書化のためのシステムと手順。 |
| 9. Monitoring | 9. モニタリング |
| Zodra een AI-systeem in de handel gebracht is of in gebruik is, moeten aanbieders het systeem monitoren op basis van gebruiksdata om hiermee te controleren of het systeem aan de eisen uit de AI-verordening blijft voldoen. Hiervoor moeten aanbieders een plan voor monitoring opstellen. | AIシステムが市場に出回り、または使用されるようになると、プロバイダーは、システムが引き続きAI規則の要件を満たしていることを検証するために、使用データに基づいてシステムを監視しなければならない。そのために、提供者はモニタリングのための計画を作成しなければならない。 |
| Als de aanbieder van het hoog-risico AI-systeem erachter komt dat het systeem niet meer in overeenstemming met de AI-verordening werkt, moeten er meteen corrigerende maatregelen genomen worden om dit te herstellen. Dit kan zelfs het terugroepen van het systeem zijn indien dat nodig is. Ook moet de aanbieder met gebruiksverantwoordelijken samenwerken en de toezichthouders informeren hierover. | 高リスクのAIシステムの提供者は、システムがAI規制を遵守していないことが判明した場合、直ちに是正措置を講じなければならない。これには、必要に応じてシステムを回収することも含まれる。また、プロバイダーはユーザーの代表と協力し、規制当局に報告しなければならない。 |
| Ernstige incidenten met het AI-systeem moeten bij de toezichthouder(s) gemeld worden. | AIシステムの重大インシデントは、規制当局に報告されなければならない。 |
| Overige eisen | その他の要件 |
| • De registratie van het hoog-risico AI-systeem in de EU-databank. | - EUのデータベースに高リスクAIシステムを登録すること。 |
| • De contactgegevens van de aanbieder moeten bij het AI-systeem vermeld worden; | - 提供者の連絡先をAIシステムに記載すること; |
| • De technische documentatie, documentatie rondom het kwaliteitsbeheer en documentatie rondom de conformiteitsbeoordeling moeten voor 10 jaar worden bewaard. | - 技術文書、品質管理に関する文書、適合性評価に関する文書を10年間保存しなければならない。 |
| Regels voor gebruiksverantwoordelijken van hoog-risico AI-systemen | 高リスクAIシステムのユーザーに対する規則 |
| Niet alleen aanbieders, maar ook de gebruiksverantwoordelijken van hoog-risico AI-systemen moeten aan eisen gaan voldoen. Zij zijn immers degenen die controle hebben over hoe het AI-systeem in de praktijk gebruikt wordt en hebben daarmee een grote invloed op de risico’s die kunnen ontstaan. | 提供者だけでなく、リスクの高いAIシステムを使用する担当者も要件を満たすようにしなければならない。結局のところ、AIシステムが実際にどのように使用されるかを管理するのは彼らであり、その結果、発生する可能性のあるリスクに大きな影響を与えることになる。 |
| Gebruiksverantwoordelijken moeten: | 使用責任者は次のことを行わなければならない: |
| • Technische en organisatorische maatregelen nemen om ervoor te zorgen dat het hoog-risico AI-systeem volgens de gebruiksinstructies wordt gebruikt; | - 高リスクのAIシステムが使用説明書に従って使用されるよう、技術的・組織的措置を講じる; |
| • Ervoor zorgen dat de personen die toezicht houden op het systeem over de juiste kennis, kunde en autoriteit beschikken; | - システムを監督する者が適切な知識、技能及び権限を有することを確保する; |
| • Ervoor zorgen dat, voor zover dat kan, de inputdata voldoende relevant en representatief is; | - 可能な限り、入力データが十分に適切かつ代表的なものであることを確保する; |
| • De werking van het AI-systeem monitoren op basis van de gebruiksinstructies; | - 使用説明書に基づいてAIシステムの運用を監視すること; |
| • Als een gebruiksverantwoordelijke aanneemt dat het systeem niet meer aan de eisen uit de AI-verordening voldoet, dient deze de aanbieder op de hoogte te stellen en gebruik van het systeem te onderbreken; | - ユーザ監督者は、システムがAI規制の要件を満たさなくなったと判断した場合、プロバイダに通知し、システムの使用を停止すべきである; |
| • De aanbieder en toezichthouder(s) op de hoogte stellen van mogelijke risico’s en ernstige incidenten die hebben plaatsgevonden; | - 潜在的なリスクや重大なインシデントが発生した場合は、プロバイダーや規制当局に通知する; |
| • De logs waarover zij controle hebben voor ten minste zes maanden bewaren; | - 管理下にあるログを少なくとも6カ月間保管する; |
| • De werknemersvertegenwoordiging informeren indien het AI-systeem op de werkvloer wordt ingezet; | - AIシステムが職場に導入された場合、従業員代表に通知する; |
| • Als er beslissingen over mensen gemaakt worden met behulp van het hoog-risico AI-systeem, deze mensen hierover informeren. | - 高リスクAIシステムを使用する人について決定がなされた場合、そのことを知らせる。 |
| • Als er gebruik wordt gemaakt van AI voor emotieherkenning of biometrische categorisatie, moeten de mensen op wie dit wordt toegepast hierover geïnformeerd worden. | - AIが感情認識やバイオメトリクス分類に使用される場合、それが適用される人々に知らせる。 |
| Specifieke verplichtingen voor overheidsorganisaties als gebruiksverantwoordelijken | 利用者の管理者としての政府機関の具体的義務 |
| Overheidsorganisaties moeten in aanvulling op bovenstaande verplichtingen aan een aantal extra verplichtingen voldoen: | 政府機関は、上記に加え、さらに多くの義務を遵守しなければならない: |
| • Het registreren van het gebruik van een hoog-risico systeem in de EU-databank; | - EUのデータベースに高リスクシステムの使用を登録すること; |
| • Beoordelen wat de gevolgen voor de grondrechten kunnen zijn bij het gebruik van het hoog-risico | - 高リスクのAIシステムを使用する場合、基本的権利にどのような影響があるかを評価すること。 |
| AI-systeem, met oog voor de specifieke context waarbinnen het gebruik plaats vindt (een ‘fundamental rights impact assessment’). Zij kijken daarbij bijvoorbeeld naar de duur van het gebruik, de processen waarbinnen het systeem gebruikt wordt, en de impact die het gebruik op de grondrechten van natuurlijke personen en groepen kan hebben. Na identificatie van de risico’s moeten gebruiksverantwoordelijkheden maatregelen treffen voor menselijk toezicht en het omgaan met de eventuele risico’s. Ook moet er een melding bij de markttoezichthouder gedaan worden. | 高リスクのAIシステムを使用する場合、基本的権利にどのような影響を及ぼすかを、その使用が行われる特定の状況を考慮して評価する(「基本的権利影響評価」)。例えば、使用期間、システムが使用されるプロセス、使用が個人や集団の基本的権利に与える影響などを検討する。リスクを特定した後、利用者は、人的監督と起こりうるリスクへの対処のための措置を講じなければならない。また、市場規制当局に届け出なければならない。 |
| Let op: Deze verplichting geldt ook voor particulieren die openbare diensten verlenen, het gebruik van AI-systemen voor het beoordelen van de kredietwaardigheid van mensen en AI-systemen voor risicobeoordelingen voor levens -en ziektekostenverzekeringen. | 注:この義務は、公共サービスを提供する私人、信用度評価のためのAIシステムの使用、生命保険や医療保険のリスク評価のためのAIシステムにも適用される。 |
| 4.3. AI-modellen en systemen voor algemene doeleinden | 4.3. AIモデルと汎用システム |
| Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden | 汎用AIモデルの提供者の義務 |
| AI-modellen voor algemene doeleinden kunnen in allerlei verschillende AI-systemen geïntegreerd worden. Hiervoor is het wel van belang dat de aanbieders van deze AI-systemen weten wat het AI-model wel en niet kan. Ook worden er specifieke eisen gesteld aan het trainen van deze modellen, omdat hier vaak grote datasets voor gebruikt worden. De aanbieders van deze modellen moeten: | 汎用AIモデルは、様々な異なるAIシステムに統合することができる。そのため、これらのAIシステムの提供者は、AIモデルが何ができ、何ができないかを知っておく必要がある。また、大規模なデータセットが使用されることが多いため、これらのモデルのトレーニングにも特定の要件がある。これらのモデルのプロバイダーは、以下を行うべきである: |
| • Technische documentatie opstellen over onder andere het trainings- en testproces en de resultaten en evaluatie daarvan; | - 特に、トレーニングとテストのプロセス、その結果と評価に関する技術文書を準備する; |
| • Informatie en documentatie opstellen en updaten voor aanbieders van AI-systemen die het model in hun AI-systeem willen integreren. De informatie moet inzicht geven in de capaciteiten en beperkingen van het AI-model en moet de aanbieder van het AI-systeem in staat stellen om zelf aan de verplichtingen uit de AI-verordening te kunnen voldoen. | - モデルをAIシステムに統合しようとするAIシステム提供者のために、情報と文書を準備し、更新する。その情報は、AIモデルの能力と限界を理解させ、AIシステム提供者がAI規則に基づく義務を自ら果たせるようにするものでなければならない。 |
| • Beleid opstellen om ervoor te zorgen dat ze het model trainen zonder inbreuk te maken op de auteursrechten van mensen en organisaties; | - 人や組織の著作権を侵害することなくモデルを訓練するためのポリシーを確立する; |
| • Een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de content die gebruikt is om het AI-model te trainen. | - AIモデルの学習に使用したコンテンツについて、十分に詳細な概要を作成し、公開すること。 |
| Aanbieders van open-source modellen hoeven niet aan deze verplichtingen te voldoen. De AI-verordening bepaalt wanneer een model ‘echt’ open-source is. | オープンソースモデルの提供者は、これらの義務を果たす必要はない。AI規制は、モデルが 「真に」オープンソースであるかどうかを決定する。 |
| Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden met systeemrisico’s | システミック・リスクを伴う汎用AIモデル提供者の義務 |
| In sommige gevallen kunnen AI-modellen voor algemene doeleinden voor systeemrisico’s zorgen. Dit is het geval als het model capaciteiten met een grote impact heeft. Er wordt in ieder geval vanuit gegaan dat dit zo is, wanneer er ten minste 1025 ‘floating-point operations’ (FLOPs) zijn gebruikt om het model te trainen. Daarnaast kan de Europese Commissie op basis van bepaalde criteria vaststellen dat het model op een andere manier een vergelijkbaar grote impact heeft. Deze modellen moeten: | 場合によっては、汎用AIモデルがシステミック・リスクをもたらすことがある。これは、モデルが高い影響力を持つ場合である。いずれにせよ、モデルの訓練に少なくとも1025回の浮動小数点演算(FLOP)が使用された場合がこれに該当すると想定される。さらに、一定の基準に基づき、欧州委員会は、他の方法によっても、モデルが同様に高い影響力を持つと判断することができる。これらのモデルは、以下の条件を満たさなければならない: |
| • Aan de verplichtingen voor AI-modellen voor algemene doeleinden voldoen; | - 汎用AIモデルの義務を満たす; |
| • Modelevaluaties uitvoeren om systeemrisico’s in kaart te brengen; | - システミック・リスクを特定するためのモデル評価を実施する; |
| • Systeemrisico’s beperken; | - システミック・リスクを軽減する; |
| • Informatie over ernstige incidenten bijhouden en rapporteren aan het AI-Office; | - 重大インシデントに関する情報を維持し、AI事務局に報告すること; |
| • Zorgen voor passende cyberbeveiliging. | - 適切なサイバーセキュリティを確保する。 |
| Let op: deze verplichtingen gelden alleen voor de grootste AI-modellen. | これらの義務は、最大規模のAIモデルにのみ適用されることに留意されたい。 |
| Aanbieders van deze modellen met systeemrisico’s kunnen zich niet op een uitzondering voor open-source beroepen. | システムリスクを抱えるこれらのモデルのプロバイダーは、オープンソースの例外に頼ることはできない。 |
| Welke rechten heeft u als u een AI-model voor algemene doeleinden integreert in uw (hoog-risico) AI systeem? Zoals hierboven ook aangegeven, moet u in ieder geval informatie en documentatie ontvangen zodat u zelf een inschatting kunt maken op welke manier u het model in uw AI-systeem kunt gebruiken voor het door u gekozen doel. Als u het model in een hoog-risico AI-systeem verwerkt, moet u zich vervolgens als aanbieder nog steeds aan de verplichtingen uit de AI-verordening houden. | 汎用のAIモデルを(高リスクの)AIシステムに統合した場合、どのような権利があるのか?上にも示したように、少なくとも、あなたが選んだ目的のために、そのモデルをあなたのAIシステムでどのように使うかについて、あなた自身が評価できるように、情報と文書を受け取るべきである。そのモデルを高リスクのAIシステムに組み込んだ場合でも、プロバイダーとしてAI規制の義務を遵守しなければならない。 |
| Hoe moet u omgaan met AI-systemen voor algemene doeleinden? Zoals aangegeven onder 1.3. AI modellen en AI-systemen voor algemene doeleinden op pagina 8, bestaan er ook AI-systemen die verschillende doeleinden kunnen dienen. Denk bijvoorbeeld aan de bekende AI-chatbots. Let op: Indien u deze systemen voor hoog-risico doeleinden inzet, wordt u volgens de AI-verordening zelf de aanbieder van een hoog-risico AI-systeem. U zal dan aan de bijbehorende verplichtingen moet voldoen. Het is in deze situatie erg lastig om aan de verplichtingen voor een hoog-risico AI-systeem te voldoen, waardoor u het risico loopt om een boete te ontvangen. | 汎用AIシステムはどのように扱うべきか?1.3.で示したとおりである。AIモデルと汎用AIシステム」(8ページ)で示したように、AIシステムにはさまざまな目的がある。例えば、よく知られているAIチャットボットについて考えてみよう。注:これらのシステムをリスクの高い目的で導入した場合、AI規制によれば、あなた自身がリスクの高いAIシステムの提供者となる。そして、関連する義務を遵守しなければならなくなる。この場合、高リスクAIシステムの義務を遵守することは非常に困難であり、罰金を科されるリスクがある。 |
| 4.4. Generatieve AI en Chatbots | 4.4. 生成的AIとチャットボット |
| Om ervoor te zorgen dat mensen weten of zij met een AI-systeem praten of content zien die door AI is gegenereerd, worden er transparantieverplichtingen gesteld aan generatieve AI en chatbots. | AIシステムと会話しているのか、AIが生成したコンテンツを見ているのかを人々が確実に把握できるようにするため、生成型AIとチャットボットには透明性の義務が課せられている。 |
| Regels voor aanbieders van chatbots | チャットボットの提供者に対するルール |
| Aanbieders van systemen die gemaakt zijn voor directe interactie met mensen, moeten ervoor zorgen dat deze mensen erover worden geïnformeerd dat ze met een AI-systeem te maken hebben. | 人々との直接対話のために作られたシステムの提供者は、これらの人々がAIシステムを扱っていることを知らされるようにしなければならない。 |
| Regels voor aanbieders van generatieve AI | 生成的AIの提供者に対するルール |
| Aanbieders van systemen die audio, beeld, video of tekst genereren moeten ervoor zorgen dat de output in een machineleesbaar format gemarkeerd wordt zodat de output herkend kan worden als kunstmatig gegenereerd of gemanipuleerd. | 音声、画像、動画、テキストを生成するシステムの提供者は、出力が人工的に生成または操作されたものであると認識できるように、出力が機械可読形式でマークされていることを保証しなければならない。 |
| Regels voor gebruiksverantwoordelijken van generatieve AI | 生成的AIのユースケースに関するルール |
| Gebruiksverantwoordelijken van systemen die audio, beeld, video genereren moeten ervoor zorgen dat duidelijk is dat de inhoud kunstmatig gegenereerd of gemanipuleerd is. Dit kan bijvoorbeeld door een watermerk. Voor creatief, satirisch, fictief of analoog werk mag dit gedaan worden op een manier die het werk niet verpest. | 音声、画像、動画を生成するシステムの利用管理者は、コンテンツが人為的に生成または操作されたものであることが明らかであることを保証すべきである。これは、例えば透かしによって行うことができる。創作的、風刺的、フィクション的、またはアナログ的な作品については、作品を損なわない方法でこれを行うことができる。 |
| Voor kunstmatig gegenereerde tekst geldt een speciaal regime. Alleen voor tekst die gebruikt wordt om ‘het publiek te informeren over aangelegenheden van algemeen belang’ moet er duidelijk gemaakt worden dat het kunstmatig is gegenereerd of bewerkt. Wanneer er sprake is van redactionele controle en verantwoordelijkheid, hoeft dit niet gedaan te worden. | 人工的に生成されたテキストには、特別な制度が適用される。公共の利害に関する事項を公衆に知らせる」ために使用されるテキストに限り、それが人為的に生成または編集されたものであることを明らかにしなければならない。編集管理と責任がある場合は、その必要はない。 |
| Regels voor gebruiksverantwoordelijken van emotieherkenningssystemen of systemen voor biometrische categorisering | 感情認識システムやバイオメトリクス分類システムの使用に責任を持つ者のための規則 |
| De gebruiksverantwoordelijken van deze AI-systemen moeten de mensen die aan het systeem blootgesteld worden informeren over hoe het systeem werkt. | これらのAIシステムの使用責任者は、システムに接する人々に、システムがどのように機能するかを知らせるべきである。 |
| 4.5. Overige AI | 4.5. その他のAI |
| AI-systemen die buiten de hierboven genoemde categorieën vallen, hoeven niet aan eisen onder de AI-verordening te voldoen. | 上記のカテゴリーに該当しないAIシステムは、AI規則に基づく要件に準拠する必要はない。 |
| Maar let op: als u als gebruiksverantwoordelijke het ‘overige categorie’ AI-systeem inzet voor een hoog-risico toepassing zoals genoemd in de AI-verordening (zie 1.2. Hoog-risico AI-systemen op pagina 5), dan wordt het automatisch een hoog-risico AI-systeem en moet u als aanbieder van het systeem voldoen aan de eisen uit de AI-verordening. | ただし、使用責任者として、AI規則(5ページの1.2 ハイリスクAIシステムを参照)に記載されているハイリスク用途に「その他のカテゴリー」のAIシステムを導入した場合、自動的にハイリスクAIシステムとなり、システムの提供者として、AI規則に基づく要件を遵守しなければならないことに留意されたい。 |
| [1] https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689 | |
| [2] Er gaan ook specifieke transparantie-eisen gelden voor emotieherkenning- en biometrische categoriseringssystemen. Omdat dit ook hoog-risico AI-systemen zijn, zijn deze eisen opgenomen onder de hoog-risico verplichtingen in stap 4.2. | [2] 特定の透明性要件は、感情認識およびバイオメトリクス分類システムにも適用される。これらも高リスクのAIシステムであるため、これらの要件はステップ4.2の高リスク義務に含まれる。 |
| [3] https://www.nen.nl/ict/digitale-ehtiek-en-veiligheid/ai | |
● まるちゃんの情報セキュリティ気まぐれ日記
・2024.09.25 ベルギー データ保護機関 AIシステムとGDPR (2024.09.19)
・2024.08.05 欧州AI法が施行された... (2024.08.01)
・2024.07.19 ドイツ BfDI フランス CNIL オランダ AP EU AI法関連
・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された
・2024.05.22 EU 欧州理事会がAI法を承認...まもなく発効されますね...
・2024.03.19 欧州議会 AI法 (2024.03.13) とサイバーレジリエンス法を採択 (2024.03.12)
・2023.12.10 欧州委員会、欧州議会がAI法について政治的合意
・2022.12.08 EU理事会 AI法に関する見解を採択
・2022.09.30 欧州委員会 AI責任指令案
・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出
・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26
・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね
« EDPB Privacy指令の対象となるトラッキング技術を明確にするためのガイドライン Ver2.0 (2024.10.16) | Main | 米国 CISA 米国の民主的機関を弱体化させるイラン支援のサイバー活動を警告と対処法 (2024.10.08) »

Comments