ドイツ BfDI フランス CNIL オランダ AP EU AI法関連
こんにちは、丸山満彦です。
2024.07.12にEUのAI法が官報に掲載されたことを受けて、ドイツのBfDI、フランスのCNIL、オランダのAPがAI法関連の情報を掲載していますね...
CNILの内容は特によいように感じます。
まずは、ドイツのBfDI
● Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit; BfDI
・2024.07.16 Die neue KI-Verordnung der EU
Die neue KI-Verordnung der EU | EUの新しいAI規制 |
Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) fasst zur Veröffentlichung der Verordnung über künstliche Intelligenz (KI-VO) die wichtigsten Punkte aus Sicht des Datenschutzes zusammen. | 連邦データ保護・情報自由委員会(BfDI)は、人工知能規則(AI規則)の公表について、データ保護の観点から最も重要な点をまとめている。 |
Die KI-VO wurde am 13. Juni von den Präsidenten des EU Parlaments und des Rates der EU unterzeichnet. Nach der Veröffentlichung im Amtsblatt der EU am 12. Juli tritt die Verordnung 20 Tage später in Kraft. Sie stellt umfassende Regeln auf, um Grundrechte zu gewährleisten und Innovation zu fördern, darunter ein Verbot von Social Scoring und von bestimmten Methoden der Gesichtserkennung. In der Einschätzung des BfDI erfahren Sie mehr zum Thema. | AI規則は6月13日、EU議会とEU理事会の議長によって署名された。7月12日にEU官報に掲載された後、同規則は20日後に発効する。同規則は、基本的権利を保証し、イノベーションを促進するための包括的な規則を定めており、ソーシャル・スコアリングや特定の顔認識方法の禁止も含まれている。BfDIの評価で詳細を確認する。 |
Die KI-Verordnung der EU | EUのAI規則 |
Die KI-VO stellt umfassende Regeln für KI auf, welche die Einhaltung der Grundrechte gewährleisten und gleichzeitig Innovation fördern sollen. | AI規則は、基本的権利の遵守を確保し、同時にイノベーションを促進することを目的とした、AIに関する包括的な規則を制定している。 |
In der KI-VO wird ein risikobasierter Ansatz verfolgt. KI-Praktiken, die mit fundamentalen Werten der EU nicht vereinbar sind und ein inakzeptables Risiko für die Grundrechte der EU Bürgerinnen und Bürger darstellen, werden verboten. Darunter fällt beispielsweise das sogenannte „Social Scoring“, die Bewertung natürlicher Personen auf Grundlage ihres Sozialverhaltens, aber auch die Erstellung von Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet. | AI規則はリスクベースのアプローチをとっている。EUの基本的価値観と相容れず、EU市民の基本的権利に受け入れがたいリスクをもたらすAI行為は禁止されている。これには、例えば、いわゆる「ソーシャル・スコアリング」と呼ばれる、社会的行動に基づいて自然人を評価する行為や、インターネット上の顔画像を無制限に読み取って顔認識用のデータベースを作成する行為などが含まれる。 |
KI-Systeme in bestimmten anderen Bereichen werden als mit hohem Risiko behaftet klassifiziert. Das umfasst etwa KI-Systeme, die in Produkten wie Funkanlagen oder Fahrzeugen eingesetzt werden, aber auch solche KI-Systeme, die zur biometrischen Fernidentifizierung oder bei der Prüfung von Asylanträgen zum Einsatz kommen. Für solche Hochrisiko-KI-Systeme gelten spezifische Anforderungen, beispielsweise an die Qualität der verwendeten Daten, die Genauigkeit, die Robustheit und die Cybersicherheit. Zusätzlich muss es für Hochrisiko-KI-Systeme eine technische Dokumentation, eine Protokollierungsfunktion und ein Risikomanagement geben. Weitere Anforderungen sind Transparenz und menschliche Aufsicht. | その他の特定分野のAIシステムは、高リスクに分類される。これには、無線機器や自動車などの製品に使用されるAIシステムだけでなく、遠隔生体認証や亡命申請のチェックに使用されるAIシステムも含まれる。このような高リスクのAIシステムには、使用するデータの品質、正確性、堅牢性、サイバーセキュリティなどに関して、特定の要件が適用される。さらに、リスクの高いAIシステムには、技術文書、ロギング機能、リスク管理が義務付けられている。その他の要件としては、透明性と人的監視がある。 |
Bestimmte Transparenzanforderungen müssen auch von KI-Systemen, die mit natürlichen Personen interagieren, Emotionserkennungssystemen, biometrischen Kategorisierungssystemen und KI-Systemen mit allgemeinem Verwendungszwecke erfüllt werden. KI-Systeme, die nur mit geringen Risiken verbunden sind, sind nicht von der KI-VO betroffen. Das bedeutet allerdings nicht, dass für diese KI-Systeme keine Gesetze gelten. KI befand sich auch vor der KI-VO nicht in einem rechtsfreien Raum. Die DSGVO ist technologieneutral und gilt insbesondere auch für KI-Systeme, das wird auch mit der KI-VO weiterhin der Fall sein. Die KI-VO ergänzt bestehende rechtliche Vorgaben. Wegen der hohen Komplexität von KI-Systemen und der im Vergleich zu herkömmlicher Software geringeren Nachvollziehbarkeit und Transparenz sind die KI-spezifischen Vorgaben aus der KI-VO für den Schutz der Grundrechte sinnvoll. Auch die Datenschutzaufsichtsbehörden erhalten durch die KI-VO neue Aufgaben und Befugnisse. | 自然人と対話するAIシステム、感情認識システム、生体認証分類システム、汎用AIシステムについても、一定の透明性要件を満たさなければならない。リスクが低いAIシステムは、AI規制の影響を受けない。しかし、これはこれらのAIシステムに法律が適用されないことを意味するものではない。AI規則が制定される以前から、AIは法的空白地帯にあったわけではない。GDPRは技術的に中立であり、特にAIシステムにも適用される。AI規則は既存の法的要件を補完するものである。AIシステムは複雑性が高く、従来のソフトウェアに比べてトレーサビリティや透明性が低いため、AI規則によるAI固有の要件は基本的権利の保護にとって意味がある。AI規則はまた、データ保護監督当局に新たな任務と権限を与えている。 |
Informationen, Befugnisse und Aufgaben für Datenschutzaufsichtsbehörden | データ保護監督当局の情報、権限、任務 |
Als für den Schutz der Grundrechte zuständige Behörden erhalten sie Zugriff auf für die Erfüllung ihrer Aufgaben erforderliche Dokumente, die zur Einhaltung der KI-VO erstellt werden müssen. Bei ihren bestehenden Aufsichtstätigkeiten werden die Datenschutzaufsichtsbehörden zudem unterstützt, indem sie, falls erforderlich, technische Untersuchungen durch die Marktüberwachungsbehörden für KI anfragen können. Außerdem sind sie von diesen über Meldungen schwerwiegender Vorkommnisse zu informieren. Einige Hochrisiko-KI-Systeme müssen grundsätzlich von den Anbietenden in einer EU-Datenbank registriert werden. Diese Registrierungen sind in bestimmten Fällen nicht öffentlich, die Datenschutzaufsichtsbehörden dürfen diese aber einsehen. | 基本的権利の保護に責任を負う当局として、当局はその任務遂行に必要な文書にアクセスすることができ、それらはAI規則を遵守するために作成されなければならない。また、データ保護監督当局は、必要に応じてAIに関する市場監視当局の技術的調査を要請することができ、既存の監督活動を支援される。また、重大インシデントの報告については、これらの当局から報告を受けなければならない。リスクの高いAIシステムの中には、提供者がEUのデータベースに登録しなければならないものもある。場合によっては、これらの登録は公開されないが、データ保護監督当局は閲覧することができる。 |
Bei der Aufsicht über staatliche Strafverfolgungsbehörden ist eine weitere Ergänzung vorgesehen. So muss auf Nachfrage die Dokumentation der Anwendung biometrischer Fernidentifizierungssysteme gegenüber der zuständigen Datenschutzaufsichtsbehörde offengelegt werden. Zudem müssen den Datenschutzaufsichtsbehörden zusammengefasste Jahresberichte über die Verwendung von biometrischen Fernidentifizierungssystemen vorgelegt werden. | 国家法執行当局の監督については、さらなる追加が計画されている。例えば、バイオメトリクス遠隔識別システムの使用に関する文書は、要求に応じて管轄のデータ保護監督当局に開示されなければならない。さらに、バイオメトリクス遠隔識別システムの使用に関する要約された年次報告書をデータ保護監督当局に提出しなければならない。 |
Eine weitere Aufgabe für die Datenschutzaufsichtsbehörden ergibt sich im Rahmen der Reallabore, die in der KI-VO zur Innovationsförderung vorgesehen sind. Reallabore sollen eine kontrollierte Umgebung bieten, die die Entwicklung, das Training, das Testen und die Validierung innovativer KI-Systeme für einen begrenzten Zeitraum erleichtert. Wenn in einem solchen Reallabor personenbezogene Daten verarbeitet werden, sind die Datenschutzaufsichtsbehörden einzubeziehen. | データ保護監督当局のさらなる任務は、イノベーションを促進するためにAI規則で規定されている実世界ラボとの関連で生じる。リアルワールド・ラボは、革新的なAIシステムの開発、訓練、テスト、検証を一定期間容易にする管理された環境を提供することを目的としている。そのような実世界ラボで個人データが処理される場合、データ保護監督当局は関与しなければならない。 |
Diese Aspekte ergänzen bereits bestehende Aufgaben und Befugnisse der Datenschutzaufsichtsbehörde und stärken den Schutz der Grundrechte und die Einhaltung des Datenschutzes. Der BfDI begrüßt diese Änderungen und freut sich auf die neuen Aufgaben. | これらの側面は、データ保護監督当局の既存の任務と権限を補完し、基本的権利の保護とデータ保護の遵守を強化するものである。BfDIはこれらの変更を歓迎し、新たな任務に期待している。 |
Grundsätzlich bleibt die Zuständigkeit der Datenschutzaufsichtsbehörden für den Datenschutz aber von der KI-VO unberührt. Bei Beschwerden über Datenschutzverletzungen im Zusammenhang mit KI-Systemen sind weiterhin die Datenschutzaufsichtsbehörden die zuständigen Ansprechpartner. Bürgerinnen und Bürger können entsprechende Beschwerden an die für sie bereits zuständige Datenschutzaufsichtsbehörde richten. | しかし、原則として、データ保護に関するデータ保護監督当局の権限は、AI規則の影響を受けないままである。AIシステムに関連したデータ保護違反に関する苦情については、データ保護監督当局が引き続き管轄窓口となる。市民はそのような苦情を、すでに担当しているデータ保護監督当局に訴えることができる。 |
Aufsichtsstrukturen für die KI Aufsicht | AI監督のための監督機構 |
Die KI-VO beinhaltet allerdings auch umfassende neue Regeln für KI. Die Aufsicht über die Einhaltung dieser Vorgaben ist grundsätzlich nach Sektoren aufgeteilt. Für einige KI-Systeme wird die Zuständigkeit bei der EU Kommission liegen, die dafür ein Büro für KI einrichtet. Dieses wird KI-Modelle mit allgemeinem Verwendungszweck und KI-Systeme mit allgemeinem Verwendungszweck, die auf einem Modell desselben Anbieters basieren, beaufsichtigen. Darunter fallen zum Beispiel Chatbots, die auf einem großen Sprachmodell (engl. Large Language Model) des gleichen Herstellers beruhen. | しかし、AI規則にはAIに関する包括的な新規則も含まれている。これらの要求事項の遵守の監督については、基本的に分野ごとに分かれている。一部のAIシステムについては、EU委員会が責任を負うことになり、同委員会はそのためのAI事務所を設置する。このオフィスは、汎用のAIモデルと、同じプロバイダーのモデルをベースにした汎用のAIシステムを監督する。これには、例えば、同じベンダーの大規模な言語モデルに基づくチャットボットなどが含まれる。 |
Für Hochrisiko-KI-Systeme, die in Produkten wie Funkanlagen oder Fahrzeugen eingesetzt werden für die es bereits EU Produktregulierungen gibt, werden die dafür zuständigen Marktüberwachungsbehörden der Mitgliedstaaten auch die Einhaltung der zusätzlichen Vorgaben aus der KI-VO durchsetzen. Für den Finanzbereich sieht die KI-VO vor, dass die für die Finanzaufsicht zuständigen Behörden in diesem Bereich auch für die KI-VO zuständig sind. Für Hochrisiko-KI-Systeme, die im Bereich der Strafverfolgung, Migration, Asyl oder Grenzkontrolle, sowie bei der Rechtspflege und im Zusammenhang mit demokratischen Prozessen eingesetzt werden, sind die Datenschutzaufsichtsbehörden als Marktüberwachungsbehörden vorgesehen. | EUの製品規制がすでに存在する無線機器や自動車などの製品に使用される高リスクのAIシステムについては、加盟国の担当市場監視当局もAI規則の追加要件の遵守を強制する。金融分野については、この分野の金融監督を担当する当局がAI規則にも責任を持つことが規定されている。法執行、移民、亡命、国境管理、司法行政、民主主義プロセスなどの分野で使用されるリスクの高いAIシステムについては、データ保護監督当局が市場監視当局として想定されている。 |
Ein spannender Aspekt und noch offen ist, welche nationalen Behörden die Aufsicht über die KI-Systeme mit allgemeinem Verwendungszweck haben werden, die nicht unter die Zuständigkeit des Europäischen Büros für KI fallen. Außerdem ist nicht festgelegt, welche Behörden die Marktüberwachungsbehörden für die KI-Systeme zur biometrischen Fernidentifizierung oder Kategorisierung und zur Emotionserkennung sein werden. Auch die Zuständigkeiten für Hochrisiko-KI-Systeme in den Bereichen kritische Infrastruktur, allgemeine und berufliche Bildung, Arbeitnehmermanagement, sowie Zugang zu und Inanspruchnahme grundlegender privater Dienstleistungen und grundlegender öffentlicher Dienste und Leistungen sind noch nicht festgelegt. | 興味深い点としては、欧州AIビューローの権限に属さない汎用AIシステムの監督を、どの国家当局が担当するかがまだ決まっていない。また、遠隔生体認証や分類、感情認識のためのAIシステムについても、どの当局が市場監視当局となるかは決まっていない。また、重要インフラ、教育・訓練、労務管理、必要不可欠な民間サービスや必要不可欠な公共サービス・給付へのアクセス・利用といった分野におけるリスクの高いAIシステムに対する責任も、まだ定義されていない。 |
Insgesamt sind die Aufsichtsstrukturen für KI sehr komplex. Insbesondere in Deutschland führt das föderale System zu einer besonders hohen Anzahl an Behörden, die in die KI-Aufsicht involviert sein werden. Damit es für Interessenträger dennoch nur einen zentralen Kontaktpunkt bei Anliegen im Kontext der KI-VO gibt, soll jeder Mitgliedstaat einen sogenannten Single-Point-of-Contact benennen. Dieser ist für Bürgerinnen und Bürger besonders relevant im Hinblick auf das Recht auf Einreichung einer Beschwerde bei einer Marktüberwachungsbehörde, da solche Beschwerden dann an diesen Single-Point-of-Contact gerichtet werden können. Zukünftig sollen zudem Verstöße gegen die KI-VO dort gemeldet werden. Welche Behörde diese Aufgabe in Deutschland übernehmen wird ist noch nicht festgelegt. | 全体として、AIの監督機構は非常に複雑である。特にドイツでは、連邦制を採用しているため、AI監督に関わる当局の数が特に多い。AI規則に関連して懸念を抱く利害関係者の窓口を一本化するため、各加盟国は窓口を一本化することになっている。これは特に、市場監視当局に苦情を申し立てる権利に関する市民にとって重要である。将来的には、AI規則の違反もこの窓口で報告されることになる。ドイツでどの認可機関がこの任務を担うかはまだ決まっていない。 |
Ausblick | 展望 |
Die noch offenen Zuständigkeiten unterliegen jetzt einer Umsetzung auf nationaler Ebene. In engem Austausch mit den in Frage kommenden Behörden wird aktuell eine entsprechende Zuordnung ausgehandelt, die den jeweiligen Besonderheiten der einzelnen Bereiche entsprechen und eine möglichst reibungslose Zusammenarbeit der verschiedenen Stellen gewährleisten soll. Die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) hat dazu ein Positionspapier veröffentlicht. | 現在、未解決の責務は、各国レベルでの実施に委ねられている。該当する当局との緊密な対話の中で、現在、各分野の特殊性に対応し、各機関間の協力が可能な限り円滑に行われるよう、対応する割り当てについて交渉中である。独立連邦・州データ保護監督機関会議(DSK)は、これに関するポジションペーパーを発表した。 |
Behörden und Firmen haben zunächst eine Übergangsfrist zur Umsetzung der Vorgaben aus der KI-VO. Die Verbote von KI-Praktiken, die ein inakzeptables Risiko für die Grundrechte der EU Bürgerinnen und Bürger darstellen, gelten bereits 6 Monate nach Inkrafttreten der KI-VO. Die übrigen Vorgaben werden nach einem bis drei Jahren gelten. | 当局と企業は当初、AI規則の要求事項を実施するための経過措置期間が設けられている。EU市民の基本的権利に許容できないリスクをもたらすAI慣行の禁止は、AI規則の発効から6ヵ月後に適用される。その他の要件は1~3年後に適用される。 |
Bei einigen Aspekten lässt die KI-VO Raum für nationale Anpassungen. Der BfDI empfiehlt der Bundesregierung diese Möglichkeit im Kontext der biometrischen Fernidentifizierung zu nutzen und striktere nationale Verbote umzusetzen. | いくつかの点については、AI規則は国内調整の余地を残している。BfDIは、連邦政府に対し、遠隔生体認証に関してこの可能性を活用し、より厳格な国内禁止措置を実施するよう勧告する。 |
次はフランスのCNIL
・CNIL
・2024.07.12 Entrée en vigueur du règlement européen sur l’IA : les premières questions-réponses de la CNIL
Entrée en vigueur du règlement européen sur l’IA : les premières questions-réponses de la CNIL | AIに関する欧州規制の発効:CNILの最初の質問と回答 |
Depuis un an, la CNIL a lancé son plan d’action pour promouvoir une IA respectueuse des droits des personnes sur leurs données et sécuriser les entreprises innovant en la matière dans leur application du RGPD. À l’occasion de la publication du règlement IA au JOUE, la CNIL répond à vos questions sur ce nouveau texte. | 1年前、フランスデータ保護局(CNIL)は、データに対する人々の権利を尊重するAIを推進し、この分野でイノベーションを起こす企業がGDPRを適用する際の安全性を提供するための行動計画を発表した。OJEUでのAI規則の公表に際して、CNILはこの新しい文書に関する質問に答えている。 |
résentation du règlement IA | AI規則の紹介 |
Qu’est-ce que prévoit le règlement IA (ou AI Act) ? | AI規則(またはAI法)は何を規定するのか? |
Qui contrôlera l’application du RIA dans l’UE et en France ? | 誰がEUおよびフランスにおけるAI規則の適用を監視するのか? |
Comment la CNIL va-t-elle prendre en compte le RIA ? | CNILはRIAをどのように考慮するのか? |
Quand le RIA entre-t-il en application ? | RIAはいつ発効するのか? |
Comment s’articulent le RGPD et le RIA ? | RGPDとRIAはどのように整合するのか? |
Le RIA remplace-t-il les exigences du RGPD ? | RIAはRGPDの要求事項に取って代わるのか? |
>RIA / RGPD : comment savoir quel(s) règlement(s) s’applique(nt) à moi ? | RIA/RGPD:どの規制が適用されるかを知るには? |
Comment le RIA impacte-t-il le RGPD ? | RIAはRGPDにどのような影響を与えるのか? |
Transparence et documentation : comment articuler ces exigences du RIA avec celles du RGPD ? | 透明性と文書化:RIAの要求事項とRGPDの要求事項をどのように関連づければよいか? |
オランダ...
● Autoriteit Persoonsgegevens; AP
AI-verordening | AI規制 |
De AI-verordening komt eraan: de eerste uitgebreide wet over kunstmatige intelligentie ter wereld. In de AI-verordening staan de regels voor het verantwoord ontwikkelen en gebruiken van AI door bedrijven, overheden en andere organisaties. | 人工知能に関する世界初の包括的な法律「AI規則」が誕生する。AI規制は、企業、政府、その他の組織によるAIの責任ある開発と利用のためのルールを定めたものである。 |
De verordening gaat gefaseerd in en zal medio 2027 geheel van kracht zijn. Een aantal AI-systemen is waarschijnlijk vanaf eind 2024 al verboden. Daarom is het slim om u nu alvast voor te bereiden. Zie ook de 'snelle antwoorden' op deze pagina. | 規制は段階的に導入され、2027年半ばには完全に施行される予定だ。一部のAIシステムは、早ければ2024年末に禁止される可能性が高い。したがって、今から準備しておくのが賢明だ。このページの「クイックアンサー」も参照のこと。 |
Rapportage AI- en algoritmerisico’s Nederland | オランダでAIとアルゴリズムのリスクを報告する |
De AP publiceert elk half jaar een Rapportage AI- en algoritmerisico’s Nederland (RAN), om daarmee een beeld te geven van ontwikkelingen en trends in de risico’s. | APは6カ月ごとに、リスクの進展と傾向を把握するため、Rapportage AI- en algoritmerisk's Nederland (RAN) (オランダのAIとアルゴリズムリスクに関する報告書)を発行している。 |
Waarom deze wet? | なぜこの法律なのか? |
De AI-verordening is er om ervoor te zorgen dat iedereen in Europa erop kan vertrouwen dat AI-systemen veilig werken en dat grondrechten beschermd zijn. Ook al zijn er veel systemen met weinig risico’s en zijn er allerlei voordelen aan AI, er is ook een hele andere kant. Bestaande wetten zoals de Algemene verordening gegevensbescherming (AVG) en de Wet politiegegevens (Wpg) bieden al bescherming. Bijvoorbeeld als AI-systemen worden gebruikt om persoonsgegevens te verwerken. Maar dat is onvoldoende om alle risico’s aan te pakken die bij AI komen kijken. Onverantwoord gebruik van AI kan bijvoorbeeld leiden tot discriminatie, beperkingen van onze vrijheden en misleiding en uitbuiting van mensen. De AI-verordening helpt ervoor te zorgen dat ontwikkelaars van AI-systemen risico’s aanpakken en dat daar toezicht op is. | AI規制は、AIシステムが安全に機能し、基本的権利が保護されることを欧州の誰もが信頼できるようにするためにある。AIには低リスクのシステムも多く、さまざまな利点があるが、まったく別の側面もある。一般データ保護規則(AVG)や警察データ法(Wpg)といった既存の法律は、すでに保護を提供している。例えば、AIシステムが個人データの処理に使用される場合などだ。しかし、AIに関わるすべてのリスクに対処するには不十分だ。例えば、AIの無責任な使用は、差別、私たちの自由の制限、人々の欺瞞や搾取につながる可能性がある。AI規制は、AIシステムの開発者がリスクに対処し、これを監督することを保証するのに役立つ。 |
Voor wie gelden de regels in de AI-verordening? | AI規制のルールは誰に適用されるのか? |
De AI-verordening is zowel gericht op organisaties die AI aanbieden als op organisaties die de AI gebruiken. Van overheid en zorginstelling tot het mkb. | AI規制は、AIを提供する組織と利用する組織の双方を対象としている。政府機関や医療機関から中小企業に至るまでである。 |
Aanbieders moeten er bijvoorbeeld voor zorgen dat de systemen die ze ontwikkelen voldoen aan de eisen voordat ze deze in de handel brengen en deze in gebruik mogen worden genomen. Ook moeten zij blijven monitoren of er risico’s ontstaan voor bijvoorbeeld de bescherming van grondrechten. En actie ondernemen als er iets mis is met het systeem. Aanbieders moeten er ook voor zorgen dat de systemen voldoende transparant zijn zodat ze op de juiste manier gebruikt worden. | 例えば、プロバイダーは、開発したシステムを販売し、使用を許可する前に、そのシステムが要件を満たしていることを確認しなければならない。また、例えば基本的権利の保護に何らかのリスクが生じないかどうかを監視し続けなければならない。そして、システムに何か問題があれば、対策を講じなければならない。プロバイダーはまた、システムが適切に利用されるよう、十分な透明性を確保しなければならない。 |
Organisaties hebben bijvoorbeeld de verantwoordelijkheid het AI-systeem te gebruiken volgens de gebruiksaanwijzing die de aanbieder meegeeft. Ook moeten gebruikende organisaties zorgen dat er menselijk toezicht is, relevante en voldoende representatieve inputdata gebruiken en incidenten melden bij de aanbieder en de toezichthouder. In bepaalde gevallen moeten zij ook het gebruik van het systeem registeren in een Europese databank. | 例えば、組織は、プロバイダーが提供するユーザーマニュアルに従ってAIシステムを使用する責任がある。また、使用する組織は、人間による監督を確保し、適切かつ十分に代表的な入力データを使用し、インシデントをプロバイダーと規制当局に報告しなければならない。場合によっては、システムの利用を欧州のデータベースに登録しなければならない。 |
Daarnaast regelt de AI-verordening dat alle mensen die in aanraking komen met een AI-systeem, het recht hebben om: | さらにAI規制は、AIシステムに接触するすべての人が以下の権利を有することを規定している: |
een klacht in te dienen bij een toezichthouder; | 規制当局に苦情を申し立てる; |
in sommige gevallen een toelichting te krijgen wanneer er een besluit over hen wordt genomen op basis van de uitvoer van een AI-systeem met een hoog risico. | 高リスクのAIシステムの輸出に基づく決定がなされた場合、場合によっては説明を受ける権利がある。 |
Wat regelt de AI-verordening? | AI規制は何を規制しているのか? |
De AI-verordening deelt AI-systemen in aan de hand van risicogroepen. Hoe hoger het risico voor burgers en de samenleving als geheel, hoe strenger de regels. Belangrijke punten die de wet bijvoorbeeld regelt zijn dat: | AI規制は、AIシステムをリスクグループによって分類している。市民や社会全体に対するリスクが高ければ高いほど、規則は厳しくなる。法律が規制する重要なポイントは、例えば以下の通りである: |
toepassingen die een onaanvaardbaar risico met zich meebrengen worden verboden; | 許容できないリスクをもたらすアプリケーションは禁止される; |
toepassingen die een hoog risico vormen aan strengere regels worden gebonden. Voorbeelden zijn AI-systemen die bedoeld zijn voor werving- en selectie of voor rechtshandhaving. Organisaties moeten bijvoorbeeld activiteiten van het systeem loggen, adequaat datamanagement inrichten en zorgen dat er menselijk toezicht mogelijk is. Ze moeten ook kunnen aantonen dat ze aan deze verplichtingen voldoen. De AI-verordening bevat een lijst met hoogrisicosystemen die aan deze en andere eisen moeten voldoen. Toepassingen die een lager risico vormen moeten voldoen aan verschillende regels op het gebied van transparantie. Een systeem dat kunstmatige content genereert, moet dit bijvoorbeeld duidelijk markeren voor de burger. | 高いリスクをもたらすアプリケーションには、より厳しいルールが適用される。例えば、採用選考や法執行を目的としたAIシステムなどがある。例えば、組織はシステムの活動を記録し、適切なデータ管理を設定し、人間による監視が可能であることを保証しなければならない。また、これらの義務を遵守していることを証明できなければならない。AI規制には、これらの要件やその他の要件を満たさなければならない高リスクシステムのリストが含まれている。 低リスクのアプリケーションは、様々な透明性ルールに従わなければならない。例えば、人工的なコンテンツを生成するシステムは、それを市民向けに明確に表示しなければならない。 |
er toezichthouders worden aangewezen die het naleven van de verordening kunnen handhaven, organisaties kunnen verplichten een product uit de handel te nemen en boetes kunnen opleggen. | 規制当局は、コンプライアンスを強制し、組織に製品の市場からの撤退を要求し、罰金を課すことができる。 |
Als uw organisatie een AI-systeem ontwikkelt of gebruikt, dan is het uw verantwoordelijkheid om te controleren in welke categorie het systeem valt. Voordat de verplichtingen gelden voor AI-systemen met een hoog risico, komen er richtlijnen die organisaties helpen om te beoordelen welke systemen in welke risicogroep vallen. Zie ook: Risicogroepen AI-verordening. | あなたの組織がAIシステムを開発または使用する場合、そのシステムがどのカテゴリーに分類されるかを確認するのはあなたの責任である。高リスクのAIシステムに義務が適用される前に、組織がどのシステムがどのリスクグループに該当するかを評価するのに役立つガイドラインが策定される予定である。参照:リスクグループ AI規制 |
Specifieke regels voor overheden | 公的機関向けの特別ルール |
In de AI-verordening staan ook extra regels voor overheden en uitvoerders van publieke taken. Zij moeten bij systemen met een hoog risico altijd een zogenoemde grondrechteneffectbeoordeling doen. Deze organisaties moeten ook hun gebruik registreren in de Europese database voor AI-systemen. | AI規制には、公的機関や公的業務の実施者に対する追加規則も含まれている。これらの機関は、リスクの高いシステムについて、常にいわゆる基本的権利影響評価を行わなければならない。また、これらの組織は、AIシステムの使用を欧州のデータベースに登録しなければならない。 |
Aanbieders van AI-modellen voor algemene doeleinden | 汎用AIモデルの提供者 |
Voor aanbieders van 'AI-modellen voor algemene doeleinden' gaan er ook regels gelden. Deze modellen staan ook wel bekend als 'general purpose AI'. Het gaat dan om de modellen die de basis vormen voor andere toepassingen, bijvoorbeeld de taalmodellen die bestaan voor AI-chatbots. | 汎用AIモデル」のプロバイダーも規則の対象となる。これらのモデルは「汎用AI」とも呼ばれる。例えば、AIチャットボット用の言語モデルなどである。 |
De ontwikkelaars van deze modellen zijn onder meer verplicht om technische documentatie over hun product op te stellen, het systeem 'uitlegbaar' te maken en ze moeten beleid hebben om auteursrechten te beschermen. Handhaving zal voor het grootste deel op Europees niveau plaatsvinden, door het Europese AI Office. | とりわけ、これらのモデルの開発者は、その製品に関する技術文書を作成し、システムを「説明可能」にし、著作権を保護するポリシーを持たなければならない。施行は、欧州AI庁によって欧州レベルで行われる。 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された
« 米国 国土安全保障省 監察官室 (OIG) 沿岸警備隊はサイバー攻撃から海上輸送システムを守るため、さらなる措置を講じるべき (2024.07.11) | Main | 米国 MITRE AI保証 »
Comments