« CROWDSTRIKE ファルコンのトラブルの根本原因分析報告書 (2024.08.06) | Main | オランダ データ保護局が注意喚起:AIチャットボットの使用はデータ漏洩につながる可能性がある »

2024.08.12

ドイツ BSI AIシステムの透明性に関する白書 (2024.08.05)

こんにちは、丸山満彦です。

ドイツの連邦情報セキュリティ局 (BSI) が、AIシステムの透明性に関する白書が公表されていますね...

透明性のあるAIシステムの機会とリスクについて分析していますね...

・肯定的な側面:機会(安全な利用の促進など)と

・否定的な側面:リスク(攻撃ベクトルの開示の可能性など)

の両方についての記載がありますね...

特にリスクについては、興味深いですね...


目指すべきは、十分であると同時に、セキュリティーなどの面で過度なペナルティーを与えない、適切なレベルの透明性である。


 

Bundesamt für Sicherheit in der Informationstechnik; BSI

BSI veröffentlicht Whitepaper zur Transparenz von KI-Systemen BSI、AIシステムの透明性に関する白書を発表
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat am 5. August 2024 ein Whitepaper zum Thema "Transparenz von KI-Systemen" (Whitepaper Transparenz von KI-Systemen) veröffentlicht. 2024年8月5日、ドイツ連邦情報セキュリティ局(BSI)は「AIシステムの透明性」(White paper transparency of AI systems)をテーマとした白書を発表した。
Künstliche Intelligenz (KI) hat sich sowohl im privaten als auch im beruflichen Bereich als digitales Werkzeug etabliert und ist omnipräsent. Die Anzahl von verfügbaren KI-Systemen wächst stetig und die zugrundeliegenden Technologien entwickeln sich rasant weiter. Bei den meisten Systemen handelt es sich um eine sogenannte Blackbox. Nach außen sind lediglich die Eingaben in das System und die Ausgaben des Systems sichtbar. Wie das System zur Ausgabe gelangt bleibt meist unklar und ist häufig nicht nachvollziehbar. Zudem ist der Wahrheitsgehalt der Ausgaben oft nicht nachprüfbar. Die zunehmende Komplexität der Systeme sowie fehlende oder mangelhafte Informationen darüber macht sowohl eine Einschätzung per Augenschein als auch die Beurteilung der Ausgaben hinsichtlich deren Vertrauenswürdigkeit nur schwer möglich. 人工知能(AI)は、私的な領域でも専門的な領域でもデジタルツールとしての地位を確立し、遍在している。利用可能なAIシステムの数は着実に増加しており、その基盤技術は急速に発展している。ほとんどのシステムは、いわゆるブラックボックスである。外部からは、システムへの入力とシステムの出力しか見えない。システムがどのようにしてその出力に到達するのかは、通常不明確なままであり、理解できないことが多い。さらに、出力の真実性は検証できないことが多い。システムが複雑化し、それに関する情報が不足しているか不十分であるため、システムを視覚的に評価することも、支出の信頼性を判断することも難しくなっている。
Durch Transparenz sollen die Interessenträger (z.B. Verbraucher oder Entwickler) von KI-Systemen dazu befähigt sein, eigenständig zu entscheiden, ob ein System für ihre Bedarfe und Ziele geeignet ist. Dabei spielen unter anderem das Vermeiden von Urheberrechtsverletzungen, der Schutz der persönlichen Daten oder die IT-Sicherheit eine wesentliche Rolle. Daher definiert das BSI in dem Whitepaper den Begriff der Transparenz im Kontext von KI-Systemen für unterschiedliche Interessenträger. Um mit dem technischen Fortschritt schritthalten zu können, ist die im Whitepaper vorgestellte Definition von Transparenz so technologieneutral und zukunftstauglich wie möglich gehalten. Hiermit soll ebenso gewährleistet werden, dass die Definition nicht fortlaufend erneuert und angepasst werden muss. Zudem schließt die vorliegende Definition Informationen über das Ökosystem (wie z. B. den Anbieter oder den Entwicklungsprozess) mit ein und betrachtet so Transparenz über das eigentliche KI-System hinaus. 透明性を確保することで、AIシステムの利害関係者(消費者や開発者など)が、システムが自分たちのニーズや目的に適しているかどうかを自ら判断できるようにすべきである。ここでは、著作権侵害の回避、個人データの保護、ITセキュリティが重要な役割を果たす。そこでBSIは白書の中で、さまざまな利害関係者のために、AIシステムの文脈における透明性の概念を定義している。技術の進歩に対応するため、白書で提示された透明性の定義は、可能な限り技術に中立的で、将来性のあるものとなっている。これは、定義が継続的に更新され、適応される必要がないようにするためでもある。さらに、この定義にはエコシステム(プロバイダーや開発プロセスなど)に関する情報も含まれるため、実際のAIシステムを超えた透明性も考慮されている。
Im Whitepaper werden die einzelnen Elemente der Definition erläutert sowie der Bezug zu den Transparenzanforderungen der Verordnung über Künstliche Intelligenz (kurz: KI-Verordnung) des Europäischen Parlaments und des Rates hergestellt. Abschließend werden die Chancen und Risiken transparenter KI-Systeme beleuchtet. Dabei werden sowohl positive (z. B. das Fördern einer sicheren Nutzung) wie auch negative (z. B. die mögliche Offenlegung von Angriffsvektoren) Aspekte erörtert. このホワイトペーパーでは、定義の各要素を説明し、欧州議会および理事会の人工知能に関する規則(略称AI規則)の透明性要件との関連性を確立している。最後に、透明性のあるAIシステムの機会とリスクについて分析する。肯定的な側面(安全な利用の促進など)と否定的な側面(攻撃ベクトルの開示の可能性など)の両方について議論する。

 

・[PDF]

20240812-23107

[DOCX][PDF] 翻訳

 

目次...

Vorbemerkung 補足
1  Einleitung 1 はじめに
1.1  Motivation 1.1 動機
2  Definition 2 定義
2.1  Elemente 2.1 エレメント
2.1.1  KI-System 2.1.1 AIシステム
2.1.2  Ökosystem 2.1.2 エコシステム
2.1.3  Informationen 2.1.3 情報
2.1.4  Lebenszyklus 2.1.4 ライフサイクル
2.1.5  Bedarfe und Ziele 2.1.5 ニーズと目標
2.1.6  Interessenträger 2.1.6 ステークホルダー
3  Diskussion 3 ディスカッション
3.1  Ansatz und Vorgehen 3.1 アプローチと手順
3.2  Ziel von Transparenz 3.2 透明性の目標
3.3  Transparenzanforderungen in der KI-VO 3.3 AI規則における透明性要件
3.4  Chancen durch Transparenz 3.4 透明性がもたらす機会
3.5  Gefahren durch Transparenz 3.5 透明性によるリスク
4  Schlussfolgerungen 4 結論
Literaturverzeichnis 参考文献

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2024.08.05 欧州AI法が施行された... (2024.08.01)

・2024.07.19 ドイツ BfDI フランス CNIL オランダ AP EU AI法関連

・2024.07.16 EU 2024.07.12にAI法がEU官報に掲載された

・2024.05.22 EU 欧州理事会がAI法を承認...まもなく発効されますね...

・2024.03.19 欧州議会 AI法 (2024.03.13) とサイバーレジリエンス法を採択 (2024.03.12)

・2023.12.10 欧州委員会、欧州議会がAI法について政治的合意

・2022.12.08 EU理事会 AI法に関する見解を採択

・2022.09.30 欧州委員会 AI責任指令案

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

 

|

« CROWDSTRIKE ファルコンのトラブルの根本原因分析報告書 (2024.08.06) | Main | オランダ データ保護局が注意喚起:AIチャットボットの使用はデータ漏洩につながる可能性がある »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« CROWDSTRIKE ファルコンのトラブルの根本原因分析報告書 (2024.08.06) | Main | オランダ データ保護局が注意喚起:AIチャットボットの使用はデータ漏洩につながる可能性がある »