英国 ケンブリッジ人工知能の法、倫理、政策ハンドブック
こんにちは、丸山満彦です。
ケンブリッジ大学出版局が、人工知能の法、倫理、政策ハンドブックを公表しています。460ページにも及ぶ大作...
・2026.02.05 The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence
・[PDF]
表題はこんな感じ...
| # | Title | タイトル |
| 第一部 | AI, Ethics and Philosophy |
基礎と倫理 |
| 序論 | Beyond the Hype: Why We Need a Multidisciplinary Perspective on AI | ハイプを超えて:なぜAIに多角的な視点が必要なのか |
| 第1章 | The Technical Foundations of AI: Machine Learning and Logic | AIの技術的基礎:機械学習と論理 |
| 第2章 | The Philosophy of AI: Between Hopes and Fears | AIの哲学:希望と恐怖の間で |
| 第3章 | The Ethics of AI: From Principles to Practice | AIの倫理:原則から実践へ |
| 第4章 | Fairness and AI: A Multi-dimensional Challenge | 公平性とAI:多次元的な課題 |
| 第5章 | Responsibility and AI: Bridging the Gap between Law and Ethics | 責任とAI:法と倫理の溝を埋める |
| 第6章 | Sustainability and AI: Environmental and Social Dimensions | 持続可能性とAI:環境的および社会的側面 |
| 第2部 | AI, Law and Policy | 法規制と制度 |
| 第7章 | Data Protection and AI: GDPR as a Facilitator | データ保護とAI:促進者としてのGDPR |
| 第8章 | Tort Law and AI: Liability for Damage Caused by AI Systems | 不法行為法とAI:AIシステムによって引き起こされた損害の責任 |
| 第9章 | Competition Law and AI: Algorithmic Collusion and Personalized Pricing | 競争法とAI:アルゴリズムによる協調行為とパーソナライズされた価格設定 |
| 第10章 | Consumer Protection and AI: Addressing Structural Vulnerabilities | 消費者保護とAI:構造的脆弱性への対処 |
| 第11章 | Intellectual Property and AI: A Human-Centric Perspective | 知的財産とAI:人間中心の視点 |
| 第12章 | The EU AI Act: A Critical Analysis | EU AI法:批判的分析 |
| 第3部 | AI across Sectors |
セクター別の応用 |
| 第13章 | Education and AI: Replacing or Empowering the Learner? | 教育とAI:学習者を代替するのか、能力を強化するのか? |
| 第14章 | Media and AI: Opportunities and Risks in the Digital Public Sphere | メディアとAI:デジタル公共圏における機会とリスク |
| 第15章 | Health and AI: Secondary Use of Data and Patient Autonomy | 医療とAI:データの二次利用と患者の自律性 |
| 第16章 | Finance and AI: Credit Scoring and Algorithmic Bias | 金融とAI:クレジット・スコアリングとアルゴリズムのバイアス |
| 第17章 | Work and AI: Challenges for Labour Law | 労働とAI:労働法への課題 |
| 第18章 | Policing and AI: The Case of Predictive Policing | 警察活動とAI:予測警察の事例 |
| 第19章 | Public Administration and AI: Algorithmic Decision-Making and Due Process | 行政とAI:アルゴリズムによる意思決定と適正手続き |
| 第20章 | War and AI: Lethal Autonomous Weapon Systems and International Humanitarian Law | 戦争とAI:致死性自律型武器システムと国際人道法 |
ざっと斜め読みしかしていないけど、これだけ集めても語られていない論点はいくつもある。急速な技術の進歩に社会の仕組みが悲鳴をあげている感じがする...
説明可能性を高めることがまずは重要ですね...技術に偏りすぎないことが重要ですね。..
AIに各章の要約をつくってもらいました...
| 序論 | ハイプを超えて:なぜAIに多角的な視点が必要なのか | AIは歴史的・社会的文脈から切り離せず、そのガバナンスは既存の法的枠組みと倫理的洞察を動員し、多層的・学際的に行うべきである。単なる技術的解決や新法万能論に陥らず、人間の行動と社会の価値に焦点を当てた統治が必要である。 | AIはダートマス会議から約70年の歴史を持つが、近年の生成AIの隆盛により真の「AIブーム」を迎えている。しかし著者は、AIの歴史が古代の自動人形神話にまで遡ること、そしてAIが多くの技術の一つに過ぎないことを指摘し、過度な「ハイプ」に警鐘を鳴らす。AIを完全に新規で特別な現象として扱うことは、過去のガバナンス経験から学ぶ機会を逃すだけでなく、AIを抽象的で不可避的なものとして捉え、その具体的な構成要素(コード、データ、CPU、そして人間)を見えにくくすると主張する。また、AIは社会に埋め込まれており、相互形成プロセスを通じて社会に影響を与えるため、その影響を法・倫理・政策によっていかに統治し、中核的価値(人権、民主主義、法の支配)を保護するかが中心的課題であると述べる。本書は欧州に焦点を当て、AIの哲学的・倫理的基盤(第I部)、法的・政策的枠組み(第II部)、そして各セクターにおける応用(第III部)の三部門から構成され、学際的かつ包括的な理解を提供することを目的としている。 |
| 第1章 | AIの技術的基礎:機械学習と論理 | 機械学習と推論は相互補完的であり、信頼できるAIのためには、精度だけでなく説明可能性と堅牢性が不可欠である。技術者はこれらの要件を設計段階から組み込むべきであり、また、その限界を認識する必要がある。 | 本章はAIの技術的基盤として、機械学習と機械推論の二つの領域を解説する。機械学習とは、Tom Mitchellの定義に従えば「特定のタスクにおけるパフォーマンスが経験によって向上する」ことであり、チェッカーや囲碁のプログラムがその典型例である。機械学習は学習される関数のタイプ(深層関数、記号関数、ベイズ関数)とフィードバックのタイプ(教師あり学習、強化学習、教師なし学習)によって分類される。一方、機械推論とは「新たな質問に答えるための既存知識の代数的操作」であり、論理的推論と確率的推論の二つが主要なパラダイムである。推論は知識駆動型であり、本質的に説明可能なAIを提供する。著者らは、複雑なソフトウェアを手動でプログラミングすることが不可能な場合や、多様な質問に柔軟に対応する必要がある場合に、これら二つのアプローチの統合が重要であると指摘する。さらに、信頼できるAIのためには、説明可能性(XAI)や堅牢性(敵対的事例への耐性、 fairness)が不可欠であり、これらは単なるパフォーマンス指標を超えた評価軸であると結論づける。 |
| 第2章 | AIの哲学:希望と恐怖の間で | AIの哲学は、単にAIを分析するだけでなく、人間の知性、意識、責任といった伝統的哲学概念を新たな視点から理解する方法を提供する。AIは哲学の実験室であり、哲学はAIの設計指針を与える双方向的関係にある。 | 本章は、AIの哲学を「AIとは何か」「AIは何ができるか」「AIはどうあるべきか」という三つのカント的問いから整理する。古典的なAI(強いAI)は、知性が記号的表現に基づくルールベースの計算として理解できるという前提に立つが、現在の技術的AI(機械学習等)はこの前提から乖離している。知性とは「幅広い環境で目標を達成する能力」と定義され、これは環境に相対的な概念である。計算主義(認知=計算)は強いAIの基盤だが、物理的実装と抽象的アルゴリズムの区別、そして「意味」の問題が哲学的課題として残る。本章では知覚と行動のループ、予測処理、4E認知(身体的・埋め込まれた・行為的・拡張された)といった認知科学の知見を導入し、従来の受動的な知覚観を批判する。さらに、中国語の部屋論証を通じて、単なる記号操作では意味が生まれないこと、意図性には因果的接続が必要であることを論じる。合理的選択理論は期待効用の最大化を規範とするが、現実のエージェントは限られたリソース( bounded rationality)の中で判断しており、フレーム問題(何が関連するかを決める問題)は依然として重要である。自由意志と責任については、決定論と両立論の観点から、責任の帰属条件としての自由意志の機能を考察する。意識については、アクセス意識と現象意識の区別を導入し、物理的性質に還元されない現象意識の哲学的難問を提示する。最後に、AIが単なる手段的知性を超えて、目標そのものを内省する規範性の問題を提起する。 |
| 第3章 | AIの倫理:原則から実践へ | 抽象的な倫理原則を掲げるだけでは不十分であり、倫理を具体的な設計要件に変換する方法論(Design for Values)が不可欠である。そのためには、哲学的概念分析と工学的実装をつなぐ学際的協働が決定的に重要である。 | 本章は、AIがもたらす倫理的課題に対処する方法として、伝統的倫理理論(徳倫理、帰結主義、義務論)の限界を指摘し、より実践的な「Design for Values」アプローチを提案する。AIシステムは従来の技術と比較して、より高度な行為主体性(自律的な決定・行動)と認識論的 opacity(不透明性)を持ち、これが責任ある開発・展開を困難にしている。具体例として、採用AIによる差別、クレジットスコアリングの偏り、福祉給付詐欺検出システムによるオランダ政府辞職事件などが挙げられ、これらの問題は技術単体ではなく、それを取り巻く社会技術的システム全体に起因する。伝統的倫理理論は重要な「感度を高める概念」を提供するが、具体的な設計指針には欠ける。そこで必要となるのが、特定の価値(公平性、責任、説明可能性など)に関するより詳細な哲学的説明と、それを設計要件に変換する方法論である。Design for Valuesアプローチは、(1)ステークホルダーから価値を特定し(経験的作業)、(2)その価値を規範的に正当化し(哲学的作業)、(3)価値を規範に、さらに設計要件に翻訳し、(4)実装後に評価する、という反復的プロセスを含む。このアプローチは学際的協働を前提とし、価値観の変化や予期せぬ影響にも対応できる適応性が求められる。 |
| 第4章 | 公平性とAI:多次元的な課題 | 公平性は単一の定義に還元できず、手続き的側面と実質的側面の両方から不断に問い直されるべきである。技術的公平性指標に頼るだけでは、関係的不正義や構造的差別を見逃す危険があり、多様な声に開かれた民主的プロセスが必要である。 | 本章は、AIガバナンスにおいて中心的原則とされながらも多義的な「公平性」概念を、手続き的公平性と実質的公平性の区別から分析する。手続き的公平性は、恣意性の排除として理解され、(1)予測可能性、(2)事前規則による拘束、(3)合理性(理由の提示)という三つの側面から検討される。しかし、AIは相関関係に基づく判断を無数に生成できるため、これらの手続き的条件を満たすだけでは十分ではない。実質的公平性は、手続きの背後にある政治的・道徳的見解(例:どのような社会的格差が正当化されるか)を明確にし、それに基づいて手続きを評価することを求める。本章はロールズの「公正としての正義」を導入し、分配的正義の観点からAIが社会的弱者の不利益を固定化・増幅するリスクを指摘する。しかし同時に、分配的アプローチだけでは不十分であり、関係的公正(relational justice)の視点が重要であると論じる。AIは単なる分配メカニズムではなく、人々の関係性、権力構造、文化的解釈を媒介するため、文化的帝国主義やステレオタイプの固定化といった関係的不正義を引き起こす可能性がある。最後に、公平性の技術的解決(fairness metrics)の限界を指摘し、技術的解決主義(techno-solutionism)への警告を発する。公平性は設計段階だけで達成されるものではなく、社会構造や生きた経験に根ざした継続的プロセスであり、多様な声に開かれた民主的討議が不可欠であると結論づける。 |
| 第5章 | 責任とAI:法と倫理の溝を埋める | 自律的AIによる損害について「誰も責任を負えない」という主張は誤りである。ユーザーはリスクを予見可能であり、自らの選択でAIを利用する以上、道徳的責任を負う。仮に責任のギャップがあっても、予防と尊厳の回復は別の手段で可能である。 | 本章は、自律的AIシステムが引き起こす損害について、誰も責任を負えない「責任のギャップ」が存在するという主張を批判的に検討する。まず、責任の概念を因果的責任、道徳的責任、役割責任に区別し、議論の対象が道徳的責任であることを明確にする。責任のギャップ論者は、AIの自律性と学習能力により、開発者やユーザーがシステムの行動を制御できないため、道徳的責任を問えないと主張する。しかし著者らは、AI自体に道徳的責任を帰属させる可能性を検討した上で(現在のAIには感覚能力がなく無理だが、将来的には否定できない)、むしろ人間の側の責任が依然として存在すると論じる。道徳的責任の条件(因果的関与、自律性、知識)を満たせば、たとえ制御が及ばなくとも責任は生じる。例えば、発作のリスクを知りながら運転する者は、発作で事故を起こせば責任を負う。同様に、自律型兵器や自動運転車のユーザーは、起こりうる結果を予見可能であり(正確なタイミングや場所は予測できなくとも、事故の種類は予測可能)、自らの選択でリスクを受容しているため、道徳的責任を負う。さらに、仮に責任のギャップが存在したとしても、それは必ずしも問題ではない。責任帰属の目的は予防と被害者の尊厳の象徴的承認にあるが、予防は技術的介入によっても達成可能であり、尊厳の承認は責任帰属以外の手段(例:葬儀)でも可能だからである。 |
| 第6章 | 持続可能性とAI:環境的および社会的側面 | AIの持続可能性は、環境負荷(炭素排出、資源採掘)と社会的公正(権力非対称性、差別)の両面から捉えるべきである。表面的な「AI for Good」論を超え、AI産業の裏側にある不公正を可視化し、変革する視点が必要である。 | 本章は、AIと持続可能性の関係を二側面から分析する。第一に「持続可能性のためのAI」、すなわちAIが気候変動対策やSDGs達成に貢献する可能性(例:衛星画像による森林伐採の監視、スマートシティでのエネルギー最適化)である。第二に「AIの持続可能性」、すなわちAI自体の開発・運用が環境や社会に与える負の影響である。AIモデルの訓練には膨大な炭素排出を伴い、鉱物採掘や水資源消費、電子廃棄物の問題も無視できない。さらに、偏った訓練データによる差別の固定化、監視社会の進展、選挙介入といった社会的影響も「持続可能性」の一部として捉えるべきである。著者らは、持続可能なAIの概念を「生態学的完全性と社会的正義に向けたAI製品のライフサイクル全体の変革を促進する運動」と定義する。この視点から見えるのは、AIの背後にある権力非対称性である。例えば、データ汚染(data pollution)という比喩は、ビッグデータ経済の負の外部性(プライバシー侵害、差別)を環境汚染になぞらえ、権力構造を可視化する。著者らは「データ倫理の権力分析」(data ethics of power)を提唱し、ミクロ(設計)、メゾ(組織・制度)、マクロ(地政学・歴史)の三層でAIの権力動態を分析する必要性を説く。持続可能なAIは、現在の慣行を単に維持するのではなく、修復し変革することを含意し、将来世代に対する intergenerational justice の観点からも重要な課題である。 |
| 第7章 | データ保護とAI:促進者としてのGDPR | GDPRはAIの発展を阻害するものではなく、必要かつ比例的なバランスを取るための柔軟な枠組みを提供する。重要なのは、技術者と法曹の協働により、抽象的な法原則を具体的な設計に落とし込む解釈実践である。 | 本章は、欧州の一般データ保護規則(GDPR)とAIシステムの関係を包括的に解説する。GDPRは技術中立的な法であり、AIのような新技術にも適用されるが、その抽象的な規定ゆえに解釈には困難が伴う。まず、GDPRの適用範囲を確定するため、「個人データ」の概念を詳細に分析する。個人データとは「識別され得る自然人に関する情報」であり、識別可能性は「合理的に用いられる可能性のある手段」を基準に判断される(Breyer判決)。AIシステムでは、訓練段階、モデル自体、推論段階のいずれにおいても個人データが処理される可能性があり、匿名化は容易ではない。次に、管理者(controller)と処理者(processor)の役割分担を論じ、AIシステムの複雑なサプライチェーンにおいては「段階志向アプローチ」(phase-oriented approach)で責任を割り当てる必要があると指摘する。実体的な論点としては、(1) 目的外利用の制限:AIの訓練は当初収集目的と「両立可能」か、という問題(Clearview AI事件)、(2) 透明性と説明可能性:GDPR22条の「完全に自動化された決定」の意義と「説明を受ける権利」の解釈、(3) リスクベース・アプローチと説明責任:データ保護影響評価(DPIA)の義務と、AIシステム特有のリスク(差別、バイアス)への対応、を論じる。結論として、GDPRはAIの展開を妨げるものではなく、必要性と比例性のバランスを取るための柔軟な枠組みを提供するが、その解釈と適用には学際的協力が不可欠であると述べる。 |
| 第8章 | 不法行為法とAI:AIシステムによって引き起こされた損害の責任 | AIによる損害の責任は、国内法の重要性を無視してEUレベルだけで解決できるものではない。手続き的救済(証拠開示、推定規定)は前進だが、その解釈は各国裁判所に委ねられており、法的断片化のリスクに注意が必要である。 | 本章は、AIによって引き起こされる損害に対する不法行為責任(特に EU における対応)を論じる。AI の特徴(複雑性、自己学習能力、不透明性、予測困難性)は、伝統的な不法行為法の概念に挑戦を突きつける。第一に、国内法の重要性が依然として高い。EU レベルでは AI 責任指令案と改正製造物責任指令案が提案されているが、これらの指令は多くの概念を国内法・国内裁判所の解釈に委ねており、法的断片化のリスクがある。第二に、手続き的要素が重要である。被害者は、ブラックボックス化した AI システムについて、責任主体の特定、欠陥の証明、因果関係の立証が困難である。これに対し、AI 責任指令案は証拠開示義務(disclosure of evidence)と因果関係の推定(rebuttable presumption)を導入する。改正製造物責任指令案も、欠陥と因果関係の推定規定を設け、立証負担を軽減する。第三に、伝統的な不法行為概念の AI への適用困難性がある。(1) 「製品」概念:ソフトウェア単体が製造物責任指令の「製品」に該当するかという問題に対し、改正指令はソフトウェアを明示的に含めた。(2) 「欠陥」概念:消費者の正当な安全期待(legitimate expectations)という基準は、AI の新規性・複雑性ゆえに適用が難しい。改正指令は、継続的学習能力の影響を考慮要素に加えた。(3) 「過失」概念:AI 責任指令が用いる「注意義務(duty of care)」は、国内法の伝統的な過失概念(主観的要素+客観的要素)と整合しない可能性がある。結論として、AI と不法行為法の課題に対処するには、学際的アプローチ(例:政策プロトタイピング)が今後ますます重要になると指摘する。 |
| 第9章 | 競争法とAI:アルゴリズムによる協調行為とパーソナライズされた価格設定 | 競争法はアルゴリズムによる協調行為の多くを既に捕捉可能だが、自律的アルゴリズムによる暗黙の協調は伝統的な「オリゴポリー問題」と同様に難しい。今後の課題は、法・経済・技術の知見を統合し、実効的な執行手段を開発することである。 | 本章は、アルゴリズム(特に価格設定アルゴリズム)が競争法に与える影響を分析する。価格の透明性向上は、消費者にとっては価格比較を容易にする一方、事業者にとっては競合他社の価格監視を容易にし、協調的行為(collusion)を促進する可能性がある。本章は、水平カルテルと垂直的制限に分けて検討する。水平カルテルでは三つのシナリオがある。(1) 事前合意をアルゴリズムで実施する場合(例:ポスター事件)は伝統的競争法で捕捉可能。(2) 共通のアルゴリズム(例:Uber の価格設定、RealPage の賃料設定ソフト)を用いる場合(ハブ・アンド・スポーク型)は、Eturas 事件の法理(受動的参加、反証可能な推定)が適用可能だが、効率性による正当化(101条3項)の余地もある。(3) 各社が独自の価格アルゴリズムを用い、結果的に協調的均衡に達する場合(暗黙の協調)は、伝統的な「オリゴポリー問題」と同様、101条の捕捉範囲外となる可能性が高い。垂直的制限では、オンライン小売価格の固定(RPM)が監視ソフトウェアの活用で強化される事例(Asus、Samsung 事件)を紹介する。濫用(支配的地位の濫用)については、排他的行為としての自己優遇(Google Shopping事件)と、搾取的行為としての個人別価格設定(personalized pricing)を論じる。個人別価格設定は競争法だけでは十分に対処できず、GDPR、消費者法、DMA、DSA、AI法など複数の法規の重層的適用が必要である。結論として、アルゴリズムによる協調が現実の市場条件でどの程度発生するかは未解明であり、法的枠組みの適応には法・経済・技術の学際的協力が不可欠であると述べる。 |
| 第10章 | 消費者保護とAI:構造的脆弱性への対処 | AI時代の消費者は「構造的脆弱性」に置かれており、従来の情報提供モデルでは保護しきれない。消費者法、競争法、データ保護法の連携強化と、ダークパターンなど具体的害悪に対応する明確な規制が急務である。 | 本章は、AIが消費者に与える機会とリスクを概観し、EU消費者法の現状と課題を分析する。AIは消費者にとって、エネルギー最適化、詐欺検出、情報翻訳などの恩恵をもたらす一方、偏った情報・アドバイス、操作的なデザイン(ダークパターン)、個人別価格設定など、自律性と自己決定を損なうリスクも孕む。消費者法の根本的前提(合理的消費者、情報提供による保護)は、AI時代において根本的な見直しを迫られている。特に「平均的消費者」というベンチマークは、認知バイアスの現実を無視しており、AIによる操作可能性の高まりに耐えられない。また、デジタル脆弱性(digital vulnerability)は従来の脆弱性概念(年齢・障害など)を拡張し、ほぼすべての消費者が状況的に脆弱になりうることを示す。消費者法、競争法、データ保護法のサイロ(縦割り)からの脱却も必要である(例:Meta(旧Facebook)事件)。既存の消費者保護指令(UCPD、CRD、UCTD、CSD/DCSD)は、開かれた規範を用いてAIの悪用に対抗する可能性を持つが、解釈の不確実性が課題である。新たな立法(DMA、DSA、AI法)は追加的な保護を提供するが、その射程や執行方法には限界がある。特にダークパターンを事例に、現行法の適用可能性と限界を示す。結論として、AI時代の消費者保護には、情報提供モデルを超えたより強力な規制と、消費者の意識向上への継続的努力が不可欠であると主張する。 |
| 第11章 | 知的財産とAI:人間中心の視点 | AIと知的財産法の関係では、人間中心主義の枠組みを性急に放棄すべきではない。AIの発展に合わせて制度を調整する必要はあるが、「創作者は人間」という根本原則を変えるには、説得的な経済的証拠と国際的合意が不可欠である。 | 本章は、AIと知的財産法の複雑な関係を、主にEU法の観点から分析する。第一に、AI技術自体の保護手段として、特許法と著作権法の可能性と限界を検討する。特許法では、AIアルゴリズムは数学的方法として特許対象から除外されるが、技術的効果を伴うコンピュータ実装発明として特許取得が可能である。しかし、発明の開示要件(十分に明確かつ完全な開示)は、ディープラーニングのブラックボックス性と緊張関係にあり、説明可能なAI(XAI)へのインセンティブとなる。著作権法では、AIを実装するソフトウェア(ソースコード・オブジェクトコード)は、独創性の条件を満たせばコンピュータプログラムとして保護される。第二に、AIが生成したアウトプットの保護をめぐる問題を論じる。著作者性(authorship)については、EU著作権法は自然人を前提としており、AI自体を著作者と認めることは現状では不可能である。しかし、AIの自律性が高まった場合、既存の枠組みでは不十分であり、データベース権のような隣接権・sui generis権の創設も選択肢となる。発明者性(inventorship)についても同様に、特許法は自然人を前提としており、DABUS事件で欧州特許庁はAIを発明者と認めなかった。所有権(ownership)については、AI生成物への関与度合いに応じて、プログラマー、トレーナー、ユーザーなど複数のステークホルダーが権利を主張しうるが、いずれも一長一短があり、現状では契約による解決が主流となる。第三に、その他の論点として、AI訓練のためのデータ利用と著作権侵害(テキスト・データマイニング例外とAI法53条の関係)、特許法の「当業者」概念へのAIの影響、商標法における「平均的消費者」概念への影響、そしてIP実務におけるAI活用(特許分類、商標検索等)を論じる。結論として、AI時代のIP法は、人間中心主義の枠組みを堅持しつつも、新たな法的課題に国際的な協調で対応する必要があると述べる。 |
| 第12章 | EU AI法:批判的分析 | EUのAI法は、その高尚な目的にもかかわらず、執行アーキテクチャに根本的な欠陥がある。自己評価と民間標準化機関への委任は実効的な人権保護を約束せず、結局はGDPRや欧州人権条約といった既存の枠組みがより重要な役割を果たすだろう。 | 本章は、2024年に成立したEUのAI法を批判的に検討する。著者らは、AI法の高尚な目的(民主主義、基本的人権、法の支配の保護)にもかかわらず、その実効性には深刻な疑問があると論じる。まず、AI法の成立過程を振り返り、高級専門家グループ(HLEG)の倫理ガイドラインが法的拘束力を持つべきという勧告が、最終的には市場調和を優先する「新立法フレームワーク(New Legislative Framework)」型の製品安全規制にすり替えられた経緯を描く。AI法は、リスクベース・アプローチを採用し、禁止されるAI行為(社会的スコアリング、職場・学校での感情認識等)、高リスクAIシステム(附則III)、汎用AIモデル(GPAI)、限定的リスクAI(透明性義務)を区分する。しかし、その執行アーキテクチャに根本的問題がある。高リスクAIシステムの適合性評価は、生物識別システムを除き、原則としてプロバイダー自身による自己評価(自己宣言)で足りる。これは「メタ規制(meta-regulation)」の典型であり、規制される主体に解釈権限を委ねるものである。さらに、具体的な技術基準は、欧州標準化機関(CEN/CENELEC)が策定する「調和規格(harmonized standards)」に委ねられるが、これらの機関は民間主導で透明性・民主的説明責任に欠け、基本的人権に関する専門性も乏しい。製造物責任の文脈で自己認証の有効性が疑問視されてきた実証研究(PIP乳房インプラント事件等)を踏まえると、AI法が掲げる人権保護は「お題目」に終わる可能性が高い。著者らは、真の保護はGDPRや欧州人権条約といった既存の法的枠組みに依然として依存せざるを得ないと結論づける。 |
| 第13章 | 教育とAI:学習者を代替するのか、能力を強化するのか? | 教育におけるAIの目標は、人間の学習と教授を「代替」ではなく「増強」することにある。そのためには、AIが教育プロセスをどのように「オフロード」するかを分析し、教育の本質的価値(自律、正義、人間性)を設計に埋め込む不断の取り組みが必要である。 | 本章は、AIと教育の関係を「代替(replacement)」ではなく「増強(augmentation)」の視点から捉えるべきだと主張する。教育におけるAIの役割は、人間の学習と教授を最適化することにあり、AIと人間の強みを組み合わせる「ハイブリッド知能」が目指される。AIが教育タスクを「オフロード(肩代わり)」する度合いを分析するための枠組みとして、Detect-Diagnose-Actフレームワークと6段階オートメーションモデルを提示する。具体的なAI応用としては、学習者向け(アダプティブ・ラーニング、ITS)、教師向け(ダッシュボード)、管理向け(スケジューリング)の三類型を紹介する。倫理的枠組みの歴史的発展を概観した後、AIと教育に特化した主要な国際的枠組み(ユネスコ北京コンセンサス、欧州委員会の教育的ガイドライン)を分析する。これらの枠組みは、教育の本質的価値(資格付与、社会化、主体形成)を尊重しつつ、AIがもたらす公平性、透明性、人間の主体性等の課題に対処しようとしている。最後に、オランダの事例として、「教育のための価値コンパス」(自律、正義、人間性)と、NOLAI(National Education Lab AI)の「埋め込まれた倫理(embedded ethics)」アプローチを紹介する。NOLAIは、産学官の協働により、AIシステムの開発段階から倫理学者が関与し、実際の教室での価値葛藤を経験的に研究することで、責任あるAIの実装を目指している。 |
| 第14章 | メディアとAI:デジタル公共圏における機会とリスク | AIはメディアの制作・配信・検証を変革する可能性を持つが、同時に表現の自由、メディア多様性、独立性への深刻な脅威ももたらす。DSAやAI法は重要な一歩だが、その実効的執行と、プラットフォームへの過度な依存からの脱却が今後の焦点である。 | 本章は、AIがメディア産業にもたらす機会と、それが引き起こす法的・倫理的課題を多角的に分析する。AIの応用分野として、(1) コンテンツ制作(ロボットジャーナリズム、生成AIによる記事・画像作成)、(2) コンテンツ配信(レコメンデーション・システム、パブリック・サービス・メディアにおける価値実装)、(3) ファクトチェック(偽情報特定・検証)、(4) コンテンツ・モデレーション(コメント削除、違法コンテンツ対策)を概観する。課題としては、(1) データアクセスの困難さ(プラットフォームがデータを囲い込み、研究者・ジャーナリストの検証を妨げる)、(2) 訓練データのバイアス(特定集団に対する差別的表現の増幅)、(3) 透明性の欠如(アルゴリズムの内部動作が不透明)、(4) 表現の自由へのリスク(過剰削除(over-blocking)と過少削除(under-blocking)の両方の問題)、(5) メディアの多様性と独立性への脅威(プラットフォームのアルゴリズムがメディアのコンテンツを非表示にする、インフラ依存による編集独立性の低下)を論じる。EUの法的対応としては、DSA(透明性義務、VLOPのリスク評価義務、研究者へのデータアクセス)、AI法(深層偽造の開示義務、高リスクAI分類)、EMFA(メディア事業者に対する事前通知義務等の特別保護)を分析する。結論として、AIとメディアの関係は表現の自由、民主主義、文化の多様性に直結するため、これらの法規の実効的な執行と、小規模メディアを含む責任あるAI開発の支援が不可欠であると述べる。 |
| 第15章 | 医療とAI:データの二次利用と患者の自律性 | 健康データの二次利用は、患者の権利を侵害するものではなく、適切な技術的・組織的措置(仮名化、連合学習、透明性)を講じることで、データ保護とイノベーションは両立可能である。重要なのは、データの「管理者(custodian)」としての責任を自覚することである。 | 本章は、ヘルスケア分野におけるAIの開発・展開に不可欠な健康関連データの法的・倫理的課題を、特にデータ保護法(GDPR)の観点から分析する。ヘルスケアAIのライフサイクル(研究開発、市場投入、市販後調査)の各段階で、リアルワールドデータ(RWD)の利用が求められるが、これは多くの場合「個人データ」であり、かつ「機微データ」(GDPR9条)に該当する。まず、データの「所有権」概念を批判し、患者はデータの「所有者」ではなく、医療機関はデータの「管理者(custodian)」としての責任を負うと論じる。患者の自律性は、GDPR6条・9条が許容する範囲内で、同意(opt-in)またはオプトアウトを通じて尊重されるが、科学研究のための二次利用は原則として同意不要である(ただし、加盟国は9条4項により追加的制限を課すことができる)。データ共有の課題としては、(1) 匿名化と仮名化の区別(匿名化はGDPRの適用除外となるが、リンケージ攻撃のリスクが高まっている)、(2) プライバシー強化技術の例としての連合学習(federated learning:データを中央集約せずにモデル学習を行う技術)、(3) 組織的措置としての透明性の重要性(患者が自身のデータの二次利用状況を把握できる仕組み)を論じる。結論として、健康データの二次利用を妨げるのではなく、技術的・組織的措置を適切に実装することで、データ主体(患者)の保護とデータ活用の両立を図るべきであると主張する。 |
| 第16章 | 金融とAI:クレジット・スコアリングとアルゴリズムのバイアス | AIによるクレット・スコアリングは金融包摂の可能性を秘める一方、従来の差別禁止法では捕捉しきれない新たな差別形態を生み出す。AI法や消費者信用指令は対応を試みるが、技術の複雑さと冗長な符号化が規制の実効性を脅かす。 | 本章は、金融サービス、特にクレット・スコアリングと与信判断におけるAI活用を事例に、その機会、倫理的課題、法的対応を分析する。伝統的な与信判断は、限定的な変数(収入、資産、過去の返済履歴)に基づく統計的手法であったが、AIとビッグデータの活用により、「あらゆるデータが信用データ」となる新たな段階に移行している(例:スマートフォンのアプリ種類、タイプミスの頻度、SNS上の交友関係など)。これにより、従来「信用履歴が薄い(thin-file)」層への金融包摂が進む可能性がある一方、深刻な倫理的課題も生じる。第一に、アルゴリズムによる差別(algorithmic discrimination)である。歴史的バイアス(過去の差別が訓練データに反映される)、 majority bias(多数派の属性が重視される)、あるいは企業の利潤最大化目的で脆弱な層が標的化されるリスクがある。第二に、不透明な監視(opaque surveillance)である。消費者は、どのデータが判断に用いられているかを知らず、スコアを操作するために行動を変えざるを得なくなる可能性がある( conformity)。法的対応としては、(1) 差別禁止法(直接差別・間接差別の法理)が適用されるが、AIによる「マスキング」や冗長な符号化(redundant encoding)が立証を困難にする。(2) EU AI法は、与信判断を高リスクAIシステムに分類し、リスク管理、データガバナンス、人間の監督を義務付ける。(3) 消費者信用指令(CCD)は、自動化された与信判断について説明を求める権利を付与し、センシティブデータの利用を禁止する。しかし、これらの規定も、技術の複雑さや冗長な符号化によって実効性が損なわれる可能性がある。最後に、信用スコアリングから社会生活全般を評価する「ソーシャル・スコアリング」への拡大の危険性に言及する。 |
| 第17章 | 労働とAI:労働法への課題 | 職場におけるAIの導入は、使用者と労働者の力の非対称性を劇的に拡大する。労働法は、情報・協議権、団体交渉権といった既存の道具立てを活用するとともに、アルゴリズム管理の透明性と説明責任を確保する新たなルール(プラットフォーム労働指令)を発展させる必要がある。 | 本章は、職場におけるAIの活用が労働法に投げかける課題を包括的に検討する。労働法の目的は、使用者と労働者の力の非対称性を調整し、労働者の尊厳と社会正義を保護することにある。AI、特にアルゴリズム管理(algorithmic management)の導入は、この非対称性をさらに拡大するリスクがある。アルゴリズム管理は、タスク割当、パフォーマンス評価、懲戒処分などを自動化し、大量のデータ処理を通じて労働者を「数値化」する。これにより、透明性の欠如、差別、プライバシー侵害、テクノストレス(technostress)などの問題が生じる。労働者の基本的権利として、情報・協議・参加権(ILO条約、EU指令)、団体交渉権、社会対話(social dialogue)が重要である。欧州の社会パートナーは、2020年に「デジタル化に関する自律的枠組み協定」を締結し、AIに関して「人間による制御(human-in-control)」の原則を確認した。EUの立法イニシアチブとしては、(1) AI法が、採用・人事評価などのシステムを高リスクに分類し、透明性・人間の監督を義務付ける(ただし、労働者に直接の権利を与えるものではない)、(2) AI責任指令が、高リスクAIによる損害の立証負担を軽減する可能性があるが、労働契約関係には適用が難しい、(3) 機械規則(Machinery Regulation)が、AI統合機械の安全性要件を強化する、(4) プラットフォーム労働指令(Directive on Platform Work)が、アルゴリズム管理の透明性と説明責任を初めて労働法に組み込む、などを紹介する。結論として、AI時代の労働法は、自律性の保持、説明を受ける権利の実効性確保、リスク評価への労働者代表の関与、監視の限界設定、AIリテラシーの向上など、多岐にわたる課題に取り組む必要がある。 |
| 第18章 | 警察活動とAI:予測警察の事例 | 予測警察は、その有効性が実証されていないにもかかわらず、社会的弱者に対する差別的影響や警察の正当性低下など深刻な害悪をもたらす。AI法による規制だけでなく、市民参加型のガバナンスと、実証されていない利益よりも害悪防止を優先する姿勢が不可欠である。 | 本章は、法執行におけるAI活用の一例として予測警察(predictive policing)を取り上げ、その法的・倫理的・社会的問題を詳細に分析する。予測警察には、犯罪発生場所を予測する「予測マッピング」と、犯罪者・被害者を予測する「予測識別」の二種類がある。欧州では、米国に遅れて2010年代から導入が進み、オランダのCAS、ドイツのPRECOBS、ベルギーの独自開発アルゴリズムなどの事例がある。しかし、その有効性については、犯罪減少効果を示す確固たるエビデンスは乏しく、Kent Policeやドイツの一部警察は運用を停止している。問題点として、(1) 法的課題:AI法案は法執行用途に広範な例外を認めており、LED(法執行指令)の「個人データ」該当性をめぐる解釈も分かれる(オランダのCASは非個人データと判断された)。(2) 有効性の課題:予測精度と犯罪減少効果は別問題であり、フィードバック・ループ(警官が同じ地域に繰り返し派遣されることでデータが偏る)や、透明性の欠如(ブラックボックス)が評価を困難にする。(3) 社会的課題:社会的弱者に対する差別的影響の固定化、過剰な監視による chill効果、警察の正当性(legitimacy)の低下。(4) ガバナンスの課題:評価基準の欠如、監督機関の専門性不足、市民参加の必要性。(5) 組織的課題:現場警察官のテクノロジーへの懐疑、オートメーション・バイアス(自動生成された判断を過信する傾向)、 deskillingのリスク。結論として、AI法による規制だけでなく、民主的な監視メカニズムと市民参加型のガバナンスが不可欠であり、実証されていない利益よりも社会的害悪が優先されるべきだと主張する。 |
| 第19章 | 行政とAI:アルゴリズムによる意思決定と適正手続き | 行政機関によるアルゴリズム利用は、効率化の名の下に、法の支配と基本的人権を侵食する危険性を孕む。既存の行政法原則とGDPR、AI法を組み合わせた多層的なガバナンスが必須だが、最終的には行政職員一人ひとりの批判的判断力と倫理観に依存する部分が大きい。 | 本章は、行政機関がアルゴリズム・システム(アルゴリズム規制)を利用する際の倫理的・法的課題を分析する。行政機関は、社会福祉給付の決定、税務調査、罰則賦課など、市民の権利に直結する多様な決定を行っており、その効率化・迅速化を目的としてAI導入が進んでいる。しかし、実際にはオランダの託児所給付金スキャンダル、フランスのプール検出AI、英国のAレベル成績判定アルゴリズム、米国アイダホ州の医療給付アルゴリズムなど、深刻な問題が発生している。これらの事例は、基本的人権(プライバシー、差別禁止)の侵害だけでなく、「法の支配」の核心的な諸原則(合法性、法的確実性、恣意的権力の禁止、平等、実効的司法保護)を侵食するリスクを示す。アルゴリズム規制は、条文をコードに翻訳する過程で法の柔軟な解釈可能性を損ない、「法の支配」を「アルゴリズムによる法の支配(algorithmic rule by law)」に転換させる危険性がある。また、行政裁量が現場の職員からシステム設計者(多くは民間企業)に移転し、責任の所在が不明確になる。さらに、民間企業への依存(デジタル主権の問題)も生じる。法的ガバナンスとしては、憲法・行政法の一般原則(合法性、平等、比例性、参加、透明性)が引き続き適用されるほか、GDPR(特に22条の自動化された決定に対する権利)、そして新たなAI法(高リスクシステムの要件、禁止行為)が適用される。しかし、AI法の適用範囲には限界があり、行政法の原則を補完的に用いることが重要である。結論として、法的遵守だけでなく、行政職員のリテラシー向上と批判的判断を可能にする環境整備が不可欠である。 |
| 第20章 | 戦争とAI:致死性自律型武器システムと国際人道法 | AI(特にLAWS)をめぐる議論は、殺人ロボットの全面禁止に集中しがちだが、より重要なのは既存の国際人道法をAIの設計・開発・使用に確実に埋め込むことである。AIは殺すためにも守るためにも使える。その方向性を決めるのは、技術ではなく、私たち人間の選択である。 | 本章は、武力紛争におけるAIの利用、特に致死性自律型兵器システム(LAWS)を中心に、国際人道法(IHL)の観点から検討する。IHLは、1864年ジュネーブ条約以降、戦争の悲惨さを軽減するために発展してきた。その中核的原則として、(1) 文民と戦闘員の区別、(2) 戦闘不能者(hors de combat)への攻撃禁止、(3) 不必要な苦痛の禁止、(4) 軍事上の必要性、(5) 均衡性(予想される軍事利益と付随的な文民被害の釣り合い)、(6) 人道性の原則がある。LAWSはこれらの原則に深刻な挑戦を突きつける。LAWSの定義は国際的に合意されておらず(米国国防総省と欧州議会の定義にも差異がある)、その能力や展開に関する情報も限られている(2020年リビアでのKargu-2の使用が初の公的認識例)。CCW(特定通常兵器使用禁止制限条約)の下での政府専門家会合(GGE)は11の基本原則を採択したが、法的拘束力はなく、進展は遅い。LAWS以外にも、AIは軍事意思決定支援、データ収集・監視、サイバー戦争など多様な用途で利用されており、これらもIHLの適用対象となる(特にサイバー攻撃の無差別性)。著者は、LAWSの全面禁止論よりも、既存のIHLをAIシステムの設計・開発・使用に組み込むことの重要性を強調する。AIは「殺すための武器」としても「守るための盾」としても使用可能であり、IHLを技術に埋め込むことで、後者の方向に傾ける努力が必要であると結論づける。 |
課題と解決案...
| 課題 | 解決案 | |
| 第1部:基盤と倫理 | ||
| 序論(多角的視点) | 学問領域ごとの断絶による「全体最適」の欠如。 | 法・倫理・政策の相互補完性を前提とした共通言語化。学際的タスクフォースによる多層的ガバナンス。 |
| 第1章(技術的基礎) | ブラックボックス性に伴う「説明可能性」と「堅牢性」の両立の困難。 | 神経記号論的AI等のハイブリッド化に加え、ルールベースと機械学習の「適材適所の使い分け」の徹底。 |
| 第2章(哲学) | AIを単なる道具と見なすことによる、知性や責任の概念の形骸化。 | AIを鏡として「人間理解(意識・責任)」を再定義するプロセスの構築。拡張エージェントとしての新たな倫理規範の策定。 |
| 第3章(倫理) | 倫理原則が形骸化する「倫理ウォッシュ」と、価値観の固定化。 | Design for Valuesに基づく技術要件化。学際的協働による、社会の価値観変化に合わせた不断の要件見直し。 |
| 第4章(公平性) | 公平性の定義衝突と、議論プロセスにおける「弱者の声」の不在。 | 関係的公正を重視した民主的討議。文脈に応じた合意形成プロセス自体をガバナンスとして設計する。 |
| 第5章(責任) | AIによる損害に対し、責任の所在が曖昧になる(とされる)ギャップ。 | ユーザーへのリスク受容の可視化と、予見可能性の高いリスク情報の提供。ログ記録による事実認定の効率化。 |
| 第6章(持続可能性) | 環境負荷に加え、AI開発の背後にある権力非対称性や搾取的労働。 | 環境負荷の可視化に加え、サプライチェーン全体における社会的持続可能性(労働環境)の監査義務化。 |
| 第2部:法規制と制度 | ||
| 第7章(データ保護/GDPR) | データ最小化原則と、AI学習における比例性(バランス)の維持。 | リスクベース・アプローチの徹底。何のためのデータ利用かを厳格に問う「目的拘束性」の再定義。 |
| 第8章(不法行為法) | 複雑なサプライチェーンによる過失証明の困難と、国内法との不整合。 | 無過失責任の検討と共に、証拠開示や推定規定などの「手続き的救済」の整備。国内法との整合性確保。 |
| 第9章(競争法) | 自律アルゴリズムによる協調行為(暗黙のカルテル)の捕捉困難。 | サンドボックスによる発見に加え、アルゴリズムによる協調を規制するための新たな法規制枠組みの策定。 |
| 第10章(消費者保護) | ダークパターン等の構造的脆弱性と、規制機関(消費者・データ保護・競争)の縦割り。 | 法域を超えた「サイロからの脱却」による統合的監視。消費者の撤回権と構造的保護の強化。 |
| 第11章(知的財産) | AI生成物の権利化と学習データ利用の対立による市場の混乱。 | オプトアウト方式の標準化。性急な法改正を避けつつ、既存の著作権法の解釈指針を明確化する。 |
| 第12章(EU AI法) | 民間標準化機関への委任による「保護のお題目化」と執行アーキテクチャの欠陥。 | 独立した第三者認証の義務化。技術標準化プロセスへの市民参加と、民主的コントロールの担保。 |
| 第3部:セクター別の応用 | ||
| 第13章(教育) | 思考の「オフロード化(AI任せ)」による主体的な学びの喪失。 | 何をAIに委ね、何を人間に残すべきかの「オフロード分析」。思考を促すソクラテス的対話AIの開発。 |
| 第14章(メディア) | ディープフェイクに加え、プラットフォーム依存によるメディア独立性の脅威。 | 出所証明(C2PA)の普及と、プラットフォームへの「データアクセス権」の強化による透明性確保。 |
| 第15章(医療) | データの代表性欠如によるバイアスと、患者の自律性の毀損。 | データ管理者(Custodian)の責任明確化。データ共有と患者の自律的な意思決定(インフォームド・コンセント)の両立。 |
| 第16章(金融) | 直接的な差別変数を隠蔽する「冗長な符号化(代理変数)」によるバイアス。 | XAIの義務化に加え、代理変数の相関性を検知するアルゴリズム監査の実施。 |
| 第17章(労働) | AI監視によるテクノストレスと心理社会的リスクの増大。 | 評価項目の制限、監視の時間的制約の策定。アルゴリズム管理に関する団体交渉権の確立。 |
| 第18章(警察活動) | 有効性が未実証な技術(予測警察等)の導入によるバイアスの固定化。 | 導入前の厳格な正当性評価。必要に応じた顔認証等の「導入モラトリアム(一時停止)」も選択肢に含める。 |
| 第19章(行政) | 行政裁量のシステム設計者への移転と、民間企業への構造的依存。 | 公共調達要件の強化、職員のリテラシー向上。行政手続きの「適正手続き(Due Process)」の再設計。 |
| 第20章(戦争) | 責任なき殺傷(LAWS)のリスクと、国際的な定義・条約合意の難航。 | 有意な人間による制御(MHC)の義務化。条約交渉と並行した、既存の国際人道法(兵器審査義務等)の厳格適用。 |
« 経済産業省 サプライチェーン・サイバーセキュリティ評価(SCS)制度のパブコメへの回答の一覧... | Main | 米国 NIST SP 800-228 更新版 クラウドネイティブシステム向けAPI防御ガイドライン (2026.03.13) »

Comments