米国 MIT AIリスク・レポジトリー Ver.3(2025.03.26)
こんにちは、丸山満彦です。
長いAIの冬の時代を少しは知っているので(どちらかというと懐疑的な立場だったのですが)、AIの普及には驚きと感慨があります... AIをより社会に普及させるためには、AIの普及が社会にもたらすリスクを識別し、そのリスクへの対策も同時に考えておく必要がありますね...
それを規制というのかもしれませんが、名称はどうであれ、AI普及が社会にもたらすリスクの識別と対策はAIが社会に普及していくために必要条件ですよね...
問題は、規制をするかどうかではなく、
AIの普及が社会にもたらす
・適切にリスクを識別するためにはどのようにすればよいのか?
・識別したリスクが社会に与える影響をどのように評価するのか?
・リスクを低減する対策にはどのようなものがあるのか?
・その対策の社会的な効果と社会的コストをどのように評価するのか?
・そしてその対策を適切に社会に実装するためにはどのようにすればよいのか?
・得られた結果から必要な改善に繋げていくためにはどのようにすればよいのか?
ということなのかもしれません。
これは、1回きりの話ではないですよね。滅多におこらないことについて人間は適切な評価をすることはできないですし、技術進歩等により社会環境がかわると影響や対策の効果・コストも変わってきますので...
サイバーセキュリティあるいは情報セキュリティも最初は同じような議論が繰り返されたと思います。変化が激しいので、社会的なコンセンサスをとるのが難しいからです。
社会的なコンセンサスがとれるようになるには、社会として、成功、失敗の経験を重ねていく必要があるのかもしれません。つまり、ある程度の時間はかかる。
なので、黎明期というのは、その不安定な状況でビジネスをするということで、機会とリスクが大きい。だから楽しい時代だと言えますね。
そういう意味では、社会的なコンセンサスになりそうな着地点と時間を、より正確に早く評価できた人、組織、国が、成功するのかもしれませんね...
マサチューセッツ工科大学(Massachusetts Institute of Technology)は、AIリスクのレポジトリーを開発し、公開していますね... 3月にVer3に更新したようです...
1600を超えるAIリスクをその原因とリスク領域別に分類した包括的なデータベースです。。。人間が網羅的に深く理解することは難しいかもしれません...
しかし、この構造を理解して、目的に適合して利用すれば非常に有益なものだと思います...(ビデオで丁寧に説明してくれます。)
・[slide] View the Domain Taxonomy
AIリスクのドメイン・タクソノミー
1 Discrimination & Toxicity | 1 差別と有害性 |
1.1 Unfair discrimination and misrepresentation | 1.1 不当な差別と不当表示 |
1.2 Exposure to toxic content | 1.2 有害物へのエクスポージャー |
1.3 Unequal performance across groups | 1.3 グループ間の不平等なパフォーマンス |
2 Privacy & Security | 2 プライバシーとセキュリティ |
2.1 Compromise of privacy by obtaining, leaking or correctly inferring sensitive information | 2.1 機密情報の入手、漏洩、または正確な推論によるプライバシーの侵害 |
2.2 AI system security vulnerabilities and attacks | 2.2 AIシステムのセキュリティ脆弱性と攻撃 |
3 Misinformation | 3 誤情報 |
3.1 False or misleading information | 3.1 誤った情報、誤解を招く情報 |
3.2 Pollution of information ecosystem and loss of consensus reality | 3.2 情報エコシステムの汚染とコンセンサスリアリティの喪失 |
4 Malicious actors & Misuse | 4 悪意のある行為者と悪用 |
4.1 Disinformation, surveillance, and influence at scale | 4.1 規模に応じた偽情報、監視、影響力 |
4.2 Cyberattacks, weapon development or use, and mass harm | 4.2 サイバー攻撃、武器の開発・使用、集団的被害 |
4.3 Fraud, scams, and targeted manipulation | 4.3 詐欺、詐欺、標的型操作 |
5 Human-Computer Interaction | 5 人間とコンピュータの相互作用 |
5.1 Overreliance and unsafe use | 5.1 過度の信頼と安全でない使用 |
5.2 Loss of human agency and autonomy | 5.2 人間の主体性と自律性の喪失 |
6 Socioeconomic & Environmental Harms | 6 社会経済的・環境的弊害 |
6.1 Power centralization and unfair distribution of benefits | 6.1 権力の集中化と利益の不公平な配分 |
6.2 Increased inequality and decline in employment quality | 6.2 不平等の拡大と雇用の質の低下 |
6.3 Economic and cultural devaluation of human effort | 6.3 経済的・文化的な人間の努力の切り下げ |
6.4 Competitive dynamics | 6.4 競争力学 |
6.5 Governance failure | 6.5 ガバナンスの失敗 |
6.6 Environmental harm | 6.6 環境への悪影響 |
7 AI system safety, failures, and limitations | 7 AIシステムの安全性、失敗、限界 |
7.1 AI pursuing its own goals in conflict with human goals or values | 7.1 人間の目標や価値観と相反する独自の目標を追求するAI |
7.2 AI possessing dangerous capabilities | 7.2 危険な能力を持つAI |
7.3 Lack of capability or robustness | 7.3 能力または堅牢性の欠如 |
7.4 Lack of transparency or interpretability | 7.4 透明性または解釈可能性の欠如 |
7.5 AI welfare and rights | 7.5 AIの福祉と権利 |
7.6 Multi-agent risks | 7.6 マルチエージェントのリスク |
コピーして使えます...
・[sheets] Database (copy)
目次...
Contents | 目次 |
A guide to the tabs in this sheet. | このシートのタブのガイド |
Causal Taxonomy of AI Risks v0.1 | AIリスクの原因分類法 v0.1 |
The Causal Taxonomy of AI Risks, adapted from Yampolskiy (2016), classifies risks by its causal factors (1) entity (human, AI), (2) intentionality (intentional, unintentional), and (3) timing (pre-deployment, post-deployment). | Yampolskiy(2016)から引用したAIリスクの原因分類法は、リスクをその原因要因(1)事業体(人間、AI)、(2)意図性(意図的、非意図的)、(3)タイミング(展開前、展開後)によって分類している。 |
Domain Taxonomy of AI Risks v0.1 | AIリスクのドメイン分類法 v0.1 |
The Domain Taxonomy of AI Risks adapted from Weidinger (2022) classifies risks into 7 AI risk domains: (1) Discrimination & Toxicity, (2) Privacy & Security, (3) Misinformation, (4) Malicious Actors & Misuse, (5) Human-Computer Interaction, (6) Socioeconomic & Environmental, and (7) AI System Safety, Failures, & Limitations. These are further divided into 24 subdomains. | Weidinger(2022)を参考にしたAIリスクのドメイン分類法は、リスクを7つのAIリスクドメインに分類している:(1)差別と有害性、(2)プライバシー・セキュリティ、(3)誤情報、(4)悪意ある行為者・悪用、(5)人間とコンピュータの相互作用、(6)社会経済・環境、(7)AIシステムの安全性・故障・限界。これらはさらに24のサブドメインに分かれている。 |
AI Risk Database | AIリスクデータベース |
Our living database of risks. | リスクに関する更新しているデータベース。 |
AI Risk Database explainer | AIリスクデータベースの説明書 |
An explainer for our database of 1612 risks extracted from 65 frameworks, categorised with the two taxonomies discussed above. You can also watch a video. | 65の枠組みから抽出された1612のリスクを、前述の2つの分類法で分類したデータベースの解説。ビデオを見ることもできる。 |
Causal Taxonomy statistics | 因果分類統計 |
See how risks are classified by the Causal Taxonomy | 因果分類法によってリスクがどのように分類されるかを見る。 |
Domain Taxonomy statistics | ドメイン分類法の統計 |
See how risks and paper are classified by the Domain Taxonomy | ドメイン分類法によるリスクと論文の分類を見る |
Causal x Domain Taxonomy comparison | 因果分類とドメイン分類の比較 |
See how risks are categorised across both taxonomies | 両分類法におけるリスクの分類を見る |
Included resources | 含まれるリソース |
A list of all documents included in the database | データベースに含まれる全文書のリスト |
Resources being considered | 検討中のリソース |
A list of all documents in consideration for future inclusion | 今後の収録を検討中の全文書のリスト |
Change Log | 変更履歴 |
A record of updates made to the AI Risk Repository. | AIリスク・リポジトリの更新記録。 |
ビデオ...
・[Youtube]
・[PDF]
« 米国 NIST サイバーセキュリティ白書 CSWP 41 悪用される可能性の高い脆弱性 - 脆弱性悪用確率の提案指標 | Main | 金融庁 サステナビリティ情報の保証に関する専門グループの議論... »
Comments