OECD AIにおけるアカウンタビリティの高度化 (2023.02.23)
こんにちは、丸山満彦です。
AIは人類に大きな影響を及ぼすこと可能性をもっていると思うのですが、影響力を人間社会にどう行使するかで、良い方向にも悪い方向にも影響を与えるということになります(良いとか悪いとかは社会で決めることですから。。。)
そこで、私たちの価値観に照らしてどのように使えば良いのか、良くないのかを決め、その通りに行われているかを影響をうける関係者に知らしめ、その使い方に納得してもらうということが重要なのだろうと思います。。。
● OECD Library - Papers - OECD Digital Economy Papers
・2023.02.23 Advancing accountability in AI - Governing and managing risks throughout the lifecycle for trustworthy AI
Advancing accountability in AI | AIにおけるアカウンタビリティの高度化 |
Governing and managing risks throughout the lifecycle for trustworthy AI | 信頼できるAIのために、ライフサイクルを通じてガバナンスとリスクマネジメントを行う。 |
This report presents research and findings on accountability and risk in AI systems by providing an overview of how risk-management frameworks and the AI system lifecycle can be integrated to promote trustworthy AI. It also explores processes and technical attributes that can facilitate the implementation of values-based principles for trustworthy AI and identifies tools and mechanisms to define, assess, treat, and govern risks at each stage of the AI system lifecycle. | 本報告書は、信頼できるAIを推進するために、リスクマネジメントのフレームワークとAIシステムのライフサイクルをどのように統合できるかを概観し、AIシステムにおける説明責任とリスクに関する研究と知見を提示する。また、信頼できるAIのための価値観に基づく原則の実施を促進できるプロセスと技術的属性を探り、AIシステムのライフサイクルの各段階におけるリスクを定義、評価、処理、管理するためのツールとメカニズムを特定するものである。 |
This report leverages OECD frameworks – including the OECD AI Principles, the AI system lifecycle, and the OECD framework for classifying AI systems – and recognised risk-management and due-diligence frameworks like the ISO 31000 risk-management framework, the OECD Due Diligence Guidance for Responsible Business Conduct, and the US National Institute of Standards and Technology’s AI risk-management framework. | 本報告書は、OECD AI原則、AIシステムライフサイクル、AIシステムを分類するOECDフレームワークなどのOECDのフレームワークや、ISO31000リスクマネジメントフレームワーク、OECD責任ある企業行動のためのデューディリジェンスガイダンス、米国国立標準技術研究所のAIリスクマネジメントフレームワークなどの公認リスクマネジメントおよびデューディリジェンスのフレームワークを活用している。 |
Background and objectives | 背景と目的 |
This report presents research and findings on accountability and risk in AI systems, building on previous OECD work on AI and the work of experts from the OECD.AI network of experts (Annexes A, B and C). This research contributes to understanding the components of the nascent fields of accountability and risk in AI and instigate discussion of their contribution to trustworthy AI. The report leverages OECD frameworks – including the OECD AI Principles, the AI system lifecycle, and the OECD framework for classifying AI systems – and recognised risk-management and due-diligence frameworks like the ISO 31000 risk-management framework, the OECD Due Diligence Guidance for Responsible Business Conduct, and the US National Institute of Standards and Technology’s AI risk-management framework. | 本報告書は、AIに関するOECDの過去の研究成果およびOECD.AI専門家ネットワークの専門家の研究成果(附属書A、B、C)を踏まえ、AIシステムにおける説明責任とリスクに関する研究および知見を提示するものである。この研究は、AIにおけるアカウンタビリティとリスクという新しい分野の構成要素を理解し、信頼できるAIへの貢献について議論を促すことに寄与する。本報告書は、OECD AI原則、AIシステムライフサイクル、AIシステム分類のためのOECDフレームワークなどのOECDのフレームワークや、ISO31000リスクマネジメントフレームワーク、OECDデューディリジェンスガイダンス、米国国立標準技術研究所のAIリスクマネジメントフレームワークなどの公認リスクマネジメントおよびデューディリジェンスのフレームワークを活用している。 |
This report does not provide precise guidance to assess AI risks and impacts, which is the topic of related work undertaken in co-operation with major AI regulatory and standardisation actors. Rather, it: | 本報告書は、AIのリスクと影響を評価するための正確なガイダンスを提供するものではなく、これは主要なAI規制および標準化関係者と協力して行われた関連作業のテーマである。むしろ、それは |
1. Provides a comprehensive overview of how risk-management frameworks and the AI system lifecycle can be integrated to promote trustworthy AI; | 1. リスクマネジメントのフレームワークとAIシステムのライフサイクルをどのように統合すれば、信頼できるAIを推進できるかについて、包括的な概観を提供する; |
2. Explores processes and technical attributes that can facilitate the implementation of values-based principles for trustworthy AI (such as the OECD AI Principles); and | 2. 信頼できるAIのための価値観に基づく原則(OECDのAI原則など)の実施を促進することができるプロセスと技術的特性を探求する。 |
3. Identifies tools and mechanisms to define, assess, treat, and govern risks at each stage of the AI system lifecycle. | 3. AIシステムのライフサイクルの各段階におけるリスクを定義、評価、治療、管理するためのツールやメカニズムを特定する。 |
エグゼクティブサマリー...
Executive summary | エグゼクティブサマリー |
One of the ten OECD AI Principles refers to the accountability that AI actors bear for the proper functioning of the AI systems they develop and use. This means that AI actors must take measures ensure their AI systems are trustworthy – i.e. that they benefit people; respect human rights and fairness; are transparent and explainable; and are robust, secure and safe. To achieve this, actors need to govern and manage risks throughout their AI systems’ lifecycle – from planning and design, to data collection and processing, to model building and validation, to deployment, operation and monitoring. | OECDのAI10原則の1つは、開発・使用するAIシステムが適切に機能するために、AIアクターが負うべき説明責任について言及している。つまり、AIアクターは、そのAIシステムが信頼に足るものであること、すなわち、人々に利益をもたらすこと、人権と公正さを尊重すること、透明で説明可能であること、堅牢で安全であることを保証する措置を取らなければならない。これを実現するために、アクターはAIシステムのライフサイクル全体(計画・設計から、データ収集・処理、モデル構築・検証、展開・運用・モニタリングまで)を通してリスクを管理・統制する必要がある。 |
The following four important steps can help to manage AI risks throughout the lifecycle: (1) Define scope, context, actors and criteria; (2) Assess the risks at individual, aggregate, and societal levels; (3) Treat risks in ways commensurate to cease, prevent or mitigate adverse impacts; and (4) Govern the risk management process. Risk management should be an iterative process whereby the findings and outputs of one step continuously inform the others. | 以下の4つの重要なステップは、ライフサイクルを通じてAIのリスクを管理するのに役立つ:(1)範囲、コンテキスト、アクター、基準を定義する、(2)個人、集合体、社会レベルでリスクを評価する、(3)悪影響を停止、防止、緩和するために相応の方法でリスクを処理する、(4)リスクマネジメントプロセスを管理する、。リスクマネジメントは、1つのステップで得られた知見やアウトプットが他のステップに継続的に反映されるような反復プロセスであるべきである。 |
Defining the scope, context, actors and criteria to evaluate is the first step to managing an AI system’s risks, which differ depending on the use case and the circumstances. The context of an AI system includes its socioeconomic and physical environment and its potential impacts on people and on the planet. Examining an AI system’s context and scope also includes understanding how the system is developed and maintained, including whether a system is built in-house or by a third party. In addition, analysing trade-offs is key to unlocking AI benefits while managing risks and it is also important to consider AI risks against the risks of not using AI in contexts where it can provide key insights. | 評価する範囲、文脈、関係者、基準を定義することは、AIシステムのリスクをマネジメントするための最初のステップである。AIシステムのコンテキストには、社会経済的・物理的環境、人々や地球への潜在的な影響などが含まれる。また、AIシステムのコンテキストとスコープを検討することは、システムが社内で構築されているか、第三者によって構築されているかなど、システムがどのように開発され、維持されているかを理解することを含む。さらに、トレードオフを分析することは、リスクをマネジメントしながらAIの利点を引き出すための鍵であり、AIが重要な洞察を提供できる文脈でAIを使用しない場合のリスクと比較して、AIのリスクを検討することも重要である。 |
Assessing AI risks and impacts means identifying, evaluating and measuring the risks that could affect an AI system’s ability to function as intended and in a trustworthy manner. Several tools can help assess risks, such as tools to indicate system transparency, detect bias, identify privacy violations and assess a system’s security and robustness. | AIのリスクと影響を評価することは、AIシステムが意図したとおりに信頼できる形で機能する能力に影響を与える可能性のあるリスクを特定、評価、測定することを意味する。システムの透明性を示すツール、バイアスを検出するツール、プライバシー侵害を特定するツール、システムのセキュリティと堅牢性を評価するツールなど、いくつかのツールがリスク評価に役立つ。 |
Treating the risks should be commensurate to their potential adverse impacts. Risk treatment refers to the techniques designed to cease, prevent, or mitigate problems identified during the assessment of an AI system, considering the likelihood and impact of each risk. Responses can be technical, such as implementing privacy-preserving machine learning frameworks or de-identifying training data, or processrelated, such as requiring documentation of AI model or training data characteristics or ensuring conformity with safety regulations. For risks that cause adverse impacts, redress mechanisms and remedial actions may be required. | リスクの処置は、その潜在的な悪影響に見合ったものであるべきである。リスク処理とは、各リスクの可能性と影響を考慮し、AIシステムの評価中に特定された問題を停止、予防、軽減するために設計された技法を指す。対応には、プライバシーを保護する機械学習フレームワークの実装や訓練データの非特定化などの技術的なものと、AIモデルや訓練データの特性の文書化の要求や安全規制への適合の確保などのプロセスに関するものがある。悪影響を及ぼすリスクについては、救済メカニズムや改善措置が必要となる場合がある。 |
Governance underpins the AI risk management process in two ways. First, it provides a layer of scrutiny over the AI risk management process, including through continual monitoring and review, as well as documenting, communicating, and consulting on actions and outcomes. Second, it offers a variety of mechanisms to embed the AI risk management process into broader organisational governance, fostering a culture of risk management both within organisations and across the entire AI value chain. | ガバナンスは、2つの方法でAIリスクマネジメントのプロセスを支えている。第一に、ガバナンスは、継続的なモニタリングとレビュー、行動と結果の文書化、コミュニケーション、コンサルティングなどを通じて、AIリスクマネジメントプロセスに対する監視の層を提供する。第二に、AIリスクマネジメントプロセスをより広範な組織ガバナンスに組み込むための様々なメカニズムを提供し、組織内およびAIバリューチェーン全体にわたってリスクマネジメントの文化を醸成することである。 |
• Monitoring and reviewing is an continual process taking into account the evolving nature of some AI systems and the environments in which they operate. It includes technical components such as verifying that training data is not out-of-date to avoid “data drift”. It also includes non-technical components such as monitoring AI incidents, i.e. cases where AI risks materialised into harm. | ・モニタリングとレビューは、一部のAIシステムの進化する性質と、それらが運用される環境を考慮した継続的なプロセスである。これには、「データ・ドリフト」を避けるために学習データが古くなっていないことを確認するといった技術的な要素が含まれる。また、AIインシデント(AIのリスクが具体化し、被害が発生したケース)を監視するなどの非技術的な要素も含まれる。 |
• Documenting the steps, decisions, and actions conducted during risk management and explaining their rationale can bolster accountability if it enhances transparency and enables human review. It means keeping a log or audit trail that informs functions like auditing, certification, and insurance. Whether the AI system is built in-house or by a third party, documentation and logs should “follow the system” throughout the AI system lifecycle. That is, each party or actor – AI developer, data processor AI vendor and AI deployer – might need to conduct its own assessment and document actions taken to manage risks. | ・リスクマネジメントで実施した手順、決定、行動を文書化し、その根拠を説明することで、透明性が高まり、人によるレビューが可能になれば説明責任を強化することができる。これは,監査、認証、保険などの機能に情報を提供するログや監査証跡を保持することを意味する。AIシステムが社内で構築されたものであれ,第三者によって構築されたものであれ,文書とログはAIシステムのライフサイクルを通じて「システムを追う」べきである。つまり、AI開発者、データ処理者、AIベンダー、AI実装者といった各関係者または行為者は、独自の評価を行い、リスクを管理するために行った行動を文書化する必要があるかもしれない。 |
• Communicating that an AI system meets regulatory, governance, and ethical standards is also crucial since the core objective of AI risk management is to ensure AI systems are trustworthy and safe and protect human rights and democratic values. Where appropriate, it is important to verify and communicate that an AI system conforms to and is interoperable with national and international regulations and standards. | ・AIリスクマネジメントの中核的な目的は、AIシステムが信頼性と安全性を確保し,人権と民主主義の価値を守ることであるため、AIシステムが規制,ガバナンス,倫理基準を満たすことを伝えることも重要である。適切な場合には,AIシステムが国内外の規制や基準に適合し、相互運用可能であることを検証し、伝えることが重要である。 |
• Consultation about processes and results is a core element of trustworthy AI because everyone directly or indirectly involved in or affected by the development or use of an AI system plays a role in ensuring accountability in the AI ecosystem. All actors should manage risks based on their roles, the context, and following the state-of-the-art. Actors in the AI ecosystem include: (1) the suppliers of AI knowledge and resources providing the inputs (i.e. “from whom?”); (2) the actors actively involved in the design, development, deployment and operation of the AI system (i.e. “by whom?”); (3) the users of the AI system (i.e. “for whom?”); and (4) the stakeholders affected by the AI system, including vulnerable groups (i.e. “to whom?”). | ・AIシステムの開発または使用に直接または間接的に関与し、または影響を受けるすべての人が、AIエコシステムにおける説明責任を確保する役割を果たすため、プロセスと結果に関する協議は、信頼できるAIの中核的要素である。すべてのアクターは、それぞれの役割、文脈に基づき、最先端の技術に従ってリスクマネジメントを行う必要がある。AIエコシステムにおけるアクターには、以下のようなものがある: (1)インプットを提供するAIの知識や資源の供給者(=「誰から」)、(2)AIシステムの設計、開発、展開、運用に積極的に関わるアクター(=「誰が」)、(3)AIシステムのユーザー(=「誰のために」)、(4)弱者層を含むAIシステムの影響を受けるステークホルダー(=「誰に」)。 |
• Embedding a culture of risk management in policies and management systems is needed both across organisations operating AI systems and the AI value chain. A culture of risk management requires strong commitment by organisations’ leadership teams. | ・AIシステムを運用する組織とAIバリューチェーンの両方において、ポリシーとマネジメントシステムにリスクマネジメントの文化を根付かせることが必要である。リスクマネジメントの文化は,組織のリーダーシップチームによる強いコミットメントを必要とする。 |
1. Structural view
2. Functional view
目次、図表...
Table of contents | 目次 |
Foreword | まえがき |
Acknowledgements | 謝辞 |
Abstract | 概要 |
Résumé | 履歴書 |
Übersicht | 編集部 |
Background and objectives | 背景と目的 |
Executive summary | エグゼクティブサマリー |
Synthèse | エグゼクティブサマリー |
Zusammenfassung | エグゼクティブサマリー |
1. Introduction | 1. 序文 |
1.1 The need for trustworthy AI | 1.1 信頼されるAIの必要性 |
1.2 What is trustworthy AI? 16 1.3 What is accountability in AI? | 1.2 信頼できるAIとは?16 1.3 AIにおけるアカウンタビリティとは何か? |
2. DEFINE: Scope, context, actors, and criteria | 2. 定義:スコープ、コンテキスト、アクター、クライテリア |
2.1 Scope | 2.1 スコープ |
2.2 Context | 2.2 コンテクスト |
2.3 Actors | 2.3 アクター |
2.4 Criteria | 2.4 規準 |
3. ASSESS: Identify and measure AI risks | 3. 評価:AIリスクを特定し、測定する |
3.1 Benefiting people and the planet | 3.1 人と地球のためになること |
3.2 Human-centred values and fairness | 3.2 人間中心の価値観と公平性 |
3.3 Transparency and explainability | 3.3 透明性・説明可能性 |
3.4 Robustness, security, and safety | 3.4 ロバスト性、セキュリティ、安全性 |
3.5 Interactions and trade-offs between the values-based Principles | 3.5 価値観に基づく原則の間の相互作用とトレードオフ |
4. TREAT: Prevent, mitigate, or cease AI risks | 4. 脅威:AIリスクを予防、軽減、停止させる。 |
4.1 Risks to people and the planet | 4.1 人と地球へのリスク |
4.2 Risks to human-centred values and fairness | 4.2 人間中心の価値観と公正さへのリスク |
4.3 Risks to transparency and explainability | 4.3 透明性・説明可能性へのリスク |
4.4 Risks to robustness, security, and safety | 4.4 堅牢性、セキュリティ、安全性に対するリスク |
4.5 Anticipating unknown risks and contingency plans | 4.5 未知のリスクの予期とコンティンジェンシープラン |
5. GOVERN: Monitor, document, communicate, consult and embed | 5. 統治:監視、文書化、コミュニケーション、協議、定着化 |
5.1 Monitor, document, communicate and consult 44 5.2 Embed a culture of risk management | 5.1 監視、文書化、伝達、相談 44 5.2 リスクマネジメントの文化を根付かせる。 |
6. Next steps and discussion | 6. 次のステップとディスカッション |
Annex A. Presentations relevant to accountability in AI from the OECD.AI network of experts | 附属書 A. OECD.AI専門家ネットワークによるAIにおける説明責任に関連するプレゼンテーション |
Annex B. Participation in the OECD.AI Expert Group on Classification and Risk | 附属書 B. OECD.AI分類とリスクに関する専門家グループへの参加 |
Annex C. Participation in the OECD.AI Expert Group on Tools and Accountability | 附属書 C. OECD.AI ツールおよび説明責任に関する専門家グループへの参加 |
References | 参考文献 |
FIGURES | 図 |
Figure 1.1. High-level AI risk-management interoperability framework | 図1.1. ハイレベルなAIリスクマネジメントの相互運用性フレームワーク |
Figure 1.2. Sample uses of the high-level AI risk management interoperability framework | 図1.2. ハイレベルなAIリスクマネジメント相互運用性フレームワークの使用例 |
Figure 2.1. Actors in an AI accountability ecosystem | 図2.1. AIアカウンタビリティ・エコシステムのアクター |
Figure 3.1. UK Information Commissioner’s Office (ICO) qualitative rating for data protection | 図3.1. 英国情報コミッショナー事務所(ICO)のデータ保護に関する定性評価 |
Figure 3.2. Mapping of algorithms by explainability and performance 35 Figure 5.1. Trade-off between information concealed and auditing detail by access level | 図3.2. 説明可能性と性能によるアルゴリズムのマッピング 35 図5.1. アクセスレベルによる、隠された情報と監査の詳細さのトレードオフ |
TABLES | 表 |
Table 2.1. Sample processes and technical attributes per OECD AI Principle | 表2.1. OECD AI原則に基づくプロセスおよび技術的属性の例 |
Table 3.1. Examples of documentation to assess transparency and traceability at each phase of the AI system lifecycle | 表3.1. AIシステムライフサイクルの各段階における透明性・トレーサビリティを評価するための文書例 |
Table 4.1. Approaches to treating risks to people and the planet | 表4.1. 人と地球へのリスクを扱うためのアプローチ |
Table 4.2. Approaches to treating bias and discrimination | 表4.2. バイアスや差別を扱うためのアプローチ |
Table 4.3. Approaches to treating risks to privacy and data governance | 表4.3. プライバシーとデータガバナンスに対するリスクを扱うためのアプローチ |
Table 4.4. Approaches to treating risks to human rights and democratic values | 表4.4. 人権や民主的価値に対するリスクを扱うためのアプローチ |
Table 4.5. Approaches to treating risks to transparency and explainability | 表4.5. 透明性・説明可能性へのリスクを扱うためのアプローチ |
Table 4.6. Approaches to treating risks to robustness, security, and safety | 表4.6. 堅牢性、セキュリティ、安全性に対するリスクを処理するためのアプローチ |
Table 5.1. Characteristics of AI auditing and review access levels | 表5.1. AI監査・レビューアクセスレベルの特徴 |
● まるちゃんの情報セキュリティ気まぐれ日記
米国...
・2023.03.14 米国商工会議所 人工知能報告書
・2023.03.11 NIST ホワイトペーパー NIST AI 100-2e2023(ドラフト)敵対的機械学習:攻撃と防御の分類と用語集
・2023.03.08 米国 情報技術産業協会 (ITI) AIに関する新たな政策提言を発表 (2023.03.02)
・2023.01.27 NIST AIリスクフレームワーク
・2022.12.05 日本内部監査協会 COSO「人工知能の可能性を最大限に実現する」 (2022.11.21)
・2022.11.11 NIST ホワイトペーパー 【プロジェクト概要】コンテキストにおけるAI/MLバイアスの緩和
・2022.10.07 米国 科学技術政策局 AI権利章典の青写真
・2022.09.20 米国 ITI AIシステムの透明性を実現するためのグローバルな政策原則 (2022.09.15)
・2022.08.24 NIST 意見募集 AIリスクマネジメントフレームワーク(第2ドラフト)とそのプレイブック
・2022.08.19 NIST ホワイトペーパー(ドラフト) コンテキストにおけるAI/MLバイアスの緩和
・2022.07.31 スタンフォード大学 AI監査のアイデア募集 賞金総額は約1000万円 (^^) (2022.07.11)
・2022.07.21 米国 国土安全保障省検査局 米国税関・国境警備局は空港での国際線旅行者の識別のために顔認識のポリシーを遵守している (2022.07.07)
・2022.06.02 米国 GAO 消費者保護:議会は消費者ランク付けに使用されるスコアに関する保護の強化を検討すべき (2022.05.26)
・2022.06.01 米国 消費者金融保護局 AIを使った与信結果についても消費者にその理由を説明しなければならない
・2022.05.17 AIサプライチェーンリスク (米国下院 科学・宇宙・技術委員会での証言から)(2022.05.11)
・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)
・2022.04.20 米国 商務省 国家AI諮問委員会に27名を任命
・2022.03.22 NIST 意見募集 AIリスクマネジメントフレームワーク(初期ドラフト)
・2022.03.21 NIST SP1270 人工知能におけるバイアスの識別と管理の標準化に向けて
・2022.03.20 米国 ピュー研究所 AIと人間強化についての調査
・2022.02.08 米国 下院 アルゴリズム説明責任法案 2022
・2021.12.23 CSET AIと偽情報キャンペーンの未来 パート1:RICHDATAフレームワーク
・2021.12.23 米国 購買担当職員に対するAIトレーニング法が上院を通過
・2021.07.23 U.S. GAO 人工知能のための新しい枠組み at 2021.06.30
・2021.06.25 NIST SP1270 Draft 人工知能におけるバイアスの識別と管理
・2021.06.24 MITRE ATLASでAIの脅威から守る
・2021.05.10 米国連邦政府 人工知能イニシアティブ
・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。
・2021.03.31 米国 CSET AI安全性の主要概念:概要
・2020.11.30 米国 OMBが「人工知能アプリケーション規制のためのガイダンス」を発行
・2020.09.12 2024年までに戦闘機でAIパイロットをテストすることを含め、米国はAIの軍事利用で世界をリードする by エスパー国防長官
・2020.08.21 NISTはAIに自己説明を求める?(説明可能な人工知能の4原則)
・2020.06.15 カーネギーメロン大学 ソフトウェア研究所 AIエンジニアリングのリスク管理の視点
・2020.05.04 米国国防省と人工知能(戦略と倫理)
日本
・2022.08.31 産総研 「機械学習品質マネジメントガイドライン 第3版」「機械学習品質評価・向上技術に関する報告書第2版」(2022.08.02)
・2022.08.09 経済安全保障関係 「経済安全保障重要技術育成プログラムにかかる研究開発ビジョン検討WG の検討結果について(報告)」のサイバーセキュリティ関係...
・2022.07.26 総務省 AIネットワーク社会推進会議 「報告書2022」
・2022.05.02 内閣府 AI戦略2022 (2022.04.22)
・2022.04.03 日本クラウド産業協会(ASPIC) AI クラウドサービスの情報開示認定制度
・2022.02.17 総務省 「AIを用いたクラウドサービスに関するガイドブック」の公表+AIを用いたクラウドサービスの安全・信頼性に係る情報開示指針(ASP・SaaS編)
・2022.01.29 経済産業省 AI原則実践のためのガバナンス・ガイドライン ver. 1.1
・2021.08.07 総務省 AIネットワーク社会推進会議 「報告書2021」の公表
・2021.02.16 IPA 2018年10月に発刊されたAI白書2019のPDF版を公開
・2020.03.31 AI 倫理指針の動向とパーソナル AI エージェント by 中川裕志先生 AI 原則は機能するか?―非拘束的原則から普遍的原則への道筋 by 新保史生先生
中国...
・2022.12.23 中国 インターネット情報サービス深層合成管理規定についての専門家のコメント... (2022.12.12)
・2022.12.17 中国 インターネット情報サービス深層合成管理規定 (深層合成で作ったものにはマークを...)(2022.11.25)
・2022.08.15 中国 国家サイバースペース管理局 インターネット情報サービスのアルゴリズム申請に関する情報公開の公告
・2022.04.25 中国 人工知能白書 2022 (2022.04.12)
・2022.01.30 中国 国家サイバースペース管理局 意見募集 インターネット情報サービスの深層合成の管理に関する規定(意見募集稿)
・2022.01.05 中国 インターネット情報サービスのアルゴリズム推奨管理規則
・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」
・2020.11.10 中国 TC260 パブコメ AI倫理に関するガイドライン案
英国...
・2022.12.10 英国 データ倫理・イノベーションセンター「業界温度チェック:AI保証の障壁と実現要因」
・2022.11.06 英国 データ倫理・イノベーションセンター データおよびAIに対する国民の意識:トラッカー調査(第2回)
・2022.10.19 イングランド銀行 「第2回調査 英国の金融業界における機械学習」とディスカッションペーパー「人工知能と機械学習」についての意見募集 (2022.10.11)
・2022.10.28 英国 ICO 未熟なバイオメトリクス技術は人を差別する可能性がある「バイオメトリクス洞察レポート」「バイオメトリクス予見レポート」
・2022.05.30 英国 情報コミッショナー 顔認識データベース会社Clearview AI Incに750万ポンド以上の罰金を科し、英国人のデータの削除を命じた
・2021.12.19 英国 AIバロメータ21 公表
・2021.12.09 英国 AI保証に向けたロードマップを公表(AI認証制度?)
・2021.04.21 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事
・2021.09.24 英国 国家AI戦略
・2020.12.20 UK ICO 雇用決定にアルゴリズムを使用する際に考慮すべき6つのこと
欧州他...
・2023.03.23 OECD AIにおけるアカウンタビリティの高度化 (2023.02.23)
・2023.03.23 OECD 人工知能のための国家的な計算能力構築のための青写真 (2023.02.28)
・2023.01.08 ノルウェー 個人データ保護局 AI利用における透明性についての報告書 (2022.12.21)
・2022.12.21 世界経済フォーラム (WEF) 製造業における人工知能から価値を解き放つ (2022.12.12)
・2022.12.08 EU理事会 AI法に関する見解を採択
・2022.09.30 欧州委員会 AI責任指令案
・2022.09.23 ⽇欧産業協⼒センター 欧州デジタル政策 (Vol.1-3)
・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)
・2022.05.23 ハンガリー AIを利用したコールセンターでの顧客対応がGDPR違反と判定された事例(ハンガリー銀行)
・2022.05.12 世界経済フォーラム (WEF) 「AI Procurment in a Box」を使ってみる:実装からのインサイト
・2022.05.05 フランス CNIL AIについてのリンク集 (2022.04.05)
・2022.02.24 OECD AIシステム分類のためのOECDフレームワーク
・2021.12.15 ENISA 機械学習アルゴリズムの保護
・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出
・2021.10.24 豪州 ビクトリア州 人工知能とプライバシーに関する報告書(2つ)
・2021.09.09 紹介 AIインシデントデータベース
・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス
・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス
・2021.06.22 欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表
・2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています
・2020.12.18 ENISA AI サイバーセキュリティのチャレンジ - AI脅威状況報告を公表していますね。
・2020.10.25 『スマートサイバー AI活用時代のサイバーリスク管理』第24回 サイバー犯罪に関する白浜シンポジウムの発表資料
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
・2020.03.28 EU Ethics Guidelines for Trustworthy AI(信頼できるAIのためのEU倫理ガイドライン)
・2020.02.27「AI倫理に関する現状」芳田千尋氏
« OECD 人工知能のための国家的な計算能力構築のための青写真 (2023.02.28) | Main | OECD 先進のプライバシー強化技術 - 現在の規制・政策アプローチ (2023.03.08) »
Comments