OECD 方針文書:AIトレーニングのための関連データ収集メカニズムのマッピング(2025.10.03)他
こんにちは、丸山満彦です。
OECDがいくつかのAIに関する方針文書と作業文書(ワーキングペーパー)を公表していたので、まとめて備忘録...
| 2025.10.03 | Policy paper: Mapping relevant data collection mechanisms for AI training | 方針文書:AIトレーニングのための関連データ収集メカニズムのマッピング |
| 2025.09.26 | Working paper: Advancing the measurement of investments in artificial intelligence | 作業文書:人工知能への投資測定の推進 |
| 2025.09.25 | Working paper: How are AI developers managing risks? - Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct | 作業文書:AI開発者はリスクをどのように管理しているか? - 広島AIプロセス行動規範の報告枠組みへの回答から得られた知見 |
| 2025.09.25 | Working paper: Leveraging artificial intelligence to support students with special education needs | 作業文書:特別支援教育を必要とする生徒の学習目標達成に向けた人工知能の活用 |
| 2025.08.14 | Policy paper: AI openness | 方針文書:AIのオープン性 |
| 2025.07.31 | Working paper: Exploring win-win outcomes of algorithmic management | 作業文書:アルゴリズム管理におけるウィンウィンの成果の探求 |
| 2025.06.30 | Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies | 作業文書:G7経済圏における人工知能(AI)によるマクロ経済的生産性向上 |
| 2025.06.30 | Policy paper: AI and the future of social protection in OECD countries | 方針文書:OECD諸国におけるAIと社会保障の未来 |
| 2025.06.27 | Working paper: Is generative AI a General Purpose Technology? - Implications for productivity and policy | 作業文書:生成AIは汎用技術か? - 生産性と政策への示唆 |
● OECD
・2025.10.03 Policy paper: Mapping relevant data collection mechanisms for AI training
| Policy paper: AI openness | 方針文書:AIのオープン性 |
| Abstract | 要旨 |
| This paper explores the concept of openness in artificial intelligence (AI), including relevant terminology and how different degrees of openness can exist. It explains why the term "open source" – a term rooted in software – does not fully capture the complexities specific to AI. This paper analyses current trends in open-weight foundation models using experimental data, illustrating both their potential benefits and associated risks. It incorporates the concept of marginality to further inform this discussion. By presenting information clearly and concisely, the paper seeks to support policy discussions on how to balance the openness of generative AI foundation models with responsible governance. | 本稿は人工知能(AI)におけるオープン性の概念を探求し、関連用語や異なるレベルのオープン性の存在形態を考察する。ソフトウェア分野に由来する「オープンソース」という用語がAI特有の複雑性を完全に捉えきれない理由を説明する。実験データを用いてオープン重み付け基盤モデルの現状動向を分析し、その潜在的利点と関連リスクを明らかにする。議論を深めるため限界性の概念を取り入れている。情報を明確かつ簡潔に提示することで、生成AI基盤モデルの開放性と責任あるガバナンスのバランスに関する政策議論を支援することを目的とする。 |
・[PDF]
・2025.09.26 Working paper: Advancing the measurement of investments in artificial intelligence
| Working paper: Advancing the measurement of investments in artificial intelligence | 作業文書:人工知能への投資測定の推進 |
| Abstract | 要旨 |
| This working paper presents a methodology for estimating public and private artificial intelligence (AI) investments in European Union (EU) Member States, focusing on assets and capabilities. It categorises investments into four groups: skills, research and development, data and equipment, and other intellectual property products. Using publicly available national accounts and sector-specific sources, AI investments are estimated by applying AI intensity coefficients derived from patent data, academic programmes, and workforce statistics. The estimates highlight how AI investments are distributed across EU countries. The methodology also disaggregates investments in areas such as information and communication technologies, specialist remuneration, corporate training, software and databases, and telecommunications equipment. This work supports efforts to measure the evolving AI investment landscape in the EU. | 本作業文書は、欧州連合(EU)加盟国における公的・民間の人工知能(AI)投資を、資産と能力に焦点を当てて推定する手法を提示する。投資をスキル、研究開発、データ・設備、その他の知的財産製品の4グループに分類する。公開されている国民経済計算及び業種別情報源を用い、特許データ、学術プログラム、労働力統計から導出されたAI集約度係数を適用することでAI投資を推計する。この推計は、EU諸国におけるAI投資の分布状況を明らかにする。本手法は、情報通信技術、専門家報酬、企業研修、ソフトウェア・データベース、通信機器などの分野への投資を細分化する。本研究は、EUにおける進化するAI投資環境の測定努力を支援するものである。 |
・[PDF]
・2025.09.25 Working paper: How are AI developers managing risks?
| Working paper: How are AI developers managing risks? | 作業文書:AI開発者はリスクをどのように管理しているか? |
| Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct | 広島AIプロセス行動規範の報告枠組みへの回答から得られた知見 |
| Abstract | 要旨 |
| Rapid advances in artificial intelligence (AI) are reshaping economies and societies, creating significant opportunities while also raising important considerations around the effective governance and risk management of advanced AI systems. Launched in February 2025, the Hiroshima AI Process Reporting Framework is the first international, voluntary tool to help organisations report on their practices compared to the Hiroshima AI Process International Code of Conduct for Organisations Developing Advanced AI Systems. This report presents preliminary insights from submissions by 20 organisations across diverse sectors and countries, examining their approaches to risk identification and management, transparency, governance, content authentication, AI safety research, and the advancement of global interests. | 人工知能(AI)の急速な進歩は経済と社会を再構築し、大きな機会を生み出す一方で、高度なAIシステムの効果的なガバナンスとリスク管理に関する重要な考慮事項も提起している。2025年2月に開始された「広島AIプロセス報告枠組み」は、先進的AIシステムを開発する組織向けの「広島AIプロセス国際行動規範」に照らした自組織の実践状況を報告するための、初の国際的かつ自主的なツールである。本報告書は、多様な分野・国々の20組織からの提出資料に基づく予備的知見を提示し、リスクの特定・管理、透明性、ガバナンス、コンテンツ認証、AI安全研究、およびグローバルな利益の推進に関する各組織のアプローチを検証する。 |
・[PDF]
・2025.09.25 Working paper: Leveraging artificial intelligence to support students with special education needs
| Working paper: Leveraging artificial intelligence to support students with special education needs | 作業文書:特別支援教育を必要とする生徒の学習目標達成に向けた人工知能の活用 |
| Abstract | 要旨 |
| This working paper examines how artificial intelligence (AI) can support students with special education needs (SEN) to achieve their learning goals, while underlining key risks and limitations. It defines central terms and the rationale for using AI in this context and reviews a selection of research-backed AI tools that aim to empower students with SEN. Based on this review, it highlights risks and limitations to consider and mitigate when procuring, creating and employing AI-enabled tools for students with SEN and beyond. The paper discusses governance and operational mechanisms for ensuring their implementation is ethical, sustainable and secure. It concludes with policy considerations for developing, selecting and integrating AI tools to foster inclusive education, particularly related to ethical design, research and monitoring, data protection and security, and accountability. | 本作業文書は、人工知能(AI)が特別支援教育を必要とする生徒(SEN)の学習目標達成をいかに支援できるかを検証するとともに、主要なリスクと限界を強調する。この文脈におけるAI活用の核心用語と根拠を定義し、SEN生徒の能力強化を目的とした研究裏付けのあるAIツールを厳選して検討する。この検討に基づき、SEN生徒およびそれ以外の生徒向けにAI搭載ツールを調達・開発・導入する際に考慮・軽減すべきリスクと限界を指摘する。本稿では、その導入が倫理的、持続可能かつ安全であることを保証するためのガバナンスと運用メカニズムについて論じる。最後に、特に倫理的な設計、研究とモニタリング、データ保護とセキュリティ、説明責任に関連して、インクルーシブ教育を促進するためのAIツールの開発、選択、統合に関する政策上の考慮事項を結論として提示する。 |
・[PDF]
・2024.08.14 Policy paper: AI openness
| Policy paper: AI openness | 方針文書:AIのオープン性 |
| Abstract | 要旨 |
| This paper explores the concept of openness in artificial intelligence (AI), including relevant terminology and how different degrees of openness can exist. It explains why the term "open source" – a term rooted in software – does not fully capture the complexities specific to AI. This paper analyses current trends in open-weight foundation models using experimental data, illustrating both their potential benefits and associated risks. It incorporates the concept of marginality to further inform this discussion. By presenting information clearly and concisely, the paper seeks to support policy discussions on how to balance the openness of generative AI foundation models with responsible governance. | 本稿は人工知能(AI)におけるオープン性の概念を探求し、関連用語や異なるレベルのオープン性の存在形態を考察する。ソフトウェア分野に由来する「オープンソース」という用語がAI特有の複雑性を完全に捉えきれない理由を説明する。実験データを用いてオープン重み付け基盤モデルの現状動向を分析し、その潜在的利点と関連リスクを明らかにする。議論を深めるため限界性の概念を取り入れている。情報を明確かつ簡潔に提示することで、生成AI基盤モデルの開放性と責任あるガバナンスのバランスに関する政策議論を支援することを目的とする。 |
・[PDF]
・2025.07.31 Working paper: Exploring win-win outcomes of algorithmic management
| Working paper: Exploring win-win outcomes of algorithmic management | 作業文書:アルゴリズム管理におけるウィンウィンの成果の探求 |
| Abstract | 要旨 |
| This research project explores how worker consultation can deliver “win-win” outcomes for firms and workers in the context of the introduction of an algorithmic management system in firms. It does so using a novel research design: a laboratory experiment involving worker participants carried out in three German manufacturing firms in which a simulation of an algorithmic management system was altered to affect firm outcomes (productivity) and worker outcomes (job quality). The results show that consultations between workers, managers and works council representatives can lead to agreement on the design of a new technology that stakeholders deem to preserve firm-level productivity gains while also improving workers’ job quality. The project advances research methods for understanding the dynamics underlying worker consultation and how it can be beneficial in contexts of new technology introduction. Further research should expand the scope of this methodology (in terms of the number of participants, sectors and other countries), to substantiate the findings. | 本研究プロジェクトは、企業におけるアルゴリズム管理システムの導入という文脈において、労働者との協議が企業と労働者の双方にとって「ウィンウィン」の結果をもたらす方法を模索する。そのために、独創的な研究デザインを採用している:ドイツの3つの製造企業で実施された労働者参加型の実験室実験であり、アルゴリズム管理システムのシミュレーションを改変して企業成果(生産性)と労働者成果(仕事の質)に影響を与えた。結果は、労働者・管理職・労働評議会代表者間の協議が、企業レベルの生産性向上を維持しつつ労働者の仕事の質を改善すると関係者が判断する新技術設計への合意につながることを示した。本プロジェクトは、労働者協議の基盤となる力学と、新技術導入の文脈におけるその有益性を理解するための研究手法を発展させる。今後の研究では、この方法論の範囲(参加者数、業種、他国)を拡大し、知見を実証すべきである。 |
・[PDF]
・2025.06.30 Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies
| Working paper: Macroeconomic productivity gains from Artificial Intelligence in G7 economies | 作業文書:G7経済圏における人工知能(AI)によるマクロ経済的生産性向上 |
| Abstract | 要旨 |
| The paper studies the expected macroeconomic productivity gains from Artificial Intelligence (AI) over a 10-year horizon in G7 economies. It builds on our previous work that introduced a micro-to-macro framework by combining existing estimates of micro-level performance gains with evidence on the exposure of activities to AI and likely future adoption rates. This paper refines and extends the estimates from the United States to other G7 economies, in particular by harmonising current adoption rate measures among firms and updating future adoption path estimates. Across the three scenarios considered, the estimated range for annual aggregate labour productivity growth due to AI range between 0.4-1.3 percentage points in countries with high AI exposure – due to stronger specialisation in highly AI-exposed knowledge intensive services such as finance and ICT services – and more widespread adoption (e.g. United States and United Kingdom). In contrast, projected gains in several other G7 economies are up to 50% smaller, reflecting differences in sectoral composition and assumptions about the relative pace of AI adoption. | 本稿は、G7経済圏における人工知能(AI)の10年間にわたるマクロ経済的生産性向上の見込みを分析する。既存のミクロレベルにおけるパフォーマンス向上の推計値と、AIへの活動露出度および将来の採用率に関する証拠を組み合わせたミクロからマクロへの枠組みを導入した我々の先行研究を発展させたものである。本稿では、米国から他のG7諸国への推計を精緻化・拡張し、特に企業間の現行導入率指標の調和化と将来導入経路推計の更新を行った。検討した3つのシナリオにおいて、AIの影響度が高い国々(金融やICTサービスなどAIの影響を強く受ける知識集約型サービスへの高度な特化が進み、導入がより広範な米国や英国など)では、AIによる年間総労働生産性成長率の推定値は0.4~1.3パーセントポイントの範囲となる。対照的に、他のいくつかのG7経済圏では、部門構成の違いやAI導入の相対的なペースに関する仮定の違いを反映し、予測される利益は最大50%小さくなっている。 |
・[PDF]
・2025.06.30 Policy paper: AI and the future of social protection in OECD countries
| Policy paper: AI and the future of social protection in OECD countries | 方針文書:OECD諸国におけるAIと社会保障の未来 |
| Abstract | 要旨 |
| Governments in OECD countries are increasingly applying advanced uses of data and technology to improve the coverage, effectiveness and efficiency of social programmes, yet they are proceeding with caution when introducing artificial intelligence (AI). Common AI uses in social protection include client support, automating back-office processes and fraud detection. Looking ahead, there is significant potential for AI to help improve the performance of social programmes – including through predictive analytics, enhanced outreach and better-tailored interventions – but governments must continue to build trust and foster transparency when using AI. | OECD諸国の政府は、社会保障プログラムの適用範囲、効果、効率性を向上させるため、データと技術の高度な活用をますます進めているが、人工知能(AI)の導入には慎重な姿勢を示している。社会保障分野におけるAIの一般的な用途には、クライアント支援、バックオフィス業務の自動化、不正検知などが含まれる。今後、予測分析、アウトリーチ強化、より適切な介入などを通じて、AIが社会プログラムのパフォーマンス向上に大きく貢献する可能性はあるが、政府はAI利用において信頼構築と透明性確保を継続しなければならない。 |
・[PDF]
・2025.06.27 Working paper: Is generative AI a General Purpose Technology?
| Working paper: Is generative AI a General Purpose Technology? | 作業文書:生成AIは汎用技術か? |
| Implications for productivity and policy | 生産性と政策への示唆 |
| Abstract | 要旨 |
| The rapid rise of generative AI has sparked discussions about its potentially transformative effects and whether the technology will bring significant benefits in the form of widespread productivity increases. Through a review of theoretical literature and early empirical evidence, including novel descriptive analysis, this study suggests that generative AI has considerable potential to qualify as a new general-purpose technology (GPT). Despite the early evidence, generative AI appears to exhibit the defining characteristics of GPTs: i) pervasiveness, ii) continuous improvement over time and iii) innovation spawning. While productivity gains may not materialise immediately, the evolution of earlier GPTs seems to provide encouraging signs that generative AI could lead to substantial improvements in productivity in the future, notably through the innovation-spawning channel. The full realisation of generative AI’s productivity potential in the long-term will depend on the implementation of relevant policies. | 生成AIの急速な台頭は、その変革的な影響の可能性と、この技術が広範な生産性向上という形で大きな利益をもたらすかどうかについての議論を喚起している。理論的文献と初期の実証的証拠(新規記述分析を含む)のレビューを通じて、本研究は生成AIが新たな汎用技術(GPT)として認定される可能性を十分に有していることを示唆する。初期段階の証拠にもかかわらず、生成AIはGPTの定義的特徴であるi) 普遍性、ii) 時間の経過に伴う継続的改善、iii) イノベーション創出を示している。生産性向上が直ちに実現しない可能性はあるものの、先行するGPTの進化は、特にイノベーション創出経路を通じて、生成AIが将来的に生産性の大幅な向上をもたらす可能性を示す有望な兆候を提供している。生成AIの生産性向上の可能性が長期的に完全に実現されるかどうかは、関連する政策の実施にかかっている。 |
・[PDF]
« 米国 カリフォルニア州 フロンティア人工知能透明性法が成立 (2025.09.29) | Main | 英国 ICOの内部AI利用規定が公表され、多くの人が参考にできるようになっていますね... »









Comments