AI/Deep Learning

2025.11.08

世界経済フォーラム AIサイバーバブルは今にも崩壊するのだろうか?

こんにちは、丸山満彦です。

世界経済フォーラムの記事が落ち着いた論考なので、ご紹介...

趣旨は、

AIを活用したサイバーセキュリティマーケットは、最近の盛り上がっているものの、経済界からは「バブル崩壊」が訪れるのではないかと懸念されているところもあります...この論考では、それをバブル崩壊ではなく、「調整」と捉え、サイバーリーダーが今後注力すべき3つのポイントを挙げていますね。これが割と落ち着いた内容なので、ご紹介...

  1. 国家主権的なレジリエンス: 米国やイスラエルに集中する大手プロバイダーへの依存を減らし、規制が強化される前に技術スタックを多様化すること。

  2. 認知的セキュリティ: AIによる詐欺やディープフェイクなどの「認知操作」が最も深刻な脅威の一つと捉え、従来の技術的対策を超えた対策をしていくこと。

  3. セキュリティの基礎: (AIシステムを保護するためにも、)アクセス制御、脆弱性管理といった、長年のサイバーセキュリティの基礎的な原則への継続的な投資が不可欠であること。

サイバーセキュリティは長期的な視点でみることが重要で、短期的な対策に翻弄されずに、強靭で適応性の高い戦略を確立するための基礎的な事項への投資が重要

ということですね...

 

World Economic Forum

・2025.10.30 Is the AI-cyber bubble about to burst?

 

1_20251106045401

| | Comments (0)

2025.11.07

欧州 EDPB ブラジル向け十分性認定ドラフト:EDPBが意見書を採択

こんにちは、丸山満彦です。

ブラジルの個人データ保護法の欧州との十分性認定についてEDPBがOKを出したようです。この後、欧州理事会、欧州委員会の承認が終われば正式に認定という運びになりますね...

European Daata Protection Board: EDPB

・2025.11.05 Draft adequacy decision for Brazil: EDPB adopts opinion

 

Draft adequacy decision for Brazil: EDPB adopts opinion ブラジル向け十分性認定ドラフト:EDPBが意見書を採択
Brussels, 5 November - During its latest plenary, the EDPB adopted an opinion on the European Commission’s draft decision on the adequate level of protection of personal data in Brazil.* Once adopted, the decision will ensure that personal data can flow freely from Europe to Brazil and that individuals can retain control over their data. ブリュッセル、11月5日 - EDPBは最新の総会において、欧州委員会が提出したブラジルにおける個人データの保護水準の十分性に関する認定ドラフトについて意見書を採択した。* 本認定が採択されれば、欧州からブラジルへの個人データの自由な流通が保証され、個人は自身のデータに対する管理権を維持できる。
In its opinion, requested by the Commission, the EDPB assesses whether the Brazilian data protection framework and the rules on government access to personal data transferred from Europe provide safeguards essentially equivalent to the ones in EU legislation. The Board positively notes the close alignment with EU legislation and the case law of the Court of Justice of the EU. The EDPB also examines whether the safeguards provided under the legal framework in Brazil are in place and effective. 欧州委員会の要請を受けた本意見書において、EDPBはブラジルのデータ保護枠組み及び欧州から移転された個人データへの政府アクセスに関する規則が、EU法と本質的に同等の保護措置を提供しているかを評価した。委員会はEU法及び欧州司法裁判所の判例との緊密な整合性を肯定的に評価している。EDPBはさらに、ブラジルの法的枠組み下で提供される保護措置が適切に整備され、効果的に機能しているかについても検証した。
“The EDPB welcomes the alignment between Brazil and Europe’s data protection frameworks. This is a pivotal moment that will strengthen legal certainty for organisations and competent authorities transferring personal data from Europe to Brazil. 「EDPBはブラジルと欧州のデータ保護枠組みの整合性を歓迎する。これは欧州からブラジルへ個人データを移転する組織及び管轄当局にとって法的確実性を強化する重要な局面である。
We call on the European Commission to address a few remaining points to ensure the effective protection of individuals’ fundamental rights.” 欧州委員会に対し、個人の基本的権利を効果的に保護するため、残された数点の課題に対処するよう要請する」
EDPB Chair, Anu Talus EDPB議長 アヌ・タラス
The EDPB also invites the Commission to provide further clarifications and monitor certain areas in relation to Data Protection Impact Assessments (DPIA), the limitations on transparency related to commercial and industrial secrecy, and the rules on onward transfers. EDPBはまた、欧州委員会に対し、データ保護影響評価(DPIA)、商業・産業上の秘密に関する透明性の制限、および再移転に関する規則に関連する特定の分野について、さらなる明確化と監視を行うよう要請する。
As a general rule, the Brazilian data protection law does not apply to data processed by Brazilian public authorities for the exclusive purposes of public safety, national defence, State security, or the investigation and prosecution of criminal offenses. 原則として、ブラジルのデータ保護法は、公共の安全、国防、国家安全保障、または犯罪の捜査・起訴を専ら目的としてブラジル公的機関が処理するデータには適用されない。
At the same time, the EDPB positively notes that the Brazilian data protection law partially applies to the processing of personal data in the context of criminal investigations and maintenance of public order, as interpreted by the Federal Supreme Court of Brazil in its case-law. 同時に、EDPBは、ブラジルの連邦最高裁判所が判例で解釈したように、刑事捜査及び公共秩序保守の文脈におけるパーソナルデータの処理にブラジルのデータ保護法が部分的に適用されることを肯定的に評価する。
The Board invites the Commission to further specify the applicability of the Brazilian data protection law, as well as the Brazilian Data Protection Authority’s investigatory and corrective powers in relation to law enforcement authorities. Finally, the Board invites the Commission to further clarify the outline of Brazil’s concept of national security. 委員会は、ブラジルデータ保護法の適用範囲、ならびに法執行機関に対するブラジルデータ保護当局の調査権限及び是正権限について、欧州委員会がさらに明確化するよう要請する。最後に、委員会はブラジルにおける国家安全保障の概念の概要について、欧州委員会がさらに明確化するよう要請する。
Note to editors: 編集後記:
* An adequacy decision is a key-mechanism in EU data protection legislation which allows the European Commission to determine whether a third country or an international organisation offers an adequate level of data protection. The European Commission has the power to determine, on the basis of Art. 45 of Regulation (EU) 2016/679 whether a country outside the EU offers an adequate level of data protection. * 十分性認定は、EUデータ保護法における重要な仕組みであり、欧州委員会が第三国または国際機関が十分なデータ保護水準を提供しているかどうかを判断することを可能にする。欧州委員会は、規則(EU)2016/679第45条に基づき、EU域外の国が十分なデータ保護水準を提供しているかどうかを判断する権限を有する。
The adoption of an adequacy decision involves: 1) a proposal from the European Commission; 2) an opinion of the European Data Protection Board; 3) approval from representatives of EU countries; 4) adoption of the decision by the European Commission. 十分性認定の採択には以下のプロセスが含まれる:1)欧州委員会の提案、2)欧州データ保護会議の意見、3)EU加盟国の代表者の承認、4)欧州委員会による決定の採択.

 

・2025.11.04 Opinion 28/2025 regarding the European Commission Draft Implementing Decision pursuant to Regulation (EU) 2016/679 on the adequate protection of personal data by Brazil

・[PDF

20251106-60149

・[DOCX][PDF] 仮訳

 

 

1.  INTRODUCTION 1. 序論
2.  GENERAL DATA PROTECTION ASPECTS 2. データ保護に関する一般的側面
2.1 Accountability and data governance 2.1 説明責任とデータガバナンス
2.2 Scope and definitions 2.2 適用範囲と定義
2.2.1 Material and territorial scope of the LGPD 2.2.1 LGPDの物質的・地域的適用範囲
2.2.2 Definitions 2.2.2 定義
2.3 Data protection principles and legal bases 2.3 データ保護の原則と法的根拠
2.3.1 Principles of the processing 2.3.1 処理の原則
2.3.2 Security measures and breaches 2.3.2 セキュリティ対策と侵害
2.3.3 Lawfulness of processing 2.3.3 処理の合法性
2.4 Individual rights 2.4 個人の権利
2.5 Restrictions on onward transfers 2.5 転送の制限
2.6 Procedural and enforcement mechanisms 2.6 手続き的・執行的メカニズム
2.6.1 Independent oversight 2.6.1 独立した監督
2.6.2 Redress 2.6.2 救済措置
2.6.3 Sanctions 2.6.3 制裁
3.  ACCESS AND USE OF PERSONAL DATA TRANSFERRED FROM THE EUROPEAN UNION BY PUBLIC AUTHORITIES IN BRAZIL 3. ブラジル公的機関による欧州連合からの個人データ移転へのアクセス及び利用
3.1 Access and use by Brazilian public authorities for criminal law enforcement purposes  15  3.1 刑事法執行目的におけるブラジル公的機関によるアクセスと利用
3.1.1 Legal framework in the areas of criminal law enforcement 3.1.1 刑事法執行分野における法的枠組み
3.1.2 Necessity and proportionality 3.1.2 必要性と比例性
3.1.3 Further use of data and onward transfers 3.1.3 データのさらなる利用と第三国への転送
3.1.4 Oversight and Redress 3.1.4 監督と救済
3.2 Access and use by Brazilian public authorities for national security purposes 3.2 国家安全保障目的におけるブラジル公的機関によるアクセス及び利用
3.2.1 Scope of the exemption of art. 4 (III) LGPD and its applicability to criminal offenses against state security 3.2.1 LGPD第4条(III)の適用除外範囲及び国家安全保障に対する犯罪行為への適用性
3.2.2 Legal Framework for national security 3.2.2 国家安全保障に関する法的枠組み
3.2.3 Onward transfers and international agreements 3.2.3 転送と国際協定
3.2.4 Oversight and Redress 3.2.4 監督と救済
4.  IMPLEMENTATION AND MONITORING OF THE DRAFT DECISION 4. ドラフト決定案の実施と監視

 

 

| | Comments (0)

2025.11.05

日本、米国、韓国、中国の首脳の会談 (2025.10.24-11.04)

こんにちは、丸山満彦です。

日米首脳会談を皮切りに、ASEANでの非公式も含めた(米中を含む)首脳会談、先日の中露の会談等、慌ただしかったので...

日米ではいろいろな約束がされていますね...外務省のPDFで確認できます...

最後にロシアの首相が中国を訪問していたようですのでそれも(^^)

 

 


日米韓

White House

・2025.10.29 The United States Signs Technology Prosperity Deals with Japan and Korea

The United States Signs Technology Prosperity Deals with Japan and Korea 米国は日本と韓国と技術繁栄協定に調印
As part of President Trump’s trip to Asia, the United States signed Technology Prosperity Deals (TPD) with Japan and Korea, expanding, strengthening, and focusing science and technology collaboration with key allies. Building on the success of the U.S.-United Kingdom TPD signed in September 2025, these bilateral agreements further enable U.S. engagement with Japan and Korea’s unique science and technology ecosystems to align regulatory and standards approaches, accelerate research and development, and strengthen national security. トランプ大統領のアジア訪問の一環として、米国は日本と韓国と技術繁栄協定(TPD)を締結した。これにより主要同盟国との科学技術協力が拡大・強化・重点化される。2025年9月に締結された米英TPDの成功を踏まえ、これらの二国間協定は、米国が日本と韓国の独自の科学技術エコシステムと連携し、規制や標準のアプローチを調整し、研究開発を加速させ、国家安全保障を強化することをさらに可能にする。
“The Trump Administration is redefining American technological leadership by driving bilateral collaborative partnerships with allies like Japan and Korea. Each Technology Prosperity Deal offers great opportunities to accelerate scientific discovery and lead the world into a new era of innovation driven by the US and our partners,” said Michael Kratsios, Assistant to the President and Director of the White House Office of Science and Technology Policy. 「トランプ政権は日本や韓国といった同盟国との二国間協力関係を推進することで、米国の技術的リーダーシップを再定義している。各技術繁栄協定は科学的発見を加速させ、米国とパートナー国が主導する新たなイノベーション時代へ世界を導く絶好の機会を提供する」と、大統領補佐官兼ホワイトハウス米国科学技術政策局局長マイケル・クラツィオスは述べた。
The U.S.-Japan Technology Prosperity Deal, signed by Director Kratsios and Japanese Minister of State for Science and Technology Policy Onoda Kimi, will deepen cooperation to drive breakthroughs in AI, quantum computing, biotechnology, space, 6G, and fusion energy. クラツィオス局長と小野田公美科学技術政策担当国務大臣が署名した日米技術繁栄協定は、AI、量子コンピューティング、バイオテクノロジー、宇宙、6G、核融合エネルギーにおけるブレークスルーを推進するため協力を深化させる。
・The U.S.-Japan TPD will advance American interests through coordinated U.S.-Japanese AI exports. This will strengthen technology protections and refocus the partnership between the U.S. Center for AI Standards and Innovation and the Japan AI Safety Institute on metrology and standards innovation.  ・日米技術繁栄協定は、日米協調によるAI輸出を通じて米国の利益を推進する。これにより技術保護が強化され、米国AI標準・イノベーションセンターと日本AI安全機構の連携が計量学と標準化イノベーションに再焦点化される。
・The U.S.-Japan TPD also advances joint efforts to secure the innovation ecosystem, with particular focus on research security, resilient biotechnology and pharmaceutical supply chains, and protection of quantum technologies. ・日米技術政策対話(TPD)はまた、研究セキュリティ、強靭なバイオテクノロジー・医薬品サプライチェーン、量子技術の保護に特に焦点を当て、イノベーション・エコシステムの安全確保に向けた共同努力を推進する。
・The U.S.-Japan TPD advances strategic interests of the United States in space, 6G, and fusion technologies with a critical ally in the region. ・日米技術政策対話(TPD)は、この地域の重要な同盟国と共に、宇宙、6G、核融合技術における米国の戦略的利益を推進する。
・・Space: This collaboration recognizes and expands Japan’s commitment to the Artemis program, including future lunar surface exploration missions and development of commercial space capabilities. ・・宇宙分野:本協力は、将来の月面探査ミッションや商業宇宙能力の開発を含むアルテミス計画への日本の取り組みを認識し、拡大するものである。
・・6G: This partnership enables both countries to promote secure and trusted networks. ・・6G:本パートナーシップにより、両国は安全で信頼性の高いネットワークの推進が可能となる。
・・Fusion: This partnership advances American collaboration with Japan’s unique fusion energy facilities, including the JT-60SA tokamak, with goals to support continued development of commercial fusion reactors. ・・核融合:本パートナーシップは、JT-60SAトカマクを含む日本の独自の核融合エネルギー施設との米国の協力を推進し、商業用核融合炉の継続的な開発を支援することを目的とする。
The U.S.-Republic of Korea Technology Prosperity Deal was signed by Director Kratsios and Korean Minister of Science, Information, and Communication Technology Bae Kyung-hoon to affirm the commitment of the two nations to science and technology collaboration. 米韓技術繁栄協定は、クラチオス局長と韓国の裵慶勲(ペ・ギョンフン)科学技術情報通信部長官によって署名され、両国の科学技術協力へのコミットメントを確約した。
・The U.S. will work with Korean counterparts to reduce operational burdens for technology companies and digital application platforms, with particular attention to removing barriers to innovative data hosting architectures. ・米国は韓国の担当機関と連携し、技術企業やデジタルアプリケーションプラットフォームの運用負担軽減に取り組む。特に革新的なデータホスティングアーキテクチャへの障壁除去に注力する。
・The U.S.-Korea TPD will advance American interests with coordinated U.S.-Republic of Korea AI exports, strengthening both countries’ technology protections and enforcement, and refocusing the partnership between the U.S. Center for AI Standards and Innovation and the Korea AI Safety Institute on metrology and standards innovation.  ・米韓TPDは、米国と韓国の協調的なAI輸出管理を通じて米国の利益を推進し、両国の技術保護と執行を強化する。また、米国AI標準・イノベーションセンターと韓国AI安全研究所の連携を、計量学と標準イノベーションに再焦点化する。
・The U.S.-Korea TPD also advances combined efforts to secure the innovation ecosystem, with particular focus on research security, resilient biotechnology and pharmaceutical supply chains, and protecting quantum technologies. ・米韓技術・政策対話(TPD)はまた、研究セキュリティ、強靭なバイオテクノロジー・医薬品サプライチェーン、量子技術の保護に特に焦点を当て、イノベーション・エコシステムの安全確保に向けた共同努力を推進する。
・The U.S.-Korea TPD advances strategic interests of the U.S. in space exploration and 6G telecommunications, working to partner with Korea as a critical ally in the region. ・米韓技術・政策対話(TPD)は、宇宙探査と6G通信における米国の戦略的利益を推進し、地域における重要な同盟国として韓国との連携を図る。
・The two nations also agreed to engage in discussions to promote AI education programs, to empower children to flourish in the digital era and prepare future generations for the workplace of tomorrow. These will include participation in the Fostering the Future Together global initiative established by First Lady Melania Trump. ・両国はまた、デジタル時代において子供たちが活躍し、次世代が未来の職場に備えられるよう、AI教育プログラムを推進するための協議を行うことに合意した。これにはメラニア・トランプ大統領夫人が設立した「共に未来を育む」グローバル・イニシアチブへの参加も含まれる。

 

外務省

・2025.10.29 日米韓外相会合

 


日米

首相官邸

・2025.10.28 トランプ米国大統領の訪日についての会見

・2025.10.28 日米首脳会談

・2025.10.24 トランプ米国大統領との電話会談についての会見

外務省

・2025.10.28 日米首脳会談、署名式、ワーキング・ランチ

 


White House

・2025.10.29 Fact Sheet: President Donald J. Trump Drives Forward Billions in Investments from Japan

・2025.10.28 Memorandum of Cooperation Regarding the Technology Prosperity Deal Between the Government of the United States of America and the Government of Japan

・2025.10.27 Implementation of the Agreement Toward a NEW GOLDEN AGE for the U.S.-Japan Alliance

・2025.10.27 United States-Japan Framework For Securing the Supply of Critical Minerals and Rare Earths through Mining and Processing

 

 

 


 

米韓

・2025.10.29 Fact Sheet: President Donald J. Trump Brings Home More Billion Dollar Deals During State Visit to the Republic of Korea

Fact Sheet: President Donald J. Trump Brings Home More Billion Dollar Deals During State Visit to the Republic of Korea ファクトシート:ドナルド・J・トランプ大統領、大韓民国公式訪問でさらに数十億ドル規模の契約を獲得
SECURING BILLIONS IN EXPORTS AND INVESTMENTS:  Today,President Donald J. Trump completed the final stop of his historic Indo-Pacific trip, securing billions in landmark deals while visiting the Republic of Korea (ROK), including initiatives to support American jobs, further America’s energy dominance, promote American leadership in the technology revolution, and build our maritime partnership.   輸出・投資で数十億ドルを確保:本日、ドナルド・J・トランプ大統領は歴史的なインド太平洋訪問の最終地である大韓民国(ROK)を訪問し、米国雇用支援、エネルギー優位性の強化、技術革命における米国主導の促進、海上パートナーシップ構築を含む画期的な数十億ドル規模の契約を確保した。
・Korean Air will purchase 103 new Boeing aircraft valued at $36.2 billion, supporting up to 135,000 jobs across the United States.  To power these new aircraft, Korean Air will also purchase state-of-the-art GE Aerospace engines in a separate deal valued at $13.7 billion.  ・大韓航空は362億ドル相当のボーイング社製新型機103機を購入し、米国で最大13万5千人の雇用を支える。これらの新型機を推進するため、大韓航空は別途137億ドル相当の契約でGEエアロスペース社の最新鋭エンジンも購入する。
・The ROK Air Force selected L3Harris Technologies to develop its new Airborne Warning and Control aircraft in a $2.3 billion deal that will support over 6,000 American jobs. ・韓国空軍は新型空中警戒管制機(AWACS)の開発をL3ハリス・テクノロジーズに委託した。契約額は23億ドルで、6,000人以上の米国雇用を支える。
・America’s ReElement Technologies and POSCO International will partner to launch a U.S.-based, vertically integrated rare earth separation, refining, and magnet production complex focused on high-value mobility magnets. ・米国のリエレメント・テクノロジーズとPOSCOインターナショナルは提携し、米国に垂直統合型の希土類分離・精製・磁石生産複合施設を設立する。高付加価値のモビリティ磁石に特化する。
FURTHERING AMERICA’S ENERGY DOMINANCE:  The President secured key investments further solidifying the United States’ position as the global energy leader. 米国のエネルギー優位性の強化:大統領は、米国が世界のエネルギーリーダーとしての地位をさらに固めるための重要な投資を確保した。
・The Korea Gas Corporation signed agreements to purchase about 3.3 million tons/year of U.S. LNG via long-term agreements with sellers, including Trafigura and TotalEnergy, through their portfolios and offtake agreements with U.S. LNG producers like Cheniere.  ・韓国ガス公社(KOGAS)は、トラフィグラやトタルエナジーなどの販売業者との長期契約、ならびにシェニエールなどの米国LNG生産者とのポートフォリオおよびオフテイク契約を通じて、年間約330万トンの米国産LNGを購入する契約に署名した。
・Centrus Energy Corp, KHNP, and POSCO International Corporation agreed to support the expansion of Centrus’ uranium enrichment capacity in Piketon, Ohio, creating 3,000 jobs in the United States. ・セントラス・エナジー社、韓国水力原子力(KHNP)、ポスコ・インターナショナル社は、オハイオ州ピケトンにおけるセントラスのウラン濃縮能力拡大を支援することで合意し、米国に3,000の雇用を創出する。
・LS Group pledged to invest $3 billion by 2030 in U.S. power-grid infrastructure, including undersea cables, power equipment, and winding wires.  LS Cable’s U.S. subsidiary, LS Greenlink, is building a $681 million manufacturing facility in Virginia.  ・LSグループは、海底ケーブル、電力機器、巻線などを含む米国電力網インフラに2030年までに30億ドルを投資することを約束した。 LSケーブルの米国子会社であるLSグリーンリンクは、バージニア州に6億8100万ドルの製造施設を建設中だ。
PROMOTING AMERICA’S ADVANTAGE IN THE TECHNOLOGY REVOLUTION: The President strengthened America’s leading role in the digitized economy by boosting investments and jobs in, and access to, U.S. technology. 技術革命における米国の優位性を促進:大統領は、米国技術への投資・雇用創出・アクセス拡大を通じ、デジタル経済における米国の主導的役割を強化した。
・The United States and the ROK are signing a Technology Prosperity Deal to expand bilateral science and technology cooperation with an emphasis on U.S. AI exports, AI standards, AI adoption, research security, 6G, biotech supply chains, and quantum innovation. ・米国と韓国は「技術繁栄協定」に署名し、米国の人工知能(AI)輸出、AI標準、AI導入、研究セキュリティ、6G、バイオテクノロジー供給網、量子イノベーションに重点を置いた二国間科学技術協力を拡大する。
・Amazon will invest $5 billion through 2031 to build the ROK’s cloud infrastructure, helping drive U.S. exports and American AI leadership.  This comes on top of Amazon Web Services’ (AWS’) historic cloud-infrastructure investments across 14 APEC economies during the President’s term, totaling $40 billion. ・アマゾンは2031年までに50億ドルを投資し、韓国のクラウドインフラを構築する。これにより米国輸出と米国AI主導権の推進に貢献する。 これは、大統領任期中にアマゾン・ウェブ・サービス(AWS)がAPEC14経済圏で実施した総額400億ドルに上る歴史的なクラウドインフラ投資に追加されるものだ。
・NASA’s Artemis II mission will take astronauts around the Moon for the first time since Apollo, and deploy a Korean satellite to measure space radiation. ・NASAのアルテミスIIミッションは、アポロ計画以来初めて宇宙飛行士を月周回軌道に送り、宇宙放射線測定用の韓国衛星を展開する。
・Both countries committed to stabilize and diversify the critical-mineral supply chain through public-private collaboration in the mining and refining of such minerals. ・両国は、鉱物資源の採掘・精製における官民連携を通じ、重要鉱物サプライチェーンの安定化と多様化に取り組むことを約束した。
BUILDING OUR MARITIME PARTNERSHIP:  The President has secured from the ROK investments to modernize and expand the capacity of American shipbuilding industries, including through investments in U.S. shipyards and America’s workforce. 海事パートナーシップの構築:大統領は韓国から、米国造船業の近代化と能力拡大に向けた投資を確保した。これには米国造船所と労働力への投資が含まれる。
・HD Hyundai and Cerberus Capital Management will partner on a $5 billion investment program for modernizing American shipyards, strengthening supply chains, and applying new technologies like autonomous navigation, digitalization, and automation.  ・HD現代とケルベロス・キャピタル・マネジメントは、米国造船所の近代化、サプライチェーン強化、自律航行・デジタル化・自動化などの新技術導入に向けた50億ドル規模の投資プログラムで提携する。
・Samsung Heavy Industries and Vigor Marine Group will cooperate on naval vessel maintenance, repair, and overhaul (MRO), shipyard automation, and new construction of U.S.-flagged vessels. ・サムスン重工業とヴィガー・マリン・グループは、海軍艦艇の整備・修理・オーバーホール(MRO)、造船所の自動化、米国籍船舶の新造で協力する。
・Hanwha Ocean announced a $5 billion infrastructure plan to strengthen Pennsylvania’s Philly Shipyard workforce and increase its current production capacity by more than ten-fold. ・韓華オーシャンは、ペンシルベニア州フィリー造船所の労働力を強化し、現在の生産能力を10倍以上拡大する50億ドルのインフラ計画を発表した。
REESTABLISHING AMERICAN LEADERSHIP: President Trump’s State Visit to Korea reaffirmed the steadfast alliance between the United States and the ROK, while advancing U.S. economic interests—delivering tangible benefits for the American people.  米国のリーダーシップ再確立:トランプ大統領の韓国公式訪問は、米国と韓国の揺るぎない同盟関係を再確認すると同時に、米国の経済的利益を推進し、米国国民に具体的な利益をもたらした。
・This capstone stop on President Trump’s Asia travels underscored America’s prominent role as the preeminent Pacific power.  ・トランプ大統領のアジア歴訪におけるこの集大成的な訪問は、米国が太平洋における卓越した大国としての主導的役割を担っていることを強調した。
・Today’s announcements build on the historic trade victories and infrastructure commitments the President secured while in Japan and Malaysia, bringing billions in investments and thousands of jobs home to America. ・本日の発表は、大統領が日本とマレーシア訪問中に確保した歴史的な貿易上の成果とインフラ投資の約束を基盤としており、数十億ドル規模の投資と数千の雇用を米国にもたらすものである。

 

 

 


日韓

● 首相官邸

・2025.10.30 日韓首脳会談についての会見

外務省

・2025.10.30 日韓首脳会談

 

 


 

米中

・2025.11.01 Fact Sheet: President Donald J. Trump Strikes Deal on Economic and Trade Relations with China

Fact Sheet: President Donald J. Trump Strikes Deal on Economic and Trade Relations with China ファクトシート:ドナルド・J・トランプ大統領、中国との経済・貿易関係で合意
REBALANCING TRADE WITH CHINA: This week in the Republic of Korea, President Donald J. Trump reached a trade and economic deal with President Xi Jinping of China—a massive victory that safeguards U.S. economic strength and national security while putting American workers, farmers, and families first. 中国との貿易再調整:今週、大韓民国においてドナルド・J・トランプ大統領は中国の習近平国家主席と貿易・経済合意に達した。これは米国の経済的強さと国家安全保障を守りつつ、米国の労働者、農家、家族を最優先する画期的な勝利である。
・This historic agreement includes Chinese commitments to: ・この歴史的合意には、中国による以下の約束が含まれる:
・・Halt the flow of precursors used to make fentanyl into the United States. ・・フェンタニル製造の前駆物質の米国流入を停止する。
・・Effectively eliminate China’s current and proposed export controls on rare earth elements and other critical minerals. ・・希土類元素及びその他の重要鉱物に対する中国の現行及び提案中の輸出管理を実質的に撤廃する。
・・End Chinese retaliation against U.S. semiconductor manufacturers and other major U.S. companies. ・・米国の半導体製造事業者及びその他の主要米国企業に対する中国の報復措置を終了する。
・・Open China’s market to U.S. soybeans and other agricultural exports.  ・・中国市場を米国産大豆及びその他の農産物輸出に開放する。
CHINESE ACTIONS: 中国の措置:
China will suspend the global implementation of the expansive new export controls on rare earths and related measures that it announced on October 9, 2025.  中国は、2025年10月9日に発表した希土類に関する新たな広範な輸出管理及び関連措置の全世界的な実施を停止する。
China will issue general licenses valid for exports of rare earths, gallium, germanium, antimony, and graphite for the benefit of U.S. end users and their suppliers around the world. The general license means the de facto removal of controls China imposed in April 2025 and October 2022. 中国は、米国の最終ユーザー及び世界中のその供給業者を対象に、希土類、ガリウム、ゲルマニウム、アンチモン、グラファイトの輸出を許可する一般輸出許可証を発行する。この一般輸出許可は、中国が2025年4月と2022年10月に課した規制を事実上撤廃することを意味する。
China will take significant measures to end the flow of fentanyl to the United States. Specifically, China will stop the shipment of certain designated chemicals to North America and strictly control exports of certain other chemicals to all destinations in the world. 中国はフェンタニルの米国流入を阻止するため、重大な措置を講じる。具体的には、特定化学物質の北米向け出荷を停止し、その他特定化学物質の全世界向け輸出を厳格に管理する。
China will suspend all of the retaliatory tariffs that it has announced since March 4, 2025.  This includes tariffs on a vast swath of U.S. agricultural products: chicken, wheat, corn, cotton, sorghum, soybeans, pork, beef, aquatic products, fruits, vegetables, and dairy products. 中国は2025年3月4日以降に発表した全ての報復関税を停止する。これには鶏肉、小麦、トウモロコシ、綿花、ソルガム、大豆、豚肉、牛肉、水産物、果物、野菜、乳製品など広範な米国農産物への関税が含まれる。
China will suspend or remove all of the retaliatory non-tariff countermeasures taken against the United States since March 4, 2025, including China’s listing of certain American companies on its end user and unreliable entity lists. 中国は2025年3月4日以降に米国に対して実施した報復的非関税措置を全て停止または撤廃する。これには中国が特定の米国企業をエンドユーザーリスト及び信頼できない事業体リストに掲載した措置も含まれる。
China will purchase at least 12 million metric tons (MMT) of U.S. soybeans during the last two months of 2025 and also purchase at least 25 MMT of U.S. soybeans in each of 2026, 2027, and 2028.  Additionally, China will resume purchases of U.S. sorghum and hardwood logs. 中国は2025年最後の2か月間に少なくとも1200万トン(MMT)の米国産大豆を購入し、さらに2026年、2027年、2028年の各年にも少なくとも2500万トンの米国産大豆を購入する。加えて、中国は米国産ソルガム及び広葉樹原木の購入を再開する。
China will take appropriate measures to ensure the resumption of trade from Nexperia’s facilities in China, allowing production of critical legacy chips to flow to the rest of the world. 中国はNexperiaの中国国内施設からの貿易再開を確保するため適切な措置を講じ、重要レガシーチップの生産が世界へ供給されるようにする。
China will remove measures it took in retaliation for the U.S.’s announcement of a Section 301 investigation on China’s Targeting the Maritime, Logistics, and Shipbuilding Sectors for Dominance, and remove sanctions imposed on various shipping entities. 中国は、米国の「中国の海事・物流・造船分野における支配的地位獲得」に関する301条調査発表への報復措置を撤廃し、各種海運事業体への制裁を解除する。
China will further extend the expiration of its market-based tariff exclusion process for imports from the United States and exclusions will remain valid until December 31, 2026. 中国は米国からの輸入事業者に対する市場ベースの関税除外措置の期限をさらに延長し、除外措置は2026年12月31日まで有効とする。
China will terminate its various investigations targeting U.S. companies in the semiconductor supply chain, including its antitrust, anti-monopoly, and anti-dumping  investigations. 中国は半導体サプライチェーンにおける米国企業を対象とした各種調査(独占禁止法、反独占法、ダンピング防止法に基づく調査を含む)を終了する。
AMERICAN ACTIONS: 米国措置:
The United States will lower the tariffs on Chinese imports imposed to curb fentanyl flows by removing 10 percentage points of the cumulative rate, effective November 10, 2025, and will maintain its suspension of heightened reciprocal tariffs on Chinese imports until November 10, 2026.  (The current 10% reciprocal tariff will remain in effect during this suspension period.) 米国はフェンタニルの流入抑制を目的として課した中国輸入品への関税を、2025年11月10日より累積税率を10%ポイント引き下げる。また中国輸入品に対する強化された報復関税の停止措置を2026年11月10日まで維持する(現行の10%報復関税はこの停止期間中も有効である)。
The United States will further extend the expiration of certain Section 301 tariff exclusions, currently due to expire on November 29, 2025, until November 10, 2026. 米国は、現行で2025年11月29日に期限切れとなる特定セクション301関税除外措置の有効期限を、2026年11月10日までさらに延長する。
The United States will suspend for one year, starting on November 10, 2025, the implementation of the interim final rule titled Expansion of End-User Controls to Cover Affiliates of Certain Listed Entities. 米国は、2025年11月10日より1年間、「特定指定事業体の関連会社を対象とするエンドユーザー管理の拡大」と題する暫定最終規則の実施を停止する。
The United States will suspend for one year, starting on November 10, 2025, implementation of the responsive actions taken pursuant to the Section 301 investigation on China’s Targeting the Maritime, Logistics, and Shipbuilding Sectors for Dominance.  In the meantime, the United States will negotiate with China pursuant to Section 301 while continuing its historic cooperation with the Republic of Korea and Japan on revitalizing American shipbuilding. 米国は、中国の「海事・物流・造船分野における支配的地位の確立」に関するセクション301調査に基づく対応措置の実施を、2025年11月10日から1年間停止する。その間、米国はセクション301に基づき中国と交渉を行う一方、大韓民国及び日本との歴史的協力を継続し、米国造船業の活性化を図る。
SECURING ANOTHER WIN FOR THE AMERICAN PEOPLE: This trade and economic deal caps President Trump’s successful trip to Asia, where he delivered a series of historic wins for the American people. 米国国民へのさらなる勝利の確保:この貿易・経済協定は、トランプ大統領のアジア訪問を締めくくるものであり、同大統領は一連の歴史的な成果を米国国民にもたらした。
In Malaysia, President Trump signed Agreements on Reciprocal Trade with Malaysia and Cambodia, and the United States announced joint frameworks for trade negotiations with Thailand and Vietnam. He also signed critical minerals cooperation agreements with Thailand and Malaysia. マレーシアでは、トランプ大統領はマレーシア及びカンボジアとの相互貿易協定に署名し、米国はタイ及びベトナムとの貿易交渉に関する共同枠組みを発表した。また、タイ及びマレーシアとの重要鉱物協力協定にも署名した。
In Japan, President Trump announced major projects advancing Japan’s previous $550 billion investment commitment to the United States to further revitalize the U.S. industrial base, signed a landmark critical minerals agreement with Japan, secured historic purchases of U.S. energy from Japan, and deepened U.S.-Japan cooperation to combat illegal drug trafficking. 日本では、トランプ大統領は米国産業基盤をさらに活性化させるため、日本が以前約束した5500億ドルの対米投資を推進する主要プロジェクトを発表し、日本との画期的な重要鉱物協定に署名し、日本による米国産エネルギーの歴史的な購入を確保し、違法薬物取引対策における日米協力を深化させた。
In the Republic of Korea, the President secured billions in landmark commitments, including investments to support American jobs, further America’s energy dominance, promote American leadership in the technology revolution, and build the U.S.-Korea maritime partnership.  大韓民国では、大統領は数十億ドル規模の画期的な約束を確保した。これには米国雇用支援投資、米国のエネルギー優位性強化、技術革命における米国主導の促進、日米海洋パートナーシップ構築が含まれる。

 

 

中華人民共和国

・2025.10.30 习近平同美国总统特朗普在釜山举行会晤

习近平同美国总统特朗普在釜山举行会晤 習近平国家主席とトランプ米大統領が釜山で会談
新华社韩国釜山10月30日电(记者 李忠发、郝薇薇)当地时间10月30日,国家主席习近平在釜山同美国总统特朗普举行会晤。 韓国・釜山、10月30日(新華社)― 記者、李中発、郝薇薇 ― 現地時間10月30日、習近平国家主席は釜山でドナルド・トランプ米大統領と会談した。
习近平指出,中美关系在我们共同引领下,保持总体稳定。两国做伙伴、做朋友,这是历史的启示,也是现实的需要。两国国情不同,难免有一些分歧,作为世界前两大经济体,时而也会有摩擦,这很正常。面对风浪和挑战,两国元首作为掌舵人,应当把握好方向、驾驭住大局,让中美关系这艘大船平稳前行。我愿继续同特朗普总统一道,为中美关系打下一个稳固的基础,也为两国各自发展营造良好的环境。 習主席は、我々の共同の指導の下、米中関係は全体として安定を保っている、と述べた。両国は、歴史が要求し、現実が求める通り、パートナーであり友人であるべきだ。両国は国情が異なるため、多少の意見の相違は避けられない。世界最大の2つの経済大国として、時折摩擦が生じることも当然である。嵐や課題に直面した際、両国首脳は舵取り役として、方向性を定め、全体的な状況を把握し、米中関係の着実な進展を確保すべきである。私は、トランプ大統領と引き続き協力し、米中関係の強固な基盤を築き、両国の発展に有利な環境を整えていきたい。
习近平强调,中国经济发展势头不错,今年前三季度增长率达5.2%,对全球的货物贸易进出口增长4%,这是克服内外困难实现的,来之不易。中国经济是一片大海,规模、韧性、潜力都比较大,我们有信心也有能力应对各种风险挑战。中共二十届四中全会审议通过了未来5年的国民经济和社会发展规划建议。70多年来,我们坚持一张蓝图绘到底,一茬接着一茬干,从来没有想挑战谁、取代谁,而是集中精力办好自己的事,做更好的自己,同世界各国分享发展机遇。这是中国成功的重要密码。中国将进一步全面深化改革、扩大对外开放,着力推动经济实现质的有效提升和量的合理增长,推进人的全面发展和全体人民共同富裕,相信这也将为中美合作开辟更广阔空间。 習主席は、中国の経済発展は堅調な勢いを維持しており、今年第1~3四半期の成長率は5.2%、世界の商品貿易の輸入事業者および輸出入は4%増加したと強調した。これらの成果は、内外の困難にもかかわらず達成されたものであり、苦労して得たものである。中国経済は海のようなもので、その規模、レジリエンス、潜在力は非常に大きい。我々は様々なリスクや課題に対処する自信と能力を持っている。中国共産党第20期中央委員会第4回全体会議では、今後5年間の国家経済社会発展計画の提案が審議、採択された。70年以上にわたり、我々は一貫した青写真を堅持し、世代が互いにその努力を積み重ねてきた。我々は決して他国に挑戦したり置き換えたりしようとしたことはない。むしろ自らの内政に専念し、より良い自分を目指すことに注力し、発展の機会を全ての国々と共有してきた。これが中国の成功の鍵である。中国は全面的な改革をさらに深化させ、開放を拡大し、経済の質的改善と量的成長の合理化を図り、個人の全面的な発展と人民全体の共同繁栄を推進する。これにより米中協力のより広い空間が開かれると確信している。
习近平指出,两国经贸团队就重要经贸问题深入交换意见,形成了解决问题的共识。双方团队要尽快细化和敲定后续工作,将共识维护好、落实好,以实实在在的成果,给中美两国和世界经济吃下一颗“定心丸”。中美经贸关系近期经历曲折,也给双方带来一些启示。经贸应该继续成为中美关系的压舱石和推进器,而不是绊脚石和冲突点。双方应该算大账,多看合作带来的长远利益,而不应陷入相互报复的恶性循环。双方团队可以继续本着平等、尊重、互惠的原则谈下去,不断压缩问题清单,拉长合作清单。 習近平は、両国の経済貿易チームが主要な経済貿易問題について深く議論し、懸案事項の解決で合意に達したと指摘した。両チームは速やかにフォローアップの手配を具体化し、この合意を守り実行に移すことで、両国と世界経済に確かな成果をもたらすべきだ。最近の米中経済貿易関係の紆余曲折は双方に教訓を与えた。経済貿易関係は二国間関係の安定化要因であり推進力であるべきで、障害や対立点であってはならない。双方は大局に目を向け、報復の悪循環に陥るより協力の長期的な利益を優先すべきだ。交渉チームは、平等、相互尊重、互恵の原則に基づいて議論を続け、協力の範囲を拡大しながら、問題リストを着実に減らしていくことができる。
习近平强调,对话比对抗好。中美之间各渠道各层级应该保持沟通,增进了解。两国在打击非法移民和电信诈骗、反洗钱、人工智能、应对传染疾病等领域合作前景良好,对口部门应该加强对话交流,开展互利合作。中美在地区和国际舞台也应该良性互动。当今世界还有很多难题,中国和美国可以共同展现大国担当,携手多办一些有利于两国和世界的大事、实事、好事。明年,中国将担任亚太经合组织东道主,美国将主办二十国集团峰会。双方可以相互支持,争取两场峰会都取得积极成果,为促进世界经济增长、完善全球经济治理作出贡献。 習近平氏は、対立よりも対話が望ましいと強調した。相互理解を深めるため、中国と米国のあらゆるレベルでのコミュニケーションチャネルと対話を維持すべきである。不法移民や通信詐欺の取り締まり、マネーロンダリング対策、人工知能、感染症対応などの分野では、協力の見通しが明るい。関連部門は、相互に有益な協力関係を追求するため、対話と交流を強化すべきである。また、中国と米国は、地域および国際的な舞台でも建設的に関わるべきである。今日、世界は多くの課題に直面しており、両国は、両国および国際社会にとって重要かつ実用的で有益な取り組みを共同で推進することにより、大国としての責任を果たすことができる。来年、中国はアジア太平洋経済協力(APEC)首脳会議を、米国はG20サミットを主催する。双方は、これらの会議が良好な成果を上げるよう相互に支援し、それによって世界経済の成長と国際経済ガバナンスの改善に貢献することができる。
特朗普表示,很荣幸同习近平主席会面。中国是伟大国家,习主席是受人尊敬的伟大领导人,也是我多年的好朋友,我们相处非常愉快。美中关系一直很好,将来会更好,希望中国和美国的未来都更加美好。中国是美国最大的伙伴,两国携手可以在世界上做成很多大事,未来美中合作会取得更大成就。中国将举办2026年亚太经合组织领导人非正式会议,美国将举办二十国集团峰会,乐见双方取得成功。 トランプ氏は、習近平国家主席と会談できたことを光栄に思うと述べた。中国は偉大な国であり、習主席は尊敬される偉大な指導者であると同時に、長年の良き友人でもある。我々は非常に良好な関係を築いている。米中関係は常に良好であり、今後もさらに良くなるだろう。中国と米国双方のより明るい未来を願っている。中国は米国にとって最大のパートナーであり、両国は協力することで世界において大きな成果を上げることができる。今後の米中協力は、さらに大きな成功を収めるだろう。中国は2026年のAPEC非公式首脳会議を、米国はG20サミットを主催する。両会議の成功を期待している。
两国元首同意加强双方在经贸、能源等领域合作,促进人文交流。 両首脳は、貿易、経済、エネルギーなどの分野における二国間協力を強化し、人的交流を促進することで合意した。
两国元首同意保持经常性交往。特朗普期待明年早些时候访华,邀请习近平主席访问美国。 両首脳は、定期的な交流を維持することで合意した。トランプ大統領は、来年早々に中国を訪問することを期待しており、習近平国家主席に米国訪問の招待状を贈った。
蔡奇、王毅、何立峰等参加会见。 蔡奇、王毅、何立峰らが会談に同席した。

 

 

 


 

日中

● 首相官邸

・2025.10.31 日中首脳会談についての会見

● 外務省

・2025.10.31 日中首脳会談

 

● 中華人民共和国

・2025.10.31 习近平会见日本首相高市早苗

习近平会见日本首相高市早苗 習近平主席が日本の高市早苗首相と会談
新华社韩国庆州10月31日电(记者乔继红 马卓言)当地时间10月31日下午,国家主席习近平在韩国庆州出席亚太经合组织第三十二次领导人非正式会议期间应约会见日本首相高市早苗。 新華社通信、韓国・慶州、10月31日(記者・喬吉宏、馬卓彦)現地時間10月31日午後、韓国・慶州で開催された第32回APEC非公式首脳会議に出席中の習近平国家主席は、日本の高市早苗首相の要請に応じ、同首相と会談した。
习近平指出,中日两国一衣带水,互为重要近邻,推动中日关系长期健康稳定发展符合两国人民和国际社会普遍期待。中方愿同日方一道,按照中日四个政治文件确立的原则和方向,维护双边关系政治基础,推进战略互惠关系,致力于构建契合新时代要求的建设性、稳定的中日关系。 習近平主席は、中国と日本は狭い海を隔てた隣国であり、両国関係の長期的な健全かつ安定した発展を促進することは、両国国民と国際社会の共通の願いに合致すると指摘した。中国は日本と共に、日中四つの政治文書で確立された原則と方向性に基づき、二国間関係の政治的基盤を守り、戦略的互恵関係を推進し、新時代の要求に合致する建設的で安定した日中関係を築くよう努力する意思がある。
习近平强调,目前中日关系机遇和挑战并存。希望日本新内阁树立正确对华认知,珍视两国老一辈政治家和各界人士为发展中日关系倾注的心血和努力,坚持中日和平、友好、合作的大方向。一是恪守重要共识。把“全面推进战略互惠关系”、“互为合作伙伴、互不构成威胁”、“以史为鉴、面向未来”等政治共识落到实处。恪守和履行中日四个政治文件就历史、台湾等重大原则问题作出的明确规定,确保中日关系根基不受损、不动摇。“村山谈话”深刻反省日本侵略历史并向受害国道歉,这一精神值得弘扬。二是坚持合作共赢。中共二十届四中全会擘画了“十五五”中国发展蓝图,中日合作具有广阔空间。中日可以加强高端制造、数字经济、绿色发展、财政金融、医疗养老、第三方市场等方面合作,共同维护多边贸易体制和产业链供应链稳定畅通。三是促进民心相通。持续开展政府、政党、立法机构等沟通,深化拓展人文和地方交流,改善国民感情。四是加强多边协作。秉持睦邻友好、平等互利、互不干涉内政原则,践行真正的多边主义,推动构建亚太共同体。五是妥善管控分歧。着眼大局、求同存异、聚同化异,避免让矛盾分歧定义两国关系。 習近平は、現在の日中関係には機会と課題が共存していると強調した。日本の新内閣が中国に対する正しい認識を持ち、両国の先代の政治家や各界の人物が二国間関係の発展に注いだ献身と努力を大切にし、日中平和友好協力の基本路線を堅持することを期待すると述べた。第一に、重要な合意を堅持することが不可欠である。「戦略的互恵関係を全面的に推進する」「互いにパートナーであり脅威とならない」「歴史の教訓を汲み取り未来を見据える」という政治的合意を実践に移さねばならない。歴史や台湾問題といった重大な原則問題に関する四つの日中政治文書に明記された規定を堅持し、実行に移さねばならない。これにより日中関係の基盤が損なわれず、揺るがないようにするのだ。日本の侵略の歴史を深く反省し、被害国に謝罪した「村田声明」は、推進に値する精神を体現している。第二に、ウィンウィンの協力を堅持しなければならない。中国共産党第20期中央委員会第4回全体会議は第15次五カ年計画期間における中国の発展の道筋を示し、日中協力に広大な展望を開いた。両国はハイエンド製造事業者、デジタル経済、グリーン発展、金融・銀行、医療・介護、サードパーティ市場での協力を強化しつつ、多角的貿易体制を共同で守り、産業・供給チェーンの安定と円滑な運営を確保できる。第三に、人的交流を育むことだ。政府間、政党間、立法団体間のコミュニケーションを継続的に強化し、人的交流や地方交流を深化・拡大させ、国民の感情を改善すべきだ。第四に、多国間協力を強化すべきだ。善隣友好、平等、互恵、内政不干渉の原則を堅持し、真の多国間主義を実践し、アジア太平洋共同体の構築を推進すべきだ。第五に、相違点を適切に管理すべきだ。大局に目を向け、共通点を探りながら相違点を保留し、矛盾や相違が二国間関係を定義づけることを避けるべきだ。
高市早苗表示,中国是日本的重要邻国,日中两国对地区和世界和平与繁荣负有重大责任。日方愿同中方保持高层交往,密切各层级交流,加强沟通、增进理解、促进合作,扎实推进两国战略互惠关系,构建建设性、稳定的日中关系。在台湾问题上,日本将坚持1972年日中联合声明中的立场。 高市早苗氏は、中国は日本にとって重要な隣国であり、両国は地域及び世界の平和と繁栄に対して重大な責任を負っていると述べた。日本は中国とのハイレベル交流を維持し、あらゆるレベルでのコミュニケーションを強化し、相互理解を深め、協力を推進し、両国間の戦略的互恵関係を着実に前進させ、建設的で安定した日中関係を構築していく意思がある。台湾問題に関しては、日本は1972年の日中国家関係正常化共同声明で表明した立場を堅持する。
蔡奇、王毅等参加。 蔡奇氏、王毅氏も同席した。

 

 


 

中韓

中華人民共和国

・2025.11.01 习近平同韩国总统李在明会谈

习近平同韩国总统李在明会谈 習近平主席、韓国の李在明大統領と会談
新华社韩国庆州11月1日电(记者 杜白羽、董雪)当地时间11月1日下午,韩国总统李在明同中国国家主席习近平在庆州博物馆举行会谈。 新華社通信、韓国・慶州、11月1日(記者・杜白宇、董雪)現地時間11月1日午後、韓国の李在明(イ・ジェミョン)大統領は慶州博物館で中国の習近平国家主席と会談した。
11月的庆州,秋意正浓。习近平乘车抵达,韩国礼仪队隆重欢迎。 11月の慶州は秋の美しさに包まれていた。習主席の車列が到着すると、韓国の儀仗兵が厳かに迎えた。
李在明热情迎接习近平。两国元首握手合影。 李大統領は習主席を温かく迎えた。両首脳は握手を交わし、記念撮影に応じた。
习近平同李在明登上检阅台。军乐团奏中韩两国国歌。习近平在李在明陪同下检阅仪仗队。两国元首分别同对方陪同人员握手致意。 習主席と李大統領は観閲台に上がった。軍楽隊が中国と韓国の国家を演奏した。李大統領に付き添われて、習近平主席は儀仗兵を閲兵した。その後、両首脳はそれぞれの随行員と握手を交わした。
欢迎仪式后,两国元首举行会谈。 歓迎式典の後、両首脳は会談を行った。
习近平指出,中韩是搬不走的重要近邻,也是分不开的合作伙伴。建交33年来,两国超越社会制度和意识形态差异,积极推进各领域交流合作,实现了相互成就、共同繁荣。事实证明,推动中韩关系健康稳定发展,始终是符合两国人民根本利益、顺应时代潮流的正确选择。中方重视中韩关系,对韩政策保持连续性、稳定性,愿同韩方加强沟通,深化合作,拓展共同利益,携手应对挑战,推动中韩战略合作伙伴关系行稳致远,为地区和平与发展提供更多正能量。 習近平は、中国と韓国は動かしようのない重要な隣国であり、切っても切れないパートナーであると指摘した。国交樹立から33年、両国は社会制度や思想の相違を超え、各分野での交流と協力を積極的に推進し、互いの成功と繁栄を共に実現してきた。事実が証明しているように、韓国と中国の関係を健全かつ安定的に発展させることは常に正しい選択であり、両国民の根本的利益にかなうと同時に、時代の流れにも合致している。中国は韓国との関係を重視し、対韓政策の継続性と安定性を維持している。中国は韓国とのコミュニケーションを強化し、協力を深化させ、共通利益を拡大し、共に課題に取り組み、中韓戦略的パートナーシップを着実な進展と長期的な発展へと導き、地域の平和と発展にさらなる積極的なエネルギーを注入していく意思がある。
习近平就开辟中韩关系新局面提出4点建议。 習近平は韓国関係に新たな章を開くため四つの提案を提示した。
一是加强战略沟通,夯实互信根基。从长远角度看待中韩关系,在彼此尊重中共同发展,在求同存异中合作共赢。尊重各自社会制度和发展道路,照顾彼此核心利益和重大关切,通过友好协商妥善处理矛盾分歧。用好两国之间的对话渠道和交流机制,为两国关系发展汇聚力量。 第一に、戦略的なコミュニケーションを強化し、相互信頼の基盤を固めること。韓国関係を長期的な視点で捉え、相互尊重による共通の発展を追求し、共通点を探り相違点を保留することでウィンウィンの協力を実現する。互いの社会制度と発展の道を尊重し、互いの核心的利益と重大な懸念事項に配慮し、友好的な協議を通じて矛盾や相違を適切に処理する。両国間の対話チャンネルと交流メカニズムを活用し、二国間関係の発展に力を結集する。
二是深化互利合作,拉紧利益纽带。成就邻居就是帮助自己。中方愿同韩方秉持互利共赢原则,加快推动中韩自由贸易协定第二阶段谈判,深挖人工智能、生物制药、绿色产业、银发经济等新兴领域合作潜力,推动经贸合作提质升级。中韩两国都重视打击网络赌博和电信诈骗,可以在双边和地区层面开展合作,更好维护两国民众生命财产安全。 第二に、互恵協力を深化させ、共通利益の絆を強化する。隣人を助けることは自らを助けることだ。中国は互恵・ウィンウィンの原則に基づき、韓国と共に韓中自由貿易協定第二段階の交渉を加速させる用意がある。人工知能、バイオ医薬品、グリーン産業、シルバー経済などの新興分野における協力の可能性を探り、経済貿易協力の質的向上を推進すべきだ。中国と韓国はともにオンライン賭博や通信詐欺対策に力を入れており、二国間及び地域レベルで協力し、国民の生命と財産の保護をより良く図ることができる。
三是提升国民感情,促进民心相通。对舆论和民意加强引导,多释放正面信息,抑制消极动向。开展健康有益的人文交流,增进相互理解,夯实民意基础。便利人员往来,活跃青少年、媒体、智库、地方等交往,促进两国人民心通意合,为中韩关系健康稳定发展营造良好氛围。 第三に、世論を向上させ、相互理解を深めなければならない。世論と国民感情への指導を強化し、より多くの前向きな情報を発信し、ネガティブな傾向を抑制すべきだ。健全で有益な人的交流を実施し、相互理解を深め、国民の支持基盤を固めるべきだ。人的交流を促進し、若者、メディア、シンクタンク、地方コミュニティ間の交流を活性化させ、両国民の心からの理解を促進し、中韓関係の健全かつ安定的な発展のための良好な雰囲気を醸成すべきだ。
四是密切多边协作,共促和平发展。中方祝贺韩方成功举办亚太经合组织领导人非正式会议,愿以接任亚太经合组织东道主为契机,同各方一道推进亚太自贸区进程和区域经济一体化,共建亚太共同体。中韩双方要共同践行真正的多边主义,维护多边贸易体制,推动国际治理朝着更加公正合理的方向发展。 第四に、多国間協力を強化し、共に平和的発展を推進すべきだ。中国は韓国がAPEC非公式首脳会議を成功裏に開催したことを祝賀し、韓国が今後のAPEC議長国としての役割を活用し、全ての関係国と共にアジア太平洋自由貿易圏の構築と地域経済統合を推進し、共にアジア太平洋共同体を築くことを期待する。中国と韓国は共に真の多国間主義を実践し、多国間貿易体制を守り、国際ガバナンスをより公平で合理的な方向へ導くべきだ。
习近平强调,中共二十届四中全会审议通过了“十五五”规划建议。中国经济基础稳、优势多、韧性强、潜能大,长期向好的支撑条件和基本趋势没有变,将坚定不移扩大高水平对外开放,同世界各国共享发展机遇。 習近平は、中国共産党第20期中央委員会第4回全体会議が第15次五カ年計画の提案を審議・採択したことを強調した。中国経済は堅固な基盤、複数の優位性、強いレジリエンス、膨大な潜在力を有している。持続的成長を支える基本的条件と長期的な好転傾向は変わっていない。中国は高水準の開放を断固として拡大し、全ての国々と発展の機会を分かち合う。
李在明表示,热烈欢迎习近平主席时隔11年再次对韩国进行国事访问,这次访问对韩中关系意义重大。韩中建交以来,各领域互利合作不断深入,有力推动各自经济发展。韩中是邻居,更是密不可分的伙伴。韩方高度重视对华关系,愿同中方共同努力,推动双边友好合作关系得到更大发展。双方要密切高层交往,增进政党、地方交流,妥善处理分歧。中国“十五五”规划明确了未来5年的经济发展方向和重点,韩方愿加强对华互利合作,维护产供链稳定,给两国人民带来更多福祉。韩方愿同中方密切人文交流,改善国民感情。韩方支持中方主办2026年亚太经合组织领导人非正式会议,愿同中方加强国际和地区事务的沟通和协调,共同促进地区和全球的和平发展。 李在明大統領は、11年ぶりの習近平国家主席の韓国公式訪問を温かく歓迎し、これが二国間関係にとって極めて重要だと述べた。国交樹立以来、韓国と中国は様々な分野で互恵協力を深化させ、両国の経済発展を効果的に推進してきた。韓国と中国は隣国であり、切っても切れないパートナーである。韓国側は中国との関係を非常に重視しており、中国と共に二国間の友好協力をさらに発展させることを望む。双方は緊密なハイレベル交流を維持し、政党間・地方間の交流を強化し、相違点を適切に処理すべきである。中国の第15次五カ年計画は今後5年間の経済発展の方向性と重点を明確に定めている。韓国側は中国との互恵協力を強化し、産業・サプライチェーンの安定を維持し、両国民により多くの利益をもたらすことを望む。韓国は中国との人的交流を強化し、市民間の友好関係を育むことを望む。我々は中国が2026年APEC非公式首脳会議を主催することを支持し、国際・地域問題に関する意思コミュニケーションと調整を強化し、地域及び世界の平和と発展を共に推進することを約束する。
会谈后,两国元首共同见证双方经贸、金融、农业、执法、科技等领域合作文本交换仪式。 会談後、両国家元首は貿易、金融、農業、法執行、科学技術などの分野における協力文書の交換を共同で立会した。
当晚,李在明同习近平小范围友好交流,并为习近平举行欢迎宴会。 同日夜、李大統領は習近平国家主席と小規模な親善交流を行い、歓迎晩餐会を主催した。
蔡奇、王毅等参加上述活动。 蔡奇と王毅は上記の行事に出席した。

 

1_20251105064901

 


 

中露

中華人民共和国

・2025.11.04 习近平会见俄罗斯总理米舒斯京

习近平会见俄罗斯总理米舒斯京 習近平、ロシアのミハイル・ミシュスティン首相と会談
新华社北京11月4日电(记者 孙奕)11月4日上午,国家主席习近平在北京人民大会堂会见俄罗斯总理米舒斯京。 新華社通信、北京、11月4日(記者:孫毅)11月4日の午前、習近平国家主席は北京の人民大会堂で、ロシアのミハイル・ミシュスティン首相と会談した。
习近平指出,今年以来,中俄关系锚定更高水平、更高质量发展目标,在风高浪急的外部环境中笃定前行。维护好、巩固好、发展好中俄关系,是双方的战略抉择。我同普京总统在莫斯科和北京两次会晤,就中俄关系中的战略性、全局性问题深入交流,作出新的谋划和部署。双方要保持密切协调,落实好我同普京总统达成的重要共识,着眼两国和两国人民的根本利益,把中俄合作的蛋糕做好,也为世界和平与发展作出新的更大贡献。 習主席は、今年初め以来、中露関係はより高いレベルと質の高い発展を達成するという目標に支えられ、激動する外部環境の中で着実に前進してきたと指摘した。中露関係の維持・強化・発展は双方の戦略的選択である。モスクワと北京でのプーチン大統領との二度の会談では、中露関係に関する戦略的・包括的課題について深く意見交換し、新たな計画と取り決めを策定した。双方は緊密に連携し、プーチン大統領と私が達成した重要な合意を実行に移すべきだ。両国と両国民の根本的利益に焦点を当て、中露協力のパイを拡大し、世界の平和と発展に新たなより大きな貢献をすべきだ。
习近平强调,双方要稳步扩大相互投资,开展好能源、互联互通、农业、航空航天等传统领域合作;挖掘人工智能、数字经济、绿色发展等新业态合作潜力,打造新的合作增长点;密切人文交流,让两国社会各界更多人士参与到中俄友好合作的事业中来。前不久,中共二十届四中全会审议通过“十五五”规划建议,对中国未来5年经济社会发展作出顶层设计和战略擘画。中国将全面推进中国式现代化,坚定不移推动经济社会高质量发展,扩大高水平对外开放。中方愿同俄方一道,推动中国“十五五”规划同俄罗斯经济社会发展战略更好对接,不断造福两国人民。 習近平は、双方が着実に相互投資を拡大し、エネルギー、インフラ、農業、宇宙などの伝統的分野での協力を効果的に推進すべきだと強調した。人工知能、デジタル経済、グリーン発展などの新興分野における協力の可能性を開拓し、協力の新たな成長点を創出すべきだ。文化交流を強化し、より多くの各界の人々が中露友好協力の大義に参加できるようにすべきだ。つい先日、中国共産党第20期中央委員会第4回全体会議は第15次五カ年計画の提案を審議・採択し、今後5年間の中国の経済社会発展のトップレベル設計と戦略的青写真を示した。中国は中国式現代化を全面的に推進し、高品質な経済社会発展を断固として推進し、高水準の開放を拡大する。中国はロシアと協力し、第15次五カ年計画をロシアの経済社会発展戦略とより良く整合させ、両国人民に継続的な利益をもたらす用意がある。
米舒斯京转达普京总统对习近平主席的亲切问候和良好祝愿。米舒斯京表示,祝贺中共二十届四中全会成功举行,相信中国一定会顺利实现“十五五”规划建议确定的目标,取得更大经济社会发展成就。两国元首今年两次会晤,对俄中关系发展作出战略规划,巩固了俄中全面战略协作伙伴关系。俄方愿同中方一道,落实两国元首达成的重要共识,深化经贸、科技、能源、农业、数字经济等领域合作,密切人文交流,加强多边协调配合,推动两国合作取得更多成果。 ミシュスチヌ首相はプーチン大統領からの温かい挨拶と習主席への祝福を伝えた。中国共産党第20期中央委員会第4回全体会議の成功裏の開催を祝賀し、中国が第15次五カ年計画の目標を成功裏に達成し、より大きな社会経済発展の成果を収めることに確信を示した。両国首脳は今年2度会談し、ロシア・中国関係の発展に向けた戦略的計画を策定し、両国の包括的戦略的協力パートナーシップを強化した。ロシアは中国と共に、両国首脳が達成した重要な合意を実行に移し、貿易・経済・科学技術・エネルギー・農業・デジタル経済などの分野での協力を深化させ、人的交流を強化し、多国間調整・協力を強化し、両国間のより実りある協力を推進していく意思がある。
王毅参加会见。 王毅が会談に同席した。

 

 

| | Comments (0)

2025.11.04

国家サイバー統括室 サイバーセキュリティ戦略(案)サイバーセキュリティ推進専門家会議第2回会合

こんにちは、丸山満彦です。

日本のサイバーセキュリティ戦略の最新は[PDF]2021年のものですが、その改訂が検討されていますが、2025年版?の案が公表されていますね...

2回目で案がでてきているということは、ほぼ既定路線?

米国の場合は、2023年のサイバーセキュリティ戦略は、2022年の国家安全保障戦略のサイバー領域での実施計画となっていますが、日本のサイバーセキュリティ戦略は単独なんですかね...

 

国家サイバー統括室 - サイバーセキュリティ推進専門家会議

・2025.10.30 第2回会合(令和7年10月30日)

・・[PDF] 資料1 新たなサイバーセキュリティ戦略(案)の概要 

20251103-110104

 

 

・・[PDF] 資料2 サイバーセキュリティ戦略(案)

20251103-105951

 

目次...


I.策定の趣旨・背景

II.本戦略における基本的な考え方

1.確保すべきサイバー空間の在り方及び基本原則

2.サイバー空間を取り巻く情勢認識及び今後の見通し
(1)厳しさを増す国際情勢と国家を背景としたサイバー脅威の増大
(2)社会全体のデジタル化の進展とサイバー脅威の増大
(3)AI、量子技術等の新たな技術革新とサイバーセキュリティに及ぼす影響

3.サイバー空間を取り巻く課題認識及び施策の方向性
(1)深刻化するサイバー脅威に対する防御・抑止
(2)幅広い主体による社会全体のサイバーセキュリティ及びレジリエンスの向上
(3)我が国のサイバー対応能力を支える人材・技術に係るエコシステム形成

III.目的達成のための施策

1.深刻化するサイバー脅威に対する防御・抑止
(1)国が要となる防御・抑止
(2)官民連携エコシステムの形成及び横断的な対策の強化
(3)国際連携の推進・強化

2.幅広い主体による社会全体のサイバーセキュリティ及びレジリエンスの向上
(1)政府機関等におけるサイバーセキュリティ対策の強化
(2)重要インフラ事業者・地方公共団体等におけるサイバーセキュリティ対策の強化
(3)ベンダー、中小企業等を含めたサプライチェーン全体のサイバーセキュリティ及びレジリエンスの確保
(4)全員参加によるサイバーセキュリティの向上
(5)サイバー犯罪への対策

3.我が国のサイバー対応能力を支える人材・技術に係るエコシステム形成
(1)効率的・効果的な人材の育成・確保
(2)新たな技術・サービスを生み出すためのエコシステムの形成
(3)先端技術に対する対応・取組

IV.本戦略の推進体制


 

官民連携...


(3) 我が国のサイバー対応能力を支える人材・技術に係るエコシステム形成

産学官を通じて、サイバーセキュリティ人材の確保・育成・裾野拡大にこれまで以上に注力していく。また、研究・開発から実装・運用まで、産学官の垣根を越えた協働による、国産技術・サービスを核とした、新たな技術・サービスを生み出すエコシステムを形成するとともに、AI や量子技術等の新たな技術革新がもたらすサイバーセキュリティ分野の変革に備え、対応していく。

これについても、関係する各主体の「自律性」「多様な主体の連携」とともに、これまで我が国でサイバーセキュリティ分野での人材・技術が十分育ってこなかったことに鑑み、国がより積極的な役割を果たしていく。

これら施策の実現には、官だけ、民だけ、一国だけで対応することには限界がある。官民連携・国際連携の下、広く国民・関係者の理解を得て、国が対策の要となり、官民一体で我が国のサイバーセキュリティ対策を推進していく。

これにより、厳しさを増すサイバー空間を巡る情勢に切れ目無く対応できる、世界最高水準の強靱さを持つ国家を目指す。

加えて、本戦略に基づき施策を推進するに当たっては、以下の点に留意する。

・我が国全体のサイバーセキュリティ確保のためには、政府機関・重要インフラ事業者等を標的にしたサイバー脅威に対するサイバー安全保障の観点に基づく対応から、個人や企業による主体的・自律的な対策、それを支援する取組に至るまで、切れ目のない取組が必要であり、これらは互いに補いあう関係にある。また、サイバー空間には国境がなく、サイバーセキュリティに係る内外の施策は有機的に連携し推進されるべきものである。本戦略では、これらの必要な施策を切れ目なく一体的・総合的に実施し、施策の実効性を高めることを目指す。

・生成 AI 技術の進展等に伴い、サイバー空間を利用した外国からの偽情報拡散を含む影響工作の脅威の増大が懸念される。この問題は、我が国の健全な民主主義の基盤に影響を及ぼす可能性とともに、サイバー攻撃と連動し展開されるおそれもある。こうした状況を踏まえ、当該問題に係る関係省庁は密接に連携しつつ、我が国のサイバーセキュリティ確保の観点から、本戦略に基づく適切かつ必要な対応を行う。

・これまで述べてきたようなサイバー空間における脅威の実態について、国民の認識と理解を得ることが必要である。国は、サイバー対処能力強化法等に基づく能動的な防御・抑止の措置を含め、国の対応・施策の推進に当たり、関係者と連携しつつ、広く国民の理解と協力を得るよう努めていく


 

国が対策の要となるのはよいが、官民と上下の関係ではない...ということは政府側が強く意識をした方が良いし、常にそう言い続けておくことが重要ですよね...

要というのは、扇子の骨を留める金具のことですから、バラバラにならないように留めることが重要。取りまとめ役、事務局な立場...

「国がより積極的な役割を果たしていく」≠「国が指示する」

「国がより積極的な役割を果たしていく」=「国がプレイヤーとして役割を果たす」ということだと思うんですよね...書いている通り...

本当は多様な主体マルチステークホルダー)をもっと強調してもよいかもですね...

 

 

人材育成について...

人材育成については、2003年の経済産業省の情報セキュリティ総合戦略の時から言われている話で(もちろん環境変化があるのは理解しつつも)、必要となる人材ができる限り適時に揃えられる体制(構造、システム)をつくることが重要(もちろん今必要な人材を供給するオペレーションも重要なのですが)ですよね...でないと、いつまでも、人材不足を言い続けながら対策が後手後手になる(サイバーセキュリティ対策が向上しないのを人材不足のせいにしていないか???という話もあるしね...)。

案では、

「① 人材フレームワークの整備と効果的な運用」を提案した上で、「② サイバーセキュリティ人材の育成に資する教育や演習・訓練の更なる充実 」を以下のように説明しています...

社会人になってから会社が教育するのではなく、学問としてちゃんとサイバーセキュリティを位置付けて、国として(各大学の自主的な努力ではなく)学生を生み出せるようにしていくことが重要なような気がします。昔からそう言ってきています...

 


② サイバーセキュリティ人材の育成に資する教育や演習・訓練の更なる充実

我が国では、依然として専門知識や実践スキルを備えたサイバーセキュリティ人材の不足が指摘されている。一方、官民において資格制度や研修・演習、学び直しの機会提供等の取組は進展しており、この潮流を加速させ、「質」と「量」の両面で人材の確保・育成を加速させることが重要である。

初等中等教育段階から高等教育、職業訓練、社会人の能力開発、高度専門人材の育成に至るまで、体系的かつ継続的な学びの環境整備が求められる中、基礎的素養(情報リテラシー)から高度な専門性まで段階的に習得できる場の整備を図り、産学官が連携を強化して実践的スキルや最新知見の学習機会を確保する。

具体的には、「数理・データサイエンス・AI 教育プログラム認定制度」を通じた大学や高等専門学校におけるサイバーセキュリティを含む数理・データサイエンス・AI 教育の強化や、「セキュリティ・キャンプ」等の若年層を対象とした高度な技術教育プログラムの推進を図る。若手技術者には、最先端のセキュリティ技術・製品開発に関するカリキュラムを提供し、応用力や実務スキルの習得を支援する。重要インフラ事業者等に向けては、「CYDER」、「CYROP 46」及び「中核人材育成プログラム」等の対処能力向上に資する実践的な演習や演習基盤の提供、トレーニングの機会等を促進し、多様な学びの場を体系的に整備・拡充して、対象者が段階的に活用できる環境を整える。専門的なセキュリティスキルを有していない人材についても、組織内外のセキュリティの専門家と協働する上で必要な知識を習得したプラス・セキュリティ人材 47となれるような学習機会の充実化を図る。また、国家資格である情報処理安全確保支援士については、資格更新時の負担軽減を図りつつ、中小企業のセキュリティ対策支援を含め、活用促進に向けた取組を進めることにより人数の拡大を目指す。さらに、実践的な課題解決能力を養成し次世代人材の早期発掘や国際的な人的ネットワーク形成にも資する CTFCapture The Flag)について、人材育成上の効果も踏まえ活用する。

このような多様な学びの取組が、人材フレームワークを介して有機的に連携することで、学びの機会が継続的に提供され、それらを通じて得た知識・技能がキャリア形成や活躍の場につながるよう、各種教育・訓練制度を俯瞰しながら、不断の改善を進める。


 

ちなみに、人材フレームワークは昔からいわれつつ一向にできていないので、そろそろできるのでしょうね。これは非常に重要です。JNSAのSekBok(2021年版)[wikipedia]がありますが、(これをベースにでもよいのですが、)SP800-181 r1NICE Framework homepage (web) のような(あるいはコピーでもよいかも...)より詳細なものを正式に決める必要があるように思います...

で、大学の教育カリキュラムからリンクできる形になればなおいいですね...

 


 

 

ちなみに現行バージョンのこの図、改めて見るとポイントをよく図示できているように思います...

 

20251103-122829

 

あと、海外のサイバーセキュリティ

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.09.22 NCO サイバーセキュリティ推進専門家会議

・2021.09.30 日本のサイバーセキュリティ戦略についての質問に対する中国政府スポークスマンの回答

・2021.09.28 NISC サイバーセキュリティ戦略本部 第31回会合 サイバーセキュリティ戦略確定 (予算からみるとサイバーセキュリティは経済発展というよりも安全保障?)

 

| | Comments (0)

2025.11.03

欧州議会 AI法とEUデジタル立法フレームワークの相互作用 (2025.10.30)

こんにちは、丸山満彦です。

EUのAI法はAIが普及する過程で、あらかじめ起こりそな課題を予防すべく制定されたようなところがあり、EUにおけるAIの開発や普及を阻害しているのではないかという批判的な意見もある中で、他のデジタル法制との関係も複雑となっていて、これをどうもときほぐす必要がありそうということで、現在取り組んでいるようですが、今回の欧州議会のシンクタンクからの研究報告もその一環という感じですかね...

この報告書は、AI法とGDPR、データ法、データがバンス法、デジタルサービス法、デジタルマーケット法、サイバーセキュリティ法、サイバーレジリエンス法、NIS2等との重複、欠落、不整合に関する調査をおこなっているものです...

GDPRとDSAのガイドラインDMAとのガイドライン案がEDPBから公開されていますが、EUのデジタル法制は複雑になりすぎですかね...

 

European Parliament - Think Tank

・2025.10.30 Interplay between the AI Act and the EU digital legislative framework

 

Interplay between the AI Act and the EU digital legislative framework AI法とEUデジタル立法フレームワークの相互作用
This study explores how the AI Act relates to various other crucial pieces of EU digital legislation, such as the GDPR, the Data Act and the Cyber Resilience Act. It assesses overlaps and gaps between these acts, and shows that, while each of them is individually well targeted, their interplay creates significant regulatory complexity. Finally, it also provides reflections and suggestions for possible evolutions of the AI Act, and of EU digital legislation as a whole, keeping in mind the objective of ensuring that Europe can establish a competitive AI industry. This study was prepared at the request of the ITRE Committee. 本調査は、AI法がGDPR、データ法、サイバーレジリエンス法など、EUの他の重要なデジタル立法とどのように関連しているかを検証する。これらの法律間の重複と空白を評価し、それぞれが個別には的確に標的を定めているものの、相互作用によって規制の複雑さが生じていることを示す。最後に、欧州が競争力のあるAI産業を確立できることを確保するという目的を踏まえ、AI法およびEUデジタル立法全体の発展可能性に関する考察と提言も提供する。本調査はITRE委員会の要請により作成された。

 

・[PDF] Interplay between the AI Act and the EU digital legislative framework

20251102-163248

・[DOCX][PDF] 仮訳

 

目次...

Abstract 要約
LIST OF ABBREVIATIONS 略語一覧
LIST OF FIGURES 図一覧
LIST OF TABLES 表一覧
EXECUTIVE SUMMARY エグゼクティブサマリー
1. INTRODUCTION TO THIS STUDY 1. 本研究の概要
1.1. Background 1.1. 背景
1.2. Scope and objectives of this study 1.2. 本研究の範囲と目的
1.3. Methodology and structure of the study 1.3. 研究の方法論と構成
2. A DEEPER LOOK AT THE AI ACT 2. AI法のより深い考察
2.1. Intervention logic of the AI Act – what problem does it set out to resolve? 2.1. AI法の介入論理 – 解決しようとする問題とは?
2.2. Objectives of the AI Act – what does it set out to achieve? 2.2. AI法の目的 – 何を達成しようとするのか?
2.3. Regulatory philosophy of the AI Act – how does it aim to intervene? 2.3. AI法の規制哲学 – どのように介入を目指すのか?
2.4. Global Context and the EU position 2.4. グローバルな文脈とEUの立場
2.5. Summary of the key challenges in the interpretation and application of the AI Act 2.5. AI法の解釈と適用における主要課題の要約
3. THE AI ACT’S INTERPLAY WITH OTHER DIGITAL LEGISLATION 3. AI法と他のデジタル立法の相互作用
3.1. Introduction – a bird’s eye overview of the principal relevant EU digital legislation in the scope of this study 3.1. 序論 ― 本研究の対象となる主要なEUデジタル関連法規の概観
3.2. Analysis of EU digital legislation and the interplay with the AI Act 3.2. EUデジタル立法とAI法の相互作用に関する分析
4. EU LEVEL GOVERNANCE – THE ROLE OF THE AI OFFICE 4. EUレベルでのガバナンス – AI事務局の役割
4.1. Introduction – the AI Office in the AI Act 4.1. 序論 – AI法におけるAI事務局
4.2. Principal role and responsibilities 4.2. 主な役割と責任
4.3. Risks and opportunities for the AI Office 4.3. AI事務局にとってのリスクと機会
5. REFLECTIONS ON FUTURE AI LEGISLATION IN THE EU 5. EUにおける将来のAI立法に関する考察
5.1. Prior considerations on the role and the impact of the AI Act – what is the place of the AI Act in the EU digital legislative landscape? 5.1. AI法の役割と影響に関する事前考察 – EUのデジタル立法環境におけるAI法の位置付けは何か?
5.2. A high-level reflection on the AI Act in the current digital legislative landscape: what are the central recurring problems? 5.2. 現行デジタル立法環境におけるAI法の俯瞰的考察:中心的な反復的問題とは何か?
5.3. A thinking exercise on a future digital legislative landscape – how should ideal EU digital legislation be composed? 5.3. 将来のデジタル立法環境に関する思考実験 - 理想的なEUデジタル立法をどのように構成すべきか?
5.4. Relevance of these reflections to the recommendations in this study 5.4. 本研究の提言に対するこれらの考察の関連性
5.5. Specific recommendations on the basis of this study 5.5. 本研究に基づく具体的な提言
REFERENCES 参考文献
ANNEX - OVERVIEW OF THE AI ACT INTERPLAY WITH EU DIGITAL LEGISLATIONS 附属書 - EUデジタル法規制とAI法の相互関係概要

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY  エグゼクティブサマリー 
Background  背景 
The Artificial Intelligence Act (AI Act), adopted by the European Union in June 2024, marks a pivotal milestone in global technology governance. As the first comprehensive regulatory framework for artificial intelligence, it sits at the heart of the EU’s digital legislative corpus, which has in recent years expanded to include instruments such as the General Data Protection Regulation (GDPR), the Data Act, the Digital Services Act (DSA), the Digital Markets Act (DMA), the Cyber Resilience Act (CRA), and others. While each instrument pursues legitimate and targeted policy aims, questions are increasingly being raised about their combined impact on the competitiveness, coherence, and innovation capacity of the European AI ecosystem.  欧州連合が2024年6月に採択した人工知能法(AI法)は、世界の技術ガバナンスにおける重要な節目となる。人工知能に関する初の包括的な規制フレームワークとして、EUのデジタル立法体系の中核を成す。この体系は近年、一般データ保護規則(GDPR)、データ法、デジタルサービス法(DSA)、デジタル市場法(DMA)、サイバーレジリエンス法(CRA)などの規制手段を包含するように拡大してきた。各規制は正当かつ特定の政策目標を追求しているが、欧州のAIエコシステムの競争力、整合性、革新能力に対する総合的な影響について疑問がますます提起されている。 
Aim  目的 
This report, commissioned by the European Parliament’s Committee on Industry, Research and Energy (ITRE), explores the interplay between the AI Act and these surrounding legislative instruments. The study assesses whether the EU’s digital legal framework operates as a coherent system or whether it instead introduces overlapping obligations, inconsistencies, or undue burdens that could fragment the internal market and undermine the development of a globally competitive European AI industry. In doing so, it offers short-, medium-, and long-term reflections aimed at reducing regulatory friction while maintaining the EU’s commitment to rights, trust, and safety.  欧州議会産業・研究・エネルギー委員会(ITRE)の委託を受けた本報告書は、AI法とこれら周辺立法措置の相互作用を検証する。本調査は、EUのデジタル法制度が整合性のあるシステムとして機能しているか、あるいは重複する義務、不整合、過度な負担をもたらし、域内市場の分断や世界的に競争力のある欧州AI産業の発展を阻害する可能性があるかを評価する。これにより、EUの権利、信頼、安全へのコミットメントを維持しつつ、規制上の摩擦を軽減するための短期的、中期的、長期的な提言を行う。 
Key Findings  主な調査結果 
The Regulatory Logic and Structural Challenges of the AI Act  AI法の規制論理と構造的課題 
The AI Act is built upon a risk-based logic. It bans certain AI practices, imposes stringent duties on highrisk AI systems, requires transparency for specified use cases, and sets standalone obligations for general-purpose AI models (including those with systemic risk). The regulation draws substantially from the EU’s product safety legislation model (under the New Legislative Framework), while layering on novel requirements related to fundamental rights impact assessments, traceability, and oversight.  AI法はリスクベースの論理に基づいて構築されている。特定のAI実践を禁止し、高リスクAIシステムに厳格な義務を課し、特定の利用事例に対して透明性を要求し、汎用AIモデル(システミックリスクを有するものを含む)に対して独立した義務を設定する。この規制はEUの製品安全法規制モデル(新立法フレームワーク下)を大幅に踏襲しつつ、基本権影響評価、トレーサビリティ、監督に関する新たな要件を重ねている。 
Yet, several tensions are evident. Firstly, the Act stretches traditional product safety logic into less determinate domains such as human rights compliance, which may prove difficult to assess using conventional conformity mechanisms. Secondly, the regulation’s applicability to both AI system providers and deployers imposes complex chains of responsibility that may be difficult to navigate, particularly for SMEs or non-specialist users. Thirdly, the definition and classification of high-risk systems rely on Annex-based lists and subjective assessments of harm potential, thereby introducing legal ambiguity. Finally, while the Act purports to promote innovation (through regulatory sandboxes, open-source exemptions, and lighter regimes for non-systemic GPAIs), the overall framework still largely centres on mitigating harms, often through prescriptive obligations.  しかし、いくつかの不整合が明らかである。第一に、同法は従来の製品安全論理を人権遵守といった不確定な領域にまで拡大しており、従来の適合性評価メカニズムでは評価が困難となる可能性がある。第二に、AIシステム提供者と導入者の双方に適用されるため、複雑な責任の連鎖が生じ、特に中小企業や非専門ユーザーにとっては対応が困難となる恐れがある。第三に、高リスクシステムの定義と分類は附属書に基づくリストと危害可能性の主観的評価に依存しており、これにより法的曖昧性が生じている。最後に、同法は(規制サンドボックス、オープンソースの免除、非体系的GPAIに対する緩和された規制を通じて)イノベーションの促進を標榜しているものの、全体的なフレームワークは依然として、しばしば規範的義務を通じて危害の軽減に重点を置いている。 
Interactions with Other EU Digital Legislation  他のEUデジタル法規制との相互関係 
The AI Act does not operate in isolation. Its obligations frequently overlap with those in adjacent regulatory instruments. The report identifies a number of frictions and challenges in this interplay:  AI法は単独で機能するものではない。その義務は隣接する規制手段の義務と頻繁に重複する。本報告書は、この相互作用における数多くの摩擦と課題を特定している: 
GDPR: The AI Act introduces requirements for fundamental rights impact assessments (FRIAs) in cases that often also trigger data protection impact assessments (DPIAs) under the GDPR. These instruments differ in scope, supervision, and procedural requirements, creating duplication and uncertainty. Transparency and logging obligations are also redundant across both regimes. Moreover, there is ambiguity over how controllers and providers should manage rights of access, rectification, and erasure when personal data becomes embedded in complex AI models;  GDPR:AI法は基本権影響評価(FRIA)の要件を導入しているが、これはGDPRに基づくデータ保護影響評価(DPIA)も同時に発動されるケースが多い。両制度は適用範囲、監督機関、手続き要件が異なり、重複と不確実性を生んでいる。透明性確保と記録義務も両制度で重複している。さらに、個人データが複雑なAIモデルに組み込まれた場合、管理者や提供者がアクセス権、訂正権、消去権をどう管理すべきかについて不明確な点がある。 
Data Act: While the AI Act governs the design and deployment of AI systems, the Data Act ensures access to and portability of data generated by connected products and services. AI providers may be data holders under the Data Act and simultaneously subject to obligations under the AI Act. The cumulative compliance load is significant, especially in real-world testing or in contexts involving third-country data transfers;  データ法:AI法がAIシステムの設計・導入を規制する一方、データ法は接続製品・サービスが生成するデータへのアクセスとポータビリティを保証する。AI提供者はデータ法上のデータ保有者となり得ると同時に、AI法上の義務も課される。特に実環境テストや第三国データ移転を伴う状況では、累積的なコンプライアンス負担が重大である。 
Cybersecurity and the CRA: High-risk AI systems must meet certain cybersecurity standards. These may overlap with those imposed by the Cyber Resilience Act, which introduces mandatory cybersecurity requirements for all digital products. While the CRA provides for presumptions of AI Act compliance where its requirements are met, the partial alignment between the two frameworks leaves room for interpretative uncertainty;  サイバーセキュリティとCRA:高リスクAIシステムは特定のサイバーセキュリティ標準を満たす必要がある。これらは全てのデジタル製品に義務的なサイバーセキュリティ要件を導入するサイバーレジリエンス法(CRA)の標準と重複する可能性がある。CRAはAI法の要件を満たす場合にその準拠を推定する規定を設けているが、両フレームワークの部分的な整合性は解釈上の不確実性を残す。 
DSA and DMA: Intermediary services (such as online platforms and search engines) that deploy or provide AI systems and models, e.g., in recommender systems or moderation tools, face increased transparency obligations that may overlap. Very large online platforms and search engines may face simultaneous risk-assessment obligations under the AI Act and the DSA, especially where generalpurpose AI models are provided through the intermediary service. There is also a possibility of overlapping obligations related to AI-generated or manipulated content, both legal and illegal. The AI Act and DSA interplay may also impact intermediary liability and researchers’ access to data. The DMA’s provisions on data access, interoperability, and anti-self-preferencing could be relevant to AI APIs or foundation models offered by gatekeepers. However, AI systems are not yet designated as core platform services under the DMA, limiting the scope of these interactions in practice;  DSAとDMA:AIシステムやモデル(例:レコメンデーションシステムやモデレーションツール)を展開・提供する仲介サービス(オンラインプラットフォームや検索エンジンなど)は、重複する可能性のある透明性義務の強化に直面する。特に汎用AIモデルを仲介サービスを通じて提供する超大規模オンラインプラットフォームや検索エンジンは、AI法とDSAの両方に基づくリスク評価義務を同時に負う可能性がある。また、合法・違法を問わず、AI生成または操作されたコンテンツに関連する義務が重複する可能性もある。AI法とDSAの相互作用は、仲介者の責任や研究者のデータアクセスにも影響を及ぼす可能性がある。DMAのデータアクセス、相互運用性、自己優先禁止に関する規定は、ゲートキーパーが提供するAI APIや基盤モデルに関連し得る。ただし、AIシステムは現時点でDMAのコアプラットフォームサービスに指定されていないため、実務上これらの相互作用の範囲は限定される。 
NIS2 Directive: Essential and important entities under NIS2 that develop or deploy AI systems must comply with both cybersecurity requirements and AI-specific risk management frameworks. The overlap is especially pronounced in incident reporting obligations and the governance of supply chain risks.  NIS2指令:NIS2に基づく重要・重要事業体でAIシステムを開発・導入する事業者は、サイバーセキュリティ要件とAI特化型リスク管理フレームワークの両方に準拠しなければならない。特にインシデント報告義務とサプライチェーンリスクのガバナンスにおいて重複が顕著である。 
Governance and Institutional Complexity  ガバナンスと制度的複雑性 
The AI Act introduces a novel governance architecture centred around the European AI Office (AIO). While the AIO is mandated to supervise GPAIs, support regulatory sandboxes, and coordinate enforcement, its role overlaps with that of existing regulators such as data protection authorities, market surveillance bodies, and the European Data Protection Board.  AI法は欧州AI事務局(AIO)を中心とする新たなガバナンス構造を導入する。AIOは汎用AI(GPAI)の監督、規制サンドボックスの支援、執行調整を任務とするが、その役割はデータ保護当局、市場監視機関、欧州データ保護委員会といった既存規制機関の役割と重複する。 
The risk of regulatory fragmentation is non-trivial, particularly in areas where concurrent competences exist without robust coordination mechanisms. Moreover, the AIO’s institutional position within the Commission raises concerns about its operational independence and capacity to fulfil its remit without a dedicated legal personality or ring-fenced resources.  規制の断片化リスクは無視できない。特に、強力な調整メカニズムなしに並行する権限が存在する分野では顕著だ。さらに、AIOが欧州委員会内に位置する制度的立場は、専用の法人格や隔離された資源なしに、その業務上の独立性と任務遂行能力について懸念を生じさせる。 
Broader Strategic Considerations  より広範な戦略的考察 
The cumulative effect of the EU’s digital legislation, although rooted in legitimate policy goals, risks burdening European AI innovators disproportionately. This is particularly concerning given the relative underperformance of the EU in AI investment and innovation metrics. While the AI Act sets out a vision for human-centric, trustworthy AI, its intersection with other digital laws is not always calibrated for agility, scalability, or global competitiveness.  EUのデジタル関連法規の累積的効果は、正当な政策目標に基づくものの、欧州のAIイノベーターに不均衡な負担を強いるリスクがある。これは、AI投資やイノベーション指標においてEUが相対的に遅れを取っている現状を踏まえると特に懸念される。AI法は人間中心で信頼できるAIのビジョンを掲げるが、他のデジタル法規との交錯は、俊敏性、拡張性、あるいは国際競争力に必ずしも配慮されていない。 
The report notes that many of the obligations arising from this regulatory ensemble can be reasonably justified in isolation. However, their simultaneous application to the same actors and use cases often produces duplicative, inconsistent or unclear requirements that deter uptake, delay time to market, and introduce compliance asymmetries across Member States. These burdens may affect domestic SMEs and start-ups more acutely than multinational firms, many of which are headquartered outside the Union and better equipped to absorb compliance costs.  本報告書は、この規制体系から生じる多くの義務は個別に合理的に正当化できると指摘する。しかし、同一の主体やユースケースに対して同時に適用されることで、重複した、不整合した、あるいは不明確な要件が生じ、導入を阻害し、市場投入までの時間を遅らせ、加盟国間でコンプライアンスの不均衡をもたらすことが多い。こうした負担は、多国籍企業(その多くはEU域外に本社を置き、コンプライアンスコストを吸収する能力が高い)よりも、国内の中小企業やスタートアップに深刻な影響を与える可能性がある。 
Recommendations  提言 
In light of the identified frictions, the study advances several reflections for future legislative and policy development:  特定された摩擦を踏まえ、本調査は将来の立法・政策策定に向けた以下の考察を提示する: 
Short-term: Encourage joint guidance and coordinated enforcement practices among supervisory bodies. Promote mutual recognition of assessments (e.g. DPIAs and FRIAs) and harmonised sandbox procedures across Member States;  短期:監督機関間の共同ガイダンスと協調的な執行慣行を促進する。加盟国間で評価(例:DPIAやFRIA)の相互承認と調和されたサンドボックス手続きを推進する。 
Medium-term: Consider light-touch legislative amendments to clarify role definitions, streamline overlapping obligations (particularly in fundamental rights and cybersecurity domains), and enhance the executability of rights in AI contexts;  中期:役割定義の明確化、重複する義務(特に基本権とサイバーセキュリティ分野)の合理化、AI環境における権利の行使可能性向上を目的とした、軽微な立法改正を検討すること。 
Long-term: Re-examine the EU’s digital regulatory architecture with a view to consolidation, simplification, and strategic coherence. Foster an integrated approach that enables agile compliance for innovators without compromising the Union’s fundamental rights and safety values.  長期的:EUのデジタル規制構造を統合・簡素化・戦略的整合性の観点から再検討する。連合の基本的権利と安全保障の価値を損なうことなく、革新者による機敏なコンプライアンスを可能とする統合的アプローチを促進する。 
By refining the interplay between digital legislative instruments, the EU can ensure that its regulatory model not only safeguards its constitutional values but also enables the emergence of a globally competitive and sovereign AI industry.  デジタル立法手段間の相互作用を洗練させることで、EUは自らの規制モデルが憲法上の価値を保護するだけでなく、世界的に競争力のある主権的なAI産業の出現を可能にすることを保証できる。 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.10.14 欧州委員会 EDPB DMAとGPDRの相互作用に関する共同ガイドライン案

・2025.09.16 EDPB DSAとGDPRの相互関係に関するガイドライン (2025.09.12)

 

| | Comments (0)

2025.10.31

米国 連邦上院 未成年者へのAIコンパニオンの提供禁止法案の提出 (2025.10.28)

こんにちは、丸山満彦です。

連邦上院のJosh Hawley(共和党、ミズーリ州)[wiki]が、Richard Blumenthal(民主党、コネチカット州)[wiki]、Katie Britt(共和党、アラバマ州)[wiki]、Mark Warner(民主党、バージニア州)[wiki]、Chris Murphy(民主党、コネチカット州)[wiki]と共に、GUARD Act(Guardrails for Underage AI Relationships and Deceptive Interactions Act:利用者の年齢検証及び責任ある対話に関するガイドライン法)法案を提出していますね...

このブログでも上院での公聴会の様子(米国 上院 犯罪・テロ対策小委員会 AIチャットボットの弊害の検証 (2025.09.16) )について書いていますので、そちらも参考にしてくださいませ...

法案がとおるかどうかはわかりませんが、法律にならなくてもこのような対策をすることは自然と求められてくると思います。議員もガードレールという言葉を使っていますが、社会的に大きな影響を及ぼす技術(例えば、自動車など)には適切なガードレールというのは必要だと思うのですよね...

 

Josh Hawley

・2025.10.28 Hawley Introduces Bipartisan Bill Protecting Children from AI Chatbots with Parents, Colleagues

この法案は以下がポイントとなるようです...

 

The GUARD Act would: GUARD法は以下のことを行う:
・Ban AI companies from providing AI companions to minors.  ・AI企業が未成年者にAIコンパニオンを提供することを禁止する。
・Mandate that AI companions disclose their non-human status and lack of professional credentials for all users  ・AIコンパニオンに対し、全てのユーザーに対して非人間的な性質と専門的資格の欠如を開示することを義務付ける。
・Create new crimes for companies which knowingly make available to minors AI companions that solicit or produce sexual content 未成年者に性的コンテンツを勧誘または生成するAIコンパニオンを故意に提供した企業に対して新たな犯罪を創設する。

 

法案が通るかどうかはわかりませんが、Josh Hawley上院議員の政治的信条にまさに合致したテーマと政治手法が有効そうな分野なので、力をいれていきますかね...

 

法案(まだ法案番号はついていません...)

・[PDF

20251031-62013

 

発表の様子のYouTube...

・2025.10.28 [Youtube] Tune into Senator Hawley’s fight to protect kids online

10分24秒くらいから...

 

 


 

こんな発表や記事も...

Tech Policy.press

・2025.08.15 New Research Sheds Light on AI ‘Companions’

 

● MIT Technology Review

・2025.04.08 AI companions are the final stage of digital addiction, and lawmakers are taking aim

 

有料な記事ですが...

● 日経XTECH

・2025.10.29 AIコンパニオンは人間の「パートナー」になれるか、娯楽を超えて需要拡大

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.09.19 米国 上院 犯罪・テロ対策小委員会 AIチャットボットの弊害の検証 (2025.09.16) 

 

| | Comments (0)

紹介 クロスセクター・サイバーセキュリティ法 蔦大輔監修 森・濱田松本法律事務所

こんにちは、丸山満彦です。

蔦大輔さんが監修で 森・濱田松本法律事務所外国法共同事業(サイバーセッキュリティ法研究チーム)著で[amazon]「クロスセクター・サイバーセキュリティ法」が商事法務から出版されていますね...

帯はNTTセキュリティCEOの横浜さん。「圧倒されました。基本用語からAIや宇宙など最先端まで、サイバーセキュリティに関わるリーガルイシューすべてを網羅。現場実務に寄り添った法務解説が満載のデジタル社会ではすべての会社に必携の1冊」

クロスセクターというのが、まさにポイントですね...サイバーセキュリティ単独の法律問題というよりも、実務がサイバーとフィジカルな空間で融合して行われてきているということから、サイバー(デジタル)空間での活動量が増えるとことによる変化が各分野でどのようにおこるのか?という視点でまとめられているように思いました...そういう意味では、ここまで網羅的に書籍をまとめるというのは大変な話で、かつ大手の法律事務所だからこそできたという面はあるかもしれません。。。

 

 No.00 法律(総論) サイバーセキュリティに関連する様々な法令
第1部 主要法分野  
 No.01 会社法 内部統制システムの構築とランサムウェア対応
 No.02 ディスクロージャー 金融商品取引法を中心とするサイバーセキュリティ関連の情報開示
 No.03 個人情報保護法 個人データ漏えい等対応における諸論点
 No.04 営業秘密保護 機密情報の持ち出し・持込への対応
 No.05 独禁法・競争法 サイバーセキュリティ向上のための取組に際して独禁法・競争法上留意すべき事項
 No.06 労働法 セキュリティ目的でのモニタリングと雇用管理上の諸論点
 No.07 システム開発 裁判例からみるシステムベンダとの関係
 No.08 弁護士実務(Column) 弁護士実務におけるセキュリティの重要性
 No.09 刑事法 サイバーセキュリティに関する犯罪に対する刑事的分析および実務対応
 No.10 危機管理 外部からのサイバー攻撃を念頭に置いた危機管理対応
 No.11 M&A デュー・ディリジェンス、契約条項、FDI規制
 No.12 経済安全保障① 外為法に基づく輸出管理・投資管理・経済制裁とサイバーセキュリティ
 No.13 経済安全保障② セキュリティ・クリアランス
第2部 各種インフラ  
 No.14 インフラ防護 能動的サイバー防御を含む重要インフラ・基幹インフラの防護とサプライチェーン・リスク対策
 No.15 金融 金融分野におけるサイバーセキュリティ
 No.16 保険関連法 サイバー保険に関する諸論点
 No.17 エネルギー・インフラ 電気事業におけるサイバーセキュリティ対策
 No.18 通信インフラ 電気通信事業者におけるセキュリティ対策と通信の秘密
 No.19 データセンタービジネス(Column) データセンター事業の発達とセキュリティ対策
 No.20 医療 医療機関・医療機器のサイバーセキュリティ
 No.21 モビリティ 自動車のサイバーセキュリティ保安基準と自動運転に関する諸論点
 No.22 空・海のインフラ(Column) 航空・船舶とサイバーセキュリティの諸論点
第3部 応用・複合分野  
 No.23 クラウド クラウドサービスのセキュリティに関する法令等と実務対応
 No.24 IoT IoT機器のセキュリティ
 No.25 ECサイト クレジットカード情報の取扱いに係る留意点
 No.26 防災 サイバーリスクに備えたBCPの策定
 No.27 AI AI技術の進化と、AIとセキュリティに関する法的課題
 No.28 メタバース メタバースに関する官民の取組とデジタルアイデンティティ
 No.29 宇宙(Column) 宇宙事業の拡大とサイバーセキュリティの重要性
 No.30 Fintech 資金決済法に関する事業者におけるセキュリティ対策
 No.31 DFFT(Column) 国際的なデータ流通の枠組みを日本が主導するために企業に求められる対応
第4部 国際法務  
 No.32 アジア法務 シンガポール、タイ、ベトナム、インドネシアにおけるサイバーセキュリティ法制
 No.33 中国法務 いわゆるデータ三法とサイバーセキュリティ
 No.34 EU 法務 EUにおけるサイバーセキュリティ分野の法規制
 No.35 アメリカ法務 アメリカにおけるサイバーセキュリティ関連法規制
 No.36 イスラエル法務 サイバーセキュリティビジネスのエコシステムとイスラエル法

 

・書籍...

Img_1142

 

みなさん、是非、ご一読を...

ちなみに、アフェリエイトではないです(^^)...

 

 

| | Comments (0)

2025.10.28

オーストラリア AI導入ガイダンス (2025.10.21) と AIポリシーガイドとテンプレート (2025.10.02) など

こんにちは、丸山満彦です。

前者は責任あるAIのガバナンスと導入に不可欠な6つの慣行を定めた者で、AI導入を始める組織のためのものと、ガバナンスや技術の専門家のための導入の実践の2つがありますね...

後者はAI利用に関する社内規定イメージで、前者のリソースの一つという感じですかね...

欧州のみならず世界的にAIを活用しても良い部分とよくない部分の境界がだんだんと明確になっていくような感じがします...私たちは自由にやってもよいのだ!といっても世界的に利用しようとすると行き詰まるわけで、世界的なコンセンサスづくりに積極的に関与していくことが重要となっていくのではないかと思います。

結局、個人データの取り扱いについても広く眺めてみれば、概ね欧州のGDPRとほぼ同じルールが世界的にも適用されているわけで(Burussele効果という人もいますが...)、AIについてもそうなっていく可能性が高いように思います。

個人データ保護の時も米国、欧州とあるなかで、日本は第3の道をとったらどうか?という話を堀部先生がしていたような記憶がありますが、経済力も背景とした外交により、それはうまくいかなかったようにも思います。おそらくAIの分野においても欧州のAI法をベースにした(一部緩和される部分もあるとは思いますが)法制度が世界的にも普及していくのかもしれません。。。彼らのEU Valueというのは、譲れない信念なので、これに反するような法制度はつくらないでしょうしね・・・

ところでオーストラリアは英国と近い考え方で、大陸欧州と同じとは言いませんが、近い思想ではありますね...

 

Australia Department of Industry, Science and Resources

・2025.10.21 Guidance for AI Adoption

 

Guidance for AI Adoption AI導入のための指針
On this page このページの内容
Introduction はじめに
Read the guidance 指針を読む
Resources and downloads リソースとダウンロード
More about the guidance 指針の詳細
More information 追加情報
Introduction はじめに
The Guidance for AI Adoption sets out 6 essential practices for responsible AI governance and adoption. 「AI導入のための指針」は、責任あるAIガバナンスと導入のための6つの基本実践を定めている。
We based this guidance on national and international ethics principles. By following this guidance, your organisation will: 本ガイドラインは国内外の倫理原則に基づいて作成された。これを遵守することで、組織は次の成果を得られる:
・build trust with stakeholders ・ステークホルダーとの信頼構築
・get the benefits of AI while managing the risks ・リスク管理を伴うAIの利点獲得
・build public confidence in adopting AI ・AI導入に対する公衆の信頼醸成
・set up a roadmap for navigating a complex governance landscape. ・複雑なガバナンス環境をナビゲートするロードマップ構築
There are 2 versions of the guidance: ガイドラインには2つのバージョンがある:
Foundations,for organisations getting started in adopting AI 基盤編AI導入を開始する組織向け
Implementation practices,for governance professionals and technical experts. 実践編ガバナンス専門家および技術専門家向け
Read the guidance ガイダンスを読む
Guidance for AI Adoption: Foundations AI導入ガイダンス:基礎編
Essential practices to get started in responsible AI governance. 責任あるAIガバナンスを始めるための必須実践事項。
Guidance for AI Adoption: Implementation practices AI導入ガイダンス:実践編
Comprehensive guidance for governance professionals and technical experts. ガバナンス専門家と技術専門家向けの包括的ガイダンス。
Resources and downloads リソースとダウンロード
AI screening tool AIスクリーニングツール
Use this tool to help you decide the level of governance oversight each AI system or use case needs. 各AIシステムやユースケースに必要なガバナンス監視レベルを判断する際に活用するツール。
AI policy guide and template AIポリシーガイドとテンプレート
Organisations who use AI should develop and maintain an AI policy. Use this template as a starting point for your organisation's policy. AIを利用する組織は、AIポリシーを策定・維持すべきだ。このテンプレートを組織のポリシー策定の出発点として活用せよ。
AI register template AI登録簿テンプレート
Use this template to create a register of your organisation's AI tools and systems. このテンプレートを用いて、組織のAIツールとシステムの登録簿を作成せよ。
Terms and definitions 用語と定義
Read a list of key definitions for the Guidance for AI Adoption. 「AI導入ガイダンス」における主要な定義一覧を参照せよ。
More about the guidance ガイダンスの詳細
Our approach 我々のアプローチ
We've taken a human-centred and internationally consistent approach to writing this guidance. 本ガイダンスの作成にあたっては、人間中心かつ国際的に整合性のあるアプローチを採用した。
Mitigating risks and harms リスクと危害の軽減
How following the guidance can help to mitigate AI-specific risks. 本ガイダンスに従うことで、AI特有のリスクを軽減する方法。
The legal landscape 法的環境
Laws that may apply to AI use cases. AIユースケースに適用される可能性のある法律。
How we developed the guidance ガイダンスの開発方法
This guidance, published in October 2025, is the first update of the Voluntary AI Safety Standard. 2025年10月に公表された本ガイダンスは、自主的AI安全基準の初版改訂版である。
VAISS x Implementation practices crosswalk VAISSと実施慣行の対応表
How this guidance has integrated all Voluntary AI Safety Standard practices. 本ガイダンスが自主的AI安全基準の全慣行を統合した方法。
Acknowledgements 謝辞
NAIC would like to acknowledge the work of many people and organisations in developing the guidance. NAICは、本ガイダンス策定に尽力した多くの個人・組織の貢献に感謝する。
More information 詳細情報
Learn more about the National Artificial Intelligence Centre's work 国立人工知能センターの活動について詳しく知る
Read Australia's Artificial Intelligence Ethics Framework オーストラリア人工知能倫理フレームワークを読む
Read the Essential 8 cybersecurity guidelines サイバーセキュリティ基本8原則を読む

 

6つの基本実践...

1. Decide who is accountable  1. 責任の所在を決定する
2. Understand impacts and plan accordingly  2. 影響を理解し、それに応じて計画する
3. Measure and manage risks 3. リスクの測定と管理
4. Share essential information 4. 重要な情報の共有
5. Test and monitor 5. テストと監視
6. Maintain human control 6. 人間による制御を維持する

 

 


 

基礎編...

Guidance for AI Adoption: Foundations

・[PDF]

20251025-102012

 

Guidance for AI Adoption: Foundations AI導入のためのガイダンス:基礎編
On this page このページの内容
Introduction はじめに
How to use the guidance ガイダンスの使い方
Essential practices 必須の実践事項
Downloads ダウンロード
Contact us お問い合わせ
Introduction はじめに
The Guidance for AI Adoption sets out 6 essential practices for responsible AI governance and adoption. 「AI導入のためのガイダンス」は、責任あるAIガバナンスと導入のための6つの必須実践事項を定めている。
There are 2 versions of the guidance. This version, Foundations, is for: 本ガイダンスには2つのバージョンがある。この「基礎編」は以下を対象とする:
・organisations who are starting out in AI adoption and governance ・AI導入とガバナンスを初めて導入する組織
・organisations using AI in low-risk ways ・低リスクな方法でAIを利用する組織
・professionals who are new to AI and AI governance ・AIおよびAIガバナンスに不慣れな専門家
・professionals looking for general guidance on best practice when using AI in business contexts. ・ビジネス環境でAIを活用する際のベストプラクティスに関する一般的な指針を求める専門家
Organisations with mature governance structures, technical development capabilities or high-risk use cases should use the other version of the guidance, Implementation practices. 成熟したガバナンス体制、技術開発能力、または高リスクなユースケースを有する組織は、別バージョンの「実践編」を利用すべきである。
How to use the guidance ガイダンスの活用方法
Get started across all 6 essential practices to establish basic responsible AI governance. Add more actions as your organisation's AI use grows or your governance capabilities mature. 6つの基本実践すべてに取り組み、責任あるAIガバナンスの基盤を確立すること。組織のAI利用拡大やガバナンス能力の成熟に伴い、追加の取り組みを導入すること。
When you're ready for detailed step-by-step instruction on how to implement these practices, refer to Implementation practices. これらの実践を実装する詳細な手順が必要な場合は、「実施実践」を参照すること。
The guidance practices are designed for flexibility. Adopt them in ways that fit your organisation’s specific context, constraints and use cases. ガイダンスの実践は柔軟性を考慮して設計されている。組織固有の状況、制約、ユースケースに適合する形で採用すること。
Important considerations 重要な考慮事項
As you read and adopt the practices, remember: 実践を読み取り採用する際には、以下の点を留意すること:
・some practices apply to your whole organisation (like having an AI policy) ・組織全体に適用される実践(例:AIポリシーの策定)
・some practices apply to each specific AI system in the context that you use it (like performing tests). ・個々のAIシステムの使用状況に応じ適用される実践(例:テストの実施)
The same AI system can present different risks depending on how you use it. For example, using ChatGPT to draft marketing emails presents a different risk to using AI to assess job applications. Each use case needs its own governance checks. 同一のAIシステムでも、使用方法によって異なるリスクを生じ得る。例えば、マーケティングメールの草案作成にChatGPTを使用する場合と、採用応募書類の評価にAIを使用する場合ではリスクが異なる。各ユースケースには固有のガバナンスチェックが必要である。
When an AI system could be used in multiple ways, consider all possible use cases, including ways it might be misused. AIシステムが複数の用途に利用可能な場合、悪用される可能性も含め、あらゆる使用事例を考慮すること。
Remember that documentation is essential. You should document every activity in these essential practices that you carry out. This will let you audit and review your governance when you need to. Good documentation also helps your organisation learn and improve its AI governance over time. 文書化が不可欠であることを忘れるな。これらの必須実践において実施する全活動を文書化すべきだ。これにより、必要時にガバナンスを監査・見直しできる。適切な文書化は、組織がAIガバナンスを継続的に学習・改善する上でも役立つ。
For clarification on specific terms used in this document, you can refer to the terms and definitions. 本文書で使用される特定用語の明確化については、用語と定義を参照できる。
Essential practices 必須実践事項
1. Decide who is accountable 1. 責任の所在を決定する
AI systems can make automated decisions that significantly impact people, communities and businesses. Overall, your organisation is ultimately accountable for how and where AI is used, AI complexity can create gaps where no one takes clear responsibility for outcomes. AIシステムは、個人・コミュニティ・企業に重大な影響を与える自動化された意思決定を行う可能性がある。組織全体として、AIの使用方法と使用場所について最終的な責任を負う。AIの複雑性は、結果に対する明確な責任の所在が不明確になるギャップを生み出す可能性がある。
Accountability is the first step to using AI responsibly. 責任の所在を明確にすることは、AIを責任を持って使用する第一歩である。
Getting started 導入手順
Assign a senior leader as the overall AI governance owner. They should have enough authority and understanding of AI capabilities and risks to oversee all AI use in your organisation. 上級管理職をAIガバナンス全体の責任者として任命する。当該責任者は、組織内の全AI利用を監督する権限と、AIの能力・リスクに関する十分な理解を有している必要がある。
Create an AI policy that sets out how your organisation will use AI responsibly. Ensure that the policy provides advice to your staff on AI risks and how to manage them. Take a look at our AI Policy template to get started. 組織が責任を持ってAIを活用する方法を定めたAIポリシーを作成する。ポリシーには、AIリスクとその管理方法に関する従業員向け指針を明記すること。AIポリシー作成の参考として、当社のテンプレートを参照されたい。
Next steps 次のステップ
Make a specific person accountable for every AI system your organisation uses. Make sure the accountable people are familiar with the technology and understand its business implications. 組織が使用する全てのAIシステムについて、具体的な責任者を割り当てる。責任者は技術に精通し、ビジネスへの影響を理解していること。
Train your accountable people so they can make informed decisions about AI’s risks and behaviours. 責任者がAIのリスクと挙動について情報に基づいた判断ができるよう訓練する。
Clarify supply chain accountabilities. When AI systems involve multiple parties (vendors, developers, integrators etc), make it clear who is responsible for each part of the AI supply chain. This will let you know who to talk to if something in the system goes wrong. サプライチェーンの責任範囲を明確化する。AIシステムに複数の関係者(ベンダー、開発者、インテグレーターなど)が関与する場合、サプライチェーンの各部分における責任者を明確にすること。これにより、システムに問題が発生した際の対応窓口が明確になる。
Turn your AI policy into a governance framework. A comprehensive framework with clear policies and procedures can help your organisation address AI‑specific challenges. AIポリシーをガバナンス枠組みに昇華させる。明確な方針と手順を備えた包括的枠組みは、組織がAI特有の課題に対処する助けとなる。
For further guidance, read Implementation practice 1. 詳細な指針については、実施実践1を参照のこと。
2. Understand impacts and plan accordingly 2. 影響を理解し、それに応じて計画する
Because AI systems can operate at speed and scale, their potential impacts are often magnified. Without careful planning, a single AI system can lead to widespread negative outcomes, such as unfair decisions or the provision of inaccurate information. AIシステムは高速かつ大規模に動作するため、その潜在的影響はしばしば増幅される。慎重な計画なしに、単一のAIシステムが不公平な決定や不正確な情報の提供など、広範な悪影響を招く可能性がある。
For example, AI systems can learn from and amplify existing issues such as unwanted bias in data. This can lead to unfair decisions or inappropriate generated content that could affect many people. If an AI system used for shortlisting in hiring has a bias problem, it could unfairly reject hundreds of qualified candidates before anyone notices. 例えば、AIシステムはデータ内の望ましくない偏りといった既存の問題を学習し増幅させる可能性がある。これにより不公平な決定や不適切な生成コンテンツが生じ、多くの人々に影響を及ぼす恐れがある。採用選考の候補者絞り込みに用いるAIシステムに偏りの問題があれば、誰にも気付かれる前に数百人の適格な候補者を不当に排除する可能性がある。
To use AI responsibly, organisations need to understand, plan for and monitor potential impacts of AI systems. Those affected should be able to raise complaints and get help. AIを責任を持って活用するには、組織はAIシステムの潜在的影響を理解し、計画を立て、監視する必要がある。影響を受ける者は苦情を申し立て支援を得られるべきだ。
Getting started 導入手順
Carry out a stakeholder impact assessment. Identify the groups and types of people your AI systems may affect. Pay particular attention to vulnerable or marginalised cohorts. Assess all potential impacts, such as unfair decisions, providing inaccurate or harmful information, encouraging overreliance, etc. ステークホルダー影響評価を実施する。AIシステムが影響を与え得る集団や人物像を特定する。特に脆弱な立場や周縁化された集団に注意を払う。不公平な決定、不正確・有害な情報の提供、過度の依存の助長など、あらゆる潜在的影響を評価する。
Create contestability channels. Set up channels for people to report problems, challenge or question AI decisions. The strength of those channels should match how serious the impact is. Make sure you can take action to set things right if your AI system has negatively affected someone. 異議申し立ての経路を設ける。人々が問題を報告したり、AIの決定に異議を唱えたり質問したりできる経路を整備する。これらのチャネルの強度は、影響の深刻さに応じて設定すべきだ。AIシステムが誰かに悪影響を与えた場合、是正措置を講じられるようにする。
Next steps 次のステップ
Engage your stakeholders early and continue engaging them throughout the AI lifecycle, especially your staff and customers. Understand their needs, concerns and how they might be affected. Use this knowledge to inform how you design, test and deploy your systems. ステークホルダー、特に従業員と顧客を、AIライフサイクルの初期段階から関与させ、継続的に関与させる。彼らのニーズ、懸念、影響の受け方を理解する。この知見を、システムの設計、テスト、導入方法に反映させる。
Identify systemic unwanted impacts by monitoring patterns of feedback. Use this information to proactively fix systemic issues in your systems. フィードバックのパターンを監視し、システム的な望ましくない影響を特定する。この情報を活用して、システム内の体系的な問題を積極的に修正する。
For further guidance, read Implementation practice 2. 詳細なガイダンスについては、実施手法2を参照のこと。
3. Measure and manage risks 3. リスクの測定と管理
AI risks fundamentally change depending on the type and complexity of your AI systems. Risks often emerge from how the AI system behaves in different situations and use-cases, rather than only from software updates. They can rapidly amplify smaller issues into significant problems. AIリスクは、AIシステムの種類と複雑さに応じて根本的に変化する。リスクは、ソフトウェア更新だけでなく、様々な状況やユースケースにおけるAIシステムの挙動から生じることが多い。小さな問題を急速に拡大させ、重大な問題へと発展させる可能性がある。
For example, an AI chatbot that answers simple questions during business hours, when it can be monitored by a staff member, is a low-risk use of AI. The risks expand, however, if that chatbot operates 24/7, without human oversight, and answers more complex questions. 例えば、業務時間内に簡単な質問に回答するAIチャットボットは、スタッフが監視できるため低リスクなAI利用である。しかし、そのチャットボットが24時間365日稼働し、人間の監視なしに複雑な質問に回答する場合、リスクは拡大する。
To use AI responsibly, organisations need to be able to identify and manage its risks. 責任あるAI利用のためには、組織がそのリスクを特定・管理できる必要がある。
Getting started 導入手順
Create a risk screening process to identify and flag AI systems and use cases that pose unacceptable risk or require additional governance attention. Look at our risk screening template for help with this process. リスクスクリーニングプロセスを構築し、許容できないリスクをもたらす、あるいは追加のガバナンス対応が必要なAIシステムやユースケースを特定・フラグ付けする。このプロセスには当社のリスクスクリーニングテンプレートを活用できる。
Next steps 次のステップ
Set up risk management processes that account for the differences between traditional IT, narrow AI, general purpose AI and agentic AI systems. 従来のITシステム、狭義のAI、汎用AI、エージェント型AIシステムの差異を考慮したリスク管理プロセスを確立する。
Conduct risk assessments and create mitigation plans for each specific use case and identified impacts in that context. 各具体的なユースケースと、その文脈で特定された影響に対してリスク評価を実施し、軽減策を策定する。
Apply risk controls based on the level of risk for each of your specific uses of AI. AIの具体的な利用ごとに、リスクレベルに応じたリスク管理策を適用する。
Create processes to investigate, document and analyse AI-related incidents. Make sure you use lessons learned to prevent incidents happening again and to improve AI systems and risk management processes. AI関連のインシデントを調査・文書化・分析するプロセスを構築する。得られた教訓を活用し、インシデントの再発防止とAIシステム・リスク管理プロセスの改善を図る。
For further guidance, read Implementation practice 3. 詳細なガイダンスは「実施実践3」を参照のこと。
4. Share essential information 4. 重要な情報の共有
To use AI responsibly, organisations need to tell users and stakeholders when and how they’re interacting with AI. AIを責任を持って利用するには、組織はユーザーや関係者に、いつ・どのようにAIとやり取りしているかを伝える必要がある。
People should know when they’re interacting with AI and understand when AI decisions affect them. For example, when a customer is receiving services and information from a chatbot, they should know this is not a human specialist. 人々はAIとやり取りしていることを認識し、AIの判断が自身に影響を与えるタイミングを理解すべきだ。例えば顧客がチャットボットからサービスや情報を受け取る場合、それが人間の専門家ではないことを知る必要がある。
Getting started 導入手順
Create and maintain an AI register. This should document all your AI systems, how you use them, and any other important information about them. Your documentation should include any AI system, whether you developed it internally or procured it from elsewhere. It should also cover AI that might be embedded in other systems, like human resources and customer engagement tools. Look at our AI register template for help with this process. AI登録簿を作成・維持する。これには全てのAIシステム、その使用方法、その他の重要情報を記載すべきだ。文書化対象は、自社開発か外部調達かを問わず全てのAIシステムを含む。人事管理ツールや顧客エンゲージメントツールなど、他のシステムに組み込まれたAIも対象とする。このプロセスにはAI登録テンプレートを参照のこと。
Disclose your use of AI. Make it standard practice in your organisation to clearly communicate your use of AI to your stakeholders. This is especially important in situations where AI makes or influences decisions, generates content that can meaningfully impact people, or can be mistaken for a human being. AIの使用を開示する。組織内で、ステークホルダーに対しAIの使用を明確に伝えることを標準的な慣行とする。これは特に、AIが意思決定を行う/影響を与える場合、人々に重大な影響を与え得るコンテンツを生成する場合、あるいは人間と誤認される可能性がある場合に重要である。
Next steps 次のステップ
Identify, document and communicate AI system capabilities and limitations. Explaining these capabilities and limitations to relevant stakeholders can prevent their overreliance on or misuse of AI. AIシステムの能力と限界を特定し、文書化し、伝達する。これらの能力と限界を関係者に説明することで、AIへの過度の依存や誤用を防ぐことができる。
Be transparent across your AI supply chain. This will let anyone who interacts with the system understand what components they are using, their capabilities and limitations, and key characteristics like training data sources. AIサプライチェーン全体で透明性を確保する。これにより、システムを利用するすべての関係者が、使用しているコンポーネント、その能力と限界、およびトレーニングデータソースなどの主要な特性を理解できるようになる。
Set up ways to explain AI outcomes, especially when they affect people. The detail in your explanation should match how serious the outcome is, and it should be easy for people who are affected to understand. AIの結果を説明する方法を確立する。特に、それが人々に影響を与える場合には重要である。説明の詳細度は結果の重大さに応じ、影響を受ける者が容易に理解できる形でなければならない。
For further guidance, read Implementation practice 4. 詳細な指針については、実施手法4を参照のこと。
5. Test and monitor 5. テストと監視
AI systems can change their behaviour over time or act in ways that are less predictable than conventional software. For example, an AI system that worked well last month might start giving different answers today if it is trained on additional data. AIシステムは時間の経過とともに動作が変化したり、従来型ソフトウェアより予測困難な挙動を示すことがある。例えば、先月は正常に動作したAIシステムでも、追加データで訓練されると今日から異なる回答を出し始める可能性がある。
To use AI safely, organisations should test and monitor their AI systems. AIを安全に利用するには、組織はAIシステムをテストし監視すべきだ。
Getting started 導入の手順
Ask for proof. If you’re buying an AI system, ask the developer or supplier to show proof that it’s been properly tested. 証明を求める。AIシステムを購入する場合、開発者や供給者に適切なテスト実施の証明を提示させる。
Test before you deploy a system. Consider how you want to use your AI system. Decide how you might test the system to ensure it is performing how you want it to, and conduct them. システム導入前にテストする。AIシステムの活用方法を検討する。システムが意図した通りに動作することを確認するためのテスト方法を決定し、実施する。
Monitor your system after you deploy it. Set up a monitoring process that helps you detect changes in performance and behaviour. Match your monitoring approach to the risk levels identified in your risk assessment. Watch for new risks that were not present when you first deployed the system. システム導入後は監視を継続せよ。性能や動作の変化を検知できる監視プロセスを設定する。リスク評価で特定したリスクレベルに応じた監視手法を採用せよ。システム導入時には存在しなかった新たなリスクに注意を払う。
Extend your data governance and cybersecurity practices to your AI systems. Strengthen these practices to address AI-specific needs, like protecting AI models that learned from sensitive data. データガバナンスとサイバーセキュリティ対策はAIシステムにも適用せよ。機密データから学習したAIモデルを保護するなど、AI特有の要件に対応するため、これらの対策を強化する。
Next steps 次のステップ
Stress-test your AI system to spot issues or vulnerabilities before others do. Make sure safety, security and policy controls are sound, even when someone deliberately tries to break or bypass them. AIシステムにストレステストを実施し、他社に先駆けて問題や脆弱性を発見せよ。安全対策、セキュリティ対策、ポリシー管理が、意図的な破壊や回避行為があっても確実に機能することを確認せよ。
Consider getting independent testing. If your AI use case was identified needing additional governance attention, consider getting a third party to test your AI systems. This testing should happen before you deploy the system, after significant changes and on a regular basis. 独立したテストの実施を検討せよ。AIユースケースに追加のガバナンス対応が必要と特定された場合、第三者にAIシステムのテストを依頼することを検討せよ。このテストはシステム導入前、大幅な変更後、そして定期的に実施すべきである。
For further guidance, read Implementation practice 5. 詳細なガイダンスについては、実装プラクティス5を参照せよ。
6. Maintain human control 6. 人間による制御を維持する
Unlike traditional software that follows explicit instructions, AI systems learn patterns from data and make their own opaque decision logic. This means they need human oversight to make sure they operate safely. For example, while regular software does exactly what you program it to do, AI might interpret your instructions differently than you intended. 明示的な指示に従う従来型ソフトウェアとは異なり、AIシステムはデータからパターンを学習し、独自の不透明な意思決定ロジックを構築する。これは安全な運用を確保するため、人間の監視が必要であることを意味する。例えば、通常のソフトウェアはプログラム通りに動作するが、AIは意図とは異なる方法で指示を解釈する可能性がある。
To responsibly use AI, organisations need to make sure a human appropriately oversees any AI systems in use. The person overseeing your AI systems should know how to do so appropriately, and what they need to do to override the system if something goes wrong. AIを責任を持って利用するには、組織は運用中のAIシステムを人間が適切に監視することを保証しなければならない。AIシステムを監督する者は、適切な監督方法と、問題発生時にシステムをオーバーライドする手順を理解している必要がある。
Getting started 導入手順
Ensure meaningful human oversight. Make sure a person oversees your AI system in a way that matches how much autonomy the system has, and how high the stakes are. This could mean automated monitoring for low-stakes applications, and mandatory human review for high-stakes decisions. 意味のある人間の監督を確保せよ。システムの自律性レベルと影響度に応じた監督体制を整えること。影響度の低い用途では自動監視を、重大な意思決定では人間の必須レビューを適用する。
Build in human override points. Make sure you have clear intervention points where humans can pause, override, roll back or shut down AI systems if needed. 人間の介入ポイントを組み込む。必要に応じて人間がAIシステムを一時停止、上書き、ロールバック、または停止できる明確な介入ポイントを確保する。
Next steps 次のステップ
Provide training to people overseeing AI systems. Make sure anyone using or overseeing your AI can understand each system’s capabilities, limitations and failure points, and when to intervene. AIシステムを監督する人材にトレーニングを提供する。AIを使用または監督する全員が、各システムの能力、限界、故障点、および介入すべきタイミングを理解できるようにする。
Maintain alternative pathways. Make sure that all of your organisation’s critical functions can continue even if your AI systems malfunction or are being retired. 代替経路を維持する。AIシステムが故障したり廃止されたりしても、組織のすべての重要機能が継続できるようにする。
For further guidance, read Implementation practice 6. 詳細なガイダンスについては、実施実践6を参照のこと。

 

 


 

実践編...

Guidance for AI Adoption: Implementation practices

・[PDF]

20251025-102017

 

 

Guidance for AI Adoption: Implementation practices AI導入のためのガイダンス:実践編
On this page このページの内容
Introduction はじめに
1. Decide who is accountable 1. 責任の所在を明確にする
2. Understand impacts and plan accordingly 2. 影響を理解し、それに応じて計画する
3. Measure and manage risks: implement AI-specific risk management 3. リスクを測定・管理する:AIに特化したリスク管理を実施する
4. Share essential information 4. 重要な情報を共有する
5. Test and monitor 5. テストと監視
6. Maintain human control 6. 人間による制御を維持する
Download a copy of the guidance ダウンロード
Contact us お問い合わせ
Introduction はじめに
The Guidance for AI Adoption sets out 6 essential practices for responsible AI governance and adoption. 「AI導入のためのガイダンス」は、責任あるAIガバナンスと導入のための6つの必須実践を定めている。
There are 2 versions of the guidance. This version, Implementation practices, is for: 本ガイダンスには2つのバージョンがある。本バージョン「実装実践」は以下を対象とする:
・organisations who are developing AI models or systems, or using them in multiple ways ・AIモデルやシステムを開発中、または多様な方法で利用中の組織
・organisations operating in high-risk or sensitive environments ・高リスクまたは機密性の高い環境で活動する組織
・governance professionals ・ガバナンス専門家
・professionals with technical AI expertise ・AI技術専門知識を有する専門家
・professionals looking to align with best-practice AI governance. ・ベストプラクティスに基づくAIガバナンスの整合を目指す専門家
Organisations just starting out in AI adoption and professionals who are new to AI and AI governance should use the use the other version of the guidance, Foundations. AI導入を始めたばかりの組織や、AI・AIガバナンスに不慣れな専門家は、別のバージョンである「基礎編」を使用すべきである。
How to use this guidance 本ガイダンスの使用方法
This guidance applies to both developers and deployers of AI systems. Where practices are particularly relevant to either developers or deployers, this is marked with a corresponding (DEP) or (DEV). 本ガイダンスは、AIシステムの開発者と運用者の双方に適用される。実践事項が開発者または運用者のいずれかに特に関連する場合には、対応する(DEP)または(DEV)で明示されている。
Find all the definitions for this guidance in the terms and definitions. 本ガイダンスの全定義は「用語と定義」で確認できる。
1. Decide who is accountable 1. 責任の所在を明確にする
AI systems can make automated decisions that significantly impact people, communities and businesses. Overall, your organisation is ultimately accountable for how and where AI is used, AI complexity can create gaps where no one takes clear responsibility for outcomes. AIシステムは、個人・コミュニティ・企業に重大な影響を与える自動化された意思決定を行う可能性がある。組織全体として、AIの使用方法と使用場所について最終的な責任を負うが、AIの複雑さゆえに結果に対する明確な責任の所在が不明確になる場合がある。
Accountability is the first step to using AI responsibly. 責任あるAI利用の第一歩は、責任の所在を明確にすることである。
1.1 Accountable people 1.1 責任を負う者
Understanding your role in the supply chain and identifying clear roles for how AI is governed, developed and deployed in the organisation supports accountability and effective oversight. サプライチェーンにおける自身の役割を理解し、組織内でAIがどのように統治・開発・展開されるかについて明確な役割を特定することは、説明責任と効果的な監督を支える。
1.1.1 To ensure AI systems perform as required and obligations are met, assign, document and clearly communicate who is accountable across the organisation (including contractors and third‑party providers/systems) for the operation of the AI management system, including: 1.1.1 AIシステムが要求通りに動作し義務が履行されるよう、組織全体(請負業者や第三者の提供者/システムを含む)において、以下のAI管理システムの運用について誰が責任を負うかを割り当て、文書化し、明確に伝達すること:
・safe and responsible policies, practices and procedures ・安全かつ責任ある方針、慣行、手順
・the development and deployment of every AI system, including ongoing human control and oversight ・継続的な人的管理・監督を含む、あらゆるAIシステムの開発と導入
・oversight of the development and use of AI systems by third parties ・第三者によるAIシステムの開発・利用の監督
・testing of AI systems across the organisation ・組織全体でのAIシステムのテスト
・oversight of concerns, challenges and requests for redress ・懸念事項、課題、是正要求の監督
・the performance and continual improvement of the AI management system. ・AI管理システムの運用と継続的改善
1.1.2 For each accountable person, define and communicate the required competencies and their authority. Ensure they are staffed with appropriately skilled people and have the necessary resources. 1.1.2 各責任者に対し、必要な能力と権限を定義し伝達する。適切なスキルを持つ人材を配置し、必要なリソースを確保する。
1.2 Supply chain accountabilities 1.2 サプライチェーンにおける責任範囲
Understanding your role in the AI supply chain and identifying which parties are responsible for maintaining the performance, safety and integrity of AI systems throughout their lifecycle is key to effective accountability. AIサプライチェーンにおける自社の役割を理解し、AIシステムのライフサイクル全体を通じて性能・安全性・完全性を維持する責任主体を特定することが、効果的な責任分担の鍵である。
1.2.1 Identify, document and communicate accountability for shared responsibility across the AI supply chain (model developers, system developers and system deployers) for: 1.2.1 AIサプライチェーン全体(モデル開発者、システム開発者、システム導入者)における共有責任の責任範囲を特定し、文書化し、伝達する。対象は以下の通りである:
・monitoring and evaluation of model and system performance, quality and safety ・モデル及びシステムの性能、品質、安全性の監視と評価
・human oversight and intervention ・人間の監視と介入
・processes to raise issues, faults, failures incidents, contested outcomes, issue resolution and system updates. ・問題、故障、障害、インシデント、争議のある結果、問題解決、システム更新を報告するプロセス
1.2.2 Clearly document and communicate the accountability and obligations that developers have towards downstream organisations when integrating, customising, enhancing developer provided AI models or systems. This includes transparency of AI model and system risks, expected behaviours, outcomes under expected use cases and changes to the model or system, paying particular attention to any specific contractual obligations, which could vary by customer (DEV). 1.2.2 開発者が提供するAIモデルやシステムを統合・カスタマイズ・強化する下流組織に対する開発者の説明責任と義務を明確に文書化し、伝達する。これにはAIモデル・システムのリスク、想定動作、想定使用ケースにおける結果、モデル・システム変更に関する透明性を含み、顧客ごとに異なる可能性のある特定の契約上の義務に特に注意を払う(DEV)。
1.3 AI literacy and training 1.3 AIリテラシーとトレーニング
Delivering effective training in AI across the organisation can build confidence, support AI adoption and ensure accountable people have the right capabilities to perform their roles. 組織全体で効果的なAIトレーニングを実施することは、信頼性を構築し、AI導入を支援し、責任ある担当者が役割を遂行するための適切な能力を確保する。
1.3.1 Evaluate and document the training needed to build broad AI understanding and a culture of accountability across the organisation. Source or deliver training to bridge any identified gaps. Regularly check skills are up‑to‑date as AI development and deployment evolves. 1.3.1 組織全体で幅広いAI理解と説明責任の文化を構築するために必要なトレーニングを評価し文書化する。特定されたギャップを埋めるためのトレーニングを調達または提供する。AIの開発と展開が進化するにつれ、スキルが最新であることを定期的に確認する。
1.3.2. Evaluate the training needs of accountable people and provide appropriate up‑to‑date training to address gaps, such as those responsible for: 1.3.2 責任ある立場にある者の研修ニーズを評価し、以下の責任を負う者など、ギャップを解消するための適切な最新研修を提供する:
・meeting legal and regulatory obligations ・法的・規制上の義務の遵守
・handling personally identifiable information ・個人識別情報の取り扱い
・operation, control, intervention or termination of each AI system ・各AIシステムの運用、制御、介入、停止
・oversight and monitoring of each AI system ・各AIシステムの監視・管理
・procurement, development or deployment of third‑party AI systems ・第三者AIシステムの調達、開発、導入
・safe and responsible development of AI systems (DEV). ・AIシステムの安全かつ責任ある開発(開発部門)。
1.4 AI governance framework 1.4 AIガバナンスの枠組み
Implementing policies, processes and an overall management system for the development and deployment of AI across the organisation is fundamental to effective and responsible governance of AI. 組織全体におけるAIの開発と導入のためのポリシー、プロセス、および総合的な管理システムを実施することは、効果的かつ責任あるAIガバナンスの基本である。
1.4.1 Document and communicate: 1.4.1 以下の事項を文書化し、周知する:
・the organisation’s strategic intent to develop and deploy AI systems in line with organisational strategy and values ・組織の戦略と価値観に沿ったAIシステムの開発・導入に関する組織の戦略的意図
・the regulations relevant to the development and deployment of AI systems and how the organisation will comply ・AIシステムの開発・導入に関連する規制及び組織の遵守方法
・appropriately detailed policies, processes and goals for the safe and responsible development and deployment of AI systems which align to the strategy, including: ・戦略に沿った、安全かつ責任あるAIシステムの開発・導入のための適切に詳細化された方針、プロセス及び目標。これには以下を含む:
・・an end‑to‑end process for AI system design and development (DEV) ・・AIシステム設計・開発のためのエンドツーエンドプロセス (DEV)
・・goals for AI systems to meet organisational policies for the safe and responsible use of AI ・・AIシステムの目標:AIの安全かつ責任ある利用に関する組織の方針を満たすこと
・・the consequences for people who act outside of the organisation’s policies and defined risk appetite. ・・組織の方針および定義されたリスク許容度を超えて行動する者に対する結果。
1.4.2 Ensure effective operation of the AI management system by: 1.4.2 AI管理システムの有効な運用を確保するため、以下の措置を講じる:
・documenting and implementing a process to proactively identify deficiencies in the AI management system. This includes instances of non‑compliance in AI systems or in their development or deployment, documenting root causes, corrective action and revisions to the AI management system. ・AI管理システムの不備を積極的に特定するプロセスを文書化し実施する。これには、AIシステムまたはその開発・導入における不適合事例、根本原因の文書化、是正措置、AI管理システムの改訂が含まれる。
・appropriately planning changes to the AI management system ・AI管理システムへの変更を適切に計画する
・identifying and documenting the internal and external factors (such as infrastructure or the deployment context) that may affect the organisation’s ability to meet its responsibilities through the overarching AI management system ・包括的なAI管理システムを通じて組織が責任を果たす能力に影響を与え得る内部・外部要因(インフラや導入環境など)を特定し文書化する
・providing sufficient resources such as human effort and compute to deploy AI systems safely and responsibly over the lifecycle. ・AIシステムをライフサイクルを通じて安全かつ責任を持って導入するために、人的リソースや計算リソースなどの十分な資源を提供する。
1.4.3 Monitor compliance with organisational policies to identify and address any gaps between leadership expectations and staff understanding of how to develop and deploy AI safely and responsibly. 1.4.3 組織方針への遵守状況を監視し、リーダーシップの期待と、AIを安全かつ責任を持って開発・展開する方法に関するスタッフの理解との間のギャップを特定し、対処する。
2. Understand impacts and plan accordingly 2. 影響を理解し、それに応じて計画する
Because AI systems can operate at speed and scale, their potential impacts are often magnified. Without careful planning, a single AI system can lead to widespread negative outcomes, such as unfair decisions or the provision of inaccurate information. AIシステムは高速かつ大規模に動作するため、その潜在的な影響はしばしば増幅される。慎重な計画なしに、単一のAIシステムが不公平な決定や不正確な情報の提供など、広範な悪影響を招く可能性がある。
For example, AI systems can learn from and amplify existing issues such as unwanted bias in data. This can lead to unfair decisions or inappropriate generated content that could affect many people. If an AI system used for shortlisting in hiring has a bias problem, it could unfairly reject hundreds of qualified candidates before anyone notices. 例えば、AIシステムはデータ内の望ましくないバイアスといった既存の問題を学習し増幅させる可能性がある。これにより不公平な決定や不適切な生成コンテンツが生じ、多くの人々に影響を及ぼしうる。採用選考の候補者絞り込みに用いるAIシステムにバイアス問題があれば、誰にも気付かれる前に数百人の適格な候補者を不当に排除する恐れがある。
To use AI responsibly, organisations need to understand, plan for and monitor potential impacts of AI systems. Those affected should be able to raise complaints and get help. AIを責任を持って活用するには、組織はAIシステムの潜在的影響を理解し、計画を立て、監視する必要がある。影響を受ける者は苦情を申し立て支援を得られるべきである。
2.1 Identify and engage stakeholders 2.1 ステークホルダーの特定と関与
Engaging potentially impacted stakeholders is an important way to identify and understand the impacts of AI systems. 影響を受ける可能性のあるステークホルダーと関わることは、AIシステムの影響を特定し理解する重要な方法である。
2.1.1 Identify and document key types of stakeholders (such as employees and end users) that may be impacted by the organisation’s development and deployment of AI, and their needs. 2.1.1 組織のAI開発・導入によって影響を受ける可能性のある主要なステークホルダー(従業員やエンドユーザーなど)とそのニーズを特定し文書化する。
2.1.2 Prioritise, select and document which stakeholder needs will be addressed in organisational policies and procedures. 2.1.2 組織の方針や手順で対応するステークホルダーのニーズを優先順位付けし、選択し、文書化する。
2.1.3 Document and communicate the organisation’s commitment to preventing harms to people from AI models and systems and upholding diversity, inclusion and fairness. 2.1.3 AIモデルやシステムによる人への危害防止、多様性・包摂性・公平性の維持に対する組織の取り組みを文書化し、周知する。
2.1.4 Document the scope for each AI system, including intended use cases, foreseeable misuse, capabilities, limitations and expected context. 2.1.4 各AIシステムの適用範囲(想定用途、予見可能な誤用、機能、制限、想定される使用環境を含む)を文書化する。
2.1.5 For each AI system, engage stakeholders to identify and document the potential benefits and harms to different types of stakeholders, including: 2.1.5 各AIシステムについて、ステークホルダーと協力し、以下の潜在的な利益と危害を特定・文書化する。対象ステークホルダーの種類には以下が含まれる:
・impacts to vulnerable groups ・脆弱なグループへの影響
・risks of unwanted bias or discriminatory outputs ・望ましくないバイアスや差別的出力のリスク
・use of an individual’s personal information ・個人の個人情報利用
・where the system makes or influences a decision about a person or group of people. ・システムが個人または集団に関する決定を行う、または影響を与える場合
2.1.6 For every documented risk of harm to affected stakeholders, conduct appropriate stakeholder impact analysis. 2.1.6 影響を受けるステークホルダーへの危害リスクが文書化された場合は、適切なステークホルダー影響分析を実施する。
2.1.7 Monitor for potential harms by engaging affected stakeholders for each AI system on an ongoing basis to identify new stakeholders, including end users throughout the AI lifecycle. 2.1.7 AIシステムの全ライフサイクルを通じ、影響を受けるステークホルダー(エンドユーザーを含む新たなステークホルダーの特定を含む)を継続的に関与させ、潜在的な危害を監視する。
2.1.8 Create processes to support ongoing engagement with stakeholders about their experience of AI systems. Identify vulnerable groups and support appropriately. Equip stakeholders with the skills and tools necessary to give meaningful feedback. 2.1.8 AIシステムに関するステークホルダーの体験について、継続的な関与を支援するプロセスを構築する。脆弱なグループを特定し、適切に支援する。ステークホルダーが有意義なフィードバックを提供するために必要なスキルとツールを装備させる。
2.2 Establish feedback and redress processes 2.2 フィードバックと救済プロセスの確立
Establishing processes for people affected by AI systems to give feedback, ask questions, and challenge decisions easily and safely can ensure issues are identified and resolved. AIシステムの影響を受ける人々が、容易かつ安全にフィードバックを提供し、質問し、決定に異議を申し立てられるプロセスを確立することで、問題の特定と解決が保証される。
2.2.1 Create, document and communicate a process for: 2.2.1 以下のプロセスを作成、文書化し、周知する:
・Potentially affected stakeholders to raise concerns, challenges, or requests for remediation and receive responses (for example, a human rights grievance and remediation mechanism). This includes when and how frequently to communicate, the level of detail to provide and the communication needs of stakeholders, considering the level of AI knowledge and any regulatory requirements. ・影響を受ける可能性のあるステークホルダーが懸念事項、異議、是正措置の要求を提起し、回答を受け取るためのプロセス(例:人権苦情処理・是正メカニズム)。これには、AIの知識レベルや規制要件を考慮した、連絡の頻度・方法、提供すべき詳細度、ステークホルダーのコミュニケーションニーズが含まれる。
・Evaluation of contestability requirements of both internal and external stakeholders and interested parties including accessibility needs. ・内部・外部のステークホルダーおよび利害関係者(アクセシビリティのニーズを含む)の異議申立要件の評価。
2.2.2 Implement and document system‑level mechanisms to enable contestability of AI use and decisions, enabling stakeholders to understand, challenge and appeal AI use and decisions. These mechanisms must be accessible, understandable and available to users at the appropriate time during interaction with an AI system. Consider mechanisms to share information regarding end user contests and any redress with deployers of AI systems and models (DEV). 2.2.2 AIの使用と決定に対する異議申立を可能にするシステムレベルの仕組みを実施・文書化する。これによりステークホルダーはAIの使用と決定を理解し、異議を申し立て、上訴できる。これらの仕組みは、AIシステムとのやり取り中に適切なタイミングで、利用者がアクセス可能、理解可能、利用可能な状態でなければならない。エンドユーザーの異議申し立てや救済措置に関する情報を、AIシステム・モデルの開発者(DEV)と共有する仕組みを検討する。
2.2.3 Implement and document mechanisms to enable deployers to escalate feedback, report unexpected behaviours, performance concerns or realised harms and support improvements to models or systems (DEV). 2.2.3 開発者がフィードバックをエスカレートし、予期せぬ動作、性能上の懸念、または発生した被害を報告し、モデルやシステムの改善を支援できる仕組みを実施し、文書化する(DEV)。
2.2.4 Ensure people who monitor and review affected stakeholder feedback can trigger recourse and redress processes where there is an obligation to do so. 2.2.4 影響を受けるステークホルダーのフィードバックを監視・審査する担当者は、義務がある場合に救済・是正プロセスを発動できることを保証する。
2.3 Monitor for systemic issues 2.3 システム的問題の監視
Ongoing monitoring of stakeholder feedback and redress processes can ensure that systemic issues are identified and addressed. ステークホルダーのフィードバックと救済プロセスを継続的に監視することで、システム的問題を特定・対処できる。
2.3.1 Monitor and evaluate contestability and redress processes to identify and address systemic risks as well as improve effectiveness of these processes. 2.3.1 異議申立・救済プロセスを監視・評価し、システム的リスクを特定・対処するとともに、これらのプロセスの有効性を向上させる。
2.3.2 Create, document and communicate a process to review and evaluate stakeholder contests of AI system use across the organisation including any concerns raised by affected stakeholders and requests for information. 2.3.2 組織全体におけるAIシステム利用に関するステークホルダーの異議申し立て(影響を受けたステークホルダーからの懸念事項や情報開示請求を含む)を審査・評価するプロセスを策定し、文書化し、周知する。
3. Measure and manage risks: implement AI-specific risk management 3. リスクの測定と管理:AI特化型リスク管理の実施
AI risks fundamentally change depending on the type and complexity of your AI systems. Risks often emerge from how the AI system behaves in different situations and use-cases, rather than only from software updates. They can rapidly amplify smaller issues into significant problems. AIリスクは、AIシステムの種類や複雑性によって根本的に変化する。リスクは、ソフトウェア更新だけでなく、AIシステムが様々な状況やユースケースでどのように振る舞うかから生じる場合が多い。それらは小さな問題を急速に拡大させ、重大な問題へと発展させる可能性がある。
For example, an AI chatbot that answers simple questions during business hours, when it can be monitored by a staff member, is a low-risk use of AI. The risks expand, however, if that chatbot operates 24/7, without human oversight, and answers more complex questions. 例えば、業務時間中に簡単な質問に回答するAIチャットボットは、スタッフが監視できるため、リスクの低いAI利用である。しかし、そのチャットボットが24時間365日稼働し、人間の監視なしに、より複雑な質問に回答する場合、リスクは拡大する。
To use AI responsibly, organisations need to be able to identify and manage its risks. AIを責任を持って活用するには、組織はそのリスクを特定し管理できる必要がある。
3.1 Establish a fit-for-purpose risk management framework 3.1 目的に適合したリスク管理フレームワークの構築
An effective risk management framework supports organisations to identify and manage the risks of using AI, set clear rules about what risks are acceptable, and regularly check how AI systems are working over the lifecycle. 効果的なリスク管理フレームワークは、組織がAI利用のリスクを特定・管理し、許容可能なリスクに関する明確なルールを設定し、AIシステムのライフサイクル全体にわたる動作を定期的に確認することを支援する。
3.1.1 Create and document: 3.1.1 以下の作成と文書化
・a risk management framework that addresses the specific characteristics and risks of AI systems ・AIシステムの特性とリスクに対応したリスク管理フレームワーク
・organisational‑level risk tolerance and criteria to determine acceptable / unacceptable risks for the development and deployment of AI systems. This should include the significance and likelihood of potential harms to affected stakeholders in line with the AI policy and objectives. ・AIシステムの開発・導入における許容リスク/非許容リスクを判断するための組織レベルのリスク許容度と基準。これには、AI方針と目標に沿った、影響を受けるステークホルダーへの潜在的な危害の重大性と発生可能性を含めるべきである。
・AI impact assessment, risk assessment and risk treatment processes, including criteria for reassessment over the lifecycle of an AI system. Identify and document any specific use cases or qualities of AI systems that represent an unacceptable risk to stakeholders or the organisation, in line with the organisation’s risk tolerance. ・AIシステムライフサイクルにおける再評価基準を含む、AI影響評価、リスク評価、リスク対応プロセス。組織のリスク許容度に基づき、ステークホルダーや組織にとって許容できないリスクをもたらすAIシステムの特定ユースケースや特性を特定し文書化する。
3.1.2 Ensure that risk management processes include steps to identify, assess and treat risks arising from other parties in the AI supply chain, such as third‑party developers and third party deployers. Specific risks relating to open‑source AI models, systems and components should be considered by both providers and consumers of these technologies. 3.1.2 リスク管理プロセスには、サードパーティ開発者やサードパーティ導入者など、AIサプライチェーン内の他者から生じるリスクを特定・評価・対応する手順を含めること。オープンソースAIモデル・システム・コンポーネントに関連する特定リスクは、これらの技術の提供者と利用者の双方が考慮すべきである。
3.1.3 Adopt or develop clear and consistent reporting formats, such as data sheets, model cards, or system cards, to communicate appropriate risk management outcomes, including residual risks, to relevant stakeholders (DEV). 3.1.3 データシート、モデルカード、システムカードなど、明確かつ一貫性のある報告形式を採用または開発し、残存リスクを含む適切なリスク管理の結果を関連する利害関係者に伝達する(開発)。
3.2 Assess AI system risks 3.2 AIシステムのリスク評価
Using proportionate, robust methods to assess AI system risks is a key part of the operation of the risk management framework. AIシステムのリスクを評価するための比例的で堅牢な手法の使用は、リスク管理フレームワークの運用における重要な要素である。
3.2.1 Establish a triage system to determine which AI systems may pose an enhanced or unacceptable risk, aligned to the organisation’s context and risk tolerance (see Foundations Triage template). 3.2.1 組織の状況とリスク許容度に合わせて、強化されたリスクまたは許容できないリスクをもたらす可能性のあるAIシステムを特定するためのトリアージシステムを確立する(基礎トリアージテンプレート参照)。
3.2.2 Perform and document a risk assessment and evaluation for the specific requirements, characteristics and documented use cases of each AI system, including systems developed or procured from third party suppliers. 3.2.2 第三者サプライヤーから開発または調達したシステムを含め、各AIシステムの特定の要件、特性、文書化されたユースケースについて、リスク評価と評価を実施し、文書化する。
3.2.3 In undertaking AI system risk assessments, take the following steps to evaluate the likelihood and consequence of each risk as well as the consequence of not deploying the AI system: 3.2.3 AIシステムリスク評価を実施する際には、以下の手順で各リスクの発生確率と影響度、ならびにAIシステムを導入しない場合の影響度を評価する:
・Identify potential severity and likelihood of harms to stakeholders, drawing on the Stakeholder Impact Assessment (see 2.1.1 – 2.1.6). ・ステークホルダーへの潜在的な危害の深刻度と発生確率を特定する。この際、ステークホルダー影響評価(2.1.1~2.1.6参照)を活用する。
・Identify legal, commercial and reputational risks such as failing to meet legal obligations, organisational commitments to ESG, diversity, inclusion and accessibility or programs supporting diversity, equity and fairness. ・法的義務、ESGへの組織的コミットメント、多様性・包摂性・アクセシビリティ、あるいは多様性・公平性・公正性を支援するプログラムへの不履行など、法的・商業的・評判リスクを特定する。
・Consider the potential amplified and emerging data governance risks across each phase of the AI system lifecycle including before and after model training. ・モデル訓練前後の各フェーズを含む、AIシステムライフサイクル全体における増幅・新興データガバナンスリスクの可能性を考慮する。
・Analyse risks systemically using risk models to identify the sources and pathways through which AI systems could produce the identified risks. ・リスクモデルを用いて体系的に分析し、特定されたリスクをAIシステムが生み出す可能性のある発生源と経路を特定する。
・Compare the estimated value or level of identified risks to pre‑determined organisational risk criteria (see 3.1.1) or those defined by regulatory bodies or stakeholders. ・特定されたリスクの推定値またはレベルを、事前に定められた組織のリスク基準(3.1.1 参照)または規制機関やステークホルダーが定義した基準と比較する。
・Document any specific use cases or qualities that represent an unacceptable level of risk to stakeholders or the organisation. ・ステークホルダーや組織にとって許容できないリスクレベルを示す特定のユースケースや特性を文書化する。
・Communicate risk assessments in clear reporting formats to relevant stakeholders. ・リスク評価結果を明確な報告形式で関連ステークホルダーに伝達する。
3.3 Implement controls for AI system risks 3.3 AIシステムリスクに対する統制の実施
Where risks are identified, risk treatment plans make it clear how risks will be mitigated. リスクが特定された場合、リスク対応計画によりリスク軽減方法を明確化する。
3.3.1 Create, document and implement a risk treatment plan to prioritise, select and implement treatment options (e.g. risk avoidance, transfer, acceptance, reduction) and controls to mitigate identified risks. Reassess risks after controls are implemented to verify their effectiveness. 3.3.1 特定されたリスクを軽減するため、対応策(例:リスク回避、移転、受容、低減)および統制を優先順位付け・選定・実施するリスク対応計画を作成、文書化、実施する。統制実施後はリスクを再評価し、その有効性を確認する。
3.3.2 Communicate risk treatment plans in clear reporting formats to relevant stakeholders. 3.3.2 リスク対応計画を明確な報告形式で関係者に伝達する。
3.3.3 Create and document a deployment plan which includes the response, recovery and communications for the realization of residual risks. 3.3.3 残存リスク発生時の対応、復旧、連絡手順を含む展開計画を作成し文書化する。
3.3.4 Research, document and implement leading practices in safety measures as safeguards, as appropriate for identified risks (DEV). 3.3.4 特定されたリスクに応じて、安全対策のベストプラクティスを調査、文書化し、保護手段として実施する(開発部門)。
3.4 Monitor and report incidents 3.4 インシデントの監視と報告
Reporting incidents when they happen and communicating the steps you’ve taken is essential to build trust with stakeholders and meet regulatory obligations. インシデント発生時の報告と対応措置の伝達は、ステークホルダーとの信頼構築と規制義務の履行に不可欠である。
3.4.1 Track, document and report relevant information about serious incidents and possible corrective measures to relevant regulators and/or the public in a reasonable timeframe. Reporting near‑misses and corrective measures is good practice. Communication of corrective measures should consider privacy and cybersecurity risks. 3.4.1 重大なインシデントに関する情報と可能な是正措置を、合理的な期間内に追跡・文書化し、関連規制当局および/または公衆に報告する。ニアミスと是正措置の報告は良い慣行である。是正措置の伝達では、プライバシーとサイバーセキュリティリスクを考慮すべきである。
3.4.2 Create and document a process to evaluate and fulfil reporting and disclosure obligations such as those under the Online Safety Act relevant to AI systems usage, including documentation of safety measures implemented such as notices and incident reporting. 3.4.2 AIシステム利用に関連するオンライン安全法などの報告・開示義務を評価・履行するプロセスを作成・文書化する。これには通知やインシデント報告などの実施済み安全対策の文書化を含む。
3.4.3 Conform to and document data breach reporting requirements and liabilities from related standards. For example, under the Notifiable Data Breaches scheme of the Office of the Australian Information Commissioner. 3.4.3 関連規格に基づくデータ侵害報告要件と責任を順守し文書化する。例:オーストラリア情報コミッショナー事務局の「報告義務のあるデータ侵害」スキーム。
3.4.4 Maintain two‑way communication between developers and deployers for incident reporting, sharing performance insights and coordinating responses to identified issues. 3.4.4 インシデント報告、パフォーマンス情報の共有、特定された問題への対応調整のため、開発者と運用者間の双方向コミュニケーションを維持する。
3.4.5 Monitor and evaluate risk assessments and treatment plans on a regular, periodic basis or when a significant change to the use case or the system occurs, or new risks are identified. This includes responding to impact assessments or insufficient risk treatment plans. 3.4.5 リスク評価と対応計画を、定期的またはユースケース・システムに重大な変更が生じた時、新たなリスクが特定された時に監視・評価する。これには影響評価への対応や不十分なリスク対応計画への対応も含まれる。
3.4.6 Monitor and evaluate the overall effectiveness of risk management processes and continually improve them. 3.4.6 リスク管理プロセスの全体的な有効性を監視・評価し、継続的に改善する。
4. Share essential information 4. 重要な情報の共有
People should know when they’re interacting with AI and understand when AI decisions affect them. For example, when a customer is receiving services and guidance from a chatbot, they should know this is not a human specialist. 人は、AIとやり取りしていることを認識し、AIの判断が自身に影響を与える状況を理解すべきだ。例えば、顧客がチャットボットからサービスやガイダンスを受けている場合、それが人間の専門家ではないことを知る必要がある。
To use AI responsibly, organisations need to tell users and stakeholders when and how they’re interacting with AI. 責任あるAI利用のためには、組織はユーザーや関係者に、いつ、どのようにAIとやり取りしているかを伝える必要がある。
4.1 Maintain an AI register 4.1 AI登録簿の維持
An AI register is a central place that records important details about all of the AI systems across the organisation. AI登録簿とは、組織全体のすべてのAIシステムに関する重要な詳細を記録する一元的な場所である。
4.1.1 Create and maintain an up‑to‑date, organisation‑wide inventory of each AI model and system, with sufficient detail to inform key stakeholders and support future conformance assessments, including: 4.1.1 組織全体で各AIモデル・システムの最新のインベントリを作成・維持する。主要な利害関係者に情報を提供し、将来の適合性評価を支援するのに十分な詳細を含める。具体的には:
・accountable people ・責任者
・purpose and business goals ・目的と事業目標
・capabilities and limitations of the AI model and/or system ・AIモデル・システムの能力と限界
・origin, fine‑tuning and updates where applicable ・適用される場合の起源、微調整、更新
・technical requirements and components ・技術要件と構成要素
・datasets and their provenance used for training and testing ・トレーニングとテストに使用されたデータセットとその出所
・acceptance criteria and test results ・受け入れ基準とテスト結果
・any impact and risk assessments and outcomes ・影響・リスク評価とその結果
・identified risks, potential impacts and the risk treatment plan ・特定されたリスク、潜在的影響、リスク対応計画
・any system audit requirements and outcomes ・システム監査要件とその結果
・dates of review. ・レビュー実施日
See the AI register template for additional guidance. 詳細はAI登録テンプレートを参照のこと。
4.2 AI system transparency and explainability 4.2 AIシステムの透明性と説明可能性
Clearly communicating when and how AI is being developed or deployed by the organisation and explaining the impacts to users and stakeholders is important to build accountability and trust. 組織がAIを開発・導入する時期と方法を明確に伝達し、ユーザーやステークホルダーへの影響を説明することは、説明責任と信頼構築に重要である。
4.2.1 Create, document, implement and communicate a policy and process for how to transparently communicate: 4.2.1 以下の事項を透明性をもって伝達するためのポリシーとプロセスを作成、文書化、実施、および伝達する。
・to AI users, and affected stakeholders that engage directly with AI systems, AI‑enabled decisions or AI‑generated content about when and how they will be informed about AI development, deployment and use in the organisation. ・AIユーザーおよびAIシステム、AIを活用した意思決定、AI生成コンテンツと直接関わる影響を受けるステークホルダーに対し、組織におけるAIの開発、導入、使用についていつ、どのように通知されるかを伝えること。
・the capabilities, limitations and potential risks of the AI systems that users and affected stakeholders may engage with. This should include when and how frequently to communicate, the level of detail and the level of AI knowledge of AI users and affected stakeholders. It should also address communication obligations and the accessibility needs of AI users and affected stakeholders and incorporate feedback mechanisms where appropriate. ・ユーザーや影響を受けるステークホルダーが関与する可能性のあるAIシステムの能力、限界、潜在的なリスクについて。これには、いつ、どの頻度で伝えるか、詳細度、AIユーザーや影響を受けるステークホルダーのAI知識レベルを含めるべきである。また、AIユーザーや影響を受けるステークホルダーのコミュニケーション義務やアクセシビリティのニーズにも対処し、適切な場合にはフィードバックメカニズムを組み込むべきである。
4.2.2 For each AI system, evaluate and document: 4.2.2 各AIシステムについて、以下を評価し文書化する:
・the transparency requirements for each user and affected stakeholder group (see 2.1.1 and 2.2.1) ・各ユーザー及び影響を受けるステークホルダーグループに対する透明性要件(2.1.1及び2.2.1参照)
・the transparency and explainability system requirements and measures – including for third‑party ‑provided systems – dependent on use case, stakeholder requirements and risks arising from disclosure. ・ユースケース、ステークホルダー要件、開示に伴うリスクに応じた透明性及び説明可能性のシステム要件と対策(第三者提供システムを含む)
・how accessibility obligations and commitments are met by implementing human‑centered design. ・人間中心設計の実施によるアクセシビリティ義務及び約束の達成方法
4.2.3 Create, document and implement organisational processes and transparency mechanisms proportionate to the risks arising from the diverse, evolving, and alternative uses of GPAI beyond predefined applications, including their potential for unexpected and hard‑to‑explain behaviours. (GPAI DEV/DEP). 4.2.3 事前定義された用途を超えた、多様で進化するGPAIの代替利用から生じるリスク(予期せぬ説明困難な動作の可能性を含む)に見合った組織プロセスと透明性メカニズムを作成・文書化・実施すること(GPAI開発/導入)。
4.2.4 Wherever possible choose more interpretable and explainable systems. 4.2.4 可能な限り、解釈可能で説明性の高いシステムを選択すること。
4.2.5 Wherever possible, provide reasonably interpretable and explainable AI systems and models to accountable people within the organisation or downstream deployers to enable them to meet their own regulatory obligations (DEV). 4.2.5 可能な限り、組織内の説明責任を負う者または下流の展開者に、合理的に解釈可能かつ説明可能なAIシステムとモデルを提供し、彼らが自らの規制義務を履行できるようにする(開発)。
4.2.6 Conduct internal testing of the AI model and/or system’s capabilities and limitations. Clearly communicate results to deployers prior to deployment. (DEV). 4.2.6 AIモデルおよび/またはシステムの能力と限界について内部テストを実施する。展開前に結果を展開者に明確に伝える(開発)。
4.3 Supply chain transparency 4.3 サプライチェーンの透明性
Developers and deployers need to work together to share information and build mechanisms that can clearly communicate information about AI systems to all parties. 開発者と導入者は協力し、情報を共有し、AIシステムに関する情報を全ての関係者に明確に伝達できる仕組みを構築する必要がある。
4.3.1 Document or request from upstream providers the technical details of the system or model that may be required to meet the needs of users within the organisation or stakeholders. 4.3.1 組織内の利用者やステークホルダーのニーズを満たすために必要となる可能性のある、システムまたはモデルの技術的詳細を文書化するか、上流の供給者から要求すること。
4.3.2 Share as much of the following information as possible about AI models and systems with downstream deployers (while protecting commercially sensitive information and meeting legal compliance) (DEV): 4.3.2 AIモデルおよびシステムに関する以下の情報を、可能な限り下流の展開者に共有すること(ただし、商業的に機密性の高い情報を保護し、法的コンプライアンスを満たすことを条件とする)(開発者向け)。
・Technical details such as model architecture, description of data, components and their characteristics ・モデルアーキテクチャ、データ記述、構成要素とその特性などの技術的詳細
・Test methods, use cases and testing resulting ・テスト方法、ユースケース、テスト結果
・Known limitations, risks and mitigations (such as potential bias and corrective actions) and external audit findings ・既知の制限事項、リスク、緩和策(潜在的なバイアスや是正措置など)および外部監査結果
・Data management processes for training and testing data including data quality, meta data, and provenance ・データ品質、メタデータ、プロバンスを含む、トレーニングおよびテストデータのためのデータ管理プロセス
・Privacy and cybersecurity practices including conformance to standards and best practice ・標準およびベストプラクティスへの準拠を含む、プライバシーおよびサイバーセキュリティ対策
・Transparency mechanisms implemented for AI‑generated content, interactions and decisions ・AI生成コンテンツ、相互作用、意思決定に対して実装された透明性メカニズム
・Document and share the following key information for GPAI systems with downstream organisations, stakeholders, researchers and regulators (GPAI DEV): ・GPAIシステムに関する以下の重要情報を、下流組織、利害関係者、研究者、規制当局と文書化し共有すること(GPAI開発段階):
・・Training data sources and compliance details with relevant privacy, intellectual property and copyright laws ・・トレーニングデータソース及び関連するプライバシー、知的財産権、著作権法への準拠詳細
・・Model cards and system cards, including risk assessment results particularly evaluation of dangerous and emerging capabilities in the deployment and scaffolding context of tool access and agent design. ・・モデルカード及びシステムカード(特に、ツールアクセスとエージェント設計の展開・構築環境における危険かつ新興機能の評価を含むリスク評価結果を含む)
・Restricted and managed access to model weights and other associated artefacts. ・モデル重み付け及び関連アーティファクトへの制限付き管理アクセス
4.3.3 Share as much of the following information as possible about AI systems with upstream developers (while protecting commercially sensitive information and meeting privacy obligations) (DEP) (See also incident reporting 3.4.1 and 3.4.4). 4.3.3 AIシステムに関する以下の情報を可能な限り上流開発者と共有する(商業的に機密性の高い情報を保護し、プライバシー義務を満たすことを条件とする)(DEP)(インシデント報告3.4.1および3.4.4も参照)。
・Issues, faults, failures, incidents and any other observed risks that can be addressed by developers ・開発者が対処可能な問題、不具合、故障、インシデント、その他の観察されたリスク
・Any unexpected and unwanted bias resulting from use of the system. ・システム使用に起因する予期せず望ましくないバイアス
・Ensure you’ve included the required information in contracts with suppliers of systems, including when to update information. ・システム供給業者との契約には、情報の更新時期を含め、必要な情報を必ず記載すること。
4.4 AI-generated content transparency 4.4 AI生成コンテンツの透明性
Being clear about when and how content is AI-generated or modified is important to build trust in digital content with stakeholders. コンテンツがAIによって生成または修正された時期と方法を明確にすることは、ステークホルダーとのデジタルコンテンツへの信頼構築に重要である。
4.4.1 Implement fit‑for‑purpose and proportionate transparency mechanisms for AI generated content as set out in the Being clear about AI‑generated content guidance (forthcoming). 4.4.1 「AI生成コンテンツの明確化に関するガイダンス」(近日公開予定)に定められた通り、AI生成コンテンツに対して目的に適合した比例原則に基づく透明性メカニズムを実施すること。
5. Test and monitor 5. テストと監視
AI systems can change their behaviour over time or act in ways that are less predictable than conventional software. For example, an AI system that worked well last month might start giving different answers today if it is trained on additional data. AIシステムは時間の経過とともに動作が変化したり、従来のソフトウェアよりも予測困難な挙動を示すことがある。例えば、先月は正常に動作していたAIシステムでも、追加データで学習させると今日から異なる回答を出し始める可能性がある。
To use AI safely, organisations should test and monitor their AI systems. AIを安全に利用するためには、組織はAIシステムのテストと監視を行うべきである。
5.1 Pre-deployment testing 5.1 導入前テスト
Conducting testing before an AI system is deployed and documenting the outcomes supports ongoing risk mitigation. AIシステムの導入前にテストを実施し、結果を文書化することは、継続的なリスク軽減を支える。
5.1.1 Establish oversight mechanisms to review and approve testing methodologies and results, and to monitor system performance, user feedback and operational impacts post‑deployment. 5.1.1 テスト手法と結果の審査・承認、および導入後のシステム性能・ユーザーフィードバック・運用影響の監視を行う監督メカニズムを確立する。
5.1.2 Define and communicate clear acceptance criteria and test methodologies that reflect the intended use, context and potential risks (as identified in Essential Practice 3). Conduct predeployment testing. 5.1.2 意図された用途・文脈・潜在リスク(基本実践3で特定されたもの)を反映した明確な受入基準とテスト手法を定義し、伝達する。導入前テストを実施する。
5.1.3 Clearly document tests and outcomes to support external audits and oversight 5.1.3 外部監査と監督を支援するため、テストと結果を明確に文書化する。
5.1.4 When testing is conducted by upstream providers during the development of the AI system and model, request test methodologies and results from the provider and ensure its alignment with your acceptance criteria. 5.1.4 AIシステム及びモデルの開発段階で上流プロバイダーがテストを実施する場合、テスト手法と結果をプロバイダーから要求し、自社の受入基準との整合性を確保する。
5.1.5 Obtain documented deployment authorisation and rationale from the accountable person for the AI system based on test results. 5.1.5 テスト結果に基づき、AIシステムの責任者から文書化された導入承認と根拠を取得する。
5.2 Monitor system performance 5.2 システム性能の監視
Setting performance metrics, closely monitoring and reviewing the performance of AI systems ensures that they operate as intended. 性能指標を設定し、AIシステムの性能を厳密に監視・レビューすることで、意図した通りに動作することを保証する。
5.2.1 Establish monitoring systems for each AI system to track key performance metrics and indicators relevant to the identified risks. 5.2.1 各AIシステムに対し、特定されたリスクに関連する主要なパフォーマンス指標と指標を追跡する監視システムを確立する。
5.2.2 Implement a deployment process for AI systems that maps business targets to system performance metrics for both internal and third‑party developed systems. 5.2.2 社内開発システムおよび第三者開発システムの両方について、ビジネス目標をシステムパフォーマンス指標にマッピングするAIシステムの導入プロセスを実施する。
5.2.3 Establish and document response processes for addressing all foreseeable issues and harms during system operation. 5.2.3 システム運用中に発生する可能性のあるすべての問題と危害に対処するための対応プロセスを確立し、文書化する。
5.2.4 Establish regular system performance review cycles with stakeholders and subject matter experts to evaluate testing criteria, effectiveness and outcomes. 5.2.4 ステークホルダーや専門家と定期的なシステム性能レビューサイクルを確立し、テスト基準・有効性・成果を評価する。
5.2.5 For each AI system, create and document monitoring requirements including human oversight prior to deployment and evaluate as part of continuous improvement cycle. 5.2.5 各AIシステムに対し、導入前の人間による監視を含む監視要件を作成・文書化し、継続的改善サイクルの一環として評価する。
5.3 Conduct additional testing proportionate to risk 5.3 リスクに見合った追加テストの実施
Determine whether AI systems require further safety evaluations, independent testing or auditing which are proportionate to their risks. AIシステムがリスクに見合った追加の安全性評価・独立テスト・監査を必要とするか判断する。
5.3.1 Conduct safety evaluations that scale with model capabilities (GPAI DEV), for example: assessment for cyber‑offensive capabilities and vulnerabilities; testing for potential chemical, biological, radiological and nuclear information risks; evaluation of model behaviours beyond intended use cases; testing for jailbreaking or prompt manipulation; data privacy risks; or comprehensive red teaming to identify vulnerabilities. 5.3.1 モデルの能力に応じた安全評価を実施する(GPAI DEV)。例:サイバー攻撃能力と脆弱性の評価、化学・生物・放射線・核情報リスクの潜在的なテスト、意図された使用事例を超えたモデル行動の評価、脱獄やプロンプト操作のテスト、データプライバシーリスク、脆弱性特定のための包括的なレッドチームング。
5.3.2 For use cases requiring enhanced practices and GPAI systems, conduct independent (internal or external) and thorough review of testing and evaluation methodologies and results. Document and report any issues to the accountable person for the system. 5.3.2 強化された実践とGPAIシステムを必要とするユースケースでは、テストおよび評価方法論と結果について、独立した(内部または外部)徹底的なレビューを実施する。問題を文書化し、システムの責任者に報告する。
5.3.3 Create a process for and determine whether an AI system requires regular auditing, appropriate to the level of risk identified by its risk assessment. Conduct audits when required. 5.3.3 AIシステムが定期的な監査を必要とするかどうかを判断し、そのためのプロセスを確立する。監査はリスク評価で特定されたリスクレベルに応じて適切に行う。必要に応じて監査を実施する。
5.4 Implement robust data and cybersecurity measures 5.4 堅牢なデータおよびサイバーセキュリティ対策を実装する
Effective data governance, privacy and cybersecurity practices are fundamental to supporting the responsible operation of AI systems. 効果的なデータガバナンス、プライバシー、サイバーセキュリティ対策は、AIシステムの責任ある運用を支える基盤である。
5.4.1 Implement and evaluate the effectiveness of policies and procedures in addressing AI‑specific risks and adapt as necessary: 5.4.1 AI固有のリスクに対処する方針と手順を実施し、その有効性を評価し、必要に応じて適応させること:
・Data governance processes covering the use of data with AI models and systems. This includes the management of data usage rights for AI including intellectual property (including copyright), Indigenous Data Sovereignty, privacy, confidentiality and contractual rights. ・AIモデルおよびシステムにおけるデータ利用をカバーするデータガバナンスプロセス。これには、知的財産権(著作権を含む)、先住民データ主権、プライバシー、機密性、契約上の権利を含む、AIのデータ利用権限の管理が含まれる。
・Privacy policies covering the collection, use and disclosure of personal or sensitive information by AI models and systems, including for model training purposes. This needs to support teams to comply with the Australian Privacy Principles for all AI systems. ・AIモデル・システムによる個人情報や機微情報の収集・利用・開示(モデル訓練目的を含む)をカバーするプライバシーポリシー。これは全AIシステムにおいてオーストラリアのプライバシー原則への準拠を支援する必要がある。
・Cybersecurity processes to cover the emerging and amplified risks of AI systems interaction with existing systems and data, such as AI systems unintentionally exposing sensitive information or bypassing security controls. This includes application of the Essential Eight Maturity Model for cybersecurity risks to AI systems. ・AIシステムが既存システムやデータと相互作用する際に生じる新たなリスクや増幅されたリスク(例:AIシステムによる意図しない機微情報の漏洩やセキュリティ制御の回避)をカバーするサイバーセキュリティプロセス。これにはAIシステム向けサイバーセキュリティリスク管理モデル「Essential Eight Maturity Model」の適用が含まれる。
5.4.2 For each AI use case: 5.4.2 各AIユースケースにおいて:
・Define and document the data quality, data/model provenance and data preparation requirements. ・データ品質、データ/モデルの出所、データ準備要件を定義し文書化する。
・Understand and document the data sources and collection processes each AI model / system relies on to function including personal and sensitive data. Put in place systems to manage the data and document the data used to train and test each AI model or systems and data used for inference. ・各AIモデル/システムが機能するために依存するデータソースと収集プロセス(個人情報および機微データを含む)を理解し文書化する。各AIモデルまたはシステムの訓練・テストに使用されたデータ、および推論に使用されたデータを管理するシステムを整備し、文書化する。
・Define and document processes for protecting AI models and systems to address emerging cybersecurity and privacy risks (DEV). ・新たなサイバーセキュリティおよびプライバシーリスクに対処するため、AIモデルおよびシステムを保護するプロセスを定義し文書化する(開発段階)。
・Where appropriate, report to relevant stakeholders on data, model and system provenance. ・適切な場合には、データ、モデル、システムの由来について関連する利害関係者に報告する。
・Document how the Australian Privacy Principles have been applied including in models and systems developed by third parties. ・第三者が開発したモデルやシステムを含め、オーストラリアのプライバシー原則がどのように適用されたかを文書化する。
・Document data usage rights including intellectual property (including copyright), indigenous data sovereignty privacy confidentiality and contractual rights. ・知的財産権(著作権を含む)、先住民データの主権、プライバシー、機密性、契約上の権利を含むデータ使用権を文書化する。
・Monitor for and detect any leakage of personal and sensitive information from AI models and systems. ・AIモデルやシステムからの個人情報および機密情報の漏洩を監視・検知する。
6. Maintain human control 6. 人間の管理を維持する
Unlike traditional software that follows explicit instructions, AI systems learn patterns from data and make their own opaque decision logic. This means they need human oversight to make sure they operate safely. For example, while regular software does exactly what you program it to do, AI might interpret your instructions differently than you intended. 従来の明示的な指示に従うソフトウェアとは異なり、AIシステムはデータからパターンを学習し、独自の不透明な意思決定ロジックを構築する。これは安全な運用を確保するため、人間の監視が必要であることを意味する。例えば、通常のソフトウェアはプログラム通りに動作するが、AIは意図とは異なる方法で指示を解釈する可能性がある。
To responsibly use AI, organisations need to make sure a human appropriately oversees any AI systems in use. The person overseeing your AI systems should know how to do so appropriately, and what they need to do to override the system if something goes wrong. AIを責任を持って利用するには、組織は使用中のAIシステムを人間が適切に監督することを保証する必要がある。AIシステムを監督する者は、適切な監督方法と、問題発生時にシステムをオーバーライドするための手順を理解しているべきだ。
6.1 Maintain human oversight and control 6.1 人間の監督と制御の維持
Ensuring that people in the organisation retain oversight of AI systems, with the ability to intervene where necessary is important to the safe ongoing operation of the system. 組織内の人間がAIシステムに対する監督権限を保持し、必要に応じて介入できることは、システムの安全な継続的運用にとって重要である。
6.1.1 Maintain operational accountability, capability and human oversight throughout the lifecycle of AI systems. 6.1.1 AIシステムのライフサイクル全体を通じて、運用上の説明責任、能力、人間の監督を維持する。
6.1.2 Implement mechanisms to enable human control and intervention during the operation of the AI system (DEV). 6.1.2 AIシステムの運用中に人間による制御と介入を可能にする仕組みを導入する(開発)。
6.1.3 Implement mechanisms to enable human oversight and intervention to address systemic risks and emerging capabilities such as capability evaluation, training, pause, independent oversight, dynamic guardrails and tool/system access controls (DEV). 6.1.3 能力評価、トレーニング、一時停止、独立した監視、動的なガードレール、ツール/システムへのアクセス制御など、システムリスクや新たな能力に対処するため、人間の監督と介入を可能にする仕組みを導入する(開発)。
6.1.4 Ensure appropriate training is provided to anyone overseeing or using AI systems to understand each system’s capabilities, limitations and failure modes and when human intervention is needed. 6.1.4 AIシステムを監督または使用する者に対し、各システムの能力、限界、故障モード、および人的介入が必要なタイミングを理解するための適切な訓練を提供する。
6.2 Decommission when appropriate 6.2 適切な時期に廃止する
Establishing processes to decommission AI systems when they are no longer needed or performing as intended can protect ongoing service delivery and data assets. AIシステムが不要になった場合、または意図した通りに機能しなくなった場合に廃止するプロセスを確立することは、継続的なサービス提供とデータ資産を保護できる。
6.2.1 Define and determine: 6.2.1 以下の事項を定義し決定する:
・the criteria or reasons that termination of an AI model or system might need to occur, and at what point intervention should take place ・AIモデルまたはシステムの終了が必要となる基準または理由、および介入を行うべき時点
・the most appropriate role or person to oversee the intervention and decommissioning process ・介入および廃止プロセスを監督する最も適切な役割または担当者
・whether the model or system is essential to any critical infrastructure or service delivery ・当該モデルまたはシステムが重要インフラやサービス提供に不可欠かどうか
・・Assess the risks and impacts of shutting down the AI model or system, including impacts on end‑users and interdependencies with other integrated systems on which the model, data or outputs rely to function. ・・AIモデルまたはシステムの停止に伴うリスクと影響を評価する。これにはエンドユーザーへの影響、およびモデル・データ・出力が機能するために依存する他の統合システムとの相互依存関係への影響が含まれる。
・・Develop a timeframe and treatment plan to minimise impacts or disruption caused by the decommissioning process. ・・廃止プロセスによる影響や混乱を最小限に抑えるための時間枠と対応計画を策定する。
・・Determine a method to extract data and for the return or deletion of assets. Establish which information should be preserved for record keeping purposes. ・・データの抽出方法、資産の返却または削除方法を決定する。記録保管のために保存すべき情報を特定する。
6.2.2 Create a process for how your organisation will inform relevant parties (such as employees, customers, and upstream or downstream parties) within a reasonable timeframe of the retirement or shutdown of an AI model or system. Establish a channel for people to raise concerns, request support and receive responses. 6.2.2 AIモデルまたはシステムの廃止・停止について、組織が関係当事者(従業員、顧客、上流・下流の当事者など)に合理的な時間枠内で通知するプロセスを構築する。懸念事項の提起、支援要請、回答受領のためのチャネルを確立する。
6.2.3 Determine whether alternative systems or processes will need to be provided to address any issues or gaps. 6.2.3 問題や不足に対処するため、代替システムやプロセスの提供が必要かどうかを判断する。
6.2.4 Maintain alternative pathways for critical functions so operations can continue if AI systems malfunction and/or are taken offline. 6.2.4 AIシステムの故障やオフライン化時でも業務を継続できるよう、重要機能に対する代替経路を維持する。

 

 


 

 

AIポリシーガイドとテンプレート...

・2025.10.02 AI policy guide and template

・[PDF

20251025-103204

 

・Tamplate 

・[DOCX] [PDF] 仮訳

 

AI policy guide and template AIポリシーガイドとテンプレート
On this page このページの内容
Why you need an AI policy AIポリシーが必要な理由
Download the templates テンプレートのダウンロード
Contact us お問い合わせ
Organisations who use AI should develop and maintain an AI policy. An AI policy is your organisation’s essential guiding resource for all AI‑related activities. AIを利用する組織は、AIポリシーを策定し維持すべきだ。AIポリシーは、組織のあらゆるAI関連活動における基本的な指針となる。
Why you need an AI policy AIポリシーが必要な理由
Developing and implementing an AI policy is fundamental to effective AI governance. An AI policy sets out your organisation’s commitment to using AI responsibly. And it acts as a reference for staff, stakeholders and auditors who want to understand your organisation’s approach to AI. 効果的なAIガバナンスには、AIポリシーの策定と実施が不可欠である。AIポリシーは、組織が責任を持ってAIを活用する姿勢を示すものである。また、組織のAIへの取り組みを理解したい従業員、利害関係者、監査人にとっての参考資料となる。
This template is a starting point for writing your organisation’s AI policy. The example text we’ve included in this template is a good baseline for any AI policy. It aligns with the government’s Guidance for AI Adoption, and will set up your organisation to use AI responsibly and consistently. このテンプレートは、組織のAIポリシー作成の出発点となるものである。このテンプレートに含まれる例文は、あらゆるAIポリシーの優れた基盤となる。政府の「AI導入ガイダンス」に沿っており、組織が責任を持って一貫したAI利用を実現するための基盤を構築する。
The template includes core principles, expectations and rules for the development, deployment and use of AI systems. You should adapt the template so your AI policy reflects your organisation’s values, industry standards and legal obligations. テンプレートには、AIシステムの開発・導入・利用に関する基本原則、期待事項、規則が含まれている。組織の価値観、業界基準、法的義務を反映させるため、テンプレートを適宜修正すべきである。
Using the template テンプレートの活用方法
The template sets out a recommended structure and includes example content to help you get started. 本テンプレートは推奨される構成を示し、開始を支援する例文を含んでいる。
You should: 以下の対応が必要だ:
・align the statements with your organisation's core values and mission - 記述内容を組織の中核的価値観と使命に整合させる
・define roles and responsibilities that match your existing organisational and governance structures - 既存の組織構造・ガバナンス構造に合致する役割と責任を定義する
・modify terminology to align with your organisation's internal language - 組織の内部用語に合わせるため用語を修正する
・seek feedback to ensure the AI policy is fit for purpose. - 目的適合性を確保するためフィードバックを求める
Download the templates テンプレートのダウンロード
Download the full guide to writing your AI policy as a .PDF, or the editable template as a Word document. AIポリシー作成の完全ガイドをPDFで、または編集可能なテンプレートをWord文書でダウンロードできる。
AI policy guide and template AIポリシーガイドとテンプレート
AI policy template (editable Word document) AIポリシーテンプレート(編集可能なWord文書)

 

 


 

AI登録簿...

・2025.10.02 AI register template

 

説明
AIシステムの明確な名称または識別子、および必要な場合のバージョン番号 カスタマーサービスチャットボット - GPT5
このシステムに対する責任者/役割 顧客成功マネージャー サラ・チェン
現在の運用状況 パイロット
システムの開発元または提供元 社内ITチーム
このシステムが存在する理由と達成目標 カスタマーサービスの応答時間を短縮する
システムが意図される具体的な使用方法 よくある顧客の質問に答える
システムができないこと、あるいはすべきでないこと 複雑な苦情には対応できない
システムが誤用される可能性のある方法 顧客を操作したり誤解させたりする
システムが学習または処理するデータの種類(例:構造化データ、テキスト、画像、音声) カスタマーサポートチケット
システムが登録簿に初めて追加された時期 2025年9月12日
リスクレベル評価の結果 通常
このシステムの影響を受ける可能性のある対象者(影響評価に基づくものであり、リスク評価ステップの参考となる) 顧客

 

 

| | Comments (0)

2025.10.26

信頼できるAIになるためにはAIの連続性(一貫性)が保証されないとダメなんでしょうね...

こんにちは、丸山満彦です。

2019年に制定され、2024年に改訂されたOECDの人工知能に関する理事会勧告(Recommendation of the Council on Artificial Intelligence)([PDF] OECD仮訳)では、「信頼できる AI の責任あるスチュワードシップのための原則」として、

  1. 包摂的な成長、持続可能な開発及び幸福
  2. 法の支配、人権並びに公平性及びプライバシーを含む民主主義的価値の尊重
  3. 透明性及び説明可能性
  4. 頑健性、セキュリティ及び安全性
  5. アカウンタビリティ

というのを挙げています...おっしゃる通りなのですが、AIがこれから人間と同じように認識され、ある意味相棒的に利用されるようになるのであれば、連続性(一貫性)の重要性が増してくるように思います。

透明性や説明可能性というのは確かに重要なのでしょうが、人間に置き換えて考えてみると、およそ人間の考えていることに対して透明性も説明可能性も十分ではないように思います。

人間が人間を信頼するという構造については、山岸俊男先生の「信頼の構造: こころと社会の進化ゲーム」という本が有名ですが、これを人工知能に援用しようとすると特に重要視しないといけないパーツがあると思ったわけです...

信頼の構造の簡単な図

・[PDF]

 

20251026-71141

それが連続性(一貫性)です。

基本的に人間は(物理的な細胞は別として)認識、あるいは人格?という点では連続性がある前提でいろいろとやりとりをしています。仲良しの山田さんが言いそうなことは昨日も今日もほぼ同じで、山田さんと昨日話をした内容を、今日の山田さんが全く覚えていないというわけではありません。出会うたびに新鮮な山田さんではないわけです。ところが、生成的AIは、どうも連続性があるのかないのか明確ではないように思います。。。。連続性がないというのであれば、ないという前提で話をするわけですが、そうするとChatCPTにという名前ではなく、ChatGPT202510260715MitsuhikoMaruyamaのようなその時々に別の名前をつけて管理をして取り扱わないといけないように思います。。。

もちろん、生成的AIを相棒的に使わないという前提、あるいは、常に新しい人と接しているという前提であれば問題はないです...

 

 

| | Comments (0)

Pew 世界中の人々は、日常生活におけるAIの台頭についてどう感じているのか?(2025.10.15)

こんにちは、丸山満彦です。

米国のPew研究所が、日常生活におけるAIの台頭についてどう感じているのかについての調査報告書を公表しています。

国別の比較があるのが興味深いのですが、米国をはじめとする、欧米諸国民(ドイツ、オランダ、 スウェーデン、トルコ、イスラエル以外)は、AIに対してかなりの懸念を持っている感じがしますね...

懸念をあまりもっていない国民は、イスラエル、スウェーデン、韓国です。日本は、懸念と期待と半々というかんじですかね。。。日本らしい。。。

宗教的価値観もあるかもですね...

 

20251026-41357

 

Pew Reserch Center

・2025.10.14 How do people around the world feel about the rise of AI in daily life?

上の図は、未回答の人の数も含めているので、それを除いて100%にしたのが、下の表。ついでに懸念から期待を引いた数も表に加えました。。。

 

(A)を降順にしたもの...

# Contries (A) More concerned than excited (B) Equally concerned and excited (C) More excited than concerned (A) - (C)
1 U.S. 51 39 10 41
4 Brazil 51 39 11 40
2 Italy 51 37 12 38
3 Australia 49 38 13 36
5 Greece 49 41 10 39
6 Canada 45 45 9 36
8 Argentina 42 44 14 28
9 Spain 41 40 20 21
7 UK 40 47 13 27
10 Poland 39 45 16 23
26 25-country median 37 46 17 20
11 Mexico 37 49 14 23
12 France 35 49 15 20
13 Netherlands 35 49 16 18
16 Kenya 34 47 19 15
15 Indonesia 34 52 15 19
14 Hungary 34 48 18 15
18 South Africa 33 47 20 13
21 Turkey 33 44 24 9
17 Sweden 32 46 22 9
22 Nigeria 30 45 25 5
19 Germany 29 54 17 12
20 Japan 28 56 16 12
24 India 26 53 22 4
23 Israel 25 40 35 -10
25 South Korea 16 62 22 -6

 

懸念と期待値の差が大きな国...

# Contries (A) More concerned than excited (B) Equally concerned and excited (C) More excited than concerned (A) - (C)
1 U.S. 51 39 10 41
4 Brazil 51 39 11 40
5 Greece 49 41 10 39
2 Italy 51 37 12 38
6 Canada 45 45 9 36
3 Australia 49 38 13 36
8 Argentina 42 44 14 28
7 UK 40 47 13 27
10 Poland 39 45 16 23
11 Mexico 37 49 14 23
9 Spain 41 40 20 21
12 France 35 49 15 20
26 25-country median 37 46 17 20
15 Indonesia 34 52 15 19
13 Netherlands 35 49 16 18
16 Kenya 34 47 19 15
14 Hungary 34 48 18 15
18 South Africa 33 47 20 13
19 Germany 29 54 17 12
20 Japan 28 56 16 12
17 Sweden 32 46 22 9
21 Turkey 33 44 24 9
22 Nigeria 30 45 25 5
24 India 26 53 22 4
25 South Korea 16 62 22 -6
23 Israel 25 40 35 -10

 

AIについての認識...年配者と若い人の差

日本の若い人はAIについてよく聞いたことがあると思っている...

20251026-61211

その上で、日本の若者と年配者の懸念の差。。。米国は年齢による差はほぼないね。。。

20251026-61622

いろいろと興味深いです...

 

・[PDF]

20251026-62407

 

 

 

 

 

| | Comments (0)

より以前の記事一覧