ロボット

2026.01.05

米国 CSET 中国武漢の人工知能開発:汎用人工知能(AGI)に向けた中国の新たな跳躍台 (2025.05)

こんにちは、丸山満彦です。

昨年やり残していたことをしばらく...サイバー空間と新興技術に関する安全保障政策を主導する組織である米国のワシントンDCにあるCenter for Security and Emerging Technology:CSET(安全保障・新興技術センター)[wikipedia]から公表されている報告書をいくつか紹介します... 

中国の武漢市が、汎用人工知能(AGI)を実現するための国家的な実験場(テストベッド)として急速に台頭しているようですね...現在、世界のAI開発は大規模言語モデル(LLM)の規模拡大が主流だが、中国はそれとは異なる「身体性(Embodiment)」というアプローチを戦略的に採用していますよね...

これは、AIをデジタル空間に閉じ込めるのではなく、物理的な産業現場や複雑な社会システムの中に「身体性」を持たせて配置し、現実世界との相互作用を通じて知能を自己進化させる手法ですよね...

武漢市は、この野心的な試みを都市規模で実行するためのインフラ、研究機関、産業エコシステムを備えているということのようです...

社会実装のシュミレーター...西欧文化の価値観では実現しずらいことを考えているような気はします...

上海、北京だけでなく、広く中国でAI開発が加速しているのですかね...

CSET

・2025.05 Wuhan’s AI Development: China’s Alternative Springboard to Artificial General Intelligence (AGI)

Wuhan’s AI Development 武漢の人工知能開発
China’s Alternative Springboard to Artificial General Intelligence (AGI) 汎用人工知能(AGI)に向けた中国の新たな跳躍台
Wuhan, China’s inland metropolis, is paving the way for a nationwide rollout of “embodied” artificial intelligence meant to fast-track scientific discovery, optimize production, streamline commerce, and facilitate state supervision of social activities. Grounded in real-world data, the AI grows smarter, offering a pathway to artificial “general” intelligence that will reinforce state ideology and boost economic goals. This report documents the genesis of Wuhan’s AGI initiative and its multifaceted deployment. 中国内陸部の大都市・武漢は、科学的発見の加速、生産の最適化、商業の効率化、そして社会活動に対する国家監視の促進を目的とした「具現化された」人工知能の全国展開に向けた道筋を整備している。現実世界のデータに基づき、このAIはより賢くなり、国家イデオロギーを強化し経済目標を推進する人工「汎用」知能への道筋を提供する。本報告書は武漢の汎用人工知能(AGI)構想の起源とその多面的な展開を記録するものである。

・[PDF]

20260104-92841

・[DOCX][PDF] 仮訳

 

目次...

Executive Summary エグゼクティブサマリー
Introduction 序論
Large Computing Centers 大規模計算センター
AI Research Institutes AI研究機構
The AI Industry Chain 人工知能産業チェーン
Wuhan’s AGI Initiatives 武漢の汎用人工知能(AGI)構想
Values and Embodiment 価値観と身体性
Recommendations 提言
Authors 著者
Acknowledgements 謝辞
Appendix 附属書
Endnotes 脚注

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
DeepSeek’s emergence as a successful generative model—a niche where the United States was believed to hold an uncontested lead—is causing global artificial intelligence watchers to reassess China’s standing in the race toward artificial general intelligence (AGI) and pay closer attention to China’s AI research and deployment.  DeepSeekが成功した生成モデルとして登場したことで、米国が圧倒的な優位性を保っていると信じられていた分野において、世界の人工知能ウォッチャーは人工汎用知能(AGI)への競争における中国の立場を再評価し、中国のAI研究と展開により注目するようになった。 
While large models continue to account for a significant part of its AI investment, China’s top state-funded AI institutes are exploring alternative approaches to AGI that involve embodying AI algorithms in real environments. Imbued with the Chinese Communist Party’s pre-defined values, the AI interacts with its natural surroundings, learning as it proceeds.  大規模モデルへの投資が依然としてAI投資の大部分を占める一方で、中国の主要な国費支援AI機構は、AIアルゴリズムを実環境へ組み込むというAGIへの代替アプローチを模索している。中国共産党が予め定義した価値観を内包したAIは、自然環境と相互作用しながら学習を進めていく。 
The test bed for this proactive approach to AGI is China’s inland city of Wuhan, where the Chinese Academy of Sciences’ (CAS) Institute of Automation, Huawei, and a Peking University consortium are infusing the city’s industrial and commercial enterprises with AI services and deploying a “social simulator” that expands AI’s reach to all aspects of daily life.  この積極的なAGIアプローチの実験場となっているのが中国内陸部の都市・武漢だ。中国科学院自動化研究所、ファーウェイ、北京大学コンソーシアムが連携し、同市の産業・商業エンタープライズにAIサービスを導入するとともに、日常生活のあらゆる側面にAIの適用範囲を広げる「社会シミュレーター」を展開している。 
The intent is to optimize production and supervise social interaction while affording the AI opportunities to become more intelligent, catalyzing its evolution into AGI. The Wuhan implementation is seen by its state-backed entities as a stepping stone to deployment throughout China, raising questions about the type of technosociety with which the United States needs to compete.  その目的は、生産を最適化し社会的な相互作用を監督すると同時に、AIがより賢くなる機会を与え、汎用人工知能(AGI)への進化を促進することにある。武漢での実施は、国が支援する事業体によって中国全土への展開への足がかりと見なされており、米国が競争すべき技術社会(テクノソサエティ)の形態について疑問を投げかけている。 

 

提言...

Recommendations  提言
Technology initiatives meant for nationwide deployment typically begin in China with local, proof-of concept “demonstrations” (示范) or “model” (模范) projects, and Wuhan has served as the starting point for such in at least two other cases.80 If the Wuhan AGI project succeeds, or is seen to show promise, we can expect the Beijing government to follow through with its plan to deploy the system elsewhere in China. We recommend this process be closely monitored given its importance and potential challenges.  全国展開を目的とした技術イニシアチブは、中国では通常、地域レベルでの概念実証「デモンストレーション」(示范)または「モデル」(模范)プロジェクトから始まる。武漢は少なくとも他の2件の事例において、こうした取り組みの出発点として機能してきた。(80) 武漢のAGIプロジェクトが成功するか、あるいは有望と見なされれば、北京政府が中国国内の他地域へのシステム展開計画を推進することが予想される。 このプロセスは重要かつ潜在的な課題を抱えているため、厳重な監視が必要だ。 
This recommendation is a microcosm of the authors’ standing plea for the United States and its allies to devote serious resources to track China’s technological progress in general, as our national insight falls far short of Beijing’s comprehensive understanding of foreign scientific trends.81   この提言は、米国の国家的な洞察力が北京の外国科学動向に対する包括的理解に遠く及ばない現状を踏まえ、米国とその同盟国が中国の技術進歩全般を追跡するために真剣な資源を投入すべきだという著者らの常なる訴えの縮図である。81
Beyond the obvious need to assess—and forecast—China’s technology initiatives, there may be lessons to learn from China; in particular, its support for alternative approaches to AGI and early infusion of AI into industry and society.  中国の技術イニシアチブをアセスメント・予測する必要性は言うまでもないが、中国から学ぶべき教訓もある。特に、汎用人工知能(AGI)への代替アプローチ支援や、産業・社会へのAI早期導入といった点だ。 
China’s commitment to multiple paths to AGI—a theme the present authors have emphasized in prior reporting82—was restated in the NSFC’s “Guide to the 2025 Annual Projects,” both in a general sense (“developing a system of new AI methods”) and in multiple categories that describe alternative AGI approaches beyond the large generative models that occupy nearly all of western AI developers’ and policymakers’ attention.83  中国がAGI達成に向けた複数経路を追求する姿勢——本稿の筆者が過去の報告で強調してきたテーマである82——は、NSFCの「2025年度プロジェクト実施要領」において再確認された。これは一般的な文脈(「新たなAI手法体系の開発」)だけでなく、西洋のAI開発者や政策立案者の関心のほぼ全てを占める大規模生成モデルを超えた、代替AGIアプローチを記述する複数のカテゴリーにおいても明示されている。83
Finally, China’s well-known penchant for operationalizing technical breakthroughs84— seen here in its roll-out of public-facing AI initiatives to bolster scientific research and optimize commerce and production—could serve if not as a model then as a stimulus for U.S. efforts to revitalize our own domestic industry by infusing it with AI.85 While focusing on AI safety and the dangers of weaponization, we should also keep in mind the real possibility of being out-competed by a country that moves more quickly and decisively to realize the promises that AI offers.  最後に、中国が技術的ブレークスルーを実用化する傾向84は、科学研究の強化や商業・生産の最適化を目的とした公共向けAIイニシアチブの展開に見られる通り、米国が自国の産業をAIで活性化させる取り組みにおいて、モデルとは言えなくとも刺激となる可能性がある。85 AIの安全性や兵器化の危険性に焦点を当てる一方で、AIが約束する可能性をより迅速かつ断固として実現する国に競争で敗れる現実的な可能性も念頭に置くべきだ。 

 

 

 


 

●  まるちゃんの情報セキュリティ気まぐれ日記

・2026.01.05 米国 CSET 中国武漢の人工知能開発:汎用人工知能(AGI)に向けた中国の新たな跳躍台 (2025.05)

・2026.01.05 米国 CSET 中国の「軍民融合」のベールを剥ぐ:人民解放軍はいかにして戦略的優位のために民間のAIを動員するのか (2025.09)

・2026.01.04 米国 CSET 中国の身体性AI (2025.12)

 

 

| | Comments (0)

2026.01.04

米国 CSET 中国の身体性AI (2025.12)

こんにちは、丸山満彦です。

昨年やり残していたことをしばらく...サイバー空間と新興技術に関する安全保障政策を主導する組織である米国のワシントンDCにあるCenter for Security and Emerging Technology:CSET(安全保障・新興技術センター)[wikipedia]から公表されている報告書をいくつか紹介します... 

 

中国が「身体性AI(Embodied AI)」を汎用人工知能(AGI)達成のための最重要かつ戦略的な経路として位置づけ、国家を挙げて推進していると報告していますね...

AGIの達成について、欧米(日本も?)が大規模言語モデル(LLM)のスケールアップで望む一方で、中国は知能の本質を「身体・脳・環境の相互作用」に見出し、LLMの限界(現実感の欠如や推論の脆弱性)を身体性によって克服しようとしていますね...

この中国のアプローチは、経済の自動化とAGI実現を同時に狙うものであり、米国とその同盟国は、中国がこの「身体性」という新たなパラダイムを通じてAI分野の覇権を握る可能性を警戒し、自国の研究戦略を多角化すべきだと警告していますね...

中国で人型ロボットがいろいろと芸を披露したり、人と同じように仕事をこなす様子が動画で流れたりしていますが、背景としてこういう研究の考え方があるのでしょうね...

日本も文化的には身体性AIのほうが馴染むのではないかと思いますが(鉄腕アトムやドラえもん...)、そっちに向かうというのはないのでしょうかね...

参考になることが多くあるように思います...

 

 

CSET

・2025.12 China’s Embodied AI: A Path to AGI

China’s Embodied AI: A Path to AGI 中国の身体性AI
China is embracing “embodied AI”—artificial intelligence integrated with physical agents, such as robots and drones—both for commercial reasons and as a path to artificial general intelligence (AGI). The trend reflects China’s signature approach to AI, which recognizes diverse paths to AI dominance vis-à-vis the large models favored in the United States. This report documents PRC support for AI embodiment, describes how it is understood by China’s research community, and maps out the related infrastructure. 中国は「身体性AI」——ロボットやドローンといった物理的エージェントと統合された人工知能——を商業的理由と汎用人工知能(AGI)への道筋として積極的に取り入れている。この傾向は、米国が重視する大規模モデルとは異なる多様なAI優位性への道筋を認める、中国特有のAIアプローチを反映している。本報告書は、中国政府によるAI具現化への支援を検証し、中国の研究コミュニティにおけるその理解を説明し、関連インフラを明らかにするものである。

 

 

 

・[PDF

20260103-112737

・[DOCX][PDF] 翻訳

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
This report examines China’s embrace of embodied AI—artificial intelligence integrated with physical systems (robots, drones, vehicles, etc.)—as a critical pathway toward artificial general intelligence (AGI).  本報告書は、中国が汎用人工知能(AGI)への重要な道筋として、身体性AI(物理システム(ロボット、ドローン、車両など)と統合された人工知能)を採用していることを検証する。 
In the United States and Europe, large language models (LLMs) and their multimodal variants are regarded by many AI scientists and major AI companies as the most promising path to AGI, despite known issues with abstraction and reasoning.  米国や欧州では、大規模言語モデル(LLM)とそのマルチモーダル変種が、抽象化や推論に関する既知の問題があるにもかかわらず、多くのAI科学者や主要AI企業によってAGIへの最も有望な道と見なされている。 
By contrast, in China there is a broader vision of how AGI can be achieved, most recently expressed in a nationwide move toward AI embodiment—namely, intelligence developed through interaction between body, brain, and environment, in both physical and virtual forms.  これに対し中国では、AGI達成に向けたより広範なビジョンが存在し、最近では全国的な動きとして「身体性AI」が推進されている。具体的には、物理的・仮想的形態を問わず、身体・脳・環境の相互作用を通じて知能を発展させるアプローチである。 
This trend toward embodied AI is backed by policy support at the national and local government levels, which has led to large embodied AI innovation centers linked to top universities and tech firms being established in coastal cities and provinces.  このエンボディッドAIへの傾向は、国や地方政府レベルでの政策支援によって支えられており、その結果、沿岸部の都市や省に、一流大学やハイテク企業と連携した大規模なエンボディッドAIイノベーションセンターが設立されている。 
The upshot is China is on a path to accomplish two goals simultaneously: enriching the nation by integrating AI into the economy and achieving AGI that is more aligned with the totality of human expression.  結果として中国は、AIを経済に統合して国を豊かにすると同時に、人間の表現の総体により沿ったAGIを達成するという二つの目標を同時に達成する道を進んでいる。 
The report recommends that the United States and its allies ramp up their monitoring of China’s AI progress, benchmark its claims, and consider broader approaches to AGI beyond scaling up LLMs.  本報告書は、米国とその同盟国に対し、中国のAI進展の監視強化、その主張の検証、大規模言語モデル(LLM)の拡張を超えた汎用人工知能(AGI)への広範なアプローチの検討を推奨する。

 

目次...

 

 

 

 

 

 

ちなみに...何度も紹介していますが...私が2020年にサイバー犯罪に関する白浜シンポジウムで発表した資料の

 

・[PDF] スマートサイバー AI活用時代のサイバーリスク管理(配布用)

のP5やP7にこの考えと近いかもしれません...

20260103-113726

 

 

 


 

●  まるちゃんの情報セキュリティ気まぐれ日記

・2026.01.05 米国 CSET 中国武漢の人工知能開発:汎用人工知能(AGI)に向けた中国の新たな跳躍台 (2025.05)

・2026.01.05 米国 CSET 中国の「軍民融合」のベールを剥ぐ:人民解放軍はいかにして戦略的優位のために民間のAIを動員するのか (2025.09)

・2026.01.04 米国 CSET 中国の身体性AI (2025.12)

 

| | Comments (0)

2025.12.16

Europol 無人化の未来:ロボット技術と無人システムが法執行に与える影響 (2025.12.08)

こんにちは、丸山満彦です。

Europolが、犯罪対策におけるロボット技術と無人システムの活用についての報告書を公表しています...

ざっと読みましたが、興味深い内容ですね...

犯罪者も新しい技術を利用した犯罪をしてきますから法執行機関もそれを上回る能力をもってそれに対応しなければなりませんね...その意味では、技術の活用はどんどん進化していくことになるわけですが、それに追随することが重要となりますが、その変化に応じて国民等への対応も変えていかなければなりませんね...

AIとロボティクスの融合は、国民への影響も大きいと思います。

 

Europol

・2025.12.08 New report explores use of robotics and unmanned systems in the fight against crime

New report explores use of robotics and unmanned systems in the fight against crime 新報告書が犯罪対策におけるロボット技術と無人システムの活用を検証
Europol publishes ‘The unmanned future(s): The impact of robotics and unmanned systems on law enforcement’ 欧州刑事警察機構が『無人化の未来:ロボット技術と無人システムが法執行に与える影響』を発表
Europol has today published The Unmanned Future(s): The Impact of Robotics and Unmanned Systems on Law Enforcement. The report, produced by the Europol Innovation Lab, provides an in-depth analysis of how unmanned systems could change society, crime and law enforcement, and discusses the challenges and opportunities they present. 欧州刑事警察機構は本日、「無人化の未来:ロボット技術と無人システムが法執行に与える影響」を発表した。欧州刑事警察機構・イノベーション・ラボが作成した本報告書は、無人システムが社会、犯罪、法執行をいかに変えるかについて詳細な分析を提供し、それらがもたらす課題と機会について論じている。
The report underscores the rapid advancement and integration of unmanned systems in various sectors, including law enforcement. As these technologies become more sophisticated and widespread, they offer new opportunities for law enforcement operations and operational support. However, they also introduce new security threats – such as misuse by criminal and terrorist groups – and regulatory challenges that law enforcement agencies must address to ensure public safety and maintain trust. 本報告書は、法執行を含む様々な分野における無人システムの急速な進歩と統合を強調している。これらの技術がより高度化し普及するにつれ、法執行活動や作戦支援に新たな機会をもたらす。しかし同時に、犯罪者やテロリスト集団による悪用といった新たな安全保障上の脅威や、公共の安全を確保し信頼を維持するために法執行機関が対処すべき規制上の課題も生じている。
Catherine De Bolle キャサリン・デ・ボール
Europol Executive Director 欧州刑事警察機構事務局長
The integration of unmanned systems into crime is already here, and we have to ask ourselves how criminals and terrorists might use drones and robots some years from now. Just as the internet and smartphones presented significant opportunities as well as challenges, so will this technology. Our new report by Europol’s Innovation Lab explores the future operating environment for European law enforcement agencies and suggests actions needed today in order to effectively combat crime while upholding public trust and fundamental rights tomorrow. 無人システムの犯罪への統合は既に現実のものとなっており、我々は数年後に犯罪者やテロリストがドローンやロボットをどう利用するかを自問せねばならない。インターネットやスマートフォンが大きな機会と課題を同時に提示したように、この技術も同様である。欧州刑事警察機構のイノベーションラボによる新たな報告書は、欧州法執行機関の将来の活動環境を探求し、将来の公共の信頼と基本的権利を守りつつ犯罪と効果的に戦うために、今日必要な行動を提案している。
One chapter of the report highlights the role of war as a driver for innovation in unmanned systems. Recent conflicts, such as the ongoing Russian war of aggression against Ukraine, have accelerated the development and deployment of advanced unmanned systems. The lessons learnt from these conflicts are invaluable for law enforcement agencies in Europe as they prepare for the future operating environment. 報告書の一章では、無人システムの革新を推進する要因としての戦争の役割を強調している。現在進行中のロシアによるウクライナ侵略戦争など、近年の紛争は先進的な無人システムの開発と展開を加速させた。欧州の法執行機関が将来の活動環境を準備する上で、これらの紛争から得た教訓は計り知れない価値を持つ。
Some of the key topics covered in the report include: 報告書で取り上げられた主なトピックは以下の通りである:
Increasing use of unmanned systems 無人システムの増加する利用
Unmanned systems are becoming increasingly useful, affordable and widely available, with applications in both public and private sectors. Law enforcement agencies across Europe are scaling up adoption of such systems, including drones and robots, to enhance situational awareness, improve safety and extend operational reach. These systems are employed for a range of tasks, such as monitoring, crime scene mapping, search and rescue operations, and the disposal of explosive ordnance, among others. Converging technologies present a significant opportunity for a breakthrough in the capabilities of unmanned systems. 無人システムは公共・民間双方の分野で、有用性・手頃な価格・普及度を急速に高めている。欧州の法執行機関は状況認識の向上、安全性の強化、作戦範囲の拡大を目的に、ドローンやロボットを含むこうしたシステムの導入を拡大中だ。監視、犯罪現場の測量、捜索救助活動、爆発物の処理など、多様な任務に活用されている。技術の融合は、無人システムの能力に飛躍的な進歩をもたらす大きな機会である。
Technical and regulatory challenges 技術的・規制上の課題
The report highlights significant technical limitations and regulatory gaps that hinder the effective use of unmanned systems in law enforcement. Issues such as limited autonomy, dependence on industrial suppliers and the lack of clear guidelines for autonomous operations pose substantial challenges. 本報告書は、法執行における無人システムの効果的な活用を妨げる重大な技術的制約と規制上の空白を指摘している。自律性の限界、産業サプライヤーへの依存、自律運用に関する明確なガイドラインの欠如といった問題が、重大な課題となっている。
Security threats 安全保障上の脅威
Criminal and terrorist groups are rapidly adopting unmanned systems for illicit activities. The report warns of the potential for these systems to be used for criminal surveillance, smuggling and even attacks. The increasing accessibility and versatility of drones, in particular, present serious security concerns. 犯罪組織やテロリスト集団は、違法活動のために無人システムを急速に採用している。本報告書は、これらのシステムが犯罪監視、密輸、さらには攻撃に利用される可能性について警告している。特にドローンの入手容易性と汎用性の高まりは、深刻な安全保障上の懸念をもたらしている。
Public trust and regulation 公共の信頼と規制
Public trust is crucial for the legitimacy of law enforcement capabilities. The report emphasises the need for transparency, accountability and public engagement in the deployment of unmanned systems. Current regulations, while advancing, still have gaps, particularly in addressing non-compliant or criminal use. 公共の信頼は、法執行能力の正当性にとって極めて重要である。本報告書は、無人システムの展開において透明性、説明責任、市民参加の必要性を強調している。現行規制は進展しているものの、特に非準拠または犯罪的使用への対応において依然として不備がある。
Future operating environment 将来の運用環境
The future of law enforcement will require policing in a three-dimensional space, as unmanned systems operate in the air and on the ground, as well as on and under water. This shift will necessitate new strategies, technologies and training for law enforcement agencies. 将来の法執行は、無人システムが空中・地上・水上・水中で活動する三次元空間での警察活動を求める。この変化は法執行機関に新たな戦略・技術・訓練を必要とする。
Recommendations 提言
The report provides a set of recommendations for European law enforcement agencies, including the development of a strategic direction, the establishment of a competency hub and the integration of unmanned systems into existing information systems. It also calls for investments in training, education and public trust-building initiatives. 本報告書は欧州の法執行機関に対し、戦略的方向性の策定、専門知識ハブの設置、無人システムの既存情報システムへの統合を含む一連の提言を行っている。また、訓練・教育・公共の信頼構築イニシアチブへの投資も求めている。
The report is available for download on the Europol website and includes detailed insights, case studies and recommendations for law enforcement agencies, policymakers and other stakeholders. 報告書は欧州刑事警察機構のウェブサイトからダウンロード可能であり、法執行機関・政策立案者・その他の関係者向けの詳細な分析、事例研究、提言が含まれている。

 

・2025.12.08 The Unmanned Future(s) - The impact of robotics and unmanned systems on law enforcement

The Unmanned Future(s) 無人化の未来
The impact of robotics and unmanned systems on law enforcement ロボット技術と無人システムが法執行に与える影響
Unmanned systems are employed across a range of industries, including manufacturing, healthcare, and, more recently, warfare. These technologies are also being increasingly adopted by law enforcement to enhance situational awareness, improve safety, and extend operational reach. However, their use raises concerns about safety, privacy, data protection, regulatory challenges, and the need to maintain public trust. 無人システムは製造事業者、医療、そして近年では軍事を含む様々な産業で活用されている。これらの技術は状況認識の向上、安全性の強化、作戦範囲の拡大を目的に、法執行機関でも採用が進んでいる。しかしその利用は安全性、プライバシー、データ保護、規制上の課題、そして国民の信頼維持の必要性といった懸念を引き起こす。
This report from Europol’s Innovation Lab examines the impact of robotic and unmanned systems on law enforcement. 欧州刑事警察機構のイノベーションラボによる本報告書は、ロボット技術と無人システムが法執行に与える影響を検証する。
Cite this publication: Europol (2025), The Unmanned Future(s), The impact of robotics and unmanned systems on law enforcement, Europol Innovation Lab observatory report, Publications Office of the European Union, Luxembourg. 引用情報: 欧州刑事警察機構(2025年)『無人化の未来(複数形)』―ロボット技術と無人システムが法執行に与える影響、欧州刑事警察機構イノベーション・ラボ観測所報告書、欧州連合出版局、ルクセンブルク。

 

・[PDF]

20251215-53242

 

 

 

Executive summary エグゼクティブサマリー
How might criminals or terrorists use drones and robots in three years from now? How might law enforcement police the air? And can or should the police develop their own RoboCop? 3年後、犯罪者やテロリストはドローンやロボットをどう利用するだろうか?法執行機関は空域をどう監視するだろうか?警察は独自のロボコップを開発できるのか、あるいはすべきなのか?
Unmanned systems are already widely used in various industries, including manufacturing, logistics, healthcare, agriculture, and more recently in warfare. Law enforcement agencies (LEAs) are increasingly adopting unmanned systems to enhance situational awareness, improve safety, and improve operational reach. However, the use of unmanned systems also raises concerns about safety and privacy, including issues related to technical limitations, data protection, regulatory challenges, and the need to ensure public trust. 無人システムは既に製造事業者、物流、医療、農業など様々な産業で広く利用されており、近年では戦争分野でも使用されている。法執行機関(LEA)は状況認識の向上、安全性の強化、作戦範囲の拡大を目的に無人システムの採用を加速させている。しかし、無人システムの利用は、技術的限界、データ保護、規制上の課題、公衆の信頼確保の必要性など、安全性とプライバシーに関する懸念も引き起こしている。
Some of these concerns also relate to various security threats, such as the potential for unmanned systems to be exploited by malicious actors1. Over the past years, tactics and equipment used in warfare have spilled over into organised crime and terrorism, impacting law enforcement. There has also been a reported increase in the use of drones around European infrastructure, and there are examples of drone pilots selling their services online, transforming this criminal process from crime-as-a-service to crime-at-a-distance. これらの懸念の一部は、悪意のある者による無人システムの悪用可能性など、様々なセキュリティ脅威にも関連している。過去数年間で、戦争で使用される戦術や装備が組織犯罪やテロリズムに波及し、法執行に影響を与えている。欧州のインフラ周辺でのドローン使用増加も報告されており、ドローン操縦者がオンラインでサービスを販売する事例も見られる。これにより犯罪プロセスは「犯罪サービス」から「遠隔犯罪」へと変容しつつある。
As unmanned systems become more and more integrated into everyday life, we have observed four converging trends, which will require LEAs to develop new strategies for policing and regulating these systems: 無人システムが日常生活にますます統合されるにつれ、我々は四つの収束する傾向を観察している。これらは法執行機関(LEA)に対し、これらのシステムを監視・規制するための新たな戦略開発を必要とする:
1. Unmanned systems are operating over increasingly vast distances. 1. 無人システムはますます広大な距離を跨いで運用される。
2. Unmanned systems are acting with growing autonomy and coordination. 2. 無人システムは自律性と協調性を増しながら行動する。
3. Unmanned systems are becoming progressively more capable. 3. 無人システムは次第に高度な能力を獲得する。
4. Unmanned systems increase rapidly in number and variety. 4. 無人システムは数と種類において急速に増加する。
With the advances in technology and increasing uptake in society, the future operational landscape for law enforcement will need to evolve to be able to monitor and act in all domains, from underwater to above ground, and develop ways to interact with new types of unmanned systems. 技術の進歩と社会での普及拡大に伴い、法執行機関の将来の活動領域は、水中から地上まであらゆる領域を監視・行動できるよう進化し、新たなタイプの無人システムとの相互作用方法を開発する必要がある。
Robots and drones bring the digital world to the physical world, requiring adaptation to deal with automated crime and crime conducted in the public by actors out of physical reach for law enforcement. ロボットやドローンはデジタル世界を物理世界に持ち込み、自動化された犯罪や、法執行機関の手の届かない場所にいる者による公共の場での犯罪に対処するための適応を要求する。
With Artificial intelligence (AI), there is a before and an after to unmanned systems capabilities. Experts expect physical, analytical and generative AI to drive the next wave of robotics, creating a “ChatGPT moment” for physical AI2. There are already robots that charge themselves or change their own battery when needed and collaborate with others to solve complex, goal oriented, missions. 人工知能(AI)の登場により、無人システムの能力には「以前」と「以後」が存在する。専門家は、物理的AI、分析的AI、生成的AIがロボット工学の次なる波を牽引し、物理的AIにおける「ChatGPT的瞬間」を生み出すと予測している2。既に、必要に応じて自ら充電したりバッテリー交換を行ったり、複雑な目標指向型ミッションを解決するために他者と協働するロボットが存在する。
In order to prepare for the future operating environment, a number of concrete steps can, and should, be taken. These range from the development of a strategic intent, a clear will, and updating of tactical, operational and security paradigms regarding unmanned systems. European law enforcement would also benefit from coming together in testing and evaluating unmanned systems for policing and law enforcement use and countering of such systems in realistic settings. However, for this to happen, a regulatory framework must be established with clear guidelines that support law enforcement innovation and testing, alongside investments in training and education for personnel. 将来の運用環境に備えるため、具体的な措置を講じることが可能であり、また必要である。これには無人システムに関する戦略的意図の策定、明確な意思の確立、戦術・運用・安全保障パラダイムの更新が含まれる。欧州の法執行機関は、警察活動や法執行用途における無人システムの試験・評価、および現実的な環境下での同システム対策において連携することで恩恵を得られる。ただしこれを実現するには、法執行の革新と試験を支援する明確なガイドラインを備えた規制枠組みの確立が不可欠であり、同時に要員の訓練・教育への投資も必要だ。
Additionally, the development of partnerships with European industry and academia will be crucial to leverage key technologies with citizen trust and stay ahead of emerging threats. Establishing and connecting competence hubs on national and European levels will further ensure that European law enforcement personnel have timely access to the necessary knowledge and skills to effectively use and police unmanned systems. さらに、欧州の産業界や学術界との連携構築は、市民の信頼を得つつ重要技術を活用し、新たな脅威に先んじる上で極めて重要だ。国家レベルおよび欧州レベルで専門知識ハブを設立し連携させることで、欧州の法執行機関職員が無人システムを効果的に運用・監視するために必要な知識と技能を適時に習得できる基盤がさらに強化される。
This foresight report provides an outlook on these unmanned futures and aims to raise awareness on the opportunities and threats that the technological progress in this field is expected to bring. Furthermore, the report aims to provide a robust and informed foundation for LEAs to make proactive decisions that shape the future. 本将来展望報告書は、こうした無人化の未来像を提示し、この分野の技術進歩がもたらすと予想される機会と脅威への認識を高めることを目的とする。さらに、法執行機関が未来を形作る先見的な意思決定を行うための、強固で情報に基づいた基盤を提供することを目指す。
Key insights 主な知見
> Changing needs, behaviours and services - As unmanned systems become more common, societies will have to adapt how they interact and adapt to this technology. This could have negative consequences, especially as these systems collect more detailed and personal information due to their growing presence in in our private lives. > 変化するニーズ、行動、サービス - 無人システムが普及するにつれ、社会はこの技術との関わり方や適応方法を変えざるを得なくなる。特に、こうしたシステムが私たちの私生活に浸透するにつれて、より詳細で個人的な情報を収集するようになるため、これは悪影響を及ぼす可能性がある。
> From situational to systemic - Challenges and benefits from unmanned systems will change as their deployment paradigm changes from situational (deployed and operated when needed) to systemic (becoming a standard part of operating procedure). This change will be similar to how the use and impact of smartphones has changed over the years. > 状況対応型からシステム化へ - 無人システムの課題と利点は、その展開パラダイムが状況対応型(必要時に配備・運用)からシステム化(運用手順の標準の一部となる)へと変化するにつれて変わる。この変化は、スマートフォンの利用と影響が年月を経て変化してきた様子に似ている。
> Fuelling of national security concerns - Recent conflicts have acted as drivers for innovation, accelerating the development and testing of novel unmanned systems, with both the technology and associated knowledge spreading quickly. National security concerns may also prevent law enforcement access to key technology. > 国家安全保障上の懸念の高まり - 近年の紛争はイノベーションの推進役となり、新型無人システムの開発と検証を加速させている。技術と関連知識は急速に拡散している。国家安全保障上の懸念が、法執行機関による重要技術へのアクセスを阻む可能性もある。
> Digital becomes physical – technology convergence - Unmanned systems operate using digital data but within the physical world. As several maturing technologies (such as AI, robotics, and high-speed data connectivity) converge, new capabilities emerge. By extending society’s digital transformation into the physical realm, crimes can be committed remotely and on a larger scale, raising more complex issues of attribution and accountability. > デジタルが物理化する-技術の融合 - 無人システムはデジタルデータを用いて動作するが、その活動領域は物理世界に限定される。複数の成熟技術(AI、ロボティクス、高速データ通信など)が融合するにつれ、新たな能力が生まれる。社会のデジタル変革を物理領域へ拡張することで、犯罪は遠隔かつ大規模に実行可能となり、帰属や責任の所在に関するより複雑な問題を引き起こす。
> From 2D to 3D policing - In our future societies, logistics and services will be available in the low altitude airspace. The operational environment for future law enforcement will expand in volume, going from a traditional two-dimensional responsibility to a three-dimensional, where crime can be committed in or from the air and law enforcement operations can be challenged from above. This will challenge traditional operational and tactical doctrine in law enforcement as well as security protocols. > 2次元から3次元への警察活動 - 将来の社会では、物流やサービスが低高度空域で提供されるようになる。将来の法執行機関の活動領域は立体的に拡大し、従来の2次元の責任範囲から3次元へと移行する。犯罪が空中や空中から行われる可能性があり、法執行活動も上空から妨害される可能性があるのだ。これは法執行機関の従来の作戦・戦術教義やセキュリティプロトコルに課題をもたらすだろう。
> From devices to collective - Law enforcement need to create a collaborative and interoperable team of various unmanned systems, capable of understanding missions and working together with humans. This would expand operational reach, combine different capabilities and enhance traditional law enforcement operations in new and effective ways. > 個別機器から集団体へ - 法執行機関は、様々な無人システムからなる協調的で相互運用可能なチームを構築する必要がある。このチームは任務を理解し、人間と連携して活動できるものでなければならない。これにより作戦範囲が拡大し、異なる能力が統合され、従来の法執行活動を新たな効果的な方法で強化できる

 

目次...

Glossary 用語集
Executive summary エグゼクティブサマリー
Key insights 主な知見
Introduction 序論
Current law enforcement use 現行の法執行機関による利用
Surveillance and reconnaissance 監視と偵察
Crime scene mapping and forensics 犯罪現場の地図作成と科学捜査
Search and rescue 捜索救助
Explosive ordnance disposal and hazardous materials 爆発物処理と危険物
Technical limitations 技術的制約
Lack of independence from industrial suppliers 産業サプライヤーからの独立性の欠如
Threat from unmanned systems 無人システムによる脅威
Countering unmanned systems 無人システムへの対抗
Public trust & regulation 公衆の信頼と規制
Key trends shaping the future 未来を形作る主な動向
Artificial intelligence and technological convergence 人工知能と技術の融合
The robotics industry – affordability and market dominance ロボット産業-手頃な価格と市場支配
Growing integration of robots in society 社会におけるロボットの統合の進展
War as a driver for innovation イノベーションの推進力としての戦争
The future operating environment 将来の運用環境
Unmanned systems as part of society 社会の一部としての無人システム
Internet of everything あらゆるもののインターネット
Digital becomes physical デジタルが物理的になる
Social robots ソーシャルロボット
No more privacy プライバシーの消滅
A 3D society needs 3D policing 3D社会には3D警察活動が必要だ
Recommendations 提言
Conclusions 結論
Endnotes 注記

 

将来の運用環境...

The future operating environment 将来の運用環境
One key consequence that the aforementioned trends all have in common is that LEAs, in the future, will see an increasing number of unmanned systems, from autonomous cars to social companion robots. This is going to have a significant impact on the work of law enforcement, as these additional entities may require new ways of policing, both to use them effectively, as well as to prevent their abuse. 前述の傾向に共通する重要な帰結は、将来、法執行機関が自律走行車から社会的伴侶ロボットに至るまで、無人システムの増加に直面する点だ。これらの追加的な事業体は、効果的な活用と悪用防止の両面において新たな警察手法を必要とするため、法執行業務に重大な影響を与えるだろう。
Unmanned systems as part of society 社会の一員としての無人システム
As more and more robots, drones and other unmanned systems are deployed to perform various functions in increasingly autonomous ways, they will become part of our lives and our public spaces. As it is the duty of law enforcement to police this space, LEAs will have to develop new ways to interact with these systems to separate the legal from illegal operations and ensure a safe space for everyone. This means being able to detect, monitor, stop, investigate or, ultimately, counter them with force. All of these will require exploration to identify novel operating procedures for law enforcement that are both safe and effective. ロボットやドローン、その他の無人システムが自律的に様々な機能を果たすようになれば、それらは私たちの生活や公共空間に溶け込んでいく。この空間を管理するのが法執行機関の責務である以上、LEAは合法的な運用と違法な運用を区別し、全ての人にとって安全な空間を確保するため、これらのシステムと関わる新たな方法を開発せねばならない。これは、検知、監視、停止、調査、そして最終的には武力による対抗手段を講じられる能力を意味する。これら全てにおいて、安全かつ効果的な新たな法執行手順を確立するための模索が必要となる。
Different kinds of unmanned systems may require different approaches. A key factor in this regard relates to the different types of technology and standards involved. This includes the following: f The design and development of unmanned systems might differ significantly based on their intended use. While the use of a law enforcement robots is likely to be heavily regulated, commercial or consumer-grade systems could have a much lower level of safety measures. The latter is also going to affect the forensic investigation of unmanned systems, as each encountered type might use different operating systems or data storage capacities. 無人システムの種類によって異なるアプローチが必要となる。この点で重要な要素は、関与する技術や標準の差異である。具体的には以下の通りだ: f 無人システムの設計・開発は、その用途によって大きく異なる可能性がある。法執行ロボットの使用は厳格に規制される一方、商用・一般消費者向けシステムは安全対策の水準がはるかに低い場合がある。後者は無人システムの法医学的調査にも影響を与える。遭遇する各タイプが異なるオペレーティングシステムやデータ保存容量を使用する可能性があるためだ。
・Unmanned systems may use different types of technology, including sensors and communications systems. While drones might rely on GPS, an autonomous ground vehicle might use LIDAR and computer vision. The response of law enforcement needs to take these differences into account, as different types of unmanned systems might require different types of approaches. ・無人システムはセンサーやコミュニケーションシステムなど、異なる技術を使用する可能性がある。ドローンがGPSに依存する一方、自律走行車両はLIDARやコンピュータビジョンを使用するかもしれない。法執行機関の対応はこれらの差異を考慮する必要がある。異なるタイプの無人システムには異なるアプローチが求められるためだ。
・The regulation of unmanned systems may vary per type. While drones might be subject to aviation laws, ground, surface and under water systems might be subject to entirely different regulation. Additionally, new regulation may emerge that seeks to cover all, as well as additional types. LEAs will need to understand these differences and how they will impact their operating environment and their capabilities. ・無人システムの規制は種類によって異なる可能性がある。ドローンは航空法規の対象となる一方、地上・水上・水中システムは全く異なる規制の対象となるかもしれない。さらに、これら全てを包括する新規制や追加規制が出現する可能性もある。法執行機関はこれらの差異と、それが自らの活動環境や能力に与える影響を理解する必要がある。
Additionally, from a practical point of view, law enforcement will need to prepare for changing societal expectations: while today’s discussions touch on points such as how to effectively stop a drone, the future operating environment might require LEAs to consider how to stop a humanoid robot. さらに実務面では、法執行機関は変化する社会の期待に備える必要がある。現在の議論がドローンの効果的な停止方法などに焦点を当てる一方、将来の運用環境ではヒューマノイドロボットの停止方法を検討する必要が生じるかもしれない。
INFO BOX – QUESTIONING A ROBOT INFO BOX – ロボットへの質問
In some jurisdictions, law enforcement agencies are already beginning to encounter the challenges of policing unmanned systems, such as driverless cars. For instance, when a police officer stops a driverless car involved in a minor accident, they need to determine whether the car’s actions were the result of a malfunction, a cyberattack, or a deliberate instruction from the car’s owner. However, the car itself may not be able to provide a clear answer, and performing a full forensic analysis of the system in real-time may not be feasible. 一部の管轄区域では、法執行機関が既に無人システムの取り締まり課題に直面し始めている。自動運転車がその一例だ。例えば、警察官が軽微な事故を起こした自動運転車を停止させた場合、その行動が故障、サイバー攻撃、あるいは所有者による意図的な指示のいずれによるものかを判断する必要がある。しかし、車両自体が明確な回答を提供できない可能性があり、システムに対する完全なフォレンジック分析をリアルタイムで実施することは現実的ではないかもしれない。
In the future, this problem is likely to become even more complex. Humanoid robots, in particular, may pose unique challenges, as they could be designed to interact with humans in a more sophisticated way, potentially making it more difficult to distinguish between intentional and accidental behaviour. 将来的にこの問題はさらに複雑化する可能性がある。特にヒューマノイドロボットは、人間との高度な相互作用を設計されるため、意図的な行動と偶発的な行動の区別が困難になるという独自の課題を提起するかもしれない。
Assessing the intention of such a system may be quite different from that of a natural person. While stopping a person allows for the questioning of a suspect carrying out an action, an unmanned system might be less cooperative about its instructions and intentions, maybe even incapable of explaining it. Current efforts aimed at making artificial intelligence systems more interpretable, explainable, as well as aligned83, will become critical when these systems move autonomously and physically. These developments will also impact how law enforcement will have to adapt and may have to result in new approaches to policing. こうしたシステムの意図を評価する方法は、自然人(生身の人間)の場合とは大きく異なる可能性がある。人間を停止させれば、行動中の容疑者に質問できるが、無人システムは指示や意図について協力的でない可能性があり、説明すらできないかもしれない。人工知能システムの解釈可能性、説明可能性、そして整合性向上を目指す現在の取り組みは、これらのシステムが自律的に物理的に動くようになると極めて重要になる。こうした進展は法執行機関の適応方法にも影響を与え、新たな警察活動の手法が必要になるかもしれない。
Law enforcement, too, may increasingly integrate different types of unmanned systems into its operational activities. Further integration of machine learning, deep learning, and computer vision will allow these robots to recognise and respond to potential threats in real-time. As such, human-robot collaboration is expected to become a crucial aspect of law enforcement operations, with officers and robots working side by side to respond to emergencies, conduct searches, and gather evidence together, building on each other’s advantages. 法執行機関もまた、様々な無人システムを運用活動に統合する傾向が強まるだろう。機械学習、深層学習、コンピュータビジョンのさらなる統合により、これらのロボットは潜在的な脅威をリアルタイムで認識し、対応できるようになる。こうしたことから、人間とロボットの協働は法執行活動の重要な側面となることが予想される。警官とロボットが互いの強みを活かし、緊急事態への対応、捜索活動、証拠収集を共に遂行するようになるのだ。
Internet of everything あらゆるもののインターネット
More widespread, low latency, high speed data networks, such as 5/6G and satellite communication, ensure connectivity everywhere. This will make ground for the use of Internet of Things (IoT) devises anywhere from underground areas to cities, rural areas and even oceans. 5G/6Gや衛星通信など、より広範で低遅延・高速なデータネットワークがあらゆる場所での接続性を保証する。これにより地下空間から都市部、農村部、さらには海洋に至るまで、あらゆる場所でモノのインターネット(IoT)デバイスの利用基盤が整う。
With more and more unmanned systems in circulation, an emerging concern relates to how these systems report on their activities to their owners, as well as how they will communicate with their environment and each other. This is likely to mean a vast increase in the amount of communication as well as dynamic changes in the nature of this communication. 無人システムの普及に伴い、新たな懸念として、これらのシステムが所有者に活動状況を報告する方法、環境や相互間の通信方法が浮上している。これは通信量の膨大な増加と、通信の性質における動的な変化を意味する可能性が高い。
Device-to-device communication will likely not be the same as communication between humans or even human-to-device This means developing new capabilities for legal wiretaps of communications of individual, as well as between such systems, and having the technical capability of interpreting this communication. デバイス間通信は、人間同士のコミュニケーションや人間とデバイスのコミュニケーションとは異なる性質を持つだろう。これは、個々のコミュニケーションやシステム間コミュニケーションに対する法的盗聴能力の開発、そしてこうしたコミュニケーションを解釈する技術的能力の必要性を意味する。
Digital becomes physical デジタルが物理化する
As unmanned systems become increasingly autonomous, equipped with AI and task-based controls, they are gaining agency to act on their own. This newfound autonomy raises concerns about undesirable and criminal behaviour, as their actions can have real- world consequences. Furthermore, their connected nature allows them to be controlled and instructed from anywhere, making it difficult to identify the intentions and responsible parties behind their actions, exacerbating the jump of cybercrime from the digital to the physical world. 無人システムが自律性を増し、AIやタスクベース制御を備えるにつれ、自ら行動する主体性を獲得しつつある。この新たな自律性は、望ましくない行動や犯罪行為への懸念を生む。なぜなら、それらの行動は現実世界に影響を及ぼし得るからだ。さらに、接続された性質ゆえに、どこからでも制御・指示が可能となり、行動の意図や責任者を特定することが困難になる。これにより、サイバー犯罪がデジタル世界から物理世界へ移行する現象が深刻化する。
Another aspect for law enforcement is the right to, and process for, seizing objects in criminal investigations. Robots will be seized as other objects but they pose a new risk since they, unlike other objects, can perform actions inside law enforcement facilities, such as record, steal, destroy or escape. With increasingly autonomous unmanned systems in circulation, law enforcement agencies will need to implement adequate processes for the seizure and storage of such technologies. 法執行機関にとっての別の側面は、刑事捜査における物証押収の権利と手続きである。ロボットは他の物と同様に押収されるが、他の物とは異なり、法執行機関の施設内で記録、窃取、破壊、逃走などの行動を実行できるため、新たなリスクをもたらす。自律型無人システムの流通が増加する中、法執行機関はこうした技術の押収と保管のための適切なプロセスを導入する必要がある。
The convergence of unmanned systems and cybercrime enables new forms of crime to emerge in the physical world. As such, these systems can be used as a means for cybercrime to interact with the physical environment and cybercrime may have more impact in the physical environment. To address this challenge, it will become increasingly critical to develop methods for monitoring, querying, and investigating these systems, as well as their instructors. Effective and acceptable ways of making them comply with the law or stopping them will be vital for law enforcement to remain relevant. 無人システムとサイバー犯罪の融合は、物理世界で新たな形態の犯罪が出現することを可能にする。したがって、これらのシステムはサイバー犯罪が物理環境と相互作用する手段として利用され、サイバー犯罪が物理環境により大きな影響を与える可能性がある。この課題に対処するため、これらのシステムとその操作者を監視・照会・調査する手法の開発がますます重要となる。法執行機関が機能し続けるためには、これらを法に従わせたり停止させたりする効果的かつ容認可能な方法が不可欠である。
INFO BOX – JAILBRAKING A ROBOT INFO BOX – ロボットの脱獄
Already today, we are facing the challenge on how to prevent AI from engaging in harmful behaviour. LLMs have repeatedly been jailbroken, either due to a lack of safeguards, or because of a wide variety of prompt engineering methods ‘trick the system’ into outputting content it does not understand is harmful. This is mainly because of the complexity and ambiguity of natural language used for prompting combined with the limitations of (current) AI systems in only predicting output based on training data, rather than actually understanding the content. As a result, guardrails are often external add-ons, added to the model after it has been trained. 既に今日、我々はAIが有害な行動に及ぶのをどう防ぐかという課題に直面している。LLMは繰り返し脱獄されてきた。安全装置の欠如による場合もあれば、多様なプロンプトエンジニアリング手法によって「システムを騙し」、有害と理解していない内容を出力させる場合もある。これは主に、プロンプトに用いられる自然言語の複雑さと曖昧さに起因する。加えて、(現在の)AIシステムは訓練データに基づく出力予測しかできず、内容を実際に理解する能力に制限がある。結果として、ガードレールは訓練後にモデルに追加される外部アドオンとなることが多い。
Safeguards need to balance usefulness and safety – restricting an AI system too much can make it unusable, leading to a trade-off. 安全対策は有用性と安全性のバランスを取る必要がある。AIシステムを過度に制限すると使用不能になり、トレードオフが生じる。
These attempts – trying to break current AI systems – will pave the way for doing the same with AI-driven unmanned systems. As unmanned systems increasingly rely on more and more capable AI for autonomous behaviour, the challenge on how to prevent safeguards from being bypassed for malicious activities is going to become increasingly important. Unless addressed, unmanned systems could be coerced into unintended behaviour. This might include the hijacking of autonomous vehicles or drones, the leaking of data from cameras and microphones, as well as the infliction of harm by unmanned systems on potential victims. 現在のAIシステムを破壊しようとするこれらの試みは、AI駆動型無人システムに対しても同様の対応が可能となる道を開くだろう。無人システムが自律行動のためにますます高性能なAIに依存するにつれ、悪意ある活動のために安全装置が回避されるのを防ぐ方法が、ますます重要になる課題となる。対処されなければ、無人システムは意図しない行動を強制される可能性がある。これには自律走行車両やドローンの乗っ取り、カメラやマイクからのデータ漏洩、さらには無人システムによる潜在的な被害者への危害加害などが含まれる可能性がある。
Social robots ソーシャルロボット
Social robots are specifically designed to interact with others on a more human level. While still in early stages, applications of social robots already exist, including those helping the elderly84 and children with autism85, as well as social robots acting as romantic partners86. Powered by AI, these robots are getting more and more convincing in their empathy, as well as better at anticipating human needs. ソーシャルロボットは、より人間的なレベルで他者と交流するよう特別に設計されている。まだ初期段階ではあるが、高齢者支援84や自閉症児支援85、恋愛パートナーとしての役割86など、ソーシャルロボットの応用例は既に存在する。AIによって駆動されるこれらのロボットは、共感能力がますます説得力を持つようになり、人間のニーズを予測する能力も向上している。
The empathetic capabilities of social robots might, in the future, be abused by criminal and terrorist actors for a variety of malicious activities. Particularly activities containing an element of convincing people, from disinformation to grooming, could see the advantage in the abuse of social robots for these purposes, making it a new modality of criminal social engineering. As chatbots are already being employed to deceive victims87, social robots may bring this trend to the physical realm and, potentially, cause even greater harm. These malicious efforts aimed at manipulating and deceiving their victims may be reinforced with increasing amounts of intimate data collected by social robots. As they become increasingly important parts of people’s lives and move around in their private sphere, they will increasingly know their owners more intimately – and possess highly sensitive information about them88 .
ソーシャルロボットの共感能力は、将来的に犯罪者やテロリストによって様々な悪意ある活動に悪用される可能性がある。特に、偽情報からグルーミングに至るまで、人を説得する要素を含む活動では、ソーシャルロボットを悪用する利点が見出され、新たな犯罪的社会工学の手法となるだろう。チャットボットが既に被害者を欺くために利用されているように、ソーシャルロボットはこの傾向を物理的領域に拡大し、潜在的にさらに大きな被害をもたらす可能性がある。被害者を操作・欺くことを目的としたこうした悪意ある行為は、ソーシャルロボットが収集する親密なデータの増加によって強化されるかもしれない。ソーシャルロボットが人々の生活においてますます重要な存在となり、私的領域を移動するにつれ、所有者をより深く知り、彼らに関する極めて機密性の高い情報を保持するようになると予想される。
Additionally, as social robots continue to connect with humans, we can expect shifts in how society feels about them and, consequently, how law enforcement should interact with them. While it may currently be acceptable for the police to take down a drone, interventions of unmanned systems evoking a more emphatic response might require more consideration. For instance, in 2015, a video showing people kicking a dog-shaped robot to demonstrate its balancing capabilities, sparked a debate about the ethics of kicking such a ‘dog’89. As robots become more human-like, in behaviour, appearance or both, it may be increasingly difficult for LEAs to apply existing legislation to respond to situations involving unmanned systems. Would hitting a “human” robot constitute physical abuse as others may perceive it? And at which point do people identify enough with a robot to consider negative behaviour towards it an offense? It will be critical to have anticipatory public debates and legislative efforts in order to provide a relevant and clear legal context. さらに、ソーシャルロボットが人間との接続を継続するにつれ、社会がそれらをどう捉えるか、ひいては法執行機関がそれらとどう関わるべきかについて、変化が生じると考えられる。
現時点では警察がドローンを撃墜することは許容されるかもしれないが、より強い反発を招く無人システムの介入については、より慎重な検討が必要となるだろう。例えば2015年、犬の形をしたロボットを蹴ってそのバランス能力を実証する動画が、そのような「犬」を蹴る行為の倫理について議論を巻き起こした。ロボットが行動や外見、あるいはその両方でより人間らしくなるにつれ、法執行機関が既存の法律を適用して無人システムに関わる状況に対応することは、ますます困難になるかもしれない。「人間」ロボットを殴る行為は、他者がそう認識するならば身体的虐待にあたるのか?そして、人々がロボットに対して十分な同情を抱き、それに対する否定的な行為を犯罪と見なす境界線はどこにあるのか?関連性があり明確な法的枠組みを提供するためには、先を見据えた公的な議論と立法努力が不可欠である。
No more privacy プライバシーの終焉
Satellites, artificial intelligence, open-source intelligence, and real-time surveillance have transformed modern conflict zones into what is now being called the transparent battlefield90, and maybe this expression is equally relevant for society in general, the transparent society. 衛星、人工知能、オープンソース情報、リアルタイム監視は、現代の紛争地帯を「透明な戦場」と呼ばれるものに変えた。この表現は、社会全体、すなわち「透明な社会」にも同様に当てはまるかもしれない。
Unmanned systems, navigating our world and interacting with us and each other will be observing the world around them, with us in it. When these become ubiquitous in society, this will mean that there is the possibility to be observed almost everywhere, anytime. With household assistant systems, this extends to people’s privacy spaces. Depending on the implementation and applicable data protection standards, the observations made by these systems could be used to gather data on people without their knowledge or explicit consent. While this has already been a business model widely applied in smartphones and a vast number of IoT devices, including household robots, an increase in capability and autonomy of unmanned systems are likely to exacerbate this threat to individual privacy. As these systems rely on sensors like cameras to navigate our world, questions relating to how to effectively regulate their use and deployment without stifling innovation will become increasingly important. While some general privacy related legislative aspects are already in place, a failure to regulate and implement may lead to a situation where people are subject to significant threat to their personal privacy when these potentially vast amounts of data are leveraged by companies and, potentially, criminals. Current crimes relying on the exploitation of data leaks and unsecured personal devices could become even more invasive when capable unmanned systems are found everywhere – in public, as well as at home. 無人システムは、私たちの世界を移動し、私たちや互いと交流しながら、私たちを含む周囲の世界を観察する。これらが社会に遍在する時、それはほぼどこでも、いつでも観察される可能性を意味する。
家庭用アシスタントシステムでは、これは人々のプライバシー空間にまで及ぶ。実装方法や適用されるデータ保護標準によっては、これらのシステムによる観察が、本人の知らぬ間に、あるいは明示的な同意なく個人データを収集するために利用される可能性がある。これは既にスマートフォンや家庭用ロボットを含む膨大なIoT機器で広く適用されているビジネスモデルだが、無人システムの能力と自律性の向上は、個人のプライバシーに対するこの脅威をさらに深刻化させるだろう。これらのシステムがカメラなどのセンサーに依存して世界をナビゲートする以上、イノベーションを阻害せずにその使用と展開を効果的に規制する方法に関する課題は、ますます重要になる。プライバシー関連の一般的な法的枠組みは既に存在するが、規制と実施が不十分であれば、企業が、そして潜在的には犯罪者が膨大な量のデータを活用する際に、個人のプライバシーが重大な脅威に晒される事態を招きかねない。データ漏洩や保護されていない個人端末の悪用を基盤とする現行の犯罪は、高性能な無人システムが公共の場だけでなく家庭内にも遍在する状況下では、さらに侵入的なものとなる可能性がある。
Law enforcement operations may be tactically limited by these omnipresent observers. Already, the widespread introduction of home security camera systems and smart cars has limited the possibility for law enforcement officers to investigate criminals covertly. Mobile robotics systems on the lookout for police, equipped with facial recognition to decide who is friend or not, may make it even more difficult for police to conduct their investigations and police certain areas effectively. こうした遍在する監視装置は、法執行機関の作戦行動を制約する可能性がある。既に家庭用防犯カメラやスマートカーの普及により、警察官が犯罪者を密かに捜査する余地は狭まっている。警察を警戒し、顔認識技術で味方か敵かを判断する移動型ロボットシステムが登場すれば、警察の捜査活動や特定区域の警備はさらに困難になるだろう。
Less accountability 説明責任の低下
The increasing autonomy of unmanned systems raises complex questions about liability and accountability. Unlike directly controlled systems, where the controller is clearly responsible for the system’s actions, autonomous systems blur the lines of responsibility. When an autonomous system breaks the law, it is unclear whether the owner, producer, coder, or system itself should be held liable. The current legal framework is inadequate to address these questions, and new concepts and regulations will be necessary to resolve them. The fact that the owner, producer, 39THE UNMANNED FUTURE(S). THE IMPACT OF ROBOTICS AND UNMANNED SYSTEMS ON LAW ENFORCEMENT 40 or system may not be within the same jurisdiction as the crime adds an additional layer of complexity, as is currently the case in the area of cybercrime, highlighting the need for a comprehensive approach to addressing these challenges. 無人システムの自律性が高まるにつれ、責任と説明責任に関する複雑な問題が生じる。制御者がシステムの行動に明確に責任を負う直接制御システムとは異なり、自律システムでは責任の境界線が曖昧になる。自律システムが法律に違反した場合、所有者、製造者、プログラマー、あるいはシステム自体に責任があるかは不明確だ。現行の法的枠組みではこれらの問題を解決できず、新たな概念と規制が必要となる。所有者、製造者、あるいはシステム自体が犯罪の発生地と同じ管轄区域内に存在しない可能性があるという事実は、サイバー犯罪分野で現在見られるように、さらなる複雑さを加える。これは、これらの課題に対処するための包括的なアプローチの必要性を浮き彫りにしている。
Effective regulation will be essential for law enforcement, too, in this context. A lack of relevant regulation may lead to limited uptake of these systems in law enforcement as well as a lack of public trust in the use by law enforcement of these systems. While unmanned systems provide unique opportunities to more effectively fight organised crime and terrorism, further precision of the general regulation of such systems to the context of law enforcement work will be key to enabling police organisations to develop needed capabilities to maintain relevance in a more unmanned future.
この文脈において、法執行機関にとっても効果的な規制は不可欠である。関連する規制が欠如している場合、法執行機関におけるこれらのシステムの導入が限定的になるだけでなく、法執行機関によるこれらのシステムの使用に対する公衆の信頼も損なわれる可能性がある。無人システムは組織犯罪やテロ対策において独自の機会を提供する一方で、警察組織がより無人化された未来において必要とされる能力を開発し、その重要性を維持するためには、法執行活動の文脈に即した一般規制のさらなる精密化が鍵となる。
To address the emerging challenges posed by autonomous unmanned systems, it is essential to establish a new framework that clarifies liability, accountability, and regulation. This framework must consider the complex relationships between the system, its instructors, and the physical environment, as well as the potential consequences of their actions. 自律型無人システムがもたらす新たな課題に対処するには、責任の所在、説明責任、規制を明確化する新たな枠組みの構築が不可欠である。この枠組みは、システム、その操作者、物理的環境の間の複雑な関係性、ならびにそれらの行動がもたらす潜在的な結果を考慮しなければならない。
A 3D society needs 3D policing 三次元社会には三次元警察活動が必要だ
The future operating environment for law enforcement will likely see a shift from monitoring two dimensional surfaces to three dimensional volumes. As criminal activities migrate across air, sea, and underground domains simultaneously, traditional perimeter-based policing becomes obsolete. This multi- dimensional criminality will require a multi-dimensional law enforcement response. 法執行機関の将来の活動環境は、二次元的な表面の監視から三次元空間の監視へと移行する可能性が高い。犯罪活動が空・海・地下領域を同時に横断するにつれ、従来の境界線に基づく警察活動は時代遅れとなる。この多次元的な犯罪性には、多次元的な法執行対応が求められる。
The majority of transport and logistics today moves on pre- determined streets and paths. Unmanned systems might challenge this arrangement, as drones, submersibles, and ground-based robots may not take the same paths as humans (and human-operated systems). With an increase in unmanned systems, under water and in the air, the planes in which humans operate will be become increasingly multi-dimensional. For law enforcement, unmanned systems not moving along the paths that are currently being policed will bring new challenges in terms of monitoring and enforcement. 現在の輸送・物流の大半は、予め定められた道路や経路を移動している。無人システムはこの構造に挑む可能性がある。ドローン、潜水艇、地上ロボットは、人間(および人間が操作するシステム)と同じ経路を取らないかもしれないからだ。水中・空中における無人システムの増加に伴い、人間の活動領域はますます多次元化する。法執行機関にとって、現行の監視経路を辿らない無人システムは、監視と取締りの面で新たな課題を提起する。
For instance, smuggling operations may choose remote or inaccessible routes to cross borders while avoiding detection, as drones enable them to fly through previously impossible to navigate domains. An increase in autonomy might make these criminal use cases more attractive, as the distance (and, subsequently, deniability) between smuggler and recipient can be greatly increased. Particularly remote areas, such as vast forests, may be extremely difficult to monitor effectively, given technical and resource constraints. If traffic in such remote areas increases, it will be increasingly important to find ways to have the means to respond to potential criminal abuse quickly and effectively. Furthermore, maritime smuggling can be decentralized effectively, using unmanned systems trafficking a variety of small harbours or coastal locations to avoid security in large, commercial harbours. 例えば密輸組織は、ドローンが従来航行不可能だった領域を飛行可能にしたことで、検知を回避しつつ国境を越えるために遠隔地やアクセス困難なルートを選択する可能性がある。自律性の向上は、密輸業者と取得者の距離(そして結果としての関与の否認可能性)を大幅に拡大できるため、こうした犯罪利用ケースをより魅力的にする可能性がある。特に広大な森林地帯のような辺境地域は、技術的・資源的制約から効果的な監視が極めて困難だ。こうした辺境地域での交通量が増加すれば、潜在的な犯罪的悪用に対して迅速かつ効果的に対応する手段を確保することがますます重要となる。さらに海上密輸は、大型商業港湾の警備を回避するため、無人システムを用いて多様な小規模港湾や沿岸地域を移動させることで、効果的に非中央集権化される可能性がある。
Cities will also see a major impact. As drone swarms replace individual drones, patrolling the skies will become a core law enforcement task, creating aerial highways that are increasingly dense with autonomous traffic. Criminal organisations will seek to exploit this density, blending in their own drones while carrying illicit goods through urban landscapes. The challenge will not be limited to detecting individual threats, but distinguishing malicious intent within clouds of legitimate aerial activity moving at significant speed. 都市部も大きな影響を受ける。個体ドローンから群れドローンへ移行するにつれ、空域のパトロールは法執行の核心的任務となり、自律飛行体でますます密集する空中ハイウェイが形成されるだろう。犯罪組織はこの密集状態を悪用し、違法品を積んだ自組織のドローンを都市景観に紛れ込ませるだろう。課題は個々の脅威を検知することだけでなく、正当な航空活動が高速で移動する群れの中から悪意ある意図を見分けることにある。
These emerging, multi-dimensional developments may mean that criminal activity goes undetected, also preventing statistical analysis and, thus, limiting prioritisation of this crime unless new monitoring techniques and modes of mitigation are identified and implemented. こうした多面的な新たな展開により、犯罪活動が検知されず、統計分析も妨げられる可能性がある。その結果、新たな監視技術や緩和手段が特定・導入されない限り、この犯罪への優先対応が制限されるだろう。
The emergence of swarms will effectively create a volume problem for law enforcement. Criminal and terrorist networks, as a result, think in volumes rather than routes, treating air, land, and sea as a single operational space. Consequently, the law enforcement response will require volumetric jurisdiction—the authority and capability to pursue threats seamlessly across vertical boundaries. 群れ(スウォーム)の出現は、法執行機関にとって実質的に「量の問題」を生み出す。その結果、犯罪組織やテロリストネットワークは経路ではなく量で考え、空・陸・海を単一の作戦空間として扱うようになる。したがって法執行機関の対応には、垂直境界を越えてシームレスに脅威を追跡する権限と能力、すなわち「体積的管轄権」が求められる。
Officers will need to understand how criminal activities flow through the three-dimensional spaces above, around, and beneath traditional patrol areas. 警官は、従来のパトロール区域の上空・周辺・地下という三次元空間を犯罪活動がどのように流れるかを理解する必要がある。
Unmanned systems themselves might provide part of the law enforcement response. Patrol drones and high-altitude pseudo- satellites (HAPS) equipped with high-resolution cameras and thermal imaging, for instance, could cover vast urban areas and provide real- time data to command centres. This capability would enable rapid response to incidents, improve detection of illicit system activity, and enhance overall policing effectiveness in the more unmanned future. Furthermore, law enforcement agencies could deploy fleets of drones in collaborative swarm formations to quickly assess and respond to large-scale emergencies, such as natural disasters or public safety threats, providing a coordinated response that maximises resource efficiency. On the borders, unmanned systems might patrol vast and otherwise inaccessible areas, using advanced sensors to detect illegal activities, while relaying crucial intelligence to human operators for swift intervention. 無人システム自体が法執行対応の一端を担う可能性がある。例えば高解像度カメラや熱画像装置を搭載したパトロールドローンや高高度疑似衛星(HAPS)は、広大な都市圏をカバーし、指揮センターへリアルタイムデータを提供できる。この能力により、無人化が進む未来において、インシデントへの迅速な対応、違法システム活動の検知、警察活動全体の効率化が図られる。さらに、法執行機関は協調的な群れ編成でドローンの艦隊を展開し、自然災害や公共安全上の脅威といった大規模な緊急事態を迅速に評価・対応できる。これにより資源効率を最大化する調整された対応が可能となる。国境地帯では、無人システムが広大で通常は到達困難な地域をパトロールし、高度なセンサーで違法活動を検知しながら、迅速な介入のため重要な情報を人間のオペレーターに中継するかもしれない。
These examples illustrate a future where technology not only enhances the capabilities of law enforcement but also transforms the way officers interact with their communities, environments, as well as robots and unmanned systems. The potential for collaborative swarms of drones to quickly respond to emergencies or for collaborative robots to enhance community policing and engagement could offer new and valuable capabilities in intelligence gathering, surveillance, and emergency response. At the same time, it would free up cognitive ability for human officers to focus on what humans do better, generating a double win. これらの事例は、技術が法執行機関の能力を強化するだけでなく、警官が地域社会や環境、さらにはロボットや無人システムと関わる方法そのものを変革する未来を示している。緊急事態に迅速に対応する協調型ドローンの群れや、地域警察活動と市民関与を強化する協調型ロボットの可能性は、情報収集、監視、緊急対応において新たな価値ある能力をもたらしうる。同時に、人間の警官は認知能力を解放され、人間がより得意な業務に集中できるようになる。これは二重の利益をもたらす。
   
Recommendations 提言
To address the emerging challenges and opportunities posed by unmanned systems, we recommend a joint approach on building law enforcement capability with and against unmanned systems, at both national and European levels. The recommendations are centred around four key capability components: operations management, competence, system and structure. 無人システムがもたらす新たな課題と機会に対処するため、国家レベルおよび欧州レベルの両方で、無人システムを「活用する」能力と「対抗する」能力を構築する共同アプローチを推奨する。提言は四つの主要能力要素を中心に構成される:作戦管理、能力、システム、構造である。
Operations management 運用管理
・Develop a strategic intent that outlines how LEAs want to respond to the development, use, and potential misuse of unmanned systems, as well as their impact on society. ・法執行機関が、無人システムの開発・使用・悪用可能性、および社会への影響にどう対応するかを示す戦略的意図を策定する。
・Establish a “physical sandbox” environment that enables LEAs to test, learn, and adapt unmanned systems in a real-world setting, outside of a laboratory, and facilitate international cooperation and collaboration on development, testing, and procurement. This will also provide fact-based input to policy makers.
・法執行機関が実験室外の実環境で無人システムを試験・学習・適応できる「物理的サンドボックス」環境を整備し、開発・試験・調達における国際協力・連携を促進する。これにより政策立案者への事実に基づく情報提供も行う。
・Develop a comprehensive strategy to support the creation of EU- based regulation, standards and certification for safety, security, lawful use, and interoperability. ・安全性、セキュリティ、合法的使用、相互運用性に関するEUベースの規制・標準・認証制度構築を支援する包括的戦略を策定する。
Competence 能力
・Establish a competence hub that connects internal teams to a centralised repository of knowledge, expertise, and best practices. This hub should be linked and coordinated at European level, facilitating the gathering and dissemination of relevant insights about unmanned systems across borders. When appropriate, the hub could give guidance on technological standards.
・内部チームを知識・専門性・ベストプラクティスの中央リポジトリに接続する能力ハブを設立する。このハブは欧州レベルで連携・調整され、国境を越えた無人システムに関する知見の収集と普及を促進する。必要に応じて、技術標準に関するガイダンスを提供できる。
・Invest in comprehensive training programs for personnel that cover a range of topics, including regulations, use, countermeasures, investigation, forensics and protection related to unmanned systems. ・無人システムに関連する規制、使用、対策、調査、フォレンジック、防御など幅広いトピックを網羅した包括的な人材育成プログラムに投資する。
・Build trust and transparency with society by establishing outreach, consultation, and co-creation programs to actively involve citizens. ・市民を積極的に巻き込むためのアウトリーチ、協議、共同創造プログラムを確立し、社会との信頼と透明性を構築する。
System システム
・Integrate unmanned systems into existing information systems. This includes information access, information management, and decision-making flows to enhance operational effectiveness.
・無人システムを既存の情報システムに統合する。これには、運用効率を高めるための情報アクセス、情報管理、意思決定フローが含まれる。
・Develop a structured information flow regarding the criminal use of unmanned systems in Europe. Include in this flow forensic data to support counter-technologies. ・欧州における無人システムの犯罪的利用に関する構造化された情報フローを開発する。このフローには、対抗技術を支援するためのフォレンジックデータを含める。
・Establish a centralised standardisation and procurement process for technologies that benefit from coordinated and standardised purchases. Ensure that this process prioritises interoperability, technological independence and fosters the creation of law enforcement-centric solutions. ・協調的かつ標準化された調達による恩恵を受ける技術のため、中央集権的な標準化・調達プロセスを確立する。このプロセスでは相互運用性、技術的独立性を優先し、法執行機関中心のソリューション創出を促進する。
Structure 構造
・Adapt the command structure of law enforcement agencies to accommodate the capabilities of unmanned systems and AI. Agencies should transition to Command, Control, Collaboration, and Autonomy (C3A) frameworks, which enables interoperability, collaboration, flexibility, and adaptability. C3A frameworks recognise that unmanned systems and AI can operate more autonomously, making decisions and taking actions in real-time, and that human operators must be able to collaborate with these systems to achieve shared goals within necessary timeframes.
・無人システムとAIの能力に対応できるよう、法執行機関の指揮構造を適応させる。各機関は、相互運用性、連携、柔軟性、適応性を可能とする指揮・統制・連携・自律(C3A)枠組みへ移行すべきである。C3A枠組みは、無人システムとAIが自律性を高め、リアルタイムで意思決定と行動を実行できること、また人間のオペレーターが必要な時間枠内で共通目標を達成するため、これらのシステムと連携できる必要があることを認識している。

 

結論...

Conclusions 結論
The integration of more capable unmanned systems into society is expected to have a significant impact. Driven by the convergence of emerging technologies such as AI, sensors, robotics, and next- generation communications systems, the rapid progress in the field will likely lead to the widespread adoption of unmanned systems in various domains, including everyday life and law enforcement operations. より高性能な無人システムの社会への統合は、大きな影響をもたらすと予想される。AI、センサー、ロボティクス、次世代コミュニケーションシステムといった新興技術の融合に後押しされ、この分野の急速な進展は、日常生活や法執行活動を含む様々な領域での無人システムの普及につながるだろう。
Law enforcement agencies will have to police a wider physical space, than they traditionally have. As unmanned systems become more prevalent, they will continue to challenge traditional policing practices and raise new concerns. The technology will also bring a more transparent operating environment where few things stay hidden. 法執行機関は従来よりも広範な物理的空間を監視する必要に迫られる。無人システムの普及が進むにつれ、従来の警察活動は継続的に挑戦を受け、新たな懸念が生じるだろう。この技術はまた、隠されたものがほとんど存在しない、より透明性の高い運用環境をもたらす。
Law enforcement agencies will face significant challenges in preparing for this shift towards an even more “phygital” society in the more unmanned future. The increasing capabilities and numbers of unmanned systems will introduce new threats, and criminals and terrorists will likely exploit these technologies for malicious purposes. Recent conflicts have shown that threat actors are often early adopters of new technologies, and law enforcement must be prepared to counter these emerging threats. 法執行機関は、無人化が進む未来において、さらに「フィジタル」な社会への移行に備える上で重大な課題に直面する。無人システムの能力と数の増加は新たな脅威をもたらし、犯罪者やテロリストがこれらの技術を悪用する可能性が高い。近年の紛争では、脅威アクターが新技術の早期採用者となるケースが多く見られ、法執行機関はこうした新興脅威に対抗する準備が必要だ。
However, unmanned systems also offer tremendous benefits to law enforcement operations, with the potential to enhance capabilities and improve public safety. To realise these benefits, a solid regulatory foundation and investments in public trust are essential. The public must trust law enforcement to use these technologies effectively and accountably. しかし無人システムは、能力強化と公共の安全向上につながる可能性を秘め、法執行活動に多大な利益をもたらす。これらの利益を実現するには、確固たる規制基盤と公共の信頼への投資が不可欠だ。市民は法執行機関がこれらの技術を効果的かつ説明責任を持って運用すると信頼しなければならない。
Furthermore, the development of unmanned systems is largely driven by non-EU companies, which poses a risk of critical dependence on foreign suppliers for Europe. To maintain technological autonomy and uphold European values, significant investments and joint innovation procurement processes are necessary. さらに無人システムの開発は主に非EU企業が主導しており、欧州が外国サプライヤーに重大な依存を強いられるリスクがある。技術的自律性を維持し欧州の価値観を守るためには、大規模な投資と共同イノベーション調達プロセスが不可欠である。
The future of unmanned systems is uncertain, and various trends could unfold in different directions. The purpose of exploring these trends is not to predict the future but to identify desirable and undesirable outcomes and take proactive steps to increase the chances developments will lead to an acceptable outcome. Further law enforcement and policing oriented research is needed to delve deeper into the topics discussed in this report. 無人システムの未来は不確実であり、様々な動向が異なる方向へ展開しうる。これらの動向を探る目的は未来を予測することではなく、望ましい結果と望ましくない結果を特定し、発展が許容可能な結果へ導かれる可能性を高めるための先制的な措置を講じることにある。本報告書で議論された主題をさらに深く掘り下げるためには、法執行機関および警察活動に焦点を当てた追加研究が必要である。
This report aims to raise awareness about the potential impact of unmanned systems on law enforcement and encourage preparedness and deliberate action for the challenges and opportunities that lie ahead. It is possible to prevent harm caused by unmanned systems and harness their potential to make Europe safer, but our decision making must adapt to the tempo of this development. 本報告書は、無人システムが法執行に及ぼす潜在的影響への認識を高め、今後の課題と機会に対する準備と意図的な行動を促すことを目的とする。無人システムによる被害を防止し、その可能性を活用して欧州の安全性を高めることは可能だが、我々の意思決定は、この発展のペースに適応しなければならない。

 

 

 

 

 

| | Comments (0)

2025.08.20

英国 新興技術の組み合わせとそのサイバーセキュリティへの影響 (2025.08.08)

こんにちは、丸山満彦です。

英国の科学、イノベーション&テクノロジー省が、新興技術の組み合わせとそのサイバーセキュリティへの影響についての報告書を公表していますが、興味深いですね...

新興技術としては、

  • 人工知能(AI)、
  • ブロックチェーン、
  • IoT、
  • エッジコンピューティング、
  • 量子コンピューティング、
  • ブレイン・コンピュータ・インターフェースなど

の技術間の相乗関係を考察し、それらの交点がサイバー脅威の状況をどのように変革するかを分析しているということのようです...

 

● GOV.UK

・2025.08.08 Emerging technology pairings and their effects on cyber security

 

Emerging technology pairings and their effects on cyber security 新興技術の組み合わせとそのサイバーセキュリティへの影響
Research on the convergence of emerging technologies and the implications for cyber security. 新興技術の融合に関する研究とそのサイバーセキュリティへの影響。
Details 詳細
The convergence of emerging technologies is transforming industries, introducing both opportunities and unprecedented cyber security challenges. This paper explores the synergistic relationships between technologies such as Artificial Intelligence (AI), Blockchain, the Internet of Things (IoT), Edge Computing, Quantum Computing, and Brain-Computer Interfaces, analysing how their intersections reshape the cyber threat landscape. 新興技術の融合は、産業を変革し、機会と前例のないサイバーセキュリティの課題の両方をもたらしている。本論文では、人工知能(AI)、ブロックチェーン、IoT、エッジコンピューティング、量子コンピューティング、ブレイン・コンピュータ・インターフェースなどの技術間の相乗関係を考察し、それらの交点がサイバー脅威の状況をどのように変革するかを分析している。
Through a comprehensive review of the literature and real-world case studies, this study identifies and highlights key vulnerabilities arising from these technological pairings. 文献の包括的なレビューと実例研究を通じて、この研究は、これらの技術の組み合わせから生じる主要な脆弱性を識別し、その重要性を強調している。
This research is part of the government’s wider work to ensure good cyber security in new and emerging technologies, and to improve cyber resilience across the UK economy. この研究は、新しい技術や新興技術における優れたサイバーセキュリティを確保し、英国経済全体のサイバーレジリエンスを向上させるための、政府による広範な取り組みの一環である。

 

 

新興技術とそのサイバーセキュリティへの影響

・2025.08.08 Emerging technologies and their effect on cyber security

 

 

1. Executive summary 1. エグゼクティブサマリー
2. Introduction 2. 序論
3. Definitions of emerging technologies and pairings 3. 新興技術と組み合わせの定義
4. Methodology 4. 方法論
4.1 Research questions 4.1 研究質問
4.2 Stage 1: Construction of long list 4.2 段階1:長リストの構築
4.3 Stage 2: Initial prioritisation of Technologies, and technology pairings 4.3 段階2:技術の初期優先順位付けと技術組み合わせ
4.3.1 Pairings and groupings 4.3.1 組み合わせとグループ化
4.4 Stage 3: Systematic literature review 4.4 段階3:体系的な文献レビュー
4.5 Research Limitations 4.5 研究の制限
5. Literature review 5. 文献レビュー
5.1 Digital Twins and Artificial Intelligence 5.1 デジタルツインと人工知能
5.1.1 Identified Groupings 5.1.1 特定されたグループ
5.1.2 Summary of Digital Twins and AI 5.1.2 デジタルツインと AI の概要
5.1.3 Digital Twins and AI Cyber Implications 5.1.3 デジタルツインと AI のサイバーへの影響
5.1.4 Conclusions of Digital Twins and AI for convergence 5.1.4 融合に関するデジタルツインと AI の結論
5.2 Blockchain and Artificial Intelligence 5.2 ブロックチェーンと人工知能
5.2.1 Identified Groupings 5.2.1 特定されたグループ
5.2.2 Summary of Blockchain and AI 5.2.2 ブロックチェーンと AI の概要
5.2.3 Cyber Security Impacts of Blockchain and AI 5.2.3 ブロックチェーンと AI のサイバーセキュリティへの影響
5.2.4 Emerging Countermeasures 5.2.4 新たな対策
5.2.5 Case Study: AI-Blockchain Synergy for Secure Supply Chain Management 5.2.5 ケーススタディ:サプライチェーンマネジメントのセキュリティ強化のための AI とブロックチェーンの相乗効果
5.2.6 Conclusions 5.2.6 結論
5.3 Artificial Intelligence and IoT 5.3 人工知能と IoT
5.3.1 Identified Groupings 5.3.1 特定されたグループ
5.3.2 Summary of AI and IoT 5.3.2 AI と IoT の概要
5.3.3 Cyber Security Impacts of AI and IoT 5.3.3 AI と IoT のサイバーセキュリティへの影響
5.3.4 Emerging Countermeasures 5.3.4 新しい対策
5.3.5 Case Study: AI-Enhanced IoT for Smart Healthcare Systems 5.3.5 ケーススタディ:スマートヘルスケアシステムのための AI 強化型 IoT
5.3.6 Conclusions 5.3.6 結論
5.4 Personalised Medicine and Artificial Intelligence 5.4 個別化医療と人工知能
5.4.1 Identified Groupings 5.4.1 特定されたグループ
5.4.2 Summary of Personalised Medicine and AI 5.4.2 個別化医療と AI の概要
5.4.3 Personalised Medicine and AI Cyber Implications 5.4.3 個別化医療と AI のサイバーへの影響
5.4.4 Conclusions of Personalised Medicine and AI 5.4.4 個別化医療と AI の結論
5.5 Quantum Communications and IoT 5.5 量子通信と IoT
5.5.1 Identified Groupings 5.5.1 特定されたグループ
5.5.2 Summary of Quantum Communications + IoT 5.5.2 量子通信 + IoT の概要
5.5.3 Quantum Communications + IoT Cyber Implications 5.5.3 量子通信 + IoT のサイバーへの影響
5.5.4 Conclusions of Quantum Communications + IoT 5.5.4 量子通信 + IoT の結論
5.6 Low Earth Orbit Satellites and Quantum Communications 5.6 低軌道衛星と量子通信
5.6.1 Identified Groupings 5.6.1 特定されたグループ
5.6.2 Summary of Quantum Communications + Low-Earth Orbit Satellites 5.6.2 量子通信 + 低軌道衛星の概要
5.6.3 Quantum Communications + Low-Earth Orbit Satellites Cyber Implications 5.6.3 量子通信 + 低軌道衛星のサイバーへの影響
5.6.4 Case Study: Space Air Ground Integrated Networks 5.6.4 ケーススタディ:宇宙・航空・地上統合ネットワーク
5.6.5 Conclusions of Quantum Communications + Low-Earth Orbit Satellites 5.6.5 量子通信 + 低軌道衛星の結論
5.7 Edge Computing and IoT 5.7 エッジコンピューティングと IoT
5.7.1 Identified Groupings 5.7.1 特定されたグループ
5.7.2 Summary of Fog/Edge Computing and IoT 5.7.2 フォグ/エッジコンピューティングと IoT の概要
5.7.3 Cyber Security Impacts of Fog/Edge Computing and IoT 5.7.3 フォグ/エッジコンピューティングと IoT のサイバーセキュリティへの影響
5.7.4 Emerging Countermeasures 5.7.4 新たな対策
5.7.5 Case Study: Edge Computing and IoT Synergy for Smart Manufacturing Systems 5.7.5 事例:スマート製造システムにおけるエッジコンピューティングと IoT の相乗効果
5.7.6 Conclusions 5.7.6 結論
5.8 Brain-Computer Interfaces and Robotics 5.8 ブレイン・コンピュータ・インターフェースとロボット工学
5.8.1 Identified Groupings 5.8.1 特定されたグループ
5.8.2 Summary of Brain-Computer Interfaces + Robotics 5.8.2 ブレイン・コンピュータ・インターフェース + ロボット工学の概要
5.8.3 Brain-Computer Interfaces + Robotics Cyber Implications 5.8.3 ブレイン・コンピュータ・インターフェース + ロボット工学のサイバーへの影響
5.8.4 Conclusions of Brain-Computer Interfaces + Robotics 5.8.4 ブレイン・コンピュータ・インターフェース + ロボット工学の結論
5.9 Biological Computing and IoT 5.9 生物学的コンピューティングと IoT
5.9.1 Identified Groupings 5.9.1 特定されたグループ
5.9.2 Summary of Converged Pairing: Biomedical Computers and IoT 5.9.2 融合ペアの概要:生物医学コンピュータと IoT
5.9.3 Biomedical Computers and IoT Cyber Implications 5.9.3 生物医学コンピュータと IoT のサイバーへの影響
5.9.4 Conclusion of Biomedical Computers and IoT for convergence 5.9.4 融合に関する生物医学コンピュータと IoT の結論
5.10 Artificial Intelligence and Quantum Sensing 5.10 人工知能と量子センシング
5.11 Swarm and Neurotechnology 5.11 群知能と神経技術
6. Exploring technology synergies beyond academic publications 6. 学術論文を超えた技術の相乗効果を探る
7. Conclusion 7. 結論
7.1 Which groups or pairings of emerging technologies are likely to create novel or compounding cyber security risks? 7.1 新興技術のどのグループまたは組み合わせが、新規または複合的なサイバーセキュリティリスクを生み出す可能性が高いか?
7.2 Which industries will be affected by the compounding cyber security risks stemming from convergence of emerging technologies? 7.2 新興技術の融合によって生じる複合的なサイバーセキュリティリスクの影響を受ける業界はどれか?
7.3 Which applications of emerging technologies are most likely to be affected by technology convergence? 7.3 技術の融合によって最も影響を受ける新興技術の応用分野はどれか?
Appendix 附属書
References 参考文献

 

 

 

Emerging technologies and their effect on cyber security 新興技術とサイバーセキュリティへの影響
1. Executive summary 1. エグゼクティブサマリー
The convergence of emerging technologies is transforming industries, introducing both opportunities and unprecedented cyber security challenges. This paper explores the synergistic relationships between technologies such as Artificial Intelligence (AI), Blockchain, the Internet of Things (IoT), Edge Computing, Quantum Computing, and Brain-Computer Interfaces, analysing how their intersections reshape the cyber threat landscape. 新興技術の融合は、産業を変革し、チャンスと前例のないサイバーセキュリティの課題の両方をもたらしている。本論文では、人工知能(AI)、ブロックチェーン、IoT、エッジコンピューティング、量子コンピューティング、ブレイン・コンピュータ・インターフェースなどの技術間の相乗的関係を考察し、それらの交点がサイバー脅威の状況をどのように変革するかを分析している。
Through a comprehensive review of the literature and real-world case studies, the study also identifies and highlights key vulnerabilities arising from these technological pairings. For example, although AI’s integration with IoT and Blockchain enhances threat detection and automation, it also amplifies risks such as adversarial attacks and data privacy concerns. Equally, the fusion of Edge Computing with IoT improves real-time decision-making but expands the attack surface, making distributed systems more susceptible to cyber threats. Moreover, quantum computing, particularly in combination with Low Earth Orbit (LEO) satellites, promises enhanced security for communication networks but introduces novel risks, such as side-channel attacks and denial-of-service vulnerabilities. 文献の包括的なレビューと実例研究を通じて、この調査では、これらの技術の組み合わせから生じる主要な脆弱性も特定し、強調している。例えば、AI と IoT およびブロックチェーンの統合は、脅威の検知と自動化を強化する一方で、敵対的攻撃やデータ・プライバシーに関する懸念などのリスクも増幅する。同様に、エッジ・コンピューティングと IoT の融合は、リアルタイムの意思決定を改善する一方で、攻撃対象領域を拡大し、分散システムをサイバー脅威に対してより脆弱にする。さらに、量子コンピューティングは、特に低軌道衛星(LEO)と組み合わせることで、通信ネットワークのセキュリティ強化を約束するが、サイドチャンネル攻撃やサービス拒否の脆弱性などの新たなリスクも生じる。
Additionally, the application of AI and Digital Twins in personalised medicine, defence, and critical infrastructure presents new cyber security risks, including data manipulation, privacy breaches, and cyber-physical system exploitation. Subsequently, the findings underscore the urgency for proactive security strategies, interdisciplinary collaboration, and the development of robust frameworks to mitigate evolving cyber threats. The report herein underlines that addressing these cyber security risks becomes imperative, as technology convergence accelerates, to ensure the resilience and security of interconnected systems across industries. さらに、個別化医療、防衛、重要インフラにおける AI やデジタルツインの適用は、データ操作、プライバシー侵害、サイバーフィジカルシステムの悪用など、新たなサイバーセキュリティリスクをもたらす。その結果、進化するサイバー脅威を緩和するための、積極的なセキュリティ戦略、学際的な連携、および強固な枠組みの開発が急務であることが明らかになった。本報告書は、技術の融合が加速する中、業界間の相互接続システムのレジリエンスとセキュリティを確保するためには、これらのサイバーセキュリティリスクへの対応が不可欠であることを強調している。
2. Introduction 2. 序論
In an era where technological advancements unfold at an unprecedented pace, the merging of once distinct technologies—known as technological convergence—is reshaping industries, driving innovation, and altering the cyber security landscape. As technologies like artificial intelligence, quantum computing, 6G networks, edge computing, nanotechnologies, and robotics increasingly intersect, they create both unprecedented opportunities and complex vulnerabilities. 技術革新がかつてないスピードで進む時代において、かつては別個だった技術が融合する「技術の融合」が、産業の変革、イノベーションの推進、サイバーセキュリティの展望の変化をもたらしている。人工知能、量子コンピューティング、6G ネットワーク、エッジコンピューティング、ナノテクノロジー、ロボット工学などの技術がますます交錯するにつれて、これまでにない機会と複雑な脆弱性の両方が生まれている。
Historical precedents highlight the significant impact of technological convergence on cyber security. For instance, the merging of mobile devices with the Internet of Things (IoT) expanded the attack surface dramatically. The proliferation of inexpensive, limited-processing devices that are often poorly managed and insecure by default led to events like the Mirai botnet attack in 2016. This large-scale distributed denial-of-service (DDoS) attack disrupted major platforms such as Dyn DNS, Twitter, and Netflix. This led to the need for policy interventions like the Product Security and Telecommunications Infrastructure Act 2022 to enhance the security of internet-connected products. 歴史的な事例は、技術融合がサイバーセキュリティに与える重大な影響を浮き彫りにしている。例えば、モバイルデバイスとインターネットオブシングス(IoT)の融合は、攻撃対象領域を劇的に拡大した。低コストで処理能力が限られ、デフォルトでセキュリティが不十分なデバイスが普及した結果、2016年のMiraiボットネット攻撃のような事件が発生した。この大規模な分散型サービス妨害(DDoS)攻撃は、Dyn DNS、Twitter、Netflix などの主要プラットフォームを混乱に陥れた。この事件を受けて、インターネットに接続された製品のセキュリティを強化するための、2022 年製品セキュリティおよび通信インフラ法などの政策介入の必要性が生じました。
Another example is the integration of Operational Technology (OT) with Information Technology (IT) systems in critical infrastructure like energy grids, transportation, and manufacturing. The Stuxnet worm in 2010, which targeted Iranian nuclear facilities, demonstrated how convergence could enable targeted attacks on critical systems. This incident introduced the world to cyber-kinetic warfare, where cyber-attacks have physical impacts, and highlighted that systems not originally designed to face IT-based threats are now vulnerable due to technological convergence. もう 1 つの例は、エネルギーグリッド、輸送、製造などの重要インフラにおける、運用技術(OT)と情報技術(IT)システムの統合である。2010 年にイランの核施設を標的とした Stuxnet ワームは、融合によって重要なシステムに対する標的型攻撃が可能になることを実証した。このインシデントは、サイバー攻撃が物理的な影響をもたらすサイバーキネティック戦争という概念を世界に知らしめ、もともと IT ベースの脅威に対処するために設計されていないシステムは、技術の融合によって脆弱になっていることを浮き彫りにした。
However, we also see security benefits from convergence - the combination of Machine Learning (ML) and threat detection has significantly advanced cyber security capabilities. Tools such as CrowdStrike’s Falcon platform and Darktrace’s AI systems utilise ML to detect anomalies in real time, enabling proactive responses to emerging threats. These technologies go beyond traditional rule-based systems by identifying novel patterns of malicious activity, allowing organisations to respond dynamically. しかし、融合にはセキュリティ上のメリットもある。機械学習(ML)と脅威の検知を組み合わせることで、サイバーセキュリティ機能が大幅に強化されている。CrowdStrike の Falcon プラットフォームや Darktrace の AI システムなどのツールは、ML を利用して異常をリアルタイムで検知し、新たな脅威にプロアクティブに対応する。これらのテクノロジーは、従来のルールベースのシステムを超えて、悪意のある活動の新しいパターンを識別し、組織が動的に対応することを可能にする。
More recently, the combination of social engineering techniques with AI-generated deep-fakes has heightened cyber security risks. Highly convincing phishing attacks now leverage AI to create realistic deep-fake media, such as voice impersonations, leading to significant financial losses in cases where executives were impersonated to authorise fraudulent transactions. These developments have prompted a focus on detecting synthetic media, developing authenticity verification tools, and educating users about social engineering resilience. 最近では、ソーシャルエンジニアリング手法と AI によって生成されたディープフェイクの組み合わせにより、サイバーセキュリティのリスクが高まっている。非常に説得力のあるフィッシング攻撃は、AI を活用して、声の偽装など、現実的なディープフェイクメディアを作成するようになり、経営幹部を装って不正な取引を承認させるなど、多額の金銭的損失につながるケースも発生している。こうした動向を受けて、合成メディアの検知、信頼性検証ツールの開発、ソーシャルエンジニアリングに対するレジリエンスに関するユーザー教育が注目されている。
Initiating research into the cyber security implications of technological convergence presents significant challenges. The vast scope of emerging technologies, coupled with a scarcity of documented information and the subtle nature of convergence—which often occurs without explicit recognition—complicates efforts to identify and assess potential risks. In this report we conduct a systematic review to illuminate the converged technology pairings and groupings most pertinent to cyber security concerns. 技術融合がサイバーセキュリティに与える影響に関する研究を開始するには、大きな課題がある。新興技術の広範な範囲、文書化された情報の不足、そして多くの場合、明確に認識されることなく進行する融合の微妙な性質により、潜在的なリスクの特定と評価は困難である。本報告書では、サイバーセキュリティの問題に最も関連性の高い融合技術の組み合わせとグループを明らかにするために、体系的なレビューを実施している。
This report aims to define emerging converged technologies relevant to cyber security over the next five to ten years and beyond. Focusing on literature published from 2021 onwards, it will identify key technology pairings that are poised to significantly influence the cyber security domain by shaping both the nature and scale of cyber threats, altering the prevalence of cyberattacks, introducing new attack vectors, and enhancing cyber defence mechanisms through novel detection and mitigation strategies. このレポートは、今後 5 年から 10 年、そしてそれ以降において、サイバーセキュリティに関連する新たな融合技術を定義することを目的としている。2021 年以降に発行された文献に焦点を当て、サイバー脅威の性質と規模を形作り、サイバー攻撃の蔓延を変え、新たな攻撃ベクトルを導入し、斬新な検知および緩和戦略によってサイバー防御メカニズムを強化することにより、サイバーセキュリティ分野に大きな影響を与える可能性のある主要な技術の組み合わせを特定する。
By consolidating convergent technology pairings and groupings identified in recent literature, we provide an overview of the current landscape. We offer recommendations on technology convergences of particular interest, specifying the industries or sectors where these are likely to be most prevalent, and through detailed case studies of converged technologies in specific settings, we highlight where convergence is expected to produce novel or compounding cyber security risks. 最近の文献で特定された融合技術の組み合わせとグループを統合することで、現在の状況の概要を説明する。特に注目すべき技術の融合について、それが最も普及すると思われる業界や分野を特定して推奨事項を示し、特定の状況における融合技術の事例を詳しく紹介することで、融合によって新たなサイバーセキュリティリスクや複合的なリスクが生じる可能性のある分野を明らかにする。

 

最も多く組み合わせられている技術...(図2)

AI, IoT, ブロックチェーン, クラウドコンピューティング, ロボティクス, エッジコンピューティング...

1_20250816134901

 

組み合わせのヒートマップ...(図3)

1_20250816134801

 

AIに関連する技術を含む繋がり...(図5)

 バブルの大きさは繋がりの多さ、色は技術のグループ

3_20250816135201

 

 

 

1_20250816124901

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.08.18 英国 融合技術のセキュリティ確保:専門家による見解 (2025.08.08)

 

 

| | Comments (0)

2025.08.07

米国 NIST IR 8536(第2次公開ドラフト)サプライチェーンのトレーサビリティ:製造メタフレームワーク (2025.07.31)

こんにちは、丸山満彦です。

昨年の9月27日に公開され、意見募集をされていたIR 8536(初期公開ドラフト)サプライチェーンのトレーサビリティ:製造メタフレームワークの第二次公開草案が公開され、意見募集されています...

全体像を理解するのは、この図...

1_20250803230701

Figure 4. Value and Supply Chain Traceability Events Across Ecosystems(エコシステムをまたいだ価値とサプライチェーンのトレーサビリティイベント)

 

NIST - ITL

・2025.07.31 NIST IR 8536 (2nd Public Draft) Supply Chain Traceability: Manufacturing Meta-Framework

NIST IR 8536 (2nd Public Draft) Supply Chain Traceability: Manufacturing Meta-Framework NIST IR 8536 (2nd Public Draft) サプライチェーンのトレーサビリティ: 製造メタフレームワーク
Announcement 発表
The NIST National Cybersecurity Center of Excellence (NCCoE) has released a second public draft of NIST Internal Report 8536, Supply Chain Traceability: Manufacturing Meta-Framework, for public comment.  NIST国立サイバーセキュリティ・センター・オブ・エクセレンス(NCCoE)は、NIST内部報告書8536「サプライチェーントレーサビリティ」の第2次パブリックドラフトを公表した: 製造メタフレームワーク)」を公開し、パブリックコメントを募集した。
We thank everyone who submitted comments on the initial draft. Your thoughtful feedback prompted substantial revisions. In response, we are publishing this second draft to provide an opportunity for further review and input before finalizing the report. 初回ドラフトにコメントをお寄せいただいた皆様に感謝する。皆様からの丁寧なフィードバックにより、大幅な改訂が行われた。これを受けて、本報告書を最終化する前に、さらなる検討とご意見をいただく機会を提供するため、この第2ドラフトを公表するものである。
Background 背景
This paper presents a framework to improve traceability across complex and distributed manufacturing ecosystems. It enables structured recording, linking, and querying of traceability data across trusted repositories. This initial research is intended to explore approaches that may support stakeholders in verifying product provenance, meet contractual obligations, and assess supply chain integrity. 本稿は、複雑で分散した製造エコシステム全体にわたるトレーサビリティを改善する枠組みを提示する。このフレームワークは、信頼できるリポジトリ間でトレーサビリティ・データの構造化された記録、リンク、クエリを可能にする。この初期研究は、利害関係者が製品の出所を検証し、契約上の義務を果たし、サプライチェーンの完全性をアセスメントすることを支援するアプローチを探ることを目的としている。
This framework builds on previous NIST research (NIST IR 8419) and incorporates insights and feedback from industry, standards bodies, and academia. It is designed to enhance national security, economic resilience, and supply chain risk management, particularly across manufacturing and other critical infrastructure sectors. この枠組みは、NIST の過去の研究(NIST IR 8419)を基礎とし、産業界、標準団体、学界からの見識やフィードバックを取り入れている。このフレームワークは、国家安全保障、経済レジリエンス、サプライチェーンリスクマネジメント、特に製造業やその他の重要インフラセクターの強化を目的としている。
We invite and encourage those interested to review and comment on this draft.  本ドラフトにご関心をお持ちの方は、ぜひご一読いただき、ご意見をお寄せいただきたい。 
... ...
Abstract 概要
Manufacturing and critical infrastructure supply chains are vital to the security, resilience, and economic strength of the United States. However, increasing global complexity makes tracing product origins more difficult, exposing vulnerabilities to logistical disruptions, fraud, sabotage, and counterfeit materials. 製造事業者と重要インフラのサプライチェーンは、米国の安全保障、レジリエンス、経済力にとって不可欠である。しかし、世界的な複雑化により、製品の出所の追跡が困難になり、物流の途絶、詐欺、妨害行為、偽造品に対する脆弱性が露呈している。
This report introduces a meta-framework designed to enhance end-to-end supply chain traceability. The framework organizes, links, and queries traceability data across diverse manufacturing ecosystems, enabling stakeholders to verify product provenance, support fulfillment of external stakeholder obligations (e.g., legal, contractual, or operational requirements), and supply chain integrity. 本報告書では、エンド・ツー・エンドのサプライチェーントレーサビリティを強化するために設計されたメタ枠組みを紹介する。この枠組みは、多様な製造エコシステムにわたるトレーサビリティ・データを整理、リンク、照会し、利害関係者が製品の出所を検証し、外部利害関係者の義務(法的、契約上、または業務上の要件など)の履行、およびサプライチェーンの完全性をサポートできるようにする。
The Meta-Framework builds on previous NIST research (IR 8419) and reflects input from industry, standards organizations, and academic collaborators. By improving supply chain transparency and risk mitigation, this framework supports national security, economic stability, and resilience in U.S. manufacturing operations. この枠組みは、これまでのNISTの研究(IR 8419)を基礎とし、産業界、標準化団体、学界の協力者からの意見を反映したものである。サプライチェーンの透明性とリスク緩和を改善することにより、この枠組みは米国の製造事業における国家安全保障、経済的安定、レジリエンスを支援する。

 

・[PDF] NIST.IR.8536.2pd

20250803-233235

 

目次...

Executive Summary エグゼクティブサマリー
1. Introduction 1. 序論
1.1. Supply Chain Traceability Needs and Challenges 1.1. サプライチェーントレーサビリティのニーズと課題
1.2. Approach 1.2. アプローチ
1.3. Goals 1.3. 目標
1.4. Audience 1.4. 想定読者
1.5. Considerations and Limitations 1.5. 考察と限界
2. Meta-Framework Overview 2. メタフレームワークの概要
2.1. Traceability Records and Core Components 2.1. トレーサビリティ記録とコア・コンポーネント
2.2. Trusted Data Repositories and Ecosystems 2.2. 信頼されるデータ・リポジトリとエコシステム
2.2.1. Controlled Access and Data Retention 2.2.1. アクセス管理とデータ保持
2.2.2. Ensuring Data Integrity 2.2.2. データの完全性の確保
2.2.3. Ecosystem Governance and Role in the Meta-Framework 2.2.3. エコシステムのガバナンスとメタフレームワークにおける役割
2.3. Traceability Chain Across Supply Chain Ecosystems 2.3. サプライチェーンのエコシステムを横断するトレーサビリティ・チェーン
2.4. Example Traceability Chain Across Ecosystem Boundaries 2.4. エコシステムの境界を越えたトレーサビリティ・チェーンの例
3. Meta-Framework Data Model 3. メタフレームワークのデータモデル
3.1. Traceability Records Overview 3.1. トレーサビリティ記録の概要
3.2. Traceability Record Structure 3.2. トレーサビリティ記録の構造
3.3. Traceability Record Subclasses 3.3. トレーサビリティ記録のサブクラス
3.4. Traceability Links and Supplemental Data References 3.4. トレーサビリティリンクと補足データ参照
3.5. Ensuring Data Integrity and Interoperability 3.5. データの完全性と相互運用性の確保
3.5.1. Common Data Models 3.5.1. 共通データモデル
3.5.2. Traceability Chain and Data Integrity Mechanisms 3.5.2. トレーサビリティ・チェーンとデータ完全性メカニズム
3.5.3. End-to-End Trust and Component Validation 3.5.3. エンド・ツー・エンドの信頼性とコンポーネントの妥当性確認
3.5.4. Notional Traceback Scenario 3.5.4. 想定されるトレースバックのシナリオ
3.5.5. Controlled Access and Authentication 3.5.5. アクセス管理と認証器
4. Meta-Framework Use Cases 4. メタフレームワークの使用例
4.1. Creating and Recording Traceability Data 4.1. トレーサビリティデータの作成と記録
4.1.1. Sequence Diagram 1: Manufacturer of Microelectronics Make Traceability Events 4.1.1. シーケンス図1:マイクロエレクトロニクスの製造事業者がトレーサビリティ・イベントを作成する
4.1.2. Sequence Diagram 2: Operational Tech with Receive, Make, Assemble, and Ship 4.1.2. シーケンス図2:受領、製造、組立、出荷を伴う操業技術者
4.1.3. Sequence Diagram 3: Critical Infrastructure Acquirer with Receive and Employ 4.1.3. シーケンス図 3:受領と雇用を伴う重要インフラの取得者
4.2. Querying and Retrieving Traceability Records 4.2. トレーサビリティ記録の照会と検索
4.2.1. Sequence Diagram 4: Operational Technology with Traceback to ME 4.2.1. シーケンス図 4:ME へのトレースバックを伴う運用技術
4.2.2. Sequence Diagram 5: Critical Infrastructure Acquirer with Traceback to ME and OT 4.2.2. シーケンス図 5:ME および OT へのトレースバックを持つ重要インフラ取得者
4.2.3. Sequence Diagram Summary 4.2.3. シーケンス図の概要
5. Conclusion 5. 結論
References 参考文献
Appendix A. List of Symbols, Abbreviations, and Acronyms 附属書A. 記号、略語、頭字語のリスト
Appendix B. Glossary 附属書B. 用語集
Appendix C. Security, Privacy, and Access Control Considerations 附属書C. セキュリティ、プライバシー、アクセス管理に関する考察
C.1. Identity, Authentication, and Access Control C.1. アイデンティティ、認証器、アクセス管理
C.2. Privacy Measures C.2. プライバシー対策
C.3. Balancing High-Assurance Identity and Privacy Risks C.3. 高保証 ID とプライバシーリスクのバランス
C.4. Threat Modeling and Ecosystem Risk Posture C.4. 脅威モデリングとエコシステムリスク態勢
C.5. Other Considerations C.5. その他の考慮事項
Appendix D. Future Directions for the Meta-Framework 附属書 D. メタフレームワークの今後の方向性
D.1. Expanding Traceability to Sustainment and Lifecycle Phases D.1. トレーサビリティの持続可能性とライフサイクル段階への拡大
D.2. Additional Supply Chain Traceability Record Subclasses D.2. サプライチェーントレーサビリティ記録サブクラスの追加
Appendix E. Key Challenges in Achieving Interoperable Traceability 附属書 E.相互運用可能なトレーサビリティの実現における主要課題
E.1. Challenge #1: Information Stored in Disjointed and Isolated Repositories E.1. 課題#1:バラバラで孤立した保管場所に保管されている情報
E.2. Challenge #2: Inconsistent semantic and data definitions E.2. 課題#2:セマンティックとデータ定義の一貫性の欠如
E.3. Challenge #3: Ensuring Traceability Data Integrity E.3. 課題#3:トレーサビリティ・データの完全性の確保
E.4. Challenge #4: Balancing Confidentiality and Privacy in Traceability E.4. 課題#4:トレーサビリティにおける機密性とプライバシーのバランス
Appendix F. Technical Data Model and Class Structures 附属書F. 技術データモデルとクラス構造
F.1. UML Class Structure of Traceability Records F.1. トレーサビリティ記録のUMLクラス構造
F.2. Traceability_Record Superclass F.2. Traceability_Recordスーパークラス
F.3. Traceability Record Supporting Data Objects F.3. トレーサビリティ記録をサポートするデータオブジェクト
F.3.1. Key-Value Pair Data Objects F.3.1. キーと値のペアのデータ・オブジェクト
F.3.2. Traceability Link Data Object F.3.2. トレーサビリティリンクデータオブジェクト
F.3.3. Supplemental Link Data Objects F.3.3. 補足リンクデータ・オブジェクト
F.4. Event-Specific Subclasses F.4. イベント固有のサブクラス
F.4.4. Make Record Subclass F.4.4. Make レコード・サブクラス
F.4.5. Assemble Record Subclass F.4.5. アセンブル・レコード・サブクラス
F.4.6. Ship Record Subclass F.4.6. 出荷記録サブクラス
F.4.7. Receive Record Subclass F.4.7. 受信記録サブクラス
F.4.8. Employ Record Subclass F.4.8. 雇用記録サブクラス
F.5. Conclusion F.5. 結論
Appendix G. Technical Details and Governance Considerations 附属書G. 技術的詳細とガバナンスに関する考察
G.1. Serialization and Data Formats G.1. シリアライゼーションとデータフォーマット
G.2. Cryptographic Validation and Security G.2. 暗号的妥当性確認とセキュリティ
G.3. Governance and Data Retention Policies G.3. ガバナンスとデータ保持方針
G.4. Interoperability Mechanisms G.4. 相互運用性メカニズム

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
This paper introduces a meta-framework designed to enhance traceability across diverse supply chains by enabling structured recording, linking, and retrieval of traceability data. Through trusted data repositories, stakeholders can access supply chain information needed to verify product provenance, demonstrate compliance with external stakeholder requirements and contractual obligations, and assess supply chain integrity. The framework establishes several key principles to ensure visibility, reliability, and integrity in supply chain traceability:  本稿では、トレーサビリティ・データの構造化された記録、リンク、検索を可能にすることで、多様なサプライチェーンにおけるトレーサビリティを強化するために設計されたメタ・フレームワークを紹介する。利害関係者は、信頼できるデータリポジトリを通じて、製品の出所を検証し、外部の利害関係者の要求事項や契約上の義務を遵守していることを証明し、サプライチェーンの完全性を評価するために必要なサプライチェーン情報にアクセスすることができる。このフレームワークは、サプライチェーントレーサビリティにおける可視性、信頼性、完全性を確保するために、いくつかの重要な原則を確立している: 
• Common Data and Ontologies: Stakeholders are empowered to establish traceability consistency, ensuring that data remains structured, interoperable, and understandable across industries.  - 共通データとオントロジー: 共通のデータとオントロジー:関係者は、トレーサビリティの一貫性を確立する権限を与えられ、データが構造化され、相互運用可能で、業界を超えて理解可能であることを保証する。 
• Trusted Repositories and Ecosystems: The Meta-Framework supports the use of secure, trusted data repositories within industry ecosystems to manage traceability records.  - 信頼できるリポジトリとエコシステム: メタフレームワークは、トレーサビリティ記録を管理するために、業界のエコシステム内で安全で信頼できるデータリポジトリの使用をサポートする。 
• Traceability Record Model: Traceability is built from records created from supply chain events (e.g., manufacturing, shipping, receiving). These are linked using cryptographically verifiable connections to form traceability chains—sequentially linked records that allow stakeholders to validate product history and movement across the supply network.  - トレーサビリティ記録モデル: トレーサビリティは、サプライチェーンのイベント(製造、出荷、入荷など)から作成された記録から構築される。これらは、暗号的に検証可能な接続を使用してリンクされ、トレーサビリティ・チェーンを形成する。これは、関係者がサプライ・ネットワーク全体にわたって製品の履歴と移動を妥当性確認できるようにする、逐次リンクされた記録である。 
Offering a scalable solution for improving traceability across industry sectors, the MetaFramework enables organizations to exchange required supply chain data securely. As global supply chains grow more complex, this approach strengthens supply chain integrity, supports fulfillment of external obligations (e.g., legal, contractual, operational), and fosters stakeholder trust.  業種を問わずトレーサビリティを改善するスケーラブルなソリューションを提供するメタフレームワークは、組織が必要なサプライチェーンデータを安全に交換することを可能にする。グローバルなサプライチェーンが複雑化する中、このアプローチはサプライチェーンの完全性を強化し、対外的な義務(法的、契約上、業務上など)の履行をサポートし、利害関係者の信頼を醸成する。 
Crucially, the design allows organizations to share only the traceability data necessary for external validation, while retaining control over sensitive intellectual property and proprietary information. This principle of controlled disclosure balances transparency with confidentiality, helping stakeholders mitigate business risk while promoting accountability.  極めて重要な点は、組織が機密性の高い知的財産や専有情報を管理しながら、外部からの妥当性確認に必要なトレーサビリティデータのみを共有できるように設計されていることである。この管理された情報開示の原則は、透明性と機密性のバランスを保ち、ステークホルダーが説明責任を促進しながらビジネスリスクを緩和するのに役立つ。 
Successful implementation depends on effective ecosystem governance, risk-informed identity management, and data integrity safeguards. Readers are advised to consult Appendices C and G for additional guidelines and security considerations.  導入が成功するかどうかは、効果的なエコシステム・ガバナンス、リスク情報に基づ くアイデンティティ・マネジメント、およびデータ完全性の保護措置にかかっている。読者は、追加のガイドラインおよびセキュリ ティに関する考慮事項については、附属書 C および G を参照することが推奨される。 

 

結論...

5. Conclusion  5. 結論 
Tracking products and components across the supply chain is essential for ensuring product integrity, building stakeholder trust, and supporting accountability throughout manufacturing ecosystems. However, collecting and verifying this data remains a significant challenge, especially in complex, multi-tiered supply chains with fragmented systems and inconsistent data practices.  サプライチェーン全体にわたって製品と部品を追跡することは、製品の完全性を確保し、利害関係者の信頼を構築し、製造エコシステム全体を通じて説明責任を支援するために不可欠である。しかし、このデータの収集と検証は、特に断片的なシステムと一貫性のないデータ運用を伴う複雑で多層的なサプライチェーンにおいては、依然として大きな課題である。 
The Meta-Framework improves traceability by defining a structured, interoperable model for recording, linking, and retrieving supply chain event data. It enables stakeholders to:  メタフレームワークは、サプライチェーンのイベントデータを記録、リンク、検索するための構造化された相互運用可能なモデルを定義することにより、トレーサビリティを改善する。これにより、関係者は以下のことが可能になる: 
• Sequence traceability records and relevant supply chain event data;  - トレーサビリティ記録と関連するサプライチェーンイベントデータを順序付ける; 
• Interpret retrieved information in its appropriate ecosystem-defined context; and  - 検索された情報を適切なエコシステムで定義された文脈で解釈する。 
• Rely on the integrity and authenticity of the data to validate product pedigree and provenance.  - 製品の血統と出所を妥当性確認するために、データの完全性と認証器に依拠する。 
Traceability chains are formed by linking records created from supply chain events (e.g., manufacturing, shipping, receiving) using cryptographically verifiable connections. These links allow stakeholders to construct a coherent sequence of events that reflect product movement and transformation across the supply network.  トレーサビリティチェーンは、サプライチェーンイベント(製造、出荷、入荷など)から作成された記録を、暗号的に検証可能な接続を使用してリンクすることによって形成される。これらのリンクにより、関係者は、サプライ・ネットワーク全体にわたる製品の移動と変容を反映する首尾一貫した一連の事象を構築することができる。 
Trust is supported by cryptographic validation mechanisms that allow participants to confirm the authenticity and integrity of traceability records. Hash-based traceability links ensure that each record is tamper-evident and verifiably connected to the previous one, enabling consistent validation over time.  信頼は、関係者がトレーサビリティ記録の認証性と完全性を確認できる暗号的妥当性確認メカニズムによってサポートされる。ハッシュベースのトレーサビリティリンクは、各レコードが改ざんされないことを保証し、前のレコードと検証可能に接続され、長期にわたる一貫した妥当性確認を可能にする。 
The Meta-Framework supports verifiability through controlled disclosure to promote transparency without compromising sensitive information. Organizations can publish only the traceability data necessary for external validation while maintaining control over sensitive intellectual property, personally identifiable information (PII), and other sensitive or proprietary information.  Meta-Frameworkは、機密情報を損なうことなく透明性を促進するために、管理された情報公開を通じて検証可能性をサポートする。組織は、機密性の高い知的財産、個人を特定できる情報(PII)、その他の機密情報や専有情報の管理を維持しながら、外部の妥当性確認に必要なトレーサビリティデータのみを公開することができる。 
Understanding is enhanced using ecosystem-specific data dictionaries and schema definitions, which constrain how data is structured and interpreted. By aligning with externally defined traceability requirements, such as those from industry groups or contractual agreements, the Meta-Framework ensures consistency and interoperability across diverse environments.  エコシステム固有のデータ辞書とスキーマ定義を使用することで、データの構造化と解釈方法を制限し、理解を深めることができる。メタフレームワークは、業界団体や契約上の合意など、外部で定義されたトレーサビリティ要件と整合させることで、多様な環境にわたる一貫性と相互運用性を保証する。 
While this framework establishes a strong foundation for cross-ecosystem traceability, several areas require further development. Ongoing research will focus on expanding interoperability models, refining integrity validation methods, supporting privacy-enhanced mechanisms, and introducing new subclasses of traceability records and event types to reflect emerging operational needs. For additional discussion on future directions, see Appendix D.  このフレームワークは、エコシステム間のトレーサビリティのための強力な基盤を確立しているが、いくつかの分野ではさらなる開発が必要である。進行中の研究は、相互運用性モデルの拡大、妥当性確認方法の改良、プライバシー強化メカニズムのサポート、新たな運用ニーズを反映するためのトレーサビリティレコードとイベントタイプの新しいサブクラスの導入に焦点を当てる。将来の方向性については、附属書Dを参照のこと。 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.10.08 米国 NIST IR 8536(初期公開ドラフト)サプライチェーンのトレーサビリティ:製造メタフレームワーク (2024.09.27)

 

| | Comments (0)

2025.06.07

防衛省 装備品等の研究開発における責任あるAI適用ガイドライン (2025.06.06)

こんにちは、丸山満彦です。

防衛省防衛装備庁が、装備品等の研究開発における責任あるAI適用ガイドラインを公表しましたね...

現場でAIが暴走すると、場合によっては現場の人(敵も味方も)の生命に影響が及ぶこともあるしね...

 

防衛装備庁

・2025.06.06 [PDF] 装備品等の研究開発における責任あるAI適用ガイドラインの策定について


装備品等の研究開発における責任あるAI適用ガイドラインの策定について

防衛省は、装備品等の研究開発における防衛省・自衛隊独自のガイドラインとして、「装備品等の研究開発における責任あるAI適用ガイドライン」を策定いたしましたので、お知らせいたします。

本ガイドラインは、令和6年7月に策定・公表した「防衛省AI活用推進基本方針」を受け、防衛省の装備品等の研究開発における責任あるAI適用のコンセプトを示すものとして、策定したものです。


 

装備品等の研究開発における責任あるAI適用ガイドライン


・[PDF] 装備品等の研究開発における責任あるAI適用ガイドライン 概要

20250607-62039

 

・[PDF] 装備品等の研究開発における責任あるAI適用ガイドライン本文(第1版)

 20250607-62212

目次...

1 本ガイドライン策定の背景
(1) 諸外国の軍事領域におけるAIの責任ある利用に関する取組状況
(2) AIの軍事利用に関する国際的な議論及び我が国の見解

2 本ガイドラインの位置付け

3 AI装備品等の研究開発における確認事項
(1) 準拠すべき要件の設定

4 AI装備品等の研究開発における実施事項
(1) AI装備品等の分類
(2) 法的・政策的審査
(3) 技術的審査
(4) その他

5 まとめ

 

 


 

表1 AI政治宣言において参加国が実施すべき措置として定められている事項

A  国家は、自国の軍事組織が、AI能力の責任ある開発、配備、使用のために、これらの原則を採用し、実施することを確保すべきである。 
B  国家は、軍事用AI能力が国際法、特に国際人道法の下でのそれぞれの義務に合致して使用されることを確保するために、法的審査などの適切な措置をとるべきである。国家はまた、国際人道法の履行を促進し、武力紛争における文民及び民用物の保護を改善するために、軍事用AI能力をどのように使用するかを検討すべきである。 
C  国家は、高官が、このような兵器システムを含むがこれに限定されない、重大な影響を及ぼす活用を伴う軍事用AI能力の開発と配備を効果的かつ適切に監督することを確保すべきである。 
D  国家は、軍事用AI能力における意図せざるバイアスを最小化するための積極的な措置をとるべきである。 
E  国家は、軍事用AI能力を組み込んだ兵器システムを含め、軍事用AI能力の開発、配備、使用において、関係者が適切な注意を払うことを確保すべきである。 
F  国家は、軍事用AI能力が、関連する防衛要員にとり透明で、また、かかる要員により監査可能な方法論、データソース、設計手順及び文書作成により開発されることを確保すべきである。 
G  国家は、軍事用AI能力を使用する、又は使用を承認する要員が、それらのシステムの使用について状況に応じた適切な判断を下し、自動化バイアスのリスクを軽減するために、それらのシステムの能力と限界を十分に理解するよう訓練されることを確保すべきである。 
H  国家は、軍事用AI能力が明確かつ十分に定義された用途を有し、それらの意図された機能を果たすようにデザイン及び設計されていることを確保すべきである。 
I  国家は、軍事用AI能力の安全性、セキュリティ、有効性が、その明確に定義された用途の範囲内で、そのライフサイクル全体にわたって、適切かつ厳格なテストと保証の対象となることを確保すべきである。自己学習または継続的に更新される軍事用AI能力については、国家は、モニタリングなどのプロセスを通じて、重要な安全機能が低下していないことを確保すべきである。 
J  国家は、軍事用AI能力における失敗のリスクを軽減するために、意図しない結果を検出し回避する能力、及び、そのようなシステムが意図しない挙動を示した場合に、例えば、配備されたシステムによる交戦を停止させる、又はその作動を停止させることによって対応する能力などの適切な保護措置を実施すべきである。 

 

図1 本ガイドラインの対象範囲

1_20250607062901

 

 

図2 諸外国の軍事領域におけるAI倫理原則

1_20250607063401

 

図3 研究開発事業における実施事項

1_20250607063501

 

図4 装備品等の分類と対応フロー

1_20250607063502

 

法的・政策的審査 表2 要件Aの審査項目(基準)

  確認項目 
A-1 
国際人道法を始めとする国際法及び国内法の遵守が確保できないものでないこと 
   
・ 当該装備品等を使用するにあたって軍事的必要性と人道的配慮のバランスを考慮し、過度の傷害又は無用の苦痛を与えることを防止する措置が含まれた構想になっているか。 
・ 軍事目標と非軍事目標(文民及び民用物)を区別し、軍事目標のみに攻撃を行うことが可能な装備品等の構想になっているか(区別原則)。 
・ 予測される具体的かつ直接的な軍事的利益との比較において、巻き添えによる文民の死亡、文民の傷害、民用物の損傷又はこれらの複合した事態を過度に引き起こすことが予測される攻撃を防止する措置が含まれた構想になっているか(比例性原則)。 
・ 攻撃に先立つ軍事目標の選定から攻撃の実施に至るまで、無差別攻撃を防止し文民と民用物への被害を最小限に抑えるための各種予防措置を実施し得る構想になっているか(予防原則)。 
・ 国際人道法のその他の要請や適用のある他の国際法及び国内法に従って使用することができないような装備品等の構想となっていないか。 
A-2 
人間の関与が及ばない完全自律型致死兵器でないこと 
・ 適切なレベルの人間の判断が介在し、人間による責任ある指揮命令系統の中での運用が確保できる構想となっているか。 
・ 人間の関与が及ばない完全自律型の致死性を有する兵器システムの開発ではないか。 

 

図5 法的・政策的審査体制イメージ

1_20250607063901

技術的審査 表3 要件Bの審査項目(基準)

  確認項目 
B-1 
人間の責任の明確化 
 
・ AIシステムの利用に際して適切なタイミングと程度において、運用者の関与や運用者による適切な制御が可能となるように設計されているか。 
・ AIシステムと運用者それぞれの役割が明確に定義されているか。 
・ 運用者が負うべき責任が明確に定義されているか。 
B-2 
運用者の適切な理解の醸成 
 
・ AIシステムの挙動、パフォーマンス範囲、操作等に運用者が習熟して当システムを適切に使用できるように設計されているか。 
・ AIシステムへの過度の依存を防ぐための対策が設計されているか。 
・ AIシステムのモニタリング時に、運用者が不具合を認めたときにそれを改善することを可能とする仕組みが設計されているか。 
B-3 
公平性の確保 
・ データセットの公平性要件が明確化されているか。 
・ AIモデルに関連するバイアスが許容レベルを超えないか確認するとともに、不具合が認められた場合の改善の仕組みが設計されているか。 
B-4 
検証可能性、透明性の確保 
・ AIシステムの構築に係る過程、使用した手法・データ・アルゴリズム等が明確化され、その妥当性を後に検証可能な仕組みが整備されているか。 
・ 研究開発体制(事業者含む。)において、説明責任を果たす責任者を明確化しているか。 
B-5 
信頼性、有効性の確保 
   
・ AIシステムの信頼性を確保するために、多様な指標を用いた試験評価を実施しているか。 
・ 開発初期から研究開発終了までの全ての期間において、運用を想定したデータセットを使用することが検討されているか。 
・ 運用を想定して、AIに連接する装備品等の信頼性を損なうことなく、AIを適用できることを設計において担保されているか。 
・ AIシステムが容易に維持管理できる設計となっているか。 
・ AIシステムに対してセキュリティ管理策の実施が検討されているか。 
B-6 
安全性の確保 
・ AIシステムの誤作動や深刻な失敗・事故の発生を低減する安全機構が設計されているか。 
B-7 
国際法及び国内法の遵守が確保できないものでないこと 
・ 装備品等の運用に際して適用される国際法や国内法令、各種内部規則等から逸脱しないよう対策が検討されているか。 

 

図6 技術的審査体制イメージ

20250607-64325

 

図7 高リスクAI装備品等の標準的なリスク管理イメージ

1_20250607064401

 

図8 低リスクAI装備品等の標準的なリスク管理イメージ

1_20250607064501

 

表  要件Bのチェック項目に活用し得るRAI Toolkitの例

# RAI Toolkit 該当するチェック項目
ツール名称 ツール説明
Trust in Autonomous Systems Test
(TOAST)
システムに対する信頼度の評価 人間がシステムをどの程度信頼しているかを測定するための9つの質問からなるテスト。(例:私はシステムが何をすべきか理解している。
私はシステムの限界を理解している。等) [web]

B-2
運用者の適切な理解の醸成
Human-Machine
Teaming Systems Engineering Guide
システムの設計支援 システム開発者が人間のオペレーターと協力して機能するAIを設計するのを支援するガイド。
[web]
FairML AIモデルの公平性の診断・改善 AIモデルの予測結果に対して、性別や人種などの属性との関係を分析し、公平性を診断し、要因の特定、改善方法の提供を行うためのツールキット。AIモデルの予測結果の公平性を改善するために用いられる。
[web]

B-3
公平性の確保
Tensor Flow Fairness Indicators AIモデルの公平性の評価・改善 AIモデルの公平性に関する懸念を評価、改善、比較するためのツールキット。「公平性」とは、AIモデルが特定の属性(人種、性別、年齢など)に基づいて不当な差別をしないことを意味する。
[web]
What-If Tool AIモデル性能と公平性の評価 What-Ifツール(WIT)は、機械学習(ML)モデル、特に分類や回帰タスクにおいてブラックボックスシステムとして機能するモデルの理解と分析を支援する可視化ツール。
[web]
Explainer Dashboard AIモデルの解釈性向上 AIモデルの解釈性を高めるためのツールを提供するライブラリ。モデルの予測結果を視覚的に分析したり、特徴量の重要度を確認したりすることが可能。
[web] [web]

B-4
検証可能性、透明性の確保
InterpretML AIモデルの解釈性向上 機械学習の解釈可能性のための最新技術を一元的に包含するオープンソースのツール。このツールは、解釈可能なモデルを作成し、ブラックボックスシステムを説明する機能を提供する。モデルの全体的な振る舞いを理解したり、個々の予測の背後にある理由を理解したりすることが可能。
[web] [web]
Hugging Face
Data Card Template
データセットの透明性確保 データセットカードの作成手順を示すもの。データセットの内容、データセットを利用する背景、データセットの作成方法、その他利用者が注意すべき点を理解するのに役立つ。責任ある利用を促し、データセットに潜在する偏りを利用者に知らせることができる。
[web]
Hugging Face
Model Card Template
AIモデルの透明性確保 AIモデルを理解し、共有し、改善するためのフレームワーク。各モデルについて、その技術と設計方法を記述し、透明性・監査可能性を実現するのに役立つ。また、技術の適切な理解を示すために、設計手順が透明で監査可能であることを測定し示すのにも役立つ。
[web]
10 Threat Modeling Resource 脅威や脆弱性の特定・評価および対策の計画 AIの脅威モデリングのためのフレームワーク。AI機能のセキュリティを実現するために、脅威モデリングによってセキュリティレビューを実施し、それに基づいて推奨されるリスク軽減策を取り入れる。
[web]

B-5
信頼性、有効性の確保
11 EQUI(NE2) ニューラルネットワークの不確実性を定量化 モデルの予測における不確実性を可視化するツール。各予測の「信頼スコア(confidence score)」と「外れ値スコア(outlier score)」を提示し、モデルが通常のデータ範囲を超えた状況においてどの程度リスクが高まるかを評価することができる。モデルの精度を評価することだけでなく、データの偏りに対するモデルの頑健性を評価し、AIの適用可能な範囲を明確化することができる。
[web]
12 IBM Adversarial Robustness 360Attacks AIのセキュリティ強化 敵対的な攻撃を生成し、AIの信頼性(AIのセキュリティ)を高めるための堅牢性を訓練したり、攻撃成功率を計算してAIの信頼性(AIのセキュリティ)を測定し、示したりすることができるAIのセキュリティを守るためのPythonライブラリ。ユーザーが機械学習モデルやアプリケーションを、回避、汚染、抽出、推論といった敵対的な脅威から守り、評価するためのツールを提供する。TensorFlow、Keras、 PyTorch、scikit-learn、XGBoostなどのAIフレームワークをサポートしており、画像、表、音声、ビデオなどあらゆるデータタイプや、分類、物体検出、音声認識、生成、認証などのAIタスクに対応。
[web] [web]
13 Drift Tools AI機能の信頼性とガバナンスの支援 Drift Tools のアルゴリズムを AI機能に組み込んで、AI機能のパフォーマンスが保証されていない分布外の入力を検出し、AIの信頼性(有効性)と意図しない結果を検出する能力の実現を支援するPythonライブラリ。
外れ値、敵対的攻撃の検出(Adversarial detection:機械学習モデルに対する攻撃を検出し、防御するプロセス)、及びドリフト検出(Drift detection:機械学習モデルの学習データの統計的分布と、実際に遭遇するデータの分布との間に生じる変化を検出するプロセス)に特化している。
[web] [web]
B-2
運用者の適切
な理解の醸成
B-5
信頼性、有効性の確保
14 Python Outlier Detection (PyOD) 多変量データにおける異常値の検出 PyOD(Python Outlier Detection)は、多変量データにおける異常値を検出するための包括的かつスケーラブルなPythonライブラリ。このライブラリは、小規模プロジェクトから大規模データセットまで、さまざまなニーズに対応するための幅広いアルゴリズムを提供する。
[web] [web]
B-6
安全性の確保

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.21 欧州議会 防衛とAI

・2025.04.07 米国 上院軍事委員会 AIのサイバー能力の活用に関する証言 (2025.03.25)

・2025.01.18 米国 商務省産業安全保障局 人工知能普及のための枠組み(特定のAIの輸出規制...)

・2024.09.22 中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)

・2024.08.09 米国 国防大学出版局 統合軍クオータリー 「認知戦」

・2023.09.20 米国 GAO 人工知能の活用と急成長がその可能性と危険性を浮き彫りにする

・2023.09.10 カーネギーメロン大学ソフトウェア工学研究所 新たなテクノロジー:国防総省におけるソフトウェアの未来を変える7つのテーマ (2023.08.24)

・2023.08.16 Atlantic Council:現代の軍隊はどのようにAIを活用しているか

・2023.08.13 米国 国防総省 CDAOが国防総省の新しい生成的AIタスクフォース(タスクフォース・リマ)の指揮を執る

・2023.06.15 米国 GAO 科学技術スポットライト:生成的AI

・2020.08.10 AIと将来の軍事力についての中国の視点

・2020.06.07 米国国防省 人工知能が戦争をかえると予測

 

 

| | Comments (0)

2025.03.12

個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第315 - 316回委員会)(2025.03.05)

こんにちは、丸山満彦です。

いろいろあって、このところ一週間おくれてますが...個人情報保護法のいわゆる3年ごとの見直しの件について、ちょっとアップデートです...

 

第315回では、[PDF]「個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方」ということで、

 

1. 特定の個人に対する働きかけが可能となる個人関連情報に関する規律の在り方

2. 本人が関知しないうちに容易に取得することが可能であり、一意性・不変性が高いため、本人の行動を長期にわたり追跡することに利用できる身体的特徴に係るデータ(顔特徴データ等)に関する規律の在り方

3. 悪質な名簿屋への個人データの提供を防止するためのオプトアウト届出事業者に対する規律の在り方

が議論されたようです...

 

第316回では、「個人情報保護法の制度的課題に対する考え方(案)」について議論が進められれたようですね...

資料1−3「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要 はとても興味深いですね...意見を提出した方の名前が...

 

資料1-1 個人情報保護法の制度的課題に対する考え方(案)について
資料1-2 個人情報保護法の制度的課題の再整理

 

20250312-132512

資料1-3 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要

 

 

⚫︎ 個人情報保護委員会

委員会開催状況

 

   
2025.03.05 第316回個人情報保護委員会
資料1-1 個人情報保護法の制度的課題に対する考え方(案)について
資料1-2 個人情報保護法の制度的課題の再整理
資料1-3 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要
  議事概要
  議事録
2025.02.09 第315回個人情報保護委員会
資料1 個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)
  議事概要
  議事録
2025.02.05 第314回 個人情報保護委員会
資料1 個人情報保護法の制度的課題に対する考え方(案)について
  議事概要
  議事録
2025.01.22 第312回 個人情報保護委員会
資料1-1 「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について(案)
資料1-2 個人情報保護法の制度的課題の再整理
  議事概要
  議事録
2024.12.25 第311回 個人情報保護委員会
資料1 個人情報保護法のいわゆる3年ごと見直しに関する検討会 報告書
  議事概要
  議事録
2024.12.18 第7回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 現行制度と検討の方向性について(課徴金制度③)
資料2 検討会報告書(案)
参考資料1 これまでの主な論点及び関連御意見
参考資料2 第2回~第6回検討会における主な御意見
参考資料3 関係参考資料
参考資料4 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」に関するヒアリングの概要について
議事録 第7回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.12.17 第310回 個人情報保護委員会
資料1-1 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」 に関するヒアリングの概要について
資料1-2 事務局ヒアリングにおける主な御意見
参考資料1-1  
参考資料1-2 事務局ヒアリングの各参加者提出資料
  議事概要
  議事録
2024.11.28 第6回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 現行制度と検討の方向性について(課徴金制度②)
資料2 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度③)
資料3 これまでの主な論点及び関連御意見 (PDF : 2006KB)
参考資料1 第2回~第5回検討会における主な御意見
議事録 第6回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.11.12 第5回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 国内他法令における課徴金額の算定方法等について
資料2 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度②)
資料3 認定個人情報保護団体制度について
資料4 第4回までの主な論点及び関連意見 
資料5 個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点・今後の検討の進め方
参考資料1 第2回~第4回検討会における主な御意見
参考資料2 関係参考資料 
議事録 第5回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.10.16 第304回 個人情報保護委員会
資料1-1 個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点(案) 
資料1-2 今後の検討の進め方
  議事概要
  議事録 
2024.10.11 第4回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 全国消費生活相談員協会プレゼン資料 
資料2 中川構成員プレゼン資料 
資料3 第3回事務局資料に対する御質問と考え方
参考資料1 第2回及び第3回検討会における主な御意見 
参考資料2 関係参考資料
前回資料1ー1 総合的な案内所(個人情報保護法相談ダイヤル)における受付状況 
前回資料1ー2 名簿販売事業者に対する個人情報の保護に関する法律に基づく行政上の対応について
前回資料2 個人情報保護法の違反行為に係る事例等 
前回資料3 現行制度と検討の方向性について(課徴金制度)
前回資料4 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度)
議事録 第4回個人情報保護法のいわゆる3年ごと見直しに関する検討会 
2024.09.26 第3回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第 
資料1-1 総合的な案内所(個人情報保護法相談ダイヤル)における受付状況 
資料1-2 名簿販売事業者に対する個人情報の保護に関する法律に基づく行政上の対応について 
資料2 個人情報保護法の違反行為に係る事例等 
資料3 現行制度と検討の方向性について(課徴金制度)
資料4 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度)
参考資料1 第2回検討会における主な御意見 
参考資料2 個人情報の保護に関する基本方針
参考資料3 個人情報の保護に関する法律に基づく行政上の対応について(令和6年9月11日公表資料)
参考資料4 関係参考資料 
議事録 第3回個人情報保護法のいわゆる3年ごと見直しに関する検討会 
2024.09.05 第2回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
資料1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果
資料2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果(概要)
資料3 今後の検討の進め方
資料4 監視・監督活動及び漏えい等報告に関する説明資料
参考資料1 第1回検討会における主な意見
参考資料2 第1回検討会における主な質問及び回答
参考資料3 関係参考資料 
 議事録  
 2024.09.04 第299回 個人情報保護委員会
資料1-1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果
資料1-2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果(概要)
 議事概要  
 議事録  
2024.07.31 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
資料1 開催要綱(案)
資料2 主婦連合会御提出資料
資料3 新経済連盟御提出資料
資料4 全国消費者団体連絡会御提出資料
資料5 全国消費生活相談員協会御提出資料
資料6 日本IT 団体連盟御提出資料
資料7 日本経済団体連合会御提出資料
参考資料1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」概要
参考資料2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」本文
議事録  
2024.07.24 第296回 個人情報保護委員会
資料1 個人情報保護法のいわゆる3年ごと見直しに関する検討会の設置について
議事概要  
議事録  
 2024.06.26  第292回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理(案)
【委員長預かりで会議後に修正した資料】 資料1 個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理
資料2−1 日EU相互認証の枠組みの拡大に向けた対応について
資料2−2 個人情報保護委員会藤原靜雄委員長と欧州委員会ベラ・ヨウロバー副委員長(価値・透明性担当)の会談に関する共同プレス・ステートメント(英語)
資料2−3 個人情報保護委員会藤原靜雄委員長と欧州委員会ベラ・ヨウロバー副委員長(価値・透明性担当)の会談に関する共同プレス・ステートメント(日本語仮訳)
資料3 一般送配電事業者及び関係小売電気事業者等における顧客情報の不適切な取扱事案に対する個人情報の保護に関する法律に基づく行政上の対応について
議事概要  
議事録  
2024.06.13 第290回 個人情報保護委員会
資料1-1 第二次いわゆる3年ごと見直しへのコメント(ひかり総合法律事務所 板倉弁護士)
資料1-2 デジタル社会の個人情報保護法(新潟大学 鈴木教授)
議事概要  
議事録  
2024.06.12 第289回 個人情報保護委員会
資料1-1 個人情報保護委員会「いわゆる3年ごと見直し」ヒアリング(国立情報学研究所 佐藤教授) 
資料1-2 個人情報保護法3年ごと見直し令和6年に対する意見(産業技術総合研究所 高木主任研究員)
議事概要  
議事録  
2024.06.03 第287回 個人情報保護委員会
資料1-1 個人情報保護法見直しに関するコメント(京都大学 曽我部教授)
資料1-2 いわゆる3年ごと見直しに関する意見(慶應義塾大学 山本教授) 
資料1-3 3年ごと見直しヒアリング2024(英知法律事務所 森弁護士) 
資料1-4-1 個人情報保護法のいわゆる3年ごと見直しに関する意見(東京大学 宍戸教授)
資料1-4-2 宍戸常寿氏御提出資料(令和元年5月21日提出)
議事概要  
議事録  
2024.05.29 第286回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方③)
議事概要  
議事録  
2024.05.15 第284回 個人情報保護委員会
資料2 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(データ利活用に向けた取組に対する支援等の在り方)
資料3 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方②)
議事概要  
議事録  
2024.05.10 第283回 情報保護委員会
資料1-1 個人情報保護法における課徴金制度導入にかかる諸論点(名古屋大学 林教授)
資料1-2 個人情報保護法における法執行の強化について(神戸大学 中川教授)
議事概要  
議事録  
2024.04.24 第281回 個人情報保護委員会
資料1 個人情報保護法の3年ごと見直しに対する意見
資料2 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方③)
議事概要  
議事録  
2024.04.10 第280回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方② )
議事概要  
議事録  
2024.04.03 第279回 個人情報保護委員会
資料1―1 AIと個人情報保護:欧州の状況を中心に(一橋大学 生貝教授) 
資料1―2 AI利用と個人情報の関係の考察(NTT社会情報研究所 高橋チーフセキュリティサイエンティスト)
資料1−3 医療情報の利活用の促進と個人情報保護(東京大学 森田名誉教授)
資料1―4 医療・医学系研究における個人情報の保護と利活用(早稲田大学 横野准教授)
議事概要  
議事録  
2024.03.22 第277回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方①)
議事概要  
議事録  
2024.03.06 第275回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)
議事概要  
議事録  
2024.02.21 第273回 個人情報保護委員会
資料4 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討項目
【委員長預かりで会議後に修正した資料】資料4 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討項目
議事概要   
議事録   
2024.02.14 第272回 個人情報保護委員会
資料2-1 地方公共団体における個人情報保護法運用状況のヒアリング(京都府総務部政策法務課)
資料2-2 岡山市における個人情報保護法の運用状況(岡山市総務局行政事務管理課)
資料2-3 個人情報保護法運用状況について(都城市総務部総務課)
資料2-4 個人情報保護法運用状況について(上里町総務課)
議事概要  
議事録  
2024.02.07 第271回 個人情報保護委員会
資料1 インターネット広告における個人に関する情報の取扱いについての取組状況(日本インタラクティブ広告協会)
議事概要   
議事録  
2024.01.31 第270回 個人情報保護委員会
資料2 個人情報保護法の3 年ごと見直しに対する意見(日本経済団体連合会)
議事概要  
議事録   
2024.01.23 第268回 個人情報保護委員会
資料1―1 (特定)適格消費者団体の活動について(消費者支援機構関西)
資料1―2 個人情報保護委員会ヒアリング資料(日本商工会議所)
議事概要  
議事録  
2023.12.21 第266回 個人情報保護委員会
資料1―1 個人情報保護法の3年ごと見直しに関する意見(電子情報技術産業協会)
資料1―2 ヒアリング資料(全国商工会連合会)
議事概要  
議事録  
2023.12.20 第265回 個人情報保護委員会
資料1―1 ACCJ Comments for the Personal Information Protection Commission Public Hearing(在米国商工会議所)
資料1―2 公開ヒアリングに向けたACCJ意見(在米国商工会議所)
議事概要  
議事録  
2023.12.15 第264回 個人情報保護委員会
資料1―1 個人情報保護法の見直しについて(新経済連盟)
資料1―2 個人情報保護法見直しに関する意見(日本IT団体連盟) 
議事概要  
議事録  
2023.12.06 第263回 個人情報保護委員会
資料2 個人情報保護法に関する欧州企業の代表的な課題(欧州ビジネス協会)
議事概要  
議事録   
2023.11.29 第262回 個人情報保護委員会
資料1 ヒアリング資料(一般社団法人日本情報経済社会推進協会)
議事概要  
議事録   
2023.11.15 第261回 個人情報保護委員会
資料2-1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討 
資料2-2 個人情報保護に係る主要課題に関する海外・国内動向調査 概要資料
議事概要  
議事録  

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.02.10 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会)

・2025.01.23 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第311-312回委員会)

・2024.12.20 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第310回委員会、第6-7回検討会)

・2024.11.26 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第304回委員会、第3-5回検討会)

・2024.09.06 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第299回委員会、第2回検討会)

・2024.08.04 個人情報保護委員会 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会

・2024.06.28 個人情報保護委員会 意見募集 いわゆる3年ごと見直しに係る検討の中間整理

・2024.06.04 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中... (2)

・2024.04.25 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中...

・2024.01.06 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング中...

 

 

| | Comments (0)

2025.03.04

英国 サイバーエッセンシャルズ 小規模の弁護士事務所・新興技術企業への助成

こんにちは、丸山満彦です。

英国では、サイバーエッセンシャルズという英国政府((国家サイバーセキュリティセンター;NCSC)が主導するサイバーセキュリティの簡易な認証制度があります。これには2種類あって、自主宣言のものと、プラスといわれる第三者認証のあるものです。2014年から開始されています。。。

それぞれ、5万社弱、1万社弱の認証がおこなわれているようです。

現在、英国のNCSCが、小規模の弁護士事務所と新興技術企業に対して、サイバーエッセンシャル・プラスを達成するためのアドバイザーによる実践的なサポートを無料で提供すると公表していますね...(ただし、予算範囲内...)

この、無料支援サービスは、アドバイザーによる約20時間の遠隔サポートを受けることができるとのことです。組織の規模やニーズに合った改善を特定・実施し、サイバーエッセンシャルズの5つの技術的管理策の実施を支援してくれるようです。

日本のサプライチェーンのセキュリティ対策保護のための、認証制度を経産省で検討していますが、サイバーエッセンシャルズも参考にされていますが、普及啓発活動として、こういう活動も参考になりますね...

1_20240502191201

 

認証機関のウェブページ

IASME

1_20250304062801

Funded Cyber Essentials Programme

 

Funded Cyber Essentials Programme サイバー・エッセンシャル助成プログラム
What is the funded Cyber Essentials Programme? サイバー・エッセンシャル助成プログラムとは?
Small organisations from specific sectors in the UK are being invited to take part in the Funded Cyber Essentials Programme. 英国の特定分野の小規模組織は、資金提供付きサイバー・エッセンシャル・プログラムへの参加を呼びかけられている。
All modern businesses face a threat from cyber attack but some organisations have a particularly increased risk. This might be because they hold sensitive information about the people that they work with, or they are perceived as an easy target by cyber criminals. 現代の企業はすべてサイバー攻撃の脅威に直面しているが、特にリスクが高まっている組織もある。その理由としては、従業員に関する機密情報を保有していたり、サイバー犯罪者に狙われやすいと認識されていたりすることが挙げられる。
For those sectors most at risk, the NCSC is launching a Funded Cyber Essentials Programme. This scheme aims to provide vulnerable organisations with help to implement baseline security controls to prevent the most common types of cyber attack. NCSCは、最もリスクの高いセクターに対して、資金提供付きサイバー・エッセンシャルズ・プログラムを開始する。このスキームは、最も一般的なタイプのサイバー攻撃を防止するための基本的なセキュリティ対策を実施するための支援を脆弱性組織に提供することを目的としている。
Spaces on the programme are in high demand. このプログラムの参加枠は非常に需要が高い。
Please submit your expression of interest without delay as spaces will fill quickly and are not guaranteed. 参加枠はすぐに埋まり、保証はされないので、興味のある方はお早めに。
How does it work? プログラムはどのように行われるのか?
The programme will offer practical support from an Advisor to achieve Cyber Essentials Plus at no cost to the organisation. Please note, this does not include the cost of any additional software or hardware identified by the Advisor that is required to achieve Cyber Essential Plus. このプログラムでは、Cyber Essentials Plusを取得するためのアドバイザーによる実践的なサポートを、組織に対して無料で提供する。ただし、サイバー・エッセンシャル・プラスを達成するために必要な、アドバイザーによる追加のソフトウェアやハードウェアの費用は含まれない。
Qualifying organisations will receive around 20 hours of remote support with an Advisor. This time will be spent identifying and implementing improvements that are right for the size and needs of the organisation and supporting them in implementing the 5 Cyber Essentials technical controls. This will be followed by a hands-on technical verification that the controls have been put in place.  対象となる組織は、アドバイザーによる約20時間の遠隔サポートを受ける。この時間は、組織の規模やニーズに適した改善を特定・実施し、サイバー・エッセンシャル・テクニカル・コントロール5項目の実施をサポートするために費やされる。その後、技術的な検証が行われる。
If it is not possible for the organisation to achieve Cyber Essentials Plus, the Advisor will help organisations implement as many of the technical controls as possible and give the organisation a clear list of the additional actions they need to undertake to become compliant. The scheme is designed to lead an organisation through the technical controls required to achieve Cyber Essentials certification, followed by the audit for Cyber Essentials Plus. No previous cyber security certification or experience is necessary. 組織がサイバー・エッセンシャルズ・プラスを達成することが不可能な場合、アドバイザーは組織が可能な限り多くの技術的統制を実施するのを支援し、準拠するために実施すべき追加措置の明確なリストを組織に提供する。このスキームは、Cyber Essentials認証の取得に必要な技術的コントロールを通して組織を導き、その後Cyber Essentials Plusの審査を受けるように設計されている。サイバーセキュリティに関する資格や経験は必要ない。
Who is eligible for support? 誰がサポートの対象となるのか?
The Funded Cyber Essentials programme is open to all registered barristers or advocates and recognised barristers’ chambers or advocates’ stables that meet the below criteria; 資金提供によるサイバー・エッセンシャル・プログラムは、以下の規準を満たすすべての登録弁護士または弁護人、公認弁護士事務所または弁護人の厩舎に開かれている;
The applicant must be a practising barrister or advocate within the jurisdiction of the relevant governing authority (The Bar Council – England & Wales, Faculty of Advocates – Scotland and The Bar of Northern Ireland) 申請者は、関連する統治機関(The Bar Council - England & Wales, Faculty of Advocates - Scotland and The Bar of Northern Ireland)の管轄区域内で開業している法廷弁護士または擁護者でなければならない。
If the applicant is not a practising barrister or advocate, then they must be employed in a direct role within a chambers or a stable. The applicant must be in a role that provides support services to said chambers or stable (for example, practice manager, chambers manager, stable clerk, head of administration) 申請者が開業法廷弁護士または擁護者でない場合は、法廷または厩舎で直接雇用されていなければならない。申請者は、当該会議所または厩舎にサポートサービスを提供する職務(例えば、プラクティス・マネージャー、会議所マネージャー、厩舎事務員、管理責任者)
AND meet the following criteria: 以下の規準を満たす必要がある:
・must be a UK micro or small business (1 to 49 employees) ・英国の零細企業または中小企業(従業員数1~49名)であること
・has not previously participated in the NCSC Funded Cyber Essentials Programme ・NCSC Funded Cyber Essentials Programmeに過去に参加したことがないこと
・does not currently hold Cyber Essentials Plus (CE+) certification, has not been awarded CE+ certification since January 2024 and is not currently in the process of applying for CE+ certification ・現在Cyber Essentials Plus(CE+)認証を取得していないこと、2024年1月以降CE+認証を取得し ていないこと、現在CE+認証申請中でないこと
The Funded Cyber Essentials programme is also open to Emerging Technology organisations that meet the below criteria; Funded Cyber Essentialsプログラムは、以下の規準を満たすEmerging Technology組織にも開かれている。
To qualify for this scheme, companies must be a micro or small business (1 to 49 employees) registered in the UK and working on: このスキームの対象となるには、英国で登録された零細企業または中小企業(従業員数1~49名)であり、以下の業務に取り組んでいる必要がある:
Artificial Intelligence – The development of fundamental Artificial Intelligence (AI) technologies, OR the innovative application of Artificial Intelligence technologies in the following sectors: Public safety and health, Defence and security. 人工知能 - 基本的な人工知能(AI)技術の開発、または以下の分野における人工知能技術の革新的な応用: 公共の安全と健康、防衛と安全保障。
Quantum – The development of novel Quantum technologies. 量子 - 新規量子技術の開発。
Semiconductors – The design, development or manufacturing of semiconductors / semiconductor IP blocks. 半導体 - 半導体/半導体IPブロックの設計、開発、製造。
Engineering/Synthetic Biology – The development of Engineering Biology or Synthetic Biology. エンジニアリング/合成生物学 - エンジニアリング生物学または合成生物学の開発。
Advanced Materials – Companies involved in developing advanced materials that have enhanced properties and performance, often incorporating new compositions or structures to improve strength, durability, lightweight, or functionality for specific applications**. 先端材料 - 強度、耐久性、軽量性、機能性を向上させるための新しい組成や構造を特定の用途**に組み込むことで、特性や性能を向上させた先端材料の開発に携わる企業。
Advanced Robotics– Companies involved in the development of autonomous robotics that can perform complex tasks and adapt to novel environments using advanced technologies. 先進ロボット - 複雑な作業をこなし、先進技術を駆使して新しい環境に適応できる自律型ロボットの開発に携わる企業。
Fusion Energy – Companies involved in the development of methods and systems designed to harness the energy produced by nuclear fusion***. 核融合エネルギー - 核融合によって生み出されるエネルギーを利用するための方法やシステムの開発に携わる企業***。
Satellite and Space Technologies – Companies involved in the development, deployment, and utilisation of satellites and related systems for various applications, including communication, navigation, Earth observation, and scientific research. This may include satellite design, launch systems or ground control operations. 衛星・宇宙技術 - コミュニケーション、ナビゲーション、地球観測、科学研究など、さまざまな用途の衛星や関連システムの開発、展開、利用に携わる企業。これには、衛星の設計、打上げシステム、地上管制業務などが含まれる。
Specialist National Security Applications/Solutions – Companies must also be in one of the 17 defined sensitive areas of the economy covered by the Notifiable Acquisition Regulations under the National Security and Investment Act. Each application under this category will be considered on merit & a discretionary basis. 国家安全保障に特化したアプリケーション/ソリューション - 企業は、国家安全保障・投資法に基づく通知可能な取得規制の対象となる、17の定義された敏感な経済分野のいずれかに属していなければならない。このカテゴリーにおける各申請は、メリットと裁量に基づいて検討される。
Advanced Manufacturing – involves the use of innovative technologies (such as digital and automation tools), or advanced materials (such as composites), to enhance production processes and improve efficiencies. It may also involve the use of other technologies (AI, Robotics, Data Analytics) to provide improve manufacturing customisation processes and precision. 先進製造業 - 革新的な技術(デジタルツールや自動化ツールなど)や先進材料(複合材料など)を使用し、製造工程を強化し、効率を改善する。また、他の技術(AI、ロボット工学、データ分析)を使用して、製造工程のカスタマイズや精度の改善を行うこともある。
AND meet the following criteria: 以下の規準を満たすこと:
・Has not previously participated in the NCSC Funded Cyber Essentials Programme ・過去に NCSC Funded Cyber Essentials Programme に参加したことがない
・Does not currently hold Cyber Essentials Plus (CE+) certification, has not been awarded CE+ certification since January 2023 and is not currently in the process of applying for CE+ certification ・現在、Cyber Essentials Plus(CE+)認証を取得していない、2023 年 1 月以降に CE+認証を取得していない、現在 CE+認証申請中でない
** These may include: ** これには以下が含まれる:
Nanomaterials ナノ材料
Composites 複合材料
Advanced Metals and Alloys 先端金属・合金
Smart Materials スマート材料
Biomaterials 生体材料
*** These may include: *** これらには以下が含まれる:
Magnetic Confinement Fusion 磁場閉じ込め核融合
Inertial Confinement Fusion 慣性閉じ込め核融合
Stellarators ステラレータ
Hybrid Systems ハイブリッドシステム

 

 

Cyber Essentials

まるちゃんの情報セキュリティ気まぐれ日記

・2024.12.23 英国 Cyber Essentials 2025.04.28以降の要求事項等について...

・2024.08.20 英国 サイバーエッセンシャル発行数 (2023.07-2024.06)

・2023.08.17 英国 国家サイバー戦略 2022 の進捗報告 (2022-2023)

・2023.07.13 英国 小規模企業のサイバーセキュリティをサポート:サイバーアドバイザリー制度 (2023.04.17)

・2023.02.21 英国 NCSC サプライチェーン・マッピングのガイダンスを公表しています。。。(2023.02.16)

・2021.11.22 英国 サプライチェーンとマネージドサービスプロバイダーのサイバーセキュリティについての質問に対する回答 at 2021.11.15

・2020.10.11 UK National Cyber Security Centreがスモールビジネス向けサイバーセキュリティガイド改訂版を公開していますね。。。(Cyber Essentials認定も意識して

 

 

 

| | Comments (0)

2025.02.16

米国 NIST IR 8356 デジタルツイン技術におけるセキュリティと信頼の考慮点 (2025.02.14)

こんにちは、丸山満彦です。

NISTが、IR 8356 デジタルツイン技術におけるセキュリティと信頼の考慮点を公表していますね...

2021年の4月にドラフトがでたものが、ほぼ4年たって確定した感じです。当時は画期的であったかもしれませんが、実装も進みつつ有り?、少し落ち着いた感じですかね...

 

NIST - ITL

・2025.02.14 NIST IR 8356 Security and Trust Considerations for Digital Twin Technology

NIST IR 8356 Security and Trust Considerations for Digital Twin Technology NIST IR 8356 デジタルツイン技術におけるセキュリティと信頼の考慮点
Abstract 概要
Digital twin technology enables the creation of electronic representations of real-world entities and the ability to view the states and transitions between states of these entities. This report discusses the concept and purpose of digital twin technology and describes its characteristics, features, functions, and expected operational uses. This report also discusses both traditional and novel cybersecurity challenges presented by digital twin technology as well as trust considerations in the context of existing NIST guidance and documents. デジタルツイン技術は、実世界の事業体を電子的に表現し、その状態や状態間の遷移を見ることができる。本レポートでは、デジタルツイン技術の概念と目的について述べ、その特徴、機能、期待される運用方法について説明する。また本報告書では、デジタルツイン技術によってもたらされる従来のサイバーセキュリティの課題と新たなサイバーセキュリティの課題、さらに既存の NIST ガイダンスや文書との関連における信頼性の検討についても議論する。

 

・[PDF] NIST.IR.8356

20250216-42643

・[DOCX][PDF] 仮訳

 

目次...

1. Introduction 1. 序文
2. Definitions of Digital Twins 2. デジタルツインの定義
3. Motivation and Vision 3. モチベーションとビジョン
3.1. Advantages of Digital Twin Technology 3.1. デジタルツイン技術の利点
3.2. Expectation of Standards 3.2. 標準への期待
3.3. Supportive Technologies 3.3. 支援技術
4. Operations on Digital Twins 4. デジタルツインの操作
4.1. Digital Twins Definitions and the Creation of Digital Twin Instances 4.1. デジタルツインの定義とデジタルツイン・インスタンスの作成
4.2. Manipulation and Modification of Digital Twin Definitions and Instances 4.2. デジタルツインの定義とインスタンスの操作と変更
4.3. Exchange of Digital Twin Definitions and Instances 4.3. デジタルツインの定義とインスタンスを交換する
5. Usage Scenarios for Digital Twins 5. デジタルツインの利用シーン
5.1. Viewing Static Models of Digital Twins 5.1. デジタルツインの静的モデルを見る
5.2. Executing and Viewing Dynamic Models of Digital Twins 5.2. デジタルツインの動的モデルの実行と表示
5.3. Real-Time Monitoring of Real-World Entities 5.3. 実世界事業体のリアルタイム・モニタリング
5.4. Real-Time Command and Control of Real-World Entities 5.4. 実世界事業体のリアルタイム・コマンド&コントロール
6. Highlighted Use Cases 6. 注目の使用例
7. Cybersecurity Considerations 7. サイバーセキュリティの考慮
7.1. Novel Cybersecurity Challenges 7.1. サイバーセキュリティの新たな課題
7.1.1. Massive Instrumentation of Objects 7.1.1. 物体の大量計測
7.1.2. Centralization of Object Measurements 7.1.2. 物体測定の集中化
7.1.3. Visualization and Representation of Object Operation 7.1.3. オブジェクト操作の可視化と表現
7.1.4. Remote Control of Objects 7.1.4. 物体の遠隔操作
7.1.5. Standards for Digital Twin Definitions That Allow for Universal Access and Control 7.1.5. 普遍的なアクセスと管理を可能にするデジタルツイン定義の標準化
7.2. Traditional Cybersecurity Challenges and Tools 7.2. 従来のサイバーセキュリティの課題とツール
8. Trust Considerations 8. 信頼の考慮
9. Conclusions 9. 結論
References 参考文献
Appendix A. List of Symbols, Abbreviations, and Acronyms 附属書 A.記号、略語、頭字語のリスト
Appendix B. Glossary 附属書 B.用語集

 

 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2021.04.18 NISTIR 8356 (Draft) デジタルツイン技術と新しい標準に関する考慮事項

 

 

| | Comments (0)

2025.02.15

欧州委員会 人工知能と仕事の未来 (2025.02.13)

こんにちは、丸山満彦です。

欧州連合から、人工知能と仕事の未来についての報告書が公表されていますね...

多くの欧州人は職場においてAIやロボットを受け入れ、生産性を向上させると信じている感じですね... 国による多少のばらつきはあるものの...

プラスと考えている人の傾向としては、若い人、教育レベルが高い人、経済的な困難がない人、職についている人という特性があるようですね...

ただ、ほぼ全ての人がプライバシーや透明性への配慮は必要と考えているよです...

 

European Commission

プレス...

・2025.02.13 Commission survey shows that most Europeans support use of artificial intelligence in the workplace

Commission survey shows that most Europeans support use of artificial intelligence in the workplace 欧州委員会の調査によると、欧州人の大半が職場での人工知能の利用を支持している
Most people in Europe think that digital technologies, including artificial intelligence (AI), have a positive impact on their jobs, the economy, society, and on quality of life. This is what reveals a new Eurobarometer survey, published on 13 February 2025. 欧州のほとんどの人々は、人工知能(AI)を含むデジタル技術が、自分たちの仕事、経済、社会、そして生活の質にプラスの影響を及ぼすと考えている。これは、2025年2月13日に発表されたユーロバロメーターの新しい調査結果である。
More than 60% of Europeans positively view robots and AI at work and over 70% believe they improve productivity. While a majority supports using robots and AI to make decisions at work, 84% of Europeans think that AI requires careful management to protect privacy and ensure transparency in the workplace. ヨーロッパ人の60%以上が、仕事におけるロボットやAIを肯定的にとらえ、70%以上が生産性を改善すると考えている。過半数が職場での意思決定にロボットやAIを使用することを支持しているが、84%の欧州人は、AIにはプライバシーの保護や職場の透明性を確保するための慎重な管理が必要だと考えている。
Executive Vice-President for Social Rights and Skills, Quality Jobs and Preparedness, Roxana Mînzatu, said: ロクサーナ・ミンザツ副社長(社会的権利・技能・質の高い仕事・準備担当)は、次のように述べた:
“Artificial intelligence is becoming an integral part of modern workplaces. We must use it in a way that both helps workers and protects them. We have a strong basis of rules, with our GDPR, the AI Act, and the Directive on platform work. We will look at how these rules are applied to address the impact of AI throughout the wider labour market.” 「人工知能は現代の職場に不可欠なものとなりつつある。私たちは、労働者を助け、労働者を保護する方法で人工知能を利用しなければならない。GDPR、AI法、プラットフォームワークに関する指令など、我々には強力なルールの基礎がある。我々は、より広い労働市場全体でAIの影響に対処するために、これらのルールがどのように適用されるかを検討する。
The results of the survey align with one of the key objectives of the EU's Competitiveness Compass, to integrate digital technologies and AI into workplaces to boost innovation and productivity. The EU has allocated €2 billion from the European Social Fund Plus (ESF+) and €23 billion from the Recovery and Resilience Fund (RRF) to Member States to support the development of digital skills. The Digital Europe Programme has also invested €580 million to advance digital skills between 2021-2027. この調査結果は、EUのCompetitiveness Compassの主要目標のひとつである、イノベーションと生産性を高めるためにデジタル技術とAIを職場に統合することと一致している。EUは、欧州社会基金プラス(ESF+)から20億ユーロ、回復・レジリエンス基金(RRF)から230億ユーロを加盟国に割り当て、デジタルスキルの開発を支援している。また、デジタル・ヨーロッパ・プログラムは、2021年から2027年にかけて、デジタル・スキルを向上させるために5億8,000万ユーロを投資した。
More information on the Eurobarometer on Artificial Intelligence and the future of work. 人工知能と仕事の未来に関するユーロバロメーターに関する詳細はこちら。

 

報告...

Artificial Intelligence and the future of work

 

最初にインフォグラフィックス...

・[PDF] Infographics

1_20250215055401

 

Artificial Intelligence and the future of work 人工知能と仕事の未来
Abstract 概要
Most people in Europe believe that digital technologies, including artificial intelligence, have a positive impact on their jobs, the economy, society, and on quality of life. 62% of Europeans view robots and AI positively at work and 70% believe it improves productivity. While a majority supports using robots and AI to make decisions at work, 84% of Europeans think that AI requires careful management to protect privacy and ensure transparency in the workplace. ヨーロッパのほとんどの人々は、人工知能を含むデジタル技術が、仕事、経済、社会、そして生活の質に良い影響を与えると信じている。62%の欧州人が、仕事におけるロボットやAIを前向きに捉えており、70%が生産性の向上を信じている。過半数が職場での意思決定にロボットやAIを利用することを支持しているが、欧州人の84%は、AIにはプライバシーの保護や職場の透明性を確保するための慎重な管理が必要だと考えている。
Key findings 主な調査結果
Perception of robots and Artificial intelligence ロボットと人工知能に対する認識
67% positively perceive the use of digital technologies, including Artificial Intelligence, to improve workers’ safety and security. 67%が、人工知能を含むデジタル技術の利用が労働者の安全と安心を向上させることを肯定的に受け止めている。
QB8.5. In general, how positively or negatively do you perceive the use of digital technologies, including Artificial Intelligence, in the workplace for each of the following activities - Improving workers' safety and security. QB8.5. 人工知能を含むデジタル技術の職場における利用について、一般的にどの程度肯定的か否定的か。
2_20250215060001
Perception of rules on digital technologies in the workplace 職場におけるデジタル技術に関する規則についての認識
Most Europeans support clear rules for the use of digital technologies, for instance protecting workers’ privacy (82%) and involving workers and their representatives in the design and adoption of new technologies (77%). 例えば、労働者のプライバシーの保護(82%)、新技術の設計・採用における労働者とその代表者の関与(77%)などである。
QB11.1. How important, if at all, do you think the following rules would be in addressing risks and maximizing the benefits of digital technologies, including Artificial Intelligence, in the workplace? QB11.1. 職場で人工知能を含むデジタル技術のリスクに対処し、利益を最大化する上で、以下のルールが重要であると考える場合、どの程度重要であると考えるか。
3_20250215060001

 

報告書

サマリー...

・[PDF] Summary

20250215-60537

 

本体

・[PDF] Report (EN)

20250215-60344

 

目次...

Introduction  序文
Key findings  主な調査結果
I. General perceptions of digital technologies  I. デジタル技術に対する一般的認識
1. Impact of digital technologies  1. デジタル技術の影響
a) Current employment  a) 現在の雇用
b) The economy  b) 経済
c)  Society  c) 社会
d)  Quality of life  d) 生活の質
e)  Social security benefits  e) 社会保障給付
II. Proficiency with digital technologies  II. デジタル技術の習熟度
1. Digital skills overall  1. デジタル技術全般
a) In daily life  a) 日常生活
b) Digital and learning opportunities  b) デジタル技術と学習の機会
2. Digital skills and labour market  2. デジタルスキルと労働市場
a) Current employment   a) 現在の雇用
b) Future employment  b) 将来の雇用
III. Attitudes towards digital technologies and Artificial Intelligence in the workplace  III. 職場におけるデジタル技術と人工知能に対する態度
1. Perception of robots and Artificial Intelligence 30  1. ロボットと人工知能に対する認識 30
a) In the workplace  a) 職場において
b) In the labour market  b) 労働市場において
2. Perceived impact of robots and Artificial Intelligence 42  2. ロボットと人工知能が与える影響についての認識 42
a) Overall  a) 全体的な影響
b) On specific activities  b) 特定の情報活動への影響
3. Perceptions of rules on digital technologies in the workplace  3. 職場におけるデジタル技術に関する規則についての認識
IV. Experience with digital technologies in the workplace  IV.職場におけるデジタル技術の使用経験
1. Awareness of the use of digital technologies 68  1. デジタル技術の使用に関する認識 68
a) Overall  a) 全体的なもの
b) Activities performed by digital technologies  b) デジタル技術によって行われる活動
c) Communication around the use of digital technologies  c) デジタル技術の使用をめぐるコミュニケーション
2. Provision of tools and training to work effectively with digital technologies  2. デジタル技術を効果的に活用するためのツールやトレーニングの提供
Conclusion  結論
Technical Specifications  技術仕様
Questionnaire  アンケート 

 

序文...

Introduction 序文
Artificial intelligence, or AI, refers to computer systems capable of performing tasks that typically require human intelligence.. As AI develops, it can offer benefits to citizens and businesses across Europe, and it can lead to increase in productivity and job creation. However, the rise of AI also gives rise to challenges. The stock of industrial robots in Europe has more than quadrupled in the past 25 years. Technological advancement generates increasing uncertainty. Technology may have a significant impact on the quantity of jobs available to humans, but it also transforms them, changing how jobs are performed, with implications for workers’ quality of life and for productivity.  人工知能(AI)とは、通常人間の知能を必要とするタスクを実行できるコンピューターシステムを指す。AIが発展すれば、欧州全域の市民や企業に恩恵をもたらし、生産性の向上や雇用創出につながる可能性がある。しかし、AIの台頭は課題も生む。欧州における産業用ロボットのストックは、過去25年間で4倍以上に増加した。技術の進歩は不確実性を増大させる。テクノロジーは、人間が利用できる仕事の量に大きな影響を与えるかもしれないが、同時に、仕事のやり方を変え、労働者の生活の質や生産性に影響を与える。
The European Commission recognised this potential early and is taking action to foster the take-up of artificial intelligence by the private and public sectors. In its Communication of April 2018 on Artificial Intelligence for Europe, the Commission outlines a number of measures and financing instruments through which it will promote this goal[1]. Moreover, linking to the European Digital Strategy[2], in July 2020, the European Commission launched the European Skills Agenda for sustainable competitiveness, social fairness and resilience, which sets ambitious objectives for upskilling (improving existing skills) and reskilling (training in new skills) . Since then, much progress has been made in each of the 12 flagship actions identified[3], including the publication in early 2022 of the updated Digital Competence Framework covering the digital competences needed for emerging technologies and AI[4] 欧州委員会は、この可能性を早くから認識し、民間部門と公的部門による人工知能の導入を促進するために行動を起こしている。欧州委員会は、2018年4月に発表した「欧州のための人工知能」に関するコミュニケーションにおいて、この目標を推進するための多くの施策と融資手段を概説している[1]。さらに、欧州委員会は、欧州デジタル戦略[2]と連動して、2020年7月に「持続可能な競争力、社会的公正、レジリエンスのための欧州技能アジェンダ」を立ち上げ、アップスキル(既存の技能の向上)とレジリエンス(新たな技能の訓練)に関する野心的な目標を設定している。それ以来、特定された12のフラッグシップ・アクション[3]のそれぞれにおいて多くの進展が見られ、2022年初頭には、新興技術やAI[4]に必要なデジタル・コンピテンスを網羅した最新のデジタル・コンピテンス枠組みが発表された。
The accelerated digitalisation of workplaces also puts the spotlight on issues related to surveillance, the use of data, and the application of algorithmic management tools. Algorithms can be used in management functions, such as planning, organisation, command, coordination and control. The Joint Research Centre’s AMPWork study finds that a relatively high proportions of workers in Spain and Germany use digital tools and are subject to digital monitoring and algorithmic management[5]. AI systems are also often applied to guide recruitment, monitor workloads, or define remuneration rates.  職場のデジタル化の加速は、監視、データの利用、アルゴリズム管理ツールの適用に関する問題にもスポットライトを当てている。アルゴリズムは、計画、組織化、指揮、調整、制御といった管理機能に利用することができる。共同研究センターのAMPWork調査によると、スペインとドイツでは、比較的高い割合の労働者がデジタルツールを使用し、デジタル監視とアルゴリズム管理の対象になっている[5]。AIシステムはまた、採用の指導、仕事量の監視、報酬率の定義に適用されることも多い。
Addressing the challenges of algorithmic decision-making, notably the risks of biased decisions, discrimination and lack of transparency, can improve trust in AI-powered systems, promote their uptake and protect fundamental rights[6]. Proposed by the European Commission in December 2021 and provisionally agreed upon by the European Parliament and the Council in February 2024, the Platform Work Directive will be the first EU instrument to tackle the challenges arising from the use of AI in the workplace. Once finally adopted, it will provide more transparency, fairness, human oversight, safety and accountability regarding algorithmic management on digital labour platforms by helping people better understand how tasks are allocated and prices are set. It will also enable them to contest decisions that affect working conditions if needed. Against this backdrop, this Special Eurobarometer survey aims to gauge EU citizens’ perceptions of and attitudes towards automation and AI in working life. More particularly, the study covers the following topics: アルゴリズムによる意思決定の課題、特に偏った決定、識別的リスク、透明性の欠如に改善することで、AI搭載システムに対する信頼を向上させ、その導入を促進し、基本的権利を守ることができる[6]。2021年12月に欧州委員会によって提案され、2024年2月に欧州議会と理事会によって暫定合意されたプラットフォームワーク指令は、職場におけるAIの使用から生じる課題に取り組む最初のEUの制度となる。最終的に採択されれば、デジタル労働プラットフォームにおけるアルゴリズム管理について、透明性、公平性、人間による監視、安全性、説明責任を高めることになる。また、必要に応じて、労働条件に影響する決定に異議を唱えることも可能になる。このような背景から、このユーロバロメーター特別調査は、EU市民の労働生活における自動化とAIに対する認識と態度を測定することを目的としている。具体的には、以下のトピックを対象としている:
・General perceptions of the impact of digital technologies;  ・デジタル技術の影響に関する一般的な認識、
・Proficiency with digital technologies;  ・デジタル技術の習熟度、
・Awareness of and experience with digital technologies, including AI, in the workplace;  ・職場におけるAIを含むデジタル技術に対する認識と経験、
・Attitudes towards these digital technologies and their use in the workplace.  ・デジタル技術と職場におけるその使用に対する態度。
The survey finds that, while positive perceptions of the impact of the most recent digital technologies have declined over the past seven years, Europeans still generally have a positive view of said impact. Specifically, while citizens generally see the positive potential of technologies and specifically artificial intelligence, this does not translate to unfettered support. Notably, more than six in ten Europeans say they think robots and artificial intelligence area good thing for society, with the caveat that a clear majority (84%) also say such technologies need careful management. The survey highlights that the potential of robots and artificial intelligence to lighten workload by doing boring or repetitive jobs or being used to make accurate decisions is appreciated, but respondents are wary of their impact on social areas like communication between colleagues.  同調査によると、最新のデジタル技術の影響に対する肯定的な認識は過去7年間で低下しているものの、欧州の人々は依然として一般的に同影響を肯定的に捉えている。具体的には、市民は一般的にテクノロジー、特に人工知能のポジティブな可能性を見ているが、これは自由な支持にはつながらない。注目すべきは、10人に6人以上のヨーロッパ人が、ロボットや人工知能は社会にとって良いことだと思うと答えていることだ。この調査では、ロボットや人工知能が、退屈な仕事や繰り返しの多い仕事をこなしたり、正確な判断を下すために使われることで、仕事量を軽減する可能性は評価されているが、回答者は、同僚間のコミュニケーションなど社会的な分野への影響を警戒していることが浮き彫りになっている。
Looking specifically at digital skills and awareness, most Europeans think of their current skills as sufficient for their daily life and work needs. However, this result should be seen in context: a significant number of Europeans who lack even basic digital skills (almost 45%)[7] and the number of ICT specialists is growing but still relatively low (est. 9.8 million)[8]. Most employees are also aware of their employer’s use of digital technologies to manage employee activities.  デジタル・スキルと意識について具体的に見ると、ほとんどのヨーロッパ人は、現在の自分のスキルは日常生活や仕事のニーズに対して十分だと考えている。しかし、この結果は、基本的なデジタル・スキルさえ不足している欧州人がかなり多く(約45%)[7]、ICTスペシャリストの数は増加しているが、まだ比較的少ない(推定980万人)[8]。ほとんどの従業員は、雇用主が従業員の活動を管理するためにデジタル技術を利用していることも認識している。
Patterns in the opinions of Europeans based on their sociodemographic characteristics are also highlighted throughout the report. Younger respondents, respondents with less financial difficulties, respondents who are currently in employment or those with a higher education level tend to have more positive attitudes towards technologies and artificial intelligence, for example.  社会人口統計学的特徴に基づく欧州人の意見のパターンも、本レポートを通じて強調されている。例えば、若い回答者、経済的困難が少ない回答者、現在就業中の回答者、教育レベルの高い回答者は、テクノロジーや人工知能に対してより肯定的な態度を示す傾向がある。
Some of the questions in this Special Eurobarometer were asked in previous Eurobarometer surveys conducted in March 2017[9] and in December 2019[10]. Where possible, the results of the current survey are compared with those of the two previous studies. この特別ユーロバロメーターに掲載されている質問の一部は、2017年3月[9]と2019年12月[10]に実施されたユーロバロメーターの過去の調査でも質問されている。可能な限り、今回の調査結果は、過去2回の調査結果と比較している。

[1] ''Communication Artificial Intelligence for Europe', COM(2018) 237 final: 1 https://eurlex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52018DC0237.

[2] 'Shaping Europe's digital future': https://digital-strategy.ec.europa.eu/en/policies.

[3] 'Factsheet - European Skills Agenda: progress on the 11 flagship actions (2023)'.Available at: https://ec.europa.eu/social/main.jsp?catld=1223

[4] 'Digital Competences Framework (DigComp 2.2) update published':https://ec.europa.eu/social/main.jsp?langld=en&catld=89&newsld=10193&furtherNews=yes.

[5] 5 'Algorithmic management and digital monitoring of work: https://joint-research-centre.ec.europa.eu/scientific-activities-z/employment/algorithmic-management-and-digital-monitoring-work_en.

[6] 'The European Pillar of Social Rights Action Plan': https://pp.europa.eu/ebpub/empl/european-pllar-of-soclal-rights/en.

[7] Digital skills in 2023: impact of education and age : https://ec.europa.eu/eurostat/web/products-eurostat-news/w/ddn-20240222-1

[8] More people employed in ICT in the EU in 2023 : https://ec.europa.eu/eurostat/web/products-eurostat-news/w/ddn-20240524-2

[9] Special Eurobarometer 460, 'Attitudes towards the impact of digitisation and automation on daily life': https://europa.eu/eurobarometer/surveys/detail/2160.

[10] Special Eurobarometer 503, 'Attitudes towards the impact of digitalisation on daily lives': https://europa.eu/eurobarometer/surveys/detail/2228.

 

主な発見事項...

At least half of Europeans believe the most recent digital technologies, including Artificial Intelligence, have a positive impact on each of the areas tested  欧州の人々の少なくとも半数は、人工知能を含む最新のデジタル技術が、テストした各分野にプラスの影響を与え ていると考えている
・Two thirds of respondents currently in employment think the most recent digital technologies, including Artificial Intelligence, currently have a positive impact on their job (66%).  ・現在就業中の回答者の3分の2は、人工知能を含む最新のデジタル技術が、現在自分の仕事にプラスの影響を与え ていると考えている(66%)。
・Of all the respondents, more than six in ten believe the most recent digital technologies currently have a positive impact on the economy, their quality of life and social security benefits (all 62%).  ・全回答者のうち、10人に6人以上が、最新のデジタル技術は現在、経済、生活の質、社会保障給付にプラスの影響を与えていると考えている(いずれも62%)。
・More than half (56%) indicate that the most recent digital technologies have a positive impact on society.  ・半数以上(56%)が、最新のデジタル技術は社会に良い影響を与えていると回答している。
・The proportions who think the most recent technologies have a positive impact on the economy (-13 percentage points), society (-8 pp) and their quality of life (-5 pp) have declined since March 2017.  ・最新のテクノロジーが経済(-13%ポイント)、社会(-8%ポイント)、生活の質(-5%ポイント)にプラスの影響を与えると考える割合は、2017年3月以降減少している。
・Younger respondents, those with a higher education level, those with the least financial difficulties, and those who are currently working are the most likely to think these technologies have a positive impact.  ・若い回答者、教育レベルが高い回答者、経済的困難が最も少ない回答者、現在働いている回答者が、これらの技術がプラスの影響を与えると考える傾向が最も高い。
Large majorities think that rules addressing risks and maximising the benefits of digital technologies in the workplace would be important  職場でのリスクへの対処とデジタル技術の便益を最大化するルールが重要であると考える人が大多数
・More than eight in ten (82%) say protecting workers' privacy would be important in addressing risks and maximizing the benefits of digital technologies, including Artificial Intelligence, in the workplace.  ・10人に8人以上(82%)が、職場でのリスクへの対処と人工知能を含むデジタル技術の便益を最大化する上で、労働者のプライバシーの保護が重要であると答えている。
・Similarly, more than seven in ten think it would be important to involve workers and their representatives in the design and adoption of new technologies (77%), to enforce more transparency in the use of digital technologies to handle HR decision-making (75%), to prohibit fully automated decision-making processes (74%) and to limit the automated monitoring of employees (72%).  ・同様に、10人に7人以上が、新技術の設計と導入に労働者とその代表者を参加させること(77%)、人事の意思決定にデジタル技術を使用する際の透明性を高めること(75%)、意思決定プロセスの完全自動化を禁止すること(74%)、従業員の自動監視を制限すること(72%)が重要だと考えている。
Majorities consider themselves to be sufficiently skilled in the use of the most recent digital technologies  過半数が最新のデジタル技術の使用に十分熟練していると考えている
・Around seven in ten consider themselves to be sufficiently skilled in the use of the most recent digital technologies, including Artificial Intelligence, to be able to benefit from digital and online learning opportunities (71%, +14 percentage point since March 2017) and in their daily life (70%). The respondents who answered are not included in the analysis of this question in order to ensure the trend comparability.  ・約10人に7人が、人工知能を含む最新のデジタル技術の使用に十分熟練しており、デジタルやオンライン学習の機会(71%、2017年3月から14ポイント増)や日常生活(70%)から恩恵を受けることができると考えている。傾向の比較可能性を確保するため、本設問の分析には回答者は含まれていない。
・Among those currently in employment and who did not answer ‘Not applicable’ at the aforementioned question, three quarters feel they have a sufficient level of digital skills to do their job (75%, -7 pp).  ・現在就業中で、前述の質問で「該当しない」と回答しなかった回答者のうち、4分の3が自分の仕事に十分なレベルのデジタルスキルがあると感じている(75%、-7pp)。
・More than seven in ten respondents who are not retired and did not answer ‘Not applicable’ believe they possess an adequate digital proficiency to do a future job if they were to find a job or to change jobs within the next twelve months (72%, +9 pp).  ・退職しておらず、「該当しない」と回答しなかった回答者の10人に7人以上が、今後1年以内に就職または転職する場合、将来の仕事をこなすのに十分なデジタル技能を保有していると考えている(72%、+9pp)。
・Respondents in Denmark, Finland, Luxembourg, Malta, the Netherlands and Sweden are among the most likely to feel confident about their digital skills, while the reverse is true for those in Greece, Hungary, Italy, Portugal and Romania.  ・デンマーク、フィンランド、ルクセンブルク、マルタ、オランダ、スウェーデンの回答者は、自分のデジタルスキルに自信を持つ傾向が最も強いが、ギリシャ、ハンガリー、イタリア、ポルトガル、ルーマニアの回答者はその逆である。
・Younger respondents, those with a higher education level, those in a better financial situation and those who are currently working are the most inclined to say they have a sufficient level of digital skills.  ・若い回答者、教育レベルの高い回答者、経済状況の良い回答者、現在働いている回答者は、十分なレベルのデジタルスキルがあると答える傾向が最も強い。
Most Europeans have a positive opinion of robots and Artificial Intelligence in the workplace, but concerns about their negative impact on employment are still present  ほとんどの欧州人は職場でのロボットや人工知能を肯定的に捉えているが、雇用への悪影響に対する懸念は依然として存在する
・More than six in ten (62%, +1 pp) positively perceive the use of robots and Artificial Intelligence in the workplace, while close to one third (32%, +2 pp) have a negative perception. These perceptions however vary notably by country, with 86% of respondents in Denmark saying they perceive this positively compared to less than half in Portugal or Greece (both 48%).  ・10人に6人以上(62%、+1pp)が職場でのロボットや人工知能の利用を肯定的に捉えているが、3分の1近く(32%、+2pp)は否定的に捉えている。しかし、これらの認識は国によって大きく異なり、デンマークでは回答者の86%が肯定的に認識していると答えているのに対し、ポルトガルやギリシャでは半数以下(いずれも48%)であった。
・Majorities agree that robots and Artificial Intelligence increase the pace at which workers complete tasks (73%), that Artificial Intelligence is necessary as it can do jobs that are seen as boring or repetitive (66%) and that robots and Artificial Intelligence can be used to make accurate decisions in the workplace (53%).  ・ロボットや人工知能によって、労働者が仕事をこなすペースが速くなる(73%)、退屈で反復的だと思われている仕事をこなすことができる人工知能は必要である(66%)、職場で正確な意思決定をするためにロボットや人工知能を使うことができる(53%)。
・At the same time, 66% believe that due to the use of robots and Artificial Intelligence, more jobs will disappear than new jobs will be created, and that robots and Artificial Intelligence steal peoples’ jobs. However, both these proportions have declined since March 2017 (-8 pp and -6 pp, respectively).  ・同時に、66%は、ロボットや人工知能の利用によって、新しい仕事が生まれるよりも多くの仕事がなくなると考えており、ロボットや人工知能は人々の仕事を奪うと考えている。しかし、これらの割合はいずれも2017年3月以降低下している(それぞれ-8pp、-6pp)。
・In addition, 61% agree that robots and Artificial Intelligence have a negative impact on communication between colleagues.  ・さらに、ロボットや人工知能が同僚間のコミュニケーションに悪影響を与えることに61%が同意している。
Large majorities think robots and Artificial Intelligence are a good thing for society, but also that they should be carefully managed  ロボットや人工知能は社会にとって良いものだが、注意深く管理されるべきものだと考える人が大多数
・More than six in ten (63%) think that robots and Artificial Intelligence help people do their jobs or carry out daily tasks at home. This proportion shows a decrease of five percentage points since March 2017.  ・10人に6人以上(63%)が、ロボットや人工知能は人々の仕事や家庭での日常業務を助けると考えている。この割合は2017年3月から5ポイント減少している。
・Nonetheless, more than eight in ten (84%, -4 pp) think that these technologies require careful management.  ・それにもかかわらず、10人に8人以上(84%、-4pp)は、これらのテクノロジーには慎重な管理が必要だと考えている。
・Less than half (48%) indicate that robots and Artificial Intelligence should be used more widely outside the workplace, while 43% hold the opposite view.  ・半数以下(48%)は、ロボットや人工知能は職場外でもっと広く使われるべきであると回答し、43%は反対の見解を示している。
The use of digital technologies, including Artificial Intelligence, for many activities in the workplace is seen in a negative light  職場の多くの活動に人工知能を含むデジタル技術が使用されることは否定的に捉えられている
・Overall, respondents are concerned about the use of digital technologies, including Artificial Intelligence, to automatically fire workers (78%), to monitor workers (63%), to assess workers’ performance (57%), to select applicants for a job (57%), to gather additional information on applicants for a job (50%), and to collect, process, and store workers’ personal data (49%).  ・全体として、回答者は人工知能を含むデジタル技術が、労働者を自動的に解雇する(78%)、労働者を監視する(63%)、労働者の業績を評価する(57%)、就職希望者を選考する(57%)、就職希望者の追加情報を収集する(50%)、労働者のパーソナルデータの収集、処理、保存をする(49%)に使用されることを懸念している。
・However, around two thirds (67%) positively perceive the use of such technologies to improve workers’ safety and security, and a relative majority positively perceive their use to allocate tasks to workers or manage their working schedules and shifts (49% positively vs 44% negatively).  ・しかし、約3分の2(67%)は、労働者の安全と安心を向上させるためにこのような技術が使用されることを肯定的に受け止めており、また、労働者に仕事を割り当てたり、労働スケジュールやシフトを管理したりするために使用されることを肯定的に受け止めている人が比較的多い(肯定的49%対否定的44%)。
・Positive perceptions of the use of these technologies in the workplace are more widespread among younger respondents, those with a higher education level and those who are currently working.  ・職場におけるこうした技術の使用に対する肯定的な認識は、回答者の年齢が若いほど、教育水準が高いほど、そして現在働いている人ほど広がっている。
A majority is aware of the use their employer makes of digital technologies and sizeable proportions report that digital technologies have been used to perform activities in their workplace  過半数が雇用主がデジタル技術を利用していることを認識しており、かなりの割合が職場でデジタル技術が利用されていると報告している
・More than six in ten of those who are currently in employment (62%) say they are aware of the use their employer makes of digital technologies, including Artificial Intelligence, to manage their or their coworkers’ activities.  ・現在就業中の人の10人に6人以上(62%)が、雇用主が自分や同僚の活動を管理するために、人工知能を含むデジタル技術を利用していることを認識していると答えている。
・Among those who have a current or past occupation, 30% report that digital technologies, including Artificial Intelligence, have enforced safety measures in their current or previous workplaces, and 29% say these technologies have managed worktime schedules.  ・現在または過去の職場で、人工知能を含むデジタル技術が安全対策に役立っていると回答した人は30%、勤務時間管理に役立っていると回答した人は29%であった。
・More than one in five indicate that monitoring workers' activities (24%), allocating tasks to workers (22%) or assessing workers' performance, including imposing sanctions or attributing rewards (21%) have been performed by these technologies in their workplaces. In addition, 18% indicate that these technologies have been used to hire workers.  ・5人に1人以上が、労働者の行動を監視すること(24%)、労働者に仕事を割り当てること(22%)、制裁を課したり報酬を与えたりすることを含む労働者のパフォーマンスをアセスメントすること(21%)を、これらのテクノロジーが職場で行ったと回答している。さらに、18%が労働者の雇用にこれらの技術が使用されたと回答している。
・The reported use of these technologies tends to be higher in the logistics sector and in establishments employing at least ten people.  ・これらの技術の利用は、物流部門や10人以上の従業員を雇用する事業所において高い傾向にある。
Less than half of those currently in employment say their employer informed them about the use of digital technologies, while more than half of employers and managers report having done so  現在雇用されている人の半数以下が、雇用主からデジタル技術の使用について説明を受けたと回答している一方、雇用主や管理職の半数以上が説明を受けたと回答している
・Among respondents who are currently in employment, close to half (49%) say their employer informed them about the use of digital technologies, including Artificial Intelligence, to manage activities in their workplace.  ・現在雇用されている回答者のうち、半数近く(49%)が、職場の活動を管理するために人工知能を含むデジタル技術の使用について、雇用主から説明を受けたと回答している。
・This proportion includes 16% who say they have been made aware of this, but without further details, and 18% who report having received a detailed explanation, including information about the benefits, drawbacks, and their rights.  ・この割合には、「説明は受けたが、詳しい説明はなかった」という回答が16%、「メリット、デメリット、権利など詳しい説明を受けた」という回答が18%含まれている。
・Among employers and managers, 53% report that they have ensured that their employees or the people they manage have been informed about the use of these technologies in the workplace, including 16% who say they have made them aware, but without further details, and 22% who declare that they have given them a detailed explanation.  ・雇用主や管理職のうち53%が、従業員や管理職に職場におけるこれらの技術の使用について周知徹底させたと回答している、 その内、16%が「従業員に周知させたが、詳しい説明はしなかった」、22%が「従業員に詳しい説明をした」と回答している。
・Employees working in the logistics sector and in larger establishments are the most inclined to report that they have been informed. Employers and managers in logistics are the most likely to say that they have ensured that employees are informed, while there is no clear pattern in terms of establishment size.  ・物流部門で働く従業員や大規模な事業所で働く従業員が、最も「知らされている」と回答する傾向が強い。物流部門の雇用主や管理職は、従業員への情報提供を確実に行ったと回答する割合が最も高いが、事業所の規模による明確なパターンは見られない。
A large majority of those currently in employment feels their employer equips them with the necessary tools to work with digital technologies  現在雇用されている人の大多数は、雇用主がデジタル技術を使って仕事をするために必要なツールを提供していると感じている
・More than two thirds of those currently in employment (68%) agree that their employer provides them with the necessary tools or training to work effectively with the most recent digital technologies, while 28% disagree with the statement. ・現在雇用されている人の3分の2以上(68%)は、雇用主が最新のデジタル技術を使って効果的に仕事をするために必要なツールやトレーニングを提供していることに同意しているが、28%はこの意見に同意していない。

 

 

データ編

・[PDF] Data annex (EN)

20250215-60418

 

 国ごとのデータもあります...

 


 

 

 

 

| | Comments (0)

より以前の記事一覧