ロボット

2026.02.16

中国 人工知能が高品質発展を推進する

こんにちは、丸山満彦です。

次の全国人民代表大会は2026.03.05から開催される予定、そこで現在策定中の十五次五カ年計画(2026-2030年)綱要(草案)
が決定されるというタイミングでこの広報ですかね。。。

人工知能、ロボット、量子技術...という感じで、新技術に(米国をしのいで)世界をリードしようと意気込みの計画がでてくるのでしょうかね...

 

 国家互联网信息办公室(国家サイバースペース管理局)

・2026.02.14 风起青萍浪成潮——以人工智能赋能高质量发展

风起青萍浪成潮——以人工智能赋能高质量发展 風は青萍に起こり、波は潮となる——人工知能が高品質発展を推進する
“机器能思考吗?” 「機械は思考できるのか?」
七十多年前,“人工智能之父”艾伦·麦席森·图灵在论文《计算机器与智能》中发出这一叩问。 七十余年前、「人工知能の父」アラン・マシスン・チューリングは論文『計算機と知能』でこの問いを投げかけた。
七十多年后的今天,在基础理论突破、信息环境支撑、经济社会需求拉动的共同作用下,人工智能技术和应用迅猛发展,推动人类迈向一个全新时代。 七十余年後の今日、基礎理論の突破、情報環境の支援、経済社会の需要の牽引が相まって、人工知能技術と応用は急速に発展し、人類を新たな時代へと導いている。
“现在,我们迎来了世界新一轮科技革命和产业变革同我国转变发展方式的历史性交汇期,既面临着千载难逢的历史机遇,又面临着差距拉大的严峻挑战。” 「今、我々は世界の新たな科学技術革命と産業変革が、我が国の発展方式転換という歴史的転換期と重なる局面を迎えている。千載一遇の歴史的機会と、格差拡大という厳しい挑戦の両方に直面しているのだ」
“科技革命中,人工智能、量子技术、生物技术等前沿技术集中涌现,其中人工智能最为引人瞩目,被认为是继蒸汽机、电力、互联网之后又一个划时代的重大技术变革。” 「科学技術革命の中で、人工知能、量子技術、バイオテクノロジーなどの先端技術が集中的に出現している。中でも人工知能は最も注目を集め、蒸気機関、電力、インターネットに次ぐ画期的な技術革新と見なされている」
能否抓住历史机遇,能否把握时代脉搏,能否顺应发展潮流,事关党和国家事业的兴衰成败。 歴史的機会を捉えられるか、時代の脈動を把握できるか、発展の潮流に順応できるかは、党と国家の事業の興亡成敗に関わる。
把握历史主动 歴史的主導権を握る
纵观人类发展史,科技进步始终是推动社会发展的重要力量。百年大变局,科技创新是关键变量。推进中国式现代化,科技创新是必由之路。 人類の発展史を俯瞰すると、科学技術の進歩は常に社会発展を推進する重要な力であった。百年に一度の大変局において、科学技術革新は鍵となる変数である。中国式現代化を推進する上で、科学技術革新は必然の道である。
不论在基层、地方还是在中央,习近平同志对科技创新和产业创新的重视、思考与实践一以贯之。 末端組織であれ、地方であれ、中央であれ、習近平同志の科学技術革新と産業革新への重視、考察、実践は一貫している。
1975年9月20日,《延安通讯》头版头条刊登通讯《取火记——延川县人民大办沼气见闻》,详细介绍了“沼气过秦岭”的故事。 1975年9月20日、『延安通信』の1面トップに「火の取り方――延川県民がバイオガスを大々的に導入した見聞」という記事が掲載され、「バイオガスが秦嶺を越える」という物語が詳細に紹介された。
1974年初,习近平同志被推选为梁家河大队党支部书记。一天夜里,习近平同志在报纸上读到一篇介绍四川人民推广利用沼气的报道,他感到心潮澎湃,意识到这可以解决梁家河缺煤少柴的问题。于是,他和其他同志一同前往四川“取经”,回来后动员村民组建了一个办沼气的施工队。在习近平同志带领下,陕西第一口沼气池在梁家河建成,解决了村民做饭、照明和施肥的问题。 1974年初頭、習近平同志は梁家河大隊党支部書記に選出された。ある夜、習近平同志は新聞で四川省の人民がバイオガス利用を推進している記事を読み、胸が高鳴った。これが梁家河の石炭不足と薪不足を解決できると気づいたのだ。そこで同志たちと共に四川へ「知恵を学び」に行き、帰国後は村民を動員してバイオガス施工チームを結成した。習近平同志の指導のもと、陝西省初のバイオガス池が梁家河に完成し、村民の炊事・照明・肥料の問題を解決した。
20世纪80年代,时任河北正定县委书记的习近平同志就认识到,“科技是关键,信息是灵魂”。 1980年代、当時河北省正定県党委書記だった習近平同志は「科学技術が鍵であり、情報が魂である」と認識していた。
习近平同志敏锐把握世界科技创新发展趋势,认识到信息工作的重要性,并作出判断:“不重视信息工作,就如同‘盲人骑瞎马,夜半临深池’”,要“尽快形成耳聪目明的‘蛛网型’信息网”。 習近平同志は世界の科学技術革新の趨勢を鋭く把握し、情報業務の重要性を認識してこう判断した。「情報業務を重視しなければ、それは『盲人が盲馬に乗り、真夜中に深い池のほとりに立つ』ようなものだ」。そして「耳が利き目が利く『蜘蛛の巣型』情報網を早急に構築せよ」と指示した。
在习近平同志推动下,正定开启一系列大刀阔斧的改革,其中一项就是加强信息工作。 習近平同志の推進により、正定では一連の大胆な改革が始まった。その一つが情報業務の強化だった。
1984年,正定建立信息中心。同年,全县手摇电话升级为程控电话,举办了全省第一个县级“技术信息交易大会”,推出科技项目1500项。 1984年、正定は情報センターを設立した。同年、県内の手動式電話は全自動交換機へ更新され、全省初の県レベル「技術情報取引大会」が開催され、1500件の科学技術プロジェクトが発表された。
在正定人民心中:“习书记主政下的正定县,非常重视人才,重视科技成果,重视新产品研发,他本人对这个领域发生的事情特别敏感。” 正定の人々の心にはこう刻まれている。「習書記が統治する正定県は、人材を非常に重視し、科学技術の成果を重視し、新製品の開発を重視している。彼自身はこの分野で起きることに特に敏感だった」と。
世纪之交,信息技术革命在全球兴起,但电脑和手机在中国还未普及,互联网对大多数中国人来说还是新鲜事物,人们对信息化浪潮的到来感受不深。 世紀の変わり目、情報技術革命が世界的に起こっていたが、中国ではまだパソコンや携帯電話が普及しておらず、インターネットは大多数の中国人にとって新鮮な存在で、情報化の波が来ているという実感はあまりなかった。
2000年,一份“数字福建”建议书,引起了时任福建省省长的习近平同志的关注。一个前瞻性的计划开始照进现实。 2000年、「デジタル福建」の提案書が、当時福建省省長だった習近平同志の注目を集めた。先見性のある計画が現実のものとなり始めたのだ。
就这份建议书,习近平同志作了整整一页纸的批示,内容十分详细。在批示中,习近平同志肯定了建设“数字福建”的重大意义,并指出实施科教兴省战略,必须抢占科技制高点。建设“数字福建”,就是当今世界最重要的科技制高点之一。 この提案書に対し、習近平同志は丸々1ページにわたる詳細な指示を記した。指示の中で習近平同志は「デジタル福建」建設の重大な意義を認め、科学技術振興戦略の実施には科学技術の制高点を確保しなければならないと指摘した。「デジタル福建」の建設こそが、現代世界で最も重要な科学技術の制高点の一つであると述べた。
思之谋之,知之行之。 考え、計画し、知り、実行する。
习近平同志作出建设数字福建的战略部署,提出建设“数字化、网络化、可视化、智能化”数字福建的奋斗目标,由此开启了福建推进信息化建设的进程。这也是数字中国建设的思想源头和实践起点。 習近平同志はデジタル福建建設の戦略的配置を行い、「デジタル化、ネットワーク化、可視化、知能化」を特徴とするデジタル福建の建設目標を掲げた。これにより福建省の情報化建設プロセスが開始された。これはデジタル中国建設の思想的源流であり実践の起点でもある。
“今天这个峰会,‘春回燕归’这个名字起得很好。杭州现在是春暖花开、桃红柳绿,燕子回来了,家乡的骄子归来了,来看看已经发生深刻变化的家乡。这也表明,浙江IT业界的春天也来了。” 「本日のサミット『春が戻り燕が帰る』という名称は実に適切だ。杭州は今、春暖かく花が咲き、桃は紅く柳は緑で、燕が戻ってきた。故郷の誇りが帰ってきたのだ。大きく変わった故郷を見に来たのだ。これは浙江IT業界の春も来たことを示している。」
2006年3月28日,时任浙江省委书记的习近平同志亲切接见首届“春回燕归·浙籍IT精英峰会”与会代表并合影留念。 2006年3月28日、当時浙江省党委書記だった習近平同志は、第1回「春回燕帰・浙江出身ITエリートサミット」の参加者らを温かく接見し、記念撮影を行った。
“习书记不仅重视浙籍IT精英的回归和培育,而且重视国内外高科技企业的引进与合作。”时任浙江省科学技术厅厅长蒋泰维至今记忆犹新,国际知名企业董事长或CEO来杭州,习近平同志都会抽时间接见会谈。 「習書記は浙江出身のITエリートの帰還と育成を重視するだけでなく、国内外のハイテク企業の誘致と協力も重視していた」と当時浙江省科学技術庁長官だった蒋泰維は今も鮮明に覚えている。国際的に有名な企業の会長やCEOが杭州を訪れると、習近平同志は必ず時間を割いて面会し、会談していた。
在浙江工作期间,习近平同志坚持以信息化带动工业化,以工业化促进信息化,加快建设“数字浙江”……习近平同志强调“干在实处、走在前列”,制定并实施“八八战略”,加快推进创新型省份和科技强省建设,打造了“百亿信息化建设”工程。 浙江で勤務していた期間、習近平同志は情報化で工業化を牽引し、工業化で情報化を促進するという方針を堅持し、「デジタル浙江」の建設を加速させた…… 習近平同志は「実践で先頭に立つ」ことを強調し、「八八戦略」を策定・実施し、革新型省と科学技術強省の建設を加速させ、「百億情報化建設」プロジェクトを打ち立てた。
历史的纵深感在于“度之往事”,也在于“验之来事”。 歴史の深遠さは「過去の事象を測る」ことにもあり、「未来の事象を検証する」ことにもある。
习近平总书记指出,“没有一种历史的纵深感来把握现在做的事情和制定我们的目标,就做不好今天的工作”。 習近平総書記は「歴史の深遠さをもって現在の行動を把握し目標を定めなければ、今日の仕事を成し遂げられない」と指摘した。
世界无时无刻不在变化,发展机会稍纵即逝,要下好先手棋、打好主动仗,做到“为之于未有”。 世界は刻一刻と変化し、発展の機会は一瞬で過ぎ去る。先手を打つ手筋を練り、主導権を握る戦いを展開し、「未然に備える」ことを実現しなければならない。
“明者因时而变,知者随事而制。”从黄土高原到冀中平原,从八闽大地到东海之滨……一路走来,习近平同志始终敏锐感知时代先声、准确把握时代脉搏。 「賢者は時に応じて変え、知者は事に応じて制す」。黄土高原から冀中平原へ、八閩の大地から東海の浜辺へ……歩みを進める中で、習近平同志は常に時代の先駆けを鋭く感知し、時代の脈動を正確に把握してきた。
Picture1 写真1
2026年1月20日,省部级主要领导干部学习贯彻党的二十届四中全会精神专题研讨班在中央党校(国家行政学院)开班。中共中央总书记、国家主席、中央军委主席习近平在开班式上发表重要讲话。图/新华社记者 谢环驰 摄 2026年1月20日、省部級主要指導幹部による党第20期中央委員会第4回全体会議精神学習貫徹特別研修班が中央党校(国家行政学院)で開講した。中国共産党中央委員会総書記、国家主席、中央軍事委員会主席の習近平が開講式で重要な講話を行った。写真=新華社記者・謝環馳撮影
回答时代课题 時代の課題に答える
2026年1月30日,中共中央政治局进行第二十四次集体学习。开局之年首次集体学习,主题聚焦前瞻布局和发展未来产业。 2026年1月30日、中共中央政治局は第24回集団学習を実施した。年初の最初の集団学習は、先見的な配置と未来産業の発展に焦点を当てた。
习近平总书记指出,“培育发展未来产业,对于抢占科技和产业制高点、把握发展主动权,对于发展新质生产力、建设现代化产业体系,对于提高人民生活品质、促进人的全面发展和社会全面进步,都具有重要意义”。 習近平総書記は「未来産業を育成・発展させることは、科学技術と産業の制高点を占め、発展の主導権を握る上で、新たな質的生産力を発展させ、現代的な産業体系を構築する上で、人民の生活の質を高め、人の全面的な発展と社会の全面的な進歩を促進する上で、いずれも重要な意義を持つ」と指摘した。
科技浪潮迭起,未来产业里有产业的未来,更有发展的未来。 科学技術の波が次々と押し寄せ、未来産業には産業の未来だけでなく、発展の未来も秘めている。
人工智能作为引领新一轮科技革命和产业变革的战略性技术,深刻改变了科技的发展形态和产业的运作模式,加快推进信息化、数字化、智能化进程,为各行各业乃至整个经济社会带来前所未有的变革机遇。 人工知能は新たな科学技術革命と産業変革を牽引する戦略的技術として、科学技術の発展形態と産業の運営モデルを深く変え、情報化・デジタル化・知能化の進展を加速させ、あらゆる業界、ひいては経済社会全体に前例のない変革の機会をもたらしている。
“国内企业发布多款人工智能芯片产品,智能算力规模达1590EFLOPS,行业高质量数据集加速涌现,国内大模型引领全球开源生态。据有关机构测算,2025年我国人工智能企业数量超过6000家,核心产业规模预计突破1.2万亿元。”2026年1月21日,国务院新闻办公室举行新闻发布会,公布系列重磅数据。 「国内企業は複数の人工知能チップ製品を発表し、インテリジェント演算能力は1590EFLOPSに達した。業界の高品質データセットが加速的に出現し、国内の大規模モデルが世界のオープンソースエコシステムをリードしている。関連機関の試算によると、2025年までに中国の人工知能企業数は6000社を超え、中核産業規模は1兆2000億元を突破すると見込まれている。」 2026年1月21日、国務院新聞弁公室は記者会見を開き、一連の重要なデータを発表した。
今日事业之繁盛,始于昨日之远见。 今日の事業の繁栄は、昨日の先見性から始まる。
2013年国庆前夕,中共中央政治局集体学习走出中南海,把“课堂”搬到了中关村。在我国第一个高技术园区里,习近平总书记对科技创新趋势作出深入研判。 2013年国慶節前夜、中国共産党中央政治局の集団学習は中南海を離れ、「教室」を中関村に移した。中国初のハイテクパークで、習近平総書記は科学技術革新の趨勢について深い分析を行った。
“即将出现的新一轮科技革命和产业变革与我国加快转变经济发展方式形成历史性交汇,为我们实施创新驱动发展战略提供了难得的重大机遇。” 「間もなく到来する新たな科学技術革命と産業変革は、わが国の経済発展方式転換の加速化と歴史的な交点となり、我々がイノベーション駆動型発展戦略を実施する上で貴重な重大な機会を提供する」
抓住和用好这一重大机遇,总书记强调了三个“不能”:不能等待、不能观望、不能懈怠。 この重大な機会を捉え活用するため、総書記は三つの「できない」を強調した:待つことはできない、傍観することはできない、怠けることはできない。
次年6月,在中国科学院第十七次院士大会、中国工程院第十二次院士大会上,习近平总书记指出,“有的人工智能机器人已具有相当程度的自主思维和学习能力”,并再次强调,“机不可失,时不再来,必须紧紧抓住”。 翌年6月、中国科学院第17回院士大会・中国工程院第12回院士大会で、習近平総書記は「 一部の人工知能ロボットはすでに相当な自律思考と学習能力を備えている」と述べ、改めて「機は逃せば二度と来ない。必ずしっかりと掴まねばならない」と強調した。
2018年10月31日,在中共中央政治局就人工智能发展现状和趋势举行第九次集体学习期间,习近平总书记指出,“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”。 2018年10月31日、中共中央政治局が人工知能の発展現状と趨勢について第9回集団学習を行った際、習近平総書記は「次世代人工知能の発展を加速することは、我が国が新たな科学技術革命と産業変革の機会を掴めるかどうかの戦略的問題である」と指摘した。
如何把握发展机遇?总书记的足迹引领前行。 発展の機会をどう捉えるか?総書記の足跡が前進を導く。
2012年12月,党的十八大后首次离京考察,习近平总书记来到广东,第一天就走进互联网企业。总书记指出,“现在人类已经进入互联网时代这样一个历史阶段,这是一个世界潮流,而且这个互联网时代对人类的生活、生产、生产力的发展都具有很大的进步推动作用”。这是对时代潮流、时代方位的精准把握。 2012年12月、党第18回全国代表大会後初の北京離脱視察で、習近平総書記は広東省を訪れ、初日にインターネット企業を視察した。総書記は「人類はすでにインターネット時代という歴史的段階に入り、これは世界の潮流であり、このインターネット時代は人類の生活、生産、生産力の発展に大きな推進的役割を果たしている」と指摘した。これは時代の潮流と時代の方向性を正確に捉えたものである。
“时代”,对于中国共产党人来说,是一个具有重大理论和现实意义的词汇。正确认识和把握我们所面临的“时”与“势”,是我们党掌握历史主动、引领发展进步的根本所在。 「時代」という言葉は、中国共産党員にとって重大な理論的・現実的意義を持つ。我々が直面する「時」と「勢」を正しく認識し把握することは、我が党が歴史的主導権を掌握し、発展と進歩をリードする根本にある。
2018年11月,习近平总书记在上海考察时走进张江科学城,在一个个高技术展台前仔细观看。总书记指出,“在实现中华民族伟大复兴的关键时刻,要增强科技创新的紧迫感和使命感”。 2018年11月、習近平総書記は上海視察で張江科学城を訪れ、数々のハイテク展示ブースを丁寧に視察した。総書記は「中華民族の偉大な復興を実現する重要な時期に、科学技術革新の緊迫感と使命感を強めなければならない」と指摘した。
“推进中国式现代化,科学技术要打头阵,科技创新是必由之路。”2024年10月,习近平总书记来到合肥滨湖科学城,驻足察看智能网联汽车、新一代信息技术、人工智能等高新科技产品。这是党的十八大以来,习近平总书记第三次考察安徽。 「中国式現代化を推進するには、科学技術が先頭に立つ必要があり、科学技術革新は必然の道である」。2024年10月、習近平総書記は合肥濱湖科学城を訪れ、スマートコネクテッドカー、次世代情報技術、人工知能などのハイテク製品を視察した。これは党の第18回全国代表大会以降、習近平総書記が安徽省を視察するのは3度目である。
2016年4月,习近平总书记走进中国科技大学、中科大先进技术研究院,观看智能语音、智能机器人等方面的科技创新成果,要求“把创新作为最大政策,奋起直追、迎头赶上”。2020年8月,习近平总书记参观安徽创新馆,指出“实现跨越式发展,关键靠创新”。 2016年4月、習近平総書記は中国科学技術大学と中科大先進技術研究院を訪れ、音声認識技術や知能ロボットなどの科学技術革新の成果を視察し、「革新を最大の政策とし、奮起して追い上げ、追い越せ」と要求した。2020年8月、習近平総書記は安徽省革新館を視察し、「飛躍的な発展を実現するには、革新が鍵だ」と指摘した。
三次考察,习近平总书记均详细察看科技成果、询问科研进展、关切基础研究。其中,既有一以贯之的关注,又有不断深化的要求,为人工智能等新技术的发展和应用按下了快进键。 三度の視察で、習近平総書記はいずれも科学技術成果を詳細に視察し、研究の進捗状況を尋ね、基礎研究に関心を示した。そこには一貫した関心と、絶えず深化する要求があり、人工知能などの新技術の発展と応用を加速させるスイッチを押したのである。
2025年4月29日,习近平总书记来到上海“模速空间”大模型创新生态社区调研,了解上海市人工智能产业发展情况,察看重点孵化企业的大模型产品展示,听取相关技术研发和企业生产经营介绍。 2025年4月29日、習近平総書記は上海の「モースペース」大規模モデル革新エコシステムコミュニティを視察し、上海市の人工知能産業の発展状況を把握し、重点インキュベーション企業の大規模モデル製品の展示を視察し、関連技術の研究開発と企業の生産経営について説明を受けた。
就在此次考察的几天前,4月25日,习近平总书记主持中共中央政治局第二十次集体学习,聚焦的主题正是——“加强人工智能发展和监管”。 この視察の数日前、4月25日には、習近平総書記が中共中央政治局第20回集団学習を主宰し、まさに「人工知能の発展と監督管理の強化」をテーマに焦点を当てていた。
在理论学习后即赴实地调研,这样的安排凸显了人工智能对经济社会发展至关重要的作用,以及在当前推动这一产业健康有序发展的战略性和紧迫性。 理論学習の直後に現地調査を行うというこの手配は、人工知能が経済社会の発展にとって極めて重要な役割を担っていること、そして現在この産業の健全かつ秩序ある発展を推進することの戦略性と緊急性を浮き彫りにしている。
“模速空间”是上海市打造的人工智能大模型专业孵化和加速平台。这里入驻的企业涵盖底层技术、应用研发、场景设计、算力支持等方方面面,“上下楼就是上下游”,紧密协作的生态体系恰是产业蓬勃向上的写照。 「モースペース」は上海市が構築した人工知能大規模モデル専門のインキュベーション・アクセラレーションプラットフォームである。ここに入居する企業は基盤技術、応用開発、シナリオ設計、計算能力支援など多岐にわたり、「同じフロアがサプライチェーンの上流と下流」という緊密に連携するエコシステムこそが、産業の活況を象徴している。
在考察中,习近平总书记走进人工智能产品体验店,详细了解产品功能和市场行情,还饶有兴致地戴上智能眼镜亲身体验。总书记同现场青年创新人才亲切交流,对大家说“人工智能是年轻的事业”。总书记还指出,“我国数据资源丰富,产业体系完备,市场空间巨大,发展人工智能前景广阔,要加强政策支持和人才培养,努力开发更多安全可靠的优质产品”。 視察中、習近平総書記は人工知能製品体験店を訪れ、製品機能や市場動向を詳細に確認した。さらに興味深そうにスマートグラスを装着して自ら体験もした。総書記は現場の若手イノベーション人材と親しく交流し、「人工知能は若い事業だ」と述べた。また「わが国はデータ資源が豊富で、産業体系が完備し、市場規模が巨大だ。人工知能の発展見通しは広く、政策支援と人材育成を強化し、より多くの安全で信頼性の高い優良製品の開発に努めなければならない」と指摘した。
人工智能是年轻的事业,更是前景广阔的事业。面对日趋激烈的全球科技竞争,人工智能已成为我国开辟发展新领域新赛道、塑造发展新动能新优势的重要战略抓手。 人工知能は若者の事業であり、さらに将来性豊かな事業だ。激化する世界的な科学技術競争に直面し、人工知能は我が国が新たな発展分野・新たな競争領域を開拓し、新たな発展の原動力・新たな優位性を形成する重要な戦略的手段となっている。
抢抓历史性机遇,谋篇布局是关键。 歴史的機会を捉えるには、計画的な配置が鍵だ。
2015年,《国务院关于积极推进“互联网+”行动的指导意见》发布,将“‘互联网+’人工智能”列为11项重点行动之一;2016年,人工智能被写入“十三五”规划纲要;2017年,《新一代人工智能发展规划》确立“三步走”目标;2021年,“十四五”规划纲要将“新一代人工智能”列为科技前沿攻关的七大领域之一;2025年8月,《国务院关于深入实施“人工智能+”行动的意见》印发,明确了实施“人工智能+”行动的总体要求、发展目标和重点方向,推动人工智能与经济社会各行业各领域广泛深度融合。 2015年、「国務院による『インターネットプラス』行動の積極的推進に関する指導意見」が発表され、「『インターネットプラス』人工知能」が11の重点行動の一つに列挙された。2016年には人工知能が「第13次五カ年計画」要綱に盛り込まれた。2017年、「次世代人工知能発展計画」が「三段階の目標」を確立した。2021年、「第十四次五カ年計画」要綱は「次世代人工知能」を科学技術フロンティア研究の七大分野の一つに指定した。2025年8月、「国務院による『人工知能プラス』行動の深化実施に関する意見」が発布され、「人工知能プラス」行動の実施に関する全体的要請、発展目標、重点方向が明確化され、人工知能と経済社会の各業界・各分野との広範かつ深い融合が推進された。
战略、规划相互衔接、压茬推进,得时无怠、只争朝夕。 戦略と計画は相互に連携し、段階的に推進され、時機を逃さず、一刻を争う。
2025年10月,《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》(以下简称《建议》)正式公布。在《建议》中,“智能”一词出现16次。“具身智能”“智能制造”“智能电网”……在这张为未来五年中国发展擘画的蓝图中,人工智能覆盖产业发展、文化建设、民生保障、社会治理等方方面面。 2025年10月、「中国共産党中央委員会による国民経済・社会発展第15次五カ年計画策定に関する提案」(以下「提案」という)が正式に発表された。「提案」の中で「スマート」という言葉は16回登場する。「具身知能」「スマート製造」「スマートグリッド」…… この今後5年間の中国発展を描いた青写真において、人工知能は産業発展、文化建設、民生保障、社会ガバナンスなどあらゆる分野をカバーしている。
《建议》提出:“全面实施‘人工智能+’行动,以人工智能引领科研范式变革,加强人工智能同产业发展、文化建设、民生保障、社会治理相结合,抢占人工智能产业应用制高点,全方位赋能千行百业。” 『提案』は次のように提言している。「『人工知能プラス』行動を全面的に実施し、人工知能によって科学研究のパラダイム転換をリードする。人工知能と産業発展、文化建設、民生保障、社会ガバナンスとの結合を強化し、人工知能産業応用の制高点を占め、あらゆる分野に力を与える。」
在雁群中,头雁振翅翱翔、破风前行,为整个雁群引领前行方向。 雁の群れの中で、先頭の雁は翼を羽ばたかせて風を切り、群れ全体に前進の方向を示す。
“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。”习近平总书记用一个极为生动的比喻,强调人工智能是新一轮科技革命和产业变革的重要驱动力量。 「人工知能は、この科学技術革命と産業変革を牽引する戦略的技術であり、波及効果の強い『先頭雁』効果を持つ」。習近平総書記は極めて生き生きとした比喩を用いて、人工知能が新たな科学技術革命と産業変革の重要な推進力であることを強調した。
知之愈明,则行之愈笃。在习近平总书记擘画指引下,我国人工智能蓬勃发展、应用落地加速推进,人工智能综合实力实现整体性、系统性跃升,其“头雁”效应日益彰显。 知るほどに行動は確固たるものとなる。習近平総書記の指針のもと、わが国の人工知能は力強く発展し、応用展開が加速している。人工知能の総合力は全体的・体系的な飛躍を遂げ、「先導効果」が日増しに顕著になっている。
澎湃发展动能 澎湃たる発展の動能
2026年年初,全球目光再次聚焦瑞士的冰雪小镇达沃斯,世界经济论坛2026年年会在此召开。在阿尔卑斯山的凛冽寒风中,人工智能话题依然火爆,有十余项与之相关的议题。 2026年初頭、世界の注目が再びスイスの雪の町ダボスに集まった。世界経済フォーラム年次総会がここで開催されたのだ。アルプスの冷たい風の中、人工知能の話題は依然として熱く、十数もの関連議題が取り上げられた。
在这场素有“世界经济风向标”之称的国际盛会上,来自中国的应用成为人工智能落地的鲜活样本。期间发布的一项最新报告评选出第二批在全球具有高影响力的“AI应用之星”名单,首批名单已于2025年夏季达沃斯论坛期间公布。两批名单合计,有近半案例来自中国。 「世界経済の風向計」と呼ばれるこの国際会議で、中国発の応用事例はAI実用化の鮮やかな実例となった。会期中に発表された最新報告書では、世界で高い影響力を持つ「AI応用スター」の第2陣が選出された。第1陣は2025年夏のダボス会議で発表済みだ。両リストを合わせると、事例の約半数が中国発である。
成果的背后,是中国坚定不移推动人工智能与产业深度融合。 この成果の背景には、中国が揺るぎなく人工知能と産業の深い融合を推進していることがある。
习近平总书记指出,“积极推动人工智能科技创新与产业创新深度融合,赋能经济社会高质量发展,助力提升人民群众生活品质”。 習近平総書記は「人工知能の科学技術革新と産業革新の深い融合を積極的に推進し、経済社会の高品質な発展に力を与え、人民の生活の質向上に貢献する」と指摘した。
时代激荡,实践宏阔。从生产一线到生活瞬间,智能时代的大幕缓缓拉开。 時代は激動し、実践は広大である。生産の最前線から生活の瞬間に至るまで、知能時代の幕がゆっくりと開かれた。
推动传统产业焕发新生—— 伝統産業に新たな命を吹き込む——
冬日的苏北,车间的生产如火如荼。走进徐工集团的智能车间,科技感扑面而来:约160万台联网设备的实时数据持续更新,人工智能调度算法动态优化生产节奏,实现每25分钟下线一台起重机底盘等核心部件,生产效率较传统模式提升四倍。 冬の蘇北地方、工場の生産は活気に満ちている。徐工集団のスマート工場に入ると、テクノロジーの息吹が感じられる。約160万台のネットワーク接続機器からリアルタイムデータが更新され続け、人工知能によるスケジューリングアルゴリズムが生産リズムを動的に最適化。これによりクレーンシャーシなどのコア部品が25分ごとに生産ラインから出荷され、従来方式に比べて生産効率が4倍向上した。
Picture 2 写真2
2025年6月16日,在江西省南昌市的一家汽车生产企业车间内,智能焊装机械臂有序运转。图/视觉中国 2025年6月16日、江西省南昌市の自動車メーカー工場で、スマート溶接ロボットアームが整然と稼働している。図/ビジュアルチャイナ
智造的蝶变发生在更广阔天地。截至目前,全国已建成3.5万余家基础级、8200余家先进级、500余家卓越级智能工厂,培育15家领航级智能工厂。中国工业企业应用大模型及智能体的比例,从2024年的9.6%提升到2025年的47.5%。 スマート製造の変革はより広範な領域で起きている。現在までに、全国で基礎レベル3万5千余社、先進レベル8千2百余社、卓越レベル500余社のスマート工場が建設され、15社の先導的スマート工場が育成された。中国工業企業における大規模モデル及びインテリジェントエージェントの応用比率は、2024年の9.6%から2025年には47.5%に上昇した。
“农业现代化,关键是农业科技现代化。” 「農業の近代化は、農業科学技術の近代化が鍵だ」
仰望苍穹,“吉林一号”卫星星座在太空遨游。放眼麦田,基于海量的“吉林一号”遥感数据,“一网、一图、一平台+N系统”的智慧农业产品体系成功构建,实现卫星“精准指导”耕种。 大空を見上げれば、「吉林一号」衛星群が宇宙を航行している。麦畑を見渡せば、膨大な「吉林一号」リモートセンシングデータに基づき、「一網・一図・一プラットフォーム+Nシステム」というスマート農業製品体系が構築され、衛星による「精密な指導」による耕作が実現している。
2025年我国农业科技进步贡献率超过64%,一大批智能农机设备上岗。无人驾驶插秧机在水田中穿梭,人工智能精准调度小麦收割机,北斗导航为播种“画”下厘米级精度的轨迹……当传统农业遇上前沿数字技术,充满希望的智能田野正向我们加速展开。 2025年、中国の農業科学技術進歩の貢献率は64%を超え、多数のスマート農業機械が稼働した。無人田植機が水田を縦横無尽に走り、人工知能が小麦収穫機を精密に配車し、北斗ナビゲーションが播種にセンチメートル単位の精度で軌跡を描く……伝統農業が先端デジタル技術と出会う時、希望に満ちたスマート農地が加速して広がっている。
不止扎根国内赋能各领域升级,中国人工智能应用场景不断拓展、走出国门,获得海外市场广泛青睐。 国内に根ざして各分野のアップグレードを推進するだけでなく、中国の人工知能応用シーンは絶えず拡大し、国境を越えて海外市場で広く支持を得ている。
在德国一家企业的生产车间里,几名当地员工正穿戴外骨骼机器人搬运大型零部件。这些可穿戴的机器人由上海傲鲨智能研发,通过智能算法协助使用者轻松提起重物,既可以保障使用者人身安全,又能显著提高生产效率。 ドイツの企業生産現場では、現地従業員数名が外骨格ロボットを装着して大型部品を運搬している。これらのウェアラブルロボットは上海傲鲨智能が開発したもので、スマートアルゴリズムにより使用者が重物を楽に持ち上げられるよう支援する。使用者の安全を確保しつつ、生産効率を大幅に向上させる。
在智利的农田上,极飞科技农业无人机借助人工智能实现精准播撒、自动避障,助力农场降本增效、规避生产风险;在英国的物流中心内,深兰科技“小兰鲸”清洁机器人依托人工智能自主规划路径、识别污渍,高效完成清洁作业,还能通过数据分析优化维护方案、降低成本……中国的人工智能成果在海外落地生根,让工厂更“聪明”、农业更“智慧”、生活更智能。 チリの農地では、極飛科技の農業用ドローンが人工知能を活用し、精密な種まきと自動障害物回避を実現。農場のコスト削減と効率化、生産リスク回避を支援している。英国の物流センターでは、深蘭科技の清掃ロボット「小蘭鯨」が人工知能で自律的に経路を計画し、汚れを識別。効率的な清掃作業を完了するだけでなく、データ分析を通じてメンテナンス計画を最適化し、コスト削減も実現している。中国の人工知能技術が海外で根を下ろし、工場をより「賢く」、農業をより「スマートに」、生活をより知能的に変えている。
培育壮大新兴产业和未来产业—— 新興産業と未来産業の育成・拡大——
2026年1月6日,美国拉斯维加斯会展中心的明亮灯光下,2026年美国拉斯维加斯消费电子展(CES)的科技盛宴正酣。 2026年1月6日、米国ラスベガス・コンベンションセンターの明るい照明の下で、2026年米国ラスベガス・コンシューマー・エレクトロニクス・ショー(CES)のテクノロジーの祭典が熱気を帯びていた。
作为全球消费电子的“风向标”,本届展会上,中国国产人形机器人集中亮相。多家外媒报道称,在人形机器人及相关展区,中企数量占据明显优势,显示出强大的快速迭代和规模化推进能力。 世界の消費電子製品の「風向計」として知られる同展示会では、中国国産の人型ロボットが一堂に会した。複数の海外メディアが報じたところによると、人型ロボット及び関連展示エリアでは、中国企業の出展数が明らかに優勢で、強力な迅速なイテレーションと規模拡大の推進力を示していた。
Picture 3 写真 3
2025年8月12日,在2025世界机器人大会现场,各种人形机器人集中亮相,生产线上的机器人引人瞩目。图/视觉中国 2025年8月12日、2025世界ロボット大会の会場では、様々な人型ロボットが一堂に会し、生産ライン上のロボットが注目を集めた。図/ビジュアルチャイナ
我国成为全球第一大机器人生产国。2025年,国内人形机器人整机企业数量超140家,发布人形机器人产品超330款。以人形机器人为代表的具身智能在工业制造、物流运输、医疗康养、公共服务等领域加速实现规模化营运。 中国は世界最大のロボット生産国となった。2025年、国内の人型ロボットメーカー数は140社を超え、発表製品は330機種以上に達した。人型ロボットに代表される具身知能は、工業製造、物流輸送、医療・介護、公共サービスなどの分野で、規模化運営の実現を加速させている。
在微观世界的深处,一场关于未来计算机的革命正在悄然展开。 微視世界の深部では、未来のコンピューターに関する革命が静かに始まっている。
2025年8月,中国科学家在量子计算领域取得重要突破——他们利用人工智能技术,成功构建了多达2024个原子的无缺陷量子计算阵列,创造了新的世界纪录。 2025年8月、中国の科学者たちは量子計算分野で重要な突破口を開いた。人工知能技術を活用し、2024個もの原子からなる欠陥のない量子計算アレイの構築に成功し、新たな世界記録を樹立したのだ。
量子科技正加速从实验室走向产业赛场。在2025年中国国际服务贸易交易会上,北京首台(套)重大技术装备企业集中亮相。其中,国内首个支持1000专用量子比特的相干光量子计算云服务的发布,标志着我国专用量子计算正式迈向千比特规模化实用新阶段,量子计算领域的商业化落地迎来关键进展。 量子技術は実験室から産業現場へ急速に移行している。2025年中国国際サービス貿易取引会では、北京初の重要技術装備企業が集中展示された。その中で国内初の1000専用量子ビット対応コヒーレント光量子コンピューティングクラウドサービスが発表され、中国専用量子コンピューティングが正式に千ビット規模の実用化新段階へ進んだことを示し、量子コンピューティング分野の商業化実現に重要な進展をもたらした。
科技突破的程度,很大程度上决定未来产业发展的速度、广度、深度。 科学技術の突破の程度は、将来の産業発展の速度、広がり、深さを大きく左右する。
药物研发的起点,是找到那个在疾病中“使坏”的关键分子——也就是“靶点”。传统研发模式下的靶点探寻,无异于在浩瀚微观世界里大海捞针,试错成本高、筛选效率低。 医薬品開発の出発点は、疾患の中で「悪さをしている」鍵となる分子、すなわち「標的分子」を見つけることだ。従来の研究開発モデルにおける標的分子の探索は、広大な微視的世界で針を探すようなもので、試行錯誤のコストが高く、選別効率が低い。
破局之路,随着人工智能的深度介入豁然开朗。 この難局を打開する道は、人工知能の深い介入によって開けた。
人工智能凭借其强大的数据处理、模式识别与预测分析能力,打破了传统新药研发的固有逻辑,将海量数据转化为研发动能,在新药研发的各个关键环节实现高效赋能,显著缩短药物研发周期。 人工知能はその強力なデータ処理能力、パターン識別能力、予測分析能力によって、従来の新薬開発の固定観念を打ち破り、膨大なデータを研究開発の原動力に変換した。新薬開発の各重要段階で効率的な支援を実現し、薬物開発サイクルを大幅に短縮した。
我国高度重视生物技术与信息技术的融合发展,在政策扶持下,人工智能制药产业实现快速起步,逐渐形成了具有一定规模的产业集群。目前,我国已有超10家人工智能药物研发企业的管线进入临床阶段。 我が国はバイオテクノロジーと情報技術の融合発展を重視し、政策支援のもとで人工知能製薬産業は急速に発展し、一定の規模を持つ産業クラスターを形成しつつある。現在、10社以上の人工知能医薬品開発企業のパイプラインが臨床段階に進んでいる。
千行百业积极拥抱人工智能的实践,正汇聚成赋能高质量发展的磅礴力量。中国的“人工智能+”行动,通过在细分领域精准深耕、靶向发力,锻造出一批产业创新尖兵,推动社会生产效率与发展质量不断跃升,为经济社会高质量发展注入强劲动能。 あらゆる業界が積極的に人工知能を受け入れる実践は、高品質な発展を推進する強大な力へと集約されつつある。中国の「人工知能プラス」行動は、細分化された分野での精密な深耕と的を絞った取り組みを通じて、産業イノベーションの先駆者を数多く育成し、社会生産効率と発展品質の継続的な向上を推進し、経済社会の高品質な発展に強力な原動力を注入している。
风起青萍浪成潮。 微風は葦の葉を揺らし、やがて大波となる。
七十年前的那个夏日,当达特茅斯会议首次提出“人工智能”这一术语时,恐怕很难想象它会在今后如此深刻地改变世界。 70年前のあの夏、ダートマス会議で初めて「人工知能」という用語が提唱された時、それが後にこれほどまでに世界を深く変えるとは、おそらく想像もできなかっただろう。
从早期的符号逻辑、专家系统等探索,到深度学习的突破,再到大模型爆发,人工智能历经理论奠基、技术迭代、产业渗透,从实验室构想成长为驱动时代变革的重要力量。 初期の記号論理やエキスパートシステムなどの探求から、深層学習の突破、そして大規模モデルの爆発的普及に至るまで、人工知能は理論の基盤構築、技術の反復、産業への浸透を経て、実験室の構想から時代を変革する重要な力へと成長した。
东风夜放花千树。 東風が夜に花千樹を咲かせる。
2025年春天,以DeepSeek-R1为代表的中国大模型横空出世,以开放、自信的姿态,向世界展示中国大模型的创新成果,为全球大模型发展开拓出新路径。乘势而上,我国人工智能产业活力迸发、亮点纷呈,应用不断拓展,已形成覆盖基础层、框架层、模型层、应用层的完整人工智能产业体系。 2025年の春、DeepSeek-R1に代表される中国の大規模モデルが突如登場し、開放的で自信に満ちた姿勢で世界の前に中国のイノベーション成果を示し、グローバルな大規模モデル発展に新たな道を切り開いた。この勢いに乗って、わが国の人工知能産業は活力を爆発させ、数々のハイライトを生み出し、応用範囲を絶えず拡大し、基盤層、フレームワーク層、モデル層、応用層をカバーする完全な人工知能産業体系を形成している。
“十五五”扬帆起航,人工智能正以前所未有的力量,为中国式现代化注入强劲动能。中国之“智”也将跨越山海、惠及全球,在人工智能创新版图中标注愈加清晰的东方坐标。在以习近平同志为核心的党中央坚强领导下,在习近平新时代中国特色社会主义思想科学指引下,我们定将在科技创新之路上砥砺奋进、昂首向前,开创更加美好的未来。 第15次五カ年計画が始動し、人工知能はかつてない力で中国式現代化に強力な推進力を注ぎ込んでいる。中国の「知」は山海を越え、世界中に恩恵をもたらし、人工知能の革新地図にますます鮮明な東方の座標を刻む。習近平同志を核心とする党中央の強力な指導のもと、習近平新時代中国特色社会主義思想の科学的指針のもと、我々は科学技術革新の道を力強く前進し、より美しい未来を切り開いていく。

 

1_20260215161301

 

 

| | Comments (0)

2026.02.08

米国 CSET 物理AI 政策立案者向けAIとロボティクスの融合入門

こんにちは、丸山満彦です。

米国の安全保障・新興技術センターが物理AI (Physical AI) についての報告書が公表されていますね...

物理AI は「AI × ロボティクス」で、次のブーム?

技術的にも収斂が進んでいるが、依然として多くのボトルネックが存在するということのようです。

ボトルネックとしては、3次元認識、器用さ、標準化、大量生産...

米中を中心に競争が激化しており、政策的介入が重要になるという認識のようですね。日本もロボティックスの分野では優位性がまだあるような気がします...

 

Center for Security and Emerging Technology

・2026.02 Physical AI - A Primer for Policymakers on AI-Robotics Convergence

Physical AI A Primer for Policymakers on AI-Robotics Convergence 物理AI 政策立案者向けAIとロボティクスの融合入門
This paper examines the convergence of artificial intelligence and robotics, analyzing the emerging field of Physical AI. It provides a detailed overview of the supply chain challenges, competitive dynamics, and policy considerations that define this potentially transformative emerging technology. 本稿は人工知能とロボティクスの融合を検証し、新興分野である物理AIを分析する。この変革をもたらす可能性を秘めた新興技術を特徴づける、サプライチェーン上の課題、競争力学、政策上の考慮事項について詳細な概観を提供する。

 

・[PDF]

20260207-03050

・[DOCX][PDF] 仮訳

 

 

目次...

Executive Summary エグゼクティブサマリー
Introduction 序論
Scoping and Defining the AI-Robotics Supply Chain AI-ロボティクス供給網の範囲設定と定義
Manifesting Physical AI: Describing the Robotics Hardware Supply Chain 物理的AIの具現化:ロボティクスハードウェア供給網の記述
Building Sentient Silicon: AI Advances and the Robotics Software Supply Chain 知覚するシリコンの構築:AIの進歩とロボティクスソフトウェアのサプライチェーン
Competitiveness Assessment: AI-Robotics Convergence 競争力アセスメント:AIとロボティクスの融合
Innovation Ecosystem Mapping: AI-Robotics Research, Patents, and Investment イノベーション・エコシステムのマッピング:AI-ロボティクス研究、特許、投資
ETO Research Almanac: Publications and Patents ETOリサーチ年鑑:出版物と特許
ETO Country Activity Tracker: Investment Data ETO国別活動トラッカー:投資データ
Characterizing Relative National Standing: AI-Robotics Market Analysis 相対的な国家の立ち位置の特性化:AI-ロボティクス市場分析
AI-Robotics Foundation Models and the Software Ecosystem AIロボティクス基盤モデルとソフトウェアエコシステム
Robotics Hardware Components ロボティクスハードウェアコンポーネント
Robot Manufacturers ロボット製造事業者
Robot Deployment and End Users ロボット展開とエンドユーザー
Conclusion: Technology Trends Assessment 結論:技術動向のアセスメント
Author 著者
Acknowledgments 謝辞
Appendix 1. Template for Technology Competitiveness Assessment: Technical LevelSetting 附属書1. 技術競争力アセスメントテンプレート:技術レベル設定
Endnotes 脚注

 

エグゼクティブサマリー...

Executive Summary エグゼクティブサマリー
While the world has focused its attention for the last three years on generative artificial intelligence, chatbots, and new model releases coming from frontier AI labs, a quieter revolution is taking place that many believe represents the next stage in AI development: the arrival of Physical AI. Like the iPhone’s introduction in 2007, AlexNet’s victory in the 2012 ImageNet competition, and ChatGPT’s release in 2022, analysts and industry representatives believe a similar breakthrough is imminent. 過去3年間、世界は生成的人工知能、チャットボット、最先端AI研究所からの新モデル発表に注目してきたが、その陰で静かな革命が起きている。多くの専門家がAI発展の次なる段階と見なす「物理AI」の到来だ。 2007年のiPhone登場、2012年のImageNetコンテストにおけるAlexNetの勝利、2022年のChatGPTリリースと同様に、アナリストや業界代表者は、同様のブレークスルーが差し迫っていると確信している。 
Physical AI “lets autonomous systems like robots, self-driving cars, and smart spaces perceive, understand, and perform complex actions in the real (physical) world.”1 NVIDIA has declared “in the near future, everything that moves, or that monitors things that move, will be autonomous robotic systems.”2 OpenAI reportedly re-opened its robotics division in early 2025 to capitalize on the convergence of AI and robotics, while startups from Shanghai to Silicon Valley building the “brains” of robots are raising hundreds of millions of dollars.3 Electric vehicle makers Tesla and XPeng are racing to develop humanoid robots of their own.4 Meanwhile Amazon, which reports having one million robots in operation today, believes “Physical AI is about to change everything for robotics [including] autonomy, manipulation, sortation, and computer vision.”5 Adding to this enthusiasm, analysts at Morgan Stanley assert the market for humanoid robots will grow from tens of millions of dollars today to reach $5 trillion by 2050.6 物理AIとは「ロボット、自動運転車、スマート空間といった自律システムが、現実(物理)世界で複雑な行動を認識し、理解し、実行することを可能にする」技術だ1。NVIDIAは「近い将来、動くもの、あるいは動くものを監視するものは全て自律型ロボットシステムになる」と宣言している(2)。 OpenAIは2025年初頭にロボットディビジョンを再始動させ、AIとロボット工学の融合を推進していると報じられている。一方、上海からシリコンバレーまで、ロボットの「頭脳」を開発するスタートアップ企業は数億ドルの資金調達に成功している。3 電気自動車メーカーのテスラとXPengは、自社開発の人型ロボット開発を競っている。4 一方、現在100万台のロボットを稼働させていると報告するアマゾンは、「物理AIが自律性、操作、仕分け、コンピュータビジョンを含むロボット工学の全てを変えようとしている」と確信している。(5)この熱狂に拍車をかけるように、モルガン・スタンレーのアナリストは、ヒューマノイドロボット市場が現在の数千万ドル規模から2050年までに5兆ドルに達すると主張している。6
Yet the convergence of AI and robotics is so new that the field lacks a shared name, to say nothing of a mature technology stack. Some companies call this convergence “embodied AI” while others prefer “physical AI,” “embodied machine intelligence,” or “generative physical AI.”7 It is not at all clear if the hype around AI progress can translate into robots finding their way through the physical world: autonomous three-dimensional navigation of dynamic environments requires a mature software, hardware, and data ecosystem that simply does not exist at scale today. NVIDIA states part of the problem plainly: “Large language models are one-dimensional, able to predict the next token, in modes like letters or words. Image- and video-generation models are two-dimensional, able to predict the next pixel. None of these models can understand or interpret the 3D world.”8 しかしAIとロボティクスの融合は極めて新しく、分野全体で共通の名称すら存在せず、成熟した技術基盤などなおさらない。 この融合を「具現化されたAI」と呼ぶ企業もあれば、「物理AI」「具現化された機械知能」「生成的物理AI」を好む企業もある。7AI進歩への過剰な期待が、ロボットが物理世界で自律的に行動する能力に結びつくかは全く不透明だ。動的な環境における自律的な三次元ナビゲーションには、ソフトウェア・ハードウェア・データの成熟したエコシステムが必要だが、現時点で大規模に存在するものではない。 NVIDIAは問題の一部を明快に指摘している:「大規模言語モデルは一次元的で、文字や単語といったモードにおいて次のトークンを予測できる。画像・動画生成モデルは二次元的で、次のピクセルを予測できる。これらのモデルはいずれも3次元世界を理解したり解釈したりできない」8。 
The primary challenges facing Physical AI are the same ones that have troubled the robotics industry for generations: technology barriers and economic barriers. Parts of the robotics supply chain remain in their industrial infancy, key hardware technology breakthroughs remain elusive, and even recent advances are not ready for scalable manufacturing. Batteries, motors, sensors, and actuators evolve far more slowly than algorithms and software, and scalable manufacturing requires large amounts of patient capital. In addition, much of the supply chain for robotics components is commoditized, and the relatively slim margins dissuade innovative startups from competing with established incumbents. Adding to these challenges, each robotics company is pursuing its own unique approach, meaning the supply chain of components and parts remains largely non-standardized, hampering scalability and adding cost. The gap between impressive demonstrations in controlled environments and the promise of millions of affordable robots acting independently as they navigate the world is enormous. 物理AIが直面する主な課題は、ロボット産業が長年悩まされてきたものと同じだ。技術的障壁と経済的障壁である。ロボット産業のサプライチェーンの一部は未だ産業として未熟な段階にあり、ハードウェア技術の重要なブレークスルーは依然として実現しておらず、最近の進歩でさえも量産製造には対応できていない。バッテリー、モーター、センサー、アクチュエーターはアルゴリズムやソフトウェアに比べてはるかに進化が遅く、量産製造には大量の忍耐強い資本が必要だ。さらに、ロボット部品のサプライチェーンの大半はコモディティ化しており、比較的低い利益率は革新的なスタートアップが既存企業と競争する意欲を削ぐ。これらの課題に加え、各ロボット企業が独自のアプローチを追求しているため、部品・パーツのサプライチェーンは依然として非標準化が続き、スケーラビリティを阻害しコストを増大させている。制御された環境での印象的なデモンストレーションと、世界中で自律的に動作する数百万台の手頃な価格のロボットという約束との間には、巨大な隔たりがある。
The focus of this paper is on characterizing the convergence of Physical AI and robotics, its underlying supply chain, and identifying competitive advantages as well as constraints. This paper provides background on the technology and describes the ecosystem and supply chain of hardware and software suppliers supporting the technology. It then characterizes competitiveness worldwide using bibliometrics, patents, investment data, and industry reports to determine firm leadership, constraints, and breakthroughs across the technology ecosystem from AI foundation models and software to hardware component and robot manufacturers as well as end users. It concludes with a summary of drivers and positive trends, as well as constraints and limiting trends with an eye towards opportunities policymakers interested in promoting the tech industry’s next breakthrough moment can consider. 本稿の焦点は、物理AIとロボティクスの融合、その基盤となるサプライチェーンの特徴付け、競争優位性と制約の識別にある。本稿では技術の背景を説明し、この技術を支えるハードウェア・ソフトウェアプロバイダのエコシステムとサプライチェーンを記述する。 次に、文献計量学、特許、投資データ、業界レポートを用いて世界的な競争力を分析し、AI基盤モデルやソフトウェアからハードウェア部品・ロボット製造事業者、エンドユーザーに至る技術エコシステム全体における企業のリーダーシップ、制約、ブレークスルーを特定する。最後に、推進要因と好ましい傾向、制約と抑制的傾向をまとめ、技術産業の次のブレークスルーを促進したい政策立案者が考慮すべき機会を考察する。
This paper builds on previous CSET research looking at the robotics patent landscape to characterize competitiveness using CSET’s Map of Science and separate research that proposed a methodology for identifying and characterizing an emerging technology.9 It concludes by introducing a template that could be used by policymakers interested in global competitiveness assessment of other emerging technologies. 本論文は、ロボット工学特許の競争力分析に用いたCSETの「科学マップ」と、新興技術の識別・分析手法を提案した別研究9を基盤としている。最後に、他の新興技術におけるグローバル競争力アセスメントに関心を持つ政策立案者が活用可能なテンプレートを紹介する。
1. “What is Physical AI?” NVIDIA, [web] . 1 「物理AIとは何か?」NVIDIA
2. Madison Huang, “What is NVIDIA’s Three-Computer Solution for Robotics?” NVIDIA (blog), August 8, 2025, [web] 2 マディソン・ファン、「NVIDIAのロボット向け3コンピュータソリューションとは?」NVIDIA(ブログ)、2025年8月8日 
3. Michael J. de la Merced, “Physical Intelligence, a Robot A.I. Specialist, Raises Millions From Bezos,”The New York Times, November 4, 2024, [web] ; Amanda Greenwood, “OpenAI’s secret robot plans revealed,” The AI Report, January 13, 2025, [web] ; “Chinese embodied AI startup TARS raises $120m in angel funding,” Tech In Asia, March 25 2025, [web] . 3 Michael J. de la Merced、「ロボット AI 専門企業 Physical Intelligence、ベゾスから数百万ドルを調達」『ニューヨーク・タイムズ』2024年11月4日。 アマンダ・グリーンウッド、「OpenAI の秘密のロボット計画が明らかに」、『The AI Report』、2025年1月13日。 「中国の具現化 AI スタートアップ TARS、エンジェル投資で 1億2000万ドルを調達」、『Tech In Asia』、2025年3月25日。
4. Tom Carter, “Tesla’s Chinese EV competitors are racing to build their own Optimus rivals,” Business Insider, November 2024, [web] ; Aditi Bharade & Cheryl Teh, “China’s spring festival celebration featured a fleet of dancing robots that flexed the country’s advancements in robotics,” Yahoo!Tech, January 29, 2025, [web] ; Jack Ewing, “Elon Musk Shows Off Tesla ‘Robotaxi’ That Drives Itself,” The New York Times, October 10, 2024, [web] . 4 トム・カーター「テスラの中国EV競合他社は自社版オプティマス開発を急ぐ」ビジネスインサイダー、2024年11月; Aditi Bharade & Cheryl Teh, 「中国の春節のお祝いでは、ロボット工学の進歩を誇示するダンスロボットの群れが登場した」, Yahoo!Tech, 2025年1月29日, ; ジャック・ユーイング、「イーロン・マスク、自動運転のテスラ『ロボットタクシー』を披露」、ニューヨーク・タイムズ、2024年10月10日。
5. “Amazon VP shares his approach to the future of robotics innovation,” Amazon, April 10, 2025, [web] ; Scott Dresser, “Amazon launches a new AI foundation model to power its robotic fleet and deploys its 1 millionth robot,” Amazon Robotics, June 30, 2025, [web] . 5 「Amazon副社長がロボット工学の未来に対するアプローチを語る」、Amazon、2025年4月10日、; スコット・ドレッサー、「Amazonがロボット群を動かす新しいAI基盤モデルを発表、100万台目のロボットを展開」、Amazon Robotics、2025年6月30日. 
6. Pia Singh, “Morgan Stanley says humanoid robots will be a $5 trillion market by 2050. How to play it,” CNBC, April 29, 2025, [web] . 6 ピア・シン、「モルガン・スタンレーは、2050年までにヒューマノイドロボット市場が5兆ドル規模になると予測している。 投資戦略」CNBC、2025年4月29日。
7. The trend that appears to have gotten the most traction in the past year, as measured by Google Search, is “Physical AI.” See: “Search: Interest in Physical AI, Embodied AI, and Related Terms,” Google Trends, [web] . 7 Google検索で測定すると、過去1年間で最も注目を集めたトレンドは「物理AI」である。 参照:「検索:物理AI、具現化AI、および関連用語への関心」Google Trends、。 
8. Huang, “What is NVIDIA’s Three-Computer Solution?” 8 Huang, 「NVIDIAの3台コンピュータソリューションとは何か?」
9. Sara Abdulla, “China’s Robotics Patent Landscape,” Center for Security and Emerging Technology, August 2021, [web] . 9 サラ・アブドゥラ「中国のロボット特許動向」安全保障・新興技術センター、2021年8月。

 

 

 

 

| | Comments (0)

2026.01.05

米国 CSET 中国武漢の人工知能開発:汎用人工知能(AGI)に向けた中国の新たな跳躍台 (2025.05)

こんにちは、丸山満彦です。

昨年やり残していたことをしばらく...サイバー空間と新興技術に関する安全保障政策を主導する組織である米国のワシントンDCにあるCenter for Security and Emerging Technology:CSET(安全保障・新興技術センター)[wikipedia]から公表されている報告書をいくつか紹介します... 

中国の武漢市が、汎用人工知能(AGI)を実現するための国家的な実験場(テストベッド)として急速に台頭しているようですね...現在、世界のAI開発は大規模言語モデル(LLM)の規模拡大が主流だが、中国はそれとは異なる「身体性(Embodiment)」というアプローチを戦略的に採用していますよね...

これは、AIをデジタル空間に閉じ込めるのではなく、物理的な産業現場や複雑な社会システムの中に「身体性」を持たせて配置し、現実世界との相互作用を通じて知能を自己進化させる手法ですよね...

武漢市は、この野心的な試みを都市規模で実行するためのインフラ、研究機関、産業エコシステムを備えているということのようです...

社会実装のシュミレーター...西欧文化の価値観では実現しずらいことを考えているような気はします...

上海、北京だけでなく、広く中国でAI開発が加速しているのですかね...

CSET

・2025.05 Wuhan’s AI Development: China’s Alternative Springboard to Artificial General Intelligence (AGI)

Wuhan’s AI Development 武漢の人工知能開発
China’s Alternative Springboard to Artificial General Intelligence (AGI) 汎用人工知能(AGI)に向けた中国の新たな跳躍台
Wuhan, China’s inland metropolis, is paving the way for a nationwide rollout of “embodied” artificial intelligence meant to fast-track scientific discovery, optimize production, streamline commerce, and facilitate state supervision of social activities. Grounded in real-world data, the AI grows smarter, offering a pathway to artificial “general” intelligence that will reinforce state ideology and boost economic goals. This report documents the genesis of Wuhan’s AGI initiative and its multifaceted deployment. 中国内陸部の大都市・武漢は、科学的発見の加速、生産の最適化、商業の効率化、そして社会活動に対する国家監視の促進を目的とした「具現化された」人工知能の全国展開に向けた道筋を整備している。現実世界のデータに基づき、このAIはより賢くなり、国家イデオロギーを強化し経済目標を推進する人工「汎用」知能への道筋を提供する。本報告書は武漢の汎用人工知能(AGI)構想の起源とその多面的な展開を記録するものである。

・[PDF]

20260104-92841

・[DOCX][PDF] 仮訳

 

目次...

Executive Summary エグゼクティブサマリー
Introduction 序論
Large Computing Centers 大規模計算センター
AI Research Institutes AI研究機構
The AI Industry Chain 人工知能産業チェーン
Wuhan’s AGI Initiatives 武漢の汎用人工知能(AGI)構想
Values and Embodiment 価値観と身体性
Recommendations 提言
Authors 著者
Acknowledgements 謝辞
Appendix 附属書
Endnotes 脚注

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
DeepSeek’s emergence as a successful generative model—a niche where the United States was believed to hold an uncontested lead—is causing global artificial intelligence watchers to reassess China’s standing in the race toward artificial general intelligence (AGI) and pay closer attention to China’s AI research and deployment.  DeepSeekが成功した生成モデルとして登場したことで、米国が圧倒的な優位性を保っていると信じられていた分野において、世界の人工知能ウォッチャーは人工汎用知能(AGI)への競争における中国の立場を再評価し、中国のAI研究と展開により注目するようになった。 
While large models continue to account for a significant part of its AI investment, China’s top state-funded AI institutes are exploring alternative approaches to AGI that involve embodying AI algorithms in real environments. Imbued with the Chinese Communist Party’s pre-defined values, the AI interacts with its natural surroundings, learning as it proceeds.  大規模モデルへの投資が依然としてAI投資の大部分を占める一方で、中国の主要な国費支援AI機構は、AIアルゴリズムを実環境へ組み込むというAGIへの代替アプローチを模索している。中国共産党が予め定義した価値観を内包したAIは、自然環境と相互作用しながら学習を進めていく。 
The test bed for this proactive approach to AGI is China’s inland city of Wuhan, where the Chinese Academy of Sciences’ (CAS) Institute of Automation, Huawei, and a Peking University consortium are infusing the city’s industrial and commercial enterprises with AI services and deploying a “social simulator” that expands AI’s reach to all aspects of daily life.  この積極的なAGIアプローチの実験場となっているのが中国内陸部の都市・武漢だ。中国科学院自動化研究所、ファーウェイ、北京大学コンソーシアムが連携し、同市の産業・商業エンタープライズにAIサービスを導入するとともに、日常生活のあらゆる側面にAIの適用範囲を広げる「社会シミュレーター」を展開している。 
The intent is to optimize production and supervise social interaction while affording the AI opportunities to become more intelligent, catalyzing its evolution into AGI. The Wuhan implementation is seen by its state-backed entities as a stepping stone to deployment throughout China, raising questions about the type of technosociety with which the United States needs to compete.  その目的は、生産を最適化し社会的な相互作用を監督すると同時に、AIがより賢くなる機会を与え、汎用人工知能(AGI)への進化を促進することにある。武漢での実施は、国が支援する事業体によって中国全土への展開への足がかりと見なされており、米国が競争すべき技術社会(テクノソサエティ)の形態について疑問を投げかけている。 

 

提言...

Recommendations  提言
Technology initiatives meant for nationwide deployment typically begin in China with local, proof-of concept “demonstrations” (示范) or “model” (模范) projects, and Wuhan has served as the starting point for such in at least two other cases.80 If the Wuhan AGI project succeeds, or is seen to show promise, we can expect the Beijing government to follow through with its plan to deploy the system elsewhere in China. We recommend this process be closely monitored given its importance and potential challenges.  全国展開を目的とした技術イニシアチブは、中国では通常、地域レベルでの概念実証「デモンストレーション」(示范)または「モデル」(模范)プロジェクトから始まる。武漢は少なくとも他の2件の事例において、こうした取り組みの出発点として機能してきた。(80) 武漢のAGIプロジェクトが成功するか、あるいは有望と見なされれば、北京政府が中国国内の他地域へのシステム展開計画を推進することが予想される。 このプロセスは重要かつ潜在的な課題を抱えているため、厳重な監視が必要だ。 
This recommendation is a microcosm of the authors’ standing plea for the United States and its allies to devote serious resources to track China’s technological progress in general, as our national insight falls far short of Beijing’s comprehensive understanding of foreign scientific trends.81   この提言は、米国の国家的な洞察力が北京の外国科学動向に対する包括的理解に遠く及ばない現状を踏まえ、米国とその同盟国が中国の技術進歩全般を追跡するために真剣な資源を投入すべきだという著者らの常なる訴えの縮図である。81
Beyond the obvious need to assess—and forecast—China’s technology initiatives, there may be lessons to learn from China; in particular, its support for alternative approaches to AGI and early infusion of AI into industry and society.  中国の技術イニシアチブをアセスメント・予測する必要性は言うまでもないが、中国から学ぶべき教訓もある。特に、汎用人工知能(AGI)への代替アプローチ支援や、産業・社会へのAI早期導入といった点だ。 
China’s commitment to multiple paths to AGI—a theme the present authors have emphasized in prior reporting82—was restated in the NSFC’s “Guide to the 2025 Annual Projects,” both in a general sense (“developing a system of new AI methods”) and in multiple categories that describe alternative AGI approaches beyond the large generative models that occupy nearly all of western AI developers’ and policymakers’ attention.83  中国がAGI達成に向けた複数経路を追求する姿勢——本稿の筆者が過去の報告で強調してきたテーマである82——は、NSFCの「2025年度プロジェクト実施要領」において再確認された。これは一般的な文脈(「新たなAI手法体系の開発」)だけでなく、西洋のAI開発者や政策立案者の関心のほぼ全てを占める大規模生成モデルを超えた、代替AGIアプローチを記述する複数のカテゴリーにおいても明示されている。83
Finally, China’s well-known penchant for operationalizing technical breakthroughs84— seen here in its roll-out of public-facing AI initiatives to bolster scientific research and optimize commerce and production—could serve if not as a model then as a stimulus for U.S. efforts to revitalize our own domestic industry by infusing it with AI.85 While focusing on AI safety and the dangers of weaponization, we should also keep in mind the real possibility of being out-competed by a country that moves more quickly and decisively to realize the promises that AI offers.  最後に、中国が技術的ブレークスルーを実用化する傾向84は、科学研究の強化や商業・生産の最適化を目的とした公共向けAIイニシアチブの展開に見られる通り、米国が自国の産業をAIで活性化させる取り組みにおいて、モデルとは言えなくとも刺激となる可能性がある。85 AIの安全性や兵器化の危険性に焦点を当てる一方で、AIが約束する可能性をより迅速かつ断固として実現する国に競争で敗れる現実的な可能性も念頭に置くべきだ。 

 

 

 


 

●  まるちゃんの情報セキュリティ気まぐれ日記

・2026.01.05 米国 CSET 中国武漢の人工知能開発:汎用人工知能(AGI)に向けた中国の新たな跳躍台 (2025.05)

・2026.01.05 米国 CSET 中国の「軍民融合」のベールを剥ぐ:人民解放軍はいかにして戦略的優位のために民間のAIを動員するのか (2025.09)

・2026.01.04 米国 CSET 中国の身体性AI (2025.12)

 

 

| | Comments (0)

2026.01.04

米国 CSET 中国の身体性AI (2025.12)

こんにちは、丸山満彦です。

昨年やり残していたことをしばらく...サイバー空間と新興技術に関する安全保障政策を主導する組織である米国のワシントンDCにあるCenter for Security and Emerging Technology:CSET(安全保障・新興技術センター)[wikipedia]から公表されている報告書をいくつか紹介します... 

 

中国が「身体性AI(Embodied AI)」を汎用人工知能(AGI)達成のための最重要かつ戦略的な経路として位置づけ、国家を挙げて推進していると報告していますね...

AGIの達成について、欧米(日本も?)が大規模言語モデル(LLM)のスケールアップで望む一方で、中国は知能の本質を「身体・脳・環境の相互作用」に見出し、LLMの限界(現実感の欠如や推論の脆弱性)を身体性によって克服しようとしていますね...

この中国のアプローチは、経済の自動化とAGI実現を同時に狙うものであり、米国とその同盟国は、中国がこの「身体性」という新たなパラダイムを通じてAI分野の覇権を握る可能性を警戒し、自国の研究戦略を多角化すべきだと警告していますね...

中国で人型ロボットがいろいろと芸を披露したり、人と同じように仕事をこなす様子が動画で流れたりしていますが、背景としてこういう研究の考え方があるのでしょうね...

日本も文化的には身体性AIのほうが馴染むのではないかと思いますが(鉄腕アトムやドラえもん...)、そっちに向かうというのはないのでしょうかね...

参考になることが多くあるように思います...

 

 

CSET

・2025.12 China’s Embodied AI: A Path to AGI

China’s Embodied AI: A Path to AGI 中国の身体性AI
China is embracing “embodied AI”—artificial intelligence integrated with physical agents, such as robots and drones—both for commercial reasons and as a path to artificial general intelligence (AGI). The trend reflects China’s signature approach to AI, which recognizes diverse paths to AI dominance vis-à-vis the large models favored in the United States. This report documents PRC support for AI embodiment, describes how it is understood by China’s research community, and maps out the related infrastructure. 中国は「身体性AI」——ロボットやドローンといった物理的エージェントと統合された人工知能——を商業的理由と汎用人工知能(AGI)への道筋として積極的に取り入れている。この傾向は、米国が重視する大規模モデルとは異なる多様なAI優位性への道筋を認める、中国特有のAIアプローチを反映している。本報告書は、中国政府によるAI具現化への支援を検証し、中国の研究コミュニティにおけるその理解を説明し、関連インフラを明らかにするものである。

 

 

 

・[PDF

20260103-112737

・[DOCX][PDF] 翻訳

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
This report examines China’s embrace of embodied AI—artificial intelligence integrated with physical systems (robots, drones, vehicles, etc.)—as a critical pathway toward artificial general intelligence (AGI).  本報告書は、中国が汎用人工知能(AGI)への重要な道筋として、身体性AI(物理システム(ロボット、ドローン、車両など)と統合された人工知能)を採用していることを検証する。 
In the United States and Europe, large language models (LLMs) and their multimodal variants are regarded by many AI scientists and major AI companies as the most promising path to AGI, despite known issues with abstraction and reasoning.  米国や欧州では、大規模言語モデル(LLM)とそのマルチモーダル変種が、抽象化や推論に関する既知の問題があるにもかかわらず、多くのAI科学者や主要AI企業によってAGIへの最も有望な道と見なされている。 
By contrast, in China there is a broader vision of how AGI can be achieved, most recently expressed in a nationwide move toward AI embodiment—namely, intelligence developed through interaction between body, brain, and environment, in both physical and virtual forms.  これに対し中国では、AGI達成に向けたより広範なビジョンが存在し、最近では全国的な動きとして「身体性AI」が推進されている。具体的には、物理的・仮想的形態を問わず、身体・脳・環境の相互作用を通じて知能を発展させるアプローチである。 
This trend toward embodied AI is backed by policy support at the national and local government levels, which has led to large embodied AI innovation centers linked to top universities and tech firms being established in coastal cities and provinces.  このエンボディッドAIへの傾向は、国や地方政府レベルでの政策支援によって支えられており、その結果、沿岸部の都市や省に、一流大学やハイテク企業と連携した大規模なエンボディッドAIイノベーションセンターが設立されている。 
The upshot is China is on a path to accomplish two goals simultaneously: enriching the nation by integrating AI into the economy and achieving AGI that is more aligned with the totality of human expression.  結果として中国は、AIを経済に統合して国を豊かにすると同時に、人間の表現の総体により沿ったAGIを達成するという二つの目標を同時に達成する道を進んでいる。 
The report recommends that the United States and its allies ramp up their monitoring of China’s AI progress, benchmark its claims, and consider broader approaches to AGI beyond scaling up LLMs.  本報告書は、米国とその同盟国に対し、中国のAI進展の監視強化、その主張の検証、大規模言語モデル(LLM)の拡張を超えた汎用人工知能(AGI)への広範なアプローチの検討を推奨する。

 

目次...

 

 

 

 

 

 

ちなみに...何度も紹介していますが...私が2020年にサイバー犯罪に関する白浜シンポジウムで発表した資料の

 

・[PDF] スマートサイバー AI活用時代のサイバーリスク管理(配布用)

のP5やP7にこの考えと近いかもしれません...

20260103-113726

 

 

 


 

●  まるちゃんの情報セキュリティ気まぐれ日記

・2026.01.05 米国 CSET 中国武漢の人工知能開発:汎用人工知能(AGI)に向けた中国の新たな跳躍台 (2025.05)

・2026.01.05 米国 CSET 中国の「軍民融合」のベールを剥ぐ:人民解放軍はいかにして戦略的優位のために民間のAIを動員するのか (2025.09)

・2026.01.04 米国 CSET 中国の身体性AI (2025.12)

 

| | Comments (0)

2025.12.16

Europol 無人化の未来:ロボット技術と無人システムが法執行に与える影響 (2025.12.08)

こんにちは、丸山満彦です。

Europolが、犯罪対策におけるロボット技術と無人システムの活用についての報告書を公表しています...

ざっと読みましたが、興味深い内容ですね...

犯罪者も新しい技術を利用した犯罪をしてきますから法執行機関もそれを上回る能力をもってそれに対応しなければなりませんね...その意味では、技術の活用はどんどん進化していくことになるわけですが、それに追随することが重要となりますが、その変化に応じて国民等への対応も変えていかなければなりませんね...

AIとロボティクスの融合は、国民への影響も大きいと思います。

 

Europol

・2025.12.08 New report explores use of robotics and unmanned systems in the fight against crime

New report explores use of robotics and unmanned systems in the fight against crime 新報告書が犯罪対策におけるロボット技術と無人システムの活用を検証
Europol publishes ‘The unmanned future(s): The impact of robotics and unmanned systems on law enforcement’ 欧州刑事警察機構が『無人化の未来:ロボット技術と無人システムが法執行に与える影響』を発表
Europol has today published The Unmanned Future(s): The Impact of Robotics and Unmanned Systems on Law Enforcement. The report, produced by the Europol Innovation Lab, provides an in-depth analysis of how unmanned systems could change society, crime and law enforcement, and discusses the challenges and opportunities they present. 欧州刑事警察機構は本日、「無人化の未来:ロボット技術と無人システムが法執行に与える影響」を発表した。欧州刑事警察機構・イノベーション・ラボが作成した本報告書は、無人システムが社会、犯罪、法執行をいかに変えるかについて詳細な分析を提供し、それらがもたらす課題と機会について論じている。
The report underscores the rapid advancement and integration of unmanned systems in various sectors, including law enforcement. As these technologies become more sophisticated and widespread, they offer new opportunities for law enforcement operations and operational support. However, they also introduce new security threats – such as misuse by criminal and terrorist groups – and regulatory challenges that law enforcement agencies must address to ensure public safety and maintain trust. 本報告書は、法執行を含む様々な分野における無人システムの急速な進歩と統合を強調している。これらの技術がより高度化し普及するにつれ、法執行活動や作戦支援に新たな機会をもたらす。しかし同時に、犯罪者やテロリスト集団による悪用といった新たな安全保障上の脅威や、公共の安全を確保し信頼を維持するために法執行機関が対処すべき規制上の課題も生じている。
Catherine De Bolle キャサリン・デ・ボール
Europol Executive Director 欧州刑事警察機構事務局長
The integration of unmanned systems into crime is already here, and we have to ask ourselves how criminals and terrorists might use drones and robots some years from now. Just as the internet and smartphones presented significant opportunities as well as challenges, so will this technology. Our new report by Europol’s Innovation Lab explores the future operating environment for European law enforcement agencies and suggests actions needed today in order to effectively combat crime while upholding public trust and fundamental rights tomorrow. 無人システムの犯罪への統合は既に現実のものとなっており、我々は数年後に犯罪者やテロリストがドローンやロボットをどう利用するかを自問せねばならない。インターネットやスマートフォンが大きな機会と課題を同時に提示したように、この技術も同様である。欧州刑事警察機構のイノベーションラボによる新たな報告書は、欧州法執行機関の将来の活動環境を探求し、将来の公共の信頼と基本的権利を守りつつ犯罪と効果的に戦うために、今日必要な行動を提案している。
One chapter of the report highlights the role of war as a driver for innovation in unmanned systems. Recent conflicts, such as the ongoing Russian war of aggression against Ukraine, have accelerated the development and deployment of advanced unmanned systems. The lessons learnt from these conflicts are invaluable for law enforcement agencies in Europe as they prepare for the future operating environment. 報告書の一章では、無人システムの革新を推進する要因としての戦争の役割を強調している。現在進行中のロシアによるウクライナ侵略戦争など、近年の紛争は先進的な無人システムの開発と展開を加速させた。欧州の法執行機関が将来の活動環境を準備する上で、これらの紛争から得た教訓は計り知れない価値を持つ。
Some of the key topics covered in the report include: 報告書で取り上げられた主なトピックは以下の通りである:
Increasing use of unmanned systems 無人システムの増加する利用
Unmanned systems are becoming increasingly useful, affordable and widely available, with applications in both public and private sectors. Law enforcement agencies across Europe are scaling up adoption of such systems, including drones and robots, to enhance situational awareness, improve safety and extend operational reach. These systems are employed for a range of tasks, such as monitoring, crime scene mapping, search and rescue operations, and the disposal of explosive ordnance, among others. Converging technologies present a significant opportunity for a breakthrough in the capabilities of unmanned systems. 無人システムは公共・民間双方の分野で、有用性・手頃な価格・普及度を急速に高めている。欧州の法執行機関は状況認識の向上、安全性の強化、作戦範囲の拡大を目的に、ドローンやロボットを含むこうしたシステムの導入を拡大中だ。監視、犯罪現場の測量、捜索救助活動、爆発物の処理など、多様な任務に活用されている。技術の融合は、無人システムの能力に飛躍的な進歩をもたらす大きな機会である。
Technical and regulatory challenges 技術的・規制上の課題
The report highlights significant technical limitations and regulatory gaps that hinder the effective use of unmanned systems in law enforcement. Issues such as limited autonomy, dependence on industrial suppliers and the lack of clear guidelines for autonomous operations pose substantial challenges. 本報告書は、法執行における無人システムの効果的な活用を妨げる重大な技術的制約と規制上の空白を指摘している。自律性の限界、産業サプライヤーへの依存、自律運用に関する明確なガイドラインの欠如といった問題が、重大な課題となっている。
Security threats 安全保障上の脅威
Criminal and terrorist groups are rapidly adopting unmanned systems for illicit activities. The report warns of the potential for these systems to be used for criminal surveillance, smuggling and even attacks. The increasing accessibility and versatility of drones, in particular, present serious security concerns. 犯罪組織やテロリスト集団は、違法活動のために無人システムを急速に採用している。本報告書は、これらのシステムが犯罪監視、密輸、さらには攻撃に利用される可能性について警告している。特にドローンの入手容易性と汎用性の高まりは、深刻な安全保障上の懸念をもたらしている。
Public trust and regulation 公共の信頼と規制
Public trust is crucial for the legitimacy of law enforcement capabilities. The report emphasises the need for transparency, accountability and public engagement in the deployment of unmanned systems. Current regulations, while advancing, still have gaps, particularly in addressing non-compliant or criminal use. 公共の信頼は、法執行能力の正当性にとって極めて重要である。本報告書は、無人システムの展開において透明性、説明責任、市民参加の必要性を強調している。現行規制は進展しているものの、特に非準拠または犯罪的使用への対応において依然として不備がある。
Future operating environment 将来の運用環境
The future of law enforcement will require policing in a three-dimensional space, as unmanned systems operate in the air and on the ground, as well as on and under water. This shift will necessitate new strategies, technologies and training for law enforcement agencies. 将来の法執行は、無人システムが空中・地上・水上・水中で活動する三次元空間での警察活動を求める。この変化は法執行機関に新たな戦略・技術・訓練を必要とする。
Recommendations 提言
The report provides a set of recommendations for European law enforcement agencies, including the development of a strategic direction, the establishment of a competency hub and the integration of unmanned systems into existing information systems. It also calls for investments in training, education and public trust-building initiatives. 本報告書は欧州の法執行機関に対し、戦略的方向性の策定、専門知識ハブの設置、無人システムの既存情報システムへの統合を含む一連の提言を行っている。また、訓練・教育・公共の信頼構築イニシアチブへの投資も求めている。
The report is available for download on the Europol website and includes detailed insights, case studies and recommendations for law enforcement agencies, policymakers and other stakeholders. 報告書は欧州刑事警察機構のウェブサイトからダウンロード可能であり、法執行機関・政策立案者・その他の関係者向けの詳細な分析、事例研究、提言が含まれている。

 

・2025.12.08 The Unmanned Future(s) - The impact of robotics and unmanned systems on law enforcement

The Unmanned Future(s) 無人化の未来
The impact of robotics and unmanned systems on law enforcement ロボット技術と無人システムが法執行に与える影響
Unmanned systems are employed across a range of industries, including manufacturing, healthcare, and, more recently, warfare. These technologies are also being increasingly adopted by law enforcement to enhance situational awareness, improve safety, and extend operational reach. However, their use raises concerns about safety, privacy, data protection, regulatory challenges, and the need to maintain public trust. 無人システムは製造事業者、医療、そして近年では軍事を含む様々な産業で活用されている。これらの技術は状況認識の向上、安全性の強化、作戦範囲の拡大を目的に、法執行機関でも採用が進んでいる。しかしその利用は安全性、プライバシー、データ保護、規制上の課題、そして国民の信頼維持の必要性といった懸念を引き起こす。
This report from Europol’s Innovation Lab examines the impact of robotic and unmanned systems on law enforcement. 欧州刑事警察機構のイノベーションラボによる本報告書は、ロボット技術と無人システムが法執行に与える影響を検証する。
Cite this publication: Europol (2025), The Unmanned Future(s), The impact of robotics and unmanned systems on law enforcement, Europol Innovation Lab observatory report, Publications Office of the European Union, Luxembourg. 引用情報: 欧州刑事警察機構(2025年)『無人化の未来(複数形)』―ロボット技術と無人システムが法執行に与える影響、欧州刑事警察機構イノベーション・ラボ観測所報告書、欧州連合出版局、ルクセンブルク。

 

・[PDF]

20251215-53242

 

 

 

Executive summary エグゼクティブサマリー
How might criminals or terrorists use drones and robots in three years from now? How might law enforcement police the air? And can or should the police develop their own RoboCop? 3年後、犯罪者やテロリストはドローンやロボットをどう利用するだろうか?法執行機関は空域をどう監視するだろうか?警察は独自のロボコップを開発できるのか、あるいはすべきなのか?
Unmanned systems are already widely used in various industries, including manufacturing, logistics, healthcare, agriculture, and more recently in warfare. Law enforcement agencies (LEAs) are increasingly adopting unmanned systems to enhance situational awareness, improve safety, and improve operational reach. However, the use of unmanned systems also raises concerns about safety and privacy, including issues related to technical limitations, data protection, regulatory challenges, and the need to ensure public trust. 無人システムは既に製造事業者、物流、医療、農業など様々な産業で広く利用されており、近年では戦争分野でも使用されている。法執行機関(LEA)は状況認識の向上、安全性の強化、作戦範囲の拡大を目的に無人システムの採用を加速させている。しかし、無人システムの利用は、技術的限界、データ保護、規制上の課題、公衆の信頼確保の必要性など、安全性とプライバシーに関する懸念も引き起こしている。
Some of these concerns also relate to various security threats, such as the potential for unmanned systems to be exploited by malicious actors1. Over the past years, tactics and equipment used in warfare have spilled over into organised crime and terrorism, impacting law enforcement. There has also been a reported increase in the use of drones around European infrastructure, and there are examples of drone pilots selling their services online, transforming this criminal process from crime-as-a-service to crime-at-a-distance. これらの懸念の一部は、悪意のある者による無人システムの悪用可能性など、様々なセキュリティ脅威にも関連している。過去数年間で、戦争で使用される戦術や装備が組織犯罪やテロリズムに波及し、法執行に影響を与えている。欧州のインフラ周辺でのドローン使用増加も報告されており、ドローン操縦者がオンラインでサービスを販売する事例も見られる。これにより犯罪プロセスは「犯罪サービス」から「遠隔犯罪」へと変容しつつある。
As unmanned systems become more and more integrated into everyday life, we have observed four converging trends, which will require LEAs to develop new strategies for policing and regulating these systems: 無人システムが日常生活にますます統合されるにつれ、我々は四つの収束する傾向を観察している。これらは法執行機関(LEA)に対し、これらのシステムを監視・規制するための新たな戦略開発を必要とする:
1. Unmanned systems are operating over increasingly vast distances. 1. 無人システムはますます広大な距離を跨いで運用される。
2. Unmanned systems are acting with growing autonomy and coordination. 2. 無人システムは自律性と協調性を増しながら行動する。
3. Unmanned systems are becoming progressively more capable. 3. 無人システムは次第に高度な能力を獲得する。
4. Unmanned systems increase rapidly in number and variety. 4. 無人システムは数と種類において急速に増加する。
With the advances in technology and increasing uptake in society, the future operational landscape for law enforcement will need to evolve to be able to monitor and act in all domains, from underwater to above ground, and develop ways to interact with new types of unmanned systems. 技術の進歩と社会での普及拡大に伴い、法執行機関の将来の活動領域は、水中から地上まであらゆる領域を監視・行動できるよう進化し、新たなタイプの無人システムとの相互作用方法を開発する必要がある。
Robots and drones bring the digital world to the physical world, requiring adaptation to deal with automated crime and crime conducted in the public by actors out of physical reach for law enforcement. ロボットやドローンはデジタル世界を物理世界に持ち込み、自動化された犯罪や、法執行機関の手の届かない場所にいる者による公共の場での犯罪に対処するための適応を要求する。
With Artificial intelligence (AI), there is a before and an after to unmanned systems capabilities. Experts expect physical, analytical and generative AI to drive the next wave of robotics, creating a “ChatGPT moment” for physical AI2. There are already robots that charge themselves or change their own battery when needed and collaborate with others to solve complex, goal oriented, missions. 人工知能(AI)の登場により、無人システムの能力には「以前」と「以後」が存在する。専門家は、物理的AI、分析的AI、生成的AIがロボット工学の次なる波を牽引し、物理的AIにおける「ChatGPT的瞬間」を生み出すと予測している2。既に、必要に応じて自ら充電したりバッテリー交換を行ったり、複雑な目標指向型ミッションを解決するために他者と協働するロボットが存在する。
In order to prepare for the future operating environment, a number of concrete steps can, and should, be taken. These range from the development of a strategic intent, a clear will, and updating of tactical, operational and security paradigms regarding unmanned systems. European law enforcement would also benefit from coming together in testing and evaluating unmanned systems for policing and law enforcement use and countering of such systems in realistic settings. However, for this to happen, a regulatory framework must be established with clear guidelines that support law enforcement innovation and testing, alongside investments in training and education for personnel. 将来の運用環境に備えるため、具体的な措置を講じることが可能であり、また必要である。これには無人システムに関する戦略的意図の策定、明確な意思の確立、戦術・運用・安全保障パラダイムの更新が含まれる。欧州の法執行機関は、警察活動や法執行用途における無人システムの試験・評価、および現実的な環境下での同システム対策において連携することで恩恵を得られる。ただしこれを実現するには、法執行の革新と試験を支援する明確なガイドラインを備えた規制枠組みの確立が不可欠であり、同時に要員の訓練・教育への投資も必要だ。
Additionally, the development of partnerships with European industry and academia will be crucial to leverage key technologies with citizen trust and stay ahead of emerging threats. Establishing and connecting competence hubs on national and European levels will further ensure that European law enforcement personnel have timely access to the necessary knowledge and skills to effectively use and police unmanned systems. さらに、欧州の産業界や学術界との連携構築は、市民の信頼を得つつ重要技術を活用し、新たな脅威に先んじる上で極めて重要だ。国家レベルおよび欧州レベルで専門知識ハブを設立し連携させることで、欧州の法執行機関職員が無人システムを効果的に運用・監視するために必要な知識と技能を適時に習得できる基盤がさらに強化される。
This foresight report provides an outlook on these unmanned futures and aims to raise awareness on the opportunities and threats that the technological progress in this field is expected to bring. Furthermore, the report aims to provide a robust and informed foundation for LEAs to make proactive decisions that shape the future. 本将来展望報告書は、こうした無人化の未来像を提示し、この分野の技術進歩がもたらすと予想される機会と脅威への認識を高めることを目的とする。さらに、法執行機関が未来を形作る先見的な意思決定を行うための、強固で情報に基づいた基盤を提供することを目指す。
Key insights 主な知見
> Changing needs, behaviours and services - As unmanned systems become more common, societies will have to adapt how they interact and adapt to this technology. This could have negative consequences, especially as these systems collect more detailed and personal information due to their growing presence in in our private lives. > 変化するニーズ、行動、サービス - 無人システムが普及するにつれ、社会はこの技術との関わり方や適応方法を変えざるを得なくなる。特に、こうしたシステムが私たちの私生活に浸透するにつれて、より詳細で個人的な情報を収集するようになるため、これは悪影響を及ぼす可能性がある。
> From situational to systemic - Challenges and benefits from unmanned systems will change as their deployment paradigm changes from situational (deployed and operated when needed) to systemic (becoming a standard part of operating procedure). This change will be similar to how the use and impact of smartphones has changed over the years. > 状況対応型からシステム化へ - 無人システムの課題と利点は、その展開パラダイムが状況対応型(必要時に配備・運用)からシステム化(運用手順の標準の一部となる)へと変化するにつれて変わる。この変化は、スマートフォンの利用と影響が年月を経て変化してきた様子に似ている。
> Fuelling of national security concerns - Recent conflicts have acted as drivers for innovation, accelerating the development and testing of novel unmanned systems, with both the technology and associated knowledge spreading quickly. National security concerns may also prevent law enforcement access to key technology. > 国家安全保障上の懸念の高まり - 近年の紛争はイノベーションの推進役となり、新型無人システムの開発と検証を加速させている。技術と関連知識は急速に拡散している。国家安全保障上の懸念が、法執行機関による重要技術へのアクセスを阻む可能性もある。
> Digital becomes physical – technology convergence - Unmanned systems operate using digital data but within the physical world. As several maturing technologies (such as AI, robotics, and high-speed data connectivity) converge, new capabilities emerge. By extending society’s digital transformation into the physical realm, crimes can be committed remotely and on a larger scale, raising more complex issues of attribution and accountability. > デジタルが物理化する-技術の融合 - 無人システムはデジタルデータを用いて動作するが、その活動領域は物理世界に限定される。複数の成熟技術(AI、ロボティクス、高速データ通信など)が融合するにつれ、新たな能力が生まれる。社会のデジタル変革を物理領域へ拡張することで、犯罪は遠隔かつ大規模に実行可能となり、帰属や責任の所在に関するより複雑な問題を引き起こす。
> From 2D to 3D policing - In our future societies, logistics and services will be available in the low altitude airspace. The operational environment for future law enforcement will expand in volume, going from a traditional two-dimensional responsibility to a three-dimensional, where crime can be committed in or from the air and law enforcement operations can be challenged from above. This will challenge traditional operational and tactical doctrine in law enforcement as well as security protocols. > 2次元から3次元への警察活動 - 将来の社会では、物流やサービスが低高度空域で提供されるようになる。将来の法執行機関の活動領域は立体的に拡大し、従来の2次元の責任範囲から3次元へと移行する。犯罪が空中や空中から行われる可能性があり、法執行活動も上空から妨害される可能性があるのだ。これは法執行機関の従来の作戦・戦術教義やセキュリティプロトコルに課題をもたらすだろう。
> From devices to collective - Law enforcement need to create a collaborative and interoperable team of various unmanned systems, capable of understanding missions and working together with humans. This would expand operational reach, combine different capabilities and enhance traditional law enforcement operations in new and effective ways. > 個別機器から集団体へ - 法執行機関は、様々な無人システムからなる協調的で相互運用可能なチームを構築する必要がある。このチームは任務を理解し、人間と連携して活動できるものでなければならない。これにより作戦範囲が拡大し、異なる能力が統合され、従来の法執行活動を新たな効果的な方法で強化できる

 

目次...

Glossary 用語集
Executive summary エグゼクティブサマリー
Key insights 主な知見
Introduction 序論
Current law enforcement use 現行の法執行機関による利用
Surveillance and reconnaissance 監視と偵察
Crime scene mapping and forensics 犯罪現場の地図作成と科学捜査
Search and rescue 捜索救助
Explosive ordnance disposal and hazardous materials 爆発物処理と危険物
Technical limitations 技術的制約
Lack of independence from industrial suppliers 産業サプライヤーからの独立性の欠如
Threat from unmanned systems 無人システムによる脅威
Countering unmanned systems 無人システムへの対抗
Public trust & regulation 公衆の信頼と規制
Key trends shaping the future 未来を形作る主な動向
Artificial intelligence and technological convergence 人工知能と技術の融合
The robotics industry – affordability and market dominance ロボット産業-手頃な価格と市場支配
Growing integration of robots in society 社会におけるロボットの統合の進展
War as a driver for innovation イノベーションの推進力としての戦争
The future operating environment 将来の運用環境
Unmanned systems as part of society 社会の一部としての無人システム
Internet of everything あらゆるもののインターネット
Digital becomes physical デジタルが物理的になる
Social robots ソーシャルロボット
No more privacy プライバシーの消滅
A 3D society needs 3D policing 3D社会には3D警察活動が必要だ
Recommendations 提言
Conclusions 結論
Endnotes 注記

 

将来の運用環境...

The future operating environment 将来の運用環境
One key consequence that the aforementioned trends all have in common is that LEAs, in the future, will see an increasing number of unmanned systems, from autonomous cars to social companion robots. This is going to have a significant impact on the work of law enforcement, as these additional entities may require new ways of policing, both to use them effectively, as well as to prevent their abuse. 前述の傾向に共通する重要な帰結は、将来、法執行機関が自律走行車から社会的伴侶ロボットに至るまで、無人システムの増加に直面する点だ。これらの追加的な事業体は、効果的な活用と悪用防止の両面において新たな警察手法を必要とするため、法執行業務に重大な影響を与えるだろう。
Unmanned systems as part of society 社会の一員としての無人システム
As more and more robots, drones and other unmanned systems are deployed to perform various functions in increasingly autonomous ways, they will become part of our lives and our public spaces. As it is the duty of law enforcement to police this space, LEAs will have to develop new ways to interact with these systems to separate the legal from illegal operations and ensure a safe space for everyone. This means being able to detect, monitor, stop, investigate or, ultimately, counter them with force. All of these will require exploration to identify novel operating procedures for law enforcement that are both safe and effective. ロボットやドローン、その他の無人システムが自律的に様々な機能を果たすようになれば、それらは私たちの生活や公共空間に溶け込んでいく。この空間を管理するのが法執行機関の責務である以上、LEAは合法的な運用と違法な運用を区別し、全ての人にとって安全な空間を確保するため、これらのシステムと関わる新たな方法を開発せねばならない。これは、検知、監視、停止、調査、そして最終的には武力による対抗手段を講じられる能力を意味する。これら全てにおいて、安全かつ効果的な新たな法執行手順を確立するための模索が必要となる。
Different kinds of unmanned systems may require different approaches. A key factor in this regard relates to the different types of technology and standards involved. This includes the following: f The design and development of unmanned systems might differ significantly based on their intended use. While the use of a law enforcement robots is likely to be heavily regulated, commercial or consumer-grade systems could have a much lower level of safety measures. The latter is also going to affect the forensic investigation of unmanned systems, as each encountered type might use different operating systems or data storage capacities. 無人システムの種類によって異なるアプローチが必要となる。この点で重要な要素は、関与する技術や標準の差異である。具体的には以下の通りだ: f 無人システムの設計・開発は、その用途によって大きく異なる可能性がある。法執行ロボットの使用は厳格に規制される一方、商用・一般消費者向けシステムは安全対策の水準がはるかに低い場合がある。後者は無人システムの法医学的調査にも影響を与える。遭遇する各タイプが異なるオペレーティングシステムやデータ保存容量を使用する可能性があるためだ。
・Unmanned systems may use different types of technology, including sensors and communications systems. While drones might rely on GPS, an autonomous ground vehicle might use LIDAR and computer vision. The response of law enforcement needs to take these differences into account, as different types of unmanned systems might require different types of approaches. ・無人システムはセンサーやコミュニケーションシステムなど、異なる技術を使用する可能性がある。ドローンがGPSに依存する一方、自律走行車両はLIDARやコンピュータビジョンを使用するかもしれない。法執行機関の対応はこれらの差異を考慮する必要がある。異なるタイプの無人システムには異なるアプローチが求められるためだ。
・The regulation of unmanned systems may vary per type. While drones might be subject to aviation laws, ground, surface and under water systems might be subject to entirely different regulation. Additionally, new regulation may emerge that seeks to cover all, as well as additional types. LEAs will need to understand these differences and how they will impact their operating environment and their capabilities. ・無人システムの規制は種類によって異なる可能性がある。ドローンは航空法規の対象となる一方、地上・水上・水中システムは全く異なる規制の対象となるかもしれない。さらに、これら全てを包括する新規制や追加規制が出現する可能性もある。法執行機関はこれらの差異と、それが自らの活動環境や能力に与える影響を理解する必要がある。
Additionally, from a practical point of view, law enforcement will need to prepare for changing societal expectations: while today’s discussions touch on points such as how to effectively stop a drone, the future operating environment might require LEAs to consider how to stop a humanoid robot. さらに実務面では、法執行機関は変化する社会の期待に備える必要がある。現在の議論がドローンの効果的な停止方法などに焦点を当てる一方、将来の運用環境ではヒューマノイドロボットの停止方法を検討する必要が生じるかもしれない。
INFO BOX – QUESTIONING A ROBOT INFO BOX – ロボットへの質問
In some jurisdictions, law enforcement agencies are already beginning to encounter the challenges of policing unmanned systems, such as driverless cars. For instance, when a police officer stops a driverless car involved in a minor accident, they need to determine whether the car’s actions were the result of a malfunction, a cyberattack, or a deliberate instruction from the car’s owner. However, the car itself may not be able to provide a clear answer, and performing a full forensic analysis of the system in real-time may not be feasible. 一部の管轄区域では、法執行機関が既に無人システムの取り締まり課題に直面し始めている。自動運転車がその一例だ。例えば、警察官が軽微な事故を起こした自動運転車を停止させた場合、その行動が故障、サイバー攻撃、あるいは所有者による意図的な指示のいずれによるものかを判断する必要がある。しかし、車両自体が明確な回答を提供できない可能性があり、システムに対する完全なフォレンジック分析をリアルタイムで実施することは現実的ではないかもしれない。
In the future, this problem is likely to become even more complex. Humanoid robots, in particular, may pose unique challenges, as they could be designed to interact with humans in a more sophisticated way, potentially making it more difficult to distinguish between intentional and accidental behaviour. 将来的にこの問題はさらに複雑化する可能性がある。特にヒューマノイドロボットは、人間との高度な相互作用を設計されるため、意図的な行動と偶発的な行動の区別が困難になるという独自の課題を提起するかもしれない。
Assessing the intention of such a system may be quite different from that of a natural person. While stopping a person allows for the questioning of a suspect carrying out an action, an unmanned system might be less cooperative about its instructions and intentions, maybe even incapable of explaining it. Current efforts aimed at making artificial intelligence systems more interpretable, explainable, as well as aligned83, will become critical when these systems move autonomously and physically. These developments will also impact how law enforcement will have to adapt and may have to result in new approaches to policing. こうしたシステムの意図を評価する方法は、自然人(生身の人間)の場合とは大きく異なる可能性がある。人間を停止させれば、行動中の容疑者に質問できるが、無人システムは指示や意図について協力的でない可能性があり、説明すらできないかもしれない。人工知能システムの解釈可能性、説明可能性、そして整合性向上を目指す現在の取り組みは、これらのシステムが自律的に物理的に動くようになると極めて重要になる。こうした進展は法執行機関の適応方法にも影響を与え、新たな警察活動の手法が必要になるかもしれない。
Law enforcement, too, may increasingly integrate different types of unmanned systems into its operational activities. Further integration of machine learning, deep learning, and computer vision will allow these robots to recognise and respond to potential threats in real-time. As such, human-robot collaboration is expected to become a crucial aspect of law enforcement operations, with officers and robots working side by side to respond to emergencies, conduct searches, and gather evidence together, building on each other’s advantages. 法執行機関もまた、様々な無人システムを運用活動に統合する傾向が強まるだろう。機械学習、深層学習、コンピュータビジョンのさらなる統合により、これらのロボットは潜在的な脅威をリアルタイムで認識し、対応できるようになる。こうしたことから、人間とロボットの協働は法執行活動の重要な側面となることが予想される。警官とロボットが互いの強みを活かし、緊急事態への対応、捜索活動、証拠収集を共に遂行するようになるのだ。
Internet of everything あらゆるもののインターネット
More widespread, low latency, high speed data networks, such as 5/6G and satellite communication, ensure connectivity everywhere. This will make ground for the use of Internet of Things (IoT) devises anywhere from underground areas to cities, rural areas and even oceans. 5G/6Gや衛星通信など、より広範で低遅延・高速なデータネットワークがあらゆる場所での接続性を保証する。これにより地下空間から都市部、農村部、さらには海洋に至るまで、あらゆる場所でモノのインターネット(IoT)デバイスの利用基盤が整う。
With more and more unmanned systems in circulation, an emerging concern relates to how these systems report on their activities to their owners, as well as how they will communicate with their environment and each other. This is likely to mean a vast increase in the amount of communication as well as dynamic changes in the nature of this communication. 無人システムの普及に伴い、新たな懸念として、これらのシステムが所有者に活動状況を報告する方法、環境や相互間の通信方法が浮上している。これは通信量の膨大な増加と、通信の性質における動的な変化を意味する可能性が高い。
Device-to-device communication will likely not be the same as communication between humans or even human-to-device This means developing new capabilities for legal wiretaps of communications of individual, as well as between such systems, and having the technical capability of interpreting this communication. デバイス間通信は、人間同士のコミュニケーションや人間とデバイスのコミュニケーションとは異なる性質を持つだろう。これは、個々のコミュニケーションやシステム間コミュニケーションに対する法的盗聴能力の開発、そしてこうしたコミュニケーションを解釈する技術的能力の必要性を意味する。
Digital becomes physical デジタルが物理化する
As unmanned systems become increasingly autonomous, equipped with AI and task-based controls, they are gaining agency to act on their own. This newfound autonomy raises concerns about undesirable and criminal behaviour, as their actions can have real- world consequences. Furthermore, their connected nature allows them to be controlled and instructed from anywhere, making it difficult to identify the intentions and responsible parties behind their actions, exacerbating the jump of cybercrime from the digital to the physical world. 無人システムが自律性を増し、AIやタスクベース制御を備えるにつれ、自ら行動する主体性を獲得しつつある。この新たな自律性は、望ましくない行動や犯罪行為への懸念を生む。なぜなら、それらの行動は現実世界に影響を及ぼし得るからだ。さらに、接続された性質ゆえに、どこからでも制御・指示が可能となり、行動の意図や責任者を特定することが困難になる。これにより、サイバー犯罪がデジタル世界から物理世界へ移行する現象が深刻化する。
Another aspect for law enforcement is the right to, and process for, seizing objects in criminal investigations. Robots will be seized as other objects but they pose a new risk since they, unlike other objects, can perform actions inside law enforcement facilities, such as record, steal, destroy or escape. With increasingly autonomous unmanned systems in circulation, law enforcement agencies will need to implement adequate processes for the seizure and storage of such technologies. 法執行機関にとっての別の側面は、刑事捜査における物証押収の権利と手続きである。ロボットは他の物と同様に押収されるが、他の物とは異なり、法執行機関の施設内で記録、窃取、破壊、逃走などの行動を実行できるため、新たなリスクをもたらす。自律型無人システムの流通が増加する中、法執行機関はこうした技術の押収と保管のための適切なプロセスを導入する必要がある。
The convergence of unmanned systems and cybercrime enables new forms of crime to emerge in the physical world. As such, these systems can be used as a means for cybercrime to interact with the physical environment and cybercrime may have more impact in the physical environment. To address this challenge, it will become increasingly critical to develop methods for monitoring, querying, and investigating these systems, as well as their instructors. Effective and acceptable ways of making them comply with the law or stopping them will be vital for law enforcement to remain relevant. 無人システムとサイバー犯罪の融合は、物理世界で新たな形態の犯罪が出現することを可能にする。したがって、これらのシステムはサイバー犯罪が物理環境と相互作用する手段として利用され、サイバー犯罪が物理環境により大きな影響を与える可能性がある。この課題に対処するため、これらのシステムとその操作者を監視・照会・調査する手法の開発がますます重要となる。法執行機関が機能し続けるためには、これらを法に従わせたり停止させたりする効果的かつ容認可能な方法が不可欠である。
INFO BOX – JAILBRAKING A ROBOT INFO BOX – ロボットの脱獄
Already today, we are facing the challenge on how to prevent AI from engaging in harmful behaviour. LLMs have repeatedly been jailbroken, either due to a lack of safeguards, or because of a wide variety of prompt engineering methods ‘trick the system’ into outputting content it does not understand is harmful. This is mainly because of the complexity and ambiguity of natural language used for prompting combined with the limitations of (current) AI systems in only predicting output based on training data, rather than actually understanding the content. As a result, guardrails are often external add-ons, added to the model after it has been trained. 既に今日、我々はAIが有害な行動に及ぶのをどう防ぐかという課題に直面している。LLMは繰り返し脱獄されてきた。安全装置の欠如による場合もあれば、多様なプロンプトエンジニアリング手法によって「システムを騙し」、有害と理解していない内容を出力させる場合もある。これは主に、プロンプトに用いられる自然言語の複雑さと曖昧さに起因する。加えて、(現在の)AIシステムは訓練データに基づく出力予測しかできず、内容を実際に理解する能力に制限がある。結果として、ガードレールは訓練後にモデルに追加される外部アドオンとなることが多い。
Safeguards need to balance usefulness and safety – restricting an AI system too much can make it unusable, leading to a trade-off. 安全対策は有用性と安全性のバランスを取る必要がある。AIシステムを過度に制限すると使用不能になり、トレードオフが生じる。
These attempts – trying to break current AI systems – will pave the way for doing the same with AI-driven unmanned systems. As unmanned systems increasingly rely on more and more capable AI for autonomous behaviour, the challenge on how to prevent safeguards from being bypassed for malicious activities is going to become increasingly important. Unless addressed, unmanned systems could be coerced into unintended behaviour. This might include the hijacking of autonomous vehicles or drones, the leaking of data from cameras and microphones, as well as the infliction of harm by unmanned systems on potential victims. 現在のAIシステムを破壊しようとするこれらの試みは、AI駆動型無人システムに対しても同様の対応が可能となる道を開くだろう。無人システムが自律行動のためにますます高性能なAIに依存するにつれ、悪意ある活動のために安全装置が回避されるのを防ぐ方法が、ますます重要になる課題となる。対処されなければ、無人システムは意図しない行動を強制される可能性がある。これには自律走行車両やドローンの乗っ取り、カメラやマイクからのデータ漏洩、さらには無人システムによる潜在的な被害者への危害加害などが含まれる可能性がある。
Social robots ソーシャルロボット
Social robots are specifically designed to interact with others on a more human level. While still in early stages, applications of social robots already exist, including those helping the elderly84 and children with autism85, as well as social robots acting as romantic partners86. Powered by AI, these robots are getting more and more convincing in their empathy, as well as better at anticipating human needs. ソーシャルロボットは、より人間的なレベルで他者と交流するよう特別に設計されている。まだ初期段階ではあるが、高齢者支援84や自閉症児支援85、恋愛パートナーとしての役割86など、ソーシャルロボットの応用例は既に存在する。AIによって駆動されるこれらのロボットは、共感能力がますます説得力を持つようになり、人間のニーズを予測する能力も向上している。
The empathetic capabilities of social robots might, in the future, be abused by criminal and terrorist actors for a variety of malicious activities. Particularly activities containing an element of convincing people, from disinformation to grooming, could see the advantage in the abuse of social robots for these purposes, making it a new modality of criminal social engineering. As chatbots are already being employed to deceive victims87, social robots may bring this trend to the physical realm and, potentially, cause even greater harm. These malicious efforts aimed at manipulating and deceiving their victims may be reinforced with increasing amounts of intimate data collected by social robots. As they become increasingly important parts of people’s lives and move around in their private sphere, they will increasingly know their owners more intimately – and possess highly sensitive information about them88 .
ソーシャルロボットの共感能力は、将来的に犯罪者やテロリストによって様々な悪意ある活動に悪用される可能性がある。特に、偽情報からグルーミングに至るまで、人を説得する要素を含む活動では、ソーシャルロボットを悪用する利点が見出され、新たな犯罪的社会工学の手法となるだろう。チャットボットが既に被害者を欺くために利用されているように、ソーシャルロボットはこの傾向を物理的領域に拡大し、潜在的にさらに大きな被害をもたらす可能性がある。被害者を操作・欺くことを目的としたこうした悪意ある行為は、ソーシャルロボットが収集する親密なデータの増加によって強化されるかもしれない。ソーシャルロボットが人々の生活においてますます重要な存在となり、私的領域を移動するにつれ、所有者をより深く知り、彼らに関する極めて機密性の高い情報を保持するようになると予想される。
Additionally, as social robots continue to connect with humans, we can expect shifts in how society feels about them and, consequently, how law enforcement should interact with them. While it may currently be acceptable for the police to take down a drone, interventions of unmanned systems evoking a more emphatic response might require more consideration. For instance, in 2015, a video showing people kicking a dog-shaped robot to demonstrate its balancing capabilities, sparked a debate about the ethics of kicking such a ‘dog’89. As robots become more human-like, in behaviour, appearance or both, it may be increasingly difficult for LEAs to apply existing legislation to respond to situations involving unmanned systems. Would hitting a “human” robot constitute physical abuse as others may perceive it? And at which point do people identify enough with a robot to consider negative behaviour towards it an offense? It will be critical to have anticipatory public debates and legislative efforts in order to provide a relevant and clear legal context. さらに、ソーシャルロボットが人間との接続を継続するにつれ、社会がそれらをどう捉えるか、ひいては法執行機関がそれらとどう関わるべきかについて、変化が生じると考えられる。
現時点では警察がドローンを撃墜することは許容されるかもしれないが、より強い反発を招く無人システムの介入については、より慎重な検討が必要となるだろう。例えば2015年、犬の形をしたロボットを蹴ってそのバランス能力を実証する動画が、そのような「犬」を蹴る行為の倫理について議論を巻き起こした。ロボットが行動や外見、あるいはその両方でより人間らしくなるにつれ、法執行機関が既存の法律を適用して無人システムに関わる状況に対応することは、ますます困難になるかもしれない。「人間」ロボットを殴る行為は、他者がそう認識するならば身体的虐待にあたるのか?そして、人々がロボットに対して十分な同情を抱き、それに対する否定的な行為を犯罪と見なす境界線はどこにあるのか?関連性があり明確な法的枠組みを提供するためには、先を見据えた公的な議論と立法努力が不可欠である。
No more privacy プライバシーの終焉
Satellites, artificial intelligence, open-source intelligence, and real-time surveillance have transformed modern conflict zones into what is now being called the transparent battlefield90, and maybe this expression is equally relevant for society in general, the transparent society. 衛星、人工知能、オープンソース情報、リアルタイム監視は、現代の紛争地帯を「透明な戦場」と呼ばれるものに変えた。この表現は、社会全体、すなわち「透明な社会」にも同様に当てはまるかもしれない。
Unmanned systems, navigating our world and interacting with us and each other will be observing the world around them, with us in it. When these become ubiquitous in society, this will mean that there is the possibility to be observed almost everywhere, anytime. With household assistant systems, this extends to people’s privacy spaces. Depending on the implementation and applicable data protection standards, the observations made by these systems could be used to gather data on people without their knowledge or explicit consent. While this has already been a business model widely applied in smartphones and a vast number of IoT devices, including household robots, an increase in capability and autonomy of unmanned systems are likely to exacerbate this threat to individual privacy. As these systems rely on sensors like cameras to navigate our world, questions relating to how to effectively regulate their use and deployment without stifling innovation will become increasingly important. While some general privacy related legislative aspects are already in place, a failure to regulate and implement may lead to a situation where people are subject to significant threat to their personal privacy when these potentially vast amounts of data are leveraged by companies and, potentially, criminals. Current crimes relying on the exploitation of data leaks and unsecured personal devices could become even more invasive when capable unmanned systems are found everywhere – in public, as well as at home. 無人システムは、私たちの世界を移動し、私たちや互いと交流しながら、私たちを含む周囲の世界を観察する。これらが社会に遍在する時、それはほぼどこでも、いつでも観察される可能性を意味する。
家庭用アシスタントシステムでは、これは人々のプライバシー空間にまで及ぶ。実装方法や適用されるデータ保護標準によっては、これらのシステムによる観察が、本人の知らぬ間に、あるいは明示的な同意なく個人データを収集するために利用される可能性がある。これは既にスマートフォンや家庭用ロボットを含む膨大なIoT機器で広く適用されているビジネスモデルだが、無人システムの能力と自律性の向上は、個人のプライバシーに対するこの脅威をさらに深刻化させるだろう。これらのシステムがカメラなどのセンサーに依存して世界をナビゲートする以上、イノベーションを阻害せずにその使用と展開を効果的に規制する方法に関する課題は、ますます重要になる。プライバシー関連の一般的な法的枠組みは既に存在するが、規制と実施が不十分であれば、企業が、そして潜在的には犯罪者が膨大な量のデータを活用する際に、個人のプライバシーが重大な脅威に晒される事態を招きかねない。データ漏洩や保護されていない個人端末の悪用を基盤とする現行の犯罪は、高性能な無人システムが公共の場だけでなく家庭内にも遍在する状況下では、さらに侵入的なものとなる可能性がある。
Law enforcement operations may be tactically limited by these omnipresent observers. Already, the widespread introduction of home security camera systems and smart cars has limited the possibility for law enforcement officers to investigate criminals covertly. Mobile robotics systems on the lookout for police, equipped with facial recognition to decide who is friend or not, may make it even more difficult for police to conduct their investigations and police certain areas effectively. こうした遍在する監視装置は、法執行機関の作戦行動を制約する可能性がある。既に家庭用防犯カメラやスマートカーの普及により、警察官が犯罪者を密かに捜査する余地は狭まっている。警察を警戒し、顔認識技術で味方か敵かを判断する移動型ロボットシステムが登場すれば、警察の捜査活動や特定区域の警備はさらに困難になるだろう。
Less accountability 説明責任の低下
The increasing autonomy of unmanned systems raises complex questions about liability and accountability. Unlike directly controlled systems, where the controller is clearly responsible for the system’s actions, autonomous systems blur the lines of responsibility. When an autonomous system breaks the law, it is unclear whether the owner, producer, coder, or system itself should be held liable. The current legal framework is inadequate to address these questions, and new concepts and regulations will be necessary to resolve them. The fact that the owner, producer, 39THE UNMANNED FUTURE(S). THE IMPACT OF ROBOTICS AND UNMANNED SYSTEMS ON LAW ENFORCEMENT 40 or system may not be within the same jurisdiction as the crime adds an additional layer of complexity, as is currently the case in the area of cybercrime, highlighting the need for a comprehensive approach to addressing these challenges. 無人システムの自律性が高まるにつれ、責任と説明責任に関する複雑な問題が生じる。制御者がシステムの行動に明確に責任を負う直接制御システムとは異なり、自律システムでは責任の境界線が曖昧になる。自律システムが法律に違反した場合、所有者、製造者、プログラマー、あるいはシステム自体に責任があるかは不明確だ。現行の法的枠組みではこれらの問題を解決できず、新たな概念と規制が必要となる。所有者、製造者、あるいはシステム自体が犯罪の発生地と同じ管轄区域内に存在しない可能性があるという事実は、サイバー犯罪分野で現在見られるように、さらなる複雑さを加える。これは、これらの課題に対処するための包括的なアプローチの必要性を浮き彫りにしている。
Effective regulation will be essential for law enforcement, too, in this context. A lack of relevant regulation may lead to limited uptake of these systems in law enforcement as well as a lack of public trust in the use by law enforcement of these systems. While unmanned systems provide unique opportunities to more effectively fight organised crime and terrorism, further precision of the general regulation of such systems to the context of law enforcement work will be key to enabling police organisations to develop needed capabilities to maintain relevance in a more unmanned future.
この文脈において、法執行機関にとっても効果的な規制は不可欠である。関連する規制が欠如している場合、法執行機関におけるこれらのシステムの導入が限定的になるだけでなく、法執行機関によるこれらのシステムの使用に対する公衆の信頼も損なわれる可能性がある。無人システムは組織犯罪やテロ対策において独自の機会を提供する一方で、警察組織がより無人化された未来において必要とされる能力を開発し、その重要性を維持するためには、法執行活動の文脈に即した一般規制のさらなる精密化が鍵となる。
To address the emerging challenges posed by autonomous unmanned systems, it is essential to establish a new framework that clarifies liability, accountability, and regulation. This framework must consider the complex relationships between the system, its instructors, and the physical environment, as well as the potential consequences of their actions. 自律型無人システムがもたらす新たな課題に対処するには、責任の所在、説明責任、規制を明確化する新たな枠組みの構築が不可欠である。この枠組みは、システム、その操作者、物理的環境の間の複雑な関係性、ならびにそれらの行動がもたらす潜在的な結果を考慮しなければならない。
A 3D society needs 3D policing 三次元社会には三次元警察活動が必要だ
The future operating environment for law enforcement will likely see a shift from monitoring two dimensional surfaces to three dimensional volumes. As criminal activities migrate across air, sea, and underground domains simultaneously, traditional perimeter-based policing becomes obsolete. This multi- dimensional criminality will require a multi-dimensional law enforcement response. 法執行機関の将来の活動環境は、二次元的な表面の監視から三次元空間の監視へと移行する可能性が高い。犯罪活動が空・海・地下領域を同時に横断するにつれ、従来の境界線に基づく警察活動は時代遅れとなる。この多次元的な犯罪性には、多次元的な法執行対応が求められる。
The majority of transport and logistics today moves on pre- determined streets and paths. Unmanned systems might challenge this arrangement, as drones, submersibles, and ground-based robots may not take the same paths as humans (and human-operated systems). With an increase in unmanned systems, under water and in the air, the planes in which humans operate will be become increasingly multi-dimensional. For law enforcement, unmanned systems not moving along the paths that are currently being policed will bring new challenges in terms of monitoring and enforcement. 現在の輸送・物流の大半は、予め定められた道路や経路を移動している。無人システムはこの構造に挑む可能性がある。ドローン、潜水艇、地上ロボットは、人間(および人間が操作するシステム)と同じ経路を取らないかもしれないからだ。水中・空中における無人システムの増加に伴い、人間の活動領域はますます多次元化する。法執行機関にとって、現行の監視経路を辿らない無人システムは、監視と取締りの面で新たな課題を提起する。
For instance, smuggling operations may choose remote or inaccessible routes to cross borders while avoiding detection, as drones enable them to fly through previously impossible to navigate domains. An increase in autonomy might make these criminal use cases more attractive, as the distance (and, subsequently, deniability) between smuggler and recipient can be greatly increased. Particularly remote areas, such as vast forests, may be extremely difficult to monitor effectively, given technical and resource constraints. If traffic in such remote areas increases, it will be increasingly important to find ways to have the means to respond to potential criminal abuse quickly and effectively. Furthermore, maritime smuggling can be decentralized effectively, using unmanned systems trafficking a variety of small harbours or coastal locations to avoid security in large, commercial harbours. 例えば密輸組織は、ドローンが従来航行不可能だった領域を飛行可能にしたことで、検知を回避しつつ国境を越えるために遠隔地やアクセス困難なルートを選択する可能性がある。自律性の向上は、密輸業者と取得者の距離(そして結果としての関与の否認可能性)を大幅に拡大できるため、こうした犯罪利用ケースをより魅力的にする可能性がある。特に広大な森林地帯のような辺境地域は、技術的・資源的制約から効果的な監視が極めて困難だ。こうした辺境地域での交通量が増加すれば、潜在的な犯罪的悪用に対して迅速かつ効果的に対応する手段を確保することがますます重要となる。さらに海上密輸は、大型商業港湾の警備を回避するため、無人システムを用いて多様な小規模港湾や沿岸地域を移動させることで、効果的に非中央集権化される可能性がある。
Cities will also see a major impact. As drone swarms replace individual drones, patrolling the skies will become a core law enforcement task, creating aerial highways that are increasingly dense with autonomous traffic. Criminal organisations will seek to exploit this density, blending in their own drones while carrying illicit goods through urban landscapes. The challenge will not be limited to detecting individual threats, but distinguishing malicious intent within clouds of legitimate aerial activity moving at significant speed. 都市部も大きな影響を受ける。個体ドローンから群れドローンへ移行するにつれ、空域のパトロールは法執行の核心的任務となり、自律飛行体でますます密集する空中ハイウェイが形成されるだろう。犯罪組織はこの密集状態を悪用し、違法品を積んだ自組織のドローンを都市景観に紛れ込ませるだろう。課題は個々の脅威を検知することだけでなく、正当な航空活動が高速で移動する群れの中から悪意ある意図を見分けることにある。
These emerging, multi-dimensional developments may mean that criminal activity goes undetected, also preventing statistical analysis and, thus, limiting prioritisation of this crime unless new monitoring techniques and modes of mitigation are identified and implemented. こうした多面的な新たな展開により、犯罪活動が検知されず、統計分析も妨げられる可能性がある。その結果、新たな監視技術や緩和手段が特定・導入されない限り、この犯罪への優先対応が制限されるだろう。
The emergence of swarms will effectively create a volume problem for law enforcement. Criminal and terrorist networks, as a result, think in volumes rather than routes, treating air, land, and sea as a single operational space. Consequently, the law enforcement response will require volumetric jurisdiction—the authority and capability to pursue threats seamlessly across vertical boundaries. 群れ(スウォーム)の出現は、法執行機関にとって実質的に「量の問題」を生み出す。その結果、犯罪組織やテロリストネットワークは経路ではなく量で考え、空・陸・海を単一の作戦空間として扱うようになる。したがって法執行機関の対応には、垂直境界を越えてシームレスに脅威を追跡する権限と能力、すなわち「体積的管轄権」が求められる。
Officers will need to understand how criminal activities flow through the three-dimensional spaces above, around, and beneath traditional patrol areas. 警官は、従来のパトロール区域の上空・周辺・地下という三次元空間を犯罪活動がどのように流れるかを理解する必要がある。
Unmanned systems themselves might provide part of the law enforcement response. Patrol drones and high-altitude pseudo- satellites (HAPS) equipped with high-resolution cameras and thermal imaging, for instance, could cover vast urban areas and provide real- time data to command centres. This capability would enable rapid response to incidents, improve detection of illicit system activity, and enhance overall policing effectiveness in the more unmanned future. Furthermore, law enforcement agencies could deploy fleets of drones in collaborative swarm formations to quickly assess and respond to large-scale emergencies, such as natural disasters or public safety threats, providing a coordinated response that maximises resource efficiency. On the borders, unmanned systems might patrol vast and otherwise inaccessible areas, using advanced sensors to detect illegal activities, while relaying crucial intelligence to human operators for swift intervention. 無人システム自体が法執行対応の一端を担う可能性がある。例えば高解像度カメラや熱画像装置を搭載したパトロールドローンや高高度疑似衛星(HAPS)は、広大な都市圏をカバーし、指揮センターへリアルタイムデータを提供できる。この能力により、無人化が進む未来において、インシデントへの迅速な対応、違法システム活動の検知、警察活動全体の効率化が図られる。さらに、法執行機関は協調的な群れ編成でドローンの艦隊を展開し、自然災害や公共安全上の脅威といった大規模な緊急事態を迅速に評価・対応できる。これにより資源効率を最大化する調整された対応が可能となる。国境地帯では、無人システムが広大で通常は到達困難な地域をパトロールし、高度なセンサーで違法活動を検知しながら、迅速な介入のため重要な情報を人間のオペレーターに中継するかもしれない。
These examples illustrate a future where technology not only enhances the capabilities of law enforcement but also transforms the way officers interact with their communities, environments, as well as robots and unmanned systems. The potential for collaborative swarms of drones to quickly respond to emergencies or for collaborative robots to enhance community policing and engagement could offer new and valuable capabilities in intelligence gathering, surveillance, and emergency response. At the same time, it would free up cognitive ability for human officers to focus on what humans do better, generating a double win. これらの事例は、技術が法執行機関の能力を強化するだけでなく、警官が地域社会や環境、さらにはロボットや無人システムと関わる方法そのものを変革する未来を示している。緊急事態に迅速に対応する協調型ドローンの群れや、地域警察活動と市民関与を強化する協調型ロボットの可能性は、情報収集、監視、緊急対応において新たな価値ある能力をもたらしうる。同時に、人間の警官は認知能力を解放され、人間がより得意な業務に集中できるようになる。これは二重の利益をもたらす。
   
Recommendations 提言
To address the emerging challenges and opportunities posed by unmanned systems, we recommend a joint approach on building law enforcement capability with and against unmanned systems, at both national and European levels. The recommendations are centred around four key capability components: operations management, competence, system and structure. 無人システムがもたらす新たな課題と機会に対処するため、国家レベルおよび欧州レベルの両方で、無人システムを「活用する」能力と「対抗する」能力を構築する共同アプローチを推奨する。提言は四つの主要能力要素を中心に構成される:作戦管理、能力、システム、構造である。
Operations management 運用管理
・Develop a strategic intent that outlines how LEAs want to respond to the development, use, and potential misuse of unmanned systems, as well as their impact on society. ・法執行機関が、無人システムの開発・使用・悪用可能性、および社会への影響にどう対応するかを示す戦略的意図を策定する。
・Establish a “physical sandbox” environment that enables LEAs to test, learn, and adapt unmanned systems in a real-world setting, outside of a laboratory, and facilitate international cooperation and collaboration on development, testing, and procurement. This will also provide fact-based input to policy makers.
・法執行機関が実験室外の実環境で無人システムを試験・学習・適応できる「物理的サンドボックス」環境を整備し、開発・試験・調達における国際協力・連携を促進する。これにより政策立案者への事実に基づく情報提供も行う。
・Develop a comprehensive strategy to support the creation of EU- based regulation, standards and certification for safety, security, lawful use, and interoperability. ・安全性、セキュリティ、合法的使用、相互運用性に関するEUベースの規制・標準・認証制度構築を支援する包括的戦略を策定する。
Competence 能力
・Establish a competence hub that connects internal teams to a centralised repository of knowledge, expertise, and best practices. This hub should be linked and coordinated at European level, facilitating the gathering and dissemination of relevant insights about unmanned systems across borders. When appropriate, the hub could give guidance on technological standards.
・内部チームを知識・専門性・ベストプラクティスの中央リポジトリに接続する能力ハブを設立する。このハブは欧州レベルで連携・調整され、国境を越えた無人システムに関する知見の収集と普及を促進する。必要に応じて、技術標準に関するガイダンスを提供できる。
・Invest in comprehensive training programs for personnel that cover a range of topics, including regulations, use, countermeasures, investigation, forensics and protection related to unmanned systems. ・無人システムに関連する規制、使用、対策、調査、フォレンジック、防御など幅広いトピックを網羅した包括的な人材育成プログラムに投資する。
・Build trust and transparency with society by establishing outreach, consultation, and co-creation programs to actively involve citizens. ・市民を積極的に巻き込むためのアウトリーチ、協議、共同創造プログラムを確立し、社会との信頼と透明性を構築する。
System システム
・Integrate unmanned systems into existing information systems. This includes information access, information management, and decision-making flows to enhance operational effectiveness.
・無人システムを既存の情報システムに統合する。これには、運用効率を高めるための情報アクセス、情報管理、意思決定フローが含まれる。
・Develop a structured information flow regarding the criminal use of unmanned systems in Europe. Include in this flow forensic data to support counter-technologies. ・欧州における無人システムの犯罪的利用に関する構造化された情報フローを開発する。このフローには、対抗技術を支援するためのフォレンジックデータを含める。
・Establish a centralised standardisation and procurement process for technologies that benefit from coordinated and standardised purchases. Ensure that this process prioritises interoperability, technological independence and fosters the creation of law enforcement-centric solutions. ・協調的かつ標準化された調達による恩恵を受ける技術のため、中央集権的な標準化・調達プロセスを確立する。このプロセスでは相互運用性、技術的独立性を優先し、法執行機関中心のソリューション創出を促進する。
Structure 構造
・Adapt the command structure of law enforcement agencies to accommodate the capabilities of unmanned systems and AI. Agencies should transition to Command, Control, Collaboration, and Autonomy (C3A) frameworks, which enables interoperability, collaboration, flexibility, and adaptability. C3A frameworks recognise that unmanned systems and AI can operate more autonomously, making decisions and taking actions in real-time, and that human operators must be able to collaborate with these systems to achieve shared goals within necessary timeframes.
・無人システムとAIの能力に対応できるよう、法執行機関の指揮構造を適応させる。各機関は、相互運用性、連携、柔軟性、適応性を可能とする指揮・統制・連携・自律(C3A)枠組みへ移行すべきである。C3A枠組みは、無人システムとAIが自律性を高め、リアルタイムで意思決定と行動を実行できること、また人間のオペレーターが必要な時間枠内で共通目標を達成するため、これらのシステムと連携できる必要があることを認識している。

 

結論...

Conclusions 結論
The integration of more capable unmanned systems into society is expected to have a significant impact. Driven by the convergence of emerging technologies such as AI, sensors, robotics, and next- generation communications systems, the rapid progress in the field will likely lead to the widespread adoption of unmanned systems in various domains, including everyday life and law enforcement operations. より高性能な無人システムの社会への統合は、大きな影響をもたらすと予想される。AI、センサー、ロボティクス、次世代コミュニケーションシステムといった新興技術の融合に後押しされ、この分野の急速な進展は、日常生活や法執行活動を含む様々な領域での無人システムの普及につながるだろう。
Law enforcement agencies will have to police a wider physical space, than they traditionally have. As unmanned systems become more prevalent, they will continue to challenge traditional policing practices and raise new concerns. The technology will also bring a more transparent operating environment where few things stay hidden. 法執行機関は従来よりも広範な物理的空間を監視する必要に迫られる。無人システムの普及が進むにつれ、従来の警察活動は継続的に挑戦を受け、新たな懸念が生じるだろう。この技術はまた、隠されたものがほとんど存在しない、より透明性の高い運用環境をもたらす。
Law enforcement agencies will face significant challenges in preparing for this shift towards an even more “phygital” society in the more unmanned future. The increasing capabilities and numbers of unmanned systems will introduce new threats, and criminals and terrorists will likely exploit these technologies for malicious purposes. Recent conflicts have shown that threat actors are often early adopters of new technologies, and law enforcement must be prepared to counter these emerging threats. 法執行機関は、無人化が進む未来において、さらに「フィジタル」な社会への移行に備える上で重大な課題に直面する。無人システムの能力と数の増加は新たな脅威をもたらし、犯罪者やテロリストがこれらの技術を悪用する可能性が高い。近年の紛争では、脅威アクターが新技術の早期採用者となるケースが多く見られ、法執行機関はこうした新興脅威に対抗する準備が必要だ。
However, unmanned systems also offer tremendous benefits to law enforcement operations, with the potential to enhance capabilities and improve public safety. To realise these benefits, a solid regulatory foundation and investments in public trust are essential. The public must trust law enforcement to use these technologies effectively and accountably. しかし無人システムは、能力強化と公共の安全向上につながる可能性を秘め、法執行活動に多大な利益をもたらす。これらの利益を実現するには、確固たる規制基盤と公共の信頼への投資が不可欠だ。市民は法執行機関がこれらの技術を効果的かつ説明責任を持って運用すると信頼しなければならない。
Furthermore, the development of unmanned systems is largely driven by non-EU companies, which poses a risk of critical dependence on foreign suppliers for Europe. To maintain technological autonomy and uphold European values, significant investments and joint innovation procurement processes are necessary. さらに無人システムの開発は主に非EU企業が主導しており、欧州が外国サプライヤーに重大な依存を強いられるリスクがある。技術的自律性を維持し欧州の価値観を守るためには、大規模な投資と共同イノベーション調達プロセスが不可欠である。
The future of unmanned systems is uncertain, and various trends could unfold in different directions. The purpose of exploring these trends is not to predict the future but to identify desirable and undesirable outcomes and take proactive steps to increase the chances developments will lead to an acceptable outcome. Further law enforcement and policing oriented research is needed to delve deeper into the topics discussed in this report. 無人システムの未来は不確実であり、様々な動向が異なる方向へ展開しうる。これらの動向を探る目的は未来を予測することではなく、望ましい結果と望ましくない結果を特定し、発展が許容可能な結果へ導かれる可能性を高めるための先制的な措置を講じることにある。本報告書で議論された主題をさらに深く掘り下げるためには、法執行機関および警察活動に焦点を当てた追加研究が必要である。
This report aims to raise awareness about the potential impact of unmanned systems on law enforcement and encourage preparedness and deliberate action for the challenges and opportunities that lie ahead. It is possible to prevent harm caused by unmanned systems and harness their potential to make Europe safer, but our decision making must adapt to the tempo of this development. 本報告書は、無人システムが法執行に及ぼす潜在的影響への認識を高め、今後の課題と機会に対する準備と意図的な行動を促すことを目的とする。無人システムによる被害を防止し、その可能性を活用して欧州の安全性を高めることは可能だが、我々の意思決定は、この発展のペースに適応しなければならない。

 

 

 

 

 

| | Comments (0)

2025.08.20

英国 新興技術の組み合わせとそのサイバーセキュリティへの影響 (2025.08.08)

こんにちは、丸山満彦です。

英国の科学、イノベーション&テクノロジー省が、新興技術の組み合わせとそのサイバーセキュリティへの影響についての報告書を公表していますが、興味深いですね...

新興技術としては、

  • 人工知能(AI)、
  • ブロックチェーン、
  • IoT、
  • エッジコンピューティング、
  • 量子コンピューティング、
  • ブレイン・コンピュータ・インターフェースなど

の技術間の相乗関係を考察し、それらの交点がサイバー脅威の状況をどのように変革するかを分析しているということのようです...

 

● GOV.UK

・2025.08.08 Emerging technology pairings and their effects on cyber security

 

Emerging technology pairings and their effects on cyber security 新興技術の組み合わせとそのサイバーセキュリティへの影響
Research on the convergence of emerging technologies and the implications for cyber security. 新興技術の融合に関する研究とそのサイバーセキュリティへの影響。
Details 詳細
The convergence of emerging technologies is transforming industries, introducing both opportunities and unprecedented cyber security challenges. This paper explores the synergistic relationships between technologies such as Artificial Intelligence (AI), Blockchain, the Internet of Things (IoT), Edge Computing, Quantum Computing, and Brain-Computer Interfaces, analysing how their intersections reshape the cyber threat landscape. 新興技術の融合は、産業を変革し、機会と前例のないサイバーセキュリティの課題の両方をもたらしている。本論文では、人工知能(AI)、ブロックチェーン、IoT、エッジコンピューティング、量子コンピューティング、ブレイン・コンピュータ・インターフェースなどの技術間の相乗関係を考察し、それらの交点がサイバー脅威の状況をどのように変革するかを分析している。
Through a comprehensive review of the literature and real-world case studies, this study identifies and highlights key vulnerabilities arising from these technological pairings. 文献の包括的なレビューと実例研究を通じて、この研究は、これらの技術の組み合わせから生じる主要な脆弱性を識別し、その重要性を強調している。
This research is part of the government’s wider work to ensure good cyber security in new and emerging technologies, and to improve cyber resilience across the UK economy. この研究は、新しい技術や新興技術における優れたサイバーセキュリティを確保し、英国経済全体のサイバーレジリエンスを向上させるための、政府による広範な取り組みの一環である。

 

 

新興技術とそのサイバーセキュリティへの影響

・2025.08.08 Emerging technologies and their effect on cyber security

 

 

1. Executive summary 1. エグゼクティブサマリー
2. Introduction 2. 序論
3. Definitions of emerging technologies and pairings 3. 新興技術と組み合わせの定義
4. Methodology 4. 方法論
4.1 Research questions 4.1 研究質問
4.2 Stage 1: Construction of long list 4.2 段階1:長リストの構築
4.3 Stage 2: Initial prioritisation of Technologies, and technology pairings 4.3 段階2:技術の初期優先順位付けと技術組み合わせ
4.3.1 Pairings and groupings 4.3.1 組み合わせとグループ化
4.4 Stage 3: Systematic literature review 4.4 段階3:体系的な文献レビュー
4.5 Research Limitations 4.5 研究の制限
5. Literature review 5. 文献レビュー
5.1 Digital Twins and Artificial Intelligence 5.1 デジタルツインと人工知能
5.1.1 Identified Groupings 5.1.1 特定されたグループ
5.1.2 Summary of Digital Twins and AI 5.1.2 デジタルツインと AI の概要
5.1.3 Digital Twins and AI Cyber Implications 5.1.3 デジタルツインと AI のサイバーへの影響
5.1.4 Conclusions of Digital Twins and AI for convergence 5.1.4 融合に関するデジタルツインと AI の結論
5.2 Blockchain and Artificial Intelligence 5.2 ブロックチェーンと人工知能
5.2.1 Identified Groupings 5.2.1 特定されたグループ
5.2.2 Summary of Blockchain and AI 5.2.2 ブロックチェーンと AI の概要
5.2.3 Cyber Security Impacts of Blockchain and AI 5.2.3 ブロックチェーンと AI のサイバーセキュリティへの影響
5.2.4 Emerging Countermeasures 5.2.4 新たな対策
5.2.5 Case Study: AI-Blockchain Synergy for Secure Supply Chain Management 5.2.5 ケーススタディ:サプライチェーンマネジメントのセキュリティ強化のための AI とブロックチェーンの相乗効果
5.2.6 Conclusions 5.2.6 結論
5.3 Artificial Intelligence and IoT 5.3 人工知能と IoT
5.3.1 Identified Groupings 5.3.1 特定されたグループ
5.3.2 Summary of AI and IoT 5.3.2 AI と IoT の概要
5.3.3 Cyber Security Impacts of AI and IoT 5.3.3 AI と IoT のサイバーセキュリティへの影響
5.3.4 Emerging Countermeasures 5.3.4 新しい対策
5.3.5 Case Study: AI-Enhanced IoT for Smart Healthcare Systems 5.3.5 ケーススタディ:スマートヘルスケアシステムのための AI 強化型 IoT
5.3.6 Conclusions 5.3.6 結論
5.4 Personalised Medicine and Artificial Intelligence 5.4 個別化医療と人工知能
5.4.1 Identified Groupings 5.4.1 特定されたグループ
5.4.2 Summary of Personalised Medicine and AI 5.4.2 個別化医療と AI の概要
5.4.3 Personalised Medicine and AI Cyber Implications 5.4.3 個別化医療と AI のサイバーへの影響
5.4.4 Conclusions of Personalised Medicine and AI 5.4.4 個別化医療と AI の結論
5.5 Quantum Communications and IoT 5.5 量子通信と IoT
5.5.1 Identified Groupings 5.5.1 特定されたグループ
5.5.2 Summary of Quantum Communications + IoT 5.5.2 量子通信 + IoT の概要
5.5.3 Quantum Communications + IoT Cyber Implications 5.5.3 量子通信 + IoT のサイバーへの影響
5.5.4 Conclusions of Quantum Communications + IoT 5.5.4 量子通信 + IoT の結論
5.6 Low Earth Orbit Satellites and Quantum Communications 5.6 低軌道衛星と量子通信
5.6.1 Identified Groupings 5.6.1 特定されたグループ
5.6.2 Summary of Quantum Communications + Low-Earth Orbit Satellites 5.6.2 量子通信 + 低軌道衛星の概要
5.6.3 Quantum Communications + Low-Earth Orbit Satellites Cyber Implications 5.6.3 量子通信 + 低軌道衛星のサイバーへの影響
5.6.4 Case Study: Space Air Ground Integrated Networks 5.6.4 ケーススタディ:宇宙・航空・地上統合ネットワーク
5.6.5 Conclusions of Quantum Communications + Low-Earth Orbit Satellites 5.6.5 量子通信 + 低軌道衛星の結論
5.7 Edge Computing and IoT 5.7 エッジコンピューティングと IoT
5.7.1 Identified Groupings 5.7.1 特定されたグループ
5.7.2 Summary of Fog/Edge Computing and IoT 5.7.2 フォグ/エッジコンピューティングと IoT の概要
5.7.3 Cyber Security Impacts of Fog/Edge Computing and IoT 5.7.3 フォグ/エッジコンピューティングと IoT のサイバーセキュリティへの影響
5.7.4 Emerging Countermeasures 5.7.4 新たな対策
5.7.5 Case Study: Edge Computing and IoT Synergy for Smart Manufacturing Systems 5.7.5 事例:スマート製造システムにおけるエッジコンピューティングと IoT の相乗効果
5.7.6 Conclusions 5.7.6 結論
5.8 Brain-Computer Interfaces and Robotics 5.8 ブレイン・コンピュータ・インターフェースとロボット工学
5.8.1 Identified Groupings 5.8.1 特定されたグループ
5.8.2 Summary of Brain-Computer Interfaces + Robotics 5.8.2 ブレイン・コンピュータ・インターフェース + ロボット工学の概要
5.8.3 Brain-Computer Interfaces + Robotics Cyber Implications 5.8.3 ブレイン・コンピュータ・インターフェース + ロボット工学のサイバーへの影響
5.8.4 Conclusions of Brain-Computer Interfaces + Robotics 5.8.4 ブレイン・コンピュータ・インターフェース + ロボット工学の結論
5.9 Biological Computing and IoT 5.9 生物学的コンピューティングと IoT
5.9.1 Identified Groupings 5.9.1 特定されたグループ
5.9.2 Summary of Converged Pairing: Biomedical Computers and IoT 5.9.2 融合ペアの概要:生物医学コンピュータと IoT
5.9.3 Biomedical Computers and IoT Cyber Implications 5.9.3 生物医学コンピュータと IoT のサイバーへの影響
5.9.4 Conclusion of Biomedical Computers and IoT for convergence 5.9.4 融合に関する生物医学コンピュータと IoT の結論
5.10 Artificial Intelligence and Quantum Sensing 5.10 人工知能と量子センシング
5.11 Swarm and Neurotechnology 5.11 群知能と神経技術
6. Exploring technology synergies beyond academic publications 6. 学術論文を超えた技術の相乗効果を探る
7. Conclusion 7. 結論
7.1 Which groups or pairings of emerging technologies are likely to create novel or compounding cyber security risks? 7.1 新興技術のどのグループまたは組み合わせが、新規または複合的なサイバーセキュリティリスクを生み出す可能性が高いか?
7.2 Which industries will be affected by the compounding cyber security risks stemming from convergence of emerging technologies? 7.2 新興技術の融合によって生じる複合的なサイバーセキュリティリスクの影響を受ける業界はどれか?
7.3 Which applications of emerging technologies are most likely to be affected by technology convergence? 7.3 技術の融合によって最も影響を受ける新興技術の応用分野はどれか?
Appendix 附属書
References 参考文献

 

 

 

Emerging technologies and their effect on cyber security 新興技術とサイバーセキュリティへの影響
1. Executive summary 1. エグゼクティブサマリー
The convergence of emerging technologies is transforming industries, introducing both opportunities and unprecedented cyber security challenges. This paper explores the synergistic relationships between technologies such as Artificial Intelligence (AI), Blockchain, the Internet of Things (IoT), Edge Computing, Quantum Computing, and Brain-Computer Interfaces, analysing how their intersections reshape the cyber threat landscape. 新興技術の融合は、産業を変革し、チャンスと前例のないサイバーセキュリティの課題の両方をもたらしている。本論文では、人工知能(AI)、ブロックチェーン、IoT、エッジコンピューティング、量子コンピューティング、ブレイン・コンピュータ・インターフェースなどの技術間の相乗的関係を考察し、それらの交点がサイバー脅威の状況をどのように変革するかを分析している。
Through a comprehensive review of the literature and real-world case studies, the study also identifies and highlights key vulnerabilities arising from these technological pairings. For example, although AI’s integration with IoT and Blockchain enhances threat detection and automation, it also amplifies risks such as adversarial attacks and data privacy concerns. Equally, the fusion of Edge Computing with IoT improves real-time decision-making but expands the attack surface, making distributed systems more susceptible to cyber threats. Moreover, quantum computing, particularly in combination with Low Earth Orbit (LEO) satellites, promises enhanced security for communication networks but introduces novel risks, such as side-channel attacks and denial-of-service vulnerabilities. 文献の包括的なレビューと実例研究を通じて、この調査では、これらの技術の組み合わせから生じる主要な脆弱性も特定し、強調している。例えば、AI と IoT およびブロックチェーンの統合は、脅威の検知と自動化を強化する一方で、敵対的攻撃やデータ・プライバシーに関する懸念などのリスクも増幅する。同様に、エッジ・コンピューティングと IoT の融合は、リアルタイムの意思決定を改善する一方で、攻撃対象領域を拡大し、分散システムをサイバー脅威に対してより脆弱にする。さらに、量子コンピューティングは、特に低軌道衛星(LEO)と組み合わせることで、通信ネットワークのセキュリティ強化を約束するが、サイドチャンネル攻撃やサービス拒否の脆弱性などの新たなリスクも生じる。
Additionally, the application of AI and Digital Twins in personalised medicine, defence, and critical infrastructure presents new cyber security risks, including data manipulation, privacy breaches, and cyber-physical system exploitation. Subsequently, the findings underscore the urgency for proactive security strategies, interdisciplinary collaboration, and the development of robust frameworks to mitigate evolving cyber threats. The report herein underlines that addressing these cyber security risks becomes imperative, as technology convergence accelerates, to ensure the resilience and security of interconnected systems across industries. さらに、個別化医療、防衛、重要インフラにおける AI やデジタルツインの適用は、データ操作、プライバシー侵害、サイバーフィジカルシステムの悪用など、新たなサイバーセキュリティリスクをもたらす。その結果、進化するサイバー脅威を緩和するための、積極的なセキュリティ戦略、学際的な連携、および強固な枠組みの開発が急務であることが明らかになった。本報告書は、技術の融合が加速する中、業界間の相互接続システムのレジリエンスとセキュリティを確保するためには、これらのサイバーセキュリティリスクへの対応が不可欠であることを強調している。
2. Introduction 2. 序論
In an era where technological advancements unfold at an unprecedented pace, the merging of once distinct technologies—known as technological convergence—is reshaping industries, driving innovation, and altering the cyber security landscape. As technologies like artificial intelligence, quantum computing, 6G networks, edge computing, nanotechnologies, and robotics increasingly intersect, they create both unprecedented opportunities and complex vulnerabilities. 技術革新がかつてないスピードで進む時代において、かつては別個だった技術が融合する「技術の融合」が、産業の変革、イノベーションの推進、サイバーセキュリティの展望の変化をもたらしている。人工知能、量子コンピューティング、6G ネットワーク、エッジコンピューティング、ナノテクノロジー、ロボット工学などの技術がますます交錯するにつれて、これまでにない機会と複雑な脆弱性の両方が生まれている。
Historical precedents highlight the significant impact of technological convergence on cyber security. For instance, the merging of mobile devices with the Internet of Things (IoT) expanded the attack surface dramatically. The proliferation of inexpensive, limited-processing devices that are often poorly managed and insecure by default led to events like the Mirai botnet attack in 2016. This large-scale distributed denial-of-service (DDoS) attack disrupted major platforms such as Dyn DNS, Twitter, and Netflix. This led to the need for policy interventions like the Product Security and Telecommunications Infrastructure Act 2022 to enhance the security of internet-connected products. 歴史的な事例は、技術融合がサイバーセキュリティに与える重大な影響を浮き彫りにしている。例えば、モバイルデバイスとインターネットオブシングス(IoT)の融合は、攻撃対象領域を劇的に拡大した。低コストで処理能力が限られ、デフォルトでセキュリティが不十分なデバイスが普及した結果、2016年のMiraiボットネット攻撃のような事件が発生した。この大規模な分散型サービス妨害(DDoS)攻撃は、Dyn DNS、Twitter、Netflix などの主要プラットフォームを混乱に陥れた。この事件を受けて、インターネットに接続された製品のセキュリティを強化するための、2022 年製品セキュリティおよび通信インフラ法などの政策介入の必要性が生じました。
Another example is the integration of Operational Technology (OT) with Information Technology (IT) systems in critical infrastructure like energy grids, transportation, and manufacturing. The Stuxnet worm in 2010, which targeted Iranian nuclear facilities, demonstrated how convergence could enable targeted attacks on critical systems. This incident introduced the world to cyber-kinetic warfare, where cyber-attacks have physical impacts, and highlighted that systems not originally designed to face IT-based threats are now vulnerable due to technological convergence. もう 1 つの例は、エネルギーグリッド、輸送、製造などの重要インフラにおける、運用技術(OT)と情報技術(IT)システムの統合である。2010 年にイランの核施設を標的とした Stuxnet ワームは、融合によって重要なシステムに対する標的型攻撃が可能になることを実証した。このインシデントは、サイバー攻撃が物理的な影響をもたらすサイバーキネティック戦争という概念を世界に知らしめ、もともと IT ベースの脅威に対処するために設計されていないシステムは、技術の融合によって脆弱になっていることを浮き彫りにした。
However, we also see security benefits from convergence - the combination of Machine Learning (ML) and threat detection has significantly advanced cyber security capabilities. Tools such as CrowdStrike’s Falcon platform and Darktrace’s AI systems utilise ML to detect anomalies in real time, enabling proactive responses to emerging threats. These technologies go beyond traditional rule-based systems by identifying novel patterns of malicious activity, allowing organisations to respond dynamically. しかし、融合にはセキュリティ上のメリットもある。機械学習(ML)と脅威の検知を組み合わせることで、サイバーセキュリティ機能が大幅に強化されている。CrowdStrike の Falcon プラットフォームや Darktrace の AI システムなどのツールは、ML を利用して異常をリアルタイムで検知し、新たな脅威にプロアクティブに対応する。これらのテクノロジーは、従来のルールベースのシステムを超えて、悪意のある活動の新しいパターンを識別し、組織が動的に対応することを可能にする。
More recently, the combination of social engineering techniques with AI-generated deep-fakes has heightened cyber security risks. Highly convincing phishing attacks now leverage AI to create realistic deep-fake media, such as voice impersonations, leading to significant financial losses in cases where executives were impersonated to authorise fraudulent transactions. These developments have prompted a focus on detecting synthetic media, developing authenticity verification tools, and educating users about social engineering resilience. 最近では、ソーシャルエンジニアリング手法と AI によって生成されたディープフェイクの組み合わせにより、サイバーセキュリティのリスクが高まっている。非常に説得力のあるフィッシング攻撃は、AI を活用して、声の偽装など、現実的なディープフェイクメディアを作成するようになり、経営幹部を装って不正な取引を承認させるなど、多額の金銭的損失につながるケースも発生している。こうした動向を受けて、合成メディアの検知、信頼性検証ツールの開発、ソーシャルエンジニアリングに対するレジリエンスに関するユーザー教育が注目されている。
Initiating research into the cyber security implications of technological convergence presents significant challenges. The vast scope of emerging technologies, coupled with a scarcity of documented information and the subtle nature of convergence—which often occurs without explicit recognition—complicates efforts to identify and assess potential risks. In this report we conduct a systematic review to illuminate the converged technology pairings and groupings most pertinent to cyber security concerns. 技術融合がサイバーセキュリティに与える影響に関する研究を開始するには、大きな課題がある。新興技術の広範な範囲、文書化された情報の不足、そして多くの場合、明確に認識されることなく進行する融合の微妙な性質により、潜在的なリスクの特定と評価は困難である。本報告書では、サイバーセキュリティの問題に最も関連性の高い融合技術の組み合わせとグループを明らかにするために、体系的なレビューを実施している。
This report aims to define emerging converged technologies relevant to cyber security over the next five to ten years and beyond. Focusing on literature published from 2021 onwards, it will identify key technology pairings that are poised to significantly influence the cyber security domain by shaping both the nature and scale of cyber threats, altering the prevalence of cyberattacks, introducing new attack vectors, and enhancing cyber defence mechanisms through novel detection and mitigation strategies. このレポートは、今後 5 年から 10 年、そしてそれ以降において、サイバーセキュリティに関連する新たな融合技術を定義することを目的としている。2021 年以降に発行された文献に焦点を当て、サイバー脅威の性質と規模を形作り、サイバー攻撃の蔓延を変え、新たな攻撃ベクトルを導入し、斬新な検知および緩和戦略によってサイバー防御メカニズムを強化することにより、サイバーセキュリティ分野に大きな影響を与える可能性のある主要な技術の組み合わせを特定する。
By consolidating convergent technology pairings and groupings identified in recent literature, we provide an overview of the current landscape. We offer recommendations on technology convergences of particular interest, specifying the industries or sectors where these are likely to be most prevalent, and through detailed case studies of converged technologies in specific settings, we highlight where convergence is expected to produce novel or compounding cyber security risks. 最近の文献で特定された融合技術の組み合わせとグループを統合することで、現在の状況の概要を説明する。特に注目すべき技術の融合について、それが最も普及すると思われる業界や分野を特定して推奨事項を示し、特定の状況における融合技術の事例を詳しく紹介することで、融合によって新たなサイバーセキュリティリスクや複合的なリスクが生じる可能性のある分野を明らかにする。

 

最も多く組み合わせられている技術...(図2)

AI, IoT, ブロックチェーン, クラウドコンピューティング, ロボティクス, エッジコンピューティング...

1_20250816134901

 

組み合わせのヒートマップ...(図3)

1_20250816134801

 

AIに関連する技術を含む繋がり...(図5)

 バブルの大きさは繋がりの多さ、色は技術のグループ

3_20250816135201

 

 

 

1_20250816124901

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.08.18 英国 融合技術のセキュリティ確保:専門家による見解 (2025.08.08)

 

 

| | Comments (0)

2025.08.07

米国 NIST IR 8536(第2次公開ドラフト)サプライチェーンのトレーサビリティ:製造メタフレームワーク (2025.07.31)

こんにちは、丸山満彦です。

昨年の9月27日に公開され、意見募集をされていたIR 8536(初期公開ドラフト)サプライチェーンのトレーサビリティ:製造メタフレームワークの第二次公開草案が公開され、意見募集されています...

全体像を理解するのは、この図...

1_20250803230701

Figure 4. Value and Supply Chain Traceability Events Across Ecosystems(エコシステムをまたいだ価値とサプライチェーンのトレーサビリティイベント)

 

NIST - ITL

・2025.07.31 NIST IR 8536 (2nd Public Draft) Supply Chain Traceability: Manufacturing Meta-Framework

NIST IR 8536 (2nd Public Draft) Supply Chain Traceability: Manufacturing Meta-Framework NIST IR 8536 (2nd Public Draft) サプライチェーンのトレーサビリティ: 製造メタフレームワーク
Announcement 発表
The NIST National Cybersecurity Center of Excellence (NCCoE) has released a second public draft of NIST Internal Report 8536, Supply Chain Traceability: Manufacturing Meta-Framework, for public comment.  NIST国立サイバーセキュリティ・センター・オブ・エクセレンス(NCCoE)は、NIST内部報告書8536「サプライチェーントレーサビリティ」の第2次パブリックドラフトを公表した: 製造メタフレームワーク)」を公開し、パブリックコメントを募集した。
We thank everyone who submitted comments on the initial draft. Your thoughtful feedback prompted substantial revisions. In response, we are publishing this second draft to provide an opportunity for further review and input before finalizing the report. 初回ドラフトにコメントをお寄せいただいた皆様に感謝する。皆様からの丁寧なフィードバックにより、大幅な改訂が行われた。これを受けて、本報告書を最終化する前に、さらなる検討とご意見をいただく機会を提供するため、この第2ドラフトを公表するものである。
Background 背景
This paper presents a framework to improve traceability across complex and distributed manufacturing ecosystems. It enables structured recording, linking, and querying of traceability data across trusted repositories. This initial research is intended to explore approaches that may support stakeholders in verifying product provenance, meet contractual obligations, and assess supply chain integrity. 本稿は、複雑で分散した製造エコシステム全体にわたるトレーサビリティを改善する枠組みを提示する。このフレームワークは、信頼できるリポジトリ間でトレーサビリティ・データの構造化された記録、リンク、クエリを可能にする。この初期研究は、利害関係者が製品の出所を検証し、契約上の義務を果たし、サプライチェーンの完全性をアセスメントすることを支援するアプローチを探ることを目的としている。
This framework builds on previous NIST research (NIST IR 8419) and incorporates insights and feedback from industry, standards bodies, and academia. It is designed to enhance national security, economic resilience, and supply chain risk management, particularly across manufacturing and other critical infrastructure sectors. この枠組みは、NIST の過去の研究(NIST IR 8419)を基礎とし、産業界、標準団体、学界からの見識やフィードバックを取り入れている。このフレームワークは、国家安全保障、経済レジリエンス、サプライチェーンリスクマネジメント、特に製造業やその他の重要インフラセクターの強化を目的としている。
We invite and encourage those interested to review and comment on this draft.  本ドラフトにご関心をお持ちの方は、ぜひご一読いただき、ご意見をお寄せいただきたい。 
... ...
Abstract 概要
Manufacturing and critical infrastructure supply chains are vital to the security, resilience, and economic strength of the United States. However, increasing global complexity makes tracing product origins more difficult, exposing vulnerabilities to logistical disruptions, fraud, sabotage, and counterfeit materials. 製造事業者と重要インフラのサプライチェーンは、米国の安全保障、レジリエンス、経済力にとって不可欠である。しかし、世界的な複雑化により、製品の出所の追跡が困難になり、物流の途絶、詐欺、妨害行為、偽造品に対する脆弱性が露呈している。
This report introduces a meta-framework designed to enhance end-to-end supply chain traceability. The framework organizes, links, and queries traceability data across diverse manufacturing ecosystems, enabling stakeholders to verify product provenance, support fulfillment of external stakeholder obligations (e.g., legal, contractual, or operational requirements), and supply chain integrity. 本報告書では、エンド・ツー・エンドのサプライチェーントレーサビリティを強化するために設計されたメタ枠組みを紹介する。この枠組みは、多様な製造エコシステムにわたるトレーサビリティ・データを整理、リンク、照会し、利害関係者が製品の出所を検証し、外部利害関係者の義務(法的、契約上、または業務上の要件など)の履行、およびサプライチェーンの完全性をサポートできるようにする。
The Meta-Framework builds on previous NIST research (IR 8419) and reflects input from industry, standards organizations, and academic collaborators. By improving supply chain transparency and risk mitigation, this framework supports national security, economic stability, and resilience in U.S. manufacturing operations. この枠組みは、これまでのNISTの研究(IR 8419)を基礎とし、産業界、標準化団体、学界の協力者からの意見を反映したものである。サプライチェーンの透明性とリスク緩和を改善することにより、この枠組みは米国の製造事業における国家安全保障、経済的安定、レジリエンスを支援する。

 

・[PDF] NIST.IR.8536.2pd

20250803-233235

 

目次...

Executive Summary エグゼクティブサマリー
1. Introduction 1. 序論
1.1. Supply Chain Traceability Needs and Challenges 1.1. サプライチェーントレーサビリティのニーズと課題
1.2. Approach 1.2. アプローチ
1.3. Goals 1.3. 目標
1.4. Audience 1.4. 想定読者
1.5. Considerations and Limitations 1.5. 考察と限界
2. Meta-Framework Overview 2. メタフレームワークの概要
2.1. Traceability Records and Core Components 2.1. トレーサビリティ記録とコア・コンポーネント
2.2. Trusted Data Repositories and Ecosystems 2.2. 信頼されるデータ・リポジトリとエコシステム
2.2.1. Controlled Access and Data Retention 2.2.1. アクセス管理とデータ保持
2.2.2. Ensuring Data Integrity 2.2.2. データの完全性の確保
2.2.3. Ecosystem Governance and Role in the Meta-Framework 2.2.3. エコシステムのガバナンスとメタフレームワークにおける役割
2.3. Traceability Chain Across Supply Chain Ecosystems 2.3. サプライチェーンのエコシステムを横断するトレーサビリティ・チェーン
2.4. Example Traceability Chain Across Ecosystem Boundaries 2.4. エコシステムの境界を越えたトレーサビリティ・チェーンの例
3. Meta-Framework Data Model 3. メタフレームワークのデータモデル
3.1. Traceability Records Overview 3.1. トレーサビリティ記録の概要
3.2. Traceability Record Structure 3.2. トレーサビリティ記録の構造
3.3. Traceability Record Subclasses 3.3. トレーサビリティ記録のサブクラス
3.4. Traceability Links and Supplemental Data References 3.4. トレーサビリティリンクと補足データ参照
3.5. Ensuring Data Integrity and Interoperability 3.5. データの完全性と相互運用性の確保
3.5.1. Common Data Models 3.5.1. 共通データモデル
3.5.2. Traceability Chain and Data Integrity Mechanisms 3.5.2. トレーサビリティ・チェーンとデータ完全性メカニズム
3.5.3. End-to-End Trust and Component Validation 3.5.3. エンド・ツー・エンドの信頼性とコンポーネントの妥当性確認
3.5.4. Notional Traceback Scenario 3.5.4. 想定されるトレースバックのシナリオ
3.5.5. Controlled Access and Authentication 3.5.5. アクセス管理と認証器
4. Meta-Framework Use Cases 4. メタフレームワークの使用例
4.1. Creating and Recording Traceability Data 4.1. トレーサビリティデータの作成と記録
4.1.1. Sequence Diagram 1: Manufacturer of Microelectronics Make Traceability Events 4.1.1. シーケンス図1:マイクロエレクトロニクスの製造事業者がトレーサビリティ・イベントを作成する
4.1.2. Sequence Diagram 2: Operational Tech with Receive, Make, Assemble, and Ship 4.1.2. シーケンス図2:受領、製造、組立、出荷を伴う操業技術者
4.1.3. Sequence Diagram 3: Critical Infrastructure Acquirer with Receive and Employ 4.1.3. シーケンス図 3:受領と雇用を伴う重要インフラの取得者
4.2. Querying and Retrieving Traceability Records 4.2. トレーサビリティ記録の照会と検索
4.2.1. Sequence Diagram 4: Operational Technology with Traceback to ME 4.2.1. シーケンス図 4:ME へのトレースバックを伴う運用技術
4.2.2. Sequence Diagram 5: Critical Infrastructure Acquirer with Traceback to ME and OT 4.2.2. シーケンス図 5:ME および OT へのトレースバックを持つ重要インフラ取得者
4.2.3. Sequence Diagram Summary 4.2.3. シーケンス図の概要
5. Conclusion 5. 結論
References 参考文献
Appendix A. List of Symbols, Abbreviations, and Acronyms 附属書A. 記号、略語、頭字語のリスト
Appendix B. Glossary 附属書B. 用語集
Appendix C. Security, Privacy, and Access Control Considerations 附属書C. セキュリティ、プライバシー、アクセス管理に関する考察
C.1. Identity, Authentication, and Access Control C.1. アイデンティティ、認証器、アクセス管理
C.2. Privacy Measures C.2. プライバシー対策
C.3. Balancing High-Assurance Identity and Privacy Risks C.3. 高保証 ID とプライバシーリスクのバランス
C.4. Threat Modeling and Ecosystem Risk Posture C.4. 脅威モデリングとエコシステムリスク態勢
C.5. Other Considerations C.5. その他の考慮事項
Appendix D. Future Directions for the Meta-Framework 附属書 D. メタフレームワークの今後の方向性
D.1. Expanding Traceability to Sustainment and Lifecycle Phases D.1. トレーサビリティの持続可能性とライフサイクル段階への拡大
D.2. Additional Supply Chain Traceability Record Subclasses D.2. サプライチェーントレーサビリティ記録サブクラスの追加
Appendix E. Key Challenges in Achieving Interoperable Traceability 附属書 E.相互運用可能なトレーサビリティの実現における主要課題
E.1. Challenge #1: Information Stored in Disjointed and Isolated Repositories E.1. 課題#1:バラバラで孤立した保管場所に保管されている情報
E.2. Challenge #2: Inconsistent semantic and data definitions E.2. 課題#2:セマンティックとデータ定義の一貫性の欠如
E.3. Challenge #3: Ensuring Traceability Data Integrity E.3. 課題#3:トレーサビリティ・データの完全性の確保
E.4. Challenge #4: Balancing Confidentiality and Privacy in Traceability E.4. 課題#4:トレーサビリティにおける機密性とプライバシーのバランス
Appendix F. Technical Data Model and Class Structures 附属書F. 技術データモデルとクラス構造
F.1. UML Class Structure of Traceability Records F.1. トレーサビリティ記録のUMLクラス構造
F.2. Traceability_Record Superclass F.2. Traceability_Recordスーパークラス
F.3. Traceability Record Supporting Data Objects F.3. トレーサビリティ記録をサポートするデータオブジェクト
F.3.1. Key-Value Pair Data Objects F.3.1. キーと値のペアのデータ・オブジェクト
F.3.2. Traceability Link Data Object F.3.2. トレーサビリティリンクデータオブジェクト
F.3.3. Supplemental Link Data Objects F.3.3. 補足リンクデータ・オブジェクト
F.4. Event-Specific Subclasses F.4. イベント固有のサブクラス
F.4.4. Make Record Subclass F.4.4. Make レコード・サブクラス
F.4.5. Assemble Record Subclass F.4.5. アセンブル・レコード・サブクラス
F.4.6. Ship Record Subclass F.4.6. 出荷記録サブクラス
F.4.7. Receive Record Subclass F.4.7. 受信記録サブクラス
F.4.8. Employ Record Subclass F.4.8. 雇用記録サブクラス
F.5. Conclusion F.5. 結論
Appendix G. Technical Details and Governance Considerations 附属書G. 技術的詳細とガバナンスに関する考察
G.1. Serialization and Data Formats G.1. シリアライゼーションとデータフォーマット
G.2. Cryptographic Validation and Security G.2. 暗号的妥当性確認とセキュリティ
G.3. Governance and Data Retention Policies G.3. ガバナンスとデータ保持方針
G.4. Interoperability Mechanisms G.4. 相互運用性メカニズム

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
This paper introduces a meta-framework designed to enhance traceability across diverse supply chains by enabling structured recording, linking, and retrieval of traceability data. Through trusted data repositories, stakeholders can access supply chain information needed to verify product provenance, demonstrate compliance with external stakeholder requirements and contractual obligations, and assess supply chain integrity. The framework establishes several key principles to ensure visibility, reliability, and integrity in supply chain traceability:  本稿では、トレーサビリティ・データの構造化された記録、リンク、検索を可能にすることで、多様なサプライチェーンにおけるトレーサビリティを強化するために設計されたメタ・フレームワークを紹介する。利害関係者は、信頼できるデータリポジトリを通じて、製品の出所を検証し、外部の利害関係者の要求事項や契約上の義務を遵守していることを証明し、サプライチェーンの完全性を評価するために必要なサプライチェーン情報にアクセスすることができる。このフレームワークは、サプライチェーントレーサビリティにおける可視性、信頼性、完全性を確保するために、いくつかの重要な原則を確立している: 
• Common Data and Ontologies: Stakeholders are empowered to establish traceability consistency, ensuring that data remains structured, interoperable, and understandable across industries.  - 共通データとオントロジー: 共通のデータとオントロジー:関係者は、トレーサビリティの一貫性を確立する権限を与えられ、データが構造化され、相互運用可能で、業界を超えて理解可能であることを保証する。 
• Trusted Repositories and Ecosystems: The Meta-Framework supports the use of secure, trusted data repositories within industry ecosystems to manage traceability records.  - 信頼できるリポジトリとエコシステム: メタフレームワークは、トレーサビリティ記録を管理するために、業界のエコシステム内で安全で信頼できるデータリポジトリの使用をサポートする。 
• Traceability Record Model: Traceability is built from records created from supply chain events (e.g., manufacturing, shipping, receiving). These are linked using cryptographically verifiable connections to form traceability chains—sequentially linked records that allow stakeholders to validate product history and movement across the supply network.  - トレーサビリティ記録モデル: トレーサビリティは、サプライチェーンのイベント(製造、出荷、入荷など)から作成された記録から構築される。これらは、暗号的に検証可能な接続を使用してリンクされ、トレーサビリティ・チェーンを形成する。これは、関係者がサプライ・ネットワーク全体にわたって製品の履歴と移動を妥当性確認できるようにする、逐次リンクされた記録である。 
Offering a scalable solution for improving traceability across industry sectors, the MetaFramework enables organizations to exchange required supply chain data securely. As global supply chains grow more complex, this approach strengthens supply chain integrity, supports fulfillment of external obligations (e.g., legal, contractual, operational), and fosters stakeholder trust.  業種を問わずトレーサビリティを改善するスケーラブルなソリューションを提供するメタフレームワークは、組織が必要なサプライチェーンデータを安全に交換することを可能にする。グローバルなサプライチェーンが複雑化する中、このアプローチはサプライチェーンの完全性を強化し、対外的な義務(法的、契約上、業務上など)の履行をサポートし、利害関係者の信頼を醸成する。 
Crucially, the design allows organizations to share only the traceability data necessary for external validation, while retaining control over sensitive intellectual property and proprietary information. This principle of controlled disclosure balances transparency with confidentiality, helping stakeholders mitigate business risk while promoting accountability.  極めて重要な点は、組織が機密性の高い知的財産や専有情報を管理しながら、外部からの妥当性確認に必要なトレーサビリティデータのみを共有できるように設計されていることである。この管理された情報開示の原則は、透明性と機密性のバランスを保ち、ステークホルダーが説明責任を促進しながらビジネスリスクを緩和するのに役立つ。 
Successful implementation depends on effective ecosystem governance, risk-informed identity management, and data integrity safeguards. Readers are advised to consult Appendices C and G for additional guidelines and security considerations.  導入が成功するかどうかは、効果的なエコシステム・ガバナンス、リスク情報に基づ くアイデンティティ・マネジメント、およびデータ完全性の保護措置にかかっている。読者は、追加のガイドラインおよびセキュリ ティに関する考慮事項については、附属書 C および G を参照することが推奨される。 

 

結論...

5. Conclusion  5. 結論 
Tracking products and components across the supply chain is essential for ensuring product integrity, building stakeholder trust, and supporting accountability throughout manufacturing ecosystems. However, collecting and verifying this data remains a significant challenge, especially in complex, multi-tiered supply chains with fragmented systems and inconsistent data practices.  サプライチェーン全体にわたって製品と部品を追跡することは、製品の完全性を確保し、利害関係者の信頼を構築し、製造エコシステム全体を通じて説明責任を支援するために不可欠である。しかし、このデータの収集と検証は、特に断片的なシステムと一貫性のないデータ運用を伴う複雑で多層的なサプライチェーンにおいては、依然として大きな課題である。 
The Meta-Framework improves traceability by defining a structured, interoperable model for recording, linking, and retrieving supply chain event data. It enables stakeholders to:  メタフレームワークは、サプライチェーンのイベントデータを記録、リンク、検索するための構造化された相互運用可能なモデルを定義することにより、トレーサビリティを改善する。これにより、関係者は以下のことが可能になる: 
• Sequence traceability records and relevant supply chain event data;  - トレーサビリティ記録と関連するサプライチェーンイベントデータを順序付ける; 
• Interpret retrieved information in its appropriate ecosystem-defined context; and  - 検索された情報を適切なエコシステムで定義された文脈で解釈する。 
• Rely on the integrity and authenticity of the data to validate product pedigree and provenance.  - 製品の血統と出所を妥当性確認するために、データの完全性と認証器に依拠する。 
Traceability chains are formed by linking records created from supply chain events (e.g., manufacturing, shipping, receiving) using cryptographically verifiable connections. These links allow stakeholders to construct a coherent sequence of events that reflect product movement and transformation across the supply network.  トレーサビリティチェーンは、サプライチェーンイベント(製造、出荷、入荷など)から作成された記録を、暗号的に検証可能な接続を使用してリンクすることによって形成される。これらのリンクにより、関係者は、サプライ・ネットワーク全体にわたる製品の移動と変容を反映する首尾一貫した一連の事象を構築することができる。 
Trust is supported by cryptographic validation mechanisms that allow participants to confirm the authenticity and integrity of traceability records. Hash-based traceability links ensure that each record is tamper-evident and verifiably connected to the previous one, enabling consistent validation over time.  信頼は、関係者がトレーサビリティ記録の認証性と完全性を確認できる暗号的妥当性確認メカニズムによってサポートされる。ハッシュベースのトレーサビリティリンクは、各レコードが改ざんされないことを保証し、前のレコードと検証可能に接続され、長期にわたる一貫した妥当性確認を可能にする。 
The Meta-Framework supports verifiability through controlled disclosure to promote transparency without compromising sensitive information. Organizations can publish only the traceability data necessary for external validation while maintaining control over sensitive intellectual property, personally identifiable information (PII), and other sensitive or proprietary information.  Meta-Frameworkは、機密情報を損なうことなく透明性を促進するために、管理された情報公開を通じて検証可能性をサポートする。組織は、機密性の高い知的財産、個人を特定できる情報(PII)、その他の機密情報や専有情報の管理を維持しながら、外部の妥当性確認に必要なトレーサビリティデータのみを公開することができる。 
Understanding is enhanced using ecosystem-specific data dictionaries and schema definitions, which constrain how data is structured and interpreted. By aligning with externally defined traceability requirements, such as those from industry groups or contractual agreements, the Meta-Framework ensures consistency and interoperability across diverse environments.  エコシステム固有のデータ辞書とスキーマ定義を使用することで、データの構造化と解釈方法を制限し、理解を深めることができる。メタフレームワークは、業界団体や契約上の合意など、外部で定義されたトレーサビリティ要件と整合させることで、多様な環境にわたる一貫性と相互運用性を保証する。 
While this framework establishes a strong foundation for cross-ecosystem traceability, several areas require further development. Ongoing research will focus on expanding interoperability models, refining integrity validation methods, supporting privacy-enhanced mechanisms, and introducing new subclasses of traceability records and event types to reflect emerging operational needs. For additional discussion on future directions, see Appendix D.  このフレームワークは、エコシステム間のトレーサビリティのための強力な基盤を確立しているが、いくつかの分野ではさらなる開発が必要である。進行中の研究は、相互運用性モデルの拡大、妥当性確認方法の改良、プライバシー強化メカニズムのサポート、新たな運用ニーズを反映するためのトレーサビリティレコードとイベントタイプの新しいサブクラスの導入に焦点を当てる。将来の方向性については、附属書Dを参照のこと。 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.10.08 米国 NIST IR 8536(初期公開ドラフト)サプライチェーンのトレーサビリティ:製造メタフレームワーク (2024.09.27)

 

| | Comments (0)

2025.06.07

防衛省 装備品等の研究開発における責任あるAI適用ガイドライン (2025.06.06)

こんにちは、丸山満彦です。

防衛省防衛装備庁が、装備品等の研究開発における責任あるAI適用ガイドラインを公表しましたね...

現場でAIが暴走すると、場合によっては現場の人(敵も味方も)の生命に影響が及ぶこともあるしね...

 

防衛装備庁

・2025.06.06 [PDF] 装備品等の研究開発における責任あるAI適用ガイドラインの策定について


装備品等の研究開発における責任あるAI適用ガイドラインの策定について

防衛省は、装備品等の研究開発における防衛省・自衛隊独自のガイドラインとして、「装備品等の研究開発における責任あるAI適用ガイドライン」を策定いたしましたので、お知らせいたします。

本ガイドラインは、令和6年7月に策定・公表した「防衛省AI活用推進基本方針」を受け、防衛省の装備品等の研究開発における責任あるAI適用のコンセプトを示すものとして、策定したものです。


 

装備品等の研究開発における責任あるAI適用ガイドライン


・[PDF] 装備品等の研究開発における責任あるAI適用ガイドライン 概要

20250607-62039

 

・[PDF] 装備品等の研究開発における責任あるAI適用ガイドライン本文(第1版)

 20250607-62212

目次...

1 本ガイドライン策定の背景
(1) 諸外国の軍事領域におけるAIの責任ある利用に関する取組状況
(2) AIの軍事利用に関する国際的な議論及び我が国の見解

2 本ガイドラインの位置付け

3 AI装備品等の研究開発における確認事項
(1) 準拠すべき要件の設定

4 AI装備品等の研究開発における実施事項
(1) AI装備品等の分類
(2) 法的・政策的審査
(3) 技術的審査
(4) その他

5 まとめ

 

 


 

表1 AI政治宣言において参加国が実施すべき措置として定められている事項

A  国家は、自国の軍事組織が、AI能力の責任ある開発、配備、使用のために、これらの原則を採用し、実施することを確保すべきである。 
B  国家は、軍事用AI能力が国際法、特に国際人道法の下でのそれぞれの義務に合致して使用されることを確保するために、法的審査などの適切な措置をとるべきである。国家はまた、国際人道法の履行を促進し、武力紛争における文民及び民用物の保護を改善するために、軍事用AI能力をどのように使用するかを検討すべきである。 
C  国家は、高官が、このような兵器システムを含むがこれに限定されない、重大な影響を及ぼす活用を伴う軍事用AI能力の開発と配備を効果的かつ適切に監督することを確保すべきである。 
D  国家は、軍事用AI能力における意図せざるバイアスを最小化するための積極的な措置をとるべきである。 
E  国家は、軍事用AI能力を組み込んだ兵器システムを含め、軍事用AI能力の開発、配備、使用において、関係者が適切な注意を払うことを確保すべきである。 
F  国家は、軍事用AI能力が、関連する防衛要員にとり透明で、また、かかる要員により監査可能な方法論、データソース、設計手順及び文書作成により開発されることを確保すべきである。 
G  国家は、軍事用AI能力を使用する、又は使用を承認する要員が、それらのシステムの使用について状況に応じた適切な判断を下し、自動化バイアスのリスクを軽減するために、それらのシステムの能力と限界を十分に理解するよう訓練されることを確保すべきである。 
H  国家は、軍事用AI能力が明確かつ十分に定義された用途を有し、それらの意図された機能を果たすようにデザイン及び設計されていることを確保すべきである。 
I  国家は、軍事用AI能力の安全性、セキュリティ、有効性が、その明確に定義された用途の範囲内で、そのライフサイクル全体にわたって、適切かつ厳格なテストと保証の対象となることを確保すべきである。自己学習または継続的に更新される軍事用AI能力については、国家は、モニタリングなどのプロセスを通じて、重要な安全機能が低下していないことを確保すべきである。 
J  国家は、軍事用AI能力における失敗のリスクを軽減するために、意図しない結果を検出し回避する能力、及び、そのようなシステムが意図しない挙動を示した場合に、例えば、配備されたシステムによる交戦を停止させる、又はその作動を停止させることによって対応する能力などの適切な保護措置を実施すべきである。 

 

図1 本ガイドラインの対象範囲

1_20250607062901

 

 

図2 諸外国の軍事領域におけるAI倫理原則

1_20250607063401

 

図3 研究開発事業における実施事項

1_20250607063501

 

図4 装備品等の分類と対応フロー

1_20250607063502

 

法的・政策的審査 表2 要件Aの審査項目(基準)

  確認項目 
A-1 
国際人道法を始めとする国際法及び国内法の遵守が確保できないものでないこと 
   
・ 当該装備品等を使用するにあたって軍事的必要性と人道的配慮のバランスを考慮し、過度の傷害又は無用の苦痛を与えることを防止する措置が含まれた構想になっているか。 
・ 軍事目標と非軍事目標(文民及び民用物)を区別し、軍事目標のみに攻撃を行うことが可能な装備品等の構想になっているか(区別原則)。 
・ 予測される具体的かつ直接的な軍事的利益との比較において、巻き添えによる文民の死亡、文民の傷害、民用物の損傷又はこれらの複合した事態を過度に引き起こすことが予測される攻撃を防止する措置が含まれた構想になっているか(比例性原則)。 
・ 攻撃に先立つ軍事目標の選定から攻撃の実施に至るまで、無差別攻撃を防止し文民と民用物への被害を最小限に抑えるための各種予防措置を実施し得る構想になっているか(予防原則)。 
・ 国際人道法のその他の要請や適用のある他の国際法及び国内法に従って使用することができないような装備品等の構想となっていないか。 
A-2 
人間の関与が及ばない完全自律型致死兵器でないこと 
・ 適切なレベルの人間の判断が介在し、人間による責任ある指揮命令系統の中での運用が確保できる構想となっているか。 
・ 人間の関与が及ばない完全自律型の致死性を有する兵器システムの開発ではないか。 

 

図5 法的・政策的審査体制イメージ

1_20250607063901

技術的審査 表3 要件Bの審査項目(基準)

  確認項目 
B-1 
人間の責任の明確化 
 
・ AIシステムの利用に際して適切なタイミングと程度において、運用者の関与や運用者による適切な制御が可能となるように設計されているか。 
・ AIシステムと運用者それぞれの役割が明確に定義されているか。 
・ 運用者が負うべき責任が明確に定義されているか。 
B-2 
運用者の適切な理解の醸成 
 
・ AIシステムの挙動、パフォーマンス範囲、操作等に運用者が習熟して当システムを適切に使用できるように設計されているか。 
・ AIシステムへの過度の依存を防ぐための対策が設計されているか。 
・ AIシステムのモニタリング時に、運用者が不具合を認めたときにそれを改善することを可能とする仕組みが設計されているか。 
B-3 
公平性の確保 
・ データセットの公平性要件が明確化されているか。 
・ AIモデルに関連するバイアスが許容レベルを超えないか確認するとともに、不具合が認められた場合の改善の仕組みが設計されているか。 
B-4 
検証可能性、透明性の確保 
・ AIシステムの構築に係る過程、使用した手法・データ・アルゴリズム等が明確化され、その妥当性を後に検証可能な仕組みが整備されているか。 
・ 研究開発体制(事業者含む。)において、説明責任を果たす責任者を明確化しているか。 
B-5 
信頼性、有効性の確保 
   
・ AIシステムの信頼性を確保するために、多様な指標を用いた試験評価を実施しているか。 
・ 開発初期から研究開発終了までの全ての期間において、運用を想定したデータセットを使用することが検討されているか。 
・ 運用を想定して、AIに連接する装備品等の信頼性を損なうことなく、AIを適用できることを設計において担保されているか。 
・ AIシステムが容易に維持管理できる設計となっているか。 
・ AIシステムに対してセキュリティ管理策の実施が検討されているか。 
B-6 
安全性の確保 
・ AIシステムの誤作動や深刻な失敗・事故の発生を低減する安全機構が設計されているか。 
B-7 
国際法及び国内法の遵守が確保できないものでないこと 
・ 装備品等の運用に際して適用される国際法や国内法令、各種内部規則等から逸脱しないよう対策が検討されているか。 

 

図6 技術的審査体制イメージ

20250607-64325

 

図7 高リスクAI装備品等の標準的なリスク管理イメージ

1_20250607064401

 

図8 低リスクAI装備品等の標準的なリスク管理イメージ

1_20250607064501

 

表  要件Bのチェック項目に活用し得るRAI Toolkitの例

# RAI Toolkit 該当するチェック項目
ツール名称 ツール説明
Trust in Autonomous Systems Test
(TOAST)
システムに対する信頼度の評価 人間がシステムをどの程度信頼しているかを測定するための9つの質問からなるテスト。(例:私はシステムが何をすべきか理解している。
私はシステムの限界を理解している。等) [web]

B-2
運用者の適切な理解の醸成
Human-Machine
Teaming Systems Engineering Guide
システムの設計支援 システム開発者が人間のオペレーターと協力して機能するAIを設計するのを支援するガイド。
[web]
FairML AIモデルの公平性の診断・改善 AIモデルの予測結果に対して、性別や人種などの属性との関係を分析し、公平性を診断し、要因の特定、改善方法の提供を行うためのツールキット。AIモデルの予測結果の公平性を改善するために用いられる。
[web]

B-3
公平性の確保
Tensor Flow Fairness Indicators AIモデルの公平性の評価・改善 AIモデルの公平性に関する懸念を評価、改善、比較するためのツールキット。「公平性」とは、AIモデルが特定の属性(人種、性別、年齢など)に基づいて不当な差別をしないことを意味する。
[web]
What-If Tool AIモデル性能と公平性の評価 What-Ifツール(WIT)は、機械学習(ML)モデル、特に分類や回帰タスクにおいてブラックボックスシステムとして機能するモデルの理解と分析を支援する可視化ツール。
[web]
Explainer Dashboard AIモデルの解釈性向上 AIモデルの解釈性を高めるためのツールを提供するライブラリ。モデルの予測結果を視覚的に分析したり、特徴量の重要度を確認したりすることが可能。
[web] [web]

B-4
検証可能性、透明性の確保
InterpretML AIモデルの解釈性向上 機械学習の解釈可能性のための最新技術を一元的に包含するオープンソースのツール。このツールは、解釈可能なモデルを作成し、ブラックボックスシステムを説明する機能を提供する。モデルの全体的な振る舞いを理解したり、個々の予測の背後にある理由を理解したりすることが可能。
[web] [web]
Hugging Face
Data Card Template
データセットの透明性確保 データセットカードの作成手順を示すもの。データセットの内容、データセットを利用する背景、データセットの作成方法、その他利用者が注意すべき点を理解するのに役立つ。責任ある利用を促し、データセットに潜在する偏りを利用者に知らせることができる。
[web]
Hugging Face
Model Card Template
AIモデルの透明性確保 AIモデルを理解し、共有し、改善するためのフレームワーク。各モデルについて、その技術と設計方法を記述し、透明性・監査可能性を実現するのに役立つ。また、技術の適切な理解を示すために、設計手順が透明で監査可能であることを測定し示すのにも役立つ。
[web]
10 Threat Modeling Resource 脅威や脆弱性の特定・評価および対策の計画 AIの脅威モデリングのためのフレームワーク。AI機能のセキュリティを実現するために、脅威モデリングによってセキュリティレビューを実施し、それに基づいて推奨されるリスク軽減策を取り入れる。
[web]

B-5
信頼性、有効性の確保
11 EQUI(NE2) ニューラルネットワークの不確実性を定量化 モデルの予測における不確実性を可視化するツール。各予測の「信頼スコア(confidence score)」と「外れ値スコア(outlier score)」を提示し、モデルが通常のデータ範囲を超えた状況においてどの程度リスクが高まるかを評価することができる。モデルの精度を評価することだけでなく、データの偏りに対するモデルの頑健性を評価し、AIの適用可能な範囲を明確化することができる。
[web]
12 IBM Adversarial Robustness 360Attacks AIのセキュリティ強化 敵対的な攻撃を生成し、AIの信頼性(AIのセキュリティ)を高めるための堅牢性を訓練したり、攻撃成功率を計算してAIの信頼性(AIのセキュリティ)を測定し、示したりすることができるAIのセキュリティを守るためのPythonライブラリ。ユーザーが機械学習モデルやアプリケーションを、回避、汚染、抽出、推論といった敵対的な脅威から守り、評価するためのツールを提供する。TensorFlow、Keras、 PyTorch、scikit-learn、XGBoostなどのAIフレームワークをサポートしており、画像、表、音声、ビデオなどあらゆるデータタイプや、分類、物体検出、音声認識、生成、認証などのAIタスクに対応。
[web] [web]
13 Drift Tools AI機能の信頼性とガバナンスの支援 Drift Tools のアルゴリズムを AI機能に組み込んで、AI機能のパフォーマンスが保証されていない分布外の入力を検出し、AIの信頼性(有効性)と意図しない結果を検出する能力の実現を支援するPythonライブラリ。
外れ値、敵対的攻撃の検出(Adversarial detection:機械学習モデルに対する攻撃を検出し、防御するプロセス)、及びドリフト検出(Drift detection:機械学習モデルの学習データの統計的分布と、実際に遭遇するデータの分布との間に生じる変化を検出するプロセス)に特化している。
[web] [web]
B-2
運用者の適切
な理解の醸成
B-5
信頼性、有効性の確保
14 Python Outlier Detection (PyOD) 多変量データにおける異常値の検出 PyOD(Python Outlier Detection)は、多変量データにおける異常値を検出するための包括的かつスケーラブルなPythonライブラリ。このライブラリは、小規模プロジェクトから大規模データセットまで、さまざまなニーズに対応するための幅広いアルゴリズムを提供する。
[web] [web]
B-6
安全性の確保

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.04.21 欧州議会 防衛とAI

・2025.04.07 米国 上院軍事委員会 AIのサイバー能力の活用に関する証言 (2025.03.25)

・2025.01.18 米国 商務省産業安全保障局 人工知能普及のための枠組み(特定のAIの輸出規制...)

・2024.09.22 中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)

・2024.08.09 米国 国防大学出版局 統合軍クオータリー 「認知戦」

・2023.09.20 米国 GAO 人工知能の活用と急成長がその可能性と危険性を浮き彫りにする

・2023.09.10 カーネギーメロン大学ソフトウェア工学研究所 新たなテクノロジー:国防総省におけるソフトウェアの未来を変える7つのテーマ (2023.08.24)

・2023.08.16 Atlantic Council:現代の軍隊はどのようにAIを活用しているか

・2023.08.13 米国 国防総省 CDAOが国防総省の新しい生成的AIタスクフォース(タスクフォース・リマ)の指揮を執る

・2023.06.15 米国 GAO 科学技術スポットライト:生成的AI

・2020.08.10 AIと将来の軍事力についての中国の視点

・2020.06.07 米国国防省 人工知能が戦争をかえると予測

 

 

| | Comments (0)

2025.03.12

個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第315 - 316回委員会)(2025.03.05)

こんにちは、丸山満彦です。

いろいろあって、このところ一週間おくれてますが...個人情報保護法のいわゆる3年ごとの見直しの件について、ちょっとアップデートです...

 

第315回では、[PDF]「個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方」ということで、

 

1. 特定の個人に対する働きかけが可能となる個人関連情報に関する規律の在り方

2. 本人が関知しないうちに容易に取得することが可能であり、一意性・不変性が高いため、本人の行動を長期にわたり追跡することに利用できる身体的特徴に係るデータ(顔特徴データ等)に関する規律の在り方

3. 悪質な名簿屋への個人データの提供を防止するためのオプトアウト届出事業者に対する規律の在り方

が議論されたようです...

 

第316回では、「個人情報保護法の制度的課題に対する考え方(案)」について議論が進められれたようですね...

資料1−3「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要 はとても興味深いですね...意見を提出した方の名前が...

 

資料1-1 個人情報保護法の制度的課題に対する考え方(案)について
資料1-2 個人情報保護法の制度的課題の再整理

 

20250312-132512

資料1-3 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要

 

 

⚫︎ 個人情報保護委員会

委員会開催状況

 

   
2025.03.05 第316回個人情報保護委員会
資料1-1 個人情報保護法の制度的課題に対する考え方(案)について
資料1-2 個人情報保護法の制度的課題の再整理
資料1-3 「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見の概要
  議事概要
  議事録
2025.02.09 第315回個人情報保護委員会
資料1 個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)
  議事概要
  議事録
2025.02.05 第314回 個人情報保護委員会
資料1 個人情報保護法の制度的課題に対する考え方(案)について
  議事概要
  議事録
2025.01.22 第312回 個人情報保護委員会
資料1-1 「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について(案)
資料1-2 個人情報保護法の制度的課題の再整理
  議事概要
  議事録
2024.12.25 第311回 個人情報保護委員会
資料1 個人情報保護法のいわゆる3年ごと見直しに関する検討会 報告書
  議事概要
  議事録
2024.12.18 第7回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 現行制度と検討の方向性について(課徴金制度③)
資料2 検討会報告書(案)
参考資料1 これまでの主な論点及び関連御意見
参考資料2 第2回~第6回検討会における主な御意見
参考資料3 関係参考資料
参考資料4 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」に関するヒアリングの概要について
議事録 第7回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.12.17 第310回 個人情報保護委員会
資料1-1 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」 に関するヒアリングの概要について
資料1-2 事務局ヒアリングにおける主な御意見
参考資料1-1  
参考資料1-2 事務局ヒアリングの各参加者提出資料
  議事概要
  議事録
2024.11.28 第6回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 現行制度と検討の方向性について(課徴金制度②)
資料2 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度③)
資料3 これまでの主な論点及び関連御意見 (PDF : 2006KB)
参考資料1 第2回~第5回検討会における主な御意見
議事録 第6回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.11.12 第5回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 国内他法令における課徴金額の算定方法等について
資料2 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度②)
資料3 認定個人情報保護団体制度について
資料4 第4回までの主な論点及び関連意見 
資料5 個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点・今後の検討の進め方
参考資料1 第2回~第4回検討会における主な御意見
参考資料2 関係参考資料 
議事録 第5回個人情報保護法のいわゆる3年ごと見直しに関する検討会
2024.10.16 第304回 個人情報保護委員会
資料1-1 個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点(案) 
資料1-2 今後の検討の進め方
  議事概要
  議事録 
2024.10.11 第4回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第
資料1 全国消費生活相談員協会プレゼン資料 
資料2 中川構成員プレゼン資料 
資料3 第3回事務局資料に対する御質問と考え方
参考資料1 第2回及び第3回検討会における主な御意見 
参考資料2 関係参考資料
前回資料1ー1 総合的な案内所(個人情報保護法相談ダイヤル)における受付状況 
前回資料1ー2 名簿販売事業者に対する個人情報の保護に関する法律に基づく行政上の対応について
前回資料2 個人情報保護法の違反行為に係る事例等 
前回資料3 現行制度と検討の方向性について(課徴金制度)
前回資料4 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度)
議事録 第4回個人情報保護法のいわゆる3年ごと見直しに関する検討会 
2024.09.26 第3回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
  議事次第 
資料1-1 総合的な案内所(個人情報保護法相談ダイヤル)における受付状況 
資料1-2 名簿販売事業者に対する個人情報の保護に関する法律に基づく行政上の対応について 
資料2 個人情報保護法の違反行為に係る事例等 
資料3 現行制度と検討の方向性について(課徴金制度)
資料4 現行制度と検討の方向性について(団体による差止請求制度及び被害回復制度)
参考資料1 第2回検討会における主な御意見 
参考資料2 個人情報の保護に関する基本方針
参考資料3 個人情報の保護に関する法律に基づく行政上の対応について(令和6年9月11日公表資料)
参考資料4 関係参考資料 
議事録 第3回個人情報保護法のいわゆる3年ごと見直しに関する検討会 
2024.09.05 第2回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
資料1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果
資料2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果(概要)
資料3 今後の検討の進め方
資料4 監視・監督活動及び漏えい等報告に関する説明資料
参考資料1 第1回検討会における主な意見
参考資料2 第1回検討会における主な質問及び回答
参考資料3 関係参考資料 
 議事録  
 2024.09.04 第299回 個人情報保護委員会
資料1-1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果
資料1-2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」に関する意見募集結果(概要)
 議事概要  
 議事録  
2024.07.31 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会
資料1 開催要綱(案)
資料2 主婦連合会御提出資料
資料3 新経済連盟御提出資料
資料4 全国消費者団体連絡会御提出資料
資料5 全国消費生活相談員協会御提出資料
資料6 日本IT 団体連盟御提出資料
資料7 日本経済団体連合会御提出資料
参考資料1 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」概要
参考資料2 「個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理」本文
議事録  
2024.07.24 第296回 個人情報保護委員会
資料1 個人情報保護法のいわゆる3年ごと見直しに関する検討会の設置について
議事概要  
議事録  
 2024.06.26  第292回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理(案)
【委員長預かりで会議後に修正した資料】 資料1 個人情報保護法 いわゆる3年ごと見直しに係る検討の中間整理
資料2−1 日EU相互認証の枠組みの拡大に向けた対応について
資料2−2 個人情報保護委員会藤原靜雄委員長と欧州委員会ベラ・ヨウロバー副委員長(価値・透明性担当)の会談に関する共同プレス・ステートメント(英語)
資料2−3 個人情報保護委員会藤原靜雄委員長と欧州委員会ベラ・ヨウロバー副委員長(価値・透明性担当)の会談に関する共同プレス・ステートメント(日本語仮訳)
資料3 一般送配電事業者及び関係小売電気事業者等における顧客情報の不適切な取扱事案に対する個人情報の保護に関する法律に基づく行政上の対応について
議事概要  
議事録  
2024.06.13 第290回 個人情報保護委員会
資料1-1 第二次いわゆる3年ごと見直しへのコメント(ひかり総合法律事務所 板倉弁護士)
資料1-2 デジタル社会の個人情報保護法(新潟大学 鈴木教授)
議事概要  
議事録  
2024.06.12 第289回 個人情報保護委員会
資料1-1 個人情報保護委員会「いわゆる3年ごと見直し」ヒアリング(国立情報学研究所 佐藤教授) 
資料1-2 個人情報保護法3年ごと見直し令和6年に対する意見(産業技術総合研究所 高木主任研究員)
議事概要  
議事録  
2024.06.03 第287回 個人情報保護委員会
資料1-1 個人情報保護法見直しに関するコメント(京都大学 曽我部教授)
資料1-2 いわゆる3年ごと見直しに関する意見(慶應義塾大学 山本教授) 
資料1-3 3年ごと見直しヒアリング2024(英知法律事務所 森弁護士) 
資料1-4-1 個人情報保護法のいわゆる3年ごと見直しに関する意見(東京大学 宍戸教授)
資料1-4-2 宍戸常寿氏御提出資料(令和元年5月21日提出)
議事概要  
議事録  
2024.05.29 第286回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方③)
議事概要  
議事録  
2024.05.15 第284回 個人情報保護委員会
資料2 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(データ利活用に向けた取組に対する支援等の在り方)
資料3 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方②)
議事概要  
議事録  
2024.05.10 第283回 情報保護委員会
資料1-1 個人情報保護法における課徴金制度導入にかかる諸論点(名古屋大学 林教授)
資料1-2 個人情報保護法における法執行の強化について(神戸大学 中川教授)
議事概要  
議事録  
2024.04.24 第281回 個人情報保護委員会
資料1 個人情報保護法の3年ごと見直しに対する意見
資料2 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方③)
議事概要  
議事録  
2024.04.10 第280回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方② )
議事概要  
議事録  
2024.04.03 第279回 個人情報保護委員会
資料1―1 AIと個人情報保護:欧州の状況を中心に(一橋大学 生貝教授) 
資料1―2 AI利用と個人情報の関係の考察(NTT社会情報研究所 高橋チーフセキュリティサイエンティスト)
資料1−3 医療情報の利活用の促進と個人情報保護(東京大学 森田名誉教授)
資料1―4 医療・医学系研究における個人情報の保護と利活用(早稲田大学 横野准教授)
議事概要  
議事録  
2024.03.22 第277回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(実効性のある監視・監督の在り方①)
議事概要  
議事録  
2024.03.06 第275回 個人情報保護委員会
資料1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)
議事概要  
議事録  
2024.02.21 第273回 個人情報保護委員会
資料4 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討項目
【委員長預かりで会議後に修正した資料】資料4 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討項目
議事概要   
議事録   
2024.02.14 第272回 個人情報保護委員会
資料2-1 地方公共団体における個人情報保護法運用状況のヒアリング(京都府総務部政策法務課)
資料2-2 岡山市における個人情報保護法の運用状況(岡山市総務局行政事務管理課)
資料2-3 個人情報保護法運用状況について(都城市総務部総務課)
資料2-4 個人情報保護法運用状況について(上里町総務課)
議事概要  
議事録  
2024.02.07 第271回 個人情報保護委員会
資料1 インターネット広告における個人に関する情報の取扱いについての取組状況(日本インタラクティブ広告協会)
議事概要   
議事録  
2024.01.31 第270回 個人情報保護委員会
資料2 個人情報保護法の3 年ごと見直しに対する意見(日本経済団体連合会)
議事概要  
議事録   
2024.01.23 第268回 個人情報保護委員会
資料1―1 (特定)適格消費者団体の活動について(消費者支援機構関西)
資料1―2 個人情報保護委員会ヒアリング資料(日本商工会議所)
議事概要  
議事録  
2023.12.21 第266回 個人情報保護委員会
資料1―1 個人情報保護法の3年ごと見直しに関する意見(電子情報技術産業協会)
資料1―2 ヒアリング資料(全国商工会連合会)
議事概要  
議事録  
2023.12.20 第265回 個人情報保護委員会
資料1―1 ACCJ Comments for the Personal Information Protection Commission Public Hearing(在米国商工会議所)
資料1―2 公開ヒアリングに向けたACCJ意見(在米国商工会議所)
議事概要  
議事録  
2023.12.15 第264回 個人情報保護委員会
資料1―1 個人情報保護法の見直しについて(新経済連盟)
資料1―2 個人情報保護法見直しに関する意見(日本IT団体連盟) 
議事概要  
議事録  
2023.12.06 第263回 個人情報保護委員会
資料2 個人情報保護法に関する欧州企業の代表的な課題(欧州ビジネス協会)
議事概要  
議事録   
2023.11.29 第262回 個人情報保護委員会
資料1 ヒアリング資料(一般社団法人日本情報経済社会推進協会)
議事概要  
議事録   
2023.11.15 第261回 個人情報保護委員会
資料2-1 個人情報保護法 いわゆる3年ごと見直し規定に基づく検討 
資料2-2 個人情報保護に係る主要課題に関する海外・国内動向調査 概要資料
議事概要  
議事録  

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2025.02.10 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第314回委員会)

・2025.01.23 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第311-312回委員会)

・2024.12.20 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第310回委員会、第6-7回検討会)

・2024.11.26 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第304回委員会、第3-5回検討会)

・2024.09.06 個人情報保護委員会 いわゆる3年ごと見直しに係る検討関係(第299回委員会、第2回検討会)

・2024.08.04 個人情報保護委員会 第1回 個人情報保護法のいわゆる3年ごと見直しに関する検討会

・2024.06.28 個人情報保護委員会 意見募集 いわゆる3年ごと見直しに係る検討の中間整理

・2024.06.04 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中... (2)

・2024.04.25 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング、検討中...

・2024.01.06 個人情報保護委員会 個人情報保護法の3年ごとの見直しに関する意見をヒアリング中...

 

 

| | Comments (0)

2025.03.04

英国 サイバーエッセンシャルズ 小規模の弁護士事務所・新興技術企業への助成

こんにちは、丸山満彦です。

英国では、サイバーエッセンシャルズという英国政府((国家サイバーセキュリティセンター;NCSC)が主導するサイバーセキュリティの簡易な認証制度があります。これには2種類あって、自主宣言のものと、プラスといわれる第三者認証のあるものです。2014年から開始されています。。。

それぞれ、5万社弱、1万社弱の認証がおこなわれているようです。

現在、英国のNCSCが、小規模の弁護士事務所と新興技術企業に対して、サイバーエッセンシャル・プラスを達成するためのアドバイザーによる実践的なサポートを無料で提供すると公表していますね...(ただし、予算範囲内...)

この、無料支援サービスは、アドバイザーによる約20時間の遠隔サポートを受けることができるとのことです。組織の規模やニーズに合った改善を特定・実施し、サイバーエッセンシャルズの5つの技術的管理策の実施を支援してくれるようです。

日本のサプライチェーンのセキュリティ対策保護のための、認証制度を経産省で検討していますが、サイバーエッセンシャルズも参考にされていますが、普及啓発活動として、こういう活動も参考になりますね...

1_20240502191201

 

認証機関のウェブページ

IASME

1_20250304062801

Funded Cyber Essentials Programme

 

Funded Cyber Essentials Programme サイバー・エッセンシャル助成プログラム
What is the funded Cyber Essentials Programme? サイバー・エッセンシャル助成プログラムとは?
Small organisations from specific sectors in the UK are being invited to take part in the Funded Cyber Essentials Programme. 英国の特定分野の小規模組織は、資金提供付きサイバー・エッセンシャル・プログラムへの参加を呼びかけられている。
All modern businesses face a threat from cyber attack but some organisations have a particularly increased risk. This might be because they hold sensitive information about the people that they work with, or they are perceived as an easy target by cyber criminals. 現代の企業はすべてサイバー攻撃の脅威に直面しているが、特にリスクが高まっている組織もある。その理由としては、従業員に関する機密情報を保有していたり、サイバー犯罪者に狙われやすいと認識されていたりすることが挙げられる。
For those sectors most at risk, the NCSC is launching a Funded Cyber Essentials Programme. This scheme aims to provide vulnerable organisations with help to implement baseline security controls to prevent the most common types of cyber attack. NCSCは、最もリスクの高いセクターに対して、資金提供付きサイバー・エッセンシャルズ・プログラムを開始する。このスキームは、最も一般的なタイプのサイバー攻撃を防止するための基本的なセキュリティ対策を実施するための支援を脆弱性組織に提供することを目的としている。
Spaces on the programme are in high demand. このプログラムの参加枠は非常に需要が高い。
Please submit your expression of interest without delay as spaces will fill quickly and are not guaranteed. 参加枠はすぐに埋まり、保証はされないので、興味のある方はお早めに。
How does it work? プログラムはどのように行われるのか?
The programme will offer practical support from an Advisor to achieve Cyber Essentials Plus at no cost to the organisation. Please note, this does not include the cost of any additional software or hardware identified by the Advisor that is required to achieve Cyber Essential Plus. このプログラムでは、Cyber Essentials Plusを取得するためのアドバイザーによる実践的なサポートを、組織に対して無料で提供する。ただし、サイバー・エッセンシャル・プラスを達成するために必要な、アドバイザーによる追加のソフトウェアやハードウェアの費用は含まれない。
Qualifying organisations will receive around 20 hours of remote support with an Advisor. This time will be spent identifying and implementing improvements that are right for the size and needs of the organisation and supporting them in implementing the 5 Cyber Essentials technical controls. This will be followed by a hands-on technical verification that the controls have been put in place.  対象となる組織は、アドバイザーによる約20時間の遠隔サポートを受ける。この時間は、組織の規模やニーズに適した改善を特定・実施し、サイバー・エッセンシャル・テクニカル・コントロール5項目の実施をサポートするために費やされる。その後、技術的な検証が行われる。
If it is not possible for the organisation to achieve Cyber Essentials Plus, the Advisor will help organisations implement as many of the technical controls as possible and give the organisation a clear list of the additional actions they need to undertake to become compliant. The scheme is designed to lead an organisation through the technical controls required to achieve Cyber Essentials certification, followed by the audit for Cyber Essentials Plus. No previous cyber security certification or experience is necessary. 組織がサイバー・エッセンシャルズ・プラスを達成することが不可能な場合、アドバイザーは組織が可能な限り多くの技術的統制を実施するのを支援し、準拠するために実施すべき追加措置の明確なリストを組織に提供する。このスキームは、Cyber Essentials認証の取得に必要な技術的コントロールを通して組織を導き、その後Cyber Essentials Plusの審査を受けるように設計されている。サイバーセキュリティに関する資格や経験は必要ない。
Who is eligible for support? 誰がサポートの対象となるのか?
The Funded Cyber Essentials programme is open to all registered barristers or advocates and recognised barristers’ chambers or advocates’ stables that meet the below criteria; 資金提供によるサイバー・エッセンシャル・プログラムは、以下の規準を満たすすべての登録弁護士または弁護人、公認弁護士事務所または弁護人の厩舎に開かれている;
The applicant must be a practising barrister or advocate within the jurisdiction of the relevant governing authority (The Bar Council – England & Wales, Faculty of Advocates – Scotland and The Bar of Northern Ireland) 申請者は、関連する統治機関(The Bar Council - England & Wales, Faculty of Advocates - Scotland and The Bar of Northern Ireland)の管轄区域内で開業している法廷弁護士または擁護者でなければならない。
If the applicant is not a practising barrister or advocate, then they must be employed in a direct role within a chambers or a stable. The applicant must be in a role that provides support services to said chambers or stable (for example, practice manager, chambers manager, stable clerk, head of administration) 申請者が開業法廷弁護士または擁護者でない場合は、法廷または厩舎で直接雇用されていなければならない。申請者は、当該会議所または厩舎にサポートサービスを提供する職務(例えば、プラクティス・マネージャー、会議所マネージャー、厩舎事務員、管理責任者)
AND meet the following criteria: 以下の規準を満たす必要がある:
・must be a UK micro or small business (1 to 49 employees) ・英国の零細企業または中小企業(従業員数1~49名)であること
・has not previously participated in the NCSC Funded Cyber Essentials Programme ・NCSC Funded Cyber Essentials Programmeに過去に参加したことがないこと
・does not currently hold Cyber Essentials Plus (CE+) certification, has not been awarded CE+ certification since January 2024 and is not currently in the process of applying for CE+ certification ・現在Cyber Essentials Plus(CE+)認証を取得していないこと、2024年1月以降CE+認証を取得し ていないこと、現在CE+認証申請中でないこと
The Funded Cyber Essentials programme is also open to Emerging Technology organisations that meet the below criteria; Funded Cyber Essentialsプログラムは、以下の規準を満たすEmerging Technology組織にも開かれている。
To qualify for this scheme, companies must be a micro or small business (1 to 49 employees) registered in the UK and working on: このスキームの対象となるには、英国で登録された零細企業または中小企業(従業員数1~49名)であり、以下の業務に取り組んでいる必要がある:
Artificial Intelligence – The development of fundamental Artificial Intelligence (AI) technologies, OR the innovative application of Artificial Intelligence technologies in the following sectors: Public safety and health, Defence and security. 人工知能 - 基本的な人工知能(AI)技術の開発、または以下の分野における人工知能技術の革新的な応用: 公共の安全と健康、防衛と安全保障。
Quantum – The development of novel Quantum technologies. 量子 - 新規量子技術の開発。
Semiconductors – The design, development or manufacturing of semiconductors / semiconductor IP blocks. 半導体 - 半導体/半導体IPブロックの設計、開発、製造。
Engineering/Synthetic Biology – The development of Engineering Biology or Synthetic Biology. エンジニアリング/合成生物学 - エンジニアリング生物学または合成生物学の開発。
Advanced Materials – Companies involved in developing advanced materials that have enhanced properties and performance, often incorporating new compositions or structures to improve strength, durability, lightweight, or functionality for specific applications**. 先端材料 - 強度、耐久性、軽量性、機能性を向上させるための新しい組成や構造を特定の用途**に組み込むことで、特性や性能を向上させた先端材料の開発に携わる企業。
Advanced Robotics– Companies involved in the development of autonomous robotics that can perform complex tasks and adapt to novel environments using advanced technologies. 先進ロボット - 複雑な作業をこなし、先進技術を駆使して新しい環境に適応できる自律型ロボットの開発に携わる企業。
Fusion Energy – Companies involved in the development of methods and systems designed to harness the energy produced by nuclear fusion***. 核融合エネルギー - 核融合によって生み出されるエネルギーを利用するための方法やシステムの開発に携わる企業***。
Satellite and Space Technologies – Companies involved in the development, deployment, and utilisation of satellites and related systems for various applications, including communication, navigation, Earth observation, and scientific research. This may include satellite design, launch systems or ground control operations. 衛星・宇宙技術 - コミュニケーション、ナビゲーション、地球観測、科学研究など、さまざまな用途の衛星や関連システムの開発、展開、利用に携わる企業。これには、衛星の設計、打上げシステム、地上管制業務などが含まれる。
Specialist National Security Applications/Solutions – Companies must also be in one of the 17 defined sensitive areas of the economy covered by the Notifiable Acquisition Regulations under the National Security and Investment Act. Each application under this category will be considered on merit & a discretionary basis. 国家安全保障に特化したアプリケーション/ソリューション - 企業は、国家安全保障・投資法に基づく通知可能な取得規制の対象となる、17の定義された敏感な経済分野のいずれかに属していなければならない。このカテゴリーにおける各申請は、メリットと裁量に基づいて検討される。
Advanced Manufacturing – involves the use of innovative technologies (such as digital and automation tools), or advanced materials (such as composites), to enhance production processes and improve efficiencies. It may also involve the use of other technologies (AI, Robotics, Data Analytics) to provide improve manufacturing customisation processes and precision. 先進製造業 - 革新的な技術(デジタルツールや自動化ツールなど)や先進材料(複合材料など)を使用し、製造工程を強化し、効率を改善する。また、他の技術(AI、ロボット工学、データ分析)を使用して、製造工程のカスタマイズや精度の改善を行うこともある。
AND meet the following criteria: 以下の規準を満たすこと:
・Has not previously participated in the NCSC Funded Cyber Essentials Programme ・過去に NCSC Funded Cyber Essentials Programme に参加したことがない
・Does not currently hold Cyber Essentials Plus (CE+) certification, has not been awarded CE+ certification since January 2023 and is not currently in the process of applying for CE+ certification ・現在、Cyber Essentials Plus(CE+)認証を取得していない、2023 年 1 月以降に CE+認証を取得していない、現在 CE+認証申請中でない
** These may include: ** これには以下が含まれる:
Nanomaterials ナノ材料
Composites 複合材料
Advanced Metals and Alloys 先端金属・合金
Smart Materials スマート材料
Biomaterials 生体材料
*** These may include: *** これらには以下が含まれる:
Magnetic Confinement Fusion 磁場閉じ込め核融合
Inertial Confinement Fusion 慣性閉じ込め核融合
Stellarators ステラレータ
Hybrid Systems ハイブリッドシステム

 

 

Cyber Essentials

まるちゃんの情報セキュリティ気まぐれ日記

・2024.12.23 英国 Cyber Essentials 2025.04.28以降の要求事項等について...

・2024.08.20 英国 サイバーエッセンシャル発行数 (2023.07-2024.06)

・2023.08.17 英国 国家サイバー戦略 2022 の進捗報告 (2022-2023)

・2023.07.13 英国 小規模企業のサイバーセキュリティをサポート:サイバーアドバイザリー制度 (2023.04.17)

・2023.02.21 英国 NCSC サプライチェーン・マッピングのガイダンスを公表しています。。。(2023.02.16)

・2021.11.22 英国 サプライチェーンとマネージドサービスプロバイダーのサイバーセキュリティについての質問に対する回答 at 2021.11.15

・2020.10.11 UK National Cyber Security Centreがスモールビジネス向けサイバーセキュリティガイド改訂版を公開していますね。。。(Cyber Essentials認定も意識して

 

 

 

| | Comments (0)

より以前の記事一覧