« 第78回 国連総会 トップ等の発言... | Main | NIST IR 8441 ハイブリッド衛星ネットワーク(HSN)のサイバーセキュリティ・フレームワーク・プロファイル »


英国 RUSI 中国と英国はいかにして世界のAI言説を形成しようとしているのか


英国のRoyal United Services Institute; RUSI [wikipedia ] のブログで、11月に英国で開催されるAIサミットに中国を招待することを踏まえて?以下の記事を公開していますね。。。



Royal United Services Institute; RUSI

・2023.09.25 How China and the UK are Seeking to Shape the Global AI Discourse


How China and the UK are Seeking to Shape the Global AI Discourse 中国と英国はいかにして世界のAI言説を形成しようとしているのか
While China has recently launched a ChatGPT alternative and become the first country to regulate generative AI, the UK is struggling to find a united voice ahead of its AI safety summit in November. Although both countries are determined to be leaders in AI technologies, the UK government has now confirmed that China will be invited to the summit to cooperate on the national security threats posed by AI. 中国が最近、ChatGPTの代替案を発表し、生成的AIを規制する最初の国になった一方で、英国は11月に開催されるAI安全サミットを前に、一致団結した声を見つけるのに苦労している。両国はAI技術のリーダーになることを決意しているが、英国政府は現在、AIがもたらす国家安全保障上の脅威について協力するため、中国をサミットに招待することを確認している。
High expectations about China’s technological prowess meant that technology experts and AI enthusiasts looked on with interest as Beijing granted regulatory approval for the public rollout of a ChatGPT alternative, the ERNIE 3.5 chatbot, in late August. 中国の技術力に対する期待は高く、8月下旬に北京がChatGPTに代わるチャットボット「ERNIE 3.5」の一般公開を規制当局から承認したことを、技術専門家やAI愛好家たちは興味深く見守った。
In March, the Chinese tech giant Baidu launched ERNIE’s highly anticipated predecessor, the 3.0 version, to much fanfare. While this early version revealed the shortcomings of a less sophisticated technology that was perhaps too immature to be released, the August launch showed improvements, despite significant differences with its US competitor: Chinese large language models (LLMs) are thought to be two to three years behind the state-of-the-art equivalent in the US. ChatGPT unavailability to Chinese consumers has created an appetite for homegrown alternatives. Far from being the only player, Baidu is one of many companies in China that have released LLMs in an attempt to jump on the ChatGPT bandwagon. 中国の巨大テック企業バイドゥは3月、ERNIEの待望の前身である3.0バージョンを発表し、大きな反響を呼んだ。この初期バージョンは、おそらくリリースするには未熟すぎるほど洗練されていない技術の欠点を明らかにしたが、8月の発表では、米国の競合製品との大きな違いはあるものの、改善が見られた: 中国の大規模言語モデル(LLM)は、米国の最先端の同等のものから2~3年遅れていると考えられている。中国の消費者がChatGPTを利用できないことで、国産の代替品への需要が高まっている。バイドゥは、ChatGPTの時流に乗ろうとしてLLMをリリースした多くの中国企業のひとつである。
Technology as an Enabler of China’s Geopolitical Ambitions 中国の地政学的野心を実現するテクノロジー
Having identified technology as a source of economic and military power, China under Xi Jinping has made no mystery of its intentions to scale up key strategic industries and become a world-class tech power. China’s 2017 AI development plan clearly states its intention to become ‘the world’s main artificial intelligence innovation centre’ by 2030. Beijing has nurtured world-leading companies in AI, like those working on computer vision and its applications, which are instrumental to its ever-expanding surveillance state. With generative AI, the flurry of LLM rollouts shows that China wants to be anything but a passive observer, seeking to seize the political and commercial benefits of this field as well. 習近平政権下の中国は、テクノロジーを経済力と軍事力の源泉と位置づけ、主要な戦略産業を拡大し、世界トップクラスのハイテク大国になるという意図を隠さない。中国の2017年AI発展計画には、2030年までに「世界の主要な人工知能イノベーションセンター」になるという意図が明確に記されている。北京は、拡大し続ける監視国家に不可欠なコンピューター・ビジョンとその応用に取り組む企業のように、AIの分野で世界をリードする企業を育ててきた。生成的AIでは、LLMの慌ただしい展開は、中国が受動的な傍観者ではなく、この分野の政治的・商業的利益をも掴もうとしていることを示している。
But this AI frenzy is not limited to technological innovation: it also involves crucial steps on governance. While multiple calls for regulations and control of proliferating AI technologies make headlines in the West, China has gained a head-start by becoming the first country in the world to regulate generative AI this summer. しかし、このAIの熱狂は技術革新にとどまらず、ガバナンスの面でも重要なステップを踏んでいる。欧米では、拡散するAI技術に対する規制や管理を求める声が何度も話題になっているが、中国はこの夏、世界で初めて生成的AIを規制する国となり、先手を打った。
Becoming an AI superpower remains an ambitious goal, especially considering the current state of the UK AI policy landscape AI大国となることは、特に英国のAI政策の現状を考えると、野心的な目標であることに変わりはない。
Given that the Chinese Communist Party’s (CCP) political security rests on its ability to control and manipulate the domestic information space, it is hardly surprising that China is pushing to regulate AI-generated content. Legislative requirements impose security assessments for algorithms with ‘public opinion or social mobilisation attributes’ and require AI-generated content to ‘adhere to core socialist values’ and ‘not incite the subversion of state power’. Such obligations are apparent in the censorship capabilities of Chinese-developed chatbots: in its 3.5 version, ERNIE eschews political questions that are deemed too sensitive – albeit leaving room for peculiar foreign policy takes. 中国共産党(CCP)の政治的安全保障が、国内の情報空間を管理・操作する能力にかかっていることを考えれば、中国がAI生成的コンテンツの規制を推進していることは驚くにはあたらない。立法上の要件として、「世論や社会動員の属性」を持つアルゴリズムには安全性評価を課し、生成的AIコンテンツには「社会主義の中核的価値観を遵守」し、「国家権力の転覆を扇動しない」ことを求めている。このような義務は、中国が開発したチャットボットの検閲機能にも表れている。3.5版では、ERNIEは敏感すぎるとみなされる政治的な質問を避けているが、独特の外交政策を取る余地は残されている。
Idiosyncratic provisions aside, China’s finalised AI regulations also mandate companies to take effective measures to prevent discrimination, to protect intellectual property rights and to guarantee the privacy of personal information, echoing concerns about structural racismcopyright infringements and the massive collection and storage of personal data that have been voiced in the West as well. 特異な規定はさておき、中国が最終決定したAI規制は、差別を防止し、知的財産権を保護し、個人情報のプライバシーを保証するための効果的な措置を講じることを企業に義務付けている。これは、構造的な人種差別、著作権侵害、個人データの大規模な収集と保存に対する懸念が欧米でも声高に叫ばれていることを反映したものだ。
China’s first-mover advantage in generative AI means that Chinese companies can fine-tune their LLMs to what the CCP considers China’s national priorities from the initial stages of technology development. These include both mitigating potential societal and political fallout, as well as signalling policy direction to develop AI applications that can serve the real economy, such as in the medical industry, the transport sector or the mining industry. 生成的AIにおける中国の先行者優位性は、中国企業が技術開発の初期段階から中国共産党が考える中国の国家的優先事項に合わせてLLMを微調整できることを意味する。これには、潜在的な社会的・政治的影響を低減させるだけでなく、医療産業、運輸部門、鉱業など、実体経済に役立つAIアプリケーションを開発するための政策の方向性を示すことも含まれる。
Much Ado About the AI Summit AIサミットの話題
Meanwhile, the UK is equally keen on playing a key role in the AI landscape. In its National AI Strategy, the UK government has set itself the aim of becoming a ‘global AI superpower’. The UK hosts several promising AI technology companies and research institutes, and seeks to further strengthen its AI capabilities with the help of the Frontier AI Taskforce. Becoming an AI superpower, however, remains an ambitious goal, especially considering the current state of the UK AI policy landscape. 一方、英国も同様に、AI分野で重要な役割を果たそうとしている。英国政府は国家AI戦略の中で、「世界的なAI大国」になることを目標に掲げている。英国は有望なAIテクノロジー企業や研究機構をいくつか抱えており、「フロンティアAIタスクフォース」の支援を受けてAI能力をさらに強化しようとしている。しかし、AI大国になることは、特に英国のAI政策の現状を考慮すると、野心的な目標であることに変わりはない。
Having the best intentions for future action is insufficient when it comes to technologies that develop as quickly – and that are of as much geopolitical and strategic importance – as AI AIのように急速に発展し、地政学的・戦略的に重要な技術に関しては、将来の行動に対して最善の意図を持つことは不十分である。
After several reshuffles of both competencies and staff, the newly founded Department of Science, Innovation and Technology – together with teams from Number 10 and the Foreign, Commonwealth and Development Office – is now putting together the world’s first AI summit on safety. With the summit scheduled for 1–2 November this year, those in charge of securing an impressive guest list and an agenda that can meet the high expectations set out are under enormous time pressure. It is no surprise that public confidence in the summit is low, especially as it has taken the government months to even announce a date and location. After weeks of speculation, China has been officially invited to the summit in order to address mutual concerns over AI’s risks to national security. However, the extent to which Beijing will be able to participate remains unclear. 何度かの権限とスタッフの入れ替えを経て、新たに設立された科学技術革新省は、ナンバー10と外務・英連邦・開発省のチームとともに、安全に関する世界初のAIサミットを開催しようとしている。サミットは今年11月1日〜2日に予定されており、豪華なゲストリストと、設定された高い期待に応えられるアジェンダを確保する担当者は、大きな時間的プレッシャーにさらされている。特に、政府が日程と場所を発表するのに数カ月もかかっているのだから、サミットに対する国民の信頼が低いのは当然だ。数週間にわたる憶測の末、中国が正式にサミットに招待されたのは、国家安全保障に対するAIのリスクに対する相互の懸念に対処するためである。しかし、北京がどこまで参加できるかはまだ不透明だ。
Described by the prime minister as ‘the first major global summit on AI safety’, the summit was announced in June. At the time, the EU and the US announced an alliance on an AI code of conduct as part of the EU-US Trade and Technology Council. The UK is not a member of this council, and although it is part of G7 conversations on AI regulation, the announcement of an AI summit came at a strategically convenient but surprising time. Arguably, the additional UK AI summit is a duplication of other international efforts, but it is one way for the UK government to counter any narratives implying that the UK might be a bystander on AI standard-setting discussions. 首相が「AIの安全性に関する初の主要なグローバル・サミット」と表現したこのサミットは、6月に発表された。当時、EUと米国はEU・米国貿易技術協議会の一環として、AI行動規範に関する提携を発表した。英国はこの協議会のメンバーではなく、AI規制に関するG7の会話の一部ではあるが、AIサミットの発表は戦略的に都合の良い、しかし意外なタイミングで行われた。英国のAIサミットの追加は、他の国際的な取り組みと重複していることは否めないが、英国政府にとっては、英国がAIの標準設定に関する議論の傍観者である可能性を示唆するナラティブに対抗するひとつの方法である。
The problem is that having the best intentions for future action is insufficient when it comes to technologies that develop as quickly – and that are of as much geopolitical and strategic importance – as AI. The AI White Paper that the UK published a few months ago, for example, seems to have almost been forgotten by many. Meanwhile, the Science, Innovation and Technology Committee’s findings on the governance of AI, published at the end of August, suggest that the White Paper’s five principles of governance constitute a ‘proposed approach (that) is already risking falling behind the pace of development of AI’ – a risk that is only increasing given the previously mentioned EU and US efforts to set international standards. 問題は、AIのように急速に発展し、地政学的・戦略的に重要な技術に関しては、将来の行動に対して最善の意図を持つだけでは不十分だということだ。例えば、英国が数ヶ月前に発表したAI白書は、多くの人々から忘れ去られようとしているようだ。一方、8月末に発表された科学・イノベーション・技術委員会によるAIのガバナンスに関する調査結果は、白書のガバナンス5原則が「(すでに)AIの開発ペースに遅れをとるリスクのあるアプローチ案」であることを示唆している。

Whether in the form of a white paper, a summit or other projects, thought leadership contained in forgotten documents or photos of ministers shaking hands with big tech CEOs will mean little if they are not followed up with coherent and persistent action. The challenges the UK government faces when it comes to positioning itself as a ‘global AI superpower’ are not just posed by Chinese ambitions for tech supremacy. The UK government also needs to unite different departments on its AI policy and priorities, and must continue to forge alliances with the private sector and international partners. As AI industries across countries are deeply entangled, finding common ground with jurisdictions that do not share the UK’s values is also crucial. Only then can the UK – together with its allies – be actually world-leading on AI technologies. 白書やサミット、その他のプロジェクトの形であれ、忘れ去られた文書に含まれるソート・リーダーシップや、大臣が大手テック企業のCEOと握手している写真であれ、首尾一貫した粘り強い行動でフォローされなければ、ほとんど意味をなさないだろう。英国政府が「世界のAI大国」として自国を位置づける際に直面する課題は、ハイテク覇権を狙う中国の野心だけではない。英国政府もまた、AI政策と優先事項に関して異なる省庁を団結させる必要があり、民間セクターや国際的パートナーとの提携を築き続けなければならない。各国のAI産業は深く絡み合っているため、英国の価値観を共有しない国との共通点を見出すことも極めて重要である。そうして初めて、英国は同盟国とともにAI技術で世界をリードすることができるのである。







・2023.08.25 英国 AIサミットは11月1日2日にブレッチリー・パークで開催

・2023.08.20 英国 人工知能にゲームをさせることからの学び

・2023.08.15 英国 年内のAI安全サミットに向けて陣頭指揮をとる2名を任命し、Aiヘルスケア研究に1300万£(約24億円)を拠出... (2023.08.10)

・2023.07.20 英国 Ada Lovelace 協会 英国のAI規制、AIリスクなど4つの報告書

・2023.07.18 英国 科学技術省データ倫理・イノベーションセンターブログ AI保証の専門家が他の領域から学ぶべき6つの教訓 (2023.07.12)

・2023.07.09 英国 著作権と人工知能 (AI) に関する実施規範をつくるようですね。。。(2023.06.29)

・2023.07.07 英国 Ada Lovelace 協会 AIサプライチェーンにおける説明責任の分担 (2023.06.29)

・2023.06.19 英国 科学技術省データ倫理・イノベーションセンター 「AIシステムをより公平にするために、人口統計データへの責任あるアクセスを可能にする」

・2023.06.18 英国 科学技術省データ倫理・イノベーションセンター AI保証事例集 (2023.06.07)

・2023.04.29 英国 AIに関する英国政府の発表をいくつか。。。

・2023.04.05 英国 ICO ブログ 生成的人工知能:開発者とユーザーが問うべき8つの質問...

・2023.04.01 英国 意見募集 AI規制白書

・2023.03.20 英国 イノベーションを促進する技術規制の見直し:デジタルテクノロジー

・2023.03.10 英国 ICO Blog 国際女性デーに向けて...AIによる差別への対処が重要な理由

・2022.12.10 英国 データ倫理・イノベーションセンター「業界温度チェック:AI保証の障壁と実現要因」

・2022.11.06 英国 データ倫理・イノベーションセンター データおよびAIに対する国民の意識:トラッカー調査(第2回)

・2022.09.25 英国 Ada Lovelace 協会 欧州におけるAI責任:EUのAI責任指令の先取り

・2022.06.26 英国 国防AI戦略 (2022.06.15)

・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)

・2022.05.30 英国 情報コミッショナー 顔認識データベース会社Clearview AI Incに750万ポンド以上の罰金を科し、英国人のデータの削除を命じた

・2022.04.20 AIガバナンスの標準? ISO/IEC 38507:2022 Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations

・2021.12.19 英国 AIバロメータ21 公表

・2021.12.09 英国 AI保証に向けたロードマップを公表(AI認証制度?)

・2021.09.24 英国 国家AI戦略

・2021.04.21 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事




・2023.09.11 中国 生成的AIについての専門家の解釈 (2023.08.29)

・2023.07.14 中国 国家サイバースペース管理局他 生成的AIサービス管理暫定弁法 施行は2023.08.15

・2023.04.12 中国 意見募集 生成的人工知能サービス管理弁法

・2022.12.23 中国 インターネット情報サービス深層合成管理規定についての専門家のコメント... (2022.12.12)

・2022.12.17 中国 インターネット情報サービス深層合成管理規定 (深層合成で作ったものにはマークを...)(2022.11.25)

・2022.08.15 中国 国家サイバースペース管理局 インターネット情報サービスのアルゴリズム申請に関する情報公開の公告

・2022.01.30 中国 国家サイバースペース管理局 意見募集 インターネット情報サービスの深層合成の管理に関する規定(意見募集稿)

・2022.01.05 中国 インターネット情報サービスのアルゴリズム推奨管理規

・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」




« 第78回 国連総会 トップ等の発言... | Main | NIST IR 8441 ハイブリッド衛星ネットワーク(HSN)のサイバーセキュリティ・フレームワーク・プロファイル »


Post a comment

(Not displayed with comment.)

Comments are moderated, and will not appear on this weblog until the author has approved them.

« 第78回 国連総会 トップ等の発言... | Main | NIST IR 8441 ハイブリッド衛星ネットワーク(HSN)のサイバーセキュリティ・フレームワーク・プロファイル »