英国 AI安全サミット出席国によるブレッチリー宣言
こんにちは、丸山満彦です。
このブログでも取り上げていましたが、2023.11.01-02で英国のブリッチリーパーク (Bletchley Park [wikipedia] ) でAI安全サミットが開催されていますね。。。
ブリッチリーパークは、第二次世界大戦中、アラン・チューリング [wikipedia] たちが、エニグマ暗号、ローレンツ暗号を解読していた場所ですよね。。。The Imitation Game [wikipedia] という映画になりましたね。。。
さて、この会議ですが、米国、EU、日本、中国を含め28カ国+EUが参加していますね。。。アフリカ3カ国、南北アメリカ4カ国、アジア8カ国、ヨーロッパ11カ国、中東3カ国というバランスですね。。。
初日に、出席国によりブリッチリー宣言が採択されましたね。。この宣言は、フロンティアAI(最も緊急かつ危険なリスクに直面するシステム)に関する機会、リスク、国際的行動の必要性について述べたものということですね。。。内容は当たり障りのないような感じ?ですかね。。。合意できる内容とでもいいますか。。。
インドは10.17に
米国は10.30に「人工知能の安全、安心、信頼できる開発と利用に関する大統領令」を公表したところですが、説明はおこなわれたのでしょうかね。。。
そして、英国政府は、アフリカに対する支援を発表していますね。。。
国王もオンラインで挨拶したようです。なんか外交が上手いですね。。。
● GOV UK
プレス...
・2023.11.01 Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration
アフリカを支援する発表
・2023.011.01 UK unites with global partners to accelerate development using AI
ブリッチリー宣言...
・2023.11.01 The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023
The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023 | 2023年11月1-2日に開催されるAI安全サミット出席国によるブレッチリー宣言 |
Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential. | 人工知能(AI)は、人間の福利、平和、繁栄を変革し、向上させる可能性を秘めている。これを実現するために、我々は、すべての人の利益のために、AIは安全で、人間中心で、信頼でき、責任ある方法で、設計、開発、配備、使用されるべきであることを確認する。我々は、包摂的な経済成長、持続可能な開発、イノベーションを促進し、人権と基本的自由を保護し、AIシステムの潜在能力を十分に発揮させるために、国民の信頼と信用を醸成するために、AIに関して国際社会がこれまで協力してきたことを歓迎する。 |
AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals. | AIシステムは、住宅、雇用、交通、教育、健康、アクセシビリティ、司法など、日常生活の多くの領域ですでに導入されており、その利用はさらに拡大すると思われる。私たちは、今がAIの安全な発展と、AIの変革の機会が、私たちの国や世界において、包括的な方法で、すべての人のために、善のために利用されることの必要性を確認し、行動するまたとない機会であると認識しています。これには、健康や教育、食糧安全保障、科学、クリーンエネルギー、生物多様性、気候などの公共サービス、人権の享受の実現、国連の持続可能な開発目標の達成に向けた取り組みの強化などが含まれる。 |
Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them. | このような機会とともに、AIは日常生活の領域を含め、重大なリスクももたらす。そのため、私たちは、既存のフォーラムやその他の関連するイニシアティブにおいて、AIシステムの潜在的な影響を検討し、対処するための関連する国際的な取り組みを歓迎するとともに、人権の保護、透明性と説明可能性、公平性、説明責任、規制、安全性、適切な人的監視、倫理、バイアスの緩和、プライバシー、データ保護に取り組む必要があるとの認識を歓迎する。また、コンテンツを操作したり、欺瞞的なコンテンツを生成したりする機能から生じる、予期せぬリスクの可能性にも留意する。これらの問題はすべて決定的に重要であり、我々はそれらに取り組む必要性と緊急性を確認する。 |
Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks - as well as relevant specific narrow AI that could exhibit capabilities that cause harm - which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent. | AIの「フロンティア」において、特に安全性のリスクが生じる。これは、基盤モデルを含む、多種多様なタスクを実行する可能性のある、非常に能力の高い汎用AIモデルであり、また、危害を引き起こす可能性のある能力を示す可能性のある、関連する特定の狭いAIであると理解される。潜在的な意図的誤用や、人間の意図との整合性に関する意図しない制御の問題から、重大なリスクが生じる可能性がある。このような問題は、これらの能力が十分に理解されておらず、したがって予測が困難であるためでもある。私たちは、サイバーセキュリティやバイオテクノロジーのような領域や、最先端のAIシステムが偽情報のようなリスクを増幅させる可能性のある領域におけるこのようなリスクを特に懸念している。このようなAIモデルの最も重要な能力から、意図的であれ意図的でないものであれ、深刻な、さらには破滅的な被害が発生する可能性がある。AIの変化の速度が急速かつ不確実であること、そしてテクノロジーへの投資が加速していることを考慮すると、これらの潜在的リスクとそれに対処するための行動についての理解を深めることが特に急務であることを確認する。 |
Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits. | AIから生じる多くのリスクは、本質的に国際的なものであるため、国際協力を通じて対処するのが最善である。我々は、AIがもたらす広範なリスクに対処するための協力を促進するため、既存の国際フォーラムやその他の関連するイニシアティブを通じて、安全で、万人の利益を支援する、人間中心の、信頼できる、責任あるAIを確保するために、包括的な方法で協力することを決意する。その際、各国は、AIがもたらす利益を最大化し、リスクを考慮した、イノベーションを促進し、適切なガバナンスと規制のアプローチの重要性を考慮すべきであると認識する。これには、適切な場合には、各国の状況や適用される法的枠組みに基づいて、リスクを分類・分類することも含まれる。また、適切な場合には、共通の原則や行動規範のようなアプローチで協力することも重要である。フロンティアAIに関連する特定のリスクに関して、我々は、将来の国際AI安全サミットを含む、既存の国際的な場及びその他の関連するイニシアティブを通じて、特定し、理解し、必要に応じて行動するために、協力を強化し、維持し、更なる国々との協力を拡大することを決意する。 |
All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap. | 国家、国際フォーラム、その他のイニシアティブ、企業、市民社会、学界が協力する必要がある。インクルーシブAIとデジタルデバイド解消の重要性に留意し、国際協力は、適切な範囲で幅広いパートナーを巻き込み、関与させるよう努めるべきであることを再確認し、開発途上国がAIの能力構築を強化し、持続可能な成長を支援し、開発格差に対処するためにAIの実現可能な役割を活用することを支援できるような、開発指向のアプローチや政策を歓迎する。 |
We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks. | 我々は、AIのライフサイクル全体にわたって安全性が考慮されなければならない一方で、フロンティアAIの能力を開発する主体、特に、異常に強力で潜在的に有害なAIシステムを開発する主体には、安全性テストのためのシステム、評価、その他の適切な手段を含め、これらのAIシステムの安全性を確保するための特に強い責任があることを確認する。我々は、すべての関連する主体に対し、特に誤用や制御の問題、その他のリスクの増幅を防止するため、潜在的に有害な能力と、出現する可能性のある関連する影響を測定、監視、軽減する計画について、状況に応じた透明性と説明責任を提供することを奨励する。 |
In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on: | 我々の協力の文脈において、また、国レベルおよび国際レベルでの行動に情報を提供するために、フロンティアAIのリスクに対処するための我々のアジェンダは、以下に焦点を当てる: |
identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies. | 私たちの社会におけるAIの影響を理解するためのより広範でグローバルなアプローチとの関連において、共有される懸念のあるAIの安全リスクを特定し、これらのリスクに関する科学的かつ証拠に基づく共通の理解を構築し、能力が増大し続ける中でその理解を維持すること。 |
building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research. | このようなリスクに照らして安全性を確保するために、各国間でそれぞれのリスクに基づく政策を構築し、各国の状況や適用される法的枠組みによってアプローチが異なる可能性があることを認識しつつ、適宜協力する。これには、フロンティアAIの能力を開発する民間主体による透明性の向上、適切な評価指標、安全性テストのためのツール、関連する公共部門の能力と科学的研究の開発が含まれる。 |
In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good. | このアジェンダを推進するため、我々は、政策立案と公益のために利用可能な最善の科学の提供を促進するために、既存の国際フォーラムやその他の関連するイニシアティブを通じたものを含め、既存の、そして新たな多国間、多国間、二国間の協力を包含し、補完する、フロンティアAIの安全性に関する科学的研究の国際的に包括的なネットワークを支援することを決意する。 |
In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024. | AIの変革をもたらすポジティブな可能性を認識し、AIに関するより広範な国際協力を確保する一環として、我々は、既存の国際フォーラムやその他の関連するイニシアティブに関与し、より広範な国際的議論にオープンな形で貢献する、包括的なグローバル対話を維持することを決意し、また、技術の利益が善と全ての人のために責任を持って活用されることを確保するため、フロンティアAIの安全性に関する研究を継続することを決意する。我々は、2024年の再会を楽しみにしている。 |
Agreement | 合意事項 |
The countries represented were: | 代表者は以下の通り: |
Australia | オーストラリア |
Brazil | ブラジル |
Canada | カナダ |
Chile | チリ |
China | 中国 |
European Union | 欧州連合 |
France | フランス |
Germany | ドイツ |
India | インド |
Indonesia | インドネシア |
Ireland | アイルランド |
Israel | イスラエル |
Italy | イタリア |
Japan | 日本 |
Kenya | ケニア |
Kingdom of Saudi Arabia | サウジアラビア王国 |
Netherlands | オランダ |
Nigeria | ナイジェリア |
The Philippines | フィリピン共和国 |
Republic of Korea | 大韓民国 |
Rwanda | ルワンダ |
Singapore | シンガポール |
Spain | スペイン |
Switzerland | スイス |
Türkiye | トルコ |
Ukraine | ウクライナ |
United Arab Emirates | アラブ首長国連邦 |
United Kingdom of Great Britain and Northern Ireland | グレートブリテンおよび北アイルランド連合王国 |
United States of America | 米国 |
References to ‘governments’ and ‘countries’ include international organisations acting in accordance with their legislative or executive competences. | 「政府」および「国」のガバナンスには、立法または行政の権限に従って行動する国際機関を含む。 |
サミットのページ
● AI SAFETY SUMMIT HOSTED BY THE UK
● まるちゃんの情報セキュリティ気まぐれ日記
・2023.10.30 英国 科学技術革新省 フロンティアAI:その能力とリスク - ディスカッション・ペーパー
・2023.08.25 英国 AIサミットは11月1日2日にブレッチリー・パークで開催
・2023.04.29 英国 AIに関する英国政府の発表をいくつか。。。
・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令
・2023.10.30 中国 グローバルAIガバナンス・イニシアティブ (2023.10.19)
・2023.10.30 経団連 AI活用戦略Ⅱ -わが国のAI-Powered化に向けて- (2023.10.17)
・2023.10.25 インド AIに関する専門家の報告書「インディアAI 2023」を公表 (2023.10.14)
Comments