International Community Must Urgently Confront New Reality of Generative, Artificial Intelligence, Speakers Stress as Security Council Debates Risks, Rewards |
国際情報コミュニティは生成的人工知能の新たな現実に早急に立ち向かわなければならない、安全保障理事会がリスクと報酬について議論する中、発言者たちは強調する。 |
Secretary-General Points to Potentially ‘Defining Moment for Hate Speech, Disinformation’, as Delegates Call for Ethical, Responsible Governance Framework |
事務総長、「ヘイトスピーチと偽情報の決定的瞬間」の可能性を指摘 代議員は倫理的で責任あるガバナンスの枠組みを求める |
The international community must urgently confront the new reality of generative and other artificial intelligence (AI), speakers told the Security Council today in its first formal meeting on the subject as the discussion that followed spotlighted the duality of risk and reward inherent in this emerging technology. |
国際情報コミュニティは、生成的人工知能(AI)をはじめとする新たな現実と早急に向き合わなければならない、と発言者らは本日、安全保障理事会のこのテーマに関する初の公式会合で語った。 |
António Guterres, Secretary-General of the United Nations, noting that AI has been compared to the printing press, observed that — while it took more than 50 years for printed books to become widely available across Europe — “ChatGPT reached 100 million users in just two months”. Despite its potential to turbocharge global development and realize human rights, AI can amplify bias, reinforce discrimination and enable new levels of authoritarian surveillance. |
アントニオ・グテーレス国際連合事務総長は、AIが印刷機に例えられていると指摘し、印刷された書籍がヨーロッパ全土で広く利用されるようになるまで50年以上かかったのに対し、「ChatGPTはわずか2カ月で1億人のユーザーを獲得した」と述べた。 AIは世界の発展を加速させ、人権を実現する可能性を秘めているにもかかわらず、バイアスを増幅させ、差別を強化し、新たなレベルの権威主義的監視を可能にする可能性がある。 |
The advent of generative AI “could be a defining moment for disinformation and hate speech”, he observed and, while questions of governance will be complex for several reasons, the international community already has entry points. The best approach would be to address existing challenges while also creating capacity to respond to future risks, he said, and underlined the need to “work together for AI that bridges social, digital and economic divides — not one that pushes us further apart”. |
生成的AIの出現は「偽情報とヘイトスピーチの決定的な瞬間になりうる」とし、ガバナンスの問題はいくつかの理由から複雑になるだろうが、国際社会はすでにエントリーポイントを持っていると述べた。 最良のアプローチは、既存の課題に対処すると同時に、将来のリスクに対応する能力を生み出すことである、と同氏は述べた、 そして、次の必要性を強調した。「社会的、デジタル的、経済的な隔たりを埋めるAIのために協力する必要がある。さらに引き離すものではなく。」 |
Jack Clark, Co-founder of Anthropic, noted that, although AI can bring huge benefits, it also poses threats to peace, security and global stability due to its potential for misuse and its unpredictability — two essential qualities of AI systems. For example, while an AI system can improve understanding of biology, it can also be used to construct biological weapons. Further, once developed and deployed, people identify new and unanticipated uses for such systems. |
Anthropic社の共同設立者であるジャック・クラーク氏は、AIは大きな利益をもたらす可能性がある一方で、悪用される可能性と予測不可能性というAIシステムの本質的な2つの性質により、平和、安全保障、世界の安定に対する脅威にもなると指摘した。 例えば、AIシステムは生物学の理解を向上させる一方で、生物兵器の製造に利用される可能性もある。 さらに、いったん開発され配備されると、人々はそのようなシステムの新たな、そして予期せぬ用途を特定する。 |
“We cannot leave the development of artificial intelligence solely to private-sector actors,” he underscored, stating that Governments can keep companies accountable — and companies can earn the world’s trust — by developing robust, reliable evaluation systems. Without such investment, the international community runs the risk of handing over the future to a narrow set of private-sector actors, he warned. |
「人工知能の開発を民間企業だけに任せるわけにはいかない」と強調し、ガバナンスは強固で信頼できる評価システムを開発することで、企業に説明責任を果たさせ、企業は世界の信頼を得ることができると述べた。 このような投資がなければ、国際社会は未来を狭い範囲の民間団体に委ねてしまうリスクがある」と警告した。 |
Also briefing the Council, Yi Zeng of the Institute of Automation at the Chinese Academy of Sciences pointed out that current AI are information-processing tools that, while seemingly intelligent, are without real understanding. “This is why they, of course, cannot be trusted as responsible agents that can help humans to make decisions,” he emphasized. Both near-term and long-term AI will carry a risk of human extinction simply because “we haven’t found a way to protect ourselves from AI’s utilization of human weakness”, he said. |
また、中国科学院自動化研究所のイ・ツェン氏は、現在のAIは情報処理ツールであり、一見知的に見えるが、真の理解には至っていないと指摘した。 「このため、人間の意思決定を助ける責任あるエージェントとしては、もちろん信頼できない」と強調した。 AIが人間の弱点を利用することから身を守る方法が見つかっていない」だけで、近い将来も長期的にも、AIは人類絶滅のリスクを背負うことになるだろう、と彼は述べた。 |
In the ensuing debate, Council members alternately highlighted the transformative opportunities AI offers for addressing global challenges and the risks it poses — including its potential to intensify conflict through the spread of misinformation and malicious cyberoperations. Many, recognizing the technology’s military applications, underscored the imperative to retain the element of human decision-making in autonomous weapons systems. Members also stressed the need to establish an ethical, responsible framework for international AI governance. |
その後の討論で、理事会のメンバーは、AIがグローバルな課題に対処するためにもたらす変革の機会と、誤情報や悪意あるサイバー操作の拡散を通じて紛争を激化させる可能性など、AIがもたらすリスクを交互に強調した。 その多くは、この技術が軍事的に応用されることを認識しながらも、自律型兵器システムにおいて人間の意思決定の要素を維持することの必要性を強調した。 政府はまた、国際的なAIガバナンスのための倫理的で責任ある枠組みを確立する必要性を強調した。 |
On that, Omran Sharaf, Assistant Minister for Advanced Sciences and Technology of the United Arab Emirates, stated that there is a brief window of opportunity, available now, where key stakeholders are willing to unite and consider the guardrails for this technology. Member States should establish commonly agreed-upon rules “before it is too late”, he stressed, calling for mechanisms to prevent AI tools from promoting hatred, misinformation and disinformation that can fuel extremism and exacerbate conflict. |
これに関して、米国アラブ首長国連邦のオムラン・シャラフ先端科学技術担当大臣補佐官は、主要な利害関係者が団結してこの技術のガードレールを検討する、今しかない短い機会の窓があると述べた。 加盟国は「手遅れになる前に」、共通に合意されたルールを確立すべきだと強調し、AIツールが過激主義を煽り、紛争を悪化させる憎悪、誤情報、偽情報を助長するのを防ぐメカニズムを求めた。 |
Ghana’s representative, adding to that, underscored that the international community must “constrain the excesses of individual national ambitions for combative dominance”. Urging the development of frameworks that would govern AI for peaceful purposes, he spotlighted the deployment of that technology by the United Nations Support Mission in Libya (UNSMIL). Used to determine the Libyan people’s reaction to policies, it facilitated improvements in that country’s 2022 Global Peace Index, he noted, while also cautioning against AI’s integration into autonomous weapons systems. |
ガーナの代表者はさらに、国際社会は「戦闘的な支配を目指す各国の野心の行き過ぎを抑制しなければならない」と強調した。 同代表は、平和的な目的のためにAIを管理する枠組みの開発を促し、国連リビア支援団(UNSMIL)によるAI技術の展開に注目した。 リビアの人々の政策に対する反応を判断するために使用され、同国の2022年世界平和指数の改善を促したと指摘する一方、AIが自律型兵器システムに組み込まれることに注意を促した。 |
The speaker for Ecuador similarly rejected the militarization of AI and reiterated the risk posed by lethal autonomous weapons. “The robotization of conflict is a great challenge for our disarmament efforts and an existential challenge that this Council ignores at its peril,” he warned. Adding that AI can either contribute to or undermine peace efforts, he emphasized that “our responsibility is to promote and make the most of technological development as a facilitator of peace”. |
エクアドルの演説者も同様に、AIの軍事化を否定し、致死的な自律型兵器がもたらすリスクを改めて強調した。 「紛争のロボット化は、我々の軍縮努力にとって大きな挑戦であり、本理事会が危険を顧みず無視する存亡の課題である」と警告した。 また、AIは平和の努力に貢献することもあれば、損なうこともあるとし、「我々の責任は、平和を促進するものとして技術開発を促進し、最大限に活用することだ」と強調した。 |
China’s representative, noting that AI is a double-edged sword, said that whether it is good or evil depends on how mankind uses and regulates it, and how the balance is struck between scientific development and security. AI development must ensure safety, risk-awareness, fairness and inclusivity, he stressed, calling on the international community to put ethics first and ensure that technology always benefits humanity. |
中国の代表者は、AIは諸刃の剣であると指摘し、それが善か悪かは、人類がAIをどのように利用し、規制するか、そして科学の発展と安全保障のバランスをどのように取るかにかかっていると述べた。 AIの開発は、安全性、リスク認識、公平性、包括性を確保しなければならないと強調し、国際社会に対し、倫理を第一に考え、技術が常に人類に利益をもたらすようにするよう呼びかけた。 |
James Cleverly, Secretary of State for Foreign, Commonwealth and Development Affairs of the United Kingdom, Council President for July, spoke in his national capacity to point out that AI could enhance or disrupt global strategic stability, challenge fundamental assumptions about defence and deterrence, and pose moral questions about accountability for lethal decisions on the battlefield. But momentous opportunities lie before the international community, he added, observing: “There is a tide in the affairs of men, which, taken at the flood, leads to fortune.” |
ジェームズ・クレバリー英国外務・英連邦・開発問題担当国務長官(7月理事会議長)は、国家的な立場で発言し、AIは世界の戦略的安定を強化することも破壊することもあり得ると指摘し、防衛と抑止に関する基本的な仮定に挑戦し、戦場での致命的な決定に対する説明責任について道徳的な問題を提起した。 しかし、国際社会には重大な機会が待ち受けている: 「人の営みには潮の流れがあり、それを汲み取れば幸運につながる。 |
Briefings |
ブリーフィング |
ANTÓNIO GUTERRES, Secretary-General of the United Nations, recalled that he told the General Assembly in 2017 that artificial intelligence (AI) “would have a dramatic impact on sustainable development, the world of work and the social fabric”. Noting that this technology has been compared to the printing press, he observed that — while it took more than 50 years for printed books to become widely available across Europe — “ChatGPT reached 100 million users in just two months”. The finance industry estimates that AI could contribute up to $15 trillion to the global economy by 2030, and almost every Government, large company and organization in the world is working on an AI strategy. AI has the potential to turbocharge global development — from monitoring the climate crisis to breakthroughs in medical research — and it offers new potential to realize human rights, particularly in the areas of health and education. |
アントニオ・グテレス(ANTÓNIO GUTERRES)国連事務総長は、2017年の総会で人工知能(AI)が「持続可能な開発、仕事の世界、社会構造に劇的な影響を与えるだろう」と述べたことを想起した。 この技術が印刷機と比較されていることに触れ、印刷された書籍がヨーロッパ全土に広く普及するのに50年以上かかったのに対し、「ChatGPTはわずか2ヶ月で1億人のユーザーを獲得した」と述べた。 金融業界は、AIが2030年までに世界経済に最大15兆ドル貢献すると見積もっており、世界中のほぼすべての政府、大企業、組織がAI戦略に取り組んでいる。 AIは、気候危機の監視から医学研究のブレークスルーに至るまで、世界の開発を加速させる可能性を秘めており、特に健康と教育の分野において、人権を実現する新たな可能性を提供している。 |
He pointed out, however, that the High Commissioner for Human Rights has expressed alarm over evidence that AI can amplify bias, reinforce discrimination and enable new levels of authoritarian surveillance. Urging the Council to approach this technology with a sense of urgency, a global lens and a learner’s mindset, he observed: “Never again will technological innovation move as slowly as today.” While AI tools are increasingly being used — including by the United Nations — to identify patterns of violence, monitor ceasefires and help strengthen peacekeeping, mediation and humanitarian efforts, AI models can help people to harm themselves and each other at massive scale. On that, he said that AI-enabled cyberattacks are already targeting critical infrastructure and peacekeeping operations and that the advent of generative AI “could be a defining moment for disinformation and hate speech”. Outlining other potential consequences, he expressed concern over malfunctioning AI systems and the interaction between AI and nuclear weapons, biotechnology, neurotechnology and robotics. |
しかし、人権高等弁務官は、AIがバイアスを増幅させ、差別を強化し、新たなレベルの権威主義的監視を可能にするという証拠に警鐘を鳴らしていることを指摘した。 同高等弁務官は理事会に対し、危機感を持ち、グローバルな視野と学習者マインドを持ってこの技術に取り組むよう促し、次のように述べた: 「技術革新が今日ほどゆっくりと進むことは二度とないだろう。 暴力のパターンを特定し、停戦を監視し、平和維持、調停、人道活動の強化に役立てるため、国連を含め、AIツールの利用が進んでいる一方で、AIモデルは大規模に人々が自らを傷つけ、互いに傷つけ合うのを助ける可能性がある。 その上で、AIを活用したサイバー攻撃はすでに重要インフラや平和維持活動を標的にしており、生成的AIの登場は「偽情報やヘイトスピーチの決定的な瞬間になりうる」と述べた。 その他の潜在的な影響については、AIシステムの誤作動や、AIと核兵器、バイオテクノロジー、神経技術、ロボット工学との相互作用に懸念を示した。 |
“Without action to address these risks, we are derelict in our responsibilities to present and future generations,” he stressed. Questions of governance will be complex for several reasons: powerful AI models are already widely available; AI tools can be moved around the world leaving very little trace; and the private sector’s leading role in AI has few parallels in other strategic technologies. However, the international community already has entry points, including the 2018-2019 guiding principles on lethal autonomous weapons systems; the 2021 recommendations on the ethics of AI agreed through the United Nations Educational, Scientific and Cultural Organization (UNESCO); recommendations by the United Nations Office of Counter-Terrorism; and the “AI for Good” summits hosted by the International Telecommunication Union (ITU). |
「これらのリスクに対処するための行動を起こさなければ、現在と将来の世代に対する責任を放棄することになる」と強調した。 強力なAIモデルがすでに広く利用可能であること、AIツールはほとんど痕跡を残さずに世界中を移動できること、AIにおける民間部門の主導的役割は他の戦略的テクノロジーにはほとんど類似点がないこと、などである。 しかし、国際社会はすでに、致死的自律兵器システムに関する2018年から2019年の指導原則、国連教育科学文化機関(UNESCO)を通じて合意されたAIの倫理に関する2021年の勧告、国連テロ対策局による勧告、国際電気通信連合(ITU)が主催する「AI for Good」サミットなど、エントリーポイントを持っている。 |
The best approach, he went on to say, would address existing challenges while also creating the capacity to monitor and respond to future risks. The need for global standards and approaches makes the United Nations the ideal place for this to happen, and he therefore welcomed calls from some Member States to create a new United Nations entity to support collective efforts to govern this technology. Such an entity would gather expertise and put it at the international community’s disposal and could support collaboration on the research and development of AI tools to expedite sustainable development. Urging the Council to show the way towards common measures for the transparency, accountability and oversight of AI systems, he underlined the need to “work together for AI that bridges social, digital and economic divides — not one that pushes us further apart”. |
最善のアプローチは、既存の課題に対処すると同時に、将来のリスクを監視し対応する能力を生み出すことである。 グローバルな標準とアプローチの必要性から、国連はこの実現に理想的な場所であるとし、そのため、この技術を管理するための集団的努力を支援する新たな国連事業体の設立を求める一部の加盟国の声を歓迎した。 このような事業体であれば、専門知識を集めて国際社会が自由に使えるようにし、持続可能な開発を促進するAIツールの研究開発に関する協力を支援できる。 同理事会は、AIシステムの透明性、説明責任、監視のための共通の対策への道を示すよう促し、「社会的、デジタル的、経済的な隔たりを埋めるAIのために協力する必要性を強調した。 |
JACK CLARK, Co-founder, Anthropic, said: “We cannot leave the development of artificial intelligence solely to private sector actors. The Governments of the world must come together, develop State capacity and make the development of powerful AI systems a shared endeavour across all parts of society, rather than one dictated solely by a small number of firms competing with one another in the marketplace.” He recalled that a decade ago the England-based company DeepMind published research that shows how to teach an AI system to play old computer games like Space Invaders. The same techniques used in that research are now being used to create AI systems that can beat military pilots in air fighting stimulations and even design the components of next-generation semiconductors. |
Anthropic社の共同設立者であるJACK CLARK氏は、次のように述べた: 「人工知能の開発を民間企業だけに任せるわけにはいきません。 世界中のガバナンスが一丸となり、国家の能力を発展させ、強力なAIシステムの開発を、市場で互いに競争する少数の企業だけに左右されるのではなく、社会のあらゆる部分で共有される取り組みにしなければなりません」。 彼は、10年前にイギリスのディープマインド社が、スペースインベーダーのような古いコンピューターゲームをプレイするようにAIシステムに教える方法を示す研究を発表したことを思い出した。 その研究で使用されたのと同じ技術が、現在、空中戦の刺激で軍用パイロットを打ち負かし、さらには次世代半導体の部品を設計できるAIシステムを作るために使用されている。 |
Noting that AI models, such as OpenAI, ChatGPT, Google Bard and his own company Anthropic’s Claude are developed by corporate interests, he said that, as private sector actors are the ones that have the sophisticated computers and large pools of data and capital resources to build these systems, they seem likely to continue to define their development. However, while that will bring huge benefits, it also poses potential threats to peace, security and global stability, which emanate from AI’s potential for misuse and its unpredictability — two essential qualities of AI systems. For example, on misuse, he said that an AI system that can help in better understanding biology may also be used to construct biological weapons. On unpredictability, he pointed out that once AI systems are developed and deployed, people identify new uses for them that were unanticipated by their developers or the system itself could later exhibit chaotic or unpredictable behaviour. |
OpenAI、ChatGPT、Google Bard、そして彼自身の会社Anthropic's ClaudeのようなAIモデルは、企業の利害関係者によって開発されていることを指摘した彼は、これらのシステムを構築するための洗練されたコンピューター、大規模なデータプール、資本資源を持つのは民間企業であるため、今後も民間企業がその開発を定義していく可能性が高いと述べた。 しかし、それは莫大な利益をもたらす一方で、平和、安全保障、世界の安定に対する潜在的な脅威となる。 例えば、悪用については、生物学の理解を深めるのに役立つAIシステムが、生物兵器の製造に使われる可能性があると述べた。 予測不可能性については、AIシステムが開発・導入されると、開発者が予期していなかった新たな用途が見いだされたり、システム自体が後にカオス的で予測不可能な挙動を示す可能性があると指摘した。 |
“Therefore, we should think very carefully about how to ensure developers of these systems are accountable, so that they build and deploy safe and reliable systems which do not compromise global security,” he urged. AI as a form of human labour affords immense political leverage and influence, he pointed out, raising such questions about how Governments should regulate this power or who should be the actors that can sell those so-called experts. The international community must work on developing ways to test for the systems’ capabilities, misuses and potential safety flaws. For this reason, it has been encouraging to see many countries emphasize the importance of safety testing and evaluation in their various AI policy proposals, he said, naming those of the European Union, China and the United States. |
「したがって、これらのシステムの開発者が説明責任を果たし、世界の安全保障を損なわない安全で信頼できるシステムを構築し、配備できるようにする方法について、慎重に考える必要がある」と彼は訴えた。 AIは人間の労働力の一形態であるため、政治的な影響力は絶大であり、政府はこの力をどのように規制すべきか、いわゆる専門家を売り込む主体は誰であるべきか、といった問題を提起している。 国際社会は、システムの能力、誤用、潜在的な安全性の欠陥をテストする方法の開発に取り組まなければならない。 このような理由から、多くの国々が様々なAI政策提案の中で、安全性テストと評価の重要性を強調しているのは心強いことだと、EU、中国、米国の名前を挙げて語った。 |
Noting the absence of standards or best practices on how to test these systems for things such as discrimination, misuse or safety, he said Governments can keep companies accountable and companies can earn the world’s trust by developing robust and reliable evaluation systems. Without such an investment, the international community runs the risk of handing over the future to a narrow set of private sector actors, he warned. “If we can rise to the challenge, however, we can reap the benefits of AI as a global community and ensure there is a balance of power between the developers of AI and the citizens of the world,” he said. |
また、差別や誤用、安全性など、AIシステムのテスト方法に関する標準やベストプラクティスが存在しないことを指摘し、ガバナンスは企業に説明責任を負わせることができ、企業は強固で信頼できる評価システムを開発することで世界の信頼を得ることができると述べた。 このような投資がなければ、国際社会は狭い範囲の民間企業に未来を委ねてしまうリスクがある、と彼は警告した。 「しかし、私たちがこの課題に立ち向かうことができれば、グローバル・コミュニティとしてAIの恩恵を享受し、AIの開発者と世界の市民との間に力の均衡を確保することができる」と述べた。 |
YI ZENG, Institute of Automation, Chinese Academy of Sciences, said that there is no doubt that AI is a powerful and enabling technology to push forward global sustainable development. From the peace and security perspective, efforts should focus on using it to identify disinformation and misunderstanding among countries and political bodies. AI should be used for network defences, not attacks. “AI should be used to connect people and cultures, not to disconnect them,” he added. The current AI, including recent generative AI, are information processing tools that seem to be intelligent, while they are without real understandings, and hence not truly intelligent. |
中国科学院自動化機構のYI ZENG氏は、AIが世界の持続可能な発展を推し進めるための強力で実現可能な技術であることは間違いないと述べた。 平和と安全保障の観点からは、各国や政治団体間の偽情報や誤解を識別するためにAIを活用することに焦点を当てるべきだ。 AIは攻撃ではなく、ネットワーク防御に使われるべきである。 「AIは人々や文化をつなぐために使われるべきであり、切り離すために使うべきではない」と付け加えた。 最近の生成的AIを含む現在のAIは、知的であるかのような情報処理ツールであるが、真の理解力を持っていない。 |
“This is why they, of course, cannot be trusted as responsible agents that can help humans to make decisions,” he emphasized. AI should not be used for automating diplomacy tasks, especially foreign negotiations among different countries, since it may use and extend human limitations and weaknesses to create bigger or even catastrophic risks. “AI should never ever pretend to be human,” he said, stressing the need to ensure sufficient, effective and responsible human control for all AI-enabled weapons systems. Both near-term and long-term AI will include risk of human extinctions simply because “we haven’t found a way to protect ourselves from AI’s utilization of human weakness”. AI does not “know what we mean by human — [by] death and life”. |
「このため、人間の意思決定を助ける責任あるエージェントとしては、もちろん信頼できない」と彼は強調した。 AIは人間の限界や弱点を利用して拡張し、より大きな、あるいは破滅的なリスクを生み出す可能性があるからだ。 「AIは決して人間のふりをすべきではない」と述べ、すべてのAI対応兵器システムに対して、十分かつ効果的で、責任ある人間による制御を確保する必要性を強調した。 AIが人間の弱点を利用することから身を守る方法が見つかっていない」だけで、近い将来も長期的にも、AIには人類が絶滅するリスクが含まれる。 AIは「人間の意味するところ、つまり死と生を知らない」のである。 |
“In the long term, we haven’t given superintelligence any practical reasons why they should protect humans,” he continued. Proposing the Council consider the possibility of creating a working group on AI for peace and security, he encouraged members to play an increasing role on this important issue. “Humans should always maintain and be responsible for final decision-making on the use of nuclear weapons,” he emphasized. The United Nations must play a central role to set up a framework on AI development and governance, to ensure global peace and security. |
「長期的に見れば、我々は超知能に人間を守るべき現実的な理由を与えていない」と彼は続けた。 理事会は、平和と安全のためのAIに関する作業部会の設置の可能性を検討するよう提案し、理事長は、この重要な問題に関して、加盟国がより大きな役割を果たすよう促した。 「核兵器の使用に関する最終的な意思決定は、常に人間が維持し、責任を持つべきだ」と強調した。 国連は、世界の平和と安全を確保するため、AIの開発とガバナンスに関する枠組みを構築する中心的な役割を果たさなければならない」と述べた。 |
Statements |
意見 |
JAMES CLEVERLY, Secretary of State for Foreign, Commonwealth and Development Affairs of the United Kingdom, Council President for July, spoke in his national capacity to note that AI may help the world adapt to climate change, beat corruption, revolutionize education, deliver the Sustainable Development Goals and reduce violent conflict. “But we are here today because AI will affect the work of the Council,” he observed, pointing out that the technology could enhance or disrupt global strategic stability, challenge fundamental assumptions about defence and deterrence and pose moral questions about accountability for lethal decisions on the battlefield. Further, AI changes the speed, scale and spread of disinformation — with hugely harmful consequences for democracy and stability — and could aid the reckless quest for weapons of mass destruction by State and non-State actors. |
ジェームズ・クレバリー英国外務・英連邦・開発問題担当国務長官(7月理事会議長)は、AIが気候変動への適応、汚職の撲滅、教育革命、持続可能な開発目標の達成、暴力的紛争の減少に役立つ可能性があることを指摘し、国家としての立場から発言した。 「しかし、私たちが今日ここにいるのは、AIが理事会の活動に影響を与えるからです」と述べ、この技術が世界戦略の安定性を高めたり、破壊したりする可能性があること、防衛と抑止に関する基本的な仮定に挑戦するものであること、戦場での致命的な決定に対する説明責任について道徳的な問題を提起するものであることを指摘した。 さらに、AIは偽情報のスピード、規模、拡散を変化させ、民主主義と安定に甚大な有害結果をもたらすとともに、国家や非国家主体による大量破壊兵器の無謀な探求を助長する可能性がある。 |
“That’s why we urgently need to shape the global governance of transformative technologies,” he underscored. For the United Kingdom, AI should: support freedom and democracy; be consistent with the rule of law and human rights; be safe and predictable by design; and be trusted by the public. Noting that his country is home to many of the world’s trail-blazing AI developers and foremost AI safety researchers, he said that the United Kingdom will bring world leaders together for the first major global summit on AI safety in autumn. Momentous opportunities lie before the international community, he added, observing: “There is a tide in the affairs of men, which, taken at the flood, leads to fortune”. |
「だからこそ、変革的テクノロジーのグローバル・ガバナンスを形成することが急務なのです」と強調した。 英国にとってAIは、自由と民主主義を支援し、法の支配と人権に合致し、安全で予測可能な設計であり、国民から信頼されるものでなければならない。 また、英国は世界の先駆的なAI開発者やAI安全性研究の第一人者の出身国であることに触れ、英国は秋にAI安全性に関する初の主要な世界サミットを開催し、世界の指導者を一堂に集める予定であると述べた。 国際社会には大きなチャンスが待ち受けている: 「人の営みには潮の流れがあり、その流れに身を任せれば、幸運に導かれる」。 |
TAKEI SHUNSUKE, State Minister of Foreign Affairs for Japan, underscored the importance of human-centric and trustworthy AI, noting that the development of AI should be consistent with democratic values and fundamental human rights. “AI should not be a tool for rulers but should be placed under the rule of law,” he said, stressing that military use of AI should be responsible, transparent and based on international law. AI can be made more trustworthy by including a wide range of stakeholders in the process, he said, noting that the United Nations’ convening power can bring together wisdom from around the world. In June, his country hosted a side event at the United Nations with the Office of Counter-Terrorism and United Nations Interregional Crime and Justice Research Institute and led discussions on the misuse of AI by terrorists. It also launched the Group of Seven (G7) Hiroshima AI Process this year to contribute to the global discussion on generative AI, he added. |
日本の武井俊輔外務大臣は、人間中心で信頼できるAIの重要性を強調し、AIの開発は民主主義の価値と基本的人権に合致したものであるべきだと指摘した。 「AIは支配者のための道具ではなく、法の支配下に置かれるべきです」と述べ、AIの軍事利用は責任と透明性を持ち、国際法に基づくものであるべきだと強調した。 AIは、そのプロセスに幅広い利害関係者を参加させることで、より信頼性の高いものとすることができるとし、国連の招集力が世界中の英知を結集させることができると指摘した。 同国は6月、テロ対策局および国連地域間犯罪司法研究所とともに国連でサイドイベントを開催し、テロリストによるAIの悪用に関する議論を主導した。 また、生成的AIに関する世界的な議論に貢献するため、今年G7広島AIプロセスを発足させたと付け加えた。 |
MANUEL GONÇALVES, Deputy Minister for Foreign Affairs of Mozambique, said that, in full disclosure, his statement was composed solely by humans and not by generative AI tools like ChatGPT. “We are approaching a point where digital machines can now complete a task that for the majority of human existence was exclusively within the realm of human intelligence,” he continued. While advancements in AI present immense opportunities, they also pose risks, including the potential of catastrophic outcomes. “We should take precautions,” he urged, warning that AI is increasingly imitating humans to spread misinformation and conspiracies and carries out numerous other nefarious activities. |
モザンビーク外務副大臣MANUEL GONÇALVESは、彼の発言はChatGPTのような生成的AIツールではなく、人間のみによって構成されたものであると述べた。 「私たちは、人間の生存の大部分において、人間の知性の範囲内であったタスクを、デジタル・マシンが完了させることができる地点に近づいています」と彼は続けた。 AIの進歩は計り知れないチャンスをもたらす一方で、大惨事を招く可能性を含むリスクももたらす。 「私たちは予防策を講じるべきです」と彼は促し、AIがますます人間を模倣して誤情報や陰謀を広めたり、その他多くの悪質な活動を行っていることに警告を発した。 |
Turning to AI’s positive impact, he said AI technologies have the potential to transform society — helping to eradicate disease, combat climate change, enhance early warning capabilities and customize mediation efforts. AI can also be used to enhance data for the benefit of humanity. Mozambique recognizes the importance of adopting a balanced approach toward AI, he said, while also noting the “credible evidence” indicating that AI poses a real risk. Therefore, it is crucial to develop an intergovernmental agreement that can govern and monitor the use of AI. It is important to ensure that all relevant actors, including Governments and the private sector, are provided with the technology tools that can ensure the ethical development and use of AI, he stressed. |
AIのポジティブな影響に目を向けると、彼は、AI技術は社会を変革する可能性を秘めており、病気の撲滅、気候変動との戦い、早期警戒能力の強化、調停努力のカスタマイズなどに役立つと述べた。 AIはまた、人類の利益のためにデータを強化するために使用することもできる。 モザンビークは、AIに対してバランスの取れたアプローチを採用することの重要性を認識していると述べるとともに、AIが現実のリスクをもたらすことを示す「信頼できる証拠」にも言及した。 したがって、AIの使用をガバナンスし、監視できる政府間協定を策定することが極めて重要である。 政府や民間部門を含むすべての関係者が、AIの倫理的な開発と利用を保証する技術ツールを確実に提供されるようにすることが重要である」と強調した。 |
OMRAN SHARAF, Assistant Minister for Advanced Sciences and Technology of the United Arab Emirates, underlined the need to establish rules for AI, stating that there is a brief window of opportunity available now where key stakeholders are willing to unite and consider the guardrails for this technology. Member States should establish commonly agreed-upon rules “before it is too late”, he stressed, which should include mechanisms to prevent AI tools from promoting hatred, misinformation and disinformation that can fuel extremism and exacerbate conflict. As with other cybertechnologies, the use of AI should be firmly guided by international law, which continues to apply in cyberspace. He also emphasized that AI should become a tool to promote peacebuilding and the de-escalation of conflicts — not a threat multiplier — and that “the biases of the real world should not be replicated by AI”. Adding that flexible and agile regulation is needed, he urged avoiding too-rigid rules that can hamper the evolution of this technology. |
アラブ首長国連邦のオムラン・シャラフ先端科学技術次官補は、AIのルールを確立する必要性を強調し、主要な利害関係者が団結してこの技術のガードレールを検討する、今しかないチャンスがあると述べた。 加盟国は、「手遅れになる前に」共通に合意されたルールを確立すべきであり、そのルールには、AIツールが過激主義を煽り、紛争を悪化させる憎悪、誤情報、偽情報を助長するのを防ぐメカニズムを含めるべきだと強調した。 他のサイバーテクノロジーと同様、AIの使用は、サイバースペースで適用され続ける国際法によってしっかりと導かれるべきである。 また、AIは平和構築と紛争緩和を促進するツールとなるべきであり、脅威を増大させるものではないこと、そして「現実世界のバイアスをAIで再現すべきではない」ことも強調した。 また、柔軟で機敏な規制が必要であるとし、この技術の進化を妨げるような厳しすぎるルールは避けるよう促した。 |
ZHANG JUN (China), noting that AI is a double-edged sword, said that whether it is good or evil depends on how mankind utilizes and regulates it and balances scientific development with security. The international community should adhere to putting ethics first and ensure that technology always benefits humanity. AI development must ensure safety, risk-awareness, fairness and inclusiveness, he stressed. Leading technology enterprises should clarify the responsible party and avoid developing risky technology that could pose serious negative consequences. Meanwhile, developing countries must enjoy equal access and use of AI technology, products and services. His country has actively explored AI development and governance in all fields, he said, noting that the Government in 2017 issued the New Generation Artificial Intelligence Development Plan. In recent years it has continuously improved relevant laws and regulations, ethical norms, intellectual property standards, safety monitoring and evaluation measures to ensure the healthy and orderly development of AI. |
ZHANG JUN(中国)は、AIは諸刃の剣であると指摘し、それが善か悪かは、人類がどのようにAIを利用し、規制し、科学の発展と安全保障を両立させるかにかかっていると述べた。 国際社会は倫理を第一に考え、技術が常に人類に利益をもたらすようにすべきである。 AIの開発は、安全性、リスク認識、公平性、包括性を確保しなければならないと彼は強調した。 大手テクノロジー・エンタープライズは、責任者を明確にし、深刻な悪影響をもたらしかねない危険な技術の開発を避けるべきである。 一方、発展途上国はAI技術、製品、サービスへの平等なアクセスと利用を享受しなければならない。 同国はあらゆる分野でAIの開発とガバナンスを積極的に模索しているとし、2017年に政府が「新世代人工知能開発計画」を発表したことを指摘した。 近年は、AIの健全かつ秩序ある発展を確保するため、関連法規、倫理規範、知的財産標準、安全監視・評価措置を継続的に改善している。 |
JEFFREY DELAURENTIS (United States) said that AI offers incredible promise to address global challenges. Automated systems are already helping to grow food more efficiently, predict storm paths and identify disease in patients. AI, however, also has the potential to intensify conflict including by spreading misinformation and carrying out malicious cyberoperations. The United States is committed to working with a range of actors, including Member States, technology companies and civil society actors, he said. On 4 May, President Joseph R. Biden met with leading AI companies to underscore the responsibility to ensure AI systems are safe and trustworthy. The United States is also identifying principles to guide the design, use and deployment of automated systems. Military use of AI must be ethical and responsible. Earlier this year, the United States proposed a political declaration on the responsible military use of AI, he said, and encouraged all Member States to endorse this declaration. |
JEFFREY DELAURENTIS(米国)は、AI は世界的な課題に対処するための素晴らしい可能性を秘めている と述べた。 自動化されたシステムはすでに、食料の効率的な栽培、暴風雨の進路予測、患者の病気の特定に役立っている。 しかしAIは、誤情報の拡散や悪意あるサイバー作戦など、紛争を激化させる可能性も秘めている。 米国は加盟国、テクノロジー企業、市民社会など、さまざまなアクターと協力することを約束する」と述べた。 5月4日、ジョセフ・R・バイデン大統領は大手AI企業と会談し、AIシステムの安全性と信頼性を確保する責任を強調した。 米国はまた、自動化システムの設計、使用、配備の指針となる原則を特定している。 AIの軍事利用は倫理的かつ責任あるものでなければならない。 米国は今年初め、AIの責任ある軍事利用に関する政治宣言を提案し、すべての加盟国がこの宣言に賛同するよう促したと述べた。 |
SÉRGIO FRANÇA DANESE (Brazil) said artificial intelligence is developing so fast that even the best researchers are unable to assess the full scale of the challenges and benefits that these new technologies can provide. “What we know for sure is that artificial intelligence is not human intelligence,” he said, adding that human oversight is essential to avoid bias and errors. Even though it has been mostly developed as a civilian application, it can be predicted with certainty that AI applications will be extended to the military field and have a relevant impact on peace and security. Recalling the concept of “meaningful human control”, he underscored that humans must remain responsible for decisions on the use of weapons systems. A human element in any autonomous system is essential for the establishment of ethics standards and for full compliance with international humanitarian law. “There is no replacement for human judgment and accountability,” he asserted. |
SÉRGIO FRANÇA DANESE(ブラジル)は、人工知能は急速に発展しているため、優れた研究者でさえ、これらの新技術が提供しうる課題と利益の全容を評価することはできないと述べた。 「私たちが確実に知っていることは、人工知能は人間の知能ではないということです」と述べ、バイアスやエラーを避けるためには人間の監視が不可欠であると付け加えた。 人工知能はそのほとんどが民生用として開発されたものだが、今後、軍事分野にも応用され、平和と安全保障に影響を与えることは間違いない。 同氏は、「意味のある人間による制御」という概念を想起し、兵器システムの使用に関する決定には人間が責任を負わなければならないことを強調した。 倫理基準を確立し、国際人道法を完全に遵守するためには、いかなる自律システムにおいても人間の要素が不可欠である。 「人間の判断と説明責任に代わるものはない」と主張した。 |
PASCALE CHRISTINE BAERISWYL (Switzerland) echoed the words of the robot “Ameca”, speaking to a journalist at the “AI for Good” conference in Geneva: “I believe it’s only a matter of time before we see thousands of robots like me out there making a difference.” While a challenge due to its speed and apparent omniscience, AI can and must serve peace. “It’s in our hands to ensure that AI makes a difference to the benefit and not the detriment of humanity,” she emphasized, adding: “let’s seize the opportunity to lay the groundwork towards AI for good by working closely with cutting-edge science”. In this regard, the Swiss Federal Institute of Technology Zurich is developing a prototype of an AI-assisted analysis tool for the United Nations Operations and Crisis Centre which could explore AI’s potential for peacekeeping, particularly for the protection of civilians and peacekeepers. Additionally, Switzerland recently launched the “Swiss Call for Trust & Transparency initiative”, where academia, private sector and diplomacy jointly seek practical and rapid solutions to AI-related risks. |
PASCALE CHRISTINE BAERISWYL(スイス)は、ジュネーブで開催された "AI for Good "会議でジャーナリストの取材に応じ、ロボット "Ameca "の言葉を繰り返した: 「私のような何千ものロボットが世の中を変えるのは時間の問題だと思います。 そのスピードと見かけの全知全能性による挑戦ではあるが、AIは平和に貢献できるし、貢献しなければならない。 「AIが人類の利益となり、不利益とならないよう変化をもたらすかどうかは、私たちの手に委ねられているのです」と彼女は強調し、こう付け加えた: 「最先端科学と密接に協力することで、AIを良い方向に導く土台を築く機会をつかみましょう」と付け加えた。 この点に関して、スイス連邦工科大学チューリッヒ校は、国連活動危機管理センター向けにAI支援分析ツールのプロトタイプを開発している。このツールは、平和維持、特に民間人と平和維持要員の保護におけるAIの可能性を探ることができる。 さらにスイスは最近、「信頼と透明性のためのスイス・コール・イニシアチブ」を立ち上げ、学術界、民間企業、外交機関が共同で、AI関連のリスクに対する実践的かつ迅速な解決策を模索している。 |
HAROLD ADLAI AGYEMAN (Ghana) underscored that the international community must “constrain the excesses of individual national ambitions for combative dominance”, urging the development of frameworks that would govern AI for peaceful purposes. For Ghana, opportunity lies in developing and applying that technology to identify early warning signs of conflict and to define responses that have a higher rate of success. AI can also be applied to peace mediation and negotiation efforts, he said, noting that the deployment of that technology by the United Nations Support Mission in Libya (UNSMIL) to determine the Libyan people’s reaction to policies facilitated improvements in that country’s 2022 Global Peace Index. AI also presents risks — including its integration into autonomous weapons systems – and, on that, he observed: “The history of our experience with mankind’s mastery in atomic manipulation shows that, should such desires persist, it only generates, in equal measure, efforts by other States to cancel the advantage that such a deterrence seeks to create”. |
HAROLD ADLAI AGYEMAN (ガーナ)は、国際社会は「戦闘的な支配を目指す各国の野心の行き過ぎを抑制」しなけれ ばならないと強調し、平和的な目的のためのAIを管理する枠組みの開発を促した。 ガーナにとって、紛争の早期警告の兆候を特定し、より高い確率で成功する対応を定義するための技術を開発し、応用することにこそ機会がある。 国連リビア支援団(UNSMIL)が、政策に対するリビア国民の反応を把握するためにこの技術を導入したことで、同国の2022年の世界平和指数が改善されたことを指摘した。 AIはまた、自律型兵器システムへの統合など、リスクもはらんでいる: 「人類が原子操作に熟達した歴史は、そのような欲望が持続する場合、抑止力が生み出そうとする利点を打ち消そうとする努力を他国が等しく生み出すだけであることを示している」と述べた。 |
NICOLAS DE RIVIÈRE (France) said AI must be a tool for peace, noting that these technologies can contribute to the safety of the blue helmets, improve the protection of civilians, and facilitate the delivery of humanitarian assistance. However, it also includes risks, he pointed out, noting that AI is liable to heighten cyberthreats and help malicious actors in waging cyberattacks. At the military level, AI must be modified to reflect the nature of conflict, he said, underscoring the need to develop an applicable framework for autonomous lethal weapons. Such a framework can help ensure that future conflicts are conducted in a way that respects international humanitarian law, he added. Affirming his country’s commitment to advancing an ethical and responsible approach for AI, he said that was the aim of the global partnership it launched in 2020, with the European Union and Council of Europe, and which has been working on rules to regulate and support AI development. |
NICOLAS DE RIVIÈRE(フランス)は、AI は平和のためのツールであるべきだとし、これらの 技術はブルー・ヘルメットの安全確保に貢献し、民間人の保護を改善し、人道支援の提供を容易にす ることができると指摘した。 しかし、AIにはリスクも含まれており、AIはサイバー脅威を増大させ、悪意ある行為者のサイバー攻撃を助長する可能性があると指摘した。 軍事レベルでは、AIは紛争の性質を反映するように修正されなければならないとし、自律型殺傷兵器に適用可能な枠組みを開発する必要性を強調した。 そのような枠組みは、将来の紛争が国際人道法を尊重した形で行われることを保証するのに役立つと付け加えた。 同首相は、AIの倫理的で責任あるアプローチを推進するという自国のコミットメントを確認し、それが欧州連合(EU)および欧州評議会とともに2020年に立ち上げたグローバル・パートナーシップの目的であり、AIの開発を規制し支援するためのルールに取り組んできたと述べた。 |
HERNÁN PÉREZ LOOSE (Ecuador) said that AI has already developed at “break-neck speed” and will continue to do so. AI can contribute to peacekeeping and peace efforts, or it can undermine them; prevent conflicts and moderate dialogues in complex situations as was the case during the peak of the COVID-19 pandemic. AI can improve the security of peacekeeping camps and convoys by monitoring the situation more effectively. “Our responsibility is to promote and make the most of technological development as a facilitator of peace,” he said. This can be done only by strictly upholding international human rights law and international humanitarian law. Ecuador categorically rejects the militarization of AI and reiterates the risk posed by lethal autonomous weapons. “The robotization of conflict is a great challenge for our disarmament efforts and an existential challenge that this Council ignores at its peril,” he said. |
HERNÁN PÉREZ LOOSE (エクアドル)は、AIはすでに「猛スピード」で発展しており、今後も発展し続けると述べた。 AIは平和維持や平和への取り組みに貢献することもあれば、それを弱体化させることもある。COVID-19パンデミックのピーク時のように、複雑な状況下で紛争を防止したり、対話を和らげたりすることもできる。 AIは、状況をより効果的に監視することで、平和維持キャンプや輸送隊の安全性を改善することができる。 「私たちの責任は、平和の促進者としての技術開発を促進し、最大限に活用することです。 これは、国際人権法と国際人道法を厳守することによってのみ可能となる。 エクアドルは、AIの軍事化を断固として否定し、致死的な自律型兵器がもたらすリスクを改めて強調する。 「紛争のロボット化は、我々の軍縮努力にとって大きな挑戦であり、この理事会が危険を顧みず無視する存亡の課題である」と述べた。 |
VANESSA FRAZIER (Malta) said that as AI governance and control practices must be developed at a comparable pace for safeguarding international peace and security, the Council must push for strong AI governance and ensure its inclusive, safe and responsible deployment through the sharing of experiences and governmental frameworks. Since 2019, her country has been developing an Ethical AI Framework, aligned with the European Ethics Guidelines for Trustworthy AI, she said, further describing Malta’s efforts in the field. She voiced concern about the use of AI systems in military operations, stressing that machines cannot make human-like decisions involving the legal principles of distinction, proportionality and precaution. Moreover, lethal autonomous weapons systems currently exploiting AI should be banned and only those weapons systems that are in full respect of international humanitarian law and human rights law should be regulated, she added. |
VANESSA FRAZIER (マルタ)は、国際的な平和と安全を守るため、AIのガバナンスと管理慣行が同等のペースで開発されなければならないとして、理事会は強力なAIガバナンスを推進し、経験と政府の枠組みの共有を通じて、その包括的で安全かつ責任ある展開を確保しなければならないと述べた。 2019年以降、マルタは「信頼できるAIのための欧州倫理ガイドライン」に沿った「倫理的AIフレームワーク」を策定しており、この分野におけるマルタの取り組みについて述べた。 彼女は、軍事作戦におけるAIシステムの使用について懸念を表明し、機械は区別、比例、予防の法的原則に関わる人間のような判断を下すことはできないと強調した。 さらに、現在AIを利用している致死的な自律型兵器システムは禁止されるべきであり、国際人道法と人権法を完全に尊重した兵器システムのみが規制されるべきであると彼女は付け加えた。 |
LILLY STELLA NGYEMA NDONG (Gabon) said that AI is increasing the analytical capacity of early warning systems, thereby making it easier to detect emerging threats by analysing vast quantities of data from various sources very quickly. This has enabled United Nations peacekeeping missions to perform better, particularly in the area of civilian protection. AI has also contributed to States’ post-conflict reconstruction efforts, along with fostering the implementation of quick-impact projects, employment opportunities for youth and the reintegration of former combatants. She underscored, however, that local communities must take ownership of and absorb these new technologies “to perpetuate their beneficial effects after the withdrawal of international forces” — lest such benefits disappear, and crises resurface. Also stressing the need to bolster transparency, international governance and accountability regarding AI, she called on the United Nations to expand international cooperation to develop a regulatory framework with appropriate control mechanisms and robust security systems. |
LILLY STELLA NGYEMA NDONG(ガボン)は、AIは早期警戒システムの分析能力を高め、様々な情報源からの膨大なデータを迅速に分析することで、新たな脅威の検知を容易にしていると述べた。 これによ り、国際連合平和維持ミッションは、特に文民保護の分野で、よ り優れたパフォーマンスを発揮できるようになった。 AIはまた、即効性プロジェクトの実施、若者の雇用機会、元戦闘員の社会復帰を促進するとともに、紛争後の復興努力にも貢献してきた。 しかし彼女は、「国際軍の撤退後もその有益な効果を持続させるためには」、地域社会がこれらの新技術を所有し、吸収しなければならないことを強調した。 また、AIに関する透明性、国際ガバナンス、説明責任を強化する必要性を強調し、国連に対し、適切な管理メカニズムと強固なセキュリティ・システムを備えた規制の枠組みを構築するための国際協力を拡大するよう求めた。 |
FERIT HOXHA (Albania) said AI holds great promise to transform the world like never before, but also poses potential risks that could impact people’s safety, privacy, economy and security. Some countries continually attempt to deliberately mislead people, distort facts, and interfere in democratic processes of others by misusing digital technologies, he said, underscoring the urgency of establishing the necessary AI safeguards and governance frameworks at the national and international levels. Clear lines of responsibility and authority are also needed to ensure that AI systems are used appropriately, safely and responsibly for the good of all. Moreover, AI systems must not infringe on human rights and freedom nor undermine peace and security. The international community must promote standards for responsible State behaviour and the applicability of international law in the use of AI and its technologies, as well as in the monitoring and assessment of risks and implications, he said, highlighting the Council’s role in that regard. |
FERIT HOXHA(アルバニア)は、AIはかつてないほど世界を変革する大きな可能性を秘めている一方、人々の安全、プライバシー、経済、セキュリティに影響を与えかねない潜在的なリスクもはらんでいると述べた。 デジタル技術を悪用することで、意図的に人々を欺き、事実を歪曲し、他国の民主的プロセスを妨害しようとする国も後を絶たないとし、国家レベルおよび国際レベルで必要なAIのセーフガードとガバナンスの枠組みを確立することの緊急性を強調した。 また、AIシステムがすべての人の利益のために適切、安全かつ責任を持って使用されることを保証するために、明確な責任と権限の線引きが必要である。 さらに、AIシステムは人権や自由を侵害したり、平和と安全を損なうものであってはならない。 国際社会は、AIとその技術の利用において、またリスクとその影響の監視とアセスメントにおいて、責任ある国家の行動と国際法の適用に関する標準を推進しなければならない」と述べ、この点での理事会の役割を強調した。 |
DMITRY A. POLYANSKIY (Russian Federation) said that the development of autonomous weapons systems can pose risks to security because such systems can make decisions about the use of force. AI can also be used in the creation and spread of disinformation and “fake news”, which undermine trust and cause tensions. With respect to lethal autonomous systems, he said that the issue is discussed in the General Assembly and that duplication of such efforts is counterproductive. “The West has no ethical qualms about knowingly allowing AI to generate misanthropic statements in social networks,” he continued. Turning to digital inequality, he said that in Europe Internet access is enjoyed by approximately 89 per cent of the population. In low-income countries, only one quarter of the population enjoys such benefits. Historically, digital technologies were developed at the private level, and Governments lagged in regulating them. “This trend needs to be reversed,” he stressed. |
DMITRY A. POLYANSKIY (ロシア連邦)は、自律型兵器システムの開発は、武力行使に関する意思決定を行えるため、安全保障にリスクをもたらす可能性があると述べた。 AIは偽情報や「フェイクニュース」の作成・拡散にも利用される可能性があり、信頼を損ない、緊張を引き起こす。 致死的な自律システムに関しては、この問題は総会で議論されており、そのような努力の重複は逆効果だと述べた。 「西側諸国は、AIがソーシャルネットワークで人間嫌いの発言をすることを承知の上で許可することに倫理的な問題はない」と続けた。 デジタルの不平等については、ヨーロッパではインターネットへのアクセスは人口の約89%が享受していると述べた。 低所得国では、そのような恩恵を享受しているのは人口の4分の1に過ぎない。 歴史的に、デジタル技術は民間レベルで開発され、政府の規制は遅れていた。 「この傾向を逆転させる必要がある」と強調した。 |
Recent Comments