英国 Ada Lovelace 協会 ミッション・クリティカル - AIの安全性に関する関連分野からの教訓 (2023.10.31)
こんにちは、丸山満彦です。
英国 Ada Lovelace 協会がAIの安全性に関する論考を公開していますね。。。ここは、過去から多くのAIに関する論考等を公開していますね。。。
他の分野との比較など、興味深い分析だと思いました。。。
あと、AIの保証はどのように実現できるのか、、、というのも気になります。。。技術的な実現方法はわかるのですが、社会実装方法をどうするか。。。という点で気になる感じですね。。。
2023.11.01-02に英国でAI安全サミットが開催され、ブレッチリー宣言がだされるなど、活躍が目立ちますね。。。英国はAIの安全性の分野で世界の主導をとろうとしているのでしょうね。。。
・2023.10.31 Mission critical: Lessons from relevant sectors for AI safety
Mission critical: Lessons from relevant sectors for AI safety | ミッション・クリティカル - AIの安全性に関する関連分野からの教訓 |
AI systems are rapidly becoming ubiquitous as they are integrated into almost every aspect of our lives: from schools to public services, and from our phones to the cars we drive. Organisations across all sectors of the global economy are looking to develop, deploy and make use of the potential of these technologies. At the same time, we are already seeing considerable harms caused by the use of AI systems: ranging from discrimination, misuse and system failure, to socioeconomic and environmental harms. | AIシステムは、学校から公共サービス、携帯電話から自動車に至るまで、私たちの生活のほとんどあらゆる場面に組み込まれ、急速にユビキタス化している。世界経済のあらゆる部門の組織が、こうしたテクノロジーの可能性を開発し、展開し、活用しようとしている。同時に、私たちはすでに、AIシステムの使用によって引き起こされるかなりの害を目の当たりにしている。差別、誤用、システム障害から、社会経済的、環境的な害に至るまで、その範囲は多岐にわたる。 |
The UK Government’s announcement of an ‘AI Safety Summit’ – taking place on 1 and 2 November 2023 – has led to a surge of public interest in these topics. As world leaders and leading figures from industry and civil society descend on Bletchley Park, the words ‘AI safety’ are likely to feature prominently – but this term is a contested one, with no consensus definition. | 英国政府が2023年11月1日と2日に開催する「AIセーフティ・サミット」を発表したことで、これらのテーマに対する社会的関心が急上昇している。世界のリーダーや産業界、市民社会から有力者がブレッチリー・パークに集結する中、「AIの安全性」という言葉が大きく取り上げられることになりそうだ。 |
This policy briefing explores approaches to regulation and governance around other emerging, complex technologies and sets out a roadmap to securing governance that ensures AI works for people and society. | 本政策ブリーフィングは、他の新たな複雑な技術をめぐる規制とガバナンスのアプローチを検討し、AIが人々と社会のために機能することを保証するガバナンスを確保するためのロードマップを示すものである。 |
PDFで読まずに普通にHTMLで読んだ方が読みやすいように思いますが、一応...(^^)
・[PDF]
背景...
Background | 背景 |
The Government’s agenda for the AI Safety Summit is focused primarily on technical methods for avoiding hypothetical ‘extreme risks’ that could emerge from the misuse or loss of control of advanced ‘frontier’ AI systems. While this focus has broadened somewhat to include other types of risk in the weeks leading to the Summit, many within industry, academia and civil society have rejected the Summit’s focus as overly narrow and insufficiently attentive to the wide range of AI harms people are currently experiencing – without adequate protection.1 | AIセーフティ・サミットにおける政府の議題は、主に、先進的な「フロンティア」AIシステムの誤用や制御不能から生じうる仮想的な「極度のリスク」を回避するための技術的手法に焦点が当てられている。この焦点は、サミット開催までの数週間で、他の種類のリスクも含むようにいくらか広がったが、産業界、学界、市民社会の多くは、サミットの焦点は過度に狭く、適切な保護なしに人々が現在経験している幅広いAI被害への配慮が不十分であるとして拒否している1。 |
In other domains of cross-economy importance – such as medicine, transport and food – we take a more expansive approach to governance. Regulation in these sectors is designed to ensure that systems and technologies function as intended, that the harms they present are proportionate, and that they enjoy public trust. In this way, regulation is an enabler of innovation – rather than an inhibitor – as it ensures products and services are safe for people to use.2 | 医療、運輸、食品など、経済横断的に重要な他の領域では、私たちはガバナンスに対してより広範なアプローチをとっている。これらの分野における規制は、システムや技術が意図したとおりに機能すること、それらがもたらす危害が適切なものであること、そして社会から信頼されることを保証するために設計されている。このように、規制は、製品やサービスが人々にとって安全に使用されることを保証するため、イノベーションを阻害するものではなく、むしろ促進するものなのである2。 |
As we use AI systems more and more in our daily lives, they begin to form a part of our critical products and services. This means failures in technology design and deployment can cascade down into the contexts they are used in, and lead to severe consequences. | 日常生活でAIシステムの利用が増えるにつれ、AIシステムは重要な製品やサービスの一部を構成するようになる。これは、技術の設計と展開における失敗が、それらが使用されるコンテクストにまで連鎖し、深刻な結果につながる可能性があることを意味する。 |
Recent advances in foundation models – defined as a single AI model capable of a wide range of tasks – exacerbate this challenge as AI is integrated into the digital economy. These models are capable of a range of general tasks (such as text synthesis, image manipulation and audio generation). Notable examples are OpenAI’s GPT-3 and GPT-4, the foundation models that underpin the conversational chat agent ChatGPT. They provide a foundation on which downstream products and services can be created. | 基礎モデル(幅広いタスクに対応できる単一のAIモデルとして定義される)の最近の進歩は、AIがデジタル経済に統合されるにつれて、この課題を悪化させている。これらのモデルは、さまざまな一般的なタスク(テキスト合成、画像操作、音声生成など)に対応している。注目すべき例として、OpenAIのGPT-3とGPT-4がある。これは会話型チャットエージェントChatGPTを支える基盤モデルである。これらは、下流の製品やサービスを生み出すための基盤を提供する。 |
If AI systems become more integrated into different parts of our lives, our AI governance institutions will need to reflect the role AI plays in our societies and economies. This policy briefing provides an introduction to how regulation operates in other sectors, laying out early answers to some key questions that Ada will explore in the coming months: | AIシステムが私たちの生活の様々な部分に統合されるようになれば、AIガバナンス機構は、AIが私たちの社会や経済で果たす役割を反映する必要がある。このポリシー・ブリーフィングは、他のセクターにおける規制の運用方法について序文を提供し、エイダが今後数ヶ月で探求するいくつかの重要な疑問に対する初期の答えを示すものである: |
・What roles are different types of AI likely to play in our future economy and society? | ・将来の経済社会において、様々なタイプのAIはどのような役割を果たすのか? |
・What are the goals of regulation in other sectors that play a similar role? | ・同じような役割を果たす他のセクターにおける規制の目標は何か? |
・What regulatory mechanisms are used to achieve these goals? | ・これらの目標を達成するために、どのような規制メカニズムが用いられるのか? |
・What are the key features of these regulatory systems that enable their success? | ・これらの規制システムの成功を可能にする主な特徴は何か? |
Regulation in other sectors can inspire AI regulation, either by providing examples of best practices or examples of regulatory failures that should be avoided in the future. We hope that this briefing can inform conversations at Bletchley Park and elsewhere, during the Summit and into the future, and provide constructive lessons for the announcements brought forward by Government. | 他部門の規制は、ベストプラクティスの例や、今後避けるべき規制の失敗例を提供することで、AI規制を鼓舞することができる。このブリーフィングが、ブレッチリー・パークや他の場所、サミット期間中、そして将来にわたる会話に有益な情報を提供し、政府による発表に建設的な教訓を提供することを願っている。 |
● まるちゃんの情報セキュリティ気まぐれ日記
英国のAI関連...
・2023.11.02 英国 AI安全サミット出席国によるブレッチリー宣言/
・2023.10.30 英国 科学技術革新省 フロンティアAI:その能力とリスク - ディスカッション・ペーパー
・2023.08.25 英国 AIサミットは11月1日2日にブレッチリー・パークで開催
・2023.08.20 英国 人工知能にゲームをさせることからの学び
・2023.08.17 英国 国家サイバー戦略 2022 の進捗報告 (2022-2023)
・2023.08.15 英国 年内のAI安全サミットに向けて陣頭指揮をとる2名を任命し、Aiヘルスケア研究に1300万£(約24億円)を拠出... (2023.08.10)
・2023.07.20 英国 Ada Lovelace 協会 英国のAI規制、AIリスクなど4つの報告書
・2023.07.18 英国 科学技術省データ倫理・イノベーションセンターブログ AI保証の専門家が他の領域から学ぶべき6つの教訓 (2023.07.12)
・2023.07.09 英国 著作権と人工知能 (AI) に関する実施規範をつくるようですね。。。(2023.06.29)
・2023.07.07 英国 Ada Lovelace 協会 AIサプライチェーンにおける説明責任の分担 (2023.06.29)
・2023.06.19 英国 科学技術省データ倫理・イノベーションセンター 「AIシステムをより公平にするために、人口統計データへの責任あるアクセスを可能にする」
・2023.06.18 英国 科学技術省データ倫理・イノベーションセンター AI保証事例集 (2023.06.07)
・2023.04.29 英国 AIに関する英国政府の発表をいくつか。。。
・2023.04.01 英国 意見募集 AI規制白書
・2023.03.10 英国 ICO Blog 国際女性デーに向けて...AIによる差別への対処が重要な理由
・2022.12.10 英国 データ倫理・イノベーションセンター「業界温度チェック:AI保証の障壁と実現要因」
・2022.11.06 英国 データ倫理・イノベーションセンター データおよびAIに対する国民の意識:トラッカー調査(第2回)
・2022.10.29 英国 ICO 雇用慣行とデータ保護:労働者の健康情報案に関するコンサルテーション (2022.10.27)
・2022.09.25 英国 Ada Lovelace 協会 欧州におけるAI責任:EUのAI責任指令の先取り
・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)
・2021.06.22 人工知能技術に芸術と人文科学はどのように貢献できるか? by John Tasioulas(オックスフォード大学のAI倫理研究所所長)
・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定
Comments