« マッキンゼー 生成的AIの経済的可能性:次の生産性フロンティア 2023.06.14) | Main | 英国 科学技術省データ倫理・イノベーションセンター 「AIシステムをより公平にするために、人口統計データへの責任あるアクセスを可能にする」 »

2023.06.18

英国 科学技術省データ倫理・イノベーションセンター AI保証事例集 (2023.06.07)

こんにちは、丸山満彦です。

英国の科学技術省データ倫理・イノベーションセンターがAI保証事例集を公表していますね。。。こ

今年の3月末に発表したAI規制白書に基づいて評価したもので、現在14の事例が公表されています。。。(Find out about artificial intelligence (AI) assurance techniques) れは今後ふえていくとのことです。。。

英国は良い意味でwiseですね。。。

Gov.UK -  Department for Science, Innovation and Technology - Centre for Data Ethics and Innovation; CDEI

・発表...

・2023.06.07 CDEI portfolio of AI assurance techniques

Guidance CDEI portfolio of AI assurance techniques ガイダンス CDEIのAI保証技術ポートフォリオ
This page provides details about the CDEI portfolio of AI assurance techniques and how to use it. このページでは、CDEIのAI保証技術ポートフォリオの詳細と使用方法について説明する。
About the portfolio ポートフォリオについて
The portfolio of AI assurance techniques has been developed by the Centre for Data Ethics and Innovation (CDEI), initially in collaboration with techUK. The portfolio is useful for anybody involved in designing, developing, deploying or procuring AI-enabled systems, and showcases examples of AI assurance techniques being used in the real-world to support the development of trustworthy AI. AI保証技術ポートフォリオは、データ倫理・イノベーションセンター (CDEI)が、当初techUKと共同で開発したものである。このポートフォリオは、AI対応システムの設計、開発、導入、調達に関わるすべての人に有用であり、信頼できるAIの開発を支援するために実世界で使用されているAI保証技術の事例を紹介している。
Search portfolio ポートフォリオの検索
Warning: Please note the inclusion of a case study in the portfolio does not represent a government endorsement of the technique or the organisation, rather we are aiming to demonstrate the range of possible options that currently exist. 注意:ポートフォリオに事例を掲載することは、その技術や組織を政府が支持することを意味するものではなく、むしろ現在存在する可能な選択肢の幅を示すことを目的としていることに留意されたい。
To learn more about different tools and metrics for AI assurance please refer to OECD’s catalogue of tools and metrics for trustworthy AI, a one-stop-shop for tools and metrics designed to help AI actors develop fair and ethical AI. AI保証のための様々なツールやメトリクスについて詳しく知りたい方は、OECDのcatalogue of tools and metrics for trustworthy AIを参照されたい。これは、AI関係者が公正で倫理的なAIを開発するために設計されたツールやメトリクスを集めたワンストップ・ショップである。
We will be developing the portfolio over time, and publishing future iterations with new case studies. If you would like to submit case studies to the portfolio or would like further information please get in touch at [mail] 我々は、時間をかけてポートフォリオを開発し、新しいケーススタディを含む将来の反復を公開する予定である。ポートフォリオにケーススタディを提出したい場合、またはさらなる情報を希望する場合は、[mail] までご連絡を。
Assurance 信頼性
Building and maintaining trust is crucial to realising the benefits of AI. Organisations designing, developing, and deploying AI need to be able to check that these systems are trustworthy, and communicate this clearly to their customers, service users, or wider society. AIの利点を実現するためには、信頼の構築と維持が不可欠である。AIを設計、開発、導入する組織は、これらのシステムが信頼できるものであることを確認し、顧客、サービス利用者、またはより広い社会に対して明確に伝えることができる必要がある。
AI assurance AIアシュアランス
AI assurance is about building confidence in AI systems by measuring, evaluating and communicating whether an AI system meets relevant criteria such as: AI保証とは、AIシステムが以下のような関連する基準を満たすかどうかを測定、評価、伝達することで、AIシステムに対する信頼性を高めることである:
・regulation ・規制
・standards ・基準
・ethical guidelines ・倫理指針
・organisational values ・組織的価値観
Assurance can also play an important role in identifying and managing the potential risks associated with AI. To assure AI systems effectively we need a range of assurance techniques for assessing different types of AI systems, across a wide variety of contexts, against a range of relevant criteria. また、保証は、AIに関連する潜在的なリスクを特定しマネジメントする上で重要な役割を果たすことができる。AIシステムを効果的に保証するためには、様々な種類のAIシステムを、様々な文脈で、様々な関連基準に照らして評価するための様々な保証技術が必要である。
To learn more about AI assurance, please refer to CDEI’s roadmap to an AI assurance ecosystemAI assurance guideindustry temperature check, and co-developed CDEI and The Alan Turing Institute introduction to AI assurance e-learning module. AI保証の詳細については、CDEIのAI保証エコシステムへのロードマップ、AI保証ガイド、業界温度チェック、CDEIとアラン・チューリング研究所が共同開発したAI保証のeラーニングモジュール入門を参照されたい。
Portfolio of AI assurance techniques AIアシュアランス技術のポートフォリオ
The Portfolio of AI assurance techniques was developed by the Centre for Data Ethics and Innovation (CDEI), in collaboration with techUK, to showcase examples of AI assurance techniques being used in the real-world. AI保証技術のポートフォリオは、データ倫理とイノベーションセンター(CDEI)がtechUKと共同で開発したもので、実世界で使用されているAI保証技術の例を紹介している。
It includes a variety of case studies from across multiple sectors and a range of technical, procedural and educational approaches , illustrating how a combination of different techniques can be used to promote responsible AI. We have mapped these techniques to the principles set out in the UK government’s white paper on AI regulation, to illustrate the potential role of these techniques in supporting wider AI governance. CDEIでは、様々な分野からのケーススタディと、技術的、手続き的、教育的なアプローチが含まれており、責任あるAIを推進するために様々な技術を組み合わせることができることを説明している。また、これらの手法を英国政府のAI規制白書で示された原則にマッピングし、より広範なAIガバナンスをサポートする上でこれらの手法が果たす潜在的な役割を説明した。
To learn more about different tools and metrics for AI assurance, please refer to OECD’s catalogue of tools and metrics for trustworthy AI. AI保証のためのさまざまなツールや測定基準について詳しく知るには、OECDの信頼できるAIのためのツールや測定基準のカタログを参照されたい。
Who the portfolio is for ポートフォリオは誰のためのものなのか
The portfolio is a helpful resource for anyone involved in designing, developing, deploying or procuring AI-enabled systems. 本ポートフォリオは、AI対応システムの設計、開発、導入、調達に携わるすべての人に役立つリソースである。
It will help you understand the benefits of AI assurance for your organisation, if you’re someone who is: 以下のような方にとって、AI保証が組織にもたらすメリットを理解するのに役立つだろう:
making decisions about your organisation’s use of AI 組織でのAI活用について意思決定している
involved in the procurement of AI for your company 自社でAIの調達に携わっている
Finding case studies of AI assurance AIアシュアランスのケーススタディを探す
The portfolio allows you to explore a range of examples of AI assurance techniques applied across a variety of sectors. You can search for case studies based on multiple features you might be interested in, including the type of technique and the sector you work within. Each case study is also mapped against the most relevant cross-sector regulatory principles published in the government white paper on AI regulation. ポートフォリオでは、さまざまな分野で適用されているAIアシュアランスの事例を調べることができる。事例を検索する際には、手法の種類や業種など、気になる複数の特徴から検索することができる。また、各ケーススタディは、AI規制に関する政府白書で発表された最も関連性の高い分野横断的な規制原則に照らし合わせてマッピングされている。
Assurance techniques 保証の手法
There are a range of different assurance techniques that can be used to measure, evaluate, and communicate the trustworthiness of AI systems. Some of these are listed below: AIシステムの信頼性を測定、評価、伝達するために使用できるさまざまな保証技術が存在する。その一部を以下に挙げる:
Impact assessment: Used to anticipate the effect of a system on environmental, equality, human rights, data protection, or other outcomes. 影響アセスメント: システムが環境、平等、人権、データ保護、その他の結果に及ぼす影響を予測するために使用する。
Impact evaluation: Similar to impact assessments, but are conducted after a system has been implemented in a retrospective manner. 影響評価: 影響アセスメントと似ているが、システム導入後に遡及して実施される。
Bias audit: Assessing the inputs and outputs of algorithmic systems to determine if there is unfair bias in the input data, the outcome of a decision or classification made by the system. バイアス監査: バイアス監査を行う: アルゴリズムシステムの入力と出力を評価し、入力データ、システムによる判断結果や分類に不当なバイアスがあるかどうかを判断すること。
Compliance audit: A review of a company’s adherence to internal policies and procedures, or external regulations or legal requirements. Specialised types of compliance audit include system and process audits and regulatory inspection. コンプライアンス監査: 企業が社内の方針や手続き、あるいは社外の規制や法的要件を遵守しているかどうかを審査することである。コンプライアンス監査には、システム監査やプロセス監査、規制当局の検査など、専門的なものがある。
Certification: A process where an independent body attests that a product, service, organisation or individual has been tested against, and met, objective standards of quality or performance. 認証: 製品、サービス、組織または個人が、品質または性能の客観的基準に対して試験され、それを満たしていることを、独立した機関が証明するプロセス。
Conformity assessment: Provides assurance that a product, service or system being supplied meets the expectations specified or claimed, prior to it entering the market. Conformity assessment includes activities such as testing, inspection and certification. 適合性評価:適合性評価: 製品、サービス、システムが市場に出る前に、提供される製品、サービス、システムが、指定され た、または主張された期待に合致していることを保証すること。適合性評価には、試験、検査、認証などの活動が含まれる。
Performance testing: Used to assess the performance of a system with respect to predetermined quantitative requirements or benchmarks. パフォーマンステスト: あらかじめ設定された定量的な要求事項またはベンチマークに関して、システムの性能を評価するために使用される。
Formal verification: Establishes whether a system satisfies some requirements using the formal methods of mathematics. 形式的検証: 数学の形式的手法を用い、システムがある要件を満たしているかどうかを検証する。
Using assurance techniques across the AI lifecycle AIライフサイクルにおける保証手法の活用
Check with assurance techniques can be used across each stage of the AI lifecycle. 保証技術によるチェックは、AIのライフサイクルの各段階において使用することができる。




技法タイプ 影響アセスメント コンプライアンス監査 認証 バイアス監査 適合性評価 影響評価 正式な検証 性能試験 その他継続的なテスト
ステージ                  
スコーピング            
データ収集と準備          
モデリングとデザイン    
開発  
展開  
実稼働と監視
終了            

 

Government background 政府の背景
The National AI Strategy sets out an ambitious plan for how the UK can lead the world as an AI research and innovation powerhouse. Effective AI regulation is key to realising this vision to unlock the economic and societal benefits of AI while also addressing the complex challenges it presents. 国家AI戦略は、英国がAI研究とイノベーションの大国として世界をリードするための野心的な計画を定めている。効果的なAI規制は、AIがもたらす複雑な課題に対処しつつ、AIの経済的・社会的利益を引き出すというこのビジョンを実現するための鍵である。
In its recent AI regulation white paper the UK government describes its pro-innovation, proportionate, and adaptable approach to AI regulation that supports responsible innovation across sectors. The white paper outlines five cross-cutting principles for AI regulation: safety, security and robustness; appropriate transparency and explainability; fairness; accountability and governance; and contestability and redress. Due to the unique challenges and opportunities raised by AI in particular contexts the UK will leverage the expertise of existing regulators, who are expected to interpret and implement the principles in their domain and outline what compliance with the principles looks like across different use cases. In addition, the white paper sets out the integral role of tools for trustworthy AI, such as assurance techniques and technical standards, to support the implementation of these regulatory principles in practice, boost international interoperability, and enable the development and deployment of responsible AI. 英国政府は、最近のAI規制白書の中で、部門を超えた責任あるイノベーションを支援するAI規制について、プロイノベーション、比例的、適応的なアプローチであると説明している。白書では、AI規制のための5つの横断的な原則、すなわち、安全、セキュリティ、堅牢性、適切な透明性と説明可能性、公平性、説明責任とガバナンス、競争可能性と救済について概説している。英国は、AIが特定の文脈でもたらすユニークな課題と機会のため、既存の規制当局の専門知識を活用する。彼らは、それぞれの領域で原則を解釈・実施し、さまざまなユースケースで原則の遵守がどのように見えるかを説明することが期待されている。さらに、白書では、これらの規制原則の実践を支援し、国際的な相互運用性を高め、責任あるAIの開発と展開を可能にするために、保証技術や技術標準など、信頼できるAIのためのツールの不可欠な役割を定めている。
The CDEI has conducted extensive research to investigate current uptake and adoption of tools for trustworthy AI, the findings of which are published in its industry temperature check. This report highlights industry appetite for more resources and repositories showcasing what assurance techniques exist, and how these can be applied in practice across different sectors. CDEIは、信頼できるAIのためのツールの現在の取り込みと採用を調査するために広範な調査を実施し、その結果を業界の温度チェックとして公表した。本レポートは、どのような保証技術が存在し、それらがどのように異なるセクターで実際に適用できるかを紹介するリソースやリポジトリを増やすことに対する業界の要望を強調している。
Wider ecosystem より広範なエコシステム
The UK government is already supporting the development and use of tools for trustworthy AI, through publishing a roadmap to an effective AI assurance ecosystem in the UK, having established the UK AI Standards Hub to champion the use of international standards, and now through the publication of the portfolio of AI assurance techniques. 英国政府は、英国における効果的なAI保証エコシステムへのロードマップの公表、国際標準の使用を支持するための英国AI標準ハブの設立、そして今回のAI保証技術のポートフォリオの公表を通じて、信頼できるAIのためのツールの開発と使用をすでに支援している。
UK AI Standards Hub 英国AI標準ハブ
The AI Standards Hub is a joint initiative led by The Alan Turing Institute in partnership with the British Standards Institution (BSI), the National Physical Laboratory (NPL), and supported by government. The hub’s mission is to advance trustworthy and responsible AI with a focus on the role that standards can play as governance tools and innovation mechanisms. The AI Standards Hub aims to help stakeholders navigate and actively participate in international AI standardisation efforts and champion the use of international standards for AI. Dedicated to knowledge sharing, community and capacity building, and strategic research, the hub seeks to bring together industry, government, regulators, consumers, civil society and academia with a view to: AI標準ハブは、アラン・チューリング研究所が主導し、英国規格協会(BSI)、国立物理研究所(NPL)と連携し、政府の支援を受けた共同イニシアティブである。ハブのミッションは、ガバナンスツールおよびイノベーションメカニズムとして標準が果たしうる役割に焦点を当て、信頼できる責任あるAIを推進することである。AI標準ハブは、ステークホルダーが国際的なAI標準化の取り組みにナビゲートし、積極的に参加することを支援し、AIのための国際標準の使用を支持することを目的としている。知識共有、コミュニティと能力開発、戦略的研究に特化したハブは、以下を目的として、産業界、政府、規制当局、消費者、市民社会、学界の結集を目指す:
・shaping debates about AI standardisation and promoting the development of standards that are sound, coherent, and effective ・AIの標準化に関する議論を形成し、健全で一貫性があり、効果的な標準の開発を促進する
・informing and strengthening AI governance practices domestically and internationally, ・国内および国際的なAIガバナンスの実践に情報を与え、強化する、
・increasing multi-stakeholder involvement in AI standards development ・AI標準化におけるマルチステークホルダーの関与を強化する
・facilitating the assessment and use of relevant published standards ・公開された関連規格の評価と利用を促進する
To learn more, visit the AI Standards Hub website. 詳しくは、AI Standards Hubのウェブサイトを参照のこと。
OECD AI catalogue of tools and metrics for trustworthy AI OECD AI 信頼できるAIのためのツールとメトリクス
The catalogue of tools and metrics for trustworthy AI is a one-stop-shop for tools and metrics designed to help AI actors develop and use AI systems that respect human rights and are fair, transparent, explainable, robust, secure and safe. The catalogue gives access to the latest tools and metrics in a user-friendly way but also to use cases that illustrate how those tools and metrics have been used in different contexts. Through the catalogue, AI practitioners from all over the world can share and compare tools and metrics and build upon each other’s efforts to implement trustworthy AI. 信頼できるAIのためのツールと測定基準のカタログは、AI関係者が人権を尊重し、公正、透明、説明可能、堅牢、安全、安心なAIシステムを開発・利用できるように設計されたツールと測定基準のワンストップショップである。このカタログは、ユーザーフレンドリーな方法で最新のツールやメトリクスにアクセスできるだけでなく、それらのツールやメトリクスが異なる文脈でどのように使用されたかを説明する使用例も提供している。カタログを通じて、世界中のAI実務者はツールや指標を共有・比較し、信頼できるAIの実装に向けた互いの努力を積み重ねることができる。
The OECD catalogue features relevant UK initiatives and works in close collaboration with the AI Standards Hub, showcasing relevant international standards for trustworthy AI. The OECD catalogue will also feature the case studies included in this portfolio. OECDカタログは、関連する英国のイニシアチブを取り上げ、AI Standards Hubと緊密に連携して、信頼できるAIのための関連する国際標準を紹介している。OECDカタログでは、このポートフォリオに含まれるケーススタディも紹介される予定だ。
To learn more, visit The OECD catalogue of tools and metrics for trustworthy AI. 詳細は、The OECD catalogue of tools and metrics for trustworthy AIを参照。
Open Data Institute (ODI) data assurance programme オープンデータ 協会(ODI)データ保証プログラム
Data assurance is a set of processes that increase confidence that data will meet a specific need, and that organisations collecting, accessing, using and sharing data are doing so in trustworthy ways. Data assurance is vital for organisations to build trust, manage risks and maximise opportunities. But how can organisations assess, build and demonstrate trustworthiness with data? Through its data assurance work, the ODI is working with partners and collaborators to explore this important and rapidly developing area in managing global data infrastructure. ODI believe the adoption of data assurance practices, products and services will reassure organisations and individuals who want to share or reuse data, and support better data governance practices, fostering trust and sustainable behaviour change. データ保証とは、データが特定のニーズを満たすこと、そしてデータを収集、アクセス、使用、共有する組織が信頼できる方法で行っていることの信頼を高める一連のプロセスである。データ保証は、組織が信頼を築き、リスクをマネジメントし、機会を最大化するために不可欠である。しかし、組織はどのようにしてデータの信頼性を評価し、構築し、証明できるのだろうか。ODIは、データ保証の活動を通じて、パートナーや協力者とともに、世界のデータインフラを管理する上で重要かつ急速に発展しているこの分野を探求している。 ODIは、データ保証の実践、製品、サービスの採用が、データの共有や再利用を希望する組織や個人を安心させ、より良いデータガバナンスの実践を支援し、信頼と持続可能な行動変容を促進すると考える。
To learn more, visit the ODI website. 詳細については、ODIのウェブサイトを参照。

 

ブログ...

・2023.06.07 From principles to practice: Launching the Portfolio of AI Assurance techniques

 

14 のユースケース

Find out about artificial intelligence (AI) assurance techniques

 

1 Citadel AI: Citadel and BSI partner to provide comprehensive AI assurance techniques シタデルAI:シタデルとBSIが提携し、包括的なAI保証技術を提供する。
A Use case: ユースケース:
  Data-driven profiling, Natural language processing and generation, Image recognition and video processing, Machine learning, Deep learning, Robotics and autonomous vehicles/systems データドリブンプロファイリング、自然言語処理・生成、画像認識・映像処理、機械学習、深層学習、ロボティクス・自律走行・システム
B Sector: セクター:
  Manufacturing (SIC Code Section C), Energy & Utilities (SIC Code Sections D & E), Transportation & Storage (SIC Code Section H), Digital & Comms (SIC Code Section J), Financial and Insurance (SIC Code Section K), Public Administration & Defence (SIC Code Section O), Education (SIC Code Section P), Healthcare & Social Work (SIC Code Section Q), Other Services (SIC Code Section S) 製造業、エネルギー・公益事業、運輸・倉庫、デジタル・通信、金融・保険、行政・防衛、教育、医療・福祉、その他のサービス。
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness, Accountability and governance 安全、セキュリティ、堅牢性、適切な透明性・説明可能性、公平性、説明責任・ガバナンス
D Key function: 重要機能:
  R&D, Product and service development, Risk management 研究開発、製品・サービス開発、リスクマネジメント
E AI Assurance Technique: AI保証手法:
  Data assurance, Performance testing, Certification, Conformity Assessment, Bias Audit データ保証、性能テスト、認証、適合性評価、バイアス監査
2 Trilateral Research: Ethical impact assessment, risk assessment, transparency reporting, bias mitigation and co-design of AI used to safeguard children トリテラルリサーチ: 倫理的影響アセスメント、リスク評価、透明性報告、バイアス緩和、子どもの保護に使用するAIの共同デザイン
A Use case: ユースケース:
  Natural language processing and generation, Machine learning 自然言語処理・生成、機械学習
B Sector: セクター:
  Public Administration & Defence (SIC Code Section O) 行政・国防
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness, Accountability and governance, Contestability and redress 安全・安心・堅牢性、適切な透明性・説明可能性、公平性、説明責任・ガバナンス、競争性・救済性
E AI Assurance Technique: AI保証手法:
  Data assurance, Compliance audit, Formal verification, Performance testing, Risk Assessment, Impact Assessment, Bias Audit データ保証、コンプライアンス監査、形式的検証、パフォーマンステスト、リスクアセスメント、影響アセスメント、バイアス監査
3 BABL AI: Conducting third-party audits for automated employment decision tools BABL AI:自動雇用決定ツールの第三者監査の実施
A Use case: ユースケース:
  Natural language processing and generation, Machine learning, Deep learning 自然言語処理・生成、機械学習、深層学習
B Sector: セクター:
  Digital & Comms (SIC Code Section J), Professional, Scientific & Professional Activities (SIC Code Section M), Administrative & Support Services (SIC Code Section N) デジタル・通信、専門・科学・職業活動、管理・サポートサービス。
C Principle: 原則:
  Fairness, Accountability and governance, Contestability and redress 公平性、説明責任・ガバナンス、競争・救済性
D Key function: 重要機能:
  Human Resources 人事
E AI Assurance Technique: AI保証手法:
  Compliance audit, Certification, Risk Assessment, Bias Audit コンプライアンス監査、認証、リスクアセスメント、バイアス監査
4 Best Practice AI: Developing an explainability statement for an AI-enabled medical symptom checker ベストプラクティスAI:AIを活用した医療症状チェックの説明可能性ステートメントを作成する
A Use case: ユースケース:
  Natural language processing and generation 自然言語処理と生成
B Sector: セクター:
  Digital & Comms (SIC Code Section J), Professional, Scientific & Professional Activities (SIC Code Section M), Healthcare & Social Work (SIC Code Section Q) デジタル・通信、プロフェッショナル、科学&専門活動、医療・福祉
C Principle: 原則:
  Appropriate transparency and explainability 適切な透明性・説明可能性
D Key function: 重要機能:
  Product and service development, Customer services 製品・サービス開発、顧客サービス
5 Digital Catapult: Ethics upskilling and tool development for startups デジタルカタパルト:スタートアップ企業のための倫理アップスキルアップとツール開発
A Use case: ユースケース:
  Big data analytics, Data-driven profiling ビッグデータ分析、データ駆動型プロファイリング
B Sector: セクター:
  Agriculture, Forestry and Fishing (SIC Code Section A), Mining and Quarrying (SIC Code Section B), Manufacturing (SIC Code Section C), Energy & Utilities (SIC Code Sections D & E), Construction (SIC Code Section F), Retail (SIC Code Section G), Transportation & Storage (SIC Code Section H), Accommodation and Food Service (SIC Code Section I), Digital & Comms (SIC Code Section J), Financial and Insurance (SIC Code Section K), Real Estate (SIC Code Section L), Professional, Scientific & Professional Activities (SIC Code Section M), Administrative & Support Services (SIC Code Section N), Public Administration & Defence (SIC Code Section O), Education (SIC Code Section P), Healthcare & Social Work (SIC Code Section Q), Arts, Entertainment & Recreation (SIC Code Section R), Other Services (SIC Code Section S) 農林水産業、鉱業・採石業、製造業、エネルギー・公益事業、建設業、小売り、輸送・保管、宿泊・フードサービス、デジタル・通信、金融・保険、不動産、専門職・科学・職業活動、行政・支援サービス、行政・防衛、教育、医療・福祉、芸術・娯楽・レジャー、その他のサービス。
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness, Accountability and governance, Contestability and redress 安全、セキュリティ、堅牢性、適切な透明性・説明可能性、公平性、説明責任・ガバナンス、競争・救済性
D Key function: 重要機能:
  R&D, Product and service development, Risk management 研究開発、製品・サービス開発、リスクマネジメント
E AI Assurance Technique: AI保証手法:
  Data assurance, Risk Assessment, Impact Assessment データ保証、リスクアセスメント、影響アセスメント
6 Fairly AI: FAIRLY End-to-End AI Governance Platform Fairly AI:FAIRYエンド・ツー・エンドAIガバナンスプラットフォーム
A Use case: ユースケース:
  Big data analytics, Data-driven profiling, Natural language processing and generation, Machine learning, Deep learning ビッグデータ解析、データドリブンプロファイリング、自然言語処理・生成、機械学習、深層学習
B Sector: セクター:
  Manufacturing (SIC Code Section C), Energy & Utilities (SIC Code Sections D & E), Transportation & Storage (SIC Code Section H), Professional, Scientific & Professional Activities (SIC Code Section M), Education (SIC Code Section P), Healthcare & Social Work (SIC Code Section Q), Other Services (SIC Code Section S) 製造業、エネルギー・公益事業、運輸・倉庫、専門・科学・職業活動、教育、医療・社会福祉、その他サービス。
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness, Accountability and governance 安全、セキュリティ、堅牢性、適切な透明性・説明可能性、公平性、説明責任・ガバナンス
D Key function: 重要機能:
  Product and service development, Risk management 製品・サービス開発、リスクマネジメント
E AI Assurance Technique: AI保証手法:
  Compliance audit, Performance testing, Risk Assessment, Impact Assessment, Impact Evaluation, Conformity Assessment, Bias Audit コンプライアンス監査、パフォーマンステスト、リスクアセスメント、影響アセスメント、影響評価、適合性アセスメント、バイアス監査
7 Logically AI: Testing and monitoring AI models used to counter online misinformation ローカリーAI:オンライン誤情報対策に使用されるAIモデルのテストとモニタリング
A Use case: ユースケース:
  Big data analytics, Natural language processing and generation, Image recognition and video processing, Machine learning, Deep learning ビッグデータ解析、自然言語処理・生成、画像認識・映像処理、機械学習、深層学習
B Sector: セクター:
  Digital & Comms (SIC Code Section J) デジタル・通信
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness 安全・安心・堅牢性、適切な透明性・説明可能性、公平性
D Key function: 重要機能:
  R&D, Product and service development 研究開発、製品・サービス開発
E AI Assurance Technique: AI保証手法:
  Data assurance, Performance testing, Risk Assessment, Bias Audit データ保証、パフォーマンステスト、リスクアセスメント、バイアス監査
8 Qualitest: Supporting NHS England Future-Proof Their QA Practices with AI クオリテスト: NHS EnglandのQAプラクティスをAIで将来的に強化することをサポートする。
A Use case: ユースケース:
  Big data analytics, Data-driven profiling, Natural language processing and generation, Image recognition and video processing, Machine learning, Virtual agents or artificial conversational interfaces, Robotic process automation and decision management ビッグデータ分析、データ駆動型プロファイリング、自然言語処理・生成、画像認識・映像処理、機械学習、仮想エージェント・人工会話インターフェース、ロボットによるプロセス自動化・意思決定管理
B Sector: セクター:
  Digital & Comms (SIC Code Section J), Healthcare & Social Work (SIC Code Section Q) デジタル・通信、医療・福祉
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness, Accountability and governance, Contestability and redress 安全性、セキュリティ、堅牢性、適切な透明性・説明可能性、公平性、説明責任・ガバナンス、競争・救済性
E AI Assurance Technique: AI保証手法:
  Data assurance, Risk Assessment, Impact Assessment, Impact Evaluation, Conformity Assessment, Bias Audit データ保証、リスクアセスメント、影響アセスメント、影響評価、適合性アセスメント、バイアス監査
9 British Standards Institution: EU AI Act Readiness Assessment and Algorithmic Auditing 英国規格協会: EU AI法レディネス評価、アルゴリズム監査
A Use case: ユースケース:
  Machine learning, Deep learning 機械学習、深層学習
B Sector: セクター:
  Healthcare & Social Work (SIC Code Section Q) 医療・福祉
C Principle: 原則:
  Safety, security and robustness 安全・安心・堅牢性
D Key function: 重要機能:
  R&D, Product and service development, Risk management, Strategy and corporate finance 研究開発、製品・サービス開発、リスクマネジメント、戦略・コーポレートファイナンス
E AI Assurance Technique: AI保証手法:
  Certification, Risk Assessment, Impact Assessment, Conformity Assessment, Bias Audit 認証、リスクアセスメント、影響アセスメント、適合性アセスメント、バイアス監査
10 FSA: Developing an AI-based Proof of Concept that prioritises businesses for food hygiene inspections while ensuring the ethical and responsible use of AI FSA:AIの倫理的かつ責任ある使用を保証しながら、食品衛生検査のために事業者を優先するAIベースのProof of Conceptを開発する。
A Use case: ユースケース:
  Machine learning, Deep learning 機械学習、深層学習
B Sector: セクター:
  Accommodation and Food Service (SIC Code Section I), Digital & Comms (SIC Code Section J), Administrative & Support Services (SIC Code Section N), Public Administration & Defence (SIC Code Section O), Healthcare & Social Work (SIC Code Section Q) 宿泊・飲食サービス、デジタル・通信、行政・支援サービス、行政・防衛、医療・社会福祉
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Fairness, Accountability and governance, Contestability and redress 安全、セキュリティ、堅牢性、適切な透明性・説明可能性、公平性、説明責任・ガバナンス、競争・救済性
D Key function: 重要機能:
  Risk management リスクマネジメント
E AI Assurance Technique: AI保証手法:
  Compliance audit, Risk Assessment, Impact Assessment コンプライアンス監査、リスクアセスメント、影響アセスメント
11 Shell: Evaluating the performance of machine learning models used in the energy sector シェル: エネルギー分野で使用される機械学習モデルの性能評価
A Use case: ユースケース:
  Image recognition and video processing, Deep learning 画像認識・映像処理、深層学習
B Sector: セクター:
  Energy & Utilities (SIC Code Sections D & E) エネルギー・公益事業
C Principle: 原則:
  Safety, security and robustness, Appropriate transparency and explainability, Accountability and governance 安全・安心・堅牢性、適切な透明性・説明可能性、説明責任・ガバナンス
D Key function: 重要機能:
  R&D, Product and service development 研究開発、製品・サービス開発
E AI Assurance Technique: AI保証手法:
  Performance testing テスト
12 Mind Foundry: Using Continuous Metalearning to govern AI models used for fraud detection in insurance マインド・ファウンダリー :保険の不正検知に使用されるAIモデルの統治にContinuous Metalearningを使用する
A Use case: ユースケース:
  Machine learning 機械学習
B Sector: セクター:
  Financial and Insurance (SIC Code Section K) 金融・保険
C Principle: 原則:
  Accountability and governance 説明責任・ガバナンス
D Key function: 重要機能:
  Product and service development, Risk management 商品・サービス開発、リスクマネジメント
E AI Assurance Technique: AI保証手法:
  Data assurance, Performance testing データ保証、性能テスト
13 The Alan Turing Institute: Applying argument-based assurance to AI-based digital mental health technologies アラン・チューリング研究所: AIを活用したデジタルメンタルヘルス技術に論証型保証を適用する
B Sector: セクター:
  Professional, Scientific & Professional Activities (SIC Code Section M), Healthcare & Social Work (SIC Code Section Q) 専門職、科学的・職業的活動、医療・福祉
C Principle: 原則:
  Appropriate transparency and explainability, Fairness, Accountability and governance, Contestability and redress 適切な透明性・説明可能性、公平性、説明責任・ガバナンス、競争力と救済措置
D Key function: 重要機能:
  Product and service development, Risk management, Strategy and corporate finance 製品・サービス開発、リスクマネジメント、戦略・コーポレートファイナンス
E AI Assurance Technique: AI保証手法:
  Data assurance, Risk Assessment, Impact Assessment, Impact Evaluation, Bias Audit データ保証、リスクアセスメント、影響アセスメント、影響評価、バイアス監査
14 Nvidia: Explainable AI for credit risk management: applying accelerated computing to enable explainability at scale for AI-powered credit risk management using Shapley values and SHAP Nvidia:信用リスクマネジメントのための説明可能なAI:シャプレー値とSHAPを使用したAI搭載の信用リスクマネジメントのためのスケールでの説明可能性を実現するための加速コンピューティングの適用
A Use case: ユースケース:
  Machine learning, Deep learning 機械学習、深層学習
B Sector: セクター:
  Financial and Insurance (SIC Code Section K) 金融・保険
C Principle: 原則:
  Appropriate transparency and explainability 適切な透明性・説明可能性
D Key function: 重要機能:
  Risk management リスクマネジメント
E AI Assurance Technique: AI保証手法:
  Formal verificationPerformance testing 形式的検証、パフォーマンステスト

 

1_20230618060001


 

AI規制白書

まるちゃんの情報セキュリティ気まぐれ日記

・2023.04.01 英国 意見募集 AI規制白書

 

 

 

|

« マッキンゼー 生成的AIの経済的可能性:次の生産性フロンティア 2023.06.14) | Main | 英国 科学技術省データ倫理・イノベーションセンター 「AIシステムをより公平にするために、人口統計データへの責任あるアクセスを可能にする」 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« マッキンゼー 生成的AIの経済的可能性:次の生産性フロンティア 2023.06.14) | Main | 英国 科学技術省データ倫理・イノベーションセンター 「AIシステムをより公平にするために、人口統計データへの責任あるアクセスを可能にする」 »