WHO 保健のための人工知能の倫理とガバナンス
こんにちは、丸山満彦です。
世界保健機構 (World Health Organization: WHO) が「保健のための人工知能の倫理とガバナンス」を公表していますね。。。
● World Health Organization: WHO
・2021.06.28 Ethics and governance of artificial intelligence for health
Overview | 概要 |
The WHO guidance on Ethics & Governance of Artificial Intelligence for Health is the product of eighteen months of deliberation amongst leading experts in ethics, digital technology, law, human rights, as well as experts from Ministries of Health. While new technologies that use artificial intelligence hold great promise to improve diagnosis, treatment, health research and drug development and to support governments carrying out public health functions, including surveillance and outbreak response, such technologies, according to the report, must put ethics and human rights at the heart of its design, deployment, and use. | WHOの「保健のための人工知能の倫理とガバナンスに関するガイダンス」は、倫理、デジタル技術、法律、人権の第一人者や、保健省の専門家が18ヶ月間にわたって審議した成果です。 人工知能を用いた新技術は、診断、治療、健康診断、医薬品開発を改善し、監視や感染爆発対応などの公衆衛生機能を遂行する政府を支援するために大きな期待が寄せられていますが、本報告書によれば、そのような技術は、倫理と人権を、設計、展開、利用の中心に据えなければなりません。 |
The report identifies the ethical challenges and risks with the use of artificial intelligence of health, six consensus principles to ensure AI works to the public benefit of all countries. It also contains a set of recommendations that can ensure the governance of artificial intelligence for health maximizes the promise of the technology and holds all stakeholders – in the public and private sector – accountable and responsive to the healthcare workers who will rely on these technologies and the communities and individuals whose health will be affected by its use. | 本報告書では、保健に関する人工知能の利用に伴う倫理的な課題とリスクを明らかにし、人工知能がすべての国の公共の利益のために機能することを保証するための6つの合意原則を示しています。また、保健医療分野における人工知能のガバナンスが、その技術の可能性を最大限に引き出し、官民を問わずすべての関係者が、これらの技術に依存する医療従事者や、その利用によって健康に影響を受けるコミュニティや個人に対して責任を持ち、対応することができるようにするための一連の提言も含まれています。 |
・[PDF]
目次です。。。
Foreword | 序文 |
Acknowledgements | 謝辞 |
Abbreviations and acronyms | 省略形と頭字語 |
Executive summary | 要約 |
1. Introduction | 1. はじめに |
2. Artificial intelligence | 2. 人工知能 |
3. Applications of artificial intelligence for health | 3. 保健に対する人工知能の応用 |
3.1 In health care | 3.1 健康管理において |
3.2 In health research and drug development | 3.2 健康研究や医薬品開発における |
3.3 In health systems management and planning | 3.3 保健システムの管理と計画において |
3.4 In public health and public health surveillance | 3.4 公衆衛生と公衆衛生監視において |
3.5 The future of artificial intelligence for health | 3.5 保健のための人工知能の将来について |
4. Laws, policies and principles that apply to use of artificial intelligence for health | 4. 保健のための人工知能の利用に適用される法律、政策、原則 |
4.1 Artificial intelligence and human rights | 4.1 人工知能と人権 |
4.2 Data protection laws and policies | 4.2 データ保護に関する法律と政策 |
4.3 Existing laws and policies related to health data | 4.3 健康データに関連する既存の法律や政策 |
4.4 General principles for the development and use of artificial intelligence | 4.4 人工知能の開発と使用に関する一般原則 |
4.5 Principles for use of artificial intelligence for health | 4.5 保健のための人工知能の利用に関する原則 |
4.6 Bioethics laws and policies | 4.6 生命倫理に関する法律および政策 |
4.7 Regulatory considerations | 4.7 規制に関する検討事項 |
5. Key ethical principles for use of artificial intelligence for health | 5. 保健のための人工知能の利用に関する主要な倫理原則 |
5.1 Protect autonomy | 5.1 自律性の保護 |
5.2 Promote human well-being, human safety and the public interest | 5.2 人間の幸福、人間の安全、公共利益の促進 |
5.3 Ensure transparency, explainability and intelligibility | 5.3 透明性、説明可能性、理解可能性の確保 |
5.4 Foster responsibility and accountability | 5.4 責任とアカウンタビリティの醸成 |
5.5 Ensure inclusiveness and equity | 5.5 包括性と公平性の確保 |
5.6 Promote artificial intelligence that is responsive and sustainable | 5.6 応答性と持続可能性を備えた人工知能の推進 |
6. Ethical challenges to use of artificial intelligence for health care | 6. ヘルスケアへの人工知能の利用に関する倫理的な課題 |
6.1 Assessing whether artificial intelligence should be used | 6.1 人工知能を使用すべきかどうかの評価 |
6.2 Artificial intelligence and the digital divide | 6.2 人工知能とデジタルデバイド |
6.3 Data collection and use | 6.3 データの収集と使用 |
6.4 Accountability and responsibility for decision-making with artificial intelligence | 6.4 人工知能を用いた意思決定の説明責任と責任 |
6.5 Autonomous decision-making | 6.5 自律的な意思決定 |
6.6 Bias and discrimination associated with artificial intelligence | 6.6 人工知能に伴うバイアスと差別 |
6.7 Risks of artificial intelligence technologies to safety and cybersecurity | 6.7 人工知能技術の安全性とサイバーセキュリティに対するリスク |
6.8 Impacts of artificial intelligence on labour and employment in health and medicine | 6.8 人工知能が保健と医療における労働と雇用に与える影響 |
6.9 Challenges in commercialization of artificial intelligence for health care | 6.9 健康管理のための人工知能の商業化における課題 |
6.10 Artificial intelligence and climate change | 6.10 人工知能と気候変動 |
7. Building an ethical approach to use of artificial intelligence for health | 7. 保健のための人工知能の利用に関する倫理的アプローチの構築 |
7.1 Ethical, transparent design of technologies | 7.1 倫理的で透明性のある技術の設計 |
7.2 Engagement and role of the public and demonstration of trustworthiness to providers and patients | 7.2 一般市民の参加と役割、および提供者と患者に対する信頼性の証明 |
7.3 Impact assessment | 7.3 影響評価 |
7.4 Research agenda for ethical use of artificial intelligence for health care | 7.4 保健のための人工知能の倫理的利用に関する研究アジェンダ |
8. Liability regimes for artificial intelligence for health | 8. 保健のための人工知能に関する責任体制 |
8.1 Liability for use of artificial intelligence in clinical care | 8.1 臨床ケアにおける人工知能の使用に対する責任 |
8.2 Are machine-learning algorithms products? | 8.2 機械学習アルゴリズムは製品か? |
8.3 Compensation for errors | 8.3 過失に対する補償 |
8.4 Role of regulatory agencies and pre-emption | 8.4 規制機関の役割と先制攻撃 |
8.5 Considerations for low- and middle-income countries | 8.5 低・中所得国への配慮 |
9. Elements of a framework for governance of artificial intelligence for health | 9. 保健のための人工知能のガバナンスのためのフレームワークの要素 |
9.1 Governance of data | 9.1 データのガバナンス |
9.2 Control and benefit-sharing | 9.2 コントロールと利益配分 |
9.3 Governance of the private sector | 9.3 民間企業のガバナンス |
9.4 Governance of the public sector | 9.4 公共部門のガバナンス |
9.5 Regulatory considerations | 9.5 規制に関する検討事項 |
9.6 Policy observatory and model legislation | 9.6 ポリシーオブザベーションとモデル法案 |
9.7 Global governance of artificial Intelligence | 9.7 人工知能のグローバルガバナンス |
References | 参考文献 |
Annex. Considerations for the ethical design, deployment and use of artificial intelligence technologies for health | 附属書. 保健のための人工知能技術の倫理的な設計、展開、使用のための考慮事項 |
6つの倫理的原則は、まとめるとこうなるのかなぁ・・・
自律性の保護 | 自律性の原則は、機械の自律性の拡張が人間の自律性を損なわないことを要求します。 |
人間の幸福、人間の安全、公共利益の促進 | AI技術は人に害を与えてはなりません |
透明性、説明可能性、理解可能性の確保 | AIは、開発者、ユーザー、規制当局にとって分かりやすい、あるいは理解できるものでなければなりません。 |
責任とアカウンタビリティの醸成 | 人間は、システムが実行できるタスクと、望ましいレベルのパフォーマンスを達成できる条件について、明確で透明性のある仕様を必要とする。 |
包括性と公平性の確保 | AIが、年齢、性別、収入、能力、その他の特性に関係なく、可能な限り広範な適切かつ公平な使用およびアクセスを促すように設計される |
応答性と持続可能性を備えた人工知能の推進 | 設計者、開発者、ユーザーが、AI技術を継続的に、体系的に、透明性を持って検証し、AI技術が使用されている状況において、伝えられた期待や要求に適切に、適切に対応しているかどうかを判断する |
・[DOCX] 仮対訳
● United Nation - news
・2021.06.28 WHO guidance on Artificial Intelligence to improve healthcare, mitigate risks worldwide
エグゼクティブ・サマリー
↓↓↓↓↓↓↓↓
EXECUTIVE SUMMARY | エグゼクティブサマリー |
Artificial Intelligence (AI) refers to the ability of algorithms encoded in technology to learn from data so that they can perform automated tasks without every step in the process having to be programmed explicitly by a human. WHO recognizes that AI holds great promise for the practice of public health and medicine. WHO also recognizes that, to fully reap the benefits of AI, ethical challenges for health care systems, practitioners and beneficiaries of medical and public health services must be addressed. Many of the ethical concerns described in this report predate the advent of AI, although AI itself presents a number of novel concerns. | 人工知能(AI)とは、技術に組み込まれたアルゴリズムがデータから学習し、人間がプロセスの各ステップを明示的にプログラムしなくても、自動化されたタスクを実行できる能力のことです。WHOは、AIが公衆衛生と医療の実践に大きな期待を寄せていることを認識しています。また、WHOは、AIの恩恵を十分に享受するためには、医療システム、医療従事者、医療・公衆衛生サービスの受益者に対する倫理的課題に取り組まなければならないと認識しています。本報告書に記載されている倫理的課題の多くは、AIの登場以前から存在していますが、AI自体にも多くの新しい課題があります。 |
Whether AI can advance the interests of patients and communities depends on a collective effort to design and implement ethically defensible laws and policies and ethically designed AI technologies. There are also potential serious negative consequences if ethical principles and human rights obligations are not prioritized by those who fund, design, regulate or use AI technologies for health. AI’s opportunities and challenges are thus inextricably linked. | AIが患者や地域社会の利益を向上させることができるかどうかは、倫理的に擁護可能な法律や政策、倫理的に設計されたAI技術を設計・導入するための集団的な努力にかかっています。また、保健のためにAI技術に資金を提供したり、設計したり、規制したり、利用したりする人々が、倫理原則や人権の義務を優先しない場合、深刻な悪影響を及ぼす可能性があります。このように、AIの機会と課題は表裏一体となっています。 |
AI can augment the ability of health-care providers to improve patient care, provide accurate diagnoses, optimize treatment plans, support pandemic preparedness and response, inform the decisions of health policy-makers or allocate resources within health systems. To unlock this potential, health-care workers and health systems must have detailed information on the contexts in which such systems can function safely and effectively, the conditions necessary to ensure reliable, appropriate use, and the mechanisms for continuous auditing and assessment of system performance. Healthcare workers and health systems must have access to education and training in order to use and maintain these systems under the conditions for their safe, effective use. | AIは、患者のケアを改善し、正確な診断を行い、治療計画を最適化し、パンデミックへの準備と対応をサポートし、医療政策立案者の決定に情報を提供し、医療システム内のリソースを配分するために、医療従事者の能力を強化することができます。この可能性を引き出すためには、医療従事者と医療システムは、そのようなシステムが安全かつ効果的に機能する状況、信頼性の高い適切な使用を保証するために必要な条件、およびシステム性能の継続的な監査と評価のためのメカニズムに関する詳細な情報を持っていなければなりません。また、医療従事者や医療システムは、これらのシステムを安全かつ効果的に使用するための条件の下で使用し、維持するための教育やトレーニングを受けることができなければなりません。 |
AI can also empower patients and communities to assume control of their own health care and better understand their evolving needs. To achieve this, patients and communities require assurance that their rights and interests will not be subordinated to the powerful commercial interests of technology companies or the interests of governments in surveillance and social control. It also requires that the potential of AI to detect risks to patient or community health is incorporated into health systems in a way that advances human autonomy and dignity and does not displace humans from the centre of health decision-making. | また、AIは、患者やコミュニティが自らの健康管理をコントロールし、進化するニーズをよりよく理解できるようにします。そのためには、患者やコミュニティの権利や利益が、テクノロジー企業の強力な商業的利益や、監視や社会的統制における政府の利益に従属しないことを保証する必要があります。また、患者やコミュニティの健康に対するリスクを検出するAIの可能性が、人間の自律性と尊厳を高め、健康に関する意思決定の中心から人間を追い出さない方法で、保健システムに組み込まれることも必要です。 |
AI can enable resource-poor countries, where patients often have restricted access to health-care workers or medical professionals, to bridge gaps in access to health services. AI systems must be carefully designed to reflect the diversity of socioeconomic and health-care settings and be accompanied by training in digital skills, community engagement and awareness-raising. Systems based primarily on data of individuals in high-income countries may not perform well for individuals in low- and middle-income settings. Country investments in AI and the supporting infrastructure should therefore help to build effective health-care systems by avoiding AI that encodes biases that are detrimental to equitable provision of and access to healthcare services. | AIは、患者が医療従事者や医療専門家へのアクセスを制限されることが多い資源の乏しい国において、医療サービスへのアクセスの格差を埋めることができます。AIシステムは、社会経済や医療環境の多様性を反映して慎重に設計されなければならず、また、デジタルスキル、コミュニティへの参加、意識向上のためのトレーニングを伴う必要があります。主に高所得国の個人のデータに基づいたシステムは、低・中所得環境の個人に対してはうまく機能しない可能性があります。したがって、AIとそれを支えるインフラへの国の投資は、保健サービスの公平な提供とアクセスに悪影響を及ぼすバイアスをコード化したAIを回避することで、効果的な健康管理システムの構築に役立つはずです。 |
This guidance document, produced jointly by WHO’s Health Ethics and Governance unit in the department of Research for Health and by the department of Digital Health and Innovation, is based on the collective views of a WHO Expert Group on Ethics and Governance of AI for Health, which comprised 20 experts in public health, medicine, law, human rights, technology and ethics. The group analysed many opportunities and challenges of AI and recommended policies, principles and practices for ethical use of AI for health and means to avoid its misuse to undermine human rights and legal obligations. | このガイダンス文書は、WHOの健康研究部門の健康倫理・ガバナンスユニットとデジタルヘルス・イノベーション部門が共同で作成したもので、公衆衛生、医学、法律、人権、技術、倫理などの専門家20名で構成された「保健のためのAIの倫理とガバナンスに関するWHO専門家グループ」の意見を集約したものです。このグループは、AIの多くの機会と課題を分析し、保健のためのAIを倫理的に使用するための政策、原則、実践、および人権や法的義務を損なうような誤用を避けるための手段を提言しました。 |
AI for health has been affected by the COVID-19 pandemic. Although the pandemic is not a focus of this report, it has illustrated the opportunities and challenges associated with AI for health. Numerous new applications have emerged for responding to the pandemic, while other applications have been found to be ineffective. Several applications have raised ethical concerns in relation to surveillance, infringement on the rights of privacy and autonomy, health and social inequity and the conditions necessary for trust and legitimate uses of data-intensive applications. During their deliberations on this report, members of the expert group prepared interim WHO guidance for the use of proximity tracking applications for COVID-19 contact-tracing. | 保健のためのAIは、COVID-19パンデミックの影響を受けています。このパンデミックは本報告書の焦点ではありませんが、保健のためのAIに関連する機会と課題を示しています。パンデミックに対応するための数多くの新しいアプリケーションが登場した一方で、他のアプリケーションは効果がないことが判明しました。いくつかのアプリケーションでは、監視、プライバシーと自律性の権利の侵害、健康と社会的不公平、データ集約型アプリケーションの信頼と正当な利用に必要な条件などに関連して、倫理的な懸念が生じています。本報告書の審議の中で、専門家グループのメンバーは、COVID-19の接触者追跡のための近接追跡アプリケーションの使用に関するWHOの暫定的なガイダンスを作成しました。 |
Key ethical principles for the use of AI for health | 保健のためのAI利用に関する主要な倫理原則 |
This report endorses a set of key ethical principles. WHO hopes that these principles will be used as a basis for governments, technology developers, companies, civil society and inter-governmental organizations to adopt ethical approaches to appropriate use of AI for health. The six principles are summarized below and explained in depth in Section 5. | 本報告書は、一連の重要な倫理原則を支持するものです。WHOは、これらの原則が、政府、技術開発者、企業、市民社会、政府間組織が、保健のためのAIの適切な使用のための倫理的アプローチを採用するための基礎として使用されることを期待しています。6つの原則は以下に要約され、セクション5で詳しく説明されています。 |
Protecting human autonomy: Use of AI can lead to situations in which decisionmaking power could be transferred to machines. The principle of autonomy requires that the use of AI or other computational systems does not undermine human autonomy. In the context of health care, this means that humans should remain in control of health-care systems and medical decisions. Respect for human autonomy also entails related duties to ensure that providers have the information necessary to make safe, effective use of AI systems and that people understand the role that such systems play in their care. It also requires protection of privacy and confidentiality and obtaining valid informed consent through appropriate legal frameworks for data protection. | 人間の自律性の保護:AIの使用は、意思決定権が機械に移るような事態を招きかねません。自律性の原則では、AIやその他の計算システムの利用が人間の自律性を損なわないことが求められます。これは、保健の文脈では、人間が保健システムと医療上の意思決定をコントロールし続けるべきであることを意味します。人間の自律性の尊重には、AIシステムを安全かつ効果的に利用するために必要な情報を提供することや、そのようなシステムがケアにおいて果たす役割を人々が理解することを保証するという関連する義務も伴います。また、データ保護のための適切な法的枠組みを通じて、プライバシーと機密性を保護し、有効なインフォームド・コンセントを得ることも必要です。 |
Promoting human well-being and safety and the public interest. AI technologies should not harm people. The designers of AI technologies should satisfy regulatory requirements for safety, accuracy and efficacy for well-defined use cases or indications. Measures of quality control in practice and quality improvement in the use of AI over time should be available. Preventing harm requires that AI not result in mental or physical harm that could be avoided by use of an alternative practice or approach. | 人間の幸福と安全および公共の利益の促進。AI技術は人を傷つけてはならない。AI技術の設計者は、明確に定義されたユースケースや適応症に対して、安全性、正確性、有効性に関する規制要求を満たすべきである。実践における品質管理と、時間の経過に伴うAIの使用における品質向上の測定が可能であるべきである。危害を防止するためには、AIが精神的または身体的な危害をもたらさず、それが代替的な実践やアプローチを用いることで回避できることが必要です。 |
Ensuring transparency, explainability and intelligibility. AI technologies should be intelligible or understandable to developers, medical professionals, patients, users and regulators. Two broad approaches to intelligibility are to improve the transparency of AI technology and to make AI technology explainable. Transparency requires that sufficient information be published or documented before the design or deployment of an AI technology and that such information facilitate meaningful public consultation and debate on how the technology is designed and how it should or should not be used. AI technologies should be explainable according to the capacity of those to whom they are explained. | 透明性、説明可能性、理解可能性の確保。AI技術は、開発者、医療関係者、患者、ユーザー、規制当局が理解できるものでなければなりません。わかりやすさのための2つの主要なアプローチは、AI技術の透明性を向上させることと、AI技術を説明可能にすることです。透明性とは、AI技術の設計や展開の前に、十分な情報が公開または文書化され、そのような情報によって、技術がどのように設計され、どのように使用されるべきか、または使用されるべきでないかについて、意味のある公的な協議や議論が促進されることを意味します。また、AI技術は、説明を受ける人の能力に応じて説明可能なものでなければなりません。 |
Fostering responsibility and accountability. Humans require clear, transparent specification of the tasks that systems can perform and the conditions under which they can achieve the desired performance. Although AI technologies perform specific tasks, it is the responsibility of stakeholders to ensure that they can perform those tasks and that AI is used under appropriate conditions and by appropriately trained people. Responsibility can be assured by application of “human warranty”, which implies evaluation by patients and clinicians in the development and deployment of AI technologies. Human warranty requires application of regulatory principles upstream and downstream of the algorithm by establishing points of human supervision. If something goes wrong with an AI technology, there should be accountability. Appropriate mechanisms should be available for questioning and for redress for individuals and groups that are adversely affected by decisions based on algorithms. | 責任と説明責任の促進。人間は、システムが実行できるタスクと、望ましいパフォーマンスを達成するための条件について、明確で透明性のある仕様を必要とします。AI技術は特定のタスクを実行しますが、それらのタスクを実行できることを保証し、AIが適切な条件で、適切な訓練を受けた人々によって使用されることを保証するのは、ステークホルダーの責任です。責任は、AI技術の開発と展開において、患者や臨床医による評価を意味する「人間保証(human warranty)」を適用することで保証することができます。人間による保証には、人間による監督ポイントを設けて、アルゴリズムの上流と下流に規制原則を適用することが必要です。AI技術で何か問題が発生した場合、説明責任が果たされるべきです。アルゴリズムに基づく決定によって悪影響を受けた個人やグループへの質問や救済のために、適切なメカニズムが利用可能であるべきです。 |
Ensuring inclusiveness and equity. Inclusiveness requires that AI for health be designed to encourage the widest possible appropriate, equitable use and access, irrespective of age, sex, gender, income, race, ethnicity, sexual orientation, ability or other characteristics protected under human rights codes. AI technology, like any other technology, should be shared as widely as possible. AI technologies should be available for use not only in contexts and for needs in high-income settings but also in the contexts and for the capacity and diversity of LMIC. AI technologies should not encode biases to the disadvantage of identifiable groups, especially groups that are already marginalized. Bias is a threat to inclusiveness and equity, as it can result in a departure, often arbitrary, from equal treatment. AI technologies should minimize inevitable disparities in power that arise between providers and patients, between policy-makers and people and between companies and governments that create | 包括性と公平性の確保。包括性とは、年齢、性別、収入、人種、民族、性的指向、能力、その他の人権規定で保護されている特性にかかわらず、保健のためのAIが可能な限り幅広く適切で公平な使用とアクセスを促すように設計されることを意味します。AIテクノロジーは、他のテクノロジーと同様に、可能な限り広く共有されるべきです。AIテクノロジーは、高所得環境のコンテクストやニーズだけでなく、LMICのコンテクストや能力・多様性に合わせて使用できるようにすべきです。AIテクノロジーは、特定可能なグループ、特にすでに疎外されているグループに不利なバイアスをコード化してはなりません。バイアスは、平等な扱いをしばしば恣意的に逸脱することになるため、包括性と公平性を脅かすものです。AI技術は、提供者と患者の間、政策立案者と人々の間、AI技術を開発・展開する企業と政府の間に生じる不可避の力の格差を最小限に抑えるべきです。 |
and deploy AI technologies and those that use or rely on them. AI tools and systems should be monitored and evaluated to identify disproportionate effects on specific groups of people. No technology, AI or otherwise, should sustain or worsen existing forms of bias and discrimination. | AI技術は、提供者と患者の間、政策立案者と人々の間、AI技術を開発・展開する企業や政府と、それらを利用・依存する人々の間に生じる不可避の力の差を最小限に抑えるべきです。AIツールおよびシステムは、特定のグループの人々に対する不均衡な影響を特定するために、監視および評価されるべきです。AIであろうとなかろうと、いかなるテクノロジーも、既存の偏見や差別を持続させたり、悪化させたりしてはなりません。 |
Promoting AI that is responsive and sustainable. Responsiveness requires that designers, developers and users continuously, systematically and transparently assess AI applications during actual use. They should determine whether AI responds adequately and appropriately and according to communicated, legitimate expectations and requirements. Responsiveness also requires that AI technologies be consistent with wider promotion of the sustainability of health systems, environments and workplaces. AI systems should be designed to minimize their environmental consequences and increase energy efficiency. That is, use of AI should be consistent with global efforts to reduce the impact of human beings on the Earth’s environment, ecosystems and climate. Sustainability also requires governments and companies to address anticipated disruptions in the workplace, including training for health-care workers to adapt to the use of AI systems, and potential job losses due to use of automated systems. | 応答的で持続可能なAIを推進する。応答性とは、設計者、開発者、ユーザーが、実際に使用するAIアプリケーションを継続的、体系的、かつ透明性をもって評価することです。彼らは、伝えられた正当な期待や要求に応じて、AIが適切かつ適切に反応するかどうかを判断しなければなりません。また、AI技術は、医療システム、環境、職場の持続可能性をより広く推進することと一致することが求められます。AIシステムは、環境への影響を最小限に抑え、エネルギー効率を高めるように設計されるべきです。すなわち、AIの使用は、人間が地球の環境、生態系、気候に与える影響を軽減するための世界的な取り組みと一致していなければなりません。また、持続可能性のためには、政府や企業は、AIシステムの使用に適応するための医療従事者のトレーニングや、自動化システムの使用による潜在的な雇用喪失など、職場で予想される混乱に対処する必要があります。 |
Overview of the report | 本レポートの概要 |
This report is divided into nine sections and an annex. Section 1 explains the rationale for WHO’s engagement in this topic and the intended readership of the report’s findings, analyses and recommendations. Sections 2 and 3 define AI for health through its methods and applications. Section 2 provides a non-technical definition of AI, which includes several forms of machine learning as a subset of AI techniques. It also defines “big data,” including sources of data that comprise biomedical or health big data. Section 3 provides a non-comprehensive classification and examples of AI technologies for health, including applications used in LMIC, such as for medicine, health research, drug development, health systems management and planning, and public health surveillance. | 本報告書は、9つのセクションと附属書で構成されています。セクション1では、WHOがこのテーマに取り組む理由と、本レポートの調査結果、分析、提言の対象読者について説明しています。セクション2と3では、保健のためのAIを、その手法とアプリケーションを通じて定義しています。セクション2では、AIの非技術的な定義を示しており、AI技術のサブセットとしていくつかの形態の機械学習を含んでいます。また、バイオメディカル・ビッグデータやヘルス・ビッグデータを構成するデータソースを含む「ビッグデータ」を定義しています。セクション3では、医療、健康研究、医薬品開発、医療システムの管理と計画、公衆衛生監視など、LMICで使用されるアプリケーションを含む、保健のためのAI技術の非包括的な分類と例を示しています。 |
Section 4 summarizes the laws, policies and principles that apply or could apply to the use of AI for health. These include human rights obligations as they apply to AI, the role of data protection laws and frameworks and other health data laws and policies. The section describes several frameworks that commend ethical principles for the use of AI for health, as well as the roles of bioethics, law, public policy and regulatory frameworks as sources of ethical norms. | セクション4では、保健のためのAIの利用に適用される、または適用される可能性のある法律、政策、原則をまとめています。これらには、AIに適用される人権上の義務、データ保護法やフレームワークの役割、その他の健康データに関する法律や政策が含まれます。このセクションでは、保健のためのAIの使用に関する倫理原則を称賛するいくつかのフレームワークと、倫理規範の源としての生命倫理、法律、公共政策、規制フレームワークの役割について説明しています。 |
Section 5 describes the six ethical principles that the Expert Group identified as guiding the development and use of AI for health. Section 6 presents the ethical challenges identified and discussed by the Expert Group to which these guiding ethical principles can be applied: whether AI should be used; AI and the digital divide; | セクション5では、専門家グループが、保健のためのAIの開発と使用を導くものとして特定した6つの倫理原則について説明しています。セクション6では、これらの指針となる倫理原則を適用するために、専門家グループが特定し、議論した倫理的課題を紹介します。 |
data collection and use; accountability and responsibility for decision-making with AI; autonomous decision-making; bias and discrimination associated with AI; risks of AI to safety and cybersecurity; impacts of AI on labour and employment in health care; challenges in the commercialization of AI for health care; and AI and climate change. | データの収集と使用、AIによる意思決定の説明責任と責任、自律的な意思決定、AIに関連する偏見と差別、安全性とサイバーセキュリティに対するAIのリスク、ヘルスケアにおける労働と雇用に対するAIの影響、ヘルスケアのためのAIの商業化における課題、AIと気候変動。 |
The final sections of the report identify legal, regulatory and non-legal measures for promoting ethical use of AI for health, including appropriate governance frameworks. Recommendations are provided. | 報告書の最後のセクションでは、適切なガバナンスの枠組みを含め、保健のためのAIの倫理的な利用を促進するための法的、規制的、非法的な手段を明らかにしています。提言を行っています。 |
Section 7 examines how various stakeholders can introduce ethical practices, programmes and measures to anticipate or meet ethical norms and legal obligations. They include: ethical, transparent design of AI technologies; mechanisms for the engagement and role of the public and demonstrating trustworthiness with providers and patients; impact assessment; and a research agenda for ethical use of AI for health care. | セクション7では、様々なステークホルダーが、倫理的規範や法的義務を先取りしたり満たしたりするために、どのように倫理的な実践、プログラム、措置を導入できるかを検討しています。それらには、倫理的で透明性のあるAI技術の設計、一般市民の関与と役割、提供者や患者との信頼性を示すためのメカニズム、影響評価、ヘルスケアのためのAIの倫理的利用のための研究アジェンダなどが含まれます。 |
Section 8 is a discussion of how liability regimes may evolve with increasing use of AI for health care. It includes how liability could be assigned to a health-care provider, a technology provider and a health-care system or hospital that selects an AI technology and how the rules of liability might influence how a practitioner uses AI. The section also considers whether machine-learning algorithms are products, how to compensate individuals harmed by AI technologies, the role of regulatory agencies and specific aspects for LMIC. | セクション8では、ヘルスケアのためのAIの使用が増えるにつれて、責任体制がどのように変化するかについて議論しています。ここでは、AI技術を選択した医療提供者、技術提供者、医療システムや病院にどのように責任が課せられるか、また、責任のルールが施術者のAI利用にどのように影響するかなどを説明しています。また、機械学習アルゴリズムが製品であるかどうか、AI技術によって被害を受けた個人への補償方法、規制機関の役割、LMICの具体的な側面についても検討しています。 |
Section 9 presents elements of a governance framework for AI for health. | セクション9では、保健のためのAIのためのガバナンスフレームワークの要素を示しています。 |
“Governance in health” refers to a range of functions for steering and rule-making by governments and other decision-makers, including international health agencies, to achieve national health policy objectives conducive to universal health coverage. The section analyses several governance frameworks either being developed or already matured. The frameworks discussed are: governance of data, control and benefitsharing, governance of the private sector, governance of the public sector, regulatory considerations, the role of a policy observatory and model legislation and global governance of AI. | 「保健におけるガバナンス」とは、ユニバーサル・ヘルス・カバレッジにつながる国民の健康政策目標を達成するために、政府や国際保健機関を含むその他の意思決定者が行う、舵取りやルール作りのためのさまざまな機能を指します。このセクションでは、現在開発中またはすでに成熟しているいくつかのガバナンスフレームワークを分析します。議論されているフレームワークは、データのガバナンス、コントロールとベネフィットシェアリング、民間部門のガバナンス、公的部門のガバナンス、規制に関する考察、政策観測所の役割とモデル法案、AIのグローバルガバナンスです。 |
Finally, the report provides practical advice for implementing the WHO guidance for three sets of stakeholders: AI technology developers, ministries of health and healthcare providers. The considerations are intended only as a starting-point for contextspecific discussions and decisions by diverse stakeholders. | 最後に、WHOのガイダンスを実施するための実践的なアドバイスを、3組のステークホルダーに向けて提供しています。AI技術開発者、保健省、医療従事者。考察は、多様なステークホルダーによる文脈に応じた議論や決定のための出発点としてのみ意図されています。 |
While the primary readership of this guidance document is ministries of health, it is also intended for other government agencies, ministries that will regulate AI, those who use AI technologies for health and entities that design and finance AI technologies for health. | このガイダンス文書の主な読者は保健省ですが、その他の政府機関、AIを規制することになる省庁、保健のためにAI技術を使用する人、保健のためにAI技術を設計・融資する事業者も対象としています。 |
Implementation of this guidance will require collective action. Companies and governments should introduce AI technologies only to improve the human condition and not for objectives such as unwarranted surveillance or to increase the sale of unrelated commercial goods and services. Providers should demand appropriate technologies and use them to maximize both the promise of AI and clinicians’ expertise. Patients, community organizations and civil society should be able to hold governments and companies to account, to participate in the design of technologies and rules, to develop new standards and approaches and to demand and seek transparency to meet their own needs as well as those of their communities and health systems. | このガイダンスの実施には、集団的な行動が必要です。企業や政府は、AI技術を人間の状態を改善するためにのみ導入すべきであり、不当な監視や無関係な商材・サービスの販売拡大といった目的のために導入すべきではありません。医療提供者は、適切な技術を求め、AIの有望性と臨床医の専門性の両方を最大限に引き出すために、それらを利用すべきです。患者、地域団体、市民社会は、政府や企業に責任を負わせ、技術やルールの設計に参加し、新しい基準やアプローチを開発し、自らのニーズだけでなく、地域社会や医療制度のニーズを満たすために透明性を要求し、求めることができるべきです。 |
AI for health is a fast-moving, evolving field, and many applications, not yet envisaged, will emerge with ever-greater public and private investment. WHO may consider issuing specific guidance for additional tools and applications and may update this guidance periodically to keep pace with this rapidly changing field. | 保健のためのAIは、動きの速い進化した分野であり、まだ想定されていない多くのアプリケーションが、これまで以上に大きな官民の投資によって出現するでしょう。WHOは、追加のツールやアプリケーションに対して特定のガイダンスを発行することを検討し、この急速に変化する分野に対応するために本ガイダンスを定期的に更新する可能性があります。 |
Comments