« 欧州議会 標準が欧州のデジタル競争力を支える仕組み | Main | 世界経済フォーラム (WEF) サイバー犯罪ネットワークを破壊する: 協働の枠組み »

2024.11.20

英国 ICO 遺伝情報に関するプライバシーのガイドライン...

こんにちは、丸山満彦です。

ICOが、遺伝情報に関するプライバシーの新しいガイドラインを公表していますね...

遺伝情報は、

・(他の生体情報と同じく、)変更が不可能なので、それをパスワードのように使う場合、漏れても変更できない

・家族にも影響が及ぶ

という点に大きな特徴があると思います。とくに家族にも影響が及ぶというところが、特異な点でしょうね...

この報告書、なかなか読み応えあります...

 

U.K. Information Commissioner's Office; ICO

・2024.11.07 “Privacy must still come first.” – we're calling for collaboration with developers as report reveals future innovations and data protection concerns in genomics

 

“Privacy must still come first.” – we're calling for collaboration with developers as report reveals future innovations and data protection concerns in genomics 「プライバシーが第一であることに変わりはない」 - ゲノミクスにおける将来の革新とデータ保護の懸念を明らかにする報告書として、我々は開発者との協力を呼びかけている。
・New report highlights how genomics could one day determine insurance quotes, solve crimes, tailor support in schools and create fitness plans ・新しい報告書では、ゲノミクスがいつの日か保険の見積もりを決定し、犯罪を解決し、学校でのサポートを調整し、フィットネス・プランを作成する可能性があることを強調している。
・Concerns raised around third-party data, inappropriate bias, data security, and data minimisation ・サードパーティ・データ、不適切なバイアス、データセキュリティ、データの最小化に関する懸念が提起されている。
・We call for developers to take “privacy-by-design” approach and to join Regulatory Sandbox ・我々は、開発者が「プライバシー・バイ・デザイン」のアプローチをとり、レギュラトリー・サンドボックスに参加することを求める。
We have today released a new report on genomics, highlighting the need for a privacy-by-design approach that supports innovation whilst safeguarding privacy. 我々は本日、ゲノミクスに関する新しい報告書を発表し、プライバシーを守りつつイノベーションを支援するプライバシー・バイ・デザイン・アプローチの必要性を強調した。
The report shows how genomics could soon impact everyday life in remarkable ways: hospitals might use DNA to predict and prevent diseases, insurers could adjust policies based on genetic health markers, and wearable tech could personalise fitness plans based on genetic tendencies. この報告書は、ゲノミクスが近い将来、いかに日常生活に驚くべき影響を与えるかを示している。病院はDNAを利用して病気を予測・予防し、保険会社は遺伝的健康マーカーに基づいて保険を調整し、ウェアラブル技術は遺伝的傾向に基づいてフィットネス・プランをパーソナライズするかもしれない。
The report, part of our Tech Futures series, examines the challenges posed by rapid advancements in genomic technology and invites organisations to engage with us through our Regulatory Sandbox. 本報告書は、当社のTech Futuresシリーズの一環として、ゲノム技術の急速な進歩がもたらす課題を検証し、当社のRegulatory Sandbox(規制のサンドボックス)を通じて、各組織に当社への参加を呼びかけている。
As genomics continues to reshape healthcare and expand into sectors such as insurance, education, and law enforcement, the report explores various scenarios to illustrate potential data protection concerns, including: ゲノミクスがヘルスケアを再構築し、保険、教育、法執行などの分野に拡大し続ける中、本報告書は、データ保護に関する潜在的な懸念を説明するために、以下のような様々なシナリオを模索している:
・Data security: Some genomic data is highly personal and nearly impossible to anonymise, raising risks of misuse or re-identification if mishandled or improperly shared. ・データセキュリティ: データの安全性:一部のゲノムデータは極めて個人的であり、匿名化することはほぼ不可能であるため、取り扱いを誤ったり不適切に共有されたりすると、誤用や再識別のリスクが高まる。
・Discrimination or bias: Using genomic data in areas like insurance or law enforcement could lead to systemic discrimination, particularly if combined with models that may reinforce existing biases. ・識別的またはバイアス: 保険や法執行などの分野でゲノムデータを使用することは、特に既存のバイアスを強化する可能性のあるモデルと組み合わされた場合、制度的差別につながる可能性がある。
・Transparency and consent: The sharing of data between organisations in sectors like healthcare can make it difficult for individuals to understand how their genomic data is used and for what purpose. ・透明性と同意: 医療などの分野で組織間でデータが共有されることにより、個人が自分のゲノムデータがどのように使用され、どのような目的で使用されるのかを理解することが困難になる可能性がある。
・Family sharing: Genomic information inherently relates to family members, meaning data shared about one person could inadvertently reveal sensitive information about another. ・家族の共有: ゲノム情報は本質的に家族に関係するものであり、ある人に関するデータが共有されることで、別の人に関するセンシティブな情報が不注意に明らかになる可能性がある。
・Purpose of use: The potential expansion of genomic data use beyond its original purpose leads to concerns around data minimisation and purpose limitation. ・利用目的: 本来の目的を超えてゲノムデータの利用が拡大する可能性があるため、データの最小化と目的制限に関する懸念が生じる。
Stephen Almond, Executive Director, Regulatory Risk, said: 規制リスク担当エグゼクティブ・ディレクターのスティーブン・アーモンドは次のように述べた:
“Genomics promises incredible benefits, from life-saving treatments to more effective learning support. This, as with all innovation, should be welcomed and embraced. However, with these possibilities come serious responsibilities, and privacy must still come first. 「ゲノミクスは、救命治療からより効果的な学習支援まで、信じられないような利益を約束している。あらゆるイノベーションと同様に、これは歓迎され、受け入れられるべきである。しかし、このような可能性には重大な責任が伴い、プライバシーが最優先されなければならない。
“Genomic information is arguably the most sensitive and revealing information a person has, with major implications for not only individuals but their families. We want to work with organisations in this field to ensure they handle this powerful data fairly, transparently, and take a privacy-by-design approach.” 「ゲノム情報は、間違いなく人が持つ情報の中で最もデリケートで暴露的なものであり、個人だけでなくその家族にも大きな影響を与える。我々は、この分野の組織と協力し、この強力なデータを公正かつ透明性をもって取り扱い、プライバシー・バイ・デザインのアプローチをとることを保証したい。
We are encouraging companies working with genomics - whether in healthcare, education, insurance, or criminal justice - to collaborate with its Regulatory Sandbox. This free service allows developers to gain expert guidance on building privacy-compliant innovations in genomics, helping turn groundbreaking ideas into trusted and legally compliant solutions. More information can be found here. 我々は、医療、教育、保険、刑事司法に関わらず、ゲノミクスに取り組んでいる企業に対し、Regulatory Sandboxでの協力を奨励している。この無料サービスにより、開発者はプライバシーに準拠したゲノミクスのイノベーションを構築するための専門家のガイダンスを得ることができ、画期的なアイデアを信頼され法律に準拠したソリューションに変えることができる。詳細はこちらを参照されたい。

 

ガイドライン...

・2024.11.07 ICO tech futures: emerging genomics

 目次...

ICO tech futures: emerging genomics ICOの技術的未来:新たなゲノミクス
Executive summary エグゼクティブサマリー
Introduction 序文
Defining genomics ゲノミクスの定義
Sector scenarios セクターのシナリオ
Regulatory issues 規制上の課題
Next steps 次のステップ
Annex A: Key technologies and terms 附属書A:主要技術と用語
Annex B: Genomic sector economic overview 附属書B:ゲノム分野の経済概要
Annex C - Background and context 附属書C - 背景と文脈

 

エグゼクティブサマリー...

Executive summary エグゼクティブサマリー
Over the last decade there has been a rapid increase in investment and influence in genomic technologies in a range of sectors. The technology offers well-known benefits in areas like advanced disease treatment and personalised healthcare, and there is a drive to deliver a genomic-focused healthcare system. But the rapid growth of applications in sectors like insurance, education and law enforcement also have the potential to impact us all. 過去10年間、様々な分野でゲノム技術への投資と影響力が急速に高まってきた。この技術は、先進的な疾病治療や個別化医療などの分野でよく知られた利益をもたらし、ゲノムに焦点を当てた医療システムの実現が推進されている。しかし、保険、教育、法執行などの分野での応用が急速に拡大していることも、私たちすべてに影響を与える可能性を秘めている。
As the UK’s data protection regulator, the Information Commissioner’s Office (ICO) aims to increase public trust in how organisations process personal information through responsible practice. We want to empower people to safely share their information and use innovative products and services that will drive our economy and our society. In our ICO25 strategy, we committed to set out our views on emerging technologies to reduce burdens on businesses, support innovation and prevent harms. 英国のデータ保護規制機関である情報コミッショナー事務局(ICO)は、責任ある実践を通じて、組織が個人情報をどのように処理するかに対する国民の信頼を高めることを目指している。私たちは、人々が自分の情報を安全に共有し、経済と社会を動かす革新的な製品やサービスを利用できるようにしたいと考えている。ICO25戦略では、企業の負担を軽減し、イノベーションを支援し、危害を防止するために、新たな技術に関する見解を示すことを約束した。
The genomics chapter of our 2023 Tech Horizons Report set out an initial area of concern around polygenic risk scores; probabilistic assessments of traits and characteristics derived from genomics that could inform how we deliver health care and other services in the future. 我々の2023年技術水平報告書のゲノミクスの章では、多遺伝子リスクスコア(ゲノミクスから導き出された形質や特性の確率的アセスメント)に関する最初の関心分野を設定した。
This report goes into more depth to consider regulatory and privacy issues raised by the wider development of genomics. We illustrate how these may arise through scenarios that cover potential uses of the technology in and beyond healthcare, including in direct-to-consumer services, insurance, education and law enforcement. The issues we cover include: 本報告書では、ゲノミクスの広範な発展によって生じる規制やプライバシーの問題について、より深く考察する。直接消費者へのサービス、保険、教育、法執行など、ヘルスケアやそれ以外の分野での技術の潜在的な利用をカバーするシナリオを通して、これらの問題がどのように発生しうるかを説明する。取り上げる問題は以下の通りである:
・the challenges of understanding when genomic data may be considered personal information. Genomic information relating to the deceased, or once thought unimportant or even unidentifiable in terms of personal information, may have an increasingly large significance as personal data as research rapidly advances; ・ゲノムデータがどのような場合に個人情報とみなされるかを理解する上での課題。故人に関するゲノム情報や、かつては個人情報としては重要でない、あるいは特定できないと考えられていたゲノム情報が、研究の急速な進展に伴い、個人データとしてますます大きな意味を持つようになる可能性がある;
・the complexities of using and sharing third party information (including both genomic information and inferences derived from it) given how much of a genome and the information derived from it is shared - even on a familial level; ・たとえ家族レベルであっても、ゲノムとそれに由来する情報(ゲノム情報とそこから導かれる推論を含む)がどれほど共有されているかを考慮すると、サードパーティ情報を利用し共有することの複雑さ;
・the associated risks and challenges of anonymising and pseudonymising genomic information in a way that embeds privacy by design without compromising innovative and necessary research; and ・革新的で必要な研究を損なうことなく、プライバシーをデザインする方法でゲノム情報を匿名化・仮名化することに伴うリスクと課題。
・the significant risks of bias and discrimination emerging from the processing of genomic information. Inaccurate models trained on unrepresentative datasets may emerge, or inferences used to support unfair decisions even when using accurate information. ・ゲノム情報の処理から生じるバイアスや識別的リスクの重大性。代表的でないデータセットで訓練された不正確なモデルが出現したり、正確な情報を使用していても不当な決定を支持するために推論が使用されたりする可能性がある。
We will address these areas of concern through: われわれは、これらの懸念される分野に、以下を通じて対処する:
・ongoing engagement with key stakeholders across industry, regulation, academia and civil society. This will include inviting organisations to work with our Regulatory Sandbox to engineer data protection into uses of genomic information; ・産業界、規制、学界、市民社会にわたる主要な利害関係者との継続的な関与。これには、ゲノム情報の使用にデータ保護を組み込むために、我々のRegulatory Sandboxと協力する組織を招待することも含まれる;
・monitoring and highlighting developments in this area through our Tech Horizons reports, where we will set out future programmes of work on the issues as they arise. We will pay particular attention to the sharing of third party genomic information and direct-to-consumer genomic services linked to polygenic risk scoring. We have invited views from organisations with an interest in this area; and ・技術水平報告書を通じて、この分野での進展を監視し、強調する。特に、サードパーティによるゲノム情報の共有や、多遺伝子リスクスコアリングと連動した消費者向け直接ゲノムサービスには注意を払う予定である。我々は、この分野に関心を持つ組織からの意見を求めている。
・engagement with the public to better understand their knowledge and concerns about the use of genomics and privacy. ・ゲノミクスの利用やプライバシーに関する一般市民の知識や懸念をよりよく理解するために、一般市民との意見交換を行う。

 

 

規制上の課題...

Regulatory issues  規制上の課題
Issue 1: Regulatory certainty. When is genomic data personal data? 課題1:規制の確実性。ゲノム情報はいつ個人データになるのか?
Under the UK GDPR, there is no explicit definition of genomic information as either a specific form of personal information or special category data. This means that, without considering the purpose, organisations should consider personally identifiable genomic information as personal information. Beyond this, organisations need to carefully consider: 英国のGDPRでは、ゲノム情報を特定の形態の個人情報または特別カテゴリーデータとして明確に定義していない。これは、目的を考慮することなく、組織は個人を特定できるゲノム情報を個人情報とみなすべきであることを意味する。その上で、組織は以下を慎重に検討する必要がある:
・when and why genomic information may be special category data; and ・ゲノム情報がいつ、どのような理由で特別カテゴリーデータとなりうるか。
・what risks large-scale classificatory uses of even non-special category personal information may pose. ・非特別カテゴリー個人情報の大規模な分類的利用がどのようなリスクをもたらすか。
Some key challenges are listed below. 主な課題を以下に挙げる。
Identifying personal and special category personal information 個人情報と特別カテゴリー個人情報を特定できる情報
Genomic information isn’t always counted as personal information. A large part of a genome (roughly 98%) is non-coding-based DNA that may not be easily linked to a known person in isolation, as it is shared with every human being. 24 In other words, it is not expressed as a gene. When genomic information is considered personal information, it would become hard to define. Context will matter hugely as developing research and analytical tools allow a greater understanding of how this genomic information, once dismissed as ‘junk DNA’, connects to how specific genes and phenotypes are expressed. For more information, organisations should consider our guidance on identifiers and related factors. ゲノム情報は必ずしも個人情報としてカウントされるわけではない。ゲノムの大部分(約98%)は非コードベースのDNAであり、すべての人間に共有されているため、単独では既知の個人と容易に結びつかない可能性がある。24言い換えれば、遺伝子としては発現していない。ゲノム情報が個人情報とみなされるようになると、その定義は難しくなる。かつては「ジャンクDNA」として片付けられていたゲノム情報が、特定の遺伝子や表現型がどのように発現しているのかについて、研究・分析ツールの発展により理解が深まるにつれ、コンテキストが非常に重要になるだろう。詳しくは、識別情報と関連要因に関するガイダンスを参照されたい。
While we have made assumptions here when defining genomic information in terms of both personal and special category information. Further clarity is required as to how and when genetic and genomic information overlap for the purposes of data protection regulation. Not all genomic information is genetic, but certain provisions of the UK GDPR provide an indication of how organisations can consider such material under the legislation. ここでは、ゲノム情報を個人情報と特別カテゴリー情報の両方の観点から定義することを前提にしている。データ保護規制の目的上、遺伝情報とゲノム情報がいつ、どのように重複するのかにつ いては、さらなる明確化が必要である。すべてのゲノム情報が遺伝的情報であるわけではないが、英国GDPRの特定の条項は、組織がこのような情報を法制下でどのように考慮できるかを示すものである。
Where genomic information can be clearly defined as personal information, it is almost certainly special category information under Article 9 as it will contain some portion of genetic information which is already defined as special category data under the UK GDPR. Given this, the usual protections for special category data will apply. ゲノム情報が個人データとして明確に定義できる場合、英国GDPRですでに特別カテゴリーデータとして定義されている遺伝情報の一部が含まれるため、第9条に基づく特別カテゴリー情報であることはほぼ間違いない。このことから、特別カテゴリーデータに対する通常の保護が適用される。
There is also a risk that the use of the term ‘genomics’ to include associated areas of related inferences, such as phenotypes may cause uncertainty as to what information may or may not be special category data. Phenotypes play a critical role in the development and use of genomic research. While medical uses, such as identifying pre-cancerous growths, will be special category data under Article 9(1) of the UK GDPR, other commercial uses may not. While these instances are currently rare, the pace of research is likely to change this. It may become possible to use phenotypes for educational or insurance purposes as explored above. If phenotypes are considered distinct from genetic or genomic definitions, then it is unlikely that they would count as biometric information either, as explored in our previous report on emerging biometrics. また、「ゲノミクス(genomics)」という用語が、表現型のような関連する推論分野を含むために使用されることで、どのような情報が特別カテゴリーデータになるのか、ならないのかが不明確になるリスクもある。表現型はゲノム研究の発展と利用において重要な役割を果たしている。前癌性増殖の特定などの医学的利用は、英国GDPR第9条1項に基づく特別カテゴリーデータになるが、その他の商業的利用はそうでない可能性がある。このような例は今のところ稀であるが、研究のペースはこの状況を変える可能性がある。上記で検討したように、教育や保険の目的で表現型を使用することが可能になるかもしれない。表現型が遺伝学的またはゲノム学的定義とは異なると見なされる場合、新たなバイオメトリクスに関する前回の報告書で検討したように、それらがバイオメトリクス情報としてカウントされる可能性は低い。
Even if there is no direct correlation between genomic information and special category data, then the uses of genomic information for medical or identification purposes are nevertheless likely to be special category genomic or health information under Article 9(1). Organisations will therefore need a lawful basis to use this information under Article 6 and an additional condition for processing special category data under Article 9(2). Organisations must identify the most appropriate basis for processing. Consent may be an appropriate lawful basis and an appropriate special category condition, as long as they can meet the necessary requirements for valid consent. ゲノム情報と特別カテゴリーデータとの間に直接的な相関関係がないとしても、医療目的または本人確認目的でのゲノム情報の使用は、第9条1項に基づく特別カテゴリーのゲノム情報または健康情報となる可能性が高い。従って、組織はこの情報を使用するために、第6条に基づく合法的根拠と、第9条2項に基づく特別カテゴリーデータの処理に関する追加条件を必要とする。組織は、処理に最も適切な根拠を特定しなければならない。妥当性確認に必要な要件を満たすことができる限り、同意は適切な合法的根拠であり、適切な特別カテゴリーの条件となりうる。
Conditions for processing special category data 特別カテゴリーデータの処理に関する条件
If organisations use genomic information, they should consider whether consent is the most appropriate lawful basis. While medical consent remains a distinct and important issue, explicit consent for using personal information is only one of a variety of appropriate special category conditions under the UK GDPR. It is not inherently ‘better’ than other conditions. 組織がゲノム情報を利用する場合、同意が最も適切な合法的根拠であるかどうかを検討す べきである。医療同意は依然として明確かつ重要な問題であるが、個人情報の使用に関する明示的な同意は、英国GDPRにおける様々な適切な特別カテゴリー条件の一つに過ぎない。他の条件よりも本質的に「優れている」わけではない。
Any wider automatic reliance on consent around the use of genomic information for consumer purposes could also cause confusion and may prove to be inappropriate under the UK GDPR. People may assume they have the right to automatically withdraw consent even when organisations have not used consent as a basis, given the wider dialogue and calls for the use of consent. In fact, organisations may use other appropriate lawful bases. They need to be transparent about which basis they are using and people’s rights as a result. This transparency may prove more effective in helping people to truly understand how organisations are using their information and what their rights are. 消費者目的でのゲノム情報の使用に関する同意に広く自動的に依存することも、混乱を引き起こす可能性があり、英国GDPRの下では不適切であることが判明する可能性がある。人々は、同意の使用を求める広範な対話と呼びかけがあることから、組織が同意を根拠として使用していない場合でも、自動的に同意を撤回する権利があると考えるかもしれない。実際には、組織は他の適切な合法的根拠を使用することができる。組織は、どの根拠を使用しているのか、またその結果としての人々の権利について透明性を保つ必要がある。この透明性は、人々が組織がどのように自分たちの情報を利用しているのか、また自分たちの権利とは何なのかを真に理解する上で、より効果的であることが証明されるかもしれない。
Organisations should also be aware that the conditions for processing special category data are likely to be quite limited in a purely commercial scenario. Most of them concern public rather than private interests. There is a high threshold for processing special category data in most circumstances, and where there is no real public interest engaged, organisations will likely have to get explicit consent. 組織はまた、特別カテゴリーデータ処理の条件は、純粋に商業的なシナリオではかなり限定的である可能性が高いことを認識すべきである。そのほとんどは、私的利益よりもむしろ公的利益に関わるものである。ほとんどの状況において、特別カテゴリーデータの処理には高い閾値があり、真の公益が関与していない場合、組織は明確な同意を得なければならない可能性が高い。
Issue 2: Third-party data, historic data, future data and genomic data 課題2:サードパーティ・データ、過去のデータ、将来のデータ、ゲノム・データ
Genomic information poses significant challenges around the appropriate handling of third-party data. Familial information is fundamental to genomic information and any disclosure will inherently involve additional people. Organisations can consider pseudonymisation techniques, but these bring their own challenges as discussed below. We provide guidance as to how and when to appropriately share such third party information. ゲノム情報は、サードパーティ・データの適切な取り扱いをめぐる重大な課題を提起している。家族情報はゲノム情報の根幹をなすものであり、いかなる開示も本質的に新たな人々を巻き込むことになる。組織は偽名化(pseudonymisation)技術を検討することができるが、これには後述するような課題がある。私たちは、このようなサードパーティ情報をいつ、どのように共有するのが適切かについてのガイダンスを提供する。
This is a particular issue when considering appropriate disclosures in response to a subject access request. Use of genomic information or inferences derived from this may risk disclosing special category data linked to family members via genomic analysis. This has already been the case with genetic tests for inherited neurodegenerative conditions. 25 In such situations, inappropriate disclosure or withholding of personal information may present high risks of harm to people. これは、対象者の研究利用要請に応じた適切な開示を検討する際に特に問題となる。ゲノム情報の使用またはそこから導かれる推論は、ゲノム解析を通じて家族構成員 にリンクされた特別カテゴリーデータを開示するリスクになりうる。これは、遺伝性の神経変性疾患の遺伝学的検査において、すでに事例となっ ている25 。25 このような状況では、個人情報の不適切な開示や差し控えは、人々に危害を及ぼす高いリスク をもたらす可能性がある。
It also opens up the potential for third-party claims to information, which organisations may think relate to one another. However, given the nature of genomic information, it is likely that organisations will need to closely consider when and how both raw information and complex inferences may relate to and identify (or be capable of identifying) associated third parties. They will also need to consider when they should share this information. Organisations can use our guidance on how and when confidentiality and consent apply to help with this. また、情報に対するサードパーティからのクレームが発生する可能性もある。しかし、ゲノム情報の性質を考慮すると、組織は、生の情報と複雑な推論の両方が、いつ、どのように関連し、関連するサードパーティを特定する(または特定できる)可能性があるかを綿密に検討する必要があると思われる。また、どのような場合にこの情報を共有すべきかについても検討する必要があろう。組織は、機密保持と同意がどのように、またどのような場合に適用されるかについて、我々のガイダンスを利用することができる。
There is also an increased risk that direct-to-consumer services, like genomic counselling, may provide high-risk, high-impact information to people without the more traditional supporting structures of the health sector. Organisations using genomic information will need to pay careful attention to the context of their use. They will also have to put sufficient and appropriate security measures in place under Article 5(1)(f) and Article 32. Raw genomic information (i.e. the processed biological sample without further analysis) is currently unlikely to be easily identifiable by members of the public. However, this may rapidly change as access to AI processing increases, along with associated personal information. 26 また、ゲノムカウンセリングのような直接消費者にサービスを提供する場合、医療部門のより伝統的な支援体制を利用することなく、ハイリスクでインパクトの大きい情報を人々に提供する可能性がある。ゲノム情報を利用する組織は、その利用の背景に細心の注意を払う必要がある。また、第5条1項(f)および第32条に基づき、十分かつ適切な安全対策を講じる必要がある。生のゲノム情報(すなわち、さらなる分析が行われていない生物学的試料)は、現在のところ、一般の人々が容易に識別できる可能性は低い。しかし、AI処理へのアクセスが増加し、関連する個人情報とともに、この状況は急速に変化する可能性がある。26
Under the UK GDPR, information about a living person is classified as personal data. Information about a deceased person is not classified as personal data. Genetic information has already blurred the definition of historic information. As defined under Article 4 of the UK GDPR, genetic and now genomic information which wasn’t previously linked to a living person can now be linked through modern research techniques. Large-scale collection of genomic information heightens the risk further, given the information’s links to multiple living people, even when the person who provided the original sample and information has died. 英国のGDPRでは、生存する個人に関する情報は個人データに分類される。死亡した人に関する情報は個人データとして分類されない。遺伝子情報はすでに歴史的情報の定義を曖昧にしている。英国GDPRの第4条で定義されているように、以前は生存している個人にリンクされていなかった遺伝情報、そして現在のゲノム情報は、現代の研究技術によってリンクできるようになった。ゲノム情報の大規模な収集は、元のサンプルや情報をプロバイダから提供された人が死亡した場合でも、その情報が複数の生存している人にリンクしていることを考えると、リスクをさらに高めることになる。
Organisations retaining, gathering and using what they might assume to be historic information, should take appropriate steps to consider whether they need to consider this information as personal data. This is likely to be highly contextual and will not relate to the biological samples themselves. Rather, processed information and associated inferences such as phenotypes may relate to living people and, given the context of other records, may count as pseudonymised rather than anonymised. 歴史的情報と思われる情報を保持、収集、利用する組織は、その情報を個人データとみなす必要があるかどうかを検討するために適切な措置を講じるべきである。これは極めて文脈的なものであり、生物学的試料そのものに関連するものではな い可能性が高い。むしろ、処理された情報とそれに関連する表現型などの推論は、生きている人に関連する可能性があり、他の記録との関連性を考慮すると、匿名化ではなく仮名化としてカウントされる可能性がある。
In contrast to historic information is the challenge around potential future discoveries made with genomic information. Article 89 of the UK GDPR makes provisions for research purposes to retain information for both longer periods and a broad purpose. However, organisations using personal information for research purposes must put safeguards in place and, in particular, follow the principle of data minimisation. Organisations will need to ensure that, if new potential means of using genomic information emerge, they pay close attention to the implications and requirements of a change in purpose of processing. They will also need to consider how this may fall under people’s expectation about the fair use of their information. 歴史的な情報とは対照的に、ゲノム情報を使って将来発見される可能性があるという課題がある。英国GDPRの第89条は、研究目的について、より長い期間と広範な目的の両方について情報を保持する規定を設けている。しかし、研究目的で個人情報を使用する機関は、保護措置を講じ、特にデータ最小化の原則に従わなければならない。組織は、ゲノム情報を利用する新たな潜在的手段が出現した場合、処理目的の変更の意味合いと要件に細心の注意を払うようにする必要がある。また、情報の公正な利用に関する人々の期待にどのように該当するかを検討する必要がある。
Issue 3: Inherent identifiability, anonymisation and security of genomic data 課題3:ゲノムデータ固有の識別可能性、匿名化、セキュリティ
Genomic information is highly distinguishable. Linking a genome to a person only requires a few hundred (out of millions) of SNPs. 27 In many instances of business or research, organisations may prefer to either anonymise or pseudonymise personal information, 28 to minimise potential risks and harms to people. While the large-scale nature of genomic information and its associated risks would seem an obvious fit for this, there are challenges to anonymising genomic information. The levels of encryption or data obfuscation through methods like differential privacy may reduce the information’s value to GWAS. 29 ゲノム情報は高度に識別可能である。ゲノムを個人に結びつけるには、(数百万個のSNPのうち)数百個しか必要としない。27 多くのビジネスや研究機関では、潜在的なリスクや人への危害を最小化するために、個人情報を匿名化または仮名化することを好む場合がある28。ゲノム情報の大規模な性質とそれに関連するリスクは、このような場合に明らかに適しているように思われるが、ゲノム情報の匿名化には課題がある。差分プライバシーのような方法による暗号化やデータの難読化のレベルは、GWASにおける情報の価値を低下させる可能性がある。29
Approaches that may offer organisations some means of pseudonymisation include: 組織に仮名化の手段を提供する可能性のあるアプローチには以下のようなものがある:
Data transformation is likely to remain limited in deployment. This is because genomic information is fundamentally open to re-identification. This can happen through multiple pathways and correlations as high dimensionality information, where the number of dataset features are larger than the number of observations made. 30 Of the millions of SNPs within a genome, only a few hundred are required to identify someone. However, ongoing research in k-anonymity may offer future defences against re-identification. ・データ変換の展開は限定的であろう。というのも、ゲノム情報は基本的に再識別の可能性があるからである。これは、高次元情報としての複数のパスウェイや相関関係を通じて起こる可能性がある。30 ゲノム内の数百万のSNPのうち、誰かを識別するのに必要なのは数百に過ぎない。しかし、現在進行中のk-匿名性の研究が、将来的には再識別に対する防御策を提供するかもしれない。
Data obfuscation is achieved by adding noise to genomic information through techniques such as differential privacy. This is likely to have a significant negative impact on effective genomic research. データの難読化は、差分プライバシーなどの技術によってゲノム情報にノイズを加えることで達成される。これは、効果的なゲノム研究に重大な悪影響を及ぼす可能性が高い。
Synthetic data offers another approach, through the AI-powered generation of large-scale data sets that do not involve people. However, complexities with this approach emerge as to when and if the analysis and processing undertaken links to an identifiable person. 合成データは、人を介さない大規模なデータセットをAIで生成することで、別のアプローチを提供する。しかし、このアプローチでは、いつ、どのような分析や処理が行われ、それが識別可能な個人と結びつくのか、という複雑な問題が生じる。
For more information on privacy-enhancing technologies and data protection, please see our guide to what these are and how you can use them to meet your UK GDPR obligations and expectations. プライバシー強化技術とデータ保護の詳細については、プライバシー強化技術とは何か、また、英国GDPRの義務と期待に応えるためにプライバシー強化技術をどのように使用できるかについてのガイドを参照されたい。
Organisations may find it difficult to achieve pseudonymisation as technology rapidly increases in power and accessibility. In the longer term, this would allow smaller organisations and even people to conduct what were once challenging and lengthy analyses. Given this, organisations must consider other forms of appropriate security. 技術が急速に発展し、アクセスしやすくなるにつれて、組織は仮名化を達成することが困難になる可能性がある。長期的には、小規模な組織や個人でさえも、かつては困難で長かった分析を実施できるようになるだろう。このことを考えると、組織は他の適切なセキュリティの形態を検討しなければならない。
This may include data aggregation achieved through implementing a trusted research environment (TRE) that can limit direct access to genomic information and associated health information. Researchers may submit queries without direct access, however this may pose a challenge to forming open and agile research environments. これには、ゲノム情報や関連する健康情報への直接アクセスを制限できる信頼された研究環境(TRE)を導入することによって達成されるデータ集約が含まれる。研究者は直接アクセスすることなくクエリーアクセスを提出することができるが、これはオープンで機敏な研究環境を形成する上で課題となる可能性がある。
Issue 4: Fairness, accuracy and opinion – epigenetics and polygenic risk scoring. 課題4:公平性、正確性、意見-エピジェネティクスと多遺伝子リスクスコアリング。
Article 5(1)(d) of the UK GDPR states that personal information must be ‘accurate’ and rectified promptly where this is not the case. While the UK GDPR does not provide a definition of accuracy, the Data Protection Act 2018 says that ‘inaccurate’ means ‘incorrect or misleading as to any matter of fact’. With genomic information, the extraction of the DNA itself may introduce inaccuracies. Alternatively, the loss of metadata or the introduction of ambiguous or uncertain labelling of aspects of a genome may also cause inaccuracies. 31 英国GDPR第5条1項(d)は、個人情報は「正確」でなければならず、そうでない場合は速やかに是正されなければならないとしている。英国GDPRは正確性の定義を定めていないが、データ保護法2018によれば、「不正確」とは「事実に関して不正確または誤解を招く」ことを意味する。ゲノム情報の場合、DNAの抽出自体が不正確さをもたらす可能性がある。あるいは、メタデータの紛失や、ゲノムの側面のあいまいで不確実な表示の序文も不正確さの原因となりうる。31
Inferences derived from genomic information can also change due to epigenetic modifications. This happens where the instructions accessed and read from DNA can be altered temporarily or even permanently by a specific environmental factor such as stress or diet. 32 Even at the most basic level, we expect organisations to review their genomic information for accuracy, keep it up to date and label it as historic where required. ゲノム情報から導かれる推論は、エピジェネティックな変化によって変化することもある。これは、ストレスや食事などの特定の環境要因によって、DNAから読み取られる命令が一時的、あるいは永続的に変化する場合に起こる。32 最も基本的なレベルであっても、組織にはゲノム情報の正確性を確認し、最新の状態に保ち、必要な場合には歴史的情報であると表示することを期待する。
The probabilistic and contextual nature of second order information, such as polygenic risk scores, means that their accuracy is more likely to be open to debate. Estimating the gap between phenotypic information and genetic information that exists in many areas of study will remain highly challenging. Personal information may be produced that is probabilistic rather than absolute, based upon combined genomic data and potentially limited phenotype information. 多遺伝子リスクスコアのような二次情報は、確率的で文脈的な性質を持つため、その正確性については議論の余地がある。多くの研究分野で存在する表現型情報と遺伝情報とのギャップを推定することは、今後も非常に困難である。個人情報は、ゲノムデータと潜在的に限られた表現型情報の組み合わせに基づいて、絶対的というよりむしろ確率的に作成されるかもしれない。
The use of increasingly sophisticated AI models to estimate physical and behavioural aspects of a person brings its own risks around accuracy and transparency. 33 However, being based on statistical analysis rather than subjective opinion may limit the risk around personal information and accuracy under the UK GDPR. Nonetheless, AI systems must still be sufficiently statistically accurate for their purposes. This is to comply with the fairness principle and where organisations are using the models for automated decision making. 34 人の身体的・行動的側面を推定するために、ますます洗練されたAIモデルを使用することは、正確性と透明性に関わる独自のリスクをもたらす。33 しかし、主観的な意見ではなく、統計的分析に基づいているため、英国のGDPRの下では、個人情報と正確性にまつわるリスクは限定される可能性がある。それでもなお、AIシステムはその目的に対して十分に統計的に正確でなければならない。これは公平性の原則を遵守するためであり、組織が自動意思決定のためにモデルを使用する場合である。34
In the scenarios above, covering sectors ranging from healthcare to SEND provision to criminal charges, high-impact decisions may be taken overlaying human opinion on second order information produced by this type of processing. This in turn produces another set of personal (third order) information. There is a risk that the line between factual information (open to challenge as inaccurate) and opinion (which can be noted as challenged by a person but which remains a fundamentally accurate note as to an opinion held) becomes blurred, which impacts on our ability to assess accuracy. 上記のシナリオでは、ヘルスケアからSENDの提供、刑事告発に至るまで、様々な分野を対象としているが、この種の処理によって作成された二次情報に人間の意見を重ね合わせて、影響の大きい意思決定が行われる可能性がある。これによって、別の個人情報(第3次情報)が生成される。事実情報(不正確であるとして異議を申し立てることができる)と意見(人が異議を申し立てることができるが、保有する意見については基本的に正確なメモのままである)の境界線が曖昧になり、正確性をアセスメントする能力に影響を与えるリスクがある。
Our guidance on accuracy sets out measures to ensure that information is accurate or can be updated promptly and appropriately. It also provides details on the use of opinion to inform decisions and how to record challenges. Organisations will need to ensure the adequacy and accuracy of underlying information and to communicate how they reached their decisions in a transparent and robust manner. 正確性に関するガイダンスでは、情報が正確であること、または迅速かつ適切に更新されることを保証するための方策を定めている。また、意思決定に情報を提供するための意見の使用や、異議申し立ての記録方法についても詳述している。組織は、基礎となる情報の十分性と正確性を確保し、どのように決定に至ったかを透明かつ強固な方法でコミュニケーションする必要がある。
It is also likely that it will be increasingly difficult for people to understand when organisations hold inaccurate personal information or when organisations have made inaccurate inferences. This is because genomic information itself is highly complex and even inferences are likely to require significant technical knowledge to interpret. Combined with the challenges of ‘black box’ style algorithmic processing, the challenges to transparency may be significant. Organisations should follow our guidance on the lawful fairness and transparency principle to ensure they meet our expectations. Furthermore, if the algorithmic processing amounts to automated decision-making within the meaning of Article 22, there are enhanced requirements relating to transparency. また、組織が不正確な個人情報を保有している場合や、組織が不正確な推論を行った場合、人々がそれを理解することはますます困難になると思われる。というのも、ゲノム情報自体が非常に複雑であり、推論を解釈するにもかなりの技術的知識を必要とする可能性が高いからである。ブラックボックス」的なアルゴリズム処理の課題と相まって、透明性への挑戦は重大なものとなる可能性がある。組織は、私たちの期待に確実に応えるために、合法的な公正さと透明性の原則に関するガイダンスに従うべきである。さらに、アルゴリズム処理が第22条の意味における自動意思決定に相当する場合は、透明性に関する要件が強化される。
Issue 5: Genomic determinism and discrimination 課題5:ゲノム決定論と識別性
As increasingly large data sets are derived and analysed, new forms of discrimination may emerge. Without robust and independent verification of these models, there is a risk that these approaches will be rooted in systemic bias, providing inaccurate and discriminatory information about people and communities. In many instances, this information may then feed into automated systems, raising further questions over Article 22 processing and transparency. ますます大規模なデータセットが導き出され、分析されるにつれて、新たな識別的形態が出現する可能性がある。このようなモデルの確固とした独立した検証がなければ、このようなアプローチが制度的バイアスに根ざし、人々やコミュニティに関する不正確で差別的な情報を提供するリスクがある。多くの場合、この情報は自動化されたシステムに反映され、第22条の処理と透明性にさらなる疑問を投げかけることになる。
There are also concerns about inappropriate discrimination arising from the current reliance on genomic data sets based on ancestrally European sources. 35 This focus is likely to generate inaccurate information and inferences about other communities and genetic ancestries. As a result, combining broader healthcare records with genomic information and phenotypes to develop outcomes for predictive treatments may reflect and enhance embedded bias and existing discrimination. 36 また、先祖伝来のヨーロッパ人の情報源に基づくゲノムデータセットに現在依存していることから、不適切な識別が生じる懸念もある35。35 この焦点は、他のコミュニティや遺伝的祖先に関する不正確な情報や推論を生み出す可能性が高い。その結果、より広範な医療記録とゲノム情報及び表現型を組み合わせて、予測治療のためのアウトカムを開発することは、埋め込まれたバイアスや既存の差別を反映し、強化する可能性がある。36
Active, rather than systemic, discrimination may also emerge. This may see specific traits, characteristics and information becoming seen as undesirable by organisations or groups, without being considered a protected characteristic. Alternatively, this may feed upon the perceived ‘accuracy’ of polygenic risk scoring, in which probabilistic tendencies become viewed as a guaranteed outcome. People may experience unfair treatment in the workplace or services they are offered based on previously unrecognised characteristics or existing physical or mental conditions. The UK GDPR already sets out requirements that may mitigate these issues. These include (but are not limited to): 制度的というよりも、積極的な差別も出現する可能性がある。これは、保護特性とはみなされなくても、特定の特徴、特性、情報が組織や集団から好ましくないとみなされるようになることを意味する。あるいは、多遺伝子リスクスコアリングの「正確さ」が認知され、確率的傾向が保証された結 果とみなされるようになることもある。人々は、これまで認識されていなかった特性や既存の身体的・精神的状態に基づき、職場や提供されるサービスにおいて不当な扱いを受ける可能性がある。英国のGDPRはすでに、こうした問題を軽減する可能性のある要件を定めている。これには以下が含まれる(ただし、これらに限定されない):
・the fairness principle; ・公平性の原則
・protections for special category data; ・特別カテゴリーデータの防御
・requirements for data protection by design and default; and ・デザインおよびデフォルトによるデータ保護の防御要件
・protections for automated decision-making and profiling. ・自動化された意思決定とプロファイリングに対する防御。
In the face of the above risks, organisations should consider our guidance on addressing fairness, bias and discrimination. 上記のリスクに直面した場合、組織は公平性、バイアス、識別的データへの対応に関するガイダンスを考慮する必要がある。
In non-medical contexts, genomic information may not be classified as special category data, reducing the legal safeguards and restrictions around its processing. This may result in organisations failing to implement best practice around technical security in order to ensure that genomic information and its associated inferences remain safe from loss or theft. 医療以外の文脈では、ゲノム情報は特別カテゴリーデータに分類されない場合があり、その処理に関する法的セーフガードや制限が緩和される。その結果、組織はゲノム情報とその関連推論を紛失や盗難から確実に守るための技術的セ キュリティに関するベストプラクティスを実施できない可能性がある。
Issue 6: Data minimisation, purpose limitation and genomic information 課題6:データの最小化、目的の限定及びゲノム情報
Genomic information may pose particular challenges around data minimisation and purpose limitation, particularly in direct-to-consumer services where providers hold significant sections of genomes and, in the future, potentially whole genomes with the intention of future findings becoming accessible for consumers. Organisations will need to consider carefully whether processing entire genomes is necessary for their purposes, both in the initial analysis of raw information and in the longer term. ゲノム情報は、特にプロバイダがゲノムの大部分、将来的には全ゲノムを保有し、将来的 に消費者がアクセスできるようになる可能性がある消費者直接サービスにおいて、データ の最小化と目的制限に関する特別な課題をもたらす可能性がある。組織は、生情報の初期分析においても、長期的な分析においても、全ゲノムを処理することがその目的にとって必要かどうかを慎重に検討する必要がある。
Multiomic analysis combines large omics information sets (that define the entire biological processes of a biological system) to generate new insights and inferences. This approach highlights the complex interplay in the shift of purpose, and organisations will again need to consider what information they need for a specific purpose. Fundamentally, this reinforces the significant challenges in gathering and using personal information in a rapidly moving area. マルチオミクス分析は、大規模なオミクス情報セット(生物学的システムの生物学的プロセス全体を定義する)を組み合わせて、新たな洞察と推論を生み出す。このアプローチは、目的の転換における複雑な相互作用を浮き彫りにし、組織は特定の目的のためにどのような情報が必要かを再び検討する必要がある。基本的に、このことは、急速に変化する分野における個人情報の収集と利用における重大な課題を補強するものである。
Issue 7: AI and genomics 課題7:AIとゲノミクス
A constant theme throughout the emerging uses of genomic information has been the algorithmic processing of large-scale, complex information. There is significant discussion on the implementation of AI in genomics, for both current and future research which carries significant data protection implications. 37 Key elements to the increased demand of the use of algorithmic processing of genomic information include: ゲノム情報の新たな利用法を通して一貫しているテーマは、大規模で複雑な情報のアルゴリズム処理である。ゲノミクスにおけるAIの導入については、現在および将来の研究において重要な議論がなされており、データ保護に重大な影響を及ぼす。37 ゲノム情報のアルゴリズミック・プロセッシングの需要が高まっている主な要素は以下の通りである:
the size and complexity of genomic datasets; ゲノムデータセットの大きさと複雑さ;
the need for rapid specialist insights and inferences derived from the complex data in an intelligible format and; 複雑なデータから導き出される専門家としての洞察や推論を、理解しやすい形式で迅速に行う必要性;
correlation between health records and genomic information to interpret phenotypes. 表現型を解釈するための健康記録とゲノム情報との相関関係。
Varying dataset formats, a wide means of gathering information without a universal agreed practice and standards outside of the medical and research sectors and an ancestrally Eurocentric focus on genomic data risks the embedding of fundamental discrimination as noted above. This may only be enhanced through the use of multi-purpose models not initially trained for the purpose of analysing genomic data. 多様なデータセット形式、医療・研究分野以外での普遍的な合意や標準のない幅広い情報収集手段、そして先祖代々ヨーロッパ中心であるゲノムデータへの注目は、上述のような基本的差別を埋め込むリスクとなる。これは、ゲノムデータを分析する目的で最初に訓練されたものではない多目的モデルの使用によってのみ強化される可能性がある。
The use of polygenic risk scores to make decisions about individuals may, depending on the level of human involvement, as well as the extent to which these scores are determinative of outcomes for individuals, amount to automated individual decision-making within the meaning of Article 22. 38 Our guidance about automated decision-making and profiling sets out that a decision that has a ‘similarly significant’ effect is something that has an equivalent impact on a person’s circumstances, behaviour or choices. The scenarios set out above, for both preventative healthcare and SEND provision highlight potential areas in which rapid and potentially automated decisions may be made with significant consequences based upon probabilistic predictions. 個人に関する決定を行うために多遺伝子リスクスコアを使用することは、人間の関与の程度や、これらのスコアが個人の結果を決定する程度によっては、第22条の意味における自動化された個人の意思決定に相当する可能性がある。38 自動化された意思決定とプロファイリングに関するガイダンスでは、「同様に重大な」影響を及ぼす意思決定とは、個人の状況、行動、選択に同等の影響を及ぼすものであると定めている。予防医療と SEND の提供の両方について上に示したシナリオは、迅速かつ潜在的に自動化された決定が、 確率論的予測に基づいて重大な結果をもたらす可能性のある分野を浮き彫りにしている。
Where automated processing does amount to solely automated individual decision-making or profiling within the meaning of Article 22, this may present a significant challenge to an organisation’s activities. Organisations may only carry out such processing when they meet one of the conditions in Article 22(2) (where this is necessary for a contract, is required or authorised by domestic law, or where someone gives their explicit consent). They can also only carry out automated individual decision-making based on special category personal information in very limited circumstances. People who are subject to such decisions have rights under the UK GDPR to obtain meaningful human intervention in the decision-making. They must have the opportunity to express their point of view and challenge decisions. Organisations must consider what appropriate intervention may look like for each situation. 自動化された処理が、第22条の意味におけるもっぱら自動化された個人の意思決定またはプロファイリングに相当する場合、これは組織の活動に重大な課題をもたらす可能性がある。組織は、第22条2項の条件(契約に必要な場合、国内法で要求または認可されている場合、誰かが明示的に同意した場合)のいずれかを満たした場合にのみ、そのような処理を行うことができる。また、特別カテゴリーの個人情報に基づく自動化された個人の意思決定は、極めて限定された状況においてのみ行うことができる。このような意思決定の対象となる人々は、英国GDPRの下で、意思決定への有意義な人的介入を得る権利を有する。彼らは自分の意見を表明し、意思決定に異議を唱える機会を持たなければならない。組織はそれぞれの状況に応じて、適切な介入がどのようなものかを検討しなければならない。
There are also increased transparency requirements for organisations undertaking individual automated decision-making. They must provide people with meaningful information about the logic involved, as well as the significance and envisaged consequences (Articles 13(2)(f) and 14(2)(g)). また、個別の自動意思決定を行う組織に対する透明性要件も強化されている。組織は、関係する論理、重要性、想定される結果について、意味のある情報を人々に提供しなければならない(第13条2項(f)および第14条2項(g))。
24 The human genome is, at long last, complete  24 ヒトゲノムがついに完成した 
25 Huntington's disease: Woman with gene fails in bid to sue NHS 25 ハンチントン病 遺伝子を持つ女性、NHSを提訴するも失敗
26 The GDPR and genomic data 26 GDPRとゲノムデータ
27 Classifying single nucleotide polymorphisms in humans  27 ヒトの一塩基多型を分類する 
28 Noting that “pseudonymised personal information” is still personal data within the meaning of UK GDPR. 28 「仮名化された個人情報」は、英国のGDPRの意味においては依然として個人データである。
29 Sociotechnical safeguards for genomic data privacy 29 ゲノムデータ・プライバシーのための社会技術的セーフガード
30 Marchini, J. & Howie, B. Genotype imputation for genome-wide association studies. Nat. Rev. Genet. 11, 499–511 (2010) 30 Marchini, J. & Howie, B. ゲノムワイド関連研究のための遺伝子型インピュテーション。Nat. Nat. Rev. Genet. 11, 499-511 (2010)
31 Caudai, Claudia, Antonella Galizia, Filippo Geraci, Loredana Le Pera, Veronica Morea, Emanuele Salerno, Allegra Via, and Teresa Colombo. 2021. “AI Applications in Functional Genomics.” Computational and Structural Biotechnology Journal 19: 5762–90.  31 Caudai, Claudia, Antonella Galizia, Filippo Geraci, Loredana Le Pera, Veronica Morea, Emanuele Salerno, Allegra Via, and Teresa Colombo. 2021. 「AI Applications in Functional Genomics」. Computational and Structural Biotechnology Journal 19: 5762-90. 
32 Environmental exposures influence multigenerational epigenetic transmission 32 環境エクスポージャーは多世代エピジェネティック伝達に影響を及ぼす
33 Dias, Raquel, and Ali Torkamani. 2019. “Artificial Intelligence in Clinical and Genomic Diagnostics.” Genome Medicine 11 (1): 70.  33 Dias, Raquel, and Ali Torkamani. 2019. 「Artificial Intelligence in Clinical and Genomic Diagnostics」. Genome Medicine 11 (1): 70. 
34 See UK GDPR Recital 71 for further details.  34 詳細は英国GDPR前文71を参照のこと。
35 Kessler, M., Yerges-Armstrong, L., Taub, M. et al. Challenges and disparities in the application of personalized genomic medicine to populations with African ancestry. Nat Commun 7, 12521 (2016). 35 Kessler, M., Yerges-Armstrong, L., Taub, M. et al. Challenges and disparities in the application of personalized genomic medicine to populations with African ancestry. Nat Commun 7, 12521 (2016).
36 Chen, Irene Y., Peter Szolovits, and Marzyeh Ghassemi. 2019. “Can AI Help Reduce Disparities in General Medical and Mental Health Care?” AMA Journal of Ethics 21 (2): E167-179. 36 Chen, Irene Y., Peter Szolovits, and Marzyeh Ghassemi. 2019. 「Can AI Help Reduce Disparities in General Medical and Mental Health Care?" AIは一般医療とメンタルヘルスケアにおける格差是正に役立つか?AMA Journal of Ethics 21 (2): E167-179.
37 DNA.I. - Ada Lovelace Institute 37 DNA.I. - エイダ・ラブレス機構
38 Article 22 regulates the circumstances in which solely automated decisions with legal effects or similarly significant effects on individuals may be taken. 38 第22条は、個人に対して法的効果または類似の重大な影響を及ぼす、もっぱら自動化された決定を行うことができる状況を規制している。

1_20241119235601

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2023.01.15 フランス CNIL 2024年オリンピック・パラリンピック:CNIL、法律案に関する意見を発表(遺伝子特徴の検査、拡張カメラ関係)

2021.10.11 米国 カリフォルニア州 遺伝情報プライバシー法を制定

・2021.05.13 中国 意見募集 顔認識、歩行認識、音声認識に続けて、遺伝子認識のデータセキュリティ要件の国家標準案を発表し、意見募集していますね。。。

・2021.03.24 経済産業省 「経済産業分野のうち個人遺伝情報を用いた事業分野における個人情報保護ガイドライン」を改正

・2020.09.03 カリフォルニア州 匿名化された健康情報に関する法案(AB 713)と遺伝的プライバシー情報に関する法案(SB 980)を可決

 

少し古いですが...

・2005.03.06 経済産業省 個人遺伝情報のウェブ

・2004.12.28 経済産業分野のうち個人遺伝情報を用いた事業分野における個人情報保護ガイドライン

 

|

« 欧州議会 標準が欧州のデジタル競争力を支える仕組み | Main | 世界経済フォーラム (WEF) サイバー犯罪ネットワークを破壊する: 協働の枠組み »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 欧州議会 標準が欧州のデジタル競争力を支える仕組み | Main | 世界経済フォーラム (WEF) サイバー犯罪ネットワークを破壊する: 協働の枠組み »