« グローバル内部監査基準 (2024.01.09) | Main | MITRE Intelligence after next: 国家情報(インテリジェンス)戦略2023 その後... »

2024.02.17

米国 NIST 「非倫理的な被験者研究における過去の過ちを避ける: 人工知能の原理から実践への移行」

こんにちは、丸山満彦です。

NISTが、NISTの研究者による「非倫理的な被験者研究における過去の過ちを避ける: 人工知能の原理から実践への移行」という論文が、IEEEの『Computer』2月号に、掲載されたと公表していますね。。。

機械学習等によるAIは新しい概念かもしれないけど、新しい技術をどのように社会に実装すべきか?という話は、過去からその時々であったわけですから、先例に学ぶということは重要なことですね。。。

今回は、ベルモント・レポートが紹介されていますね。。。

NIST - ITL

・2024.02.15 NIST Researchers Suggest Historical Precedent for Ethical AI Research

NIST Researchers Suggest Historical Precedent for Ethical AI Research NISTの研究者が、倫理的なAI研究のための歴史的先例を提案する
The Belmont Report’s guidelines could help avoid repeating past mistakes in AI-related human subjects research. ベルモント・レポートのガイドラインは、AI関連の被験者研究で過去の過ちを繰り返すことを避けるのに役立つだろう。
・A research paper suggests that a watershed report on ethical treatment of human subjects would translate well as a basis for ethical research in AI. ・ある研究論文が、人体に対する倫理的取り扱いに関する流域の報告書が、AIにおける倫理的研究の基礎としてうまく機能することを示唆している。
・This 1979 work, the Belmont Report, has its findings codified in federal regulations, which apply to government-funded research. ・この1979年の著作であるベルモント・レポートは、その所見を連邦規則に成文化し、政府資金による研究に適用している。
・Applying the Belmont Report’s principles to human subjects in AI research could bring us closer to trustworthy and responsible use of AI. ・ベルモント・レポートの原則をAI研究の被験者に適用すれば、信頼に足る責任あるAIの利用に近づくことができるだろう。
If we train artificial intelligence (AI) systems on biased data, they can in turn make biased judgments that affect hiring decisions, loan applications and welfare benefits — to name just a few real-world implications. With this fast-developing technology potentially causing life-changing consequences, how can we make sure that humans train AI systems on data that reflects sound ethical principles?  偏ったデータで人工知能(AI)システムを訓練すれば、そのシステムが偏った判断を下し、雇用の決定やローンの申請、生活保護の受給などに影響を及ぼす可能性がある。この急速に発展している技術が、人生を変えるような結果を引き起こす可能性がある中で、人間が健全な倫理原則を反映したデータでAIシステムを訓練するようにするにはどうすればよいのだろうか?
A multidisciplinary team of researchers at the National Institute of Standards and Technology (NIST) is suggesting that we already have a workable answer to this question: We should apply the same basic principles that scientists have used for decades to safeguard human subjects research. These three principles — summarized as “respect for persons, beneficence and justice” — are the core ideas of 1979’s watershed Belmont Report, a document that has influenced U.S. government policy on conducting research on human subjects . 国立標準技術研究所(NIST)の学際的研究チームは、この疑問に対する実行可能な答えがすでにあることを示唆している: 科学者たちが何十年もの間、被験者研究を保護するために用いてきたのと同じ基本原則を適用すべきだというのである。 - 「人の尊重、与益、正義」として要約される - この3つの原則は、1979年に発表された『ベルモント・レポート』の核となる考え方であり、被験者を対象とする研究の実施に関する米国政府の政策に影響を与えた文書である。
The team has published its work in the February issue of IEEE’s Computer magazine, a peer-reviewed journal. While the paper is the authors’ own work and is not official NIST guidance, it dovetails with NIST’s larger effort to support the development of trustworthy and responsible AI.  研究チームは、査読付き学術誌であるIEEEの『Computer』誌2月号にこの研究成果を発表した。この論文は著者ら自身の研究であり、NISTの公式ガイダンスではないが、信頼できる責任あるAIの開発を支援するNISTの大きな取り組みと密接な関係がある。
“We looked at existing principles of human subjects research and explored how they could apply to AI,” said Kristen Greene, a NIST social scientist and one of the paper’s authors. “There’s no need to reinvent the wheel. We can apply an established paradigm to make sure we are being transparent with research participants, as their data may be used to train AI.” 「NISTの社会科学者で、論文の著者の一人であるクリステン・グリーンは、「我々は、被験者研究の既存の原則を検討し、それがAIにどのように適用できるかを探った。「車輪を再発明する必要はない。研究参加者のデータがAIの訓練に使用される可能性があるため、研究参加者に対して透明性を確保するために、確立されたパラダイムを適用することができる」。
The Belmont Report arose from an effort to respond to unethical research studies, such as the Tuskegee syphilis study, involving human subjects. In 1974, the U.S. created the National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research, and it identified the basic ethical principles for protecting people in research studies. A U.S. federal regulation later codified these principles in 1991’s Common Rule, which requires that researchers get informed consent from research participants. Adopted by many federal departments and agencies, the Common Rule was revised in 2017 to take into account changes and developments in research.   ベルモント・レポートは、タスキーギ梅毒研究など、人間を対象とした非倫理的な研究への対応から生まれた。1974年、米国は生物医学・行動学研究の被験者保護のための国家委員会を設立し、研究において人々を保護するための基本的な倫理原則を明らかにした。その後、米国の連邦規則が1991年の共通規則としてこれらの原則を成文化し、研究者が研究参加者からインフォームド・コンセントを得ることを義務付けた。多くの連邦省庁で採用されているこの共通規則は、研究の変化や発展を考慮し、2017年に改訂された。 
There is a limitation to the Belmont Report and Common Rule, though: The regulations that require application of the Belmont Report’s principles apply only to government research. Industry, however, is not bound by them.   しかし、ベルモント・レポートと共通規則には限界がある: ベルモント・レポートの原則の適用を求めるガバナンスは、政府研究にのみ適用される。しかし、産業界はこれらに拘束されない。 
The NIST authors are suggesting that the concepts be applied more broadly to all research that includes human subjects. Databases used to train AI can hold information scraped from the web, but the people who are the source of this data may not have consented to its use — a violation of the “respect for persons” principle.   NISTの著者は、この原則をより広く、人間を対象とするすべての研究に適用することを提案している。AIの訓練に使われるデータベースには、ウェブからかき集めた情報が格納されていることがあるが、このデータの提供者である個人は、その使用に同意していない可能性がある。 
“For the private sector, it is a choice whether or not to adopt ethical review principles,” Greene said.  「民間企業にとって、倫理的審査の原則を採用するかどうかは選択の問題です」とグリーンは言う。
While the Belmont Report was largely concerned with inappropriate inclusion of certain individuals, the NIST authors mention that a major concern with AI research is inappropriate exclusion, which can create bias in a dataset against certain demographics. Past research has shown that face recognition algorithms trained primarily on one demographic will be less capable of distinguishing individuals in other demographics. ベルモント・レポートは、特定の個人を不適切に取り込むことに大きな懸念を抱いていたが、NISTの著者は、AI研究の主な懸念は不適切な除外であり、データセットに特定の属性に対するバイアスを生じさせる可能性があると言及している。過去の研究では、主にある人口統計に基づいて訓練された顔認識アルゴリズムは、他の人口統計の個人を区別する能力が低くなることが示されている。
Applying the report’s three principles to AI research could be fairly straightforward, the authors suggest. Respect for persons would require subjects to provide informed consent for what happens to them and their data, while beneficence would imply that studies be designed to minimize risk to participants. Justice would require that subjects be selected fairly, with a mind to avoiding inappropriate exclusion.  この報告書の3原則をAI研究に適用することは、かなり簡単なことだと著者は提案する。人の尊重は、被験者とそのデータに何が起こるかについて、インフォームド・コンセントを提供することを要求し、受益は、参加者のリスクを最小限に抑えるように研究を設計することを意味する。正義は、不適切な除外を避けることを念頭に置き、被験者を公平に選ぶことを要求する。
Greene said the paper is best seen as a starting point for a discussion about AI and our data, one that will help companies and the people who use their products alike.  グリーン氏は、この論文はAIと私たちのデータについての議論の出発点として見るのが最善であり、企業とその製品を使用する人々を同様に助けるものであると述べた。
“We’re not advocating more government regulation. We’re advocating thoughtfulness,” she said. “We should do this because it’s the right thing to do.” 「我々は政府による規制強化を主張しているのではない。我々は思慮深さを提唱しているのだ。「正しいことなのだから、そうすべきだ。

 

で論文...

IEEE Computer Society Digital Library

MagazinesComputer - 2024.02

Avoiding Past Mistakes in Unethical Human Subjects Research: Moving From Artificial Intelligence Principles to Practice

・[PDF]

20240217-111316

 

話題になっている、ベルモント・レポート

U.S. Department of Human and Health Services

・1979.04.18 Read the Belmont Report

・[PDF]

20240217-111819

 

 

|

« グローバル内部監査基準 (2024.01.09) | Main | MITRE Intelligence after next: 国家情報(インテリジェンス)戦略2023 その後... »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« グローバル内部監査基準 (2024.01.09) | Main | MITRE Intelligence after next: 国家情報(インテリジェンス)戦略2023 その後... »