« ENISA サイバーセキュリティ認証の市場 | Main | NIST SP 800-108 Rev.1 擬似ランダム関数を用いた鍵導出の推奨事項 »

2024.02.04

英国 弁護士会 (The Bar Council) 弁護士向けの生成的AIに関するガイダンス (2024.01.30)

こんにちは、丸山満彦です。

イングランド・ウェールズの弁護士会が弁護士向けに生成的AIに関するガイダンスを公表していますね。。。

The Bar Council

・ 2024.01.30 New guidance on generative AI for the Bar

The Bar Council has issued new guidance for barristers navigating the growing use of ChatGPT, and other generative artificial intelligence (AI) large language model systems (LLMs). 弁護士会は、ChatGPTやその他の生成型人工知能(AI)大規模言語モデルシステム(LLM)の利用が拡大している弁護士向けに、新たなガイダンスを発表した。
It concludes that there is nothing inherently improper about using reliable AI tools for augmenting legal services, but they must be properly understood by the individual practitioner and used responsibly. このガイダンスでは、信頼性の高いAIツールを法律サービスの増強に使用することは本質的に不適切なことではないが、個々の実務家が適切に理解し、責任を持って使用しなければならないと結論づけている。
The guidance, available on the Bar Council ethics and practice hub, sets out the key risks with LLMs: anthropomorphism; hallucinations; information disorder; bias in data training; and mistakes and confidential data training. このガイダンスは、弁護士会の倫理と実務のハブで入手可能で、LLMの主なリスクとして、擬人化、幻覚、情報障害、データトレーニングにおける偏り、間違いと機密データトレーニングを挙げている。
It explores the considerations for practitioners when using LLM systems: また、LLMシステムを使用する際の実務家の留意点についても説明している:
・Due to possible hallucinations and biases, it is important for barristers to verify the output of LLM software and maintain proper procedures for checking generative outputs. ・幻覚やバイアスの可能性があるため、弁護士にとって、LLMソフトウェアの出力を検証し、生成出力をチェックするための適切な手順を維持することが重要である。
・‘Black box syndrome’ – LLMs should not be a substitute for the exercise of professional judgment, quality legal analysis and the expertise that clients, courts and society expect from barristers. ・ブラックボックス症候群」:LLMは、専門的判断の行使、質の高い法的分析、依頼者・裁判所・社会が法廷弁護士に期待する専門知識の代用となるべきではない。
・Barristers should be extremely vigilant not to share with an LLM system any legally privileged or confidential information. ・法廷弁護士は、法的特権や機密情報をLLMシステムと共有しないよう、細心の注意を払うべきである。
・Barristers should critically assess whether content generated by LLMs might violate intellectual property rights and be careful not to use words which may breach trademarks. ・法廷弁護士は、LLMによって作成されたコンテンツが知的財産権を侵害する可能性があるかどうかを批判的に評価し、商標権を侵害する可能性のある言葉を使用しないよう注意すべきである。
・It is important to keep abreast of relevant Civil Procedure Rules, which in the future may implement rules/practice directions on the use of LLMs, for example, requiring parties to disclose when they have used generative AI in the preparation of materials, as has been adopted by the Court of the King’s Bench in Manitoba. ・関連する民事訴訟規則を常に把握しておくことが重要であり、今後、LLMの使用に関する規則や実務上の指示が実施される可能性がある。例えば、マニトバ州キングズベンチ裁判所が採用しているように、当事者は資料の作成にジェネレーティブAIを使用した場合、その旨を開示する必要がある。
Launching the guidance, Sam Townend KC, Chair of the Bar Council, said: このガイダンスの発表にあたり、サム・タウンエンド弁護士会議長は次のように述べた:
“The growth of AI tools in the legal sector is inevitable and, as the guidance explains, the best-placed barristers will be those who make the efforts to understand these systems so that they can be used with control and integrity. Any use of AI must be done carefully to safeguard client confidentiality and maintain trust and confidence, privacy, and compliance with applicable laws. 「法曹界におけるAIツールの成長は避けられないものであり、ガイダンスが説明するように、最も良い立場にある法曹は、これらのシステムを理解する努力をし、コントロールと誠実さをもって使用できるようにする者である。AIの利用は、依頼者の秘密を守り、信頼と信用、プライバシー、適用法の遵守を維持するために慎重に行われなければならない。
“This Bar Council guidance sets out the key risks and considerations and will support barristers using LLMs to adhere to legal and ethical standards. It will be kept under review and practitioners will need to be vigilant and adapt as the legal and regulatory landscape changes.” 「この弁護士会のガイダンスは、LLMを使用する弁護士が法的・倫理的基準を遵守するための主要なリスクと考慮事項を示している。このガイダンスは今後も継続的に見直され、法律や規制の変化に応じて、実務者は常に注意を払い、適応していく必要がある。
The guidance has been developed by the Bar Council’s IT Panel in consultation with the Bar Council’s Regulatory Review Panel. It does not comprise legal advice and is not ‘guidance’ for the purposes of the BSB Handbook 16.4. このガイダンスは、弁護士会のITパネルが弁護士会の規制検討パネルと協議して作成したものである。これは法的助言ではなく、BSBハンドブック16.4における「ガイダンス」ではない。

 

Ethics & Practice Hub

Considerations when using ChatGPT and Generative AI Software based on large language models

・[PDF

20240204-50805

・[DOCX] 仮訳

 

 

|

« ENISA サイバーセキュリティ認証の市場 | Main | NIST SP 800-108 Rev.1 擬似ランダム関数を用いた鍵導出の推奨事項 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« ENISA サイバーセキュリティ認証の市場 | Main | NIST SP 800-108 Rev.1 擬似ランダム関数を用いた鍵導出の推奨事項 »