« オーストラリア サイバー・インフラセキュリティセンター 重要インフラ年次リスクレビュー 2024 (2024.11.05) | Main | 公認会計士協会 「財務報告内部統制監査基準報告書第1号「財務報告に係る内部統制の監査」の改正」(公開草案)の公表 »

2024.11.18

英国 ICOが、AIを利用した採用活動における求職者の保護のため監査を実施し、AI開発提供者、採用担当者に向けた勧告を公表していますね...

こんにちは、丸山満彦です。

英国のデータ保護機関がAI採用ツールの利用について、AI開発提供者、採用担当者向けの課題をある程度整理しています。とても参考になるところがあるように思います。

社会にAIを実装する上で、多くの課題がだいぶみえてきているように思います。

特に人権に関わる問題が多いように思います。(もちろん、市場における公正な競争、著作物の保護もありますが...)

 

U.K. Information Commissioner's Office; ICO

・2024.11.06 ICO intervention into AI recruitment tools leads to better data protection for job seekers

ICO intervention into AI recruitment tools leads to better data protection for job seekers ICOがAI採用ツールに介入し、求職者のデータ保護向上につなげる
We have today issued a series of recommendations to AI developers and providers to ensure they are better protecting job seekers’ information rights. ICOは本日、AI開発者やプロバイダに対し、求職者の情報権利をより確実に保護するための一連の勧告を行った。
AI is increasingly being used in the recruitment process to save time and money, helping to source potential candidates, summarise CVs and score applicants. If not developed lawfully, these tools may negatively impact jobseekers who could be unfairly excluded from roles or have their privacy compromised.   AIは、潜在的な候補者の発掘、履歴書の要約、応募者の採点などを支援し、時間とコストを節約するために、採用プロセスでますます使用されるようになっている。もし合法的に開発されていなければ、これらのツールは求職者に悪影響を及ぼし、不当に職務から排除されたり、プライバシーが侵害されたりする可能性がある。 
We audited several providers and developers of AI tools for recruitment and made almost 300 recommendations, such as ensuring personal information is processed fairly and kept to a minimum, and clearly explaining to candidates how their information will be used by the AI tool. The companies accepted or partially accepted all recommendations. 我々は、採用用AIツールのプロバイダや開発者数社を監査し、個人情報が公正に処理され、最小限に保たれることを保証すること、AIツールによって自分の情報がどのように使用されるかを求職者に明確に説明することなど、約300件の勧告を行った。各社はすべての勧告を受け入れるか、部分的に受け入れた。
Published today, the audit outcomes report summarises the key findings and recommendations from the consensual audits, as well as providing examples of good practice, case studies and lessons learned for both AI developers and recruiters. 本日発表された監査結果報告書は、合意監査から得られた主な発見と勧告を要約したもので、AI開発者と採用担当者の双方にとって、優れた実践例、ケーススタディ、教訓を提供するものである。
The regulator also published key questions for organisations looking to procure AI tools for recruitment, so they can seek clear assurances from developers and providers. 規制当局はまた、採用のためのAIツールの調達を検討している組織が、開発者やプロバイダに明確な保証を求めることができるよう、主な質問事項を公表した。
Ian Hulme, ICO Director of Assurance, said: ICOの保証担当ディレクターであるイアン・ハルム氏は、次のように述べている:
“AI can bring real benefits to the hiring process, but it also introduces new risks that may cause harm to jobseekers if it is not used lawfully and fairly. Our intervention has led to positive changes by the providers of these AI tools to ensure they are respecting people’s information rights. 「AIは採用プロセスに真のメリットをもたらすが、合法的かつ公正に使用されなければ、求職者に損害を与えかねない新たなリスクももたらす。我々の介入は、AIツールのプロバイダが人々の情報権利を尊重するよう、前向きな変更を行うことにつながった。
Our report signals our expectations for the use of AI in recruitment, and we're calling on other developers and providers to also action our recommendations as a priority. That’s so they can innovate responsibly while building trust in their tools from both recruiters and jobseekers.”   私たちの報告書は、採用におけるAIの利用に対する私たちの期待を示すものであり、私たちは他の開発者やプロバイダに対しても、私たちの勧告を優先的に実行するよう求めている。そうすることで、採用担当者と求職者の両方からツールに対する信頼を築きながら、責任を持ってイノベーションを行うことができる。」 
About the audits 監査について
Our audits revealed that some AI tools were not processing personal information fairly – for example, by allowing recruiters to filter out candidates with certain protected characteristics. Others were inferring characteristics, including gender and ethnicity, from a candidate’s name instead of asking for this information. We instructed these providers to collect accurate information directly from candidates and ensure that regular checks are in place to monitor and mitigate potential discrimination.   我々の監査により、一部のAIツールが個人情報を公正に処理していないことが明らかになった。例えば、採用担当者が特定の防御特性を持つ候補者をフィルタリングできるようにしている。また、性別や民族性などの特徴を、情報を求める代わりに候補者の名前から推測しているものもあった。これらのプロバイダに対しては、候補者から直接正確な情報を収集し、潜在的な差別を監視・緩和するための定期的なチェックを確実に行うよう指導した。 
The regulator was also concerned that some AI tools collected far more personal information than necessary and retained it indefinitely to build large databases of potential candidates without their knowledge. We recommended that all candidates must be provided with transparent privacy information, including a clear retention period.   規制当局はまた、一部のAIツールが必要以上に個人情報を収集し、それを無期限に保持することで、候補者が知らないうちに候補者の大規模なデータベースを構築していることを懸念した。我々は、すべての候補者に、明確な保存期間を含む透明性のあるプライバシー情報を提供しなければならないと勧告した。 
We have followed up with the organisations and confirmed that its recommended actions were implemented. 我々は、各組織のフォローアップを行い、勧告された措置が実施されたことを確認した。
One of the organisations audited said: 監査を受けた組織のひとつは、次のように述べている:
“We are actively working to implement the specific actions agreed with the ICO in our audit plan. For example, we are making sure to provide the relevant information regarding the use of AI in our privacy policies and evaluating the steps taken to minimise bias when training and testing our AI tools.” 「監査計画でICOと合意した具体的なアクションの実施に積極的に取り組んでいる。例えば、プライバシーポリシーの中でAIの使用に関する関連情報を必ず提供し、AIツールのトレーニングやテストの際にバイアスを最小限に抑えるために取られた措置を評価している。」
Supporting the responsible development and adoption of AI   AIの責任ある開発と導入を支援する 
Following these audits, we intend to work with the organisations using these AI tools to build on its understanding of the privacy risks and potential harms of using AI to aid recruitment. これらの監査に続き、我々はこれらのAIツールを使用している組織と協力し、採用支援にAIを使用することによるプライバシーリスクと潜在的な弊害についての理解を深めるつもりである。
We will be delivering a webinar on Wednesday 22 January 2025 for AI developers and recruiters so they can learn more about the findings and how they can be applied. Register for the webinar here. 我々は2025年1月22日(水)に、AI開発者と採用担当者向けにウェビナーを開催する予定である。ウェビナーへの登録はこちらから。
Last year, we issued updated guidance to educate AI developers on ensuring their algorithms treat people and their information fairly
.
昨年、我々はAI開発者を教育し、彼らのアルゴリズムが人々とその情報を公平に扱うことを保証するための最新のガイダンスを発表した。

 

・2024.11.06 AI tools in recruitment

AI tools in recruitment 採用におけるAIツール
We carried out consensual audit engagements with developers and providers of artificial intelligence (AI) powered sourcing, screening, and selection tools used in recruitment.  我々は、採用活動で使用される人工知能(AI)搭載のソーシング、スクリーニング、選考ツールの開発者およびプロバイダに対して、同意に基づく監査を実施した。
We recognise that the use of AI tools in recruitment processes can offer benefits to employers, but their use can also lead to risks for people and their privacy and information rights.  我々は、採用プロセスにおけるAIツールの使用は、雇用者に利益をもたらす可能性があることを認識しているが、その使用は、人々や彼らのプライバシーと情報の権利にとってのリスクにもつながる可能性がある。
We undertook this work as part of our upstream monitoring of the wider AI ecosystem to understand how the development and provision of AI recruitment tools complies with UK data protection law. 我々は、AI採用ツールの開発と提供が英国データ保護法をどのように遵守しているかを理解するため、より広範なAIエコシステムの上流監視の一環として、この作業を実施した。

 

・[PDF]

20241118-21715

・[DOCX][PDF] 仮訳

 

 

目次...

Executive summary エグゼクティブサマリー
Introduction 序文
Key recommendations 主な勧告
Methodology 方法論
Impact インパクト
Summary of findings 所見のまとめ
Data minimisation and purpose limitation データの最小化と目的の制限
Using personal information to train and test AI 個人情報をAIの訓練とテストに利用する
Accuracy, fairness, and bias mitigation in AI AIにおける正確性、公平性、バイアス軽減
Transparency 透明性
Privacy trade-offs within AI AIにおけるプライバシーのトレードオフ
Human reviews in AI AIにおけるヒューマンレビュー
DPIAs and risk management DPIAとリスクマネジメント
Information security and integrity 情報セキュリティと完全性
Management frameworks 経営フレームワーク
Third party relationships サードパーティとの関係

 

主な勧告...

Key recommendations  主な勧告
Our audits found some considerable areas for improvement in data protection compliance and management of privacy risks in AI. We recommended actions both to improve compliance with data protection law and promote the good practices in our published guidance.   我々の監査では、AIにおけるデータ保護コンプライアンスとプライバシー・リスクのマネジメントに改善すべき点がいくつか見つかった。我々は、データ保護法の遵守を改善し、我々の公表したガイダンスにあるグッドプラクティスを推進するための行動を勧告した。
Our recommendations were tailored to the AI use case, the personal information processed, and the context of the organisation. However we have summarised the most common areas into seven key recommendations, which are crucial to all organisations when designing and using AI recruitment tools.   我々の勧告は、AIの使用ケース、処理される個人情報、組織の状況に合わせたものである。しかし、最も一般的な領域を7つの主要な勧告事項にまとめた。これは、AI採用ツールを設計し使用する際に、すべての組織にとって極めて重要なものである。
These key recommendations are relevant for organisations that develop or provide AI recruitment tools (AI providers), and organisations that use or are thinking of using an AI tool in their recruitment (recruiters).   これらの主要な勧告は、AI採用ツールを開発または提供する組織(AI提供者)と、採用においてAIツールを使用する、または使用を考えている組織(採用担当者)に関連する。
AI providers and recruiters should follow our recommendations, to ensure AI recruitment tools comply with UK data protection law.  AI提供者と採用担当者は、AIリクルートツールが英国のデータ保護法を遵守するよう、我々の勧告に従うべきである。
Recommendation: Fairness  勧告:公平性
AI providers and recruiters must ensure that they process personal information fairly by AI. This includes monitoring for potential or actual fairness, accuracy, or bias issues in the AI and its outputs, and taking appropriate action to address these. Depending on the decisions made and the level of human involvement as a result, the accuracy being better than random is not enough to demonstrate that AI is processing personal information fairly.   AI提供者と採用担当者は、AIによる個人情報の公正な処理を保証しなければならない。これには、AIとそのアウトプットに潜在的または実際の公平性、正確性、バイアスの問題がないか監視し、それらに対処するための適切な措置を講じることが含まれる。その結果下される判断や人間の関与の度合いによっては、精度がランダムよりも優れているだけでは、AIが個人情報を公正に処理していることを示すには不十分である。
Additionally, AI providers and recruiters must also ensure any special category data processed to monitor for bias and discriminatory outputs is adequate and accurate enough to effectively fulfil this purpose. They must also ensure this processing complies with data protection law. Inferred or estimated data will not be adequate and accurate enough, and will therefore not comply with data protection law.  さらに、AI提供者と採用担当者は、バイアスや差別的な出力を監視するために処理される特別カテゴリーデータが、この目的を効果的に果たすのに十分適切かつ正確であることも確認しなければならない。また、この処理がデータ保護法に準拠していることも確認しなければならない。防御データや推定データは、十分かつ正確ではないため、データ保護法に準拠しない。
Recommendation: Transparency and explainability  勧告:透明性と説明可能性
Recruiters must ensure that they inform their candidates how they will process their personal information by AI. They should do this by providing detailed privacy information, or ensuring this is provided by the AI provider. This should clearly explain:   採用担当者は、AIによる個人情報の処理方法について、候補者に確実に通知しなければならない。そのためには、詳細なプライバシー情報を提供するか、あるいはAI提供者から提供されるようにしなければならない。これは明確に説明されるべきである:
• what personal information is processed by AI and how;   • AIがどのような個人情報をどのように処理するか;
• the logic involved in making predictions or producing outputs; and   • 予測や出力に関わるロジック。
• how they use personal information for training, testing, or otherwise developing the AI.  • AIの訓練、テスト、その他の開発のために個人情報をどのように使用するか。
AI providers should support the transparency and explainability of their AI by proactively providing relevant AI technical information or details about the AI logic to the recruiter.  AI提供者は、関連するAIの技術情報やAIロジックの詳細を採用担当者に積極的に提供することで、AIの透明性と説明可能性をサポートすべきである。
AI providers and recruiters must ensure that contracts clearly define which party is responsible for providing privacy information to candidates.   AI提供者と採用担当者は、候補者にプライバシー情報を提供する責任がどちらにあるのかを契約で明確に定義しなければならない。
Recommendation: Data minimisation and purpose limitation  勧告:データの最小化と目的の制限
AI providers should comprehensively assess:   AI提供者は、総合的に以下をアセスメントすべきである:
• the minimum personal information they require to develop, train, test, and operate each element of the AI;   • AIの各要素を開発、訓練、テスト、運用するために必要な最小限の個人情報を提供する;
• the purpose for processing and compatibility with the original purpose for processing; and  • 処理の目的および当初の処理目的との互換性。
• how long the require the personal information for.  • 個人情報を必要とする期間
Recruiters should:   採用担当者は、以下をすべきである:
• ensure that they collect only the minimum personal information necessary to achieve the AI’s purpose; and   • AIの目的を達成するために必要な最小限の個人情報のみを収集する。
• confirm that they only process this personal information for that specific limited purpose and they do not store, share, or reprocess it for an alternative incompatible purpose.  • 個人情報を特定の限定された目的のためにのみ処理し、互換性のない別の目的のために保存、共有、再処理しないことを確認する。
Recommendation: Data protection impact assessments (DPIA)  勧告:データ保護影響アセスメント(DPIA)
AI providers and recruiters must:   AI提供者と採用担当者は、以下をすべきである:
• complete a DPIA early in AI development and prior to processing, where processing is likely to result in a high risk to people; and   • 人へのリスクが高い加工が行われる可能性がある場合、AI開発の初期段階および加工前にDPIAを実施する。
• update the DPIA as AI develops and when processing changes.   • AIの発展や処理の変更に応じてDPIAを更新する。
The DPIA must include:   DPIAには、以下を含めなければならない:
• a comprehensive assessment of privacy risks to people as a result of personal information processing;   • 個人情報処理の結果、人々が被るプライバシーリスクを包括的にアセスメントする;
• appropriate mitigating controls to reduce these risks; and   • これらのリスクを低減するための適切な低減コントロール。
• an analysis of trade-offs between people’s privacy and other competing interests.  • 人々のプライバシーと他の競合する利益との間のトレードオフの分析。
Even when acting exclusively as processors, AI providers should consider completing a DPIA to assess and mitigate privacy risks and evidence technical and organisational controls in place.   プロセッサーとしてのみ行動する場合であっても、AI提供者は、プライバシーリスクを評価・軽減し、技術的・組織的管理が実施されていることを証明するために、DPIAの完了を検討すべきである。
Recommendation: Data controller and processor roles  勧告:データ管理者と処理者の役割
AI providers and recruiters must:   AI提供者と採用担当者は、以下をすべきである:
• define whether the AI provider is the controller, joint controller, or a processor for each specific processing of personal information; and   • AI提供者が、個人情報の特定の処理ごとに、管理者、共同管理者、または処理者のいずれであるかを定義する。
• record this clearly in contracts and privacy information.   • このことを契約書やプライバシー情報に明記する。
The AI provider is the controller if it exercises overall control of the means and purpose of processing in practice. For example, if it uses the personal information it processes on the recruiter’s behalf to develop a central AI model that they deploy to all recruiters.  AI提供者は、実際に処理の手段と目的を全体的に管理する場合、管理者となる。例えば、採用担当者に代わって処理する個人情報を使用して、すべての採用担当者に展開する中央AIモデルを開発する場合などである。
Recommendation: Explicit processing instructions  勧告:明示的な処理指示
Recruiters must set explicit and comprehensive written processing instructions for the AI provider to follow when processing personal information on its behalf as a processor. This includes deciding the:   採用担当者は、処理者としてAI提供者に代わって個人情報を処理する際、AI提供者が従うべき明示的かつ包括的な書面による処理指示を定めなければならない。これには、以下の事項を決定することが含まれる:
• specific data fields required;   • 特定のデータフィールドが必要である;
• means and purposes of processing;   • 処理の手段と目的
• output required; and   • 必要な出力
• minimum safeguards to protect personal information.   • 個人情報を保護するための最低限のセーフガード。
Recruiters should periodically check that AI providers are complying with these instructions and not sharing or processing personal information for additional alternative purposes.  採用担当者は、AI提供者がこれらの指示を遵守し、追加の代替目的のために個人情報を共有または処理していないことを定期的に確認すべきである。
AI providers must only follow the recruiters’ explicit instructions when they process personal information as a processor for the recruiter. The AI provider must not retain personal information, share it without permission, or process it for their own purposes beyond their instructions.  AI提供者は、人材紹介業者の処理者として個人情報を処理する場合、人材紹介業者の明示的な指示にのみ従わなければならない。AI提供者は、個人情報を保持したり、許可なく共有したり、指示を超えて独自の目的で処理してはならない。
Recommendation: Lawful basis and additional condition  勧告:合法的根拠と追加条件
AI providers and recruiters must:   AI提供者と採用担当者は、以下をすべきである:
• identify the lawful basis they relied on for each instance of personal information processing where they are the controller, before processing any personal information;   • 個人情報を処理する前に、管理者である場合、個人情報処理の各事例におい て依拠した合法的根拠を特定すること;
• identify an additional condition, where they are processing special category data;  • 特別カテゴリー・データを処理する場合、追加条件を特定する;
• document, describe in privacy information, and record in contracts the lawful basis and condition;  • 文書化し、プライバシー情報に記載し、契約書に合法的根拠と条件を記録する;
• when relying on legitimate interests, complete a legitimate interests assessment; and  • 正当な利益に依拠する場合は、正当な利益のアセスメントを完了する。
• when relying on consent, ensure that consent is specific, granular, has a clear opt-in, appropriately logged and refreshed at periodic intervals, and as easy to withdraw as it was to give. • 同意に依存する場合は、同意が具体的で、粒度が細かく、明確なオプトインがあり、適切なログが記録され、定期的に更新され、同意の撤回が同意と同様に容易であることを確認する。

 

 


 

・2024.11.06 Thinking of using AI to assist recruitment? Our key data protection considerations

Thinking of using AI to assist recruitment? Our key data protection considerations 採用支援にAIの活用をお考えか?データ保護に関する主な考慮事項
We have shared key questions organisations should ask when procuring AI tools to help with their employee recruitment. 従業員の採用を支援するためにAIツールを調達する際に、組織が尋ねるべき主な質問を共有した。
Many recruiters may be looking to procure these tools to improve the efficiency of their hiring process, helping to source potential candidates, summarise CVs and score applicants. If not used lawfully, however, AI tools may negatively impact jobseekers who could be unfairly excluded from roles or have their privacy compromised.   多くの採用担当者は、潜在的な候補者の発掘、履歴書の要約、応募者のスコアリングを支援し、採用プロセスの効率を改善するためにこれらのツールを調達しようとしているかもしれない。しかし、適法に使用されなければ、AIツールは求職者に悪影響を及ぼし、職務から不当に排除されたり、プライバシーが侵害されたりする可能性がある。 
We recently audited several providers and developers of AI tools for the recruitment industry, which uncovered considerable areas for improvement, such as ensuring personal information is processed fairly and kept to a minimum, and clearly explaining to candidates how their information will be used by the AI tool.  我々は最近、人材紹介業界向けのAIツールのプロバイダや開発者数社を監査した。その結果、個人情報が公正に処理され、最小限に抑えられていること、AIツールによって自分の情報がどのように使用されるかを求職者に明確に説明することなど、かなりの改善点が明らかになった。
The regulator made almost 300 clear recommendations for providers and developers to improve their compliance with data protection law, all of which have been accepted or partially accepted. Published today, the audit outcomes report summarises the key findings from the audits, as well as practical recommendations for recruiters wishing to use these tool. 規制当局は、プロバイダや開発者に対し、データ保護法への準拠を改善するために300近くの明確な勧告を行い、そのすべてが受け入れられたか、部分的に受け入れられた。本日発表された監査結果報告書は、監査から得られた主な発見と、これらのツールの利用を希望する採用担当者に対する実践的な勧告をまとめたものである。
Ian Hulme, ICO Director of Assurance, said: ICOの保証担当ディレクターであるイアン・ハルム氏は、次のように述べている:
“AI can bring real benefits to the hiring process, but it also introduces new risks that may cause harm to jobseekers if it is not used lawfully and fairly. Organisations considering buying AI tools to help with their recruitment process must ask key data protection questions to providers and seek clear assurances of their compliance with the law.”  「AIは採用プロセスに真のメリットをもたらすが、合法的かつ公正に使用されなければ、求職者に損害を与えかねない新たなリスクももたらす。採用プロセスを支援するためにAIツールの購入を検討している組織は、プロバイダにデータ保護に関する重要な質問をし、法律の遵守について明確な保証を求める必要がある」 
Key questions to ask before procuring an AI tool for recruitment 採用のためのAIツールを調達する前に尋ねるべき主な質問
1) Have you completed a DPIA?  1) DPIAを完了しているか?
The procurement process is an important stage where recruiters can understand, address and mitigate any potential privacy risks or harms to people. A Data Protection Impact Assessment (DPIA) helps you to ask the right questions of your provider and should be carried out prior to using an AI tool, ideally at the procurement stage. Your DPIA should be kept up to date as the processing and its impacts evolve. Taking this approach will also help meet your accountability obligations under data protection law. 調達プロセスは、輸入事業者が潜在的なプライバシーリスクや人々への危害を理解し、対処し、低減することができる重要な段階である。データ保護影響アセスメント(DPIA)は、プロバイダに適切な質問をするのに役立ち、AIツールを使用する前に、理想的には調達段階で実施すべきである。DPIAは、処理とその影響の進展に応じて、常に最新の状態に保つべきである。このようなアプローチをとることは、データ保護法に基づく説明義務を果たすことにもつながる。
2) What is your lawful basis for processing personal information?  2) 個人情報処理の合法的根拠は何か?
If you are processing personal information, you must identify an appropriate lawful basis to rely on, such as consent or legitimate interests. If you plan to process sensitive special category data, such as racial, ethnic origin or health data, you must meet a specific condition under the law. 個人情報を処理する場合、同意や正当な利益など、依拠すべき適切な合法的根拠を特定しなければならない。人種、民族的出身、健康データなど、機密性の高い特殊カテゴリーデータを処理する予定の場合は、法律に基づく特定の条件を満たさなければならない。
3) Have you documented responsibilities and set clear processing instructions?   3) 責任を文書化し、明確な処理指示を設定しているか? 
Both recruiters and AI providers have a responsibility for data protection compliance. You must identify who is the controller and processor of personal information. This must be recorded clearly in a contract with the provider and scrutinised carefully. If the AI provider is a processor, you must set explicit and comprehensive written instructions for them to follow. You should establish how you will ensure that the provider of the tool is complying with these instructions, and you could also set out performance measures such as statistical accuracy and bias targets. リクルーターもAIプロバイダもデータ保護コンプライアンスに責任を持つ。誰が個人情報の管理者と処理者であるかを特定しなければならない。これはプロバイダとの契約に明確に記録し、慎重に精査しなければならない。AIプロバイダが処理者である場合、プロバイダが従うべき明確かつ包括的な指示を文書で定めなければならない。ツールのプロバイダがこれらの指示を遵守していることをどのように確認するかを定めるべきであり、統計的精度やバイアスの目標値などのパフォーマンス指標を定めることもできる。
4) Have you checked the provider has mitigated bias?   4)プロバイダがバイアスを低減していることを確認したか? 
The audit revealed that some AI tools were not processing personal information fairly – for example, by allowing recruiters to filter out candidates with certain protected characteristics. You must ensure that personal information will be processed fairly by monitoring for potential or actual fairness, accuracy or bias issues in the AI tool and its outputs. These should be raised with the provider so they can be addressed appropriately. You should seek clear assurances from the AI provider that they have mitigated bias and ask to see any relevant documentation. 監査の結果、AIツールの中には、採用担当者が特定の防御特性を持つ候補者をフィルタリングできるようにするなど、個人情報を公正に処理していないものがあることが明らかになった。AIツールやその出力に公正さ、正確さ、バイアスの問題が潜在的または実際に存在しないか監視することで、個人情報が公正に処理されることを保証しなければならない。これらの問題はプロバイダに提起し、適切に対処できるようにすべきである。AIプロバイダから、バイアスを低減しているという明確な保証を求め、関連文書の閲覧を求めるべきである。
5) Is the AI tool being used transparently?  5) AIツールは透明性をもって使用されているか?
You must ensure that you inform candidates how an AI tool will process their personal information. You should do this with clear privacy information, that explains how and why the tool is being used and the logic involved in making predictions or producing outputs that may affect people. Candidates must be informed how they can challenge any automated decisions made by the tool. AIツールが受験者の個人情報をどのように処理するか、受験者に確実に伝えなければならない。明確なプライバシー情報を用いて、ツールがどのように使用され、なぜ使用されるのか、また、人々に影響を与える可能性のある予測や出力に関わるロジックを説明しなければならない。候補者は、ツールによる自動化された決定に異議を唱える方法を知らされていなければならない。
6) How will you limit unnecessary processing?  6) 不必要な処理をどのように制限するか?
The audits revealed that some AI tools collected far more personal information than necessary and retained it indefinitely to build large databases of potential candidates without their knowledge. You must ensure that the tool collects only the minimum amount of personal information required to achieve its purpose and consider how you will ensure it is not used for other incompatible purposes. 監査の結果、一部のAIツールが必要以上に個人情報を収集し、それを無期限に保持することで、候補者が知らないうちに候補者の大規模なデータベースを構築していることが明らかになった。ツールは、その目的を達成するために必要な最小限の個人情報しか収集しないようにし、他の両立しない目的に使用されないようにする方法を検討しなければならない。
We will be delivering a webinar on Wednesday 22 January 2025 for AI developers and recruiters so they can learn more about the findings and how they can be applied. Register for the webinar here. 我々は2025年1月22日(水)に、AI開発者と採用担当者向けにウェビナーを開催する。ウェビナーへの登録はこちらから。
For more information on our AI tools for recruitment outcomes report, click here. 採用成果のためのAIツール・レポートの詳細については、こちらをクリック。
Notes for editors 編集後記
When an organisation is audited by the ICO, the regulator assesses whether it is compliant with data protection law and provides a report with recommendations on how to improve. Find out more here.  組織がICOの監査を受ける場合、規制当局はデータ保護法を遵守しているかどうかをアセスメントし、改善方法に関する勧告を含む報告書を提出する。詳細はこちら。
The Information Commissioner’s Office (ICO) is the UK’s independent regulator for data protection and information rights law, upholding information rights in the public interest, promoting openness by public bodies and data privacy for individuals. 情報コミッショナー事務局(ICO)は、データ保護および情報権利法に関する英国の独立規制機関であり、公益のために情報権利を支持し、公共団体による公開と個人のデータ・プライバシーを促進する。
The ICO has specific responsibilities set out in the Data Protection Act 2018 (DPA2018), the United Kingdom General Data Protection Regulation (UK GDPR), the Freedom of Information Act 2000 (FOIA), Environmental Information Regulations 2004 (EIR), Privacy and Electronic Communications Regulations 2003 (PECR) and a further five acts and regulations. ICOは、データ保護法2018(DPA2018)、英国一般データ保護規則(英国GDPR)、情報公開法2000(FOIA)、環境情報規則2004(EIR)、プライバシー・電子通信規則2003(PECR)、およびさらに5つの法律と規則に定められた特定の責任を負う。
The ICO can take action to address and change the behaviour of organisations and individuals that collect, use, and keep personal information. This includes criminal prosecution, civil enforcement and audit. ICOは、個人情報を収集、使用、保管する組織や個人の行動に対処し、その行動を変えるために行動を起こすことができる。これには刑事訴追、民事執行、監査が含まれる。
To report a concern to the ICO telephone call our helpline on 0303 123 1113, or go to ico.org.uk/concerns. ICOに懸念を報告するには、ヘルプライン(0303-123-1113)に電話するか、ico.org.uk/concernsにアクセスする。

 

 

 

|

« オーストラリア サイバー・インフラセキュリティセンター 重要インフラ年次リスクレビュー 2024 (2024.11.05) | Main | 公認会計士協会 「財務報告内部統制監査基準報告書第1号「財務報告に係る内部統制の監査」の改正」(公開草案)の公表 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« オーストラリア サイバー・インフラセキュリティセンター 重要インフラ年次リスクレビュー 2024 (2024.11.05) | Main | 公認会計士協会 「財務報告内部統制監査基準報告書第1号「財務報告に係る内部統制の監査」の改正」(公開草案)の公表 »