« あけましておめでとうございます 2025 | Main | 米国 ホワイトハウス バイデン=ハリス政権は、米国のサプライチェーン強化に向けた進展を遂げている (2024.12.19) »

2025.01.01

韓国 個人情報委員会 国民が信頼できる人工知能時代のためのAIプライバシーリスク管理モデルの提示 (2024.12.19)

こんにちは、丸山満彦です。

韓国の個人情報保護委員会が、国民が信頼できる人工知能時代のためのAIプライバシーリスク管理モデルを提示していますね...

 

개인정보위

・2024.12.19 국민이 신뢰할 수 있는 인공지능 시대를 위한 AI 프라이버시 리스크 관리 모델 제시

 

국민이 신뢰할 수 있는 인공지능 시대를 위한 AI 프라이버시 리스크 관리 모델 제시 国民が信頼できる人工知能時代のためのAIプライバシーリスク管理モデルの提示
(별첨) 안전한 인공지능(AI)·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델(24.12.19.).pdf (別添) 安全な人工知能(AI)-データ活用のためのAIプライバシーリスク管理モデル(24.12.19.).pdf
 241220 (조간) 국민이 신뢰할 수 있는 인공지능 시대를 위한 AI 프라이버시 리스크 관리모델 제시(인공지능프라이버시팀).hwpx  241220 (朝刊) 国民が信頼できる人工知能時代のためのAIプライバシーリスク管理モデルの提示(人工知能プライバシーチーム).hwpx
 241220 (조간) 국민이 신뢰할 수 있는 인공지능 시대를 위한 AI 프라이버시 리스크 관리모델 제시(인공지능프라이버시팀).pdf  241220 (朝刊) 国民が信頼できる人工知能時代のためのAIプライバシーリスク管理モデルの提示(人工知能プライバシーチーム).pdf 
국민이 신뢰할 수 있는 인공지능 시대를 위한 AI 프라이버시 리스크 관리 모델 제시 国民が信頼できる人工知能時代のためのAIプライバシーリスク管理モデルの提示
- 개인정보위, 「안전한 인공지능(AI)·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델」 공개 ・個人情報委員会が「安全な人工知能(AI)-データ活用のためのAIプライバシーリスク管理モデル」公開
- AI의 유형·용례 등 구체적 맥락에 따라 AI 기업 등이 자율적으로 프라이버시 리스크를 관리할 수 있도록 지원 ・AIの類型・用例など,具体的な文脈に応じてAI企業などが自律的にプライバシーリスクを管理できるように支援
  인공지능(AI) 모델·시스템을 개발하거나 제공할 때 프라이버시 리스크를 체계적으로 관리할 수 있는 정부 차원의 모델이 제시되었다.   人工知能(AI)モデル・システムを開発・提供する際、プライバシーリスクを体系的に管理できる政府レベルのモデルが提示された。
  개인정보보호위원회(위원장 고학수, 이하 ‘개인정보위’)는 AI 기업이 자율적으로 프라이버시 리스크를 관리할 수 있도록 「안전한 인공지능(AI)·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델」(이하 ‘리스크 관리 모델’)을 공개했다. 이러한 리스크 관리 모델에는 AI 생애주기에 걸친 프라이버시 리스크 관리의 방향과 원칙, 리스크 유형, 경감방안을 체계적으로 담았다.   個人情報保護委員会(委員長コ・ハクス、以下「個人情報委員会」)は、AI企業が自律的にプライバシーリスクを管理できるように「安全な人工知能(AI)-データ活用のためのAIプライバシーリスク管理モデル」(以下「リスク管理モデル」)を公開した。このようなリスク管理モデルには、AIのライフサイクルに渡るプライバシーリスク管理の方向性と原則、リスクタイプ、軽減策を体系的に盛り込んだ。
  AI 시대의 데이터 처리방식은 개인정보 유·노출 등 전형적 프라이버시 리스크는 물론 딥페이크로 인한 인격권 침해 등 새로운 리스크를 유발하고 있다. 이러한 리스크를 적정하게 관리하는 것은 정보주체의 보호뿐만 아니라 지속 가능하고 신뢰할 수 있는 AI를 위해 필수적이고, 리스크에 대한 체계적인 이해를 바탕으로 비례적, 합리적 경감조치를 취할 필요가 있다.   AI時代のデータ処理方式は、個人情報の流・露出などの典型的なプライバシーリスクはもちろん、ディープフェイクによる人格権侵害などの新たなリスクを引き起こしている。このようなリスクを適切に管理することは、情報主体の保護だけでなく、持続可能で信頼できるAIのために必須であり、リスクに対する体系的な理解に基づいて比例的、合理的な軽減措置を取る必要がある。
  이에 따라 최근에 국내외 정부기관, 학계·연구계를 중심으로 AI 전반의 리스크에 대한 연구가 진행되고 리스크 관리 프레임워크가 마련되고 있지만 아직 초기 단계이다. 더구나, 프라이버시 리스크와 관련해서는 일선 현장에서 참고할 수 있는 정리된 자료가 부족했다.   これに伴い、最近、国内外の政府機関、学界・研究界を中心にAI全般のリスクに関する研究が進み、リスク管理の枠組みが整備されているが、まだ初期段階である。また、プライバシーリスクに関しては、第一線の現場で参考にできる整理された資料が不足していた。
  이에 개인정보위는 지난해 12월부터 「인공지능(AI) 프라이버시 민·관 정책협의회*」 리스크 평가 분과(2분과)의 논의를 중심으로 리스크 관리 모델을 마련했다. 리스크 관리 모델은 국내외 학계, 정부, 연구기관 등에서 논의되고 공감대가 형성되고 있는 AI 데이터 처리 특성, 프라이버시 리스크 유형, 리스크 경감방안 및 관리체계, 기업 사례 등을 집대성해 안내하는 자료로서, 본 안내서에서 제시되는 모든 개별조치의 이행이 반드시 요구되는 것은 아니다.   そこで、個人情報委員会は昨年12月から「人工知能(AI)プライバシー民-官政策協議会*」リスク評価分科(2分科)の議論を中心にリスク管理モデルを策定した。リスク管理モデルは、国内外の学界、政府、研究機関などで議論され、共感が形成されているAIデータ処理の特性、プライバシーリスクタイプ、リスク軽減方案及び管理体系、企業事例などを集約して案内する資料であり、本ガイドで提示されるすべての個別措置の履行が必ずしも要求されるわけではない。
   * 학계, 법조계, 산업계, 시민단체 등 인공지능(AI) 분야 차세대 전문가 32명으로 구성, 3개 분과(데이터 처리기준, 리스크 평가, 투명성 확보) 운영    * 学界、法曹界、産業界、市民団体など人工知能(AI)分野の次世代専門家32人で構成、3つの分科(データ処理基準、リスク評価、透明性確保)を運営。
  리스크 관리 모델의 주요 내용은 다음과 같다.   リスク管理モデルの主な内容は以下の通りである。
  ① AI 프라이버시 리스크 관리의 절차  ① AIプライバシーリスク管理の手順
  먼저, AI 프라이버시 리스크 관리 절차이다. AI는 매우 다양한 맥락·목적으로 활용되고 있어, 데이터 요구사항(종류, 형태, 규모 등) 및 처리방식이 다르다. 따라서 리스크의 성격을 결정짓고 관리하기 위한 출발점으로 먼저 ①AI의 구체적 유형·용례를 파악한다. 이를 토대로 AI 유형·용례별로 구체적 ②리스크를 식별하고, 리스크 발생확률, 중대성, 우선순위, 수용가능성 등 ③정성적·정량적 리스크 측정을 수행할 수 있다. 이후, ④리스크에 비례하는 안전조치를 마련함으로써 리스크를 체계적으로 관리할 수 있다.   まず、AIプライバシーリスク管理の手順である。AIは非常に多様な文脈・目的で活用されており、データ要件(種類、形態、規模など)および処理方法が異なる。 したがって、リスクの性質を決定し、管理するための出発点として、まず①AIの具体的なタイプ・用例を把握する。これを基に、AIのタイプ・用途別に具体的な②リスクを識別し、リスク発生確率、重大性、優先順位、受容可能性など③定性的・定量的なリスク測定を行うことができる。その後、④リスクに比例する安全措置を講じることで、リスクを体系的に管理することができる。
  이러한 리스크 관리는 리스크의 조기 발견과 완화를 위해 개인정보 보호 중심 설계(PbD) 관점에서 AI 모델·시스템의 기획·개발 단계부터 이루어지는 것이 바람직하며, 이후 시스템 고도화 등 환경 변화에 따라 주기적·반복적으로 이루어지는 것이 권장된다.   このようなリスク管理は、リスクの早期発見と緩和のため、個人情報保護中心設計(PbD)の観点からAIモデル・システムの企画・開発段階から行うことが望ましく、その後、システムの高度化など環境の変化に応じて周期的・反復的に行うことが推奨される。
  ② AI 프라이버시 리스크의 유형  ② AIプライバシーリスクの種類
  다음으로 프라이버시 맥락에서 AI 리스크 유형을 예시로 제시했다. 국내외 문헌조사, 기업 인터뷰 등을 통해 파악한 AI 기술의 고유한 특성과 기능 및 데이터 요구사항 등으로 인해 새롭게 나타나는 정보주체 권리침해, 그리고 개인정보 보호법 위반 리스크 등을 중점적으로 다뤘다.    次に、プライバシーの文脈におけるAIリスクのタイプを例示した。国内外の文献調査、企業インタビューなどを通じて把握したAI技術の固有の特性と機能及びデータ要件などにより新たに現れる情報主体の権利侵害、そして個人情報保護法違反リスクなどを重点的に扱った。
  구체적으로 AI의 생애주기(life-cycle)에 따라 AI 모델·시스템의 기획·개발 단계, 서비스 제공 단계에서 발생하는 리스크를 구분해 제시했으며, 서비스 제공 단계는 생성 AI와 판별 AI를 구분함으로써 AI 용례·유형에 따른 구체성을 더했다.    具体的には、AIのライフサイクル(life-cycle)に基づき、AIモデル・システムの企画・開発段階、サービス提供段階で発生するリスクを区分して提示し、サービス提供段階は、生成AIと判別AIを区分することで、AIの用例・タイプによる具体性を加えた。
  ③ AI 프라이버시 리스크의 경감방안  ③ AIプライバシーリスクの軽減策
  아울러, 리스크를 경감하기 위한 관리적, 기술적 안전조치도 안내했다. 다만 모든 경감조치를 필수적으로 취해야 하는 것은 아니며, 구체적으로 리스크를 식별하고 측정한 결과 등 개별 맥락에 따라 최적의 안전조치 조합을 마련하여 시행할 수 있도록 안내했다.   また、リスクを軽減するための管理的・技術的な安全措置もガイドした。ただし、すべての軽減措置を必須的に取らなければならないわけではなく、具体的にリスクを識別して測定した結果など、個々の文脈に応じて最適な安全措置の組み合わせを用意して施行できるようにガイドした。
  먼저 관리적 안전 조치에는 ▲학습데이터 출처·이력 관리, ▲허용되는 이용방침 마련, ▲AI 프라이버시 레드팀을 통한 개인정보 침해유형 테스트 및 조치, ▲부적절한 답변 등에 대한 정보주체 신고방안 마련 등이 포함된다. 또한, 학습데이터에 민감한 정보가 포함될 개연성이 높거나 대규모 개인정보가 포함되는 경우 ▲개인정보 영향평가 수행도 권장된다.    まず、管理的安全措置には、▲学習データの出所-履歴管理、▲許容される利用方針の策定、▲AIプライバシーレッドチームを通じた個人情報侵害タイプのテスト及び措置、▲不適切な回答などに対する情報主体の申告案の策定などが含まれる。また、学習データに敏感な情報が含まれる可能性が高い場合や大規模な個人情報が含まれる場合、個人情報影響評価の実施も推奨される。
  다음으로 기술적 안전 조치에는 ▲AI 학습데이터 전처리(불필요한 데이터 삭제, 가명·익명화, 중복제거 등), ▲AI 모델 미세조정을 통한 안전장치 추가, ▲입력·출력 필터링 적용, ▲차분 프라이버시 기법의 적용 등이 포함된다. 한편, 한국어가 적용된 AI 모델의 특수성도 고려하기 위해 개인정보위는 한국어 언어모델 대상 프라이버시 리스크 경감기술 효과 분석을 위한 정책연구*를 진행하여 관련 연구가 부족한 상황에서 과학적 실증에 기반한 정책을 마련하기 위해 노력했다.   次に、技術的な安全措置には、▲AI学習データの前処理(不要なデータの削除、仮名・匿名化、重複除去など)、▲AIモデルの微調整を通じた安全装置の追加、▲入力・出力フィルタリングの適用、▲差分プライバシー手法の適用などが含まれる。一方、韓国語が適用されたAIモデルの特殊性も考慮するため、個人情報委員会は韓国語言語モデル対象のプライバシーリスク軽減技術の効果分析のための政策研究*を進め、関連研究が不足している状況で、科学的実証に基づいた政策を策定するために努力した。
   * 정책연구 주요 내용은 리스크 관리 모델의 부록에서 확인할 수 있음    * 政策研究の主な内容は、リスク管理モデルの附属書で確認することができる。
  ④ AI 프라이버시 리스크의 관리 체계  ④ AIプライバシーリスクの管理体系
  마지막으로 리스크 관리체계를 제시했다. AI 환경에서는 개인정보보호, AI 거버넌스, 사이버보안, 안전·신뢰 등 다양한 디지털 거버넌스 요소가 상호연관된다. 이에 따라 전통적 프라이버시 거버넌스의 재편이 필요하며, 이때 개인정보 보호책임자(CPO)의 주도적 역할·책임감이 중시된다. 또한, 리스크에 대한 다각적·전문적 평가를 수행할 수 있는 담당조직을 구성하고, 체계적 리스크 관리를 보장하는 정책을 마련하는 것이 바람직하다.   最後に、リスク管理体系を提示した。AI環境では、個人情報保護、AIガバナンス、サイバーセキュリティ、安全・信頼など様々なデジタルガバナンス要素が相互に関連する。これにより、伝統的なプライバシーガバナンスの再編成が必要であり、この際、個人情報保護責任者(CPO)の主導的な役割・責任感が重視される。また、リスクに対する多角的・専門的な評価を行うことができる担当組織を構成し、体系的なリスク管理を保証する政策を策定することが望ましい。
  아울러, AI 기업 등은 AI 밸류체인 내에서 당해 기업·기관의 권한 및 책임의 범위를 명확히 파악하고, 타 기업·기관과의 협력체계를 구체화함으로써 프라이버시 리스크 변화에 지속 대응하고 정보주체의 권리행사를 효과적으로 보장할 수 있다.   また、AI企業などは、AIバリューチェーン内で当該企業・機関の権限及び責任の範囲を明確に把握し、他の企業・機関との協力体系を具体化することで、プライバシーリスクの変化に持続的に対応し、情報主体の権利行使を効果的に保障することができる。
  개인정보위는 추후 AI 기술 발전, 개인정보 관련 법령 제·개정, 글로벌 동향 등을 고려해 리스크 관리 모델을 지속적으로 업데이트할 계획이다. 또한, 소규모 조직, 스타트업 및 AI 개발 유형(미세조정, 검색증강(RAG) 등) 등 세부대상, 영역 등에 특화된 안내자료도 조만간 구체화될 예정이다.   個人情報委員会は今後、AI技術の発展、個人情報関連法令の制定・改正、グローバル動向などを考慮し、リスク管理モデルを持続的にアップデートする計画だ。また、小規模組織、スタートアップ及びAI開発タイプ(微調整、検索増強(RAG)など、詳細対象、領域などに特化した案内資料も近いうちに具体化される予定だ。
  이 밖에 개인정보위는 사전적정성 검토제, 규제샌드박스, 개인정보 안심구역 등 혁신지원제도를 통해 인공지능(AI) 기업과 수시로 소통하면서 기술의 발전 양상과 기업 애로사항을 모니터링하고, 이를 통해 축적된 사례와 경험을 토대로 AI 시대에 맞게 개인정보 보호법을 정비하는 작업도 추진할 예정이다.   このほか、個人情報委員会は、事前適性検討制、規制サンドボックス、個人情報安心区域などの革新支援制度を通じ、人工知能(AI)企業と随時コミュニケーションを取りながら、技術の発展様相と企業の問題点をモニタリングし、これを通じて蓄積された事例と経験を基に、AI時代に合わせて個人情報保護法を整備する作業も推進する予定だ。
  이번 리스크 관리 모델 논의를 이끈 박상철 서울대 교수(민·관 정책협의회 리스크 평가 분과장)는 “전세계적으로 빠르게 발전하는 AI 기술과 기존 개인정보보호 규제 간에 간극과 긴장이 발생하고 있어 대응이 필요한 시점이다.”라며, “각계 전문가와 함께 세계적인 AI 거버넌스의 흐름과 실증 연구 결과들에 부합하는 유연하고 체계적인 프라이버시 리스크 관리체계를 제시했다는 점에서 의미가 있다.”라고 전했다.   今回のリスク管理モデルの議論を主導したソウル大学校のパク・サンチョル教授(官民政策協議会リスク評価分科長)は、「世界的に急速に発展するAI技術と既存の個人情報保護規制の間に間隙と緊張が発生しており、対応が必要な時期だ」とし、「各界の専門家と共に世界的なAIガバナンスの流れと実証研究結果に適合する柔軟で体系的なプライバシーリスク管理体系を提示したという点で意味がある」と伝えた。
  민·관 정책협의회의 공동의장인 배경훈 LG AI 연구원장은 “국제적 논의가 활발한 AI 프라이버시 분야에서 우리나라가 선도적으로 리스크 관리 모델을 개발한 것은 의미있는 성과”라며, “AI 기업 등이 혁신과 프라이버시 보호를 동시에 달성할 수 있도록 개인정보위의 지속적 지원을 부탁드린다.”라고 말했다.   官民政策協議会の共同議長であるバックク・フンLG AI研究院長は、「国際的な議論が活発なAIプライバシー分野で、韓国が先導的にリスク管理モデルを開発したことは意味のある成果」とし、「AI企業などが革新とプライバシー保護を同時に達成できるよう、個人情報委員会の持続的な支援をお願いしたい」と述べた。
  고학수 개인정보위 위원장은 “개인정보, 비개인정보가 총체적으로 활용되고 기술 발전이 지속되는 AI 영역은 불확실성이 높기 때문에 일률적 규제보다는 합리적·비례적 관리를 통해 리스크를 총체적으로 최소화하는 것이 필요하다.”라며, “리스크 관리 모델이 AI 기업 등이 프라이버시 리스크를 이해하고 체계적으로 관리하는 데 도움이 되길 바란다.”라고 말했다.   コ・ハクス個人情報委員長は「個人情報、非個人情報が総体的に活用され、技術発展が持続されるAI領域は不確実性が高いため、一律的な規制ではなく、合理的・比例的な管理を通じてリスクを総体的に最小化することが必要だ」とし、「リスク管理モデルがAI企業などがプライバシーリスクを理解し、体系的に管理するのに役立つことを期待している」と述べた。
* 기타 자세한 내용은 첨부파일을 확인해주시기 바랍니다. * その他詳細は添付ファイルを確認すること。

 

 

 

・[PDF] (별첨) 안전한 인공지능(AI)·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델(24.12.19.).pdf ((別添) 安全な人工知能(AI)-データ活用のためのAIプライバシーリスク管理モデル(24.12.19.).pdf )

20250101-73112

 

 

 

 

 

|

« あけましておめでとうございます 2025 | Main | 米国 ホワイトハウス バイデン=ハリス政権は、米国のサプライチェーン強化に向けた進展を遂げている (2024.12.19) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« あけましておめでとうございます 2025 | Main | 米国 ホワイトハウス バイデン=ハリス政権は、米国のサプライチェーン強化に向けた進展を遂げている (2024.12.19) »