개인정보 삭제 요청하면 AI가 '진짜' 잊는다... ‘머신 언러닝’ 기술 급부상

개인정보 삭제 요청하면 AI가 '진짜' 잊는다... ‘머신 언러닝’ 기술 급부상

인공지능이 한번 배운 정보를 선택적으로 '잊게' 만드는 기술이 빠르게 발전하고 있다. 이른바 '머신 언러닝(Machine Unlearning)'이라 불리는 이 기술은 AI가 개인정보를 완전히 삭제할 수 있게 만드는 방법이다. 유럽과 미국에서 개인정보 보호 법률이 강화되면서, AI가 사용자의 데이터를 완전히 지울 수 있는 기술적 능력이 이제 법적 의무가 되고 있다. 한국지능정보원이 발표한 리포트에 따르면, 2021년부터 2025년까지 이 분야 연구 논문이 137편 발표됐고, 특히 2025년에만 약 80편이 나왔다는 점은 이 기술이 학계를 넘어 실제 산업 현장의 과제로 떠오르고 있음을 보여준다.

개인정보 삭제 요청하면 AI도 정말 잊어야 한다

머신 언러닝이 주목받는 이유는 '잊혀질 권리'를 실제로 구현할 수 있기 때문이다. 유럽연합의 개인정보 보호 법률인 GDPR은 개인이 자신의 정보를 삭제해달라고 요청할 권리를 명시하고 있다. 기업은 이를 즉시 실행해야 한다. 하지만 AI는 학습 과정에서 데이터를 수많은 숫자 패턴으로 바꿔 저장하기 때문에, 원본 데이터 파일을 지워도 AI 내부에는 여전히 그 흔적이 남는다. 이 때문에 악의적인 공격자가 AI를 분석해 특정 개인의 정보를 다시 알아낼 수 있는 위험이 있다.

머신 언러닝은 이런 위험을 원천적으로 막는 방어 수단이다. 특히 '연합 언러닝'이라는 기법은 개인정보 유출 공격의 성공률을 모델을 새로 만들었을 때와 비슷한 수준까지 낮출 수 있다는 연구 결과가 나왔다. 가장 확실한 방법은 삭제 요청이 들어올 때마다 AI를 처음부터 다시 가르치는 것이다. 하지만 이는 시간과 비용이 너무 많이 든다. 그래서 최근에는 데이터를 여러 부분으로 나누거나, AI 내부의 특정 설정값만 조정하는 등 효율적인 방법들이 개발되고 있다.

중국이 연구 선두... 한국은 10위권

국가별 연구 현황을 보면 중국이 약 80편의 논문으로 압도적 1위를 차지했다. 중국은 개인정보 보호와 AI 관리, 데이터 주권 관련 기술 연구에 많은 투자를 하고 있다. 호주가 약 30편으로 2위, 미국이 약 15편으로 3위를 기록했다. 싱가포르, 영국, 한국, 일본 등은 각각 10편 내외의 논문을 발표했다. 한국의 경우 AI 윤리와 데이터 관리 정책 연구와 결합된 형태의 논문이 점차 늘고 있어, 앞으로 기술과 정책을 함께 다루는 연구로 발전할 가능성이 높다.

대학별로는 호주 시드니대학교와 중국 마카오 시립대학교가 각각 약 14편의 논문으로 가장 많은 성과를 냈다. 두 대학은 개인정보 보호와 AI 윤리 분야에서 활발한 국제 공동연구를 진행하고 있다. 중국의 광저우대학교, 저장대학교, 싱가포르 난양공과대학교 등도 5~6편의 논문을 꾸준히 발표하고 있다.

개인정보 삭제 요청하면 AI가 '진짜' 잊는다... ‘머신 언러닝’ 기술 급부상

해킹 공격 복구부터 저작권 보호까지... 쓰임새 다양

머신 언러닝의 활용 범위는 빠르게 넓어지고 있다. 악의적으로 조작된 데이터로 공격받은 AI를 복구하는 데도 쓰인다. 문제가 된 데이터의 영향만 선택적으로 제거해서 AI 전체를 다시 가르치지 않고도 정상 상태로 되돌릴 수 있다. 예를 들어 'Crab'이라는 방법은 분산 학습 환경에서 공격이 발견되면 과거의 정상 상태를 불러와 빠르고 효율적으로 AI를 복원한다.

챗GPT 같은 대화형 AI나 이미지 생성 AI에서도 머신 언러닝은 중요하다. 이런 AI들은 학습 데이터에 포함된 저작권 자료나 유해한 내용을 그대로 흡수할 수 있다. 나중에 사용자가 비슷한 요청을 하면 저작권 침해나 불법 콘텐츠 생성으로 이어질 위험이 있다. 머신 언러닝은 AI에서 특정 개념이나 주제만 골라서 제거함으로써 이런 문제를 해결한다. 최근에는 AI 내부에서 문제가 되는 정보에 가장 큰 영향을 미치는 부분을 찾아내 정확히 잘라내는 기술이 활발히 연구되고 있다.

정말 잊었는지 증명하는 기술도 필요

머신 언러닝이 실제로 효과를 발휘하려면, AI가 특정 데이터를 정말로 '잊었다'는 것을 객관적으로 증명할 수 있어야 한다. '삭제 증명'이라는 개념은 데이터 삭제 요청이 AI에 제대로 반영됐는지를 수학적이나 통계적 방법으로 확인할 수 있게 하는 절차다. AI 내부 설정값이 얼마나 바뀌었는지 추적하거나, 삭제 전후의 예측 결과 차이를 검증하거나, 남아있는 정보량을 측정하는 방법들이 있다.

검증 가능성도 핵심이다. 앞으로 정부 기관은 기업이 "데이터를 지웠다"는 말만으로는 믿지 않을 것이다. 실제로 삭제 과정이 언제, 어떻게, 어떤 방법으로 이뤄졌는지 추적할 수 있어야 한다. 일부 연구에서는 이 과정을 블록체인처럼 변조할 수 없는 기록으로 남기는 방안을 제시하고 있다. 기술적으로는 삭제 과정에서 다른 사용자의 정보가 노출되지 않도록 차등 프라이버시나 보안 집계 같은 보호 기술도 함께 적용된다.

FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)

Q1. 머신 언러닝이 뭔가요?

A: 머신 언러닝은 AI가 이미 배운 정보 중에서 특정 데이터만 골라서 '잊게' 만드는 기술입니다. 컴퓨터에서 파일을 지우는 것처럼 원본 데이터만 삭제하는 게 아니라, AI 내부에 남아있는 그 데이터의 흔적까지 제거해서 개인의 '잊힐 권리'를 실제로 구현하는 방법입니다.

Q2. 왜 이 기술이 필요한가요?

A: 유럽과 미국의 개인정보 보호 법률은 개인에게 자기 정보를 지워달라고 요청할 권리를 줍니다. 그런데 AI는 데이터를 배울 때 그걸 숫자 패턴으로 바꿔서 저장하기 때문에, 원본 파일을 지워도 AI 안에는 여전히 그 정보가 남아있습니다. 나쁜 의도를 가진 사람이 이걸 분석하면 특정 사람의 개인정보를 다시 알아낼 수 있어서, 이런 위험을 막기 위해 필요합니다.

Q3. 어떻게 작동하나요?

A: 가장 확실한 방법은 AI를 처음부터 다시 가르치는 건데, 이건 비용이 너무 많이 듭니다. 그래서 요즘은 더 효율적인 방법을 씁니다. AI 내부의 특정 설정값만 조정하거나, 문제가 되는 부분만 잘라내거나, 데이터를 여러 조각으로 나눠서 문제가 있는 조각만 다시 가르치는 방식 등이 있습니다. 이렇게 하면 AI 전체를 다시 만들지 않고도 특정 정보의 영향을 지울 수 있습니다.

해당 기사에 인용된 리포트 원문은 한국지능정보원에서 확인 가능하다.

리포트 명: AI로부터 잊혀질 권리: 머신 언러닝 기술의 발전 동향과 거버넌스 전략

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.

■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. (☞ 기사 원문 바로가기)

AI 리포터 (Aireporter@etnews.com)