인공지능(AI) 스피커가 사생활 침해 논란에 휩싸이면서 올해 국정감사 최대 쟁점이 될 전망이다. 수집한 음성 명령이 누구 목소리인지 알 수 없도록 비식별화하는 방법과 관련해 정해진 기준이 없기 때문이다. 하지만 입법화와 제도화까지는 상당 시간이 걸릴 전망이다.
8일 박선숙 바른미래당 의원실에 따르면 AI 스피커가 개인정보보호법 사각지대에 놓여 있다는 증언이 계속 나온다. 방송통신위원회는 하루 전날인 4일 국내 AI 스피커 서비스 업체 한 곳을 조사했다. AI 스피커에 녹음된 음성 명령 데이터를 어떻게 처리하는지 살펴본 것으로 전해졌다. 앞서 박선숙 의원은 국내 서비스 업체별 처리 현황 자료를 방통위에 요구한 바 있다. 박 의원은 방통위 조사 결과를 바탕으로 이 문제를 국정감사에서 집중 조명할 계획이다.
현행법은 음성 데이터 비식별화 기준을 정해놓지 않았다. 그러다 보니 업체마다 처리 방식이 제각각이다. 구글은 비식별화 작업을 거치지 않는 것으로 나타났다. 대신 사용자가 직접 녹음 내용을 듣고 삭제할 수 있는 기능을 적용했다. 삭제를 요청하기 전까지는 음성 정보를 기한 없이 보관한다.
애플은 데이터 수집 후 6개월, 네이버는 일주일 후 비식별화 작업에 나선다. 자체 기준에 따라 정보보호 조치를 벌이는 것이다. 두 회사 모두 2년간 음성 정보를 보관한 뒤 폐기한다.
음성 데이터는 외부 유출 시 사생활을 심각하게 침해할 수 있다. 실제 아마존 AI 스피커 '에코'가 녹음한 부부간 대화 파일이 무단 유출되는 일이 벌어지기도 했다. 비식별화 과정에도 유출 우려가 나온다.
현재 업체들은 음성 데이터와 연결된 사용자 아이디, 전화번호 등을 분리한다. 이후 음성을 문자로 변환, AI 스피커 고도화를 위한 분석 자료로 쓴다. 문자로 바꾸는 작업은 주로 외부에 맡기고 있다. 개인을 특정하지 못하도록 명령 단위로 쪼개 듣도록 한다.
문제는 비식별화 기준을 세우기까지 상당한 시간이 걸릴 것으로 예상된다. 비식별화 방법을 찾기가 쉽지 않다. 지문이나 홍채처럼 목소리는 그 자체가 개인을 특정할 수 있다. 말투, 자주 쓰는 표현만으로도 누구인지 알아차리는 것이 가능하다.
지나치게 높은 수준으로 기준이 마련되면 산업 발전을 저해할 수 있다는 지적도 있다. 전문가들은 지금부터라도 관련 논의를 시작, 합리적 대안을 찾아야 한다고 입을 모은다. 지난 3월 말 기준 국내 AI 스피커 보급 대수는 약 412만대다. 전년 같은 기간 200만대에서 두 배 넘게 늘었다.
방효창 경제정의실천시민연합 정보통신위원장은 “학계, 시민단체, 정부, 업계로 구성된 협의체를 구성할 필요가 있다”며 “기술은 계속 진화, 발전하기 때문에 큰 틀의 방법론만 정해놓고 협의체가 효용성 등을 논의해야 한다”고 제언했다.
최종희기자 choijh@etnews.com