[기자수첩]'이루다'와 '설명 가능한 AI'

[기자수첩]'이루다'와 '설명 가능한 AI'

인공지능(AI) 챗봇 '이루다'의 논란이 끊이지 않는다. 운영사인 스캐터랩이 서비스를 중단하고 학습 데이터를 전량 폐기하겠다고 밝혔지만 논란은 가라앉지 않았다.

이용자는 여전히 불안감을 호소했다. 카카오톡 대화 내용이 어디까지 유출됐는지 알 수 없고, 앞으로도 어떻게 활용될지 모르기 때문이다. 10대, 20대가 대부분인 이용자들이 기꺼이 소송에 참여해서 끝장을 보려는 이유이기도 하다.

이용자는 문제점을 파헤치고, 업체는 의혹이 제기될 때마다 하나씩 시인하는 모습이다. 스캐터랩이 실제 대화 문장 1700여개가 포함된 자연어처리(NLP) 모델 테스트 샘플을 깃허브에 오픈소스로 공개했다는 사실은 제보에 의해 드러났다. 업체 측은 기계적 필터링으로 미처 거르지 못한 개인정보가 포함됐다고 시인한 뒤 해당 게시물을 삭제했지만 이미 여러 차례 다운로드된 뒤였다. 연애의과학뿐만 아니라 텍스트앳 서비스에 제공된 카카오톡 대화 내용도 이루다 학습에 쓰였을 것이라는 의혹 역시 이용자가 제기한 뒤 업체가 인정한 경우다.

이루다 사태는 AI 서비스에 관한 투명성 요구와 맞닿아 있다. 이용자는 자신의 대화 내용이 언제, 어떤 경로로, 어디까지 유출됐는지를 명확히 알고 싶어 한다. 비식별화를 거쳤다는 업체 측 해명만으로는 이루다가 왜 특정 질문에 특정 답변을 내놓는지 등 의문을 말끔히 해소하지 못하고 있다. 업체 측이 이 같은 정보만으로는 개인을 특정할 수 없다고 거듭 해명해도 이용자는 대화 패턴, 말투 등으로 개인을 특정하거나 최소한 유추할 수 있다고 맞서고 있다.

유럽연합(EU) 개인정보보호법(GDPR)은 데이터 처리 투명성을 기본 요건으로 규정한다. 정보 주체가 개인정보 처리 과정을 이해하기 쉬워야 하고, 투명하게 확인할 수 있어야 한다고 명시하고 있다. AI와 관련해서는 AI 알고리즘이 도출한 결과에 대해 정보 주체가 설명을 요구할 권리가 포함된다. AI가 왜 그런 판단을 했는지 업체 측에 물어 보고 이해받을 권리가 이용자에게 있다고 본다.

'설명 가능한 AI'는 개발사가 EU GDPR를 준수하기 위해 도입을 확대하는 추세를 보이고 있다. AI에 관한 투명성 요구는 개인정보 보호 요구와 함께 지속 늘어날 것으로 보인다. AI 시대를 맞아 개인정보 보호 논의에 불이 켜졌다. 개인정보는 한 번 유출되면 돌이킬 수 없는 만큼 국내에서도 AI 투명성에 대한 기준을 마련할 때다.

오다인기자 ohdain@etnews.com