[이상직 변호사의 AI 법률사무소](4)AI알고리즘 가치중립성 확보를 위한 법적 과제

글자 작게 글자 크게 인쇄하기
[이상직 변호사의 AI 법률사무소](4)AI알고리즘 가치중립성 확보를 위한 법적 과제

지난해 야당 원내대표의 국회 교섭단체 연설이 포털 메인 화면에 노출되면서 인공지능(AI) 알고리즘을 통한 뉴스 배열이 가치 중립성을 지킬 수 있는지 논란이 일었다. 포털은 개인의 주관에 따라 조작될 수 없는 AI 알고리즘이 뉴스를 배열하고 있을 뿐만 아니라 인위로 뉴스 배열에 개입하지 않는다고 주장했다. 그러나 AI 알고리즘에도 규칙을 설계하는 사람의 생각이 반영될 수밖에 없기 때문에 가치 중립이라고 단정하기 어렵다는 반론도 거세다.

[이상직 변호사의 AI 법률사무소](4)AI알고리즘 가치중립성 확보를 위한 법적 과제

AI 알고리즘은 부정경쟁방지법에 따라 영업비밀로 보호받지만 정보통신망법 등 관계 법령에 따라 인종, 사회 지위, 성향, 경제력 규모, 성별 등을 이유로 부당한 차별을 할 수 없다.

차별이 발생하는 원인을 보자. 첫째 AI 알고리즘 설계·기획 단계에서 업체의 편견이 들어가는 경우다. 내비게이션이나 가상비서 프로그램의 목소리는 대부분 여성이다. 이용자에게 편안함을 주기 위해서라면 별다른 문제는 없다. 그러나 이용자 요구나 명령을 수동으로 따르는 것이 여성의 역할이라는 편견이 서비스 기획에 반영된 것이라면 그것은 전혀 다른 문제가 된다. 둘째 이용자 등 외부 요인이 개입하는 경우다. AI 가상비서가 이용자의 성희롱 발언을 학습하거나 수용하면서 편향성을 띨 수도 있다. 셋째 AI에 투입되거나 학습하는 데이터가 잘못된 경우다. AI가 사회관계망서비스(SNS) 등 온라인에 게시된 글을 여과없이 수용·학습해서 인간의 언어를 이해하고 표현함에 따라 사람 차별을 하거나 여성을 혐오하는 결과물을 만들어 내기도 한다. 넷째 AI가 고객의 편견을 찾아 마케팅에 활용하는 과정에서 편향성을 나타낼 수도 있다. 4차 산업혁명은 기존의 산업혁명과 달리 빅데이터 분석과 AI를 통해 고객의 숨은 성향과 요구를 찾아서 그에 맞는 상품과 서비스를 고객이 원하는 시점에, 고객이 원하는 장소에, 고객이 원하는 방법으로 전달하는 특징을 갖는다. 그 과정에서 고객의 편향성을 확인하고 편향성에 부합하는 상품이나 서비스를 제공하려 한다면 당연히 AI 알고리즘이 잘못될 수밖에 없다.

[이상직 변호사의 AI 법률사무소](4)AI알고리즘 가치중립성 확보를 위한 법적 과제

비유를 들어보자. 신라 화랑 김유신은 잠든 사이에 기생 천관녀의 집으로 잘못 갔다는 이유로 말을 죽였다. 말은 김유신이 천관녀의 집에 자주 간다는 외형(양) 데이터를 가지고 있고, 김유신이 부모의 꾸중을 들은 때로부터 천관녀의 집에 가지 않는다는 내실(질) 데이터를 소홀히 했다. 그 결과 주인이나 사회 규범이 요구하는 결과가 아닌 천관녀의 집으로 간다는 편향된 결과를 보여 줬다. 그러나 말은 책임이 없다. 책임을 져야 할 법상의 인격도 없을 뿐만 아니라 문제가 되는 결과를 야기한 데이터는 사실상 김유신에 의해 입력된 것이다. 그러나 김유신에게도 책임을 물을 수 없다. 그는 훈련에 지쳐 잠깐 졸았을 뿐이다.

해결 방법은 세 가지로 압축된다. 첫째 말이 천관녀에게 가지 못하도록 사전에 교육시키는 것이다. 그러나 말의 행동을 예측할 수가 없는데 교육이 가능할까. 즉 AI 알고리즘의 작동 결과를 미리 알 수 없는데 그런 규칙을 사전에 넣을 수 있는지 의문이다. 둘째 김유신이 천관녀에게 가곤 했다는 데이터를 사전에 제외시키는 것이다. 그러나 AI 알고리즘 학습에 투입되는 데이터를 임의로 조정한다면 AI 알고리즘이 충분한 역할을 할 수 없고, 왜곡된 결과가 나올 수 있다. 셋째 말이 천관녀의 집에 도달했을 때 김유신이 말머리를 자신의 집으로 돌리는 것이다. AI 알고리즘 작동 결과에 규범 판단이 필요없는 경우는 문제가 없지만 규범 판단이 필요하다면 김유신 같은 사람이든 다른 AI 알고리즘이든 개입을 통해 최악의 결과를 막아야 할 것이다.

[이상직 변호사의 AI 법률사무소](4)AI알고리즘 가치중립성 확보를 위한 법적 과제

법리로 해결 방법을 정리하자. 가장 중요한 것은 자율규제다. AI 기업이 AI윤리기준에 따라 스스로 가치 중립성을 확보해서 사회 책임을 다하도록 하고, 시민단체의 감시를 통해 간접 규제를 하는 것이다. 그런 연후 고객에게 피해가 가는 AI 알고리즘 적용 과정이나 결과 가운데 법으로 금지해야 할 최소한의 사항을 규범으로 정립하거나 고객이 AI 알고리즘의 편향성·불투명성으로부터 스스로를 보호할 수 있도록 설명요구권, 이의제기권 등 법상의 권리를 부여하는 것도 고민해 볼 필요가 있다.

이상직 법무법인 태평양 변호사(AI-지식재산 특별전문위원회 위원장) sangjik.lee@bkl.co.kr