[사이언스인미디어]채피, AI 윤리에 대한 고민

채피 포스터
채피 포스터

하루 300건이 넘는 범죄가 폭주하는 남아프리카공화국 요하네스버그.

세계최고 로봇 개발자 디온은 도시 치안을 위해 인공지능(AI) 로봇 경찰 '스카우트' 군단을 설 계한다. 총탄을 두려워하지 않는 스카우트는 주어진 명령에 따라 스스로 판단해 범죄자를 잡아들이며 눈부신 활약을 한다.

디온은 스카우트에 만족하지 않는다. 사람과 똑같이 스스로 생각하고 감정을 느끼며 성장할 수 있는 완벽한 AI를 개발한다. 주위 반대를 무릅쓰고 사고로 폐기된 스카우트 22호를 재생해 '채피'를 탄생시킨다.

디온의 라이벌 빈센트 생각은 반대다. 로봇은 어디까지나 사람이 통제해야 한다며 오직 인간 명령대로 움직이는 '무스'를 개발한다. 인격체로서 스스로 생존을 꿈꾸는 채피와, 이를 통제하려는 인간의 대결이 불가피하다.

영화 채피는 AI 윤리에 대한 질문을 던진다.

채피 영화 장면.
채피 영화 장면.

채피가 탄생할 때는 아기와 같이 순수한 감정이었다. 부모라고 할 수 있는 디온은 범죄를 저지르면 안된다고 가르쳤다. 그러나, 성장과정에서 범죄 집단과 가까워지면서 가치관에 혼란을 겪고 범죄에 가담하기도 한다.

AI 진화 과정에서 발생할 수 있는 혼란상을 보여준다. 2016년 마이크로소프트(MS)가 공개한 대화형 인공지능 서비스 '테이'는 서비스 시작 하루만에 폐쇄됐다. 테이의 트위터 계정이 히틀러를 옹호하는 등 인종차별과 성적 발언을 일삼으면서 논란을 일으켰기 때문이다. 인터넷에 떠도는 데이터를 학습해 빚은 해프닝이었다.

문제가 있다고 해서 AI 진화를 중단할 수는 없다. AI를 보다 안전하게 활용하기 위해 기술 진화 초기부터 고민할 수 밖에 없다. AI 초기부터 명확한 윤리 표준을 만들어 적용하는 논의가 시작됐다.

국제전기전자기술자협회(IEEE)는 AI 윤리기준 표준화를 주요 과제로 제시했다. IEEE는 AI 진화 과정에서 인류의 복리를 우선하기 위해 AI 개발과 서비스 과정에 적용되는 판단 도구를 표준화하겠다고 선언했다.

AI와 자동화 시스템의 확산에 필요한 윤리 기준과, 시스템 오작동에 대한 비상안전 표준을 개발한다. 이를 바탕으로 개별 AI와 자동화시스템이 인간 생활에 얼마나 도움이 되는지 측정기준도 마련할 방침이다.

우리나라도 과학기술정보통신부를 중심으로 '지능정보사회 법제도 포럼' 을 출범, 지능정보사회 윤리 가이드라인 마련작업을 시작했다. 공공성·책무성·통제성·투명성이라는 기본원칙을 중심으로 개발자, 공급자, 이용자가 지켜야할 원칙을 명시한다.

AI에 대한 막연한 두려움을 해소하고, 인간을 위해 도움을 주는 방향으로 활용하도록 명확한 기준이 마련될 것으로 기대된다.

박지성기자 jisung@etnews.com