[기자수첩]'킬러 로봇' 논란

[기자수첩]'킬러 로봇' 논란

인공지능(AI)이나 로봇 같은 첨단 기술이 오·남용될 수 있다는 우려는 예전부터 제기됐다. '터미네이터' '매트릭스' 등 공상과학(SF) 영화에서는 기계가 인간을 지배하는 어두운 미래가 그려지기도 했다.

국내에서도 최근 킬러 로봇 개발 논란이 일었다. KAIST와 방산 기업 한화시스템이 '국방 AI 연구센터'를 개소한 것을 문제 삼아 일부 해외 과학자들이 연구 협력 중단을 선언했기 때문이다. 외신이 영화 '터미네이터'의 포스터와 '웨폰'(무기)이라는 자극성 문구를 넣어 가며 논란을 키웠다. KAIST는 살상용 무기 연구가 아니라고 해명하는 해프닝이 벌어졌다. 그러나 AI와 로봇 기술 활용에 관한 윤리 기준 정립이 과제로 남았다.

국내를 포함해 세계 각지에서 AI와 로봇 활용 기준은 여러 차례 나왔다. 국제 사회 합의를 거친 일반 기준은 아직 마련되지 않았다. 특히 군사 영역에서는 국제 합의를 제외하곤 실효성을 담보하기 어렵다.

국가 간 군비 경쟁을 설명하는 '안보 딜레마'라는 개념이 있다. 자국 국방을 강화하려는 조치가 의도와 무관하게 타국의 불안을 유발, 군비 경쟁을 일으킨다는 이론이다. 국내에서 KAIST에 문제를 제기한 과학자들을 비판하는 여론이 상당한 것도 이와 무관치 않다. 미국, 러시아, 중국 등 세계 각지에서 군사 목적으로 AI와 로봇을 개발하고 있기 때문이다. 군사용 AI 로봇 기술이 일부 강대국의 전유물이 된다면 핵무기 확산 금지처럼 밑 빠진 독이 될 수 있다.

살상이 아니라면 군사 분야에 AI와 로봇 기술 도입을 배제할 필요는 없다. 인력과 군비를 줄일 수 있는 분야에 첨단 기술 도입을 오히려 장려해야 한다. KAIST가 연구소 설립 목적으로 밝힌 방위 산업 관련 물류 시스템, 무인 항법, 지능형 훈련 시스템 등은 군비 축소에 기여할 수 있다. 지뢰 제거같이 인명 피해를 최소화하는 기술도 필요하다. 산업 현장에서는 이미 드론이나 로봇을 활용, 안전을 강화하려는 시도가 빈번하다. 군사 영역이라고 해서 무턱대고 색안경을 끼고 봐서는 안 된다.

오대석기자 ods@etnews.com