[기고]인류 복지를 위한 인공지능 윤리적 설계 필요하다

글자 작게 글자 크게 인쇄하기
안선주 성균관대학교 삼성융합의과학원 디지털헬스학과 초빙교수(인공지능 국제표준화기구국내 전문위원)
<안선주 성균관대학교 삼성융합의과학원 디지털헬스학과 초빙교수(인공지능 국제표준화기구국내 전문위원)>

미국에서 개발한 인공지능(AI) 작가 프로그램이 지난 3월 폐기됐다. 이유는 인간보다 논리 정연하게 글을 써 내려가는 AI 작가의 탁월한 실력 때문이었다. 지난해 10월 아마존은 채용 적합도를 판단하는 AI가 여성 차별 논란에 휩싸이자 프로그램 사용을 중단했다.

그해 미국에서는 경비 로봇이 노숙자들을 쫓아내 세간에 논란을 일으켰다. 이에 관해 샌프란시스코시는 경비 로봇이 주민들로 하여금 공공시설인 인도를 사용하지 못하게 한 이 건을 위법으로 판정하고 해당 로봇을 인도에서 철수하라고 명했다.

이상 세 가지는 차례대로 AI의 실력이 인간보다 월등해서 사람의 편견에 따른 편파 판단을 그대로 학습하고, 물리력을 갖춘 AI가 우월한 위치에서 사람을 통제함으로써 사용을 거부당한 사례다. AI의 설계와 선용에 대해 예측돼 오던 기술계 전반에 퍼진 우려가 현실로 나타나고 있다.

산업 전반에 걸쳐서 AI 활용이 폭증세에 있다. 그에 따라 부작용을 최소화하고 인류에게 유익한 AI를 만들기 위한 각국의 노력이 국제표준화기구를 접점으로 모이고 있다.

지난 8일 아일랜드 더블린에서는 'AI 표준화 제3차 회의'가 열렸다. 12일까지 이어진 이 회의에는 지난 회의와 마찬가지로 데이터·플랫폼·의료기기 시장을 장악한 글로벌 기업들이 대거 참석했다.

36개국에서 150여명의 산·학·연 전문가들이 참석했다. 무엇보다 이번 회의는 기존에 활동하고 있는 표준화기구의 AI 관련 표준화 노력을 점검하고 이를 발전 형태로 수용하며, 전체가 조화롭게 되는 데 목표를 둔 회의였다.

필자가 주목한 이번 AI 표준화 회의의 키워드는 두 가지였다. 'AI 윤리 설계' 'AI 오류를 예방하기 위한 신뢰도 확보 방안'이었다.

전기전자기술자협회에서는 거시 관점으로서 AI 윤리 설계를 다룬 표준을 발표했다. '윤리 설계 버전1'은 2015년부터 2018년까지 3년에 걸쳐 세계 전문가들의 치열한 참여와 토의로 만들어진 AI와 자율시스템 개발 및 활용에 관한 준칙이다.

주요 골자는 AI와 자율시스템 같은 지능정보 기술은 기존의 도덕 가치에서 인간과 조화를 이뤄야 하며, 기능상의 목표 달성을 넘어 사람에게 널리 도움이 돼야 한다는 것이다. 이번 회의에서 발표한 유럽연합(EU) 집행위원회도 'AI4EU'(21개국 79개 파트너가 2000만유로 자금을 지원하는 AI 수요 플랫폼)를 소개하면서 AI의 안전한 활용을 위한 7개 기준을 발표했다.

7개 기준은 윤리, 투명성, 견고성을 포함한다. 이는 AI 표준화 작업반 3(신뢰성)에서 다루는 내용과 유사하다. 미시 관점에서 AI 제품의 오류를 예방하기 위한 위험관리 및 신뢰성 확보를 위한 표준화 작업을 비중 있게 다뤘다.

세계의 발 빠른 AI 표준화 추세, 의료·금융·교통 등 AI와 자율시스템의 보편화 현상에 우리나라가 대응하기 위해서는 AI 및 자율시스템의 윤리 설계와 사용에 관한 로드맵 체계화가 필요하다.

교육 현장에서도 기술 중심으로 급변하고 있는 사회에서 인간의 복지에 바탕을 둔 다학제 접근 방식을 공유하고 가르치는 것 또한 요구된다. 현재 AI 시대에 대비해서 코딩 교육이 강조되고 있지만 이의 선용을 위한 윤리교육 또한 병행돼야 한다.

세계는 점점 AI 만능시대로 접어들고 있다. 인간의 편리를 위해 개발된 AI와 자율시스템 등이 인간의 존엄성을 파괴하는 역전현상이 일어나서는 안 되겠다. 장기로는 AI와 로봇이 절대 관여해서는 안 될 영역을 정의하고 사회에서 공유하는 건전한 시스템 설계를 준비해야 한다.

로봇을 '전자사람'으로 인정한 로봇시민법에서 '로봇으로부터 간병 받는 것을 거절할 권리'는 AI를 활용하는 동시에 자유 의지가 있는 인간 복지와의 균형점을 찾기 위한 좋은 사례다.

안선주 성균관대 삼성융합의과학원 디지털헬스학과 초빙교수(인공지능 국제표준화기구국내 전문위원) Everyday3@skku.edu