[민원기의 디지털경제] 인공지능 거버넌스

글자 작게 글자 크게 인쇄하기
민원기 한국뉴욕주립대 총장
<민원기 한국뉴욕주립대 총장>

올해 초 인공지능(AI) 챗봇 이루다가 부적절한 대화 내용으로 사회적 물의를 일으키고 서비스가 중단됐고 세계적으로는 2016년 마이크로소프트의 챗봇 테이(Tay)가 인종차별적 대화 문제로 16시간 만에 폐쇄된 바 있다. 두 사례는 인공지능 기술의 불완전성과 함께 인공지능 기술이 잘못 사용될 경우 어떠한 문제가 발생할 수 있는지를 보여준 좋은 예라고 할 수 있다. 하지만 챗봇 부작용은 인공지능 알고리즘이 초래할 수 있는 다른 부작용들과 비교하면 그 영향력이 아주 경미한 수준이다.

만약 주식거래자동시스템의 알고리즘이 잘못 작동돼 주가가 폭락하거나 미국에서 가석방 결정에 널리 사용되고 있는 COMPAS(Correctional Offender Management Profiling for Altanative Sanctions) 알고리즘이 인종편향적 성향을 가지고 있어서 흑인이나 동양인이 더 불리한 판결을 받는다면 그 부작용의 영향은 이루다, 테이가 일으킨 사회적 문제와는 차원을 달리하게 될 것이다. 더 나아가 만약 자동 미사일 발사시스템 알고리즘이 오작동할 경우에는 국가 간 전쟁도 발생할 수도 있다.

인공지능이 우리 삶에 깊숙이 파고들면서 인공지능은 의료, 교육, 과학, 교통, 정보미디어 등 다양한 분야에서 인류의 삶을 윤택하게 만들어 주었다. 하지만 이와 더불어 인공지능 기술이 고도화, 복잡화됨에 따라 앞에서 언급한 것과 같은 인공지능이 초래할 수 있는 부작용에 대한 우려도 커지고 있다.

이러한 부작용을 방지하기 위한 인공지능 거버넌스 체계에 대한 논의가 2015년 이후 활발하게 진행되고 있는데, 관련해서 경제협력개발기구(OECD), 유네스코(UNESCO) 등 국제기구, 구글, 마이크로소프트와 같은 빅테크 기업, IEEE 등 전문가 단체, 뉴욕대(NYU)와 같은 고등교육 기관들을 통해 180개 이상의 '인공지능 기본원칙'이 제안됐다. 이렇게 많은 '인공지능 기본원칙'들이 있지만 기본원칙에 포함된 주요 내용은 유사해서 'OECD AI 기본원칙'이 권고하고 있는 '보안과 안전성' '포용성장과 지속가능한 발전' '인간중심 가치와 공정성' '투명성 및 설명가능성' 그리고 '책임성'이 대부분의 '인공지능 기본원칙'에 반영돼 있고 대다수 이해관계자들이 이러한 원칙에 동의하고 있다. 주목할 사실은 최근 인공지능 거버넌스에 대한 논의의 중심이 어떠한 원칙이 필요한지를 넘어서 어떻게 이러한 원칙을 인공지능 기술 개발과 활용 단계에 적용해서 인공지능 알고리즘이 초래할 수 있는 부작용으로부터 개인과 사회를 보호할 것인가로 넘어가고 있다는 사실이다.

그런데 기본원칙에 대해서는 대다수 이해관계자가 동의하고 있지만 이러한 기본원칙을 인공지능 기술 개발과 활용에 적용하는 규범화를 누가 주도해야 하는지에 대해서는 이해관계자들이 각자 입장에 따라 의견을 달리하고 있다. 작년 이루어진 'Future Society'와 EYQ의 공동조사에 따르면 기업들은 인공지능 기술 발전이 저해되지 않도록 기업 중심 '인공지능 기본원칙' 규범화를 선호하는 반면에 정부는 인공지능 알고리즘 부작용이 초래할 범국가적 영향에 관심을 가지고 국제기구를 중심으로 한 인공지능 규범 정립을 선호하고 있다.

현재까지는 '인공지능 기본원칙'을 담보할 수 있는 강제력 있는 규범이 존재하지 않은 상황에서 기업 중심의 자율규제에 의존할 수밖에 없는 상황이었지만 최근 유럽연합(EU)이 위험기반접근(Risk-based approach) 방식을 통한 인공지능 기술 규제를 내용으로 하는 '인공지능법안(AI Act)'을 발표하고 인공지능규범 법제화에 착수하면서 미국도 위험 기반 접근 방식을 통한 규제제도 정비를 검토하고 있다.

앞으로 인공지능 기술 발전과 함께 인공지능 부작용으로부터 인류를 보호하기 위한 거버넌스를 어떻게 만들어 나갈지에 대한 논의는 계속 확대돼 나갈 것이다. 중요한 것은 우리 시민과 사회를 인공지능 알고리즘 부작용으로부터 보호하고 국제사회에서 인공지능 거버넌스 논의에 주도적으로 참여하기 위해서는 국제적인 규범 정립과는 별도로 자체 규범을 조속히 정립하는 것이 필요하다는 것이다. 현재 국회에 인공지능 거버넌스와 관련된 4개 법안이 제출돼 있지만 유럽연합의 '인공지능법안'과 비교하면 구체성과 미래적합성(Future-proofness)이 많이 부족한 것으로 평가된다.

앞으로 국회에서 정부, 기업, 시민단체, 전문가 등이 참여하는 심도 있는 법안 논의를 통해 안전하고 신뢰할 수 있는 인공지능사회가 구현될 수 있는 법적 장치가 마련돼서 우리나라가 글로벌 인공지능 거버넌스 정립에 주도적으로 참여할 수 있기를 기대해 본다.

민원기 한국뉴욕주립대 총장 wonki.min@sunykorea.ac.kr