[인지과학 패러다임] 인공지능로봇은 ‘인격체’인가?

글자 작게 글자 크게 인쇄하기
김효은교수 / 한밭대 인문교양학부, 인지철학
<김효은교수 / 한밭대 인문교양학부, 인지철학>

2017년 2월, 유럽연합은 로봇을 전자인격(electronic person)으로 고려하는 것에 대한 결의안을 유럽연합 의회에 제출했다. 이에 대한 반응은 놀람과 공포였다. 그 이유는 ‘인격체(person)'라는 표현 때문이다. 일부 매체에서는 이를 ‘인간’(human)으로 잘못 번역해서 생긴 혼란으로 인해 반응 강도는 더 높았다. 'person'은 이성능력을 갖춘 존재라는 의미이며 생물학적 차원의 인간 종을 의미하는 'human'과는 다른 차원에서 사용된다. 이러한 정의는 근대 시대 서양철학자 존 로크(John Locke) 그리고 로마법에서도 사용되었다. 이렇게 개념을 명료하게 구분해서 인공지능로봇에게 인간과 같은 차원의 지위를 주려는 것이 아니라고 한다고 하면 논란이 사라질까?

왜 애초에 인공지능로봇에 전자인격을 부여한다는 이야기가 나오게 되었을까? 로봇은 기존의 자동시스템에서 현재 ‘자율시스템’으로 발전하면서 법적, 윤리적인 변화를 함께 가져온다. 자율시스템의 예는 자율주행차이다. 자율주행차는 기존 자동차와 달리 일정 정도의 자율적 판단이 가능하다. 기존 자동차의 경우, 결함으로 인해 발생한 자동차의 사고 등은 차량의 설계자나 제작사, 사용자 등을 책임소재로 분명히 설정할 수 있었다. 반면, 자율주행차의 자율판단에 의해 벌어진 사고나 상해에 대한 책임은 누구에게 있는가? 또, 인공지능 작가가 쓴 기사나 소설에 대한 저작권은 누구에게 있는가? 이런 질문들에 대한 대답은 현재 윤리나 법 시스템 안에서 찾을 수 없으며 따라서 새로운 윤리와 법 체계를 필요로 한다. 이런 맥락에서, 유럽연합이 제안한 전자 ‘인격’은 자연인으로서의 인간이나 동물에게 부여되는 도덕적 대우와 관련된 인격의 의미가 아니라, 민법에서의 ‘법인(法人, legal person)’처럼 인공적으로 만들어진 개체에 계약이나 소송 등의 법적 권리와 책임을 부여하기 위한 의미이다. 즉, 도덕적 의미의 인격과 법적 의미의 인격은 구분된다. 따라서 전자인격의 지위를 자율 로봇에 부여한다는 내용은 로봇에게 인간에게처럼 도덕적 대우를 한다는 의미로 오해해서는 안 된다. 그렇다면 인공지능로봇에 인격을 부여한다는 제안에 더 이상 오해로 인한 불필요한 공포를 느낄 필요는 없을 것이다.

그런데 논란의 여지는 여전히 있다. 인공지능로봇에 부여되는 인격 개념은 정확히는 법인에 부여되는 인격 개념과도 다른 특성을 지니기 때문이다. 법인격체로 인정받는 회사는 그 자체로는 인간은 아니지만 그 구성원은 인간이다. 반면, 인공지능로봇은 인간들로 구성된 것이 아니다. 그래서 여전히 인공지능로봇에 ‘인격’을 부여하는 시도를 문제삼을 수 있다. 여기서 딜레마가 발생한다. 법적 필요성 때문에 로봇에 인격을 부여해야 하지만, 법인과 같은 법적 인격체와는 다른 특성 때문에 정당화가 자연스럽지 않다. 인공지능로봇에 인격을 부여하지만 법인과 다르다는 문제를 해결하기 위한 두 가능한 시도는 다음과 같다. 한 시도는 법적 인격으로서의 인공지능로봇을 인간을 대행하는 행위자로 설명하는 것이다. 많은 이들은 이 설명을 가장 자연스럽고 현재 윤리와 법체계와 잘 어울리므로 선호할 것이다. 그런데 인공지능로봇의 자율판단 때문에 생기는 일들에 책임 등을 부여하기 위해서는 단순히 대행자로는 불충분하다. 그래서 유럽연합에서 부득이 로봇 자체를 법인처럼 그 자체로 법적 행위자로 설명하려는 것이다. 그런데 이 두 번째 설명은 인공지능로봇과 관련된 사람들 즉 설계자, 제작자, 사용자를 로봇행위에 대한 부분적 책임자로 인정할 수 없게 된다. 이렇게 두 시도는 딜레마에 빠지게 된다.

[인지과학 패러다임] 인공지능로봇은 ‘인격체’인가?

법인의 경우 사람들로 구성되어 있으므로 법인을 인격체 로 인정하더라도 법인의 권리행사나 책임부여에 대해 거부감이 없다. 그런데 인공지능로봇은 사람들로 구성된 개체가 아니어서 문제가 조금 다를 수밖에 없다. 대행자로서가 아니라 인공지능로봇 그 자체를 법적 인격체로 인정할 수밖에 없다면, 높은 지능을 가진 ‘기계’가 어떻게 자율적인 법적 행위자일 수 있을까에 의문을 제기할 수밖에 없다. 로봇을 인간으로 간주하지도 않고, 도덕적 의미의 인격체가 아니므로 문제없다고 설명해도 의문은 여전히 제기될 수 있다. 그 이유는 ‘자율적인 법적 행위자’로 간주하면 ‘자율성’이라는 특성이 암묵적으로 도덕적 의미의 ‘행위자’와 밀접하게 연결되기 때문이다. “도덕적 의미의 인격이 아니므로 우려할 바는 없다”라는 설명이 설득력이 없게 될 수 있다.

이렇게 애매한 상황에서 현명한 판단을 내리기 위한 추가적 고려는 인공지능로봇에 법적 인격을 부여하는 옵션 외에 다른 대안으로도 법적 조치를 취할 수 있는지를 생각해보는 것이다. 로봇에 윤리적, 법적 지위를 주려는 본래 동기는 철학적, 심리학적으로 로봇이 인격체로서 의미가 있는지 라는 매우 흥미로운 이론적, 학문적 동기가 아니라 인간이 인공지능로봇으로 인한 상해나 피해를 입을 경우를 대비하기 위한 윤리적 동기에서 출발했다는 점을 주지해야 한다. 이러한 동기를 생각해본다면 국내외 로봇관련 윤리나 법의 구축에 있어서도 먼저 ‘책임’과 같은 중요한 개념의 적용 대상과 내용을 정확하고 상세하게 개념설정을 해야 철학적, 윤리적, 법적으로 혼란과 부작용이 없을 것이다.

김효은 clairehek@gmail.com 현재 한밭대학교 인문교양학부 조교수이며, IEEE 인공지능윤리 이니셔티브 분과위원이다. 센루이스 소재 워싱턴대의 Philosophy-Neuroscience-Psychology과정에서 인지과학 석사를, 이화여대에서 의식연구로 박사를 마치고, 뉴욕대 철학과에서 객원학자, 고등과학원 초학제연구단 주니어 펠로를 역임했다. 의식, 신경상관자, 지각에 기반한 인공지능윤리와 도덕판단의 본성을 연구하고 있다.