인공지능(AI) 발전에 따라 발생 가능한 미래 위험성에 대비하기 위한 법무부 차원 법리 검토가 시작된다.
최근 오픈AI 'o3'가 사람의 명령어를 거부하고 앤트로픽 '클로드 오퍼스4'가 사람을 협박한 사례가 나타나는 등 AI 모델 통제 불능 가능성이 제기되고 있어 향후 발생 가능한 문제에 대비한 사법제도 확립이 필요한 상황이다.

10일 법조계에 따르면 법무부는 AI 시스템 오류나 오작동에 따른 사고 발생 시에 책임 귀속 문제를 가리기 위해 현재 민법이나 민사소송법 등 민사책임법의 법리 적용 가능 여부를 확인하고 개선방안을 마련하기 위한 정책연구용역에 돌입한다.
로봇·자율주행차·디지털헬스케어 영역 등 일상생활에 AI 기술 적용이 확대되며 AI 활용에 따른 사고 시 책임을 가를 법적 불확실성이 있다는 대내외 지적을 고려, 민사법적 대응체계를 마련하기 위한 기초작업이다. AI로 인한 사고 발생 시 사법적 책임 소지 판단과 법리적으로 갈등 해결 가능성 확보를 목표로 한다.
실제 AI 활용 과정에서 피해가 발생할 경우 과실 책임에 대한 손해배상이나 불법행위 책임 요건 사실을 증명하기 어렵고, 기업 또는 사용자 등 책임 주체를 가리기가 모호하다는 문제제기가 지속되고 있다. AI에 자율성과 예측 불가능성, 설명 불가능성 등 법적 판단이 어려운 부분이 존재하기 때문이다.
법무부는 AI 기술이 적용되는 분야 중 법적 책임을 놓고 공방이 이뤄질 수 있는 영역을 중심으로 현재 민사책임법의 적용과 발전 방향을 도출할 계획이다.
국내외 판례와 사례 등을 통해 AI 시스템 오류나 오작동에 따른 문제가 발생할 경우 기존 법리 적용 가능성과 쟁점 등을 검토한다. 기존 민사법리를 통한 문제 해결 가능성이 있는지, 한계는 없는지도 확인한다.
이수경 법무법인 화우 변호사는 “AI와 자율주행차 등 신기술 활용에 따른 사고는 대부분 법적 공백 상태에 발생하는데 기존 민사법은 불법행위가 발생할 경우 행위자 과실을 전제로 한 손해배상체계”라며 “AI로 발생할 문제를 AI 과실로 인정할 수 있는지, 개발자·기업·이용사업자 등 다양한 행위자가 관여하는 상황에 누구의 과실로 인정할 수 있을지 충분한 논의와 사회적 합의가 필요할 것”이라고 말했다.
박종진 기자 truth@etnews.com