대법원, 'AI 양형' 도입 첫 걸음…편향성·투명성 확보가 관건

게티이미지뱅크
게티이미지뱅크

대법원이 형벌의 정도를 정하는 양형 업무에 인공지능(AI)을 활용할 수 있는 시스템 구축에 나선다.

대법언 법원행정처는 '양형기준 운영점검시스템 및 양형정보시스템의 고도화를 위한 AI 시스템 구축 ISP 사업' 사업 입찰을 공고했다.

형사법관이 판결서 작성 과정에서 법령의 적용, 양형기준 적용 결과 입력 등 형식적 업무에 들이는 시간을 단축해 사건 당사자에 대한 설명 및 설득, 판결 등에 역량을 집중하도록 하는 게 사업 목적이다.

기존에는 양형기준 설정 및 수정을 위한 기초자료인 양형자료조사의 경우 분석 단계까지 3~4개월이 걸리고, 해당 내용을 시스템에 등록하는 데 최소 1개월 이상이 소요되는 문제가 있었다.

법조 업계는 해당 사업을 통해 업무 효율성이 증가해 재판 지연이 해소될 것으로 기대했다.

이병준 고려대 법학연구원 리걸테크센터장은 “최종 결정권자는 사람이고 AI는 보조 역할을 하는 것”이라며 “AI 양형 시스템을 통해 업무 효율성이 높아지고 판사마다 동일한 양형 기준을 적용하게 되는 긍정적 효과가 있다”고 말했다.

그러나 일각에서는 AI 양형 시스템의 편향성·투명성이 확보돼야 한다는 지적이 나온다.

실제로 미국에서 양형 보조 도구로 활용되고 있는 재범 가능성 예측 AI '컴퍼스(COMPAS)'는 유독 흑인에 대해서만 더 높은 양형 의견을 도출한다는 의혹이 제기됐다.

국내에 도입될 AI 양형에도 편향성·투명성이 요구된다.

김진 경희대 법학전문대학원 교수는 '양형조사에서 인공지능의 활용에 관한 시론적 고찰' 논문에서 AI 양형의 효과를 인정하면서도 “알고리듬의 편향성 문제를 예방하기 위해 설계 단계부터 윤리적 책무를 강화해야 한다”고 서술했다.

이어 “미국의 COMPAS 역시 어떤 정보를 어떤 방식으로 활용해 결론에 이르렀는지 설명하지 못했다”며 “인공지능의 알고리즘은 기술적으로 가능한 범위에서 최대한 설명 가능해야 하고, 공개 가능성을 열어둬 피고인의 방어권을 보장해야 한다”고 주장했다.

전창배 국제인공지능윤리협회(IAAE) 이사장은 “AI 양형 시스템은 지난 3월 통과된 유럽의 인공지능법에 따라 고위험군으로 분류될 수 있다”며 “AI 양형 시스템의 기술적 오류를 검증하는 기관, 관련 법, 제도를 마련해야 한다”고 강조했다.

현대인 기자 modernman@etnews.com