[ET단상]유럽연합의 신뢰 가능한 AI 청사진

[ET단상]유럽연합의 신뢰 가능한 AI 청사진

캐나다 인공지능(AI) 기반 스타트업이 지난해 말 세계보건기구(WHO)와 미국 질병통제센터(CDC)보다 앞서 코로나19 확산을 경고, 세계의 주목을 받았다.

최근에는 국내 인공지능(AI) 기반 신약 개발 기업 연구진이 AI 기술을 적용, 코로나19에 적용할 수 있는 치료제를 예측한 결과를 발표했다.

이처럼 AI 기술의 급속한 발전과 주목할 만한 업적에도 AI가 과연 신뢰할 수 있는 기술인가에 대해서는 많은 사람이 우려하고 있다. 일반 국민은 AI가 어떤 방식으로 의사결정을 하는지 알 수 없기 때문에 AI가 잘못된 목적을 위해 사용될지 몰라서 두려워한다.

AI 상품과 서비스 생산 기업은 향후 AI에서 발생할 수 있는 위험 상황에 대비해 사전에 어떠한 조치를 해야 하는지 정확히 알 수 없어 불안할 수밖에 없다. 국민과 기업 모두가 AI 혜택을 온전히 누리기 위해서는 AI 공급자와 수요자 모두 AI를 신뢰할 수 있는 환경을 조성해야 한다.

유럽연합 집행위원회(EC)는 지난달 19일 AI 규제의 기본 틀을 담고 있는 중요한 문서를 발표했다. 'AI의 발전과 신뢰 확보를 위한 백서'(AI 백서)로 명명된 문서는 유럽연합(EU)에서 AI 불확실성 제거 및 신뢰 구축을 목표로 한다.

지금까지 특정 국가나 국제기구에서 AI에 대한 일반 가이드라인을 발표한 적은 있었지만 정책 입안자가 입법을 위해 AI 기술을 통제할 수 있는 규제 포괄 체계를 마련한 것은 이번이 처음이다.

EU는 AI 백서를 내놓기에 앞서 사회변화에 선제적으로 대응하고 신뢰할 수 있는 AI를 구현하기 위한 연구를 지속해왔다. EU는 2018년 4월 'AI 전략'을 발표, 'AI에 대한 윤리적 및 법적 프레임워크 보장'을 주요 전략 중 하나로 포함시키고, 이를 이행하기 위해 2018년 6월 AI 고위급 전문가그룹(HLEG)을 설립했다. HLEG는 2019년 4월 신뢰 가능한 AI를 보장하기 위해 개발자, 운영자 및 이용자에게 지침을 제공하는 'AI 윤리 가이드라인'을 발표했고, 이는 EU가 이번에 발표한 AI 백서 기반이 됐다.

지금까지 발표된 AI 가이드라인이 주로 AI 핵심 가치와 원칙에 대한 정보 제공에 초점을 뒀다면 EU의 AI 백서는 구속력 있는 AI 규제 체계 마련을 위해 구체화한 'AI 거버넌스' 운영 지침을 제공하고 있다.

핵심은 AI '위험성' 기준으로 AI 규제 여부를 결정해야 한다는 점이다. AI 백서에 따르면 AI가 보건의료·교통·에너지 분야와 같이 '위험 발생 가능성이 짙은 일상 영역에 적용'되고, 동시에 '실제로 해당 영역에서 위험 발생 가능성이 있는 방식으로 이용'될 때 AI를 '고위험'으로 분류한다.

반면에 AI가 채용과정에 이용되거나, 근로자의 권리에 영향을 미치거나, 원격 생체인식 기술에 적용되는 경우에는 예외적으로 두 가지 요건 충족 여부와 상관없이 고위험으로 분류한다.

고위험으로 분류된 AI는 EU에서 지정한 엄격한 기준을 충족시켜야 한다. 첫째 AI가 EU 가치와 규정을 준수할 수 있도록 AI 학습에 이용되는 데이터 세트 품질을 보장해야 한다. 둘째 알고리즘 프로그래밍과 데이터에 관한 기록을 보존하고, 경우에 따라 데이터 자체도 보존해야 한다. 셋째 AI 능력, 한계 등 중요 정보를 고지해야 한다. 넷째 AI는 기술이 견고해야 하고, 정확해야 한다. 다섯째 인간의 감독을 받되 AI 시스템 용도와 사람에게 미칠 수 있는 영향을 고려해 인간이 개입하는 수준을 정해야 한다. 여기에 덧붙여 안면인식 등 AI 기반의 원격 생체인식 기술은 정당한 사유가 인정되는 경우에 한해서 이용할 수 있다.

AI 백서는 이 같은 지침 나열에 그치지 않고 지침이 지켜질 수 있도록 유럽 시장에 출시되는 고위험 AI에 대해 '사전 적합성 평가'를 받도록 하고 있다.

이를 위해 EU 국가는 사전 적합성 평가 업무를 외부 검사 기관에 위탁할 수 있고, EU 이외 국가도 EU와 상호 인정 조약 체결을 통해 자국 검사 기관에 위탁할 수 있다.

지난해 말 정부는 'AI 국가전략'을 발표하며 'AI 시대 미래지향적 법제도 정립'과 'AI 윤리 정립'을 주요 추진 과제에 포함시켰다. 미래의 AI 사회 모습은 국민과 기업 모두에 불확실하게 다가오고 있다.

그러나 이러한 불확실한 조건에도 정부가 AI에 대한 국민과 기업의 신뢰 구축을 위해서는 AI 거버넌스와 관련한 어려운 결정을 해야 할 것이다.

EU AI 백서에 시사점이 있다. 정부가 기업이 AI 산업과 시장을 조성하기 위한 규범의 기초가 될 수 있다. 국민도 수용할 수 있는 보편타당한 AI 규제 체계가 마련되기를 기대한다.

마경태 법무법인 태평양 변호사 kyungtae.ma@bkl.co.kr