
내년 '인공지능(AI) 기본법' 시행을 앞두고, 기존 규제 방식만으로는 AI 기술이 초래하는 복잡한 구조와 다양한 사회·윤리적 리스크에 효과적으로 대응하기 어렵다는 주장이 나왔다.
과학기술정책연구원(STEPI·원장 윤지웅)은 국내·외 AI규제샌드박스 추진 체계와 성과 및 한계를 비교 분석해, 우리나라 AI기본법 관련 조항과 연계를 통해 세부 정책과제를 도출한 'STEPI 인사이트' 제341호를 발간했다.
저자인 최해옥 연구위원(시스템혁신실)은 “AI는 기존 기술과 달리 단순한 규제 완화나 기술 지원만으로는 대응이 어려운 윤리성, 책임성, 신뢰성 등 다차원적 검증이 필요하며, 제도적으로 뒷받침할 규제실험 플랫폼 구축이 필수적”이라며 “AI 기술의 특수성을 반영한 새로운 형태의 정책실험 플랫폼으로서 AI규제샌드박스 제도의 체계적 도입에 대한 대응을 검토할 시점”이라고 주장했다.
'AI규제샌드박스를 위한 정책과제'란 제목의 이번 보고서에 따르면 기존 규제샌드박스는 '법 제도 개선을 통한 시장 진입 지원'이 주목적이었으나, AI규제샌드박스는 '사회적 신뢰 형성'과 '책임 기반 도입'을 우선시하고, 이에 따른 정책목표, 설계원칙, 참여주체, 평가기준 등을 아우르는 다층적 운영 프레임워크 정립이 필요하다고 소개했다.
특히, AI는 알고리즘 편향, 설명가능성, 개인정보 침해 등 복합적 리스크를 수반하므로, 단순 실증을 넘어 법적·사회적 검증을 포함한 다층적 접근이 필요하다며, 기술 특성과 리스크 차이, 국가별 정책 환경 및 기술 성숙도에 따른 탄력적 설계의 필요성도 밝혔다.
AI규제샌드박스의 국내·외 특징 등 현황을 분석한 보고서는 EU는 'EU AI 법(EU AI Act)' 기반 법제화된 규제 프레임워크를 통해 데이터 보호 및 기술표준의 정합성을 확보하는 등 글로벌 규범 선도 전략을 추진하고 있지만, 규제의 엄격성으로 혁신 저해의 우려가 존재한다고 분석했다.
한국은 빠른 실증과 초기시장 진입 등의 성과는 있지만, 고위험·고불확실 기술에 대한 제도적 설계가 미비해, 복합규제와 규제공백이 공존하는 AI 분야에서는 기존 규제샌드박스만으로는 실효적 지원이 어려운 구조적 한계가 있다고 강조했다.
보고서는 샌드박스 환경에서의 데이터 공유와 개인정보 보호 규제 간 충돌 가능성 등을 지적하며, 국내 'AI규제샌드박스'의 효과적인 운영과 규제설계 등 시스템 구축을 위해 △데이터 공유 모델 △표준화 기반체계 △글로벌 상호운용성 △이해관계자 참여 △규제기관 전문성 △평가체계 등을 고려해야 한다고 밝혔다.
이에 따라 'AI규제샌드박스' 설계를 위한 3대 핵심 정책으로 데이터, 표준화, 글로벌 협력을 도출하고 6대 주요 전략으로 △데이터 공유 기반 실증 활성화 모델 구축 △신뢰 기반 AI 구현을 위한 표준화 체계 구축 △글로벌 규제 연계 및 디지털 통상 기반 확보 △AI규제샌드박스를 위해 운영기관 간 협력 체계 강화 △규제 기관의 AI 전문성 강화 △AI규제샌드박스의 평가 및 피드백 기반 시스템 정비를 제언했다.
이와 함께, AI규제샌드박스 도입을 위한 3가지 대안으로 기존 규제샌드박스 제도 내 AI실증 포함, AI기본법 내 AI 전담 규제샌드박스 제도화, 기존 제도 내 'AI특화 트랙' 신설을 제안했다.
최해옥 연구위원은 “AI규제샌드박스는 단기간의 실증 실험에 그치는 것이 아니라, 실증 이후에도 기술의 상용화 과정에서 발생할 수 있는 법·제도적 문제에 대한 사후관리 체계 등 전 주기적 규제실험 인프라 기능이 필요하다”며 “기존 규제샌드박스와 구분되는 AI 특화 요소 중심 제도 설계 프레임 마련이 요구된다”고 밝혔다.
이와 함께 “국가 간 AI 규제 차이를 완화하고 규제샌드박스 간 상호운용성을 확보하기 위해, AI기술의 국제 표준화를 위한 공동 추진 체계 구축 및 다자 간 협력 기반 정비도 필요하다”고 강조했다.
김영준 기자 kyj85@etnews.com