"제2 이루다 사태 막자"…'AI 신뢰성' 검증기술 만든다

글자 작게 글자 크게 인쇄하기

과기정통부, 3대 전략 발표
2026년까지 650억 이상 투입
스타트업 원천기술 개발 지원
내년 민간 자율 인증제도 시행

@게티이미지뱅크
<@게티이미지뱅크>

과학기술정보통신부가 내년부터 오는 2026년까지 650억원 이상을 투입, 스타트업이 인공지능(AI) 신뢰성 확보가 가능하도록 원천기술과 표준 플랫폼 개발을 지원한다.

AI 적용 서비스가 기술과 윤리적 기준 등 '신뢰성'을 확보했는지를 민간이 자율 인증하는 제도를 내년부터 시범 시행한다.

개인정보를 무단 수집한 이루다 사태와 같은 사회적 논란을 예방하는 한편 AI를 사회와 산업 전반에서 안정적으로 활용하도록 하는 진흥·지원 체계가 확립될 것으로 전망된다.

과기정통부는 13일 4차산업혁명위원회 제22차 전체회의에서 사람이 중심이 되는 AI를 위한 '신뢰할 수 있는 인공지능 실현전략'을 발표했다.

실현전략은 AI를 이용자 신뢰를 바탕으로 안정적으로 산업과 사회 전반에 적용하기 위해 △신뢰 가능한 AI 구현 환경 △안전한 AI 활용 기반 마련 △사회 전반의 건전한 AI 의식 확산 등 3대 전략 아래 10대 실행 과제를 실행하는 게 골자다.

신뢰 가능한 AI 환경 조성 전략과 관련해 과기정통부는 기업이 AI 서비스 '개발-검증-인증' 전 단계에서 적용 가능한 신뢰성 지원 체계를 마련할 계획이다.

AI 서비스 '개발' 단계에서는 글로벌 시장에서 확립된 AI 윤리·기술 요구사항을 반영한 '개발 가이드북'을 올해 안에 제작, 보급한다. 신뢰성 확보 여부와 수준을 평가하기 위한 '민간자율 검증체계'를 마련, 연내 시범 실시할 계획이다. '인증' 단계에서는 기술·윤리적 요구사항을 충족했는지 여부를 이용자가 판단하도록 민간 자율 인증과 공시를 추진한다.

스타트업도 체계적으로 AI 신뢰성을 확보해 나갈 수 있도록 데이터 확보와 알고리즘 학습, 검증을 통합 지원하는 플랫폼을 운영해서 신뢰도를 분석·검증하도록 지원한다. 2026년까지 총 650억원 이상을 투입해 AI의 △설명가능성 △공정성 △견고성 제고를 위한 원천기술 개발을 추진한다. 기업은 정부가 지원해 개발한 알고리즘을 서비스 개발 단계에서부터 자유롭게 적용할 수 있다.

'안전한 AI 활용' 전략으로, 과기정통부는 민관이 AI 학습용 데이터 제작 공정에서 공통적으로 검증지표 등 표준 기준을 확립한다. AI가 국민생활 전반에 미치는 영향을 체계적으로 분석하기 위한 'AI 사회적 영향평가'도 도입할 계획이다.

사회 전반의 건전한 AI 의식 확산을 위해 과기정통부는 AI 윤리교육 등을 강화하고, 일상업무 활용에서 AI가 윤리기준을 충족하는지 여부를 알 수 있도록 체크리스트를 개발한다. 학계와 기업, 시민단체 등이 AI 윤리에 대해 토론하는 '윤리 정책 플랫폼'도 운영할 계획이다.

민간이 자율적으로 AI 신뢰성을 확보할 수 있도록 정부가 지원 체계를 구축해 기술과 재정 능력이 부족한 기업도 안전한 AI 서비스를 개발, 국내외 시장 진출 기반을 조성할 것으로 기대된다.

최기영 과기정통부 장관은 “기업과 연구자 등이 AI 제품과 서비스 개발 과정에서 혼란을 겪거나 이로 인해 국민에게 피해가 발생하지 않도록 AI 신뢰 확보 기준을 명확히 했다”면서 “사람이 중심이 되는 AI 강국 실현을 위해 전략을 차질 없이 추진해 나갈 계획”이라고 말했다.

박지성기자 jisung@etnews.com