정부가 공공에 초거대 인공지능(AI) 민간플랫폼을 도입할때 오픈소스 검증, 지속성 확보 등 다방면을 살펴봐야한다는 주장이 제기됐다.
한국지능정보사회진흥원(NIA)는 '공공분야 초거대 AI 민갈플랫폼 활용방안' 보고서를 내고 이 같이 제언했다.
NIA는 최근 거대언어모델(LLM) 오픈소스가 대거 공개된 가운데 이를 도입할 경우 추가 신뢰성검증이 필요하다고 분석했다.
NIA는 “현재 공개된 오픈소스 기반 LLM은 특정 업무에 국한된 성능평가로 정부 업무에 맞는 업무의 LLM 적정규모는 아직 미지수”라면서 “오픈소스 기반 기본모델을 활용할 경우 한국어 특징을 잘 이해하고 평가하도록 2차 가공이 필요하며 이를 위해 국내 기업과 유기적인 협력이 중요하다”고 전했다.
정부가 거대한 GPU 자원을 지속 확보하기 위한 방안 마련 필요성도 강조했다.
민간 기업의 초거대 AI를 사용할 경우 비용을 지속 지불하는 구조가 된다. 초기에는 민간이 더 저렴할 수 있지만 일정 기간이 지나면 자체 보유가 총소요 비용 측면에서 더 적게 들어간다는게 연구소측 설명이다.
NIA는 “대국민 서비스의 품질 확보를 위해 국가정보자원관리원, 전자정부프레임워크 등과 같이 지속적인 예산 확보 운영이 필요하다”고 조언했다.
이어 “공공부문 데이터가 특정 민간기업이 독점할 수 있는 형태는 다양한 문제를 발생시킨다”면서 “공공부문에 민간 클라우드 도입을 확대하되 개인정보보호, 국가기밀정보 보호 등의 조치를 통해 도입이 가능한 분야에 대한 선별 작업 후 추진해야한다”고 덧붙였다.
이밖에도 각종 보안 이슈 및 정부의 민감 데이터 유출을 방지하기 위해 학습 데이터와 사용자 질의는 폐쇄형 정부 전용 클라우드에서만 접근 가능하도록 해야한다고 전했다.
국정원 국가보안연구소에 따르면 챗GPT 서비스 구축환경에서는 민감정보에 대한 데이터나 서비스는 망분리가 필수 요소다.
NIA는 “챗GPT와 같은 대화형 서비스의 경우 대외비 문서, 혹은 민감한 정부자료에 대한 전송이 로그기록에 남게 되며 이에 따른 유출문제에 자유롭지 못하다”면서 “민감정보를 포함한 거대모델 개발사례는 찾기 어렵기 때문에 유사 성공사례가 나오기전까지 안정적인 폐쇄형 구조의 정부 클라우드 활용 방안 검토가 필요하다”고 강조했다.
김지선 기자 river@etnews.com
-
김지선 기자기사 더보기