[기고]초대형 인공지능 모델의 한계와 기대

이윤근 한국전자통신연구원(ETRI) 인공지능연구소장
이윤근 한국전자통신연구원(ETRI) 인공지능연구소장

2016년 3월 구글 딥마인드가 개발한 인공지능(AI) 알파고가 세계 최고 바둑기사 이세돌을 상대로 4대 1 완승을 거둠으로써 많은 사람들의 관심을 받은 바 있다.

최근에도 오픈AI(OpenAI)가 개발한 초대형 인공지능 모델 'GPT-3'가 세계적인 관심사다. GPT-3는 무려 파라미터가 1750억 개로 구성돼 사람과 유사하게 범용적인 언어 구사 능력을 보유한 것으로 알려져 있다. 구글도 올해 1월 1.6조개 파라미터로 구성된 인공지능(AI) 언어모델을 발표했고 중국 화웨이도 2000억 개 파라미터 언어모델을 개발했다. 국내기업들도 앞다퉈 관련 기술개발을 추진 중이다.

사람들이 초대형 AI에 관심을 두는 이유는 AI가 인간과 유사한 자연스러움을 보여줄 수 있고, 나아가 범용성·창작성과 같은 기존 AI 한계를 극복할 수 있다는 기대감 때문일 것이다. 실제로 이런 초대형 AI와 채팅을 하거나, AI가 쓴 글을 읽어보면 사람과 구별이 잘 안될 정도다.

전통적으로 언어 AI의 대표적 응용서비스 중 하나가 '챗봇 상담사'다. 이런 서비스에 초대형 언어모델을 적용하면 인간 상담원처럼 자연스러운 서비스가 가능할까? 안타깝게도 아직은 그렇지 못한 것 같다. 아직까지 AI가 '대화의 문맥'을 완전히 이해하지 못하고 '실세계 데이터'를 활용하지 못한다. 자연스럽게 대화를 이어가긴 하지만 정작 고객이 원하는 특정한 일을 수행하지는 못한다.

초대형 언어모델 AI도 가끔은 정말 이해가 되지 않는 문맥을 만들기도 한다. 말은 유창하게 하는데 본인은 무슨 얘기를 하고 있는지 잘 모른다. 예컨대 금융 상품 관련 상담을 해야 하는데 AI는 고객 요구에 따라 어떤 상품이 적절한지에 대한 전문지식을 가지고 있지 않아 적절한 응대를 할 수 없다.

이런 지식을 외부에서 알려줄 방법도 없다. 기존 챗봇 서비스에서는 이런 지식을 프로그래밍을 통해 규칙으로 반영해 대화의 흐름을 임의로 조절하고 상담에 필요한 데이터를 대화 내용에 반영했다. 하지만 초대형 언어모델은 모든 대화가 기존에 학습한 데이터에 의해 확률적으로 만들어져 제어가 불가능하다. 워낙 많은 빅데이터로 훈련되다 보니 대체로 적절하고 자연스러운 말을 만들어 낼 뿐이다.

대화의 윤리성, 공정성 문제도 남아 있다. 얼마 전 성차별, 개인정보 유출 문제로 화제가 됐던 챗봇 서비스 '이루다'와 같이 빅데이터로 생성된 대화는 AI 훈련에 사용된 원시데이터 내용과 품질에 전적으로 영향을 받는다. 물론 초대형 언어모델을 만들 때 사용되는 데이터를 사전에 정제하고 필터링해 이런 문제를 최소화 할 수 있지만 아직까지는 부족한 점이 많다. 게다가 초대형 AI를 학습하려면 엄청난 컴퓨팅 인프라와 전력이 소요되는 것도 문제점이다.

최근 과학기술정보통신부에서는 '차세대 AI 원천 기술 개발'에 향후 5년간 약 3000억 원을 투자하겠다고 밝혔다. 정부가 추진하는 차세대 AI 기술은 현재 빅데이터 기반 AI 기술 한계를 극복하기 위한 연구에 초점이 맞춰져 있다. 더 적은 데이터를 이용해 효과적으로 학습하고 공정성과 신뢰성을 확보하기 위함이다. 초대형 AI 모델이 떠오르는 현 시점에 정부가 한발 앞서서 미래지향적 원천기술개발에 투자하는 것은 매우 적절한 전략이다. 두 가지 연구방향은 상호 보완적이므로, 기업은 대규모 컴퓨팅 인프라를 투자해 초대형 AI를 개발하고, 정부는 원천연구 투자를 함으로써 산·학·연 협력에 의한 세계 최고의 한국어 AI를 개발할 수 있기를 기대한다.

이윤근 한국전자통신연구원(ETRI) 인공지능연구소장 yklee@etri.re.kr