막오른 '초대규모 AI' 경쟁···구글 '람다'에 맞서는 네이버 '하이퍼클로바'

막오른 '초대규모 AI' 경쟁···구글 '람다'에 맞서는 네이버 '하이퍼클로바'

'초대규모 AI' 경쟁의 막이 올랐다. 국내외 기업이 잇달아 초대규모 AI 모델과 개발 계획을 발표하며 주도권 확보 경쟁에 돌입했다.

초대규모(Hyper scale) AI는 슈퍼컴퓨터를 기반으로 대규모 데이터를 학습한 AI다. 확장된 매개변수(파라미터)를 통해 특정 목적으로 사용하는 AI와 달리 종합적이고 자율적인 사고가 가능하다.

활용 범위가 넓어 누구나 쉽게 다양한 분야에서 AI를 사용할 수 있다. 그만큼 기업의 비즈니스 모델(BM)의 폭도 넓어진다. 최근 주요 기업이 앞 다퉈 개발에 나선 것도 이 때문이다.

초대규모 AI 경쟁의 포문을 연 것은 지난해 인공지능 연구소 오픈AI가 공개한 'GPT-3'다. 오픈AI에는 일론 머스크 테슬라 최고경영자(CEO)가 공동설립자로 참여했다.

GPT-3는 직전 공개된 GPT-2의 100배를 넘어서는 1750억개 파라미터를 갖췄다. 파라미터는 인간의 뇌에서 뉴런을 연결하는 시냅스 같은 역할을 한다. GPT-3는 사람처럼 자연스럽게 대화하거나 소설을 쓰는 등 놀라운 자연어 생성 능력으로 이목을 집중시켰다.

구글은 지난 18일 '구글 I/O 2021'에서 AI 언어 대화모델인 '람다(LaMDA)'를 선보였다. 람다는 미리 정의된 답변을 학습하지 않아 어떤 질문에도 자연스러운 대화를 할 수 있다. 람다는 텍스트 기반으로만 동작하지만 구글은 음성, 이미지 등을 이해하는 멀티모달(multimodal) AI를 목표로 '멈(MUM, multimodal model)'도 연구 중이다.

국내에서는 LG AI연구원이 향후 3년간 초대규모 AI 개발에 1억달러(약 1130억원) 이상 투자계획을 밝혔다. SK텔레콤은 연내 1500억개 파라미터를 가진 초대규모 AI 'GLM'을 개발한다는 계획이다. KT는 연내 카이스트(KAIST)와 'AI·SW 기술 연구소'를 설립, 초대규모 AI를 공동 개발하기로 했다.

네이버는 지난 25일 초대규모 AI '하이퍼클로바'를 공개했다. 국내에서 실제 완성된 초대규모 AI 기술을 선보인 것은 네이버가 처음이다.

하이퍼클로바는 GPT-3를 뛰어넘는 2040억개 파라미터를 갖췄다. GPT-3보다 한국어 데이터를 6500배 이상 학습해 세계에서 가장 큰 한국어 초거대 언어모델이기도 하다.

하이퍼클로바의 성능은 구글 람다에 못지않다는 게 네이버의 설명이다. 하이퍼클로바는 맥락을 이해하는 자연스러운 대화가 가능하다. 별도 데이터셋 구축과 재학습을 하지 않고도 적절한 대답을 내놓고 이전 질문이나 응답의 내용까지 이해하기 때문에 계속해서 편안하게 대화를 이어나갈 수 있다.

하이퍼클로바는 '한국어'에 특화된 모델이다. GPT-3는 학습 데이터의 약 93%가 영어로 사실상 '영어 전용 모델'인 반면 하이퍼클로바는 데이터 중 한국어 비중이 97%에 달한다. 영어 기반 서비스 종속을 막고 한국어 기반 서비스의 성장을 기대할 수 있다.

네이버는 지난해 10월에는 700페타플롭스(PF) 성능 슈퍼컴퓨터를 도입하며 국내 기업 중 최초로 초대규모 AI 개발에 나선 바 있다. 슈퍼컴퓨팅 인프라와 함께 국내 최대 플랫폼을 운영하며 쌓은 방대한 데이터도 하이퍼클로바 개발을 위한 중요 자원이다.

네이버 관계자는 “풍부한 인프라와 데이터, 글로벌 수준의 AI 전문성을 바탕으로 국내 퍼스트무버를 넘어 글로벌 기술 리더로 발돋움할 계획”이라고 말했다.

안호천기자 hcan@etnews.com