[핀테크 칼럼]글로벌 빅테크의 AI칩 개발 경쟁

정유신 교수
정유신 교수

챗GPT로 시작된 소위 대화형 AI는 금융권을 포함한 전 산업에 미치는 영향력이 갈수록 커지고 있다. 지난 해 11월말 오픈AI가 챗GPT를 공개한 후, 빅데이터에 기반한 대형 언어모델과 이를 활용한 대화형 AI가 전 산업계 화두다. 시장에선 오픈AI 이외에 오픈AI와 대규모 투자 및 제휴관계인 MS, 챗GPT의 대항마로 2월 대화형 AI 'Bard'를 발표한 구글을 선발주자로 꼽는다. 하지만, 이들과 라이벌 빅테크인 아마존, 메타(옛 페이스북), 애플 등도 맹추격 중이다. 아마존은 독자적 AI모델 '아마존 타이탄'을 발표했고 메타는 'LLaMA 2', 애플은 '애플 GPT'라는 대화형 AI개발을 서두르고 있다. 지금까진 글로벌 빅테크간 플랫폼 수익모델 경쟁이었다면, 이제는 대화형 AI라는 핵심기술로 경쟁 무대가 바뀌고 있다는 의견이다.

특히 최근 관심을 끌고 있는 것은 이런 소프트웨어 부문 경쟁 이면에서 이뤄지고 있는 AI칩이라는 하드웨어 부문의 반도체 개발 경쟁이다. AI칩은 대형 언어모델의 학습과 추론에 사용되는 반도체칩을 말한다.

그럼 왜 이렇게 AI칩 경쟁이 불붙고 있나. 대화형 AI 경쟁력을 높이려면 순식간에 엄청난 계산량을 처리할 수 있는 고성능 AI칩이 필수적인 데, AI칩 공급자는 극히 제한적이기 때문이다. 예컨대 챗GPT3.5의 경우 수천억의 파라미터, 챗GPT4.0은 수백조의 파라미터를 사용해야 해, 그만큼 고도의 병렬처리능력을 갖춘 하이엔드 AI칩이 필요하다. 문제는 현재 사용되는 AI칩이 엔비디아 제품으로 거의 독점돼 있다는 것이다. 엔비디아 시장점유율이 90%에 육박한다. 엔비디아의 GPU(Graphics Processing Unit) 제품인 'A100'의 경우 1개에 2~3만 달러, 'H100'는 4만 달러, 대형 언어모델 구축에 3만개 이상 필요하다고 보면, 'H100' 이용시 드는 AI칩 비용만 무려 1조5000억원을 웃돈다는 얘기다.

따라서 지금까지 기술력을 자랑해온 빅테크들이 이런 황금시장을 그냥 놔둘 리가 없다. 치열하게 경쟁하고 있는 대화형 AI모델의 가격경쟁력을 위해서도 또한 수익성 높은 신시장의 진입을 위해서도 AI칩 경쟁에 뛰어들고 있는 이유다.

가장 발빠른 움직임을 보이는 건 오픈AI와 제휴하고 있는 MS와, AI부문에 특히 투자를 많이 한 구글이다. MS는 2019년부터 코드네임 '아테나(Athena)'라는 AI칩을 개발중으로, 내년 초쯤 오픈AI에 제공 가능하고 또한 GPT4.0을 활용한 자사의 대화형 AI모델 'Bing AI'의 가격경쟁력도 높일 수 있을 거라고 기대한다. 구글도 전력투구하고 있기는 마찬가지. 2013년부터 개발에 착수한 AI칩 'TPU(Tensor Processing Unit)'의 성능향상에 박차를 가해, 최근 이전 AI칩보다 성능을 2배 이상 올린 'TPU v5'를 발표한 바 있다.

AI는 엄청난 성장 잠재력과 파급력을 갖고 있는 기술이면서 동시에 시장이다. 특성상 경쟁력을 갖추면 기하급수적인 속도로 기술혁신을 일으키기 때문에 한번 다른 국가와 격차가 생기면 좀처럼 회복하기 어렵다. 반도체 제조 측면에서 나름 경쟁력을 자랑해온 우리나라가 더욱 관심을 갖고 민간 협력에 박차를 가해야 하고, 특히 빅데이터의 핵심이 되는 금융권이 디지털금융(핀테크)과 여타 산업과의 시너지창출에 집중해야 하는 이유다.

정유신 서강대학교 경영학과 교수 겸 디지털경제금융연구원장