
“미국과 중국은 하이퍼스케일 인공지능 데이터센터(AIDC)를 수십 개 가동하고 있는데, 우리는 1~2개 정도밖에 없습니다. 더욱이 인허가를 포함해 AIDC 구축에 3년이 소요되는 등 속도 면에서도 많이 늦고 있습니다.”
나연묵 단국대 교수는 18일 서울 중구 프레스센터에서 열린 '한국IT리더스포럼 4월 정기조찬회'에서 'AI 컴퓨팅 실현을 위한 AI 데이터센터 기술'을 주제로 한 발표를 통해 이같이 말했다.
생성형 AI 확산으로 데이터센터의 역할이 주목받는 가운데, 현실적으로 데이터센터 확산을 위해서는 전력 문제 해결이 선행돼야 한다고 강조했다. 이와 함께 AIDC 확산의 걸림돌로 제도와 인허가 문제도 지적했다. 전력계통영향평가와 전력구매계약(PPA) 규제, 복잡한 인허가 절차 등을 언급하며 글로벌 기준에 비해 제도적 지원이 부족하다고 봤다.
실제 독자 파운데이션 모델을 학습시키는 데 막대한 컴퓨팅 자원과 전력이 들어가면서, 데이터센터는 더 이상 단순한 서버 수용 공간이 아니라 AI 산업의 핵심 생산기지로 떠오르고 있다.
나 교수는 “그래픽처리장치(GPU) 1만 장 규모 학습에는 24시간 내내 수십 메가와트 이상의 전력이 필요하다”며 “예전에 우리가 데이터센터를 전기 먹는 하마라고 했는데, AI야말로 돈 먹는 하마, GPU 먹는 하마, 전기 먹는 하마라는 말을 해도 될 것 같다”고 말했다.

과거 CPU 중심 데이터센터가 범용 서비스에 최적화돼 있었다면, AIDC는 GPU·신경망처리장치(NPU)·텐서처리장치(TPU) 같은 가속기 중심으로 재편되고 있다. 이를 위해서는 고대역폭 메모리(HBM), 초고속 스토리지, 고속 네트워크의 뒷받침도 필수다. 파운데이션 모델 학습을 위해서는 수많은 GPU뿐 아니라 이를 뒷받침할 고성능 장비도 함께 필요해 전력과 냉각 문제가 함께 대두되고 있다.
나 교수는 “국내 기존 데이터센터 상당수가 랙당 5킬로와트(kW) 수준을 전제로 설계돼 있는데, 최신 GPU 서버는 한 대만으로도 10kW 이상, 여러 대를 한 랙에 집적하면 60~80kW까지 요구한다”며 “우리나라는 80kW를 공급하는 랙 자체가 준비돼 있지 않고, 전력뿐 아니라 쿨링 등 전반적으로 준비가 부족하다”고 말했다.
AI 경쟁은 이를 실제로 구동할 수 있는 데이터센터 역량 경쟁임과 동시에 AI 서비스의 밑단에 대규모 인프라가 필요하다고 강조했다. AI는 단순한 소프트웨어나 서비스의 문제가 아니라 데이터·클라우드·GPU 서버·데이터센터가 유기적으로 맞물려야 구현되는 산업이기 때문이다.
나 교수는 “AI 모델이 돌아가기 위해서는 데이터가 필요하고, 클라우드를 가동하려면 멀티코어 서버나 GPU 서버, 서버 클러스터로 구성된 데이터센터가 있어야 한다”며 “결국 AI가 실현되려면 빅데이터, 클라우드, 데이터센터가 유기적으로 연결되어야 한다”고 말했다.
강성전 기자 castlekang@etnews.com