ETRI, 초대형 AI 학습 '메모리 한계' 극복 기술 구현

ETRI 연구진이 이번에 개발한 '옴니익스텐드' 메모리 확장 환경에서 AI 연산 수행을 모니터링하고 있다.
ETRI 연구진이 이번에 개발한 '옴니익스텐드' 메모리 확장 환경에서 AI 연산 수행을 모니터링하고 있다.

국내 연구진이 초대형 인공지능(AI) 학습 과정의 고질적인 '메모리 부족' 문제를 근본적으로 해결할 핵심 기술을 개발했다.

한국전자통신연구원(ETRI)은 그래픽 처리장치(GPU) 메모리 한계와 데이터 병목 현상을 해결하는 메모리 기술 '옴니익스텐드'를 개발했다고 8일 밝혔다.

GPU 성능이 아무리 향상되더라도, 메모리 용량이 충분치 않으면 연산 효율이 떨어지는 '메모리 장벽' 문제를 해소한 것이다.

옴니익스텐드는 표준 네트워크 기술인 이더넷을 활용해 여러 서버와 가속기 메모리를 하나의 대용량 메모리처럼 공유해, AI 학습에 필요한 메모리를 원하는 만큼 유연하게 확보할 수 있는 구조다.

초대형 AI 학습 성능과 확장성, 경제성을 동시에 확보한다. 데이터 이동 지연을 최소화해 AI 학습 속도가 향상되며, 서버 교체 없이 메모리를 확장할 수 있어 데이터센터 구축·운영 비용 절감 효과도 기대된다.

특히 장비 간 연결 거리와 시스템 확장에 한계가 있던 기존 고속 직렬 통신 인터페이스(PCIe) 기반 구조와 달리 물리적으로 떨어진 다수 장비를 하나의 메모리 풀로 묶을 수 있어, 초대규모 AI 환경에 적합한 고확장성 시스템 구조로 평가받는다.

연구진은 대규모 언어 모델(LLM)을 활용한 연산 부하 테스트를 통해 옴니익스텐드 구조가 실제 AI 학습 성능 향상에 기여함을 확인했다. 실험 결과, 메모리 용량이 부족한 환경에서는 LLM 추론 성능이 크게 저하된 반면, 이더넷 기반으로 메모리를 확장한 경우 성능이 2배 이상 회복됐다. 충분한 메모리를 갖춘 기존 환경과 유사한 수준의 처리 성능을 유지했다.

ETRI는 지난해 5월 프랑스 파리에서 열린'RISC-V 서밋 유럽 2025', 미국 샌타클라라에서 개최된 'RISC-V 서밋 노스 어메리카 2025'에서 해당 기술을 연이어 공개해 높은 관심을 받았다. ETRI는 향후 기술 이전, 상용화도 도모한다.

김강호 ETRI 초성능컴퓨팅연구본부장은 “향후 새로운 과제기획을 통해 신경망처리장치(NPU)와 가속기 중심 메모리 인터커넥트 기술 연구를 본격 확대할 계획”이라며, “글로벌 AI·반도체 기업의 차세대 시스템에 본 기술이 적용될 수 있도록 기술 고도화와 국제 협력을 지속하겠다”고 말했다.

이번 연구는 과학기술정보통신부·정보통신기획평가원(IITP)이 지원하는 '메모리 중심 차세대 컴퓨팅 시스템 구조 연구' 과제 일환으로 수행됐다.

김영준 기자 kyj85@etnews.com