[주니어전자]초대형 AI 학습 '메모리 장벽' 해결…ETRI, 옴니익스텐드 개발

옴니익스텐드(OmniXtend) 기반 메모리 풀(Pool) 환경에서 AI 학습 성능을 분석하는 모습 / 한국전자통신연구원(ETRI)
옴니익스텐드(OmniXtend) 기반 메모리 풀(Pool) 환경에서 AI 학습 성능을 분석하는 모습 / 한국전자통신연구원(ETRI)

국내 연구진이 초대형 인공지능(AI) 학습 과정의 고질적 문제인 '메모리 장벽(Memory wall)'을 근본적으로 해결할 수 있는 핵심 기술을 개발했어요.

그래픽처리장치(GPU) 연산 성능이 높아질수록 심화돼 온 메모리 부족과 데이터 병목 문제를, 표준 이더넷(Ethernet) 기반의 메모리 확장으로 돌파했다는 점에서 차세대 AI·빅데이터 인프라의 전환점이 될 기술로 평가됩니다.

한국전자통신연구원(ETRI)은 초대형 AI 학습 환경에서 GPU 메모리 한계를 극복하는 새로운 메모리 기술 '옴니익스텐드(OmniXtend)'를 개발했다고 8일 밝혔습니다.

특히 초대형 언어모델(LLM)과 고성능 컴퓨팅(HPC) 수요가 급증하며 처리 데이터 규모가 폭발적으로 커지고 있는데요. GPU 성능이 아무리 향상돼도, 탑재 메모리가 부족하면 연산 효율이 급락하는 메모리 장벽은 여전히 AI 학습의 최대 병목으로 남아 있었죠.

ETRI 연구진이 미국 샌타클라라에서 열린 'RISC-V 서밋 노스 아메리카 2025'에서 이더넷 기반 메모리 확장 기술을 소개했다 / 한국전자통신연구원(ETRI)
ETRI 연구진이 미국 샌타클라라에서 열린 'RISC-V 서밋 노스 아메리카 2025'에서 이더넷 기반 메모리 확장 기술을 소개했다 / 한국전자통신연구원(ETRI)

옴니익스텐드는 이 문제를 서버와 가속기에 흩어진 메모리를 네트워크 전반에서 하나의 대용량 메모리 풀(Pool)처럼 공유하는 방식으로 해결해요. 각 장비의 메모리를 이더넷으로 묶어 필요할 때 유연하게 확장할 수 있어, 대형 모델일수록 효과가 커집니다.

데이터 이동 지연을 최소화함으로써 AI 학습 속도가 향상됐고, 서버 교체 없이 메모리를 확장할 수 있어 데이터센터 구축·운영 비용 절감 효과도 기대돼요.

기존 고속 직렬 통신 인터페이스(PCIe) 기반 구조는 장비 간 연결 거리와 시스템 확장에 한계가 있었는데요. 옴니익스텐드는 이더넷 스위치를 활용해 물리적으로 떨어진 다수의 장비를 하나의 메모리 풀로 묶을 수 있어, 초대규모 AI 환경에 적합하다는 평가를 받고 있습니다.

ETRI는 향후 데이터센터 하드웨어·소프트웨어 기업을 중심으로 기술이전을 추진해 상용화를 도모할 계획입니다. AI 학습·추론 서버, 메모리 확장 장치, 네트워크 스위치 등에 적용해 차세대 AI 인프라 시장에서 실질적 성과를 창출한다는 목표예요.

나아가 차량·선박 등 고신뢰 임베디드(Embedded) 시스템의 대용량 메모리 연결망으로 확장하고, 신경망처리장치(NPU)·중앙처리장치(CPU)·GPU 등 이종 가속기 간 메모리 공유를 고도화하는 후속 연구도 병행합니다.



최성훈 기자 csh87@etnews.com