
삼성전자가 차세대 고대역폭메모리(HBM) HBM4E 실물 칩을 처음 공개하며 인공지능(AI) 인프라 시장 공략에 속도를 낸다. 메모리뿐 아니라 파운드리·로직 설계·패키징을 결합한 '메모리 토털 솔루션'을 앞세워 엔비디아와 협력 범위를 확대하겠다는 전략이다.
삼성전자는 16일(현지시간)부터 미국 새너제이에서 열리는 엔비디아 GTC(GPU Technology Conference)에 참가해 차세대 HBM4E 기술과 AI 플랫폼용 메모리 솔루션을 공개했다고 밝혔다.
이번 행사에서 1c D램 공정과 파운드리 4나노 공정을 결합한 HBM4E 실물 칩과 코어 다이 웨이퍼를 처음으로 선보였다.
HBM4E는 핀당 16Gbps 속도와 최대 4TB/s 대역폭을 지원하는 차세대 HBM으로, AI 데이터센터용 고성능 GPU 시스템을 겨냥한 제품이다.
삼성전자는 메모리 토털 솔루션을 통해 차세대 AI 인프라 구축에 필요한 핵심 부품을 통합적으로 공급할 수 있다는 설명이다.
패키징 기술도 함께 공개했다. 삼성전자는 차세대 HBM 적층 기술인 HCB를 선보이며 기존 TCB 방식 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 구현할 수 있다고 밝혔다.
엔비디아 차세대 AI 플랫폼 '베라 루빈(Vera Rubin)'과의 협력도 강조했다. 삼성전자는 전시 부스에서 △루빈 GPU용 HBM4 △베라 CPU용 SOCAMM2 △스토리지 PM1763 등을 함께 전시했다. 베라 루빈 플랫폼에 탑재되는 주요 메모리와 스토리지를 아우르는 공급 역량을 부각한 것이다.
SOCAMM2는 LPDDR 기반 서버용 메모리 모듈로 최근 품질 검증을 마치고 양산 출하를 시작했다. PM1763은 루빈 플랫폼의 주요 스토리지로, 현장에서는 해당 SSD가 탑재된 서버를 통해 엔비디아의 SCADA(Scaled Accelerated Data Access) 워크로드 시연도 진행됐다.
삼성전자는 AI 추론 성능 향상을 위해 루빈 플랫폼에 도입되는 CMX 구조에 대응해 PCIe Gen5 SSD PM1753도 공급할 계획이다. CMX는 AI 추론 과정에서 생성되는 데이터를 GPU 외부 스토리지로 확장해 활용하는 메모리 확장 기술이다.
행사 둘째 날인 17일(현지시간)에는 송용호 삼성전자 AI센터장이 발표에 나서 차세대 AI 인프라에서 메모리 기술의 역할과 삼성전자의 전략을 소개할 예정이다.
박유민 기자 newmin@etnews.com