[이뉴스투데이 김진영 기자] 삼성전자가 인공지능(AI) 반도체 핵심 부품인 고대역폭메모리(HBM)의 성능을 한 단계 더 끌어올리는 차세대 기술 로드맵을 공개했다. 기존 HBM4를 넘어, 메모리를 GPU 위에 직접 쌓는 ‘zHBM’ 구상을 공식화하며 차기 AI 메모리 주도권 경쟁에 다시 시동을 걸었다.
송재혁 삼성전자 디바이스솔루션(DS)부문 최고기술책임자(CTO) 사장은 11일 서울 코엑스에서 열린 세미콘 코리아 2026 기조연설에서 “HBM 자체를 Z축 방향으로 올리는 zHBM 기술을 개발할 계획”이라며 “최신 HBM4 대비 대역폭과 전력 효율을 최대 4배까지 높일 수 있을 것으로 보고 있다”고 밝혔다.
현재 HBM은 GPU 옆에 나란히 배치해 베이스 다이를 통해 연결하는 구조다. 반면 zHBM은 GPU 위에 HBM을 다시 적층하는 방식으로, 인터레이어를 통해 상·하단 칩이 직접 데이터를 주고받는다. AI 연산 병목으로 지적돼 온 메모리 대역폭 한계를 구조적으로 해소하겠다는 접근이다. 삼성전자는 최근 해당 기술을 특허청에 상표 출원했으며, 이날 행사에서 관련 전략을 공식 발표했다.
HBM은 여러 개의 D램을 수직으로 쌓은 고집적 메모리로, AI 가속기의 연산 성능을 좌우하는 핵심 부품이다. 특히 엔비디아 GPU처럼 대규모 병렬 연산을 수행하는 칩에서는 기존 D램으로는 데이터 처리 속도를 따라가기 어려워 HBM 수요가 급증하고 있다.
삼성전자는 엔비디아가 다음 달 공개할 차세대 GPU ‘베라 루빈’에 탑재될 6세대 HBM4를 이달 양산 출하할 예정이다. 경쟁사인 SK하이닉스 역시 같은 시장을 놓고 정면 승부에 나선 상태다.
송 사장은 기조연설에 앞서 기자들과 만나 HBM4 고객 반응에 대해 “아주 만족스러워한다”며 “기술적으로는 최고 수준”이라고 말했다. 그는 “메모리·파운드리·첨단 패키징을 모두 갖춘 삼성의 구조가 지금 AI 시장이 요구하는 제품을 만드는 데 가장 좋은 환경”이라며 “그동안 잠시 보여주지 못했던 삼성의 기술력을 다시 증명하는 과정”이라고 강조했다.
고객 맞춤형 HBM 전략도 병행한다. 송 사장은 ‘삼성 커스텀 HBM(cHBM)’ 개발 사실을 공개하며 “주요 고객사들과 이미 소통 중”이라고 언급했다. cHBM은 GPU나 AI 가속기 구조에 맞춰 HBM을 설계하는 방식으로, 맞춤형 반도체(ASIC) 흐름에 대응하기 위한 전략이다.
엔비디아 GPU뿐 아니라 구글 TPU, 마이크로소프트 ‘마이아’ 등 빅테크들이 자체 AI 칩 개발에 나서면서, 메모리 역시 고객별 최적화가 필요해졌다는 판단이다. 삼성전자는 이를 통해 AI 반도체별로 2~3배 수준의 성능 개선 효과를 기대하고 있다.
기존 HBM4 역시 전작 HBM3e 대비 속도는 1~2배, 대역폭은 2배 이상, 전력 효율도 약 2배 개선된 것으로 알려졌다. 업계에 따르면 삼성전자와 SK하이닉스의 HBM4는 초당 11.7기가비트(Gb) 수준의 동작 속도로, 엔비디아 요구치(11Gbps)를 웃도는 성능을 구현했다.
송 사장은 향후 수급 전망에 대해 “과거 PC나 모바일과는 전혀 다른 패턴”이라며 “올해와 내년까지 AI 메모리 수요는 강한 흐름이 이어질 가능성이 크다”고 내다봤다. 그는 또 “HBM4E, HBM5 등 차세대 제품도 이미 준비 중”이라며 “지금의 기술 선택이 향후 시장 구도를 좌우할 것”이라고 덧붙였다.
삼성전자는 zHBM과 cHBM을 축으로 하이브리드 본딩, 신소재 산화물 반도체 등 차세대 공정 기술까지 결합해 AI 메모리 경쟁력을 재정비한다는 전략이다. AI 반도체 시장이 단순 성능 경쟁을 넘어 시스템 구조 혁신 단계로 접어든 가운데, 메모리를 중심으로 한 ‘수직 통합형 AI 아키텍처’가 차기 승부처로 부상하고 있다는 평가가 나온다.
Copyright ⓒ 이뉴스투데이 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.