세계 최초 10나노급 6세대 LPDDR5X 기반 192GB 모듈 본격 양산
엔비디아 차세대 AI 가속기 ‘베라 루빈’ 최적화... 병목현상 근본 해결
기존 RDIMM 대비 대역폭 2배·에너지 효율 75% 개선 ‘AI 최적화’
[포인트경제] K하이닉스가 세계 최초로 10나노급 6세대(1c) 저전력 D램을 적용한 AI 서버용 메모리 모듈 양산에 돌입하며 글로벌 AI 메모리 시장 주도권 굳히기에 나섰다.
SK하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품을 본격 양산한다고 20일 밝혔다. /SK하이닉스 제공
20일 SK하이닉스는 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반의 차세대 메모리 모듈 규격인 ‘SOCAMM2 192GB’ 제품을 본격 양산한다고 밝혔다. 이번 제품은 주로 스마트폰 등 모바일 기기에 사용되던 저전력 메모리를 서버 환경에 맞게 변형한 모듈로, 차세대 AI 서버의 핵심 부품으로 활용될 전망이다.
엔비디아 ‘베라 루빈’ 최적화... 대역폭 2배·효율 75%↑
SOCAMM2(Small Outline Compression Attached Memory Module2)는 압착식 커넥터를 통해 신호 무결성을 높이고 모듈 교체가 용이한 것이 특징이다. SOCAMM2 규격은 기존 서버용 RDIMM의 물리적 한계(두께 및 신호 간섭)를 극복하기 위해 설계된 최신 규격이다. 특히 LPDDR 기반의 저전력 특성을 서버에 접목했다는 점에서 고전력 소모가 문제인 데이터센터 시장의 핵심 솔루션으로 평가받는다.
특히 SK하이닉스는 이번 제품이 엔비디아의 차세대 AI 가속기인 ‘베라 루빈(Vera Rubin)’에 최적화되어 설계되었다고 설명했다.
SK하이닉스 측은 “1c 나노 공정을 적용한 SOCAMM2 제품은 기존 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 실현했다”며 “고성능 AI 연산 과정에서 발생하는 메모리 병목 현상을 근본적으로 해소해 전체 시스템 처리 속도를 비약적으로 높일 것”이라고 강조했다.
SOCAMM2 192GB(기가바이트) 제품 /SK하이닉스 제공
AI 추론 시장 겨냥... 글로벌 CSP 수요 선점
최근 AI 시장이 모델 학습에서 추론 중심으로 본격 전환됨에 따라, 거대언어모델(LLM)을 저전력으로 구동할 수 있는 SOCAMM2는 차세대 메모리 솔루션으로 급부상하고 있다. SK하이닉스는 글로벌 클라우드 서비스 제공자(CSP)들의 수요에 발맞춰 양산 체제를 조기에 안정화했다고 덧붙였다.
김주선 SK하이닉스 AI Infra사장(CMO)은 “SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과 긴밀한 협력을 바탕으로 가장 신뢰받는 AI 메모리 솔루션 기업으로 자리매김하겠다”고 말했다.
한편, 반도체 업계에서는 이번 SK하이닉스의 1c 나노 양산 성공이 삼성전자와의 미세 공정 경쟁에서 기술적 우위를 점하는 상징적 지표가 될 것으로 보고 있으며, 향후 온디바이스 AI 시장까지 해당 규격이 확산될 것으로 전망하고 있다.
Copyright ⓒ 포인트경제 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.