마이크론이 AI 인프라 확산으로 메모리와 스토리지 수요가 장기적으로 증가할 것이라는 전망을 내놨다. 회사는 DRAM, NAND, HBM 전반에서 수요가 빠르게 늘고 있으며, 공급 부족이 실적 개선과 가격 상승을 동시에 이끌고 있다고 설명했다.
Micron says AI remains in its early stage as DRAM, NAND, and HBM demand tightens, with AI-related memory and storage demand expected to exceed 50% of industry TAM this year.
산제이 메흐로트라 마이크론 회장 겸 CEO는 AI 산업이 아직 초기 단계에 있으며, AI 모델의 성능을 온전히 구현하려면 더 많은 메모리와 더 빠른 메모리가 필요하다고 밝혔다. 특히 추론 워크로드가 확대되면서 토큰 생성 속도와 처리량을 높이기 위한 고성능 메모리 수요가 커지고 있다.
AI 인프라에서 메모리는 핵심 자산으로 부상하고 있다. AI GPU는 HBM을 필요로 하고, AI CPU와 서버 플랫폼은 대용량 DRAM을 요구한다. 생성형 AI와 에이전트형 AI 워크로드가 늘면서 시스템당 메모리 탑재량도 증가하는 추세다.
공급은 수요를 따라가지 못하고 있다. 메모리 생산능력은 단기간에 크게 늘리기 어렵고, HBM과 고성능 DRAM, NAND 수요가 동시에 확대되면서 시장 전반의 공급 압박이 심화되고 있다. 마이크론은 이러한 수급 환경이 2분기 실적 개선으로 이어졌으며, 3분기에도 강한 실적 흐름을 예상한다고 밝혔다.
AI 관련 DRAM과 NAND 수요는 올해 전체 산업 시장 규모의 50%를 넘어설 것으로 전망된다. 전통적인 서버 수요와 AI 서버 수요가 모두 견조하지만, DRAM과 NAND 공급 제약이 성장을 제한하는 요인으로 작용하고 있다.
HBM 시장에서는 차세대 플랫폼 대응이 본격화되고 있다. 마이크론은 엔비디아 Vera Rubin 플랫폼용 12단 36GB HBM4 공급을 준비하고 있으며, 기존 HBM3 공정의 수율 안정화도 추진하고 있다. 차세대 HBM4E는 내년 램프업을 목표로 개발 중이다.
LPDDR도 AI 시대의 주요 메모리로 주목받고 있다. 전력 효율이 높아 대규모 AI 시스템과 고밀도 컴퓨팅 환경에 적합하기 때문이다. 마이크론은 LPDDR5X 기반 256GB SOCAMM2 메모리를 공개했으며, 최대 2TB 용량 구성을 지원한다고 설명했다.
소비자 시장에는 부담이 커질 전망이다. 공급 제약과 가격 상승으로 PC와 모바일 출하량은 낮은 두 자릿수 감소가 예상된다. 로컬 환경에서 에이전트형 AI 워크로드를 실행하는 PC에서는 32GB 메모리 구성이 주요 선택지로 자리 잡고 있다.
마이크론의 전망은 AI 수요가 메모리 산업의 구조를 바꾸고 있음을 보여준다. 고대역폭, 고용량, 저전력 메모리의 중요성이 커지는 가운데, 공급 부족과 가격 상승은 서버 시장뿐 아니라 PC와 모바일 등 소비자 제품군에도 영향을 미칠 것으로 보인다.