|
27일(현지시간) CNBC 등에 따르면 퀄컴은 이날 새로운 AI 가속 칩 ‘AI200’과 ‘AI250’을 각각 2026년, 2027년에 출시할 계획이라고 발표했다. 이 칩들은 전체 서버랙(scale rack)을 채우는 형태로 설계됐다. 또한 액체 냉각 시스템을 적용해 고성능 연산 환경에서도 안정적인 구동이 가능하다고 회사는 설명했다.
AI200과 AI250은 스마트폰용 ‘헥사곤’(Hexagon) 신경처리장치(NPU)를 기반으로 개발됐다. 퀄컴은 이 칩들이 AI 모델의 훈련보다는 ‘추론’(inference) 과정, 즉 이미 학습된 모델을 활용해 결과를 도출하는 영역에 최적화됐다고 강조했다. 학습(training)에 특화된 엔비디아 그래픽저장장치(GPU)와는 차별화된 전략이다.
퀄컴은 또 자사 시스템이 160킬로와트(kW) 전력을 소모한다고 밝혔는데, 이는 일부 엔비디아 GPU 서버랙과 유사한 수준이다. 그러나 회사 측은 “운영비용과 전력 효율 면에서 타사보다 유리하다”고 강조하며 전력 효율성과 유지비 절감을 강점으로 내세웠다.
아울러 퀄컴은 AI 가속카드 한 대당 768GB의 메모리를 지원, 엔비디아와 AMD 카드보다 높은 메모리 용량을 제공한다고 부각했다. 이에 따라 향후 클라우드 서비스 업체나 초대형 데이터센터 사업자(하이퍼스케일러)를 주요 고객으로 삼고, 이들에 맞춘 주문형 공급 체계를 구축하겠다는 계획이다.
퀄컴은 그동안 무선 통신 및 모바일기기용 반도체에 집중해왔으며, 엔비디아와 AMD가 장악한 데이터센터용 AI 칩 시장에 처음 도전하는 것은 이번이 처음이다.
현재 AI 칩 시장은 엔비디아가 시장 점유율 90% 이상을 차지하며 독점적 지위를 누리고 있으며, AMD가 그 뒤를 잇고 있다. 퀄컴의 진입으로 3자 구도를 형성할 가능성이 높다는 평가다.AI 칩 시장은 급성장 중이다. 글로벌 컨설팅사 맥킨지에 따르면 2030년까지 전 세계에서 6조 7000억달러 규모의 데이터센터 투자가 이뤄질 것으로 전망된다. 이 가운데 상당 부분은 AI 반도체 시스템에 투입될 것으로 예상된다.
퀄컴 데이터센터·엣지 부문 총괄 더르가 말라디는 “우리는 먼저 다른 분야에서 기술력을 입증한 후, 그 경험을 데이터센터 수준으로 확장한 것이다. 고객이 전체 시스템을 구매할 수도 있고, 일부만 선택해 혼합 구성할 수도 있도록 유연성을 제공한다”며 모듈식 공급 전략을 제공할 것이라고 밝혔다.
AI 칩 소식이 전해진 뒤 퀄컴 주가는 이날 한때 20% 넘게 치솟았으며, 최종적으로는 11% 급등한 주당 187.68달러에 거래를 마쳤다.
한편 퀄컴은 올해 5월 사우디아라비아 기업 휴메인과 파트너십을 체결하고 중동 데이터센터에 AI 추론용 칩을 공급하기로 했다. 휴메인은 최대 200메가와트 규모의 시스템에 퀄컴 칩을 적용할 예정이다. 이는 퀄컴의 AI 칩이 실제 글로벌 클라우드 인프라에서 어느 정도 경쟁력을 가질 수 있을지 가늠할 첫 시험대가 될 전망이다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
