[엠투데이 이세민 기자] 마이크로소프트가 데이터센터 내에서 사용 중인 AMD 및 엔비디아칩을 자사 개발 칩으로 단계적으로 대체할 계획을 공식화했다.
이 조치는 클라우드 인프라의 핵심 부품을 외부 공급망에 의존하지 않고, 자체 최적화된 실리콘(SoC)으로 전환하려는 전략의 일환이다.
마이크로소프트 최고기술책임자(CTO) 케빈 스콧(Kevin Scott)은 CNBC와의 인터뷰에서 “장기적으로 당사 데이터센터는 대부분 마이크로소프트 실리콘으로 운영될 것”이라며, “투입 비용 대비 성능이 핵심 기준이 될 것”이라고 밝혔다.
현재까지는 엔비디아가 최고의 가격 대비 성능을 제공하고 있지만, 마이크로소프트는 시스템 설계 자유도 확보를 위해 칩, 네트워크, 냉각 시스템 등 인프라 전체를 직접 통제하려는 방향으로 나아가고 있다.
마이크로소프트는 2023년 첫 AI 가속기 ‘Maia 100’을 공개하며 맞춤형 반도체 시장에 진입했다.
Maia 100은 약 800테라플롭스(TFLOPS)의 연산 성능과 64GB HBM2e 메모리를 갖추고 있으며, OpenAI의 GPT-3.5 모델 일부를 구동하는 데 사용됐다.
다만 성능 면에서는 여전히 엔비디아 H100·AMD MI300 등 상위급 GPU에 미치지 못했으며, 마이크로소프트 역시 이를 과도기적 단계로 평가하고 있다.
현재 마이크로소프트는 차세대 칩 ‘Maia 200’ 개발에 돌입했으며, 2026년 상용화를 목표로 한다.
이번 세대는 전작 대비 연산 성능, 메모리 대역폭, 연결 속도 모두 대폭 개선될 전망이다. 내부 관계자에 따르면, 자사 AI 모델과 Azure 클라우드 서비스에 최적화된 아키텍처가 적용될 예정이다.
하지만 업계에서는 “단기간에 엔비디아 GPU를 완전히 대체하긴 어려울 것”이라는 시각이 우세하다.
구글·아마존 등 경쟁사들도 자체칩과 엔비디아 병행 전략을 택하고 있다. 구글은 TPU(텐서 프로세싱 유닛), 아마존은 Inferentia·Trainium 등 자체 칩을 운영하지만, 여전히 엔비디아 GPU를 병행 사용하고 있다.
특히 외부 클라우드 고객들은 특정 플랫폼에 종속되지 않기 위해, 여전히 범용 GPU 환경을 선호하는 경향이 강하다.
전문가들은 이번 행보를 단순한 비용 절감이 아닌, AI 인프라 주도권 확보를 위한 전략으로 해석하고 있다.
마이크로소프트는 자사 AI 서비스를 직접 운영 중이기 때문에, 데이터 처리 구조를 칩 수준에서 제어해야 효율성을 극대화할 수 있기 때문이다.
반도체 업계 관계자는 “MS의 Maia 프로젝트는 결국 AI 운영 체계의 완전한 내재화를 위한 첫 단계”라며 “AI 생태계의 핵심 경쟁 구도는 이제 칩·데이터센터·모델 통합 최적화 능력으로 이동하고 있다”고 분석했다
Copyright ⓒ M투데이 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.