이번 분석은 비영리 연구기관 에포크AI(Epoch AI) 보고서를 기반으로 한다. 에포크AI는 각 기업의 GPU·TPU·자체 AI 칩 보유량을 직접 집계하지 않고, 반도체 공급량, 데이터센터 규모, 전력 사용량, 클라우드 구조 등을 종합해 AI 연산 능력을 ‘H100 환산 기준’으로 추정하는 방식을 사용한다.
|
H100 환산은 다양한 AI 칩 성능을 엔비디아의 고성능 GPU인 H100 기준으로 통일해 비교하는 방식이다. 이를 통해 서로 다른 칩 구조를 하나의 기준으로 환산해 기업 간 연산 능력을 비교할 수 있도록 한다.
보고서에 따르면 구글은 2025년 4분기 기준 전 세계 AI 컴퓨팅 용량의 약 4분의 1 수준을 차지할 것으로 추정됐다. 총 연산 능력은 약 520만 대의 H100 GPU에 해당하는 수준으로 분석됐으며, 이 가운데 상당 부분은 자체 개발 AI 칩인 TPU(Tensor Processing Unit)에서 비롯된 것으로 나타났다.
구글은 수년간 딥마인드와 협력해 TPU를 개발해 왔으며, AI 학습과 추론을 자체 칩 중심으로 처리하는 전략을 강화하고 있다. 업계에서는 이 구조가 엔비디아 GPU 의존도를 낮추고 장기적으로 비용 효율성을 높이는 핵심 요소로 평가된다.
반면 마이크로소프트는 대부분의 AI 연산 자원을 엔비디아 GPU에 의존하고 있으며, 메타와 아마존 역시 GPU와 일부 자체 칩을 혼합하는 구조를 유지하고 있는 것으로 분석됐다.
다만 업계에서는 이번 결과가 “실제 보유량 공개 데이터가 아닌 추정 모델 기반”이라는 점을 강조하며 해석에 신중해야 한다는 의견도 나온다.
주요 빅테크 기업들은 데이터센터 내부의 GPU·TPU 보유량을 공개하지 않고 있어, 에포크AI의 분석은 간접 지표를 기반으로 한 통계 모델이라는 한계가 존재한다.
|
한편 구글은 최근 ‘구글 클라우드 넥스트(Google Cloud Next)’ 행사에서 TPU 8세대 칩을 공개하며 AI 인프라 경쟁력을 강조했다. 회사 측은 “칩·데이터센터·AI 모델을 통합한 풀스택 전략이 핵심 경쟁력”이라고 설명했다.
업계에서는 AI 컴퓨팅 경쟁이 단순한 GPU 확보 경쟁을 넘어 자체 칩 설계, 데이터센터 운영, 전력 효율 경쟁으로 확대되고 있다고 보고 있다.
이에 따라 이번 분석 역시 “순위 확정”이라기보다 “AI 인프라 경쟁 구도를 보여주는 참고 지표”로 해석해야 한다는 평가가 나온다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

