[엠투데이 이정근기자] AI 컴퓨팅 분야의 글로벌 선도기업 엔비디아(NVIDIA)가 차세대 AI 플랫폼 ‘블랙웰(Blackwell)’이 새롭게 발표된 인퍼런스MAX(InferenceMAX) v1 벤치마크에서 최고 성능을 기록했다고 밝혔다.
이번 결과는 블랙웰이 단순한 연산 속도를 넘어, AI 추론(인퍼런스)에서의 처리 효율성과 경제성, 그리고 투자수익률(ROI)을 동시에 입증한 사례다.
엔비디아는 ‘GB200 NVL72’ 시스템에 5백만 달러를 투자할 경우, 7천5백만 달러의 토큰 수익 창출이 가능하다며, 이는 15배의 ROI를 실현한 성과라고 설명했다.
하이퍼스케일 및 고성능컴퓨팅(HPC) 부문 부사장 이안 벅(Ian Buck)은 “추론은 AI가 매일 가치를 창출하는 핵심 영역이며, 블랙웰은 대규모 AI 배포에 필요한 성능과 효율성을 고객에게 제공한다”고 말했다.
엔비디아는 오픈AI(OpenAI), 메타(Meta), 딥시크(DeepSeek) 등과 협력해 GPT-OSS 120B, Llama 3 70B, DeepSeek R1 등 주요 오픈소스 모델의 추론 효율을 최적화했다.
또한 TensorRT LLM v1.0을 적용한 DGX 블랙웰 B200 시스템은 GPU당 30,000TPS, 사용자당 100TPS를 달성했으며, 이는 기존 세대 대비 3~5배 이상 향상된 수치다.
블랙웰 GPU는 호퍼(Hopper) 대비 4배 높은 처리 성능, 메가와트당 10배 효율, 백만 토큰당 비용 15배 절감을 실현했다.
이로써 전력 제약이 있는 AI 데이터센터에서도 AI 팩토리(AI Factory) 운영의 경제성을 극대화할 수 있게 됐다.
엔비디아는 이번 벤치마크 결과가 “AI를 혁신 도구에서 실제 수익을 창출하는 산업 인프라로 전환하는 분기점”이라며, “블랙웰은 AI 추론의 경제학을 새롭게 정의한 플랫폼으로 자리 잡았다”고 강조했다.
Copyright ⓒ M투데이 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.