HPE가 AMD 헬리오스 AI 랙 스케일 아키텍처를 기반으로 한 통합 솔루션을 공개했다. 브로드컴 토마호크 6 칩과 HPE 주니퍼 네트워킹 스케일업 스위치를 결합해 표준 기반 이더넷 환경에서 AI 학습·추론 성능을 높이는 것이 핵심이다. 랙당 72개의 GPU와 260TB 대역폭, FP4 기준 2.9 엑사플롭스 구성이 가능하며 OCP 기반 설계와 수냉 인프라를 포함한다. CSP 고객의 대규모 모델 학습, 고성능 추론, AI 확장 과정의 배포 속도와 유연성을 높이도록 설계됐다.
HPE는 클라우드 서비스 제공업체의 대규모 AI 학습 및 추론 환경 구축을 지원하기 위해 AMD 헬리오스 AI 랙 스케일 아키텍처 기반 솔루션을 발표했다. 해당 솔루션은 브로드컴 토마호크 6 실리콘과 HPE 주니퍼 네트워킹 스위치를 통합한 스케일업 이더넷 구조를 채택해 UALoE 표준 기반의 높은 대역폭과 낮은 지연 특성을 제공한다. 이는 대규모 모델 학습, 고밀도 추론, 확장 과정에서 발생하는 트래픽 요구를 충족하도록 설계됐다.
HPE는 전력 공급, 직접 수냉 방식, 유지보수 접근성을 고려한 OCP 사양을 기반으로 헬리오스 아키텍처를 구성했다. 솔루션은 랙당 72개의 AMD 인스팅트 MI455X GPU를 연결하며 260TB의 통합 스케일업 대역폭, FP4 기준 2.9 엑사플롭스의 성능을 지원한다. 또한 4세대 고대역폭메모리 31TB와 초당 1.4페타바이트의 메모리 대역폭을 제공해 AI 및 HPC 워크로드 전반에서 높은 처리 효율을 확보한다.
HPE의 네트워킹 구성은 스케일업 스위치를 통해 기존 스케일아웃 및 스케일어크로스 제품군을 보완하며, AI 네이티브 자동화 기능을 통합해 운영 관리와 배포 시간을 줄인다. 오픈 랙 와이드 사양 기반 구조는 에너지 효율 개선과 유지보수 편의를 동시에 고려했다. 또한 AMD ROCm 소프트웨어, 펜산도 네트워킹 기술과의 결합을 통해 개방형 표준 중심의 AI 인프라 운영 모델을 강화하며 총소유비용 최적화를 지원한다.
브로드컴은 스케일업 스위치 개발에 협력해 고성능 이더넷 기반 AI 네트워킹 구현을 공동 추진하고 있다. 최신 AI 워크로드가 요구하는 확장성, 저지연, 무손실 네트워킹 지원을 목표로 하며, 벤더 종속성을 줄이고 기능 업데이트 주기를 단축할 수 있는 구조를 제공한다.
HPE는 헬리오스 랙 스케일 아키텍처를 2026년부터 단계적으로 공급할 계획이다. 솔루션은 AI 데이터센터의 배포 속도 향상, 확장성 강화, 위험 부담 완화 등을 목표로 클라우드 서비스 환경에서의 AI 인프라 구축 전략을 지원한다.
By 기사제보 및 정정요청 = PRESS@weeklypost.kr
〈저작권자ⓒ 위클리포스트, 무단전재 및 재배포 Ai 학습 포함 금지〉
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요