메타가 MTIA(Meta Training and Inference Accelerator) 로드맵을 공개했다.
메타는 훈련과 생성형 AI 인퍼런스를 분리해 칩을 나눴고, 뒤로 갈수록 인퍼런스 비중을 키우는 모습이다.
HBM은 216GB 용량에 6.12TB/s 대역폭이다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “위클리 포스트” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.