최태원 SK그룹 회장이 SK하이닉스-엔비디아-TSMC로 이어지는 인공지능(AI) 삼각 동맹의 중요성을 재차 강조했다. SK하이닉스는 이날 16단 HBM3E(5세대 고대역폭 메모리) D램 개발 소식을 알리며 '전 세계 1위 AI 메모리 기업'이라는 입지 굳히기에 나섰다.
SK그룹은 4일 서울 강남구 코엑스에서 연례개발자행사 'SK AI서밋 2024'를 개최했다. SK AI서밋은 SK그룹 내부 잔치였던 'SK 테크서밋'을 외부에 공개한 행사로 빅테크로 도약하고자 하는 SK그룹의 AI 기술과 미래 비전을 소개하는 자리다. 올해 오프라인 3만5000명, 온라인 1만7000명이 참가하며 일약 SK그룹 최대 행사로 떠올랐다.
◆AI 상용화 벽 높아...BM·GPU·전력 문제 해결해야
최 회장은 이번 행사에 키노트 연사로 올라와 SK그룹이 정유·통신·반도체에서 AI 기업으로 도약하고 있다고 강조했다. 그는 “AI 산업은 아직 초기 단계인 만큼 발전을 위해서는 (기업 간) 지속적인 협력이 필요하다”며 “많은 사람이 같이 고민해서 난제를 넘어야 하고 AI로 인한 변화를 긍정적으로 받아들일 수 있도록 (기업과 사회 구성원 모두) 노력할 필요성이 있다”고 말했다.
최 회장은 AI 산업이 발전하려면 여러 가지 병목(보틀넥) 현상을 우선 해결해야 한다고 강조했다.
가장 큰 병목 현상은 기업이 AI로 어떤 사업모델(BM)을 만들 수 있을지 명확하지 않은 점이다. 최 회장은 "마이크로소프트의 AI 비서 '코파일럿'이 사업모델을 만든 대표적인 사례이지만 시장에선 아직 만족하지 못하고 있는 것 같다"며 "SK그룹은 글로벌 통신사외 협력해 기업용 텔코 LLM(초거대언어모델)과 개인화된 AI 비서 에이닷을 만들며 사업모델 구축을 위한 다양한 실험을 하고 있다"고 밝혔다.
두 번째 병목 현상으로는 AI 가속기(GPU)를 꼽았다. AI 학습·추론을 위해 막대한 연산 능력이 필요해짐에 따라 GPU 공급이 수요를 따라가지 못하는 현상이 생겼다는 게 최 회장의 분석이다. 해당 시장은 엔비디아가 꽉 잡고 있는 만큼 SK그룹은 HBM 등을 공급하며 엔비디아와 지속해서 협력함으로써 AI 가속기 시장에서 지분을 확대할 방침이다.
또 엔비디아뿐만 아니라 파운드리(위탁생산) 1위 업체인 대만 TSMC와 협력도 강화한다. 최 회장은 "SK그룹과 엔비디아, TSMC는 상호협력해서 AI 컴퓨팅 산업 발전을 위한 칩을 함께 만들 것"이라고 말했다.
최 회장은 모리스 창 TSMC 창업자 겸 전 회장과 일화도 소개했다. 그는 "하이닉스 인수 때 창 회장에게 많은 조언을 들었다"며 "창 회장은 '반도체는 미래가 밝은 사업인 만큼 SK가 이걸 하는 걸 기쁘게 생각하며 사업 파트너가 될 수 있을 것으로 기대된다'고 말했다"고 술회했다.
최 회장은 이외에도 AI 데이터센터 운영을 위해 막대한 전력이 필요한 것에 관한 해법으로 △저전력 반도체칩 △유리기판 △액침냉각 △차세대 LNG발전과 탄소포집 △소형모듈형원전(SMR) 등을 꼽았다. 특히 새 에너지원 확보가 중요하다고 판단하고 빌 게이츠 마이크로소프트 창업자가 이사로 있는 미국 SMR 업체 '테라파워'에 투자를 단행하기도 했다.
◆16단 HBM 세계 최초 공개...'하이브리드 본딩' 아직 일러
이어 곽노정 SK하이닉스 대표가 8단, 12단 적층에 이어 16단 HBM3E(5세대 고대역폭 메모리) D램 양산을 위한 준비를 마치고 내년 초 엔비디아 등 고객사에 샘플칩을 전달할 계획이라고 밝혔다.
곽 대표는 "데이터를 기록하고 남기는 것은 인간의 본능이고 그만큼 데이터 폭증 시대에 메모리 역할이 중요해지고 있다"며 "기존 메모리는 과거부터 현재까지를 기록하는 데 집중한 반면 미래 메모리는 AI 추론 등을 통해 인류에 새로운 경험과 미래를 선물하게 될 것"이라고 말했다.
그러면서 AI 시대를 대비하기 위한 SK하이닉스의 차세대 메모리 제품군 소개를 이어갔다.
곽 대표는 먼저 16단 HBM4(6세대) D램 개발에 앞서 16단 적층에 관한 양산 기술과 노하우를 확보하기 위해 칩당 용량이 48GB(기가바이트)에 달하는 16단 HBM3E를 개발해 내년 초 고객에게 샘플 칩을 전달하겠다고 전했다.
SK하이닉스는 16단 칩 적층에 양산 능력이 검증된 첨단 MR-MUF(보충재 충전) 공정을 활용하기로 했다. 이와 함께 백업 공정으로서 칩과 칩을 바로 결합하는 하이브리드 본딩 기술 개발도 이어가겠다고 밝혔다.
곽 대표는 "내부 분석결과 16단 HBM3E는 12단 제품보다 AI 학습 속도는 18%, 추론 속도는 32% 더 빠른 것으로 조사됐다"며 "향후 추론용 AI 가속기(GPU) 시장이 커질 것으로 예측되는 만큼 16단 제품은 세계 1위 AI 메모리 기업이라는 SK하이닉스의 위상을 더욱 공고히 해줄 것으로 기대된다"고 설명했다.
향후 AI 메모리 시장은 고객이 원하는 용량과 대역폭, 부가기능 등을 갖춘 커스텀 HBM이 새로운 패러다임으로 떠오를 것이라는 게 곽 대표의 예측이다.
그러면서 "이에 대비하기 위해 HBM4부터 D램 칩을 제어하는 베이스 다이에 로직 공정을 도입할 예정"이라며 "이를 위해 글로벌 1위 파운드리(위탁생산) 업체인 TSMC의 원팀 파트너십을 한층 강화할 것"이라고 덧붙였다.
Copyright ⓒ 아주경제 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.