[이뉴스투데이 고선호 기자] 중국 인공지능(AI) 스타트업 ‘딥시크’가 공개한 AI 모델에 글로벌 시장이 요동치고 있다. 그간 시장을 점령해 온 오픈AI의 ‘챗GPT’보다 압도적으로 적은 비용과 저사양 그래픽처리장치(GPU)만으로도 높은 성능을 낼 수 있다는 사실에 업계가 충격에 휩싸였다.
일각에서는 딥시크 등장이 단순히 AI 모델의 다변화를 넘어 산업 생태계에 큰 변화를 가져올 수 있을 것이란 전망이 나오고 있다. 압도적인 효율성과 가성비에 시장 지형 전체에 영향을 미칠 수 있다는 것으로, 막대한 개발 비용이 소요되는 AI 스타트업이나 후발주자들에게 새로운 기회를 제공해줄 수 있는 단초를 마련했다는 평가마저 나온다.
정부와 국회도 상황을 예의주시 중이다. AI 산업 기반 육성 관련 정책을 강화하는 한편, 이에 수반되는 입법 활동에 속도를 내겠다는 의지를 표명했다.
국가 차원의 대대적인 지원 체계 구축은 물론, 인프라 확충을 위한 투자 계획 수립 등 다방면의 지원이 이뤄질 전망이다.
◇‘딥시크’가 뭐길래?
최근 공개된 중국 AI 딥시크 R1은 글로벌 1위 AI인 챗GPT에 비해 저렴한 비용에 뛰어난 성능을 자랑했다. 미국 수학경시대회인 ‘AIME 2024 벤치마크 테스트’에서는 79.8%의 정확도를 기록해 오픈AI의 ‘o1’(79.2%)을 능가하는 등 놀아움을 자아냈다.
딥시크 가장 놀라운 점은 막대한 ‘가성비’에 있다. 딥시크에 따르면 R1 개발에는 약 557만6000달러(한화 약 79억원)를 투입했다. 이는 메타가 AI모델 ‘라마3’에 쓴 비용의 10분의1 수준이다.
딥시크 측은 AI모델이 스스로 정답을 찾아가는 ‘그룹 상대정책 최적화’(GRPO) 학습방식과 특정작업시 문제해결에 필요한 부분만 AI를 활성화하는 ‘전문가 혼합’(MoE) 기법 등 효율성을 극대화하는 방식을 택해 비용을 줄였다고 설명한다. 주요 사용 칩은 엔비디아의 H800이고 추론 과정에서 중국 화웨이 칩도 사용했다고 밝혔다.
딥시크가 밝힌 개발비용에 대해서는 논란이 많지만, 엔비디아 H100 등 미국의 최첨단 AI 반도체를 사용하지 않고도 상대적으로 성능이 낮은 H800 칩으로 강력한 AI 모델을 개발해냈다는 것도 큰 이점으로 꼽힌다.
특히 AI 업계에서는 오픈소스로 공개된 딥시크 활용을 위한 다각적인 검토가 이뤄지고 있다. 통상적인 오픈소스 LLM의 경우 특화 AI 서비스를 개발하는 과정에서도 상당한 GPU 비용이 발생하기 때문에 딥시크가 오픈소스로 공개된 것 자체가 초기 개발 비용을 낮추고 현재와 유사한 수준의 모델을 개발할 수 있는 기회라는 분석이다.
딥시크는 AI 모델 사용료를 크게 낮추는 계기로도 작용하고 있다. 딥시크는 모델 사용료인 API 요금을 오픈AI, 구글, 메타 등과 비교해 최대 95% 낮게 책정하며 글로벌 AI 가격 전쟁을 촉발했다.
업계 관계자는 “딥시크를 통해 기존보다 저렴한 비용으로 LLM 개발 및 추론 능력을 갖춘 AI 모델을 만들 수 있을 것으로 기대된다”며 “초기 스타트업 입장에선 비용 부담을 줄이는 것만으로도 기술 개발 여건을 획기적으로 개선할 수 있는 요소이기 때문에 산업 전반에 이로운 영향을 보일 것으로 예상한다”고 말했다.
◇딥시크 ‘쇼크’에 韓도 출렁···정책·사업 ‘가속화’
딥시크가 낮은 사양의 AI 칩을 활용해 뛰어난 성능을 구현하면서 국내에서도 새로운 AI 모델 구축에 대한 기대감이 고조되고 있는 모습이다.
네이버에 대한 기대가 크다. 네이버는 '하이퍼클로바X'라는 자체 AI모델을 개발해 서비스를 선보인다. 올해 주요 서비스 전반에 AI를 적용하겠다는 '온 서비스 AI'를 내세웠다. 또 사우디아라비아 데이터인공지능청(SDAIA)과 AI분야 아랍어 기반 협력을 맺는 등 해외진출도 더 빨라질 것으로 보인다.
카카오는 자체 LLM(거대언어모델)을 개발하기보다 다른 AI모델을 차용해 개인 밀착형 에이전트 모델을 개발하는 모델 오케스트레이션 방식에 초점을 맞추겠다고 밝혀왔다. 게다가 4일 오픈AI와 손잡고 새로운 AI 서비스 '카나나'를 선보인다는 소식이 기대감을 더했다..
LG AI 연구원이 지난해 말 공개한 ‘엑사원 3.5’는 딥시크, 메타의 라마 시리즈와 마찬가지로 대중에 공개된 오픈소스 모델이다. A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있는 성능을 갖췄다. LG AI 연구원은 LLM에서 나아가 물리적 세계에서 실제 움직임까지 처리하는 거대행동모델(LAM) 개발에도 착수했다.
정부는 국내 AI 업계 지원을 위해 컴퓨팅 파워 확보가 가장 시급하다고 보고 오는 2030년까지 GPU 3만개를 구입하기로 했던 일정을 4년 정도 앞당겨 2026년 말이나 늦어도 2027년 초까지 모두 확보하기로 했다. 올해에만 1만5000개의 GPU를 확보하겠다는 계획이다.
유상임 과기정통부 장관은 지난 4일 정부서울청사에서 ‘2025년도 과기정통부 핵심과제 추진상황’ 대국민 보고를 위한 브리핑에서 이 같은 내용을 골자로 한 추진 계획을 발표했다.
유 장관은 “챗GPT의 진화와 딥시크 충격 이후 2030년가서 GPU 3만개를 확보해봐야 아무런 의미가 없다”며 “우선 광주 데이터센터 등에서 미리 쓸 수 있도록 일부를 선 구입한뒤 나중에 국가 차원에서 국가AI슈퍼컴퓨터 센터로 모으는 작업을 할 것이며, 올해 내 1만5000개를 모두 확보할 계획”이라고 말했다.
핵심 전략기술 신속 확보를 위한 집중 지원도 이뤄진다. 1조원 규모 과학기술혁신펀드 조성을 비롯해 올해 2500억원 이상으로 민간펀드를 조성, 12대 국가전략기술 혁신기업과 국가R&D 기술사업화 기업 등에 투자할 계획이다.
국회에서도 딥시크 충격 이후 반도체를 비롯한 첨단 산업에 대한 국가적 지원 필요성이 커지며 추가경정예산안에 AI 관련 예산을 늘리는 방안이 논의 중인 것으로 전해진다.
더불어민주당 과학기술혁신특별위원회는 4일 오전 서울 여의도 국회의원회관에서 ‘딥시크 쇼크 대응과 AI 발전 전략 긴급 간담회’를 열고 AI업계와 후속 대책을 논의했다.
이날 간담회에 참석한 하정우 네이버 퓨처AI 센터장은 “AI 인재를 양성하고 기술 스타트업이 역량을 개발하려면 엔비디아의 GPU로 실험하는 과정이 필요하다”며 “정부는 2030년까지 GPU 3만장 확보를 목표로 하지만 속도를 올리고 규모도 키울 필요가 있다”고 강조했다.
이날 간담회에 참석한 국회의원들도 AI 추경 확보에 의지를 드러냈다. 실제 추경 편성이 이뤄질 경우 올해 예산안 심사 당시 상임위원회를 통과한 증액사업이 기준이 될 것으로 예상된다.
Copyright ⓒ 이뉴스투데이 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.