"100만자 길이 문맥 기억…연산·메모리 비용 크게 줄여"
엔비디아 대신 화웨이와 협력…미중 'AI 갈등' 중심에
(서울=연합뉴스) 차병섭 기자 = 중국 스타트업 딥시크가 '가성비' 오픈소스 인공지능(AI) 모델로 시장에 충격을 준 지 1년여 만에 AI 신모델을 선보였다.
딥시크는 24일(현지시간) 소셜미디어를 통해 "완전히 새로운 시리즈의 모델 '딥시크-V4' 프리뷰 버전을 정식 발표한다"면서 V4 플래시와 V4 프로 시리즈를 공개했다.
V4 모델은 100만자 정도 긴 문맥을 기억할 뿐만 아니라 에이전트 능력과 전반적 지식, 추론 능력 등에서 중국 국내 및 오픈소스 영역의 선두에 있다는 게 딥시크 설명이다.
딥시크는 V4 프로에 대해 "정상급 폐쇄형 소스(closed-source) 모델과 비견할만한 성능"이라면서 에이전트 능력이 오픈소스 모델 중 최고 수준이라고 밝혔다.
이어 전반적 지식 측면에서는 최고의 폐쇄형 소스 모델인 '제미나이 프로 3.1'에만 약간 못 미치고, 추론 능력도 세계 정상급 폐쇄형 소스 모델과 비견할만하다고 말했다.
V4 플래시에 대해서는 "더 민첩하고 효율이 높은 경제적 선택"이라면서 V4 프로와 비교해 전반적 지식은 부족하지만 추론 능력은 근접했다고 설명했다.
딥시크는 V4는 긴 대화 전반에 걸쳐 질문을 기억할 수 있으며, 전체 코드나 긴 문서를 한 번에 프롬프트에 입력할 수 있도록 100만 토큰 규모의 '문맥 창'을 도입했다고 전했다.
또 "'100만(자) 문맥'이 이제 딥시크의 모든 공식 서비스에 기본(으로 제공된다)"이라며 "컴퓨팅·메모리 비용은 크게 줄었다"고 말하기도 했다.
기술분야 리서치업체 아이미디어(iiMedia) 창업자 장이는 AFP통신 인터뷰에서 "문맥이 길어지면 성능이 느려지고 비용이 더 드는 오래된 문제에 대처한 것"이라면서 "업계에 진정한 변곡점"이라고 분석했다.
이어 매우 긴 문맥을 지원하는 게 표준이 되면 소비자들에게 이득이 될 것이라고 덧붙였다.
로이터통신은 딥시크 측이 훈련에 사용한 칩을 공개하지 않았다면서도, 딥시크의 기존 모델이 엔비디아 칩에 의존했던 것과 달리 이번에는 중국 업체인 화웨이와 긴밀하게 협력했으며 이는 중국의 산업 역량을 보여준다고 평가했다.
딥시크는 컴퓨팅(연산) 자원 부족 때문에 V4 프로 시리즈의 서비스 능력이 매우 제한적이라면서도, 올해 하반기에 화웨이의 어센드 950 칩으로 구동되는 컴퓨팅 클러스터가 출시되면 이를 통해 해당 모델 가격이 크게 떨어질 수 있다고 예상했다.
다만 블룸버그통신은 딥시크가 오픈AI·앤스로픽 등 다른 AI 모델의 답변을 데이터로 활용해 새 모델을 훈련하는 '증류'를 했을 가능성이 있고, 대중국 수출이 금지된 엔비디아 첨단 칩을 썼다는 추정도 나오고 있다고 전했다.
딥시크의 이번 발표는 미국이 중국의 AI 기술 탈취 문제를 공개적으로 제기한 데 이어 이뤄졌으며, 딥시크가 미중 AI 갈등의 한가운데에 있다는 관측도 나온다.
딥시크는 지난해 1월 '가성비' 오픈소스 AI 모델 R1을 출시, 한때 자본력을 앞세운 미국 빅테크의 독무대가 될 것으로 여겨졌던 AI 산업의 판도를 바꾼 업체다.
딥시크의 흥행 이후 한때 AI 거품이 꺼질 수 있다는 우려와 함께 미국 기술주 주가가 큰 폭으로 떨어졌고, '딥시크 모멘트'라는 말이 등장하기도 했다.
bscha@yna.co.kr
Copyright ⓒ 연합뉴스 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.