|
2일(현지시간) 블룸버그통신에 따르면 딥시크는 최근 창업자인 량원펑이 공동 저자로 참여한 논문에서 ‘매니폴드 제약 초연결’(Manifold-Constrained Hyper-Connections)이라는 새로운 AI 훈련 프레임워크를 소개했다.
저자들은 이 방법이 첨단 AI 시스템을 학습시킬 때 연산량과 에너지 소모를 줄이면서도 확장성은 개선하도록 설계됐다고 설명했다. 즉 비용을 절감하면서도 안정성과 효율성은 대폭 높였다는 얘기다.
딥시크는 이번 논문을 오픈 저장소인 ‘아카이브’와 오픈소스 플랫폼 ‘허깅페이스’에 게재했다. 논문에는 량원펑 창업자를 포함해 19명의 저자가 이름을 올렸으며, 실험은 바이트댄스가 2024년에 발표한 초연결 아키텍처 연구를 토대로 30억~270억 파라미터(매개 변수) 규모 모델에서 진행됐다.
저자들은 논문에서 “새 기법은 기반 모델(foundational models)의 진화를 이끄는 데 기여할 수 있는 잠재력을 지닌다”고 평가하며 “경쟁사 대비 훨씬 적은 비용으로 개발된 중국의 저비용 모델들이 이미 관련 순위 상위 15위 안에 두 자리를 차지하고 있다”고 강조했다.
업계에서는 이번 논문이 조만간 출시될 딥시크의 차세대 플래그십 모델 등장을 알리는 신호탄으로 해석하고 있다. 그동안 주요 모델 출시를 앞두고 항상 논문을 먼저 공개해 왔기 때문이다. 이에 따라 올해 춘제(중국 설) 전후 공개가 예상되는 차세대 플래그십 ‘R2’에 대한 기대감이 커지고 있다.
중국 스타트업들은 미국의 수출통제로 초고성능 AI 개발·운영에 필수적인 엔비디아 최첨단 반도체 접근에 제약을 받고 있다. 이런 환경은 역설적으로 중국 연구자들로 하여금 기존과 다른 비(非)정통적 학습 방식과 독자적인 모델 구조를 모색하도록 압박하고 있다.
대표적인 결과물이 딥시크가 지난해 1월 선보인 추론 특화 모델 ‘RI’이다. 이 모델의 개발 비용은 오픈AI ‘GPT-4’의 18분의 1, 메타의 ‘라마3’의 10분의 1로 알려져 업계를 깜짝 놀라게 했다. 당시 딥시크의 행보는 업계에서 ‘혁신’이라며 높은 평가를 받았다.
로버트 리 블룸버그 인텔리전스의 애널리스트는 “향후 수개월 내 출시될 딥시크 차기 모델 R2는, 구글의 최근 약진에도 글로벌 AI 시장을 다시 한번 뒤흔들 잠재력이 있다”고 분석했다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
