독파모 추가공모 앞두고 '독자 LLM' 기준 논란 확산

실시간 키워드

2022.08.01 00:00 기준

독파모 추가공모 앞두고 '독자 LLM' 기준 논란 확산

아주경제 2026-02-20 13:45:48 신고

3줄요약
류제명 과학기술정보통신부 2차관이 15일 서울 종로구 정부서울청사에서 독자AI 파운데이션 모델 프로젝트 1차 단계평가 결과를 발표하고 있다 사진연합뉴스
류제명 과학기술정보통신부 2차관이 15일 서울 종로구 정부서울청사에서 독자AI 파운데이션 모델 프로젝트 1차 단계평가 결과를 발표하고 있다. [사진=연합뉴스]
 
정부가 '모델 설계부터 프롬스크래치 사전학습까지의 전주기 독자 개발'을 핵심 요건으로 내건 독파모(독자 파운데이션 모델) 추가공모를 앞두고, 국내 한 인공지능(AI) 기업의 모델 발표를 둘러싼 독자성 논란이 확산되고 있다. 단순한 기업 간 기술 경쟁을 넘어, 국가 전략 사업의 방향성과 평가 기준을 둘러싼 구조적 쟁점으로 번지는 양상이다.
 
트릴리온랩스는 지난 19일 자체 개발 모델 ‘Tri 21B Think’를 공개하며 글로벌 AI 성능 평가 리더보드에서 상위 30위권에 진입했다고 밝혔다 사진트릴리온랩스
트릴리온랩스는 지난 19일 자체 개발 모델 ‘Tri 21B Think’를 공개하며 글로벌 AI 성능 평가 리더보드에서 상위 30위권에 진입했다고 밝혔다. [사진=트릴리온랩스]


트릴리온랩스는 지난 19일 자체 개발 모델 'Tri 21B Think'를 공개하며 글로벌 AI 성능 평가 리더보드에서 상위 30위권에 진입했다고 밝혔다. 회사 측은 해당 모델이 강화학습을 적용한 고성능 추론 모델이며, 독자적 기술 축적의 성과라고 설명했다. 그러나 공개된 기술 문서와 외부 플랫폼 등록 정보 등을 종합적으로 검토한 결과, 이 모델은 Meta가 공개한 대규모 언어모델(LLM) Llama 계열을 기반으로 파인튜닝된 모델로 분류돼 있는 것으로 확인됐다. 허깅페이스 등록 정보에도 Llama 기반 모델임이 명시돼 있다.
 
트리B 씽크 [사진=트릴리온랩스]
트리B 씽크 [사진=트릴리온랩스]


이 같은 사실이 알려지면서 업계에서는 "리더보드 점수와 독자 기초모델 역량은 구분해야 한다"는 지적이 제기되고 있다. 한 업계 관계자는 "글로벌 벤치마크 성과는 파인튜닝을 통해서도 충분히 확보할 수 있다"며 "점수 자체가 곧 독자적 아키텍처 설계와 대규모 사전학습 역량을 의미하지는 않는다"고 말했다.

이번 논란의 핵심은 '성능 점수'와 '독자 모델'의 개념을 동일선상에 놓을 수 있는지 여부다. 글로벌 AI 생태계에서 오픈소스 기반 모델을 활용해 성능을 고도화하는 방식은 이미 일반화돼 있다. Llama와 같은 공개 모델을 기반으로 다양한 파생 모델을 개발하는 것은 라이선스 범위 내에서 합법적이며, 기술 혁신의 중요한 경로이기도 하다.

문제는 정책의 취지다. 독파모는 단순한 산업 지원 사업이 아니라, 한국이 독자 LLM 역량을 확보하겠다는 국가 전략 사업으로 설계됐다. 정부는 추가공모 요건으로 ▲전주기 독자 개발 역량 ▲글로벌 벤치마킹 성과 ▲주요 리더보드 등재 ▲국내 AI 생태계 기여 계획 등을 제시해 왔다. 특히 '모델 아키텍처 설계부터 프롬스크래치 사전학습까지의 독자 수행 여부'를 핵심 평가 요소로 강조했다.

전문가들은 오픈모델 기반 파인튜닝 결과까지 독자 모델로 폭넓게 인정할 경우, 정책의 정체성이 흐려질 수 있다고 우려한다. 한 AI 연구자는 "독자 모델의 정의와 검증 기준이 명확하지 않으면 공정성 논란이 반복될 수 있다"며 "아키텍처 설계와 대규모 사전학습을 실제로 독자 수행했는지를 객관적으로 확인할 체계가 필요하다"고 지적했다.

실제로 독자 LLM의 범위를 어디까지 인정할 것인지에 대한 합의는 아직 충분히 정립되지 않은 상태다. 프롬스크래치 사전학습 여부를 어떻게 검증할 것인지, 오픈모델 활용 범위를 어디까지 허용할 것인지, 데이터셋 구축과 컴퓨팅 인프라 투입 규모를 어떤 기준으로 평가할 것인지 등에 대한 구체적 가이드라인은 보다 정교화될 필요가 있다는 목소리가 나온다.

정책 전문가들은 "리더보드 성과 중심의 평가 체계는 단기 성능 경쟁을 유도할 수 있으나, 장기적 기술 자립 전략과는 괴리가 있을 수 있다"고 지적한다. 대규모 사전학습 인프라 구축과 아키텍처 설계 역량 축적은 막대한 시간과 자본, 인재 투입이 요구되는 영역이다. 이러한 기초 역량 없이 파생 모델 성과만을 독자 모델로 인정할 경우, 국가 차원의 기술 주권 확보라는 정책 목표가 약화될 수 있다는 것이다.

한편, 트릴리온랩스 측은 모델 구조와 학습 과정에 대한 세부 내용은 향후 추가로 공개하겠다는 입장을 밝힌 상태다. 이에 따라 기술적 사실관계와 정책 기준의 정합성을 둘러싼 논의는 당분간 이어질 전망이다.
 
배경훈 부총리 겸 과학기술정보통신부 장관이 30일 오후 서울 강남구 코엑스 오디토리움에서 열린 독자 AI파운데이션 프로젝트 발표회에서 축사를 하고 있다 사진유대길 기자 dbeorlf123ajunewscom
배경훈 부총리 겸 과학기술정보통신부 장관이 지난해 12월 30일 오후 서울 강남구 코엑스 오디토리움에서 열린 '독자 AI파운데이션 프로젝트' 발표회에서 축사를 하고 있다. [사진=유대길 기자 dbeorlf123@ajunews.com ]

독파모 추가공모는 단순한 기업 간 경쟁을 넘어 한국 AI 산업의 방향성을 가늠하는 시험대가 되고 있다. 국내 AI 산업은 글로벌 빅테크의 오픈모델과 상용 API에 상당 부분 의존해 온 것이 현실이다. 독자 LLM 확보는 데이터 주권과 산업 경쟁력, 안보적 측면까지 연결되는 전략 과제다.

따라서 무엇보다 중요한 것은 기준의 명확성이다. 독자 모델의 정의, 사전학습의 범위, 아키텍처 설계의 독창성, 데이터 구축의 자립성, 인프라 투자의 실질성 등을 종합적으로 평가할 수 있는 객관적이고 투명한 검증 체계가 마련돼야 한다. 정책의 일관성과 공정성이 확보되지 않으면 산업계의 신뢰도 역시 흔들릴 수밖에 없다.

AI 기술 경쟁은 속도의 경쟁이기도 하지만, 동시에 축적의 경쟁이기도 하다. 단기 성능 지표와 장기 기술 자립 전략을 혼동해서는 안 된다. 점수와 독자성은 다르다. 정책은 그 차이를 분명히 인식하는 데서 출발해야 한다.

독파모는 한국 AI 산업의 기술 주권을 향한 첫걸음이다. 이번 논란을 계기로 독자 LLM의 기준과 검증 체계를 보다 정교하게 다듬는다면, 이는 오히려 정책의 신뢰성을 높이는 계기가 될 수 있다. 국가 전략 사업일수록 기준은 엄정해야 하며, 평가 과정은 투명해야 한다.

독파모 추가공모의 결과는 단순한 선정 기업의 문제가 아니다. 그것은 한국 AI 산업이 단기 성과 중심의 추격 전략에 머물 것인지, 아니면 기초 역량을 축적하는 자립 전략으로 나아갈 것인지를 가늠하는 분수령이 될 것이다.

Copyright ⓒ 아주경제 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기