국내 AI·클라우드 소프트웨어 기업 오케스트로가 국산 AI 반도체 생태계 확대를 위한 대형 연구개발(R&D) 사업에 착수한다. 엔비디아 GPU 중심 구조에 대한 대안 확보 필요성이 커지는 가운데, 국산 NPU(신경망처리장치)와 PIM(프로세싱인메모리)을 활용할 수 있는 클라우드 운영 체계 구축이 핵심 과제로 떠오르고 있다.
오케스트로는 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 ‘AI 반도체 특화 클라우드 네이티브 SW 스택 및 모델 허브 기술 개발’ 과제의 주관기관으로 선정됐다고 8일 밝혔다.
사업 규모는 총 112억5000만원이다. 연구 기간은 2026년부터 2029년까지 4년간이다. 정부는 이번 사업을 통해 국산 AI 반도체가 실제 클라우드 환경에서 안정적으로 작동할 수 있는 운영 기반을 마련하고, AI 인프라 자립도를 높인다는 계획이다.
현재 글로벌 AI 시장은 엔비디아 GPU 중심으로 재편돼 있다. 대규모 AI 학습과 추론에 필요한 연산 자원이 GPU에 집중되면서 비용 부담과 공급망 리스크가 동시에 커지고 있다. 국내에서도 AI 반도체 국산화 필요성이 꾸준히 제기돼 왔지만, 실제 서비스 환경에서 활용 가능한 소프트웨어 생태계는 아직 초기 단계라는 평가가 많다.
오케스트로는 이번 과제를 통해 AI 반도체 전용 클라우드 네이티브 소프트웨어 스택을 개발한다. 주요 개발 분야는 컨테이너 런타임 인터페이스(CRI) 호환 기술, 가속기 자원 직접 접근을 지원하는 패스스루(Pass-through) 기술, 마이크로서비스 아키텍처(MSA) 프레임워크 등이다.
핵심 목표는 GPU 중심 인프라 구조를 넘어 국산 NPU와 차세대 AI 가속기를 유연하게 운영할 수 있는 표준 체계를 구축하는 데 있다. AI 워크로드에 따라 자원을 효율적으로 배분하고, 다양한 AI 반도체를 하나의 클라우드 환경에서 활용할 수 있도록 지원하겠다는 구상이다.
함께 추진되는 ‘AI 모델 허브’ 구축도 눈길을 끈다. 오케스트로는 학습·추론 모델을 쉽게 등록·배포할 수 있는 플랫폼을 개발하고, 과제 종료 시점까지 1000개 이상의 최적화 모델 확보를 목표로 제시했다.
모델 컨테이너화 자동화 기술과 메타데이터 관리 체계를 적용해 국내 기업들이 국산 AI 반도체 기반 서비스를 보다 빠르게 상용화할 수 있도록 지원한다는 방침이다.
최근 빠르게 성장 중인 초거대 언어모델(LLM) 분야 실증도 포함된다. 국산 AI 반도체 기반 환경에서 실제 생성형 AI 서비스를 운영할 수 있는지 검증하고, 중소·벤처기업이 고가 외산 GPU 의존도를 줄일 수 있도록 지원할 계획이다.
이번 사업은 정부의 K-클라우드 프로젝트 및 국가 AI 컴퓨팅 인프라 구축 정책과도 연결된다. 향후 실제 데이터센터 운영 환경에 기술을 적용해 대규모 AI 서비스 안정성과 운영 효율성을 검증할 예정이다.
오케스트로는 커널 레벨 정밀 모니터링과 분산 추적 기술을 결합해 AI 워크로드 예측 정확도를 글로벌 최고 수준인 99%까지 높인다는 목표도 제시했다.
다만 업계에서는 국산 AI 반도체 시장 확대를 위해서는 하드웨어 경쟁력뿐 아니라 개발자 생태계와 소프트웨어 호환성 확보가 함께 이뤄져야 한다는 지적도 나온다. 글로벌 AI 생태계 상당수가 CUDA 기반 GPU 환경에 맞춰져 있는 만큼, 실제 산업 현장에서 대체 가능한 수준의 개발 편의성과 성능을 확보하는 것이 관건이라는 분석이다.
김범재 오케스트로 대표는 “이번 과제는 국산 AI 반도체 경쟁력 확보에 필요한 핵심 소프트웨어 기반을 마련하는 데 의미가 있다”며 “하드웨어와 소프트웨어가 긴밀하게 연결되는 AI 컴퓨팅 환경을 구축해 국내 AI 인프라 자립도 향상에 기여하겠다”고 말했다.
Copyright ⓒ 스타트업엔 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.