메타, 음성기능 강화 ‘라마4’ 공개… GPT-4o 능가 자신

실시간 키워드

2022.08.01 00:00 기준

메타, 음성기능 강화 ‘라마4’ 공개… GPT-4o 능가 자신

이데일리 2025-04-06 13:57:09 신고

3줄요약
[이데일리 김현아 기자] 메타(Meta)가 5일(현지시간) 차세대 멀티모달 오픈소스 모델 ‘라마 4(LLaMA 4)’ 제품군을 전격 공개하며, 생성형 AI 시장의 지형을 흔들고 있다. 특히 음성 기능을 전면에 내세우며 GPT-4o, 제미나이 등 최첨단 모델을 넘어설 수 있다는 자신감을 드러냈다.

이번에 발표된 라마 4는 △스카우트(Scout)△매버릭(Maverick) △베히모스(Behemoth) 세 가지로 구성된다.

이 중 스카우트와 매버릭은 라마닷컴과 오픈소스 플랫폼인 허깅페이스에서 오픈소스로 즉시 이용 가능하며, 메신저·왓츠앱·인스타그램 등 메타의 주요 플랫폼에도 적용됐다.

메타 라마4 이미지. 출처=챗GPT 4o


음성 중심의 멀티모달 AI, 전례 없는 확장성

라마 4의 핵심은 텍스트 기반 인터페이스를 넘어선 ‘음성 중심 멀티모달 구조’다. 기존의 음성 입력-텍스트 변환이 아닌, 음성을 본질적 작동 기반으로 채택했으며, 컨텍스트 창 크기는 무려 1000만 토큰으로 확장돼 업계 최대 수준을 기록했다. 이는 구글 제미나이 2.0의 200만 토큰보다 5배 크다.

또한 메타는 딥시크 모델을 분석해 ‘전문가 혼합(Mixture of Experts, MoE)’ 아키텍처를 적용했다. 이를 통해 높은 성능과 효율을 동시에 구현했고, 멀티모달 기능까지 통합하며 딥시크와의 차별성을 확보했다.

AI 에이전트 시대, 음성 중심 UX로 가속

메타는 라마 4를 통해 단순 텍스트 기반을 넘어 대화형 AI 에이전트로의 진화를 강조한다. 증강현실(AR)스마트 안경 등 웨어러블 디바이스와 결합할 수 있는 음성 인터페이스는 개인 맞춤형 AI 비서의 현실화를 예고한다.

메타는 “사람들은 이제 인간처럼 반응하는 AI를 원한다”며, “라마 4는 AI 민주화의 선두에 설 가장 진보된 멀티모달 오픈소스 모델”이라고 밝혔다.

이어 “라마 4는 단일 모델이 아닌 전체 생태계 통합의 핵심 구성 요소”라며, 음성 에이전트 기능 등 추가 전략이 29일 열리는 ‘라마콘(LlamaCon)’에서 공개될 가능성도 시사했다.

Copyright ⓒ 이데일리 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기