구글이 카메라와 음성을 활용한 실시간 대화형 검색 기능 ‘서치 라이브(Search Live)’를 한국을 포함한 전 세계에 확대 도입했다. 텍스트 입력 중심이었던 기존 검색 방식에서 벗어나, 시각과 음성을 동시에 활용하는 인터페이스로 전환을 시도하는 모습이다.
서치 라이브는 최신 AI 모델인 ‘제미나이 3.1 플래시 라이브(Gemini 3.1 Flash Live)’를 기반으로 작동한다. 이용자는 스마트폰 카메라로 주변 상황을 비추고 음성으로 질문을 던지면, AI가 이를 이해하고 실시간으로 답변을 제공한다. 기능은 구글 앱의 ‘AI 모드’가 지원되는 200개 이상의 국가 및 지역에서 사용할 수 있다.
이번 기능의 핵심은 자연스러운 대화 흐름이다. 제미나이 3.1 플래시 라이브는 음성과 오디오 중심의 인터랙션에 최적화된 모델로, 실제 대화와 유사한 방식의 응답을 제공하는 데 초점이 맞춰졌다.
다국어 처리 능력도 강조됐다. 한국어를 포함해 다양한 언어를 별도 설정 없이 사용할 수 있어, 글로벌 이용자 접근성을 높였다는 평가가 나온다.
사용 방식도 간단하다. 안드로이드와 iOS 구글 앱에서 검색창 하단의 ‘Live’ 아이콘을 누르면 바로 대화가 시작된다. 음성으로 질문을 던지면 AI가 오디오 형태로 응답하고, 후속 질문을 이어가는 구조다.
답변과 함께 제공되는 웹 링크를 통해 추가 정보를 확인할 수 있으며, Google Lens 사용 중에도 ‘Live’ 기능으로 자연스럽게 전환할 수 있다. 검색과 시각 인식 기능이 하나로 통합되는 방향이다.
서치 라이브는 단순 질의응답을 넘어, 눈앞의 상황을 인식하는 데 초점을 맞췄다. 카메라로 사물이나 환경을 비추면 AI가 해당 장면을 분석하고 맥락에 맞는 답변을 제공한다.
예를 들어 식물 상태를 확인하거나 전자기기 연결 문제를 해결하는 과정에서, 사용자는 별도의 검색어 입력 없이 바로 해결 방법을 안내받을 수 있다. 여행 중 주변 정보 탐색, 취미 활동 안내, 학습 보조 등 다양한 활용 시나리오도 제시됐다.
구글은 서치 라이브를 통해 검색을 일상 전반으로 확장하겠다는 구상을 내놨다. 집 안에서의 문제 해결부터 외부 활동, 학습, 모임 준비까지 다양한 상황에서 활용할 수 있다는 점을 강조했다.
특히 음성과 영상 기반 인터페이스는 스마트폰 사용 환경에서 직관성을 높이는 요소로 평가된다. 키보드 입력이 불편한 상황에서 대안으로 기능할 수 있기 때문이다.
다만 기술 확장과 함께 해결해야 할 과제도 존재한다. 카메라 기반 인식은 환경에 따라 정확도가 달라질 수 있으며, 실시간 데이터 처리 과정에서 개인정보 보호 문제도 제기될 수 있다.
또한 음성·영상 기반 검색이 기존 텍스트 검색을 완전히 대체하기보다는 보완하는 형태로 자리 잡을 가능성이 크다는 분석도 나온다. 상황별로 적합한 검색 방식이 다르기 때문이다.
서치 라이브는 검색을 ‘입력’ 중심에서 ‘상호작용’ 중심으로 전환하려는 시도로 읽힌다. 텍스트, 음성, 이미지가 결합된 멀티모달 AI가 검색 경험을 어떻게 바꿀지 관심이 모인다.
Copyright ⓒ 스타트업엔 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.