UNIST "보이지 않는 부분까지 3D로 형상화…AI 모델 개발"

실시간 키워드

2022.08.01 00:00 기준

UNIST "보이지 않는 부분까지 3D로 형상화…AI 모델 개발"

연합뉴스 2025-06-09 14:59:46 신고

3줄요약

손·물체 가려져도 전체 형상 예측…"VR·AR 분야 활용"

연구 그림 연구 그림

'BIGS' 기법을 사용해 다양한 시점에서 손-물체 상호작용을 복원한 결과. [울산과학기술원 제공. 재판매 및 DB 금지]

(울산=연합뉴스) 김용태 기자 = 양손으로 어떤 물체를 다룰 때 보이지 않는 부분까지 3차원으로 나타내는 인공지능(AI) 기술을 울산과학기술원(UNIST) 연구진이 개발했다.

UNIST 인공지능대학원 백승렬 교수팀은 단일 RGB 영상만으로 양손과 처음 보는 기구의 복잡한 상호작용을 실시간 3D로 시각화할 수 있는 AI 모델 'BIGS'(Bimanual Interaction 3D Gaussian Splatting)를 개발했다고 9일 밝혔다.

AI는 카메라로 촬영된 2D 데이터만 입력받기 때문에 손과 물체의 실제 위치나 입체적인 형태를 파악하려면 3차원으로 전환하는 과정이 필요하다.

기존 기술은 한 손만 인식하거나 사전에 스캔 된 물체만 대응할 수 있었다.

이 때문에 가상현실(VR)이나 증강현실(AR) 기술에서 현실감 있는 상호작용 장면을 재현해내는 데 한계가 있었다.

연구팀이 개발한 모델은 손이 가려지거나 일부만 보이는 상황에서도 전체 형상을 안정적으로 예측할 수 있고, 처음 보는 물체도 학습된 시각 정보를 통해 보이지 않는 부분까지 자연스럽게 그려낼 수 있다.

깊이 센서나 여러 각도의 카메라 없이 단 한 대의 카메라로 찍은 단일 RGB 영상만으로 이 같은 복원이 가능해 현장에서 쉽게 적용할 수 있다고 연구팀은 설명했다.

이 모델은 사물의 형상을 퍼지는 점 구름 형태로 표현하는 방식인 3D 가우시안 스플래팅(Gaussian Splatting)을 기반으로 한다. 픽셀 단위로 경계가 뚜렷한 포인트 클라우드 방식과 달리 손과 물체가 만나는 접촉면 등을 더 자연스럽게 나타낼 수 있다.

손이 겹치거나 일부가 가려진 상황에서는 모든 손을 하나의 기준 손 구조에 맞춰 정렬하는 방식을 이용해 해결했다. 또 학습된 확산 모델을 활용한 점수 증류 방식을 적용해 영상에 보이지 않는 물체의 뒷면까지 복원한다.

국제 데이터 세트를 활용한 실험 결과 손의 자세, 물체의 형상, 두 손과 물체 간 접촉 정보 복원, 화면 재현 렌더링 품질 등에서 기존 기술보다 우수한 성능을 보인 것으로 나타났다.

연구진 모습 연구진 모습

UNIST 백승렬 교수(왼쪽)와 제1저자 온정완 연구원. [울산과학기술원 제공. 재판매 및 DB 금지]

백승렬 교수는 "이번 연구는 향후 VR, AR, 로봇 제어, 원격 수술 시뮬레이션 등 다양한 분야에서 실시간 상호작용 복원 기술로 활용될 것"이라고 말했다.

이런 연구 결과는 오는 11일부터 5일간 미국에서 열리는 컴퓨터 비전 분야 학회인 'CVPR 2025'에서 발표된다.

yongtae@yna.co.kr

Copyright ⓒ 연합뉴스 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기