KAIST, 원거리 AI 기술 개발···벽 너머·최대 6m 거리 핵심 정보 파악

실시간 키워드

2022.08.01 00:00 기준

KAIST, 원거리 AI 기술 개발···벽 너머·최대 6m 거리 핵심 정보 파악

이뉴스투데이 2026-03-31 11:00:55 신고

3줄요약
AI 생성 이미지. [사진=KAIST] 

[이뉴스투데이 백연식 기자] KAIST·국제 연구진이 벽 너머에서 AI의 ‘설계도’를 훔쳐볼 수 있는 새로운 보안 위협을 밝혀냈다. 대응 기술도 함께 제시했다. 

KAIST는 한준 전산학부 교수 연구팀이 싱가포르국립대(NUS), 중국 저장대(Zhejiang University)와의 공동 연구를 통해 소형 안테나만으로 원거리에서 인공지능(AI) 모델 구조를 탈취할 수 있는 공격 시스템 ‘모델스파이(ModelSpy)’를 개발했다고 31일 밝혔다.

이 기술은 마치 도청 장치처럼 인공지능이 작동할 때 발생하는 미세한 신호를 포착해 내부 구조를 분석하는 방식이다. 연구팀은 인공지능 연산을 담당하는 그래픽 처리 장치(GPU)에서 발생하는 전자기파에 주목했다.

AI가 복잡한 연산을 수행할 때 GPU에서는 미세한 전자기 신호가 발생하는데, 연구팀은 이 신호의 패턴을 분석해 모델의 층 구성과 세부 설정값을 복원하는 데 성공했다.

실험 결과, 최신 GPU 5종을 대상으로 벽 너머나 최대 6m 거리에서도 인공지능 모델 구조를 높은 정확도로 파악할 수 있었다. 특히 딥러닝 모델의 핵심 구조인 레이어를 최대 97.6%의 정확도로 추정했다.

이번 기술은 기존 해킹처럼 서버에 직접 침투하거나 악성코드를 설치할 필요 없이, 가방에 넣을 수 있는 소형 안테나만으로도 공격이 가능하다는 점에서 큰 보안 위협으로 평가된다.

연구팀은 이러한 기술이 악용될 경우 기업의 핵심 AI 자산이 외부로 유출될 수 있다고 보고, 전자기파 교란이나 연산 난독화 등 대응 기술도 함께 제시했다. 단순한 공격 시연을 넘어 현실적인 방어 방안을 제안했다는 점에서 책임 있는 보안 연구 사례로 평가된다.

한 교수는 “이번 연구는 AI 시스템이 물리적 환경에서도 새로운 공격에 노출될 수 있음을 입증한 사례”라며 “자율주행이나 국가 기반 시설과 같은 중요한 AI 인프라를 보호하기 위해 하드웨어와 소프트웨어를 아우르는 ‘사이버-물리 보안’ 체계 구축이 중요하다”고 말했다.

Copyright ⓒ 이뉴스투데이 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기