딥페이크 기술로 자녀 얼굴을 복제해 합성한 영상을 이용, 부모에게 보이스피싱을 시도한 사례가 발생해 경찰이 주의를 당부했다.
범죄 조직은 자녀의 목소리를 복제한 뒤 부모에게 전화하여 마치 납치된 것처럼 흐느끼며 살려달라고 한다거나 급한 일이 있다면서 돈을 빌려달라는 목소리를 들려주는 방식으로 범행에 이용할 수도 있다.
경찰은 앞으로 AI 기술을 악용한 전화금융사기가 국내에서도 발생할 수 있으므로 피해 예방을 위해서는 딥페이크ㆍ딥보이스 기술이 범죄에 악용될 수 있음을 반드시 숙지하고 있어야 한다고 강조했다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “이데일리” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.