|
채현일 더불어민주당 의원실과 시민단체 피해자통합지원사회적협동조합은 31일 오후 서울 영등포구 국회의원회관에서 ‘딥페이크 AI 성범죄 실태와 정책개선 방안 토론회’를 열었다.
이날 발표된 중앙디지털성범죄피해자지원센터 자료에 따르면 딥페이크 범죄 피해자는 갈수록 늘고, 연령대도 점차 낮아지고 있다. 특히 10대와 20대에서 증가가 두드러졌다. 2023년 10대와 20대 피해자 수는 각 2199명, 4517명이었지만 지난해 2863명, 5242명으로 늘었다.
첫 토론자로 나선 홍세은 한국형사법무정책연구원(연구원) 부연구위원은 딥페이크 성범죄 피해자들이 제대로 된 대처를 받지 못하고 있다고 지적했다. 홍 위원은 “(피해자들은) 형사사법 제도에 대한 신뢰가 낮다는 의견이 많다”며 “수사 과정에서도 경찰의 소극적 태도가 아쉬웠다거나 추가 피해를 막기 위한 대응도 부족하다는 의견이 많았다”고 말했다.
실제 연구원이 2025년 디지털 성범죄 피해자 329명을 대상으로 설문한 결과 범죄 예방을 위해 가장 필요한 것으로 △가해자 엄중처벌 △국가적 차원의 관심 △온라인 플랫폼 책임성, 역할 강화 등이 꼽혔다.
문제는 이 같은 상황에도 해결을 위한 법적 장치는 따라가지 못한다는 점이다. 디지털 성범죄의 큰 특징 중 하나는 유포인데, 주로 제작물이 퍼지는 해외 플랫폼이나 다크웹 규제 장치가 없다는 것이다. 입법 방향을 발표한 신인경 경찰대 치안정책연구소 연구관은 ‘플랫폼 협력 부족’을 현행 체계 한계로 꼽으며 “해외에서는 AI에 관한 다수 규제법안이 발의되고 있다”고 말했다.
현재 AI 부작용 규제 논의가 가장 활발한 EU는 2024년부터 발효된 DSA(Digital Services Act)으로 플랫폼에 불법 콘텐츠를 빨리 제거하는 의무를 부과하고 있다. 2026년부터 발효 예정인 AI 법(Act)으로는 플랫폼과 서비스 제공자의 책임을 강하게 물을 수 있을 것으로 보인다. 중국 역시 2023년부터 ‘딥합성 관리 규정’을 통해 모든 합성 콘텐츠에 워터마크 표시를 의무화하고 있다. 미국에서도 2023년 연방의회에 ‘딥페이크 책임법’이 발의돼 있다.
신 연구관은 강력한 처벌과 수사 대응력, 플랫폼 사업자에 대한 규제를 제언했다. 그는 “강력하고 실효적인 처벌 규정을 강화해 단순 시청행위도 범죄로 포함해야 한다”고 강조했다. 이용걸 한신대 AI·소프트웨어대학 교수도 “플랫폼 사업자 탐지, 삭제, 차단 의무 강화와 매출 연동형 벌금을 도입하고 AI 업계 자율점검제 법제화라는 세 가지 축을 기반으로 (입법이) 발전해야 한다”며 “해외 플랫폼에 대한 제재는 법적으로 가능하고 국제 협력 조항을 활용하면 실질적 집행도 확보할 수 있다”고 설명했다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
