특히 딥페이크 등 AI 기반 성범죄는 대량 생성과 재유포가 용이해 피해가 반복·확산되는 만큼 기술 설계 단계부터 예방 중심으로 정책 패러다임을 전환해야 한다는 목소리가 커지고 있다.
|
한국여성정책연구원은 오는 16일 오후 2시 서울 본원 국제회의장에서 ‘AI 시대 디지털 젠더폭력 대응 정책의 전환 모색: 사후 조치에서 사전 예방으로’를 주제로 기념 세미나를 개최한다고 15일 밝혔다.
이번 세미나는 AI 기술 확산에 따른 디지털 성범죄의 변화 양상을 진단하고, 기술 설계 단계부터 성평등 관점을 반영한 대응 방안을 모색하기 위해 마련됐다.
세미나는 연구자 3인의 주제 발표와 전문가 토론으로 진행된다.
김애라 연구위원은 인공지능(AI)을 통해 성범죄 및 혐오 콘텐츠가 대량으로 생성·유포되고 있음에도 대응 체계는 여전히 삭제·차단 중심의 사후 조치에 머물러 있다고 지적했다.
특히 AI가 학습하는 언어 자체에 이미 젠더폭력적 표현이 포함돼 있음에도 이를 체계적으로 탐지·평가할 기준이 부족해, 기술 발전 속도를 정책이 따라가지 못하고 있다는 설명이다.
또한 현재 활용되는 AI 안전성 평가 기준과 데이터셋이 대부분 영어 기반이거나 일반적인 편향 탐지에 집중돼 있어, 한국어 맥락에서 발생하는 성적 괴롭힘이나 온라인 그루밍 등 젠더폭력 상황을 충분히 반영하지 못하고 있다고 짚었다.
김 연구위원은 AI 개발 단계부터 안전 설계를 의무화하고, 젠더폭력 방지 평가 기준과 한국어 기반 데이터셋을 구축해야 한다고 강조했다.
정연주 부연구위원은 아동·청소년 성착취물 확산 문제를 짚는다. 디지털 환경에서 미성년자가 성착취 위험에 지속적으로 노출돼 있으며, 해당 콘텐츠가 복제와 재유포를 통해 삭제 이후에도 계속 확산되는 구조적 특성을 지닌다는 게 발표 내용이다.
실제 조사에서도 미성년자의 26.7%가 온라인 대화 중 성적 내용을 경험했고 36.6%는 사진·영상 교환이나 화상통화 제안을 주고받은 경험이 있는 것으로 나타났다.
한민경 교수는 인공지능(AI) 기반 성범죄에 현행 법체계를 그대로 적용하는 데 한계가 있다고 지적했다. 현재 법률이 AI 활용 여부를 별도로 구분하지 않다 보니, 성적 수치심 판단이나 피해자 의사 반영, 전송 행위 해석 등을 둘러싸고 판례마다 기준이 달라지는 혼선이 발생하고 있다는 것이다.
특히 법원이 합성물의 ‘실제와의 유사성’을 기준으로 처벌 수위를 판단하는 경향이 있어 정교하지 않은 경우 처벌이 가벼워질 수 있다는 점도 문제로 꼽았다. 또한 ‘의사에 반하는 행위’ 여부를 따지는 과정에서 피해자 특정이나 의사 확인이 어려운 경우가 많아 AI 기반 범죄의 특성을 충분히 반영하지 못한다는 지적이다.
한 교수는 이러한 공백을 해소하기 위해 딥페이크 등 AI 기반 성범죄를 별도로 규율하는 법적 기준을 마련할 필요가 있다고 강조했다. 아울러 성적 인격권을 중심으로 한 규율 체계를 도입하고 전송 행위까지 처벌 범위에 포함하는 등 현실에 맞는 법 정비가 필요하다고 제언했다.
주제 발표 이후에는 김동식 젠더폭력연구본부장이 좌장을 맡고 관계 부처와 연구기관 전문가들이 참여하는 토론이 이어진다.
한편 연구원은 1983년 설립된 성평등·가족정책 전문 연구기관으로 관련 정책 개발과 연구를 통해 성평등 사회 실현을 위한 역할을 수행해왔다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
