생성형 AI 서비스가 일상화되고 있지만, 이용자 보호 측면에서는 심각한 허점이 드러났다. 방송통신위원회가 실시한 최근 조사에서 주요 AI 서비스 제공업체들의 안전장치가 크게 미흡한 것으로 확인됐다.
국회 과방위 이해민 의원(조국혁신당)이 공개한 자료에 따르면, 방통위가 지난해 3월부터 7월까지 9개 생성형 AI 사업자를 대상으로 실시한 조사에서 충격적인 결과가 나왔다. 조사 대상 기업 중 과반수가 기본적인 이용자 보호 장치조차 갖추지 않은 것으로 밝혀진 것이다.
특히 우려되는 점은 미성년자 보호 체계의 부재다. 5개 업체는 유해 콘텐츠 신고 절차조차 마련하지 않았으며, 3개 업체는 유해 정보에 대한 필터링 시스템도 구축하지 않은 것으로 드러났다. 더욱이 6개 업체는 매크로 등 비정상적 사용에 대한 탐지 시스템도 없었다.
조사는 서비스 현황, 편향성, 투명성, 책임성, 이용자 피해구제, 윤리 의식 등 6개 분야 25개 항목에 걸쳐 진행됐다. 일부 우수 기업이 24개 항목을 충족한 반면, 5개 업체는 전체 항목의 절반도 달성하지 못했다. 특히 AI의 허위정보 생성 가능성 고지나 딥페이크 오남용 방지 대책 등에서 심각한 결함이 발견됐다.
이해민 의원은 "생성형 AI 서비스의 대중화에 비해 이용자 보호 기준이 전무한 상황"이라며 방통위의 신속한 가이드라인 수립을 촉구했다.
Copyright ⓒ 모두서치 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.