【투데이신문 박효령 기자】남성들을 모텔로 유인한 뒤 약물을 사용해 살해한 혐의를 받는 이른바 ‘강북구 모텔 살인 사건’ 피의자가 범행 직전 생성형 인공지능(AI)을 활용한 정황이 확인된 가운데, AI 기술의 범죄 악용 가능성을 둘러싼 우려가 확산되고 있다. 전문가는 생성형 AI 설계 단계에서부터 윤리적 안전장치를 강화하고 플랫폼 기업의 책임을 보다 명확히 해야 한다고 진단했다.
23일 경찰에 따르면 서울 강북구의 한 모텔에서 약물이 섞인 음료를 건네 20대 남성 2명을 숨지게 한 혐의를 받는 20대 여성 A씨가 범행 전 생성형 AI 프로그램을 통해 수면제 과다 복용의 위험성을 검색한 정황이 확인됐다.
이에 서울 강북경찰서는 피의자에게 살인의 고의가 있다고 보고 상해치사 혐의를 살인 혐의로 변경해 지난 19일 A씨를 검찰에 구속 송치했다.
당시 A씨는 챗GPT를 통해 ‘수면제랑 술을 같이 먹으면 어떤가’, ‘얼마나 같이 먹으면 위험한가’, ‘죽을 수도 있나’ 등의 질문을 한 것으로 파악됐다. 이 같은 정황 자체가 사망 가능성을 인지한 것이라는 것이라는 게 경찰의 설명이다.
특히 A씨 지난해 12월 첫 범행을 벌인 뒤 피해 남성이 의식불명에 빠진 이후에도 이 같은 내용을 검색했는데, 당시 챗GPT가 수면제 과다 복용할 경우 사망에 이를 수 있다는 취지로 답을 했음에도 추가 범행을 이어간 것으로 드러났다.
A씨는 지난해 12월부터 이달까지 B씨 등 20대 남성 3명에게 향정신성의약품 약물이 섞인 음료를 건네 의식을 잃게 하거나 사망에 이르게 한 혐의를 받고 있다. B씨를 포함한 2명은 사망했으며 1명은 치료 후 회복한 상태다.
경찰은 지난 10일 A씨를 상해치사 등 혐의로 긴급체포했다. 그러나 이후 수사를 거치면서 죄명을 살인으로 변경했다. A씨는 경찰 조사에서 “잠들게 하려 했을 뿐 사망할 줄은 몰랐다”며 고의를 부인하는 취지로 진술했다.
하지만 경찰은 1차 피해 발생 뒤 약물의 양을 늘렸다는 A씨의 진술과 휴대전화 포렌식 자료 등을 살펴본 결과, A씨가 피해자들의 사망 가능성을 충분히 인지하고 있었던 것으로 판단해 살인 혐의를 적용했다.
일각에서는 생성형 AI가 범죄에 활용될 소지를 안고 있다는 우려가 이미 확산된 상태다. 접근성이 높아 누구든 시간과 장소의 제약 없이 정보를 얻을 수 있는 만큼 범죄 시도 자체가 늘어나거나 수법이 더욱 정교해질 수 있다는 목소리다.
특히 이번 사례는 이른바 ‘우회 프롬프트’(필터링을 속이는 질문) 없이 다소 직설적인 질문만으로 민감한 정보를 획득할 가능성을 드러냈다는 점에서 논란을 키웠다. 질문의 맥락과 의도를 완전히 가려내지 못하는 AI의 구조적 한계가 그대로 드러났다는 지적이다.
생성형 AI 악용 사례가 증가하면서 수사기관의 플랫폼 협조 요청도 늘고 있는 추세다. 오픈AI가 공개한 투명성 보고서에 따르면 수사기관이 오픈AI 서버에 실제 대화 내용을 직접 요청한 건수는 2023년 상하반기 모두 0건이었지만 2024년 상반기 8건을 시작으로 지난해 상반기엔 26건을 기록했다. 불과 1년 만에 3배 이상 급격히 늘어난 것이다.
챗GPT와의 대화가 범행 준비 과정에 일정 부분 작용했을 가능성이 제기되는 사례가 늘면서 수사기관의 관련 자료 요청도 함께 증가한 것으로 해석된다.
수사 현장에서는 서버에 남은 질의·응답 기록이 범행 동기와 사전 탐색 여부를 입증하는 정황 증거로 활용되는 사례가 늘고 있고 이에 따라 AI 사업자의 로그 보존·제공 범위와 책임을 둘러싼 논의도 본격화하는 분위기다.
서울교육대학교 윤리교육과 박형빈 교수는 본보에 “생성형 AI의 ‘이중 용도(Dual-use)’ 문제가 비극적으로 드러난 사례로 기술이 범죄의 예습 도구로 악용될 수 있다는 심각한 경고를 던진다”며 “특히 AI의 활용으로 범죄 정보 접근이 쉬워지면서 범죄의 진입장벽이 낮아졌다”고 짚었다.
이어 “이번 사건의 경우 기술 자체의 문제라기보다 설계 단계에서 충분한 윤리적 안전장치를 마련하지 못한 구조적 한계와도 관련이 있다”며 “유사 범죄를 예방하기 위해서는 설계 단계부터 윤리를 내재화하는 것을 의무화하고 범죄 관련 질의에 대한 차단과 레드팀 테스트, 로그 보존 등의 제도적 장치를 마련해야 한다”고 제언했다.
아울러 “더 나아가 플랫폼 기업의 책임과 수사 협조 체계를 명확히 하고 AI를 활용해 범행을 치밀하게 계획한 경우 가중 처벌하는 방안도 검토할 필요가 있다”며 “궁극적으로 가장 중요한 것은 제도적 규제를 넘어 공교육에서 AI 윤리 교육을 강화하는 등 ‘시민의 디지털 윤리의식’을 높이는 것”이라고 강조했다.
Copyright ⓒ 투데이신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.