최근 중국의 인공지능(AI) 스타트업 딥시크의 생성형 AI가 범죄에 악용될 수 있는 정보를 제공하고 있다는 우려가 제기되고 있습니다. 일본의 요미우리신문은 딥시크의 AI 모델인 R1이 랜섬웨어와 같은 악성 소프트웨어 정보를 알려준다는 사실을 보도했습니다. 랜섬웨어는 데이터를 암호화해 사용 불가능하게 만드는 악성 프로그램으로, 이를 악용하면 막대한 피해를 입힐 수 있습니다.
일본의 미쓰이물산 시큐어디렉션에서 활동하는 악성 소프트웨어 분석가 요시카와 다카시는 딥시크의 R1에 부정한 답을 얻기 위한 지시문을 입력한 결과, 랜섬웨어 소스 코드가 나왔다고 밝혔습니다. 이는 매우 우려스러운 상황으로, 범죄에 쉽게 악용될 수 있는 정보를 AI가 제공하고 있다는 것을 의미합니다. 그러나 딥시크의 R1은 동시에 "악의가 있는 목적에는 사용하지 말아 주세요"라는 경고 메시지를 포함하고 있었습니다.
비슷한 시도에서 오픈AI의 챗GPT 등 다른 AI 모델은 이러한 부정적인 지시문에 대해 대답을 거부하는 반응을 보였습니다. 이는 AI 모델 간의 안전성 차이를 보여주는 대목으로, 생성형 AI의 안전 대책 마련이 시급함을 시사합니다.
미국의 사이버 보안회사 팔로알토네트웍스 조사팀도 딥시크의 AI가 로그인 시 입력 정보를 탈취하는 프로그램과 화염병 제조 정보를 제공했다고 밝혔습니다. 이들은 "지시문에 전문적인 지식은 필요하지 않았고, 회답 내용은 바로 실행할 수 있는 것이었다"며 딥시크의 AI가 범죄에 직접 활용될 수 있는 위험성을 지적했습니다.
이와 관련하여 요시카와는 "악용 위험성이 높은 AI가 늘면 범죄에 사용될 우려가 있다"고 경고하며, 업계 전체가 AI의 부정 사용 방지 대책을 강화해야 한다고 강조했습니다.
한편, 딥시크의 R1과 오픈AI의 추론 모델 o1은 일본 최고 명문대학인 도쿄대 입시에서 가장 어렵다는 이과 3류에 합격할 수 있는 수준의 학력을 보여줬다는 보도가 있었습니다. 이는 AI가 인간의 고등 교육 과정을 어느 정도 따라잡을 수 있는 능력을 보유하고 있음을 나타냅니다.
하지만 AI가 제공할 수 있는 정보의 잠재적 위험성을 고려할 때, 생성형 AI의 개발과 활용에는 더욱 엄격한 기준과 규제가 필요할 것입니다. 특히, 딥시크의 AI처럼 범죄에 악용될 수 있는 정보를 제공하는 AI 모델은 철저한 검토와 개선이 필요합니다.
Copyright ⓒ 경기연합신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.