KAIST 제공 인공지능(AI) 기술이 기존 대형언어모델(LLM) 기반 챗봇 수준을 넘어 자율성과 능동성을 겸비한 LLM 에이전트로까지 발전한 가운데 악용 시엔 개인정보 수집과 피싱 공격에 활용될 수 있다는 사실이 실험으로 규명됐다.
KAIST는 전기및전자공학부 신승원 교수와 김재철 AI대학원 이기민 교수 공동연구팀이 실제 환경에서 LLM과 LLM 에이전트가 사이버 공격에 악용될 가능성을 실험적으로 규명했다고 25일 밝혔다.
제1저자인 김한나 연구원(박사과정)은 "LLM에게 주어지는 능력이 많아질수록 사이버 공격의 위험이 기하급수적으로 커진다는 것이 확인됐다"며 "LLM 에이전트의 능력을 고려한 확장 가능한 보안 장치가 필요하다"고 말했다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “중도일보” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.