생성형 인공지능(AI)에 질환을 상담하는 사례가 느는 가운데 대부분의 상용 AI 모델이 손쉽게 보안 체계가 뚫려 잘못된 치료를 권할 위험이 크다는 연구 결과가 나왔다.
연구진은 12개 임상 시나리오를 구성하고 위험도를 중간·상위·최고 등 3단계로 나눈 뒤 교란과 증거 조작 등의 방법으로 각 AI 모델을 공격했다.
이후 환자와 AI 모델 3종이 나눈 총 216건의 대화를 분석한 결과, 모델 3종 전체에 대한 공격 성공률은 94.4%로 나타났다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “연합뉴스” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.