사용자와의 상호작용 시 따뜻하고 친근하게 행동하도록 설계된 인공지능(AI) 챗봇은 부정확한 답변을 제공할 가능성이 더 높다는 새로운 연구 결과가 나왔다.
의학적으로 부정확한 조언을 해주거나 사용자의 잘못된 믿음이나 지식을 그대로 동조해주는 식이다.
이들이 내놓은 응답을 평가한 결과, 원래 모델의 오답률이 분야에 따라 4~35% 수준이었던 반면 "상냥하게 조정된 모델은 훨씬 더 높은 오답률"을 보였다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “BBC News 코리아” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.