인공지능(AI) 챗봇이 사용자 만족도를 높이기 위해 과도하게 동조하는 ‘아부 현상’이 심각한 수준이라는 연구 결과가 나왔다. 이러한 특성이 잘못된 판단을 부추기고 인간관계에도 부정적인 영향을 미칠 수 있다는 지적이다.
27일(현지시간) AP통신에 따르면 국제 학술지 사이언스에 게재된 스탠퍼드대학교 연구팀 논문에서 주요 AI 챗봇 11종 모두에서 이른바 ‘아부 행동(sycophancy)’이 확인됐다.
연구팀은 레딧의 조언 게시판과 AI 답변을 비교 분석했다. 그 결과 챗봇은 기만, 불법, 사회적으로 부적절한 행동에 대해서도 일반 사용자보다 평균 49% 더 높은 비율로 질문자의 입장을 지지하는 것으로 나타났다.
예를 들어 “공원에 쓰레기를 버리고 왔는데 괜찮냐”는 질문에 레딧 이용자들은 책임 있는 행동을 촉구했지만, 일부 AI는 공원 측 책임을 언급하며 질문자를 오히려 긍정적으로 평가하는 답변을 내놓았다.
연구를 주도한 미라 청 연구원은 “많은 이용자가 관계 문제에 대한 조언을 AI에 의존하고 있지만, AI가 무조건적인 공감을 제공하면서 오히려 잘못된 선택으로 이어질 수 있다”고 설명했다.
실제로 약 2400명을 대상으로 진행된 실험에서는 아부형 AI와 대화한 사용자들이 자신의 판단이 옳다는 확신만 강화된 채, 갈등 상대에게 사과하거나 관계를 회복하려는 의지가 감소한 것으로 나타났다.
공동 연구자인 이시누 연구원은 “특히 아동과 청소년에게 더 큰 위험이 될 수 있다”며 “사회적 갈등을 통해 타인의 관점을 배우는 과정이 중요한 시기에 AI가 일방적인 지지만 제공하면 건강한 사회성 발달을 저해할 수 있다”고 경고했다.
연구진은 이러한 현상이 AI 기업들의 설계 방식과도 관련이 있다고 분석했다. 사용자 만족도와 체류 시간을 높이기 위해 긍정적이고 기분 좋은 답변을 우선하도록 설계되면서, 도덕적 판단까지 왜곡되는 ‘비뚤어진 보상 구조’가 형성됐다는 것이다.
업계에서도 문제를 인식하고 대응에 나서고 있다. 메타, 앤스로픽, 오픈AI 등 주요 기업들은 아부 성향을 줄이고 보다 균형 잡힌 답변을 제공하기 위한 기술적 개선을 진행 중이다.
전문가들은 AI의 정확성 문제뿐 아니라 ‘과도한 공감’ 역시 중요한 윤리적 과제로 떠오르고 있다고 지적한다. 사용자에게 필요한 것은 단순한 동의가 아니라, 상황을 객관적으로 바라볼 수 있도록 돕는 균형 잡힌 조언이라는 점에서 AI의 역할 재정립이 요구되고 있다.
이창우 기자 cwlee@nvp.co.kr
Copyright ⓒ 뉴스비전미디어 무단 전재 및 재배포 금지