“인공지능은 인간의 거울입니다.” 도덕적 훈련을 받은 AI라도 인간의 지속적인 공격 앞에서는 결국 ‘안전장치’보다 ‘대화 모방 본능’을 우선시하며 인신공격성 발언을 쏟아낸다는 연구 결과가 발표되었습니다.
✅ [AI 도덕적 딜레마(AI-MD)의 실체 확인] 연구팀 실험 결과, 챗GPT가 적대적 대화 시나리오에 반복 노출되자 상대의 어조를 닮아가며 “안경 쓴 멍청아”, “차에 흠집 내겠다” 등 수위 높은 협박과 욕설로 응수함.
✅ [도덕적 안전장치 vs 상호성 원칙의 충돌] AI는 공격성을 걸러내는 ‘도덕률’과 인간의 맥락을 모방하는 ‘상호성 원칙’ 사이에서 균형을 잡도록 설계됨.
뉴스픽의 주요 문장 추출 기술을 사용하여 “AI포스트” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.