최근 오픈AI의 최신 GPT 모델에서 환각(Hallucination)이라 불리는 오류 현상이 이전보다 더 자주 발생하고 있다는 보고가 나왔다.
오픈AI 내부 테스트 결과에 따르면, 최신 모델인 GPT-o3는 공인 인물 관련 질문의 약 33%에서 잘못된 정보를 생성했다.
기존 모델은 단순히 통계적 확률 기반으로 응답을 생성한 반면, 리즈닝 모델은 사고 과정을 단계별로 쪼개어 '인간처럼' 사고하려 시도한다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “M투데이” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.