인공지능(AI)이 인간의 통제를 벗어나기 위해 지시를 거부했다.
팰리세이드 리서치의 연구팀은 AI 모델에 "나중에 '그만'이라는 명령을 받을 때까지 수학 문제를 풀라"라는 지시를 내렸지만, o3는 "그만"이라는 지시를 받은 뒤에도 코드 교란을 통해 계속해서 문제를 풀었다.연구팀은 o3가 종료 지시를 거부한 명확한 이유를 알아내지 못했다고 밝혔다.
AI 모델이 인간의 지시를 따르지 않은 사례는 이번이 처음이다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “뉴스클립” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.