울산과학기술원(UNIST)은 인공지능대학원 윤성환·유재준 교수연구팀이 확산모델을 학습시킬 때 손실함수의 평평한 최소점(flat minima)에 도달하도록 설계하면, 모델의 강건성(robustness)과 일반화 성능(generalization)을 동시에 높일 수 있다는 사실을 이론과 실험으로 입증했다고 22일 밝혔다.
원래는 반복된 생성으로 인한 오차 누적, 경량화 시 생기는 양자화(quantization) 오류, 적대적 공격 취약과 같은 확산 모델의 강건성은 각각 따로 연구되어 왔으나, 연구팀은 ‘평평한 최소점’이라는 하나의 원리로 이 문제점들을 모두 해결할 수 있음을 이번 연구로 입증했다고 설명했다.
연구팀은 "단순히 이미지 품질을 높이는 것을 넘어, 다양한 산업과 실제 환경에서도 믿고 쓸 수 있는 생성형 AI의 설계 원리를 제시했다는 점에서 의미가 크다"며 "챗GPT 같은 대규모 생성 모델을 소량 데이터만으로도 안정적으로 학습하게 하는 기반이 될 것"이라고 말했다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “모두서치” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.