| 한스경제=박정현 기자 | 생성형 AI 활용이 학계 연구 윤리의 새로운 쟁점으로 부상하고 있다. 연구자들 사이에서 이미 ‘심각한 문제’로 인식하는 비율이 해마다 빠르게 늘고 있어서다.
13일 한국연구재단의 ‘2024년 대학 교원 연구윤리 인식 수준 조사’에 따르면, 연구자 2079명을 대상으로 한 설문에서 생성형 AI 활용이 연구 윤리에 있어 학계에서 이미 심각한 문제라고 답한 비율은 13.2%로 집계됐다. 해당 조사가 처음 실시된 2023년 5.4%에서 2024년 9.1%, 올해 13.2%로 매년 증가했다.
향후 문제가 될 수 있거나 이미 심각한 문제라고 인식한 응답도 같은 기간 53.5%에서 61.9%, 65.8%로 확대됐다. 반면 ‘걱정할 수준은 아니다’라는 응답은 지난해 26.3%에서 올해 25.7%로 소폭 감소했다.
논문 작성 과정에서 생성형 AI를 사용하는 행위 자체는 연구부정행위에 해당하지 않는다는 인식이 60.8%로 다수를 차지했다. 다만 생성형 AI 활용 사실을 명시하지 않을 경우 연구부정행위에 해당한다는 응답도 52.1%로 절반을 넘었다.
논문 심사나 연구과제 평가 과정에서 생성형 AI를 활용하는 것이 비밀 유지 위반에 해당하는지를 두고는 의견이 엇갈렸다. ‘위반에 해당한다’는 응답이 44.5%, ‘해당하지 않는다’는 응답이 42%로 팽팽했다.
실제 연구에서 생성형 AI를 활용한 연구자 가운데 95.8%는 문법·표현 검토 등 윤문 작업에 사용했다고 답했으며, 선행연구 검토에 활용했다는 응답도 68.9%에 달했다.
보고서는 “2023년 이후 생성형 AI를 심각한 연구 윤리 문제로 인식하는 비율이 지속적으로 증가하고 있다”며 “윤문 활용 비중이 특히 높은 만큼 관련 연구 윤리 기준과 정책 대안에 대한 논의가 필요하다”고 지적했다.
Copyright ⓒ 한스경제 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.