[한국대학신문 윤채빈 기자] 생성형 인공지능(AI) 시대에 학문적 신뢰성을 높이기 위해 연구 윤리에 대한 새로운 기준이 필요하다는 주장이 제기됐다.
이형석 우석대 교수는 29일 서울시립대 법학전문대학원 모의법정에서 열린 ‘2025년 대한교육법학회 춘계 정기학술대회’에서 이 같은 의견을 밝혔다.
이날 이 교수는 ‘생성형 인공지능과 연구윤리: 학문적 신뢰성을 위한 새로운 기준의 필요성’을 발표했다. 그는 “생성형 AI가 학술적 초안 작성, 문헌 요약, 보고서 서술 등 고차원적인 작업까지 확장되며, 연구자들에게 시간을 절약할 수 있는 유용한 도구로 자리잡았지만, 동시에 심각한 윤리적·철학적 문제를 일으킬 수 있다”고 지적했다.
이 교수는 “AI가 생성한 문장은 표면적으로 자연스럽고 정교하게 보일 수 있으나, 사실 그것은 이미 학습된 자료를 바탕으로 한 통계적 예측에 불과하다”며, “AI가 생성한 문장이 사실에 기반을 두고 있는지, 어떤 자료를 참고하고 있는지, 학문적으로 타당한 내용을 담고 있는지에 대한 판단은 AI가 할 수 없기 때문에 출처를 밝히지 않고 그대로 사용하는 것은 연구윤리 위반이 될 수 있다”고 경고했다.
이어 “AI가 생성한 문장을 연구자가 검토 없이 그대로 사용하는 것은 ‘정직성’과 ‘객관성’의 원칙에 부합하지 않으며, AI가 제공하는 정보에 오류나 편향이 있을 경우 그 책임은 전적으로 연구자에게 돌아간다”고 강조했다. 특히 “고위험 분야인 의료, 법률, 사회과학 등의 연구에서 더 큰 윤리적 부담을 초래할 수 있다”고 덧붙였다.
AI 활용에 따른 표절, 저작권 등의 윤리적 쟁점도 언급됐다. 이 교수는 “AI가 생성한 초안을 수정없이 사용하거나, AI가 생성한 문장을 자신의 이름으로 제출하는 경우, 이는 간접 표절에 해당할 수 있다”고 말했다. 또한 “AI가 생성한 콘텐츠는 법적 저작권 주체가 될 수 없으며, AI가 학습한 데이터에는 타인의 창작물이 포함돼 있을 수 있어, 생성된 결과물이 저작권을 침해할 가능성도 있다”고 경고했다.
그러나 AI를 전면 금지하는 방식보다는, AI 활용의 범위와 윤리적 책임의 주체를 명확히 규정해 학문적 신뢰성과 투명성을 확보해야 한다고 제언했다.
이 교수는 “(AI) 기술의 발전 자체를 억제하거나 부정하는 접근보다는, 그 활용에 있어 학문적 신뢰성과 연구윤리를 확보할 수 있는 실천적 기준을 마련해야 한다”고 강조하며, 네 가지 대안을 제시했다. 구체적으로는 △논문, 보고서 등 생성형 AI를 활용한 경우 활용 부분과 방식을 명확히 밝힐 것 △AI가 생성한 문장에 대한 연구자의 비판적 검토 △공동저자 기준의 재정립 △윤리 교육의 강화와 AI 활용에 대한 교육적 기반 마련 등이었다.
이 교수는 “AI 활용에 따른 문제점은 AI 기술의 존재 그 자체가 아니라, 그 기술을 어떤 태도와 기준으로 활용하는가에 달려 있다”고 강조했다.
한편, 국제 학술지 네이처(Nature)는 AI를 공동저자로 인정하지 않으며, AI가 논문 작성에 사용된 경우 이를 명확히 밝혀야 한다는 원칙을 고수하고 있다. 일부 국내 대학에서는 AI 활용 보고서 제출을 의무화하거나, 보고서 및 리포트 작성 시 AI 사용을 금지하는 등의 방침을 도입하고 있다.
Copyright ⓒ 한국대학신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.