[※ 편집자 주 = 한국국제교류재단(KF)의 지난해 발표에 따르면 세계 한류 팬은 약 2억2천500만명에 육박한다고 합니다. 또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다. 바야흐로 '한류 4.0'의 시대입니다. 연합뉴스 동포·다문화부 K컬처팀은 독자 여러분께 새로운 시선으로 한국 문화를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다. 시리즈는 매주 게재하며 K컬처팀 영문 한류 뉴스 사이트 K바이브에서 영문으로도 보실 수 있습니다.]
최근 명문 사학 연세대와 고려대에서 발생한 대규모 부정행위 사태가 한국 고등교육 전반을 뒤흔들고 있다. 연세대 '자연어 처리와 챗GPT' 강의에서는 비대면 중간고사를 치른 뒤 학생 커뮤니티 익명 설문에서 응답자의 절반 이상이 부정행위를 했다고 밝힌 것으로 전해졌고, 실제 자수 학생만 해도 수십 명에 이르렀다.
고려대에서도 1천400명에 달하는 대형 온라인 교양과목 시험 중 일부 학생이 카카오톡 공개 채팅방을 통해 문제와 답안을 주고받은 사실이 드러나면서, 두 학교 모두 중간고사를 전면 무효로 하는 초강수를 뒀다.
사건 직후 언론과 여론의 화살은 '인공지능(AI) 커닝'에 집중됐다. 챗GPT를 비롯한 생성형 AI가 마치 교육을 오염시키는 주범인 것처럼 몰아가는 분위기다. 대학들도 'AI 사용 금지'를 되풀이하며 대응에 나섰다. 그러나 이와 같은 반응은 사태의 표면만을 건드릴 뿐, 근본 원인과는 거리가 있다.
지금 필요한 질문은 'AI가 문제냐'가 아니라 '왜 여전히 20세기식 시험 구조에 머물러 있는가'에 가깝다.
이번 사건에서 AI 사용 여부는 부정행위의 '방법'일 뿐, '원인'은 아니다. 비대면 온라인 시험이라는 환경에서는 AI가 없었어도 부정행위가 가능했다. 학생끼리 메신저로 답안을 공유하거나, 다른 기기와 창을 병행 사용해 감독을 피해 가는 방식은 이미 오래전부터 존재해 온 문제다. 실제로 연세대 사례에서도, 고려대 사례에서도 카카오톡 공개 채팅방을 통한 집단 답안 공유가 핵심 이슈였다.
따라서 부정행위를 가능하게 만든 핵심 요인은 'AI의 등장'이 아니라, 대규모 비대면 시험에서 관리·감독이 실질적으로 작동하기 어려운 시스템 자체다. 수백 명이 동시에 온라인으로 응시하는 상황에서, 카메라 촬영과 화면 녹화 정도로는 모든 편법을 잡아내기 어렵다는 것은 누구나 예상할 수 있는 일이다.
그런데도 대학들은 그대로 시험을 진행했고, 사고가 터진 뒤에야 'AI를 금지했는데 학생들이 어겼다'는 식의 책임 전가를 반복하고 있다.
교통사고가 나면 자동차 브랜드만 탓하는 식의 접근이다. 사고의 원인은 도로 설계, 신호체계, 운전자 교육, 교통 법규 등 복합적인데도, 눈에 띄는 기술만을 비난하면 설명이 단순해 보이기 때문이다. 그러나 교육은 그렇게 단선적으로 다룰 수 없다.
이번 사태에서 진짜 물어야 할 질문은 이렇다.
"감독이 실질적으로 불가능한 환경에서, 그런 방식의 시험을 강행한 대학의 책임은 무엇인가?"
"외우고 재생산하는 시험을 여전히 '정상적인 평가'라고 믿는 구조 자체는 정당한가?"
◇ '시험 자체'를 고치고 있는 해외 대학
해외 주요 대학은 생성형 AI의 등장을 '부정행위 위험'만이 아니라 '평가와 교육을 재설계할 기회'로 보고 있다. 스탠퍼드, MIT, 프린스턴, 듀크 등은 과목별로 AI 사용 정책을 세분화해, 과제 유형과 학습 목표에 맞춰 허용·제한·금지 기준을 명확히 안내하는 방식을 취한다.
이들 대학은 어떤 과목은 'AI 전면 금지'를 선택한다. 예를 들어 기초 수학 연산이나 법적 윤리 문제처럼, 학생 자신의 사고 과정을 직접 확인해야 하는 영역이다. 다른 과목은 '출처 표기를 조건으로 제한적 허용'을 한다. 자료 검색·초안 작성·문장 다듬기 정도는 허용하되, 핵심 분석과 결론은 학생이 직접 작성해야 한다. 또 일부 과목은 'AI 활용 역량 자체'를 평가 대상으로 삼는다. 어떻게 프롬프트를 설계하고, AI의 오류와 편향을 찾아내 비판적으로 다듬는지가 학습 목표의 일부가 된다.
평가 방식도 크게 달라지고 있다. 프로젝트 기반 학습(PBL), 구두 발표·토론, 동료 평가, 실시간 케이스 스터디처럼 AI가 대신하기 어려운 평가 방식이 늘고 있다. 예를 들어, '챗GPT의 원리를 설명하라'는 문제는 AI가 쉽게 답할 수 있지만, '챗GPT가 생성한 이 코드/에세이의 문제점을 찾아 수정하고, 왜 이런 오류가 발생했는지를 설명하라'는 문제는 학생의 이해, 비판, 재구성 능력을 요구한다.
이러한 평가에서는 AI가 재료 제공자 또는 조언자는 될 수 있어도, 학생 대신 책임 있는 답을 만들어 줄 수 없다. 즉, 평가의 초점이 '정답 암기'에서 '사고 과정과 해석 능력'으로 옮겨가면, AI는 위협이 아니라 교육적 도구가 된다.
국내 상황을 보면, 대학생의 AI 활용은 이미 일상이다. 국내 여러 조사에서 대학생 10명 중 9명에 가까운 비율이 과제 작성, 자료 검색, 번역, 문장 다듬기에 생성형 AI를 사용한다고 답한다. 반면 상당수 대학은 AI 활용에 대한 공식 가이드라인도, 교수자를 위한 연수 체계도 미비한 것이 현실이다. 학생은 이미 21세기에 살고 있는데, 대학의 시험과 규정은 여전히 20세기에 머물러 있는 셈이다.
'AI 쓰지 말라'는 말은 사실상 "우리는 평가 방식을 바꿀 생각이 없다"는 선언과 같다. AI가 검색과 요약, 기초 코드 생성까지 자동으로 처리할 수 있게 된 시대에, 여전히 '자료 정리형 리포트', '단답형·객관식 지식 암기 시험'을 유지하겠다는 것은 평가 설계의 책임을 방기하는 일이다.
반대로, 교수자가 학습 목표에 맞춰 다음과 같은 질문을 스스로 던지면 방향은 달라진다.
이 과목에서 정말로 학생이 배워야 할 것은 '지식 자체'인가, 아니면 그 지식을 활용·판단·비판하는 능력인가?
AI가 대신해도 되는 작업(요약·정리·번역)과, 학생 본인이 반드시 해야 할 작업(해석·비판·창의적 적용)을 어떻게 구분할 것인가?
AI 사용을 전제로 하더라도, 학생이 '반드시 스스로 생각해야만 통과할 수 있는 평가'를 어떻게 설계할 것인가?
이 질문에 답하는 과정이 바로 'AI 이후 교육'의 핵심이다.
◇ AI가 아니라 교육 구조의 구식성이 문제
연·고대 부정행위 사태는 겉으로 보면 'AI 커닝'이라는 새로운 현상처럼 보인다. 하지만 조금만 깊이 들여다보면, 문제는 오래전부터 누적돼 온 교육 구조의 취약성이 드러난 것일 뿐이다.
관리·감독이 사실상 불가능한 환경에서 지식 재생산형 시험을 유지하면서 'AI 금지'라는 선언만 붙여놓은 채 시험을 강행한 결과가 바로 이번 사태다.
AI를 원인으로 지목하는 것은 편리하지만, 근본 해결에는 도움이 되지 않는다. 앞으로 더 정교한 AI, 더 다양한 도구가 등장하면 그때마다 '새 기술 탓'을 할 것인가.
지금 필요한 것은 평가 방식의 재설계가 필요하다. 암기·정답형 시험에서 사고·해석·창의 중심 평가로의 전환을 해야 한다. 그다음 AI 활용 가이드라인과 교수법을 정립해야 한다. 학생·교수 모두를 대상으로 한 명확한 원칙과 실제적인 사례 교육이 필요하다. 또한, 책임 있는 시험 운영을 해야 한다. 감독이 불가능한 환경에서는 그에 맞는 시험과 과제를 설계하고, 구조적 취약성을 인정한 제도 개선을 해야 한다.
이번 사건은 AI의 문제가 아니라, 우리가 오랫동안 알고도 미뤄온 교육 구조 개혁의 필요성을 폭로한 계기다. 많은 학생은 이미 기술과 함께 새로운 학습 방식을 실험하고 있다. 이제 대학이 변할 차례다. AI를 두려워할 것이 아니라, 그 존재를 전제로 더 높은 수준의 사고와 평가를 요구하는 쪽으로 교육을 재설계해야 한다.
그것이 연·고대 사태가 우리에게 던지는 진짜 메시지다.
임기범 인공지능 전문가
▲ 서울과학종합대학원 대학교(aSSIST) 객원교수. ▲ 현 AI경영학회 이사. ▲ ㈜나루데이타 CTO 겸 연구소장. ▲ ㈜컴팩 CIO. ▲ 신한 DS 디지털 전략연구소장 역임.
<정리 : 이세영 기자>
seva@yna.co.kr
Copyright ⓒ 연합뉴스 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.