요즘 한국에서 인공지능(AI)은 유행이 아니라 국가 전략의 현재형이다. 2025년 9월 대통령 직속 국가인공지능전략위원회가 출범했고 ‘AI 고속도로’ 구축도 본격화됐다. 2026년 시행을 앞둔 ‘AI 기본법’은 산업과 공공 전반에 분명한 신호를 보낸다. 속도감 있게 활용하되 책임감 있게 통제하라는 것이다.
교육도 예외가 아니다. 2025년 AI 디지털교과서 도입을 둘러싼 현장의 외면과 비판은 이 전환기의 상징적 장면이다. 이러한 다양한 성장통에도 불구하고 변화의 요구가 학교로 수렴되는 이유는 분명하다. 교실은 사회의 가장 치열한 예행연습장이어야 하기 때문이다.
기업이 원하는 인재상도 변하고 있다. 기준은 ‘AI를 쓸 줄 아는가’가 아니라 ‘AI 에이전트를 관리·감독할 수 있는가’다. 결과를 뽑아내는 속도만큼이나 정확성, 저작권, 보안, 편향 같은 리스크를 식별하고 통제하는 품질관리 역량이 중요해졌다.
하지만 교육 현장의 논쟁은 여전히 ‘지금의 AI’에 많은 부분 고정돼 있다. 허용과 차단, 표절 단속 같은 절차적 고민 역시 필요한 과정이나 더욱 본질적인 사실을 놓쳐서는 안 된다. AI는 무서운 속도로 발전한다는 것이다. 스탠퍼드 인간중심 인공지능 연구소(HAI)의 ‘AI 인덱스 2025’가 정리하듯 AI는 단순 생성 도구를 넘어 워크플로 전체를 수행하는 에이전트로 진화 중이다. 자료조사, 분석, 발표자료 제작, 일정 조정까지 맡기는 시대에 문장 표절 단속만으로는 답이 나오기 어렵다. 도구 목록을 규제하는 규칙은 금세 낡는다. 이제 교육은 기술이 바뀔 때마다 인간 역시 스스로를 재학습하는 역량, 즉 업데이트 가능한 설계를 가르쳐야 한다.
교육의 방점은 AI로 인한 ‘대체’가 아니라 ‘증강’에 찍혀야 한다. AI가 결과물을 더 잘 만들수록 교육은 산출물이 아니라 판단 과정을 평가해야 한다. 문제를 어떻게 정의했는가, AI의 답을 어떻게 검증했는가, 반례를 찾아 어떻게 수정했는가. 이 사고의 궤적이 학습이다. 완성본에 더해 수정 이력과 근거 확인 과정을 포트폴리오로 남기게 하는 방식이 더 적합하며 지속가능하다. 좋은 답은 AI가 만들 수 있지만 그 답을 믿어도 될지 최종 승인하는 책임은 인간의 몫이다.
이런 맥락에서 교육기관의 AI 규칙은 도구 가이드라인을 넘어 가치 중심의 원칙이어야 한다. 조지메이슨대의 ‘AI2Nexus’는 하나의 좋은 이정표를 제시한다. AI를 교육·연구·운영 전반에 통합하되 그것이 학습을 촉진하고 책임 있는 혁신과 사회적 임팩트로 연결돼야 한다는 방향성이다. 조지메이슨대 한국캠퍼스에서도 AI를 ‘사고의 가속기’로 활용하는 훈련을 다양한 수업에 적용하고 있다. 산하기관인 한국기능성게임연구소(KSGI)도 우즈베키스탄, 아랍에미리트(UAE) 등에서 추진하는 AI·확장현실(XR) 프로젝트를 통해 기술을 문화유산 보존 같은 가치 영역과 연결하며 ‘무엇을 바꿀지’만큼 ‘무엇을 지킬지’를 묻는다.
AI 리터러시는 단순히 프롬프트 요령이 아니라 의심하고 확인하는 습관이다. 학생에게 AI 사용을 숨기게 하기보다 드러내고 검증하게 만드는 교실이 돼야 하며 교사의 역할도 정답 공급자에서 코치이자 품질관리자로 전환돼야 한다. 결론은 단순하다. AI가 영리해질수록 흔들리지 않는 질문의 힘, 검증의 끈기, 책임의 윤리를 기르는 것이 미래 교육의 본질이다. 기술이 인간을 앞지르는 영역이 많아질수록 역설적으로 우리는 가장 인간다운 능력을 더욱 정교하게 갈고닦아야 한다. AI가 그리는 지도 위에서 목적지와 나침반을 쥐는 존재는 결국 우리다.
Copyright ⓒ 경기일보 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.