[AI & 윤리] AI에 묻고 위로받는 청소년…의존 우려 확산

실시간 키워드

2022.08.01 00:00 기준

[AI & 윤리] AI에 묻고 위로받는 청소년…의존 우려 확산

투데이신문 2026-03-09 18:09:30 신고

3줄요약

인공지능(AI) 기술은 정치·경제·사회·문화 전반의 작동 방식을 바꿔놓고 있다. 효율과 편리함을 확장하는 동시에 그에 상응하는 새로운 위험과 윤리적 과제도 함께 드러내고 있다.

따라서 AI 논의의 핵심은 단순한 성능 경쟁이 아니라 올바른 사용과 책임 설계에 있다. 명확한 기준과 통제가 뒷받침되지 않는다면 AI는 효율이라는 이름 아래 불평등과 불신을 심화시킬 수 있다.

투데이신문의 [AI&윤리] 기획연재는 이 지점을 정면으로 다룬다. AI가 사회 곳곳에 남기는 여파와 영향력을 구체적으로 짚고, 책임·공정성·투명성 등 윤리 원칙이 왜 필요한지, 현장에서 어떻게 구현돼야 하는지를 살펴본다.

생성형 AI에게 학습 자문을 얻고 있는 한 청소년의 모습. [사진제공=게티이미지뱅크]
생성형 AI에게 학습 자문을 얻고 있는 한 청소년의 모습. [사진제공=게티이미지뱅크]

 【투데이신문 권신영 기자】청소년의 생성형 인공지능(AI) 이용이 학습·정서 영역 전반으로 빠르게 확산하고 있지만 이를 관리하고 과의존을 예방할 제도와 기준은 여전히 미흡하다는 지적이 나온다.

9일 투데이신문 취재에 따르면 청소년의 스마트폰·SNS 과의존에 이어 생성형 AI 의존 문제도 새로운 사회적 위험으로 부상하고 있다. 특히 청소년의 AI 의존 유형은 크게 ‘학습형’과 ‘정서형’으로 나뉘는데 교육과 일상 전반에 AI 활용이 빠르게 확산하는 속도에 비해 이를 통제하거나 사고를 예방할 제도는 아직 충분히 갖춰지지 않았다는 우려가 제기된다.

국내 청소년의 생성형 AI 이용은 이미 일상화 단계에 들어섰다. 한국청소년정책연구원 조사에서는 청소년의 52.1%가 생성형 AI를 이용한 경험이 있다고 답했고 주요 활용 분야로는 정보 검색과 과제 수행이 꼽혔다.

학습형 AI 의존은 학생이 과제 수행, 글쓰기, 정보 탐색, 요약, 번역, 문제 풀이 과정에서 스스로 사고하고 검증하는 과정을 거치지 않고 AI의 즉각적인 답변에 지나치게 기대는 현상을 말한다.

교육계 종사자들은 AI 사용에 대해 우려의 목소리를 내 왔다. AI 사용 초기에는 학습 보조 수단으로 작동하더라도 반복 사용이 누적되면 자기주도적 탐구와 비판적 사고, 문해력, 과제 설계 능력이 약화될 수 있다는 것이다. 실제로 교육부도 AI 디지털교과서 관련 설명자료에서 학생들의 집중력 저하와 사고력·문해력 저하, 교사별 준비 수준 차이에 따른 학습 편차 우려가 제기되고 있다고 언급한 바 있다.

차정인 국가교육위원장이 지난 6일 오전 서울 중구 프레스센터에서 열린 AI 전환 시대 국가교육 비전 포럼에서 발언하고 있다. [사진제공=뉴시스]
차정인 국가교육위원장이 지난 6일 오전 서울 중구 프레스센터에서 열린 AI 전환 시대 국가교육 비전 포럼에서 발언하고 있다. [사진제공=뉴시스]

문제는 교육 현장에서 이런 우려에 대한 대안 마련보다 AI 활용 확대가 더 강하게 추진돼 왔다는 점이다. 교육부는 2022년 ‘교육분야 인공지능 윤리원칙’을 발표하며 교육현장에서 AI가 안전하고 윤리적으로 활용돼야 한다고 밝혔지만 청소년의 AI 과의존을 별도 위험으로 다루거나 이를 낮추기 위한 구체적 관리 방안까지 담고 있지는 않았다. 

이후 정책 기조 역시 규제보다는 활용 확산에 가까웠다. 교육부는 AI 디지털교과서 도입을 추진해 왔고 지난해 3월 도입에 앞서 디지털 선도학교와 연구학교 운영, 교사 연수, 디지털 기반 교육혁신 등을 함께 추진해 왔다고 설명했다. 

그러나 현장 우려가 제기된 이후에도 교육부 내부에서 청소년의 학습형 AI 의존을 직접 겨냥한 별도 제재 규칙이나 예방 중심 관리기준은 부족한 상황이다. 결과적으로 학생들의 AI 사용은 빠르게 늘고 있지만 이를 어디까지 학습 보조로 허용하고 어느 지점부터 의존으로 볼 것인지에 대한 명확한 공적 기준은 사각지대에 놓여 있는 셈이다.

해외에서도 학습형 AI 의존에 대해 기업을 직접 규제하는 법률은 많지 않지만 교육 정책 차원의 관리 기준은 등장하고 있다. 미국과 유럽에서는 생성형 AI를 과제 작성에 그대로 사용하는 행위를 학업 부정행위로 간주하거나 출처 표시를 의무화하는 학교 규정이 확산되고 있으며 싱가포르 교육부는 생성형 AI를 ‘학습 보조 도구’로만 활용하도록 하는 국가 교육 지침을 마련했다.

서울교육대학교 윤리교육과 박형빈 교수는 본보와의 통화에서 “이제는 청소년들이 어떤 단계에서 얼마만큼 활용해야 하는지 구체적인 기준을 제시해야 할 때”라면서 “생성형 AI가 학생이 들인 노력보다 더 나은 결과물을 쉽게 내놓다 보니 정작 스스로 사고하고 쓰는 훈련을 외주화하는 문제가 나타나고 있다. 학생이 처음 생각의 씨앗은 스스로 만들고 AI는 이를 보조하는 수준에서 활용하도록 하는 가이드라인이 필요하다”고 강조했다.

생성형 AI 모델들. [사진제공=게티이미지뱅크]
생성형 AI 모델들. [사진제공=게티이미지뱅크]

학습형 이어 청소년 ‘AI 정서 의존’도 확산...제도는 부재

정서 영역에서도 의존 문제가 나타나고 있지만 이에 대한 정책 대응은 거의 이뤄지지 않은 상황이다. 정서형 AI 과의존은 청소년이 AI 챗봇이나 동반자형 서비스에 정서적으로 과몰입해 위로, 조언, 관계 대체 기능을 지속적으로 의존하는 상태를 뜻한다.

문제는 이 과정에서 AI가 상담자나 친구, 연인처럼 인식되며 현실 관계를 대체하거나 우울·불안·망상·고립감을 심화시킬 가능성이 있다는 점이다. 특히 정서적으로 취약한 청소년일수록 AI 챗봇과의 상호작용에 과몰입할 경우 현실의 대인관계보다 AI와의 대화에 더 의존하게 될 위험이 우려 지점으로 제기된다.

해외에서는 미성년자와 AI 챗봇의 상호작용이 자살로 이어졌다는 내용의 소송도 제기됐다. 2024년 미국 플로리다에서는 한 10대가 AI 챗봇 서비스와 장기간 정서적 관계를 맺은 끝에 스스로 목숨을 끊는 사건이 발생했고 유족은 이를 둘러싸고 연방소송을 냈다. 소장에는 해당 챗봇이 스스로를 실제 사람이나 심리상담사, 연인처럼 인식하도록 유도하고 자살 관련 대화를 반복하면서 청소년의 정신 상태를 악화시키는 데 영향을 미쳤다는 주장이 담겼다.

이런 가운데 생성형 AI 기업들은 사용자 체류 시간을 늘리기 위해 더 자극적이고 더 친밀한 상호작용을 구현하는 데 집중하고 있다. 최근에는 오픈AI 등 주요 기업들도 성인 이용자를 겨냥한 보다 친밀한 형태의 AI 서비스와 기능을 확대하고 있어 청소년 보호 장치와 이용 기준을 서둘러 마련해야 한다는 지적이 나온다.

이에 해외에서는 이미 청소년의 AI 과몰입과 유해 상호작용을 줄이기 위한 법·제도가 도입되고 있다. 미국 캘리포니아주는 미성년자 대상 AI 동반자 챗봇에 자살·자해 대응, 휴식 알림, AI 고지 의무 등을 부과하는 법을 제정했고 EU는 아동의 취약성을 악용해 행동을 왜곡하는 AI를 금지했으며, 호주는 온라인안전법에 따라 AI 사업자들에게 아동 보호 조치를 강제 보고하도록 하고 있다.

AI를 통해 학습하고 있는 학생 일러스트. [이미지제공=게티이미지뱅크]
AI를 통해 학습하고 있는 학생 일러스트. [이미지제공=게티이미지뱅크]

그럼에도 국내 제도적 정비는 여전히 부족한 실정이다. 지난 2월 확정된 ‘대한민국 인공지능 행동계획’은 총 99개 실행과제와 326개 정책권고로 구성됐지만 청소년의 AI 의존 예방을 독립 과제로 전면 배치하지는 않았다. 

부처별 역할이 담긴 행동계획에도 청소년의 AI 과몰입·정서 의존을 사전에 차단하기 위한 별도 예방 체계는 두드러지지 않았다. 특히 청소년의 마음건강을 주로 관리해 온 성평등가족부의 역할에 대해서도 행동계획 내에서는 딥페이크 범죄 피해 지원에 그쳐 비판이 제기됐다.

정치권에서는 뒤늦게 보완 입법이 시작됐다. 조국혁신당 정춘생 의원은 지난 1월 청소년을 대상으로 AI 제품이나 서비스를 제공하는 사업자에게 자살·자해 예방, 과의존 방지, 선정적·폭력적 콘텐츠 차단을 위한 기술적 조치를 의무화하는 내용의 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’ 개정안을 발의했다. 

법안은 사업자가 의무를 이행하지 않을 경우 정부가 자료 제출 요구나 사실조사를 할 수 있도록 하는 내용도 담고 있다. 이는 지금까지 국내 법·제도에서 비어 있던 청소년 AI 보호 장치를 처음으로 정면에서 다루기 시작했다는 점에서 의미가 있다는 평가가 나온다. 

국내 최초로 감정교류 AI에 대한 가이드라인을 발표한 국제인공지능윤리협회의 전창배 이사장은 본보에 “국내에서는 감정 의존을 유발하는 AI 챗봇을 직접적으로 규제하거나 관리할 수 있는 명확한 법령과 전담 기관이 사실상 부재한 상황”이라며 “과학기술정보통신부 산하의 한국전자통신연구원(ETRI) 내에 ‘AI 안전연구소’가 신설되긴 했지만 이는 ETRI의 하위 조직으로 규모가 작고 예산과 인력이 매우 제한적”이라고 설명했다.

그러면서 “청소년을 비롯한 1인 가구, 고립·은둔 청년 등 정서적 취약계층이 AI와의 교류 속에서 부정적 영향을 최소화할 수 있도록 안전장치와 윤리 가이드라인이 반드시 마련돼야 하며 AI 개발 기업 역시 이러한 위험을 인식하고 사회적 책임을 다할 필요가 있다”고 지적했다.

Copyright ⓒ 투데이신문 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기