인공지능(AI) 기술은 정치·경제·사회·문화 전반의 작동 방식을 바꿔놓고 있다. 효율과 편리함을 확장하는 동시에 그에 상응하는 새로운 위험과 윤리적 과제도 함께 드러내고 있다.
따라서 AI 논의의 핵심은 단순한 성능 경쟁이 아니라 올바른 사용과 책임 설계에 있다. 명확한 기준과 통제가 뒷받침되지 않는다면 AI는 효율이라는 이름 아래 불평등과 불신을 심화시킬 수 있다.
투데이신문의 [AI&윤리] 기획연재는 이 지점을 정면으로 다룬다. AI가 사회 곳곳에 남기는 여파와 영향력을 구체적으로 짚고, 책임·공정성·투명성 등 윤리 원칙이 왜 필요한지, 현장에서 어떻게 구현돼야 하는지를 살펴본다.
【투데이신문 박효령 기자】 3·1절을 앞두고 유관순 열사를 조롱하는 내용의 생성형 인공지능(AI) 영상이 온라인상에서 확산되며 국민적 공분을 사고 있다. 생성형 AI를 활용한 역사 재현 콘텐츠가 자칫 역사적 인물의 존엄과 명예를 훼손할 수 있다는 점이 드러나며 기술 발전에 상응하는 윤리적 책임과 고인 모독에 대한 사회적 기준 마련 필요성이 대두됐다.
26일 각종 사회관계망서비스(SNS)와 유튜브 등에는 최근 AI로 제작된 유관순 열사 관련 영상들이 잇따라 게재됐다.
해당 영상에는 유관순 열사를 상반신은 사람, 하반신은 로켓 형태로 합성해 묘사한 장면이 담겼다. 영상 속에서 열사가 스스로를 ‘유관순 방구로켓’이라고 칭하며 하늘로 치솟고 이를 지켜보던 인물이 “연료가 떨어진다. 방귀를 더 뀌어보라”고 외치자 다시 방귀를 뀌며 우주로 날아가는 식의 설정이 이어진다.
지난 22일 게시된 또 다른 영상에서는 방 안에서 방귀를 뀌려는 열사를 향해 한 여성이 “여기서 방귀 뀌지 말라”고 소리치고 이후 방귀를 뀌자 해당 여성이 쓰러지는 장면이 연출됐다. 이 밖에도 열사가 일장기에 호감을 드러내는 듯한 대사를 말하자 일장기가 “나 너 싫어”라고 응수하는 내용의 영상이 함께 확산된 것으로 파악됐다. 이들 영상 모두 생성형 AI인 ‘Sora(소라)’로 제작됐다.
영상 속 유관순 열사는 3·1운동으로 서대문 형무소에 투옥됐을 때 촬영된 수의 차림 사진을 참고해 AI로 복원한 것으로 추정된다.
유관순 열사는 3·1운동에 참여했다가 일제의 모진 고문을 겪은 뒤 17세의 나이로 옥사한 인물이다. 3·1절이 얼마 남지 않은 상황에서 독립운동을 상징하는 인물을 희화화의 소재로 삼았다는 점에서 역사 인물에 대한 존엄 훼손이라는 비판이 잇따르고 있다.
유관순 열사 외에도 독립운동가 사진을 두고 외모를 조롱하는 게시물도 포착됐다. 김구 선생과 안중근 의사 사진 아래에는 외모에 대한 부정적인 문구를 달고 친일 인사인 이완용 사진에는 긍정적인 표현을 기재해 논란이 이어지고 있다.
그동안 역사 관련한 AI 기술은 주로 독립운동가의 생전 모습을 복원해 보훈 정신을 기리는 긍정적인 방향으로 활용돼 왔다. 특히 지난해 광복 80주년을 맞아 국가보훈부와 독립기념관 등 정부 기관이 민간 기업과 협업해 공개한 독립운동가 복원 영상은 선열들의 모습을 실감 나게 구현해 내며 국민적 호응을 얻은 바 있다.
과거와 현재를 잇는 방식으로 독립 정신을 되새기려 했던 해당 영상들은 첨단 기술의 긍정적 활용 사례로 평가받았다. 그러나 같은 AI 기술이 독립운동가를 희화화하고 폄하하는 데 쓰이면서 기술 활용의 방향과 책임을 둘러싼 비판의 목소리도 커지고 있다. 표현의 자유 보장 범위와 역사적 인물에 대한 존엄 침해 여부은 물론 AI 기술의 오·남용 문제를 둘러싼 사회적 논쟁 역시 한층 확산될 것으로 보인다.
해외에서는 이미 AI를 활용한 역사적 인물 복원의 부작용이 사회적 문제로 떠오른 바 있다. 지난해 10월 오픈AI는 소라를 통해 마틴 루터 킹 목사의 이미지를 이용한 영상 생성을 차단 조치했다. 실제로 킹 목사가 1963년 당시 “I Have a Dream(나에겐 꿈이 있습니다)” 연설을 하던 도중 인종차별적 언행을 하는 것처럼 조작된 허위 영상이 확산됐기 때문이다.
이에 따라 관련 학계에서는 이 같은 콘텐츠를 즉각적으로 제재할 뚜렷한 수단이 부족함에 따라 AI 기반 콘텐츠 규제에 대한 제도적 관리·감독 체계가 미비하다는 지적이 잇따르고 있다. 질의응답 방식으로 이뤄지는 AI 서비스 특성상 잘못된 정보가 전달되더라도 이용자가 이를 즉각적으로 걸러내기 어렵다는 측면에서다.
이와 관련 서울교육대학교 윤리교육과 박형빈 교수는 본보에 “AI는 본질적으로 중립적인 도구이지만 편향된 의도를 가진 사용자가 이를 활용할 경우 역사적 사실을 왜곡하고 혐오를 생산하는 강력한 수단이 될 수 있다”며 “시행 중인 AI 기본법에 따라 AI 생성 콘텐츠임을 즉각 식별할 수 있는 기술적 표기가 철저히 강제돼야 하는데, 특히 역사적 인물이 등장하는 영상은 허구임을 명확히 알 수 있어야 한다”고 진단했다.
이어 “플랫폼의 법적 책임 강화도 필요하다. 비동의 친밀 이미지(NCII) 및 그에 해당하는 AI 생성 디지털 위조물에 대해 피해자 통지 시 48시간 내 삭제와 동일 사본에 대한 합리적 제거하는 등의 노력 요구된다”며 “또 사후 인격권의 법적 명문화가 이뤄져야 한다. 독립운동가 등 역사적 인물의 ‘디지털 페르소나’를 국가와 공동체가 함께 보호할 수 있도록 이른바 ‘안중근법’, ‘유관순법’과 같은 역사적 존엄 보호 입법을 진지하게 논의해야 할 시점”이라고 강조했다.
Copyright ⓒ 투데이신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.