법무법인 린의 전응준 변호사는 최근 한국정보법학회지에 발표한 논문과 이데일리와의 인터뷰에서 이러한 ‘이원적 접근법’을 제시했다. 그는 “성급한 입법 논의에 앞서 AI 모델의 작동 원리와 구조를 먼저 이해하는 것이 중요하다”고 밝혔다.
|
전 변호사는 AI 모델을 ‘초과 모방성 모델’과 ‘잠재적 모방성 모델’ 두 가지로 구분해야 한다고 설명했다.
그에 따르면 ‘초과 모방성 모델’은 특정 창작물을 표절할 목적으로 의도적으로 개발된 경우다. 그는 최근 미국에서 소송이 제기된, 작고한 코미디언 조지 칼린의 영상물을 무단 학습해 만든 AI를 그 예로 들었다. 특정인의 목소리를 복제하는 커버곡 AI 역시 이 범주에 속한다고 덧붙였다.
반면 ‘잠재적 모방성 모델’은 대다수의 일반적인 생성형 AI를 지칭한다. 이 모델들은 기술적 특성상 학습 데이터와 확률적으로 유사한 결과물을 생성할 가능성을 내포하고 있으며, 개발사들 역시 필터링 등의 기술로 이를 통제하려 노력하고 있다고 전 변호사는 말했다.
그러나 이 두 모델의 구분은 AI가 학습 데이터를 그대로 출력하는 ‘암기(Memorization) 현상’으로 인해 복잡해진다. 전 변호사는 뉴욕타임스(NYT)가 오픈AI를 상대로 제기한 소송을 언급하며, NYT의 유료 기사 일부를 입력하자 나머지 내용이 그대로 출력되는 사례가 100여개 이상 증거로 제출됐다고 전했다.
이러한 암기 현상에 대해 오픈AI 측은 ‘버그’ 또는 사용자의 ‘해킹’과 같은 비정상적 이용이라 해명하고 있지만, 이는 AI 기술의 불완전성과 잠재적 위험성을 보여주는 사례로 꼽힌다.
전 변호사는 기존에 논의되던 ‘입증책임 전환’이나 ‘AI 모델 폐기’ 등의 법적 조치들도 이러한 ‘이원적 접근법’의 틀 안에서 적용돼야 한다고 주장했다. 그는 “기술에 대한 이해 없이 법 개정만 논의하는 것은 다소 뻔한 구호에 그칠 수 있다”고 지적했다.
결국 AI 기술의 혁신과 창작자의 권리 보호라는 상충하는 가치를 조화시키는 것이 핵심 과제로 남는다. 전응준 변호사는 “사용례(use case)의 축적과 기술에 대한 정확한 이해가 올바른 정책의 시작”이라며 “성급한 법적 판단에 앞서 문제의 본질을 파악하려는 사회적 노력이 우선돼야 한다”고 강조했다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
