【투데이신문 권신영 기자】내년 1월 22일 시행을 앞둔 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 인공지능기본법)’ 시행령 제정안에 대해 국가인권위원회(이하 인권위)가 인권 보호를 위한 제도적 장치 보완을 요구했다.
22일 인권위에 따르면 지난 12일 과학기술정보통신부는 입법예고 중인 인공지능기본법 시행령안에 대해 인권위의 의견서를 접수했다. 의견서는 인공지능 개발·이용 전 과정에서 기본권 침해 위험을 줄이기 위한 규정이 충분하지 않은 점을 지적했다.
가장 먼저 인권위가 문제 삼은 대목은 ‘고영향 인공지능’의 범위다. 인공지능기본법은 대통령령으로 고영향 인공지능 영역을 정하도록 규정하고 있지만 시행령안에는 관련 내용이 담기지 않았다는 것이다.
인권위는 인공지능사업자가 개발 초기부터 책임 범위와 준수 기준을 예측할 수 있도록 유럽연합(EU) 인공지능법의 부속서 등을 참고해 고영향 인공지능 영역을 시행령에서 명확히 규정해야 한다고 제시했다.
금지 대상 인공지능에 대한 별도 법적 규정이 마련되기 전까지는 잠재의식 조작 등 인간의 존엄성을 본질적으로 침해할 우려가 있는 유형을 고영향 인공지능 범주에 포함해 관리할 필요가 있다는 주장도 덧붙였다.
인공지능에 영향을 받는 이들의 보호 조치가 부족하다는 지적도 나왔다. 인공지능기본법은 인공지능사업자에게 ‘이용자’ 보호조치 이행 책무를 부여하고 있다. 정부의 가이드라인에서는 채용회사·병원·금융기관 등을 ‘이용자’로, 구직자·환자·대출 신청자 등을 ‘영향받는 자’로 구분하고 있다.
이 과정에서 실제로 인공지능 판단의 결과로 기본권에 중대한 영향을 받는 당사자(구직자·환자 등)에 대한 보호가 법령상 공백으로 남을 수 있다는 게 인권위의 우려다. 인권위는 시행령안과 가이드라인을 함께 손질해 보호 공백을 메워야 한다고 했다.
법 적용 제외 범위가 넓어질 가능성에 대한 우려도 나왔다. 인공지능기본법은 ‘국방 또는 국가안보 목적’으로만 개발·이용되는 인공지능을 적용 제외 대상으로 규정하고 있는데, 시행령안에는 이중 용도(dual-use) 성격의 업무까지 포함돼 위임 범위를 넘어설 수 있다는 지적이다.
특히 국방·안보 목적 인공지능은 국가 안전의 수단이면서도 생명권 침해 등 중대한 인권침해 위험이 큰 영역인 만큼 적용 제외 대상을 자의적으로 넓힐 여지를 차단해야 한다고 인권위는 강조했다. 적용 제외 AI 지정 방식도 국가정보원장·국방부장관·경찰청장 등 개별 기관장이 정하기보다 국가인공지능위원회의 심의를 거치도록 해야 한다는 개선안이 제시됐다.
고성능 인공지능 안전성 기준에 대해서는 “규제 사각지대를 키울 수 있다”는 판단을 내놨다. 시행령안은 안전성 확보 의무 적용 기준을 누적 연산량 10의 26승 이상으로 설정했는데, 이 경우 상당수 고성능 인공지능 시스템이 규제 대상에서 빠질 수 있다는 것이다. 인권위는 적용 기준을 10의 25승 이상으로 낮춰 기본권 보호를 두텁게 해야 한다고 주장했다.
인권위는 “정부가 인공지능 전환을 속도감 있게 추진하는 가운데, 오류나 편향이 담긴 AI 분석·판단이 실제 의사결정에 활용될 경우 인간의 존엄과 가치, 평등권, 사생활의 비밀과 자유 등 헌법상 기본권을 직접 침해할 위험이 있다”며 “이번 의견이 향후 입법 및 정책 보완 과정에서 적극 반영되기를 기대한다”고 밝혔다.
Copyright ⓒ 투데이신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.