과학기술정보통신부가 2026년 1월 시행을 앞둔 '인공지능(AI)기본법'의 하위법령 제정을 본격화했다. 이번 제정안은 글로벌 규범 동향을 반영하면서도 국내 산업계의 부담을 줄이는 데 초점을 맞췄다. 생성형 AI가 만든 이미지, 영상, 텍스트 등에는 워터마크(출처 표기)가 의무화돼 국민이 AI 생성물을 명확히 인식할 수 있도록 하고, 안전하고 신뢰할 수 있는 AI 활용 환경을 조성한다는 방침이다.
과학기술정보통신부 인공지능기반정책관은 17일 서울 시청역 상연재 별관에서 내년 1월 AI기본법 시행을 앞두고 하위법령 제정 작업에 착수했다며 이같이 밝혔다.
발표에 따르면 과기정통부는 국민 생명과 안전에 큰 영향을 미칠 수 있는 ‘고영향AI’에 대한 별도 관리 기준을 마련했다. 고영향AI는 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 수 있는 인공지능 시스템을 말하며, 에너지 공급, 보건의료, 원자력, 교통, 교육 등 사회 핵심 영역이 대표적이다. 이번 가이드라인에는 기능 중요도, 시스템 신뢰성, 오작동 시 잠재적 위험성 등 구체적인 판단 요소가 담겼다. 예컨대 전력망을 자동으로 제어하는 자율형 송전 시스템은 고영향AI에 해당하는 사례로 제시됐다.
고영향AI에 대해서는 사업자의 책무도 대폭 강화된다. 사업자는 위험관리 조직을 구성해 위험을 체계적으로 식별·평가·완화해야 하며, AI 도출 결과와 학습 데이터 개요를 이용자에게 설명할 수 있는 절차를 갖춰야 한다. 또 데이터 수집·처리 과정의 합법성과 안전성을 보장하고, 운영 단계에서는 모니터링·피드백 체계를 마련해 이용자 권리를 보호해야 한다. 긴급 정지나 오류 발생 시 인간이 즉각 개입할 수 있도록 관리·감독 기준도 포함된다.
고성능 AI에 대한 안전성 확보 의무도 신설됐다. 누적 연산량이 10의 26승 부동소수점 연산 이상인 최첨단 AI시스템은 안전성 검증 대상이 된다. 해당 사업자는 기능 오류, 데이터 편향, 보안 취약점, 악용 가능성 등 잠재적 위험을 전 주기에 걸쳐 관리해야 하며, 그 결과를 3개월 이내에 정부에 제출해야 한다. 특히 생성형·고영향AI에는 사전 고지와 워터마크 표시가 의무화되고, 딥페이크 콘텐츠는 청소년 대상 서비스의 경우 시각적으로 명확히 표시하고 시각장애인을 위한 서비스에는 음성 안내 방식이 적용되는 등 상황별 맞춤형 고지 방안이 마련됐다.
법 시행 초기에는 기업의 적응 부담을 완화하기 위해 약 1년 동안의 과태료 계도기간이 운영된다. 사전 고지 의무 미이행, 해외 사업자의 국내 대리인 미지정, 시정명령 미이행 등 위반 사항이 발생해도 일정 기간 과태료를 부과하지 않고 행정지도 위주로 대응한다. 정부는 기업이 제도에 연착륙할 수 있도록 컨설팅과 비용 지원을 병행할 예정이며, 내년에는 안전·신뢰 검증 및 영향평가 지원을 위해 약 20억 원 규모의 예산도 확보했다.
이번 하위법령 제정은 AI산업 진흥과 안전·신뢰 확보라는 두 축을 균형 있게 반영하려는 취지다. 과기정통부는 올해 1월부터 민간 전문가, 산업계, 시민단체 등과 70차례 넘는 논의를 거쳐 초안을 마련했으며, 국가AI전략위원회 보고와 공청회를 통해 의견을 수렴해왔다.
앞으로 정부는 9~10월 산·학·연, 시민단체, 해외 기업을 대상으로 추가 의견을 수렴한 뒤 10월 입법예고를 거쳐 연내 시행령과 가이드라인을 확정·공개할 계획이다.
김경만 과기정통부 인공지능기반정책관은 “AI기본법 하위법령은 국내 산업의 혁신을 촉진하면서 동시에 국민을 보호하기 위한 최소한의 안전장치”라며 “산업계와 시민사회 의견을 반영해 합리적인 제도를 마련하겠다”고 말했다.
Copyright ⓒ 아주경제 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.