|
14일 백연주 한국금융연구원 연구위원이 작성한 ‘인공지능기본법 하위법령(안)의 금융분야 시사점과 개선방안’ 논단에 따르면 인공지능기본법의 고영향 인공지능 규제는 금융회사가 주의를 기울여야 할 핵심 사안이다.
인공지능기본법은 권리·의무 관계에 영향을 미칠 수 있는 고위험사례를 ‘고영향 인공지능’으로 분류해 의무를 부과한다. 금융분야에서는 ‘대출심사’가 고위험사례로 분류되며 금융사는 인공지능 사용 시 투명성 확보 의무, 안전성 확보 의무 등을 준수해야 한다.
문제는 금융권이 고영향 AI를 활용할 때의 영향을 판단하는 기준이 모호하고 과도하게 넓은 범위에 적용한다는 점이다. 고영향 AI 판단 관련 가이드라인은 ‘대출심사’를 금융회사가 개인의 신용이나 담보자산 등을 평가해 신용공여를 심의·결정하는 업무로 정의하고 있다. 대출심사 과정에서 인공지능이 최종결정에 ‘상당한 영향’을 미치거나 최종결정을 하는 경우 고영향에 자동 해당된다. 백 연구위원은 “‘상당한 영향’의 정의가 모호하다”며 “AI 시스템을 활용한 프로파일링 결과를 은행원이 단순 참고만 하더라도 의사 결정에 간접적으로 영향을 미칠 수 있어 이를 ‘상당한 영향’으로 볼 여지가 있다”고 지적했다.
신용공여의 범위 역시 광범위하다. 백 연구위원은 “신용대출, 담보대출, 카드론 등 직접 대출뿐만 아니라 지급보증, 신용보증, BNPL(후불결제), 자동차 할부금융 등 리스·할부·연체결제 구조까지 모두 포함된다는 점이 문제”라며 “담보대출과 무담보대출의 경우 인공지능 시스템의 재량 범위가 크게 다를 수 있는데 이를 일률적으로 적용하는 것이 적절한지도 의문”이라고 봤다.
대출심사 과정에는 대출상담, 본인확인, 신용평가, 담보물 감정, 여신 적격 심의 등 다양한 업무가 포함돼 있어 모든 프로세스에서 인공지능 시스템을 사용할 경우 가이드라인에 따라 검토해야 하는 부담도 크다. 백 연구위원에 따르면 AI Act를 최초로 제정한 유럽연합에서도 고위험 지정이 산업 혁신을 저해할 가능성과 기준의 모호성에 대한 비판이 제기된 바 있다.
국내 인공지능기본법의 고영향 지정과 사업자 책무가 과학기술정보통신부(과기부)의 감독을 받는 형태로 된 점도 문제라는 지적이다. 금융 분야 전문가가 빠진 상태에서 과기부의 감독만 받을 경우 금융당국의 신용평가 관련 업무 방향과 고영향 판단이 상충될 수 있다. 백 연구위원은 또한 “과기부 장관의 재량적 고영향 판단으로 인해 대출 외 보험 가입심사, 보험료 산정, 사기탐지시스템(FDS) 등 다른 활용 사례에 대한 규제 적용 여부가 불확실한 것도 이슈가 될 수 있다”고 짚었다.
이미 금융권에서는 소비자의 금융거래에 영향을 미칠 수 있는 다양한 영역에서 인공지능을 적극 활용하고 있다. 백 연구위원은 “다양한 활용 사례가 고영향 규제에서 배제되는지 불명확하다”며 “현행 인공지능기본법의 기본 구조와 하위법령은 향후 구체화 작업이 더 필요할 것”이라고 했다.
실무적으로는 잠재적 규제 위험을 줄이기 위해 회사 내 거버넌스 체계를 점검할 것을 제안했다. 백 연구위원은 “고영향으로 지정될 수 있는 인공지능 활용 사레를 식별·관리하고 향후 부과될 수 있는 사업자 책무를 효과적으로 이행할 수 있도록 회사 내부 위험관리체계 및 모니터링 체계를 재점검할 필요가 있다”고 당부했다.
Copyright ⓒ 이데일리 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
