일본 정부가 생성형 인공지능(AI)의 신뢰성을 평가하기 위한 시스템을 개발할 방침인 것으로 전해졌다.
뉴시스 보도에 따르면, 15일 일본 요미우리신문에 따르면 총무성 산하 국립연구개발법인·정보통신연구기구(NICT)는 내년 봄 AI 신뢰성 평가 시스템 개발을 시작, 내년 중 시제품 모델을 내놓을 계획이다.
이 시스템은 여러 AI가 다양한 질문을 자동으로 생성, 평가 대상인 AI에게 질문을 던지고 그 내용을 확인하는 방식이라고 한다. 또 인간이 정기적인 감사를 실시해 평가용 AI가 올바르게 기능하고 있는지도 점검한다.
총무성은 생성형 AI의 답변을 평가하는 기준으로 ▲차별적 표현이나 프라이버시 정보가 없는가 ▲범죄로 이어지는 내용이 없는가 ▲오정보나 근거를 결여한 것이 없는가 ▲균형 잡힌 내용인가 ▲일본의 문화에 충실한 내용인가 ▲사람을 기만하고 있지 않은가 ▲미지의 리스크에 대응할 수 있는가 총 7개의 항목을 상정하고 있다.
평가 기준은 2023년 주요7개국(G7) 정상회의를 계기로 합의된 '히로시마 AI 프로세스'를 바탕으로 법학자나 사회학자 등이 참가하는 회의에서 자세히 검토할 방침이다.
최근 일본에서 미국이나 중국 등 해외에서 개발된 AI 이용이 확산되면서, AI들이 영토 분쟁 관련 답변을 중국 입장에서 내놓거나, 유럽·미국 가치관에 기반한 답변 등을 내놓는 경향이 있다는 지적에 따라 총무성은 이번 계획을 구상하게 됐다고 한다. 일본 기준으로 '신뢰할 수 있는 AI'를 제시하고, 기업이나 행정기관이 이런 AI를 우선 이용하도록 유도할 필요가 있다고 판단했다는 것이다.
총무성은 AI 평가 시스템이 개발되면 추후 'AI 세이프티 인스티튜트(AISI)'의 평가 시스템으로 활용하는 방안 등도 고려 중이라고 한다. AISI는 AI의 안전성 확보를 위해 설립된 정부 산하 기관이다.
Copyright ⓒ 모두서치 무단 전재 및 재배포 금지