"국민이 믿고 쓸 수 있어야 한다…AI 안전, 정부가 그리는 마스터플랜의 방향은?

실시간 키워드

2022.08.01 00:00 기준

"국민이 믿고 쓸 수 있어야 한다…AI 안전, 정부가 그리는 마스터플랜의 방향은?

아주경제 2026-02-06 16:27:47 신고

3줄요약
과학기술정보통신부가 주최하고 한국정보통신기술협회TTA와 인공지능안전연구소AI안전연구소가 주관하는 국가 AI 안전 생태계 조성 마스터플랜가칭 의견수렴 간담회가 6일 서울 중구 은행회관 국제회의실에서 열렸다 사진최연재 기자
과학기술정보통신부가 주최하고 한국정보통신기술협회(TTA)와 인공지능안전연구소(AI안전연구소)가 주관하는 '국가 AI 안전 생태계 조성 마스터플랜(가칭)' 의견수렴 간담회가 6일 서울 중구 은행회관 국제회의실에서 열렸다. [사진=최연재 기자]



인공지능(AI) 안전을 둘러싼 논의의 무게중심이 기술 자체에서 ‘국민 신뢰’로 이동하고 있다. AI 확산이 가속화되는 가운데, 기술 발전 속도보다 보안과 설명 가능성, 피해 대응 역량을 우선해야 하며 이를 위해 정부와 기업, 공공기관이 각자의 책임을 분명히 해야 한다는 제언이 나왔다. AI 안전은 선언에 그칠 문제가 아니라, 국민이 실제로 믿고 사용할 수 있는 구조로 증명돼야 한다는 요구가 간담회 전반에서 공통적으로 제시됐다.

과학기술정보통신부는 6일 서울 중구 은행회관 국제회의실에서 한국정보통신기술협회(TTA), 인공지능안전연구소(AI안전연구소)와 함께 ‘국가 AI 안전 생태계 조성 마스터플랜(가칭)’ 의견수렴 간담회를 개최하고, AI 안전 생태계 조성 방향에 대한 논의를 진행했다.

토론회에서 참석자들은 공통적으로 “국민이 이해하고 납득할 수 있는 안전과 보안 체계”를 핵심 과제로 꼽았다. AI가 사회 전반에 적용되는 흐름 자체를 당연시하기보다, 그 과정에서 발생할 수 있는 위험과 피해에 어떻게 대응할 것인지가 먼저 설계돼야 한다는 것이다.

시민단체 측은 AI 확산 과정에서 무분별한 낙관을 경계해야 한다고 지적했다. 이지은 참여연대 선임간사는 “AI로 인해 불이익을 받았을 때 왜 그런 결과가 나왔는지, 누구에게 설명을 요구하고 어떤 절차로 구제받을 수 있는지가 보이지 않는다”며 “절차 없는 안전은 신뢰로 이어질 수 없다”고 말했다. 정지연 한국소비자연맹 사무총장 역시 “지금 구조대로라면 안전한 AI가 아니라 ‘안전해 보이는 AI’에 그칠 수 있다”며 자율에만 맡긴 안전은 결국 국민에게 위험을 전가한다고 경고했다.

전문가들은 AI 안전을 규제나 위험 통제로만 볼 것이 아니라, 국민이 체감할 수 있는 신뢰의 문제로 재정의해야 한다고 강조했다. 문정욱 정보통신정책연구원(KISDI) 실장은 “국민 인식, 참여 절차, 정부의 책임 있는 대응이 하나의 구조로 연결돼야 한다”며 신고와 환류가 실제 정책과 제도 개선으로 이어지는 체계를 주문했다. 이은주 서울대 언론정보학과 교수는 “AI 이용자를 단순한 피해자로만 볼 것이 아니라, 기술을 어떻게 쓰느냐에 대한 시민적 책임과 윤리 교육이 먼저 강조돼야 한다”며 “그 전제 위에서 안전한 상품을 만드는 것은 기업의 책임이고, 이를 관리·감독하는 것은 정부의 역할”이라고 말했다.

산업계는 신뢰 확보가 곧 생존 조건이라는 점을 분명히 했다. 김경훈 카카오 AI Safety 리더는 “AI가 아무리 유용해도 안전하지 않다면 장기적으로 선택받지 못한다”며 안전 기술과 기준은 개방형 생태계 안에서 축적돼야 한다고 말했다. 이종형 셀렉트스타 본부장은 AI 안전 기업이 속도 경쟁에서 뒤처지지 않으려면 공공 부문의 선제 도입과 빠른 지원이 필요하다고 강조했다.

보안과 안보 관점의 경고도 나왔다. 이상근 고려대 정보보호대학원 교수는 “AI 안전과 신뢰는 결국 보안과 국가 안보 문제로 확장될 수밖에 없다”며 공공기관의 거대언어모델(LLM) 도입 과정에서 데이터 보호와 정량적 평가 체계가 필수라고 지적했다. 체크리스트식 접근이 아니라 벤치마크 기반 평가와 산업 참여가 병행돼야 한다는 주장이다.

AI 안전에 대한 신뢰를 국내에만 머무르지 않고 국제 기준과 연결해 가시화해야 한다는 목소리도 나왔다. 김명신 LG AI연구원 정책수석은 “한국형 AI 안전 모델과 우수 사례를 국제무대에서 선도적으로 제시할 시점”이라며 정부 차원의 종합 보고서 발간을 제안했다.

김명주 AI안전연구소장은 “우리나라에서만 안전하고 우리나라에서만 경쟁력 있는 AI는 의미가 없다”며 “국제사회 속으로 더 주도적으로 나가 한국의 기준과 목소리를 분명히 해야 한다”고 말했다. 이어 그는 “AI안전연구소는 단순한 기술 연구를 넘어 사회적·국가적 리스크까지 포괄해 국가 전체 AI 생태계의 흐름을 연결하는 포털이자 허브가 돼야 한다”며 “각 부처에 흩어진 안전 이슈를 모으고 정리해 리포팅하는 중심 역할을 수행하겠다”고 강조했다.
 

Copyright ⓒ 아주경제 무단 전재 및 재배포 금지

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기