AI는 더 이상 특정 산업이나 기술 영역의 문제가 아니다. 인간의 판단과 역할, 사회의 작동 방식 자체를 다시 묻게 하는 단계에 접어들었다. 기술은 기계화와 자동화와 스마트화를 거쳐 '자율'로 진입한 AI는 인간이 통제하는 도구를 넘어 독립적인 판단 주체로 진화하고 있다. 문제는 그 판단이 어디까지 인간의 의도와 윤리를 반영할 수 있느냐다.
전규열 폴리뉴스 정치경제 본부장은 지난 15일 윤태성 KAIST 교수를 만나 AI 기술의 진화가 경제와 사회, 인간의 역할에 어떤 변화를 가져올지에 대해 이야기를 나눴다. 윤 교수는 "AI는 5년에서 10년 안에 공기처럼 투명해질 것"이라며 "기술로 인식되지 않는 단계로 들어가게 된다"고 말했다.
윤 교수는 AI 진화의 핵심 키워드로 '자율'을 제시했다. 자율은 인식, 판단, 행동의 결합이라는 설명이다. 센서와 데이터로 상황을 인식하고, 그에 따라 판단하며, 물리적·소프트웨어적 행동으로 이어지는 구조다. 그는 "인식과 행동은 기술로 해결될 수 있지만 판단은 전혀 다른 문제"라고 강조했다.
특히 사람을 대상으로 한 AI의 판단은 가장 민감한 영역이다. 금융 대출 심사, 신용 평가, 이동 수단 이용처럼 일상적인 선택에서 AI가 개인을 위험 인물로 오판할 경우 즉각적인 배제와 불이익이 발생할 수 있다. 윤 교수는 "AI 판단의 핵심에는 인간의 의도가 있다"며 "의도를 왜곡하거나 잘못 해석할 가능성이 가장 큰 위험 요소"라고 지적했다.
AI 확산은 새로운 격차도 만든다. 단순한 소득 차이를 넘어 AI 리터러시를 갖췄는지 여부가 '존재의 문제'로 이어질 수 있다는 것이다. AI 환경에 익숙하지 않으면 사회 시스템에 접근조차 어려워질 수 있다. 다만 그는 기존 교실형 교육을 그대로 적용하는 방식에는 한계를 지적했다. "AI 교육은 아직 정답이 없다"며 "인간이 AI와 친해지는 방법을 사회 전체가 시행착오 속에서 찾아가는 단계"라고 말했다.
기업의 고민은 더 복잡하다. 신입 채용보다 기존 인력의 전환이 핵심 과제가 됐다. 리스킬링과 업스킬링으로 대응하고 있지만 모든 인력이 전환 가능한 것은 아니다. 해고가 어려운 한국의 노동 구조에서는 조직 운영 부담이 커질 수밖에 없다. 윤 교수는 이를 '인간 능력의 증폭'이라는 개념으로 풀어야 한다고 제안했다.
국가 차원의 대응도 필요하다고 봤다. 그는 AI 시대의 초대형 국가 상품으로 '도시'와 '개인의 생애'를 꼽았다. 교통, 에너지, 안전을 통합 관리하는 자율 도시와 출생부터 삶의 전 주기를 관리하는 생애 플랫폼은 국가가 직접 설계하지 않으면 구현하기 어렵다는 설명이다.
윤 교수는 AI 사회에서 가장 중요한 가치를 '신뢰'로 제시했다. 과거 데이터를 기반으로 한 신용을 넘어, 미래에 상대가 어떻게 행동할지를 가늠하는 신뢰가 경제의 핵심 기준이 된다는 것이다. 동시에 그는 AI가 발전할수록 인간은 더 고립될 수 있다고 경고했다. "AI와의 소통보다 인간과 인간의 소통을 늘려야 AI의 부작용을 줄일 수 있다"는 메시지다.
윤태성 교수의 진단은 기술 낙관도, 공포도 아닌 질문에 가깝다. AI가 판단하는 사회에서 인간은 무엇으로 남을 것인가. 그리고 그 답을 찾는 과정 자체가 앞으로의 경제와 사회를 규정하게 될 것이라는 점을 분명히 했다.
다음은 윤태성 카이스트 교수의 일문일답.
Q. 교수님께서는 AI 기술의 진화를 '자율'이라는 키워드로 설명하셨습니다. 지금 우리가 맞이하고 있는 AI의 단계는 어디쯤이라고 보십니까.
지금은 추론 단계라고 보는 게 맞다. 아직 AI가 완전히 자율적인 판단 주체가 됐다고 말하기는 어렵다. 다만 방향은 명확하다. 기계화 자동화 스마트화를 지나서 이제는 자율로 가고 있다. 자율이라는 건 단순히 자동으로 움직인다는 의미가 아니다. 상황을 인식하고 그걸 해석해서 판단하고 행동까지 이어지는 구조다. 이게 결합되는 순간 인간의 개입 여지는 급격히 줄어든다.
자율주행차를 보면 이미 느낄 수 있다. 운전대를 사람이 잡지 않는다. 처음에는 사람이 개입하지만 점점 AI가 주도권을 가져간다. 앞으로는 건물도 마찬가지다. 자율빌딩이 되면 출입 여부부터 동선 관리까지 AI가 판단한다. 인간은 시스템 안에 포함된 객체가 된다. 지금은 불편함이나 거부감이 있지만 시간이 지나면 상식이 된다. 스마트폰이 그랬다. 이메일이 그랬다. AI도 그렇게 투명해질 거다. 5년일 수도 있고 10년일 수도 있지만 결국 공기처럼 존재하게 된다.
Q. 자율 AI 시대에서 교수님이 가장 우려하는 지점은 '판단'이라고 하셨습니다. 왜 판단이 핵심 문제라고 보십니까.
자율은 인식 판단 행동의 곱셈이라고 말한다. 인식은 센서 기술로 해결할 수 있다. 인간보다 AI가 더 잘할 수도 있다. 행동도 하드웨어와 소프트웨어 기술로 구현 가능하다. 문제는 판단이다. 특히 사람을 대상으로 한 판단이다.
예를 들어 금융 대출을 생각해보자. AI가 이 사람에게 얼마를 빌려줄지 판단한다. 그런데 AI가 이 사람을 위험 인물로 판단하면 그 순간부터 배제된다. 대출이 안 될 뿐 아니라 신용 전체가 흔들릴 수 있다. 문제는 그 판단 근거다. 데이터로 본 과거 행동이 전부다. 그런데 인간의 행동에는 항상 의도가 있다. 같은 행동이라도 맥락과 목적이 다르다. AI는 그걸 완전히 이해하기 어렵다.
의도를 왜곡해서 이해할 수도 있고 의도를 과잉 해석할 수도 있다. 심지어 의도를 정확히 파악했는데도 전혀 다른 결론을 내릴 수도 있다. 그래서 판단은 기술 문제가 아니라 사회 문제고 윤리 문제로 이어진다. AI 판단이 확대될수록 인간은 그 결과를 윤리라는 잣대로 평가하게 된다. 하지만 윤리 역시 절대 기준은 아니다. 결국 누가 판단의 책임을 지느냐는 질문으로 돌아온다.
Q. AI 리터러시 격차가 새로운 사회 문제로 떠오르고 있습니다. 이 문제를 어떻게 보십니까.
이건 단순한 교육 문제를 넘어선다. 잘 살고 못 사는 문제가 아니라 존재의 문제다. AI 시스템에 접근하지 못하면 사회 구성원으로 기능하기 어렵다. 집에 들어가려면 안면 인식이 필요하고 사무실에 들어가려면 시스템을 이해해야 한다. 방법을 모르면 물리적으로 배제된다.
AI 리터러시 교육이 필요하다는 말은 맞다. 하지만 기존 교육 방식이 그대로 통할 거라고 보지는 않는다. 교사가 있고 학생이 있고 반복하고 암기하는 방식이 AI에 맞느냐는 질문을 던져야 한다. 솔직히 말하면 아직 아무도 답을 모른다. 지금은 실험 단계다. 중요한 건 명칭이 교육이든 훈련이든 상관없이 인간이 AI와 친해져야 한다는 사실이다. 적응하지 않으면 뒤처지는 게 아니라 사라질 수 있다.
Q. 기업 차원에서는 AI 도입이 고용 구조에 큰 변화를 가져오고 있습니다. 가장 큰 과제는 무엇이라고 보십니까.
신입 채용을 줄이고 경력직 중심으로 가는 건 기업 입장에서 비교적 쉬운 선택이다. 문제는 기존 인력이다. 이미 조직 안에 있는 사람들을 어떻게 전환시킬 것인가. 리스킬링 업스킬링이라는 말을 많이 쓰지만 현실에서는 한계가 있다. 모두가 새로운 기술을 습득할 수 있는 건 아니다.
한국은 특히 해고가 어렵다. 미국처럼 정리해고로 해결할 수 없다. 그러다 보니 조직은 점점 비대해지고 생산성 문제에 직면한다. 그래서 내가 제안하는 개념이 증폭이다. AI를 대체 수단이 아니라 인간 능력을 키우는 도구로 쓰는 거다. 다만 이 역시 만능 해법은 아니다. 평범한 사람이 갑자기 10배 능력을 갖게 되는 사례는 많지 않다. 아직은 가설 단계다. 그렇지만 방향은 그쪽일 수밖에 없다.
Q. 국가 차원에서는 어떤 AI 전략이 필요하다고 보십니까.
국가는 초대형 상품을 만들어야 한다. 나는 두 가지를 본다. 도시와 개인의 생애다. 앞으로 인구의 대부분은 도시에서 산다. 도시는 교통 에너지 안전 환경이 복합적으로 얽힌 시스템이다. 부분 최적화로는 해결되지 않는다. 도시 전체를 하나의 대상으로 보고 최적화해야 한다. 이건 AI 없이는 불가능하다.
또 하나는 개인의 생애다. 출생 전부터 삶의 전 주기를 관리하는 구조다. 의료 복지 교육 노동이 모두 연결된다. 이런 상품은 민간이 만들기 어렵다. 국가가 나서야 한다. 그래서 AI는 단순히 산업 정책이 아니라 국가 운영 방식의 문제다.
Q. 마지막으로 AI 시대를 살아가는 개인에게 가장 중요한 태도는 무엇이라고 보십니까.
소통이다. AI는 개인화와 미래 예측에 강하다. 나에게 딱 맞는 걸 제공한다. 그러다 보면 인간은 점점 고립된다. 혼자 AI와 대화하고 혼자 판단하고 혼자 결론을 낸다. 이게 가장 위험하다.
AI가 발전할수록 인간은 인간과 더 많이 소통해야 한다. 다른 사람이 AI를 어떻게 쓰는지 보고 질문하는 방식을 공유해야 한다. 혼자만의 세계에 갇히면 AI의 편향도 그대로 흡수하게 된다. 인간과 인간의 소통이 늘어날수록 AI의 부작용은 줄어든다. 결국 AI 시대에 가장 인간적인 능력은 소통이다.
대담 : 전규열 폴리뉴스 부사장(경영학 박사)
사진 및 정리 : 권은주 기자
윤태성 교수
- 현) 카이스트 기술경영학부, 기술경영전문대학원 교수
- 일본 오픈놀리지 대표이사
- 일본 경제산업성 경제산업연구소 연구원
- 두산기계 엔지니어
- 도쿄대학교 조교수
- 도쿄대학 대학원 공학 박사
[폴리뉴스 권은주 기자]
Copyright ⓒ 폴리뉴스 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.