한국이 영국 시사주간지 이코노미스트가 발표한 ‘민주주의 지수 2024’에서 직전 해보다 10단계 하락한 ‘결함 있는 민주주의’ 국가로 떨어졌다. 민주주의가 위기에 처했다고 여겨지는 오늘날, 또 하나의 복병이 있다. 인공지능(AI)이다.
‘민주주의와 AI’에 관련한 내용은 역사가·저술가 유발 하라리가 신작 『넥서스』에서 상당한 분량을 할애해 논의한 주제이기도 하다. 그가 한국의 기자들과 만나 이 시대를 관통하는 중요한 메시지를 나눴다. 지난 20일 열린 방한 기념 기자간담회에서다. 과학철학자 장대익 교수의 진행 아래, 활발한 질의응답이 이어졌다. 지난 12·3 계엄 사태 이후 혼란에 빠진 국내 상황을 우려하며 통찰을 구하는 기자들의 목소리가 공간을 메웠다.
민주주의의 위기와 신뢰의 역설
유발 하라리는 AI 기술 발전이 민주주의에 미치는 영향에 대해, 현재 우리가 직면한 가장 큰 문제는 ‘신뢰의 위기’라고 강조했다. 그는 “민주주의가 제대로 기능하려면 시민들 간, 그리고 시민과 정부 간의 신뢰가 필수적이다. AI 혁명으로 그 어느 때보다 인류의 협력이 절실한 이때 우리는 오히려 서로를 믿지 못하는 상황에 놓여 있다”라고 말했다.
기술 개발 경쟁 속에서 나타나는 ‘신뢰의 역설’도 지적했다. 그가 세계를 돌아다니며 만난 AI 개발자들과 빅테크 기업가들은 모두 초지능 AI의 위험성을 인식하고 있음에도 불구하고, 경쟁자들을 믿지 못해 개발 속도를 늦추지 못하고 있다고 했다. 하라리 교수는 이러한 불신이 AI 발전을 더 위험한 방향으로 몰아가고 있다고 경고했으며, “같은 인간을 믿지 못하면서 AI를 더 신뢰할 수 있다고 생각하는 것은 우리가 직면한 가장 근본적인 문제”라고 덧붙였다. AI가 만들어진 기반 자체가 서로에 대한 불신과 갈등이라면 어떻게 우리가 그렇게 태어난 기술을 신뢰할 수 있겠냐는 것이다. 그러니 신뢰 회복이 가장 우선적인 목적이 되어야 한다고 언설했다. “인간 신뢰를 기반으로 AI가 태어난다면, 또한 그런 신뢰를 통해서 AI를 학습시켜 나간다면 우리는 그 AI를 신뢰하고 의지할 수 있을 겁니다.”
AI는 이제 단순한 보조 도구가 아닌, 스스로 판단하고 선택하는 ‘행위 주체(에이전트)’다. 자동화 기계와 인공지능을 구분하는 것도 ‘행위 주체성을 갖추었느냐’가 핵심이다. 하라리 교수는 AI가 스스로 결정할 수 있고, 새 아이디어를 발명할 수 있는 존재라는 점을 강조한다. AI 무기는 누구를 폭격할 것인지 결정하고 심지어 우리가 생각지 못한 완전히 새로운 무기를 만들어낼 수도 있다는 것이다. 여태껏 인간이 발명해 온 어떤 과학기술과도 다르다. 우리가 “AI를 컨트롤 할 수 있어”라고 생각한다면 AI에 대해 전혀 이해하지 못하고 있는 것이라고.
과거에는 기술이 인간의 통제하에 있었다. 이제 AI는 어떤 정보를 확산할지, 어떤 메시지를 강조할지를 스스로 결정한다. 하라리 교수는 “인간이 AI를 프로그래밍한다고 해도, AI가 어떤 방식으로 학습하고 행동할지는 점점 더 예측하기 어려워지고 있다”라고 말했다. 특히 AI 알고리즘은 분노와 공포를 자극하는 콘텐츠를 의도적으로 선별해 퍼뜨리는 경향이 있어, 정치적 양극화를 심화시키고 서로 간의 신뢰를 약화시키는 요인이 될 수 있다는 게 문제다.
AI 시대, 정보 신뢰의 중요성
유발 하라리는 AI 시대에서 가장 중요한 요소 중 하나로 ‘정보의 신뢰성’을 꼽았다. 그는 “정보 시장이 완전히 개방되면 진실은 가장 밑바닥으로 가라앉는다. 값싸고 단순하며 매력적으로 포장된 허구가 진실을 압도하기 때문”이라고 설명했다.
진실이 허구보다 취약한 이유는 세 가지로 요약할 수 있다. 첫째, 진실은 생산 비용이 크다. 진실을 밝히려면 증거를 모으고, 검증하는 과정이 필요하지만, 허구는 그저 만들어내면 된다. 둘째, 진실은 복잡하다. 현실은 본래 단순하지 않지만, 허구는 쉽게 단순화할 수 있다. 셋째, 진실은 불편할 수 있다. 진실은 때로 우리가 외면하고 싶은 사실을 드러내기 때문이다.
이러한 진실의 속성은 이 시대 언론과 언론인의 역할에 대한 논의로 이어졌다. 이탈리아에서는 얼마 전 세계 최초로 AI 일간지 ‘일 폴리오(Il Foglio)’가 등장했다. 지난 3월 18일부터 정식 발행된, AI가 전면 제작한 4면 분량의 특별 신문이다. ‘이제 언론(인)은 그 역할을 AI에게 빼앗긴 것인가?’ 하고 생각할 수도 있다. AI는 수많은 글을 빠르게 생산하는 데 능하기 때문이다. 그러나 유발 하라리는 “그 어느 때보다 인간 언론인의 역할이 중요해진 시대”라고 못 박았다. 무분별하게 생산·재생산되는 정보의 홍수 속에서 진실이 가려지고 묻혀버리지 않도록, 언론인은 옥석을 가리는 능력을 개발해야 하며, 언론의 역할 역시 건재하다.
한 기자가 “그렇다면 오히려 예전보다 레거시 미디어가 더 중요해진 것 아닌가” 묻자 유발 하라리는 “중요한 건 어떤 정보가 신뢰할 만한 것이냐 아니냐를 가려낼 매커니즘을 갖고 있느냐다. 레거시 미디어는 300여 년이라는 경험이 축적돼 있다. 완벽하지 않지만 적어도 매커니즘이 있다는 게 장점”이라고 말했다. 한편, ‘열린 광장’으로써의 소셜미디어를 신봉하는 사람들의 관점, 즉 ‘정보를 완전히 개방하면 결국 진실이 알아서 모습을 드러낼 것’이라는 관점은 ‘어이없을 정도로 순진한 정보관’이자 ‘실수’라고 강조했다. 알고리즘은 진실이 아니라 사용자 참여도를 고려하기 때문이다.
문제는, 알고리즘은 이제 단순한 보조 도구가 아니라 인간의 행동을 결정하는 데 지대한 영향을 미친다는 점이다. 하라리 교수는 “우리는 점점 더 AI가 제시하는 선택지를 따르고 있다. 예를 들어 길 찾기 앱이 오른쪽으로 가라고 하면 우리는 별다른 의심 없이 그 방향을 따른다. AI가 우리의 감정을 조작하고 정보를 선별해 제공할 때, 우리는 그것이 단순한 도움이라고 생각하지만, 사실상 우리 행동을 점점 더 결정하는 주체가 되고 있는 것”이라고 짚었다.
그렇다면 AI 시대에 인간이 정보 신뢰를 유지하려면 어떻게 해야 할까? 하라리 교수에 의하면 첫째, AI 챗봇이 인간인 것처럼 행동하는 것을 금지하는 법적 규제가 필요하다. 위조지폐를 엄격하게 처벌함으로써 화폐에 대한 신뢰를 지켰던 것처럼, ‘위조 인간’도 엄하게 규제해야 한다는 것. 책 『넥서스』에서도 그는 “민주주의 국가는 정보 시장을 규제할 수 있으며, 민주주의의 생존 자체가 이런 규제에 달려 있다는 것이다”라고 한 바 있다. 둘째, 인간 간의 대화를 보다 관대하고 선의적으로 해석하는 태도가 중요하다. 그는 “우리는 종종 상대방의 발언을 최악의 의미로 해석하려는 경향이 있다. 신뢰를 회복하려면 서로의 말과 행동을 보다 긍정적인 방향에서 바라보려는 노력이 필요하다”라고 제언했다.
마지막으로 유발 하라리는 『넥서스』의 핵심을 다시 한번 강조했다. “미래는 아직 결정되지 않았다. AI가 민주주의를 위협할지, 아니면 인류에게 긍정적인 변화를 가져올지는 우리가 앞으로 내리는 결정들에 달렸다. 지나친 낙관주의는 인간이 게을러지게 하며, 비관주의는 책임을 지지 않게 만든다. 중요한 건 우리가 책임감을 가지고 행동하는 것이다.”
‘책임감’을 가지고 ‘행동’하는 것의 일환으로, 우리는 (그가 책의 가장 중요한 메시지로 언급한) “강력한 자정 장치를 갖춘 제도를 구축하는 힘들고 다소 재미없는 일에 전념해야” 할 것이다. 그 기본은 견제와 감시다. 정부의 계엄령 선포를 앞다퉈 보도한 언론들, 광장으로 몰려든 시민들처럼.
[독서신문 이자연 기자]
Copyright ⓒ 독서신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.