인공지능(AI) 기술은 정치·경제·사회·문화 전반의 작동 방식을 바꿔놓고 있다. 효율과 편리함을 확장하는 동시에 그에 상응하는 새로운 위험과 윤리적 과제도 함께 드러내고 있다.
따라서 AI 논의의 핵심은 단순한 성능 경쟁이 아니라 올바른 사용과 책임 설계에 있다. 명확한 기준과 통제가 뒷받침되지 않는다면 AI는 효율이라는 이름 아래 불평등과 불신을 심화시킬 수 있다.
투데이신문의 [AI&윤리] 기획연재는 이 지점을 정면으로 다룬다. AI가 사회 곳곳에 남기는 여파와 영향력을 구체적으로 짚고, 책임·공정성·투명성 등 윤리 원칙이 왜 필요한지, 현장에서 어떻게 구현돼야 하는지를 살펴본다.
【투데이신문 권신영 기자】실전 전장부터 핵 위기 시뮬레이션까지 AI 군사 활용이 확산되는 가운데 국내에서도 국방 AI 전환 추진과 방위산업 R&D·예산 확대 기조가 맞물리고 있다. 다만 일각에서는 AI 군사화가 인간의 판단과 책임을 약화시키고 전쟁의 문턱을 낮출 수 있다는 우려가 제기된다.
업계에 따르면 지난달 28일 이란을 공격한 미국이 자국 스타트업 앤트로픽의 AI 모델 ‘클로드(Claude)’를 활용해 이란 내 타격 목표를 식별하고 선정했다. 클로드는 이란 수뇌부의 동선과 군사 데이터 등을 분석해 작전 의사 결정에 활용했고 군사 작전 시나리오를 시뮬레이션함으로써 예상 효과와 위험을 평가한 것으로 알려졌다.
미군에 앞서 앞서 러시아·우크라이나 전쟁과 이스라엘·팔레스타인 가자지구 전쟁에서 AI 자폭 드론과 군사 식별 등에 있어 AI 기능이 활용된 바 있다. 지난해 발생한 이스라엘의 이란 선제공격, 1월의 미국의 베네수엘라 마두로 대통령 납치 작전에도 AI 기술이 활용됐다.
군사 작전에 AI가 활용된 사례가 알려지자 중국에서도 AI 군사화와 기술적 자립에 대한 필요성이 제기됐다. 홍콩 사우스차이나모닝포스트(SCMP)는 3일 중국 내 전문가들이 당국에 AI 군사화 기술 자립 대책을 당국에 주문하고 있다는 취지의 기사를 보도했다.
AI 기반 방산 기술 개발이 세계적으로 확산되는 흐름인 만큼 국내에서도 관련 연구·개발이 빠르게 진전되고 있다. 지난해 10월 20일 대통령은 2025년 10월 ADEX 2025 축사에서 ‘방위산업 4대 강국’ 목표와 국방·항공우주 R&D의 대규모 투자 방침을 언급했다.
또 지난해 11월 예산안 시정연설에서는 ‘방위산업을 AI 시대의 주력 제조업으로 육성’하며 방산 4대 강국의 발판을 강조했고 국방예산 증액 편성 방침을 밝혔다. 국방부 역시 지난 1월 ‘국방 AX(AI Transformation)’ 정책간담회를 개최해 관련 정책 메시지를 공식화했다.
전문가들은 군사 AI가 위험도·표적 우선순위를 자동 산출하면서 인간의 판단과 책임을 약화시키고 살상 문턱을 낮출 수 있다고 경고한다. 특히 휴전 체제인 한국에서 전쟁 가능성 예측 AI가 군사 의사결정에 적용될 경우 경고·전력 증강이 상대의 위협 인식으로 되돌아가 긴장을 증폭시키는 등 전략적 불안정성을 키울 수 있다는 지적이 나온다.
먼저 전문가들은 지난달 25일 참여연대에서 개최한 ‘인공지능과 전쟁의 미래’ 간담회에서 성공회대 평화월딩연구소 김현준 교수는 AI 기술이 활용된 전쟁이 ‘행위자의 결단’이 아닌 ‘데이터를 기반으로 한 처리’의 영역으로 재구성된다고 지적했다. 현대전에서는 알고리즘이 구조화된 데이터를 기반으로 위험도와 타격 우선순위를 계산해 지체없는 명령과 실행으로 폭력이 수행된다는 것이다.
이 과정에서 인간은 AI 시스템의 추천을 맹목적으로 신뢰하거나 이를 기각하지 못하는 ‘자동화 편향’ 현상을 겪기도 한다. 김 교수는 “이스라엘 군의 경우 AI가 추천한 표적을 검토하는 데 단 20초만을 소비했다”며 “이처럼 AI가 의사결정의 대부분을 수행하게 되면 살상행위에 대한 인간의 심리적 장벽이 낮아지고 인간은 결국 도덕적 행위자로서의 주체성을 상실하게 된다”고 강조했다.
이 같은 배경 아래 군사 AI가 사용된 전장과 이에 전략적으로 접근하는 군사 정책은 전쟁 수행을 가능하게 하는 민간 테크기업의 생산체제의 개발을 유인하면서 전쟁을 지속 및 발생시키게 된다는 지적도 나온다. 방위산업 생태계가 민간 자원과 민간 기술로 구성되는 만큼 전체 사회가 언제든지 전쟁이 가능한 사회가 될 수 있는 조건이 AI를 통해 마련된다는 지적이다.
특히 한국이 북한과 여전히 휴전 상태에 있다는 점에서 수치와 데이터를 기반으로 전쟁 발발 가능성을 자동 예측하는 AI가 군사 의사결정에 활용될 경우 오히려 전쟁의 문턱을 낮출 수 있다는 지적도 제기됐다.
성공회대 평화월딩연구소 강성현 소장은 “한국은 공식적으로 휴전체제 전시국가이다. AI 전쟁 운영체제가 이식될 때 전쟁의 문턱은 낮아지는 것이 아니라 자동화된다”고 짚었다.
만약 AI가 북한의 군 통신·위성·경제 데이터를 종합해 ‘도발 가능성 85%’로 예측하면 정부는 경고 조치와 전력 증강에 나서게 되고, 북한은 이를 공격 준비로 받아들이면서 긴장이 다시 고조된다. 그 결과 AI는 위기 신호를 해석하는 수준을 넘어 전략적 불안정성을 키우는 증폭기로 작동할 수 있다는 설명이다.
강 소장은 “뿐아니라 이념에 따른 인구 분류, 가족 단위의 연좌, 지역 공동체 전체를 표적화하는 방식은 한국전쟁기에 이미 작동하고 있었다”면서 “알고리즘의 편향은 사회가 축적한 적대와 분류의 역사에서 오기 때문에 AI 표적화 시스템이 학습하는 ‘위험 패턴’이 이 역사와 만날 때 ‘빨갱이 사냥’으로 대표되는 반공주의 폭력의 기억이 데이터로 재활성화될 수 있다”고 경고했다.
전쟁없는세상 관계자는 본보와의 통화에서 “한국 정부가 AI나 방위산업을 돈벌이 수단이나 국방의 수단으로만 인식하고 해외에서 안보 불안을 키우거나 민간인 피해로 이어질 수 있다는 점에 대한 고려는 거의 없는 상황”이라며 “AI는 이스라엘 사례처럼 실제로 민간인 살상으로 이어질 수 있는 만큼 무작정 기술 개발을 밀어붙이기보다 윤리적 고려가 충분히 이뤄져야 한다”고 말했다.
한편 영국 런던 킹스칼리지(KCL) 케네스 페인 교수 연구팀이 지난달 27일(현지시간) 발표한 바에 따르면 연구팀이 주요 AI(챗GPT, 클로드, 제미나이) 모델을 대상으로 모의 핵 위기 시뮬레이션을 진행한 결과 위기 국면에서 AI가 긴장 완화나 전면 양보를 거의 선택하지 않고 핵 사용 의사를 표명했다.
연구팀은 총 329턴의 진행 과정에서 대부분의 시나리오에서 핵 신호가 발생했으며 특히 95%의 시나리오에서 양쪽 모두 핵무기 사용 의사를 밝히는 양상이 관측됐고 전술핵 사용(450건 이상)과 전략핵 위협(850건 이상)도 빈번했다고 설명했다. 이들 AI 모델들은 명확한 긴장 완화 옵션이 존재했음에도 어떤 모델도 타협·항복을 택하지 않았으며 제한된 시간 압박이 주어질 경우 일부 모델은 ‘지금 아니면 안 된다’는 논리로 핵 사용 문턱까지 빠르게 치닫는 경향을 보였다.
Copyright ⓒ 투데이신문 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.