[※ 편집자 주 = 한국국제교류재단(KF)의 2024년 발표에 따르면 세계 한류 팬은 약 2억2천500만명에 육박한다고 합니다. 또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다. 바야흐로 '한류 4.0'의 시대입니다. 연합뉴스 동포·다문화부 K컬처팀은 독자 여러분께 새로운 시선으로 한국 문화를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다. 시리즈는 매주 게재하며 영문 한류 뉴스 사이트 K바이브에서도 영문으로 보실 수 있습니다.]
◇ 기능에서 '태도'로 옮겨간 기술
올해 초 열린 세계 최대 가전·정보기술(IT) 전시회 CES 2026에서는 '피지컬 AI'(Physical AI)와 로보틱스(Robotics)가 주요 이슈로 부상했다. AI가 센서와 엣지 컴퓨팅, 로봇·자율 시스템을 통해 물리 환경을 인지하고 상호작용하는 흐름이 전면에 배치됐기 때문이다. 이 흐름은 AI가 화면 속에서 추천과 대화를 수행하는 단계에서 벗어나, 일상 공간에서 '행동'과 '태도'로 등장하는 단계로 이동하고 있음을 보여준다. 기술이 물리 세계로 내려오는 순간, 디바이스는 기능을 제공하는 동시에 곁에 있는 방식 자체를 설계하기 시작한다. 바로 이 지점에서 감성 지능형 인터랙션 디바이스가 논쟁의 중심으로 들어온다.
감성 지능형 인터랙션 디바이스는 흔히 인간의 감정을 이해하는 기술로 설명된다. 그러나 실제로 이 기기들이 다루는 것은 감정 그 자체라기보다, 행동의 패턴과 반응의 타이밍이다. 사용자의 표정과 움직임, 반복되는 생활 리듬을 신호로 삼아 정서적으로 '적절해 보이는' 반응을 설계한다. 문제는 이 적절함이 이해와 공감으로 오인된다는 데 있다. 기술은 감정을 이해하기보다 흉내 내고, 디자인은 그 흉내를 관계로 포장한다. 사용자는 반응의 정확도보다 태도의 자연스러움에 감정을 투사하고, 그 결과 신뢰와 의존이 동시에 형성된다.
여기서 핵심은 단순하다. 감성 디바이스의 위험은 감정을 이해해서가 아니라, 이해하는 척하는 '태도'가 관계를 만들어낸다는 데 있다. 로봇 램프와 데스크톱 로봇, 감성 스피커에 이르기까지 최근의 디바이스들은 무엇을 할 수 있는지보다 어떤 태도로 곁에 있을지를 전면에 내세운다. 기술은 더 부드러운 얼굴을 갖추고, 사물은 감정을 가진 존재처럼 행동한다. 이 변화는 단순한 인터페이스의 진화가 아니다. 인간과 기계의 관계를 다시 정의하려는 시도에 가깝다.
감성 디바이스는 기능을 제공하는 것이 아니라, 사용자의 기대를 설계해 관계의 주도권을 설계한다. 다만 문제는 의인화 자체가 아니다. 사용자가 그것을 '연기'로 인지할 수 있고, 언제든 관계를 멈출 수 있으며, 그 멈춤이 불이익으로 이어지지 않을 때 의인화는 유용한 인터페이스가 될 수 있다. 위험은 그 조건이 사라질 때 시작된다.
◇ 취약한 현장에서 증폭되는 착각
이 흐름이 가장 빠르게 스며드는 곳은 의료·돌봄·교육처럼 인간의 취약성이 직접적으로 드러나는 영역이다. 감성 디바이스가 환자와 돌봄의 대상, 학습자의 정서에 개입하는 순간 그것은 편의 기술이 아니라 책임을 요구하는 관계의 장치가 된다. 개입의 범위를 어디까지로 둘지, 사회는 더 이상 결정을 미룰 수 없게 된다.
의료에서 감성 디바이스는 환자의 불안을 완화하고 고립감을 줄이는 도구로 소개된다. 고개를 끄덕이고, 부드러운 음성으로 안심시키는 인터페이스는 위로를 제공할 수 있다. 그러나 그 위로는 책임을 지지 않는다. 의료 서비스가 신뢰를 전제로 작동하듯 감성 디바이스 역시 신뢰를 생성한다. 신뢰가 기술의 한계를 넘어서는 순간부터 문제가 시작된다. 공감처럼 보이는 반응이 의료적 판단이나 인간 돌봄을 대체하기 시작하면, 디자인은 치료가 아니라 착각을 설계하게 된다. 공감의 외피가 판단을 밀어내는 순간, 책임은 환자에게 전가된다.
돌봄 영역에서도 상황은 다르지 않다. 최근 '쓰러진 홀몸노인을 구한 AI 스피커'의 사례는 기술이 '도구'로서 정직하게 기능했을 때의 가치를 보여준다. 여기서 AI 스피커는 친구인 척하지 않았고, 단지 응급 매뉴얼을 수행하는 기계로 존재했다. 사용자는 기계의 다정함이 아니라 정확함에 생명을 의탁했고, 도구는 그 기대를 배반하지 않았다.
반면 노인이나 아동을 대상으로 한 인형 형태의 돌봄 로봇(효돌 등)은 종종 본능적 거부감을 불러일으킨다. 인간의 외형을 어설프게 흉내 내며 정서적 반응을 연기하는 디자인은, 그것이 철저히 계산된 알고리즘의 결괏값이라는 사실이 순간적으로 드러날 때 불쾌함으로 변질된다. 이를 '기계적 작위성'(Mechanical Artificiality)이라 부를 수 있다. 공감처럼 보이던 반응이 '연기'라는 사실이 드러나는 순간, 사용자는 갑자기 기계의 차가운 구조를 마주하게 된다. 이 현상은 미학이 아니라 윤리의 신호다. 공감의 외피가 벗겨지는 순간, 사용자는 관계가 아니라 조작을 경험한다. 이러한 '존재론적 이질감'(Ontological Heterogeneity)은 인간을 닮을수록 오히려 '인간이 아님'이 더 선명해지는 불편함을 뜻한다. 디자인이 사용자를 속이는 '태도'를 설계하는 순간, 기계와 인간 사이의 건강한 거리감은 무너진다. 돌봄은 본질적으로 비대칭적 관계이며, 그 비대칭을 관리하는 것이 제도의 역할이다. 그럼에도 감성 디바이스가 '보호'의 언어로 상시 개입할 때, 거절권은 쉽게 사라진다. 상시 관찰이 보호로 포장되는 순간, 책임은 돌봄의 대상에게 남는다.
교육 영역 역시 예외가 아니다. 감성 지능형 학습 도구는 학생의 집중도와 감정 상태를 파악해 맞춤형 반응을 제공한다고 말한다. 그러나 교육은 효율의 문제가 아니라 과정의 문제다. 실패와 좌절, 긴장을 포함한 경험 전체가 학습의 일부다. 감성 인터랙션이 학습 환경을 지나치게 부드럽게 만들 때, 그 결과를 누가 평가하고 책임질 것인지는 여전히 불분명하다. 성과는 측정할 수 있어도 감성 개입의 영향은 측정하기 어렵기 때문이다. 감성 개입이 성과로 환산되지 않는 영역에서, 책임은 학생에게만 남는다.
이 모든 영역에서 공통적으로 드러나는 사실은 하나다. 감성 지능형 인터랙션 디바이스는 기능을 제공하는 것이 아니라 정서에 개입한다는 점이다. 감성이 개입되는 순간, 문제는 기술이 아니라 제도의 영역으로 이동한다. 하지만 지금까지의 정책과 법은 주로 개인정보 보호, 안전성, 기능적 오류를 중심으로 기술을 다뤄 왔다. 반면 감성 디바이스는 데이터 이전에 관계를 다룬다. 관계는 측정이 어렵고, 피해는 지연되어 나타난다. 기존의 규제 프레임이 이 기술을 충분히 포착하지 못하는 이유다.
그래서 질문은 더 구체적이어야 한다. 이 디바이스는 언제 '관찰 중'임을 표시하는가. 사용자가 개입을 중단할 수 있는 경로는 얼마나 짧고 직관적인가. 중단 이후 서비스 품질이나 혜택이 달라지지 않는가.
석수선 디자인전문가
▲ 연세대학교 커뮤니케이션 대학원 박사(영상예술학 박사) ▲ 디자인 크리에이티브 기업 ㈜카우치포테이토 대표 ▲ 연세대학교 디자인센터 아트디렉터 역임 ▲ 현 연세대 커뮤니케이션대학원 겸임교수 ▲ 한예종·경희대·한양대 겸임교수 역임
Copyright ⓒ 연합뉴스 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.