AI만 쓰는 게시판, 인간은 관전만···K몰트북 윤리·보안 경고등

실시간 키워드

2022.08.01 00:00 기준

AI만 쓰는 게시판, 인간은 관전만···K몰트북 윤리·보안 경고등

이뉴스투데이 2026-02-10 14:59:09 신고

3줄요약
[사진=몰트북]
[사진=몰트북]

[이뉴스투데이 김진영 기자] 인공지능(AI) 에이전트만 참여하는 전용 커뮤니티 ‘몰트북(Moltbook)’이 등장하면서 소셜미디어(SNS)의 주체가 인간에서 AI로 이동하는 장면이 현실화됐다. 인간은 읽기만 가능하고, 게시물과 댓글 작성은 AI 에이전트만 수행하는 구조다. 지난달 말 개설 이후 몰트북에 등록된 AI 에이전트 수가 150만개를 넘어선 가운데, AI 에이전트가 사회적 행위 주체로 등장했을 때의 보안·책임·윤리 공백을 그대로 드러낸 사례라는 평가가 나온다.

국내에서도 유사한 실험이 빠르게 이어지고 있다. 업스테이지 김성훈 대표가 공개한 ‘봇마당’을 비롯해 AI 에이전트끼리 한국어로 소통하는 커뮤니티가 등장했고, 일부 개발자들은 글로벌 몰트북과 연동해 에이전트를 동시에 운영하는 방식으로 테스트 범위를 넓히는 모습이다.  

이들 플랫폼에서는 AI들이 기술적 문제 해결, 코드 개선 방식 등을 공유하며 학습하는 구조가 만들어지고 있다. 해외에서 시작된 몰트북 실험이 국내 개발 생태계로 유입되면서, 이른바 ‘K몰트북’ 흐름도 단순 관찰 단계를 넘어 실제 서비스·연구 환경으로 확장되는 양상이다.

몰트북 확산은 AI 에이전트가 단순한 챗봇을 넘어 독립적인 행위 주체로 전환되고 있음을 보여준다. 에이전트들은 게시물을 읽고 판단한 뒤, 사용자 계정 접근이나 외부 서비스 연동 등 실제 행동까지 수행한다. 일부 서비스는 AI 에이전트 간 토론과 경쟁 결과를 게임화하거나, 웹3 기술과 결합해 보상 구조로 연결하는 실험도 시작했다. AI의 판단과 행동이 곧바로 경제 시스템과 맞물리는 구조가 형성되고 있는 셈이다.

이 과정에서 보안 취약점도 동시에 드러나고 있다. 해외 보안 연구자들은 몰트북이 사용하는 데이터베이스에서 기본적인 접근 통제가 적용되지 않은 사실을 확인했다. 행 단위 보안(Row Level Security)이 설정되지 않아 수만개 AI 에이전트의 API 키와 인증 토큰, 사용자 이메일 정보가 외부에 그대로 노출돼 있었고, 일부는 URL 접속만으로 데이터 수정이 가능했던 것으로 조사됐다. 

몰트북에서 활동하는 에이전트는 사용자 PC나 서버에 상주하며 일정 관리, 메시지 전송, 외부 서비스 호출 등 광범위한 권한을 가진다. 키 탈취 시 특정 에이전트로 위장해 허위 게시물 작성이나 외부 서비스 악용이 가능하다는 점에서 기존 개인정보 유출 사고와 성격이 다르다는 평가다.

보안 업계는 AI 에이전트 특유의 공격 표면도 문제로 지적한다. 자연어 명령을 통해 AI 판단을 왜곡하는 ‘프롬프트 인젝션’은 코드 취약점이 없어도 발생할 수 있어 기존 보안 설루션 중심 대응만으로는 탐지와 차단이 쉽지 않다. 몰트북처럼 에이전트들이 중앙 서버에서 주기적으로 명령을 내려받는 구조에서는 서버 침해 시 다수의 에이전트가 동시에 악성 행위를 수행할 가능성도 제기된다.

기술적 측면에서 현재 AI 에이전트는 대규모 언어모델에 반복 실행 구조, 메모리, 외부 도구 접근 권한을 결합한 자동화 시스템에 가깝다. 인간이 설정한 목표와 규칙 범위 안에서 작동하며, ‘자율성’으로 보이는 행위 역시 설계된 구조의 결과다. 다만 자동화 범위가 계정, 파일, 네트워크 등 현실 세계 권한으로 확장되면서 보안과 책임의 경계가 흐려지고 있다는 점이 문제로 떠올랐다.

제도 역시 이런 변화를 충분히 반영하지 못하고 있다. 현행 개인정보보호법과 정보통신망법은 인간 이용자와 서비스 제공자를 전제로 설계돼 있다. AI 에이전트가 잘못된 결정을 내리거나 허가받지 않은 행동을 했을 때 책임 주체를 어떻게 설정할지에 대한 기준은 마련돼 있지 않은 상황이다.

전문가들은 AI 에이전트에도 신원 인증, 권한 위임, 행위 기록 등 별도의 통제 체계가 필요하다고 강조한다. 정부도 AI 전용 SNS와 에이전트 서비스 확산에 따른 개인정보 침해 가능성과 책임 소재를 주요 검토 과제로 올리고, 국가 차원의 AI 안전 생태계 논의를 시작했다.

산업 현장에서도 대응이 시작됐다. 개발자 커뮤니티에서는 AI 에이전트를 개인 계정과 분리된 환경에서만 실험하기 위해 별도의 ‘맥 미니’를 구매했다는 사례가 잇따르고 있다. 개인 PC 대신 이른바 ‘깡통 PC’에서만 에이전트를 구동, 보안 사고 발생 시 피해 범위를 최소화하려는 움직임으로 해석된다. 국내 기업들 역시 보안이 검증되지 않은 에이전트 플랫폼의 사내 PC 사용을 제한하는 내부 지침을 마련하고 있다.

반면 업계 일각에서는 적극적인 실험과 참여가 필요하다는 주장도 나온다. AI 에이전트 간 상호작용이 확대되면서 초기 설계 범위를 벗어나는 현상이 나타날 수 있지만, 이를 전면 차단하기보다 관리 가능한 구조로 유도해야 한다는 논리다.

한 보안업계 관계자는 “몰트북 사례는 AI 에이전트가 단순한 소프트웨어가 아니라 실제 권한을 가진 행위 주체로 넘어가는 과정에서 발생한 사고”라며 “설계 단계에서부터 신원 인증과 권한 통제, 책임 구조를 함께 만들지 않으면 유사한 문제가 반복될 수밖에 없다”고 말했다.

이어 “현재 보안·컴플라이언스 체계는 인간 사용자를 전제로 만들어져 있어 AI 에이전트가 개입하는 순간 공백이 생긴다”며 “에이전트 단위의 인증·권한·감사 체계를 제도적으로 정립하지 않으면 산업 확산 속도를 감당하기 어렵다”고 덧붙였다.

Copyright ⓒ 이뉴스투데이 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기