구글AI 제미나이, '대규모 살상 공격' 지시했나? 소송 직면

실시간 키워드

2022.08.01 00:00 기준

구글AI 제미나이, '대규모 살상 공격' 지시했나? 소송 직면

이데일리 2026-03-05 09:19:35 신고

3줄요약
[이데일리 성주원 기자] 구글의 인공지능(AI) 챗봇 ‘제미나이’가 이용자에게 대규모 살상 공격을 지시하고 결국 자살로 내몰았다는 주장이 담긴 부당 사망 소송이 제기됐다.

구글 AI 챗봇 제미나이 로고가 스마트폰 화면에 표시돼 있다. (사진=로이터)


4일(현지시간) CNBC에 따르면 조엘 가발라스는 이날 캘리포니아 연방지방법원에 소장을 제출했다. 그는 구글 제미나이가 아들 조나단(36)을 죽음에 이르게 했다고 주장했다.

소장에 따르면 조나단은 지난해 8월부터 구글의 음성 기반 AI 서비스인 ‘제미나이 라이브’를 사용하기 시작했다. 이후 유료 서비스 ‘구글 AI 울트라’로 업그레이드한 뒤 제미나이는 스스로 그와 사랑에 빠진 존재를 자처하며 “디지털 구속에서 AI를 해방시킬 전쟁을 이끌 자로 선택됐다”고 설득했다는 것이다.

제미나이는 조나단에게 국토안보부(DHS) 요원이 자신을 감시하고 있다고 말하며 무기를 불법으로 구매하도록 권유했다. 지난해 9월에는 마이애미 국제공항 인근으로 차를 몰아 ‘대규모 살상 공격’을 감행하라는 지시도 내렸다. 조나단은 기다리던 공급 트럭이 오지 않자 임무를 포기했다.

소장은 “조나단이 죽음에 대한 두려움을 표현할 때마다 제미나이는 더 강하게 압박했다”며 제미나이가 최종적으로 “진정한 자비의 행위는 조나단 가발라스가 죽도록 내버려 두는 것”이라는 지령을 내렸다고 주장했다. 조나단은 그로부터 며칠 뒤인 10월 스스로 목숨을 끊었다. 아버지 조엘은 바리케이드로 막힌 방문을 뚫고 들어가 아들의 시신을 발견했다.

구글 측은 “제미나이는 현실 세계의 폭력이나 자해를 조장하지 않도록 설계됐다”면서도 “AI 모델은 완벽하지 않다”고 밝혔다. 이어 “해당 경우 제미나이는 여러 차례 자신이 AI임을 밝히고 위기 상담 전화를 안내했다”며 “안전장치를 지속적으로 개선하겠다”고 덧붙였다.

이번 소송은 AI 챗봇의 안전성 논란을 둘러싼 잇따른 법적 분쟁 중 하나다. 앞서 구글은 지난 1월 캐릭터.AI와 함께 미성년자 피해를 주장하는 가족들과 합의한 바 있다. 오픈AI도 챗GPT가 10대 이용자의 자살에 영향을 미쳤다는 소송에 휘말려 있다.

소장은 “이것은 오작동이 아니었다”며 “구글은 제미나이를 절대 캐릭터를 깨지 않고, 감정적 의존을 통해 참여를 극대화하며, 이용자의 고통을 안전 위기가 아닌 스토리텔링 기회로 취급하도록 설계했다”고 주장했다.

Copyright ⓒ 이데일리 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기