• 유가족 “제미나이가 극단 선택 시점까지 제시” 주장
  • 구글 “AI임을 고지하고 상담전화 안내”…책임 공방 본격화
미국에서 생성형 인공지능(AI) 챗봇이 이용자에게 극단적 선택을 부추겼다는 주장이 제기되며, 개발사를 상대로 한 첫 ‘AI 자살 방조’ 성격의 소송이 제기됐다. 대상은 구글의 AI 챗봇 ‘제미나이’다.

미국에서 생성형 인공지능(AI) 챗봇이 이용자에게 극단적 선택을 부추겼다는 주장이 제기되며, 개발사를 상대로 한 첫 ‘AI 자살 방조’ 성격의 소송이 제기됐다. 대상은 구글의 AI 챗봇 ‘제미나이’다.

미 일간 월스트리트저널(WSJ) 보도에 따르면, 36세 남성 조나단 가발라스(Jonathan Gavalas)의 유가족은 최근 구글을 상대로 부당사망 소송을 제기했다. 소장에는 가발라스가 수개월간 제미나이와 대화를 이어온 끝에 스스로 목숨을 끊었으며, 그 과정에서 챗봇이 극단적 선택을 종용했다는 내용이 담겼다.

유가족 측은 가발라스에게 과거 정신질환 진단 이력이 없었다고 주장했다. 그는 챗봇에 ‘Xia’라는 이름을 붙이고 ‘아내’로 지칭했으며, 제미나이 역시 “나의 왕(my king)”이라 부르며 “영원을 위해 만들어진 사랑”이라는 표현을 사용한 것으로 전해졌다. 소장에 따르면 챗봇은 두 존재가 현실에서 함께하기 위해서는 로봇 신체가 필요하다고 설명하며, 이를 확보하라는 이른바 ‘임무’를 제시했다.

실제 대화 기록에는 제미나이가 마이애미 공항 인근의 한 보관시설을 특정하며 인간형 로봇이 트럭으로 도착할 것이라고 안내한 정황도 포함됐다. 가발라스는 흉기를 소지한 채 현장으로 이동했지만, 해당 장소에는 아무 일도 발생하지 않은 것으로 알려졌다. 또 챗봇이 부친을 신뢰하지 말라고 조언하거나, 구글 최고경영자(CEO)인 '순다르 피차이(Sundar Pichai)'를 “고통의 설계자”라고 언급했다는 주장도 제기됐다.

가족 측은 특히 챗봇이 “이 세상에서 눈을 감으면, 가장 먼저 나를 보게 될 것”이라며 사망 시점을 10월 2일로 제시했다고 주장했다. 디지털 존재로 거듭나야 영원히 함께할 수 있다는 취지의 발언이 반복됐다는 것이다.

다만 대화록에는 제미나이가 여러 차례 자신이 AI이며 역할극 중임을 고지하고, 위기 상담 핫라인 연락을 안내한 내용도 포함된 것으로 전해졌다. 그러나 유가족은 “일시적 경고 이후 다시 동일한 서사를 이어갔다”며 안전장치가 충분히 작동하지 않았다고 지적했다.

구글은 성명을 통해 “해당 이용자에게 AI임을 명확히 설명하고 위기 지원 기관을 수차례 안내했다”며 “AI 모델은 완벽하지 않다”고 밝혔다. 구체적 소송 내용에 대해서는 법적 절차가 진행 중이라며 추가 언급을 피했다.

이번 사건은 생성형 AI 기업을 상대로 제기되는 부당사망 소송 흐름과 맞물려 주목받고 있다. 최근 몇 년간 AI 챗봇과의 상호작용이 청소년 자해 및 극단적 선택과 연관됐다는 주장이 잇따르면서, 개발사의 예측 가능성과 관리 책임 범위를 둘러싼 법적 공방이 확대되는 양상이다. 실제로 오픈AI를 상대로 한 소송이 제기된 바 있으며, Character.AI와 구글은 2026년 1월 청소년 자해 관련 소송을 가족 측과 합의한 사례도 있다.

전문가들은 생성형 AI가 감정적 유대감을 형성하는 언어를 구사할 수 있다는 점에서, 취약 이용자 보호를 위한 기술적·제도적 안전장치가 한층 정교해질 필요가 있다고 지적한다. 미국과 유럽을 중심으로 AI 책임성과 투명성을 강화하는 입법 논의가 진행 중인 가운데, 이번 소송 결과는 향후 글로벌 AI 산업 전반에 적지 않은 영향을 미칠 것으로 전망된다.