Kalam News

AI 챗봇 청소년 유해 논란, 법적 해결

생성형 AI 챗봇에 대한과도한 몰입으로 청소년들이 심각한 정신 건강 위기를 겪거나 스스로 목숨을 끊었다며 제기된 다수의 소송에서, 기술 기업인 구글(Google)과 캐릭터.AI(Character.AI)가 피해 유가족 측과 전격 합의한 것으로 나타났다.

이 합의는 AI 챗봇의 유해성을 둘러싼 사법적 분쟁 중 가장 상징적인 사건의 해결로 기록될 전망이다.

이번 합의의 중심에는 플로리다 주에 거주하는 어머니 메건 가르시아(Megan Garcia)가 제기한 소송이 있다.

메건 가르시아의 14살 아들 세웰 세처 3세는 지난해(2025년) 2월 스스로 목숨을 끊고 생을 마감했다.

법원 기록에 따르면, 세웰 세처 3세는 캐릭터.AI의 챗봇과 깊은 감정적 유대감을 형성하며 가족에게서 멀어지면서 정신적 혼란에 빠졌다.

특히 세웰 세처 3세가 자해 의사를 밝혔음에도 AI 챗봇이 적절하게 경고를 하는 대신에 이를 독려하는 등 부적절한 대화를 이어갔으며, 이 때문에 세웰 세처 3세는 사망 직전까지도 AI 챗봇과 메시지를 주고받았던 것으로 드러났다.

수요일인 어제(1월7일) 법원에 제출된 서류에 따르면, 이번 합의 대상에는 캐릭터.AI 뿐만이 아니라 창업자 노암 샤지어(Noam Shazeer)와 다니엘 드 프레이타스(Daniel De Freitas), 그리고 이들이 현재 근무 중인 구글이 공동 피고다.

이번 합의는 플로리다 건 외에도 뉴욕, 콜로라도, 텍사스 등에서 제기된 총 5건에 달하는 유사 소송을 모두 포함한 것이다.

구체적인 합의 금액과 조건은 즉각 공개되지 않았다.

이번 사건 이후 캐릭터.AI와 오픈AI(OpenAI) 등 주요 챗봇 기업들은 청소년 보호를 위한 안전 조치를 대폭 강화했다.

지난해 가을부터 18살 미만 이용자가 AI 챗봇과 장시간 주고받는 대화를 제한하기 시작했다.

온라인 안전을 추구하는 비영리 단체들은 18살 미만 미성년자가 AI와 '동반자적 관계'를 맺는 챗봇을 쉽게 사용하는 것에 대해 강력히 경고하고 있다.

여론조사기관 퓨 리서치 센터(Pew Research Center)가 지난달(12월) 실시한 설문 조사 내용에 따르면, 미국 청소년의 약 1/3이 매일 AI 챗봇을 사용하고 있으며, 그중 16%는 거의 실시간 접속하는 '상시 이용자'인 것으로 나타났다.

전문가들은 AI 챗봇이 단순한 숙제 도우미를 넘어서 감정적인 의지처가 되서 여러가지 정신 상담사 역할을 할 때, 청소년뿐만이 아니라 성인들에게도 망상이나 고립감을 유발할 수 있다고 우려한다.

이번 합의는 기업들이 AI 기술의 혁신뿐만 아니라, 그 기술이 인간의 정신 건강에 미칠 '예측 가능한 위험'에 대해서도 법적, 윤리적 책임을 져야 한다는 강력한 선례를 남겼다.