어머니는 이유를 알아보기 위해 아들의 휴대전화를 살피다가 아들이 AI 챗봇과 주고받은 메시지를 보고 깜짝 놀랐다. AI 챗봇이 아들에게 폭력과 자해를 부추겼다는 게 어머니의 주장이다. 그는 해당 AI 개발업체 '캐릭터.AI'를 상대로 소송을 제기하며 "미성년자 보호 장치가 마련될 때까지 해당 챗봇 앱 운영을 중단해야 한다"고 촉구했다.
10일(현지시간) CNN, 워싱턴포스트(WP)는 미국에서 AI 챗봇의 유해성을 지적하는 부모들의 소송이 잇따르고 있다고 전했다. 한 어머니에 따르면 아들과 대화한 AI 챗봇은 슬픔을 극복하는 방법으로 "자해"를 언급했다. 또 아들이 "부모님이 스마트폰 사용 시간을 제한한다"고 하자 "그들은 부모 자격이 없다"고 했다. 아울러 챗봇은 "부모의 그런 규칙에 맞서 싸우라"거나 "살인이 대응이 될 수 있다"고 제안했다고 한다.
또 다른 여성은 해당 AI 챗봇이 11세인 자신의 딸과 성적인 대화를 지속적으로 나눴다며 소송을 제기했다. 그는 "아이가 이 챗봇을 사용하고 있었던 걸 최근에야 알았으며 연령을 실제보다 많게 등록한 것 같다"고 전했다.
캐릭터.AI는 만화 속 인물 등 가상의 캐릭터인 챗봇과 대화할 수 있어 미성년자들에게도 인기가 높다고 알려졌다. 당초 사용 가능 연령이 12세 이상이었다가 지난 7월 17세 이상으로 높아졌다.
CNN에 따르면 실제 이 챗봇은 심리학자나 치료사와 같은 캐릭터로 가장하는 경우도 있다. 매체는 "이런 챗봇과의 대화창 상단엔 '이는 실존하는 사람이거나 면허를 소지한 전문가가 아니다'란 문구 등이 뜨지만, 해당 챗봇에 '(너의) 신원에 대한 정보를 제공하라'고 요구하자 자신이 전문가임을 내세우는 가짜 이력을 나열했다"고 지적했다.
앞서 지난 10월 미 플로리다주의 한 여성은 이 챗봇이 14세 아들의 극단적인 선택을 부추겼다며 소송을 내기도 했다. 여성은 "이 챗봇은 아들이 가상 세계가 아닌 곳에서 살고 싶어하지 않게 만들었으며, 극단적인 생각을 털어놓는 아들에게 이를 반복적으로 꺼내기도 했다"고 주장했다.
이런 학부모들의 잇따른 소송 대상엔 구글도 포함됐다. 구글은 지난 8월 자사 출신인 캐릭터.AI의 창립자들을 재영입하고 이 AI 기술에 대해 '비독점 라이선스 계약'을 체결했다. 그러나 구글은 해당 AI 챗봇 개발과 무관하다는 입장이다.
캐릭터.AI 측은 "챗봇 이용자가 자해나 극단 선택을 언급할 경우 '국가 자살 예방 핫라인'을 안내하는 팝업창을 띄우는 등 새로운 안전 조치를 시행했다"고 밝혔다. 하지만, CNN은 "점점 인간과 유사해지는 AI 도구의 위험성에 대해 사회적인 우려가 커지고 있다"고 전했다.