네이버, AI로 '악플 감지' 강화...대형참사 보도 악플 거른다

 
대형 참사 후 고인과 유가족을 향한 악성 댓글을 두고 문제 제기가 계속되는 가운데, 네이버가 인공지능(AI)을 활용해 악성 댓글 감지 기능을 강화하기로 했다.

네이버는 24일 블로그 공지를 통해 “1분기 내 인명 사고 보도에서의 악성 댓글 감지 AI 기술을 ‘클린봇 옵저버’에 적용해 고도화 할 예정”이라고 밝혔다. 2023년 베타 서비스를 시작한 클린봇 옵저버는 악성 댓글 작성 시도 비율을 계산해 감지 대상 기사를 자동으로 선별하고, 해당 기사를 언론사에 알려주는 서비스다. 알림을 받은 언론사들은 빠르게 댓글 제공 중단의 필요성을 파악하고 중단을 결정할 수 있다. 악성 댓글을 쓰는 공간 자체를 차단해 2차 피해를 막는다는 취지다. 네이버에 따르면 지난해 연말 발생한 무안 제주항공 참사 당시 약 30개 언론사가 댓글 제공 중단 기능을 이용했다.

클린봇 옵저버는 2019년 네이버가 선보인 솔루션 ‘클린봇’에 기반을 두고 있다. 클린봇은 문장 맥락을 파악해 욕설이나 저속한 표현 뿐 아니라 선정적·폭력적·차별적 표현을 스스로 탐지해 걸러낼 수 있다. 

네이버는 언론 단체와 함께 참사 보도 권고 기준을 마련하고, 악성 댓글 예방 문구를 만들어 기사에 해당 문구를 삽입하면 자동으로 댓글 제공 중단 등의 조치를 취하는 방식도 논의 중이다. 예를 들어 언론사에서 특정 예방 문구를 기사 내에 삽입하면 AI가 대형 참사, 인명 사고 기사로 탐지해 해당 기사 댓글이 자동으로 닫히는 식이다.

향후 첨예한 사회적 갈등이나 의견 대립이 발생한 것으로 감지된 기사에 대한 대응도 강화한다. 공감, 비공감이 기준치를 넘어 빠르게 올라가는 기사는 언론사에 알려 댓글 정렬 방식을 전환하도록 유도하는 방식이다.