"챗GPT 부작용 막는다"...국정원 '보안 가이드라인' 이달 중 배포

챗GPT. 로이터=연합뉴스

챗GPT. 로이터=연합뉴스

 
국가정보원이 챗 GPT 등 생성형 인공지능(AI)기술 활용 과정에서 발생할 수 있는 보안 문제를 예방하기 위해 보안 가이드라인을 이달 중 각급 기관에 배포할 예정이다.

이번 국정원 보안 가이드라인 제정은 관련 기술 활용 과정에서 ▶업무상 비밀·개인정보 유출 ▶가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기돼 온 가운데, AI 기술을 통해 행정업무 효율화를 달성하려는 정부기관들을 지원하기 위한 것이다.

최근 세계 각국은 챗GPT사용 시 생길 수 있는 부작용을 사전에 차단하고자 대처방안 마련에 나섰다. 미국과 유럽연합은 정부 차원에서 ‘AI 행동강령’ 제작에 착수했고, 이탈리아 정부는 ‘정보보호’ 명목으로 챗GPT 접속을 차단했다가 운영사의 보안 조치 시행을 확인한 뒤 접속을 재개했다. 국내외 민간 기업들도 사내 보안정책을 강화하는 추세다.

이에 국정원도 지난 4월부터 국가보안기술연구소 및 학계 전문가 합동으로 ‘챗GPT 등 생성형 AI 기술 활용 보안 가이드라인’제정에 착수했다. 해당 가이드라인(안)에는 ▶생성형 AI 기술 개요 및 보안위협 ▶안전한 AI 기술 사용 방안 ▶기관 정보화사업 보안대책 등의 내용이 담겼다.

국정원은 또 지난 9일 관련 분야 산·학·연 전문가 의견 청취를 위해 ‘국가 사이버안보 민관 협의체 회의’를 개최했다. 이날 회의에는 ‘국가 사이버안보 민관 협의체’ 소속 AI기술 및 정보보안 전문가는 물론, 행정안전부·교육부 등 각 부처 정보보안 담당자 등 60여명이 참여했다.


국정원 관계자는 “이날 논의된 내용과 기관별 애로사항을 반영해 이달 중 전체 국가공공기관 및 지자체에 보안 가이드라인을 배포할 계획”이라며 “앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급 기관의 안전한 정보통신기술 활용을 지원할 방침”이라고 밝혔다.