日 AI 무기 지침 "스스로 공격 결정 고위험 무기 개발 금지"

 나카타니 겐 일본 방위상. AFP=연합뉴스

나카타니 겐 일본 방위상. AFP=연합뉴스

일본 방위성이 인공지능(AI)을 활용한 무기 개발에 관한 지침을 처음으로 마련해 발표했다고 아사히신문과 요미우리신문 등이 7일 보도했다.

방위성은 전날 공개한 지침에서 AI가 인간의 개입 없이 자율적으로 목표를 정해 공격하는 '치명적 자율무기(LAWS)'는 연구·개발 대상에서 제외한다고 밝혔다. 또한 AI 무기 개발 과정에서 인간의 책임을 명확히 하겠다고 규정했다.

AI 탑재 무기의 연구·개발 심사는 3단계로 이뤄진다. 첫 단계는 무기를 '고위험'과 '저위험'으로 나누는 절차다. 고위험 무기는 AI가 대상을 특정해 즉시 공격할 수 있는 무기이며, 저위험 무기는 공격 시 인간의 판단이 개입되는 형태다.

고위험 무기로 분류될 경우 국제법과 국내법 준수 여부, LAWS 해당 여부 등에 대한 법률 심사가 이뤄진다. LAWS로 판단되면 해당 기술은 연구·개발이 금지된다.

이후에는 AI 무기에 대한 인간의 통제 가능성과 기술적 안전성 등에 대한 평가가 이뤄진다.


나카타니 겐 방위상은 이 지침에 대해 "인공지능 활용에 따른 위험을 줄이면서 혜택을 최대화할 수 있는 내용"이라고 평가했다.

아사히는 "AI 무기는 잘못된 판단을 할 우려가 있어서 국제적으로 개발 규제 방식이 논의되고 있다"며 이번 지침이 일본 내 AI 무기 개발을 촉진하는 한편 위험성 관리를 위한 기준을 제시한 것이라고 분석했다.

일본에서는 AI를 둘러싼 논의가 군사 분야를 넘어 민간 부문에서도 이어지고 있다.

일본 공정거래위원회는 전날 발표한 생성형 AI 관련 보고서에서 글로벌 IT 기업이 휴대전화나 소프트웨어 등에 자사 AI를 탑재할 경우 후발 기업의 시장 진입이 어렵게 될 수 있어 독점금지법 위반 가능성이 있다고 지적했다.