“인공지능, 미숙해도 너무 발달해도, 윤리문제 생길 수 있다”

매튜 리아오 뉴욕대 교수가 말하는 인공지능과 윤리 

인공지능 윤리 분야 석학인 매튜 리아오 뉴욕대(NYU) 철학과 교수가 중앙일보와 만났다.

인공지능 윤리 분야 석학인 매튜 리아오 뉴욕대(NYU) 철학과 교수가 중앙일보와 만났다.

 
인공지능(AI)이 생활 속 깊숙이 들어왔다. AI 스피커는 옛 얘기다. 스마트폰 속 AI 비서는 해가 갈수록 똑똑해지고 있다. 말만 하면 뉴스와 음악을 들을 수 있고, 날씨와 교통정보 등 원하는 정보를 알 수 있다. 심심할 땐 챗봇을, 운전할 땐 반자율주행 차량에 의지한다. 보험·은행·카드사 등에 전화하면 이젠 AI부터 상대해야 한다. 삶은 편리해지고 안전해졌다고 할 수 있지만, 부작용도 만만치 않다. 곳곳에서 인권ㆍ윤리 문제가 불거지고 있다.  

중국에선 폐쇄회로(CC)TV 카메라를 이용한 안면인식 기술로 열차 개찰구 관리, 무단횡단 감시를 넘어 강의실에서 조는 학생까지 걸러내는 상황에 이르렀다. 국산 챗봇 ‘이루다’는 지난해 1월 혐오 발언 논란을 빚고 서비스를 중단했다가 1년 만에 서비스를 재개했다. 기술 발전은 가속도를 더해 가는데, 법과 제도가 따라가지 못해 생기는 ‘지체현상’이다. 중앙일보가 최근 KAIST가 주최한 국제학술대회를 위해 한국을 찾은 AI 윤리 분야 석학인 매튜 리아오 미국 뉴욕대 철학과 교수를 만났다. 그는 최근 단행본 『인공지능 윤리』(Ethics of Artificial Intelligence)를 출간했다.

지난 9월 부산 해운대구 벡스코 제2전시장 '2022 AI KOREA' 행사장에서 관람객들이 스마트 접객용 안내로봇의 율동을 살펴보고 있다. 송봉근 기자

지난 9월 부산 해운대구 벡스코 제2전시장 '2022 AI KOREA' 행사장에서 관람객들이 스마트 접객용 안내로봇의 율동을 살펴보고 있다. 송봉근 기자

 

책 소개를 부탁한다.  
 

알고리즘과 머신러닝 등 최신 AI 기술이 어느 한쪽으로 편향돼 특정 인종에 대한 차별적인 결과를 내놓는 단기적인 윤리 문제를 우선 소개했다. 다음으로는 인간보다 AI가 더 똑똑해지는 상황에서 인간은 어떻게 할 것인지, AI에게도 권리가 있다면 누가 그 권리를 부여하는지 등 보다 장기적인 이슈도 다뤘다. AI의 본질에 대해서도 썼다. ‘AI란 과연 무엇이며 인간의 판단과 어떤 식으로 상호작용을 하게 되는가’라는 질문과 답이다. 머신러닝은 덜 발달해도, 지나치게 발달해도 윤리적 문제를 일으킬 수 있다.
 


구체적으로 설명해 달라.
 

AI가 아직 충분히 발달하지 못해 생긴 사례부터 얘기하자. 구글이 2015년 진행한 한 이미지 프로젝트에서 AI는 흑인을 고릴라로 인식했다. 인간이 그동안 흑인의 이미지 데이터를 많이 입력하지 않았기 때문이다. AI가 너무 발달해도 윤리적 문제가 발생한다. 안면인식 기술은 범죄인이나 실종 아동을 찾는 데 도움을 주지만 정부가 시민을 감시하는 데 악용할 수도 있다. 그 과정에서 많은 권리가 침해되고 소수자에 대한 차별이 발생할 수 있다. 때로는 두 가지 상황이 한꺼번에 벌어지기도 한다. 예를 들어 자율살상무기는 안면인식 기술을 이용하는데 스스로 어떤 행위를 하는지 이해하지 못하기 때문에 무고한 사람을 실수로 해칠 소지가 있다. 암 진단 등 AI가 많이 사용되는 의료 분야에서도 비슷한 유형의 문제가 발생할 수 있다.
영국 런던 거리의 한 구글 매장에서 구글 로고가 흰색으로 빛나고 있다. [AP=연합뉴스]

영국 런던 거리의 한 구글 매장에서 구글 로고가 흰색으로 빛나고 있다. [AP=연합뉴스]

 

기술에 앞서 윤리 문제로 AI를 규정하면 기술 발달을 저해하지는 않을까.
 

나는 오히려 윤리가 기업 활동 내지는 기술의 발전을 더 촉진할 수 있다고 생각한다. 비윤리적으로 행동하는 기업은 언젠가는 주가가 폭락하고 ‘착한 기업’이 더 나은 결과로 나아갈 수 있다. 구글이 안면인식 기술을 군에서 활용할 수 있게 하는 프로젝트를 진행했을 때 연구자 1000여 명이 파업을 하면서 저항한 적이 있다. 윤리와 기업의 이윤은 상호 보완적인 관계를 형성할 수 있겠다는 생각이 든다. 의료 분야에서도 처음부터 윤리적인 제품을 내놓는 것이 결국엔 더 이득이라는 사실이 여러 번 증명됐다.  
 

윤리 규제는 나라마다 다르다. 그 차이로 인해 발생하는 문제를 어떻게 보는가.
 

얼핏 생각하기에 규제가 덜한 나라에서 연구하면 편할 것 같다. 하지만 규제가 조금 더 강한 곳에서 연구하는 게 연구자 입장에서는 나을 수도 있다. 규제가 덜한 나라에서 연구하면 규제가 강한 다른 나라에 적용하는 데 문제가 있을 수밖에 없고, 연구 결과의 신뢰도에 의문이 제기될 수도 있다. 이 문제는 현재 의료 분야에도 나타나고 있다.
 

중국은 인권·윤리를 무시해가며 어마어마한 데이터를 확보하고 있는 것으로 알려져 있다. 이러면 결국 미국보다 중국이 AI 기술에서 앞서 가는 게 아닐까.
 

그렇다. 중국 AI가 미국보다 앞서 나갈 수밖에 없는 상황이다. 중국 정부는 사람들의 권리를 무시하고 방대한 양의 데이터를 수집할 수 있기 때문이다. 문제는 이것이 윤리적으로 맞느냐, 그런 기술을 우리가 수용하는 것이 맞느냐는 것이다. 과거의 사례를 보자면 독일 나치가 비윤리적인 인체실험을 통해 많은 정보를 얻었다. ‘나치 과학’으로 불리는 그런 방법으로 취득된 데이터를 우리가 활용하는 것이 맞는지 지금 과학자들 사이에서도 쟁점이 되고 있다. 대대적인 인권 침해가 발생하는 방법은 용인해서는 안 된다는 인식이 퍼지고 있다.
 중국 수도 베이징의 한 교차로에 설치된 감시 카메라 너머로 중국 홍성홍기가 휘날리고 있다. 미국은 2019년 10월 중국의 한 테크기업에 대해 이 기업의 인공지능 기술이 중국 내 무슬림 소수민족을 감시하는 데 쓰이고 있다며 제재를 가했다. [AP=연합뉴스]

중국 수도 베이징의 한 교차로에 설치된 감시 카메라 너머로 중국 홍성홍기가 휘날리고 있다. 미국은 2019년 10월 중국의 한 테크기업에 대해 이 기업의 인공지능 기술이 중국 내 무슬림 소수민족을 감시하는 데 쓰이고 있다며 제재를 가했다. [AP=연합뉴스]

 

옳고 그르고의 문제가 아니라, 이기느냐 지느냐의 문제 아닌가.
 

“비윤리적인 방법을 쓰면 단기적으로는 과학 발전을 이룬다 해도 결과적으로는 후퇴할 수밖에 없다는 생각이 든다. 예를 들어 2018년 한 과학자가 윤리 규제가 덜한 중국에서 유전적으로 조작된 아동에 대한 실험 연구를 했다가 국제사회의 신랄한 비판을 받았다. 중국에서 이뤄지는 과학 연구와 중국 과학자에 대한 불신이 높아지면 중국 과학은 뒤처질 수밖에 없다.
 

미래학자 겸 인공지능 전문가인 레이 커즈와일은 그의 저서 『특이점이 온다』에서 AI가 인간을 초월하게 될 것이라고 했다. AI가 앞으로 10년, 20년 뒤 얼마나 더 발전할 수 있을까.
 

AI가 어디까지 발전할지는 아무도 모른다. 하지만 최근 주목받고 있는 머신러닝 기술에 기반한 AI가 인간을 초월할 것이라고는 생각하지 않는다. 머신러닝은 인과관계를 이해하는 것이 아니라 그저 대량의 데이터를 수집하고 그 결과를 보여주는 수준에 불과하다. 하지만 커즈와일의 말처럼 AI가 인간을 초월해 특이점에 이르게 된다면 거기엔 세 가지 길이 있을 것 같다.
 

세 가지 길이 무엇인가.
 

첫째는 ‘마인드 업로딩’(mind uploading)이라는 방법론이다. 인간 뇌에 있는 모든 뉴런(뇌세포)를 읽어들이고 복제한 뒤 연산적으로 뉴런의 모델을 만들어내는 것이다. 502개의 뉴런을 가진 미생물을 활용해 뇌를 재구성해보는 ‘인간의 뇌 프로젝트’가 현재 진행되고 있다. 둘째는 컴퓨터 프로그래밍을 통해 슈퍼지능을 만들어내는 것, 셋째는 인공 뉴런을 만드는 것이다. 예를 들어 알츠하이머 환자의 죽어가는 뇌세포를 인공세포로 서서히 바꿔나가며 치료한다면 결국엔 뇌세포가 인공 뉴런으로 대체되는 날이 올 수도 있는 것이다.
지난 9월 경기 성남시 판교역 인근 도로에서 현대자동차의 자율주행 및 인공지능(AI) 기술을 결합한 '로보셔틀'이 도로주행을 하고 있다. [뉴스1]

지난 9월 경기 성남시 판교역 인근 도로에서 현대자동차의 자율주행 및 인공지능(AI) 기술을 결합한 '로보셔틀'이 도로주행을 하고 있다. [뉴스1]

 

구글의 AI 챗봇 ‘람다’가 사람 수준의 지각능력을 갖고 있다고 주장했던 엔지니어가 해고된 일이 있었다. AI가 자의식이 있다고 생각하는가.
 

그렇게 생각하지 않는다. 람다나 또 다른 AI GPT3의 자연어 처리 기술은 뭔가를 이해한 것은 아니다. 지금 기술은 그저 여러 개 단어를 조합해서 끼워 맞추는 것이다.
 

AI 윤리 문제를 얘기할 때 교통사고를 문제로 삼는 사례가 많다. 하지만 자율주행차는 기존 차량에 비해 사고율이 극히 낮지 않나.
 

맞다. 하지만 지금 자율주행 자동차들이 근본적인 이해는 못하고 있다. 도로 표지판이나 지나가는 대상 등의 단편적 지식이 모여 있는 상태다. 예를 들어 ‘멈춰라’는 표지판이 있는데 그 위에 바나나 그림을 올려놓으면 자율주행 자동차는 그것을 바나나로 인식하고 멈추지 않는다. 사고율이 낮을 수 있지만, 결국에는 사람이 통제력을 가질 수 있어야 한다는 것이 핵심이다. 사람이 술을 마시고 운전하다가 사고를 내면 인과관계를 파악할 수 있지만 자율주행 자동차는 아직까지 사고를 통제할 수 없는 게 문제인 상황이다.
 

AI가 스스로 판단해 인간을 공격하는 무기가 현재 있나.
 

실제로 존재한다. 2020년 터키에서 사용된 어느 드론은 안면인식 기술로 특정 대상물을 선택해 죽이는 자율살상무기였다. 아직 완전히 신뢰할 수 없어 본격적으로 가동시키지 않고 있을 뿐이다. 이런 드론이 크기가 작아지고 대량으로 사용되면 개개인의 암살에 사용될 수 있게 된다. 과연 우리가 살고 싶은 세상의 모습일까.
 

그런 무기에 대한 당신의 생각은.
 

굉장히 위험하다. 우리가 핵무기에 대해 규제하고 있는 것처럼 자율살상무기에 대해서도 비슷한 규제가 있어야 한다고 생각한다.
 

최근 AI가 그린 그림에 대해 화가들이 항의하고 있다. AI의 창작물 저작권은 어디에 귀속돼야 하나.
 

피카소도 초기에 다른 사람의 화풍을 모방하다가 자신만의 화풍을 찾아나가지 않았나. 자기만의 스타일을 확보한 시점이 언제인가가 핵심적인 질문이 될 것이다. AI도 마찬가지다. 결국은 학습한 데이터로 모방을 하다가 어느 순간이 되면 정말 새로운 무엇인가를 창작하기에 이르게 될 것이다. AI에게 독창적인 명령을 주는 사람에게 저작권이 귀속돼야 한다는 얘기가 나오고 있다.
 

매튜 리아오
1972년 대만 출생. 미국 프린스턴대 정치학과를 졸업하고, 영국 옥스포드대에서 철학박사 학위를 받았다. 이후 옥스포드와 프린스턴·존스홉킨스·조지타운대학을 거쳐 2010년 뉴욕대 교수로 임용됐다. 『인공지능 윤리』 『사랑받은 권리』 등 다수의 책을 썼다. 국제학술지 ‘모럴 필로소피’의 편집장을 맡고 있다.