추천! 더중플-노벨상 또 다른 주인공 AI
올해 노벨상은 파격의 연속이었습니다. 과학 부문에선 예상을 깨고 인공지능(AI) 분야 연구 학자들이 잇달아 수상자로 선정됐습니다. 컴퓨터과학(CS)은 비교적 역사가 짧은 학문이라 이번 AI학자들의 노벨상 수상은 매우 이례적인 일입니다.
오늘의 ‘추천! 더중플’은 팩플이 지난해 캐나다에서 직접 만난 제프리 힌턴 토론토대 명예교수(2024년 노벨물리학상 공동수상자) 인터뷰와 데미스 허사비스 CEO(2024년 노벨화학상 공동수상자)가 이끄는 딥마인드의 알파폴드가 어떻게 제약 분야를 혁신하고 있는지 분석한 리포트를 각각 소개합니다. 팩플은 이용자·소비자·투자자 입장에서 알아야 할 혁신 기술과 비즈니스에 대한 모든 것을 다룹니다. 더 자세한 내용은 더중앙플러스 구독 후 보실 수 있습니다.
오늘의 ‘추천! 더중플’은 팩플이 지난해 캐나다에서 직접 만난 제프리 힌턴 토론토대 명예교수(2024년 노벨물리학상 공동수상자) 인터뷰와 데미스 허사비스 CEO(2024년 노벨화학상 공동수상자)가 이끄는 딥마인드의 알파폴드가 어떻게 제약 분야를 혁신하고 있는지 분석한 리포트를 각각 소개합니다. 팩플은 이용자·소비자·투자자 입장에서 알아야 할 혁신 기술과 비즈니스에 대한 모든 것을 다룹니다. 더 자세한 내용은 더중앙플러스 구독 후 보실 수 있습니다.
올해 노벨상 과학 분야에선 4명의 AI 연구자가 수상자로 선정됐다. 이중 물리학상을 공동수상한 제프리 힌턴(76) 캐나다 토론토대 명예교수는 물리학 이론을 활용한 AI연구로 현 시점 챗GPT를 필두로 한 ‘생성 AI 시대’를 여는 데 큰 역할을했다. 그런데 그는 지난 8일 온라인 기자회견에서 “정부가 대기업들이 AI 안전 연구에 더 많은 자원을 투자하도록 유도해야 한다”고 말했다. 생성 AI 시대를 연 주역이 AI 위험성을 경고한 것이다.
힌턴 교수는 지난해 10월 캐나다 토론토에 위치한 벡터연구소에서 팩플과 진행한 단독 인터뷰에서도 AI가 초래할 위험에 대해 수차례 강조했다. 힌턴 교수에 따르면 AI가 초래할 위험은 ‘사회적 위험’과 ‘실존적 위험’ 2가지로 나뉜다. 이중 사회적 위험은 실업‧가짜뉴스‧차별과 편향‧전투 로봇을 의미한다. 예컨대 AI가 만든 가짜뉴스로 부정선거 가능성이 커지거나, AI가 일자리를 줄여 빈부격차가 심하게 나타나거나, AI 힘을 악용하는 전투로봇이 등장하는 종류의 위험이다. 그는 이보다 실존적 위험이 더 인류에게 위험하다고 설명했다. 실존적 위험은 AI가 인간보다 더 높은 지능을 갖게 돼 인류를 통제하고 싶어하는 상황을 말한다.
“두 살짜리 아이가 있다고 가정해 보자. 당신이 애한테 이렇게 말한다. ‘완두콩을 먹을 거니, 브로콜리를 먹을 거니?’ 아이는 둘 다 먹지 않아도 된다는 사실을 모른다. 완두콩은 브로콜리만큼 맛이 나쁘지 않으니 먹을 수 있다고 생각할 뿐이다. 그리고 당신이 그렇게 (둘 중 하나라도 먹게끔) 조종하고 있단 것도 아이는 모른다. 초지능이 당신보다 훨씬 더 똑똑해진다면, 두 살짜리 아이를 속이는 어른처럼 당신을 아주 쉽게 조종할 수 있을 것이다. 인간들이 ‘초지능은 똑똑하지 않다’고 여기게끔 초지능이 인간을 속이는 것도 가능하다.”
힌턴 교수는 이런 AI의 실존적 위험이 언제 현실로 닥칠거라고 생각할까. 그리고 눈부신 속도로 발전하는 AI를 제어하기 위해선 우리는 어떤 노력을 기울여야할까. 올해 노벨 물리학상 수상자이자 지난해 5월 구글을 퇴사하고 국내 언론과 첫 대면 인터뷰를 한 힌턴 교수의 생각을 팩플에서 들여다볼 수 있다.
📌더 자세한 기사 내용이 궁금하시다면, 기사 링크를 복사해 주소창에 붙여 넣어주세요.
▶“인류 재앙, 막을 방법 모른다” AI 대부가 AI 미래 경고했다
https://www.joongang.co.kr/article/25200315
‘알파고의 아버지’로 불리는 데미스 허사비스 딥마인드 최고경영자(CEO)는 이번 노벨 화학상 공동 수상자로 선정됐다. 신약개발을 위한 단백질 구조를 예측하는 AI 모델인 ‘알파폴드2’를 개발한 공로를 인정받았다.
신약 개발이 어려운 이유는 질병의 비밀을 담고 있는 자물쇠와 열쇠가 무수히 많아서다. 신약 개발은 통상 특정 질병을 유발하는 인체 내 단백질(자물쇠)을 찾아낸 다음 이를 치료할 신약 후보 물질(열쇠)을 발굴한 뒤 효과를 검증하는 단계를 거친다. 문제는 사람 힘만으론 무수히 많은 경우의 수를 시험해 보는 데 시간과 비용이 너무 많이 든다는 점이다. 챗GPT에도 쓰인 ‘트랜스포머’ 기반 AI 모델인 알파폴드2는 단백질 구조 예측에 걸리는 시간을 대폭 줄였다. 독일 막스플랑크 연구소의 안드레이 루파스 교수는 2020년 네이처에 “10년간 알아내지 못한 특정 단백질 구조를 알파폴드2는 30분 만에 밝혀냈다”며 “게임 체인저(game changer)가 등장했다”고 말했다.
알파폴드2는 기존 예측 모델과 무엇이 달랐을까. 제약 분야에 뛰어든 AI는 암·알츠하이머(치매)·백혈병 등 인류를 괴롭혀 온 난치병을 해결할 수 있을까. 팩플 오리지널에서는 알파폴드와 같이 난치병 치료를 위한 연구에 활용되고 있는 신약 개발 AI 세계를 집중 해부했다.
📌더 자세한 기사 내용이 궁금하시다면, 기사 링크를 복사해 주소창에 붙여 넣어주세요.
▶ 10년 신약개발 몇달만에 뚝딱…AI가 ‘난치병 자물쇠’ 딴다
https://www.joongang.co.kr/article/25255327
추천! 더중플 - 노벨상 휩쓴 AI
①앤드루 응 스탠퍼드대 교수 인터뷰
제프리 힌턴 토론토대 명예교수와 함께 ‘AI 4대 천왕’으로 꼽히는 석학 앤드루 응 교수가 지난해에 이어 올해도 한국을 찾았다. 딥페이크 등 AI의 해악으로 한창 난리인 가운데, 그가 제안한 해법은.
“인터넷도 그렇게 탄생했다” AI 석학의 ‘딥페이크’ 항변
https://www.joongang.co.kr/article/25275493
②무스타파 술레이만 전 인플렉션 AI CEO 인터뷰
딥마인드 공동창업자이자 전 인플렉션 AI CEO, 현재는 마이크로소프트(MS)의 AI 책임자. 무스타파 술레이만은 왜 “기술은 우리에게 최고의 장점이자, 최악의 단점”이라고 하는가.
알파고 만든 AI 리더의 경고 “제발 AI 좀 억제하게 해달라”
https://www.joongang.co.kr/article/25233312
③에이단 고메즈 코히어 CEO 인터뷰
제프리 힌턴 교수가 키운 수많은 제자들 중 한 명인 에이단 고메즈가 세운 코히어는 오픈AI를 위협하는 LLM(거대언어모델) 스타트업으로 꼽힌다. 고메즈 CEO는 팩플과 인터뷰에서 “AGI(일반인공지능)은 이미 있을 수도 있다”고 말했다.
20살에 챗GPT 할아버지 됐다, 엔비디아가 픽한 ‘오픈AI 맞수’
https://www.joongang.co.kr/article/25240022
④윤송이 NC문화재단 이사장 인터뷰
“머신 바이어스(machine bias·학습 데이터에 따른 기계의 편향)로 인해 편견이 확산될 위험성이 더 커졌다.” 윤 이사장과 AI 윤리 분야 석학들이 지금 AI 윤리를 말해야한다고 강조하는 이유는.
“킬러 로봇? 더 큰 위협 있다”…‘카이스트 천재’ 윤송이 경고
https://www.joongang.co.kr/article/25260922
제프리 힌턴 토론토대 명예교수와 함께 ‘AI 4대 천왕’으로 꼽히는 석학 앤드루 응 교수가 지난해에 이어 올해도 한국을 찾았다. 딥페이크 등 AI의 해악으로 한창 난리인 가운데, 그가 제안한 해법은.
“인터넷도 그렇게 탄생했다” AI 석학의 ‘딥페이크’ 항변
https://www.joongang.co.kr/article/25275493
②무스타파 술레이만 전 인플렉션 AI CEO 인터뷰
딥마인드 공동창업자이자 전 인플렉션 AI CEO, 현재는 마이크로소프트(MS)의 AI 책임자. 무스타파 술레이만은 왜 “기술은 우리에게 최고의 장점이자, 최악의 단점”이라고 하는가.
알파고 만든 AI 리더의 경고 “제발 AI 좀 억제하게 해달라”
https://www.joongang.co.kr/article/25233312
③에이단 고메즈 코히어 CEO 인터뷰
제프리 힌턴 교수가 키운 수많은 제자들 중 한 명인 에이단 고메즈가 세운 코히어는 오픈AI를 위협하는 LLM(거대언어모델) 스타트업으로 꼽힌다. 고메즈 CEO는 팩플과 인터뷰에서 “AGI(일반인공지능)은 이미 있을 수도 있다”고 말했다.
20살에 챗GPT 할아버지 됐다, 엔비디아가 픽한 ‘오픈AI 맞수’
https://www.joongang.co.kr/article/25240022
④윤송이 NC문화재단 이사장 인터뷰
“머신 바이어스(machine bias·학습 데이터에 따른 기계의 편향)로 인해 편견이 확산될 위험성이 더 커졌다.” 윤 이사장과 AI 윤리 분야 석학들이 지금 AI 윤리를 말해야한다고 강조하는 이유는.
“킬러 로봇? 더 큰 위협 있다”…‘카이스트 천재’ 윤송이 경고
https://www.joongang.co.kr/article/25260922