샘 올트먼 오픈AI 최고경영자(CEO)가 중국 ‘딥시크(DeepSeek) 쇼크’로 촉발된 AI 과잉투자, 저비용·고성능 AI 논란에 대한 입장을 밝혔다. 그는 “AI 사용 비용은 매년 10배씩 감소한다”며 “머지 않아 일반인공지능(AGI·인간과 유사하거나 능가하는 AI) 시대가 올 것”이라고 강조했다.
샘 올트먼 오픈AI 최고경영자(CEO)가 지난 4일 오전 서울 중구 더플라자 호텔에서 열린 카카오와의 전략적 제휴 체결 관련 기자간담회에 참석한 모습. 연합뉴스
올트먼 CEO는 9일(현지시간) ‘세가지 관찰(Three Observations)’이라는 제목으로 개인 블로그에 글을 올렸다. 그는 “우리 목표는 AGI가 인류 전체에 혜택을 주도록 하는 것”이라며 “AGI로 향하는 시스템들이 점차 모습을 드러내고 있다. 앞으로 경제적 성장은 엄청날 것이며 모든 질병을 치료하고, 가족과 더 많은 시간을 보내며, 창의적인 잠재력을 완전히 실현할 수 있는 세상을 상상할 수 있다. 향후 10년 내 아마 지구상의 모든 사람이 오늘날 가장 영향력 있는 인물보다 더 많은 것을 성취할 수 있는 시대가 올 것”이라고 밝혔다.
샘 올트먼 오픈AI 최고경영자(CEO)가 지난 4일 카카오와의 전략적 제휴 체결 관련 기자간담회에 참석하며 손을 들고 인사를 하고 있다. 뉴스1
올트먼 CEO는 ‘딥시크 쇼크’를 의식한 듯, “AI 개발이 빠르게 진행되는 것을 계속 목격하고 있다”며 AGI 청사진과 함께 AI의 경제성과 관련한 세가지 현상들도 제시했다. 첫번째로, AI 모델의 지능이 훈련과 실행에 사용된 자원만큼, 비례적으로 발전한다고 주장했다. 천문학적인 돈을 투자해도 AI 모델 성능 개선은 그만큼 이뤄지지 않는다는 일각의 주장에 대해 반박한 것이다. 올트먼 CEO는 “현재까지 일정 금액을 지출하면 지속적이고 예측가능한 성능 향상이 가능하다는 것이 입증됐다. 이런 스케일링 법칙(Scaling Law)이 여러 차원에서 매우 정확하게 작동한다”고 설명했다. AI 분야 역시 매개변수(파라미터)와 데이터가 많아질수록 좋은 결과물을 얻을 수 있는, 스케일링 법칙 아래 발전해 왔다는 주장이다.
이어 비용에 대해선 “AI 사용 비용이 매년 약 10배씩 감소했고, 비용 감소가 AI 사용량 급증을 초래한다”고 설명했다. 2023년에 나온 GPT-4와 지난해 나온 GPT-4o를 비교하면, 토큰(데이터 단위)당 가격이 약 150배 하락한 점을 사례로 들면서다. 그는 “현재 AI 발전 속도가 무어의 법칙(반도체 집적회로 성능이 18개월마다 두배씩 향상된다는 법칙)을 능가하며, 믿을 수 없을 정도로 빠르다”고 강조했다. AI 사용량 급증은 곧 AI 수익 증가로 이어질 수 있다.
세번째로 “AI 발전이 가져올 사회·경제적 가치가 기하급수적으로 늘어날 것이기 때문에 투자 흐름을 멈출 이유가 없다”는 점을 강조했다. AI의 파급 효과가 성능 발전을 훨씬 뛰어넘을 정도로 크기 때문에, ‘딥시크 쇼크’가 AI 투자 감소로 이어지지는 않을 것이며 오히려 갈수록 더 많은 투자가 이뤄져야 한다는 취지다.
AGI의 등장 이후 변화와 우려되는 부분에 대해서도 의견을 제시했다. 그는 “우리는 이제 AI 에이전트(비서)를 배포하기 시작했고, 궁극적으로 이들은 가상 동료처럼 느껴질 것”이라며 “독창적 아이디어를 내지 못하고 많은 인간 감독이 필요하겠지만, 그럼에도 초급 엔지니어와 같은 역할을 하는 AI 에이전트 100만명이 모든 지식노동 분야에 적용된다고 상상해보자. 세계가 한순간에 바뀌진 않겠지만, 장기적으로 사회와 경제에 거대한 변화를 가져올 것”이라고 주장했다. 다만 인간의 역할은 오히려 확대될 것이라고 봤다. “AGI 시대가 와도 인간의 능동성과 의지, 결단력은 여전히 중요할 것이며 올바른 결정을 내리고 적응하는 능력이 핵심이 될 것”이라는 게 이유다.
이어 “평등성의 증대는 기술 발전만으로 보장되지 않으며, 자본과 노동 균형이 심각하게 붕괴할 가능성이 있기 때문에 AGI의 혜택을 인류가 공평하게 누릴 수 있도록 보장하는 것이 중요하다. 전 인류에게 일정량의 ‘컴퓨팅 자원’을 제공하는 등 혁신적 아이디어도 고려할 수 있지만, 단순히 비용을 극단적으로 낮추는 것이 해결책이 될 가능성도 크다”고 했다. 또 “권위주의 정부가 대규모 감시와 통제를 위한 도구로 AI를 활용한다면 심각한 문제가 발생할 것”이라는 경고도 덧붙였다.