중국 딥시크 충격으로 엔비디아 주가가 급락했는데, 정작 엔비디아의 반응이 묘하다. 젠슨 황 최고경영자(CEO)가 강조한 ‘훈련에서 추론으로’의 완벽한 예를 딥시크가 보여줬다며 찬사를 보냈다.
인공지능(AI) 반도체 시장이 AI 모델을 최적화해 서비스하는 추론용 칩으로 확대되면서, 현재 각광받는 최신 고대역폭메모리(HBM) 외에 구형 HBM과 GDDR7의 수요 또한 증가할 거라는 전망도 나온다.
엔비디아 “젠슨 황 예측대로”
그러나 엔비디아의 반응은 사뭇 달랐다. 이날 엔비디아 대변인은 CNBC에 “딥시크는 탁월한 AI의 성과이자, ‘테스트 시간 확장 법칙’의 완벽한 예”라고 찬사를 보냈다.
커지는 ‘추론 AI 시장’에, 웃는 엔비디아
이를테면 대학에서 보편적 지식을 습득하는 게 사전 훈련, 이후 취업을 위해 특정 분야 지식을 추가하는 게 사후 학습이라면, 테스트 시간 확장은 직장에서 실무에 부딪혀가며 일머리가 늘어나는 격이다. 황 CEO는 테스트 시간 확장 법칙을 통해 AI의 문제 해결(추론) 능력이 빠르게 향상되고 AI 비서가 대중화될 거라며 “엔비디아 컴퓨팅에 대한 막대한 수요를 견인하고 있다”라고 주장했다.
오픈AI가 감춘 추론 기술, 딥시크가 공개
딥시크의 주요 차별화 요소는 소프트웨어와 하드웨어의 최적화로 꼽힌다. AI 모델을 훈련할 때 일반적으로 사용하는 것보다 덜 정밀한 방식(8비트 부동소수점 혼합)을 사용하되, 알고리즘과 하드웨어를 최적화해 이를 보완했다는 것. 일론 머스크 등은 딥시크가 미리 쟁여둔 엔비디아 고사양 칩 H100 수만 개 썼을 거라고 주장했지만, 엔비디아는 “딥시크가 수출 통제를 완전히 준수하는 컴퓨팅과 기술을 사용했다”라며 편을 들었다.
GDDR7, 구형 HBM 수요 증가할 가능성
그러나 딥시크가 AI 경쟁에서 ‘비용 효율화’의 막을 열었다는 데에는 이견이 적다. 특히 고성능 추론 AI의 진입 장벽이 낮아지면서 현재보다 더 많은 AI 서비스가 개발되고, 반도체 수요도 증가할 거라는 낙관도 나온다.
추론용 AI 칩을 개발하고 있는 국내 AI 반도체 스타트업 하이퍼엑셀의 이진원 최고기술책임자(CTO)는 “선발 주자의 기술력을 후발주자가 빠르게 따라잡고 공개하면서 AI 추론 시장이 커지고 있다”라며 “AI 추론에서 메모리는 여전히 많이 필요하기에 고성능 DDR(더블데이터레이트)과 구형 HBM 등, 가격 효율성 있는 첨단 D램 수요는 더 늘어날 것”이라고 말했다. 현재 최신 HBM3E(5세대)은 AI 훈련용으로 대형 AI 데이터센터에 주로 사용되는데, 이보다 성능·가격이 낮은 구형 HBM이나 현재 PC·모바일에 사용되는 그래픽메모리(GDDR)7이나 저전력(LP)DDR 등 메모리가 AI 추론용으로 널리 쓰일 가능성이 있다는 얘기다.
엔비디아는 개인 개발자가 AI 추론 모델을 개발하고 실행할 수 있는 3000달러(약 430만원)짜리 개인용 AI 슈퍼컴퓨터인 ‘프로젝트 디지츠(Digits)’를 오는 5월 출시할 계획이다.