무슨 일이야
성능은 유사한데 개발 비용은 훨씬 저렴했다. R1 개발에 사용된 칩은 엔비디아가 고사양 GPU(그래픽처리장치)인 H100보다 사양을 낮춰 중국 수출용으로 만든 H800이다. 경쟁사들이 AI 모델 훈련에 GPU 약 1만6000개를 사용하는 데 반해, 딥시크 엔지니어들은 2000개 정도 칩만으로 AI 모델을 훈련시켰다고 주장했다. 딥시크 측은 AI 모델이 스스로 정답을 찾아가는 ‘그룹 상대 정책 최적화’(GRPO) 학습 방식과 특정 작업시 문제 해결에 필요한 부분만 AI를 활성화 하는 ‘전문가 혼합’(Moe) 기법 등 효율성을 극대화 하는 방식들을 택해 비용을 줄였다고 설명한다. 이런 방식으로 사전 연구와 실험을 제외하고 모델 훈련에 투입한 비용이 557만6000달러(약 80억원)에 불과하다. 딥시크의 주장이 맞다면 오픈 AI GPT4 개발 추정 비용의 18분의1, 메타의 라마 3 개발 비용의 10분의 1정도 수준으로 업계는 보고 있다.
미국 빅테크들은 빠르게 견제에 나섰다. 29일 블룸버그와 월스트리트저널(WSJ) 등은 딥시크가 허가 없이 무단으로 오픈AI의 데이터를 활용했는지 여부를 오픈AI와 마이크로소프트(MS)가 조사하고 있다고 보도했다. 오픈AI는 중국 기반 기관들이 자사 AI 도구에서 대량의 데이터를 빼내는 ‘증류’(distillation) 과정을 거쳐 모델을 훈련시켰다는 의혹을 제기했다. 증류는 규모가 큰 AI 모델 능력치를 작은 모델에 압축해 넣는 개발 방식이다. 도널드 트럼프 미 행정부에서 AI·가상화폐 정책 총괄로 임명된 데이비드 색스도 이같은 주장에 “상당한 증거가 있다”고 밝혔다.
가성비 AI 믿을 수 있나?
R1 모델이 오픈소스(개방형)로 글로벌 시장에 풀린 만큼 자체 기반 모델이 없는 AI 스타트업엔 더 많은 기회가 될 것이라는 전망도 나온다. 저렴한 비용으로 자체 모델을 개발할 가능성이 높아진데다, 오픈소스를 활용한 저렴한 AI서비스를 내놓을 수 있어서다. 한종목 미래에셋증권 선임연구원은 “대형 모델을 훈련할 수 있는 자원이 없는 연구자나 기업도 오픈소스 모델을 통해 고성능 AI의 혜택을 누릴 수 있을 것”이라며 “이는 한국에도 적용될 부분”이라고 짚었다.
다만 업계 일각에선 딥시크의 기술력이 과대포장 됐다는 문제를 제기한다. 딥시크가 내세우고 있는 벤치마크 기준이나 테스트 환경이 편향되지 않았는지 살펴보고, 실제 활용 사례와 안정성 등을 더 검증해야 한다는 것이다. 강점인 ‘가성비’ 역시 부풀려졌을 수 있다. 국내 IT 업계 한 관계자는 “딥시크가 공개한 ‘저비용’은 1회 학습비용으로 운영 비용 등 누적 투자 비용까지 고려한다면 아주 저렴한 비용이라고 볼 수 만은 없다”고 말했다. 딥시크가 저사양 AI칩인 H800으로 AI를 개발했다는 점에 대해서도 의혹이 나온다. AI 데이터 기업인 스케일AI의 알렉산더 왕 CEO는 최근 CNBC와의 인터뷰에서 “딥시크가 약 5만 개의 H100을 갖고 있지만, 미국의 수출 규제 때문에 그렇게 말하지 못한다”고 주장했다.