딥시크(DeepSeek)발(發) 메모리 반도체 혁신이 일어날까.
중국 인공지능(AI) 스타트업 딥시크의 등장이 메모리 반도체 혁신으로 이어질지 주목된다. 방대한 데이터를 다량의 고성능 칩으로 학습시키는 ‘훈련’보다 ‘추론’을 더 강조한 AI 모델이 부각되면서다. 이에 따라 연산 효율을 더 높이는 메모리 혁신이 요구되고 있다. 최근 성사된 ‘한·미·일 AI 협력’에 저전력 반도체 설계업체 Arm이 합류한 것도, ‘저전력·저비용·고효율’ AI 칩에 대한 시장 기대감을 반영한다.
딥시크, AI 모델 효율성 위해 ‘칩 설계 방안’ 제안
딥시크는 “현재 프로세서는 데이터의 잦은 이동으로 연산 효율성이 떨어진다”면서 “속도를 향상시키기 위해 HBM 근처에 연산 로직을 배치하는 근접 메모리 컴퓨팅(near-memory computing) 등을 제안한다”고 적었다. 효율적 AI 모델로 주목받은 딥시크조차 ‘하드웨어의 한계’를 성능 저하 요인으로 지목하며 개선을 촉구한 것이다.
추론 중심 AI 모델 과제로 떠오른 ‘데이터 이동’
AI 모델의 효율성은 칩셋을 구성하는 여러 장치들이 ‘데이터를 얼마나 빠르게 이동시키느냐’에 달려있다. 중앙처리장치(CPU), 그래픽처리장치(GPU), 디램(DRAM) 간 데이터 이동이 빠를수록 결과값을 산출하기 위한 계산 시간이 단축되고 전력도 덜 소비하게 된다.
특히 AI의 추론 기능이 강조될수록 데이터 처리 속도가 중요하다. AI가 최적의 답을 도출하기 위한 일종의 심사숙고 과정에서 데이터의 이동과 연산이 수없이 반복적으로 이뤄지기 때문이다. CPU, GPU, DRAM 등이 서로 물리적으로 떨어져 있거나 이동 통로(대역폭)가 좁다면 데이터 전송 과정에서 지연이 발생하고 병목 현상이 나타날 수 있다.
韓, 차세대 AI 반도체 선점 나서야
기술적 과제는 남아있다. 박재근 교수는 “삼성전자와 SK하이닉스 모두 PIM을 개발하고 있지만 발열 문제를 해결하지 못해 아직 상용화 단계에 이르진 못했다”며 “과도기 단계에서 데이터 이동 효율을 높이는 방식은 패키징(조립) 기술을 통해 일부 구현되고 있다”고 말했다. 대표적으로 CPU, GPU, HBM 등 서로 다른 종류의 칩을 단일 기판에 조밀하게 집적해 데이터 전송 속도를 높인 TSMC의 첨단 패키징 기술(CoWoS)이 꼽힌다.
전문가들은 주도권 확보를 위해선 시장을 선점해야 한다고 주문한다. 이종환 상명대 반도체시스템공학과 교수는 “딥시크가 완전히 새로운 개념을 제안한 건 아니지만, 앞으로 AI 반도체의 발전 방향과 맞닿아 있다”면서 “메모리와 비메모리의 경계를 허문 반도체 수요가 증가할 것이므로 국내 기업들도 발 빠르게 상용화까지 마쳐 시장을 선점해야 한다”고 말했다.