오는 2월 중순, 전 세계 AI 업계의 시선이 중국의 스타트업 '딥시크(DeepSeek)'로 쏠리고 있다.
2026년 현재, 엔비디아 GPU 확보에 사활을 거는 빅테크들과 달리 딥시크는 독자적인 알고리즘 효율화를 통해 '저비용 고효율'이라는 새로운 패러다임을 제시하며 차세대 모델 V4 출시를 앞두고 있다.
딥시크가 일으킨 혁신의 핵심은 '엔그램(N-Gram)'과 'MLA(멀티헤드 잠재 어텐션)' 기술이다. 기존 거대언어모델(LLM)이 간단한 질문에도 복잡한 GPU 연산을 수행했다면, 엔그램 기술은 자주 묻는 질문의 답을 미리 D램 메모리에 저장해 두고 필요할 때 즉시 꺼내 쓴다.
마치 매번 곱셈 계산을 하는 대신 구구단을 외워서 답하는 것과 같은 원리로, GPU의 부담을 획기적으로 줄이면서 추론 속도는 높였다.
이러한 기술적 변화는 하드웨어 시장의 판도까지 뒤흔들고 있다. 연산 능력(GPU)만큼이나 저장 능력(D램, SSD)이 중요해지면서 기업용 메모리 수요가 폭증했다.
실제로 마이크론은 소비자용 제품 생산을 중단하고 기업용 시장에 집중하겠다고 선언했으며, 샌디스크 등 스토리지 기업의 가치는 급등했다.
가격 파괴력 또한 무섭다. 딥시크의 API 이용료는 경쟁자인 GPT나 제미나이 시리즈의 10분의 1 수준에 불과하다.
비용 효율화로 인해 AI 사용량이 오히려 급증하는 '제본스의 역설'이 현실화하면서, 딥시크는 AI의 대중화를 앞당기는 기폭제 역할을 하고 있다. 다가오는 V4가 또 한 번 기술 생태계에 어떤 충격을 줄지 실리콘밸리의 긴장감이 고조되고 있다.

