딥시크 V4, 오픈소스 AI의 새 기준을 쓰다
중국 AI 기업 딥시크가 V4를 공개했다. 성능은 GPT-5, Claude와 맞먹고, 가격은 그 수십 분의 일. 네이버·카카오·삼성이 주목해야 할 세 가지 이유를 분석한다.
오픈소스 AI 모델 하나가 100만 토큰을 처리하면서, 엔비디아 없이도 돌아간다면?
2025년 1월, 딥시크의 R1은 AI 업계에 조용한 충격을 줬다. 제한된 컴퓨팅 자원으로 훈련했음에도 최상위 모델들과 어깨를 나란히 했고, 무명에 가까웠던 중국 연구팀을 하룻밤 사이에 글로벌 AI 지형의 주인공으로 만들었다. 그로부터 약 16개월. 딥시크가 다음 카드를 꺼냈다. 이름은 V4.
V4가 R1만큼 세상을 뒤흔들 가능성은 낮다. 하지만 그렇다고 무시할 수 있는 릴리즈도 아니다. 이번 발표가 중요한 이유는 세 가지다.
가격이 말한다: GPT급 성능, 수십 분의 일 비용
딥시크는 V4를 두 가지 버전으로 출시했다. 코딩과 복잡한 에이전트 작업에 최적화된 V4-Pro, 그리고 속도와 비용 효율을 앞세운 V4-Flash다. 둘 다 딥시크 웹사이트와 앱, API를 통해 누구나 사용할 수 있다.
성능 면에서 V4-Pro는 Anthropic의 Claude-Opus-4.6, OpenAI의 GPT-5.4, Google의 Gemini-3.1과 대등한 벤치마크 결과를 보였다고 회사 측은 밝혔다. 오픈소스 진영에서는 알리바바의 Qwen-3.5, Z.ai의 GLM-5.1을 코딩·수학·STEM 영역에서 모두 앞섰다. 내부 설문에서도 경험 많은 개발자 85명 중 90% 이상이 코딩 작업에서 V4-Pro를 상위 선택지에 포함시켰다.
그런데 가격이 더 눈에 띈다. V4-Pro는 입력 100만 토큰당 약 2,500원, 출력 100만 토큰당 약 5,000원 수준이다. V4-Flash는 이보다도 훨씬 저렴해, 현존하는 최상위 모델 중 가장 낮은 가격대 중 하나다. OpenAI나 Anthropic의 동급 모델과 비교하면 수십 분의 일에 불과하다.
이 가격 차이는 스타트업이나 개인 개발자에게 단순한 비용 절감이 아니다. 지금껏 비용 때문에 포기했던 서비스 아이디어를 현실로 만들 수 있다는 의미다. 국내 AI 스타트업, 나아가 네이버나 카카오 같은 플랫폼 기업들이 자체 AI 서비스를 고도화하는 데 이 모델을 활용할 경우, 인프라 비용 구조 자체가 바뀔 수 있다.
'긴 기억'의 문제를 어떻게 풀었나
V4의 두 번째 핵심은 100만 토큰 컨텍스트 윈도우다. 쉽게 말하면 『반지의 제왕』 3부작과 『호빗』을 합친 분량의 텍스트를 한 번에 처리할 수 있다는 뜻이다. 이 수치 자체는 Gemini나 Claude 최신 버전과 유사하다. 중요한 건 어떻게 여기까지 왔느냐다.
AI 모델에서 '어텐션 메커니즘'은 텍스트의 각 부분이 서로 어떻게 연관되는지를 계산하는 핵심 구조다. 문장이 길어질수록 이 계산 비용이 기하급수적으로 늘어난다. 딥시크는 V4에서 이 문제를 다르게 접근했다. 오래된 정보를 압축하고, 현재 맥락에서 중요할 가능성이 높은 부분에 선택적으로 집중하는 방식이다.
결과는 수치로 드러난다. 100만 토큰 컨텍스트 처리 시, V4-Pro는 이전 모델 V3.2 대비 컴퓨팅 파워를 27%만 사용하고, 메모리는 10%로 줄였다. V4-Flash는 더 극단적이어서, 컴퓨팅 10%, 메모리 7%다.
이 기술이 실용적으로 의미하는 바는 명확하다. 대규모 코드베이스를 통째로 읽는 AI 코딩 어시스턴트, 수백 편의 논문을 연속으로 분석하는 연구 에이전트, 긴 계약서를 처음부터 끝까지 검토하는 법률 AI—이런 서비스들의 구동 비용이 현실적인 수준으로 내려온다는 뜻이다.
엔비디아 없이 AI를 만들 수 있을까
V4에서 가장 정치적으로 민감한 대목은 세 번째다. 딥시크는 V4를 화웨이의 Ascend 칩 같은 중국산 반도체에 최적화한 첫 번째 모델로 출시했다. 화웨이는 V4 공개 당일, 자사의 Ascend 950 시리즈 기반 슈퍼노드 제품이 V4를 지원한다고 발표했다.
배경을 이해하려면 2022년으로 거슬러 올라가야 한다. 미국이 엔비디아의 고성능 칩 수출을 중국에 금지하면서, 중국 AI 기업들은 핵심 인프라를 잃었다. 이후 중국 정부는 데이터센터에 국산 칩 사용을 권고·요구해왔고, 딥시크도 이 압박에서 자유롭지 않았다. 로이터는 중국 정부 관계자들이 딥시크에 화웨이 칩 통합을 권고했다고 보도했다.
하지만 현실은 복잡하다. 칭화대 류즈위안 교수는 MIT 테크놀로지 리뷰에 V4의 훈련 과정 일부만 중국 칩에 적응됐을 가능성이 높다고 밝혔다. 기술 보고서는 추론(인퍼런스) 단계에서 중국 칩을 사용한다고 명시하지만, 핵심 훈련 과정은 여전히 엔비디아 칩에 의존했을 수 있다는 뜻이다. 익명을 요청한 복수의 소식통도 중국 칩이 훈련보다는 추론에 더 적합하다고 전했다.
딥시크는 화웨이 Ascend 950 슈퍼노드가 올해 하반기 본격 출하되면 V4-Pro 가격이 추가로 낮아질 수 있다고 밝혔다. 이 약속이 실현된다면, V4는 중국이 독자적인 AI 인프라를 구축하는 과정에서 의미 있는 첫 걸음이 될 수 있다.
삼성전자와 SK하이닉스 입장에서는 이 흐름이 남의 일이 아니다. 중국이 AI 반도체 자립에 성공한다면, 지금까지 중국 AI 붐의 수혜를 받아온 한국 메모리 반도체 수요 구조에도 변화가 생길 수 있다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
AI 반도체 스타트업 세레브라스가 IPO를 재신청했다. OpenAI와 10조원 계약, AWS 입점까지 확보한 이 회사가 엔비디아의 아성에 도전하는 이유와 한국 반도체 산업에 주는 함의를 분석한다.
엔비디아 CEO 젠슨 황이 GTC 2026 기조연설에서 블랙웰·베라 루빈 칩 수요가 2027년까지 1조 달러에 달할 것이라 전망했다. 삼성·SK하이닉스 등 한국 반도체 업계에 미칠 파장을 분석한다.
엔비디아 GTC 2026 기조연설에서 공개될 추론 전용 칩과 AI 에이전트 플랫폼 NemoClaw. 훈련 시장 80%를 장악한 엔비디아가 다음으로 노리는 시장은 어디인가.
애플이 M5 칩 맥북 가격을 최대 40만원 인상했다. AI 반도체 부족이 만든 새로운 현실, 스마트폰 시장까지 흔들린다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요