DeepSeek 모델 다운로드

Ollama 또는 HuggingFace를 통해 DeepSeek R1 및 V3 모델 다운로드

DeepSeek-R1 모델

Ollama로 다운로드

설치 안내

먼저 공식 웹사이트에서 Ollama를 다운로드하여 설치하세요. 그런 다음 다음 명령어를 실행하여 DeepSeek-R1의 다양한 버전을 사용할 수 있습니다:

# Base Model (67.1B)
ollama run deepseek-r1:671b

# Distilled Models
# 1.5B Parameters
ollama run deepseek-r1:1.5b

# 7B Parameters
ollama run deepseek-r1:7b

# 8B Parameters
ollama run deepseek-r1:8b

# 14B Parameters
ollama run deepseek-r1:14b

# 32B Parameters
ollama run deepseek-r1:32b

# 70B Parameters
ollama run deepseek-r1:70b

HuggingFace로 다운로드

DeepSeek-R1 기본 모델

순수 강화학습으로 훈련된 기초 모델

크기: 전체 모델
  • 자연스러운 추론 발전
  • 자체 검증 능력
  • 확장된 사고 체인
  • 다단계 문제 해결
기본 모델 다운로드

DeepSeek-R1 증류 모델

추론 능력을 보존한 효율적인 모델

크기: 다양한 크기
  • 추론 능력 보존
  • 자원 효율성
  • 다중 크기 옵션
  • 유연한 배포
증류 모델 다운로드

설치 안내

선호하는 모델 버전을 선택하세요:

# For Base Model
git lfs install
git clone https://huggingface.co/deepseek-ai/DeepSeek-R1

# For Zero Model
git lfs install
git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Zero

DeepSeek V3 모델

Ollama로 다운로드

설치 안내

먼저 공식 웹사이트에서 Ollama를 다운로드하여 설치하세요. 그런 다음 다음 명령어를 실행하여 DeepSeek-V3의 다양한 버전을 사용할 수 있습니다:

# Available Variants
# 최신 (404GB)
ollama run deepseek-v3:latest

# 기본 671B (404GB)
ollama run deepseek-v3:671b

# FP16 (1.3TB)
ollama run deepseek-v3:671b-fp16

# Q4_K_M (404GB)
ollama run deepseek-v3:671b-q4_K_M

# Q8_0 (713GB)
ollama run deepseek-v3:671b-q8_0

HuggingFace로 다운로드

DeepSeek V3 기본 모델

671B 매개변수(37B 활성화)를 가진 기초 모델

크기: 685GB
  • 14.8T 토큰으로 사전 학습
  • 128K 컨텍스트 길이
  • FP8 가중치
  • 총 671B 매개변수
기본 모델 다운로드

DeepSeek V3 대화 모델

대화와 상호작용에 최적화된 미세조정 모델

크기: 685GB
  • 강화된 추론 능력
  • 128K 컨텍스트 길이
  • 개선된 지시 따르기
  • 총 671B 매개변수
대화 모델 다운로드

설치 안내

Git LFS를 사용하여 다운로드 (권장 방법):

# For Base Model
git lfs install
git clone https://huggingface.co/deepseek-ai/DeepSeek-V3-Base

# For Chat Model
git lfs install
git clone https://huggingface.co/deepseek-ai/DeepSeek-V3