1. 环境准备
在安装 DeepSeek 前,请确保您的系统满足以下要求:
- 操作系统:Linux / macOS / Windows(推荐 Linux)
- Python 版本:≥ 3.9
- GPU(可选但推荐):支持 CUDA 的 NVIDIA 显卡(如 RTX 30/40 系列)
- 磁盘空间:至少 20GB 可用空间(视模型大小而定)
2. 安装依赖
使用 pip 安装必要的 Python 包:
pip install torch transformers accelerate sentencepiece
若使用 GPU,请确保已安装对应版本的 CUDA 和 cuDNN。
3. 下载 DeepSeek 模型
可通过 Hugging Face 加载官方 DeepSeek 模型(需登录并同意条款):
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-coder-1.3b-instruct", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-coder-1.3b-instruct", trust_remote_code=True)
首次运行时会自动下载模型文件,请确保网络畅通。
4. 运行模型
加载完成后即可进行推理:
inputs = tokenizer("写一个 Python 快速排序函数", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
5. 常见问题
- 模型加载慢? 首次下载较大,请耐心等待或使用镜像源。
- 显存不足? 可尝试量化版本(如 GGUF 格式)或使用 CPU 推理(速度较慢)。
- 报错 “trust_remote_code”? DeepSeek 使用自定义代码,必须设置
trust_remote_code=True。