DeepSeek-R1 是由深度求索(DeepSeek)推出的一款高性能开源大语言模型,支持多种应用场景,如代码生成、问答、文本创作等。本文将指导您如何在本地环境中部署并运行 DeepSeek-R1 模型。
在开始之前,请确保您的设备满足以下基本要求:
首先创建一个虚拟环境并安装必要依赖:
python -m venv deepseek-env
source deepseek-env/bin/activate # Linux/macOS
# 或 deepseek-env\Scripts\activate # Windows
pip install torch transformers accelerate sentencepiece
您可以通过 Hugging Face 获取 DeepSeek-R1 模型(需登录并同意条款):
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="deepseek-ai/deepseek-r1",
local_dir="./deepseek-r1"
)
使用如下代码加载模型并进行推理(建议在 GPU 上运行):
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("./deepseek-r1", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("./deepseek-r1", trust_remote_code=True).cuda()
inputs = tokenizer("你好,请介绍一下你自己。", return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
- 模型文件较大(约数十 GB),请确保磁盘空间充足。
- 首次运行可能需要较长时间加载模型到显存。
- 若显存不足,可尝试使用 transformers 的 device_map="auto" 或量化方案(如 bitsandbytes)。