手把手教你搭建属于自己的本地大模型环境
DeepSeek是由深度求索(DeepSeek)开发的大语言模型系列。本地部署意味着你可以在自己的计算机或服务器上运行该模型,无需依赖云端API,保障数据隐私并实现离线使用。
git clone https://github.com/deepseek-ai/DeepSeek.git
pip install torch transformers accelerate peft
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "deepseek-ai/deepseek-llm-7b-chat"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")
启动本地推理服务:
# 示例:简单对话
input_text = "你好,请介绍一下你自己。"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))