1. 安装Python环境

1.1 安装Anaconda(Python包管理)
  1. 访问 Anaconda官网,下载Windows 64位安装包。

  2. 双击安装包,勾选 “Add Anaconda to PATH”(将Anaconda加入环境变量),按默认选项完成安装。

1.2 创建虚拟环境

打开Anaconda Prompt(以管理员身份运行):

conda create -n deepseek-gui python=3.9  # 创建名为deepseek-gui的Python 3.9环境
conda activate deepseek-gui             # 激活环境

2. 安装PyTorch与CUDA驱动

2.1 安装PyTorch(GPU/CPU版本)
  • GPU用户(需NVIDIA显卡):

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia
  • CPU用户(无GPU):
conda install pytorch torchvision torchaudio cpuonly -c pytorch
2.2 验证CUDA是否可用

在Python交互环境中输入:

import torch
print(torch.cuda.is_available())  # 输出True表示GPU可用

3. 获取Deepseek-R1代码与模型

3.1 克隆代码仓库
git clone https://github.com/deepseek-ai/Deepseek-R1.git
cd Deepseek-R1
3.2 下载模型权重
  1. 根据官方指引下载模型文件(如从Hugging Face或百度云获取)。

  2. 将权重文件(如deepseek-r1-7b.bin)放入项目内的checkpoints文件夹。


4. 安装依赖库(包含GUI支持)

4.1 安装基础依赖
pip install -r requirements.txt
4.2 安装图形界面库
  • 选项1:使用Gradio(推荐)
    快速构建Web界面:

pip install gradio
  • 选项2:使用Streamlit

        更灵活的仪表盘:

pip install streamlit

5. 配置图形界面

5.1 创建界面脚本(以Gradio为例)

在项目根目录新建文件 web_demo.py,并添加以下代码:

import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer

# 加载模型和分词器
model_path = "checkpoints/deepseek-r1-7b.bin"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path)

# 定义生成函数
def generate_text(prompt):
    inputs = tokenizer(prompt, return_tensors="pt")
    outputs = model.generate(**inputs, max_length=200)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

# 构建Gradio界面
interface = gr.Interface(
    fn=generate_text,
    inputs=gr.Textbox(lines=3, placeholder="输入您的问题..."),
    outputs="text",
    title="Deepseek-R1 交互界面",
    description="输入问题,获取模型生成的回答。"
)

# 启动服务
interface.launch(server_name="0.0.0.0", server_port=7860)
5.2 修改配置文件(如有必要)

确保model_config.py中模型路径正确:

MODEL_PATH = "checkpoints/deepseek-r1-7b.bin"  # 使用绝对路径更安全

6. 启动图形界面

6.1 运行Gradio界面
python web_demo.py
  • 成功启动后,命令行会显示访问链接:
    Running on local URL: http://127.0.0.1:7860

6.2 使用浏览器交互
  1. 打开浏览器访问 http://localhost:7860

  2. 在输入框中提问(如“如何学习人工智能?”),点击Submit生成回答。


7. 常见问题与优化

7.1 界面启动失败
  • 端口冲突:修改web_demo.py中的端口号(如server_port=8000)。

  • 依赖缺失:检查是否安装gradiostreamlit

7.2 性能优化
  • GPU显存不足

# 启用8-bit量化(需安装bitsandbytes)
model = AutoModelForCausalLM.from_pretrained(model_path, load_in_8bit=True)
  • CPU加速

# 启用多线程
import torch
torch.set_num_threads(8)
7.3 界面美化
  • Gradio主题:更换界面主题(如gr.themes.Soft())。

  • 历史记录:添加聊天历史功能(参考Gradio的ChatInterface)。


附:图形界面示例截图


通过以上步骤,您可以在Windows本地部署Deepseek-R1并拥有图形交互界面。如需更复杂功能(如文件上传、多轮对话),可进一步扩展Gradio或Streamlit代码。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐