最近国产大模型DeepSeek特别火,以至于频繁出现反应迟缓甚至宕机的情况,和两年多之前ChatGPT的遭遇颇为相似。就会出现以下情况

万幸,DeepSeek是一个开源模型,我们大可以通过本地部署,在自己的终端上随时使用!接下来就教大家具体的操作:

官方模型库参考:Ollama DeepSeek-R1 页面

一、部署Ollama(多平台选择安装)
Ollama 支持 Linux/macOS/Windows,需根据系统选择安装方式。

1. Linux 系统部署(适用系统:Ubuntu/Debian/CentOS 等)步骤:
一键安装:

curl -fsSL https://ollama.com/install.sh | sh

权限配置(避免 sudo 运行):

sudo usermod -aG ollama $USER  # 将当前用户加入ollama组newgrp ollama                 

启动服务:

systemctl start ollama         # 启动服务systemctl enable ollama        # 开机自启

验证安装:

ollama --version               # 输出版本号即成功

2. macOS 系统部署 步骤:
一键安装:

curl -fsSL https://ollama.com/install.sh | sh

启动服务:

ollma serve                   # 前台运行(调试用)

或通过 Launchd 后台服务:

brew services start ollama  # 通过Homebrew管理

3. Windows 系统部署 

前置要求

  • Windows 10/11 64位

步骤

第一步:安装ollama

https://ollama.com/download

第二步:在ollama 官网搜索

https://ollama.com/

第三步:在终端执行 命令

ollama run deepseek-r1:7b

等待安装即可

第四步:测试功能(这里测试deepseek-r1:8b)

第五步:基本命令
#退出模型
>>> /bye
#查看模型
C:\Users\chk>ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    3 minutes ago
 
#启动模型
ollama run deepseek-r1:1.5b
>>>
#查看帮助
C:\Users\chk>ollama  -h
Large language model runner
 
Usage:
  ollama [flags]
  ollama [command]
 
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
 
Flags:
  -h, --help      help for ollama
  -v, --version   Show version information
 
Use "ollama [command] --help" for more information about a command.

二、可视化部署Web UI

第一步:下载Chatbox AI

Chatbox AI官网:https://chatboxai.app/zh

 

设置中文

第二步:将 Chatbox 连接到远程 Ollama 服务

如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题

1.在 Windows 上配置环境变量

在 Windows 上,Ollama 会继承你的用户和系统环境变量。
 
通过任务栏退出 Ollama。
 
打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。
 
点击编辑你账户的环境变量。
 
为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
 
点击确定/应用以保存设置。
 
从 Windows 开始菜单启动 Ollama 应用程序。

 

2.服务 IP 地址

配置后,Ollama 服务将能在当前网络(如家庭 Wifi)中提供服务。你可以使用其他设备上的 Chatbox 客户端连接到此服务。

Ollama 服务的 IP 地址是你电脑在当前网络中的地址,通常形式如下

192.168.XX.XX 

 在 Chatbox 中,将 API Host 设置为:

http://192.168.XX.XX:11434

3.注意事项
  • 可能需要在防火墙中允许 Ollama 服务的端口(默认为 11434),具体取决于你的操作系统和网络环境。

  • 为避免安全风险,请不要将 Ollama 服务暴露在公共网络中。家庭 Wifi 网络是一个相对安全的环境。

4.Chatbox配置模型

 

第三步:效果演示

三、常用的故障排查方法

1. Ollama服务无法启动

日志查看

journalctl -u ollama -f   # Linux

端口冲突:修改Ollama端口:

OLLAMA_HOST=0.0.0.0:11435 ollama serve  # 指定新端口

2. 模型加载失败

重新初始化

ollama rm deepseek-r1 && ollama pull deepseek-r1

3. MaxKB连接超时

检查网络

curl http://ollama-ip:11434                  # 确认Ollama API可达

跨域问题:在Ollama启动时添加:

OLLAMA_ORIGINS="*" ollama serve

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐