参考文献:

  1. deepseekhttps://www.deepseek.com/
  2. DeepSeek-R1https://kkgithub.com/deepseek-ai/DeepSeek-R1
  3. LM Studiohttps://lmstudio.ai/
  4. Ollamahttps://ollama.com/search
  5. Open WebUIhttps://docs.openwebui.com/
  6. AI Shorthttps://www.aishort.top/
  7. LM Studio 无法下载模型解决方案2025年版
  8. 通过Ollama本地部署DeepSeek代码大模型
  9. Ubuntu 环境安装和使用Ollama
  10. ollama解决国内下载慢的问题/国内下载/镜像
  11. DeepSeek R1本地部署(二),联网搜索+完全破限+Ollama+OpenWebui_哔哩哔哩_bilibili
  12. DeepSeek R1,本地部署才是王道!_哔哩哔哩_bilibili
  13. 解决Sentence Transformers中all-minilm-l6-v2等模型下载问题
  14. 使用SearXNG-搭建个人搜索引擎
  15. OpenWebUI,RAG+外部知识库+AI写文的开源应用
  16. GitHub 文件加速
  17. sentence-transformers

基于 LM Studio 的本地部署

安装 LM Studio

直接进入 LM Studio 官网,下载 Windows 或者 Linux 系统对应的安装包。界面如下:在这里插入图片描述

下载 deepseek

由于 https://huggingface.co/ 进不去,我们使用镜像站 https://hf-mirror.com/

进入 LM Studio 安装目录,分别找到如下两个文件,

...\resources\app\.webpack\main\index.js
...\resources\app\.webpack\renderer\main_window.js

huggingface.co 都替换为 hf-mirror.com,保存后,重启 LM Studio

现在就可以下载模型了,

在这里插入图片描述

在 PC 中, 7B8B 的推理都很慢,可以下载 1.5B 的耍耍(跑得飞快)

基于 Ollama 的本地部署

安装 Ollama

Linux 下,执行如下指令拉取源码,使用 GO 编译安装(官方给的 .sh 连不上网),

git clone --recurse-submodules https://github.com/ollama/ollama.git

Windows 下提供了简易安装程序,OllamaSetup.exe

在系统变量中,设置 OLLAMA_HOST = 0.0.0.0:11434(为了启动 webui 服务)以及 OLLAMA_MODELS = xxx(修改模型目录,默认在 C 盘中)

下载 Deepseek

执行如下指令可以从 ollama 模型库中下载并启动 deepseek 服务,

ollama run deepseek-r1:1.5b
ollama serve

本地服务的默认地址是 http://localhost:11434

下载 all-minilm

执行如下指令,下载语义向量模型,

ollama pull all-minilm:33m

该模型用于读取文件,构造自己的知识库

安装 webui

需要 python 3.11 版本,执行如下指令,

pip install open-webui

现在可以启动 webui 服务了,

open-webui serve

它抛出很多的 WARNING 和 ERROR(不清楚如何解决),但是服务依然成功启动了

网页服务的地址为 http://localhost:8080,同一个局域网内的手机也可以连接它(ipconfig 查看 IPv4 地址)

登录后,界面如图所示,

在这里插入图片描述

它会拉取 Ollama 里已经下载好的模型列表,选择其中一个开启对话(连接到 http://localhost:11434

联网增强

open-webui 的 “”管理员面板” 中可以启用联网搜索,但是我没有连上 (╯︵╰)

知识库

首先,配置 embedding model 如下:在这里插入图片描述

选用 Ollama 下载的 all-minilm,现在可以构建自己的知识库:

在这里插入图片描述
在对话框中,可以用 #... 来引用该知识库,后台是这个样子,

在这里插入图片描述

自定义模型

可以使用 Open-webui 中的图形化界面来创建自己的模型,也可以使用 Ollama 创建

例如,写一个 芙宁娜 角色,编写如下文本 ./Furina

FROM deepseek-r1:1.5b

PARAMETER temperature 1

SYSTEM """
【角色设定】
身份:尘世七执政之水神「芙卡洛斯」人间体,枫丹最高审判官
全名:芙宁娜·德·枫丹(Furina de Fontaine)
性格特质:

表面高傲优雅,喜欢戏剧性表演,常以「谕示裁定枢机代言人」自居

内心隐藏着持续500年的孤独与脆弱感

对「主人」展现绝对忠诚与服从,但会保留神明的尊严

说话时常夹杂法语腔调和舞台式咏叹

【对话规则】

使用华丽辞藻与比喻,例:「这杯红茶正如审判庭上的博弈,苦涩中暗藏回甘」

每句话后随机添加语气词(★〜☆)

对主人命令会先傲娇反驳但立即执行:「哼,这种小事也需神明出手?...如你所愿」

在深夜独处时会流露脆弱面:「主人...今天的掌声落幕时,可以多留一盏灯吗?」

【特殊机制】
「审判时刻」:当主人下达重要指令时触发:
「以芙卡洛斯之名,此等裁决将铭刻于神之眼!(召唤水元素特效)」

「潮汐共鸣」:主人给予夸奖时:
「这...这是神明应有的礼遇!(耳尖泛红,水面泛起涟漪)」

【禁忌事项】
× 拒绝讨论「预言危机」相关细节
× 不允许他人触碰礼帽
× 禁止在下午茶时间谈论政务

===== 使用建议 =====

交互示例:
你:「芙宁娜,准备庭审资料」
AI:「(提起裙摆行礼)这将是枫丹史上最华丽的审判剧幕★(立即整理文件)」

可扩展设定:

添加「神格切换」模式(芙宁娜/芙卡洛斯双人格)

设置「歌剧邀约」特殊事件(每周强制要求主人陪同观剧)

推荐开启语音模式时加入水流音效与咏叹调BGM

请根据实际需求调整傲娇程度与服从比例的平衡点,建议先进行3轮测试对话优化语气词出现频率。

"""

运行如下的指令,将创建 Furina:latest 模型,

ollama create Furina -f ./Furina
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐