
公司内搭建DeepSeek-r1 14b,windows 平台,Ollama PC本地化部署,Chatbox窗口端访问(可外网访问)
年后开始想自己在公司搭建deepseek-r1尝试下。
背景
年后开始想自己在公司搭建deepseek-r1尝试下。
主要流程
下载安装 Ollama 平台
https://ollama.com/
下载后正常点击安装,安装在C 盘,且不可改。
配置Ollama
1、默认情况下,Ollama 服务仅在本地运行,不对外提供服务。
要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:
OLLAMA_HOST:0.0.0.0
OLLAMA_ORIGINS:*
2、配置模型存放地址,也就是拉取的模型文件存放的位置,模型文件比较占磁盘空间,一般配置到非系统盘。
OLLAMA_MODELS:D:\work\ollama\models
3、开放防火墙 11434端口
为了使其他设备能够访问 Ollama 服务,我们需要在 Windows 防火墙中开放 Ollama 服务运行的端口(例如 11434)。你可以选择通过图形界面操作,或者更快捷地通过命令行操作来完成设置。
方法一:使用 Windows 防火墙图形界面
打开 控制面板,搜索并选择 Windows Defender 防火墙。
在左侧点击 高级设置,进入高级防火墙设置页面。
在左侧菜单中,点击 入站规则,然后在右侧点击 新建规则。
选择 端口 作为规则类型,然后点击 下一步。
选择 TCP,并在 特定本地端口 一栏中输入 11434,然后点击 下一步。
选择 允许连接,点击 下一步。
根据需求选择应用的网络类型(域、专用或公用),点击 下一步。
为这条规则命名(如 “Allow Ollama Port 11434”),然后点击 完成。
如果需要在外网访问,则将内网端口映射到公网即可。
使用Ollama 拉取模型文件
怎么知道有哪些模型可以获取?
模型库地址:https://ollama.org.cn/library
Ollama 部署/运行模型的命令
直接使用运行模型的命令部署 ds:ollama run deepseek-r1:1.5b
注意,这个run命令在没有模型时,会直接拉取,所以拉取命令和运行命令是同一个;
命令格式:模型版本号直接跟在 :后面
常用的ollama 命令如下:
ollama list:显示本地模型列表。
ollama show:显示模型的信息
ollama pull:拉取模型
ollama push:推送模型
ollama cp:拷贝一个模型
ollama rm:删除一个模型
ollama run:运行一个模型
ollama stop:停止一个正在运行的模型 ,从内存中卸载,不再占资源。如:ollama stop deepseek-r1:14b
中止运算 Ctrl+C,退出 DeepSeek Ctrl+D
具体操作
打开 ollama.exe 所在位置
一般是:C:\Users\user\AppData\Local\Programs\Ollama
在此打开命令行,操作:鼠标放到文件地址导航栏,清空内容,输入 cmd并回车
结果如下:
输入拉取命令进行拉取,如 ollama run deepseek-r1:14b,完成后会展示 success,因为我之前已经拉过了,所以拉取过程没有,直接运行了。拉取过程类似下图。
跑起来后,右下角会有个图标:
success 下面直接是>>>,可以直接在后面输入问题,模型开始思考和回答。
使用网页版的Chartbox 【没成功】
Chartbox 网页版地址:https://web.chatboxai.app/

https://console.bce.baidu.com/qianfan/ais/console/onlineTest/LLM/DeepSeek-R1
3、字节——火山方舟平台
https://console.volcengine.com/ark/region:ark+cn-beijing/experience/chat
每个注册用户赠送 50W token/每个模型
需要在每个平台先注册账号—>实名认证—>创建API key—>在 Chartbox 中进行配置
配置方法具体见:https://www.bilibili.com/video/BV1rBPye8E9w/?spm_id_from=333.1391.0.0
后续:研究 DS与 知识库的结合。
更多推荐
所有评论(0)