前言

“通过局域网或异地公网访问本地部署的DeepSeek+数据库”, 这是一个常见的场景,我也有用到,本次将整理分享配置“局域网或异地公网”访问的方法!

在这里插入图片描述

DeepSeek本地部署全攻略:局域网共享+远程访问一体化方案

【项目概述】

关于DeepSeek 本地化部署、搭建个人知识库(资料库)、联网搜索及本地化可视化管理。共分享了三套部署方案。这一篇着重介绍了局域网访问及异地公网访问本地DeepSeek知识库的方法。

演示环境:Windows11 24H2

(一)、DeepSeek本地部署基础环境

1.、安装Ollama框架

2、下载DeepSeek模型

3、可视化界面配置

4、配置本地知识(数据)库

关于本地如何部署DeepSeek、可视化界面及配置知识(数据)库,请前往前面发布的关于本地部署方案,涵盖(个人小白、小团队或企业)不同方法:

(二)、局域网共享大模型配置

同一局域网下,一台主机本地部署了DeepSeek-r1 (或其他模型)以及数据(知识)库后,供局域网下其他主机进行访问大模型和数据库。

操作步骤:

第一步、启动局域网访问权限

默认Ollama仅允许本地访问,需修改环境变量实现局域网共享:

创建用户环境变量:

1、WIN+R打开输入cmd,以管理身份启动CMD终端,执行如下两个命令。

setx OLLAMA_HOST "0.0.0.0"``setx OLLAMA_ORIGINS "*"

创建系统环境变量:

1、在电脑设置中搜索找到“编辑系统环境变量”并打开 编辑系统环境变量。

2、在系统属性面板中点击环境变量,点击 新建 系统变量。

3、新建系统变量名为:OLLAMA_HOST ,值设置为0.0.0.0 。

4、再次新建系统变量名称为:OLLAMA ORIGINS ,值设为:“ * ” 。

5、电脑右下角右键退出Ollama 程序后重新手动启动Ollama程序。


第二步;局域网访问本地大模型配置

在同一局域网下的其他用户访问当前本地部署。无论是使用Page Assist、Anything LLM、Chatbox或Cherry Studio进行部署,都需要在主机与被访问主机上安装对应用的部署工具。

注意:主机ip 地址查询,在CMD中 直接输入: ipconfig 回车即可显示。

部署一:浏览器插件

浏览器Page Assist Web UI插件部署的,设置Ollama地址为http://[主机IP]:11434。

1、被访问主机设置:使用Page Assist浏览器插件本地部署的,被访问主机默认本地访问:http://127.0.0.1 : 端口:11434 即可。

2、访问主机设置:访问主机将127.0.0.1 改为被访问主机IP 地址,如:192.168.50.80,端口默认11434 即可。

部署二:客户端工具

如Anything LLM、Chatbox或Cherry Studio进行部署,配置API地址为http://[主机IP]:11434/v1,选择对应模型即可交互。

1、被访问主机设置:默认Api :http://localhost:11434,保持默认即可。

2、访问主机设置:访问主机将localhost 改为被访问主机IP 地址,如:192.168.50.80,端口默认11434 即可。

3、Anything LLM工具设置同上。

(三)、异地公网访问大模型

一台主机本地部署了DeepSeek-r1 (或其他模型)以及数据(知识)库后,通过公网(外网)异地访问这台主机的大模型和数据,进行内网穿透设置,工具cpolar或路由侠。

操作步骤:

第一步:被访问主机安装路由侠

1、这里以路由侠为例,选择适合自己系统下载安装。

#路由侠地址:``https://www.luyouxia.com/``#cpolar地址:``https://www.cpolar.com/

2、启动安装程序进行安装。

3、注册路由侠账户,并登录账户。

第二步:路由侠配置

1、启动软件后,设置点击内网映射。

2、点击 添加映射 ,并进行配置。

3、选择 选择原生端口——开始创建。

4、配置公网地址:设置端口为Ollama 端口,然后点击创建。

5、创建完成后即显示创建的映射内容,右键复制地址,接下来将复制的地址粘贴到对应部署的工具中。

(四)、访问端设置

部署一:浏览器插件部署

1、Page Assist访问端设置:将复制的地址粘贴在Ollama 设置——Ollama URL 中保存,重启浏览器。

部署二:客户端工具

1、Cherry studio访问端设置:在设置——模型服务——Ollama——API地址 中粘贴地址,再添加模型设置后重启Cherry studio。

2、AnythingLlm访问端设置:首选项——Ollama——Ollama URL 中粘贴复制的地址,设置完成后设置后重启AnythingLlm。

注意事项:

1、提示错误 Ollama call failed with status code 403:

l检查环境变量——用户变量及系统变量是否有Ollama的变量设置。

最后的最后

感谢你们的阅读和喜欢,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,持续学习和进步的重要性。

为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。

这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。

这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。如果你愿意花时间沉下心来学习,相信它们一定能为你提供实质性的帮助。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

DeepSeek全套安装部署资料

在这里插入图片描述

大模型知识脑图

为了成为更好的 AI大模型 开发者,这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

经典书籍阅读

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。

在这里插入图片描述

实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

面试资料

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下

在这里插入图片描述

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐