
恒贝服饰自用DeepSeek R1本地部署,联网搜索+完全破限+Ollama+OpenWebui界面+语音+非官方模型调用+手机连接
公司自用
·
一、下载地址
ollama下载地址:https://ollama.com/.
python下载地址:https://www.python.org/downloads/windows/ 必须选择3.11版本的下载
open webui库:https://github.com/open-webui/open-webui
二、操作
- 验证ollama下载成功 :打开管理员cmd命令,输入
ollama
。 - 打开网页版ollama:地址为 http://127.0.0.1:11434/
- 第二步只能实现本地,想要局域网使用,设置环境变量。
- 新建:变量名:
OLLAMA_MODELS
变量值:D:\xxxxxxx\models
(ollama新下载的放在非c盘,不然c盘后期太满) - 新建:变量名:
OLLAMA_HOST
变量值:0.0.0.0:11434
- 命令行cmd,输入ipconfig查看自己ip地址。然后输入ip地址加:11434
效果如下: - 找我要到破限模型,在下载目录先创建一个Modelfile文件(去掉后缀)然后用记事本打开,输入:FROM加空格加/模型文件名称
注意:网传破限版本模型目前都会已读乱回,必须自己调试,破限参数可以找我要文档。
- 在Modelfile文件夹下,输入cmd回车,打开命令行。
- 命令输入:
ollama create deepseek-r1-A -f Modelfile
等待直到出现success
。
然后输入:ollama run deepseek-r1-A
然后就可以进行提问了:比如我是谁
-
下载openwebui(网页可视化工具)前提是先下载部署好3.11版本的python。(恒贝公司员工可以直接问我要)
下载好后用管理员权限打开cmd窗口,输入:pip install open-webui
等待下载完成。 -
安装好后输入open-webui serve
-
启动好后就可以复制最后提示的网址使用网页版的了,进入网页版点击开始使用。
-
创建自己的账号,就可以开始使用简易的破限版本了。
三、不同显存对应的模型
四、联网补充
使用谷歌搜索api:
1.打开https://programmablesearchengine.google.com/controlpanel/all
2.点击添加按钮
3.添加指定整个网域来进行联网搜索,输入*.example.com:
还是选择在整个网络中搜索吧,不然会bug
4.创建完毕后点击自定义,查看引擎id:
5.复制自己的引擎id:
6.滑倒最底部,点击开始使用,创建密钥:
7.点击获取密钥:
8.随便选一个,没有创建过的点create a new project自己创建一个,然后点next:
9.点击show key:
10.点击复制,即可使用:
更多推荐
所有评论(0)