在虚拟机的Ubuntu-22.04.5上,本地部署Deepseek-R1
在终端中,输入以下命令,下载模型。(注意这里的ollama要改成/opt/bin/ollama,你也可以去改变环境变量,去直接使用ollama命令。通过ollama rm deepseek-r1:1.5b命令可以删除指定的模型。解压成功后,在/opt中打开bin和lib文件夹会出现ollama相关的文件。注意这里我们没有配置全局变量,所以不能直接用ollama命令,要用以下命令代替。方法一:去ol
1.安装Ollama(方法二)
方法一:去ollama官网下载(要求虚拟机能上GitHub)
直接在终端中输入 以下命令
curl -fsSL https://ollama.com/install.sh | sh
方法二:打开https://github.com/ollama/ollama/releases/,下载ollama-linux-amd64.tgz到本地。
(如果打不开github,就用我分享的压缩包
https://pan.baidu.com/s/19MT3Hi3HFWkv46JVH45T5w?pwd=1234 提取码: 1234 )
解压
sudo tar -zxf ollama-linux-amd64.tgz -C /opt
解压成功后,在/opt中打开bin和lib文件夹会出现ollama相关的文件。
添加执行权限
sudo chmod +x /opt/bin/ollama
注意这里我们没有配置全局变量,所以不能直接用ollama命令,要用以下命令代替
/opt/bin/ollama
2 下载并部署DeepSeek模型
- 启动ollama
/opt/bin/ollama serve #代替ollama serve
#或者
/opt/bin/ollama start #代替ollama start
- 下载模型
去ollama官网搜索deepseek-r1
进入想要的deepseek-r1模型中
在终端中,输入以下命令,下载模型。(注意这里的ollama要改成/opt/bin/ollama,你也可以去改变环境变量,去直接使用ollama命令。)
/opt/bin/ollama pull deepseek-r1:1.5b #代替 ollama pull deepseek-r1:1.5b
想要下载其他模型,可以把1.5b改为相应的大小
- 运行deepseek模型
/opt/bin/ollama run deepseek-r1:1.5b #代替ollama run deepseek-r1:1.5b
通过ollama list命令可查看已经部署的模型。
通过ollama rm deepseek-r1:1.5b命令可以删除指定的模型。
如果你想要本地部署的AI像官方一样有可视化界面,可以安装ChatBox
更多推荐
所有评论(0)