访问官方网站下载Ollama软件时,发现安装过程中未提供路径选择,系统默认将软件安装至C盘。安装完成后,软件本身占用约4.56GB的硬盘空间。在下载语言模型的过程中,所需存储空间逐渐增加,导致C盘迅速接近存储极限。尽管查阅了大量网络教程,但这些教程对于初学者而言过于简略,未能提供详尽指导,导致反复尝试后仍只能默认安装在C盘。

经过不懈努力,最终找到了方法,成功将Ollama和模型安装至E盘。接下来,将通过图解的方式详细说明哪些文件需要被移动至E盘指定文件夹。

一:下载Ollama

访问Ollama的官网:Download Ollama on macOS

将按照包下载到我指定的目录当中,该目录也是ollama后续安装和下载大模型的目录。提前创建好:E:\AppDownLoad\LLMs\ollama

下载完成之后如果直接点击安装包,会默认安装到C盘,这时候需要通过命令行的方式来进行安装。

二:安装Ollama到E盘

E:\AppDownLoad\LLMs\ollama目录新建一个ollamaIntallPath文件夹来存放Ollama的安装位置;

## 打开CMD,进入到E:\AppDownLoad\LLMs\ollama目录

cd E:\AppDownLoad\LLMs\ollama

## 通过命令行来安装Ollama

.\OllamaSetup.exe /DIR=E:\AppDownLoad\LLMs\ollama\ollamaIntallPath

 打开验证:http://localhost:11434/

 

三:修改大模型存放路径

虽然Ollama安装成功在了E盘,但是默认的大模型存放路径还是在C盘,可以看到C:\Users\个人用户名\AppData\Local\Ollama  C:\Users\个人用户名\.ollama 目录多出来了Ollama的文件夹。

之后将 C:\Users\Administrator\AppData\Local\.ollama 文件夹移动到E盘E:\AppDownLoad\LLMs\ollama

编辑环境变量修改修改大模型存储目录

添加系统环境变量

在环境变量中新建系统变量

将变量值填写为刚才从C盘移动到E盘的那个.ollama的目录!

变量名:OLLAMA_MODELS

变量值:E:\AppDownLoad\LLMs\ollama\.ollama (自定义大模型存放路径)

 创建完成之后确定保存

环境变量修改完成之后重启电脑或者重启ollama生效!否则失败!!

四:下载大模型

重启之后来下载大模型确定是否生效;

## 在终端输入该命令查看模型,如果还没有模型则为空

ollama list

## 在终端里输入下面模型代码回车,8b模型(4.9GB)开始下载,说明没问题的

ollama run deepseek-r1:8b

在安装模型阶段发现刚开始速度很快,到后面速度就会特别慢。这里有一个小技巧,就是当特别慢的时候直接Ctrl+C取消,因为取消后之前的下载记录保存在了缓存当中,所以不会有影响,这时候可以在重新输入上述命令来让下载速度提高

在图中我在95%直接Ctrl+C取消后重新下载,速度提升很多。

 可以看到将模型安装到了我们指定的位置

可以运行: ollama run deepseek-r1:8b 来运行模型

可以在官方链接中下载对应的模型:Ollama Search

学习阶段装1.5b、7b、8b都是OK的,版本选择的时候要根据自己电脑的资源配置来选择;

五:通过Docker部署ollama

如果本地有Docker的话可以直接用Docker来启动容器。

docker run -d `
>> --name ollama `
>> -p 11434:11434 `
>> -v "E:\AppDownLoad\LLMs\ollama\ollamaIntallPath:/opt/ollama" `
>>  -v "E:\AppDownLoad\LLMs\ollama\.ollama:/root/.ollama" `
>>   --restart always `
>> ollama/ollama:latest

六:根据Dify + Ollama +  DeepSeek 构建本地 AI 智能体

AI智能体是基于大语言模型(LLM)构建的自主决策(自动化)系统,能通过感知环境、规划任务、调用工具完成复杂目标,例如自动化处理网页分析或跨系统操作。

而Dify是开源LLM应用开发平台,提供可视化工作流编排、RAG知识库集成、Agent代理框架等功能,支持快速搭建生产级AI应用并管理模型生命周期,让用户能够快速构建和部署智能应用。

结合Dify和Ollama,用户可以构建本地AI智能体,利用Ollama强大的语言模型和Dify的自动化能力,快速实现各种任务,如日常对话Web、自动客服、智能推荐、数据分析等,同时简化开发和部署过程,提高效率和灵活性,同时实现企业级的智能一体化操作。

后续 Dify + Ollama +  DeepSeek 构建 AI 智能体操作请关注博主后续文章;持续更新

卸载Ollama教程:如何卸载ollama_ollama卸载-CSDN博客

安装参考:https://zhuanlan.zhihu.com/p/22615618497

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐