Ollama系列文章:
Ollama入门,一键启动本地DeepSeek大模型
Ollama入门,Ollama技术架构与原理
Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型
Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型
Ollama高手,玩转本地自定义大模型(LLM)
Ollama高手,调优Ollama环境变量,提高性能与安全性
Ollama高手,调优Ollama模型参数,提高模型输出质量


感谢“AI界拼多多”的DeepSeek,解开了“AI大模型”的神秘面纱,让普通笔记本也能跑起“大神们”的“神器”。当然在DeepSeek“一朝成名天下知”的其实早有默默耕耘的LLaMA、Qwen等等,以及能让这些大模型在本地电脑上一键启动的开源项目——Ollama。下面就一起来探一探这个通往AI大模型世界的神器。
在这里插入图片描述

1. 什么是 Ollama?

Ollama 是一个轻量级的本地大语言模型(LLM)运行工具,允许用户在本地环境中运行和交互 AI 模型,而无需依赖云端服务。Ollama 提供了便捷的安装方式,并支持多种热门的大语言模型,如 DeepSeek、Qwen、LLaMA、Mistral、Gemma 等。

有实际使用中,Ollama 有如下优点:

  • 本地运行:无需云端 API 访问,保护数据隐私。
  • 轻量便捷:提供易用的 CLI(命令行界面)和 Python API。
  • 多模型支持:支持多个开源 LLM,如 LLaMA、Mistral、Gemma。
  • 高效推理:利用本地 CPU 或 GPU 进行高效推理。
  • 跨平台支持:可运行于 macOS、Linux 和 Windows(实验性支持)。

2. 如何安装 Ollama?

方法1:通过安装包安装 Ollama

可以通过Ollama官方提供的安装包,根据操作系统(支持macOS、Linux、Windows)下载后安装即可。

方法2:通过Shell安装Ollama

只需运行以下命令:

curl -fsSL https://ollama.com/install.sh | sh

3. 如何使用 Ollama?

Step1:下载模型到本地并运行

安装完成后,可以使用 Ollama 运行预训练的模型。例如,下载并运行 deepseek-r1:

ollama run deepseek-r1:8b

启动大模型之后,就可以通过shell使用大模型。

Step2:列出本地可用模型

要查看已下载的模型,可以运行:

ollama list

Step3:拉取特定模型

如果想下载一个特定的模型,比如QwQ 32B,可以执行:

ollama pull qwq

4. 通过AI客户端工具使用Ollama

虽然可以通过shell与大模型进行对话,但是为了更好的输入输出效果,一般建议使用AI客户端工具来使用Ollama,常见的有:

  • ChatBox:一款集AI客户端和智能助手功能于一体的应用,支持多种先进的AI模型和API,可在Windows、MacOS、Android、iOS、Linux和网页版上使用。其主要功能包括文档、图片和代码处理,智能回复,代码生成与预览,联网搜索,图像生成,LaTeX和Markdown渲染
  • CherryStudio:多模型聚合,支持 Claude、GPT、DeepSeek 等模型,可对比不同模型答案。有 300 多个预置助手,能帮助用户快速获取信息。界面可高度自定义,用户可通过自定义 CSS、头像、布局等,打造专属 AI 工作室,适合设计师、企业团队、科研人员等对界面有个性化需求以及需要使用多模型的用户。
  • AnythingLLM:支持文字、图片、语音等多模态输入,方便用户以不同方式与 AI 交互。具备 AI 代理联网功能,能自动爬取网页、运行代码,帮助用户处理复杂任务,适合法务、教育、研究机构等需要处理海量文档和复杂任务的用户。
  • ChatWise:能一键接入 OpenAI、DeepSeek、Ollama 等全网模型,还可使用他人部署的模型,对于预算有限的用户来说是不错的选择。支持本地运行 Llama、DeepSeek - R1 等开源模型,在低配电脑上也能流畅运行。界面极简,支持多模态交互,如截图提问、视觉问答等,适合学生、极客等人群。

5. 通过 Python API 使用 Ollama

Ollama 还支持 Python API,可以在代码中调用本地模型。

安装 Ollama 的 Python SDK:

pip install ollama

使用 Python 调用 Ollama 运行模型:

import ollama
response = ollama.chat(model='deepseek-r1:8b', messages=[{'role': 'user', 'content': '你是谁?'}])
print(response['message'])

6. DeepSeek R1 硬件配置参考:

一般电脑配置参考

模型版本 参数规模 显卡 内存 存储空间
1.5B 1.1GB 4核 GTX 1650 或 RTX 2060 16GB 50GB
7B 4.7GB 6-8核 RTX 3060 或更强 32GB 100GB
8B 4.9GB 6-8核 RTX 3060 或更强 32GB 100GB
14B 9GB 8核以上 RTX 3080 或更强 64GB 200GB
32B 20GB 8核以上 RTX 3090、A100 或 V100 128GB 500GB
70B 43GB 12核以上 A100、V100(可能需要多卡并联) 128GB 1TB
671B 约350GB 高端多核 多张 H100 或 H200 并联 700GB 显存 1TB

苹果电脑配置参考

模型版本 参数规模 建议的处理器 内存(RAM) 存储空间
1.5B 1.5 亿 M1 或更高版本 8GB 或以上 至少 50GB
7B 70 亿 M1 Pro 或 M1 Max 16GB 或以上 至少 100GB
14B 140 亿 M1 Max 或 M2 Pro 32GB 或以上 至少 200GB
32B 320 亿 M2 Max 64GB 至少 500GB
70B 700 亿 M3 Max 或更高版本 128GB 至少 1TB
671B 6710 亿 当前 MacBook Pro 无法满足 - -
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐