1. 下载并安装Ollama

访问官网:打开浏览器,输入网址 Download Ollama on macOS并下载安装

2. 验证安装是否成功

  1. 打开命令提示符(CMD):

    • 按键盘 Win键 + R,输入 cmd 后按回车

  2. 输入检查命令:

    ollama --version  

若显示类似 ollama version 0.1.20,说明安装成功;


3. 下载DeepSeek模型

  1. 输入下载命令:

    ollama pull deepseek-r1:[版本号]  
    • 将 [版本号] 替换为具体模型大小(如7b、32b)。

  2. 版本选择指南:

    模型版本 参数规模 硬盘空间 显卡要求(重要) 内存推荐 适用场景
    7b 70亿参数 4.7GB NVIDIA GTX 1060(4GB显存) 8GB+ 日常对话、简单问答
    14b 140亿参数 9.0GB NVIDIA RTX 2060(6GB显存) 16GB+ 代码生成、长文本摘要、多轮对话
    32b 320亿参数 20GB NVIDIA RTX 3060(8GB显存) 32GB+ 专业需求(推荐
    70b 700亿参数 43GB NVIDIA RTX 3090/4090 64GB+ 高性能场景
    170b 1.7万亿参数 404GB 多卡集群(如NVIDIA A100x4) 256GB+ 企业级应用

模型版本越大,AI回答越智能,但对电脑硬件(主要是显卡)要求越高。


4. 启动并使用模型

  1. 运行命令:

    ollama run deepseek-r1:32b  

将 32b 替换为你下载的版本号。

  • 输入问题:

    • 出现 >>> Send a message 后,可以使用

首次运行需加载模型,耗时可能较长(约1-5分钟)。


5. 安装图形界面(可选)——图形界面让操作更直观钮

  1. ChatWise界面安装(适合小白):

  2. Open WebUI安装(有编程基础):

    docker run -d -p 3000:3000 --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main  
    • 支持浏览器访问的界面,安装命令:

    • 打开浏览器输入 http://localhost:3000 即可使用。


6. 常见问题解决

下载卡顿或失败:

刷新DNS缓存:
ipconfig /flushdns  
设置镜像地址
​​​​​​​set OLLAMA_HOST="https://ollama.jmypi.top"
ollama pull deepseek-r1:7b

运行时报显存不足:更换更小模型

显卡相当于AI的“大脑”,性能越强,AI反应越快。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐