玩 AI 大模型,你是不是经常遇到两个问题?一是要联网,网不好或者没网就抓瞎;二是有些好用的需要付费,比如 ChatGPT。作为一个技术宅,我一直在想,能不能把这些强大的 AI 能力,直接搬到我的 Mac 上,本地运行,而且完全免费、完全离线呢?!

好消息是,完全可以! 今天,我就要给大家介绍一个超级棒、超级有名气的开源大语言模型——DeepSeek!而且,我们要做的,就是把它部署到你的 Mac book上

整个过程听起来好像有点技术含量,但相信我,它其实非常简单!咱们只需要安装两个小工具,然后在终端里敲几行命令,再配置一个友好的聊天界面就行了。就算你之前没怎么接触过终端,跟着我的步骤走,也能轻松搞定!

完成后,你的 Mac 就能变成一个离线 AI 工作站,无论是写代码、写文章、头脑风暴,DeepSeek 都能在你本地给你提供强大的帮助!

那咱们就直接开干吧!


第一步:请出“引擎”——安装 Ollama

要让 DeepSeek 这样的开源大模型在 Mac 上跑起来,我们需要一个“引擎”,这个引擎就叫做 Ollama!它专门负责在本地管理和运行各种大模型。

  1. 下载 Ollama:

    • 打开你的浏览器,访问 Ollama 的官网:Ollama
    • 网站会自动识别你是 Mac 用户,直接点那个大大的 “Download” 按钮,然后选择 “Download for macOS”
    • 下载下来的文件(通常是一个 .zip.dmg),找到它,双击打开。
  2. 安装 Ollama 应用程序:

    • 打开下载的文件后,你会看到 Ollama 的图标。就像安装其他 Mac 应用一样,把 Ollama 图标拖拽到“Applications”(应用程序)文件夹里。
    • 然后,打开你的“Applications”文件夹,找到 Ollama,双击运行它
    • 第一次打开,系统可能会问“这个App是从互联网下载的,确定要打开吗?”,勇敢地点击**“打开”**!
  3. 安装 Ollama 命令行工具:

    • Ollama 启动后,会弹出一个窗口,跟着向导走。点击 “Next”
    • 它会提示你需要安装命令行工具(Install command line Ollama)。点击**“Install”**。
    • 这时候会让你输入你的 Mac 的开机密码。输入密码,点击“好”。
    • 安装完成后,它可能会提示你运行第一个模型(比如 ollama run llama2)。这个命令先别急着敲,点一下旁边的**“Copy”按钮**,把它复制下来。
  4. 验证 Ollama 安装成功:

    • 现在,我们需要打开 Mac 的终端。最快的方式是点击屏幕右上角的**“聚焦搜索”(Spotlight Search)图标**(放大镜)。
    • 在搜索框里输入 “Terminal”,然后回车打开终端窗口。
    • 在终端里,粘贴刚才复制的命令(比如 ollama run llama2),然后回车!
    • Ollama 就会开始下载并运行 Llama 2 这个模型。这个过程可能会需要一点时间,终端会显示进度。等到它出现提示符,表示你可以开始和 Llama 2 聊天时,就说明 Ollama 已经成功安装并能运行模型了!
    • 你可以先输入 /bye 退出这个模型。

恭喜你!AI 的“引擎”已经在你的 Mac 上架设完毕!


第二步:请出主角——下载并运行 DeepSeek 大模型

Ollama 就像一个模型仓库,DeepSeek 就是仓库里的一个商品。现在仓库搭好了,咱们去把 DeepSeek “领”回来!

  1. 查找 DeepSeek 模型:

    • 再次回到 Ollama 的官网:Ollama
    • 在网站的搜索框里,搜索 “deep seek”
    • 你会看到 DeepSeek 的模型列表。我们要找的是那个专门为 Apple Silicon Mac 优化过的版本,通常名字里带 “R1” 的比较新。
  2. 选择模型大小:

    • DeepSeek 有不同大小的版本(比如 7B、67B 等)。数字越大,模型越聪明、回答越准确,但也越吃电脑资源(内存/统一内存)
    • 对于大多数 Apple Silicon Mac 用户(特别是基础配置的),我强烈建议先从 7B 版本开始!它大概占用4.7GB 硬盘空间,对内存要求不高,大部分 M 芯片都能流畅跑起来。如果你是 M1 Max、M1 Ultra、M2 Max、M2 Ultra、M3 Max 等配置逆天的机器,可以大胆尝试更大的模型!
    • 点击你选择的版本(比如 7B)。
  3. 复制 DeepSeek 运行命令:

    • 进入模型详情页后,会看到一个命令,比如 ollama run deepseek(注意,具体的命令可能随着模型更新有变化,以官网显示的为准)。点击旁边的**“Copy”按钮**复制它。
  4. 下载并运行 DeepSeek:

    • 回到终端窗口。为了保险起见,你可以关闭当前终端窗口,再重新打开一个(或者直接开个新窗口)。
    • 在新的终端窗口里,粘贴刚才复制的命令(比如 ollama run deepseek),然后回车!
    • 这时候,Ollama 就会开始下载 DeepSeek 模型文件(大概4.7GB)。这个过程取决于你的网速,耐心等待它下载完成。
    • 下载完成后,终端会直接进入 DeepSeek 的交互界面!出现提示符,就说明 DeepSeek 已经在你的 Mac 上本地跑起来了!
  5. 和本地 DeepSeek 聊天:

    • 在终端里,你就可以直接像和 ChatGPT 聊天一样,输入你的问题或指令了!
    • 比如,你可以输入:“你好!” 然后回车。
    • 或者输入:“你觉得本地运行 AI 有什么好处?” 然后回车,看看它怎么回答。
    • 玩完后,输入 /bye 并回车,就可以退出 DeepSeek 的命令行交互界面了。下次想再用,重新在终端里输入 ollama run deepseek 回车就行。

太棒了!你的 DeepSeek 大模型,现在正乖乖地在你的 Mac 里为你服务!


第三步:装个漂亮的“外壳”——使用 Chatbox AI (可选,但强烈推荐!)

虽然终端命令行能用,但总归没那么方便直观,特别是看长回答。咱们给 DeepSeek 穿个“马甲”,装一个图形界面的聊天应用!这里推荐一个免费的开源应用:Chatbox AI

  1. 下载 Chatbox AI:

    • 打开浏览器,访问 Chatbox AI 的官网:ChatBox
    • 网站通常也会识别你的系统。找到并下载 Apple Silicon 版本(文件名可能带 arm64)。
    • 下载完成后,找到文件,双击打开。
  2. 安装 Chatbox AI 应用程序:

    • 把 Chatbox 图标拖拽到“Applications”(应用程序)文件夹里。
    • 然后打开“Applications”文件夹,找到 Chatbox,双击运行
    • 同样,第一次打开可能会让你确认,点击**“打开”**。
  3. 配置 Chatbox 连接本地 DeepSeek:

    • Chatbox 打开后,可能会让你选择模型或连接方式。我们不需要用它的付费功能。
    • 选择使用**“本地模型”(Local Model)**。
    • 在提供商(Model Provider)里,选择 “Ollama API”
    • 在模型列表里,你应该能看到你刚才通过 Ollama 安装的 DeepSeek 模型,比如 “deepseek-coder:7b” 或者 “deepseek”。选择它!
    • 点击**“保存”(Save)**或确认。

搞定!现在,你打开 Chatbox,看到的界面就是和 ChatGPT 类似的聊天框,但它背后连接的,是你 Mac 上本地运行的 DeepSeek 模型!


第四步:见证奇迹——离线运行与 GPU 加速!

配置好了,咱们来点儿刺激的!看看它是不是真的在本地跑,而且是不是真的用上了你 Mac 的 M 芯片的性能!

  1. 断开网络,证明离线运行!

    • 去你的 Mac 的**“系统设置”(System Settings),找到“网络”(Network)**。
    • 把你当前连接的网络(Wi-Fi 或以太网)断开或者设为非活跃(Inactive),确保 Mac 彻底断网!
    • 回到 Chatbox,问它一个需要联网才能知道的问题,比如:“今天北京的天气怎么样?”
    • 你会发现,它无法给出答案,或者明确告诉你它无法获取实时信息。这完美地证明了它没有联网,是在完全离线状态下运行的!
  2. 监控 GPU,证明本地计算!

    • 现在,咱们来证明它是在用 Mac 的硬件计算!
    • 打开 Mac 的**“活动监视器”(Activity Monitor)**(可以在“应用程序”->“实用工具”里找到,或者用聚焦搜索)。
    • 在活动监视器窗口里,点击顶部菜单栏的**“窗口”(Window),然后选择“GPU 历史记录”(GPU History)**。这会弹出一个小窗口,实时显示你的 Mac 图形芯片(GPU)的利用率曲线。
    • 回到 Chatbox,给 DeepSeek 一个计算量比较大的指令,比如:“写一篇关于苹果芯片 Mac 玩游戏的 1000 字文章”、“用讽刺的语气写一篇关于某个热点事件的 500 字短文”。
    • 当你发送指令后,立刻切换回“GPU 历史记录”窗口!你会惊奇地看到,在你 Mac 生成回复的过程中,那条 GPU 利用率曲线会猛烈地上升,甚至拉满!

It's cool! 它清晰地表明,你的 Mac 的 M 芯片(特别是它的统一内存和集成的 GPU),正在被充分利用来执行 AI 的计算任务!所有的推理过程都在你的本地硬件上完成,不联网,不花钱,纯靠自己的 Mac 性能!


总结:把 DeepSeek 搬回家,Mac 变身最强离线 AI 工作站!

经过这几步简单的操作,你已经成功地在你的 Apple Silicon Mac 上免费、离线地部署并运行了 DeepSeek 大语言模型,并且拥有了一个还算漂亮(勉强能用)的聊天界面!

相比于在线的 AI 服务,本地部署的优势太明显了:免费、保护隐私(数据不上传)、不依赖网络、还能充分利用你的 Mac 硬件性能! 特别是对于 M 芯片 Mac 用户来说,这些芯片在处理这类任务时效率非常高,体验丝滑。

DeepSeek 作为一款优秀的开源模型,能力也很不错,无论是写代码、写文章、翻译还是问答,都能胜任。

所以,如果你也是 Apple Silicon Mac 用户,并且对 AI 感兴趣,强烈建议你跟着这个教程,亲自尝试一下,随时随地发挥 AI 的力量!

好了,今天的分享就到这里!希望这个教程对大家有帮助!如果成功部署了,别忘了在评论区留言,交流一下使用体验!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐