
利用本地DeepSeek R1和n8n框架,创建AI智能体
本地搭建 AI 智能体,掌控自己的 AI。
本地搭建 AI 智能体,掌控自己的 AI。
微信搜索关注《AI科技论谈》
如今,AI 越来越智能。在本地部署个人 AI 智能体,是一件意义重大的事:无需云服务和 API,就能完全自主掌控私人 AI,保障数据安全和隐私,还能个性化定制。
借助n8n、Ollama和DeepSeek-R1这三款超实用工具,你能在自己电脑上实现工作流程自动化、处理数据、与 AI 聊天。
本文详细介绍如何安装这些工具、实现工具间的连接配置,以及在 Windows 电脑上搭建并运行本地 AI 智能体的步骤。
操作前,需一台配备至少 16GB 显存 GPU 的 Windows 电脑,本文用的是英伟达 Quadra RTX A4500 GPU,供大家参考。
1 安装Ollama和DeepSeek-r1
从此处下载适用于Windows系统的Ollama,安装过程简单。
Ollama安装完成后,在Windows桌面右键点击,就能打开命令行界面(CLI)。当菜单出现时,选择“在终端中打开”。要是菜单里没有这个选项,可在桌面其他位置再次右键尝试。
在命令行界面中,输入以下指令:
ollama run deepseek-r1:8b
上述指令会通过Ollama完成DeepSeek-R1的安装与运行。你可以输入这条指令,检查DeepSeek-R1大语言模型是否安装成功:
ollama list
2 安装Docker Desktop
接下来,需要为Windows系统安装Docker Desktop。你可以从此处获取该软件,在这个页面,还有许多关于安装流程的详细文档。
安装过程中,系统会提示你选择使用WSL 2还是Hyper-V,建议选择WSL 2。
3 安装n8n并初次运行
在Windows系统上安装好Docker Desktop后,就可以安装n8n并搭配Docker使用。
确保Docker Desktop软件处于运行状态,接着在命令行界面中输入以下两条指令:
docker volume create n8n_data
docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n
这些指令会完成以下操作:
-
创建名为n8n_data的持久存储(卷)
-
生成名为n8n的Docker容器和镜像
当第二条指令执行完毕,你应该会看到这样一条提示信息:
Editor is now accessible via:
http://localhost:5678/
打开网络浏览器,访问localhost:5678
。
这时,你会看到n8n的注册表单。填写表单,创建用于登录n8n服务器的凭证,这些凭证同时也用于登录n8n的网页账户。
记得获取免费的许可证密钥。
完成注册后,你会看到一个空白的工作流程画布,如下所示:
在Docker Desktop中,你看到的内容大概如下:
要是你点击方块停止n8n容器,它就会从菜单里消失。
4 从Docker Desktop运行n8n
您可以使用上文提到的命令从 CLI 运行 n8n:
docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n
不过,从Docker Desktop软件运行n8n可能会更便捷。
先确保现有的n8n容器已停止并删除。
接着进入“镜像”选项卡,你会看到类似下面这样的内容:
点击启动图标(三角形),按照下面示例填写对话框:
填好后点击“运行”。
再回到浏览器,访问localhost:5678
。这时,你应该会看到n8n的登录界面,或者是之前的工作区。
从这之后,你就能在容器选项卡启动n8n的Docker容器,而且停止后它不会再消失。
5 在n8n中创建人工智能智能体
登录n8n后,你会看到一个标题为“My workflow”的空白工作区。
在屏幕正中间,有个加号。点击它,右侧会弹出如下菜单:
选择“On chat message”,然后点击“Back to canvas”。此时,画布中央会出现一个新节点:
点击该节点右侧的加号,选择“Advanced AI”:
选择“Basic LLM Chain”,再次点击“Back to canvas”。你会看到如下内容:
现在,点击“Basic LLM Chain”节点下方的加号:
选择“Ollama Chat Model”:
点击“Select Credential”,接着点击“Create new credential”。按照下面的示例填写对话框(假设你在11434端口运行Ollama):
你得把基本URL设置为http://host.docker.internal:11434
。要是填http://localhost:11434
或http://127.0.0.1:11434
,将无法正常工作。
填完点击“保存”。这时会出现一条绿色提示消息“Connection tested successfully”。
点击右上角的叉号。现在,你可以从下拉列表中挑选想用的大语言模型。我在系统里装了多个大语言模型,所以列表会比你的长些。从列表里选择deepseek-r1:8b
:
再次回到画布,你会看到以下内容:
点击底部的“Chat”,输入“Hello”。你应该会收到如下回复:
至此,你已经能和DeepSeek-R1愉快聊天了。此外,利用n8n,你还能在本地Windows电脑上构建各种复杂的人工智能智能体。
推荐书单
《大模型应用开发 动手做AI Agent》
人工智能时代一种全新的技术——Agent正在崛起。这是一种能够理解自然语言并生成对应回复以及执行具体行动的人工智能体。它不仅是内容生成工具,而且是连接复杂任务的关键纽带。本书将探索Agent的奥秘,内容包括从技术框架到开发工具,从实操项目到前沿进展,通过带着读者动手做7个功能强大的Agent,全方位解析Agent的设计与实现。本书最后展望了Agent的发展前景和未来趋势。
本书适合对Agent技术感兴趣或致力于该领域的研究人员、开发人员、产品经理、企业负责人,以及高等院校相关专业师生等阅读。读者将跟随咖哥和小雪的脚步,踏上饶有趣味的Agent开发之旅,零距离接触GPT-4模型、OpenAI Assistants API、LangChain、LlamaIndex和MetaGPT等尖端技术,见证Agent在办公自动化、智能调度、知识整合以及检索增强生成(RAG)等领域的非凡表现,携手开启人工智能时代的无限可能,在人机协作的星空中共同探寻那颗最闪亮的Agent之星!
购买链接:https://item.jd.com/14600442.html
精彩回顾
VSCode本地部署DeepSeek R1,打造专属AI编程助手
更多推荐
所有评论(0)