本文同步发布在华为云社区

随着人工智能大模型的飞速发展,编程辅助工具不断演化,从早期的代码自动补全,到如今能够理解自然语言、自动生成函数和文档的智能体系统,开发者的工作方式正发生深刻变革。尤其是在面对庞大的技术文档、碎片化知识与快速迭代的开发需求时,构建一个高效、可扩展的“个人编程知识库”变得尤为重要。

在这一背景下,华为开发者空间(Huawei Developer Space)作为一个集成多种工具、资源与服务的平台,为开发者提供了良好的生态环境。而随着新一代开源大模型——DeepSeek的发布,开发者得以在国产生态下,灵活调用高性能的大语言模型,实现从代码生成、注释理解到多轮问答式知识管理的全流程支持。DeepSeek 的轻量部署能力、类ChatGPT的能力表现以及支持本地知识库检索,让构建“专属AI编程助手”成为现实。

前言

在AI大模型快速演进的今天,开发者早已不再满足于通用型对话助手,转而追求更专业、更贴合自身需求的专属AI工具。DeepSeek-R1作为一款国产高性能开源大模型,具备优秀的代码生成与理解能力,而其开放性也为打造个性化智能助手提供了极大便利。

通过将 DeepSeek-R1 与开源智能应用框架 Dify 深度融合,开发者不仅可以低门槛部署自己的语言模型,还能借助 Dify 提供的多模态接口与工作流系统,实现联网搜索、知识库问答、API 调用等复合任务。这一组合方案,在华为开发者空间中得以高效部署,为构建个人AI助手、智能客服、编程知识库管理工具等提供了坚实的技术基础。

本篇文章将带你体验如何在华为云环境中快速部署 DeepSeek-R1,整合 Dify 工作流,并构建具备联网搜索能力的 AI 助手,让你轻松玩转大模型生态,打造真正服务于自己需求的“AI 编程拍档”。

目录

前言

一.华为开发者空间

1.1 华为开发者空间简介

1.2开发者空间云主机

二.ModelArts Studio大模型即服务平台

三.在华为开发者空间快速部署DeepSeek蒸馏版模型

3.1安装Ollama

3.2部署DeepSeek

3.3 部署ChatBox

3.4 CodeArts IDE集成DeepSeek

四.基于华为云Flexus+开发者空间搭建Dify平台

4.1 Dify 部署

4.2 编程知识库搭建

总结

一.华为开发者空间

在构建智能化编程知识库之前,我们首先需要一个可靠、高可用且集成度高的开发平台。而华为开发者空间(Huawei Developer Space),正是这样一个专为开发者打造的云上工作环境。它不仅聚合了华为云的核心能力,还整合了包括代码托管、API网关、AI开发套件、函数计算等多种工具,形成了一站式开发闭环。

本章将带你完成从注册账号到启用开发者空间的全过程,为后续部署 DeepSeek-R1 和 Dify 打下坚实基础。

本章将带你完成从注册账号到启用开发者空间的全过程,为后续部署 DeepSeek-R1 和 Dify 打下坚实基础。

1.1 华为开发者空间简介

华为开发者空间是华为云面向开发者群体推出的集成式开发平台,核心优势包括:

✅ 统一入口:汇聚代码托管、AI能力调用、项目协同、API网关、函数计算等工具

✅ 本地与云端打通:支持本地 IDE 与华为云资源无缝对接

✅ AI 工具链支持:内置 ModelArts、Pangu、大模型接口支持,便于集成大语言模型

✅ 适配国产生态:为国产大模型和 AI 应用提供优质计算资源与安全支撑。

对于希望构建 AI 编程助手、知识问答系统或部署国产大模型的开发者来说,开发者空间提供了非常友好的平台支持。

  1. 在使用开发者空间之前,你需要一个华为云账号:
  2. 访问华为云官网
  3. 点击右上角「注册」,完成手机号或邮箱注册;
  4. 实名认证(个人开发者建议完成基础认证,可开通更多资源权限);
  5. 登录控制台,进入主页面。

✅ 贴士:如果你是高校师生,可以申请 华为云学生认证,享受额外资源和优惠。

1.2开发者空间云主机

在开发者空间内可以加入开发者会员,选择免费的开发者基础会员,普惠资源支持开发者学习体验。可以免费体验如下配置的主机:

云主机开发桌面2vCPUs | 4GB

云存储空间5GB

接下来我们正式进入开发者空间的配置。在华为开发者空间中配置云主机是构建个人编程知识库的第一步。用户进入配置界面后,可以为云主机自定义名称,例如“我的云主机(beta体验)”,便于后续管理与识别。接着选择 CPU 架构,此处推荐使用 ARM 架构,既符合国产化趋势,又具备良好的能效比。规格方面,选择了 4 vCPUs 和 8GB 内存的组合,适合部署中小型 AI 服务,如 DeepSeek 模型的推理和知识问答系统。

在操作系统中,Ubuntu 是首选,因为其对 Python、Docker、Dify 等开源工具有良好兼容性;而系统镜像则选用了“Ubuntu 24.04 Server定制版”的公共镜像,不仅稳定可靠,还可能预装了华为云优化组件,提升部署效率。

完成以上设置后,点击“安装”按钮,系统将自动创建云主机,几分钟内即可获得远程访问权限。

配置完成后可以点击进入桌面。

云主机桌面如下所示。

至此,开发者便成功搭建了用于部署 AI 编程助手的云端基础环境,为后续整合 DeepSeek-R1 和 Dify 打下坚实基础。

二.ModelArts Studio大模型即服务平台

在完成云主机的创建后,华为云为开发者提供了功能强大的一站式 AI 平台——ModelArts Studio,这是华为基于云原生技术打造的大模型即服务(Model-as-a-Service, MaaS)平台,致力于帮助开发者轻松调用主流大语言模型,快速构建定制化的 AI 应用。

ModelArts Studio 提供了丰富的模型生态,涵盖 NLP、CV、多模态等多个方向,尤其在国产大模型方面,已集成了包括鹏城盘古、紫东太初、百川、DeepSeek-R1 等在内的多个开源或商业模型。开发者无需关注模型底层部署和算力调度,仅需通过 Web 界面或 API 接口,即可实现模型调用、微调训练、知识库接入等一系列操作,大幅降低了使用门槛。

在本项目中,我们将利用 ModelArts Studio 平台中的 大模型服务 功能,对接 DeepSeek-R1 模型,并结合 Dify 框架构建 AI 编程助手。

点击在线推理,可以看到有免费服务,用户只需按照需求领取自己对应的免费额度即可。

通过该平台,开发者不仅可以零代码快速部署推理服务,还可以将其集成至知识问答系统,实现自然语言编程、代码生成、文档自动化等多种功能。

领取后,可以点击在线体验,与大模型进行交互问答对话。比如,什么是鸿蒙应用开发?

总的来说,ModelArts Studio 为 AI 应用开发提供了高效、灵活、安全的环境,让开发者专注于业务逻辑本身,无需为底层硬件配置或模型调优而耗费大量精力,是构建个人知识库与智能助手的理想平台。

三.在华为开发者空间快速部署DeepSeek蒸馏版模型

3.1安装Ollama

Ollama 是一个本地部署大语言模型(LLM)的开源工具,允许用户在自己的电脑上快速运行和使用类似 GPT 的大语言模型,比如 LLaMA、Mistral、Gemma、Phi 等。它的目标是让 AI 模型的本地运行变得简单高效,尤其适合开发者和隐私敏感用户使用。

在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。

执行安装命令:

curl -fsSL https://ollama.com/install.sh | sh

3.2部署DeepSeek

接下来,我们将借助 Ollama 工具部署 DeepSeek 大模型。以部署 deepseek-r1:1.5b 版本为例,可通过以下命令进行安装与运行:

ollama run deepseek-r1:1.5b

当部署过程结束后,便可以通过终端或接口与 DeepSeek 大模型进行自然语言交互。发出提问:什么是鸿蒙应用开发?

3.3 部署ChatBox

在通过 Ollama 成功部署 DeepSeek 模型之后,我们即可在终端中与模型进行对话。然而,由于终端界面较为简洁,缺乏可视化交互体验,长时间对话操作可能变得不够直观或流畅。

为提升交互的便捷性与可视化效果,我们可以借助第三方聊天工具,如 Open WebUI、ChatBox 等。这类工具提供了图形界面,能够带来更加清晰直观的模型对话体验。

在本示例中,我们将使用 ChatBox 与 DeepSeek 模型进行交互。

你可以在云主机中通过 Firefox 浏览器访问 ChatBox 官网,点击页面上的“免费下载”按钮,即可获取安装包,下载后按照提示完成安装。

下载完成后,打开下载文件所在的目录,右键选择“在终端中打开”以启动终端窗口。接下来,请按照以下步骤操作:

1. 为 AppImage 文件添加可执行权限:

sudo chmod +x Chatbox-1.13.2-arm64.AppImage

2. 安装 libfuse.so.2 依赖库(如未安装):

sudo apt install libfuse2

libfuse2 是运行 AppImage 格式所必需的库,如果系统提示已安装可忽略此步骤。

3. 运行 ChatBox:

./Chatbox-1.13.2-arm64.AppImage

运行成功后,即可通过可视化界面与部署在 Ollama 中的 DeepSeek 模型进行流畅交互。根据不同的 CPU 配置完成相应设置后,启动 ChatBox。首次打开时,会出现如下选项:

请选择 “使用自己的 API Key 或本地模型(Use My Own API Key/Local Model)”。随后,ChatBox 会打开一个新的标签页,在其中请选择 Ollama API 作为连接方式。这样,ChatBox 就能通过 Ollama 与本地部署的 DeepSeek 模型进行通信,实现可视化的对话体验。

在模型列表中,可以看到通过 Ollama 部署的大模型。请选择 deepseek-r1:1.5b,然后点击“保存”以完成配置。

保存之后,我们就可以在对话框里与 DeepSeek 大模型进行对话了。

3.4 CodeArts IDE集成DeepSeek

CodeArts IDE 是华为云推出的一款智能化桌面集成开发环境(IDE),旨在为开发者提供高效、可扩展的开发体验。

Continue 是一款领先的开源 AI 代码助手,能够将任意模型与上下文无缝连接。在 CodeArts IDE 中集成 DeepSeek 之后,开发者可以利用 Continue 实现代码补全、自动生成与解释,提升代码质量,进行错误检查,支持知识查询与资料推荐,全面整合开发流程,显著提升编码效率和学习体验。

安装 Continue 插件步骤

  1. 在云主机桌面打开 CodeArts IDE。
  2. 点击界面右侧的 “扩展” 按钮。
  3. 在搜索框中输入 continue,找到对应插件后点击安装。
  4. 安装完成后,即可开始使用 Continue 助手辅助代码开发。

打开Continue插件,点击“Add Chat model”添加模型。

接下来,在 Provider 选项中选择 Ollama,Model 选项选择 Autodetect,然后点击 Connect。系统将自动识别并连接到我们之前部署的 deepseek-r1:1.5b 模型。

至此,DeepSeek 已成功安装在的云主机中。

四.基于华为云Flexus+开发者空间搭建Dify平台

在本地部署或传统云平台中部署 Dify 面临环境配置复杂、资源调度不灵活等挑战。为了解决这些问题,华为云推出了 Flexus+ 开发者空间 —— 一个支持云原生开发、弹性资源调度、智能 IDE、一键部署等特性的高效开发平台,为构建现代化 AI 应用提供了强大的基础设施支持。

将 Dify 平台部署于华为云 Flexus+ 开发者空间,不仅可以充分利用其云原生能力和可扩展性,还能加快模型调用、简化运维过程,为企业和开发者提供一个高效、稳定、安全的 AIGC 应用开发环境。本文将介绍如何基于 Flexus+ 搭建并运行 Dify 平台,实现从环境配置到模型对接的全流程部署实践。

本项目依托 Dify平台、华为云开发者空间、华为云Flexus服务、DeepSeek大模型能力,构建三位一体的AI应用体系,分别承担“应用构建层、算力与服务层、推理与理解层”的角色,共同支撑端到端的AI应用开发流程。

在Flexus+开发者空间中部署Dify平台,仅需通过CCE(云容器引擎)进行快速容器化配置,即可启动完整的Dify应用管理后台。平台提供:

  1. AI工作流构建:通过拖拽节点方式搭建端午节AI助手的对话逻辑,包括节日起源介绍、习俗演示、节令食物推荐等。
  2. Prompt集成管理:集中管理端午节文化相关的Prompt模板,提升生成内容的稳定性与一致性。
  3. RAG(检索增强生成)能力:内置知识库集成《楚辞》《荆楚岁时记》等古籍,实现节日习俗的语义级文献检索与智能问答。

此外,平台还支持通过DeepSeek API集成多模态能力,使用户可以上传香囊照片、粽子图片进行识别讲解。

4.1 Dify 部署

该解决方案基于云容器引擎 CCE帮助您快速部署高可用Dify LLM应用开发平台。

访问华为云快速搭建 Dify-LLM 应用开发平台,前往华为云相关页面,找到“快速搭建 Dify-LLM 应用开发平台”的入口并进入。利用“一键部署”功能快速构建 Dify 平台进入对应页面后,依据页面给出的提示信息,仔细查找“一键部署”按钮,找到后点击该按钮。在部署选项里,选定云服务器,随后单击进行部署操作。

点击一键部署后,可选择模板。

配置参数如下。

可以选择开启回滚,开启回滚表示操作失败时,会自动回滚至系统所保存的上一个成功的资源状态。创建后可在资源栈详情页面修改。

在着手操作时,建议先创建执行计划,而不是急于直接进行部署。当你完成执行计划的创建后,就能够清晰看到该计划所对应的预估消费金额。

等待部署完成。

部署完成后,点击输出,即可看到部署成功后的网站ip如下。

在华为开发者空间中的浏览器输入URL地址,访问结果如下。

4.2 编程知识库搭建

创建空白应用,名称为:编程知识库智能体,涵盖多种主流编程语言,如Python、Java、C++、JavaScript等,提供从基础语法到高级特性的全面学习资料。

安排知识库编程如下。

设置LLM的模型选择,此时可以选择上文配置的DeepSeek 大模型。以部署 deepseek-r1:1.5b 为例。

添加模型的API-KEY,如下。

配置完成API后,点击发布应用。

点击运行,即可和我们的私有大模型进行对话。例如:python与java的区别是什么?

    总结

    本文围绕华为开发者空间与国产开源大模型 DeepSeek-R1 的结合应用,全面展示了如何在国产云平台上构建属于自己的 AI 编程知识库系统。通过借助华为云提供的高可用开发环境、ModelArts Studio 的一站式大模型服务,以及 Ollama + Dify 等轻量开源框架,开发者无需深厚的机器学习背景,也可以快速部署具备自然语言交互、代码生成、知识问答等能力的智能助手。

    整套流程不仅充分利用了华为云生态的集成优势,还体现了 DeepSeek 模型在国产化、私有部署、安全性与灵活性方面的出色表现。无论是构建个人 AI 编程助手,还是在企业内部打造智能知识系统,这种组合方案都具有极高的参考价值。

    未来,随着国产大模型生态的持续完善和基础设施的不断优化,构建定制化的智能开发工具将变得更加高效便捷,真正实现“AI 为我所用”的开发新范式。现在,正是每一位开发者拥抱大模型、打造专属编程助手的最佳时机。

    Logo

    欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

    更多推荐