
基于阿里云服务器实现Dify快速入门之环境搭建
Dify是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和LLMOps的理念,使开发者可以快速搭建生产级的生成式 AI 应用。以上就是Dify快速入门的环境搭建,中间有些小问题可以请教deepseek网页版,下一部分开始构建聊天机器人。
系列文章目录
第一章 Dify快速入门之环境搭建
文章目录
前言
Dify是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和LLMOps的理念,使开发者可以快速搭建生产级的生成式 AI 应用。
一、获取免费的阿里云服务器
-
首先在阿里云服务器的官网找到云服务器ECS的免费试用,建议选内存大的。免费试用一个月够学习用的了。
-
创建并构建连接,修改初始root密码,后期使用时需要权限。
二、在Docker中部署Dify
1.前提条件
安装 Dify 之前, 请确保你的机器已满足最低安装要求:
CPU >= 2 Core
RAM >= 4 GiB
2.克隆 Dify 代码仓库
因为云服务器有Docker了,就不用自己再下载了
# 假设当前最新版本为 0.15.3
git clone https://github.com/langgenius/dify.git --branch 0.15.3
3.启动 Dify
进入 Dify 源代码的 Docker 目录
cd dify/docker
复制环境配置文件
cp .env.example .env
启动 Docker 容器 版本为V2 如果V1则 docker-compose up -d
docker compose up -d
运行成功后显示为:
在这里可能会提升nginx的端口被占用,那么就去.env的文件里进行修改,比如443端口改成8443,80端口改成81。可能改的地方不止一个,都改了就行。
最后检查是否所有容器都正常运行,能看到所有的端口号
docker compose ps
三、下载ollama的容器
1.拉取 Ollama 镜像
docker pull ollama/ollama
2.运行 Ollama 容器
启动容器并映射端口(默认 11434),默认情况下,模型数据会在容器删除后丢失。需挂载卷保存数据:
docker run -d -p 11434:11434 -v ollama_data:/root/.ollama --name ollama ollama/ollama
3.下载deepseek模型
我下载的是最小的,1.5b版本的
docker exec -it ollama ollama pull deepseek-r1:1.5b
下载的模型将会保存
3.启动模型
启动了之后就可以对话了
docker exec -it ollama ollama run deepseek-r1:1.5b
四、进入Dify并添加ollama下载的模型
1.通过云服务器的公有ip地址访问Dify,端口号80或81(改了情况)
注册并登录
2.在右上角设置里面找到模型供应商,点击ollama添加下载的模型
其中URL为http://私有地址:11434
总结
以上就是Dify快速入门的环境搭建,中间有些小问题可以请教deepseek网页版,下一部分开始构建聊天机器人。
更多推荐
所有评论(0)