
深度思考大模型API服务deepseek-free-api
deepseek-free-api 是免费的 DeepSeek-V3 R1 大模型逆向 API 服务。
简介
这个春节要说最火的,那一定是 DeepSeek
了。
作为一款新兴的 AI
工具,它凭借强大的功能和便捷的操作迅速走红,成为许多人工作和学习中的得力助手。无论是处理复杂任务还是提供创意灵感,DeepSeek
都展现出了惊人的潜力,成为科技圈和大众热议的焦点。
什么是 deepseek-free-api ?
deepseek-free-api
是一个开源的API
项目,旨在提供对DeepSeek V3 R1
大模型的逆向接口,与ChatGPT
接口完全兼容。支持高速流式输出、多轮对话,联网搜索,R1
深度思考,零配置部署,多路token
支持,仅供测试,如需商用请前往官方开放平台。
主要特点
- 高速流式输出:支持快速处理和返回数据。
- 多轮对话:能够处理多轮对话,适用于聊天应用。
- 联网搜索:具备在线搜索功能,增强信息获取能力。
- 深度思考:提供
R1
深度思考功能,可以进行更复杂的推理。 - 零配置部署:用户可以快速部署,无需复杂的配置。
- 多路 Token 支持:允许使用多个用户令牌。
该 API
主要用于测试,若需商用则建议前往官方平台进行购买。
在使用
deepseek-free-api
前,请仔细阅读并理解官方的免责申明
安装
在群晖上以 Docker 方式安装。
在注册表中搜索 deepseek-free-api
,选择第四个 vinlic/deepseek-free-api
,版本选择 latest
。
本文写作时,
latest
版本对应为0.0.17
;
端口
本地端口不冲突就行,不确定的话可以用命令查一下
# 查看端口占用
netstat -tunlp | grep 端口号
本地端口 | 容器端口 |
---|---|
8127 |
8000 |
环境
可变 | 值 |
---|---|
TZ |
时区,设为 Asia/Shanghai |
DEEP_SEEK_CHAT_AUTHORIZATION |
userToken 值,这是可选的,未配置则需要在请求头中传递 Authorization |
命令行安装
如果你熟悉命令行,可能用 docker cli
更快捷
# 运行容器
docker run -d \
--restart unless-stopped \
--name deepseek-free-api \
--init \
-p 8127:8000 \
-e TZ=Asia/Shanghai \
vinlic/deepseek-free-api:latest
--init
标志用于在容器内部启动一个 init
进程。
也可以用 docker-compose
安装,将下面的内容保存为 docker-compose.yml
文件
version: '3'
services:
deepseek-free-api:
container_name: deepseek-free-api
image: vinlic/deepseek-free-api:latest
restart: unless-stopped
ports:
- "8127:8000"
environment:
- TZ=Asia/Shanghai
然后执行下面的命令
# 新建文件夹 deepseek
mkdir -p /volume1/docker/deepseek
# 进入 deepseek 目录
cd /volume1/docker/deepseek
# 将 docker-compose.yml 放入当前目录
# 一键启动
docker-compose up -d
运行
在浏览器中输入 http://群晖IP:8127
就能看到主界面
获取 userToken
从 https://chat.deepseek.com 页面上获取 userToken
进入 DeepSeek
随便发起一个对话,然后 F12
打开开发者工具,从 Application
--> LocalStorage
中找到userToken
中的 value
值,这将作为 Authorization
的Bearer Token
值:Authorization: Bearer TOKEN
目前同个账号同时只能有一路输出,你可以通过提供多个账号的 userToken value
并使用 ,
拼接提供:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
每次请求服务会从中挑选一个
命令行
deepseek-free-api
支持与 OpenAI
兼容的 /v1/chat/completions
接口,所以要验证 API
服务是否正常,可以用下面的示例
用 SSH
客户端登录到群晖后,在命令行执行下面的命令
curl http://192.168.191.197:8127/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer [userToken]" \
-d '{
"model": "deepseek",
"messages": [
{
"role": "user",
"content": "你是谁?"
}
],
"stream": false
}'
其中
[userToken]
要替换为你前面获取的userToken
的值
服务正常的话,很快会得到响应数据
{
"id": "b26ff2b6-d33e-47a1-94d7-ad6ce2372010@2",
"model": "deepseek",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-V3。如您有任何任何问题,我会尽我所能为您提供帮助。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 2
},
"created": 1738301281
}
deepseek-free-api
除了对话补全接口,还有userToken
存活检测等接口
推荐使用 API
工具,比如 Postman
、Apifox
、ApiPost
等
其他
还可以使用与 OpenAI
或其他兼容的客户端接入接口,例如: ChatGPT-Next-Web
又例如:LobeChat
文章传送门:聊天应用与开发框架LobeChat
或者接入到 One API
进行统一管理
文章传送门:大模型接口管理和分发系统One API
可能是需要 "深度思考"
的原因,测试时间会比较长
也不排除是因为使用的人太多的缘故
参考文档
LLM-Red-Team/deepseek-free-api: 🚀 DeepSeek-V3 R1大模型逆向API【特长:良心厂商】(官方贼便宜,建议直接走官方),支持高速流式输出、多轮对话,联网搜索,R1深度思考,零配置部署,多路token支持,仅供测试,如需商用请前往官方开放平台。
地址:https://github.com/LLM-Red-Team/deepseek-free-api
DeepSeek - 探索未至之境
地址:https://chat.deepseek.com/
更多推荐
所有评论(0)