
Deepseek API调用方式
网页端默认使用流式输出(stream=true),即模型每输出一个字符,都会增量地显示在前端。API 默认使用非流式输出(stream=false),即模型在所有内容输出完后,才会返回给用户。DeepSeek API 使用与 OpenAI 兼容的 API 格式,通过修改配置,您可以使用 OpenAI SDK 来访问 DeepSeek API,或使用与 OpenAI API 兼容的软件。样例为非流式
Deepseek API调用方式
DeepSeek API 使用与 OpenAI 兼容的 API 格式,通过修改配置,您可以使用 OpenAI SDK 来访问 DeepSeek API,或使用与 OpenAI API 兼容的软件。
参数
- base_url https://api.deepseek.com
- api_key 认证key
出于与 OpenAI 兼容考虑,您也可以将 base_url 设置为 https://api.deepseek.com/v1 来使用,但注意,此处 v1 与模型版本无关。
deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model='deepseek-chat' 即可调用 DeepSeek-V3。
调用对话 API
在创建 API key 之后,你可以使用以下样例脚本的来访问 DeepSeek API。样例为非流式输出,您可以将 stream 设置为 true 来使用流式输出。
python调用示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
js调用示例
// Please install OpenAI SDK first: `npm install openai`
import OpenAI from "openai";
const openai = new OpenAI({
baseURL: 'https://api.deepseek.com',
apiKey: '<DeepSeek API Key>'
});
async function main() {
const completion = await openai.chat.completions.create({
messages: [{ role: "system", content: "You are a helpful assistant." }],
model: "deepseek-chat",
});
console.log(completion.choices[0].message.content);
}
main();
常见问题
- 调用模型时的并发限制是多少?
当前阶段,我们没有按照用户设置硬性并发上限。在系统总负载量较高时,基于系统负载和用户短时历史用量的动态限流模型可能会导致用户收到 503 或 429 错误码。
- 为什么我感觉 API 返回比网页端慢
网页端默认使用流式输出(stream=true),即模型每输出一个字符,都会增量地显示在前端。 API 默认使用非流式输出(stream=false),即模型在所有内容输出完后,才会返回给用户。您可以通过开启 API 的 stream 模式来提升交互性。
参考资料
更多推荐
所有评论(0)