
基于Openrouter的API调用免费大模型
Openrouter 是一个 AI 模型聚合平台,整合了全球 200 多种主流 AI 模型,包括 GPT-4、Claude、Gemini 等,以及国产通义千问、DeepSeek 等。其核心优势是统一的 API 设计,开发者仅需少量代码即可与多个模型交互,还支持自动路由与回退机制。用户可通过 OpenAI SDK 或 LangChain 调用 Openrouter 中的模型。
基于Openrouter的API调用免费大模型
Openrouter是一个 AI 模型聚合平台,它通过统一的 API 接口整合了全球超过 200 种主流的 AI 模型,包括 GPT-4、Claude、Gemini 等知名模型,也支持国产通义千问、DeepSeek 等。用户可以通过简单的配置和调用,就可以直接或API访问这些大模型。
Openrouter的核心优势在于其统一的 API 设计,开发者只需编写少量代码,即可与多个模型交互,无需为每个模型单独编写调用代码。此外,它还支持自动路由与回退机制,能够根据输入提示选择最适合的模型,并在某个模型不可用时自动切换到其他替代模型。对于国内用户来说,Openrouter的部分服务即可访问,这为开发者带来了极大的便利。
2025 年 4 月 9 日报道:Openrouter近日宣布重大政策调整,将每日免费模型调用次数从原先的 200 次调整至 50 次,同时推出新的激励措施——账户余额超过 10 美元的用户将享有每日 1000 次的调用上限。对标记为":free"后缀的免费模型版本,每分钟请求上限设为 20 次,日调用总量从 200 次下调至 50 次。
1. 基于OpenAI SDK调用OpenRouter中大模型的API
1.1 调用DeepSeek-R1
通过 OpenAI 的 API 功能,调用大语言模型。首先进行客户端初始化,连接到Openrouter 的 API 端点,调用指定的 AI 模型(如“deepseek/deepseek-r1:free”),并发送对话消息,最终打印模型返回的回答内容。
from openai import OpenAI
# 初始化客户端
client = OpenAI(
api_key="Your_API_Key", # 替换为你的API密钥
base_url="https://openrouter.ai/api/v1"
)
# 调用
response = client.chat.completions.create(
model="deepseek/deepseek-r1:free",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "什么是节能减排?"},
],
stream=False
)
print(response.choices[0].message.content)
1.2 调用英伟达llama-3.1-nemotron-nano-8b-v1的API
Llama-3.1-Nemotron-Nano-8B-v1是由英伟达基于Meta 的 Llama-3.1-8B-Instruct 微调而来的大语言模型(LLM)。使用 OpenAI 客户端连接到Openrouter的 API 端点,调用指定的“nvidia/llama-3.1-nemotron-nano-8b-v1:free”模型,并发送对话消息,最终打印模型返回的回答内容。
from openai import OpenAI
# 初始化客户端
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key= "Your_API_Key", # 替换为你的API密钥
)
# 调用
completion = client.chat.completions.create(
model="nvidia/llama-3.1-nemotron-nano-8b-v1:free",
messages=[
{
"role": "user",
"content": "什么是温室气体?"
}
]
)
print(completion.choices[0].message.content)
实际用下来,果然还是DeepSeek在中文语境中的文本生成更合理,而英伟达微调的llama模型对中文问题回答的不是很理想,经常夹杂这英文和日文。
2. 通过Langchain调用Openrouter中大模型的免费API
通过 LangChain 的 ChatOpenAI 类初始化一个聊天模型(deepseek/deepseek-r1:free),连接到Openrouter的 API 端点。然后调用模型,并打印模型返回的内容。
from langchain_openai import ChatOpenAI
# 初始化LLM
llm = ChatOpenAI(
model='deepseek/deepseek-r1:free', # 使用DeepSeek聊天模型
api_key="Your_API_Key", # 替换为你的API密钥
base_url ='https://openrouter.ai/api/v1', # API的端点
max_tokens=1024 # 设置最大生成token数
)
# 简单调用
response = llm.invoke("请介绍一下人工智能发展现状")
print(response.content)
更多推荐
所有评论(0)