基于Openrouter的API调用免费大模型

Openrouter是一个 AI 模型聚合平台,它通过统一的 API 接口整合了全球超过 200 种主流的 AI 模型,包括 GPT-4、Claude、Gemini 等知名模型,也支持国产通义千问、DeepSeek 等。用户可以通过简单的配置和调用,就可以直接或API访问这些大模型。
Openrouter的核心优势在于其统一的 API 设计,开发者只需编写少量代码,即可与多个模型交互,无需为每个模型单独编写调用代码。此外,它还支持自动路由与回退机制,能够根据输入提示选择最适合的模型,并在某个模型不可用时自动切换到其他替代模型。对于国内用户来说,Openrouter的部分服务即可访问,这为开发者带来了极大的便利。
2025 年 4 月 9 日报道:Openrouter近日宣布重大政策调整,将每日免费模型调用次数从原先的 200 次调整至 50 次,同时推出新的激励措施——账户余额超过 10 美元的用户将享有每日 1000 次的调用上限。对标记为":free"后缀的免费模型版本,每分钟请求上限设为 20 次,日调用总量从 200 次下调至 50 次。
在这里插入图片描述

1. 基于OpenAI SDK调用OpenRouter中大模型的API

1.1 调用DeepSeek-R1

通过 OpenAI 的 API 功能,调用大语言模型。首先进行客户端初始化,连接到Openrouter 的 API 端点,调用指定的 AI 模型(如“deepseek/deepseek-r1:free”),并发送对话消息,最终打印模型返回的回答内容。

from openai import OpenAI

# 初始化客户端
client = OpenAI(
    api_key="Your_API_Key",  # 替换为你的API密钥
    base_url="https://openrouter.ai/api/v1"
)

# 调用
response = client.chat.completions.create(
    model="deepseek/deepseek-r1:free",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "什么是节能减排?"},
    ],
    stream=False
)

print(response.choices[0].message.content)

1.2 调用英伟达llama-3.1-nemotron-nano-8b-v1的API

Llama-3.1-Nemotron-Nano-8B-v1是由英伟达基于Meta 的 Llama-3.1-8B-Instruct 微调而来的大语言模型(LLM)。使用 OpenAI 客户端连接到Openrouter的 API 端点,调用指定的“nvidia/llama-3.1-nemotron-nano-8b-v1:free”模型,并发送对话消息,最终打印模型返回的回答内容。

from openai import OpenAI
# 初始化客户端
client = OpenAI(
  base_url="https://openrouter.ai/api/v1",
  api_key= "Your_API_Key",  # 替换为你的API密钥
)
# 调用
completion = client.chat.completions.create(
  model="nvidia/llama-3.1-nemotron-nano-8b-v1:free",
  messages=[
    {
      "role": "user",
      "content": "什么是温室气体?"
    }
  ]
)
print(completion.choices[0].message.content)

实际用下来,果然还是DeepSeek在中文语境中的文本生成更合理,而英伟达微调的llama模型对中文问题回答的不是很理想,经常夹杂这英文和日文。

2. 通过Langchain调用Openrouter中大模型的免费API

通过 LangChain 的 ChatOpenAI 类初始化一个聊天模型(deepseek/deepseek-r1:free),连接到Openrouter的 API 端点。然后调用模型,并打印模型返回的内容。

from langchain_openai import ChatOpenAI

# 初始化LLM
llm = ChatOpenAI(
    model='deepseek/deepseek-r1:free',  # 使用DeepSeek聊天模型
    api_key="Your_API_Key",  # 替换为你的API密钥
    base_url ='https://openrouter.ai/api/v1',  # API的端点
    max_tokens=1024  # 设置最大生成token数
)

# 简单调用
response = llm.invoke("请介绍一下人工智能发展现状")
print(response.content)
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐