通义千问2.5-7B工具调用实战:Function Calling接入Agent
本文介绍了如何在星图GPU平台上自动化部署通义千问2.5-7B-Instruct镜像,并利用其Function Calling能力构建AI智能体(Agent)。通过实战演示,展示了如何让该模型调用外部工具(如查询天气),实现从理解用户意图到执行具体任务的自动化流程,为打造私有化、多功能的AI助手提供了完整解决方案。
通义千问2.5-7B工具调用实战:Function Calling接入Agent
想不想让你的AI助手不仅能聊天,还能帮你查天气、发邮件、甚至控制智能家居?今天,我们就来聊聊如何让通义千问2.5-7B-Instruct这个“全能型选手”学会使用工具,也就是所谓的Function Calling,并把它接入一个简单的Agent框架。
你可能听说过ChatGPT的插件功能,或者Claude的联网搜索。Function Calling就是类似的能力,它让大模型从“空想家”变成“实干家”。模型不再只是生成一段文字,而是能理解你的意图,并告诉你:“嘿,你需要调用某个工具(函数)来完成这个任务,参数我都帮你准备好了。”
通义千问2.5-7B-Instruct在这方面做得相当不错。它支持标准的工具调用格式,而且因为模型本身开源、可商用,我们完全可以把它部署在自己的服务器上,打造一个私有的、能干的AI助手。接下来,我会手把手带你走一遍从环境准备到实际调用的完整流程。
1. 环境准备与模型部署
工欲善其事,必先利其器。我们先来把模型跑起来。
1.1 选择你的部署方式
通义千问2.5-7B-Instruct非常友好,支持多种部署框架。对于工具调用这种需要稳定、低延迟交互的场景,我推荐使用 vLLM 或 Ollama。
- vLLM:性能怪兽,吞吐量高,特别适合需要同时服务多个请求的场景。如果你是团队使用或者想搭建一个API服务,选它。
- Ollama:简单易用,一条命令就能跑起来,本地开发调试的首选。我们今天就用它来演示。
如果你的显卡是RTX 3060(12GB)或以上,可以直接跑原版模型。如果显存紧张,可以用量化版,比如4位量化的GGUF格式,模型大小会降到4GB左右,在3060上也能跑到每秒100个token以上,完全够用。
1.2 使用Ollama一键部署
首先,确保你安装了Ollama。然后,打开终端,运行下面这条命令:
ollama run qwen2.5:7b-instruct
第一次运行会自动下载模型。下载完成后,你会进入一个交互式对话界面。先别急,我们测试一下基础对话能力,输入:
你好,请介绍一下你自己。
如果模型能正常回复,说明部署成功。要退出交互模式,按 Ctrl+D。我们真正需要的是它的API服务,所以用下面这个命令在后台启动API:
ollama serve
默认情况下,Ollama的API服务会在 http://localhost:11434 运行。这样,我们的模型“引擎”就准备就绪了。
2. 理解Function Calling:从聊天到行动
在写代码之前,我们得先搞明白Function Calling是怎么一回事。你可以把它想象成点外卖:
- 你提出需求:“我想吃一份宫保鸡丁,微辣,送到XX小区。”
- AI理解并拆解:AI听懂了你话里的关键信息:菜品(宫保鸡丁)、口味(微辣)、地址(XX小区)。
- AI调用工具:AI不会自己去炒菜,但它知道要调用“外卖下单”这个工具(函数),并把刚才提取的参数填进去。
- 工具执行并返回结果:外卖平台接单、餐厅制作、骑手配送。
- AI总结回复:“好的,已为您下单宫保鸡丁(微辣),预计30分钟后送达。”
在技术层面,这个过程分为两步:
- 模型决定调用哪个函数:你告诉模型有哪些函数可用(比如
get_weather,send_email),以及每个函数需要什么参数。当你的问题匹配某个函数时,模型会停止生成普通对话,转而输出一个结构化的JSON对象,里面包含了它想调用的函数名和具体的参数值。 - 你(的程序)执行函数:你的代码收到这个JSON后,去真正执行对应的函数(比如调用天气API),拿到结果(比如“北京,晴,25度”)。
- 模型整合结果回复:你把函数执行的结果再塞回给模型,模型会组织语言,生成一个完整的、包含结果的回答给你。
通义千问2.5-7B遵循主流的Function Calling格式,和OpenAI的格式兼容,这让我们接入起来非常方便。
3. 实战:构建一个天气查询Agent
理论说再多不如动手试一次。我们来构建一个最简单的Agent,它只有一个能力:查天气。
3.1 第一步:定义工具(函数)
首先,我们创建一个Python文件,比如叫 weather_agent.py。我们先定义一个虚拟的天气查询函数。在实际应用中,这里应该替换成调用真实天气API(如和风天气、OpenWeatherMap)的代码。
# weather_agent.py
import json
import requests
from typing import Dict, Any
# 1. 定义我们可供模型调用的工具列表
# 这里我们只定义一个工具:get_weather
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的当前天气情况",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市名称,例如:北京、上海、New York"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"],
"description": "温度单位,摄氏度(celsius)或华氏度(fahrenheit)",
"default": "celsius"
}
},
"required": ["location"] # 必须提供的参数
}
}
}
]
# 2. 实现这个工具函数
# 这是一个模拟函数,真实场景请接入API
def get_weather(location: str, unit: str = "celsius") -> Dict[str, Any]:
"""模拟获取天气的函数"""
print(f"[系统] 正在查询 {location} 的天气,单位:{unit}...")
# 这里模拟一个固定的返回,实际应调用API
weather_data = {
"北京": {"condition": "晴朗", "temperature": 25, "humidity": "40%"},
"上海": {"condition": "多云", "temperature": 28, "humidity": "65%"},
"New York": {"condition": "小雨", "temperature": 18, "humidity": "80%"}
}
result = weather_data.get(location, {"condition": "未知", "temperature": "N/A", "humidity": "N/A"})
# 处理温度单位转换(简单模拟)
if unit == "fahrenheit" and result["temperature"] != "N/A":
result["temperature"] = result["temperature"] * 9/5 + 32
result["unit"] = "°F"
else:
result["unit"] = "°C"
return result
关键点看这里:
description:用清晰的语言告诉模型这个工具是干什么的。这很重要,模型靠这个来决定是否调用它。parameters:详细定义每个参数的名字、类型、描述。required字段指明哪些参数是必须的。enum:对于像温度单位这种有固定选项的参数,用enum列出所有可能值,能大大提高模型提取的准确性。
3.2 第二步:与模型对话并处理工具调用
接下来,我们要写核心的对话逻辑。这里我们需要向Ollama的API发送请求。
# weather_agent.py (续)
def chat_with_ollama(messages: list, tools: list = None) -> dict:
"""发送请求到Ollama API"""
url = "http://localhost:11434/api/chat"
payload = {
"model": "qwen2.5:7b-instruct",
"messages": messages,
"stream": False, # 我们不需要流式输出
"options": {
"temperature": 0.1 # 低温度让输出更确定,适合工具调用
}
}
# 如果有工具定义,一起发送给模型
if tools:
payload["tools"] = tools
try:
response = requests.post(url, json=payload, timeout=60)
response.raise_for_status()
return response.json()
except requests.exceptions.RequestException as e:
print(f"[错误] 调用API失败: {e}")
return None
def run_agent_conversation(user_input: str):
"""运行一次完整的Agent对话"""
# 初始化对话历史
messages = [
{"role": "system", "content": "你是一个有帮助的助手,可以查询天气。请根据用户需求,决定是否需要调用工具。如果需要,请严格按照提供的工具格式输出。"},
{"role": "user", "content": user_input}
]
print(f"\n[用户] {user_input}")
# 第一轮:将用户输入和工具定义发给模型
response = chat_with_ollama(messages, tools)
if not response:
print("[错误] 未收到模型响应")
return
assistant_message = response.get("message", {})
messages.append(assistant_message) # 将模型的回复加入历史
# 检查模型是否想调用工具
tool_calls = assistant_message.get("tool_calls")
if tool_calls:
print(f"[助手] 我理解您想查询天气,正在为您调用工具...")
# 处理每一个工具调用(理论上一次可以调用多个)
for tool_call in tool_calls:
func_name = tool_call["function"]["name"]
func_args_json = tool_call["function"]["arguments"]
try:
func_args = json.loads(func_args_json)
except json.JSONDecodeError:
print(f"[错误] 解析工具参数失败: {func_args_json}")
continue
print(f"[系统] 模型请求调用函数: {func_name}, 参数: {func_args}")
# 根据函数名执行对应的函数
if func_name == "get_weather":
# 执行我们之前定义的函数
result = get_weather(**func_args)
# 将函数执行结果以特定格式追加到对话历史中
# 这是关键一步,告诉模型工具执行的结果
messages.append({
"role": "tool",
"content": json.dumps(result, ensure_ascii=False),
"tool_call_id": tool_call.get("id", "call_1") # 需要关联工具调用ID
})
else:
print(f"[错误] 未知的函数调用: {func_name}")
continue
# 第二轮:将工具执行结果发给模型,让它生成最终回答
print("[系统] 工具执行完毕,正在请求模型生成最终回答...")
final_response = chat_with_ollama(messages)
if final_response and final_response.get("message"):
final_content = final_response["message"].get("content", "未生成内容")
print(f"[助手] {final_content}")
else:
print("[错误] 获取最终回答失败")
else:
# 模型没有调用工具,直接输出回复
content = assistant_message.get("content", "(无内容)")
print(f"[助手] {content}")
# 主程序入口
if __name__ == "__main__":
print("=== 通义千问2.5-7B 天气查询Agent ===")
print("已启动。你可以询问例如:‘北京今天天气怎么样?’ 或 ‘What‘s the weather in New York in Fahrenheit?’")
print("输入 'quit' 或 '退出' 结束程序。\n")
while True:
try:
user_input = input("你: ").strip()
if user_input.lower() in ['quit', 'exit', '退出', 'q']:
print("再见!")
break
if user_input:
run_agent_conversation(user_input)
except KeyboardInterrupt:
print("\n程序被中断。")
break
让我们运行一下看看效果。在终端执行:
python weather_agent.py
然后尝试输入:
- “北京天气如何?”
- “我想知道纽约的天气,用华氏度。”
- “上海今天湿度高吗?”
你会看到类似下面的输出:
[用户] 北京天气如何?
[助手] 我理解您想查询天气,正在为您调用工具...
[系统] 模型请求调用函数: get_weather, 参数: {'location': '北京', 'unit': 'celsius'}
[系统] 正在查询 北京 的天气,单位:celsius...
[系统] 工具执行完毕,正在请求模型生成最终回答...
[助手] 根据查询结果,北京当前的天气情况是:晴朗,温度25°C,湿度40%。
看,一个能理解你意图、调用工具、并整合结果回复的AI助手就诞生了!
4. 进阶技巧与实用建议
掌握了基础流程后,我们可以让它变得更强大、更稳定。
4.1 处理复杂场景与多轮对话
上面的例子是单轮对话。现实中,用户可能会追问。比如:
- 用户:“北京天气怎么样?”
- 助手:“北京晴朗,25度。”
- 用户:“那上海呢?”
这就需要我们的程序能记住之前的对话历史。幸运的是,我们已经在 messages 列表中维护了整个历史,Ollama API会处理这些上下文。你只需要确保在每次循环中,将新的用户输入和模型的回复正确追加到 messages 列表即可。
4.2 增加更多工具
一个真正的助手不应该只会查天气。我们可以轻松扩展工具列表。比如,增加一个 send_email 函数:
tools.append({
"type": "function",
"function": {
"name": "send_email",
"description": "发送电子邮件",
"parameters": {
"type": "object",
"properties": {
"recipient": {"type": "string", "description": "收件人邮箱地址"},
"subject": {"type": "string", "description": "邮件主题"},
"body": {"type": "string", "description": "邮件正文内容"}
},
"required": ["recipient", "subject", "body"]
}
}
})
然后在 run_agent_conversation 函数里,增加对这个新函数的判断和执行逻辑。模型会根据你的问题描述,自动选择最合适的工具。
4.3 提升工具调用的准确性
有时候模型可能“犯懒”或者“误解”,不调用工具而是直接编造一个答案。你可以试试下面这些方法:
- 优化系统提示词:在
system消息里更强烈地引导它。例如:“你必须使用提供的工具来回答问题。如果用户的问题涉及天气、邮件等,请优先调用对应工具,不要自行猜测答案。” - 调整温度参数:就像我们代码里设置的
"temperature": 0.1,较低的温度会让模型的输出更确定、更可预测,减少“胡编乱造”。 - 提供更详细的工具描述:把工具的描述写得更精准,包括使用场景和限制。模型理解得越好,调用得越准。
4.4 错误处理与用户体验
生产环境中的Agent需要更健壮:
- 网络重试:调用模型API或外部工具API时,增加重试机制。
- 参数验证:在执行工具函数前,先验证模型提供的参数是否合法(比如城市名是否存在)。
- 超时控制:给API调用设置合理的超时时间,避免用户长时间等待。
- 友好报错:当工具调用失败时,让模型生成一个友好的错误提示,而不是把代码异常直接抛给用户。
5. 总结
通过今天的实战,我们完成了几件关键事:
- 部署了模型:用Ollama轻松跑起了通义千问2.5-7B-Instruct。
- 理解了核心机制:Function Calling的本质是让模型从“思考者”转变为“调度者”,它负责理解意图、提取参数,我们负责执行具体动作。
- 搭建了完整流程:从定义工具、与模型交互、执行函数到整合回复,我们实现了一个闭环的天气查询Agent。
- 看到了扩展潜力:这个框架可以很方便地添加新工具,逐步升级为一个多功能的个人助理。
通义千问2.5-7B-Instruct在工具调用上的表现,让我们在本地部署一个实用、可控的AI Agent成为可能。它开源、可商用、性能均衡的特点,非常适合开发者进行二次创作和业务集成。
下一步,你可以尝试:
- 接入真实的天气API、邮件发送API。
- 为它添加日历管理、记事本查询、智能家居控制等功能。
- 设计一个简单的Web界面,让它从一个命令行程序变成一个真正的应用。
AI Agent的世界大门已经打开,而Function Calling就是那把钥匙。希望这篇教程能帮你顺利起步,打造出第一个属于你自己的智能助手。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐


所有评论(0)