Windows下OpenClaw安装避坑:千问3.5-9B接口配置详解

1. 为什么选择Windows+OpenClaw组合

作为一个长期在Windows环境下工作的开发者,我一直在寻找能够提升日常效率的自动化工具。直到遇到OpenClaw,这个开源的AI智能体框架彻底改变了我的工作方式——它能让AI像人类一样操作我的电脑,完成文件整理、数据收集甚至内容发布等重复性工作。

但在Windows上部署时,我遇到了不少坑:从npm权限问题到防火墙拦截,从路径格式错误到模型接口配置失败。本文将分享我从零开始成功配置OpenClaw对接千问3.5-9B模型的全过程,特别是那些官方文档没写清楚的Windows特有陷阱。

2. 准备阶段:环境与权限处理

2.1 以管理员身份运行PowerShell的重要性

第一次安装时,我直接在自己的用户终端执行了npm install -g openclaw,结果遭遇了各种权限错误。后来发现,在Windows系统下,全局安装Node.js包必须使用管理员权限

# 错误示范(普通用户模式)
npm install -g openclaw
# 报错:EPERM: operation not permitted...

# 正确做法
右键点击PowerShell图标 -> 以管理员身份运行
npm install -g openclaw

2.2 解决npm的SSL证书问题

在公司网络环境下,npm安装可能会遇到证书验证失败的情况。这是我遇到的典型错误:

npm ERR! code UNABLE_TO_VERIFY_LEAF_SIGNATURE

解决方案是在安装前临时关闭严格SSL验证(仅限受信任的内网环境):

npm config set strict-ssl false
npm install -g openclaw
# 安装完成后记得恢复设置
npm config set strict-ssl true

3. 安装后的关键配置步骤

3.1 初始化向导(onboard)的选择策略

运行openclaw onboard后会进入交互式配置向导,这里有几个Windows用户需要特别注意的选择:

  1. Mode选择:建议先用QuickStart快速验证基础功能,后续再通过配置文件(openclaw.json)调整
  2. Provider选择:如果已有千问3.5-9B的本地部署或API地址,选择Skip for now跳过默认模型配置
  3. Channels:国内用户可以先跳过飞书/钉钉配置,专注模型对接

3.2 Windows特有的路径问题

OpenClaw的配置文件默认存放在~/.openclaw/目录,但在Windows PowerShell中:

  • 错误路径写法~/可能无法正确解析
  • 正确获取配置文件路径的方法:
# 查看实际配置文件位置
openclaw config path
# 典型输出:C:\Users\[用户名]\.openclaw\openclaw.json

4. 对接千问3.5-9B模型的核心配置

4.1 获取模型API地址

假设你已经在本地或云端部署了千问3.5-9B模型,通常会有类似这样的接口地址:

http://localhost:8000/v1

或平台提供的代理地址:

https://your-platform.com/qwen-api/v1

4.2 编辑配置文件的关键字段

用VS Code或Notepad++打开配置文件(路径见3.2节),在models.providers部分添加:

{
  "models": {
    "providers": {
      "qwen-local": {
        "baseUrl": "http://localhost:8000/v1",
        "apiKey": "your-api-key-if-any",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-9b",
            "name": "千问3.5-9B本地版",
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

特别注意:Windows下路径中的反斜杠需要转义,或者统一使用正斜杠:

// 错误写法(未转义)
"baseUrl": "http:\localhost:8000\v1"

// 正确写法
"baseUrl": "http://localhost:8000/v1"

4.3 解决Windows防火墙拦截问题

第一次启动网关时,很可能会遇到连接失败的情况。这是因为Windows Defender防火墙默认会拦截新应用的网络请求。

解决方法分三步

  1. 打开Windows安全中心 -> 防火墙和网络保护
  2. 点击"允许应用通过防火墙"
  3. 找到"openclaw"或"node"相关条目,勾选专用和公用网络

或者通过PowerShell一键放行(管理员权限):

New-NetFirewallRule -DisplayName "OpenClaw Gateway" -Direction Inbound -Program "$(which node)" -Action Allow

5. 验证与排错实战

5.1 启动网关并检查服务状态

openclaw gateway start
openclaw status

正常情况应该看到:

Gateway Service: running
Model Providers: qwen-local (1 model)

5.2 测试模型连通性

如果直接访问管理界面(http://localhost:18789)看不到模型,可以尝试:

openclaw models list

若返回空列表或错误,重点检查:

  1. baseUrl是否可访问(用curl或浏览器直接测试)
  2. 配置文件格式是否正确(特别是JSON的逗号和引号)
  3. 网关是否已重启(每次修改配置后需要openclaw gateway restart

5.3 常见错误代码与解决

  • ECONNREFUSED:模型服务未启动或端口错误
  • 401 Unauthorized:apiKey配置有误
  • 404 Not Found:baseUrl路径不完整,缺少/v1等后缀
  • ETIMEDOUT:防火墙拦截或网络不通

6. 进阶配置技巧

6.1 使用环境变量管理敏感信息

为避免在配置文件中明文存储apiKey,可以采用环境变量方式:

  1. 在系统环境变量中添加QWEN_API_KEY=your-real-key
  2. 修改配置文件:
"apiKey": "${env:QWEN_API_KEY}"

6.2 多模型切换配置

如果需要同时使用多个千问模型实例,可以这样配置:

"models": [
  {
    "id": "qwen3.5-9b-speed",
    "name": "千问3.5-9B快速版",
    "parameters": {
      "temperature": 0.3
    }
  },
  {
    "id": "qwen3.5-9b-creative",
    "name": "千问3.5-9B创意版",
    "parameters": {
      "temperature": 0.9
    }
  }
]

使用时通过@模型ID指定:

请用@qwen3.5-9b-creative 生成一首诗

7. 我的真实使用体验

经过一周的持续使用,这个配置已经能稳定支持我的日常工作流。最常用的三个场景是:

  1. 自动化数据整理:让OpenClaw定时扫描指定文件夹,将散乱的CSV文件按日期归类并生成汇总报告
  2. 技术文档辅助:对接千问3.5-9B后,可以直接要求"将当前打开的API文档总结成Markdown格式"
  3. 会议纪要处理:录制会议音频后,通过OpenClaw调用模型进行转录和要点提取

最大的惊喜是千问3.5-9B对长文本的理解能力——有一次它成功处理了一个包含多个嵌套表格的Word文档,准确率远超我的预期。当然也遇到过模型"犯糊涂"的时候,比如把日期"2023-12-01"错误识别为版本号,这就需要人工复核关键数据。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐