Windows下OpenClaw安装详解:千问3.5-9B接口配置避坑

1. 为什么选择Windows+OpenClaw组合

去年我在尝试自动化办公方案时,发现大多数AI助手都需要将数据上传到云端处理。作为一个经常需要处理敏感文档的开发者,我一直在寻找既能保留本地数据隐私,又能享受AI自动化能力的解决方案。OpenClaw的出现完美解决了这个痛点——它允许AI像人类一样直接操作我的Windows电脑,所有数据处理都在本地完成。

但实际部署过程中,我发现Windows平台的安装文档相对零散,特别是对接国产大模型千问3.5-9B时,会遇到不少环境配置的"坑"。这篇文章将分享我从零开始搭建的全过程,重点解决三个核心问题:PowerShell权限问题、npm依赖冲突、以及最关键的千问接口baseUrl配置验证。

2. Windows环境准备:避开三大权限陷阱

2.1 PowerShell管理员权限的正确打开方式

很多教程会简单说"用管理员权限运行PowerShell",但实际操作中我发现两个关键细节:

  1. 右键菜单的陷阱:直接右键点击PowerShell图标选择"以管理员身份运行"时,有时会丢失环境变量。更可靠的做法是:

    # 先普通模式打开PowerShell
    Start-Process powershell -Verb runAs
    
  2. 执行策略限制:Windows默认会阻止脚本执行,需要临时放宽策略(完成后建议恢复默认):

    Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
    

2.2 npm安装的依赖冲突解决

在安装OpenClaw时,常见的报错是node-gyp编译错误。经过多次尝试,我总结出最稳定的安装顺序:

# 1. 先升级npm到最新版
npm install -g npm@latest

# 2. 安装windows-build-tools(需要管理员权限)
npm install --global --production windows-build-tools

# 3. 最后安装OpenClaw
npm install -g openclaw@latest

如果遇到Python环境报错,可能是因为系统安装了多个Python版本。这时需要明确指定Python路径:

npm config set python "C:\Python310\python.exe"

3. 千问3.5-9B接口配置实战

3.1 获取正确的baseUrl

这是整个配置过程中最易出错的部分。千问3.5-9B的接口地址不是简单的http://localhost:端口格式,而是需要包含特定的路由路径。经过与星图平台技术支持的沟通,我确认了标准格式应该是:

http://<服务器IP>:<端口>/v1/chat/completions

例如本地部署时完整的baseUrl可能是:

http://127.0.0.1:5000/v1/chat/completions

3.2 配置文件的关键参数

配置文件位于C:\Users\<用户名>\.openclaw\openclaw.json,需要特别注意models.providers部分的写法:

{
  "models": {
    "providers": {
      "qwen-local": {
        "baseUrl": "http://127.0.0.1:5000/v1/chat/completions",
        "apiKey": "your-api-key-here",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-9b",
            "name": "千问3.5-9B本地版",
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  }
}

其中最容易忽略的是api字段必须设置为openai-completions,这是千问兼容OpenAI协议的标志。

4. 三大典型报错与解决方案

4.1 "Invalid baseUrl"错误

现象:网关启动成功,但调用模型时提示baseUrl无效。

排查步骤

  1. 先用curl测试接口连通性:
    curl -X POST "http://127.0.0.1:5000/v1/chat/completions" -H "Content-Type: application/json" -d '{"model":"qwen3.5-9b","messages":[{"role":"user","content":"你好"}]}'
    
  2. 如果返回404,检查千问服务是否真的监听在/v1/chat/completions路径
  3. 确认防火墙放行了对应端口(5000为例):
    New-NetFirewallRule -DisplayName "Allow Qwen Port" -Direction Inbound -LocalPort 5000 -Protocol TCP -Action Allow
    

4.2 "Model not found"错误

原因:配置文件中的model.id与千问服务实际暴露的模型名称不匹配。

解决方案

  1. 查询千问服务暴露的模型名称列表:
    curl http://127.0.0.1:5000/v1/models
    
  2. 确保openclaw.json中的id字段与查询结果完全一致(注意大小写)

4.3 跨域访问被拒绝

现象:Web控制台能打开,但无法与模型通信,浏览器控制台显示CORS错误。

解决方法

  1. 修改网关启动命令,添加CORS支持:
    openclaw gateway --port 18789 --cors-origin "http://localhost:18789"
    
  2. 或者在千问服务端添加CORS头(如果服务可配置)

5. 验证与日常使用技巧

完成所有配置后,建议按以下步骤验证:

# 1. 重启网关服务
openclaw gateway restart

# 2. 列出可用模型
openclaw models list
# 应该能看到"qwen3.5-9b本地版"在列表中

# 3. 简单测试
openclaw chat "用中文回答,1+1等于几?"

日常使用中,我发现几个提升效率的技巧:

  • 将常用命令保存为PowerShell脚本,比如快速重启服务:
    # restart_claw.ps1
    openclaw gateway stop
    Start-Sleep -Seconds 2
    openclaw gateway start
    
  • 使用-v参数获取详细日志:
    openclaw gateway start -v
    
  • 定期清理日志文件(默认在C:\Users\<用户名>\.openclaw\logs

经过一个月的实际使用,这套配置已经稳定支持我的日常文档处理、数据收集等自动化任务。最大的收获是终于可以在不泄露数据的前提下,享受大模型带来的效率提升。对于同样关注数据隐私的开发者,这个方案值得一试。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐