本文将引导用户在云平台上完成 OpenClaw 配置模型。

配置模型

  1. 进入无状态应用,选择openclaw资源池,找到openclaw应用,点击进入应用详情页。

  1. 进入容器组选择卡,点击实例命令行,进入控制台

  1. 通过在/root/.openclaw/openclaw.json文件中追加内容,配置模型(以模型提供商ollamaqwen3.5:2b模型为例),追加的内容如下:
{
...
  "models": {
    "mode": "merge",
    "providers": {
      "ollama": {
        "baseUrl": "#模型地址#",
        "apiKey": "ollama-local",
        "api": "ollama",
        "models": [
          {
            "id": "qwen3.5:2b",
            "name": "QWen3.5 2b",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 16000,
            "maxTokens": 40960
          }
        ]
      }
    }
  }
...
}
  1. 容器组选择卡,点击实例重启,重启成功后配置才生效。

测试模型

打开OpenClaw页面,进入聊天菜单,在对话框中输入信息,如”你是什么模型?”。

如果能返回对话信息,则配置模型成功。

作者:魏巍  创建时间:2026-03-11 19:43
最后编辑:吴升斌  更新时间:2026-03-13 11:01