1 概览
-
Windows本地和Ubuntu云服务器部署OpenClaw
-
Claude Code部署使用国内模型与OpenClaw结合
-
快速体验免费OpenClaw,了解国内主流算力Coding Plan产品收费详情与推荐
-
飞书接入OpenClaw实用体验
2 前言
周末部署了下OpenClaw,最初部署是来源于自己对当前OpenClaw的几点疑惑解答:
1. OpenClaw部署是用免费云尝鲜,还是虚拟机内部署,私有云服务器部署常用,哪种更符合自己的验证需求?
2. OpenClaw对于工作效率提升在哪些方面?
3. 它是否真是网上所说,是个token吞金兽?
亲测后,目前有以下操作体验:
- Token消耗: 感觉还行,火山云每月的Coding Plan使劲造也没问题,不像网传几轮对话,或者几小时变成付费上班的cui剧。
- 功能体验: 确实能实时订阅指定频道、发送消息、定时推送、整理文档、PPT、定闹钟,或者管理本地电脑、云服务器等
- 服务器操作: 确能操作服务器,并且服务器上备有Claude Code + GLM-4.7结合openClaw进行使用。
3 算力与云部署
3.1 超算互联网 (免费)
快速体验,推荐超算互联网,免费领取14天OpenClaw云部署+3000万token。
3.2 火山云
费用: 9.9元购买火山云 Coding Plan ,赠送7天云OpenClaw
模型限制: OpenClaw只能用Doubao-seed-2.0模型
Token: 无限token用一两个月没啥问题
3.3 阿里百炼
阿里百炼,最初是为了熟悉官网Spring Boot AI Template,进行的各种模型调用,还能免费Qwen 3.5 Plus给Claude Code使用。推出的Coding Plan尚未尝鲜。
Spring Boot AI Template: github
3.4 智谱 GLM-5
智谱AI推出的GLM-5模型,可通过Coding Plan使用,性能对标GPT-4级别。
3.5 CC-Switch 一键切换模型
对于有多个API源的,强烈推荐使用 CC-Switch 这个工具来管理。让你能在不同的API提供商之间一键切换,大大提升使用效率。
下载地址:https://github.com/farion1231/cc-switch/releases
4 部署OpenClaw
4.1 免费云部署
超算互联网平台,14天使用,免部署。
4.2 Windows部署
Windows 系统:
#PowerShell(推荐)
iwr -useb https://openclaw.ai/install.ps1 | iex
#CMD
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
4.3 Ubuntu部署
基础安装
# 下载并安装 OpenClaw
curl -fsSL https://openclaw.ai/install.sh | bash
#后续选项,参考:https://www.runoob.com/ai-agent/openclaw-clawdbot-tutorial.html
基础命令
# 网关管理
openclaw gateway status # 查看网关状态
openclaw gateway restart # 重启网关
# 设置和启动
openclaw dashboard --no-open # 启动仪表板(不自动打开浏览器)
模型配置
# 配置火山引擎提供商
openclaw config set models.providers.volcanoengine.baseUrl "https://ark.cn-beijing.volces.com/api/coding"
openclaw config set models.providers.volcanoengine.apiKey "YOUR_API_KEY"
openclaw config set models.providers.volcanoengine.api "anthropic-messages"
# 设置默认模型
openclaw config set agents.defaults.model "volcanoengine/doubao-seed-2.0-pro"
验证配置
# 添加本地bin到PATH
export PATH="$HOME/.local/bin:$PATH"
echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.bashrc && source ~/.bashrc
# 验证环境变量
echo $ANTHROPIC_BASE_URL
echo $ANTHROPIC_API_KEY
echo $ANTHROPIC_MODEL
4.4 连接远程服务器OpenClaw
openclaw dashboard --no-open # 服务器启动Dashboard,获取登录地址token授权
ssh -N -f -L 18789:127.0.0.1:18789 -p <port> root@<ip地址> #本地SSH隧道连接服务器
# 本地访问:http://127.0.0.1:18789/#token=YOUR_TOKEN
5 Claude Code部署
5.1 安装Claude Code
# 使用npm安装(推荐)
npm install -g @anthropic-ai/claude-code
# 或使用pnpm
pnpm add -g @anthropic-ai/claude-code
# 验证安装
claude --version
# 启动Claude Code
claude
注意:Claude code可能需要google邮箱注册,需登录后使用,再切换调整到国内模型。
若需要注册google邮箱,实测apple手机下载gmail,美网翻墙,国内手机号注册一次顺利完成。之前搜索不少up主,教程踩坑不适合。
可参考阿里接入claude code手册:https://bailian.console.aliyun.com/cn-beijing/?spm=5176.29619931.J_SEsSjsNv72yRuRFS2VknO.2.23dd10d7UL2abC&tab=doc#/doc/?type=model&url=3023078
5.2 配置国内模型
火山云豆包模型配置
编辑 ~/.claude/settings.json:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "YOUR_VOLCENGINE_API_KEY",
"ANTHROPIC_BASE_URL": "https://ark.cn-beijing.volces.com/api/coding",
"ANTHROPIC_MODEL": "GLM-4.7"
},
"includeCoAuthoredBy": false,
"model": "haiku"
}
阿里百炼Qwen配置
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "YOUR_DASHSCOPE_API_KEY",
"ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"ANTHROPIC_MODEL": "qwen3.5-plus"
},
"includeCoAuthoredBy": false,
"model": "haiku"
}
5.3 测试API Key
配置环境变量(mac/liux版本),windows推荐cc-switch可视化管理。
echo "export AI_DASHSCOPE_API_KEY=YOUR_API_KEY" >> ~/.zshrc
source ~/.zshrc
本地测试阿里百炼能访问,说明AI_DASHSCOPE_API_KEY没问题。
curl -X POST https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation \
-H "Authorization: Bearer $AI_DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-turbo",
"input": {
"messages": [
{
"role": "user",
"content": "你好"
}
]
}
}'
5.4 梯子厂商推荐
- 顶级
网速日常使用没问题,一直在用。年付15.6元,便宜不怕跑路:https://apiapps.djjc.cfd/#/register?code=Vvggl5Jc
- 龙猫云
前东家。网速好,每月用完需要15元重置流量:https://apiapps.djjc.cfd/#/register?code=Vvggl5Jc
6 配置文件
6.1 模型配置参数
每个厂商模型调用主要3个参数:
| 参数 | 说明 | 示例 |
|——|——|——|
| API Key | 认证密钥 | sk-xxxxx |
| Base URL | API地址 | https://ark.cn-beijing.volces.com/api/coding |
| Model Name | 模型名称 | volcanoengine/doubao-seed-2.0-pro |
6.2 OpenClaw配置文件
主配置文件位置:~/.openclaw/openclaw.json
{
"meta": {
"lastTouchedVersion": "2026.3.13",
"lastTouchedAt": "2026-03-16T14:31:45.440Z"
},
"wizard": {
"lastRunAt": "2026-03-13T11:39:42.878Z",
"lastRunVersion": "2026.3.12",
"lastRunCommand": "doctor",
"lastRunMode": "local"
},
"models": {
"mode": "merge",
"providers": {
"volcanoengine": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/coding", # API Key
"apiKey": "xxx", # Base URL
"api": "anthropic-messages",
"models": [
{
"id": "doubao-seed-2.0-pro",
"name": "doubao-seed-2.0-pro", # Model Name
"input": [
"text"
]
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "volcanoengine/doubao-seed-2.0-pro", # 查看coding plan厂商手册。
"fallbacks": []
},
"models": {
"volcanoengine/doubao-seed-2.0-pro": {}
},
"workspace": "/root/.openclaw/workspace",
"contextPruning": {
"mode": "cache-ttl",
"ttl": "1h"
},
"compaction": {
"mode": "safeguard"
},
"heartbeat": {
"every": "30m"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"tools": {},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto",
"restart": true,
"ownerDisplay": "raw"
},
"channels": {
"feishu": {
"enabled": true,
"appId": "cli_a93e7459e2f9dbc8",
"appSecret": "W8eyEPkQdDioJjnQE6asjhLVFV5UiHgb",
"domain": "feishu",
"connectionMode": "websocket",
"requireMention": false,
"dmPolicy": "allowlist",
"groupPolicy": "open",
"groups": {
"oc_f7e401fbaae51d33e467fb8c82951cd7": { # 群聊id
"requireMention": false # 群聊不需要通过“@提及”来激活
} # 飞书群id
},
"perm": true,
"streaming": true, # 飞书开启stream流式输出
"blockStreaming": true, # 飞书开启stream流式输出
"allowFrom": [
"ou_d84c0126a80f9428ce52af9d0be1f224"
],
"groupAllowFrom": [
"*"
],
"mentionTrigger": true,
"keywordTrigger": [
"虾",
"侠"
] # 机器人唤醒提示词
}
},
"gateway": {
"mode": "local",
"auth": {
"mode": "token",
"token": "8fe6f32d0450e59520a7253dac1919d6a0b50c5503f5364a"
}
},
"plugins": {
"allow": [
"openclaw-lark"
],
"entries": {
"feishu": {
"enabled": false
},
"openclaw-lark": {
"enabled": true
}
},
"installs": {
"openclaw-lark": {
"source": "npm",
"spec": "@larksuite/openclaw-lark",
"installPath": "/root/.openclaw/extensions/openclaw-lark",
"version": "2026.3.15",
"resolvedName": "@larksuite/openclaw-lark",
"resolvedVersion": "2026.3.15",
"resolvedSpec": "@larksuite/openclaw-lark@2026.3.15",
"integrity": "sha512-YGk63CgYG+YDUO2+TxdSPJZA6km52OpqAqf26vZHMUqawEKhiT4bcfD5JHh6VGazjUwRk5Bze1UyVKncc0csBA==",
"shasum": "997cb8ee9cf66dcd3a24477cb5f59f5fb1a57fff",
"resolvedAt": "2026-03-16T14:30:48.437Z",
"installedAt": "2026-03-16T14:31:36.408Z"
}
}
}
}
6.3 Claude Code配置文件
配置文件位置:~/.claude/settings.json
Claude code不支持多个模型同时添加到settings.json文件中,切换比较繁琐,建议cc-switch管理。
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY",
"ANTHROPIC_BASE_URL": "YOUR_BASE_URL",
"ANTHROPIC_MODEL": "YOUR_MODEL"
},
"model": "haiku"
}
7 场景与技巧
7.1 Claude Code与OpenClaw交互
所有记录都保存在OpenClaw工作目录 /root/.openclaw/workspace/ 下:
- MEMORY.md:长期记忆库,保存重要的配置、约定、长期需要记住的信息
- 比如content-collector的配置参数、称呼、定时任务约定等
- memory/YYYY-MM-DD.md**:每日日志,按天记录当天的对话和任务
- 每天自动创建一个文件,记录当天发生的所有事情
- 不需要长期保留的内容会存在这里
- AGENTS.md /SOUL.md/ USER.md:系统配置文件
- 记录身份设定、信息、工作规则等
- 这些是静态配置,不会频繁修改
⚙️ 自动化处理机制
- 主动记录:每次有重要的决策、配置变更、任务约定,我会自动写入对应的文件,不需要你手动提醒
- 定期整理:每周会自动整理每日日志,把有长期价值的内容提炼到MEMORY.md,删除过时的信息
- 任务调度:所有定时任务(比如每日更新检查、新闻推送)都通过cron系统管理,到点自动触发
🎯 降低Token消耗的方法
- 分层存储:不重要的历史对话只存在每日日志里,不会每次都加载到上下文
- 按需读取:只有当需要用到历史信息时,才会用
memory_search搜索相关内容,不会全量加载所有记录 - 摘要压缩:记录内容时会做精简,只保留核心信息,去掉冗余的对话上下文
- 技能化处理:重复性的工作(比如内容收录、新闻推送)都封装成独立技能,不需要每次重新生成逻辑
这样既可以保存大量的历史记录,又不会每次对话都消耗过多的Token~
-
基本流程
-
在服务器部署OpenClaw,处理日常自动化任务
- 在服务器同时部署Claude Code,用于排查OpenClaw异常和问题诊断
-
当OpenClaw出现问题时,通过SSH连接服务器使用Claude Code排查
-
优势对比
| 工具 | 能力范围 | 适用场景 |
|——|———-|———-|
| Cursor/Qoder等IDE编辑器 | 检查项目代码 | 代码开发、调试 |
| Claude Code | 操作系统级别能力 | 检查系统配置、修改系统文件 |
| OpenClaw | 系统管理+消息集成 | 自动化运维、多平台集成 |
最佳实践:部署OpenClaw最好同时部署Claude Code,两者结合使用,用Claude Code排查问题。
7.2 OpenClaw接入飞书
方式一:扫码安装(推荐)
使用扫码方式自动注册机器人,开放飞书部分权限。
# cmd/linux/mac均适用,一行命令解决。
npx -y @larksuite/openclaw-lark-tools install
方式二:手动配置
# 安装OpenClaw
npm install -g openclaw@latest --registry=https://registry.npmmirror.com
# 安装飞书插件
npm install -g @larksuite/openclaw-lark@2026.3.12
飞书开放能力平台:https://open.feishu.cn/app
7.3 使用场景
-
日常自动化场景
-
定时推送: 飞书机器人接入OpenClaw,每日定时推送相关领域新闻消息
- 文档整理: 自动整理文档、PPT(未使用)
- 提醒管理: 定闹钟、任务提醒
- 系统管理: 管理本地电脑、云服务器
-
自主网络:代码开发自动gitlab提交issue.
-
平台集成对比
| 平台 | 效果评价 | 备注 |
|——|———-|——|
| 飞书 | ⭐⭐⭐⭐⭐ | 最佳体验,推荐使用 |
| 钉钉 | ⭐⭐⭐ | 效果不如飞书 |
| 微信 | ⭐⭐⭐ | 可通过企微应用间接接入 |
- 模型选择建议
| 模型 | 适用场景 | 成本 |
|——|———-|——|
| Claude | 复杂任务、写作类工作 | 较高 |
| GPT-4 | 日常编程、快速原型开发 | 中等 |
| GLM-4.7 | 通用任务 | 较低 |
| Doubao-seed-2.0 | 低成本任务 | 最低 |
8 我的选择
对于我个人来说,我的配置是:
- Claude Code相比OpenClaw更符合日常开发使用,避免龙虾安全问题,又能实现跨应用处理本地系统。
- 有私云服务器部署openClaw,更好管理和自动运维优化服务,也可做安全加固。
- 虚拟机部署openClaw和目前厂商提供的一键云部署openClaw,只暂做尝鲜不长久,openClaw不怎么消耗服务器资源。
- 当前工作开发,国内模型能力足够,亲测火山云的coding plan中GLM-4.7结合claude code以及openClaw已足够处理目前问题。
- 如需要更强模型算力,请参考以下第6-10项,根据自己的实际情况来调整,实操见参考来源。
- 主力:PackyCode Claude
cc源 + Claude Code(处理复杂任务、写作类工作) - 副力:Codex + GPT-4(日常编程、快速原型开发)
- 备用:PackyCode Claude
aws源(cc挂掉时兜底) - 多模型:OhMyGPT(LobeChat 后端、Agent Skills 配合科研绘图)
- 尝鲜:智谱 GLM-5(测试国产模型、低成本任务)
参考来源:
- OpenClaw Guide: https://open-claw.me/zh/guide/getting-started
- OpenClaw (Clawdbot) 教程: https://www.runoob.com/ai-agent/openclaw-clawdbot-tutorial.html
- 如何获得vibe coding相关的AI算力: https://blognas.hwb0307.com/ai/7008
- 配置vibe vibe coding工具: VSCode+Claude Code+Codex: https://blognas.hwb0307.com/ai/7003