作者 | OpenBMB
OpenClaw的流行凸显了个人智能体的价值,但其两大问题引发关注:用户数据上传云端导致泄露风险,以及超长上下文造成token浪费和高成本。
3月19日,THUNLP、中国人民大学、AI9Stars、面壁智能与OpenBMB联合开源安全高效端云协同智能体框架EdgeClaw。通过三级安全协同与性价比感知协同机制,解决数据安全和成本问题,支持DGXSpark、MacMini等设备部署。
GitHub链接:https://github.com/Openbmb/EdgeClaw
EdgeClaw:安全高效端云协同智能体
当前AI Agent架构普遍忽视端侧,导致数据涌向云端引发隐私泄露与算力浪费。EdgeClaw通过三级安全协同实现本地数据加密隔离,并以性价比感知协同灵活调用不同费用模型——简单任务用低价模型,复杂任务调用高阶模型。两者运行于同一管线,安全优先于成本优化。
EdgeClaw以OpenClaw插件形式加载,无需修改业务逻辑即可实现"公开数据上云、敏感数据脱敏、私密数据落地"的端云协同,兼顾隐私保护与成本节约。
三级安全协同机制
EdgeClaw创新性地将用户消息、工具参数和输出按敏感度分为三级:
S1默认模式:数据直传云端模型处理
S2脱敏模式:自动模糊敏感信息(如"王小二"→"员工A")后上云
S3安全模式:物理隔离本地处理,隐私文件由MiniCPM系列模型离线执行
基于规则检测器与本地LLM检测器的双引擎系统,支持按场景配置启用。同时采用"双轨记忆"机制:云端模型仅接触脱敏历史,本地模型访问完整信息,彻底阻断上下文泄露风险。
性价比感知协同机制
针对AI编程助手等场景中高频次的简单请求(查文件、看代码等),EdgeClaw以本地小模型作为路由判断器,将60–80%的请求分流至低价模型,大幅降低使用成本。
路由模型配置示例如下
可组合路由管线
安全协同与成本优化运行于统一管线。安全路由器拥有高权重优先执行,一旦检测敏感数据即触发短路处理;仅当安全通过(S1)后,才启动性价比感知协同。此设计确保安全第一、成本次优。
未来规划
EdgeClaw将重点推进四方面迭代:
EdgeClaw Router:扩展端侧硬件兼容性,优化本地模型选择策略
EdgeClaw Memory:开发任务导向型记忆机制,支持复杂长期任务
EdgeClaw SkillHub:构建本地化Skill库,内置高频任务模板
EdgeClaw UI:新增端侧GPU使用率、token消耗等监控指标
作为开源框架,EdgeClaw将持续推动安全高效的端云协同智能体落地,欢迎开发者共建"多、快、好、省"的解决方案。

