大数跨境

面壁智能发布 EdgeClaw 智能体框架,主打安全和省钱

面壁智能发布 EdgeClaw 智能体框架,主打安全和省钱 AI前线
2026-03-21
1
导读:当前大火的 OpenClaw,让越来越多开发者和个人用户意识到个人智能体发挥的巨大作用。

作者 | OpenBMB

OpenClaw的流行凸显了个人智能体的价值,但其两大问题引发关注:用户数据上传云端导致泄露风险,以及超长上下文造成token浪费和高成本。

3月19日,THUNLP、中国人民大学、AI9Stars、面壁智能与OpenBMB联合开源安全高效端云协同智能体框架EdgeClaw。通过三级安全协同与性价比感知协同机制,解决数据安全和成本问题,支持DGXSpark、MacMini等设备部署。

GitHub链接:https://github.com/Openbmb/EdgeClaw

EdgeClaw:安全高效端云协同智能体

当前AI Agent架构普遍忽视端侧,导致数据涌向云端引发隐私泄露与算力浪费。EdgeClaw通过三级安全协同实现本地数据加密隔离,并以性价比感知协同灵活调用不同费用模型——简单任务用低价模型,复杂任务调用高阶模型。两者运行于同一管线,安全优先于成本优化。

EdgeClaw以OpenClaw插件形式加载,无需修改业务逻辑即可实现"公开数据上云、敏感数据脱敏、私密数据落地"的端云协同,兼顾隐私保护与成本节约。

三级安全协同机制

EdgeClaw创新性地将用户消息、工具参数和输出按敏感度分为三级:

  • S1默认模式:数据直传云端模型处理

  • S2脱敏模式:自动模糊敏感信息(如"王小二"→"员工A")后上云

  • S3安全模式:物理隔离本地处理,隐私文件由MiniCPM系列模型离线执行

基于规则检测器与本地LLM检测器的双引擎系统,支持按场景配置启用。同时采用"双轨记忆"机制:云端模型仅接触脱敏历史,本地模型访问完整信息,彻底阻断上下文泄露风险。

性价比感知协同机制

针对AI编程助手等场景中高频次的简单请求(查文件、看代码等),EdgeClaw以本地小模型作为路由判断器,将60–80%的请求分流至低价模型,大幅降低使用成本。

路由模型配置示例如下

可组合路由管线

安全协同与成本优化运行于统一管线。安全路由器拥有高权重优先执行,一旦检测敏感数据即触发短路处理;仅当安全通过(S1)后,才启动性价比感知协同。此设计确保安全第一、成本次优。

未来规划

EdgeClaw将重点推进四方面迭代:

  • EdgeClaw Router:扩展端侧硬件兼容性,优化本地模型选择策略

  • EdgeClaw Memory:开发任务导向型记忆机制,支持复杂长期任务

  • EdgeClaw SkillHub:构建本地化Skill库,内置高频任务模板

  • EdgeClaw UI:新增端侧GPU使用率、token消耗等监控指标

作为开源框架,EdgeClaw将持续推动安全高效的端云协同智能体落地,欢迎开发者共建"多、快、好、省"的解决方案。

【声明】内容源于网络
0
0
AI前线
面向AI爱好者、开发者和科学家,提供大模型最新资讯、AI技术分享干货、一线业界实践案例,助你全面拥抱AIGC。
内容 8147
粉丝 0
AI前线 面向AI爱好者、开发者和科学家,提供大模型最新资讯、AI技术分享干货、一线业界实践案例,助你全面拥抱AIGC。
总阅读90.0k
粉丝0
内容8.1k