EdgeClaw 是由面壁智能联合清华大学自然语言处理实验室(THUNLP)、中国人民大学、AI9Stars 以及 OpenBMB 社区共同研发的开源人工智能智能体运行框架。它定位为“安全高效的端云协同计算平台”,旨在解决当前 AI 应用在数据隐私泄露、成本失控以及对云端算力过度依赖等痛点。
- EdgeClaw开源项目官网网址:https://github.com/OpenBMB/EdgeClaw
- EdgeClaw中文介绍地址:链接

EdgeClaw 核心特性、技术架构和应用场景的详细解析:
1. 核心理念:安全与隐私至上
EdgeClaw 的诞生背景是为了解决 OpenClaw 在实际落地中出现的“隐私泄露”和“Token 浪费”问题。它通过引入三级安全协同机制,将用户数据按敏感程度分为 S1、S2、S3 三级进行处理:
- S1 级(公开数据):可以直接发送至云端模型处理。
- S2 级(敏感数据):在发送至云端之前会进行脱敏处理,确保隐私信息不外泄。
- S3 级(核心机密):绝对不出门,必须由本地模型离线运行处理,零 Token 消耗。
这种“分级治理”结合 GuardAgent 隐私中间件和双检测引擎,构建了全链路的自动安全系统,确保数据在传输、处理和存储过程中的安全性。
2. 端云协同:成本与效率的平衡
EdgeClaw 通过性价比感知协同机制,实现了本地模型与云端模型的智能调度。
- 本地处理:对于计算量小、对延迟敏感或涉及机密信息的任务(如个人助理、内部文档处理),EdgeClaw 会自动路由至本地部署的 MiniCPM 系列模型或其他轻量模型进行处理。
- 云端计算:对于计算量大、需要强大算力的任务(如复杂的内容生成、深度分析),则调用云端大模型。
这种双轨机制不仅保护了隐私,还显著降低了运营成本,因为本地处理的任务不消耗昂贵的云端 Token。
3. 强大的多智能体框架
EdgeClaw 继承了 OpenClaw 的“入口层、调度层、执行层”的设计,并在此基础上强化了安全性。它支持:
- 多设备部署:支持在 DGX Spark、Mac Mini、松果派等多种硬件设备上运行。
- 多模型协同:不仅支持本地模型(如 MiniCPM),还支持与云端模型的无缝协作。
- 海量 Skills 生态:内置了 54 个 AI 能力(Skills),覆盖通用办公(如邮件分类、简报生成)和专业垂直领域(如审计质检、财务顾问)。
4. 硬件落地:EdgeClaw Box
为了让技术更加落地易用,面壁智能推出了硬件产品 EdgeClaw Box。这是一款软硬一体化的 AI 操作系统,预装 EdgeClaw 框架和 MiniCPM 模型,支持开箱即用。用户无需复杂配置,即可体验到“本地跑小龙虾”的安全感和高效性。
5. 开源精神与社区
EdgeClaw 坚持开源原则,所有代码和文档均公开,用户可以在代码层面审视每一个动作,随时修改或定制。这不仅保障了技术的透明度,也鼓励了全球开发者共同参与到智能体生态的建设中。
EdgeClaw 并不是单纯的 AI 软件,它是面向“一人公司”(OPC)和数据敏感型企业的全新 AI 解决方案。它打破了传统 AI 必须依赖云端的思维定式,让用户掌握了数据和算力的主动权,真正实现了“安全可控、成本降低、效率提升”的目标。






