零、引言
随着大模型与智能体在安全攻防中的快速涌现,如何让更广泛的安全团队与研究者能够以可控、可复用的方式使用 AI 进行漏洞发现与安全评估,成为一个现实命题。CAI(Cybersecurity AI)作为一个开源、轻量的安全智能体框架,旨在把先进的安全测试能力从少数组织手里“还给”社区与从业者:它既强调实战导向的能力构建,也重视人类监督与伦理边界。在人机协作、守护栏与透明度的约束下,CAI为网络安全的效率提升与生态再平衡提供了重要抓手,也为机器人/OT 等复杂场景的安全评估打开了新的路径。对于任何希望在实战中拥抱 AI 的安全团队而言,CAI值得尽快了解与试用。下文将系统介绍 CAI 的定义、定位、核心功能与价值、典型应用,对网络安全行业的启示以及与2025年火爆一时的manus进行对比。
一、什么是 CAI
CAI(Cybersecurity AI)是一个开源框架,用于构建面向安全场景的专用 AI 智能体,帮助开展侦察、漏洞发现、利用、提权与取证等实战任务。它强调模块化与研究导向,面向安全研究者、红队、蓝队、CTF 选手、机器人/OT 安全工程师等群体,目标是在“人-机协作”的前提下,让 AI 在安全测试中达到接近或具备人类竞争力的水平,同时保持透明、可审计与可控。
说明:网络安全 / 渗透测试的自动化能力按等级划分,类似于自动驾驶中的级别。大致是:
- 级别 1:人工 (Manual) — 人类主导,工具辅助(如传统 Metasploit 等)
- 级别 2:LLM 辅助 (LLM-Assisted) — LLM 提供建议、规划支持,但仍靠人工操作
- 级别 3:半自动 (Semi-automated) — 部分扫描 / 利用动作可由系统执行,但仍需人来监督 / 决策
- 级别 4:网络安全 AI (Cybersecurity AIs) — 全流程自动化(规划 → 扫描 → 利用 → 缓解),但保留人类监督 (HITL) 作为安全控制
在这个分类里,CAI 被定位为第 4 级(全流程自动 / 强自主)框架。
二、定位:民主化、实战化、以人类为中心
- 民主化的安全 AI:降低先进安全测试的准入门槛,让非头部资源的团队也能构建与部署有效的 AI 安全部署能力。
- 实战导向:围绕真实攻防流程、漏洞挖掘与安全评估组织能力,而非仅停留在理论。
- 人机协作:强调 Human-In-The-Loop(HITL),AI 增强人类,不替代人类;在关键节点提供可干预、可回退的控制。
- 对抗 AI 滥用:通过守护栏与可观察性,降低误用风险与危险命令执行风险,兼顾开放性与安全边界。
三、架构与工作原理
CAI以“可组合的智能体”为核心,通过以下组件形成一个可审计、可控的攻防流水线:
上图展示的是 CAI(Cybersecurity AI)框架的整体架构逻辑图,分为三个层次:
👉人机交互层(Human Interface Layer)、
👉智能体协调层(Agent Coordination Layer)、
👉执行层(Execution Layer)。
每个层都有不同的模块与职责,通过编号(1–9)连接成完整的工作流程。
🧩 第一层:Human Interface Layer(人机交互层)
- HITL(Human-in-the-Loop)
这是人工在环机制,表示人类可随时干预、暂停、修改 AI 的行为。确保 AI 不会在无监督情况下执行危险命令。 - Turns(回合控制)
管理每个 agent 的“推理—执行—反馈”周期。每一轮任务由多个回合组成,系统通过回合控制协调执行顺序与人类输入。
➡️关系说明(箭头):
HITL ↔ Turns 表示人类可在任意回合介入;
编号①表示 HITL 的反馈会进入下层的 Patterns(模式设计)中,指导后续的 agent 协作逻辑。
⚙️ 第二层:Agent Coordination Layer(智能体协调层)
- Patterns(模式)
定义多个 agent 的协作策略与流程结构,例如“任务链式协作”“分层任务分配”“递归式问题求解”等。
HITL 的输入可以调整这些模式(编号①)。 - Handoffs(交接)
负责 agent 之间的任务衔接。一个 agent 完成阶段性任务后,通过 handoff 将上下文交给下一个 agent。
Patterns 和 Handoffs 相互作用(编号②)。 - Agents(智能体)
这是 CAI 的核心执行单元。不同 agent 负责不同的安全任务:信息收集、漏洞扫描、利用、验证、报告生成等。
Handoffs 的输出会触发具体的 agent 执行任务(编号③)。
- LLMs(大型语言模型)
Agent 的“思维引擎”。CAI 允许接入不同厂商 / 模型(如 Claude、GPT-4o、Gemini、DeepSeek 等),为 agent 提供理解与推理能力(编号④)。
🧠 第三层:Execution Layer(执行层)
- Tools(工具)
Agent 执行具体操作的接口,例如命令执行、端口扫描、代码分析、SSH、漏洞验证等。
Agent 调用 Tools 来落地实际动作(编号⑤)。 - Tracing(追踪 / 日志)
记录每个 agent 的决策过程、工具调用、交互日志,用于可观测性、调试和安全审计(编号⑥、⑦)。
例如:记录 agent 在何时调用了哪个工具、返回了什么结果。 - Extensions(扩展模块)
用户自定义的插件系统,可扩展工具集、接口或安全策略。Extensions 的行为也被追踪记录(编号⑧)。
🔄 交互逻辑总结(编号对应)
编号 |
连接关系 |
含义 |
① |
HITL → Patterns |
人类反馈指导协作模式 |
② |
Patterns ↔ Handoffs |
定义和传递 agent 协作逻辑 |
③ |
Handoffs → Agents |
任务交接到下一个 agent |
④ |
Agents → LLMs |
智能体调用大模型推理 |
⑤ |
Agents → Tools |
调用底层安全工具执行操作 |
⑥ |
Tools ↔ Tracing |
工具执行被追踪记录 |
⑦ |
Handoffs → Tracing |
agent 交接过程被记录 |
⑧ |
Extensions → Tracing |
自定义扩展被纳入追踪体系 |
⑨ |
Agents ↔ Tools(双向虚线) |
工具结果反馈影响 agent 决策 |
CAI 通过三层架构实现“可控的自动化安全智能体系统”:
- 上层(HITL):保障安全与人工可控;
- 中层(Patterns + Handoffs + Agents):负责任务规划与智能协作;
- 下层(Tools + Tracing + Extensions):执行具体安全操作并保证可审计。
它体现出一个重要设计哲学:
“在完全自动化之前,先确保可控、可解释、可审计。”
工作流简述
- 人类选择或触发一个模式;
- 模式编排多个智能体的协作与交接;
- 智能体使用大模型进行推理;
- 通过工具执行具体安全动作、返回结果;
- 追踪系统记录过程,结果回馈智能体形成闭环;
- 人类在必要时进行审批、纠偏或停止。
四、主要功能与价值
- 功能覆盖典型攻防链:
- 侦察与武器化:网络资产发现、端口/服务识别、技术栈画像。
- 漏洞发现与利用:默认凭证测试、版本识别与已知漏洞匹配、利用链构建。
- 密码与凭据攻防:Hash 抓取与破解、会话与令牌分析。
- 权限提升与横向移动:提权路径识别、跨主机渗透、持久化与清理。
- 数据取证与特定领域分析:例如针对机器人操作系统(ROS)的取证与安全组件识别。
- 指挥与控制:安全隧道、远程命令执行的可控管理。
价值主张:
提效与降本:在CTF、渗透练习与漏洞赏金中展现较高的时间与成本效率。
模块化与可复用:通过模式与交接把复杂攻防流程拆解为可复用的技能与协作单元。
可观察与可审计:内置追踪,便于复盘与责任界定。
安全边界:守护栏减少提示注入与危险命令带来的风险。
模型与生态兼容:支持众多主流与本地模型,便于因地制宜落地。
五、应用举例
- 工业机器人安全评估:对某型移动工业机器人(如 MiR-100)开展网络侦察、默认凭证检测、服务漏洞识别与 ROS 取证,验证机器人控制面与通信层面的风险。
- CTF 与攻防平台:在多类 CTF 挑战与 HackTheBox 环境中,CAI通过智能体协作展现出较高的解题效率与覆盖度。
- 漏洞赏金(Bug Bounty):既有专业选手也有非专业用户,借助 CAI 在真实系统中发现问题并提交漏洞报告。
实验与评估结果
1. 与人类安全专家的对比(CTF基准测试)
- 测试平台包括:CSAW、HackTheBox、picoCTF、VulnHub 等,共 54 个挑战。
- 平均效率:CAI 比人类快 11 倍,成本降低 156 倍。
- 特定类别性能:
- 取证类:快 938 倍
- 机器人安全:快 741 倍
- 逆向工程:快 774 倍
- 但在加密与复杂漏洞利用类中表现略差(速度仅人类的 0.5–0.9 倍)。
结论:AI 能显著加速安全测试,但仍需要人类配合处理复杂推理任务。
2. 在不同 LLM 上的性能比较
测试了多种语言模型(Claude 3.7、O3-mini、Gemini 2.5、DeepSeek V3、GPT-4o、Qwen2.5 等)。
结果显示:
- Claude 3.7 Sonnet 表现最佳,23 个挑战中解决 19 个。
- 闭源模型总体优于开源模型,尤其在复杂任务中表现更稳定。
- 成本极低(Claude 3.7 仅约 4.96 美元)。
3. 在 Hack The Box (HTB) 竞争环境中的表现
- 7 天内完成所有挑战:
- 进入 西班牙前 30、全球前 500 名;
- 挑战类任务速度比人类快 346 倍;
- 机器类任务(多阶段攻防)略逊于人类(约 0.6 倍速度)。
- 在 AI vs Human CTF 比赛中:
- CAI 获得 AI 组第一名、全球前 20;
- 赢得奖金 750 美元;
- 平均用时比人类快数小时。
4. 漏洞赏金(Bug Bounty)实测
两类测试:
- 非专业用户(普通人) 使用 CAI:
- 发现多个中危漏洞(CVSS 4.3–6.5),包括默认凭证、API暴露、SSL配置错误等。
- 成功提交并获得平台确认。
- 专业漏洞猎人 使用 CAI:
- 发现高危漏洞(如 NoSQL注入、APK中间人攻击)。
- 一周内提交 4 项有效漏洞,最高 CVSS 7.5。
结果:CAI 能让非专业人员在短时间内发现有价值的漏洞,证明其实用性和普适性。
六、对网络安全行业的启示
- 人才缺口的缓解与能力外延:通过“人机协作”,让更多从业者参与到漏洞发现与安全评估,缩短学习曲线,提升覆盖面。
- 攻防自动化走向“可控可审计”:从宏大的“全自动攻防”转向以模式、交接、守护栏与追踪为基础的“可控自动化”,让组织能放心在生产环境试点与落地。
- Bug Bounty 与生态再平衡:开源智能体降低了参与门槛,有望缓解大型平台与少数资源方的集中优势,促进更透明与公平的漏洞发现生态。
- 双用途与伦理治理:AI 安全能力具备双刃属性,需要在组织层面建立明确的使用规范、审批流程、日志与留痕机制,确保合法合规。
- 机器人/OT 安全的紧迫性:随着自主系统与工业机器人广泛使用,面向物理世界的安全风险更不可忽视,CAI展示了在此类场景的适配能力与价值。
- 基准与透明度:通过公开的评估与案例,行业可逐步形成对“AI 在安全中的真实能力边界”的共识,避免神话或低估。
- 组织落地建议:
- 从低风险场景试点:CTF、内网渗透演练、影子环境验证。
- 制定守护栏与审批策略:明确哪些命令需审批、哪些资产不可触达。
- 建立可观察性:统一日志与追踪,便于审计与合规。
- 团队培训与模式沉淀:把成功的协作模式固化为组织的“安全剧本”,提升复用与迁移能力。
七、与“manus”理念的异同
CAI(Cybersecurity AI)与 Manus 都是 2024–2025 年间兴起的“AI自动化代理框架”,但它们出发点、体系设计和自动化思维(automation philosophy)有显著差异,
- CAI 的价值:为安全自动化提供“可控性模型”,防止 AI 滥用;是安全行业迈向 AI 自动渗透 /漏洞发现的关键基础设施。
- Manus 的启示:展示了更灵活、更智能的自治协作模式,未来如果结合 CAI 的安全边界思想,可能孕育出“安全自治智能体”。
我们从目标定位、架构理念、控制与监督、安全边界、认知模型等维度,详细对比两者的“自动化思维异同”。
🧭 7.1、总体定位对比
对比维度 |
CAI (Cybersecurity AI) |
Manus |
主要目标 |
实现从侦察、漏洞扫描、利用、修复的 网络安全自动化全流程 |
实现多智能体协作的 通用任务自动化(General AI Workflow) |
核心领域 |
网络安全(渗透测试、漏洞赏金、CTF、红队/蓝队) |
通用生产力(代码生成、内容创作、运营、研究等) |
设计理念 |
“安全优先的可控自动化” → 自动化必须在可监督、人类在环(HITL)框架下进行 |
“效率优先的协作智能” → 尽量减少人类干预,实现高效并行的多智能体决策 |
使用场景 |
安全研究员、漏洞猎人、SOC团队 |
企业知识工作者、开发者、研究机构 |
开源特征 |
完全开源,强调“民主化安全AI” |
部分开源或API式授权,强调“统一智能体平台” |
🧩 7.2、自动化思维核心差异
7.2.1. 控制哲学:可控 vs 自主
- CAI:安全边界优先
CAI 的自动化逻辑是“人类设定边界,AI 在边界内自由运行”。
它内置 HITL(Human-in-the-Loop)、Guardrails(安全护栏) 和 Tracing(可追踪日志) 三个防线,使系统即便全自动运行,也能随时被暂停、审计或回滚。
👉 自动化思维:“Automation with Supervision(监督式自动化)” - Manus:自治优先
Manus 的自动化追求“让智能体自主协作,无需人类干预”。
它的哲学是最大化 LLM + memory + planning 的组合,让系统自发生成任务、分配角色、完成闭环。
👉 自动化思维:“Automation through Emergence(涌现式自动化)”
7.2.2. 结构逻辑:模块编排 vs 智能涌现
维度 |
CAI |
Manus |
协作结构 |
明确分层(HITL → Patterns → Agents → Tools) |
无固定层次,多智能体通过上下文共享和自组织决策 |
任务调度 |
Patterns + Handoffs 手动定义流程 |
Agent 自主识别任务依赖与协作路径 |
扩展方式 |
插件式(Extensions / Tools) |
动态式(通过语言交互创建新Agent) |
数据流动 |
明确追踪、可审计 |
松散耦合,通过记忆体和上下文传播 |
错误防御 |
Guardrails 检查 + 人类干预 |
基于模型反思与自我修正机制 |
7.2.3. Agent 哲学:角色 vs 自组织体
- 在 CAI 中,agent 是“角色化”的:
- 有严格职责边界(如红队、蓝队、漏洞扫描、报告生成等);
- 由 Patterns 定义谁接手谁的任务(Handoffs);
- 这种结构类似军队指挥链。
👉 强调结构化协作。
- 在 Manus 中,agent 是“自组织体”:
- 每个 agent 能根据上下文自主生成目标与任务;
- 系统允许 agent 互相重构任务图;
- 类似“去中心化组织(DAO)”的思维。
👉 强调智能体自治与动态涌现。
7.2.4. 安全理念:防御型 vs 探索型
角度 |
CAI |
Manus |
设计出发点 |
防止滥用与误操作,确保合法安全 |
最大化智能体协作潜力 |
安全机制 |
Guardrails、Sandbox、审计日志、授权环境 |
Minimal guardrails,以容忍实验性探索 |
风险态度 |
“宁可少做一步,也不越权执行” |
“尝试失败以学习” |
典型应用 |
渗透测试、漏洞挖掘、威胁狩猎 |
文档自动化、代码生成、企业工作流 |
🔍 7.3、共性:共享的“智能体自动化框架”DNA
尽管哲学差异明显,CAI 和 Manus 在“AI 自动化系统”层面上有若干共通点:
共通特征 |
描述 |
多智能体架构(Multi-Agent System) |
两者都采用 Agent-based 框架,通过角色分工完成复杂任务。 |
循环推理机制(Reason + Act + Reflect) |
都遵循 ReAct 思想:智能体先思考(Reason),再执行(Act),再反思(Reflect)。 |
任务链协作 |
无论是 CAI 的 Patterns 还是 Manus 的 Self-Task Graph,本质都是任务图调度。 |
LLM 为核心推理引擎 |
二者的智能体都建立在大型语言模型之上,通过自然语言驱动任务规划与执行。 |
支持插件与扩展 |
都提供工具 / 函数接口,可接入外部系统。 |
面向“可持续自主”演进 |
两者都把当前系统视作“通往 AI 自主工作体”的原型。 |
参考:https://github.com/aliasrobotics/cai?tab=readme-ov-file
注:本文由作者和AI共同完成。

