生成式AI(Generative AI,简称GenAI)
根据NIST的定义,生成式AI是指模拟输入数据的结构和特征以生成衍生的合成内容的人工智能模型,这些内容可以包括图像、视频、音频、文本和其他数字内容。
Gartner将GenAI定义为从数据中学习“工件(Artifacts)表示”的人工智能技术,并使用它来大规模生成全新的、完全原始的工件,以保持与原始数据的相似性。
大语言模型(Large Language Model,简称LLM)
根据Gartner的定义,大语言模型是指通过AI在大量文本上接受训练,使其能够解释和生成类似人类的文本输出的一种模型。
通常,LLM属于一种GenAI,但GenAI不一定都是LLM。当前网络空间安全领域应用GenAI主要就是指利用LLM,因此二者经常混用。
大模型(Large Model,简称LM)
大模型通常指的是具有庞大参数数量和复杂结构的机器学习或深度学习模型,具有参数规模大、架构规模大、训练数据量大和算力需求大等特点。
注意:大模型不等于大语言模型!大语言模型只是一种大模型的具体表现。LM既可以用于生成式AI,也可以用于判别式AI。现在很多人经常提“大模型”,同时将其与“大语言模型”等同看待,可能是因为讲“大模型“比较顺口,而讲“大语言模型”有点冗长,或者“LLM“的发音很拗口,其实大语言模型(LLM)和大模型(LM)不是一个意思,需要加以辨别。
小模型(Small Model)
顾名思义,小模型就是相对大模型而言,具有参数规模小、架构规模小,算力需求较小的特点,特别适用于算力资源有限的环境中。这里的小是跟大相较而言的,没有绝对的数值区间,跟1000万参数模型比,80亿参数算大,但跟1000亿参数模型比,80亿就算小了。大模型和小模型有各自适合的应用场景,实际应用中要按需而定,并可以互相配合。
当前,人们经常提及“大模型+小模型“、”大小模型协同“的概念,通常(但不绝对)是指在生成式AI领域,使用大规模参数的LLM和小规模参数语言模型(SLM)混合搭配的方式实现最优化算力配置、最大化应用效果。
随着GenAI技术的飞速发展,现在在较低硬件配置的计算机上就能运行特定领域下实际效果相当不错的小模型,而此时的小模型也常常裁剪为领域专用语言模型(DSLM,Domain-specific language models)。
传统AI
传统AI没有明确定义,只是一种表达方式,泛指除了GenAI之外的AI,譬如传统的符号主义的AI,非神经网络的机器学习,使用神经网络的判别式AI,统计分析技术(数据科学),知识图谱等技术。通常这些AI技术在GenAI大行其道之前已经有了较为成熟的应用,包括当前已经大量使用在网络空间安全领域的各种非生成式AI,譬如基于规则推理的关联分析、基于各种机器学习的异常检测等。
GenAI和传统AI的区别
仅针对安全运营领域而言,GenAI(以及后面讨论的Agentic AI)相较于传统AI,有很大的优势:
GenAI具有较高的普适应。不同于传统AI的专用性,GenAI向通用AI(AGI)迈出了一步,一个模型能够解决多个问题。安全运营的每个领域、运营过程的每个环节都可以利用同一套GenAI,简化工作过程、提升工作效率。在GenAI的赋能下,安全运营的整体运营效率可以获得巨大提升。
GenAI具有较强的普惠性(有的叫民主化)。GenAI通过自然语言交互的体验方式,降低了对应用型技能(如编码、特定规则的语法、工具调用等)的要求,让广大运营人员可以更快上手,更便捷的进行操作,更聚焦安全运营领域的业务型技能(如特定威胁响应的战法、独特的安全知识等)。
GenAI让知识价值快速释放。以往安全运营专家的各种知识(譬如各种安全通用知识和安全报告,各类安全情报,基于资产和漏洞的安全姿态,告警研判、事件调查与响应的技战术方法,包括日志解析规则、关联分析规则、剧本在内的各种安全内容)需要事先经过特定的转换(甚至代码开发)才能加载到安全运营平台中,进而发挥作用。同时,这些知识的验证、更新过程也同样繁琐,甚至无法闭环。GenAI和智能体则能够以近乎自然语言的形式接收、验证和更新这些知识,并将它们充分的连接起来,催动安全运营平台的运转,让知识价值快速释放。
复合式AI(Composite AI)
这是Gartner提出来的面向工程化应用的AI应用模式,指组合利用不同AI技术(包括GenAI、数据科学、机器学习、知识图谱等技术)来提高学习效率,以生成层次更丰富的知识表示。可以将复合式AI理解为GenAI和传统AI的结合。
注意,GenAI不是对传统AI的替代。尽管GenAI具有很多优秀特性,但在针对很多专门的运营问题时,传统AI依然有效,而且表现得更加高效。当前GenAI自身存在的诸多不确定也限制了其发挥,需要利用传统AI予以约束。在工程实践中,不应追求单一类型的AI包打天下,而是要从从性价比的角度,按需使用最合适的AI。复合式AI就是一个将多种不同AI技术整合到一起的AI应用模式。
当前,国际上主流的安全厂商都是用复合式AI赋能安全,而非仅仅依靠生成式AI,譬如Palo Alto Networks的精准AI(Precision AI),CrowdStrike的夏洛特AI(Charlotte AI),SentinelOne的Purple AI以及Splunk AI等。
增强告警分析能力:告警信息解释、告警富化;
简化安全内容的生成:基于自然语言生成查询语句、生成关联分析规则、生成检测脚本;
加速安全事件响应:事件解释、基本的事件调查与信息增强、生成事件响应建议/计划/剧本;
助力暴露管理:资产/漏洞识别、资产/漏洞去重与合并、基本的漏洞处置优先级判断;
加速SOC度量:总结事件响应过程、生成资产/漏洞/事件报告、生成日报周报等报告。
根据人工智能促进协会(AAAI)的定义,智能体是指能感知环境、处理信息并自主决策行动的智能实体。
根据Gartner的定义,智能体是利用人工智能技术进行感知、决策、采取行动,并在数字或物理环境中自主或半自主地追求既定目标的软件实体。
注意,关于AI Agent的中文翻译一直没有统一。笔者认为,Agent可以翻译为“行为体”,而AI Agent则翻译为“人工智能行为体”,简称“智能体”。业界通常还有一种翻译,将Agent称作智能体,而将AI Agent称作AI智能体,笔者认为欠妥,因为AI就已经具有智能的意思。如果称作AI智能体,把AI展开,不就等于是人工智能智能体吗?不通顺。
此外,Agent(行为体)这个概念的历史更为悠久,当AI应用到Agent中之后,就出现了AI Agent。可以认为,AI Agent是Agent发展的必然阶段,从这个意义上来看,AI Agent可以跟Agent互换使用。
同时,AI Agent中的AI并不限于当前热门的LLM/GenAI,而是泛指各种AI,譬如基于编排的专家系统(如SOAR),甚至基于规则的专家系统(如关联分析引擎)都可以看作是某种AI Agent。
LLM的引入将AI Agent带入了一个更高(更自主)的境界。而LLM与AI Agent的结合则反过来将GenAI应用模式从经典的“内容生成”转变为“任务执行”。有的人将基于LLM的智能体称作LLM Agent。
-
规划决策模块是智能体的核心,根据外部输入和记忆模块中的历史信息,分析目标,分解任务,制订行动计划,形成“行动指令”,并交给行动模块执行,并获得执行结果,再判断下一步行动计划,直到做出完成任务的决策,返回最终结果。 -
记忆模块存储智能体运行过程中的关键信息,包括 “历史交互数据、任务状态、环境知识”,支撑决策时的上下文关联与经验复用,避免 “一次性决策”。 -
工具模块存放了智能体为达成任务目标所需的各种应用程和跟外部环境交互的应用接口,包括获取相关信息,实施控制等。 -
行动模块将规划决策模块生成的 “行动指令” 转化为具体操作,与外部环境进行交互,感知环境(如获取信息),改变环境(如控制设备)。完成 “从决策到落地” 的闭环。
Agentic AI这个概念最早见于OpenAI在2023年12月发布的一份白皮书,但其真正成形要归功于吴恩达。他在2024年初红杉资本举办的AI峰会上提及,随后又在Snowflake峰会上进行了完善,并给出了Agentic推理的四种设计模式:反思、工具使用、规划和多行为体协作,从而奠定了Agentic AI的框架基础。2024年10月,Gartner发布2025年十大战略技术趋势,Agentic AI居首。
Gartner将Agentic AI定义为目标驱动的软件实体,这些实体被授予代表组织自主决策和采取行动的权限,使用人工智能技术——结合记忆、规划、感知、工具和护栏等组件——来完成任务并实现目标。
根据AAAI的定义,Agentic AI是指将GenAI和 LLM 集成到自主代理框架中,旨在利用此类模型的生成能力来增强动态环境中的交互性、创造力和实时决策。
Google则将Agentic AI定义为一种使软件系统能够自主行动的AI,它基于目标做出决策并采取行动,最大限度地减少人工干预。
注意,目前国内尚未形成对Agentic AI这个术语的统一中文翻译。Gartner中国称之为“代理式AI”;IDC将Agentic AI称作“自主智能体集群”,Agentic取义为自主;还有的人翻译为“能动型AI”。笔者认为,“代理”二字跟安全运营平台的部署在被监测端点上的“代理”(英文也是Agent)软件相冲突,直译为“代理式AI”不妥。考虑到Agentic AI的核心特征之一就是自主化,因此建议称Agentic AI为“自主式AI”,同Autonomous AI。
Agentic AI和AI Agent的关系
目前,不少人(如康奈尔大学论文《Agentic AI Systems: A Survey》)从系统架构(复杂性)视角来看待AI Agent和Agentic AI的关系,将AI Agent定位为单一的智能体,而将Agentic AI看作是多智能体协作集群,以完成更为复杂的任务。Forrester和IDC亦持此观点。
但笔者更接受吴恩达基于能力程度的视角,认为Agentic AI代表了不同自主程度的智能实体的总称。吴恩达在《Agentic AI: Foundations and Applications》及公开演讲中,尤其是最近发表的Agentic AI公开课中,将 Agentic AI 定义为 “能自主完成感知环境→设定目标→执行行动→反馈优化闭环的 AI 系统”,核心判断标准是 “是否具备自主能力”,而非 “智能体数量”。
笔者认为,AI Agent是一种对Agent的类型划分,关键点还是落在Agent上,AI Agent代表了所有利用AI赋能的Agent,但具体如何赋能、赋能到什么程度,尤其是Agent的“自主程度”(Agency / Agenticness,暂译为“自主程度”)无法表达。正如吴恩达所述,“Agent这个名词是一个二元性的术语,无法进一步区分不同自主程度的Agent”。而Agentic AI代表了一种AI技术的类型划分,并可以认为是生成式AI的一个演进方向,关键点落在了AI上。这时,如吴恩达所言,“Agentic作为一个形容词可以(从AI这个视角来)观察和思考不同自主程度的Agent”。下图是吴恩达Agentic AI公开课中的胶片:
综上所述,Agentic AI与AI Agent与是“抽象框架与具体载体”的包含关系,核心关联围绕 “自主能力” 展开,具体可概括为三点:
Agentic AI 是统称,AI Agent 是落地实体
Agentic AI 是对 “具备自主能力的 AI 系统” 的抽象框架(或能力范畴),强调 “从被动工具到主动执行者” 的属性;而 AI Agent 是这一框架的具体实现载体 ,且被纳入 Agentic AI 的覆盖范围。
AI Agent 的自主能力,是 Agentic AI 的核心体现
Agentic AI 的核心特征是 “自主闭环”,这一特征需通过 AI Agent 落地:无论是初级的单智能体(如规则驱动的 SOAR),还是高级的多智能体(如Agentic SOP/SOC),其自主行动能力都是 Agentic AI 的具象化表现 —— 没有 AI Agent,Agentic AI 就只是抽象的 “自主理念”,无法落地产生价值。
AI Agent 的等级梯度,对应 Agentic AI 的自主程度
Agentic AI 是 一个“自主能力的频谱”(从低自主到高自主),而 AI Agent 的不同等级恰好对应这一频谱的不同位置:初级 AI Agent(如传统 SOAR)对应低自主 Agentic AI,高级 AI Agent(如多智能体协作系统)对应高自主 Agentic AI。
Agentic System是指使用了Agentic AI 技术的应用系统,也叫Agentic AI应用。Agentic AI的最大价值在于其在具体系统中的应用,以及在系统中表现出的自主性。这种自主性的获得不仅要依靠智能体本身,还有赖于与智能体交互的外部环境。
最简单的Agentic系统至少包括一个智能体,但一个Agentic系统通常都会包括多个智能体。这些智能体自主化程度不一,有的是互相独立的,还有的是互相协作的。下图是Gartner提供的一个展示不同自主性智能体之间的协作的示意图。

需要注意的是,Agentic系统中的智能体的自主性并非越高越好,根据应用场景和任务目标,合适的才是最好的。譬如,对于确定的、简单重复的任务而言,规则驱动的、预编排的智能体工作流程(如SOAR剧本)更加高效且稳定。又譬如,在威胁调查和威胁猎捕的时候,高自主性智能体可能比较适用,而在容错率很低的威胁处置的时候,预编排的SOAR剧本可能更加合适。总之,高低自主性的智能体要结合使用。
Agentic SOP / Agentic SOC(自主化安全运营平台/自主化安全运营中心)
可以将Agentic AI赋能的SOP/SOC系统称为Agentic SOP/ Agentic SOC(简称ASOP/ASOC),即自主化安全运营平台/安全运营中心。这里的Agentic AI整体上应具备中等(L3)以上的自主性,采用以LLM为思考中枢的自主式多智能体技术来赋能SOP/SOC。显然,ASOP/ASOC是面向安全运营领域的特定Agentic系统。
对ASOP/ASOC而言,Agentic AI将LLM的思考力和智能体的行动力结合起来,借助知识检索和工具调用,一方面可以主动获取安全分析所需的情境(上下文)数据,基于更多的相关性数据进行思考、理解和内容生成,做出更全面的研判和调查;另一方面可以编排各种安全控制指令,调整安全防御体系的工作姿态,做出更恰当的响应。同时,借助多智能体(也叫集群智能体)技术,将整个思考和行动的过程分解到不同的智能体上,让每个细化的目标执行过程更加专业精准,最终更好地实现整体目标。
SOP/SOC的自主化水平划分
基于前面的分析,我们可以建立一个针对安全运营平台(SOP)/安全运营中心(SOC)的自主化水平梯度的划分模型,如下图所示:

L0表示非自主化SOP/SOC。这时,安全运营工作完全依赖人类,各种安全运营工作都采用人工操作来完成,人类分析师手工配置和操作各种安全运营工具。
L1表示具备初步自主性的SOP/SOC。这时,安全运营工作实现了对重复性工作的自动化,采用基于规则的专家系统(如SOAR)自动执行,流程和工作步骤都是预先定义好的,各种安全运营工具的调用也是提前编排好的。
L2表示引入LLM并具备了一定的自主性的SOP/SOC。这时,安全运营工作以人为主,LLM充当人类的辅助工具,安全运营工作的流程和步骤依然是预先定义好的,工具调用也依然是预先编排好的,但运营的部分流程节点调用了LLM,实现了部分工作的自主化。
L3表示以LLM为思考中枢的真正具备自主规划和决策的SOP/SOC(也称作SOC4.0或Agentic SOP/SOC)。这时,LLM成为了人类的伙伴而非简单工具,但人类仍需要参与到运营的各个环节(包括配置、监督、决策、优化等),安全运营工作基于LLM进行规划和决策,自主生成达成任务目标的流程和步骤,并能够自主地调用安全运营工具(包括LLM和基于传统AI的工具),但这些工具需要提前准备好。
L4表示高度自主化的SOC/SOP。这时,AI将自主开展大部分安全运营工作,人类更多行使监督和指导的角色,主要运营工作的流程和步骤都是自主生成、自主决策、自主优化的,并且能够自主创造新的安全运营工具并按需使用。
图中没有绘制L5(完全自主化)级别的SOP/SOC,因为在可以预见的未来,这个级别是无法达成的,并且可能永远也无法达成。
总结
随着以LLM为代表的GenAI能力的不断提升,以及Agentic AI技术框架的不断演进,以LLM为核心的目标驱动的自主智能体技术将不断深入应用到安全运营领域。未来的安全运营平台/安全运营中心将极大被Agentic AI赋能,并催生出全新的安全运营的人员组织架构、数据架构和流程架构。

