大数跨境
0
0

身份与访问控制漏洞已成为企业AI大模型应用安全的“头号威胁”!

身份与访问控制漏洞已成为企业AI大模型应用安全的“头号威胁”! 派拉软件
2025-09-25
3
导读:OWASP发布的《2025年大语言模型(LLM)应用十大安全风险》报告显示:凭据泄露与鉴权相关风险占比近50%

AI正在加速渗透每一个企业的生产力场景,但隐藏在模型背后的身份与访问控制(IAM)漏洞,正在成为企业AI大模型的头号威胁也是企业安全最危险的“定时炸弹”。


据OWASP发布的《2025年大语言模型(LLM)应用十大安全风险》报告显示:凭据泄露与鉴权相关风险占比近50%。


其中身份安全相关的风险主要为凭据泄露、鉴权机制缺失、权限管理不当,成为威胁AI系统安全的核心因素。


随着AI大模型应用带来了一系列安全事件,企业组织也深刻意识到身份与访问控制管理(IAM)在AI时代的重要性。


最新调研显示,85%的组织认为 IAM 对其AI采用与整合“至关重要/很重要”(较上一年79%上升)。


那么,从实际业务场景来看,AI到底带来企业IAM哪些变化?企业组织又该如何应对这些新变化?




01

AI带来哪些身份与访问控制变化?


云原生、远程协作、移动办公、合作方接入让“网络边界”退场,“身份即边界”成为默认前提。AI的快速发展又让“身份面”进一步爆炸式增长,尤其是非人类身份(Non-Human Identities, NHI)。


1

非人类身份激增


AI大模型的应用滋生了更多隐藏的NHI——从模型调用到数据处理再到自动化代理,API Key、服务账号、向量库/数据湖访问令牌、Agent 工具令牌急剧膨胀;公共代码托管中硬编码密钥更是“洪水成灾”。


据多个权威与行业研究显示:NHI数量已远超人类身份,比例已经从 45:1增长到 80+:1。这意味着非人类身份正成为企业新的“身份洪水”。


更重要的是,这些身份不只读数据,还代表用户调用API工作。因此,必须像管真人一样安全管控。


2

调用链更长更外向


每一次生成式AI大模型的使用,看似是一次简单的问答,背后却可能是“智能代理网关 → Prompt 引擎/路由编排 → RAG 管道 → 向量库/数据湖 → 第三方 API/插件/MCP Server”的多跳外呼。


每一跳都会携带身份与权限,任何一处的“过度授权/弱认证”,都会把风险在链路上层层放大。


3

权限域更细更动态


AI生命周期的训练、微调、推理、评测、上线等全生命周期对资源的可见性与操作范围各不相同;数据层面也需要库、表、列、索引、向量空间的精细化授权;对Agent/插件则需按能力颗粒控制......


换句话说,AI应用带来了更细粒度、更动态的访问控制。企业传统的IAM难以应对这样的高要求。


4

AI新攻击面崛起


AI大模型的应用进一步加剧了数据边界的模糊——RAG 把企业知识库嵌入上下文,MCP 将系统能力对大模型开放,“越权召回、提示注入、参数泄露、数据污染”等风险同步放大,并被OWASP归纳进 GenAI/LLM安全风险Top 10。


......




02

AI变化带来哪些IAM能力升级要求?


这些AI带来的变化,意味着企业IAM不再只是“门禁系统”,而是“智能体治理中枢”。其IAM治理范围、能力都亟需进一步升级,具体表现为以下几点:


1

身份治理范围更广


过去,企业IAM往往针对“人”进行管理控制。而现在,企业需要融合非人类身份,将隐藏在系统、架构、Agent中的非人类身份像人一样的统一管理与控制。


2

代表人类授权


大模型在业务场景中的本质角色是“人类代理”,因此必须通过 IAM 机制来界定其行为边界,实现人类对 AI 的“有限授权”。一旦触发敏感操作,系统应停止自动决策并返回请求,确保由人类完成最终授权。


3

动态策略引擎必不可少


AI场景下的访问控制已经无法依赖静态的角色/权限表格。企业需要引入基于ABAC(属性基准访问控制)的动态策略引擎,实时计算用户/Agent的身份属性、数据敏感级别与操作上下文,做到“按需即时授权”。


4

AI全生命周期的细粒度管控


从模型训练到推理上线,每一个阶段所需的数据、工具、算力都不同。IAM需要做到全生命周期的差异化授权:训练阶段的数据批量读取、推理阶段的最小调用权限、上线阶段的只读接口访问,避免“一刀切”的大权限。


5

实时行为检测与异常阻断


AI环境中的调用链更长、外部依赖更多,因此必须在IAM中叠加实时行为检测能力。一旦发现越权访问、异常调用、频繁令牌使用等风险,应能即时阻断并触发告警,而不是事后审计。


6

合规与跨境数据保护集成


大模型天然会涉及数据的跨境流动与调用,IAM不仅要解决“谁能访问”,还必须回答“数据在哪、能不能出境、如何满足GDPR/PIPL等”。未来,IAM必须内嵌数据合规策略,实现身份安全与合规一体化。




03

派拉软件AI-IAM如何助力企业应对?


在此背景下,派拉软件2025年率先推出了AI-IAM(AI大模型身份治理体系),以“统一身份基座 + 动态策略引擎 + AI能力融合”为核心,解决AI与AI Agent访问数据场景下的混合身份治理与权限控制问题,成为当前AI应用安全落地的“刚需性方案”。



整个AI-IAM以统一身份基座为核心,围绕“身份-权限-行为-数据”四维可信闭环,实现从静态管控到动态自适应的升级,核心价值包括:


统一身份基座:打通人 + 非人类身份,实现多源融合与跨系统协同,内建密钥统一管理与数字员工(NHI)生命周期治理;

动态策略引擎:ABAC 属性评估 + PDP/PEP 架构,策略下发/响应闭环,按需自动收缩权限范围,实施更复杂且动态的访问控制,以适应不断变化的任务场景和职责;

AI能力深度结合:以AI 网关为统一落点,联合Prompt 引擎、RAG 管道、MCP Server 管控模型调用、工具边界与数据最小暴露;

合规性提升:AI应用下,敏感数据访问合规率可提升至 90%+;

风险驱动决策:仅仅合规已远远不够。通过引入行为基线、异常检测、紧急熔断,从“被动合规”走向“主动风控”。


以企业实际AI访问数据权限控制应用场景为例:派拉软件AI-IAM系统基于“统一身份 + 动态策略中心 + 实时行为检测引擎+全链路审计”,赋能企业AI应用的两条核心链路:


1

RAG访问控制:AI看资料的门禁系统


当AI要去知识库里“找资料”时,先看你是谁(统一认证,可结合多因素认证/SSO),再用你随身的“权限证件”(JWT 里携带的角色/部门/密级/访问目的等属性)做实时核验(动态权限引擎)。


检索阶段嵌入RAG 过滤器与访问控制点(PEP),只返回你有权看的文档与片段,命中敏感信息则自动遮蔽/脱敏到字段级(多级管控);跨部门协作则按团队/层级差异给到刚好够用的可见范围(分级授权)。


全程纳入实时行为监控 + 全链路审计,必要时输出内容过滤与紧急熔断介入,最终实现“只把你该看的知识放进上下文”的安全可控智能检索。


2

MCP访问控制:AI用工具干活的安全闸


当AI 要“动数据库、调接口、读文件”时,先通过一键登录并对接 AD/LDAP/IAM等,把你的权限标签实时写进 Token;


MCP 过滤器读取后联动策略库做决策(动态权限策略引擎),把授权精确收敛到表/行/列/字段与允许的动作范围(只读/可写等),并按数据敏感等级动态切片与SQL 附加策略约束(多级数据切片管控)。



辅以分级授权与组策略管理,灵活适配跨部门、跨层级场景;一旦越界立刻拦截与告警。全程会话审计与操作录像可追溯,确保“该调的能调、只能按规调”,在最小可用范围内安全完成工具调用。




04

IAM已成为AI时代的企业安全“生死线”


正如《失控》作者凯文·凯利所言:AI时代最大的挑战不是技术本身,而是信任。数字身份正是人类与机器交互的信任协议——一旦缺失,智能社会将陷入混乱与失序。


随着AI的全面加速应用,数字身份这一“信任枢纽”已成为关键。而作为其技术底座的IAM,也被推到前所未有的高度。


非人类身份激增、调用链复杂化、权限动态化、攻击面扩张......都在倒逼企业从传统的“静态管控”升级为“动态自适应”的身份治理。


未来的竞争,不仅比拼算力与算法,更是比拼谁能率先构建起“身份安全内生化”的AI治理体系。




在线咨询



图片

图片



图片

【声明】内容源于网络
0
0
派拉软件
上海派拉软件股份有限公司(简称:派拉软件)是中国领先的新一代信息安全技术公司,数据定义,科技驱动,基于零信任安全体系,融合微服务架构、AI算法、区块链、物联网、大数据等专业信息技术,为企业和机构打造一站式信息安全平台,已成功为汽车、制造、地产、金融、保险、证券、零售、教育、医疗等行业的500+家的客户提供优质与信赖的服务。
内容 406
粉丝 0
认证用户
派拉软件 上海派拉软件股份有限公司 上海派拉软件股份有限公司(简称:派拉软件)是中国领先的新一代信息安全技术公司,数据定义,科技驱动,基于零信任安全体系,融合微服务架构、AI算法、区块链、物联网、大数据等专业信息技术,为企业和机构打造一站式信息安全平台,已成功为汽车、制造、地产、金融、保险、证券、零售、教育、医疗等行业的500+家的客户提供优质与信赖的服务。
总阅读343
粉丝0
内容406