2025 年 AI 数据安全风险集中爆发,国家网络与信息安全信息通报中心通报的 35 款违规 App 中 AI 工具占比超七成,公安部 “护网 - 2025” 专项行动也查处了 4.2 万条人脸数据流入非法训练库的大案,数据安全已成为 AI 产业发展的明显短板,且数据安全失守并非孤立问题,还会沿 “数据 - 应用 - 模型 - 服务” 链条传导,引发应用权限滥用、模型遭逆向攻击、服务因供应链漏洞中断等衍生风险。
一、2025 年 AI 数据安全第一案:35 款 App 的采集黑洞
2025 年 5 月,国家网络与信息安全信息通报中心《2025 年上半年移动应用安全检测报告》明确指出,腾讯应用宝平台 35 款 App 存在违法违规收集个人信息问题,其中 AI 类工具占比 71%,涉及智谱华章 “智谱清言”、月之暗面 “Kimi” 等头部 AIGC 产品。通报细节显示:智谱清言超范围收集用户通讯录、位置轨迹信息(超出 “AI 对话功能” 必要范围);Kimi 存在 “每 10 分钟自动采集设备信息” 的高频行为,与业务功能无关联;15 款视频剪辑类 AI 工具(如 “快剪 AI”“剪映 Pro AI 版”)未通过弹窗告知用户,即默认开启相册数据读取权限。
2025 年 9 月,公安部 “护网 - 2025” 专项行动官方发布会披露:北京某主营 AI 训练数据服务的科技公司,在处理 4.2 万条人脸生物信息时,未按《个人信息保护法》要求开展个人信息保护影响评估(PIA),将未脱敏数据直接出售给 3 家第三方 AI 企业用于模型训练,部分数据流入暗网后被用于 AI 换脸诈骗,已查实关联诈骗案件 17 起。由此可见,训练数据合规性缺失已成为行业普遍问题。
二、数据安全失守的三重病根
1. 合规评估的系统性缺位
涉事企业普遍存在“重技术轻合规” 倾向。某数据公司行政处罚决定书显示,该公司为缩短模型训练周期,擅自将用户授权协议中 “必要信息” 范围扩大至通讯录、位置轨迹,且未按要求开展 PIA 评估,直至被查处时仍未补做相关手续。
2. 数据全生命周期管控失效
35 款涉事 App 中,12 款存在 “采集 - 存储 - 使用” 环节管控断裂问题。典型案例为某 AI 教育工具 “小优 AI 课堂”:其将采集的 1.8 万条未成年人学习数据(含作业内容、学习轨迹),未经脱敏直接传输至境外亚马逊云服务器用于模型训练,且未建立数据销毁机制,部分数据留存超 3 年。
3. 技术设计的 “数据饥渴” 陷阱
生成式 AI 对数据量的追求催生 “采集依赖症”。IDC《2025 年全球 AI 训练数据市场报告》调研显示,62% 的中小 AI 企业为提升模型精度,通过爬虫抓取公开数据或购买灰色数据源,且未进行合法性核验。典型案例为某视频剪辑 AI 工具 “剪酷 AI”:其通过爬虫技术抓取用户未公开相册数据(含私人生活照)用于训练 “智能配乐” 模型,导致 20 万张照片流入暗网,涉事企业被处以 500 万元罚款。
三、风险传导:从数据安全到全域危机
数据安全失守引发应用安全、模型安全、服务安全的连锁反应:
1. 应用安全:权限滥用与漏洞泄露
AI 应用层安全漏洞成为数据泄露的直接通道。2025 年 7 月,国家信息安全漏洞共享平台(CNVD)披露:某医疗 AI 应用 “医诊 AI” 存在权限越界漏洞,攻击者可通过伪造用户 Token 获取他人问诊记录、病历数据,已导致 3000 条患者隐私信息泄露。另据统计,67% 的 AI 应用存在 “默认开启高危权限” 问题,如 “AI 办公助手” 类应用中,82% 默认申请 “读取聊天记录” 权限,远超业务需求。
2. 模型安全:数据漏洞引发模型失控
训练数据问题直接导致模型安全危机。2025 年 7 月,某医疗 AI 企业的 “肺结节检测 AI 模型” 因训练数据包含未脱敏病历(含患者身份证号、病史),被黑客通过 “模型逆向攻击” 窃取核心参数,导致 1.2 万条患者隐私泄露,该事件被列入 “2025 年全球 AI 安全十大事件”。此外,某股份制银行 “小微贷 AI 审批模型” 因训练数据被注入虚假交易记录,出现算法偏见,对小微企业拒贷率从 15% 骤升至 55%,引发监管约谈。
3. 服务安全:可用性中断与供应链风险
AI 服务运行环节的安全漏洞影响全域稳定性。2025 年 8 月,阿里云 “通义千问” API 服务因第三方依赖组件(某开源 AI 推理框架)存在漏洞,导致服务中断 2 小时,影响超 10 万家企业用户;同期,百度智能云 “文心一言” 服务因未对第三方训练数据供应商进行安全审核,接入含恶意代码的训练数据集,导致模型输出涉敏内容,被暂停服务整改。
四、ASG 体系:风险治理的精准导航
参照中国信通院《人工智能安全治理体系(ASG)》(来源:护航人工智能,首批AI安全治理能力评估启动!)“数据 - 模型 - 应用 - 服务-通用” 全链条构建防护网,针对性化解上述风险:
1. 数据安全筑基:落实全生命周期防护
依据 ASG “数据安全” 模块要求,企业需建立模型数据处理活动安全、数据集安全和标注安全的全面管控机制。其中模型数据处理活动安全应覆盖数据全生命周期安全:采集环节严格遵循“最小必要” 原则,避免原始数据出境;存储环节采用国密算法 SM4 加密,参照 GB/T 45654-2025《人工智能训练数据安全要求》,确保训练数据中违法信息占比低于 5%;销毁环节需留存审计日志,保存期限不少于 3 年。
2. 模型算法与应用安全:双轨防护阻断风险传导
针对模型算法安全风险,ASG “模型算法安全” 模块要求企业实现模型算法合规,模型生成安全和模型抗攻击能力。技术上通过对抗样本训练提升模型鲁棒性;管理上建立AI安全评估、测试机制,可委托第三方机构开展。针对应用安全风险,ASG “应用安全” 模块明确要求企业根据AI应用类型建立相关的安全保障措施,如内容安全、智能体安全等,并持续开展AI安全风险监测与处置。
3. 服务与通用安全:供应链与可用性双重保障
呼应 ASG “服务安全与通用安全” 模块要求,企业需构建 “供应链安全 + 可用性保障” 体系:供应链管理建立第三方供应商准入和评估监督机制;同时,建立覆盖基础算力安全、计算框架安全、软硬件漏洞修复、网络安全等的基础设置平台安全保障AI服务的可用性。
结语:数据安全是 AI 创新的生命线
数据安全是 AI 安全的根基,而应用、模型、服务安全是风险传导的关键环节。信通院 ASG 体系通过全链条治理框架,既明确了合规边界,又提供了可落地的实践路径。只有将 ASG 要求嵌入 AI 研发、运营全流程,才能实现 “安全与创新” 的协同发展,真正筑牢 AI 时代的安全防线。
ASG评估业务联系人:刘老师 18500238315
数据来源:
1、国家网络与信息安全信息通报中心《2025 年上半年移动应用安全检测报告》
2、国家网信办“App 违法违规收集使用个人信息专项治理” 2025 年第 2 期通报
3、公安部网络安全保卫局 2025 年 9 月 15 日新闻发布会通报
4、北京市网信办 2025 年行政处罚公示平台
5、教育部“教育类 App 安全专项检查” 2025 年通报
6、工业和信息化部“侵害用户权益行为的 App 通报” 2025 年第 8 期
7、国际网络安全研究所(INCS)2025 年报告
8、北京市通信管理局 2025 年 AI 服务安全监管通报

