大数跨境
0
0

2025 AI数据危机:从35款App泄密看安全防线的崩塌与重建

2025 AI数据危机:从35款App泄密看安全防线的崩塌与重建 数智安全行动计划
2025-10-16
1
导读:数据安全是 AI 创新的生命线。



2025 年 AI 数据安全风险集中爆发,国家网络与信息安全信息通报中心通报的 35 款违规 App 中 AI 工具占比超七成,公安部 “护网 - 2025” 专项行动也查处了 4.2 万条人脸数据流入非法训练库的大案,数据安全已成为 AI 产业发展的明显短板,且数据安全失守并非孤立问题,还会沿 “数据 - 应用 - 模型 - 服务” 链条传导,引发应用权限滥用、模型遭逆向攻击、服务因供应链漏洞中断等衍生风险。



一、2025 年 AI 数据安全第一案:35 款 App 的采集黑洞


2025 年 月,国家网络与信息安全信息通报中心《2025 年上半年移动应用安全检测报告》明确指出,腾讯应用宝平台 35 款 App 存在违法违规收集个人信息问题,其中 AI 类工具占比 71%,涉及智谱华章 智谱清言、月之暗面 “Kimi” 等头部 AIGC 产品。通报细节显示:智谱清言超范围收集用户通讯录、位置轨迹信息(超出 “AI 对话功能” 必要范围);Kimi 存在 每 10 分钟自动采集设备信息” 的高频行为,与业务功能无关联;15 款视频剪辑类 AI 工具(如 快剪 AI”“剪映 Pro AI )未通过弹窗告知用户,即默认开启相册数据读取权限。


2025 年 月,公安部 护网 - 2025” 专项行动官方发布会披露:北京某主营 AI 训练数据服务的科技公司,在处理 4.2 万条人脸生物信息时,未按《个人信息保护法》要求开展个人信息保护影响评估(PIA),将未脱敏数据直接出售给 家第三方 AI 企业用于模型训练,部分数据流入暗网后被用于 AI 换脸诈骗,已查实关联诈骗案件 17 起。由此可见,训练数据合规性缺失已成为行业普遍问题。


二、数据安全失守的三重病根


1. 合规评估的系统性缺位


涉事企业普遍存在重技术轻合规” 倾向。某数据公司行政处罚决定书显示,该公司为缩短模型训练周期,擅自将用户授权协议中 必要信息” 范围扩大至通讯录、位置轨迹,且未按要求开展 PIA 评估,直至被查处时仍未补做相关手续。


2. 数据全生命周期管控失效


35 款涉事 App 中,12 款存在 采集 存储 使用” 环节管控断裂问题。典型案例为某 AI 教育工具 小优 AI 课堂:其将采集的 1.8 万条未成年人学习数据(含作业内容、学习轨迹),未经脱敏直接传输至境外亚马逊云服务器用于模型训练,且未建立数据销毁机制,部分数据留存超 


3. 技术设计的 数据饥渴” 陷阱


生成式 AI 对数据量的追求催生 采集依赖症IDC2025 年全球 AI 训练数据市场报告》调研显示,62% 的中小 AI 企业为提升模型精度,通过爬虫抓取公开数据或购买灰色数据源,且未进行合法性核验。典型案例为某视频剪辑 AI 工具 剪酷 AI”:其通过爬虫技术抓取用户未公开相册数据(含私人生活照)用于训练 智能配乐” 模型,导致 20 万张照片流入暗网,涉事企业被处以 500 万元罚款。


三、风险传导:从数据安全到全域危机


数据安全失守引发应用安全、模型安全、服务安全的连锁反应:


1. 应用安全:权限滥用与漏洞泄露


AI 应用层安全漏洞成为数据泄露的直接通道。2025 年 月,国家信息安全漏洞共享平台(CNVD)披露:某医疗 AI 应用 医诊 AI” 存在权限越界漏洞,攻击者可通过伪造用户 Token 获取他人问诊记录、病历数据,已导致 3000 条患者隐私信息泄露。另据统计,67% 的 AI 应用存在 默认开启高危权限” 问题,如 “AI 办公助手” 类应用中,82% 默认申请 读取聊天记录” 权限,远超业务需求。


2. 模型安全:数据漏洞引发模型失控


训练数据问题直接导致模型安全危机。2025 年 月,某医疗 AI 企业的 肺结节检测 AI 模型” 因训练数据包含未脱敏病历(含患者身份证号、病史),被黑客通过 模型逆向攻击” 窃取核心参数,导致 1.2 万条患者隐私泄露,该事件被列入 “2025 年全球 AI 安全十大事件。此外,某股份制银行 小微贷 AI 审批模型” 因训练数据被注入虚假交易记录,出现算法偏见,对小微企业拒贷率从 15% 骤升至 55%,引发监管约谈。


3. 服务安全:可用性中断与供应链风险


AI 服务运行环节的安全漏洞影响全域稳定性。2025 年 月,阿里云 通义千问” API 服务因第三方依赖组件(某开源 AI 推理框架)存在漏洞,导致服务中断 小时,影响超 10 万家企业用户;同期,百度智能云 文心一言” 服务因未对第三方训练数据供应商进行安全审核,接入含恶意代码的训练数据集,导致模型输出涉敏内容,被暂停服务整改。


四、ASG 体系:风险治理的精准导航


参照中国信通院《人工智能安全治理体系ASG)》(来源:护航人工智能,首批AI安全治理能力评估启动!数据 模型 应用 服务-通用” 全链条构建防护网,针对性化解上述风险:


1. 数据安全筑基:落实全生命周期防护


依据 ASG “数据安全” 模块要求,企业需建立模型数据处理活动安全、数据集安全和标注安全的全面管控机制。其中模型数据处理活动安全应覆盖数据全生命周期安全:采集环节严格遵循最小必要” 原则,避免原始数据出境;存储环节采用国密算法 SM4 加密,参照 GB/T 45654-2025《人工智能训练数据安全要求》,确保训练数据中违法信息占比低于 5%;销毁环节需留存审计日志,保存期限不少于 年。


2. 模型算法与应用安全:双轨防护阻断风险传导


针对模型算法安全风险,ASG “模型算法安全” 模块要求企业实现模型算法合规,模型生成安全和模型抗攻击能力。技术上通过对抗样本训练提升模型鲁棒性;管理上建立AI安全评估、测试机制委托第三方机构开展。针对应用安全风险,ASG “应用安全” 模块明确要求企业根据AI应用类型建立相关的安全保障措施,如内容安全、智能体安全等,并持续开展AI安全风险监测与处置


3. 服务与通用安全:供应链与可用性双重保障


呼应 ASG “服务安全与通用安全” 模块要求,企业需构建 供应链安全 可用性保障” 体系:供应链管理建立第三方供应商准入和评估监督机制同时,建立覆盖基础算力安全、计算框架安全、软硬件漏洞修复、网络安全等的基础设置平台安全保障AI服务的可用性。


结语:数据安全是 AI 创新的生命线


数据安全是 AI 安全的根基,而应用、模型、服务安全是风险传导的关键环节。信通院 ASG 体系通过全链条治理框架,既明确了合规边界,又提供了可落地的实践路径。只有将 ASG 要求嵌入 AI 研发、运营全流程,才能实现 安全与创新” 的协同发展,真正筑牢 AI 时代的安全防线。


ASG评估业务联系人:刘老师 18500238315

 

数据来源:

1国家网络与信息安全信息通报中心《2025 年上半年移动应用安全检测报告》

2国家网信办“App 违法违规收集使用个人信息专项治理” 2025 年第 期通报

3公安部网络安全保卫局 2025 年 月 15 日新闻发布会通报

4北京市网信办 2025 年行政处罚公示平台

5教育部教育类 App 安全专项检查” 2025 年通报

6工业和信息化部侵害用户权益行为的 App 通报” 2025 年第 

7国际网络安全研究所(INCS2025 年报告

8北京市通信管理局 2025 年 AI 服务安全监管通报


【声明】内容源于网络
0
0
数智安全行动计划
围绕数据安全与人工智能安全相关工作,从政策解读、标准建设、评估测试、咨询服务、人才培训等方面搭建数智安全交流平台,构建数智安全专业社群。
内容 342
粉丝 0
数智安全行动计划 围绕数据安全与人工智能安全相关工作,从政策解读、标准建设、评估测试、咨询服务、人才培训等方面搭建数智安全交流平台,构建数智安全专业社群。
总阅读829
粉丝0
内容342