自动化决策
用户画像
个性化推送

2025年10月1日,推荐性国标GB/T 45392-2025《数据安全技术 基于个人信息的自动化决策安全要求》(下文简称45392)就要生效了。趁这个机会我去研究了下自动化决策、用户画像、个性化推送这三个我们常见且混用的词组到底是什么关系,再梳理了各自项下的合规义务。也请大家看看我的理解对不对。
一、自动化决策、用户画像和个性化推送到底是什么关系?
我的结论:
自动化决策包括两个步骤,用户画像和决策。所以自动化决策一定有用户画像(这是PIPL的定义,GDPR不同,见本文最后一部分),但用户画像不一定用于自动化决策。
个性化推送(也有叫个性化展示或者个性化推荐的,我理解这三个词代表的技术原理和合规要求一致,只是使用场景有区别)是“自动化决策”中“决策”的应用场景之一,其他场景包括信用评价、招聘决策、保险测算、执法评估、交易定价、访问控制等。

45392很明确地说了自动化决策是由两部分组成的——特征生成和决策,还对特征生成给了一个更加详细的步骤说明——特征生成的过程包括特征提取、特征选择、特征计算和特征输出等步骤。特征提取是指从原始的个人信息中提取出有价值信息的过程。特征选择是指从提取的特征中选择就特定业务目的来说最有用的特征的过程,其目的是降低维度,减少计算量,并避免过拟合。特征计算是指基于选择的特征计算新的特征或修改现有特征的过程。特征输出是指将处理好的个人特征信息作为输入,以支持针对个人的决策——我理解这段话和35273定义的“用户画像”所表达的意思是一样的,用大白话讲就是基于个人数据分析,形成对用户的兴趣、偏好、行为模式等的画像,很多ToC平台后台“打标”的过程就是用户画像。
(45392的图)
至此,我认为用户画像是自动化决策的前半段。作为佐证,全国人大常委会法制工作委员会发言人臧铁伟在个保法立法草案的记者会上也曾表示“自动化决策包括用户画像、算法推荐等这些新技术新应用”(https://cn.chinadaily.com.cn/a/202108/13/WS61160befa3101e7ce975e95f.html)。
至于后半段“决策”,45392说:决策是“以计算机程序生成的个人特征信息为输入,计算机程序产生的能影响个人自身状态、其所处的物理或虚拟环境的预测、内容、建议和决定等输出”;“决策活动可不同程度人工参与,也可无需人工参与”。我理解,我们常说的“个性化推送/个性化展示”就是内容输出;“个性化推荐”就是预测输出。它们都是“决策”环节的应用场景。除此之外,还有信用评价/信贷审批、招聘与人力资源决策、保险定价和理赔、执法风险评估、动态定价/市场交易,以及资格审核/访问控制等输出场景。
当然,既然是“个性化推送”,一定少不了个性化的过程,而这个过程又涉及到特征生成,因此个性化推送所代表的数据处理完整过程应当与自动化决策无异。
二、自动化决策的合规动作
01
个人信息保护影响评估
个保法55条规定,不展开了。
02
个性化推送需要提供拒绝自动化决策的便捷方式
这个合规点是仅针对个性化推送的。该要求在个保法和网数条例都有提,但网数条例实质更多了一层要求,要求提供标签可删的便捷功能:
个保法24条:通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。
网数条例42条:网络平台服务提供者通过自动化决策方式向个人进行信息推送的,应当设置易于理解、便于访问和操作的个性化推送关闭选项,为用户提供拒绝接收推送信息、删除针对其个人特征的用户标签等功能。
下图是打样:

另外,关于标签可删的要求,45392第10.7条还给了更详细的指导意见。我觉得都是实践痛点,值得推广:
应允许用户跳过标签选择页面
应提供兴趣标签查看功能,向用户展示用于个性化内容推送的个人兴趣标签
用户选择关闭个性化内容推送选项后,平台应立即停止个性化内容推送且不影响用户正常使用,不应频繁通过弹窗等方式提醒用户开启
不应利用用户标签进行诱导营销和过度推荐
不应将歧视性、偏见性、炫富、色情、暴力、极端和低俗等违法和不良信息关键词记入用户标签
应通过设置“不感兴趣”“此类内容过多”“重复推荐”等功能选项,或向用户提供个人兴趣标签管理功能等形式,允许个人动态调整个性化内容推送中不同种类内容的比例。
03
对个人权益有重大影响的纯自动化决策需要提供拒绝选项
这一点也来自个保法第24条:通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。
这一条的合规要求可以分解为三层:
第一、什么是对个人权益有重大影响?45392已经在定义中给了答案:剥夺法定权益、限制自由行动、限制入境、被执法机关强制监管、对个人产生排斥或歧视效应,或其他具有长远影响的决策。
第二、24条前半句要求提供说明是对知情权的强调,无甚新意。
第三、24条后半句要求纯自动化决策需要提供拒绝选项。我理解纯自动化就是没有人工参与,完全由计算机程序根据个人特征信息而作出的决定。
此前我们“别泄露了”播客小组曾经讨论过一个很有意思的案例(那期录音效果不好没发
),在招聘场景下如果用AI对简历做初筛,得到三个候选人以及他们的推荐程度,但最后拍板还是CEO审核材料后选定。这种情况叫纯自动化么?如果在初筛轮是一个技术上的纯自动化,但最后招聘决定是由人工做出的,这个决策是否就不属于“纯自动化决策”了?我的观点是这种情况也属于自动化决策,理由是:对于整个招聘活动而言引入AI辅助虽然不构成纯自动化,但对于被筛掉的人而言,不进入下一轮就已经是终局决定了,所以所有的候选人都应当赋予拒绝权利。想看看大家有没有不同意见?
04
自动化决策算法要合规
45392要求自动化决策算法得合规,并且写了长长的三页纸(感兴趣可以去看原文第7部分,部分内容与35273第7.7条重合)。我理解转化为大型实践动作包括:做算法影响评估(对个人权益有重大影响的算法需要每半年做一次评估);确保算法具备人工介入功能,以及保留算法开发技术文档。
此外,有较大概率自动化决策算法(特别是个性化推送算法)落入《互联网信息服务算法推荐管理规定》,需要满足此规定的合规要求,包括引人注目的算法备案和算法公示。
05
个性化推送有区别提示要求
35273还要求,在向个人信息主体提供业务功能的过程中使用个性化展示的,应显著区分个性化展示的内容和非个性化展示的内容。显著区分的方式包括但不限于:标明“定推”等字样,或通过不同的栏目、版块、页面分别展示等。
|
|

除了上述部分,45392第10部分列举了以下场景的特别安全要求:教育或职业机会、信用贷款或保险评估、社会福利资格等公共治理领域、劳动关系领域、特殊群体(儿童、老年人)、信息推送和商业营销、商业交易。我读下来总结为“公平、合理、透明、无歧视”。如果企业属于这些场景/领域,还是建议再仔细读读。
三、我的疑问:自动化决策(个性化推送)是opt out吗?
我觉得不是。自动化决策本质上是一种数据处理的方法,它就像是一座桥被架在数据字段和目的之间,是实现目的的手段而已。上文提到的“个性化推送关闭选项”(opt out)是指提供另一种搭桥手段。但实现目的的过程——无论是否基于用户画像做决策——总会涉及个人信息处理,需要满足个人信息处理活动的合规要求。
自动化决策作为一种数据处理活动是需要合法性基础的。如果合法性基础是同意,在个保法的语境下就应该是opt in而非opt out。这一条在网数条例征求意见稿中还被特别提出了(但正式稿删掉了):
但有一个疑问是,实践中似乎没人管过个性化推送涉个人信息处理的合法性基础?微信在朋友圈里加广告之前也没有先问问我能不能给我发广告?
我猜测有可能是因为最初收集这些用于个性化推送的数据是有其他目的(例如提供服务,此处可以cue一下最高法数据权益司法保护专题指导性案例第265号案——不能以仅提供个性化决策推送信息这一种业务模式为由,主张收集用户画像信息为其提供服务的前提)。既然原始处理活动有了一个合法性基础,后续再用同一份数据做用户画像时,大家就默认延伸适用;再加上opt out作为一种“最后防线”,在实务中形成了事实上的容忍。
但从法理上,就是缺了一环,我无法自圆其说。也想看看大家有没有其他能够闭环的逻辑。
四、中国和欧盟对于自动化决策的规定不一样
最后我提几个观察到的中国和欧盟对于“自动化决策”的差异。此处插入广告:你可能不知道的 | PIPL与GDPR对比
01
定义不同
GDPR下并没有对自动化决策(automated decision-making)作出明确定义,而且第22条的标题叫做Automated individual decision-making, including profiling。我一直对这种写法感到困惑。既然用户画像属于自动化决策的前半部分,为什么还要特别强调了?
后来我在WP29的指南(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679)里找到答案:在GDPR框架下,用户画像并不属于自动化决策的构成部分,二者的范畴是重叠但不同的。

这也就意味着,GDPR自动化决策不必经过用户画像。WP29还举了一个很生动的例子:开具超速罚单可以仅基于摄像机记录的速度,而无需做用户画像(交警仅针对超速这个客观要素开罚单,不管超速这件事表明驾驶员是一个怎样性格的人)。
但这一点和PIPL所规制的“自动化决策”是不同的。PIPL所说的“自动化决策”必然包含了用户画像的步骤。除了以上文对自动化决策和用户画像关系的辨析为依据外,张新宝教授主编的《<中华人民共和国个人信息保护法>释义》中也有写到:界分自动化决策概念的关键在于是否符合利用个人信息进行“分析、评估并进行决策”的目的,不以此为目的的个人信息收集、分类或总结等活动即使包含自动处理过程,也并非本条所涵摄的自动化决策场景。
这个区别在实践中会有多大的影响呢?我还没想清楚。我把这个问题抛给GPT,它给了一个很文艺的答案:GDPR的“自动化决策”是一个窄口径的高风险概念(不一定有画像);而PIPL的“自动化决策”是一个宽口径的画像驱动概念(画像必然存在)。但我仍然无法想到一个真实的场景区别。如果大家有想到也请告诉我,谢谢。
02
告知要求的强制性程度不同
但是PIPL并没有做出类似规定。虽然从逻辑上可以将上文讨论的“拒绝权”解释为“不告知怎么拒绝,所以必然会告知的”,但实践中我鲜少看到用文字形式清晰、完整告知自动化决策情况的案例。在犄角旮旯的位置提供关闭自动化决策选项已经是被推崇合规做得好的了。不过,由于国内最近严抓算法合规,而算法公示义务(《互联网信息服务算法推荐管理规定》第十六条)要求公示算法推荐服务的基本原理、目的意图和主要运行机制等,一定程度上客观提升了自动化决策的透明度。
03
自动化决策场景下处理特殊类型个人数据的合法性基础不同
对于处理特殊类型数据(GDPR和PIPL圈定的范围不一样)做自动化决策,PIPL并无特殊限制,但是GDPR有。
GDPR限制只能基于(i)数据主体明确同意或(ii)为了公共利益两种合法性基础,才能对特殊类型个人数据做自动化决策。
04
拒绝权的适用范围不同
对于GDPR而言:如果自动化决策场景下处理数据的合法性基础是公共利益和正当利益,那么数据主体就可以随时拒绝。此处又出现了公共利益,结合3、4点可知:GDPR数据控制者可以基于公共利益将特殊类型个人数据用于自动化决策,但如果数据主体拒绝了,就不行。
对于PIPL而言:由于自动化决策场景下处理数据需要具备合法性基础这个点并没有被单独拎出来(就是我上文说的黑不提白不提),所以我暂时默认拒绝权对应所有的合法性基础。
05
对于纯自动化决策的规制严格程度不同
对于纯自动化决策,GDPR比PIPL严格很多。
GDPR下对个人有重大影响的纯自动化决策以禁止为原则,豁免为例外。例外是指以履行合同所必需、成员国法律授权,以及数据主体明确同意这三种情况。但即便是豁免,数据主体也有权要求人为干预并对决定提出质疑。
但在PIPL下对于对个人有重大影响的纯自动化决策,个人数据主体也只是有拒绝权而已。

实话实说,在对比之前我并未感受到两部法律对于自动化决策这个点存在如此大的差异。既然如此,在做合规落地时,与其强行对标,不如单独审视吧。
作者|肖莆羚令
审稿|路过的好人、Angie

-
法规解析:
人脸识别:人脸识别技术应用安全管理办法、关于开展人脸识别技术应用备案工作的公告
身份认证:国家网络身份认证公共服务管理办法
视频监控:公共安全视频图像信息系统监督管理工作规定
数据出境:自贸区(北上浙天海)跨境规则梳理、数据出境安全管理政策问答(2025年5月)
安全事件:中国人民银行业务领域网络安全事件报告管理办法
个保审计:一起读 | 端午合规大礼包
处罚:网信部门行政处罚裁量权基准适用规定(征求意见稿)
-
从业观察:
数据控制者和处理者,到底怎么分?
隐私政策合规问答
双清单:混乱的双清单、双清单之游戏厂商篇
模型训练阶段的个人信息处理合法性基础
数据控制者和处理者,到底怎么分?
模型训练阶段的个人信息处理合法性基础
个人信息流转:对外提供与个人信息转移权的多维解析
合规负责人:数据合规负责人岗位梳理、个人信息保护负责人申报答疑
谁配做个保审计业务?
-
GDPR:
合法性基础:模型训练阶段的个人信息处理合法性基础、Meta基于“正当利益”使用个人信息训练AI案、广告合规重磅裁决:TCF 2.0 被裁定违反GDPR
数据跨境:手把手帮你选SCCs(GDPR版)、GDPR第48条(跨境减损条款)解析、TikTok爱尔兰数据跨境处罚案、Uber荷兰数据跨境处罚案
DPO:EU Representative vs DPO
GDPR罚金计算规则
PIPL与GDPR对比
-
GDPR之外:

