以ChatGPT为代表的生成式人工智能(AI Generated Content,“AIGC”) 产品仿佛在一瞬间席卷全球,我国互联网行业中的头部企业也相继推出类似产品。可以确定的是,随着技术的不断完善及拓展,AIGC作为一种堪称颠覆式的生产力工具,将必然渗透到经济社会生活的每个角落。在为社会带来技术便利的同时,AIGC产品蕴含的潜在风险很可能或已经引发负面影响。基于算法、模型等技术的更新迭代,如不对AIGC产品进行有效监管和规制,技术伦理、个人信息泄露、负面社会舆论、知识产权侵权等问题将竞相出现。为了规范AIGC的应用,促进其健康发展,2023年4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),为相关主体提供了更为明确的监管指引。本文拟对《办法》的重点条文进行解读,以便读者更好地理解其立法本意。
目 录
一、管辖范围
二、合规义务及责任
三、安全评估及算法备案
四、数据来源合法
五、保护用户信息
六、投诉接收处理机制
一、管辖范围
第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。
本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
解读:本条第一款确定了“属地管辖”的原则,即无论AIGC产品的服务提供者位于何处,只要其向中国境内公众提供服务,均应受本《办法》的规制。而本《办法》中尚未明确的内容在于“公众”二字的理解。根据我们的了解,目前市场上已经有较多企业与以OpenAI为代表的AIGC服务提供者合作,定制仅供其内部使用的AIGC产品。结合本《办法》立法目的及其具体内容,我们倾向于认为该类非公开定制化产品,并不必然属于《办法》监管范畴,但其仍必然处于“三法两条例”(即《网络安全法》《数据安全法》《个人信息保护法》《关键信息基础设施安全保护条例》以及《网络数据安全管理条例》)及相关法规的管辖范围内。因此,相关定制服务的提供者及使用者,仍需关注并重视本《办法》所体现的立法目的及监管方向。需要注意的是,相较于公众化AIGC产品的使用场景,使用定制AIGC产品的公司,在生成内容管理、数据安全保护等方面的监管义务会加重。
二、合规义务及责任
第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。
(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
解读:本条系对AIGC产品生成内容与提供服务过程中提出的基础合规要求。相较于现行法规,《办法》针对AIGC提出了更为细化的要求。且其中部分要求对于AIGC服务提供者来说,较难判断其义务边界。如《办法》要求AIGC生成内容应真实准确,结合后文将要提及的《办法》第七条之规定,若服务提供者需要对每一条数据、生成内容的真实性进行审核,将给服务提供者带来极大的合规成本,甚至将导致其业务无法继续开展。事实上,已经有用户在使用类似产品的过程中,经常性地发现AIGC产品提供了不真实的生成内容。
那么,对于服务提供者来说,若最终合规要求如此,其应如何应对?承《办法》第二条所述:“生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。”对AIGC生成内容的监管,蕴含了对其算法、模型、规则的监管。我们认为服务提供者的合规义务边界,将更多落在技术及规则层面,即相应服务提供者的产品是否具备有效、适当的筛选、审核、过滤等技术、规则,以此实现对敏感词、违规内容、数据来源等关键事项的管理[注1]。
三、安全评估及算法备案
第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
解读:根据《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(以下简称《评估规定》),其列举了五类需要进行安全评估的情形,核心在于相应情形是否具有较强的媒体、社交的社会属性。同时根据《互联网信息服务算法推荐管理规定》(以下简称《算法规定》)第二十四条,其同样针对具有舆论属性或社会动员能力的情形,明确规定需要填报相应信息,完成算法备案。AIGC本身虽然并不必然具有媒体、社交属性,且其应用也并不必然涉及“推荐”行为,但结合前述提及的监管范围,《办法》更多针对面向公众提供的AIGC服务,其明显具有较强的社会属性,因此《办法》亦明确规定了其需要进行安全评估及算法备案。这在一定程度上避免了各方对适用情形理解不一,从而导致规则不能有效落地的风险。
对于AIGC本身来说,不管是安全评估还是算法备案,当无异议。但在实践中,逐渐衍生出大量以AIGC作为底层算法,进行数据再加工或数据嵌套的新型AI产品。对于其是否需要进行安全评估、算法备案,我们认为仍需要回归到《评估规定》《算法规定》及其他专项法规的层面,结合与监管部门的针对性沟通,进行判断。同时,该类再加工、嵌套型产品的提供商,则需注意核查其所使用的AIGC底层算法是否完成了安全评估及算法备案。
四、数据来源合法
第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:
(一)符合《中华人民共和国网络安全法》等法律法规的要求;
(二)不含有侵犯知识产权的内容;
(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;
(四)能够保证数据的真实性、准确性、客观性、多样性;
(五)国家网信部门关于生成式人工智能服务的其他监管要求。
解读:该条与第四条有所呼应,但不同的是,本条规制对象是预训练和优化训练中涉及的各类大规模源数据集,而非经过算法技术生成合成后呈现的内容。根据本条要求,AIGC产品的提供者应对预训练数据、优化训练数据来源的合法性负责。本条还进一步细化了“合法性”这一概念,尤其是第二款第四项对真实性、准确性、客观性所提出的要求,引起了参与方的广泛重视。实践中,很难对海量数据进行传统意义上的真实性核查验证,且AI训练过程中,并非所有源数据均源于现实世界,更是有大量训练过程中产生的拟定数据、假想数据,该类数据本身很难用“真实”与否进行判断。而准确性、客观性则为相对概念,尤其客观性更缺乏可量化、可执行的判断标准。我们认为,现阶段,AIGC提供者能够做到的程度是通过一定的制度、规则、技术,对数据来源进行合理、审慎的筛选并对相应数据进行过滤。最终义务将如何界定,仍需观察本《办法》征求意见稿后续会如何调整。
五、保护用户信息
第十一条 提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。
解读:本条对AIGC提供者处理用户的输入的信息及使用记录作出限制,且与我国《个人信息保护法》(以下简称《个保法》)相比,《办法》设置了形式上更严格的保护限制。《办法》以否定形式明确对能够推断出用户身份的输入信息的非法留存、用户画像及向他人提供作出了限制。
首先,不得非法留存能够推断出用户身份的输入信息。《办法》第九条同样规定了AIGC应依照《网络安全法》的规定要求用户进行实名认证,因此AIGC留存用户在实名认证环节输入的真实身份信息应属于合法留存,不在本条规制之列。我们理解,本条所要规制的是其他方面的用户输入信息,如用户的教育信息、医疗信息、居住信息等。
其次,不得根据用户输入信息和使用情况进行画像[注2]。对于个人信息而言,个人信息处理者进行用户画像属于“使用”个人信息的处理行为,在遵循知情同意的前提下,可以在规定的限制范围内对用户进行画像。而《办法》直接否定了用户画像的行为,提出了更高的限制标准。
再次,不得向他人提供用户输入信息。如前所述,在《个保法》框架下如个人信息处理者履行了知情同意程序,则其有权在用户授权范围内提供用户的个人信息。但《办法》原则上直接禁止了AIGC提供者向他人提供用户输入信息。
最后,对于“法律法规另有规定的,从其规定”的理解。《办法》规制的是“用户输入信息”,而《个保法》规制的是“个人信息”。从范围上来看,“用户输入信息”不仅包括“个人信息”,还包括不具备可识别用户身份属性的“非个人信息”。如果按照字面解释,当用户输入“个人信息时”,AIGC提供者可以依据《个保法》规定的知情同意程序而存储、使用或提供用户“个人信息”,而对于“非个人信息”,依照《办法》的规定,AIGC提供者则不得使用或提供。这将造成逻辑上的悖论:个人信息因其“可识别性”本应受到更强力度的监管与保护,但在上述理解下,“非个人信息”却受到了比“个人信息”更为严格的限制。随着监管实践的开展,上述冲突还有待立法者进一步的解释和完善。
六、投诉接收处理机制
第十三条 提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。
解读:本条要求AIGC提供者建立用户投诉接收处理机制,实际上承接了《个保法》中的行权响应机制[注3],以及时、便捷地配合用户行使其在个人信息处理活动中的权利。
此外,AIGC提供者发现、知悉其生成内容存在侵权或违法违规的情况时,应当采取适当措施避免危害的持续或扩大。此做法类似于网络服务提供者的避风港责任,即其在接到用户投诉、举报通知后,应当及时采取必要措施,否则应就用户损失扩大的部分承担责任。对于本条后半句的理解,即AIGC提供者负有主动采取措施审查生成内容是否侵权或违规的义务,还是仅当存在投诉、举报后,AIGC提供者才负有审查生成内容合法合规性的义务,存在歧义。我们建议,为减少合规风险,AIGC提供者应主动提高日常监测水平,在自我检测、排查的过程中如发现生成内容存在侵权或违规行为的,应当积极主动地采取措施进行处理。
结语:可以看到,《办法》对生成内容、提供者的主体责任、数据信息的合规、算法备案等制度都提出了要求。《办法》出台后,作为继《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》之后的第三部监管特定技术服务的部门规章,有助于配合《个保法》等法律法规,完善数据合规体系。同时,我们也应当看到其仍然存在不明确之处,尚待实践过程中进一步完善。我们期待正式《办法》的早日出台,期待相关行业在合法合规安全的框架下挖掘最大潜能与价值。
注释及参考文献:
[1]《办法》第十九条同样规定,提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
[2]《信息安全技术 个人信息安全规范》(GB/T 35273—2020)规定,用户画像是指通过收集、汇聚、分析个人信息,对某特定自然人个人特征,如职业、经济、健康、教育、个人喜好、信用、行为等方面作出分析或预测,形成其个人特征模型的过程。
[3]《个保法》第五十条规定,个人信息处理者应当建立便捷的个人行使权利的申请受理和处理机制。拒绝个人行使权利的请求的,应当说明理由。
【 特别声明:本篇文章所阐述和说明的观点仅代表作者本人意见,仅供参考和交流,不代表本所或其律师出具的任何形式之法律意见或建议。】
作者简介
李响
国浩上海合伙人
业务领域:合规调查与监管、公司治理、投融资等
邮箱:lixiangsh@grandall.com.cn
张政
国浩上海律师
业务领域:合规调查与监管、投融资及并购、企业常年法律顾问等
邮箱:zhangzhengsh@grandall.com.cn
(国浩上海实习生曹峥对本文亦有重要贡献。)

