大数跨境
0
0

AI法律研究 | 《网络安全法》修订对人工智能的法律回应

AI法律研究 | 《网络安全法》修订对人工智能的法律回应 君泽君律师
2026-01-28
1
导读:作者:王新淼


2025年3月28日,国家网信办发布关于公开征求《中华人民共和国网络安全法(修正草案再次征求意见稿)》意见的通知,就《网络安全法》的修订事宜第二次公开征求意见。相较于2022年的首次征求意见稿,本次修正展现了更强的立法理性与精准度。不仅对人工智能等新兴领域作出更为细致的立法回应,更对“网络运行安全”与“数据权益保护”的双轨制责任进行了进一步厘清。对于网络产品和服务提供者而言,新法意味着合规义务的要求更具体,法律责任的区分度更高。目前,修订后的《网络安全法》已于2025年10月28日发布,并于2026年1月1日起正式实施,本文拟从人工智能服务提供者视角,对修法后网络产品和服务提供者合规义务的重构与法律责任的升级做简要梳理。



一、人工智能服务提供者的伦理责任定位


(一)以《网络安全法》第二十条为基准的监管趋势前瞻

《网络安全法》系构成我国网络法治体系的“三法两条例”中最早颁布并实施的先行者,确立了我国网络空间治理的基本原则和监管方向,但在该法首次颁布并实施的时期,人工智能的相关治理更多停留在行业倡导层面,未在法律层面确立直接对应人工智能的安全治理框架。


此次修订后,《网络安全法》第二十条明确:“国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。国家支持创新网络安全管理方式,运用人工智能等新技术,提升网络安全保护水平。”对于提供AI功能的产品或服务提供者,这在一定程度上意味着合规义务的扩张。


在《网络安全法》修订之前,我国已在行业规范、部门规章等层面对人工智能伦理问题作出初步探索。如2021年全国信息安全标准化技术委员会发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》提供了人工智能伦理风险类型和流程化防范措施,同年国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》对人工智能活动应遵循的伦理规范做了进一步细化,并从研发、供应及使用角度分别作出伦理要求。此外,2023年国家网信办联合多部委发布的《生成式人工智能服务管理暂行办法》则更进一步在立法层面明晰了诸多关键方向与内容,不仅重申了对危害国家安全、社会稳定、宣扬不良思想及虚假有害信息等内容的严格禁止,还着重强调在算法设计、数据训练、模型优化及服务提供全流程中防止各类歧视的产生,明确了对知识产权、商业道德及人格权的保护要求。


在本次《网络安全法》修订中,新增的第二十条首次在法律层面明确了国家对完善人工智能伦理规范、加强风险监测评估和安全监管的支持与要求。这一条款的增补,标志着人工智能伦理治理议题正式进入了国家网络空间基础性法律的规范范畴,为相关领域的实务合规提供了坚实的上位法依据。


从实务角度审视,该条款虽属原则性规定,但其法律效果显著。首先,它直接赋予了此前一系列人工智能伦理规范及监管办法更高效力层级的法律支撑,使相关规定在行政执法和司法实践中可被引为重要的合规参照。其次,条款中“完善伦理规范”与“加强风险监测评估和安全监管”的表述,为国家网信办及其他监管部门后续制定更具体、更具强制力的行政法规、部门规章及国家标准,创设了明确的法律授权基础。这意味着相关领域的监管规则体系将加速形成,企业面临的合规义务将从倡导性指引逐步转化为具有法律责任后果的强制性要求。


因此,对于从事人工智能研发、提供相关服务的企业而言,本次修订释放了明确的强化监管信号。在实务中,企业应考虑主动将“伦理安全风险防范”、“算法安全评估”、“数据训练合规”及“生成内容治理”等要求,系统性地纳入自身的产品研发、运营管理及内部合规审查流程,提前依据现有最佳实践构建伦理治理框架,为应对未来法律与监管的持续深化提供稳健的合规策略支撑。


(二)AI“幻觉”的伦理风险边界——司法判例与实务启示

AI“幻觉”(Artificial Intelligence hallucinations)是指大语言模型生成看似合理、但实际上并非基于真实数据或事实的虚构内容,是引发人工智能伦理风险,特别是《网络安全标准实践指南—人工智能伦理安全风险防范指引》所界定的“侵权性风险”的重要原因之一。实践中,即使AI生成内容存在明显“幻觉”,服务提供者亦未必当然承担侵权责任,国内外近期判例已初步勾勒出司法审查的焦点。


例如,在美国Walters诉OpenAI案中,法院基于多重理由驳回了原告的诽谤指控:首先,从陈述性质上认定案涉ChatGPT输出内容不构成法律意义上的“诽谤性事实陈述”。判决着重指出,OpenAI在服务条款中明确告知了输出可能不准确,交互界面设有“知识截止日期”及“可能产生错误信息”等显著免责声明,且作为专业用户的记者Riehl自身知晓其可靠性局限并及时核实,故一个合理的读者在整体语境下不会将其输出内容视为对客观事实的断言。其次,在过错认定上,法院采纳了被告专家的证词,认定OpenAI为减少“幻觉”已采取行业领先的技术与管理措施(如大规模数据训练、强化学习反馈及多渠道用户风险警示),原告未能证明被告存在实际恶意或未尽到合理的注意义务。该案虽为诽谤之诉,但其关于“合理读者”判断标准、服务提供者警示义务履行以及技术措施合理性评价的论述,对处理AI生成内容引发的各类侵权纠纷具有重要参考价值。


结合本团队在相关领域的实务经验,我们曾代理多起因AI工具(如浏览器内置AI搜索或智能对话产品)在整合、引用或生成信息过程中,涉及对特定主体名誉可能造成潜在影响的名誉权纠纷,亦处理过因AI对特定品牌、商品进行市场评价而引发权利人对内容准确性提出异议的网络侵权责任案件。这些案件的核心争议往往围绕服务提供者注意义务的边界、用户合理信赖的判断以及损害与因果关系的证明展开。目前,前述案件仍在审理过程中。


杭州互联网法院近日审结的梁某诉某科技公司案被称为“我国目前第一起因生成式人工智能模型幻觉引发的侵权纠纷”,该案争议焦点在于AI自身基于错误信息作出的“承诺”是否构成意思表示,与前述基于AI输出内容直接引发的人格权纠纷存在一定差异,但二者均深刻触及AI“幻觉”引发的责任分配这一根本问题。


杭州互联网法院官方发布的案件专家点评中,程啸教授与林洹民副教授均强调生成式AI服务提供者的“非结果性义务”,同时强调“合理技术措施”与“充分提示说明”这两大关键行为要求。程啸教授指出,提供者负有采取合理显著措施提示功能局限的义务,并就内容准确性而言,其义务是“应当在综合考虑现有的技术措施水平、生成内容对当事人合法权益的影响……等多种因素的基础上,确定合理的注意义务”,这并非确保绝对准确的结果性义务。林洹民副教授亦从技术本质出发,指出生成式AI输出的创造性与随机性使得开发者无法像控制物理产品一样精确预见每一次输出,因此苛求产品责任缺乏法理基础,并特别肯定了判决对强化信息提示说明义务(如在高风险场景使用更显著的警示标识)的指引意义。


综上,从当前司法实践及学术观点中,可以初步归纳出一个合规方向,即为应对AI“幻觉”引发的伦理与侵权风险,企业应着力构建并完善以显著风险提示和合理技术措施为核心的过程性合规体系。这要求企业不仅需在用户协议、交互界面等环节履行充分、醒目的告知义务,降低用户的非合理信赖,还应持续投入并能够证明自身在数据训练、模型优化、安全护栏等方面采取了符合行业标准或领先水平的措施。在《网络安全法》等法律法规框架下,这种强调动态、过程管理的合规思路,相较于追求绝对无误的结果责任,更能平衡技术创新与权益保障,为人工智能产业的健康发展提供稳健的法律支撑。


二、多法衔接背景下的合规体系整合


《网络安全法》2025年修订不仅是单一规则的调整,更是对网络服务提供者(特别是处于技术前沿的人工智能服务提供者)所置身之法律环境的系统性重塑。本次修订通过一项关键条款的增补,清晰地锚定了《网络安全法》与相邻民事、个人信息保护法律规范之间的关系,标志着监管逻辑从各自适用转向了强调整体聚合的新范式。


《网络安全法》第四十二条:“网络运营者应当对其收集的用户信息严格保密,并建立健全用户信息保护制度。网络运营者处理个人信息,应当遵守本法和《中华人民共和国民法典》、《中华人民共和国个人信息保护法》等法律、行政法规的规定。”网络服务提供者根据该法第七十二条之规定,属于网络运营者范畴。


这一修订终结了法律适用上潜在的“择一性”或“替代性”争议,确立了聚合遵守的基本原则。这意味着,网络服务提供者在处理个人信息时,不能再将《网络安全法》视为一个孤立的、可选择性满足的安全框架,而必须将其视为与《民法典》人格权编、《个人信息保护法》共同构成一个不可分割的 “三位一体” 合规要求集合。例如,一个AI对话服务在处理用户输入的对话内容(可能包含个人偏好、行踪轨迹等敏感信息)时,其行为可能受到三重法律的同步审视:如依据《网络安全法》履行网络运行安全与数据安全保护义务;依据《个人信息保护法》履行告知同意、目的限制、最小必要等全生命周期处理规则;同时,其处理行为本身及可能因“幻觉”产生的侵权内容,直接受到《民法典》关于隐私权、名誉权等人格权保护规则的约束。


其次,这一修订同时起到了巩固法律基础和增强权利保护效果的作用。《网络安全法》所强调的技术措施、管理制度和事件响应,构成了个人信息处理的基本安全要求 。而《民法典》与《个人信息保护法》则在前述内容之上,设定了处理行为的权利边界与行为规范。对于生成式AI服务而言,这意味着其合规设计必须实现内在统一。其向用户作出的关于功能局限性的风险提示,也必须在内容上符合《个保法》关于告知的明确性要求,在形式上满足《网络安全法》关于“显著提示”的可见性标准。


这一体系化整合显著抬升了合规管理的复杂性与系统性。它要求企业内部的法律、安全、产品与研发团队必须打破壁垒,进行协同作业。在算法设计阶段,就需同步进行个人信息保护影响评估与网络安全风险自评估;在用户协议与隐私政策的撰写中,需将技术性的安全承诺与法律性的权利告知无缝衔接;在应对监管问询或司法诉讼时,需能够呈现出一套完整、自洽且能相互印证的证据链,证明其业务全流程均置于聚合性的法律框架审视之下并满足其要求。


因此,第四十二条的修订,远不止于一条引致条款的补充。它是立法者对数字时代法律规范相互交织现状的正式确认,并由此为网络服务提供者设定了一个全新的合规范式:从遵循单一规则的“点状合规”,迈向应对多重法律维度、实现内在统一融合的 “体系化合规” 。这构成了本次修订中,对塑造企业长远合规战略最具基础性影响的一环。


三、法律责任框架的体系化精密升级


在明确了网络服务提供者日趋严密的日常行为义务,并构建了覆盖数据处理、安全保护及多法协同的全链条合规指引之后,法律责任作为确保上述规则得以执行的最终保障,其本身的清晰度与可预期性变得至关重要。《网络安全法》2025年修订对“法律责任”章节进行了系统性重构,该章节修订的核心特征并非是单方面提升罚款数额,而在于通过立法技术,将原先相对概括的授权性罚则,修改为与违法行为具体类型、情节轻重及危害后果直接挂钩的结构化、精密化分级体系。


(一)罚则体系从单一区间向多层分级的重构

本次修法在责任认定上实现了从概括授权到精细分级的范式转换。以网络运营者不履行网络安全保护义务的罚则为例,原法第五十九条的罚则设定相对简单,只规定了“处一万元以上十万元以下罚款”这一个处罚区间,其具体适用高度依赖执法裁量。新法第六十一条则构建了一个逻辑严密的多层级处罚模型:首先为一般违法行为设定了基础罚则即“责令改正,给予警告,可以处一万元以上五万元以下罚款”;其次,对“拒不改正或者导致危害网络安全等后果”的情形,适用显著更高的罚款区间即“处五万元以上五十万元以下罚款”;进而,对“造成大量数据泄露、关键信息基础设施丧失局部功能”等严重危害网络安全后果的及“造成关键信息基础设施丧失主要功能”等特别严重危害网络安全后果的,分别设置了“五十万元以上二百万元以下罚款”和“二百万元以上一千万元以下罚款”的差异化罚则。


这种根据违法者的事后态度与行为造成的客观损害进行“一事多档”的精密化立法设计,是一大显著进步。它使得法律责任的追究更加严格地遵循了“过罚相当”的比例原则,大幅增强了法律后果的可预测性,也为企业进行合规风险评估提供了更为明确的量化依据。


同时,处罚措施的种类也实现了与数字业态的同步扩展。例如,针对未落实用户实名制的违法行为,新法第六十四条在原有“责令暂停相关业务、停业整顿、关闭网站”等措施之外,明确增加了“关闭……应用程序” 这一处置手段。这一修订直接回应了移动互联网应用作为主流服务形态的现实,使法律责任的执行能够更精准、更有效地作用于违法主体,体现了立法与产业实践的紧密结合。


(二)行政处罚裁量基准的法定化引入

此外,新法第七十三条新增规定,明确将《中华人民共和国行政处罚法》中关于从轻、减轻或不予处罚的法定情形,统一适用于网络安全领域的行政执法。此条款在整体强化法律责任刚性约束的同时,为执法机关保留了必要的、合法的裁量空间,要求其必须综合考虑违法行为的性质、情节、社会危害程度以及行为人的悔过态度等因素,从而避免“一刀切”的机械执法,确保行政处罚的公正性与适当性。这使得整个法律责任体系在趋向严密的同时,保持了必要的弹性与适应性,结构上更为周延和完善。


四、责任治理的精细化发展趋势


纵观《网络安全法》的全文修订,新法始于总则中对根本原则与战略方向的再次确认(如新增第三条),继而在支持促进章节明确鼓励人工智能等前沿技术发展的同时,提出完善伦理规范的要求(第二十条);随后,在网络信息安全的核心章节,通过对法律适用体系的精确化,为网络产品与服务提供者确立了更为严密和系统化的行为规范(第四十二条);最终,在法律责任章节,通过罚则的精密化、层级化与程序化设计,为前述所有规范的执行构筑了坚实的、可预期的保障后盾。


这一系列修订共同展现了我国网络安全治理框架逐步迈向成熟的演进态势,为人工智能服务提供者确立了更为系统的合规行动指引,提供了更为确定的责任框架。如何在鼓励创新的政策导向与日益明确的行为规范之间找到平衡,如何在确定的法律框架下预见并管理自身的合规风险,将成为所有市场参与者必须面对的核心课题。


参考文献

[1] 关于公开征求《关于修改〈中华人民共和国网络安全法〉的决定(征求意见稿)》意见的通知,载中国网信网2022年09月14日,https://www.cac.gov.cn/2022-09/14/c_1664781649609823.htm;

[2] 关于公开征求《中华人民共和国网络安全法(修正草案再次征求意见稿)》意见的通知,载中国网信网,https://www.cac.gov.cn/2025-03/28/c_1744779434867328.htm;

[3]《生成式人工智能“幻觉”侵权纠纷案一审生效》,载杭州互联网法院公众号2025年12月29日,https://mp.weixin.qq.com/s/riMkHOiBhDra1xe70wQcRA?click_id=20;

[4]《专家点评 | 生成式人工智能“幻觉” 侵权纠纷案的争议焦点与司法回应》,载杭州互联网法院官网公众号2025年12月29日,https://mp.weixin.qq.com/s/bodi6WaGTaQsqfgykyVidw;

[5] Walters v. OpenAI, L.L.C., No. 23-A-04860-2 (Ga. Super. Ct. May 19, 2025).


作者简介

王新淼

律师

邮箱:wangxinmiao@junzejun.com

王新淼律师的执业领域为数据合规和人工智能、企业法律顾问。


王新淼律师硕士毕业于英国伦敦政治经济学院,主修数字权利、隐私和安全法、网络法及媒体法。王律师长期为上市公司、头部互联网平台、高新技术企业提供法律服务,成功办理多起具有业界影响力的,与数据、AI相关的诉讼及非诉案件。


关于叶俭律师团队

叶俭律师团队专注于知识产权及互联网领域,承办了大量业界高度关注的知识产权及互联网相关案件。团队拥有多名博士、硕士以上学历律师以及外国法律顾问、专利代理师。凭借在专业领域的精耕细作,多次获得Asia IP、ALB、China Business Law Journal、LEGALBAND、Legal 500等知名法律杂志颁发的知识产权及TMT领域专业奖项,办理案件获得多地法院、律协、知识产权行业协会评选优秀案例。



↓↓↓ 点击“阅读原文”了解更多资讯



【声明】内容源于网络
0
0
君泽君律师
君泽君律师事务所于1995年创立,总部位于北京,是中国国内最早成立的合伙制律师事务所之一,也是中国国内具有鲜明专业优势和良好市场声誉的优秀大型律师事务所之一。君泽君秉持君子理念,于内,以君子之道共事相互惠泽;于外,以君子之道谋事相互惠泽。
内容 1547
粉丝 0
君泽君律师 君泽君律师事务所于1995年创立,总部位于北京,是中国国内最早成立的合伙制律师事务所之一,也是中国国内具有鲜明专业优势和良好市场声誉的优秀大型律师事务所之一。君泽君秉持君子理念,于内,以君子之道共事相互惠泽;于外,以君子之道谋事相互惠泽。
总阅读94
粉丝0
内容1.5k