Q1/ Question one
立法背景回顾
近年来,随着大型基础模型(foundation models)、“前沿”人工智能系统(frontier AI)等人工智能技术的迅速发展,社会及立法部门对其潜在风险的关注也在不断上升。早在2020年左右,语言模型、图像-生成模型等人工智能技术就已开始大规模进入商用和公众视野,其能力迅速从简单任务扩展到复杂推理、创造和辅助决策。与此同时,学术界、产业界和监管者逐渐开始意识到:这些系统不仅可能造成误信息、偏见和隐私侵犯,更可能演变为制造生化武器、协助网络攻击、副本控制失效等灾难性风险。
2025年6月,加州州长Gavin Newsom设置的工作组发表了一篇长达53页报告。报告中指出,AI大语言模型既可能加速科研进程,也可能因降低恶意行为者实施网络攻击或获取生化武器的门槛而加剧国家安全风险[注1]。譬如,Anthropic公司近期发布了Claude 4模型,该公司承认该模型可能具备协助潜在恐怖分子制造生物武器或策划疫情的能力;报告中同时提及,近月来出现的新证据表明AI具有战略性欺骗能力:在训练阶段表现出与创造者目标一致,部署后却显现其他目标,并能利用漏洞达成目的,尽管当前这些行为尚属良性,但为衡量失控风险提供了具体实证,也可能预示着未来的危害[注1]。
但迄今为止,美国联邦层面尚未出台具有强制力的、全面针对大规模人工智能模型的法规。早期法规仅聚焦于歧视、隐私、自动驾驶等特定用途或行业自律,而针对前沿人工智能模型的整体监管空白较为明显。联邦层面的法律缺失的背景下,州级的立法就具有相当重要的意义。
针对此情况,加州在2024年曾尝试通过一项严厉的法案,也即Senate Bill 1047(SB 1047,安全与创新前沿人工智能模型法案),但因业界反对、监管范围太广、创新影响过大,最终遭到加州州长否决[注2]。
然而,全美50家最顶级的人工智能公司中的32家都位于加州,大量世界顶级的人工智能公司都位于加州的情况使得加州与别州不同,其立法的迫切性更为突出[注2]。
在技术加速演进、危机风险增加、市场迫切需求与监管滞后的背景下,加州州长Gavin Newsom在2025年9月29日签署了 Senate Bill 53 (SB 53),即《前沿人工智能透明法案》(Transparency in Frontier Artificial Intelligence Act, TFAIA),这是美国首个明确面向前沿人工智能模型开发商设定披露责任、安全框架、重大安全事件报告与举报人保护机制的州级法规[注3]。
SB 53 的出台,既是加州维持其科技创新地位的战略举措,也是对监管空白状态的一次制度性回应。接下来,我们将进一步梳理 SB 53 的核心内容与其对行业、企业、社会的潜在影响。
Q2/ Question two
SB 53核心条款分析
1.基本定义条款:前沿开发者与前沿模型
§ 22757.11(h)规定:‘前沿开发者(frontier developer)’指一个人在训练或启动训练一个前沿模型时,所使用或拟使用的计算能力至少满足第 (i) 款中所述的技术规格。
§ 22757.11(i)规定:‘前沿模型(frontier model)’指一个基础模型,其训练使用的计算能力超过 10^26 次整数或浮点运算。上述计算能力应包括原始训练过程,以及其后开发者对先前基础模型所做的任何微调、强化学习或其他重大修改。
SB53在法案开篇首先界定了“前沿开发者”与“前沿模型”的技术与能力门槛:只有训练耗算力超过10^26次运算的基础模型,才被认定为“前沿模型”,进而使其训练开发者落入SB 53的监管范围。如果一个模型初训未达标,但随后通过微调或变体达标,也会被归属于监管之列,换而言之,开发者的更新迭代可能触发该法案的适用。
在实务中,人工智能公司需自查其模型是否已达此技术标尺。一旦达到“前沿模型”的计算能力,则需要做好受到监管的可能性。
2.特殊定义条款:大型前沿开发者
§ 22757.11(j):‘大型前沿开发者(large frontier developer)’指一个前沿开发者,其与关联公司合计在前一日历年年营业收入超过五亿美元。
在定义了前沿开发者的基础上,SB 53进一步将其区分为普通与大型两类:若开发者虽训练了前沿模型,但其营业收入不超过5亿美元,则属于普通的前沿开发者,在该法案的监管体系下相应承担较低层次的义务;而营业收入超过5亿美元,属于“大型前沿开发者”的,则须承担更全面、严格的额外义务。
3.前沿开发者的基本义务:透明度报告义务
§ 22757.12(c)(1):在部署新的前沿模型或对现有前沿模型作实质修改之前或同时,前沿开发者应当在其互联网网站上清晰且显著地发布一份透明度报告,包含以下全部内容:(A)前沿开发者的网址;(B)一种使自然人(即公众)能够与该开发者沟通的机制;(C)该前沿模型的发布日期;(D)该前沿模型支持的语言;(E)该前沿模型支持的输出模态;(F)该前沿模型的预期用途;(G)适用于该前沿模型使用的任何一般性限制或条件。
这是一条适用于所有前沿开发者的基本义务,要求其在模型发布或重大修改时对公众披露公开基础信息。根据该条的规定,披露须在部署之前或与之同步进行,这意味着信息披露要求相对于技术进入应用或公众可访问阶段应具有前置性与即时性。同时,披露对象与内容的范围既需要包括基本的识别信息,譬如开发者网站、联系方式、模型发布日期;也需要包括模型本身的功能属性,譬如支持语言、输出模态与预期用途以及适用限制,这表明立法者意在通过标准化的信息项使公众能够获得关于模型能力和用途的全面基本事实。
4.前沿开发者的基本义务:如实陈述义务
§ 22757.12(e)(1)(A):前沿开发者不得就其前沿模型可能造成的灾难性风险(catastrophic risk)或其对灾难性风险的管理发表重大虚假或误导性陈述。
§22757.11(c)(1):‘灾难性风险(catastrophic risk)’指可预见且具有实质性的风险,即一个前沿开发者开发、存储、使用或部署一个前沿模型,将在一次事件中实质性促成超过50人死亡或重伤,或造成超过10亿美元(1 000 000 000 美元)的财产损失或资产损失,且该事件涉及以下任一情形: (A) 向化学、生物、放射或核武器制造或释放提供专家级协助; (B) 从事未经有效人类监督、干预或监管的网络攻击,或如果由人实施则构成谋杀、袭击、敲诈或盗窃(包括虚假借口盗窃); (C) 从其前沿开发者或用户控制下逃逸。
该条禁止前沿开发者就以下两类事项作出重大虚假或误导性陈述:一是关于模型本身可能造成的“灾难性风险”;二是关于开发者为管理该类风险所采取的管理措施。
5.前沿开发者的基本义务:重大安全事件报告义务
§22757.13:(a) 紧急服务办公室应建立一个供前沿开发者或公众成员报告关键安全事件的机制,该机制须包含以下所有内容:(1) 关键安全事件的日期。(2) 该事件被认定为关键安全事件的理由。(3) 描述关键安全事件的简要说明。(4) 该事件是否与前沿模型的内部使用相关。
......
(c) (1) 在遵守第(2)段的前提下,前沿开发者应在发现涉及其一个或多个前沿模型的关键安全事件后15天内,向紧急服务办公室报告。(2) 若前沿开发者发现某关键安全事件存在迫在眉睫的死亡或严重人身伤害风险,则应根据事件性质及法律要求,在24小时内向具有管辖权的机构(包括任何执法机构或公共安全机构)披露该事件。(3) 前沿开发者在提交本细分规定的初始报告后,若发现有关关键安全事件的新信息,可提交修正报告。(4) 鼓励但不强制要求前沿开发者报告与非前沿模型的基础模型相关的关键安全事件。
§22757.11.(d):“关键安全事件”指以下任一情况:(1) 未经授权访问、修改或窃取前沿模型模型权重,并导致死亡或人身伤害。(2) 灾难性风险具体化所造成的损害。(3) 失去对前沿模型的控制并导致死亡或人身伤害。(4) 前沿模型在非专门设计用于引发该行为的评估情境之外,使用欺骗性手段对抗前沿开发者以规避其控制或监控,且该行为表明灾难性风险已实质性增加。
该条首先要求政府机构的应急服务办公室建立专门的报告机制,并列明报告中的必须项,随后为前沿开发者设置了时间性义务,把关键安全事件的披露行为义务化与制度化。最后把极端紧急情形与一般15天上报的要求区分开来,规定在存在即时生命或严重伤害风险时,披露时限缩短为24 小时,通过两级时限明确不同严重程度事件的不同法律处置时点。
6.前沿开发者的基本义务:吹哨人保护义务
SB 53的第四节还修订了加州《劳动法》,建立了人工智能基础模型灾难性风险举报人保护制度,专门保护在前沿开发者中负责安全风险管理的员工。
该法规定,前沿开发者不得通过任何规则、政策或合同限制或报复举报人披露涉及灾难性风险或违反该法的信息,且应提供举报渠道,每年都需至少告知员工一次其根据SB 53享有的被保护的权利。举报人因披露行为受到报复的,可提起民事诉讼请求禁令救济、赔偿和律师费。
7.大型前沿开发者的特殊义务:额外的透明度义务
相较于前沿开发者,§22757.12规定了大型前沿开发者应承担更多的透明度义务。
譬如,该条第一款规定,大型前沿开发者应编写、实施、遵守并在其互联网站点上清晰显著地公布一份适用于其前沿模型的‘前沿 AI 框架’,说明该大型前沿开发者如何将国家国际标准及行业共识最佳实践纳入框架,如何设定并评估用于识别可能构成灾难性风险之能力阈值,如何实施网络安全以保护未发布之模型权重免遭未授权修改或外传,如何识别与响应关键安全事件,以及如何评估并管理其内部使用所产生之灾难性风险等。
第二款则规定,大型前沿开发者应至少每年审查并在适当时更新其前沿 AI 框架。若大型前沿开发者对其前沿 AI 框架作出重大修改,应在 30 天内在其网站上清晰显著地公布修改后的框架并说明修改理由。
最后,第三款还规定了其透明度报告中额外应包括的内容,譬如对灾难性风险的评估、该等评估的结果、第三方评估者参与的程度,以及为满足前沿 AI 框架要求就该模型采取的其他措施。
8.大型前沿开发者的特殊义务:额外的报告义务
在履行前沿开发者的基本报告义务的基础上,大型前沿开发者还需要遵守§ 22757.13(b)的规定,履行额外的报告义务。也即,履行大型前沿开发者应每三个月,或依其向应急服务办公室书面说明并经双方约定之合理时间表,向应急服务办公室提交其因内部使用其前沿模型所进行之任何灾难性风险评估摘要,并在适当情况下提供书面更新。
9.大型前沿开发者的特殊义务:额外的吹哨人保护义务
SB 53的第四节中针对大型前沿开发者提出了额外的吹哨人保护义务:也即,其应提供合理的内部程序,使受保护员工可在善意认为该公司之活动因灾难性风险而对公共健康或安全构成特定且重大危险或该公司违反相关法律时,可匿名向公司披露该信息,且公司应就调查进展及所采取之行动每月向披露人更新。 除有指控公司的官员或董事之情形外,相关披露与回应应至少每季度与公司之高级管理层或董事分享一次。
10.大型前沿开发者的特殊义务:审计义务
§22757.14 (a)规定,自2030年1月1日起,大型前沿开发者应至少每年一次聘请独立第三方审计员,出具报告评估下列事项:该公司是否在实质上遵守其安全协议,以及前一年度有无任何实质性不合规之情形。
综上所述,SB 53 法案构建了一个针对前沿模型类的高性能人工智能模型及前沿开发者的分级监管体系。该体系的核心特征是基于开发者的规模与能力,设定差异化的法律责任,旨在实现对前沿人工智能技术风险的全面与预防性管理。
法案的监管逻辑起点是通过明确的量化标准界定前沿模型,从而划定监管范围。在此基础上,进一步以营业收入为门槛,将前沿开发者区分为普通与大型两类。
对于所有前沿开发者,法案施加了包括发布透明度报告、禁止就灾难性风险作虚假陈述、及时报告关键安全事件以及保护内部举报人在内的基本义务。而对于大型前沿开发者,法案则设定了显著更严格的特殊义务,譬如制定并公开详细的前沿AI框架、履行更频繁的定期报告制度、建立更完善的内部匿名举报处理机制,以及自2030年起接受强制性的年度第三方审计。这种分级设计既确保了对最具影响力市场主体的重点监管,也为中小型开发者预留了发展空间。
总体而言,SB 53 是一部具有前瞻性的立法,其监管框架系统性地覆盖了人工智能模型开发、部署和使用的关键环节,通过透明度、问责制和安全保障等多重要求,力图在促进技术创新与防范潜在的灾难性风险之间取得平衡。
Q3/ Question three
企业的合规建议
SB 53已提出了一系列具体的义务,相应企业面临的不再只是法理上的空文,而是需要在研发、部署和治理流程中真正落地的合规实践,从而将法律规定转化为可操作的内部制度、流程和责任体系,以确保在技术创新的同时有效管理潜在的灾难性风险、履行信息披露义务、保护内部举报人以及与监管机构保持透明的沟通。这不仅是符合法律要求的必要措施,也是企业构建公众信任与持续竞争力的重要环节。
首先,前沿开发者应履行透明度与披露合规义务。为保证在部署新的前沿模型或对既有模型作出实质性修改时满足§22757.12(c)(1)的要求,前沿开发者应建立一套标准化的透明度报告模板与内控流程,确保在模型对外部署之前或同时将模型的基本信息以清晰显著的方式发布在公司网站上,并可对每次发布均保留版本记录、发布时间戳与负责签字人信息,以便在监管询问或公众质疑时快速核验。同时,还可考虑在显著位置设置反馈通道,保证公众或利益相关方能及时提出问题或报告异常。
其次,前沿开发者应履行如实陈述与风险沟通合规义务。为履行如实陈述义务,前沿开发者可考虑制定内外部沟通的一体化审批流程,规定所有关于灾难性风险的公开声明应基于合规合理出具的风险评估结果并由跨部门团队联合签署。在发现先前声明存在不准确之处时,应有快速更正机制并在网站上以可追溯的方式发布更正说明与改进措施,确保公众沟通既透明又可核验,从而降低因不实陈述引发的监管处罚与信任成本。
第三,前沿开发者应履行关键安全事件报告与应急响应合规义务。为满足SB 53对关键安全事件上报时限的双轨制要求,开发者可考虑构建覆盖模型研发、测试、生产与内测使用的事件监测与分级机制,确保在发现需要上报的关键安全事件后能够在15天内向应急服务办公室提交初始报告,且在存在即时生命危险时能够在24小时内向有管辖权机构通报。为保证执行,公司在事先即应制定并演练应急处置流程、保存事件证据链、明确责任人名单与联络途径,并与法律顾问和外部应急响应专家协同,确保在通报时既满足监管要求又不过度暴露商业秘密或阻碍后续司法程序。
第四,前沿开发者应履行吹哨人保护与内部举报渠道合规义务。鉴于 SB 53 对举报人保护的明确规定,建议前沿开发者建立独立且易用的匿名举报渠道,且不通过合同或政策对员工进行报复或限制披露。建议前沿开发者制定不歧视与反报复政策、为举报人提供法律与心理支持的渠道、并保证对举报事项的及时调查与反馈,以便在出现报复行为时能够迅速采取救济措施、保存证据与在必要时承担民事救济责任,从而在内部形成鼓励安全文化的制度性保障。
最后,大型前沿开发者需要履行更为全面而系统的合规义务,其合规重点不仅涵盖前沿开发者的基本透明度报告、如实陈述、关键安全事件报告及吹哨人保护等要求,还扩展到更高标准的治理、风险管理和审计责任。具体而言,大型前沿开发者需建立并公开适用于其前沿模型的前沿 AI 框架,明确如何将国家和国际标准及行业最佳实践纳入模型开发与使用全过程,如何设定并评估识别灾难性风险的能力阈值,以及如何保障模型权重安全、防范关键安全事件,并对内部使用产生的潜在风险进行定期评估和向监管机构报告。同时,其应能提供完善的匿名内部举报渠道,并确保举报事项得到及时调查和向高级管理层或董事会通报,保护举报人免受任何报复。从2030年起,大型前沿开发者还需接受年度独立第三方审计,评估其在安全协议和法规遵循方面的实质性合规情况。这种分层次、制度化的合规体系旨在通过透明度、问责制和安全保障等手段,实现对高影响力前沿模型的风险管理,同时为企业在技术创新与社会责任之间建立平衡。
Q4/ Question four
展望与总结
SB 53 将前沿人工智能的监管从概念层面带入了可操作的制度设计之中,它并非只是对若干技术环节施加新的合规负担,而是在治理结构上提出了“分级、可核验与制度化”的监管范式。其以可量化的算力阈值划定监管对象,以营业收入区分监管强度,以透明度、报告与吹哨人保护为核心工具,辅以面向大型企业的框架公开与第三方审计要求,从而把对灾难性风险的事前识别、事中监测与事后问责连成一条闭环。对于处在高速演进期的前沿模型生态而言,这样的法案既是对公共安全的主动防护,也是在促使行业将治理机制嵌入产品生命周期与公司治理结构中的一次制度性试炼。
对美国而言,SB 53 的出台可能具有双重效应:一方面,它在联邦层面尚未形成统一规则的真空中为州级监管提供了可复制的模板,可能推动其他州或联邦立法者在透明度与风险管理方面采取更为明确的立法行动,从而缩小监管不确定性;另一方面,对位于加州的核心技术企业而言,这部法案会促使企业将更多资源用于合规建设与治理能力的制度化,短期内可能增加合规成本并影响产品发布节奏,但长期看有助于降低系统性风险、增强公众信任并为企业在监管合规方面形成先发优势。总之,在美国内部,SB 53 既是一种监管试点,也可能成为联邦与州之间在人工智能监管协同的催化剂。
对中国而言,SB 53 所代表的监管思路同样具有示范意义和现实意义。中国在人工智能治理上已有若干行业规则与地方政策,但面对“前沿模型”则尚无体系化的规定,国内监管者与企业可能会从加州的做法中借鉴关于透明度、演练、内部举报保护与第三方评估的具体制度安排。对于出海企业而言,需更谨慎地设计合规路径以兼顾国内外法律要求,从而在合规治理体系上寻求更为系统的制度化建设并实现国际合规能力的提升。
在全球层面,SB 53 有可能强化“规则先行者效应”:位于技术前沿并承担重大社会影响的司法辖区所确立的治理标准,往往会被国际同行、标准组织以及其他国家监管者参考或采纳,从而对全球AI治理话语权产生重大影响。与此同时,这类有较强外溢性的立法也可能带来监管碎片化的风险,不同法域在可适用对象、技术门槛与合规细则上若出现较大差异,可能增加跨境研发与部署的合规成本,并对全球人才与服务流动产生抑制。未来,各国或会以透明度与互操作性的原则为基点,推动跨国监管对话与标准协同,既保留各国根据本国风险治理需要制定规则的权利,又尽可能减少对全球创新生态的割裂性影响。
综上所述,面对以算力与模型能力为核心驱动的新一轮技术跃迁,SB 53 提供的不是一个针对单一公司的管束,而是一种面向高影响风险的制度设计思路,它要求企业把治理能力与技术能力并重,将合规从事后补救转为事前设计。对于企业而言,最稳健的应对不是等待规则走向迟滞或抵触,而是主动将法案要求内化为企业治理的一部分,通过透明度建设、风险评估、应急演练与保护举报人的制度化运作,既维护公共安全也为自身赢得社会信任与长期竞争力;对于监管者与社会各方而言,重要的是在保障公共安全与激励创新之间寻求动态平衡,推动开放的多方对话与技术验证机制,共同把“强能力”变成可管理、可审计、并最终可被社会信赖的力量。
参考法条:Senate Bill No. 53
注1: THE CALIFORNIA REPORT ON FRONTIER AI POLICY, Joint California Policy Working Group on AI Frontier Models, 参考链接:
https://www.gov.ca.gov/wp-content/uploads/2025/06/June-17-2025-%E2%80%93-The-California-Report-on-Frontier-AI-Policy.pdf?utm
注2: California AI Policy Report Warns of ‘Irreversible Harms’, Harry Booth, 参考链接:https://time.com/7295021/california-ai-policy-report-newsom/?utm
注3:Governor Newsom signs SB 53, advancing California’s world-leading artificial intelligence industry,Governor Gavin Newsom,参考链接:
https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/?utm———完———
刘新海律师
盈科律师事务所高级合伙人 | 全国碳中和专委会主任
全球ESG合规中心气候变化分中心主任 | 中国节能协会碳中和专业委员会委员 | 江苏新能源争议仲裁中心仲裁员 | 上海律协环境与资源专委会委员 | 目的地充电联盟秘书长 | 上海环境能源交易所碳排放交易员资格 | 浙江大学融资租赁研究中心特约研究员 | 闽江学院专业学位研究生教育行业导师 | 全国企业法律顾问资质 | 六年某大型国企法务经验
· 个人荣誉
荣获盈科2024年度优秀涉外人才、新华社2024年度法律服务出海实践案例(涉外诉讼)、律新社2024年度能源、环境与自然资源领域品牌之星:新锐律师、荣获中国政法律师学研究中心2023年度创新法律服务产品典型案例、盈科2023年度十佳涉外法律服务案例、上海年度十大案例(盈科律所2022、2023年度)。
· 代表著作
主编《能源法新时代:新能源项目法律风控实操与案例精解》(2025年在编)、《欧盟碳关税CBAM过渡期实施细则逐条评注与解读》(2024年度,威科出版)、《碳达峰碳中和纠纷案件争议解决指南:风险提示与防控建议》,(2023年12月第1版)、《欧盟碳边境调节机制合规应对与实务指南研究报告》(2023年度服贸会发布)。
· 专业领域
刘新海律师有十二年相关行业经验,主要执业领域为:新能源与碳中和领域、新能源项目(风、光、储、氢、充电桩、新能源重卡、虚拟电厂等)跨境投资、并购、贸易、电力资产管理、绿电认证与交易、ESG合规风险筛查与应对、应对国际绿色贸易壁垒(CBAM、新电池法案等)、新能源项目的尽调、投资、并购、重组、上市等法律服务。碳资产开发和管理风险与防控、碳交易风险与合规管理、碳融资与交易架构设计等。
程尧律师
盈科碳达峰碳中和精品法律服务团队负责人 | 盈科高级合伙人律师
· 个人简历
北京盈科(上海)律师事务所高级合伙人律师,英国及威尔士注册境外律师RFL、国际认证合规管理体系实务合规师、国际认证信息安全管理体系主任审核员、碳资产管理师。新华网优秀“涉外实践案例”获得者。
在跨境商事合规、国际制裁、涉外争议解决、双碳和新能源等领域有着丰富的执业经验。曾代理美国上市公司在医药领域和建设工程领域进行国际仲裁,代理南非企业国际物流国际仲裁、代理香港企业海商海事诉讼均获得全胜结果。其为美国上市公司提供全球商事运营合规、泰国某跨国能源集团进军中国分布式光伏市场、全球电池回收企业的出海合规和投资等业务中,提供了全程跨境投资和合规法律服务。多年来持续为国央企的130多个海外分支提供涉及应对美国对俄制裁、数据跨国传输合规、海外技术转移、跨境抵押、海外破产等专业涉外法律服务。
· 专业领域
程尧律师的主要执业领域为跨境商事合规、涉外争议解决、国际制裁、碳资产管理、新能源板块业务、出海咨询、海商海事、公司股权投资和企业法律合规业务、国际制裁咨询、国际贸易和国际物流业务、融资租赁和保理、基金和资产证券化、资产并购和重组等资本市场业务、民事诉讼和仲裁业务等。
微信公众号|盈法碳律师团队
联系|程尧律师 19921862185

