提示:完整原文可在文章末尾“阅读原文”处获取。
2026年3月13日,欧盟理事会就简化人工智能(AI)监管规则的提案达成一致立场,针对2024年8月生效的《人工智能法》推出核心修订。此次调整以“减负不减保护”为核心,既回应了企业在合规实践中面临的实操难题,又通过强化监管执法、划定伦理红线,筑牢AI发展的安全底线,对布局欧盟市场的企业具有里程碑式影响。
第一、合规减负:延长缓冲期,扩大豁免范围
新规针对高风险AI系统监管规则设置弹性实施时间表:独立高风险AI系统合规要求延迟至2027年12月2日生效,嵌入产品的高风险AI系统则延长至2028年8月2日,解决企业“规则先行、工具滞后”的合规困境。同时,将原仅适用于中小企业的监管豁免,拓展至中小市值企业,简化技术文档提交、质量管理体系搭建等要求,大幅降低创新型企业合规成本。
为应对生成式AI带来的新型风险,新规明确新增两项立法禁令:
一是禁止未经同意生成、篡改可识别自然人的私密图像、视频等内容;
二是严禁生成儿童性虐待相关素材。
违规者将面临最高全球营业额7%的罚款。同时,为防范AI偏见与歧视,新规允许所有AI系统的提供商和部署者,在“严格必要”前提下处理敏感个人数据,但需满足数据最小化、加密存储、使用后及时删除等严格保障措施。
新规进一步明确欧盟AI办公室的专属监管权限,对基于通用AI模型开发的系统,以及嵌入大型在线平台或搜索引擎的AI系统,行使独家监督与执法权。同时,建立统一的合规评估机制,允许合规评估机构通过“单一申请,统一审核”程序获得多领域资质,避免重复认证,提升监管效率。
新规扩展了高风险AI系统的真实世界测试范围,允许更多类型的高风险AI系统在监管沙盒外开展测试,并授权成员国与欧盟委员会签订自愿协议,为特定行业AI系统测试提供灵活框架。此外,简化非高风险AI系统的欧盟数据库注册要求,同时要求企业留存文件以备监管核查,实现“合规便利化”与“监管可追溯”的平衡。
动态适配合规时间表
企业对照新规明确的生效日期,梳理自身AI产品类型——独立高风险AI系统于2027年12月2日前达成合规要求,嵌入产品的高风险AI系统则于2028年8月2日前达成合规要求。
针对新增禁令,企业需在AI产品设计阶段嵌入内容过滤、用户授权验证等技术措施,尤其要防范生成式AI的滥用风险;处理敏感个人数据用于偏见纠正时,需严格遵循工作留痕原则,确保符合政策要求。
布局欧盟市场的企业应提前了解AI 办公室的监管权限与执法流程,配合信息披露与检查要求。同时,关注欧盟委员会后续发布的合规指南,确保技术文档、测试报告等材料符合标准。
中小企业与中小市值企业需主动适用简化合规条款,在保障合规的同时控制运营成本,避免因过度合规消耗创新资源。
此次欧盟AI监管规则简化,并非放松监管标准,而是通过“精准减负、强化执法、明确红线”的组合拳,构建更具可操作性的监管框架。新规既回应了企业在标准落地、资质认证、成本控制等方面的核心诉求,又通过新增伦理禁令、强化AI Office职权,守住了数据安全与基本权利保护的底线,为全球AI监管提供了“严格且灵活”的范本。
作者简介

