提示:完整原文可在文章末尾“阅读原文”处获取。
2026年1月13日,全国网络安全标准化技术委员会正式发布通知,为有效应对人工智能技术快速发展与应用带来的新风险、新挑战,全面提升各行业人工智能应用安全水平,保障人工智能高质量发展,就《人工智能应用安全指引 总则》《人工智能应用安全指引 广播电视和网络视听》《用户使用人工智能安全指南》《人工智能训练数据清洗安全指南》4项网络安全标准实践指南公开征求意见。这4项标准从总则规范到行业细分、从企业责任到用户权益、从数据源头到应用落地,构建起多层次AI安全治理框架。
适用范围:覆盖各类人工智能技术及应用,明确政府、企业、科研机构等不同主体的安全责任边界,实现“无死角”覆盖。
核心原则:确立“安全优先、全程可控、权责统一、协同治理”四大原则,要求AI应用从设计、开发到部署、运维全生命周期落实安全要求。
关键要求:明确数据安全、模型安全、算法安全三大核心维度,要求训练数据合规采集、模型具备风险防控能力、算法透明可追溯。
应急机制:规定AI应用需建立安全监测、风险预警和应急处置体系,重大安全事件需在规定时限内上报并处置。
《人工智能应用安全指引 总则(征求意见稿)》强调人类控制权和责任追溯,并通过引用大量现行标准,为实践提供实操依据。其核心逻辑为先评估风险与能力,再针对性设计防护,最终通过持续监测和应急机制实现闭环管理。
场景针对性:聚焦音视频生成、智能推荐、虚拟人互动等广电及网络视听核心应用场景,破解行业特有安全难题。
内容安全底线:要求AI生成的视听内容必须符合法律法规和公序良俗,明确禁止生成虚假新闻、不良导向内容。
标识管理要求:落实生成合成内容标识制度,对AI生成的音频、视频、虚拟人表演等内容添加显著标识,保障用户知情权。
技术防护要求:规定智能推荐算法需设置安全阈值,避免不良内容传播;虚拟人应用需建立身份认证和行为追溯机制。
《人工智能应用安全指引 广播电视和网络视听(征求意见稿)》聚焦广播电视和网络视听领域的AI应用特殊性,突出三大核心:第一,内容安全优先:严格限制AI生成内容范围,强化标识和审核;第二,责任可追溯:通过日志记录、人工复审、知识库溯源确保全流程可控;第三,群体保护细化:针对青少年、老年人等弱势群体设置专属防护规则。为确保AI技术在媒体领域的安全可控应用,其要求以“内容合规为底线,人类控制为核心,场景化措施为手段”。
个人信息保护:明确用户个人信息收集边界,要求AI服务提供者不得过度采集隐私数据,提供便捷的信息查询、删除通道。
权限管理建议:提醒用户谨慎授权AI应用访问手机相册、通讯录等敏感权限,定期排查权限使用情况,防范信息泄露。
风险识别技巧:列出AI应用常见风险场景,包括虚假信息生成、诱导消费、隐私泄露等,指导用户通过标识核验、来源验证等方式规避风险。
维权路径指引:明确用户在遭遇AI安全问题时的投诉渠道和维权流程,保障用户合法权益有处可寻。
《用户使用人工智能安全指南(征求意见稿)》的核心思想是推动用户从被动的使用者转变为积极、负责任的安全参与者。它勾勒出一种新的数字公民责任:享受AI便利的同时,必须通过“保持警惕、验证输出、管好数据、规范行为”来维护自身安全和网络环境的秩序。最终目标是实现人机协作的良性发展。
清洗目标:要求通过清洗剔除训练数据中的违法信息、虚假信息、个人敏感信息等,确保数据质量与合规性。
操作规范:规定数据清洗需遵循“最小必要、可追溯、不可逆”原则,明确清洗流程、技术方法和质量评估标准。
隐私保护要求:强调数据清洗过程中需采用脱敏、匿名化等技术手段,严禁未经授权泄露清洗过程中的原始数据。
质量验收:建立数据清洗安全评估机制,要求清洗后的数据需满足合法性、准确性、完整性三大指标方可用于模型训练。
《人工智能训练数据清洗安全指南(征求意见稿)》的特点是:
全面性:覆盖从数据质量到内容安全的全维度风险;
实操性:提供具体清洗方法、量化指标和验收标准;
动态性:强调持续监控和迭代优化,适应AI技术快速发展;
合规性:紧密结合现行法律法规要求,特别是个人信息保护和知识产权相关规范。
其通过系统化的数据清洗,从源头确保AI模型训练数据的安全性、合规性、公平性,为构建可信AI奠定坚实基础。
反馈时限:各相关单位和个人可在规定期限内提出意见建议,具体截止日期2026年1月27日之前反馈至秘书处。
反馈渠道:可通过全国网络安全标准化技术委员会官网在线提交反馈,或按通知要求发送书面意见。
参与价值:本次征求意见面向全社会开放,企业、行业协会、科研机构及普通用户均可参与,共同完善AI安全治理体系。
这4项标准的出台,标志着我国AI安全治理从“原则性要求”向“实操性规范”迈进,将为人工智能产业高质量发展筑牢安全根基。无论是AI企业、行业从业者还是普通用户,都可通过深入了解标准要求,明确自身权责与防护重点。
作者简介

