ISO/IEC 42001:2023《信息技术 人工智能管理体系》提出将AI安全管理纳入企业的整体风险管理流程,确保AI系统在整个生命周期内的安全性和可靠性。受其启发,中国信通院云大所携手CCSA TC601编制《人工智能安全治理体系》(简称:ASG)标准。ASG立足国内人工智能安全合规要求,融合ISO/IEC 42001的风险控制理念,并结合企业在实际发展中的探索与实践,提出了一套科学完备、可操作性强的人工智能安全治理体系框架,为企业建设人工智能安全治理体系提供参考。
以大模型为代表的人工智能正以前所未有的速度走进生活、改变世界。人工智能技术不仅提升了生产效率、优化了决策流程,并推动着各行业的创新变革。然而,随着人工智能应用的深入推广,其潜在的安全风险也日益凸显。从数据隐私泄露到算法偏见,从模型滥用到恶意攻击,人工智能技术可能带来的负面影响已引起广泛关注。如何确保企业应用人工智能技术时的安全性和可靠性,成为企业必须正视的重要议题。目前,大多数企业的人工智能安全管理还显著滞后于人工智能技术的发展,处于“头痛医头、脚痛医脚”的阶段。要有效应对人工智能带来的安全挑战,企业应推动建立一套体系化、全流程、可落地的人工智能安全管理体系。
ISO/IEC 42001:2023《信息技术 人工智能管理体系》是由国际标准化组织(ISO)和国际电工委员会(IEC)联合制定的标准,旨在帮助企业和组织建立稳健的人工智能管理体系。它的核心理念是遵行PDCA戴明环的思想,将AI安全管理纳入企业的整体风险管理流程,并通过持续改进的方法,确保AI系统在整个生命周期内的安全性和可靠性。风险控制是ISO/IEC 42001的核心内容,在标准的附录部分提供了详细的控制目标和措施指南。包括9大控制域的38项控制措施,包括人工智能相关政策、内部组织、系统资源、人工智能系统影响评估、AI系统的生命周期、AI系统的数据、AI系统相关方信息、系统的使用、和第三方的关系。
中国信息通信研究院云计算与大数据研究所携手中国通信标准化协会TC601编制了《人工智能安全治理体系》标准,该标准基于人工智能安全治理体系化建设思路,立足于《生成式人工智能服务管理暂行办法》等管理制度中的相关合规要求,融合ISO/IEC 42001的风险控制理念,并结合企业在实际发展中的探索与实践,提出了一套科学完备、可操作性强的人工智能安全治理体系框架。
ASG从落地实践角度出发,对ISO/IEC 42001的核心控制要求进行融合,将相关能力系统体现在企业人工智能治理体系的四大维度——组织架构、制度流程、技术工具及人员能力建设中,为企业人工智能安全治理框架的搭建与优化提供全方位指引。
中国信通院云大所近期启动了依据标准进行的首批贯标评估,即ASG评估。此评估通过“以评促建”的方式,助力企业对其AI安全治理进行系统化的诊断与精准的优化,从而巩固合规底线,规避潜在的安全风险。参与ASG评估不仅能够有效地促进企业内部AI安全治理体系的推广,推动企业从“技术部门单点负责”向更加包容的“全员参与生态化治理”模式转变;而且,顺利完成评估的企业还将获得由中国信通院颁发的相关能力证书。这一过程不仅强化了企业的AI安全治理能力,也为其相关业务的发展提供了坚实的保障。
首批ASG评估正式启动,参评单位火热征集中,欢迎垂询!
业务联系人:刘老师18500238315

