关键讯息,D1时间送达!
企业网D1net
随着员工在个人设备和未经批准的平台上使用生成式AI,影子AI正在成为CIO面临的主要风险点,包括数据泄露、合规违规与访问控制失效。研究报告显示,43%的员工会在个人设备上用AI办公,25%的员工使用未批准的AI工具。专家强调,影子AI不应被简单禁止,而应通过明确规则、技术控制和信任文化加以引导。
随着员工自行尝试使用生成式AI工具,CIO们正面临着影子AI这一熟悉的挑战。尽管这往往出于善意的创新,但它会在数据隐私、合规性和安全性方面带来严重风险。
根据1Password发布的2025年度报告《访问信任鸿沟》(The Access-Trust Gap),影子AI会增加企业面临的风险,因为43%的员工会使用AI应用程序在个人设备上办公,而25%的员工会在工作中使用未经批准的AI应用程序。
尽管存在这些风险,专家表示,影子AI并非要完全摒弃,而是要理解、引导和管理它。以下是六种策略,可帮助CIO在确保敏感数据安全的同时,鼓励员工进行负责任的试验。
01
设立明确的指导方针,同时留出试验空间
管理影子AI,首先要明确哪些行为是被允许的,哪些是不被允许的。西海岸家居(West Shore Home)的CTO丹尼·费舍尔(Danny Fisher)建议,CIO可将AI工具分为三类:已批准、受限制和禁止使用。
“已批准的工具经过审查并得到支持,”他表示,“受限制的工具可在受控空间内使用,且有明确限制,例如仅使用模拟数据。禁止使用的工具通常是公共的或未加密的AI系统,应在网络或应用程序编程接口(API)层面进行屏蔽。”
为每种类型的AI使用场景配备安全的测试空间,例如内部OpenAI工作区或安全的API代理,可让团队自由试验,而不会危及公司数据,他补充道。
作为SAP旗下公司的LeanIX的首席企业架构师杰森·泰勒(Jason Taylor)表示,在当今快速发展的AI世界中,明确的规则至关重要。
“要明确哪些工具和平台是被批准的,哪些不是,”他表示,“还要明确哪些场景和使用案例是被批准的,哪些不是,以及员工在使用AI时,如何处理公司数据和信息,例如,一次性上传与剪切粘贴或深度集成的区别。”
泰勒补充道,公司还应制定一份清晰的清单,说明哪些类型的数据在何种情况下使用是安全的或不安全的。现代数据防泄漏工具可通过自动查找和标记数据,并对谁可以访问哪些数据实施最小权限或零信任规则,从而提供帮助。
巴布森学院(Babson College)的CIO帕蒂·帕特里亚(Patty Patria)指出,CIO为无代码/低代码AI工具和氛围编码平台设立具体的指导方针也很重要。
“这些工具使员工能够快速构建想法原型并试验AI驱动的解决方案,但当它们连接到专有或敏感数据时,也会带来独特的风险。”她表示。
为应对这一问题,帕特里亚表示,公司应设置安全层,让人们能够自行安全地进行试验,但每当有人想将AI工具连接到敏感系统时,都需要进行额外审查和批准。
“例如,我们最近为员工制定了清晰的内部指导方针,概述了何时应让安全团队参与应用程序审查,以及何时可以自主使用这些工具,确保创新和数据保护均得到优先考虑,”她表示,“我们还维护一份我们支持的AI工具清单,以及一份我们不建议使用的、风险过高的AI工具清单。”
02
持续保持可见性并进行清单跟踪
CIO无法管理他们看不到的东西,专家表示,维护一份准确且最新的AI工具清单是对抗影子AI最重要的防御措施之一。
“最重要的是营造一种文化,让员工愿意分享他们使用的工具,而不是隐藏它们。”费舍尔表示。他的团队将季度调查与自助式登记系统相结合,员工可在该系统中记录他们使用的AI工具,然后,IT部门通过网络扫描和API监控对这些记录进行验证。
品牌制造商Bamko的IT副总裁阿里·哈里森(Ari Harrison)表示,他的团队采用分层方法来保持可见性。
“我们通过从谷歌工作空间(Google Workspace)的连接应用程序视图中提取数据,并将这些事件导入我们的安全信息和事件管理系统(SIEM),来维护一个实时更新的连接应用程序清单,”他表示,“微软365提供了类似的遥测技术,而云访问安全代理工具可在需要时补充可见性。”
这种分层方法让Bamko能够清晰地了解哪些AI工具正在接触公司数据、由谁授权以及它们拥有哪些权限。
基于云端的一体化集成平台即服务(iPaaS)Boomi的产品高级副总裁马尼·吉尔(Mani Gill)认为,手动审计已不再足够。
“有效的清单管理需要超越定期审计,实现对整个数据生态系统的持续、自动化可见性,”他表示,并补充道,良好的治理政策可确保所有AI代理,无论是已批准的还是内置于其他工具中的,都通过一个中央平台发送和接收数据。这使企业能够即时、实时地了解每个代理正在做什么、使用了多少数据以及是否遵守了规则。
Tanium首席安全顾问蒂姆·莫里斯(Tim Morris)同意,对每台设备和应用进行持续发现是关键。“AI工具可能一夜之间就冒出来,”他表示,“如果你的环境中出现了新的AI应用程序或浏览器插件,你应该立即知道。”
03
加强数据保护和访问控制
在保护数据免受影子AI泄露方面,专家指出了相同的基础:数据防泄漏(DLP)、加密和最小权限。
“使用数据防泄漏规则阻止个人信息、合同或源代码上传到未经批准的域。”费舍尔表示。他还建议在数据离开企业前对敏感数据进行脱敏处理,并启用日志记录和审计跟踪功能,以跟踪已批准AI工具中的每个提示和响应。
哈里森对这种方法表示赞同,并指出Bamko专注于在实践中最重要的安全控制:出站数据防泄漏和内容检查,以防止敏感数据泄露;OAuth治理,以保持第三方权限最小化;以及访问限制,仅允许将机密数据上传到其生产力套件中已批准的AI连接器。
此外,该公司将广泛的权限(如对文档或电子邮件的读写访问权限)视为高风险,并要求明确批准,而狭窄的、只读权限则可以更快地获得批准,哈里森补充道。
“目标是允许安全的日常创造力,同时降低因单次点击而授予AI工具过多权限的风险。”他表示。
泰勒补充道,安全必须在各种环境中保持一致。“对所有敏感数据进行静态、使用中和传输中的加密,对数据访问权限实施最小权限和零信任策略,并确保数据防泄漏系统能够扫描、标记和保护敏感数据。”
他指出,公司应确保这些控制在桌面、移动和网页端上都能正常工作,并随着新情况的出现不断检查和更新它们。
04
明确界定并传达风险承受能力
界定风险承受能力既关乎沟通,也关乎控制。费舍尔建议CIO将风险承受能力与数据分类挂钩,而非基于意见。他的团队使用一个简单的颜色编码系统:绿色代表低风险活动,如营销内容,黄色代表内部文档,必须使用已批准的工具,红色代表客户或财务数据,不能与AI系统一起使用。
“风险承受能力应基于业务价值和监管义务。”莫里斯表示。与费舍尔一样,莫里斯建议将AI使用分为清晰的类别,明确哪些是允许的、哪些需要批准、哪些是禁止的,并通过领导层简报、入职培训和内部门户网站传达这一框架。
帕特里亚表示,巴布森的AI治理委员会在这一过程中发挥着关键作用。“当潜在风险出现时,我们会将其提交给委员会进行讨论,并共同制定缓解策略,”她表示,“在某些情况下,我们决定禁止员工使用某些工具,但允许在课堂上使用,这种平衡有助于管理风险,同时不抑制创新。”
05
促进透明度和信任文化
透明度是管理影子AI的关键,员工需要知道什么正在被监控以及为什么被监控。
“透明度意味着员工始终知道什么是被允许的、什么正在被监控以及为什么被监控,”费舍尔表示,“在公司内联网上公布你的治理方法,并包括良好和有风险的AI使用的真实案例,这不是为了抓住人们的把柄,你正在建立信心,让人们相信利用AI是安全且公平的。”
泰勒建议公布一份官方认可的AI产品清单,并保持更新。“明确说明尚未提供的功能的交付路线图。”他表示,并提供一个请求例外或新工具的流程,这种开放态度表明治理是为了支持创新,而非阻碍创新。
帕特里亚表示,除了技术控制和明确的政策外,建立专门的治理小组,如AI治理委员会,可以极大地提高企业管理影子AI风险的能力。
“当潜在风险出现时,例如对DeepSeek和Fireflies.AI等工具的担忧,我们会共同制定缓解策略。”她表示。
帕特里亚补充道,这个治理小组不仅审视和处理风险,还解释其决策及其背后的原因,有助于建立透明度和共同责任感。
莫里斯对此表示赞同。“透明度意味着没有意外,员工应该知道哪些AI工具是被批准的、决策是如何做出的,以及有问题或新想法时应该去哪里。”他表示。
06
建立持续的、基于角色的AI培训
培训是防止AI工具意外误用的最有效方法之一,关键在于简洁、相关且持续。
“保持培训简短、直观且针对特定角色,”费舍尔表示,“避免使用冗长的幻灯片,而是使用故事、快速演示和清晰的示例。”
帕特里亚表示,巴布森将AI风险意识纳入年度信息安全培训中,并定期发送关于新工具和新兴风险的通讯。
“提供常规培训课程,以确保员工了解已批准的AI工具和新兴风险,同时鼓励部门AI倡导者促进对话并分享实践经验,突出AI采用的益处和潜在陷阱。”她补充道。
泰勒建议将培训嵌入浏览器中,以便员工在使用工具时直接学习最佳实践。“在网页浏览器中剪切粘贴或拖放演示文稿看似无害,直到你的敏感数据离开了你的生态系统。”他表示。
吉尔指出,培训应将负责任的使用与绩效成果联系起来。
“员工需要明白合规性和生产力是相辅相成的,”他表示,“与影子AI相比,已批准的工具能更快地提供结果、提高数据准确性并减少安全事件。基于角色的、持续的培训可以展示指导方针和治理如何保护数据和效率,确保AI加速工作流程,而不是创造风险。”
负责任的AI使用是良好的商业实践
归根结底,管理影子AI不仅仅是为了降低风险,也是为了支持负责任的创新。专注于信任、沟通和透明度的CIO可以将一个潜在问题转化为竞争优势。
“当系统能够满足员工的需求时,人们通常不会试图违反系统,特别是当用户采用影子AI方法会面临更多阻力时。”泰勒表示。
莫里斯对此表示赞同。“目标不是吓唬人们,而是让他们在行动前三思,”他表示,“如果他们知道已批准的路径既简单又安全,他们就会选择它。”
这就是CIO应该努力实现的未来:一个人们可以安全创新、被信任进行试验并保护数据的地方,因为负责任的AI使用不仅仅是合规,也是良好的商业实践。
关于企业网D1net(www.d1net.com)
国内头部to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)
如果您在企业IT、网络、通信行业的某一领域工作,并希望分享观点,欢迎给企业网D1net投稿。封面图片来源于摄图网
投稿邮箱:
editor@d1net.com
合作电话:
010-58221588(北京公司)
021-51701588(上海公司)
合作邮箱:
Sales@d1net.com
企业网D1net旗下信众智是CIO(首席信息官)的专家库和智力输出及资源分享平台,有六万多CIO专家,也是目前最大的CIO社交平台。
信众智对接CIO为CIO服务,提供数字化升级转型方面的咨询、培训、需求对接等落地实战的服务。也是国内最早的toB共享经济平台。同时提供猎头,选型点评,IT部门业绩宣传等服务。
扫描 “二维码” 可以查看更多详情

