大数跨境
0
0

CIO有效管理影子AI的六大策略

CIO有效管理影子AI的六大策略 CIO信息主管D1net
2025-12-01
4
导读:随着员工在个人设备和未经批准的平台上使用生成式AI,影子AI正在成为CIO面临的主要风险点,包括数据泄露、合规违规与访问控制失效。
点击上方“蓝色字体”,选择 “设为星标

关键讯息,D1时间送达!


图片




业网D1net




随着员工在个人设备和未经批准的平台上使用生成式AI,影子AI正在成为CIO面临的主要风险点,包括数据泄露、合规违规与访问控制失效。研究报告显示,43%的员工会在个人设备上用AI办公,25%的员工使用未批准的AI工具。专家强调,影子AI不应被简单禁止,而应通过明确规则、技术控制和信任文化加以引导。


随着员工自行尝试使用生成式AI工具,CIO们正面临着影子AI这一熟悉的挑战。尽管这往往出于善意的创新,但它会在数据隐私、合规性和安全性方面带来严重风险。

根据1Password发布的2025年度报告《访问信任鸿沟》(The Access-Trust Gap),影子AI会增加企业面临的风险,因为43%的员工会使用AI应用程序在个人设备上办公,而25%的员工会在工作中使用未经批准的AI应用程序。

尽管存在这些风险,专家表示,影子AI并非要完全摒弃,而是要理解、引导和管理它。以下是六种策略,可帮助CIO在确保敏感数据安全的同时,鼓励员工进行负责任的试验。

01

设立明确的指导方针,同时留出试验空间

管理影子AI,首先要明确哪些行为是被允许的,哪些是不被允许的。西海岸家居(West Shore Home)的CTO丹尼·费舍尔(Danny Fisher)建议,CIO可将AI工具分为三类:已批准、受限制和禁止使用。

“已批准的工具经过审查并得到支持,”他表示,“受限制的工具可在受控空间内使用,且有明确限制,例如仅使用模拟数据。禁止使用的工具通常是公共的或未加密的AI系统,应在网络或应用程序编程接口(API)层面进行屏蔽。”

为每种类型的AI使用场景配备安全的测试空间,例如内部OpenAI工作区或安全的API代理,可让团队自由试验,而不会危及公司数据,他补充道。

作为SAP旗下公司的LeanIX的首席企业架构师杰森·泰勒(Jason Taylor)表示,在当今快速发展的AI世界中,明确的规则至关重要。

“要明确哪些工具和平台是被批准的,哪些不是,”他表示,“还要明确哪些场景和使用案例是被批准的,哪些不是,以及员工在使用AI时,如何处理公司数据和信息,例如,一次性上传与剪切粘贴或深度集成的区别。”

泰勒补充道,公司还应制定一份清晰的清单,说明哪些类型的数据在何种情况下使用是安全的或不安全的。现代数据防泄漏工具可通过自动查找和标记数据,并对谁可以访问哪些数据实施最小权限或零信任规则,从而提供帮助。

巴布森学院(Babson College)的CIO帕蒂·帕特里亚(Patty Patria)指出,CIO为无代码/低代码AI工具和氛围编码平台设立具体的指导方针也很重要。

“这些工具使员工能够快速构建想法原型并试验AI驱动的解决方案,但当它们连接到专有或敏感数据时,也会带来独特的风险。”她表示。

为应对这一问题,帕特里亚表示,公司应设置安全层,让人们能够自行安全地进行试验,但每当有人想将AI工具连接到敏感系统时,都需要进行额外审查和批准。

“例如,我们最近为员工制定了清晰的内部指导方针,概述了何时应让安全团队参与应用程序审查,以及何时可以自主使用这些工具,确保创新和数据保护均得到优先考虑,”她表示,“我们还维护一份我们支持的AI工具清单,以及一份我们不建议使用的、风险过高的AI工具清单。”

02

持续保持可见性并进行清单跟踪

CIO无法管理他们看不到的东西,专家表示,维护一份准确且最新的AI工具清单是对抗影子AI最重要的防御措施之一。

“最重要的是营造一种文化,让员工愿意分享他们使用的工具,而不是隐藏它们。”费舍尔表示。他的团队将季度调查与自助式登记系统相结合,员工可在该系统中记录他们使用的AI工具,然后,IT部门通过网络扫描和API监控对这些记录进行验证。

品牌制造商Bamko的IT副总裁阿里·哈里森(Ari Harrison)表示,他的团队采用分层方法来保持可见性。

“我们通过从谷歌工作空间(Google Workspace)的连接应用程序视图中提取数据,并将这些事件导入我们的安全信息和事件管理系统(SIEM),来维护一个实时更新的连接应用程序清单,”他表示,“微软365提供了类似的遥测技术,而云访问安全代理工具可在需要时补充可见性。”

这种分层方法让Bamko能够清晰地了解哪些AI工具正在接触公司数据、由谁授权以及它们拥有哪些权限。

基于云端的一体化集成平台即服务(iPaaS)Boomi的产品高级副总裁马尼·吉尔(Mani Gill)认为,手动审计已不再足够。

“有效的清单管理需要超越定期审计,实现对整个数据生态系统的持续、自动化可见性,”他表示,并补充道,良好的治理政策可确保所有AI代理,无论是已批准的还是内置于其他工具中的,都通过一个中央平台发送和接收数据。这使企业能够即时、实时地了解每个代理正在做什么、使用了多少数据以及是否遵守了规则。

Tanium首席安全顾问蒂姆·莫里斯(Tim Morris)同意,对每台设备和应用进行持续发现是关键。“AI工具可能一夜之间就冒出来,”他表示,“如果你的环境中出现了新的AI应用程序或浏览器插件,你应该立即知道。”

03

加强数据保护和访问控制

在保护数据免受影子AI泄露方面,专家指出了相同的基础:数据防泄漏(DLP)、加密和最小权限。

“使用数据防泄漏规则阻止个人信息、合同或源代码上传到未经批准的域。”费舍尔表示。他还建议在数据离开企业前对敏感数据进行脱敏处理,并启用日志记录和审计跟踪功能,以跟踪已批准AI工具中的每个提示和响应。

哈里森对这种方法表示赞同,并指出Bamko专注于在实践中最重要的安全控制:出站数据防泄漏和内容检查,以防止敏感数据泄露;OAuth治理,以保持第三方权限最小化;以及访问限制,仅允许将机密数据上传到其生产力套件中已批准的AI连接器。

此外,该公司将广泛的权限(如对文档或电子邮件的读写访问权限)视为高风险,并要求明确批准,而狭窄的、只读权限则可以更快地获得批准,哈里森补充道。

“目标是允许安全的日常创造力,同时降低因单次点击而授予AI工具过多权限的风险。”他表示。

泰勒补充道,安全必须在各种环境中保持一致。“对所有敏感数据进行静态、使用中和传输中的加密,对数据访问权限实施最小权限和零信任策略,并确保数据防泄漏系统能够扫描、标记和保护敏感数据。”

他指出,公司应确保这些控制在桌面、移动和网页端上都能正常工作,并随着新情况的出现不断检查和更新它们。

04

明确界定并传达风险承受能力

界定风险承受能力既关乎沟通,也关乎控制。费舍尔建议CIO将风险承受能力与数据分类挂钩,而非基于意见。他的团队使用一个简单的颜色编码系统:绿色代表低风险活动,如营销内容,黄色代表内部文档,必须使用已批准的工具,红色代表客户或财务数据,不能与AI系统一起使用。

“风险承受能力应基于业务价值和监管义务。”莫里斯表示。与费舍尔一样,莫里斯建议将AI使用分为清晰的类别,明确哪些是允许的、哪些需要批准、哪些是禁止的,并通过领导层简报、入职培训和内部门户网站传达这一框架。

帕特里亚表示,巴布森的AI治理委员会在这一过程中发挥着关键作用。“当潜在风险出现时,我们会将其提交给委员会进行讨论,并共同制定缓解策略,”她表示,“在某些情况下,我们决定禁止员工使用某些工具,但允许在课堂上使用,这种平衡有助于管理风险,同时不抑制创新。”

05

促进透明度和信任文化

透明度是管理影子AI的关键,员工需要知道什么正在被监控以及为什么被监控。

“透明度意味着员工始终知道什么是被允许的、什么正在被监控以及为什么被监控,”费舍尔表示,“在公司内联网上公布你的治理方法,并包括良好和有风险的AI使用的真实案例,这不是为了抓住人们的把柄,你正在建立信心,让人们相信利用AI是安全且公平的。”

泰勒建议公布一份官方认可的AI产品清单,并保持更新。“明确说明尚未提供的功能的交付路线图。”他表示,并提供一个请求例外或新工具的流程,这种开放态度表明治理是为了支持创新,而非阻碍创新。

帕特里亚表示,除了技术控制和明确的政策外,建立专门的治理小组,如AI治理委员会,可以极大地提高企业管理影子AI风险的能力。

“当潜在风险出现时,例如对DeepSeek和Fireflies.AI等工具的担忧,我们会共同制定缓解策略。”她表示。

帕特里亚补充道,这个治理小组不仅审视和处理风险,还解释其决策及其背后的原因,有助于建立透明度和共同责任感。

莫里斯对此表示赞同。“透明度意味着没有意外,员工应该知道哪些AI工具是被批准的、决策是如何做出的,以及有问题或新想法时应该去哪里。”他表示。

06

建立持续的、基于角色的AI培训

培训是防止AI工具意外误用的最有效方法之一,关键在于简洁、相关且持续。

“保持培训简短、直观且针对特定角色,”费舍尔表示,“避免使用冗长的幻灯片,而是使用故事、快速演示和清晰的示例。”

帕特里亚表示,巴布森将AI风险意识纳入年度信息安全培训中,并定期发送关于新工具和新兴风险的通讯。

“提供常规培训课程,以确保员工了解已批准的AI工具和新兴风险,同时鼓励部门AI倡导者促进对话并分享实践经验,突出AI采用的益处和潜在陷阱。”她补充道。

泰勒建议将培训嵌入浏览器中,以便员工在使用工具时直接学习最佳实践。“在网页浏览器中剪切粘贴或拖放演示文稿看似无害,直到你的敏感数据离开了你的生态系统。”他表示。

吉尔指出,培训应将负责任的使用与绩效成果联系起来。

“员工需要明白合规性和生产力是相辅相成的,”他表示,“与影子AI相比,已批准的工具能更快地提供结果、提高数据准确性并减少安全事件。基于角色的、持续的培训可以展示指导方针和治理如何保护数据和效率,确保AI加速工作流程,而不是创造风险。”

负责任的AI使用是良好的商业实践

归根结底,管理影子AI不仅仅是为了降低风险,也是为了支持负责任的创新。专注于信任、沟通和透明度的CIO可以将一个潜在问题转化为竞争优势。

“当系统能够满足员工的需求时,人们通常不会试图违反系统,特别是当用户采用影子AI方法会面临更多阻力时。”泰勒表示。

莫里斯对此表示赞同。“目标不是吓唬人们,而是让他们在行动前三思,”他表示,“如果他们知道已批准的路径既简单又安全,他们就会选择它。”

这就是CIO应该努力实现的未来:一个人们可以安全创新、被信任进行试验并保护数据的地方,因为负责任的AI使用不仅仅是合规,也是良好的商业实践。



版权声明:本文为企业网D1net编译,转载需在文章开头注明出处为:企业网D1net,如果不注明出处,企业网D1net将保留追究其法律责任的权利。


(来源:企业网D1net)




关于企业网D1net(www.d1net.com)




国内头部to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)



如果您在企业IT、网络、通信行业的某一领域工作,并希望分享观点,欢迎给企业网D1net投稿。封面图片来源于摄图网

投稿邮箱:

editor@d1net.com

合作电话:

010-58221588(北京公司)

021-51701588(上海公司) 

合作邮箱:

Sales@d1net.com


企业网D1net旗下信众智是CIO(首席信息官)的专家库和智力输出及资源分享平台,有六万多CIO专家,也是目前最大的CIO社交平台。


信众智对接CIO为CIO服务,提供数字化升级转型方面的咨询、培训、需求对接等落地实战的服务。也是国内最早的toB共享经济平台。同时提供猎头,选型点评,IT部门业绩宣传等服务。

扫描 二维码 可以查看更多详情

图片

【声明】内容源于网络
0
0
CIO信息主管D1net
专注于企业IT网络通信领域的媒体。涵盖:云计算;数据中心;数据通信;存储;虚拟化;安全;企业应用软件;UC协作;视频会议;视频监控;呼叫中心;IP语音;服务器;测试;移动办公; 运营商企业业务;渠道等
内容 1726
粉丝 0
CIO信息主管D1net 专注于企业IT网络通信领域的媒体。涵盖:云计算;数据中心;数据通信;存储;虚拟化;安全;企业应用软件;UC协作;视频会议;视频监控;呼叫中心;IP语音;服务器;测试;移动办公; 运营商企业业务;渠道等
总阅读588
粉丝0
内容1.7k