大数跨境
0
0

人工智能治理:如何在获得回报的同时降低风险

人工智能治理:如何在获得回报的同时降低风险 联合汇数字创新生态
2021-03-25
2


AI治理涉及企业中许多的功能领域—数据隐私、算法偏差、合规性、道德规范等等。因此,解决人工智能技术使用的治理问题需要在多个层面上采取行动。


Tata Consultancy Services数据和分析业务负责人Kamlesh Mhashilkar说:“这种治理不是从IT或项目层面开始的。人工智能治理也发生在政府,董事会和CSO层面。”


例如,在医疗领域,人工智能模型必须通过严格的审核和检查。许多其他行业也有适用的法规。Mhashilkar说:“在董事会层面,这与经济行为有关。当您引入人工智能时,你会面临哪些风险?



对于最高管理层来说,人工智能议程是由目的驱动的。例如,CFO会考虑股东价值和盈利能力。CIO和首席数据官也是主要的利益相关者,对于市场和合规主管也是如此,更不用说客户和供应商了。


并非所有企业都需要在构建人工智能治理战略的每个方面都采取行动,尤其是比较小的企业,他们可能对大型供应商或监管机构的行为影响不大。


尽管如此,几乎所有企业都已经或将要开始使用人工智能和相关技术,即使只是简单地嵌入到他们使用的第三方工具和服务中。



当人工智能在没有适当监督的情况下使用时,就有可能会犯错误,损害业务运营,侵犯隐私权,违反行业法规或对企业造成不良宣传。


以下讲述了具有前瞻性思维的企业对人工智能项目是如何从试点扩展到生产,解决人工智能治理问题,他们的重点关注在于数据质量、算法性能、合规性和道德规范。


面对人工智能的伦理问题


今天,很少有比面部识别更受伦理关注的领域。 面部识别被滥用的可能性非常大,提供面部识别技术的企业正在遭受公众的抵制,有时甚至还会受到自己员工的抵制。


Patriot One Technologies旗下的Xtract AI就是这种情况,该企业使用图像识别来识别携带武器的人员。


Xtract的运营副总裁Justin Granek说,该技术还可以用于其他场合,例如识别不戴口罩或没有遵守社交距离准则的人。



他说,道德伦理成为了日常主要话题。“对我们来说,我们听到了许多企业里自下而上的关于这个话题的意见。我们的员工在说,‘我们在做什么’,并迫使领导层制定我们的治理政策。”


他说,客户有自己的一套要求,我们需要找到一种平衡。“我们的一个客户是加拿大国防部,有一些客户则从事医疗保健,他们会从不同的角度看待这件事。”


他说,最大的问题是要为哪些客户工作,以及该技术应该被运用在从事哪些工作。这是一个与企业使命有关的大决定。 但是,还必须解决一些始于数据的技术问题。


正确获取数据


算法偏差的最大来源是数据集。例如,对于面部识别来说,数据集在历史上并不代表普通人群。Granek说:“他们偏向白人男性。虽然这个问题已经得到纠正,但是还有很多其他问题需要去解决。”



专家可以帮助解决数据偏差的问题,商业数据供应商正在努力填补他们提供的数据中存在的空白。Granek说,也有创建综合数据集的方法,但解决办法往往归结为走出去,获得更好更多的数据。


对于Xtract的枪支检测算法来说,这意味着需要建立一个实验室,在其中填充各种退役枪支,并让许多人以不同的方式在不同的地方行走。


他说:“一种很天真的做法是,只在好莱坞寻找人们持枪行走的画面,但这并不能代表世界。”


相反,Xtract努力收集广泛的个人资料作为数据。“对于谁可能携带武器没有规定。我们找到很多不同的人,其中有一些学生还有一些年纪较大的人。”Geanek说。



对于某些人工智能应用程序而言,是否拥有准确且具有代表性的的数据集可能是生与死之间的区别,并具有重大的道德和伦理意义。但是,即使不良数据集的影响不会导致公共灾难,它们仍然可能对公司造成运营或财务上的损失,导致监管或合规性问题。


后者是来自总部位于墨西哥的Cemex的担忧。Cemex是世界上最大的建筑材料分销商之一,并成立已有100多年的历史。他正通过在供应链管理和运营中使用人工智能来重塑自己。


Cemex大约三年前开始研究人工智能和相关技术,以扩大市场份额,改善客户服务并提高利润。



企业首席人工智能官Nir Kaldero表示:“去年和今年,我们实际上看到了人工智能在全球范围内的价值,而不只是在某个地方的小规模试点。”


他说,随着人工智能牢固地融入公司的DNA,Cemex意识到有必要在其周围建立治理结构。


这一切都始于数据。Kaldero说:“没有良好的信息架构,就不会有好的、可靠的人工智能。没有良好的信息,就无法拥有良好、可靠的模型。



在Cemex,数据治理涵盖了安全性,监控,隐私,合规性和道德规范。企业需要知道数据的位置、使用位置和方式,是否符合法规要求以及是否没有偏见。


Kaldero说,Cemex依靠Snowflake云数据平台管理数据,而Satori则仅管理数据访问,另一位专注于治理的高层管理人员则领导治理团队。


正确设置模型


除了数据治理之外,Cemex还开始围绕AI模型和结果创建治理。Kaldero说:“这是全新的东西。不仅仅是为了Cemex,更是为了全世界。”


这项任务由Kaldero的AI和数据科学部门以及CIO组共同承担。



Cemex目前使用人工智能来预测零件需求,这样就可以通过与供应商协商更好的交易来节省成本。他还将使用人工智能来安排卡车的路线和时间,以及销售和定价。如果这些计算中的任何一项不正确,企业都会蒙受大量损失。


因此,为了防止模型漂移和算法偏差,Cemex使用了基于Seattle的Algorithmia的技术。


KenSci是另一家关注人工智能模型下游结果的企业。这家位于西雅图的企业使用人工智能分析医疗保健数据。在这个领域中,有无准确的AI模型实际上可能是生死攸关的问题。



首席数据科学家Muhammad Aurangzeb Ahmad说:“我们总是从与具有代表性的不同利益相关者一起审查人工智能模型的目标开始。”为了确保这些模型透明且负责任,可解释性是一个核心组成部分。


他说:“我们甚至发布了一个开源Python软件包fairMLHealth,任何人都可以使用它来衡量机器学习模型的公平性。”


Ahmad还建议审核人工智能模型在不同群体之间的表现,以确保公平对待少数群体和其他弱势群体。


他说:“人工智能模型的透明度和可解释性使它们更容易被最终用户使用和信任,而且更易于审核,并在需要时进行纠正。


人工智能与道德


在制定治理策略时要考虑的另一个关键领域是人工智能使用的道德规范。


Ahmad说:“立法没有跟上技术的发展。机器学习系统的创造者有责任将机器学习系统的价值与道德目标结合起来。当需要权衡时,我们应该谨慎行事。”


数字服务咨询公司Nerdery的CTO Joe Tobolski认为,企业越来越意识到人工智能的潜在道德风险。但是,他们是否完全了解自己正在运行的系统以及所拥有的数据呢?可能还没有。



很少有企业拥有明确的人工智能道德规范来应用于他们的人工智能项目、数据源和技术的使用。他说:“这就是我希望我们去做的事情:有一个强大的、编码框架来解决这些问题。”


Cemex是一家故意限制人工智能使用的企业,目的是最大程度地减少潜在的道德问题。


Kaldero说,我们将改善服务和帮助客户的项目优先于那些只会减少员工人数的项目。对于我们来说员工是企业的中心,而不是技术。我们可以使我们所有的客户呼叫中心自动化,但这不符合我们的利益。 


Cemex对于能成为为人们提供工作机会的雇主感到非常自豪。在我们企业的使命中,这是一件非常美好的事情。



选择人工智能项目是为了对员工产生积极影响。以安全为例。“这对人工智能来说是一个巨大的创举。Cemex几乎已经将事故发生的概率降为零,极大地减少了事故,使其降至零的方法就是通过图像识别。”Kaldero说。


人工智能治理策略


对于总部位于马萨诸塞州斯普林菲尔德的人寿保险公司万通人寿来说,人工智能治理是建立在一套不断发展的数据伦理原则基础上的,这些数据伦理原则指导着行动和决策。


该企业数据、战略和架构主管Sears Merritt表示:“我们专门制定了一套原则,用人工智能来发展业务,使其与企业价值观和政策制定者的利益相一致。我们还建立了一个团队,通过建立政策框架来监督人工智能的使用。”



大约一年前,万通人寿开始研究人工智能的道德规范和治理,当时该企业意识到需要证明并确保其使用人工智能是为了保单持有人的利益。


Merritt现在监管着一个6人组成的团队,其中包括人工智能道德和治理顾问,他们跟踪算法是否遵循治理原则以及它们如何随时间变化,为企业已经遵循的方法创建一个正式的结构。


Merrit说:“我们相信我们的工作会对所有利益相关者有巨大的影响。”Merrit建议从与企业价值观和客户利益保持一致的核心原则入手,并与法律,合规,道德和商业合作伙伴共同实施 。


下一步,万通人寿计划将其框架推广为行业最佳实践。


护栏的重要性


Booz Allen Hamilton的高级副总裁John Larson说,关于人工智能治理的许多最佳实践应该会让人感觉有些熟悉。


他说:“我已经这样做了25年。软件的开发,算法的原理以前就存在过。但是数据的速度,处理能力和学习算法以前并不存在。”



人工智能系统对培训数据非常渴望,通常需要使用比以往任何时候都大的数据集。而且由于当今公司的数字化,数据正以前所未有的速度从网站、网络传感器、物联网设备和其他来源传入。


处理这些数据的能力也比以往任何时候都要显著提高,这在很大程度上要归功于能够以几乎无限的方式扩展的云资源。


最后,一些人工智能系统的反馈特性意味着,它们实际上是在行进中自行学习。这些学习可以使它们以意想不到的速度朝着人类做出反应的方向前进。



Larson说:“ 25年前的治理模型在原理上与现在是相同的,但它们不能随我们所面临的挑战而扩展。”他补充说,解决方案是在人工智能系统中内置自动防护措施。


例如,开发人员可以设置护栏。如果模型的预测精度超出预定目标,或者模型在设计参数范围内停止运行,则可能需要采取某种形式的干预。同样,如果进入系统的数据不再反映所需的功能,则可能会发出警报,要求您重新评估数据源或选择更适合传入数据的其他模型。


人工智能系统还有其他监控方式。例如,针对种族,年龄或宗教信仰等违禁关联进行最终建议测试,可以帮助您在问题导致监管罚款或公共关系灾难之前发现问题。



Larson说:“现在已经开发了一些工具,例如Google,Microsoft和Microsoft,它们可以评估一个模型是否偏向某些事物。在Booz Allen,我们也正在开发其中一些工具套件,并试图为我们所有的数据科学家提供工具。”


最后,Loeb&Loeb律师事务所隐私与安全业务合伙人Jessicalee表示,任何良好的人工智能治理计划都需要所有权和问责制。谁将主导这项计划,我们将如何解决失误?


Jessicalee说:“做得不好的企业可能会成为我们所了解的企业。”


不能保证企业能够完全避免算法、偏见、歧视性结果或其他危害带来的意外后果,但良好的治理肯定会有所帮助。





作者:Maria Korolov

原文地址:

www.cio.com/article/3611590/ai-governance-reducing-risk-while-reaping-rewards.html




【声明】内容源于网络
0
0
联合汇数字创新生态
联百家之力,推动中国企业数字化转型;合众家雄略,促进中国中小创新科技企业发展;汇各行英才,推进产业数字化共创数字经济新时代。
内容 676
粉丝 0
联合汇数字创新生态 联百家之力,推动中国企业数字化转型;合众家雄略,促进中国中小创新科技企业发展;汇各行英才,推进产业数字化共创数字经济新时代。
总阅读543
粉丝0
内容676