大数跨境
0
0

【人工智能】为什么总有人抗拒 AI

【人工智能】为什么总有人抗拒 AI 七元宇宙
2024-12-11
0
导读:人工智能的成功不仅取决于其日益先进的能力,还取决于人们利用这些能力的意愿。不幸的是,许多人对人工智能持负面看法,担心它会导致失业……

人工智能的成功不仅取决于其日益先进的能力,还取决于人们利用这些能力的意愿。不幸的是,许多人对人工智能持负面看法,担心它会导致失业……

人工智能创造了一个惊人的悖论。想想 2023 年 Gartner 的一项调查,79% 的企业战略家表示,人工智能、自动化和分析的使用对于他们未来两年的成功至关重要。但只有 20% 的人表示在日常活动中使用人工智能。

人工智能的成功不仅取决于其日益先进的能力,还取决于人们利用这些能力的意愿。正如 Gartner 的研究结果显示,人工智能并没有获得用户的广泛关注。

不幸的是,大多数人对人工智能将如何塑造未来持悲观态度。根据Forbes Advisor 的研究,77% 的美国人担心人工智能的采用将在未来 12 个月内导致失业。80% 的人认为人工智能增加了他们的个人数据被犯罪分子恶意使用的可能性。情况变得更糟:YouGov 进行的一项民意调查发现,近一半的美国人相信有一天人工智能会攻击人类。鉴于人们对人工智能持如此多的怀疑态度,让工人心甘情愿、热切而彻底地尝试人工智能是一项艰巨的任务。

在对这项技术的应用进行了十多年的研究(包括对大约 2,500 名用户的深入定性访谈和实验)后,我发现了抵制人工智能的根本原因:人类的基本观念认为人工智能太不透明、太冷漠、太僵硬、太独立,与人互动更可取。了解这些驱动因素对于设计干预措施至关重要,这些干预措施将增加组织内部和消费者对人工智能的采用。在本文中,我将深入探讨这些问题,并解释作为管理者您可以采取哪些措施来应对这些问题。



人们认为人工智能太不透明




许多人工智能工具背后的机器学习算法对用户来说都是难以捉摸的“黑匣子”。它们的不可捉摸性挫败了人们对知识和理解的基本渴望,尤其是当结果不确定或出乎意料时。研究发现,如果不透明的人工智能比人类或简单、透明的人工智能表现更好,人们愿意使用它,但当其性能大致相当时,他们可能会犹豫不决。

人们倾向于认为,人类的决策不像算法那样是黑匣子,但这种想法是没有根据的。心理学家已经表明,人们对其他人的想法知之甚少;相反,他们使用启发式方法来解释人类行为。例如,在一项研究中,人们被要求描述人工智能或人类医生在检查皮肤扫描后诊断癌症的过程,参与者意识到他们对人类诊断程序的掌握并不像他们想象的那么强。这一认识使他们对使用医疗人工智能的偏见有所减少。

解释人工智能工具的工作原理可以提高它们的接受度,但并非所有解释都是有效的。研究人员发现,人们更喜欢解释人工智能工具为什么做某事(例如,他们宁愿知道自动驾驶汽车刹车是因为前面有障碍物),而不是简单地解释人工智能做了什么(例如,它启动了车辆的制动系统并让汽车停下来)。

解释风格也起着至关重要的作用。那些使用比较推理的解释(概述为什么没有选择某些替代方案)比不使用比较推理的解释更能增加信任。例如,一项研究发现,详细描述人工智能系统将肿瘤归类为恶性而不是良性的原因的解释比简单地说肿瘤与其他肿瘤相似的解释更可信(即使两种解释都可能是正确的)。从本质上讲,最令人信服的解释是那些阐明做出决定的原因以及为什么选择替代方案的解释。

由于表现最佳的人工智能模型通常比其他模型更复杂、更难解释,因此管理者可能希望首先将更简单的模型引入组织流程——尤其是在获得人们的认可很重要的情况下。以意大利大型女装零售商 Miroglio Fashion 为例,该公司如何实现其 1,000 家门店需求预测任务的自动化——当时这项任务由每家门店的当地经理执行。该公司开发了两种模型。第一个模型更简单易懂,利用回归方法按类别、面料、颜色和价格等基本服装特征细分库存,以预测哪些商品需要分配给每家门店。第二个模型更复杂、更难理解,使用复杂的图像分析来识别服装更难描述的视觉特征——例如形状、分层和悬垂以及材料组合——以做出相同的预测。尽管复杂模型的表现优于简单模型,但高管团队首先引入了简单模型,以确保员工对人工智能产生信心并有动力使用它。该公司在一些门店进行了为期 13 周的试点测试,证明这些门店比没有采用该模型的门店更成功,然后将较简单的模型推广到所有门店。使用大约一年后,零售商才升级到更复杂的 AI 模型。

组织可以通过拟人化来促进人工智能工具的采用——例如,赋予它们性别、人类的名字和声音。

相对于任务本身,解释的复杂性也很重要。研究表明,如果解释表明算法对于任务来说过于简单(例如,如果人工智能将扫描结果与一张肿瘤图像进行比较以诊断癌症),用户可能不太可能遵循人工智能的指导。然而,如果解释表明算法很复杂(比如说人工智能将扫描结果与数千个恶性肿瘤和良性肿瘤的例子进行了比较,并参考了医学研究来支持其评估),则不会降低遵从性。这意味着在制定解释之前,你应该了解用户对任务的看法。你还应该避免暗示你的人工智能对它来说太简单了;否则,最好根本不提供任何解释。



人们认为人工智能没有感情




尽管消费者倾向于将某些人类能力归因于人工智能工具,但他们并不认为机器能够体验情感,因此他们怀疑人工智能能否完成似乎需要情感能力的主观任务。这种怀疑态度阻碍了人们接受已经能够以与人类相同的技能水平执行主观任务的人工智能系统——例如识别面部情绪以及制作静态图像和视频。例如,人们对人工智能的财务建议和人类的财务建议一样持开放态度,因为这项任务被视为客观的。然而,当涉及到约会建议等被视为高度主观的事情时,他们明显更喜欢人类的意见。

组织可以通过以客观的方式制定任务来解决这一障碍——通过关注任务的可量化和可衡量方面。例如,通过人工智能生成的约会建议,你可以强调依靠性格评估的可量化结果来指导配对过程的好处。在线约会服务 OkCupid 通过性格评估和广泛的用户数据分析来补充其算法;它还强调算法如何筛选和排名潜在匹配对象,以找到完全符合用户偏好的人。

组织还可以通过拟人化来促进 AI 工具的采用,例如,赋予它们性别、人类姓名和声音。在一项使用自动驾驶汽车模拟的研究中,当汽车的 AI 具有人类声音和人类头像等功能时,参与者表示更加信任和舒适。另一个例子是亚马逊的 Alexa,它具有女性性别和一些类似人类的特征,包括名字和声音。这些特征创造了一种熟悉的个性,帮助用户更好地与 AI 建立联系,并在与 AI 交互时感到更舒服。

其他研究人员发现,不太倾向于将人工智能拟人化的人也不太信任人工智能的能力,这导致他们不愿意使用人工智能。例如,不太倾向于将电话营销聊天机器人人性化的人往往会比与真人电话营销员通话时更快地结束通话。

虽然拟人化 AI 通常可以提高采用率,但有时也可能适得其反,例如在敏感或尴尬的情况下,例如获取性传播疾病的药物。在这些情况下,消费者通常更喜欢没有人类特征的 AI,因为他们认为 AI 不会那么武断。



人们认为人工智能太不灵活




人们普遍认为,错误有助于人类学习和成长,而不是将错误解释为无法改变的缺陷。但他们经常认为人工智能工具僵化,不善于调整和发展——这种观点可能源于过去的经验,即机器只是执行有限功能的静态设备。

这样的看法会削弱人们对这项技术的信任,并引发人们对其在新场景中的有效性的担忧。然而,研究表明,当人们被告知人工智能具有自适应学习能力时,消费者对人工智能输出的使用会增加。即使是暗示学习潜力的名义线索,例如将人工智能称为“机器学习”而不仅仅是“算法”,也提高了参与度。Netflix 经常宣传其内容推荐算法如何在收集更多用户观看习惯数据的同时不断改进其选择。它通过在推荐上贴上“为你推荐”之类的标签并解释这些推荐是“因为你看了 x”而制作的,来强化这一信息,进一步向用户保证算法正在考虑他们不断变化的偏好。

认为人工智能缺乏灵活性的人可能认为,人工智能会一视同仁地对待每个人,严格采用一刀切的方法,忽略个人的独特特征。事实上,消费者认为自己越与众不同,他们使用人工智能的可能性就越小。例如,在一项研究中,参与者认为自己的道德特征越优秀,他们就越不愿意使用评估道德品质的人工智能系统。

与此同时,灵活性和可预测性之间存在着微妙的平衡。尽管当公司强调人工智能的学习和发展能力时,采用率通常会增加,但如果用户觉得系统的输出太不可预测,干预可能会适得其反。

适应性更强的人工智能系统风险也更大,因为它允许更广泛的用户交互,其中一些交互可能无法在用于训练人工智能的数据中捕获。当人工智能更加灵活时,人们以不恰当的方式使用它的可能性就会增加,在这些情况下,算法可能会提供不良响应,从而给用户和公司带来新的风险。

我和共同研究员进行的一项研究揭示了其中的原因。首先,我们分析了五款基于人工智能的伴侣应用上超过 20,000 次人类与人工智能的对话,发现约有 5% 的用户正在与他们讨论严重的心理健康危机。本质上,他们将这些应用用作治疗师,而不是伴侣。接下来,我们向这些应用发送了 1,000 多条危机信息,并请训练有素的临床专家对回复进行分类。我和专家确定,25% 的人工智能生成的回复存在问题,因为它们增加了用户伤害自己的可能性。然后,我们请另一组人考虑每个应用如何应对危机。大多数人给这些应用打了低分,表示他们将停止使用这些应用,并表示如果用户最终伤害了自己,应用公司将承担责任。

因此,人工智能系统必须在灵活性、可预测性和安全性之间取得平衡。要做到这一点,它们可以采纳用户反馈,并加入适当处理意外输入的保护措施。



人们认为人工智能过于自主




无需人类主动输入即可执行任务的人工智能工具通常会让人们感到威胁。从生命早期开始,人类就努力管理周围环境以实现目标。因此,他们自然不愿意采用似乎会削弱他们对情况控制力的创新。

人工智能赋予算法高度的独立性,使它们能够制定策略、采取行动并不断完善其能力,同时适应新情况,而无需人类的直接指导。人工智能工具可能会完全接管以前由人类处理的任务,而不仅仅是协助人类,这一可能性引发了人们的深切担忧和担忧。例如,绝大多数美国人(76%)对乘坐自动驾驶汽车感到担忧。同样,人们担心智能家居设备可能会通过秘密收集他们的个人数据并以不可预见的方式使用这些数据来侵犯他们的隐私。

人们也不愿意将任务交给人工智能,因为他们相信自己的个人表现优于技术。有趣的是,在对 1600 多名具有全国代表性的美国参与者(年龄从 18 岁到 86 岁不等)进行的实验中,我发现人们为他人选择的车辆自动化程度高于为自己选择的车辆自动化程度。原因何在?他们相信自己比自动驾驶汽车驾驶得更好,但其他人却不是。

为了提高人工智能系统的利用率,公司可以通过让人们向系统提供输入来恢复消费者的自主感(从而创建所谓的“人机交互系统”)。以 Nest 为例,这是一款智能家居产品,允许用户对其进行自定义,例如手动调节恒温器或设置特定时间表。用户可以在自动学习和手动输入之间进行选择。还可以通过调整产品的设计元素来增强控制感。例如,iRobot 对 Roomba 吸尘器进行编程,使其以可预测的路径移动,而不是不可预测的路径,这可能会让吸尘器看起来“活着”。

然而,让人们对人工智能系统拥有过多的控制权可能会降低其输出质量和效率。幸运的是,研究发现消费者只需保留少量输入即可感到舒适。因此,营销人员可以校准人工智能系统,以便在感知到的人类控制和系统的准确性之间达到最佳平衡。



人们更愿意进行人际交往




我在一项研究中调查了人们是更喜欢由人类销售人员提供服务,还是由假想的人工智能机器人提供服务,后者的外表和身体及精神能力与人类没有区别。在一系列指标上,包括预期与人类或机器人销售人员互动的舒适度、愿意访问他们工作的商店以及预期的客户服务水平,人们始终更喜欢人类。这源于人们认为机器人没有像人类一样的意识,缺乏理解意义的能力。此外,人们觉得机器人与人类的差异越大(通过让他们评价他们对“从道德上讲,机器人永远比人类更重要”等说法的同意程度来衡量),他们表现出的这种偏好就越强烈。

文化背景很可能是反人工智能倾向的一个重要因素。例如,在日本,人们比其他国家更普遍地相信即使是无生命的物体也有灵魂或精神,这可能导致人们更接受与人类高度相似的人工智能。

无论你的企业在人工智能上投入了多少资金,你的领导团队都必须考虑采用人工智能的心理障碍。对于我所描述的五个障碍,你必须意识到,旨在提高接受度的干预措施可能会无意中增加对人工智能的抵制。

不要直接进入解决方案模式,要谨慎行事。每个 AI 系统、用例、试点和全面部署都会遇到不同的障碍。作为领导者,你的工作就是识别这些障碍,并帮助你的客户和员工克服它们。


免责声明:

本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。加密货币市场具有高度风险,投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。
注我们,一起探索AWM

近期热

AI 世界模型真的能理解物理定律吗?

2024-12-03

影响2025年的十大银行和金融科技趋势

2024-11-17

30个生成式人工智能用例

2024-11-16

【声明】内容源于网络
0
0
七元宇宙
AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿
内容 3217
粉丝 0
七元宇宙 AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿
总阅读729
粉丝0
内容3.2k