

人工智能的一个主要局限性在于它的子领域机器学习(ML)。目前,大多数ML系统都是通过监督学习来学习的,在监督学习中,它从提供的训练数据集中学习,依靠大量的数据来学习以达到准确的目的。
人工智能(AI),这被认为是近十年的热门话题之一。如今,它已成为一个流行词,涵盖了我们每天接触的产品和服务,从智能手机到收件箱,既帮助着我们,也追踪我们的行为,预测我们喜欢什么。不可否认的是它已经渗透到我们的生活中,不管我们喜欢与否,它都会一直存在。尽管围绕“人工智能”一词的炒作让许多人期待,这项技术能够完成人类可以完成的任务,但不会出现人为错误。然而,人工智能可能被夸大其词了,对其局限性认识的缺乏仍然存在。
“人工智能目前非常非常愚蠢”
去年,在谷歌云计算大会上,谷歌云计算的副总裁安德鲁·摩尔(Andrew Moore)说:“人工智能目前非常非常愚蠢。它真的很擅长做我们的大脑无法处理的某些事情,但我们不能按这种方式来进行涉及类比或创造性思维或跳出框的事情的通用推理。”这并不是说人工智能是愚蠢的,而摩尔试图揭示人工智能对公众的限制,因为最近对人工智能关注的激增导致许多人都陷入了不切实际的期望。谷歌云部门人工智能的领导者并不是第一个降低人们对人工智能的高度期望的人,Facebook副总裁兼首席人工智能科学家严乐村(Yan LeCun)曾在一次采访中提到,人工智能要想达到接近婴儿甚至动物的智能水平,还有很长的路要走。
“人工智能”这个词被过度夸大了,它并不是许多人认为的无所不知的虚拟半人神。事实上,它还远远不够。2018年,包括人工智能在内的一连串错误故障登上了全球媒体的头条。例如,在美国,一辆自动驾驶汽车在撞到行人时没有停车,导致了第一例涉及自动驾驶技术的死亡。
另一个例子与人工智能偏见有关,麻省理工学院(Massachusetts Institute of Technology)进行的一项研究报告称,肤色较深的女性有近35%的图像在面部识别软件上出现了错误,而肤色较浅的男性只有大约1%的错误率。
人工智能的局限性
重要的是技术有其局限性,人工智能也是如此。它的一个主要局限性在于子领域机器学习(ML)。目前,大多数ML系统都是通过监督学习来学习的,在监督学习中,它从提供的训练数据集中学习,依靠大量的数据来学习以达到准确的目的。
这类模型的训练从提供数千个已知正确答案的示例开始。例如,如果我们想使用ML在CCTV图像中自动识别汽车,我们需要一个包含数千张人工标记图像的训练数据集,这些图像表明其中哪些确实包含汽车。与人类学习不同的是,没有其他方式可以整合知识,这意味着数据中的任何不准确都会反映在结果中。
“垃圾进,垃圾出”
另一个起作用的因素是数据的质量,它决定了ML系统的性能。人工智能要做出可靠准确的决策,就需要高质量的数据。正如计算机科学中所说的,“垃圾进,垃圾出”。
如果给它们提供有偏见和有问题的数据,这将产生垃圾。例如,如果提供一个不干净的数据集来训练一个给行人打错标签的感知系统,那么这将导致算法错误地识别其路径上的所有东西。如果对环境没有准确的了解,自动驾驶系统可能会做出错误的决定,从而导致事故,而不是避免事故。
在更严重的情况下,如果医疗记录或用于建立预测模型的训练集出现错误,可能会导致致命的后果;这使我们认识到数据实践的质量的重要性。
人工智能的发展速度如此之快,从这个时间点上看,人工智能的未来甚至无法预测,而人工智能要达到有情的境界还有很长的路要走。目前,人工智能的好坏取决于它接收到的数据,它只能在提供的上下文范围内解释数据。每一个坚固的结构都是建立在良好的建筑材料的基础上的。机器学习模型建立在同样的前提下,数据的质量很重要。

点击下方“阅读原文”,了解更多景行讯息
↓↓↓

