
“明天你是否会想起,昨天你写的日记,明天你是否还惦记,曾经最爱哭的你……”。在未来某个时刻,当你再度听起《同桌的你》,也许你身边的这个同桌,很可能是一个机器人,届时别受到惊吓,毕竟这是大势所趋。
在智能时代,AI的自我学习能力决定了我们面对的是高知机器人还是低能玩具人。所以,当你真正面对这样一群机器人,比如让你与机器人一起参加高考,你有信心赢过它吗?知己知彼百战不殆,今天让斑马带你见识一下,机器人都是怎样来学习的。
本期内容将由斑马为你分享
《黑 | 科技》第九章:
深度学习
赋能人工智能,让机器人比人更聪明
你一定想象不到
最早的人工智能早1958年便已出现
像一个小baby
能完成人的简单行为
感知器:神经网络的第一次兴起和衰落
1958年盛夏,康奈尔航空实验室(Cornell Aeronautical Laboratory)宣布拥有学习和认知功能的计算机——马克一号(Mark-I)的诞生。马克一号的理论基础是感知算法(Perceptron),该算法现在已经成为人工智能领域的经典算法。通过对输入的数据进行分析,感知器算法可以根据所犯的错误调整自身的参数,从而达到学习的目的。

马克一号可以识别简单的字母图片,这在当时引起了科技界一片惊叹。
为什么邮箱能进行垃圾邮件识别
为什么机器可以检测出人体病情
这些机器的超能力
都离不开神经网络的逻辑
神经网络的结构
最简单的神经网络有三层组成:输入层、隐含层和输出层
·输入层:将输入的数据转化成一串数字;
·隐含层:根据输入层的数字,计算出一组中间结果;
·输出层:根据隐含层得到的中间结果,做最终的决策。

除了主动的学习意识
强大的装备还能让机器人如虎添翼
学习新鲜知识事半功倍
21世纪神经网络的复兴:深度学习横空出世
当神经网络遇上大数据
20世纪60年代到80年代神经网络衰落的原因就是数据的缺乏和高性能计算资源的不足,导致无法在很大规模数据集上优化神经网络,随着20世纪末、21世纪初互联网和分布式系统的兴起,大数据的相关技术日趋成熟,这对深度学习的发展起到了巨大的推广作用。
除了分布式系统,专用硬件的出现也促成了深度神经网络的发展。

分布式模型
对于超大规模神经网络,一台机器很难处理一个模型中所有的参数。所以需要将一个模型分解成不同的部分,分布到多个机器中,这样的一组机器就是一个模型,称作“模型副本”(Model Replica)。如下图:

并行数据处理
并行数据处理解决的是如何利用大数据对神经网络模型进行优化的问题。《火影忍者》的主角漩涡鸣人有一个重要的技能叫作“影分身”,就是瞬间创造出多个自己的克隆体(类似于模型副本)。这个技能除了用于打怪兽之外,一个重要的用途是利用多个影分身的头脑进行快速学习。基本思路就是让每个影分身同时学习一项新的高级忍术,学习一段时间让影分身回归本体,将学习的经验整合,这样就可以大大加快学习的速度。并行数据处理就是利用类似的思路来加快神经王珞丹优化。

硬件加速
GPU的很多应用都涉及矩阵和向量运算,它的体系结构是为了快速并行的矩阵运算设计的。在单个机器上的并行计算一般有处理器上的多个核(core)来协作完成。

算法改进
在软件方面一个重要的改进方向就是对优化出的模型进行压缩。这时有两个好处。首先模型压缩可以提高模型的运算速度,这对很多需要处理实时数据的行业至关重要。比如在安防行业中,如果发现有可疑人员出现,深度学习模型应该在第一时间做出响应。如果有一定的延时,可能会造成无法挽回的损失。其次,这种优化可以使得神经网络占用计算资源更小,更适合应用在计算资源有限的环境中,比如手机、机器人、智能手表等。

除了主动的学习意识
强大的装备还能让机器人如虎添翼
学习新鲜知识事半功倍
无人驾驶的出行体验
全机器人掌厨的米其林餐厅
一个医生都没有的医院
这些在今天是脑洞的体验
在未来是真实场景
关于未来的大胆设想
未来的深度学习一方面有可能在目前尚不成熟的自然语言理解上取得更大的突破,另一方面有可能会被部署到更多的平台中,使得用户可以方便地体验深度学习算法带来的便利。
目前国际上最领先的人工智能技术掌握在谷歌、微软、IBM等公司中,但我国的人工智能技术与国际领先水平差距不大。
一个重要的原因是在21世纪初的互联网革命中,我国涌现了大量优秀的互联网公司,它们的技术和数据的积累为深度学习技术研发提供了有利的基础。
戳链接查看更多
▼
你想了解的互联网汽车在这里
还有一切有趣的事儿……





