大数跨境
0
0

群星闪耀时 盘点AI顶会上的明星学者

群星闪耀时 盘点AI顶会上的明星学者 学术头条
2019-09-30
1
导读:知识的力量永远值得敬畏,而他们,一直拥有改写人类未来的力量和底气。

  一个人最大的幸福莫过于在人生的中途、富有创造力的壮年,发现自己此生的使命。  ——《人类群星闪耀时》


自1956年达特茅斯会议首次提出人工智能,60多年的时光里,人工智能在充满未知的探索道路上曲折起伏又快速发展。这背后,正是一群科研工作者孜孜不倦、几十年如一日的坚守与付出……


我们发现,人工智能那些顶会里的高产作者中,总有一些星光熠熠的名字,而他们都是值得记录的时代故事。


以下杰出学者选自CVPR、ICCV、NeurIPS、ACL、ICML等国际人工智能顶会上的高产作者TOP10榜单,让我们来看看他们的传奇人生。


(更多AI顶会的明星学者,可进入https://www.aminer.cn/ranks/conf会议详情页查看)


计算机视觉RBG大神


他是CVPR的明星学者,过去10年间,据不完全统计,CVPR上他署名的文章共有22篇,ICCV 10篇,ECCV 7篇;他还曾上榜AMiner多媒体领域十大最具影响力学者榜单。



他是计算机视觉深度学习领域的大牛,江湖人称RBG大神。他还是计算机视觉研究最高荣誉奖--马尔奖的获得者, CVPR 2017 PAMI青年研究员奖得主。


他是Pedro Felzenszwalb的高徒,也是何凯明的好基友。


Ross Girshick,Facebook AI Research(FAIR)的研究员,视觉感知和逻辑领域的知名专家。博士毕业于芝加哥大学计算机视觉专业,在加州大学伯克利分校读博士后,在加入Facebook 之前他曾在微软从事 Kinect的相关工作。


Ross Girshick在读博期间与导师Pedro Felzenszwalb一起发明了DPM算法, 改进了Navneet Dalal和Bill Triggs 提出的HOG特征方法,成为当时的经典。 


对于深度学习方法, 2012年Alex Krizhevsky, Geoff Hinton和 Ilya Sutskever 基于深度学习的CNN网络赢得了 ImageNet 挑战赛,堪称是CNN 发展史上的里程碑。自那之后,CNN 就成了图像分类的黄金标准。这深深影响了做图像目标检测UC Berkeley的Jitendra Malik,他鼓励博士后 Girshick采用CNN技术运用到图像目标检测上。


Girshick最终不辱使命,在2014年利用CNN成功取代了HOG、DPM等特征提取, 结合Selective Search做区域推荐,再结合SVM做分类算法,成功推出R-CNN,一举轰动世界,开启了深度学习上的图像目标检测。


接着2015年,Girshick基于R-CNN存在的问题,发明了新的网络Fast R-CNN。在2015年中期,由任少卿、何恺明、Ross Girshick和孙剑组成的一个微软研究院团队发现了“Faster R-CNN”网络结构,几乎把边框生成过程的运算量降为0。


后来,何恺明和Girshick等研究人员,在Facebook人工智能研究部门里使用了Mask R-CNN,扩展了对象检测技术,且提供了像素级分割的技术。


从R-CNN、Fast R-CNN、Faster R-CNN到最终的Mask R-CNN,每个想法并不一定都是跨越式的进步,但是叠加这些进步后,最终的Mask R-CNN却带来了非常显著的奇妙效果,而这些进步仅仅用了三年时间。


对于Ross Girshick来说,他的贡献不仅仅是发明了R-CNN和Fast R-CNN,正是他们的努力,持续推动着Facebook Research计算机视觉技术的发展,更为重要的是,他们使计算机视觉技术向人类的视觉能力更靠近了一些。


机器学习大神本吉奥


被称为“人工智能三巨头”之一的蒙特利尔大学计算机科学与运算研究系教授Yoshua Bengio,无疑是现代人工智能技术领域的大师级人物。他与多伦多大学深度学习开山鼻祖Geoffrey Hinton、算法卷积神经网络的提出者Yann LeCun共获2019年图灵奖。



过去十年里,在NeurIPS上,Yoshua Bengio署名的文章共有22篇,引用量达18370次。在ICML, Yoshua Bengio署名的文章共有24篇。 


Yoshua Bengio是深度学习的元老,有超过137000次学术引用,“AI圣经”《Deep Learning》等一系列教科书级著作的作者,笑起来极富表现力的眉毛,这些是Yoshua Bengio大神给人们留下的标志性印象。


Bengio曾与Geoff Hinton以及Yan LeCun一道,共同支持深度学习技术--这项技术近年来已经成功由原本的学术性探索成果,转化为世界上最强大的技术之一。 


回顾Bengio的求学时光,他从法国来到加拿大时,只有12岁。他在加拿大度过了学生时代的大部分时光,在麦吉尔大学的校园中接受了从本科到博士的完整高等教育,随后又前往麻省理工学院和贝尔实验室做博士后。1993年,他重回蒙特利尔,加入蒙特利尔大学担任计算机科学与运筹学系教授,继续潜心进行深度学习的研究。


1994年,在Yoshua Bengio与另一位深度学习元老级人物Yann LeCun共同完成的《Gradient-based learning applied to document recognition》论文中,首次提出了用反向传播算法训练的多层神经网络LeNet5,它是世界上最早的、也是最著名的卷积神经网络之一。


在2003年发表的《A neural probabilistic language model》中,Yoshua Bengio第一次提出用神经网络结构来建立自然语言模型,这一思路和方法广泛地影响了后人用神经网络做自然语言处理的研究。这一网络结构也被迅速引入自然语言处理的应用实践中并取得了良好的成效,比如最经典的用于生成词向量的word2vec模型,以及近年大热的神经网络机器翻译。


Yoshua Bengio的另一篇著作《Learning Deep Architectures for AI》则提纲挈领地总结了深度学习架构中学习算法的动机和原理,为相关的研究提供了理论指导。


2016年,Yoshua Bengio与Ian Goodfellow和Aaron Courville共同撰写了《Deep Learning》,这本因封面被人们亲切地称为“花书”的深度学习奠基之作,也成为了人工智能领域不可不读的“圣经”级教材。


从80年代到今天,深度学习从不被大多数人看好的“痴心妄想”,到席卷包括自然语言处理、计算机视觉、语音识别在内的几乎所有人工智能领域,其影响力已经全面覆盖了学术界、产业界以及人们的日常生活。Yoshua Bengio几十年如一日的坚守,证明了深度学习所蕴含的、足以影响我们每个人生活的巨大价值。


苹果首任AI总监


对于深度学习领域的学者来说,Ruslan Salakhutdinov并非籍籍无名之辈。他曾上榜AMiner机器学习领域最具影响力学者榜单。在NeurIPS上,Ruslan Salakhutdinov署名的文章共有22篇,ICML 15篇。



从整个神经网络和深度学习的历史看,最重要的拐点是2006年7月,Geoffrey Hinton为第一作者的两篇论文《A Fast Learning Algorithm for Deep Belief Nets》和《Reducing the Dimensionality of Data with Neural Networks》的发布。正是这两篇论文引起了整个学术界对深度学习的兴趣,才有了近十年来深度学习研究的突飞猛进和突破。


而Ruslan Salakhutdinov,正是深度学习历史上最重要的标志性论文之一、发表在Nature杂志上的《Reducing the Dimensionality of Data with Neural Networks》的第二作者。此时的他不过是刚刚进入Geoffrey Hinton门下不久的一名博士生,但这并不影响其在深度学习领域中的辈分。


Ruslan Salakhutdinov对人工智能的贡献还在于学习深度生成模型的研究上。2007年前后,Ruslan Salakhutdinov与Geoffrey Hinton提出了一种在前馈神经网络中进行有效训练的算法。这一算法将网络中的每一层视为无监督的受限玻尔兹曼机,再使用有监督的反向传播算法进行调优(Ruslan Salakhutdinov的博士论文就是这方面的内容)。


Ruslan Salakhutdinov拥有多伦多大学机器学习方向博士学位,师从人工智能之父Geoffrey Hinton。在获得博士学位后,Ruslan又花了两年时间从事博士后研究工作,从2011年起在多伦多大学担任助理教授,2016年他从多伦多大学转到卡内基梅隆大学,并实现了从助理教授到副教授的跨越,同年他加入苹果,成为苹果首任AI总监。


从2006年的标志性论文发表到现在的十多年间,Ruslan Salakhutdinov的研究成果层出不穷。据AMiner统计,Ruslan共发表论文160多篇,他的论文总引用数量达到56269次,h指数71,一直活跃在深度学习的前沿领域。


其发表的Restricted Boltzmann machines for collaborative filtering、Dropout:a simple way to prevent neural networks from overfitting、Bayesian probablisitic matrix factorization using MCMC三篇论文均有很高的科研价值。其中,Dropout:a simple way to prevent neural networks from overfitting一文引用量达12358次。


伯克利大牛Pieter Abbeel


他是强化学习领域的大牛,机器人领域的国际顶级会议ICRA上的明星学者,曾上榜AMiner机器人领域最有影响力学者百强榜单。过去的十年中,在ICRA上共发表过37篇论文,NeurIPS 21篇,ICML 14篇。



Pieter Abbeel是加州大学伯克利分校机器人与强化学习领域的教授。他于比利时 KU Leuven 获得电子工程学士、硕士学位,之后在斯坦福大学师从吴恩达,并于2008年取得博士学位。


2004时,Abbeel 发表了论文《Apprenticeship Learning via Inverse Reinforcement Learning》。他提出了一种通过观察执行任务的专家来训练机器人的新方法。他在模拟自动驾驶汽车时展示了这种方法的可行性,该论文后来被认为是他生涯中最重要的论文之一。


在攻读博士期间,Abbeel 发表了多篇重要的学术论文,并与导师吴恩达提出了学徒学习(Apprenticeship learning)这一增强学习的全新概念。 


Abbeel 在获得博士学位后成为加州大学伯克利分校的助理教授。在接下来的 10 年里,他就全身心投入他一直以来的梦想:研造家用机器人。


2010 年,Abbeel 创建了 BRETT(全称「消除繁琐任务的伯克利机器人」),这个一个改造自 Willow Garage PR2 的机器人,配备相机和手柄。根据一系列基于规则的指示,BRETT 成为第一个可以折叠成堆毛巾的机器人。通过这样做,Abbeel 证明了家用机器人的硬件问题可以解决。


2011 年,Pieter Abbeel通过深度神经网络应用策略搜寻,实现了机器 人叠毛巾的演示,他也因而被MIT TechnologyReview 评比为当年的“TR35”获奖者。


2016年4月,Abbeel离开伯克利加入伊隆·马斯克创办的OpenAI,从顾问转为全职研究员。2017年,Pieter Abbeel 离开OpenAI创办了Embodied Intelligence,担任该创业公司的董事长兼首席科学家。


在 2017 年的NeurIPS大会中,Abbeel 和 OpenAI 和加州大学伯克利分校的研究人员通过元学习提出了 One-Shot Visual Imitation Learning viaMeta-Learning,该学习将元学习与一次性学习相结合,该系统只需要观察 1 个演示,然后就可以为新任务产生正确的动作。


随后,Abbeel 和他的团队进一步发明了 Simple Neural Attentive Learner(SNAIL)并在 ICLR2018 做了论文展示。这是一个在单个深度神经网络中实现的元学习者。该网络将序列与序列学习与软关注相结合,使机器人能够记住不同任务的背景。


Abbeel 的贡献是他首先将深度强化学习应用在机器人身上。他非常热衷于此,并在NeurIPS 2016 上提供了一个名为 DeepReinforcement Learning through Policy Optimization 的教程,目前它仍然是最受欢迎的深度强化学习教程之一。


NLP的开拓者 

Christopher Manning的研究目标是可以智能地处理、理解和生成人类语言的计算机。他曾在ACL发表论文23篇,EMNLP发表29篇,NeurIPS 6篇。从树形 RNN 到基于神经网络的依存句法分析,Manning 毫无疑问是一位深度学习在 NLP 领域的开拓者。


Christopher Manning,是自然语言处理领域的著名学者,斯坦福大学计算机科学和语言学系的首位机器学习教授,也是斯坦福人工智能实验室(SAIL)的负责人,国际计算机学会(ACM)、国际人工智协会(AAAI)、国际计算语言学会(ACL)等国际权威学术组织的会士,曾获ACL、EMNLP、COLING、CHI等国际顶会最佳论文奖,著有《统计自然语言处理基础》、《信息检索导论》等自然语言处理著名教材。



1993 年,《计算机语言学》杂志发行了一本特刊,专门讨论如何应用势头强劲的“经验式方法”(Empirical Methods)。当时,取得了三个学士学位(数学、计算机和语言学)的 Manning 正在斯坦福攻读语言学博士学位。


在进入斯坦福大学执教之前,他曾在卡内基梅隆大学和悉尼大学担任教职。1999 年, Manning作为斯坦福自然语言处理组(Stanford NLP Group)的创始成员回到了母校,这一呆就是20年。Manning是将深度学习应用于自然语言处理的领导者,他在树形递归神经网络、情感分析、机器翻译、问题回答和深度语言理解等方面进行了大量的研究。


H指数超过100的女科学


Cordelia Schmid是公认的计算机辅助视觉领域的著名专家,她的H指数高达110,引用量达100183次,发文350多篇。


她的研究方向包括图像和视频描述、对象和类别识别、机器学习等,尤其是数字图像和视频的自动解释。她在图像和视频表示领域以及视觉学习方面做出了根本性的贡献,通过利用大量的图像和视频数据库来识别物体的动作和位置。


过去十年,她在ICCV上发表过12 篇论文,ECCV 17篇,CVPR 3篇她在计算机辅助视觉领域的杰出工作跨越了整整二十年, 2016 年时她获得了INRIA 和法国科学院大奖。



Cordelia Schmid 是 IEEE Fellow,长期担任 IEEE PAMI、IJCV 编辑,谷歌兼职科学家。她拥有卡尔斯鲁厄大学的计算机科学硕士学位和格勒诺布尔国立综合理工学院(INPG)的计算机科学博士学位。


她的博士论文《Local Greyvalue Invariants for Image Matching and Retrieval》于 1996 年获得了 INPG 颁发的最佳论文奖。


Schmid于1996--1997年担任牛津大学机器人研究小组的博士后研究助理。自1997年以来,她在INRIA Rhone-Alpes担任永久研究职位,即法国国立计算机及自动化研究院担任研究总监并领导INRIA团队。2018 年 2 月开始,Schmid 被谷歌邀请,是 Google France的兼职科学家。


写在后面的话


人工智能被视为新一轮产业变革的核心驱动力,当人工智能的热度和泡沫退去,最终留下的是他们,他们的智慧和坚定重新定义了科技创新。


知识的力量永远值得敬畏,而他们,一直拥有改写人类未来的力量和底气。


(本文综合整理自雷锋网、机器之心等报道)


推荐阅读

图灵奖得主John Hopcroft谈信息革命 人才是关键驱动力

对比2018,Gartner2019 AI技术成熟度曲线揭示了哪些趋势?

最新!AI顶会排行榜揭晓, CVPR居首 NeurIPS、ICML分列二、三位

点击阅读原文,查看更多AI会议排名!


【声明】内容源于网络
0
0
学术头条
致力于学术传播和科学普及,重点关注大模型、AI4Science 等前沿科学进展。
内容 1019
粉丝 0
学术头条 致力于学术传播和科学普及,重点关注大模型、AI4Science 等前沿科学进展。
总阅读605
粉丝0
内容1.0k