大数跨境
0
0

1月12日论文推荐(附下载地址)

1月12日论文推荐(附下载地址) 学术头条
2019-01-11
0
导读:收藏学习系列

论文

Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts



作者


Jiaqi Ma (University of Michigan, Ann Arbor)

Zhe Zhao (Google Inc.)

Xinyang Yi (Google Inc.)

Jilin Chen (Google Inc.)

Lichan Hong (Google Inc.)

Ed H. Chi (Google Inc.)


推荐理由


“Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts”是一篇基于神经网络的多任务学习模型。本质上,这是个多任务学习的扩展,多任务学习在很多实习系统中都有应用,比如推荐。基于神经网络的多任务学习本质上就是在多个任务之间加一个共享表示层,从数学上可以证明这个共享表示层可以起到正则化的效果,提高模型的泛化能力,最简单的共享层就是如下图(a)所示。本文是提出一个多层共享表示层的模型,如下图(c),MoE(Mixed of Experts),也就是在多个任务之间学习多个共享层,然后mixture起来。在mixture的时候可以加上单gate和多gate的学习机制。




最后在UCI的数据集上,这个方法相比传统方法有一定的提升。下图是一个实验结果。



后来作者还在Google的大规模数据上进行了实验,也取得一定的提升。




摘要


Neural-based multi-task learning has been successfully used in many real-world large-scale applications such as recommendation systems. For example, in movie recommendations, beyond providing users movies which they tend to purchase and watch, the system might also optimize for users liking the movies afterwards. With multi-task learning, we aim to build a single model that learns these multiple goals and tasks simultaneously. However, the prediction quality of commonly used multi-task models is often sensitive to the relationships between tasks. It is therefore important to study the modeling tradeos between task-specific objectives and inter-task relationships.


In this work, we propose a novel multi-task learning approach, Multi-gate Mixture-of-Experts (MMoE), which explicitly learns to model task relationships from data.We adapt the Mixture-of Experts (MoE) structure to multi-task learning by sharing the expert submodels across all tasks, while also having a gating network trained to optimize each task.To validate our approach on data with different levels of task relatedness, we first apply it to a synthetic dataset where we control the task relatedness.We show that the proposed approach performs better than baseline methods when the tasks are less related. We also show that the MMoE structure results in an additional trainability benefit, depending on different levels of randomness in the training data and model initialization. Furthermore, we demonstrate the performance improvements by MMoE on real tasks including a binary classification benchmark, and a large-scale content recommendation system at Google.

‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍


后台回复“20190112”获取论文PDF


[关于转载]:本文为“学术头条”原创文章。转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“SciTouTiao”微信公众号。谢谢您的合作。

分享干货


AMiner迄今为止已发布14期AI系列研究报告,您可在后台回复对应数字获取报告。

1 →  《自动驾驶研究报告》

2 →  《机器人研究报告》

3 →  《区块链研究报告》

4 →  《行为经济学研究报告》

5 →  《机器翻译研究报告》

6 →  《通信与人工智能研究报告》

7 →  《自动驾驶研究报告》前沿版

8 →  《自然语言处理研究报告》

9 →  《计算机图形学研究报告》

10 → 《超级计算机研究报告》

11  → 《3D打印研究报告》

12  → 《智能机器人研究报告》前沿版

13  → 《人脸识别研究报告》

14  → 《人工智能芯片研究报告》



推荐阅读:


解读|近10年数据挖掘领域高引学者

过去一年最有用的6个机器学习项目,你用过几个?

知道吗?BAT今年在KDD上作为第一单位发表了12篇文章!(内附每篇文章解读)

AMiner新功能:技术趋势分析—挖掘技术源头、近期热度和全局热度

一网打尽Google、Amazon、Microsoft、Facebook在今年KDD上的论文:神经网络、大规模计算是热点

AI近10年21个子领域高引学者(AI-10 Most Influential Scholars )

python处理音频信号实战:手把手教你实现音乐流派分类和特征提取

2019年,这20本机器学习和数据科学书籍一定不要错过(上)



微信公众号菜单栏为大家设置了“论文推荐”和“优质分享”专栏,“北京讲座”移至“优质分享”专栏内,欢迎大家关注。



学术头条

发掘科技创新的原动力



您的转发就是我们最大的动力

 


点击阅读原文查看AI近10年21个子领域高引学者

【声明】内容源于网络
0
0
学术头条
致力于学术传播和科学普及,重点关注大模型、AI4Science 等前沿科学进展。
内容 2059
粉丝 0
学术头条 致力于学术传播和科学普及,重点关注大模型、AI4Science 等前沿科学进展。
总阅读1.3k
粉丝0
内容2.1k