AMiner论文挑战营--优秀论文推荐
AMiner AI
1.论文名称:Neural Rating Regression with Abstractive Tips Generation for Recommendation
论文链接:https://www.aminer.cn/pub/59a03008b161e8ad1a7b6ec7
推荐理由:香港大学、京东数据科学实验室、腾讯AI实验室在推荐系统的研究中提出了一个名为NRT的基于深度学习的框架,该框架使用多任务学习的方式可以同时预测准确的评分并生成具有良好语言质量的抽象提示,以模拟用户体验和感受。为了生成抽象提示,使用门控递归神经网络将用户和项目潜在表示“翻译”成简明句子。对来自不同领域的基准数据集(Amazon与Yelp)进行的大量实验表明,NRT评分预测更加准确。而且,生成的提示简短精炼,流畅通顺,为用户购物提供了参考依据。
2.论文名称:AlignTTS: Efficient Feed-Forward Text-to-Speech System without Explicit Alignment
论文链接:https://www.aminer.cn/pub/5e621f3d91e01160711d5dc5
推荐理由:平安科技的TTS研究团队提出了AlignTTS方法,来解决语音合成中的对齐问题,提出的方法可以并行的进行梅尔谱的预测。对比基于自回归模式的Tacotron大幅提高了推理速度。
AlignTTS 是一种基于前馈Transformer的结构作为主干网络,从输入的字符串序列建模生成梅尔频谱。与Transformer中的注意力对齐方法不同,每一个字符的时长采用单独的时长预测器进行预测。产生的对齐loss对所有的对齐方案,采用动态规划的方法进行求解找到对齐损失最小的方案。
最终在LJSpeech数据集上的实验显示该方法比Transformer TTS高出0.03的MOS值,达到了state-of-the-art的性能。另外,在推理速度方面达到到了50倍的实时率。
3.论文名称:Real-time 2D Multi-Person Pose Estimation on CPU:
论文链接:https://www.aminer.cn/pub/5c04966a17c44a2c747083af
推荐理由:Intel在OpenPose的基础上,提出了一种Lightweight OpenPose,相对于2阶的OpenPose,其参数量只有15% ,但是性能缺相差无几(精度降低1%)。最主要的是,其模型可以在CPU上达到26fps 。
OpenPose是一种Bottom-up的方式,首先检测出画面种的所有关键点,然后对这些关键点进行匹配连接,组合为人。OpenPose的pipline主要有两个部分,在inference阶段输入图像,输出两个Tensor,分别为关键点的heatmap及关键点对应的连接关系,这些输出的heatmap只有原图的八分之一。第二个步骤,根据keypoint和paf的heatmap,提取所有的keypoint点,将这些keypoint进行分组,将同一个人的关键点分配到当前人上。
而在Openpose中采用空洞卷积版的MobileNet为了提高感受野。关注骨骼点附近的信息,减少误报且被遮挡时,也能学到一定的骨骼连接结构信息。在第二个步骤,只采用了一个Refinement stage,后续的refinement stage对精度影响并不显著,但其运算量却增加一倍。
通过实验,在CPU上速度达到26fps,而Openpose只有4.2fps,且精度只降低了1%左右。
4.论文名称:Graph Contrastive Learning with Adaptive Augmentation
论文链接:https://www.aminer.cn/pub/5f9a9af391e0114d7e7813ed
推荐理由:本论文主要工作是由中科院自动化所以及北京邮电大学等提出了一个具有强大自适应数据增强的无监督图表示学习的通用对比框架。所提出的 GCA 框架在拓扑和属性级别上联合执行数据增强,以适应图结构和属性。
数据增强依然在现有的文献中很少被探索,由于图结构具有非欧式空间的复杂性,因此它不像图像和文本有大量的数据转换技术。以往工作中的数据增强的缺点可以归纳为两个方面,一方面,简单的结构域或者属性域的数据增强不足以为节点生成不同的邻域(即上下文),尤其是当节点特征稀疏时,增大了优化对比学习目标函数的复杂性,其次,以前的工作在执行数据增强时忽略了节点和边影响的差异。
基于对比学习自适应策略的图对比学习框架(GCA):
2)使用对比损失训练模型以最大化这两个视图中节点嵌入之间的一致性。具体来说,在拓扑和节点属性级别提出了联合数据增强方案,即去除边和屏蔽特征,为节点提供不同的上下文在不同的视图中,以促进对比目标函数的优化,并且通过中心性度量确定重要的边缘和特征维度。
3)在拓扑层面上,通过对不重要的边给予较大的去除概率来适应性地放弃边,以突出重要的连接结构。在节点属性级别,我们通过向不重要的特征维度添加更多噪声来破坏属性,以强制模型识别底层语义信息。
1)传统方法:DeepWalk,node2vec;
2)深度学习方法:Graph Autoencoders (GAE, VGAE) ,Deep Graph Infomax (DGI) , Graphical Mutual InformationMaximization (GMI) , and Multi-View Graph RepresentationLearning (MVGRL) 以及GCN,GAT使用五个公共基准数据集( Wiki-CS, Amazon-Computers, Amazon-Photo,Coauthor-CS, 和 Coauthor-Physic)在常用的线性评估协议下进行节点分类的综合实证研究。GCA 始终优于现有方法,无监督方法在几个传导性任务上甚至超过了其监督方法。
首先,像DeepWalk这样的传统对比学习方法的性能不如在某些数据集(Coauthor-CS和Coauthor-Physics)上仅使用原始特征的简单逻辑回归分类器,这表明这些方法在利用节点特征方面可能无效。与传统工作不同,我们看到基于 GCN 的方法,例如 GAE,能够在学习嵌入时结合节点特征。然而,我们注意到在某些数据集 (Wiki-CS) 上,它们的性能仍然比 DeepWalk + 特征差,归因于简单地根据边选择对比对选择负样本。证明了基于增强图视图选择负样本在对比表示学习中的重要作用。与现有的基线 DGI、GMI 和 MVGRL 相比,方法在构建负样本时进行自适应数据增强表现出色。尽管 MVGRL 使用扩散将全局信息合并到增强视图中,但它仍然无法自适应地考虑不同边对输入图的影响。 GCA 的优越性能验证了我们提出的自适应数据增强方案能够通过在扰动期间保留重要模式来帮助提高嵌入质量。
其次,我们观察到具有不同 GCA 节点中心性度量的所有三个变体在所有数据集上都优于现有的对比基线。还注意到分别具有度和 PageRank 中心性的 GCA-DE 和 GCA-PR 是两个强大的变体,它们在所有数据集上都实现了最佳或有竞争力的性能。结果表明我们的模型不限于中心性度量的特定选择,并验证了框架的有效性和通用性。
在本节中,我们将提出的拓扑和属性级增强替换为它们的统一对应物,以研究 GCA 的每个组件的影响。GCA-T-A 表示具有统一拓扑和节点属性级增强方案的模型,其中所有节点的下降边缘和掩蔽特征的概率设置为相同。变体GCA-T 和GCA-A 的定义类似,分别在两个模型中用统一采样代替了拓扑和节点属性增强方案。为了公平比较,所有变体都使用了度中心性。从结果中可以看到拓扑级和节点属性级自适应增强方案在所有数据集上一致地提高了模型性能。此外,两个级别的自适应增强方案的组合进一步提高了性能。在 Amazon-Computers 数据集上,与未启用自适应增强的基本模型相比,GCA 获得了 1.5% 的绝对改进。
总结:提出的方法始终优于现有的最先进方法,甚至超过了几个有监督的方法。

AMiner AI
AI帮你理解科学