大数跨境

Transformer+GNN完美融合!发论文&模型涨点的利器

Transformer+GNN完美融合!发论文&模型涨点的利器 AI前沿速递
2026-04-02
8
导读:Transformer+GNN完美融合!发论文&模型涨点的利器

 

图结构数据无处不在,传统图神经网络(GNN)受限于局部消息传递,难以捕捉长距离依赖;而图Transformer(GT)则面临注意力机制平方级复杂度与设计灵活性不足的挑战。在图生成中,扩散模型的高昂计算成本更制约了规模化应用。

最新研究另辟蹊径:一方面,通过精妙路径算法将图“压扁”为序列,让大语言模型像写文章一样高效生成图;另一方面,用统一掩码理论与混合专家架构(MoE)重塑图Transformer,在节点分类精度与显存效率上实现突破。这些进展使图生成速度提升上百倍,为药物发现与推荐系统带来巨大潜力。

本文精选15篇 Transformer+GNN 方向的顶刊论文,以期为相关研究带来启发。


扫码添加小助手回复“C913
免费获取全部论文+开源代码
图片



NeurIPS 2025:Flatten Graphs as Sequences: Transformers are Scalable Graph Generators

关键词: 图生成, 自回归模型, Transformer, SENT序列化, 大语言模型

研究方法:

针对现有图扩散生成模型需要计算全图节点特征导致成本极其高昂、难以扩展的问题,本文提出了名为AUTOGRAPH的自回归图生成模型。其核心架构利用一种特殊的分段欧拉邻域轨迹(SENT),将复杂的图拓扑结构巧妙且无损地“展平”为离散的标记序列,使得只含解码器的标准Transformer能够以最优的线性复杂度,像生成文本自然语言一样一步步生成图数据。

论文创新点:

  1. 1. 提出了包含邻域信息的分段欧拉轨迹,实现了图拓扑结构向机器可读序列的无损转化。
  2. 2. 创新地引入AUTOGRAPH生成架构,解决了复杂图结构在顺序自回归生成中的局部有效性难题。
  3. 3. 通过基于连边的图展平方法,将图生成的计算与内存复杂度从二次甚至三次幂大幅降低到O(E)。
  4. 4. 首次将大语言模型机制与图序列无缝结合,验证了其无需微调即可实现高精度的子结构条件生成。

论文链接: https://arxiv.org/abs/2502.02216v3


扫码添加小助手回复“C913
免费获取全部论文+开源代码
图片

NeurIPS 2025:Unifying and Enhancing Graph Transformers via a Hierarchical Mask Framework

关键词: 图Transformer, 层级掩码, 混合专家模型(MoE), 节点分类, 稀疏注意力

研究方法:

针对现有图Transformer架构往往为特定交互深度定制导致灵活性受限,以及面对海量节点极易显存溢出的双重困境,本文提出了M3Dphormer模型。该方案基于一个新颖的统一层级掩码理论构建,并在底层引入双层混合专家(MoE)路由机制来自适应融合局部、簇级与全局交互特征。同时搭配动态双重注意力计算方案,在稀疏与密集注意力之间智能切换,全面兼顾了表达能力与极致的扩展性。

论文创新点:

  1. 1. 提出了统一的层级掩码理论框架,实现了对各种复杂图Transformer模型底层架构的统一与解构。
  2. 2. 创新地引入双层专家路由机制,解决了局部、集群与全局多尺度交互信息的自适应动态融合难题。
  3. 3. 通过按需切换的双重注意力计算方法,将海量节点自注意力计算的庞大空间复杂度显著降低。
  4. 4. 首次将层级掩码原则与混合专家机制结合,验证了其在9大主流异构与同构图基准上的SOTA性能。

论文链接: https://arxiv.org/abs/2510.18825v1

 





扫码添加小助手回复“C913
免费获取全部论文+开源代码
图片

【声明】内容源于网络
0
0
AI前沿速递
AI前沿速递 聚焦人工智能最新科研成果与技术动态,专注前沿论文解读、行业资讯分享与高校招生信息推送,助力AI爱好者和从业者把握学界风向标。每日更新技术干货与深度内容,让全球优秀研究被更多人看见。关注我们,探索AI无限可能!
内容 1905
粉丝 0
AI前沿速递 AI前沿速递 聚焦人工智能最新科研成果与技术动态,专注前沿论文解读、行业资讯分享与高校招生信息推送,助力AI爱好者和从业者把握学界风向标。每日更新技术干货与深度内容,让全球优秀研究被更多人看见。关注我们,探索AI无限可能!
总阅读4.2k
粉丝0
内容1.9k