图结构数据无处不在,传统图神经网络(GNN)受限于局部消息传递,难以捕捉长距离依赖;而图Transformer(GT)则面临注意力机制平方级复杂度与设计灵活性不足的挑战。在图生成中,扩散模型的高昂计算成本更制约了规模化应用。
最新研究另辟蹊径:一方面,通过精妙路径算法将图“压扁”为序列,让大语言模型像写文章一样高效生成图;另一方面,用统一掩码理论与混合专家架构(MoE)重塑图Transformer,在节点分类精度与显存效率上实现突破。这些进展使图生成速度提升上百倍,为药物发现与推荐系统带来巨大潜力。
本文精选15篇 Transformer+GNN 方向的顶刊论文,以期为相关研究带来启发。
NeurIPS 2025:Flatten Graphs as Sequences: Transformers are Scalable Graph Generators
关键词: 图生成, 自回归模型, Transformer, SENT序列化, 大语言模型
研究方法:
针对现有图扩散生成模型需要计算全图节点特征导致成本极其高昂、难以扩展的问题,本文提出了名为AUTOGRAPH的自回归图生成模型。其核心架构利用一种特殊的分段欧拉邻域轨迹(SENT),将复杂的图拓扑结构巧妙且无损地“展平”为离散的标记序列,使得只含解码器的标准Transformer能够以最优的线性复杂度,像生成文本自然语言一样一步步生成图数据。
论文创新点:
-
1. 提出了包含邻域信息的分段欧拉轨迹,实现了图拓扑结构向机器可读序列的无损转化。 -
2. 创新地引入AUTOGRAPH生成架构,解决了复杂图结构在顺序自回归生成中的局部有效性难题。 -
3. 通过基于连边的图展平方法,将图生成的计算与内存复杂度从二次甚至三次幂大幅降低到O(E)。 -
4. 首次将大语言模型机制与图序列无缝结合,验证了其无需微调即可实现高精度的子结构条件生成。
论文链接: https://arxiv.org/abs/2502.02216v3
NeurIPS 2025:Unifying and Enhancing Graph Transformers via a Hierarchical Mask Framework
关键词: 图Transformer, 层级掩码, 混合专家模型(MoE), 节点分类, 稀疏注意力
研究方法:
针对现有图Transformer架构往往为特定交互深度定制导致灵活性受限,以及面对海量节点极易显存溢出的双重困境,本文提出了M3Dphormer模型。该方案基于一个新颖的统一层级掩码理论构建,并在底层引入双层混合专家(MoE)路由机制来自适应融合局部、簇级与全局交互特征。同时搭配动态双重注意力计算方案,在稀疏与密集注意力之间智能切换,全面兼顾了表达能力与极致的扩展性。
论文创新点:
-
1. 提出了统一的层级掩码理论框架,实现了对各种复杂图Transformer模型底层架构的统一与解构。 -
2. 创新地引入双层专家路由机制,解决了局部、集群与全局多尺度交互信息的自适应动态融合难题。 -
3. 通过按需切换的双重注意力计算方法,将海量节点自注意力计算的庞大空间复杂度显著降低。 -
4. 首次将层级掩码原则与混合专家机制结合,验证了其在9大主流异构与同构图基准上的SOTA性能。
论文链接: https://arxiv.org/abs/2510.18825v1

