大数跨境
0
0

KDD2025 | TGODE: 重塑序列推荐的动态演化建模

KDD2025 | TGODE: 重塑序列推荐的动态演化建模 机器学习与推荐算法
2025-12-01
0
导读:时间真的重要吗(Time Matters)?
嘿,记得给“机器学习与推荐算法”添加星标

TLDR: 现有的序列推荐方法往往忽视了时间维度上的两个关键因素:用户兴趣的不规则性极不均匀的物品分布。基于此,我们提出了一种基于时间引导图神经常微分方程的新框架:TGODE。该框架构建了“图构建 -> 扩散增强 -> ODE对齐”的联合建模机制,有效解决了时间稀疏性和动态演化问题。实验结果表明,该方法在五个真实数据集上表现优异,相较于SOTA基线模型,在各项关键指标上实现了10%至46%的显著提升。相关代码已开源,研究成果已被 KDD 2025 接收。

论文:https://doi.org/10.1145/3711896.3737156
代码:https://github.com/Qin-lab-code/TGODE

引言

时间真的重要吗(Time Matters)? 在推荐系统中,核心挑战在于如何处理时间维度上的复杂动态。现有方法通常假设用户交互是均匀分布的,这与现实情况严重不符。通过数据分析我们发现两个核心痛点:

  • 用户兴趣的不规则性:用户的交互在时间轴上呈现“波峰波谷”状,长期历史交互可能与当前购买行为无关,导致时间稀疏性问题。

  • 极不均匀的物品分布:物品的流行度受外部因素(如促销、季节)影响剧烈,这种分布往往独立于用户个人偏好。

基于上述思考,我们提出了统一的时间引导图神经ODE框架TGODE,整体Pipeline如下:

  • Stage 1:双图构建(Graph Construction)。分别构建用户时间图(User Time Graph)和物品演化图(Item Evolution Graph),从微观和宏观两个层面捕捉时间信息。

  • Stage 2:时间引导扩散(Time-Guided Diffusion)。针对用户行为的时间稀疏性,设计扩散生成器,自动填充潜在的用户兴趣交互,增强数据的连贯性。

  • Stage 3:广义图神经ODE(Generalized Graph Neural ODEs)。利用微分方程对齐用户偏好演化与物品分布趋势,实现连续时间上的精准匹配。

方法

Stage 1:双图构建与表征

实践表明,单纯的序列模型难以区分瞬时交互与延迟交互的区别。因此,我们需要分别对“用户个性化偏好”和“全局物品分布”进行建模。

TGODE 构建了两个关键图结构:

  • 用户时间图( :捕捉个体用户的偏好变化。节点为序列中的物品,边包含具体的交互时间戳。
  • 物品演化图( :描绘物品在所有序列中的宏观时间分布。这反映了物品受外部因素(如广告、热点)影响的流行度趋势。

这种双图设计的优势在于:既能关注用户的个性化兴趣(User Preference),又能捕捉全局的物品分布动态(Item Distribution),为后续的对齐打下基础。

Stage 2:时间引导扩散生成器(Diffusion Generator)

针对用户交互在时间轴上极度稀疏的问题(即冷启动或长间隔导致的兴趣断层),我们引入了时间引导的扩散模型来“脑补”缺失的潜在交互。

该模块的核心设计如下:

  • 时序嵌入编码器(Temporal Embedding Encoder):利用正弦/余弦函数变换,将时间戳编码为高维向量,作为扩散过程的强引导信号。
  • 用户偏好推断(User Preferences Inference):我们设计了“用户兴趣截断因子”(User Interest Truncation Factor),用于识别时间轴上的“空白枢纽”(uncovered pivots)。扩散模型在这些时间点生成潜在的交互边,从而构建出增强版的用户时间图 

  • 优势:相比传统补全方法,基于扩散的生成能更好地保留数据的分布特性,解决时间稀疏性带来的偏好偏差。

Stage 3:广义图神经ODE(Generalized Graph Neural ODEs)

虽然扩散模型增强了数据,但用户兴趣的演变是连续的,且需与物品的动态分布相匹配。我们提出了广义图神经ODE来实现这一目标。

  • 连续时间演化:利用ODE求解器模拟用户和物品表征随时间的导数变化。求解器函数   同时接收增强后的用户图   和物品演化图   作为输入。
  • 动态对齐机制

    • :挖掘增强用户图中的高阶邻域关系,模拟用户兴趣流变。

    • :利用MLP显式建模外部因素对物品流行度的影响。

  • 联合优化:最终的序列表征由两个图在目标时间   的演化状态共同决定,通过Transformer解码器生成最终预测,并采用迭代训练策略交替优化扩散模块和ODE模块。

实验效果

整体性能对比 (Overall Performance)

在五个公开数据集(Beauty, Sports, Toys, Video, ML-100k)上的实验结果表明,TGODE 取得了SOTA效果。在 Recall@20 和 NDCG@20 等关键指标上,TGODE 全面超越了基于Transformer的方法(如SASRec)、基于扩散的方法(如DiffRec)以及连续时间方法(如GNG-ODE)。

具体提升如下:

  • 相比于表现最好的基线模型,TGODE 的性能提升幅度在 10% 到 46% 之间。

  • 在 Toys 数据集上,NDCG@10 的提升高达 46.23% 26。这验证了显式建模时间不规则性和物品分布的必要性。

消融实验 (Ablation Study)

为了验证多级对齐框架的有效性,我们进行了详细的消融实验:

  • w/o Diff:移除扩散生成器。性能显著下降,证明了填充稀疏时间段对连贯用户兴趣建模的重要性。

  • w/o ODE:移除图神经ODE模块。性能大幅下滑(例如Toys数据集下降45%),说明连续时间对齐是捕捉动态演化的关键。

  • w/o cs:移除物品演化图。性能受损,证实了忽略物品流行度的外部趋势会导致推荐偏差。

Case Study:时间与流行度的感知

通过可视化分析(如下图),我们发现 TGODE 能敏锐地捕捉物品的“流行周期”。

  • 对抗流行度偏差:SASRec 倾向于在物品不再流行时依然推荐它(因为它缺乏时间感知),而 TGODE 能够随着物品热度的消退减少推荐权重,准确预测用户在特定时间点的真实交互。

  • 长序列与短序列:无论是在交互稀疏的冷启动阶段(短序列),还是在时间跨度大的长序列中,TGODE 均表现出优于 SASRec 和 GNG-ODE 的鲁棒性。

总结和展望

在序列推荐领域,我们提出了基于时间引导图神经ODE的新范式 TGODE。该范式通过“图构建 -> 扩散增强 -> ODE对齐”的三阶段处理,有效解决了用户兴趣不规则和物品分布不均匀这两大难题。

  • 扩散模型解决了“懂”用户潜在兴趣的问题,填补了时间空缺。

  • 图神经ODE解决了“契合”动态演化的问题,实现了用户与物品在连续时间上的精准对齐。

实验表明,该框架在多个真实数据集上显著优于现有的SOTA方法。未来我们将进一步探索更高效的迭代训练策略,以及将该时间感知框架扩展到多模态推荐场景中。


欢迎干货投稿 \ 论文宣传 \ 合作交流

由于公众号试行乱序推送,您可能不再准时收到机器学习与推荐算法的推送。为了第一时间收到本号的干货内容, 请将本号设为星标,以及常点文末右下角的“在看”。

喜欢的话点个在看吧👇

【声明】内容源于网络
0
0
机器学习与推荐算法
专注于分享经典的推荐技术,致力于传播基础的机器学习、深度学习、数据挖掘等方面的知识。
内容 626
粉丝 0
机器学习与推荐算法 专注于分享经典的推荐技术,致力于传播基础的机器学习、深度学习、数据挖掘等方面的知识。
总阅读198
粉丝0
内容626