大规模图神经网络遗忘技术突破:ScaleGUN实现十亿级边高效隐私保护[k]
中国人民大学团队提出首个具备理论保证的大规模图遗忘方法,显著提升数据删除效率[k]

随着图神经网络(GNNs)在推荐系统、社交网络和金融预测等领域的广泛应用,用户敏感数据的隐私保护问题日益突出。图遗忘学习旨在使模型能够高效、安全地“遗忘”特定数据,确保其表现与未使用该数据训练的模型无异,成为实现合规性与用户权利保障的关键技术[k]。
现有具备理论保证的图遗忘方法虽能提供强隐私保障,但需为每次删除请求重新计算图传播过程,导致在大规模图上计算开销巨大,难以实用。例如,在十亿边规模的图上删除5000条边,传统方法重计算图传播耗时近2小时,成为主要性能瓶颈[k]。
为解决该问题,中国人民大学高瓴人工智能学院博士生易璐及其团队提出ScaleGUN——首个适用于十亿级边图的大规模、有理论保证的图遗忘方法。该方法创新性地将动态局部传播技术引入图遗忘框架,仅对被删节点或边的邻域进行局部更新,避免全局重计算,大幅提升效率[k]。
ScaleGUN的核心贡献在于,在引入近似传播提升效率的同时,通过严格理论推导证明了节点特征、边和节点三种删除场景下的模型误差上界,确保了方法的理论完备性。实验结果显示,ScaleGUN在相同条件下完成5000条边删除请求,图传播时间由6000秒降至10秒内,总遗忘时间仅需约20秒,效率显著优于传统方法[k]。
评估表明,ScaleGUN在节点分类准确率、删除效率及隐私保护效果方面均表现优异,其性能与完全重训练模型相当,同时大幅降低时间成本。该方法还提供数据依赖型误差上界,可用于实际应用中判断是否需触发重训练[k]。
研究团队已公开项目代码:https://github.com/luyi256/ScaleGUN,进一步推动图神经网络隐私保护技术的发展[k]。


