大数跨境
0
0

ICLR'25 Spotlight | 20秒内完成十亿边图上的遗忘学习!人大ALGO组发布首个大规模理论完备图遗忘方法

ICLR'25 Spotlight | 20秒内完成十亿边图上的遗忘学习!人大ALGO组发布首个大规模理论完备图遗忘方法 AI TIME 论道
2025-03-26
4
导读:其在十亿级边图上的遗忘效率显著提升。

大规模图神经网络遗忘技术突破:ScaleGUN实现十亿级边高效隐私保护[k]

中国人民大学团队提出首个具备理论保证的大规模图遗忘方法,显著提升数据删除效率[k]

随着图神经网络(GNNs)在推荐系统、社交网络和金融预测等领域的广泛应用,用户敏感数据的隐私保护问题日益突出。图遗忘学习旨在使模型能够高效、安全地“遗忘”特定数据,确保其表现与未使用该数据训练的模型无异,成为实现合规性与用户权利保障的关键技术[k]

现有具备理论保证的图遗忘方法虽能提供强隐私保障,但需为每次删除请求重新计算图传播过程,导致在大规模图上计算开销巨大,难以实用。例如,在十亿边规模的图上删除5000条边,传统方法重计算图传播耗时近2小时,成为主要性能瓶颈[k]

为解决该问题,中国人民大学高瓴人工智能学院博士生易璐及其团队提出ScaleGUN——首个适用于十亿级边图的大规模、有理论保证的图遗忘方法。该方法创新性地将动态局部传播技术引入图遗忘框架,仅对被删节点或边的邻域进行局部更新,避免全局重计算,大幅提升效率[k]

ScaleGUN的核心贡献在于,在引入近似传播提升效率的同时,通过严格理论推导证明了节点特征、边和节点三种删除场景下的模型误差上界,确保了方法的理论完备性。实验结果显示,ScaleGUN在相同条件下完成5000条边删除请求,图传播时间由6000秒降至10秒内,总遗忘时间仅需约20秒,效率显著优于传统方法[k]

评估表明,ScaleGUN在节点分类准确率、删除效率及隐私保护效果方面均表现优异,其性能与完全重训练模型相当,同时大幅降低时间成本。该方法还提供数据依赖型误差上界,可用于实际应用中判断是否需触发重训练[k]

研究团队已公开项目代码:https://github.com/luyi256/ScaleGUN,进一步推动图神经网络隐私保护技术的发展[k]

【声明】内容源于网络
0
0
AI TIME 论道
AI TIME是一群关注人工智能发展,并有思想情怀的青年学者创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,链接全球AI学者,以辩论的形式探讨人工智能领域的未来
内容 2012
粉丝 0
AI TIME 论道 AI TIME是一群关注人工智能发展,并有思想情怀的青年学者创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,链接全球AI学者,以辩论的形式探讨人工智能领域的未来
总阅读14.1k
粉丝0
内容2.0k