大数跨境
0
0

加拿大联合研究团队提出基于注意力的新网络架构,性能媲美Transformer且更节省内存

加拿大联合研究团队提出基于注意力的新网络架构,性能媲美Transformer且更节省内存 科情智库
2024-07-03
0

科情智库


5月22日,加拿大皇家银行人工智能研究所Borealis AI、蒙特利尔大学研究者及图灵奖得主Yoshua Bengio等联合研发团队提出了基于注意力机制的新网络架构Aaren,同时在时间和内存上实现高效运算。

该研究将注意力机制视为一种特殊的循环神经网络(RNN),引入了一种基于并行前缀扫描(prefix scan)算法的新的注意力公式,能够高效地计算注意力的多对多RNN输出,进而实现高效的更新。实验结果表明,Aaren在38个数据集上的表现与Transformer相当,这些数据集涵盖了强化学习、事件预测、时间序列分类和时间序列预测任务等四种常见的序列数据设置。在内存复杂性方面,随着累计计算token数量增长,Transformer的内存使用量呈线性增长,Aaren只使用恒定的内存。在时间复杂度方面,Transformer累计计算量是token数的二次方,而Aaren的累计计算量是线性的。


来源:AI中心供稿


推荐阅读 >

【科技参考】欧委会提出先进材料战略,引领产业发展

研究揭示RNA生物农药防控马铃薯害虫机遇与挑战

瑞士开发混合视觉系统提高自动驾驶安全性

【声明】内容源于网络
0
0
科情智库
宣传科技信息资源及科技情报研究成果,关注产业最新动态、发展热点和重大变革,为科技创新提供新媒体渠道。
内容 1586
粉丝 0
科情智库 宣传科技信息资源及科技情报研究成果,关注产业最新动态、发展热点和重大变革,为科技创新提供新媒体渠道。
总阅读6
粉丝0
内容1.6k