大数跨境
0
0

指数加权移动平均算法直观解释

指数加权移动平均算法直观解释 AI算法之道
2025-08-01
2
导读:指数加权移动平均算法讲解
点击蓝字
关注我们










01


引言


在时间序列分析中,我们经常需要通过考虑历史数据来理解序列的趋势方向。预测序列未来值有多种实现方式,既可以使用简单线性法,也可以构建复杂的机器学习模型。

指数(加权)移动平均正是这两种方法之间的理想折衷方案。其核心采用简单的递归计算方法,使算法能够高效实现。同时该方法极具灵活性,能成功适配大多数类型的序列。

本文涵盖了该方法的理论基础、其工作流程的描述,以及偏差校准(一种有效克服近似偏差问题的技术)。




02

  动机

想象一个需要对随时间变化的给定参数进行近似预测的问题。在每次迭代中,我们都知晓该参数的所有先前值。目标是预测依赖于这些先前值的下一个值。

一种简单(朴素)的策略是简单地取最近几个值的平均值。这在某些情况下可能有效,但对于参数更依赖于最新值的情况来说,它不是很适用。

克服这个问题的一种可能方法是,给予最新值更高的权重,并给予早期值更低的权重。指数移动平均正是遵循这一原则的策略。它基于这样一个假设:变量的最新值对下一个值的形成贡献更大,而先前值贡献较小。






03

  公式说明

要理解指数移动平均的工作原理,我们来看其递推公式:


在上述指数移动平均公式中:

  • vₜ 是近似表示给定变量的时间序列,其下标 t 对应时间戳 t。由于这是递推公式,需要初始时间戳 t=0 时的 v₀ 值。实践中通常取 v₀=0。

  • θ 表示当前迭代的观测值。

  • β 是介于 0 和 1 之间的超参数,它决定了权重重要性应如何在先前平均值 vₜ-₁ 和当前观测值 θ 之间分配。

让我们为前几个参数值的展开式:

最终得到的公式如下:

可以看出,最近一次观测值θ的权重为1,前一次观测值权重为β,再前一次为β²,以此类推。由于0<β<1,随着k增大,βᵏ呈指数级衰减,这意味着观测值越久远,其重要性就越低。最终,每一项都要乘以(1-β)系数。

实际应用中,β值通常取接近0.9的数值。





04

  数学解释

运用数学分析中著名的第二重要极限,我们可以证明以下极限成立:

通过变量代换β=1-x,可将其改写为如下形式:

我们还知道,在指数移动平均的方程中,每个观测值会被乘以一个因子 βᵏ(其中  t  表示该观测值的计算时间距离当前时刻的时间戳间隔)。由于两者的基数  β  相同,因此我们可以令两个公式的指数相等:

基于该等式,对于给定的β值,可以计算出权重衰减至1/e≈0.368所需的时间跨度t。这意味着:最近t个时间步内的观测值权重高于1/e,而超过t个时间步的历史观测值权重将低于1/e,其影响力显著衰减。

实际上,当权重低于1/e时,对指数加权平均的影响已微乎其微。因此可以说,给定β值时,指数加权平均实际考虑的是最近t=1/(1-β)个观测值。

为更直观理解这个公式,我们代入不同的β值进行说明:

例如当β=0.9时,约经过t=10次迭代后,权重就会衰减至当前观测值权重的1/e。换言之,此时的指数加权平均主要取决于最近10个观测值。





05

  偏差校准

运用指数加权平均时,一个常见问题是初始序列值的拟合效果往往较差。这源于早期迭代阶段数据积累不足,例如给定某个时间序列如下所示时,

目标是使用指数加权平均对其进行近似。然而,若直接采用标准公式,最初几个加权平均值会因初始值v₀  被赋予较大权重,而散点图中大部分数值均高于20。这将导致初始阶段的加权平均值序列整体过于偏低,无法准确拟合原始序列。

最简单的解决策略是将v₀设为接近首个观测值θ₁的数值。虽然这种方法在某些情况下有效,但对于波动剧烈的序列仍不理想:当θ₂与θ₁差异显著时,计算v₂会过度依赖前一趋势v₁而非当前观测θ₂,从而产生显著偏差。

更优解是采用偏差校准技术:将计算值vₖ除以(1-βᵏ)进行修正。当β取值接近0.9~1时,初期迭代中(k较小时)分母趋近于0。这种缩放机制能有效提升初始估值——原本因v₀=0而缓慢累积的初期数值,通过除以较小的修正系数获得合理放大。

随着k增大,分母会渐进趋近于1,此时修正系数自动失效。这种自适应特性非常关键:当算法积累足够多有效数据后,即可依赖未经修正的加权平均值,确保后期计算的稳定性。





06

  总 结

本文介绍了一种极具实用价值的时间序列近似方法。指数加权平均算法通过其超参数β实现了强大的适应性——开发者可根据具体序列特征调整β值以获得最优效果。此外,文中提出的偏差校正机制有效解决了数据初期信息不足时的拟合问题,显著提升了算法在早期时间步的预测精度。

该算法在时间序列分析领域应用广泛,同时也被应用于梯度下降算法的多种变体中以加速收敛。其中最著名的当属深度学习中的动量优化器(Momentum optimizer),它通过消除目标函数的不必要振荡,使其更精准地朝向局部最优点前进。


您学废了吗?




点击上方小卡片关注我




添加个人微信,进专属粉丝群!



【声明】内容源于网络
0
0
AI算法之道
一个专注于深度学习、计算机视觉和自动驾驶感知算法的公众号,涵盖视觉CV、神经网络、模式识别等方面,包括相应的硬件和软件配置,以及开源项目等。
内容 573
粉丝 0
AI算法之道 一个专注于深度学习、计算机视觉和自动驾驶感知算法的公众号,涵盖视觉CV、神经网络、模式识别等方面,包括相应的硬件和软件配置,以及开源项目等。
总阅读23
粉丝0
内容573