目录
- 摘要
- 1. 引言
- 当前方法的局限性
- 变换器的可训练性
- 我们贡献的总结
- 2. 提出的方法
- 符号说明
- 2.1 问题设置
- 2.2 激励示例
- 命题2.1(最优解的存在性)
- 2.3 变换器的损失景观
- 现有的解决方案
- 2.4. SAMformer:集成所有方法
- 3. 实验
- 3.1 主要收获
摘要
基于变换器的架构在自然语言处理和计算机视觉中取得了突破性的表现,然而在多变量长期预测中,它们仍然不如更简单的线性基线。为了更好地理解这一现象,我们从研究一个玩具线性预测问题开始,展示了尽管变换器具有高表达能力,但它们无法收敛到其真实解。我们进一步确定了变换器的注意力机制是导致这种低泛化能力的原因。在此见解的基础上,我们提出了一种轻量级的浅层变换器模型,该模型通过锐度感知优化成功地逃避了坏的局部极小值。我们通过实验证明,这一结果适用于所有常用的真实世界多变量时间序列数据集。特别地,SAMformer超越了当前的最新方法,并与最大的基础模型MOIRAI相当,同时具有显著更少的参数。代码可以在以下网址获得:https://github.com/romilbert/samformer。
1. 引言
多变量时间序列预测是一个经典的学习问题,包含了分析时间序列以根据历史信息预测未来趋势。特别是,由于特征相关性和时间序列中的长期时间依赖性,长期预测是公认的具有挑战性的任务。这一学习问题在那些观测值按顺序收集的实际应用中十分普遍,例如医疗数据、电力消耗、温度或股票价格。为了解决这个问题,已经开发了大量的方法,从经典的数学工具到统计方法(如ARIMA)再到更现代的深度学习方法,包括递归和卷积神经网络。
最近,变换器架构在自然语言处理和计算机视觉中变得无处不在,并在这两个领域取得了突破性的表现。变换器在处理序列数据方面特别高效,这一特性自然要求它们应用于时间序列。毫不奇怪,许多工作尝试提出特定的时间序列变换器架构,以利用它们捕捉时间相互作用的能力。然而,目前在多变量时间序列预测中的最新成果是通过一个更简单的基于MLP的模型实现的,这显著优于基于变换器的方法。此外,最近的研究发现线性网络在预测任务中可以与变换器相媲美甚至更好,这对它们的实际效用提出了质疑。这一有趣的发现成为我们工作的起点。
当前方法的局限性
最近将变换器应用于时间序列数据的研究主要集中在以下两个方面:(i) 提高实现效率,减少注意力的二次成本;(ii) 将时间序列分解以更好地捕捉其中的底层模式。令人惊讶的是,这些工作中没有一个特别解决了变换器在大规模数据缺失情况下的训练不稳定性这一众所周知的问题。
变换器的可训练性
在计算机视觉和自然语言处理中,已发现注意力矩阵可能因熵或秩崩溃而受到影响。随后,提出了几种方法来克服这些问题。然而,在时间序列预测的情况下,关于如何有效地训练变换器架构而不过拟合的开放问题仍然存在。我们旨在通过消除训练的不稳定性来展示变换器在多变量长期预测中的优越性,这与先前对其局限性的看法相反。
我们贡献的总结
我们的提议提出了以下贡献:
- 我们展示了即使变换器架构仅限于解决一个简单的玩具线性预测问题,它仍然具有良好的泛化能力并收敛到锋利的局部极小值。我们进一步确定注意力主要负责这种现象;
- 我们提出了一种浅层变换器模型,称为SAMformer,结合了研究社区提出的最佳实践,包括最近在计算机视觉领域引入的可逆实例归一化和通道注意力。我们展示了使用锐度感知最小化(SAM)优化这样一个简单的变换器,可以更好地泛化并收敛到局部极小值;
- 我们通过实验证明了我们的方法在常见多变量长期预测数据集上的优越性。SAMformer超越了当前最先进的方法,并且在参数显著减少的情况下与最大的基础模型MOIRAI相当。
2. 提出的方法
符号说明
我们用常规字母表示标量值(例如,参数 λ \lambda λ),用粗体小写字母表示向量(例如,向量 x \mathbf{x} x),用粗体大写字母表示矩阵(例如,矩阵 M \mathbf{M} M)。我们用 M ⊤ \mathbf{M}^\top M⊤表示矩阵 M \mathbf{M} M的转置,同样适用于向量。矩阵 M \mathbf{M} M的秩表示为 rank ( M ) \text{rank}(\mathbf{M}) rank(M),其 Frobenius 范数表示为 ∥ M ∥ F \|\mathbf{M}\|_F ∥M∥F。我们令 n ~ = min { n , m } \tilde{n} = \min\{n, m\} n~=min{n,m},并用 ∥ M ∥ ∗ = ∑ i = 1 n ~ σ i ( M ) \|\mathbf{M}\|_* = \sum_{i=1}^{\tilde{n}} \sigma_i(\mathbf{M}) ∥M∥∗=∑i=1n~σi(M)表示矩阵 M \mathbf{M} M的核范数,其中 σ i ( M ) \sigma_i(\mathbf{M}) σi(M)是其奇异值,用 ∥ M ∥ 2 = σ max ( M ) \|\mathbf{M}\|_2 = \sigma_{\max}(\mathbf{M}) ∥M∥2=σmax(M)表示其谱范数。大小为 n × n n \times n n×n的单位矩阵表示为 I n \mathbf{I}_n In。符号 M ⪰ 0 \mathbf{M} \succeq 0 M⪰0表示 M \mathbf{M} M是半正定的。
2.1 问题设置
我们考虑多变量长期预测框架:给定长度为 L L L的 D D D维时间序列(回看窗口),排列成 R D × L \mathbb{R}^{D \times L} RD×L矩阵 X \mathbf{X} X以便于通道注意,我们的目标是预测其接下来的 H H H个值(预测时间),表示为 Y ∈ R D × H \mathbf{Y} \in \mathbb{R}^{D \times H} Y∈RD×H。我们假设可以访问包含 N N N个观测值的训练集 { ( X ( i ) , Y ( i ) ) } i = 0 N \{(\mathbf{X}^{(i)}, \mathbf{Y}^{(i)})\}_{i=0}^N {(X(i),Y(i))}i=0N,并将第 i i i个输入(分别为目标)时间序列的第 d d d个特征表示为 X d ( i ) ∈ R 1 × L \mathbf{X}_d^{(i)} \in \mathbb{R}^{1 \times L} Xd(i)∈R1×L(分别为 Y d ( i ) ∈ R 1 × H \mathbf{Y}_d^{(i)} \in \mathbb{R}^{1 \times H} Yd(i)∈R1×H)。我们训练一个预测器 f ω : R D × L → R D × H f_\omega : \mathbb{R}^{D \times L} \to \mathbb{R}^{D \times H} fω:RD×L→RD×H,其参数为 ω \omega ω,使得在训练集上均方误差(MSE)最小化:
L train ( ω ) = 1 N D ∑ i = 0 N ∥ Y ( i ) − f ω ( X ( i ) ) ∥ F 2 L_{\text{train}}(\omega) = \frac{1}{ND} \sum_{i=0}^{N} \|\mathbf{Y}^{(i)} - f_\omega(\mathbf{X}^{(i)})\|_F^2 Ltrain(ω)=ND1i=0∑N∥Y(i)−fω(X(i))∥F2.
2.2 激励示例
最近,Zeng 等人(2023)展示了变换器在直接将输入投射到输出的简单线性神经网络训练中表现与之相当,甚至更差。我们将这一观察作为起点,考虑以下生成模型用于我们的玩具回归问题,模拟之前考虑的时间序列预测设置:
Y = X W toy + ϵ \mathbf{Y} = \mathbf{X} \mathbf{W}_{\text{toy}} + \epsilon Y=XWtoy+ϵ(2)
我们设 L = 512 L = 512 L=512、 H = 96 H = 96 H=96、 D = 7 D = 7 D=7和 W toy ∈ R L × H \mathbf{W}_{\text{toy}} \in \mathbb{R}^{L \times H} Wtoy∈RL×H, ϵ ∈ R D × H \epsilon \in \mathbb{R}^{D \times H} ϵ∈RD×H具有随机正态条目,并生成 15000 个输入-目标对 ( X , Y ) (\mathbf{X}, \mathbf{Y}) (X,Y)(10000 个用于训练,5000 个用于验证),其中 X ∈ R D × L \mathbf{X} \in \mathbb{R}^{D \times L} X∈RD×L具有随机正态条目。
鉴于此生成模型,我们希望开发一种变换器架构,可以有效地解决等式(2)中的问题而没有不必要的复杂性。为此,我们提出简化通常的变换器编码器,通过将注意力应用于 X \mathbf{X} X并结合残差连接,将 X \mathbf{X} X添加到注意力的输出中。我们直接在这种残差连接之上添加一个线性层用于输出预测,而不是添加前馈块。正式地,我们的模型定义如下:
f ( X ) = [ X + A ( X ) X W V W O ] W f(\mathbf{X}) = [\mathbf{X} + \mathbf{A}(\mathbf{X}) \mathbf{X} \mathbf{W}_{V} \mathbf{W}_{O}] \mathbf{W} f(X)=[X+A(X)XWVWO]W(3)
其中 W ∈ R L × H \mathbf{W} \in \mathbb{R}^{L \times H} W∈RL×H、 W V ∈ R L × d m \mathbf{W}_{V} \in \mathbb{R}^{L \times dm} WV∈RL×dm、 W O ∈ R d m × L \mathbf{W}_{O} \in \mathbb{R}^{dm \times L} WO∈Rdm×L, A ( X ) \mathbf{A}(\mathbf{X}) A(X)是输入序列 X ∈ R D × L \mathbf{X} \in \mathbb{R}^{D \times L} X∈RD×L的注意力矩阵,定义为:
A ( X ) = softmax ( X W Q W K ⊤ X ⊤ d m ) ∈ R D × D \mathbf{A}(\mathbf{X}) = \text{softmax} \left( \frac{\mathbf{X} \mathbf{W}_{Q} \mathbf{W}_{K}^\top \mathbf{X}^\top}{\sqrt{d_{m}}} \right) \in \mathbb{R}^{D \times D} A(X)=softmax(dmXWQWK⊤X⊤)∈RD×D(4)
其中 softmax 是行归一化,
W
Q
∈
R
L
×
d
m
\mathbf{W}_{Q} \in \mathbb{R}^{L \times dm}
WQ∈RL×dm、
W
K
∈
R
L
×
d
m
\mathbf{W}_{K} \in \mathbb{R}^{L \times dm}
WK∈RL×dm是模型的维度。softmax 使
A
(
X
)
\mathbf{A}(\mathbf{X})
A(X)相当随机,每行描述一个概率分布。为了简化符号,在上下文明确的情况下,我们将注意力矩阵简写为
A
\mathbf{A}
A,省略
X
\mathbf{X}
X。
我们将此架构称为Transformer,并简要评论如下。首先,注意力矩阵是按通道应用的,这简化了问题并减少了过度参数化的风险,因为矩阵
W
\mathbf{W}
W的形状与等式(2)相同,并且由于
L
>
D
L > D
L>D,注意力矩阵变得更小。此外,在这种情况下,通道注意比时间注意更相关,因为数据生成遵循独立同分布过程。我们正式建立了模型对
W
toy
\mathbf{W}_{\text{toy}}
Wtoy的可识别性。证明详见附录E.2。
命题2.1(最优解的存在性)
假设 W Q \mathbf{W}_Q WQ、 W K \mathbf{W}_K WK、 W V \mathbf{W}_V WV和 W O \mathbf{W}_O WO是固定的,令 P = X + A ( X ) X W V W O ∈ R D × L P = \mathbf{X} + \mathbf{A}(\mathbf{X})\mathbf{X}\mathbf{W}_V\mathbf{W}_O \in \mathbb{R}^{D \times L} P=X+A(X)XWVWO∈RD×L。那么,存在一个矩阵 W ∈ R L × H \mathbf{W} \in \mathbb{R}^{L \times H} W∈RL×H,使得 P W = X W toy P\mathbf{W} = \mathbf{X}\mathbf{W}_{\text{toy}} PW=XWtoy,当且仅当 rank ( [ P X W toy ] ) = rank ( P ) \text{rank}([P \mathbf{X}\mathbf{W}_{\text{toy}}]) = \text{rank}(P) rank([PXWtoy])=rank(P),其中 [ P X W toy ] ∈ R D × ( L + H ) [P \mathbf{X}\mathbf{W}_{\text{toy}}] \in \mathbb{R}^{D \times (L+H)} [PXWtoy]∈RD×(L+H)是一个块矩阵。
上述假设在 P P P为满秩且 D < H D < H D<H的情况下成立,这在此玩具实验中是成立的。
因此,在用等式(2)生成的数据上拟合变换器的优化问题理论上允许无限多个最优分类器 W \mathbf{W} W。
我们现在想确定注意力在解决等式(3)问题中的作用。为此,我们考虑一个模型,称为随机变换器(Random Transformer),其中仅优化 W \mathbf{W} W,而自注意权重 W Q \mathbf{W}_Q WQ、 W K \mathbf{W}_K WK、 W V \mathbf{W}_V WV、 W O \mathbf{W}_O WO在训练过程中固定,并按照Glorot & Bengio (2010)进行初始化。这实际上使所考虑的变换器像一个线性模型。最后,我们比较了这两个模型使用Adam优化后的局部最小值,并与Oracle模型的最小二乘解进行比较。
我们在图2中展示了两个模型的验证损失。第一个令人惊讶的发现是,两个变换器都未能恢复 W toy \mathbf{W}_{\text{toy}} Wtoy,这表明即使是优化这样一个具有良好设计的简单架构也表现出强烈的泛化缺乏。当固定自注意矩阵时,问题在某种程度上得到了缓解,尽管随机变换器仍然是次优的。这一观察在各种优化器和学习率值中保持一致,表明这种现象并不是由于次优的优化器超参数或优化器的具体选择所致。由于随机变换器和变换器之间的参数数量仅增加了2%,因此这也不是由于过拟合。因此,我们从图1中得出结论,变换器较差的泛化能力主要是由于注意力模块的可训练性问题。
2.3 变换器的损失景观
直觉 :在前一节中,我们得出结论,注意力是导致Transformer泛化能力差的原因。为了进一步理解这一现象,我们在图3a中绘制了不同训练时期的注意力矩阵。我们可以看到,注意力矩阵在第一次迭代后非常接近于单位矩阵,并且之后几乎没有变化,特别是在softmax放大了矩阵值之间的差异后。这表明全秩注意力矩阵在训练过程中出现了熵崩溃(entropy collapse),这也是Zhai等人(2023)指出的导致训练变换器困难的原因之一。
这项工作还建立了熵崩溃与变换器损失景观锐度之间的关系,我们在图3b中确认了这一点(在图5a中的真实数据上也观察到了类似行为)。Transformer在训练过程中收敛到比随机变换器更锐利的最小值,同时具有显著较低的熵(对后者来说,注意力权重在初始化时被固定,其熵在整个训练过程中保持不变)。这些病理模式表明,Transformer的失败是由于熵崩溃和损失景观的锐度。在接下来的段落中,我们探讨了文献中现有的解决方案,以缓解这些问题。
现有的解决方案
最近的研究表明,与其他残差架构相比,变换器的损失景观更为锐利(Chen et al., 2022; Zhai et al., 2023)。这可能解释了变换器在小规模数据集上训练不稳定且表现不佳的原因。变换器的锐度已经被观察和定量化:Chen等(2022)计算了损失函数Hessian的最大特征值,Zhai等(2023)则计算了注意力矩阵的熵以展示其在高锐度下的崩溃。我们在图3b中展示了这两个指标的结果,验证了我们的假设,同时揭示了两个有害现象:一方面,固定注意力的变换器的锐度比收敛到单位注意力矩阵的变换器高出几个数量级;另一方面,变换器的注意力矩阵的熵在训练过程中急剧下降。
为了找到一种既能提高泛化性能又能改善训练稳定性的解决方案,我们探讨了Chen et al.(2022)和Zhai et al.(2023)提出的两种补救措施。第一种方法是利用最近提出的锐度感知最小化(SAM)框架(Foret et al., 2021),该框架将等式(1)中的训练目标替换为:
L train SAM ( ω ) = max ∥ ϵ ∥ ≤ ρ L train ( ω + ϵ ) L_{\text{train}}^{\text{SAM}}(\omega) = \max_{\|\epsilon\| \leq \rho} L_{\text{train}}(\omega + \epsilon) LtrainSAM(ω)=∥ϵ∥≤ρmaxLtrain(ω+ϵ)
其中 ρ > 0 \rho > 0 ρ>0是超参数(见附录D.1), ω \omega ω是模型参数。更多关于SAM的详细信息见附录D.2。第二种方法引入了光谱归一化和一个附加的可学习标量,这种技术被Zhai et al.(2023)称为 σ \sigma σReparam。更正式地,我们将每个权重矩阵 W \mathbf{W} W替换为:
W ^ = γ ∥ W ∥ 2 W \widehat{\mathbf{W}} = \frac{\gamma}{\|\mathbf{W}\|_2}\mathbf{W} W =∥W∥2γW
其中 γ ∈ R \gamma \in \mathbb{R} γ∈R是一个可学习的参数,初始化为1。
图1中展示的结果强调了我们的变换器成功地收敛到所需的解。令人惊讶的是,这只有在使用SAM时才能实现,而 σ \sigma σReparam尽管最大化了注意力矩阵的熵,但无法接近最优表现。此外,可以在图3b中看到,使用SAM时变换器的锐度比使用 σ \sigma σReparam时低几个数量级,而获得的注意力熵与基础变换器相似。
为了更好地理解 σ \sigma σReparam的失败,可以回顾等式(5)的推导过程。Zhai等(2023)从注意力熵的一个紧下界出发,证明其随着 ∥ W Q W K ⊤ ∥ 2 2 \|\mathbf{W}_Q \mathbf{W}_K^\top\|_2^2 ∥WQWK⊤∥22的最小化而指数级增加。等式(5)作为一种简单的方法被提出以最小化这一量。然而,在通道注意的情况下,这对注意力矩阵秩产生了有害影响,从而导致注意力机制崩溃。我们在附录E.3中对此进行了形式化证明。
需要注意的是,当 W Q = W K \mathbf{W}_Q = \mathbf{W}_K WQ=WK时,上述假设成立,并且这一点已经在之前的研究中被确认。该定理证实,通过减少 ∥ W Q W K ⊤ ∥ 2 2 \|\mathbf{W}_Q \mathbf{W}_K^\top\|_2^2 ∥WQWK⊤∥22, σ \sigma σReparam减少了等式(4)中定义的注意力矩阵的核范数。尽管矩阵秩与核范数之间的直接联系并不总是存在,核范数正则化常用于鼓励压缩感知中的低秩结构。
尽管命题2.2不能直接应用于注意力矩阵 A ( X ) \mathbf{A}(\mathbf{X}) A(X),我们指出在 σ \sigma σReparam导致注意力分数 X W Q W K ⊤ X ⊤ \mathbf{X} \mathbf{W}_Q \mathbf{W}_K^\top \mathbf{X}^\top XWQWK⊤X⊤为秩1并具有相同行的极端情况下,注意力矩阵在行softmax应用后仍保持秩1。因此, σ \sigma σReparam可能导致注意力秩的崩溃,我们在图7中的核范数实验证实了这一点。基于这些发现,我们提出了一种新的简单变换器模型,在多变量时间序列预测中具有高性能和训练稳定性。
2.4. SAMformer:集成所有方法
提出的SAMformer基于等式(3)进行两项重要修改。首先,我们为 X \mathbf{X} X配备了可逆实例归一化(RevIN, Kim et al. 2021b),因为这种技术被证明在处理训练数据和测试数据之间的转换时非常有效。其次,如上文所述,我们使用SAM对模型进行优化,使其收敛到更平滑的局部最小值。总体而言,这为浅层变换器模型提供了一个编码器,如图4所示。
我们强调,SAMformer保持了由 D × D D \times D D×D矩阵表示的通道注意,如等式(3)所示,这不同于其他模型中使用的由 L × L L \times L L×L矩阵表示的空间(或时间)注意。这带来了两个重要好处:(i) 确保了特征排列不变性,消除了对注意层之前常见的位置信息编码的需求;(ii) 由于在大多数实际数据集中 D ≤ L D \leq L D≤L,因此减少了时间和内存复杂度。我们的通道注意检查了每个特征在所有时间步长上的平均影响。
在附录C.4中详细描述的消融研究验证了此实现的有效性。我们现在准备在常见的多变量时间序列预测基准上评估SAMformer,展示其优越性。
3. 实验
在本节中,我们通过实验证明了SAMformer在多变量长期时间序列预测中的定量和定性优越性。我们展示了SAMformer在常见基准上的表现超越了当前最先进的TSMixer(Chen et al., 2023)14.33%,同时参数量减少了约4倍。所有实现细节见附录A.1。
数据集
我们在8个公开可用的真实世界多变量时间序列数据集上进行了实验,这些数据集通常用于长期预测(Wu et al., 2021; Chen et al., 2023; Nie et al., 2023; Zeng et al., 2023)。具体包括四个电力变换器温度数据集ETTh1、ETTh2、ETTm1和ETTm2(Zhou et al., 2021),电力(UCI, 2015),外汇(Lai et al., 2018b),交通(California Department of Transportation, 2021),和天气(Max Planck Institute, 2021)。所有时间序列被分段,输入长度
L
=
512
L = 512
L=512,预测区间
H
∈
{
96
,
192
,
336
,
720
}
H \in \{96, 192, 336, 720\}
H∈{96,192,336,720},步长为1,即每个后续窗口移动一步。更多关于数据集和时间序列准备的详细描述见附录A.2。
基线
我们将SAMformer与之前介绍的Transformer和TSMixer(Chen et al., 2023)进行比较,后者是一个基于MLP的最先进多变量基线模型。需要注意的是,Chen et al.(2023)报告了TSMixer在一个固定种子上的表现,为了公平比较,我们在不同种子上多次运行,报告平均性能。
我们还比较了iTransformer(Liu et al., 2024)、PatchTST(Nie et al., 2023)、FEDformer(Zhou et al., 2022)、Informer(Zhou et al., 2021)和Autoformer(Wu et al., 2021)等最近的SOTA多变量变换器模型的结果,所有结果均使用RevIN(Kim et al., 2021b)获得,以便于更公平地比较SAMformer及其竞争对手。关于这些基线的详细信息见附录A.3。
评估
所有模型都被训练以最小化等式(1)中的MSE损失。报告测试集上的平均MSE及其标准差(通过不同种子的5次运行)。更多的详细数据和结果,包括平均绝对误差(MAE),见附录B.1中的表6。除非另有说明,否则所有结果均通过不同种子的5次运行获得。
3.1 主要收获
SAMformer 优于最先进技术。实验结果详见表1,附录表7中提供了学生t检验分析。SAMformer 在8个数据集中的7个上显著优于其竞争对手。具体而言,它比其最佳竞争对手 TSMixer+SAM 提高了5.25%,比独立的 TSMixer 提高了14.33%,比最佳的多变量基于变换器模型 FEDformer 提高了12.36%。此外,它比 Transformer 提高了16.96%。SAMformer 还优于最近的 iTransformer,这是一种基于变换器的方法,使用了时间和空间注意,PatchTST 则针对单变量时间序列预测进行了优化。我们注意到 iTransformer 在总体表现上混合,除外汇数据集外,SAMformer 在所有数据集上都优于它。在没有 RevIN 的情况下,SAMformer 总体上提高了3.94%,但在有 RevIN 的情况下提高了多达8.38%。
SAMformer 比 PatchTST 提高了11.13%。对于每个预测区间和数据集(除外汇外),SAMformer 都排名第一或第二。显著的是,SAM的集成提高了TSMixer的泛化能力,平均增强了9.58%。表6中的 MAE 研究得出了相同的结论。由于 TSMixer 与 SAM 的训练几乎总是排名第二,它作为进一步讨论的主要基准。值得注意的是,SAMformer 的参数量比 TSMixer 少4倍,比基于变换器的方法少几个数量级。
更平滑的损失景观。在 SAMformer 的训练中引入 SAM 使其损失比 Transformer 更平滑。我们在图5a中通过比较 Transformer 和 SAMformer 在 ETTh1 和外汇数据集上的 λ max \lambda_{\max} λmax值来说明这一点。我们的观察显示 Transformer 表现出显著更高的锐度,而 SAMformer 具有期望的行为,其损失景观的锐度小一个数量级。
提高的鲁棒性。SAMformer 在随机初始化方面表现出鲁棒性。图5b展示了 SAMformer 和 Transformer 在 ETTh1 和外汇数据集上预测区间为 H = 96 H=96 H=96的5个不同种子的测试 MSE 分布。SAMformer 在不同种子选择上持续保持性能稳定,而 Transformer 表现出显著的方差,因此对权重初始化高度依赖。此观察结果在所有数据集和预测区间上都适用,如附录B.4所示。
图1:我们的方法在合成数据上的说明。Oracle 是最优解,Transformer 是基本变换器,
σ
\sigma
σReparam 是权重重缩放的变换器(Zhai 等人,2023),而 Transformer + SAM 是使用锐度感知最小化训练的变换器。Transformer 过拟合,
σ
\sigma
σReparam 略有改善但未能达到 Oracle 的水平,而 Transformer + SAM 完美泛化。这激励了 SAMformer 的提出,一个结合了 SAM 和时间序列预测最佳实践的浅层变换器。
图2:泛化能力差。尽管其设计简单,Transformer仍然存在严重的过拟合问题。在随机变换器(Random Transformer)中固定注意力权重可以改善泛化能力,这暗示了注意力在防止收敛到最优局部极小值中的作用。
图3:变换器在线性回归中的损失景观分析。(a) 变换器的注意力矩阵从第一个时期起就陷入单位矩阵。(b, 左) 变换器比变换器+SAM收敛到更锐利的最小值,具有更大的
λ
max
\lambda_{\max}
λmax(约
1
0
4
10^4
104),而随机变换器具有平滑的损失景观。(b, 右) 变换器在训练期间遭遇熵崩溃,证实了其损失景观的高度锐度。
图5:(a)SAMformer比Transformer具有更平滑的损失景观。(b)SAMformer在每次初始化时都能一致地很好泛化,而Transformer则不稳定且严重依赖于种子。
图6:在天气数据集上的注意力矩阵。SAMformer 保持了特征之间的自相关性,而 (\sigma)Reparam 降低了秩,阻碍了信息的传播。
图7:不同模型的注意力矩阵的核范数:
σ
\sigma
σReparam 根据命题2.2诱导较低的核范数,而SAMformer保持了比Transformer更高的注意力表达能力。