文章来源于互联网:字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%
字节跳动豆包大模型团队于近日提出超连接(Hyper-Connections),一种简单有效的残差连接替代方案。面向残差连接的主要变体的局限问题,超连接可通过动态调整不同层之间的连接权重,解决梯度消失和表示崩溃(Representation Collapse)之间的权衡困境。在 Dense 模型和 MoE 模型预训练中,超连接方案展示出显著的性能提升效果,使收敛速度最高可加速 80%。


-
论文标题:Hyper-Connections -
论文链接:https://arxiv.org/pdf/2409.19606
-
Pre-Norm:在每个残差块之前进行归一化操作,可有效减少梯度消失问题。然而,Pre-Norm 在较深网络中容易导致表示崩溃,即深层隐藏表示过于相似,从而削弱了模型学习能力。 -
Post-Norm:在残差块之后进行归一化操作,有助于减少表示崩溃问题,但也重新引入梯度消失问题。在 LLM 中,通常不会采用此方法。
-
深度连接(Depth-Connections):这些连接类似于残差连接,只为输入与输出之间的连接分配权重,允许网络学习不同层之间的连接强度。 -
宽度连接(Width-Connections):这些连接使得每一层多个隐藏向量之间可进行信息交换,从而提高模型表示能力。

,网络的初始输入为
,并将其复制 n 次,形成初始的超隐藏矩阵(Hyper Hidden Matrix):
,即:


,它可能是 Transformer 中的 attention 层或者是 FFN 层。超连接的输出
可以简单地表示为:
作为权重对输入
进行加权求和,得到当前层的输入
:
同时,
用于将
映射到残差超隐藏矩阵
,表示如下:


的元素可以动态依赖于输入
,动态超连接的矩阵表示为:
和输入
,可以得到动态超连接的输出:

的超连接矩阵:
和
分别表示神经网络层输入和输出的标准差,
表示它们之间的协方差。
的矩阵,右下三角部分填充为 1,其余部分为占位符 0。对于 Post-Norm,权重依赖于输入和输出的方差及协方差,形成一个
的矩阵。因此,它们的超连接矩阵是不可训练的。
矩阵,且权重是可训练的,甚至可以基于输入进行动态预测。






文章来源于互联网:字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%