前言 無論是 BERT、GPT 還是 ViT,幾乎都不用 Batch Normalization,而是清一色地用 Layer Normalization。 這不是巧合,而是 Transformer 架構中一個非常深層的設計選擇。 一、BN 和 LN 到底在做什麼? BN 和 LN 的出發點其實一樣——穩定訓練,防止梯度