Batch Normalization: Accelerating Deep Network
Training by Reducing Internal Covariate Shift
批量归一化:通过减少内部协变量转移加速深度网络训
练
翻译:陈媛媛(初),管枫(复),任远航(审)
绪论:
在深度神经网络的训练过程中,先前层参数的调整
会导致之后每一层输入值的分布发生变化,这种现象使
模型的训练变得很复杂。所以在深度神经网络模型的训
练中,通常需要仔细选取初始参数并采取较小的学习率,
这不但导致模型训练的效率低下,而且使得饱和非线性
模型的训练极为困难。我们把这种现象称为内部协变量
转移(covariate shift),并通过归一化(normalizing)
每层的输入来解决这个问题。我们方法的强大之处在于
把归一化的步骤作为模型训练架构的一部分来实现, 并
且对每个训练小批量都执行归一化操作。批量归一化允
许我们使用很高的学习率并且对初始化不太在意。它在
一定情况下也可以起到正则化的作用,并减轻了对
Dropout 的需求。我们在最先进的图像分类模型中使用
批量归一化法,在减少了 14 倍训练步骤的情况下实现
了与原模型相同的精度,并以显著增量击败了原始模型。
我们使用批量归一化的网络模型,增强了在 ImageNet
评论0