5.10 批量归一化

本节我们介绍批量归一化(batch normalization)层,它能让较深的神经网络的训练变得更加容易 [1]。在3.16节(实战Kaggle比赛:预测房价)里,我们对输入数据做了标准化处理:处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近:这往往更容易训练出有效的模型。

通常来说,数据标准化预处理对于浅层模型就足够有效了。随着模型训练的进行,当每层中参数更新时,靠近输出层的输出较难出现剧烈变化。但对深层神经网络来说,即使输入数据已做标准化,训练中模型参数的更新依然很容易造成靠近输出层输出的剧烈变化。这种计算数值的不稳定性通常令我们难以训练出有效的深度模型。

批量归一化的提出正是为了应对深度模型训练的挑战。在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。批量归一化和下一节将要介绍的残差网络为训练和设计深度模型提供了两类重要思路

5.10.1 批量归一化层

对全连接层和卷积层做批量归一化的方法稍有不同。下面我们将分别介绍这两种情况下的批量归一化。

5.10.1.1 对全连接层做批量归一化

我们先考虑如何对全连接层做批量归一化。通常,我们将批量归一化层置于全连接层中的仿射变换和激活函数之间。设全连接层的输入为

5.10 批量归一化 - 图1 ,权重参数和偏差参数分别为 5.10 批量归一化 - 图25.10 批量归一化 - 图3 ,激活函数为 5.10 批量归一化 - 图4 。设批量归一化的运算符为 5.10 批量归一化 - 图5 。那么,使用批量归一化的全连接层的输出为

5.10 批量归一化 - 图6

其中批量归一化输入

5.10 批量归一化 - 图7 由仿射变换

5.10 批量归一化 - 图8

得到。考虑一个由

5.10 批量归一化 - 图9 个样本组成的小批量,仿射变换的输出为一个新的小批量 5.10 批量归一化 - 图10 。它们正是批量归一化层的输入。对于小批量 5.10 批量归一化 - 图11 中任意样本 5.10 批量归一化 - 图12 ,批量归一化层的输出同样是 5.10 批量归一化 - 图13 维向量

5.10 批量归一化 - 图14

并由以下几步求得。首先,对小批量

5.10 批量归一化 - 图15 求均值和方差:

5.10 批量归一化 - 图16

5.10 批量归一化 - 图17

其中的平方计算是按元素求平方。接下来,使用按元素开方和按元素除法对

5.10 批量归一化 - 图18 标准化:

5.10 批量归一化 - 图19

这里

5.10 批量归一化 - 图20 是一个很小的常数,保证分母大于0。在上面标准化的基础上,批量归一化层引入了两个可以学习的模型参数,拉伸(scale)参数 5.10 批量归一化 - 图21 和偏移(shift)参数 5.10 批量归一化 - 图22 。这两个参数和 5.10 批量归一化 - 图23 形状相同,皆为 5.10 批量归一化 - 图24 维向量。它们与 5.10 批量归一化 - 图25 分别做按元素乘法(符号 5.10 批量归一化 - 图26 )和加法计算:

5.10 批量归一化 - 图27

至此,我们得到了

5.10 批量归一化 - 图28 的批量归一化的输出 5.10 批量归一化 - 图29 。 值得注意的是,可学习的拉伸和偏移参数保留了不对 5.10 批量归一化 - 图30 做批量归一化的可能:此时只需学出 5.10 批量归一化 - 图315.10 批量归一化 - 图32 。我们可以对此这样理解:如果批量归一化无益,理论上,学出的模型可以不使用批量归一化。

5.10.1.2 对卷积层做批量归一化

对卷积层来说,批量归一化发生在卷积计算之后、应用激活函数之前。如果卷积计算输出多个通道,我们需要对这些通道的输出分别做批量归一化,且每个通道都拥有独立的拉伸和偏移参数,并均为标量。设小批量中有

5.10 批量归一化 - 图33 个样本。在单个通道上,假设卷积计算输出的高和宽分别为 5.10 批量归一化 - 图345.10 批量归一化 - 图35 。我们需要对该通道中 5.10 批量归一化 - 图36 个元素同时做批量归一化。对这些元素做标准化计算时,我们使用相同的均值和方差,即该通道中 5.10 批量归一化 - 图37 个元素的均值和方差。

5.10.1.3 预测时的批量归一化

使用批量归一化训练时,我们可以将批量大小设得大一点,从而使批量内样本的均值和方差的计算都较为准确。将训练好的模型用于预测时,我们希望模型对于任意输入都有确定的输出。因此,单个样本的输出不应取决于批量归一化所需要的随机小批量中的均值和方差。一种常用的方法是通过移动平均估算整个训练数据集的样本均值和方差,并在预测时使用它们得到确定的输出。可见,和丢弃层一样,批量归一化层在训练模式和预测模式下的计算结果也是不一样的。

5.10.2 从零开始实现

下面我们自己实现批量归一化层。

  1. import time
  2. import torch
  3. from torch import nn, optim
  4. import torch.nn.functional as F
  5. import sys
  6. sys.path.append("..")
  7. import d2lzh_pytorch as d2l
  8. device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
  9. def batch_norm(is_training, X, gamma, beta, moving_mean, moving_var, eps, momentum):
  10. # 判断当前模式是训练模式还是预测模式
  11. if not is_training:
  12. # 如果是在预测模式下,直接使用传入的移动平均所得的均值和方差
  13. X_hat = (X - moving_mean) / torch.sqrt(moving_var + eps)
  14. else:
  15. assert len(X.shape) in (2, 4)
  16. if len(X.shape) == 2:
  17. # 使用全连接层的情况,计算特征维上的均值和方差
  18. mean = X.mean(dim=0)
  19. var = ((X - mean) ** 2).mean(dim=0)
  20. else:
  21. # 使用二维卷积层的情况,计算通道维上(axis=1)的均值和方差。这里我们需要保持
  22. # X的形状以便后面可以做广播运算
  23. mean = X.mean(dim=0, keepdim=True).mean(dim=2, keepdim=True).mean(dim=3, keepdim=True)
  24. var = ((X - mean) ** 2).mean(dim=0, keepdim=True).mean(dim=2, keepdim=True).mean(dim=3, keepdim=True)
  25. # 训练模式下用当前的均值和方差做标准化
  26. X_hat = (X - mean) / torch.sqrt(var + eps)
  27. # 更新移动平均的均值和方差
  28. moving_mean = momentum * moving_mean + (1.0 - momentum) * mean
  29. moving_var = momentum * moving_var + (1.0 - momentum) * var
  30. Y = gamma * X_hat + beta # 拉伸和偏移
  31. return Y, moving_mean, moving_var

接下来,我们自定义一个BatchNorm层。它保存参与求梯度和迭代的拉伸参数gamma和偏移参数beta,同时也维护移动平均得到的均值和方差,以便能够在模型预测时被使用。BatchNorm实例所需指定的num_features参数对于全连接层来说应为输出个数,对于卷积层来说则为输出通道数。该实例所需指定的num_dims参数对于全连接层和卷积层来说分别为2和4。

  1. class BatchNorm(nn.Module):
  2. def __init__(self, num_features, num_dims):
  3. super(BatchNorm, self).__init__()
  4. if num_dims == 2:
  5. shape = (1, num_features)
  6. else:
  7. shape = (1, num_features, 1, 1)
  8. # 参与求梯度和迭代的拉伸和偏移参数,分别初始化成0和1
  9. self.gamma = nn.Parameter(torch.ones(shape))
  10. self.beta = nn.Parameter(torch.zeros(shape))
  11. # 不参与求梯度和迭代的变量,全在内存上初始化成0
  12. self.moving_mean = torch.zeros(shape)
  13. self.moving_var = torch.zeros(shape)
  14. def forward(self, X):
  15. # 如果X不在内存上,将moving_mean和moving_var复制到X所在显存上
  16. if self.moving_mean.device != X.device:
  17. self.moving_mean = self.moving_mean.to(X.device)
  18. self.moving_var = self.moving_var.to(X.device)
  19. # 保存更新过的moving_mean和moving_var, Module实例的traning属性默认为true, 调用.eval()后设成false
  20. Y, self.moving_mean, self.moving_var = batch_norm(self.training,
  21. X, self.gamma, self.beta, self.moving_mean,
  22. self.moving_var, eps=1e-5, momentum=0.9)
  23. return Y

5.10.2.1 使用批量归一化层的LeNet

下面我们修改5.5节(卷积神经网络(LeNet))介绍的LeNet模型,从而应用批量归一化层。我们在所有的卷积层或全连接层之后、激活层之前加入批量归一化层。

  1. net = nn.Sequential(
  2. nn.Conv2d(1, 6, 5), # in_channels, out_channels, kernel_size
  3. BatchNorm(6, num_dims=4),
  4. nn.Sigmoid(),
  5. nn.MaxPool2d(2, 2), # kernel_size, stride
  6. nn.Conv2d(6, 16, 5),
  7. BatchNorm(16, num_dims=4),
  8. nn.Sigmoid(),
  9. nn.MaxPool2d(2, 2),
  10. d2l.FlattenLayer(),
  11. nn.Linear(16*4*4, 120),
  12. BatchNorm(120, num_dims=2),
  13. nn.Sigmoid(),
  14. nn.Linear(120, 84),
  15. BatchNorm(84, num_dims=2),
  16. nn.Sigmoid(),
  17. nn.Linear(84, 10)
  18. )

下面我们训练修改后的模型。

  1. batch_size = 256
  2. train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size=batch_size)
  3. lr, num_epochs = 0.001, 5
  4. optimizer = torch.optim.Adam(net.parameters(), lr=lr)
  5. d2l.train_ch5(net, train_iter, test_iter, batch_size, optimizer, device, num_epochs)

输出:

  1. training on cuda
  2. epoch 1, loss 0.0039, train acc 0.790, test acc 0.835, time 2.9 sec
  3. epoch 2, loss 0.0018, train acc 0.866, test acc 0.821, time 3.2 sec
  4. epoch 3, loss 0.0014, train acc 0.879, test acc 0.857, time 2.6 sec
  5. epoch 4, loss 0.0013, train acc 0.886, test acc 0.820, time 2.7 sec
  6. epoch 5, loss 0.0012, train acc 0.891, test acc 0.859, time 2.8 sec

最后我们查看第一个批量归一化层学习到的拉伸参数gamma和偏移参数beta

  1. net[1].gamma.view((-1,)), net[1].beta.view((-1,))

输出:

  1. (tensor([ 1.2537, 1.2284, 1.0100, 1.0171, 0.9809, 1.1870], device='cuda:0'),
  2. tensor([ 0.0962, 0.3299, -0.5506, 0.1522, -0.1556, 0.2240], device='cuda:0'))

5.10.3 简洁实现

与我们刚刚自己定义的BatchNorm类相比,Pytorch中nn模块定义的BatchNorm1dBatchNorm2d类使用起来更加简单,二者分别用于全连接层和卷积层,都需要指定输入的num_features参数值。下面我们用PyTorch实现使用批量归一化的LeNet。

  1. net = nn.Sequential(
  2. nn.Conv2d(1, 6, 5), # in_channels, out_channels, kernel_size
  3. nn.BatchNorm2d(6),
  4. nn.Sigmoid(),
  5. nn.MaxPool2d(2, 2), # kernel_size, stride
  6. nn.Conv2d(6, 16, 5),
  7. nn.BatchNorm2d(16),
  8. nn.Sigmoid(),
  9. nn.MaxPool2d(2, 2),
  10. d2l.FlattenLayer(),
  11. nn.Linear(16*4*4, 120),
  12. nn.BatchNorm1d(120),
  13. nn.Sigmoid(),
  14. nn.Linear(120, 84),
  15. nn.BatchNorm1d(84),
  16. nn.Sigmoid(),
  17. nn.Linear(84, 10)
  18. )

使用同样的超参数进行训练。

  1. batch_size = 256
  2. train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size=batch_size)
  3. lr, num_epochs = 0.001, 5
  4. optimizer = torch.optim.Adam(net.parameters(), lr=lr)
  5. d2l.train_ch5(net, train_iter, test_iter, batch_size, optimizer, device, num_epochs)

输出:

  1. training on cuda
  2. epoch 1, loss 0.0054, train acc 0.767, test acc 0.795, time 2.0 sec
  3. epoch 2, loss 0.0024, train acc 0.851, test acc 0.748, time 2.0 sec
  4. epoch 3, loss 0.0017, train acc 0.872, test acc 0.814, time 2.2 sec
  5. epoch 4, loss 0.0014, train acc 0.883, test acc 0.818, time 2.1 sec
  6. epoch 5, loss 0.0013, train acc 0.889, test acc 0.734, time 1.8 sec

小结

  • 在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络的中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。
  • 对全连接层和卷积层做批量归一化的方法稍有不同。
  • 批量归一化层和丢弃层一样,在训练模式和预测模式的计算结果是不一样的。
  • PyTorch提供了BatchNorm类方便使用。

参考文献

[1] Ioffe, S., & Szegedy, C. (2015). Batch normalization: Accelerating deep network training by reducing internal covariate shift. arXiv preprint arXiv:1502.03167.


注:除代码外本节与原书此节基本相同,原书传送门