7.3. 小批量随机梯度下降

在每一次迭代中,梯度下降使用整个训练数据集来计算梯度,因此它有时也被称为批量梯度下降(batchgradientdescent)。而随机梯度下降在每次迭代中只随机采样一个样本来计算梯度。正如我们在前几章中所看到的,我们还可以在每轮迭代中随机均匀采样多个样本来组成一个小批量,然后使用这个小批量来计算梯度。下面就来描述小批量随机梯度下降。

设目标函数

7.3. 小批量随机梯度下降 - 图1 。在迭代开始前的时间步设为0。该时间步的自变量记为 7.3. 小批量随机梯度下降 - 图2 ,通常由随机初始化得到。在接下来的每一个时间步 7.3. 小批量随机梯度下降 - 图3 中,小批量随机梯度下降随机均匀采样一个由训练数据样本索引组成的小批量 7.3. 小批量随机梯度下降 - 图4 。我们可以通过重复采样(samplingwith replacement)或者不重复采样(sampling withoutreplacement)得到一个小批量中的各个样本。前者允许同一个小批量中出现重复的样本,后者则不允许如此,且更常见。对于这两者间的任一种方式,都可以使用

7.3. 小批量随机梯度下降 - 图5

来计算时间步

7.3. 小批量随机梯度下降 - 图6 的小批量 7.3. 小批量随机梯度下降 - 图7 上目标函数位于 7.3. 小批量随机梯度下降 - 图8 处的梯度 7.3. 小批量随机梯度下降 - 图9 。这里 7.3. 小批量随机梯度下降 - 图10 代表批量大小,即小批量中样本的个数,是一个超参数。同随机梯度一样,重复采样所得的小批量随机梯度 7.3. 小批量随机梯度下降 - 图11 也是对梯度 7.3. 小批量随机梯度下降 - 图12 的无偏估计。给定学习率 7.3. 小批量随机梯度下降 - 图13 (取正数),小批量随机梯度下降对自变量的迭代如下:

7.3. 小批量随机梯度下降 - 图14

基于随机采样得到的梯度的方差在迭代过程中无法减小,因此在实际中,(小批量)随机梯度下降的学习率可以在迭代过程中自我衰减,例如

7.3. 小批量随机梯度下降 - 图15 (通常 7.3. 小批量随机梯度下降 - 图16 或者 7.3. 小批量随机梯度下降 - 图17 )、 7.3. 小批量随机梯度下降 - 图18 (如 7.3. 小批量随机梯度下降 - 图19 )或者每迭代若干次后将学习率衰减一次。如此一来,学习率和(小批量)随机梯度乘积的方差会减小。而梯度下降在迭代过程中一直使用目标函数的真实梯度,无须自我衰减学习率。

小批量随机梯度下降中每次迭代的计算开销为

7.3. 小批量随机梯度下降 - 图20 。当批量大小为1时,该算法即为随机梯度下降;当批量大小等于训练数据样本数时,该算法即为梯度下降。当批量较小时,每次迭代中使用的样本少,这会导致并行处理和内存使用效率变低。这使得在计算同样数目样本的情况下比使用更大批量时所花时间更多。当批量较大时,每个小批量梯度里可能含有更多的冗余信息。为了得到较好的解,批量较大时比批量较小时需要计算的样本数目可能更多,例如增大迭代周期数。

7.3.1. 读取数据

本章里我们将使用一个来自NASA的测试不同飞机机翼噪音的数据集来比较各个优化算法[1]。我们使用该数据集的前1,500个样本和5个特征,并使用标准化对数据进行预处理。

  1. In [1]:
  1. %matplotlib inline
  2. import d2lzh as d2l
  3. from mxnet import autograd, gluon, init, nd
  4. from mxnet.gluon import nn, data as gdata, loss as gloss
  5. import numpy as np
  6. import time
  7.  
  8. def get_data_ch7(): # 本函数已保存在d2lzh包中方便以后使用
  9. data = np.genfromtxt('../data/airfoil_self_noise.dat', delimiter='\t')
  10. data = (data - data.mean(axis=0)) / data.std(axis=0)
  11. return nd.array(data[:1500, :-1]), nd.array(data[:1500, -1])
  12.  
  13. features, labels = get_data_ch7()
  14. features.shape
  1. Out[1]:
  1. (1500, 5)

7.3.2. 从零开始实现

“线性回归的从零开始实现”一节中已经实现过小批量随机梯度下降算法。我们在这里将它的输入参数变得更加通用,主要是为了方便本章后面介绍的其他优化算法也可以使用同样的输入。具体来说,我们添加了一个状态输入states并将超参数放在字典hyperparams里。此外,我们将在训练函数里对各个小批量样本的损失求平均,因此优化算法里的梯度不需要除以批量大小。

  1. In [2]:
  1. def sgd(params, states, hyperparams):
  2. for p in params:
  3. p[:] -= hyperparams['lr'] * p.grad

下面实现一个通用的训练函数,以方便本章后面介绍的其他优化算法使用。它初始化一个线性回归模型,然后可以使用小批量随机梯度下降以及后续小节介绍的其他算法来训练模型。

  1. In [3]:
  1. # 本函数已保存在d2lzh包中方便以后使用
  2. def train_ch7(trainer_fn, states, hyperparams, features, labels,
  3. batch_size=10, num_epochs=2):
  4. # 初始化模型
  5. net, loss = d2l.linreg, d2l.squared_loss
  6. w = nd.random.normal(scale=0.01, shape=(features.shape[1], 1))
  7. b = nd.zeros(1)
  8. w.attach_grad()
  9. b.attach_grad()
  10.  
  11. def eval_loss():
  12. return loss(net(features, w, b), labels).mean().asscalar()
  13.  
  14. ls = [eval_loss()]
  15. data_iter = gdata.DataLoader(
  16. gdata.ArrayDataset(features, labels), batch_size, shuffle=True)
  17. for _ in range(num_epochs):
  18. start = time.time()
  19. for batch_i, (X, y) in enumerate(data_iter):
  20. with autograd.record():
  21. l = loss(net(X, w, b), y).mean() # 使用平均损失
  22. l.backward()
  23. trainer_fn([w, b], states, hyperparams) # 迭代模型参数
  24. if (batch_i + 1) * batch_size % 100 == 0:
  25. ls.append(eval_loss()) # 每100个样本记录下当前训练误差
  26. # 打印结果和作图
  27. print('loss: %f, %f sec per epoch' % (ls[-1], time.time() - start))
  28. d2l.set_figsize()
  29. d2l.plt.plot(np.linspace(0, num_epochs, len(ls)), ls)
  30. d2l.plt.xlabel('epoch')
  31. d2l.plt.ylabel('loss')

当批量大小为样本总数1,500时,优化使用的是梯度下降。梯度下降的1个迭代周期对模型参数只迭代1次。可以看到6次迭代后目标函数值(训练损失)的下降趋向了平稳。

  1. In [4]:
  1. def train_sgd(lr, batch_size, num_epochs=2):
  2. train_ch7(sgd, None, {'lr': lr}, features, labels, batch_size, num_epochs)
  3.  
  4. train_sgd(1, 1500, 6)
  1. loss: 0.246095, 0.023798 sec per epoch

../_images/chapter_optimization_minibatch-sgd_7_1.svg

当批量大小为1时,优化使用的是随机梯度下降。为了简化实现,有关(小批量)随机梯度下降的实验中,我们未对学习率进行自我衰减,而是直接采用较小的常数学习率。随机梯度下降中,每处理一个样本会更新一次自变量(模型参数),一个迭代周期里会对自变量进行1,500次更新。可以看到,目标函数值的下降在1个迭代周期后就变得较为平缓。

  1. In [5]:
  1. train_sgd(0.005, 1)
  1. loss: 0.243001, 1.681222 sec per epoch

../_images/chapter_optimization_minibatch-sgd_9_1.svg

虽然随机梯度下降和梯度下降在一个迭代周期里都处理了1,500个样本,但实验中随机梯度下降的一个迭代周期耗时更多。这是因为随机梯度下降在一个迭代周期里做了更多次的自变量迭代,而且单样本的梯度计算难以有效利用矢量计算。

当批量大小为10时,优化使用的是小批量随机梯度下降。它在每个迭代周期的耗时介于梯度下降和随机梯度下降的耗时之间。

  1. In [6]:
  1. train_sgd(0.05, 10)
  1. loss: 0.242492, 0.190521 sec per epoch

../_images/chapter_optimization_minibatch-sgd_11_1.svg

7.3.3. 简洁实现

在Gluon里可以通过创建Trainer实例来调用优化算法。这能让实现更简洁。下面实现一个通用的训练函数,它通过优化算法的名字trainer_name和超参数trainer_hyperparams来创建Trainer实例。

  1. In [7]:
  1. # 本函数已保存在d2lzh包中方便以后使用
  2. def train_gluon_ch7(trainer_name, trainer_hyperparams, features, labels,
  3. batch_size=10, num_epochs=2):
  4. # 初始化模型
  5. net = nn.Sequential()
  6. net.add(nn.Dense(1))
  7. net.initialize(init.Normal(sigma=0.01))
  8. loss = gloss.L2Loss()
  9.  
  10. def eval_loss():
  11. return loss(net(features), labels).mean().asscalar()
  12.  
  13. ls = [eval_loss()]
  14. data_iter = gdata.DataLoader(
  15. gdata.ArrayDataset(features, labels), batch_size, shuffle=True)
  16. # 创建Trainer实例来迭代模型参数
  17. trainer = gluon.Trainer(
  18. net.collect_params(), trainer_name, trainer_hyperparams)
  19. for _ in range(num_epochs):
  20. start = time.time()
  21. for batch_i, (X, y) in enumerate(data_iter):
  22. with autograd.record():
  23. l = loss(net(X), y)
  24. l.backward()
  25. trainer.step(batch_size) # 在Trainer实例里做梯度平均
  26. if (batch_i + 1) * batch_size % 100 == 0:
  27. ls.append(eval_loss())
  28. # 打印结果和作图
  29. print('loss: %f, %f sec per epoch' % (ls[-1], time.time() - start))
  30. d2l.set_figsize()
  31. d2l.plt.plot(np.linspace(0, num_epochs, len(ls)), ls)
  32. d2l.plt.xlabel('epoch')
  33. d2l.plt.ylabel('loss')

使用Gluon重复上一个实验。

  1. In [8]:
  1. train_gluon_ch7('sgd', {'learning_rate': 0.05}, features, labels, 10)
  1. loss: 0.242901, 0.192262 sec per epoch

../_images/chapter_optimization_minibatch-sgd_15_1.svg

7.3.4. 小结

  • 小批量随机梯度每次随机均匀采样一个小批量的训练样本来计算梯度。
  • 在实际中,(小批量)随机梯度下降的学习率可以在迭代过程中自我衰减。
  • 通常,小批量随机梯度在每个迭代周期的耗时介于梯度下降和随机梯度下降的耗时之间。

7.3.5. 练习

  • 修改批量大小和学习率,观察目标函数值的下降速度和每个迭代周期的耗时。
  • 查阅MXNet文档,使用Trainer类的set_learning_rate函数,令小批量随机梯度下降的学习率每过一个迭代周期减小到原值的1/10。

7.3.6. 参考文献

[1]飞机机翼噪音数据集。https://archive.ics.uci.edu/ml/datasets/Airfoil+Self-Noise