重计算:大Batch训练特性

背景

随着训练数据规模的逐渐增加,训练更大、更深的深度学习模型成为一个主流趋势。目前的深度学习模型训练,通常要求保留前向计算的隐层结果,并且需要保存结果的数量会随着模型层数的增加线性增加,这对于目前能够使用的AI芯片的内存大小是个挑战。Forward Recomputation Backpropagation(FRB)可以在额外增加少量计算的情况下,显著增加模型的层数和宽度,同时也可以显著提升模型训练的batch大小。

原理

我们知道,深度学习网络的一次训练迭代包含三个步骤:

  • 前向计算:运行前向算子(Operator) 来计算中间隐层(Variable)的值
  • 反向计算:运行反向算子来计算参数(Parameter)的梯度
  • 优化:应用优化算法以更新参数值

在前向计算过程中,前向算子会输出大量的中间计算结果,在Paddle中,使用 Variable来存储这些隐层的中间结果。当模型层数加深时,其数量可达成千上万个, 占据大量的内存。Paddle的 显存回收机制 会及时清除无用的中间结果,以节省存储。 然而,有些中间结果是反向算子的输入,这些Variable必须存储在内存中,直到相应的反向算子计算完毕。

举个简单的例子, 我们定义一个由mul算子构成的网络,其前向计算为:

y\=W1∗xz\=W2∗yy\=W1∗xz\=W2∗y

其中 x,y,zx,y,z 为向量, W1,W2W1,W2 为矩阵。容易知道,求 W2W2 梯度的反向计算为:

W′2\=z′/yW2′\=z′/y

可以看到反向计算中用到了前向计算生成的变量 yy ,因此变量 yy 必须存储在内存中,直到这个反向算子计算完毕。当模型加深时,我们会有大量的“ yy ”,占据了大量的内存。

Forward Recomputation Backpropagation(FRB)的思想是将深度学习网络切分为k个部分(segments)。对每个segment而言:前向计算时,除了小部分必须存储在内存中的Variable外(我们后续会讨论这些特殊Variable),其他中间结果都将被删除;在反向计算中,首先重新计算一遍前向算子,以获得中间结果,再运行反向算子。简而言之,FRB和普通的网络迭代相比,多计算了一遍前向算子。

我们把切分网络的变量叫做checkpoints。 那么问题来了,如何选择checkpoints呢?自从FRB方法提出以来 [1], [2],大量学者在研究这一关键问题。 我们知道深度学习网络通常是由一个个模块串联得到的,比如ResNet-50由16个block串联而成, Bert-Large由24个transformer串联而成,以两个子模块中间的变量作为切分点就是一个很好的选择。 对于非串联的网络(比如含有大量shortcut结构的网络),FRB也支持对其做切分, 只是可能多耗费一点内存(用于存储shortcut的Variable)。 Mitsuru Kusumoto [3] 等提出了一种基于动态规划的算法, 可以根据指定的内存自动搜索合适的checkpoints,支持各种各样的网络结构。

下图是由4个fc Layer、3个relu Layer、1个sigmoid Layer和1个log-loss Layer串联而成的一个网络:最左侧为其前向计算流程、中间是普通的前向计算和反向计算流程、最右侧为添加FRB后的前向计算和反向计算流程。其中方框代表算子(Operator),红点代表前向计算的中间结果、蓝点代表checkpoints。

../../../_images/recompute.png

注:该例子完整代码位于 source

添加FRB后,前向计算中需要存储的中间Variable从4个(红点)变为2个(蓝点), 从而节省了这部分内存。当然了,重计算的部分也产生了新的中间变量, 这就需要根据实际情况来做权衡了。这个例子里的网络比较浅,通常来讲, 对层数较深的网络,FRB节省的内存要远多于新增加的内存。

使用方法

我们实现了基于Paddle的FRB算法,叫做RecomputeOptimizer, 您可以根据其 源码文档 更深入地了解这一算法。我们为用户提供了两个使用RecomputeOptimizer的方法: 直接调用与Fleet API中使用。在单机单卡或者CPU训练中建议您直接调用RecomputeOptimizer, 在多卡训练或者多机训练任务上建议您在Fleet API中使用Recompute。

1. 直接调用

直接调用RecomputeOptimizer非常简单,首先要定义一个经典的Optimizer,比如Adam; 然后在外面包一层RecomputeOptimizer;最后设置checkpoints即可。

  1. import paddle.fluid as fluid
  2. # 定义网络
  3. def mlp(input_x, input_y, hid_dim=128, label_dim=2):
  4. print(input_x)
  5. fc_1 = fluid.layers.fc(input=input_x, size=hid_dim)
  6. prediction = fluid.layers.fc(input=[fc_1], size=label_dim, act='softmax')
  7. cost = fluid.layers.cross_entropy(input=prediction, label=input_y)
  8. sum_cost = fluid.layers.reduce_mean(cost)
  9. return sum_cost, fc_1, prediction
  10. input_x = fluid.layers.data(name="x", shape=[32], dtype='float32')
  11. input_y = fluid.layers.data(name="y", shape=[1], dtype='int64')
  12. cost, fc_1, pred = mlp(input_x, input_y)
  13. # 定义RecomputeOptimizer
  14. sgd = fluid.optimizer.Adam(learning_rate=0.01)
  15. sgd = fluid.optimizer.RecomputeOptimizer(sgd)
  16. # 设置checkpoints
  17. sgd._set_checkpoints([fc_1, pred])
  18. # 运行优化算法
  19. sgd.minimize(cost)

Recompute原则上适用于所有Optimizer。

2. 在Fleet API中使用Recompute

Fleet API 是基于Fluid的分布式计算高层API。在Fleet API中添加RecomputeOptimizer 仅需要2步:

  • 设置dist_strategy.forward_recompute为True;
  • 设置dist_strategy.recompute_checkpoints。
  1. from paddle.fluid.incubate.fleet.collective import fleet, DistributedStrategy
  2. dist_strategy = DistributedStrategy()
  3. dist_strategy.forward_recompute = True
  4. dist_strategy.recompute_checkpoints=checkpoints
  5. optimizer = fleet.distributed_optimizer(optimizer, strategy=dist_strategy)
  6. optimizer.minimize(loss)

为了帮助您快速地用Fleet API使用Recompute任务,我们提供了一些例子, 并且给出了这些例子的计算速度、效果和显存节省情况:

  • 用Recompute做Bert Fine-tuning: source
  • 用Recompute做目标检测:开发中.

Q&A

  • 是否支持带有随机性的Op?

    目前Paddle中带随机性的Op有:dropout,Recompute支持 dropout Operator,可以保证重计算与初次计算结果保持一致。

  • 有没有更多Recompute的官方例子?

    更多Recompute的例子将更新在 examplesFleet 库下,欢迎关注。

  • 有没有添加checkpoints的建议?

    我们建议将子网络连接部分的变量添加为checkpoints,即: 如果一个变量能将网络完全分为前后两部分,那么建议将其加入checkpoints。 checkpoints的数目会影响内存的消耗:如果checkpoints很少, 那么Recompute起的作用有限;如果checkpoints数量过多, 那么checkpoints本身占用的内存量就较大,内存消耗可能不降反升。

    我们后续会添加一个估算内存用量的工具, 可以对每个Operator运算前后的显存用量做可视化, 帮助用户定位问题。

[1] Tianqi Chen, Bing Xu, Chiyuan Zhang, and Carlos Guestrin . Training deep nets with sublinear memory cost. arXiv preprint, arXiv:1604.06174, 2016.

[2] Audrunas Gruslys , Rémi Munos , Ivo Danihelka , Marc Lanctot , and Alex Graves. Memory efficient backpropagation through time. In Advances in Neural Information Processing Systems (NIPS), pages 4125 4133, 2016.

[3] Kusumoto, Mitsuru, et al. “A Graph Theoretic Framework of Recomputation Algorithms for Memory-Efficient Backpropagation.” arXiv preprint arXiv:1905.11722 (2019).