自动混合精度训练

一般情况下,训练深度学习模型时使用的数据类型为单精度(FP32)。2018年,百度与NVIDIA联合发表论文:MIXED PRECISION TRAINING,提出了混合精度训练的方法。混合精度训练是指在训练过程中,同时使用单精度(FP32)和半精度(FP16),其目的是相较于使用单精度(FP32)训练模型,在保持精度持平的条件下,能够加速训练。本文将介绍如何使用飞桨框架,实现自动混合精度训练。

一、半精度浮点类型 FP16

首先介绍半精度(FP16)。如图1所示,半精度(FP16)是一种相对较新的浮点类型,在计算机中使用2字节(16位)存储。在IEEE 754-2008标准中,它亦被称作binary16。与计算中常用的单精度(FP32)和双精度(FP64)类型相比,FP16更适于在精度要求不高的场景中使用。

missing

图 1. 半精度和单精度数据示意图

二、NVIDIA GPU的FP16算力

在使用相同的超参数下,混合精度训练使用半精度浮点(FP16)和单精度(FP32)浮点即可达到与使用纯单精度训练相同的准确率,并可加速模型的训练速度。这主要得益于英伟达推出的Volta及Turing架构GPU在使用FP16计算时具有如下特点:

  • FP16可降低一半的内存带宽和存储需求,这使得在相同的硬件条件下研究人员可使用更大更复杂的模型以及更大的batch size大小。

  • FP16可以充分利用英伟达Volta及Turing架构GPU提供的Tensor Cores技术。在相同的GPU硬件上,Tensor Cores的FP16计算吞吐量是FP32的8倍。

三、使用飞桨框架实现自动混合精度

使用飞桨框架提供的API,paddle.amp.auto_castpaddle.amp.GradScaler 能够实现自动混合精度训练(Automatic Mixed Precision,AMP),即在相关OP的计算中,自动选择FP16或FP32计算。开启AMP模式后,使用FP16与FP32进行计算的OP列表可见该文档。下面来看一个具体的例子,来了解如果使用飞桨框架实现混合精度训练。

3.1 辅助函数

首先定义辅助函数,用来计算训练时间。

  1. import time
  2. # 开始时间
  3. start_time = None
  4. def start_timer():
  5. # 获取开始时间
  6. global start_time
  7. start_time = time.time()
  8. def end_timer_and_print(msg):
  9. # 打印信息并输出训练时间
  10. end_time = time.time()
  11. print("n" + msg)
  12. print("共计耗时 = {:.3f} sec".format(end_time - start_time))

3.2 构建一个简单的网络

构建一个简单的网络,用于对比使用普通方法进行训练与使用混合精度训练的训练速度。该网络由三层 Linear 组成,其中前两层 Linear 后接 ReLU 激活函数。

  1. import paddle
  2. import paddle.nn as nn
  3. class SimpleNet(nn.Layer):
  4. def __init__(self, input_size, output_size):
  5. super(SimpleNet, self).__init__()
  6. self.linear1 = nn.Linear(input_size, output_size)
  7. self.relu1 = nn.ReLU()
  8. self.linear2 = nn.Linear(input_size, output_size)
  9. self.relu2 = nn.ReLU()
  10. self.linear3 = nn.Linear(input_size, output_size)
  11. def forward(self, x):
  12. x = self.linear1(x)
  13. x = self.relu1(x)
  14. x = self.linear2(x)
  15. x = self.relu2(x)
  16. x = self.linear3(x)
  17. return x

设置训练的相关参数,这里为了能有效的看出混合精度训练对于训练速度的提升,将 input_sizeoutput_size 的值设为较大的值,为了使用GPU 提供的Tensor Core 性能,还需将 batch_size 设置为 8 的倍数。

  1. epochs = 5
  2. input_size = 4096 # 设为较大的值
  3. output_size = 4096 # 设为较大的值
  4. batch_size = 512 # batch_size 为8的倍数
  5. nums_batch = 50
  6. train_data = [paddle.randn((batch_size, input_size)) for _ in range(nums_batch)]
  7. labels = [paddle.randn((batch_size, output_size)) for _ in range(nums_batch)]
  8. mse = paddle.nn.MSELoss()

3.3 使用默认的训练方式进行训练

  1. model = SimpleNet(input_size, output_size) # 定义模型
  2. optimizer = paddle.optimizer.SGD(learning_rate=0.0001, parameters=model.parameters()) # 定义优化器
  3. start_timer() # 获取训练开始时间
  4. for epoch in range(epochs):
  5. datas = zip(train_data, labels)
  6. for i, (data, label) in enumerate(datas):
  7. output = model(data)
  8. loss = mse(output, label)
  9. # 反向传播
  10. loss.backward()
  11. # 训练模型
  12. optimizer.step()
  13. optimizer.clear_grad()
  14. print(loss)
  15. end_timer_and_print("默认耗时:") # 获取结束时间并打印相关信息
  1. Tensor(shape=[1], dtype=float32, place=CUDAPlace(0), stop_gradient=False,
  2. [1.25010288])
  3. 默认耗时:
  4. 共计耗时 = 2.943 sec

3.4 使用AMP训练模型

在飞桨框架中,使用自动混合精度训练,需要进行三个步骤:

  • Step1: 定义 GradScaler ,用于缩放 loss 比例,避免浮点数下溢

  • Step2: 使用 auto_cast 用于创建AMP上下文环境,该上下文中自动会确定每个OP的输入数据类型(FP16或FP32)

  • Step3: 使用 Step1中定义的 GradScaler 完成 loss 的缩放,用缩放后的 loss 进行反向传播,完成训练

  1. model = SimpleNet(input_size, output_size) # 定义模型
  2. optimizer = paddle.optimizer.SGD(learning_rate=0.0001, parameters=model.parameters()) # 定义优化器
  3. # Step1:定义 GradScaler,用于缩放loss比例,避免浮点数溢出
  4. scaler = paddle.amp.GradScaler(init_loss_scaling=1024)
  5. start_timer() # 获取训练开始时间
  6. for epoch in range(epochs):
  7. datas = zip(train_data, labels)
  8. for i, (data, label) in enumerate(datas):
  9. # Step2:创建AMP上下文环境,开启自动混合精度训练
  10. with paddle.amp.auto_cast():
  11. output = model(data)
  12. loss = mse(output, label)
  13. # Step3:使用 Step1中定义的 GradScaler 完成 loss 的缩放,用缩放后的 loss 进行反向传播
  14. scaled = scaler.scale(loss)
  15. scaled.backward()
  16. # 训练模型
  17. scaler.minimize(optimizer, scaled)
  18. optimizer.clear_grad()
  19. print(loss)
  20. end_timer_and_print("使用AMP模式耗时:")
  1. Tensor(shape=[1], dtype=float32, place=CUDAPlace(0), stop_gradient=False,
  2. [1.23644269])
  3. 使用AMP模式耗时:
  4. 共计耗时 = 1.222 sec

四、进阶用法

4.1 使用梯度累加

梯度累加是指在模型训练过程中,训练一个batch的数据得到梯度后,不立即用该梯度更新模型参数,而是继续下一个batch数据的训练,得到梯度后继续循环,多次循环后梯度不断累加,直至达到一定次数后,用累加的梯度更新参数,这样可以起到变相扩大 batch_size 的作用。

在自动混合精度训练中,也支持梯度累加,使用方式如下:

  1. model = SimpleNet(input_size, output_size) # 定义模型
  2. optimizer = paddle.optimizer.SGD(learning_rate=0.0001, parameters=model.parameters()) # 定义优化器
  3. accumulate_batchs_num = 10 # 梯度累加中 batch 的数量
  4. # 定义 GradScaler
  5. scaler = paddle.amp.GradScaler(init_loss_scaling=1024)
  6. start_timer() # 获取训练开始时间
  7. for epoch in range(epochs):
  8. datas = zip(train_data, labels)
  9. for i, (data, label) in enumerate(datas):
  10. # 创建AMP上下文环境,开启自动混合精度训练
  11. with paddle.amp.auto_cast():
  12. output = model(data)
  13. loss = mse(output, label)
  14. # 使用 GradScaler 完成 loss 的缩放,用缩放后的 loss 进行反向传播
  15. scaled = scaler.scale(loss)
  16. scaled.backward()
  17. # 当累计的 batch 为 accumulate_batchs_num 时,更新模型参数
  18. if (i + 1) % accumulate_batchs_num == 0:
  19. # 训练模型
  20. scaler.minimize(optimizer, scaled)
  21. optimizer.clear_grad()
  22. print(loss)
  23. end_timer_and_print("使用AMP模式耗时:")
  1. Tensor(shape=[1], dtype=float32, place=CUDAPlace(0), stop_gradient=False,
  2. [1.25127280])
  3. 使用AMP模式耗时:
  4. 共计耗时 = 1.006 sec

五、总结

从上面的示例中可以看出,使用自动混合精度训练,共计耗时约 1.222s,而普通的训练方式则耗时 2.943s,训练速度提升约为 2.4倍。如需更多使用混合精度训练的示例,请参考飞桨模型库: paddlepaddle/models