网络的训练和测试

本章我们以 网络搭建 中的 LeNet 为例介绍网络的训练和测试。 LeNet 的实例化代码如下所示:

  1. # 实例化
  2. le_net = LeNet()

网络的训练和保存

在此我们仿照 数据加载与处理 中的方式读取 MNIST 数据。 下面的代码和之前基本一样,我们删除了注释并去掉了 RandomResizedCrop (MNIST 数据集通常不需要此数据增广)。

  1. from megengine.data import DataLoader
  2. from megengine.data.transform import ToMode, Pad, Normalize, Compose
  3. from megengine.data import RandomSampler
  4. from megengine.data.dataset import MNIST
  5.  
  6. # 读取训练数据并进行预处理
  7. mnist_train_dataset = MNIST(root="./dataset/MNIST", train=True, download=True)
  8. dataloader = DataLoader(
  9. mnist_train_dataset,
  10. transform=Compose([
  11. Normalize(mean=0.1307*255, std=0.3081*255),
  12. Pad(2),
  13. ToMode('CHW'),
  14. ]),
  15. sampler=RandomSampler(dataset=mnist_train_dataset, batch_size=64, drop_last=True), # 训练时一般使用RandomSampler来打乱数据顺序
  16. )

损失函数

有了数据之后通过前向传播可以得到网络的输出,我们用 损失函数 (loss function)来度量网络输出与训练目标之间的差距。

MegEngine 提供了各种常见损失函数,具体可见API文档中的 loss 部分。 例如,分类任务经常使用 交叉熵损失 (cross entropy),而回归任务一般使用 均方误差损失 (square loss)。此处我们以交叉熵损失为例进行说明。

网络的训练和测试 - 图1 表示真实的数据分布, 网络的训练和测试 - 图2 表示网络输出的数据分布,交叉熵损失的计算公式如下:

网络的训练和测试 - 图3

如下代码展示了如何使用交叉熵损失:

  1. import megengine as mge
  2. import megengine.functional as F
  3.  
  4. data = mge.tensor()
  5. label = mge.tensor(dtype="int32") # 交叉熵损失函数的标签数据需要是整型类型
  6. for step, (batch_data, batch_label) in enumerate(dataloader):
  7. data.set_value(batch_data)
  8. label.set_value(batch_label)
  9. logits = le_net(data)
  10.  
  11. # logits为网络的输出结果,label是数据的真实标签即训练目标
  12. loss = F.cross_entropy_with_softmax(logits, label) # 交叉熵损失函数

优化器

网络训练 即通过更新网络参数来最小化损失函数的过程,这个过程由 MegEngine 中的 优化器 (optimizer)来完成。

优化器首先通过反向传播获取所有网络参数相对于损失函数的梯度,然后根据具体的优化策略和梯度值来更新参数。

MegEngine 提供了基于各种常见优化策略的优化器,如 AdamSGD 。 它们都继承自 Optimizer 基类,主要包含参数梯度的计算( backward() )和参数更新( step() )这两个方法。

下面我们通过一个最简单的优化策略来示例说明,参数更新公式如下:

网络的训练和测试 - 图4

此处的 learning_rate 代表学习速率,用来控制参数每次更新的幅度。在 MegEngine 中此更新方式对应的优化器是 SGD 。 我们首先创建一个优化器:

  1. import megengine.optimizer as optim
  2. optimizer = optim.SGD(
  3. le_net.parameters(), # 参数列表,将指定参数与优化器绑定
  4. lr=0.05, # 学习速率
  5. )

然后通过 dataloader 读取一遍训练数据,并利用优化器对网络参数进行更新,这样的一轮更新我们称为一个epoch:

  1. data = mge.tensor()
  2. label = mge.tensor(dtype="int32") # 交叉熵损失函数的标签数据需要是整型类型
  3. for step, (batch_data, batch_label) in enumerate(dataloader):
  4. data.set_value(batch_data)
  5. label.set_value(batch_label)
  6.  
  7. optimizer.zero_grad() # 将参数的梯度置零
  8.  
  9. logits = le_net(data)
  10. loss = F.cross_entropy_with_softmax(logits, label)
  11.  
  12. optimizer.backward(loss) # 反传计算梯度
  13. optimizer.step() # 根据梯度更新参数值

训练示例

完整的训练流程通常需要运行多个epoch,代码如下所示:

  1. import megengine as mge
  2. import megengine.optimizer as optim
  3.  
  4. # 网络和优化器的创建
  5. le_net = LeNet()
  6. optimizer = optim.SGD(
  7. le_net.parameters(), # 参数列表
  8. lr=0.05, # 学习速率
  9. )
  10.  
  11. data = mge.tensor()
  12. label = mge.tensor(dtype="int32") # 交叉熵损失函数的标签数据需要是整型类型
  13. total_epochs = 10
  14. for epoch in range(total_epochs):
  15. total_loss = 0
  16. for step, (batch_data, batch_label) in enumerate(dataloader):
  17. data.set_value(batch_data)
  18. label.set_value(batch_label)
  19. optimizer.zero_grad() # 将参数的梯度置零
  20. logits = le_net(data)
  21. loss = F.cross_entropy_with_softmax(logits, label)
  22. optimizer.backward(loss) # 反传计算梯度
  23. optimizer.step() # 根据梯度更新参数值
  24. total_loss += loss.numpy().item()
  25. print("epoch: {}, loss {}".format(epoch, total_loss/len(dataloader)))

训练输出如下:

  1. epoch: 0, loss 0.22623900164399877
  2. epoch: 1, loss 0.07118050173928966
  3. epoch: 2, loss 0.050515039509092044
  4. epoch: 3, loss 0.0389270530823056
  5. epoch: 4, loss 0.0309853484441587
  6. epoch: 5, loss 0.025080320053271498
  7. epoch: 6, loss 0.02029314023363145
  8. epoch: 7, loss 0.016173969717602186
  9. epoch: 8, loss 0.013455517796447727
  10. epoch: 9, loss 0.010755786676661053

GPU和CPU切换

MegEngine 在GPU和CPU同时存在时默认使用GPU进行训练。用户可以调用 set_default_device() 来根据自身需求设置默认计算设备。

如下代码设置默认设备为CPU:

  1. import megengine as mge
  2.  
  3. # 默认使用CPU
  4. mge.set_default_device('cpux')

如下代码设置默认设备为GPU:

  1. # 默认使用GPU
  2. mge.set_default_device('gpux')

更多用法可见 set_default_device() API 文档。

如果不想修改代码,用户也可通过环境变量 MGE_DEFAULT_DEVICE 来设置默认计算设备:

  1. # 默认使用CPU
  2. export MGE_DEFAULT_DEVICE='cpux'
  3.  
  4. # 默认使用GPU
  5. export MGE_DEFAULT_DEVICE='gpux'

网络的保存

网络训练完成之后需要保存,以便后续使用。在之前 网络搭建 部分,我们介绍了网络模块 Module 中 state_dict() 的功能: state_dict() 遍历网络的所有参数,将其组成一个有序字典并返回。 我们通过 MegEngine 中的 save() 保存这些网络参数。

  1. path = "lenet.mge" # 我们约定用".mge"拓展名表示 MegEngine 模型文件
  2. mge.save(le_net.state_dict(), path)

网络的加载和测试

网络的加载

测试时我们可以通过 load() 来读取 lenet.mge ,它会返回 state_dict() 字典对象,其中保存了模型中的模块名称和对应参数。 接着,我们可以通过 Module 的 load_state_dict() 方法将该字典对象加载到 le_net 模型。

  1. state_dict = mge.load("lenet.mge")
  2. # 将参数加载到网络
  3. le_net.load_state_dict(state_dict)

eval() 和 train()

有少数算子训练和测试时行为不一致,例如 DropoutBatchNorm2dDropout 在训练时会以一定的概率概率将指定层的部分输出置零而在测试时则不会对输出进行任何更改。 BatchNorm2d 在训练时会不断统计更新对应张量的均值和标准差,测试时则不会更新这两个值。

为了保证训练和测试行为的正确,MegEngine 通过 eval()train() 来设置算子的状态。在 MegEngine 当中网络默认为训练模式,所以上述训练代码未调用 train() 函数来设置状态。

在此我们以 Dropout 为例展示这两个函数的作用:

  1. import megengine as mge
  2. from megengine.module import Dropout
  3.  
  4. dropout = Dropout(drop_prob=0.2) # 创建一个Dropout实例,每个值有0.2的概率置零
  5. data = mge.tensor(np.random.randn(10).astype('float32')) # 原始数据
  6. print("origin:", data)
  7.  
  8. dropout.train() # 训练时
  9. print("\ntrain:", dropout(data))
  10.  
  11. dropout.eval() # 测试时
  12. print("\neval:", dropout(data))
  1. origin: Tensor([ 0.1939 -0.1846 -1.1319 -0.8897 0.7057 1.3106 1.6901 -0.8686 -0.2685 -0.6046])
  2.  
  3. train: Tensor([ 0.2423 -0.2307 -0. -1.1121 0.8821 1.6383 2.1127 -0. -0.3357 -0.7557])
  4.  
  5. eval: Tensor([ 0.1939 -0.1846 -1.1319 -0.8897 0.7057 1.3106 1.6901 -0.8686 -0.2685 -0.6046])

从输出可以看到训练时 Dropout 将原始数据中的20%的值(两个)置0,其余值则乘了1.25(

网络的训练和测试 - 图5 );测试时 Dropout 未对原始数据进行任何处理。

测试代码示例

在此我们使用 MNIST 测试数据集对训好的网络进行测试。 具体测试代码如下所示,和训练代码相比主要是去掉了优化器的相关代码:

  1. import megengine as mge
  2.  
  3. # 读取测试数据并进行预处理
  4. mnist_test_dataset = MNIST(root="./dataset/MNIST", train=False, download=True)
  5. dataloader_test = DataLoader(
  6. mnist_test_dataset,
  7. transform=Compose([
  8. Normalize(mean=0.1307*255, std=0.3081*255),
  9. Pad(2),
  10. ToMode('CHW'),
  11. ]),
  12. )
  13.  
  14. le_net.eval() # 设置为测试模式
  15. data = mge.tensor()
  16. label = mge.tensor(dtype="int32")
  17. correct = 0
  18. total = 0
  19. for idx, (batch_data, batch_label) in enumerate(dataloader_test):
  20. data.set_value(batch_data)
  21. label.set_value(batch_label)
  22. logits = le_net(data)
  23. predicted = F.argmax(logits, axis=1)
  24. correct += (predicted==label).sum().numpy().item()
  25. total += label.shape[0]
  26. print("correct: {}, total: {}, accuracy: {}".format(correct, total, float(correct)/total))

测试输出如下,可以看到经过训练的 LeNet 在 MNIST 测试数据集上的准确率已经达到98.84%:

  1. correct: 9884, total: 10000, accuracy: 0.9884