收集Summary数据

Linux Ascend GPU CPU 模型调优 中级 高级

收集Summary数据 - 图1 收集Summary数据 - 图2

概述

训练过程中的标量、图像、计算图以及模型超参等信息记录到文件中,通过可视化界面供用户查看。

操作流程

  • 准备训练脚本,并在训练脚本中指定标量、图像、计算图、模型超参等信息记录到summary日志文件,接着运行训练脚本。

  • 启动MindInsight,并通过启动参数指定summary日志文件目录,启动成功后,根据IP和端口访问可视化界面,默认访问地址为 http://127.0.0.1:8080

  • 在训练过程中,有数据写入summary日志文件时,即可在页面中查看可视的数据。

准备训练脚本

当前MindSpore支持将标量、图像、计算图、模型超参等信息保存到summary日志文件中,并通过可视化界面进行展示。

MindSpore目前支持三种方式将数据记录到summary日志文件中。

方式一:通过SummaryCollector自动收集

在MindSpore中通过 Callback 机制提供支持快速简易地收集一些常见的信息,包括计算图,损失值,学习率,参数权重等信息的 Callback, 叫做 SummaryCollector

在编写训练脚本时,仅需要实例化 SummaryCollector,并将其应用到 model.train 或者 model.eval 中, 即可自动收集一些常见信息。SummaryCollector 详细的用法可以参考 API 文档中 mindspore.train.callback.SummaryCollector

样例代码如下:

  1. import mindspore
  2. import mindspore.nn as nn
  3. from mindspore import context
  4. from mindspore import Tensor
  5. from mindspore.train import Model
  6. from mindspore.common.initializer import TruncatedNormal
  7. import mindspore.ops as ops
  8. from mindspore.train.callback import SummaryCollector
  9. from mindspore.nn.metrics import Accuracy
  10. """AlexNet initial."""
  11. def conv(in_channels, out_channels, kernel_size, stride=1, padding=0, pad_mode="valid"):
  12. weight = weight_variable()
  13. return nn.Conv2d(in_channels, out_channels,
  14. kernel_size=kernel_size, stride=stride, padding=padding,
  15. weight_init=weight, has_bias=False, pad_mode=pad_mode)
  16. def fc_with_initialize(input_channels, out_channels):
  17. weight = weight_variable()
  18. bias = weight_variable()
  19. return nn.Dense(input_channels, out_channels, weight, bias)
  20. def weight_variable():
  21. return TruncatedNormal(0.02)
  22. class AlexNet(nn.Cell):
  23. def __init__(self, num_classes=10, channel=3):
  24. super(AlexNet, self).__init__()
  25. self.conv1 = conv(channel, 96, 11, stride=4)
  26. self.conv2 = conv(96, 256, 5, pad_mode="same")
  27. self.conv3 = conv(256, 384, 3, pad_mode="same")
  28. self.conv4 = conv(384, 384, 3, pad_mode="same")
  29. self.conv5 = conv(384, 256, 3, pad_mode="same")
  30. self.relu = nn.ReLU()
  31. self.max_pool2d = ops.MaxPool(ksize=3, strides=2)
  32. self.flatten = nn.Flatten()
  33. self.fc1 = fc_with_initialize(6*6*256, 4096)
  34. self.fc2 = fc_with_initialize(4096, 4096)
  35. self.fc3 = fc_with_initialize(4096, num_classes)
  36. def construct(self, x):
  37. x = self.conv1(x)
  38. x = self.relu(x)
  39. x = self.max_pool2d(x)
  40. x = self.conv2(x)
  41. x = self.relu(x)
  42. x = self.max_pool2d(x)
  43. x = self.conv3(x)
  44. x = self.relu(x)
  45. x = self.conv4(x)
  46. x = self.relu(x)
  47. x = self.conv5(x)
  48. x = self.relu(x)
  49. x = self.max_pool2d(x)
  50. x = self.flatten(x)
  51. x = self.fc1(x)
  52. x = self.relu(x)
  53. x = self.fc2(x)
  54. x = self.relu(x)
  55. x = self.fc3(x)
  56. return x
  57. context.set_context(mode=context.GRAPH_MODE)
  58. network = AlexNet(num_classes=10)
  59. loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction="mean")
  60. lr = Tensor(0.5, mindspore.float32)
  61. opt = nn.Momentum(network.trainable_params(), lr, momentum=0.9)
  62. model = Model(network, loss, opt, metrics={"Accuracy": Accuracy()})
  63. ds_train = create_dataset('./dataset_path')
  64. # Init a SummaryCollector callback instance, and use it in model.train or model.eval
  65. summary_collector = SummaryCollector(summary_dir='./summary_dir', collect_freq=1)
  66. # Note: dataset_sink_mode should be set to False, else you should modify collect freq in SummaryCollector
  67. model.train(epoch=1, train_dataset=ds_train, callbacks=[summary_collector], dataset_sink_mode=False)
  68. ds_eval = create_dataset('./dataset_path')
  69. model.eval(ds_eval, callbacks=[summary_collector])

方式二:结合Summary算子和SummaryCollector,自定义收集网络中的数据

MindSpore除了提供 SummaryCollector 能够自动收集一些常见数据,还提供了Summary算子,支持在网络中自定义收集其他的数据,比如每一个卷积层的输入,或在损失函数中的损失值等。

当前支持的Summary算子:

记录方式如下面的步骤所示。

步骤一:在继承 nn.Cell 的衍生类的 construct 函数中调用Summary算子来采集图像或标量数据或者其他数据。

比如,定义网络时,在网络的 construct 中记录图像数据;定义损失函数时,在损失函数的 construct中记录损失值。

如果要记录动态学习率,可以定义优化器时,在优化器的 construct 中记录学习率。

样例代码如下:

  1. from mindspore import context, Tensor, nn
  2. from mindspore.common import dtype as mstype
  3. import mindspore.ops as ops
  4. from mindspore.nn import Optimizer
  5. class CrossEntropyLoss(nn.Cell):
  6. """Loss function definition."""
  7. def __init__(self):
  8. super(CrossEntropyLoss, self).__init__()
  9. self.cross_entropy = ops.SoftmaxCrossEntropyWithLogits()
  10. self.mean = ops.ReduceMean()
  11. self.one_hot = ops.OneHot()
  12. self.on_value = Tensor(1.0, mstype.float32)
  13. self.off_value = Tensor(0.0, mstype.float32)
  14. # Init ScalarSummary
  15. self.scalar_summary = ops.ScalarSummary()
  16. def construct(self, logits, label):
  17. label = self.one_hot(label, ops.shape(logits)[1], self.on_value, self.off_value)
  18. loss = self.cross_entropy(logits, label)[0]
  19. loss = self.mean(loss, (-1,))
  20. # Record loss
  21. self.scalar_summary("loss", loss)
  22. return loss
  23. class MyOptimizer(Optimizer):
  24. """Optimizer definition."""
  25. def __init__(self, learning_rate, params, ......):
  26. ......
  27. # Initialize ScalarSummary
  28. self.scalar_summary = ops.ScalarSummary()
  29. self.histogram_summary = ops.HistogramSummary()
  30. self.weight_names = [param.name for param in self.parameters]
  31. def construct(self, grads):
  32. ......
  33. # Record learning rate here
  34. self.scalar_summary("learning_rate", learning_rate)
  35. # Record weight
  36. self.histogram_summary(self.weight_names[0], self.paramters[0])
  37. # Record gradient
  38. self.histogram_summary(self.weight_names[0] + ".gradient", grads[0])
  39. ......
  40. class Net(nn.Cell):
  41. """Net definition."""
  42. def __init__(self):
  43. super(Net, self).__init__()
  44. ......
  45. # Init ImageSummary
  46. self.image_summary = ops.ImageSummary()
  47. # Init TensorSummary
  48. self.tensor_summary = ops.TensorSummary()
  49. def construct(self, data):
  50. # Record image by Summary operator
  51. self.image_summary("image", data)
  52. # Record tensor by Summary operator
  53. self.tensor_summary("tensor", data)
  54. ......
  55. return out

同一种Summary算子中,给数据设置的名字不能重复,否则数据收集和展示都会出现非预期行为。 比如使用两个 ScalarSummary 算子收集标量数据,给两个标量设置的名字不能是相同的。

步骤二:在训练脚本中,实例化 SummaryCollector,并将其应用到 model.train

样例代码如下:

  1. from mindspore import Model, nn, context
  2. from mindspore.train.callback import SummaryCollector
  3. ......
  4. context.set_context(mode=context.GRAPH_MODE)
  5. net = Net()
  6. loss_fn = CrossEntropyLoss()
  7. optim = MyOptimizer(learning_rate=0.01, params=network.trainable_params())
  8. model = Model(net, loss_fn=loss_fn, optimizer=optim, metrics={"Accuracy": Accuracy()})
  9. train_ds = create_mindrecord_dataset_for_training()
  10. summary_collector = SummaryCollector(summary_dir='./summary_dir', collect_freq=1)
  11. model.train(epoch=2, train_dataset=train_ds, callbacks=[summary_collector])

方式三:自定义Callback记录数据

MindSpore支持自定义Callback, 并允许在自定义Callback中将数据记录到summary日志文件中, 并通过可视化页面进行查看。

下面的伪代码则展示在CNN网络中,开发者可以利用带有原始标签和预测标签的网络输出,生成混淆矩阵的图片, 然后通过 SummaryRecord 模块记录到summary日志文件中。 SummaryRecord 详细的用法可以参考 API 文档中 mindspore.train.summary.SummaryRecord

样例代码如下:

  1. from mindspore.train.callback import Callback
  2. from mindspore.train.summary import SummaryRecord
  3. class ConfusionMatrixCallback(Callback):
  4. def __init__(self, summary_dir):
  5. self._summary_dir = summary_dir
  6. def __enter__(self):
  7. # init you summary record in here, when the train script run, it will be inited before training
  8. self.summary_record = SummaryRecord(summary_dir)
  9. def __exit__(self, *exc_args):
  10. # Note: you must close the summary record, it will release the process pool resource
  11. # else your training script will not exit from training.
  12. self.summary_record.close()
  13. return self
  14. def step_end(self, run_context):
  15. cb_params = run_context.run_context.original_args()
  16. # create a confusion matric image, and record it to summary file
  17. confusion_martrix = create_confusion_matrix(cb_params)
  18. self.summary_record.add_value('image', 'confusion_matrix', confusion_matric)
  19. self.summary_record.record(cb_params.cur_step)
  20. # init you train script
  21. ...
  22. confusion_martrix = ConfusionMartrixCallback(summary_dir='./summary_dir')
  23. model.train(cnn_network, train_dataset=train_ds, callbacks=[confusion_martrix])

上面的三种方式,支持记录计算图, 损失值等多种数据。除此以外,MindSpore还支持保存训练中其他阶段的计算图,通过 将训练脚本中 context.set_contextsave_graphs 选项设置为 True, 可以记录其他阶段的计算图,其中包括算子融合后的计算图。

在保存的文件中,ms_output_after_hwopt.pb 即为算子融合后的计算图,可以使用可视化页面对其进行查看。

运行MindInsight

按照上面教程完成数据收集后,启动MindInsight,即可可视化收集到的数据。启动MindInsight时, 需要通过 --summary-base-dir 参数指定summary日志文件目录。

其中指定的summary日志文件目录可以是一次训练的输出目录,也可以是多次训练输出目录的父目录。

一次训练的输出目录结构如下:

  1. └─summary_dir
  2. events.out.events.summary.1596869898.hostname_MS
  3. events.out.events.summary.1596869898.hostname_lineage

启动命令:

  1. mindinsight start --summary-base-dir ./summary_dir

多次训练的输出目录结构如下:

  1. └─summary
  2. ├─summary_dir1
  3. events.out.events.summary.1596869898.hostname_MS
  4. events.out.events.summary.1596869898.hostname_lineage
  5. └─summary_dir2
  6. events.out.events.summary.1596869998.hostname_MS
  7. events.out.events.summary.1596869998.hostname_lineage

启动命令:

  1. mindinsight start --summary-base-dir ./summary

启动成功后,通过浏览器访问 http://127.0.0.1:8080 地址,即可查看可视化页面。

停止MindInsight命令:

  1. mindinsight stop

更多参数设置,请点击查看MindInsight相关命令页面。

注意事项

  1. 为了控制列出summary文件目录的用时,MindInsight最多支持发现999个summary文件目录。

  2. 不能同时使用多个 SummaryRecord 实例 (SummaryCollector 中使用了 SummaryRecord)。

    如果在 model.train 或者 model.eval 的callback列表中使用两个及以上的 SummaryCollector 实例,则视为同时使用 SummaryRecord,导致记录数据失败。

    自定义callback中如果使用 SummaryRecord,则其不能和 SummaryCollector 同时使用。

    正确代码:

    1. ...
    2. summary_collector = SummaryCollector('./summary_dir')
    3. model.train(2, train_dataset, callbacks=[summary_collector])
    4. ...
    5. model.eval(dataset callbacks=[summary_collector])

    错误代码:

    1. ...
    2. summary_collector1 = SummaryCollector('./summary_dir1')
    3. summary_collector2 = SummaryCollector('./summary_dir2')
    4. model.train(2, train_dataset, callbacks=[summary_collector1, summary_collector2])

    错误代码:

    1. ...
    2. # Note: the 'ConfusionMatrixCallback' is user-defined, and it uses SummaryRecord to record data.
    3. confusion_callback = ConfusionMatrixCallback('./summary_dir1')
    4. summary_collector = SummaryCollector('./summary_dir2')
    5. model.train(2, train_dataset, callbacks=[confusion_callback, summary_collector])
  3. 每个summary日志文件目录中,应该只放置一次训练的数据。一个summary日志目录中如果存放了多次训练的summary数据,MindInsight在可视化数据时会将这些训练的summary数据进行叠加展示,可能会与预期可视化效果不相符。

  4. 当前 SummaryCollectorSummaryRecord 不支持GPU多卡运行的场景。