基本用法

PaddlePaddle主要的动转静方式是基于源代码级别转换的ProgramTranslator。其基本原理是通过分析Python代码来将动态图代码转写为静态图代码,并在底层自动帮用户使用静态图执行器运行。这种转换方式使得用户可以灵活使用Python语法及其控制流来构建神经网络模型。除此之外,PaddlePaddle另外提供一种基于trace的动转静接口TracedLayer。若遇到ProgramTranslator不支持但是可以用TracedLayer运行的情况,可以作为备选方案。

基于源代码转写的ProgramTranslator

源代码转写的ProgramTranslator进行动态图转静态图,其基本原理是通过分析Python代码来将动态图代码转写为静态图代码,并在底层自动帮用户使用执行器运行。其基本使用方法十分简便,只需要在要转化的函数(该函数也可以是用户自定义动态图Layer的forward函数)前添加一个装饰器 @paddle.jit.to_static ,一个转化例子如下,可以直接运行被装饰函数得到结果:

  1. import paddle
  2. import numpy as np
  3. @paddle.jit.to_static
  4. def func(input_var):
  5. # if判断与输入input_var的shape有关
  6. if input_var.shape[0] > 1:
  7. out = paddle.cast(input_var, "float64")
  8. else:
  9. out = paddle.cast(input_var, "int64")
  10. return out
  11. in_np = np.array([-2]).astype('int')
  12. input_var = paddle.to_tensor(in_np)
  13. func(input_var)

若要存储转化后的静态图模型,可以调用 paddle.jit.save ,我们定义一个简单全连接网络SimpleFcLayer,需要在下面SimpleFcLayer的forward函数添加装饰器:

  1. import numpy as np
  2. import paddle
  3. class SimpleFcLayer(paddle.nn.Layer):
  4. def __init__(self, batch_size, feature_size, fc_size):
  5. super(SimpleFcLayer, self).__init__()
  6. self._linear = paddle.nn.Linear(feature_size, fc_size)
  7. self._offset = paddle.to_tensor(
  8. np.random.random((batch_size, fc_size)).astype('float32'))
  9. @paddle.jit.to_static
  10. def forward(self, x):
  11. fc = self._linear(x)
  12. return fc + self._offset

存储该模型可以使用 paddle.jit.save 接口:

  1. import paddle
  2. fc_layer = SimpleFcLayer(3, 4, 2)
  3. in_np = np.random.random([3, 4]).astype('float32')
  4. input_var = paddle.to_tensor(in_np)
  5. out = fc_layer(input_var)
  6. paddle.jit.save(fc_layer, "./fc_layer_dy2stat", input_spec=[input_var])

基于trace的TracedLayer

trace是指在模型运行时记录下其运行过哪些算子。TracedLayer就是基于这种技术,在一次执行动态图的过程中,记录所有运行的算子,并构建和保存静态图模型。一个使用例子如下:

我们还是定义一个简单的全连接网络作为例子,注意这里不需要像ProgramTranslator在forward函数添加装饰器:

  1. import numpy as np
  2. import paddle
  3. class SimpleFcLayer(paddle.nn.Layer):
  4. def __init__(self, batch_size, feature_size, fc_size):
  5. super(SimpleFcLayer, self).__init__()
  6. self._linear = paddle.nn.Linear(feature_size, fc_size)
  7. self._offset = paddle.to_tensor(
  8. np.random.random((batch_size, fc_size)).astype('float32'))
  9. def forward(self, x):
  10. fc = self._linear(x)
  11. return fc + self._offset

接下来是TracedLayer如何存储模型:

  1. import paddle
  2. from paddle.jit import TracedLayer
  3. fc_layer = SimpleFcLayer(3, 4, 2)
  4. in_np = np.random.random([3, 4]).astype('float32')
  5. # 将numpy的ndarray类型的数据转换为Tensor类型
  6. input_var = paddle.to_tensor(in_np)
  7. # 通过 TracerLayer.trace 接口将命令式模型转换为声明式模型
  8. out_dygraph, static_layer = TracedLayer.trace(fc_layer, inputs=[input_var])
  9. save_dirname = './saved_infer_model'
  10. # 将转换后的模型保存
  11. static_layer.save_inference_model(save_dirname, feed=[0], fetch=[0])

载入的模型可以使用静态图方式运行

  1. paddle.enable_static()
  2. place = paddle.CPUPlace()
  3. exe = paddle.Executor(place)
  4. program, feed_vars, fetch_vars = paddle.static.load_inference_model(save_dirname, exe)
  5. fetch, = exe.run(program, feed={feed_vars[0]: in_np}, fetch_list=fetch_vars)

但是也正如我们阐述的原理,trace只是记录了一次执行涉及的算子。若在用户的模型代码中,包含了依赖数据条件(包括输入的值或者shape)的控制流分支,即根据数据条件触发运行不同的算子,则TracedLayer无法正常工作。比如下面:

  1. import paddle
  2. def func(input_var)
  3. # if判断与输入input_var的shape有关
  4. if input_var.shape[0] > 1:
  5. return paddle.cast(input_var, "float64")
  6. else:
  7. return paddle.cast(input_var, "int64")
  8. in_np = np.array([-2]).astype('int')
  9. input_var = paddle.to_tensor(in_np)
  10. out = func(input_var)

如果对上述样例中的 func 使用 TracedLayer.trace(func, inputs=[input_var]) ,由于trace只能记录if-else其中跑的一次算子,模型就无法按用户想要的根据input_var的形状进行if-else控制流保存。类似的控制流还有while/for循环的情况。

比较ProgramTranslator和TracedLayer

基于源代码转换的ProgramTranslator对比基于trace的TracedLayer,前者能够处理依赖数据条件的控制流分支。因此我们更推荐用户使用ProgramTranslator,如果遇到问题再以TracedLayer作为备选方案。