使用Paddle-TensorRT库预测

NVIDIA TensorRT 是一个高性能的深度学习预测库,可为深度学习推理应用程序提供低延迟和高吞吐量。PaddlePaddle 采用了子图的形式对TensorRT进行了集成,即我们可以使用该模块来提升Paddle模型的预测性能。该模块依旧在持续开发中,目前已支持的模型有:AlexNet, MobileNet, ResNet50, VGG19, ResNext, Se-ReNext, GoogleNet, DPN, ICNET, Deeplabv3, MobileNet-SSD等。在这篇文档中,我们将会对Paddle-TensorRT库的获取、使用和原理进行介绍。

内容

编译Paddle-TRT预测库

使用Docker编译预测库

  • 下载Paddle
  1. git clone https://github.com/PaddlePaddle/Paddle.git
  • 获取docker镜像
  1. nvidia-docker run --name paddle_trt -v $PWD/Paddle:/Paddle -it hub.baidubce.com/paddlepaddle/paddle:latest-dev /bin/bash
  • 编译Paddle TensorRT
  1. # 在docker容器中执行以下操作
  2. cd /Paddle
  3. mkdir build
  4. cd build
  5. # TENSORRT_ROOT为TRT的路径,默认为 /usr,根据自己需求进行改动
  6. # MKL 可以根据自己的需求自行打开
  7. cmake .. \
  8. -DWITH_FLUID_ONLY=ON \
  9. -DWITH_MKL=OFF \
  10. -DWITH_MKLDNN=OFF \
  11. -DCMAKE_BUILD_TYPE=Release \
  12. -DWITH_PYTHON=OFF \
  13. -DTENSORRT_ROOT=/usr \
  14. -DON_INFER=ON
  15.  
  16. # 编译
  17. make -j
  18. # 生成预测库
  19. make inference_lib_dist -j

编译后的库的目录如下:

  1. fluid_inference_install_dir
  2. ├── paddle
  3. ├── CMakeCache.txt
  4. ├── version.txt
  5. ├── third_party
  6. ├── boost
  7. ├── install
  8. └── engine3

fluid_inference_install_dir下, paddle目录包含了预测库的头文件和预测库的lib, version.txt 中包含了lib的版本和配置信息,third_party 中包含了预测库依赖的第三方库

Paddle-TRT接口使用

paddle_inference_api.h 定义了使用TensorRT的所有接口。

总体上分为以下步骤:1. 创建合适的配置AnalysisConfig. 2. 根据配合创建 PaddlePredictor. 3. 创建输入的tensor. 4. 获取输出的tensor,输出结果.

以下的代码展示了完整的过程:

  1. #include "paddle_inference_api.h"
  2.  
  3. namespace paddle {
  4. using paddle::AnalysisConfig;
  5.  
  6. void RunTensorRT(int batch_size, std::string model_dirname) {
  7. // 1. 创建MixedRTConfig
  8. AnalysisConfig config(model_dirname);
  9. // config->SetModel(model_dirname + "/model",
  10. // model_dirname + "/params");
  11.  
  12. config->EnableUseGpu(100, 0 /*gpu_id*/);
  13. config->EnableTensorRtEngine(1 << 20 /*work_space_size*/, batch_size /*max_batch_size*/);
  14.  
  15. // 2. 根据config 创建predictor
  16. auto predictor = CreatePaddlePredictor(config);
  17. // 3. 创建输入 tensor
  18. int height = 224;
  19. int width = 224;
  20. float data[batch_size * 3 * height * width] = {0};
  21.  
  22. PaddleTensor tensor;
  23. tensor.shape = std::vector<int>({batch_size, 3, height, width});
  24. tensor.data = PaddleBuf(static_cast<void *>(data),
  25. sizeof(float) * (batch_size * 3 * height * width));
  26. tensor.dtype = PaddleDType::FLOAT32;
  27. std::vector<PaddleTensor> paddle_tensor_feeds(1, tensor);
  28.  
  29. // 4. 创建输出 tensor
  30. std::vector<PaddleTensor> outputs;
  31. // 5. 预测
  32. predictor->Run(paddle_tensor_feeds, &outputs, batch_size);
  33.  
  34. const size_t num_elements = outputs.front().data.length() / sizeof(float);
  35. auto *data = static_cast<float *>(outputs.front().data.data());
  36. for (size_t i = 0; i < num_elements; i++) {
  37. std::cout << "output: " << data[i] << std::endl;
  38. }
  39. }
  40. } // namespace paddle
  41.  
  42. int main() {
  43. // 模型下载地址 http://paddle-inference-dist.cdn.bcebos.com/tensorrt_test/mobilenet.tar.gz
  44. paddle::RunTensorRT(1, "./mobilenet");
  45. return 0;
  46. }

Paddle-TRT样例编译测试

  • 下载样例
  1. wget http://paddle-inference-dist.cdn.bcebos.com/tensorrt_test/paddle_trt_samples.tar.gz

解压后的目录如下:

  1. sample
  2. ├── CMakeLists.txt
  3. ├── mobilenet_test.cc
  4. ├── thread_mobilenet_test.cc
  5. ├── mobilenetv1
  6. ├── model
  7. └── params
  8. └── run_impl.sh
  • mobilenet_test.cc 为单线程的程序文件
  • thread_mobilenet_test.cc 为多线程的程序文件
  • mobilenetv1 为模型文件
    在这里假设预测库的路径为 BASE_DIR/fluid_inference_install_dir/ ,样例所在的目录为 SAMPLE_BASE_DIR/sample
  • 编译样例
  1. cd SAMPLE_BASE_DIR/sample
  2. # sh run_impl.sh {预测库的地址} {测试脚本的名字} {模型目录}
  3. sh run_impl.sh BASE_DIR/fluid_inference_install_dir/ mobilenet_test SAMPLE_BASE_DIR/sample/mobilenetv1
  • 编译多线程的样例
  1. cd SAMPLE_BASE_DIR/sample
  2. # sh run_impl.sh {预测库的地址} {测试脚本的名字} {模型目录}
  3. sh run_impl.sh BASE_DIR/fluid_inference_install_dir/ thread_mobilenet_test SAMPLE_BASE_DIR/sample/mobilenetv1

Paddle-TRT INT8使用

  • Paddle-TRT INT8 简介 神经网络的参数在一定程度上是冗余的,在很多任务上,我们可以在保证模型精度的前提下,将Float32的模型转换成Int8的模型。目前,Paddle-TRT支持离线将预训练好的Float32模型转换成Int8的模型,具体的流程如下:1)生成校准表(Calibration table);我们准备500张左右的真实输入数据,并将数据输入到模型中去,Paddle-TRT会统计模型中每个op输入和输出值的范围信息,并将记录到校准表中,这些信息有效的减少了模型转换时的信息损失。2)生成校准表后,再次运行模型,Paddle-TRT会自动加载校准表,并进行INT8模式下的预测。

  • 编译测试INT8样例

  1. cd SAMPLE_BASE_DIR/sample
  2. # sh run_impl.sh {预测库的地址} {测试脚本的名字} {模型目录}
  3. # 我们随机生成了500个输入来模拟这一过程,建议大家用真实样例进行实验。
  4. sh run_impl.sh BASE_DIR/fluid_inference_install_dir/ fluid_generate_calib_test SAMPLE_BASE_DIR/sample/mobilenetv1

运行结束后,在 SAMPLEBASE_DIR/sample/build/mobilenetv1 模型目录下会多出一个名字为trt_calib*的文件,即校准表。

  1. # 执行INT8预测
  2. # 将带校准表的模型文件拷贝到特定地址
  3. cp -rf SAMPLE_BASE_DIR/sample/build/mobilenetv1 SAMPLE_BASE_DIR/sample/mobilenetv1_calib
  4. sh run_impl.sh BASE_DIR/fluid_inference_install_dir/ fluid_int8_test SAMPLE_BASE_DIR/sample/mobilenetv1_calib

Paddle-TRT子图运行原理

PaddlePaddle采用子图的形式对TensorRT进行集成,当模型加载后,神经网络可以表示为由变量和运算节点组成的计算图。Paddle TensorRT实现的功能是能够对整个图进行扫描,发现图中可以使用TensorRT优化的子图,并使用TensorRT节点替换它们。在模型的推断期间,如果遇到TensorRT节点,Paddle会调用TensoRT库对该节点进行优化,其他的节点调用Paddle的原生实现。TensorRT在推断期间能够进行Op的横向和纵向融合,过滤掉冗余的Op,并对特定平台下的特定的Op选择合适的kenel等进行优化,能够加快模型的预测速度。

下图使用一个简单的模型展示了这个过程:

原始网络

使用Paddle-TensorRT库预测 - 图1

转换的网络

使用Paddle-TensorRT库预测 - 图2

我们可以在原始模型网络中看到,绿色节点表示可以被TensorRT支持的节点,红色节点表示网络中的变量,黄色表示Paddle只能被Paddle原生实现执行的节点。那些在原始网络中的绿色节点被提取出来汇集成子图,并由一个TensorRT节点代替,成为转换网络中的block-25 节点。在网络运行过程中,如果遇到该节点,Paddle将调用TensorRT库来对其执行。

原文: http://paddlepaddle.org/documentation/docs/zh/1.3/advanced_usage/deploy/inference/paddle_tensorrt_infer.html