PaddleLite使用颖脉NNA预测部署

Paddle Lite已支持Imagination NNA的预测部署。 其接入原理是与之前华为Kirin NPU类似,即加载并分析Paddle模型,将Paddle算子转成Imagination DNN APIs进行网络构建,在线生成并执行模型。

支持现状

已支持的芯片

  • 紫光展锐虎贲T7510

已支持的设备

  • 海信F50,Roc1开发板(基于T7510的微型电脑主板)

  • 酷派X10(暂未提供demo)

已支持的Paddle模型

模型

性能

  • 测试环境

    • 编译环境

      • Ubuntu 18.04,GCC 5.4 for ARMLinux aarch64
    • 硬件环境

      • 紫光展锐虎贲T7510

        • Roc1开发板

        • CPU:4 x Cortex-A75 2.0 GHz + 4 x Cortex-A55 1.8 GHz

        • NNA:4 TOPs @1.0GHz

  • 测试方法

    • warmup=10,repeats=30,统计平均时间,单位是ms

    • 线程数为1,DeviceInfo::Global().SetRunMode设置LITE_POWER_HIGH

    • 分类模型的输入图像维度是{1,3,224,224}

  • 测试结果

模型紫光展锐虎贲T7510
CPU(ms)NPU(ms)
MobileNetV1-int861.418.02

已支持(或部分支持)的Paddle算子

  • relu

  • conv2d

  • depthwise_conv2d

  • pool2d

  • fc

可以通过访问https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/kernels/imagination_nna/bridges/paddle_use_bridges.h获得最新的算子支持列表。

参考示例演示

测试设备(Roc1开发板)

roc1_front

roc1_back

准备设备环境

  • 需要依赖特定版本的firmware,请联系Imagination相关研发同学 jason.wang@imgtec.com;

  • 确定能够通过SSH方式远程登录Roc 1开发板;

  • 由于Roc 1的ARM CPU能力较弱,示例程序和PaddleLite库的编译均采用交叉编译方式。

准备交叉编译环境

  • 按照以下两种方式配置交叉编译环境:

    • Docker交叉编译环境:由于Roc1运行环境为Ubuntu 18.04,且Imagination NNA DDK依赖高版本的glibc,因此不能直接使用编译环境准备中的docker image,而需要按照如下方式在Host机器上手动构建Ubuntu 18.04的docker image;

      1. $ wget https://paddlelite-demo.bj.bcebos.com/devices/imagination/Dockerfile
      2. $ docker build --network=host -t paddlepaddle/paddle-lite-ubuntu18_04:1.0 .
      3. $ docker run --name paddle-lite-ubuntu18_04 --net=host -it --privileged -v $PWD:/Work -w /Work paddlepaddle/paddle-lite-ubuntu18_04:1.0 /bin/bash
    • Ubuntu交叉编译环境:要求Host为Ubuntu 18.04系统,参考编译环境准备中的”交叉编译ARM Linux”步骤安装交叉编译工具链。

  • 由于需要通过scp和ssh命令将交叉编译生成的PaddleLite库和示例程序传输到设备上执行,因此,在进入Docker容器后还需要安装如下软件:

    1. # apt-get install openssh-client sshpass

运行图像分类示例程序

  • 下载示例程序PaddleLite-linux-demo.tar.gz,解压后清单如下:

    1. - PaddleLite-linux-demo
    2. - image_classification_demo
    3. - assets
    4. - images
    5. - tabby_cat.jpg # 测试图片
    6. - tabby_cat.raw # 已处理成raw数据的测试图片
    7. - labels
    8. - synset_words.txt # 1000分类label文件
    9. - models
    10. - mobilenet_v1_int8_224_for_cpu_fluid # Paddle fluid non-combined格式的、适用于ARM CPU的mobilenetv1量化模型
    11. - mobilenet_v1_int8_224_for_imagination_nna_fluid # Paddle fluid non-combined格式的、适用于Imagination NNA的mobilenetv1全量化模型
    12. - mobilenet_v1_int8_224_for_cpu
    13. - model.nb # 已通过opt转好的、适合ARM CPU的mobilenetv1量化模型
    14. - mobilenet_v1_int8_224_for_imagination_nna
    15. - model.nb # 已通过opt转好的、适合Imagination NNA的mobilenetv1全量化模型
    16. - shell
    17. - CMakeLists.txt # 示例程序CMake脚本
    18. - build
    19. - image_classification_demo # 已编译好的示例程序
    20. - image_classification_demo.cc # 示例程序源码
    21. - convert_to_raw_image.py # 将测试图片保存为raw数据的python脚本
    22. - build.sh # 示例程序编译脚本
    23. - run.sh # 示例程序运行脚本
    24. - libs
    25. - PaddleLite
    26. - arm64
    27. - include # PaddleLite头文件
    28. - lib
    29. - libcrypto.so.1.1
    30. - libssl.so.1.1
    31. - libz.so.1.2.11
    32. - libgomp.so.1 # gnuomp库
    33. - libimgcustom.so # Imagination NNA的部分layer的软件实现,PaddleLite暂时没有用到
    34. - libimgdnn.so # Imagination NNA的DNN组网、编译和执行接口库
    35. - libnnasession.so # Imagination NNA的推理runtime库
    36. - nna_config # Imagination NNA硬件和模型编译(mapping)配置文件,运行测试程序时,一定要放在可执行程序的同级目录下
    37. - libpaddle_light_api_shared.so # 用于最终移动端部署的预编译PaddleLite库(tiny publish模式下编译生成的库)
    38. - libpaddle_full_api_shared.so # 用于直接加载Paddle模型进行测试和Debug的预编译PaddleLite库(full publish模式下编译生成的库)
  • 按照以下命令分别运行转换后的ARM CPU模型和Imagination NNA模型,比较它们的性能和结果;

    1. 注意:
    2. 1run.sh必须在Host机器上运行,且执行前需要配置目标设备的IP地址、SSH账号和密码;
    3. 2build.sh建议在docker环境中执行,目前只支持arm64
    4. 运行适用于ARM CPUmobilenetv1全量化模型
    5. $ cd PaddleLite-linux-demo/image_classification_demo/assets/models
    6. $ cp mobilenet_v1_int8_224_for_cpu/model.nb mobilenet_v1_int8_224_for_cpu_fluid.nb
    7. $ cd ../../shell
    8. $ vim ./run.sh
    9. MODEL_NAME设置为mobilenet_v1_int8_224_for_cpu_fluid
    10. $ ./run.sh
    11. warmup: 5 repeat: 10, average: 61.408800 ms, max: 61.472000 ms, min: 61.367001 ms
    12. results: 3
    13. Top0 tabby, tabby cat - 0.522023
    14. Top1 Egyptian cat - 0.395266
    15. Top2 tiger cat - 0.073605
    16. Preprocess time: 0.834000 ms
    17. Prediction time: 61.408800 ms
    18. Postprocess time: 0.161000 ms
    19. 运行适用于Imagination NNAmobilenetv1全量化模型
    20. $ cd PaddleLite-linux-demo/image_classification_demo/assets/models
    21. $ cp mobilenet_v1_int8_224_for_imagination_nna/model.nb mobilenet_v1_int8_224_for_imagination_nna_fluid.nb
    22. $ cd ../../shell
    23. $ vim ./run.sh
    24. MODEL_NAME设置为mobilenet_v1_int8_224_for_imagination_nna_fluid
    25. $ ./run.sh
    26. warmup: 5 repeat: 10, average: 18.024800 ms, max: 19.073000 ms, min: 17.368999 ms
    27. results: 3
    28. Top0 Egyptian cat - 0.039642
    29. Top1 tabby, tabby cat - 0.039642
    30. Top2 tiger cat - 0.026363
    31. Preprocess time: 0.815000 ms
    32. Prediction time: 18.024800 ms
    33. Postprocess time: 0.169000 ms
  • 如果需要更改测试图片,可通过convert_to_raw_image.py工具生成;

  • 如果需要重新编译示例程序,直接运行./build.sh即可,注意:build.sh的执行建议在docker环境中,否则可能编译出错。

更新模型

  • 通过Paddle Fluid训练,或X2Paddle转换得到MobileNetv1 foat32模型mobilenet_v1_fp32_224_fluid

  • 参考模型量化-静态离线量化使用PaddleSlim对float32模型进行量化(注意:由于Imagination NNA只支持tensor-wise的全量化模型,在启动量化脚本时请注意相关参数的设置),最终得到全量化MobileNetV1模型mobilenet_v1_int8_224_fluid

  • 参考模型转化方法,利用opt工具转换生成Imagination NNA模型,仅需要将valid_targets设置为imagination_nna,arm即可。

    1. $ ./opt --model_dir=mobilenet_v1_int8_224_for_imagination_nna_fluid \
    2. --optimize_out_type=naive_buffer \
    3. --optimize_out=opt_model \
    4. --valid_targets=imagination_nna,arm
    5. 替换自带的Imagination NNA模型
    6. $ cp opt_model.nb mobilenet_v1_int8_224_for_imagination_nna/model.nb
  • 注意:opt生成的模型只是标记了Imagination NNA支持的Paddle算子,并没有真正生成Imagination NNA模型,只有在执行时才会将标记的Paddle算子转成Imagination DNN APIs,最终生成并执行模型。

更新支持Imagination NNA的Paddle Lite库

  • 下载PaddleLite源码和Imagination NNA DDK

    1. $ git clone https://github.com/PaddlePaddle/Paddle-Lite.git
    2. $ cd Paddle-Lite
    3. $ git checkout <release-version-tag>
    4. $ curl -L https://paddlelite-demo.bj.bcebos.com/devices/imagination/imagination_nna_sdk.tar.gz -o - | tar -zx
  • 编译并生成PaddleLite+ImaginationNNA for armv8的部署库

    • For Roc1

      • tiny_publish编译方式

        1. $ ./lite/tools/build_linux.sh --with_extra=ON --with_log=ON --with_imagination_nna=ON --imagination_nna_sdk_root=./imagination_nna_sdk
        2. tiny_publish模式下编译生成的build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nna/cxx/lib/libpaddle_light_api_shared.so替换PaddleLite-linux-demo/libs/PaddleLite/arm64/lib/libpaddle_light_api_shared.so文件;
      • full_publish编译方式

        1. $ ./lite/tools/build_linux.sh --with_extra=ON --with_log=ON --with_imagination_nna=ON --imagination_nna_sdk_root=./imagination_nna_sdk full_publish
        2. full_publish模式下编译生成的build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nna/cxx/lib/libpaddle_full_api_shared.so替换PaddleLite-linux-demo/libs/PaddleLite/arm64/lib/libpaddle_full_api_shared.so文件;
    • 将编译生成的build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nna/cxx/include替换PaddleLite-linux-demo/libs/PaddleLite/arm64/include目录;

  • 替换头文件后需要重新编译示例程序

其它说明

  • Imagination研发同学正在持续增加用于适配Paddle算子bridge/converter,以便适配更多Paddle模型。