书栈网 · BookStack 本次搜索耗时 0.032 秒,为您找到 6102 个相关结果.
  • Linux(ARM) 工程示例

    Linux(ARM) 工程示例 多种应用场景 1. 图像分类 2. 物体检测 Linux(ARM) demo部署方法 使用C++接口预测 使用Python接口预测 Linux(ARM) 工程示例 多种应用场景 我们提供Paddle-Lite示例工程Paddle-Lite-Demo ,其中包含Android 、iOS 和Armlinux...
  • Linux(ARM) 工程示例

    Linux(ARM) 工程示例 多种应用场景 1. 图像分类 2. 物体检测 Linux(ARM) demo部署方法 使用C++接口预测 使用Python接口预测 Linux(ARM) 工程示例 多种应用场景 我们提供Paddle-Lite示例工程Paddle-Lite-Demo ,其中包含Android 、iOS 和Armlinux...
  • iOS 工程示例

    iOS 工程示例 多种应用场景 1. 图像分类 2. 物体检测 iOS demo部署方法 iOS demo结构讲解 代码讲解 (如何使用Paddle-Lite C++ API 执行预测) iOS 工程示例 多种应用场景 我们提供Paddle-Lite示例工程Paddle-Lite-Demo ,其中包含Android 、iOS 和Arm...
  • iOS 工程示例

    iOS 工程示例 多种应用场景 1. 图像分类 2. 物体检测 iOS demo部署方法 iOS demo结构讲解 代码讲解 (如何使用Paddle-Lite C++ API 执行预测) iOS 工程示例 多种应用场景 我们提供Paddle-Lite示例工程Paddle-Lite-Demo ,其中包含Android 、iOS 和Arm...
  • 支持硬件

    支持硬件 ARM CPU 32bit(ARMv7a) 64bit(ARMv7a, ARMv8a) 移动端GPU FPGA 百度 (Baidu) XPU 华为 (Huawei) NPU 瑞芯微 (Rockchip) NPU 联发科 (MediaTek) APU 颖脉 (Imagination) NNA 支持硬件 ARM CPU ...
  • 端侧部署

    端侧部署 1. 准备环境 运行准备 1.1 准备交叉编译环境 1.2 准备预测库 2 开始运行 2.1 模型优化 2.2 与手机联调 端侧部署 本教程将介绍基于Paddle Lite 在移动端部署PaddleOCR超轻量中文检测、识别模型的详细步骤。 Paddle Lite是飞桨轻量化推理引擎,为手机、IOT端提供高效推理能力,并...
  • 支持硬件

    支持硬件 ARM CPU 32bit(ARMv7a) 64bit(ARMv7a, ARMv8a) 移动端GPU FPGA 百度 (Baidu) XPU 华为 (Huawei) NPU 瑞芯微 (Rockchip) NPU 英特尔 (Intel) FPGA 联发科 (MediaTek) APU 颖脉 (Imagination) NNA ...
  • 新增硬件

    新增硬件 背景 意义 PaddleLite是如何工作的? 硬件接入方式 算子Kernel接入方式 子图接入方式 代码提交、Review、合入机制、CI机制 硬件接入完成标志 新增硬件 背景 深度学习技术在安防、交通、医疗、工业制造等行业获得了较广泛的应用,为了满足实际需求,越来越多算力更高、功耗更低的专用硬件被研发出来投向市场,...
  • 源码编译 (iOS)

    源码编译 (iOS) 编译结果 编译命令 源码编译 (iOS) Paddle Lite提供了iOS平台的官方Release预测库下载,我们优先推荐您直接下载Paddle Lite预编译库 。 注意: 以下编译方法只适用于release/v2.6.0及之后版本(包括 v2.6.0)。release/v2.3及之前版本(包括 v2.3)请参考re...
  • 动态离线量化完整示例

    动态离线量化完整示例 1 Paddle 产出量化模型 1.1 环境准备 1.2 产出量化模型 2 Paddle-Lite 部署量化模型 2.1 环境准备 2.2 模型优化 2.3 编译Android预测库和示例 2.4 执行示例 动态离线量化完整示例 本章节介绍使用动态离线量化方法产出量化模型,使用Paddle-Lite加载量化模型进...