书栈网 · BookStack 本次搜索耗时 0.038 秒,为您找到 3508 个相关结果.
  • 飞桨框架API映射表

    飞桨框架API映射表 飞桨框架API映射表 本文档基于PaddlePaddle v1.X 梳理了常用API与PaddlePaddle v2.0对应关系。可根据对应关系,快速熟悉PaddlePaddle 2.0的接口使用。 序号 PaddlePaddle 1.X API PaddlePaddle 2.0 API 0 paddle.flu...
  • 昆仑XPU芯片运行飞桨

    昆仑XPU芯片运行飞桨 昆仑XPU芯片运行飞桨 百度昆仑AI计算处理器(Baidu KUNLUN AI Computing Processor)是百度集十年AI产业技术实践于2019年推出的全功能AI芯片。基于自主研发的先进XPU架构,为云端和边缘端的人工智能业务而设计。 百度昆仑与飞桨及其他国产软硬件强强组合,打造一个全面领先的国产化AI技术生态,...
  • 飞桨高层API使用指南

    飞桨高层API使用指南 一、简介 二、安装并使用飞桨高层API 三、目录 四、数据集定义、加载和数据预处理 4.1 框架自带数据集使用 4.2 自定义数据集 4.3 数据增强 4.3.1 框架自带数据集 4.3.2 自定义数据集 五、模型组网 5.1 Sequential组网 5.2 SubClass组网 5.3 模型封装 5.4 模...
  • 昇腾NPU芯片运行飞桨

    昇腾NPU芯片运行飞桨 昇腾NPU芯片运行飞桨 昇腾芯片是华为公司发布的人工智能处理器。Paddle当前可以支持在NPU上进行模型训练。 参考以下内容可快速了解和体验在昇腾芯片上运行飞桨: 飞桨框架NPU版安装说明 : 飞桨框架NPU版安装说明 飞桨框架NPU版训练示例 : 飞桨框架NPU版训练示例
  • 飞桨框架ROCm版支持模型

    飞桨框架ROCm版支持模型 图像分类 目标检测 更多分类 模型套件 飞桨框架ROCm版支持模型 目前Paddle ROCm版基于海光CPU(X86)和DCU支持以下模型的单机单卡/单机多卡的训练与推理。 图像分类 模型 领域 模型readme 编程范式 训练单机多卡支持 训练多机多卡支持 推理支持 ResNet50 图像分类 模型链接 ...
  • 海光DCU芯片运行飞桨

    海光DCU芯片运行飞桨 海光DCU芯片运行飞桨 DCU(Deep Computing Unit 深度计算器)是 海光(HYGON)推出的一款专门用于AI人工智能和深度学习的加速卡。Paddle ROCm版当前可以支持在海光CPU与DCU上进行模型训练与预测。 参考以下内容可快速了解和体验在海光芯片上运行飞桨: 飞桨框架ROCm版支持模型 : ...
  • 飞桨高层API使用指南

    飞桨高层API使用指南 一、简介 二、安装并使用飞桨高层API 三、目录 四、数据集定义、加载和数据预处理 4.1 框架自带数据集使用 4.2 自定义数据集 4.3 数据增强 4.3.1 框架自带数据集 4.3.2 自定义数据集 五、模型组网 5.1 Sequential组网 5.2 SubClass组网 5.3 模型封装 5.4 模...
  • 飞桨框架ROCm版训练示例

    飞桨框架ROCm版训练示例 ResNet50训练示例 YoloV3训练示例 飞桨框架ROCm版训练示例 使用海光CPU/DCU进行训练与使用Intel CPU/Nvidia GPU训练相同,当前Paddle ROCm版本完全兼容Paddle CUDA版本的API,直接使用原有的GPU训练命令和参数即可。 ResNet50训练示例 第一步 :...
  • 飞桨大规模分类库简介

    飞桨大规模分类库简介 简单易用,五行代码实现千万类别神经网络 安装飞桨 安装PLSC 准备模型训练配置代码,保存为train.py文件 启动训练任务 PLSC训练效果达到SOTA精度 LSC支持多机分布式训练和千万规模分类 PLSC提供从训练到部署的全流程解决方案 安装serving端和client端 通过下面的脚本部署serving端 通...
  • 飞桨框架ROCm版预测示例

    飞桨框架ROCm版预测示例 C++预测部署 Python预测部署示例 飞桨框架ROCm版预测示例 使用海光CPU/DCU进行预测与使用Intel CPU/Nvidia GPU预测相同,支持飞桨原生推理库(Paddle Inference),适用于高性能服务器端、云端推理。当前Paddle ROCm版本完全兼容Paddle CUDA版本的 C++/...