书栈网 · BookStack 本次搜索耗时 0.037 秒,为您找到 3508 个相关结果.
  • 飞桨框架ROCm版安装说明

    飞桨框架ROCm版安装说明 安装方式一:通过wheel包安装 安装方式二:通过源码编译安装 如何卸载 飞桨框架ROCm版安装说明 飞桨框架ROCm版支持基于海光CPU和DCU的Python的训练和原生预测,当前支持的ROCm版本为4.0.1, Paddle版本为2.1.0,提供两种安装方式: 通过预编译的wheel包安装 通过源代码编译...
  • 使用飞桨实现Skip-gram

    使用飞桨实现Skip-gram 数据处理 网络定义 网络训练 Skip-gram的有趣使用 使用飞桨实现Skip-gram 接下来我们将学习使用飞桨实现Skio-gram模型的方法。在飞桨中,不同深度学习模型的训练过程基本一致,流程如下: 数据处理:选择需要使用的数据,并做好必要的预处理工作。 网络定义:使用飞桨定义好网络结构,包括输...
  • 海光DCU芯片运行飞桨

    海光DCU芯片运行飞桨 海光DCU芯片运行飞桨 DCU(Deep Computing Unit 深度计算器)是 海光(HYGON)推出的一款专门用户AI人工智能和深度学习的加速卡。Paddle ROCM版当前可以支持在海光CPU与DCU上进行模型训练与推理。 参考以下内容可快速了解和体验在海光芯片上运行飞桨: 飞桨框架ROCm版支持模型 ...
  • 飞桨开源深度学习平台介绍

    深度学习框架 飞桨开源深度学习平台
  • 使用飞桨重写房价预测模型

    飞桨深度学习平台设计之“道” 使用飞桨构建波士顿房价预测模型 数据处理 模型设计 训练配置 训练过程 保存并测试模型 保存模型 测试模型 作业1-6 飞桨深度学习平台设计之“道” 当读者习惯使用飞桨框架后会发现程序呈现出“八股文”的形态,即不同的程序员、使用不同模型、解决不同任务的时候,他们编写的建模程序是极其相似的。虽然这些...
  • 飞桨框架NPU版安装说明

    飞桨框架NPU版安装说明 安装方式:通过release/2.1分支源码编译安装 环境准备 源码编译安装步骤: 飞桨框架NPU版安装说明 安装方式:通过release/2.1分支源码编译安装 环境准备 昇腾NPU 处理器: 鲲鹏920 操作系统:Linux version 4.19.36-vhulk1907.1.0.h475....
  • 飞桨对昆仑XPU芯片的支持

    飞桨对昆仑XPU芯片的支持 训练支持 预测支持 飞桨对昆仑XPU芯片的支持 飞桨自2.0版本起支持在昆仑XPU上运行,经验证的模型训练和预测的支持情况如下: 训练支持 可实现模型单机单卡/单机多卡的训练,如下图所示: 模型 领域 模型readme 编程范式 可用的CPU类型 单机多卡支持 VGG16/19 图像分类 模型链接 静态图 X...
  • 飞桨框架昆仑XPU版训练示例

    飞桨框架昆仑XPU版训练示例 ResNet50下载并运行示例: 飞桨框架昆仑XPU版训练示例 使用XPU训练与cpu/gpu相同,只需要加上-o use_xpu=True, 表示执行在昆仑设备上。 ResNet50下载并运行示例: 模型文件下载命令: cd path_to_clone_PaddleClas git clone - b ...
  • 飞桨框架昆仑XPU版安装说明

    飞桨框架昆仑XPU版安装说明 安装方式一:通过Wheel包安装 下载安装包 验证安装 安装完成后您可以使用 python 或 python3 进入python解释器,输入 安装方式二:从源码编译支持昆仑XPU的包 环境准备 源码编译安装步骤: 如何卸载 飞桨框架昆仑XPU版安装说明 飞桨提供两种安装方式: 1. 预编译的支持昆仑XPU...
  • 飞桨对昆仑XPU芯片的支持

    飞桨对昆仑XPU芯片的支持 飞桨对昆仑XPU芯片的支持 自飞桨2.0版本起支持昆仑XPU,目前基于昆仑XPU和X86(Intel)CPU可实现12个模型单机单卡/单机多卡的训练,如下图所示: 模型 领域 模型readme 编程范式 可用的CPU类型 单机多卡支持 VGG16/19 图像分类 模型链接 静态图 X86(Intel) 支持 ResNe...