飞桨对昆仑XPU芯片的支持

自飞桨2.0版本起支持昆仑XPU,目前基于昆仑XPU和X86(Intel)CPU可实现12个模型单机单卡/单机多卡的训练,如下图所示:

模型领域模型readme编程范式可用的CPU类型单机多卡支持
VGG16/19图像分类模型链接静态图X86(Intel)支持
ResNet50图像分类模型链接静态图X86(Intel)ARM(飞腾)支持
MobileNet_v3图像分类模型链接静态图X86(Intel)支持
HRNet图像分类模型链接静态图X86(Intel)支持
Yolov3-DarkNet53目标检测模型链接静态图X86(Intel)支持
Yolov3-MobileNetv1目标检测模型链接静态图X86(Intel)支持
Mask_RCNN目标检测模型链接静态图X86(Intel)支持
Deeplab_v3图像分割模型链接静态图X86(Intel)支持
Unet图像分割模型链接静态图X86(Intel)支持
Bert-BaseNLP模型链接静态图/动态图X86(Intel)支持(静态图)
Ernie-BaseNLP静态图/动态图X86(Intel)支持(静态图)
DQN强化学习模型链接静态图X86(Intel)支持

模型放置在飞桨模型套件中,各领域套件是 github.com/PaddlePaddle 下的独立repo,clone下载即可获取所需的模型文件:

领域套件名称分支/版本
图像分类PaddleClasrelease/2.0
目标检测PaddleDetectionrelease/2.0-beta
图像分割PaddleSegrelease/2.0-beta
NLPmodelsdevelop
强化学习PARLr1.4

随着ARM架构的高性能、低功耗、低成本的优势日益突显,ARM CPU更多地进入PC和服务器领域,众多新锐国产CPU也纷纷采用ARM架构。在这一趋势下,我们开始尝试在飞腾CPU和昆仑XPU上运行飞桨,当前已验证ResNet50的训练效果。

更多的常用模型以及动态图组网将在后续版本增加。高性能预测库PaddleInference、PaddleLite、PaddleServing将在近期发布的新版本中支持昆仑XPU。敬请期待。