评价指标

在神经网络训练过程中或者训练完成后,需要评价模型的训练效果。评价的方法一般是计算全体预测值和全体真值(label)之间的距离,不同类型的任务会使用不同的评价方法,或者综合使用多个评价方法。在具体的任务中,可以选用一种或者多种评价方法。下面对常用的评价方法按照任务类型做介绍。

分类任务评价

分类任务中最常用的是二分类,而多分类任务也可以转化为多个二分类任务的组合,二分类任务常用的评价指标有准确率、正确率、召回率、AUC和平均准确度。

  • 准确率: Precision ,用来衡量二分类中召回真值和召回值的比例。

API Reference 请参考 Precision

  • 正确率: Accuracy ,用来衡量二分类中召回真值和总样本数的比例。需要注意的是,准确率和正确率的定义是不同的,可以类比于误差分析中的 VarianceBias

API Reference 请参考 Accuracy

  • 召回率: Recall ,用来衡量二分类中召回值和总样本数的比例。准确率和召回率的选取相互制约,实际模型中需要进行权衡,可以参考文档 Precision_and_recall

API Reference 请参考 Recall

  • AUC: Area Under Curve, 适用于二分类的分类模型评估,用来计算 ROC曲线的累积面积Auc 通过python计算实现,如果关注性能,可以使用 fluid.layers.auc 代替。

API Reference 请参考 Auc

API Reference 请参考 DetectionMAP

序列标注任务评价

序列标注任务中,token的分组称为语块(chunk),模型会同时将输入的token分组和分类,常用的评估方法是语块评估方法。

  • 语块评估方法: ChunkEvaluator ,接收 chunk_eval 接口的输出,累积每一个minibatch的语块统计值,最后计算准确率、召回率和F1值。ChunkEvaluator 支持IOB, IOE, IOBES和IO四种标注模式。可以参考文档 Chunking with Support Vector Machines

API Reference 请参考 ChunkEvaluator

生成任务评价

生成任务会依据输入直接产生输出。对应NLP任务中(比如语音识别),则生成新字符串。评估生成字符串和目标字符串之间距离的方法也有多种,比如多分类评估方法,而另外一种常用的方法叫做编辑距离。

  • 编辑距离: EditDistance ,用来衡量两个字符串的相似度。可以参考文档 Edit_distance

API Reference 请参考 EditDistance

原文: http://paddlepaddle.org/documentation/docs/zh/1.3/api_guides/low_level/metrics.html