BatchNorm2D

paddle.nn.BatchNorm2D(num_features, momentum=0.9, epsilon=1e-05, weight_attr=None, bias_attr=None, data_format=’NCHW’, name=None):

该接口用于构建 BatchNorm2D 类的一个可调用对象,具体用法参照 代码示例 。可以处理4D的Tensor, 实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考 : Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

当训练时

BatchNorm2D - 图1

BatchNorm2D - 图2

是minibatch的统计数据。计算公式如下:

BatchNorm2D - 图3

  • BatchNorm2D - 图4

    : 批输入数据

  • BatchNorm2D - 图5

    : 当前批次数据的大小

当预测时,track_running_stats = True

BatchNorm2D - 图6

和 σ2βσβ2 是全局(或运行)统计数据(moving_mean和moving_variance),通常来自预先训练好的模型。计算公式如下:

moving_mean=moving_mean∗momentum+μβ∗(1.−momentum)moving_variance=moving_variance∗momentum+σ2β∗(1.−momentum)//globalmean//globalvariancemoving_mean=moving_mean∗momentum+μβ∗(1.−momentum)//globalmeanmoving_variance=moving_variance∗momentum+σβ2∗(1.−momentum)//globalvariance

归一化函数公式如下:

xi^yi←xi−μβσ2β+ϵ‾‾‾‾‾‾√←γxi^+β//normalize//scale−and−shiftxi^←xi−μβσβ2+ϵ//normalizeyi←γxi^+β//scale−and−shift

  • ϵϵ : 添加较小的值到方差中以防止除零

  • γγ : 可训练的比例参数

  • ββ : 可训练的偏差参数

参数:

  • num_features (int) - 指明输入 Tensor 的通道数量。

  • epsilon (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。

  • momentum (float, 可选) - 此值用于计算 moving_meanmoving_var 。默认值:0.9。更新公式如上所示。

  • weight_attr (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果为False, 则表示每个通道的伸缩固定为1,不可改变。默认值为None,表示使用默认的权重参数属性。具体用法请参见 cn_api_ParamAttr 。

  • bias_attr (ParamAttr, 可选) - 指定偏置参数属性的对象。如果为False, 则表示每一个通道的偏移固定为0,不可改变。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 cn_api_ParamAttr 。

  • data_format (string, 可选) - 指定输入数据格式,数据格式可以为”NCHW”。默认值:“NCHW”。

  • name (string, 可选) – BatchNorm的名称, 默认值为None。更多信息请参见 Name

返回:无

形状:

  • input: 形状为(批大小,通道数, 高度,宽度)的4-D Tensor 或(批大小, 通道数,宽度,高度)的4-D Tensor。

  • output: 和输入形状一样。

目前训练时设置track_running_stats为False是无效的,实际还是会按照True的方案保存全局均值和方差。之后的版本会修复此问题。

代码示例

  1. import paddle
  2. import numpy as np
  3. np.random.seed(123)
  4. x_data = np.random.random(size=(2, 1, 2, 3)).astype('float32')
  5. x = paddle.to_tensor(x_data)
  6. batch_norm = paddle.nn.BatchNorm2D(1)
  7. batch_norm_out = batch_norm(x)
  8. print(batch_norm_out)