GELU

class paddle.nn.GELU ( approximate=False, name=None ) [源代码]

GELU激活层(GELU Activation Operator)

逐元素计算 GELU激活函数。更多细节请参考 Gaussian Error Linear Units

如果使用近似计算:

GELU - 图1

如果不使用近似计算:

GELU - 图2

其中,

GELU - 图3

为输入的 Tensor

参数

  • approximate (bool, 可选) - 是否使用近似计算,默认值为 False,即不使用近似计算。

  • name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 Name

形状:

  • input: 任意形状的Tensor。

  • output: 和input具有相同形状的Tensor。

代码示例

  1. import paddle
  2. import numpy as np
  3. x = paddle.to_tensor(np.array([[-1, 0.5],[1, 1.5]]))
  4. m = paddle.nn.GELU()
  5. out = m(x) # [-0.158655 0.345731 0.841345 1.39979]
  6. m = paddle.nn.GELU(True)
  7. out = m(x) # [-0.158808 0.345714 0.841192 1.39957]