gelu

paddle.nn.functional.gelu ( x, approximate\=False, name\=None ) [源代码]

gelu激活层(GELU Activation Operator)

逐元素计算 gelu激活函数。更多细节请参考 Gaussian Error Linear Units

如果使用近似计算:

gelu - 图1

如果不使用近似计算:

gelu - 图2

其中,xx 为输入的 Tensor

参数:

  • x (Tensor) - 输入的 Tensor ,数据类型为:float32、float64。

  • approximate (bool, 可选) - 是否使用近似计算,默认值为 False,表示不使用近似计算。

  • name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 Name

返回

Tensor ,数据类型和形状同 x 一致。

代码示例

  1. import paddle
  2. import paddle.nn.functional as F
  3. x = paddle.to_tensor([[-1, 0.5], [1, 1.5]])
  4. out1 = F.gelu(x)
  5. # [[-0.15865529, 0.34573123],
  6. # [ 0.84134471, 1.39978933]]
  7. out2 = F.gelu(x, True)
  8. # [[-0.15880799, 0.34571400],
  9. # [ 0.84119201, 1.39957154]]