relu

paddle.fluid.layers.relu(x, name=None)[源代码]

ReLU(Rectified Linear Unit)激活函数

relu - 图1

参数

  • x (Variable) - 输入的多维 Tensor ,数据类型为:float32、float64。
  • name (str,可选) – 具体用法请参见 Name ,一般无需设置,默认值为None。

返回

x 维度相同、数据类型相同的 Tensor

返回类型

Variable

代码示例

  1. import paddle.fluid as fluid
  2. import numpy as np
  3. in1 = np.array([[-1,0],[1,2.6]])
  4. with fluid.dygraph.guard():
  5. x1 = fluid.dygraph.to_variable(in1)
  6. out1 = fluid.layers.relu(x1)
  7. print(out1.numpy())
  8. # [[0. 0. ]
  9. # [1. 2.6]]