relu

ReLU(Rectified Linear Unit)激活函数

relu - 图1

  • 参数:
    • x (Variable) - 输入的多维 Tensor ,数据类型为:float32、float64。
    • name (str,可选) – 具体用法请参见 Name ,一般无需设置,默认值为None。

返回: 与 x 维度相同、数据类型相同的 Tensor

返回类型: Variable

代码示例:

  1. import paddle.fluid as fluid
  2. import numpy as np
  3.  
  4. in1 = np.array([[-1,0],[1,2.6]])
  5. with fluid.dygraph.guard():
  6. x1 = fluid.dygraph.to_variable(in1)
  7. out1 = fluid.layers.relu(x1)
  8. print(out1.numpy())
  9. # [[0. 0. ]
  10. # [1. 2.6]]