smooth_l1

paddle.fluid.layers.smooth_l1(x, y, inside_weight=None, outside_weight=None, sigma=None)[源代码]

该layer计算变量 xy 的smooth L1 loss,它以 xy 的第一维大小作为批处理大小。对于每个实例,按元素计算smooth L1 loss,然后计算所有loss。输出变量的形状是[batch_size, 1]

参数

  • x (Tensor|LoDTensor) - 数据类型为float32,rank至少为2的张量。smooth L1损失函数的输入,shape为[batch_size, dim1,…,dimN]。
  • y (Tensor|LoDTensor) - 数据类型为float32,rank至少为2的张量。与 x shape相同的目标值。
  • inside_weight (Tensor|None) - 数据类型为float32,rank至少为2的张量。这个输入是可选的,与x的shape应该相同。如果给定, (x - y) 的结果将乘以这个张量元素。
  • outside_weight (Tensor|None) - 数据类型为float32,一个rank至少为2的张量。这个输入是可选的,它的shape应该与 x 相同。 smooth L1 loss的输出会乘以这个张量。
  • sigma (float|NoneType) - smooth L1 loss layer的超参数。标量,默认值为1.0。

返回

smooth L1损失的输出值, shape为 [batch_size, 1]

返回类型

Variable(Tensor),数据类型为float32的Tensor。

代码示例

  1. import paddle.fluid as fluid
  2. import numpy as np
  3. data = fluid.layers.data(name="x", shape=[-1, 3], dtype="float32")
  4. label = fluid.layers.data(name="y", shape=[-1, 3], dtype="float32")
  5. result = fluid.layers.smooth_l1(data,label)
  6. place = fluid.CPUPlace()
  7. exe = fluid.Executor(place)
  8. exe.run(fluid.default_startup_program())
  9. x = np.random.rand(3,3).astype("float32")
  10. y = np.random.rand(3,3).astype("float32")
  11. output= exe.run(feed={"x":x, "y":y},
  12. fetch_list=[result])
  13. print(output)
  14. """
  15. output:
  16. [array([[0.08220536],
  17. [0.36652038],
  18. [0.20541131]], dtype=float32)]
  19. """