AdaptiveMaxPool1D

paddle.nn. AdaptiveMaxPool1D ( output_size, return_mask=False, name=None ) [源代码]

该算子根据输入 x , output_size 等参数对一个输入Tensor计算1D的自适应最大池化。输入和输出都是3-D Tensor, 默认是以 NCL 格式表示的,其中 N 是 batch size, C 是通道数, L 是输入特征的长度.

计算公式如下:

AdaptiveMaxPool1D - 图1

参数

  • output_size (int|list|tuple): 算子输出特征图的长度,其数据类型为int,list或tuple。

  • return_mask (bool,可选): 如果设置为True,则会与输出一起返回最大值的索引,默认为False。

  • name (str,可选): 操作的名称(可选,默认值为None)。更多信息请参见 Name

形状

  • x (Tensor): 默认形状为(批大小,通道数,输出特征长度),即NCL格式的3-D Tensor。 其数据类型为float32或者float64。

  • output (Tensor): 默认形状为(批大小,通道数,输出特征长度),即NCL格式的3-D Tensor。 其数据类型与输入x相同。

返回

计算AdaptiveMaxPool1D的可调用对象

抛出异常

  • ValueError - output_size 应是一个整数或长度为1的list,tuple

代码示例

  1. # max adaptive pool1d
  2. # suppose input data in shape of [N, C, L], `output_size` is m or [m],
  3. # output shape is [N, C, m], adaptive pool divide L dimension
  4. # of input data into m grids averagely and performs poolings in each
  5. # grid to get output.
  6. # adaptive max pool performs calculations as follow:
  7. #
  8. # for i in range(m):
  9. # lstart = floor(i * L / m)
  10. # lend = ceil((i + 1) * L / m)
  11. # output[:, :, i] = max(input[:, :, lstart: lend])
  12. #
  13. import paddle
  14. import paddle.nn as nn
  15. import numpy as np
  16. data = paddle.to_tensor(np.random.uniform(-1, 1, [1, 3, 32]).astype(np.float32))
  17. AdaptiveMaxPool1D = nn.layer.AdaptiveMaxPool1D(output_size=16)
  18. pool_out = AdaptiveMaxPool1D(data)
  19. # pool_out shape: [1, 3, 16]
  20. # for return_mask = true
  21. AdaptiveMaxPool1D = nn.layer.AdaptiveMaxPool1D(output_size=16, return_mask=True)
  22. pool_out, indices = AdaptiveMaxPool1D(data)
  23. # pool_out shape: [1, 3, 16], indices shape: [1, 3, 16]