matmul

paddle. matmul ( x, y, transpose_x=False, transpose_y=False, name=None ) [源代码]

该op是计算两个Tensor的乘积,遵循完整的广播规则,关于广播规则,请参考 广播 (broadcasting) 。 并且其行为与 numpy.matmul 一致。目前,输入张量的维数可以是任意数量, matmul 可以用于 实现 dotmatmulbatchmatmul 。实际行为取决于输入 x 、输入 ytranspose_xtranspose_y 。具体如下:

  • 如果 transpose 为真,则对应 Tensor 的后两维会转置。如果Tensor的一维,则转置无效。假定 x 是一个 shape=[D] 的一维 Tensor,则 x 视为 [1, D]。然而, y 是一个shape=[D]的一维Tensor,则视为[D, 1]。

乘法行为取决于 xy 的尺寸。 具体如下:

  • 如果两个张量均为一维,则获得点积结果。

  • 如果两个张量都是二维的,则获得矩阵与矩阵的乘积。

  • 如果 x 是1维的,而 y 是2维的,则将1放在 x 维度之前,以进行矩阵乘法。矩阵相乘后,将删除前置尺寸。

  • 如果 x 是2维的,而 y 是1维的,获得矩阵与向量的乘积。

  • 如果两个输入至少为一维,且至少一个输入为N维(其中N> 2),则将获得批矩阵乘法。 如果第一个自变量是一维的,则将1放在其维度的前面,以便进行批量矩阵的乘法运算,然后将其删除。 如果第二个参数为一维,则将1附加到其维度后面,以实现成批矩阵倍数的目的,然后将其删除。 根据广播规则广播非矩阵维度(不包括最后两个维度)。 例如,如果输入 x 是(j,1,n,m)Tensor,另一个 y 是(k,m,p)Tensor,则out将是(j,k,n,p)张量。

参数

  • x (Tensor) : 输入变量,类型为 Tensor,数据类型为float32, float64。

  • y (Tensor) : 输入变量,类型为 Tensor,数据类型为float32, float64。

  • transpose_x (bool,可选) : 相乘前是否转置 x,默认值为False。

  • transpose_y (bool,可选) : 相乘前是否转置 y,默认值为False。

  • name (str,可选)- 具体用法请参见 Name ,一般无需设置,默认值为None。

返回:

  • Tensor,矩阵相乘后的结果,数据类型和输入数据类型一致。

代码示例

  1. import paddle
  2. import numpy as np
  3. # vector * vector
  4. x_data = np.random.random([10]).astype(np.float32)
  5. y_data = np.random.random([10]).astype(np.float32)
  6. x = paddle.to_tensor(x_data)
  7. y = paddle.to_tensor(y_data)
  8. z = paddle.matmul(x, y)
  9. print(z.numpy().shape)
  10. # [1]
  11. # matrix * vector
  12. x_data = np.random.random([10, 5]).astype(np.float32)
  13. y_data = np.random.random([5]).astype(np.float32)
  14. x = paddle.to_tensor(x_data)
  15. y = paddle.to_tensor(y_data)
  16. z = paddle.matmul(x, y)
  17. print(z.numpy().shape)
  18. # [10]
  19. # batched matrix * broadcasted vector
  20. x_data = np.random.random([10, 5, 2]).astype(np.float32)
  21. y_data = np.random.random([2]).astype(np.float32)
  22. x = paddle.to_tensor(x_data)
  23. y = paddle.to_tensor(y_data)
  24. z = paddle.matmul(x, y)
  25. print(z.numpy().shape)
  26. # [10, 5]
  27. # batched matrix * batched matrix
  28. x_data = np.random.random([10, 5, 2]).astype(np.float32)
  29. y_data = np.random.random([10, 2, 5]).astype(np.float32)
  30. x = paddle.to_tensor(x_data)
  31. y = paddle.to_tensor(y_data)
  32. z = paddle.matmul(x, y)
  33. print(z.numpy().shape)
  34. # [10, 5, 5]
  35. # batched matrix * broadcasted matrix
  36. x_data = np.random.random([10, 1, 5, 2]).astype(np.float32)
  37. y_data = np.random.random([1, 3, 2, 5]).astype(np.float32)
  38. x = paddle.to_tensor(x_data)
  39. y = paddle.to_tensor(y_data)
  40. z = paddle.matmul(x, y)
  41. print(z.numpy().shape)
  42. # [10, 3, 5, 5]

使用本API的教程文档