Tensor

class paddle.Tensor

Tensor 是Paddle中最为基础的数据结构,有几种创建Tensor的不同方式:

  • 用预先存在的 data 数据创建1个Tensor,请参考 to_tensor

  • 创建一个指定 shape 的Tensor,请参考 oneszerosfull

  • 创建一个与其他Tensor具有相同 shapedtype 的Tensor,请参考 ones_likezeros_likefull_like

dtype

查看一个Tensor的数据类型,支持:’bool’,’float16’,’float32’,’float64’,’uint8’,’int8’,’int16’,’int32’,’int64’ 类型。

代码示例

  1. import paddle
  2. x = paddle.to_tensor([1.0, 2.0, 3.0])
  3. print("tensor's type is: {}".format(x.dtype))

grad

查看一个Tensor的梯度,数据类型为numpy.ndarray。

代码示例

  1. import paddle
  2. x = paddle.to_tensor([1.0, 2.0, 3.0], stop_gradient=False)
  3. y = paddle.to_tensor([4.0, 5.0, 6.0], stop_gradient=False)
  4. z = x * y
  5. z.backward()
  6. print("tensor's grad is: {}".format(x.grad))

name

查看一个Tensor的name,Tensor的name是其唯一标识符,为python的字符串类型。

代码示例

  1. import paddle
  2. print("Tensor name: ", paddle.to_tensor(1).name)
  3. # Tensor name: generated_tensor_0

ndim

查看一个Tensor的维度,也称作rank。

代码示例

  1. import paddle
  2. print("Tensor's number of dimensition: ", paddle.to_tensor([[1, 2], [3, 4]]).ndim)
  3. # Tensor's number of dimensition: 2

persistable

查看一个Tensor的persistable属性,该属性为True时表示持久性变量,持久性变量在每次迭代之后都不会删除。模型参数、学习率等Tensor,都是 持久性变量。

代码示例

  1. import paddle
  2. print("Whether Tensor is persistable: ", paddle.to_tensor(1).persistable)
  3. # Whether Tensor is persistable: false

place

查看一个Tensor的设备位置,Tensor可能的设备位置有三种:CPU/GPU/固定内存,其中固定内存也称为不可分页内存或锁页内存, 其与GPU之间具有更高的读写效率,并且支持异步传输,这对网络整体性能会有进一步提升,但其缺点是分配空间过多时可能会降低主机系统的性能, 因为其减少了用于存储虚拟内存数据的可分页内存。

代码示例

  1. import paddle
  2. cpu_tensor = paddle.to_tensor(1, place=paddle.CPUPlace())
  3. print(cpu_tensor.place)

shape

查看一个Tensor的shape,shape是Tensor的一个重要的概念,其描述了tensor在每个维度上的元素数量。

代码示例

  1. import paddle
  2. print("Tensor's shape: ", paddle.to_tensor([[1, 2], [3, 4]]).shape)
  3. # Tensor's shape: [2, 2]

stop_gradient

查看一个Tensor是否计算并传播梯度,如果stop_gradient为True,则该Tensor不会计算梯度,并会阻绝Autograd的梯度传播。 反之,则会计算梯度并传播梯度。用户自行创建的的Tensor,默认是True,模型参数的stop_gradient都为False。

代码示例

  1. import paddle
  2. print("Tensor's stop_gradient: ", paddle.to_tensor([[1, 2], [3, 4]]).stop_gradient)
  3. # Tensor's stop_gradient: True

abs ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 abs

acos ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 acos

add ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 add

add_n ( inputs, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 add_n

addmm ( x, y, beta=1.0, alpha=1.0, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 addmm

allclose ( y, rtol=1e-05, atol=1e-08, equal_nan=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 allclose

argmax ( axis=None, keepdim=False, dtype=int64, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 argmax

argmin ( axis=None, keepdim=False, dtype=int64, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 argmin

argsort ( axis=- 1, descending=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 argsort

asin ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 asin

astype ( dtype )

将Tensor的类型转换为 dtype ,并返回一个新的Tensor。

参数:

  • dtype (str) - 转换后的dtype,支持’bool’,’float16’,’float32’,’float64’,’int8’,’int16’, ‘int32’,’int64’,’uint8’。

返回:类型转换后的新的Tensor

返回类型:Tensor

代码示例

  1. import paddle
  2. x = paddle.to_tensor(1.0)
  3. print("original tensor's dtype is: {}".format(x.dtype))
  4. print("new tensor's dtype is: {}".format(x.astype('float64').dtype))

atan ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 atan

backward ( retain_graph=False )

从当前Tensor开始计算反向的神经网络,传导并计算计算图中Tensor的梯度。

参数:

  • retain_graph (bool, optional) - 如果为False,反向计算图将被释放。如果在backward()之后继续添加OP, 需要设置为True,此时之前的反向计算图会保留。将其设置为False会更加节省内存。默认值:False。

返回:无

代码示例

  1. import paddle
  2. import numpy as np
  3. x = np.ones([2, 2], np.float32)
  4. inputs = []
  5. for _ in range(10):
  6. tmp = paddle.to_tensor(x)
  7. # if we don't set tmp's stop_gradient as False then, all path to loss will has no gradient since
  8. # there is no one need gradient on it.
  9. tmp.stop_gradient=False
  10. inputs.append(tmp)
  11. ret = paddle.add_n(inputs)
  12. loss = paddle.sum(ret)
  13. loss.backward()

bmm ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 bmm

broadcast_to ( shape, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 expand ,API功能相同。

cast ( dtype )

返回:计算后的Tensor

返回类型:Tensor

请参考 cast

ceil ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 ceil

cholesky ( upper=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 cholesky

chunk ( chunks, axis=0, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 chunk

clear_gradient ( )

清除当前Tensor的梯度。

返回:无

代码示例

  1. import paddle
  2. import numpy as np
  3. x = np.ones([2, 2], np.float32)
  4. inputs2 = []
  5. for _ in range(10):
  6. tmp = paddle.to_tensor(x)
  7. tmp.stop_gradient=False
  8. inputs2.append(tmp)
  9. ret2 = paddle.add_n(inputs2)
  10. loss2 = paddle.sum(ret2)
  11. loss2.backward()
  12. print(loss2.gradient())
  13. loss2.clear_gradient()
  14. print("After clear {}".format(loss2.gradient()))

clip ( min=None, max=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 clip

clone ( )

复制当前Tensor,并且保留在原计算图中进行梯度传导。

返回:clone后的Tensor

代码示例

  1. import paddle
  2. x = paddle.to_tensor(1.0, stop_gradient=False)
  3. clone_x = x.clone()
  4. y = clone_x**2
  5. y.backward()
  6. print(clone_x.stop_gradient) # False
  7. print(clone_x.grad) # [2.0], support gradient propagation
  8. print(x.stop_gradient) # False
  9. print(x.grad) # [2.0], clone_x support gradient propagation for x
  10. x = paddle.to_tensor(1.0)
  11. clone_x = x.clone()
  12. clone_x.stop_gradient = False
  13. z = clone_x**3
  14. z.backward()
  15. print(clone_x.stop_gradient) # False
  16. print(clone_x.grad) # [3.0], support gradient propagation
  17. print(x.stop_gradient) # True
  18. print(x.grad) # None

concat ( axis=0, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 concat

cos ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 cos

cosh ( name=None )

对该Tensor中的每个元素求双曲余弦。

返回类型:Tensor

请参考 cosh

代码示例

  1. import paddle
  2. x = paddle.to_tensor([-0.4, -0.2, 0.1, 0.3])
  3. out = paddle.cosh(x)
  4. print(out)
  5. # [1.08107237 1.02006674 1.00500417 1.04533851]

cpu ( )

将当前Tensor的拷贝到CPU上,且返回的Tensor不保留在原计算图中。

如果当前Tensor已经在CPU上,则不会发生任何拷贝。

返回:拷贝到CPU上的Tensor

代码示例

  1. import paddle
  2. x = paddle.to_tensor(1.0, place=paddle.CUDAPlace(0))
  3. print(x.place) # CUDAPlace(0)
  4. y = x.cpu()
  5. print(y.place) # CPUPlace

cross ( y, axis=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 cross

cuda ( device_id=None, blocking=False )

将当前Tensor的拷贝到GPU上,且返回的Tensor不保留在原计算图中。

如果当前Tensor已经在GPU上,且device_id为None,则不会发生任何拷贝。

参数:

  • device_id (int, optional) - 目标GPU的设备Id,默认为None,此时为当前Tensor的设备Id,如果当前Tensor不在GPU上,则为0。

  • blocking (bool, optional) - 如果为False并且当前Tensor处于固定内存上,将会发生主机到设备端的异步拷贝。否则,会发生同步拷贝。默认为False。

返回:拷贝到GPU上的Tensor

代码示例

  1. import paddle
  2. x = paddle.to_tensor(1.0, place=paddle.CUDAPlace(0))
  3. print(x.place) # CUDAPlace(0)
  4. y = x.cpu()
  5. print(y.place) # CPUPlace

cumsum ( axis=None, dtype=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 cumsum

detach ( )

返回一个新的Tensor,从当前计算图分离。

返回:与当前计算图分离的Tensor。

代码示例

  1. import paddle
  2. import numpy as np
  3. data = np.random.uniform(-1, 1, [30, 10, 32]).astype('float32')
  4. linear = paddle.nn.Linear(32, 64)
  5. data = paddle.to_tensor(data)
  6. x = linear(data)
  7. y = x.detach()

dim ( )

查看一个Tensor的维度,也称作rank。

代码示例

  1. import paddle
  2. print("Tensor's number of dimensition: ", paddle.to_tensor([[1, 2], [3, 4]]).dim())
  3. # Tensor's number of dimensition: 2

dist ( y, p=2 )

返回:计算后的Tensor

返回类型:Tensor

请参考 dist

divide ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 divide

dot ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 dot

equal ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 equal

equal_all ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 equal_all

erf ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 erf

exp ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 exp

expand ( shape, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 expand

expand_as ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 expand_as

flatten ( start_axis=0, stop_axis=- 1, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 flatten

flip ( axis, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 flip

floor ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 floor

floor_divide ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 floor_divide

floor_mod ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 mod

gather ( index, axis=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 gather

gather_nd ( index, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 gather_nd

gradient ( )

Tensor.grad 相同,查看一个Tensor的梯度,数据类型为numpy.ndarray。

返回:该Tensor的梯度 返回类型:numpy.ndarray

代码示例

  1. import paddle
  2. x = paddle.to_tensor([1.0, 2.0, 3.0], stop_gradient=False)
  3. y = paddle.to_tensor([4.0, 5.0, 6.0], stop_gradient=False)
  4. z = x * y
  5. z.backward()
  6. print("tensor's grad is: {}".format(x.grad))

greater_equal ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 greater_equal

greater_than ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 greater_than

histogram ( bins=100, min=0, max=0 )

返回:计算后的Tensor

返回类型:Tensor

请参考 histogram

increment ( value=1.0, in_place=True )

返回:计算后的Tensor

返回类型:Tensor

请参考 increment

index_sample ( index )

返回:计算后的Tensor

返回类型:Tensor

请参考 index_sample

index_select ( index, axis=0, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 index_select

inverse ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 inverse

is_empty ( cond=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 is_empty

isfinite ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 isfinite

isinf ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 isinf

isnan ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 isnan

kron ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 kron

less_equal ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 less_equal

less_than ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 less_than

log ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 log

log1p ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 log1p

logical_and ( y, out=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 logical_and

logical_not ( out=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 logical_not

logical_or ( y, out=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 logical_or

logical_xor ( y, out=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 logical_xor

logsigmoid ( )

返回:计算后的Tensor

返回类型:Tensor

请参考 logsigmoid

logsumexp ( axis=None, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 logsumexp

masked_select ( mask, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 masked_select

matmul ( y, transpose_x=False, transpose_y=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 matmul

max ( axis=None, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 max

maximum ( y, axis=- 1, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 maximum

mean ( axis=None, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 mean

min ( axis=None, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 min

minimum ( y, axis=- 1, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 minimum

mm ( mat2, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 mm

mod ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 mod

multiplex ( index )

返回:计算后的Tensor

返回类型:Tensor

请参考 multiplex

multiply ( y, axis=- 1, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 multiply

ndimension ( )

查看一个Tensor的维度,也称作rank。

代码示例

  1. import paddle
  2. print("Tensor's number of dimensition: ", paddle.to_tensor([[1, 2], [3, 4]]).ndimension())
  3. # Tensor's number of dimensition: 2

nonzero ( as_tuple=False )

返回:计算后的Tensor

返回类型:Tensor

请参考 nonzero

norm ( p=fro, axis=None, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 norm

not_equal ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 not_equal

numel ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 numel

numpy ( )

将当前Tensor转化为numpy.ndarray。

返回:Tensor转化成的numpy.ndarray。 返回类型:numpy.ndarray

代码示例

  1. import paddle
  2. import numpy as np
  3. data = np.random.uniform(-1, 1, [30, 10, 32]).astype('float32')
  4. linear = paddle.nn.Linear(32, 64)
  5. data = paddle.to_tensor(data)
  6. x = linear(data)
  7. print(x.numpy())

pin_memory ( y, name=None )

将当前Tensor的拷贝到固定内存上,且返回的Tensor不保留在原计算图中。

如果当前Tensor已经在固定内存上,则不会发生任何拷贝。

返回:拷贝到固定内存上的Tensor

代码示例

  1. import paddle
  2. x = paddle.to_tensor(1.0, place=paddle.CUDAPlace(0))
  3. print(x.place) # CUDAPlace(0)
  4. y = x.pin_memory()
  5. print(y.place) # CUDAPinnedPlace

pow ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 pow

prod ( axis=None, keepdim=False, dtype=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 prod

rank ( )

返回:计算后的Tensor

返回类型:Tensor

请参考 rank

reciprocal ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 reciprocal

remainder ( y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 mod

reshape ( shape, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 reshape

reverse ( axis, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 reverse

roll ( shifts, axis=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 roll

round ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 round

rsqrt ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 rsqrt

scale ( scale=1.0, bias=0.0, bias_after_scale=True, act=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 scale

scatter ( index, updates, overwrite=True, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 scatter

scatter_nd ( updates, shape, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 scatter_nd

scatter_nd_add ( index, updates, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 scatter_nd_add

set_value ( value )

设置当前Tensor的值。

参数:

  • value (Tensor|np.ndarray) - 需要被设置的值,类型为Tensor或者numpy.array。

代码示例

  1. import paddle
  2. import numpy as np
  3. data = np.ones([3, 1024], dtype='float32')
  4. linear = paddle.nn.Linear(1024, 4)
  5. input = paddle.to_tensor(data)
  6. linear(input) # call with default weight
  7. custom_weight = np.random.randn(1024, 4).astype("float32")
  8. linear.weight.set_value(custom_weight) # change existing weight
  9. out = linear(input) # call with different weight

返回:计算后的Tensor

shard_index ( index_num, nshards, shard_id, ignore_value=- 1 )

返回类型:Tensor

请参考 shard_index

sign ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 sign

sin ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 sin

sinh ( name=None )

对该Tensor中逐个元素求双曲正弦。

代码示例

  1. import paddle
  2. x = paddle.to_tensor([-0.4, -0.2, 0.1, 0.3])
  3. out = x.sinh()
  4. print(out)
  5. # [-0.41075233 -0.201336 0.10016675 0.30452029]

size ( )

返回:计算后的Tensor

返回类型:Tensor

请参考 size

slice ( axes, starts, ends )

返回:计算后的Tensor

返回类型:Tensor

请参考 slice

请参考 softsign

sort ( axis=- 1, descending=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 sort

split ( num_or_sections, axis=0, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 split

sqrt ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 sqrt

square ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 square

squeeze ( axis=None, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 squeeze

stack ( axis=0, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 stack

stanh ( scale_a=0.67, scale_b=1.7159, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 stanh

std ( axis=None, unbiased=True, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 std

strided_slice ( axes, starts, ends, strides )

返回:计算后的Tensor

返回类型:Tensor

请参考 strided_slice

sum ( axis=None, dtype=None, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 sum

sums ( out=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 sums

t ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 t

tanh ( name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 tanh

tile ( repeat_times, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 tile

topk ( k, axis=None, largest=True, sorted=True, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 topk

trace ( offset=0, axis1=0, axis2=1, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 trace

transpose ( perm, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 transpose

unbind ( axis=0 )

返回:计算后的Tensor

返回类型:Tensor

请参考 cn_api_paddle_tensor_unbind

unique ( return_index=False, return_inverse=False, return_counts=False, axis=None, dtype=int64, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 unique

unique_with_counts ( dtype=int32 )

返回:计算后的Tensor

返回类型:Tensor

请参考 unique_with_counts

unsqueeze ( axis, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 unsqueeze

unstack ( axis=0, num=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 unstack

var ( axis=None, unbiased=True, keepdim=False, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 var

where ( x, y, name=None )

返回:计算后的Tensor

返回类型:Tensor

请参考 where