embedding

paddle.static.nn.embedding ( input, size, is_sparse=False, is_distributed=False, padding_idx=None, param_attr=None, dtype=’float32’ ) [源代码]

嵌入层(Embedding Layer)

该OP根据input中的id信息从embedding矩阵中查询对应embedding信息,并会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。

输出的Tensor的shape是将输入Tensor shape的会在输出的embedding最后追加一维emb_size。

注:input中的id必须满足 0 =< id < size[0],否则程序会抛异常退出。

  1. Case 1:
  2. inputTensor, padding_idx = -1
  3. input.data = [[[1], [3]], [[2], [4]], [[4], [127]]]
  4. input.shape = [3, 2, 1]
  5. size = [128, 16]
  6. 输出为Tensor:
  7. out.shape = [3, 2, 16]
  8. out.data = [[[0.129435295, 0.244512452, ..., 0.436322452],
  9. [0.345421456, 0.524563927, ..., 0.144534654]],
  10. [[0.345249859, 0.124939536, ..., 0.194353745],
  11. [0.945345345, 0.435394634, ..., 0.435345365]],
  12. [[0.945345345, 0.435394634, ..., 0.435345365],
  13. [0.0, 0.0, ..., 0.0 ]]] # padding data
  14. 输入的padding_idx小于0,则自动转换为padding_idx = -1 + 128 = 127, 对于输入id127的词,进行padding处理。
  15. Case 2:
  16. inputlod level 1LoDTensor, padding_idx = 0
  17. input.lod = [[2, 3]]
  18. input.data = [[1], [3], [2], [4], [0]]
  19. input.shape = [5, 1]
  20. size = [128, 16]
  21. 输出为:
  22. out.lod = [[2, 3]]
  23. out.shape = [5, 16]
  24. out.data = [[0.129435295, 0.244512452, ..., 0.436322452],
  25. [0.345421456, 0.524563927, ..., 0.144534654],
  26. [0.345249859, 0.124939536, ..., 0.194353745],
  27. [0.945345345, 0.435394634, ..., 0.435345365],
  28. [0.0, 0.0, ..., 0.0 ]] # padding data
  29. 输入的padding_idx = 0,则对于输入id0的词,进行padding处理。

参数:

  • input (Variable) - 存储id信息的Tensor,数据类型必须为:int64,输入的shape最后一维须为1。input中的id必须满足 0 =< id < size[0]

  • size (tuple|list) - embedding矩阵的维度。必须包含两个元素,第一个元素为vocab_size(词表大小), 第二个为emb_size(embedding层维度)。

  • is_sparse (bool) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse更新速度更快,推荐使用稀疏更新的方式。但某些optimizer不支持sparse更新,比如 AdadeltaAdamax,此时is_sparse必须为False。默认为False。

  • is_distributed (bool) - 是否使用分布式的方式存储embedding矩阵,仅在多机分布式cpu训练中使用。默认为False。

  • padding_idx (int|long|None) - padding_idx需在区间 [-vocab_size, vocab_size) ,否则不生效,padding_idx < 0 时,padding_idx会被改成``vocab_size + padding_idx``,input中等于padding_index的id对应的embedding信息会被设置为0,且这部分填充数据在训练时将不会被更新。如果为None,不作处理,默认为None。

  • param_attr (ParamAttr) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 cn_api_paddle_ParamAttr 。此外,可以通过 param_attr 参数加载用户自定义或预训练的词向量。只需将本地词向量转为numpy数据格式,且保证本地词向量的shape和embedding的 size 参数一致,然后使用 to_tensor 进行初始化,即可实现加载自定义或预训练的词向量。

  • dtype (str|core.VarDesc.VarType) - 输出Tensor的数据类型,数据类型必须为:float32 或 float64,默认为 float32。

返回:input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。

返回类型:Variable

代码示例:

  1. import numpy as np
  2. import paddle
  3. paddle.enable_static()
  4. data = paddle.static.data(name='sequence', shape=[1], dtype='int64')
  5. # 示例 1
  6. emb_1 = paddle.static.nn.embedding(input=data, size=[128, 64])
  7. # 示例 2: 加载用户自定义或预训练的词向量
  8. weight_data = np.random.random(size=(128, 100)) # numpy格式的词向量数据
  9. w_param_attrs = paddle.ParamAttr(
  10. name="emb_weight",
  11. learning_rate=0.5,
  12. initializer=paddle.nn.initializer.Assign(weight_data),
  13. trainable=True)
  14. emb_2 = paddle.static.nn.embedding(input=data, size=(128, 100), param_attr=w_param_attrs, dtype='float32')