lstm_unit

查看属性与别名

API属性:声明式编程(静态图)专用API

paddle.fluid.layers.lstm_unit ( x_t, hidden_t_prev, cell_t_prev, forget_bias=0.0, param_attr=None, bias_attr=None, name=None ) [源代码]

Long-Short Term Memory(LSTM)循环神经网络计算单元。该OP用于完成单个时间步内LSTM的计算,基于论文 RECURRENT NEURAL NETWORK REGULARIZATION 中的描述实现,

并在forget gate(遗忘门)中增加了 forget_bias 来控制遗忘力度,公式如下:

lstm_unit - 图1

其中,

lstm_unit - 图2

对应 x_t, 表示当前时间步的输入;

lstm_unit - 图3

lstm_unit - 图4

对应 hidden_t_prevcell_t_prev,表示上一时间步的hidden和cell输出;

lstm_unit - 图5

分别为input gate(输入门)、forget gate(遗忘门)、cell、output gate(输出门)和hidden的计算。

参数

  • x_t (Variable) - 表示当前时间步的输入的Tensor,形状为

    lstm_unit - 图6

    ,其中

    lstm_unit - 图7

    为batch_size,

    lstm_unit - 图8

    为输入的特征维度大小。数据类型为float32或float64。

  • hidden_t_prev (Variable) - 表示前一时间步hidden输出的Tensor,形状为

    lstm_unit - 图9

    ,其中

    lstm_unit - 图10

    为batch_size,

    lstm_unit - 图11

    为LSTM中隐单元的数目。数据类型与 x_t 相同。

  • cell_t_prev (Variable) - 表示前一时间步cell输出的Tensor,和 hidden_t_prev 具有相同形状和数据类型。
  • forget_bias (float,可选) - 额外添加在遗忘门中的偏置项(参见公式)。默认值为0。
  • param_attr (ParamAttr,可选) – 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr
  • bias_attr (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr
  • name (str,可选) – 具体用法请参见 Name ,一般无需设置,默认值为None。

返回

Variable的二元组,包含了两个形状和数据类型均与 hidden_t_prev 相同的Tensor,分别表示hiddel和cell输出,即公式中的

lstm_unit - 图12

lstm_unit - 图13

返回类型

tuple

抛出异常

  • ValueErrorx_t 的阶不为2
  • ValueErrorhidden_t_prev 的阶不为2
  • ValueErrorcell_t_prev 的阶不为2
  • ValueErrorx_thidden_t_prevcell_t_prev 的第一维大小必须相同
  • ValueErrorhidden_t_prevcell_t_prev 的第二维大小必须相同

代码示例

  1. import paddle.fluid as fluid
  2. dict_dim, emb_dim, hidden_dim = 128, 64, 512
  3. data = fluid.data(name='step_data', shape=[None], dtype='int64')
  4. x = fluid.embedding(input=data, size=[dict_dim, emb_dim])
  5. pre_hidden = fluid.data(
  6. name='pre_hidden', shape=[None, hidden_dim], dtype='float32')
  7. pre_cell = fluid.data(
  8. name='pre_cell', shape=[None, hidden_dim], dtype='float32')
  9. hidden = fluid.layers.lstm_unit(
  10. x_t=x,
  11. hidden_t_prev=pre_hidden,
  12. cell_t_prev=pre_cell)