NaturalExpDecay

查看属性与别名

API属性:命令式编程模式(动态图)

class paddle.fluid.dygraph.NaturalExpDecay ( learning_rate, decay_steps, decay_rate, staircase=False, begin=0, step=1, dtype=’float32’ ) [源代码]

该接口提供按自然指数衰减学习率的功能。

自然指数衰减的计算方式如下。

NaturalExpDecay - 图1

当staircase为False时,y对应的计算公式为:

NaturalExpDecay - 图2

当staircase为True时,y对应的计算公式为:

NaturalExpDecay - 图3

式中,

  • NaturalExpDecay - 图4

    : 衰减后的学习率。

式子中各参数详细介绍请看参数说明。

参数

  • learning_rate (Variable|float) - 初始学习率值。如果类型为Variable,则为shape为[1]的Tensor,数据类型为float32或float64;也可以是python的float类型。
  • decay_steps (int) – 指定衰减的步长。该参数确定衰减的周期。
  • decay_rate (float) – 指定衰减率。
  • staircase (bool,可选) - 若为True, 学习率变化曲线呈阶梯状,若为False,学习率变化值曲线为平滑的曲线。默认值为False。
  • begin (int,可选) – 起始步,即以上运算式子中global_step的初始化值。默认值为0。
  • step (int,可选) – 步大小,即以上运算式子中global_step的每次的增量值。默认值为1。
  • dtype – (str,可选) 初始化学习率变量的数据类型,可以为”float32”, “float64”。默认值为”float32”。

返回

代码示例

  1. import paddle.fluid as fluid
  2. base_lr = 0.1
  3. with fluid.dygraph.guard():
  4. emb = fluid.dygraph.Embedding([10, 10])
  5. sgd_optimizer = fluid.optimizer.SGD(
  6. learning_rate=fluid.dygraph.NaturalExpDecay(
  7. learning_rate=base_lr,
  8. decay_steps=10000,
  9. decay_rate=0.5,
  10. staircase=True),
  11. parameter_list=emb.parameters())