Adagrad

class paddle.optimizer.Adagrad ( learning_rate, epsilon=1e-06, parameters=None, weight_decay=None, grad_clip=None, name=None, initial_accumulator_value=0.0 ) [源代码]

Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以针对不同参数样本数不平均的问题,自适应地为各个参数分配不同的学习率。

其参数更新的计算过程如下:

Adagrad - 图1

相关论文:Adaptive Subgradient Methods for Online Learning and Stochastic Optimization

原始论文的算法中没有引入上述公式中的 epsilon 属性,此处引入该属性用于维持数值稳定性,避免除0错误发生。

引入epsilon参数依据:Per-parameter adaptive learning rate methods

参数:

  • learning_rate (float|Tensor) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个值为浮点型的Tensor.

  • epsilon (float, 可选) - 维持数值稳定性的浮点型值,默认值为1e-06.

  • parameters (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。

  • weight_decay (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: L1DecayL2Decay 。如果一个参数已经在 ParamAttr 中设置了正则化,这里的正则化设置将被忽略; 如果没有在 ParamAttr 中设置正则化,这里的设置才会生效。默认值为None,表示没有正则化。

  • grad_clip (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: cn_api_fluid_clip_GradientClipByGlobalNorm 、 cn_api_fluid_clip_GradientClipByNorm 、 cn_api_fluid_clip_GradientClipByValue 。 默认值为None,此时将不进行梯度裁剪。

  • name (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 Name ,默认值为None

  • initial_accumulator_value (float, 可选) - moment累加器的初始值,默认值为0.0

代码示例

  1. import paddle
  2. import numpy as np
  3. inp = paddle.rand(shape=[10, 10])
  4. linear = paddle.nn.Linear(10, 10)
  5. out = linear(inp)
  6. loss = paddle.mean(out)
  7. adagrad = paddle.optimizer.Adagrad(learning_rate=0.1,
  8. parameters=linear.parameters())
  9. out.backward()
  10. adagrad.step()
  11. adagrad.clear_grad()