ParamAttr

class paddle.fluid.ParamAttr(name=None, initializer=None, learning_rate=1.0, regularizer=None, trainable=True, do_model_average=False)[源代码]

注解

该类中的 gradient_clip 属性在2.0版本会废弃,推荐在初始化 optimizer 时设置梯度裁剪。共有三种裁剪策略: GradientClipByGlobalNormGradientClipByNormGradientClipByValue

创建一个参数属性对象,用户可设置参数的名称、初始化方式、学习率、正则化规则、是否需要训练、梯度裁剪方式、是否做模型平均等属性。

参数

  • name (str,可选) - 参数的名称。默认值为None,表示框架自动创建参数的名称。
  • initializer (Initializer,可选) - 参数的初始化方式。默认值为None,表示权重参数采用Xavier初始化方式,偏置参数采用全0初始化方式。
  • learning_rate (float) - 参数的学习率。实际参数的学习率等于全局学习率乘以参数的学习率,再乘以learning rate schedule的系数。
  • regularizer (WeightDecayRegularizer,可选) - 正则化方法。支持两种正则化策略: L1DecayL2Decay ,如果在 optimizer (例如 SGDOptimizer ) 中也 设置了正则化,optimizer 中的正则化将被忽略。默认值为None,表示没有正则化。
  • trainable (bool) - 参数是否需要训练。默认值为True,表示需要训练。
  • do_model_average (bool) - 是否做模型平均。默认值为False,表示不做模型平均。

返回

表示参数属性的对象。

返回类型

ParamAttr

代码示例

  1. import paddle.fluid as fluid
  2. w_param_attrs = fluid.ParamAttr(name="fc_weight",
  3. learning_rate=0.5,
  4. regularizer=fluid.regularizer.L2Decay(1.0),
  5. trainable=True)
  6. print(w_param_attrs.name) # "fc_weight"
  7. x = fluid.layers.data(name='X', shape=[1], dtype='float32')
  8. y_predict = fluid.layers.fc(input=x, size=10, param_attr=w_param_attrs)