fluid.executor

SourceEnglish

Executor

SourceEnglish

  • class paddle.fluid.executor.Executor(place)
  • 执行引擎(Executor)使用python脚本驱动,仅支持在单GPU环境下运行。多卡环境下请参考 ParallelExecutor 。Python Executor可以接收传入的program,并根据feed map(输入映射表)和fetch_list(结果获取表)向program中添加feed operators(数据输入算子)和fetch operators(结果获取算子)。feed map为该program提供输入数据。fetch_list提供program训练结束后用户预期的变量(或识别类场景中的命名)。

应注意,执行器会执行program中的所有算子而不仅仅是依赖于fetch_list的那部分。

Executor将全局变量存储到全局作用域中,并为临时变量创建局部作用域。当每一mini-batch上的前向/反向运算完成后,局部作用域的内容将被废弃,但全局作用域中的变量将在Executor的不同执行过程中一直存在。

program中所有的算子会按顺序执行。

示例代码

  1. # 新建一个执行引擎Executor名为exe。
  2. place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace()
  3. exe = fluid.Executor(place)
  4.  
  5. # 仅运行一次startup program.
  6. # 不需要优化/编译这个startup program.
  7. exe.run(fluid.default_startup_program())
  8.  
  9. # 无需编译,直接运行main program
  10. loss, = exe.run(fluid.default_main_program(),
  11. feed=feed_dict,
  12. fetch_list=[loss.name])
  13.  
  14. # 另一种方法是,编译这个main program然后运行. 参考CompiledProgram
  15. compiled_prog = compiler.CompiledProgram(
  16. fluid.default_main_program()).with_data_parallel(
  17. loss_name=loss.name)
  18. loss, = exe.run(compiled_prog,
  19. feed=feed_dict,
  20. fetch_list=[loss.name])
  • 参数:
    • place (core.CPUPlace|core.CUDAPlace(n)) – 指明了 Executor 的执行场所提示:你可以用 Executor 来调试基于并行GPU实现的复杂网络,他们有完全一样的参数也会产生相同的结果。
  • close()

  • 关闭这个执行器(Executor)。调用这个方法后不可以再使用这个执行器。 对于分布式训练, 该函数会释放在PServers上涉及到目前训练器的资源。

示例代码

  1. cpu = core.CPUPlace()
  2. exe = Executor(cpu)
  3. ...
  4. exe.close()
  • run(program=None, feed=None, fetch_list=None, feed_var_name='feed', fetch_var_name='fetch', scope=None, return_numpy=True, use_program_cache=False)
  • 调用该执行器对象的此方法可以执行program。通过feed map提供待学习数据,以及借助fetch_list得到相应的结果。Python执行器(Executor)可以接收传入的program,并根据输入映射表(feed map)和结果获取表(fetch_list)向program中添加数据输入算子(feed operators)和结果获取算子(fetch operators)。feed map为该program提供输入数据。fetch_list提供program训练结束后用户预期的变量(或识别类场景中的命名)。

应注意,执行器会执行program中的所有算子而不仅仅是依赖于fetch_list的那部分。

  • 参数:
    • program (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的)
    • feed (dict) – 前向输入的变量,数据,词典dict类型, 例如 {“image”: ImageData, “label”: LabelData}
    • fetch_list (list) – 用户想得到的变量或者命名的列表, run会根据这个列表给与结果
    • feed_var_name (str) – 前向算子(feed operator)变量的名称
    • fetch_var_name (str) – 结果获取算子(fetch operator)的输出变量名称
    • scope (Scope) – 执行这个program的域,用户可以指定不同的域。缺省为全局域
    • return_numpy (bool) – 如果为True,则将结果张量(fetched tensor)转化为numpy
    • use_program_cache (bool) – 当program较上次比没有改动则将其置为True返回: 根据fetch_list来获取结果

返回类型: list(numpy.array)

示例代码

  1. data = fluid.layers.data(name='X', shape=[1], dtype='float32')
  2. out = fluid.layers.create_tensor(dtype='float32')
  3. hidden = fluid.layers.fc(input=data, size=10)
  4. fluid.layers.assign(hidden,out)
  5. loss = fluid.layers.mean(out)
  6. adam = fluid.optimizer.Adam()
  7. # adam.minimize(loss)
  1. cpu = core.CPUPlace()
  2. exe = fluid.Executor(cpu)
  3. exe.run(fluid.default_startup_program())
  1. x = numpy.random.random(size=(10, 1)).astype('float32')
  2. outs = exe.run(
  3. feed={'X': x},
  4. fetch_list=[loss.name])

global_scope

SourceEnglish

  • paddle.fluid.executor.global_scope()
  • 获取全局/默认作用域实例。很多api使用默认 global_scope ,例如 Executor.run

返回:全局/默认作用域实例

返回类型:Scope

scope_guard

SourceEnglish

  • paddle.fluid.executor.scopeguard(_scope)
  • 修改全局/默认作用域(scope), 运行时中的所有变量都将分配给新的scope。

  • 参数:

    • scope - 新的全局/默认 scope。代码示例
  1. import paddle.fluid as fluid
  2.  
  3. new_scope = fluid.Scope()
  4. with fluid.scope_guard(new_scope):
  5. ...