Executor

注意:该API仅支持【静态图】模式

  • class paddle.fluid.executor.Executor(place)[源代码]

Executor支持单GPU、多GPU以及CPU运行。在Executor构造时,需要传入设备。

  • 参数:
    • place (fluid.CPUPlace()|fluid.CUDAPlace(N)) – 该参数表示Executor执行所在的设备,这里的N为GPU对应的ID。

返回:初始化后的 Executor 对象

返回类型:Executor

示例代码

  1. import paddle.fluid as fluid
  2. import paddle.fluid.compiler as compiler
  3. import numpy
  4. import os
  5.  
  6. use_cuda = True
  7. place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace()
  8. exe = fluid.Executor(place)
  9.  
  10. train_program = fluid.Program()
  11. startup_program = fluid.Program()
  12. with fluid.program_guard(train_program, startup_program):
  13. data = fluid.layers.data(name='X', shape=[1], dtype='float32')
  14. hidden = fluid.layers.fc(input=data, size=10)
  15. loss = fluid.layers.mean(hidden)
  16. fluid.optimizer.SGD(learning_rate=0.01).minimize(loss)
  17.  
  18. # 仅运行一次startup program
  19. # 不需要优化/编译这个startup program
  20. startup_program.random_seed=1
  21. exe.run(startup_program)
  22.  
  23. # 无需编译,直接运行main program
  24. x = numpy.random.random(size=(10, 1)).astype('float32')
  25. loss_data, = exe.run(train_program,
  26. feed={"X": x},
  27. fetch_list=[loss.name])
  28.  
  29. # 另一种方法是,编译这个main program然后运行。
  30. # 参考CompiledProgram以获取更多信息。
  31. # 注意:如果你使用CPU运行程序,需要具体设置CPU_NUM,
  32. # 否则fluid会把逻辑核的所有数目设为CPU_NUM,
  33. # 在这种情况下,输入的batch size应大于CPU_NUM,
  34. # 否则程序会异常中断。
  35. if not use_cuda:
  36. os.environ['CPU_NUM'] = str(2)
  37.  
  38. compiled_prog = compiler.CompiledProgram(
  39. train_program).with_data_parallel(
  40. loss_name=loss.name)
  41. loss_data, = exe.run(compiled_prog,
  42. feed={"X": x},
  43. fetch_list=[loss.name])
  • close()

关闭执行器。该接口主要用于对于分布式训练,调用该接口后不可以再使用该执行器。该接口会释放在PServers上和目前Trainer有关联的资源。

返回:无

示例代码

  1. import paddle.fluid as fluid
  2.  
  3. cpu = fluid.CPUPlace()
  4. exe = fluid.Executor(cpu)
  5. # 执行训练或测试过程
  6. exe.close()
  • run(program=None, feed=None, fetch_list=None, feed_var_name='feed', fetch_var_name='fetch', scope=None, return_numpy=True, use_program_cache=False)

执行指定的Program或者CompiledProgram。需要注意的是,执行器会执行Program或CompiledProgram中的所有算子,而不会根据fetch_list对Program或CompiledProgram中的算子进行裁剪。同时,需要传入运行该模型用到的scope,如果没有指定scope,执行器将使用全局scope,即fluid.global_scope()。

  • 参数:
    • program (Program|CompiledProgram) – 该参数为被执行的Program或CompiledProgram,如果未提供该参数,即该参数为None,在该接口内,main_program将被设置为fluid.default_main_program()。默认为:None。
    • feed (list|dict) – 该参数表示模型的输入变量。如果是单卡训练,feeddict 类型,如果是多卡训练,参数 feed 可以是 dict 或者 list 类型变量,如果该参数类型为 dict ,feed中的数据将会被分割(split)并分送给多个设备(CPU/GPU),即输入数据被均匀分配到不同设备上;如果该参数类型为 list ,则列表中的各个元素都会直接分别被拷贝到各设备中。默认为:None。
    • fetch_list (list) – 该参数表示模型运行之后需要返回的变量。默认为:None。
    • feed_var_name (str) – 该参数表示数据输入算子(feed operator)的输入变量名称。默认为:"feed"。
    • fetch_var_name (str) – 该参数表示结果获取算子(fetch operator)的输出变量名称。默认为:"fetch"。
    • scope (Scope) – 该参数表示执行当前program所使用的作用域,用户可以为不同的program指定不同的作用域。默认值:fluid.global_scope()。
    • return_numpy (bool) – 该参数表示是否将返回返回的计算结果(fetch list中指定的变量)转化为numpy;如果为False,则每个变量返回的类型为LoDTensor,否则返回变量的类型为numpy.ndarray。默认为:True。
    • use_program_cache (bool) – 该参数表示是否对输入的Program进行缓存。如果该参数为True,在以下情况时,模型运行速度可能会更快:输入的program为 fluid.Program ,并且模型运行过程中,调用该接口的参数(program、 feed变量名和fetch_list变量)名始终不变。默认为:False。

返回:返回fetch_list中指定的变量值

返回类型:List

注解

  • 如果是多卡训练,并且feed参数为dict类型,输入数据将被均匀分配到不同的卡上,例如:使用2块GPU训练,输入样本数为3,即[0, 1, 2],经过拆分之后,GPU0上的样本数为1,即[0],GPU1上的样本数为2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个batch的样本数是否少于当前可用的CPU核数或GPU卡数,如果是少于,建议丢弃该batch。
  • 如果可用的CPU核数或GPU卡数大于1,则fetch出来的结果为不同设备上的相同变量值(fetch_list中的变量)在第0维拼接在一起。

示例代码

  1. import paddle.fluid as fluid
  2. import numpy
  3.  
  4. #首先创建执行引擎
  5. place = fluid.CPUPlace() # fluid.CUDAPlace(0)
  6. exe = fluid.Executor(place)
  7.  
  8. data = fluid.layers.data(name='X', shape=[1], dtype='float32')
  9. hidden = fluid.layers.fc(input=data, size=10)
  10. loss = fluid.layers.mean(hidden)
  11. adam = fluid.optimizer.Adam()
  12. adam.minimize(loss)
  13.  
  14. #仅运行startup程序一次
  15. exe.run(fluid.default_startup_program())
  16.  
  17. x = numpy.random.random(size=(10, 1)).astype('float32')
  18. outs = exe.run(feed={'X': x},
  19. fetch_list=[loss.name])
  • train_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False, fetch_list=None, fetch_info=None, print_period=100)

从预定义的数据集中训练。 数据集在Paddle的高性能IO模块paddle.fluid.dataset中定义。 给定Program(或CompiledProgram),train_from_dataset将使用paddle.fluid.dataset中的所有数据样本。输入scope可由用户给出, 默认情况下使用的scope是global_scope()。训练中的线程数是thread个, 默认值为0,表示使用paddle.fluid.dataset中用户配置的线程数。 可以设置debug,以便执行器显示所有算子的运行时间和当前训练任务的吞吐量。当用户设置fetch_list和fetch_info时 (两者长度需要一致)时,会打印出fetch_list中所有变量的值,打印该值的间隔为print_period。

train_from_dataset的线程数可以与dataset的线程数不同,在本接口内会自动调整,用户可以灵活配置dataset的preload线程数、shuffle线程数、数据queue的数目,以及train_from_dataset的线程数。

train_from_dataset可以非常容易扩展到大规模分布式在线和离线训练。例如可以与Paddle Fleet配合使用,完成千亿或万亿级别大规模稀疏参数的CTR训练,并且性能出色。

注意:train_from_dataset将销毁每次运行在executor中创建的所有资源。

  • 参数:
    • program (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (类型是Program)
    • dataset (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的Dataset。默认为None
    • scope (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域
    • thread (int) – 用户想要在这个函数中运行的线程数量。默认为0,表示使用传入的dataset的线程数
    • debug (bool) – 是否开启debug模式,默认为False
    • fetch_list (Variable List) – 返回变量列表,每个变量都会在训练过程中被打印出来,默认为None
    • fetch_info (String List) – 每个变量的打印信息,默认为None
    • print_period (int) – 每两次打印之间间隔的mini-batches的数量,默认为100

返回:None

示例代码

  1. import paddle.fluid as fluid
  2.  
  3. place = fluid.CPUPlace() # 通过设置place = fluid.CUDAPlace(0)使用GPU
  4. exe = fluid.Executor(place)
  5. x = fluid.layers.data(name="x", shape=[10, 10], dtype="int64")
  6. y = fluid.layers.data(name="y", shape=[1], dtype="int64", lod_level=1)
  7. dataset = fluid.DatasetFactory().create_dataset()
  8. dataset.set_use_var([x, y])
  9. dataset.set_thread(1)
  10. filelist = [] # 您可以设置您自己的filelist,如filelist = ["dataA.txt"]
  11. dataset.set_filelist(filelist)
  12. exe.run(fluid.default_startup_program())
  13. exe.train_from_dataset(program=fluid.default_main_program(),
  14. dataset=dataset)
  • infer_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False, fetch_list=None, fetch_info=None, print_period=100)

从预定义的数据集中做预测。 数据集在paddle.fluid.dataset中定义。infer_from_dataset的参数与train_from_dataset相同,两者的区别是infer_from_dataset>没有发送梯度和更新参数。infer_from_dataset可以非常容易地用于大规模分布式多线程中的离线评估。

  • 参数:
    • program (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (类型是Program)
    • dataset (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义Dataset。默认为None
    • scope (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域
    • thread (int) – 用户想要在这个函数中运行的线程数量。线程的实际数量为min(Dataset.thread_num, thread),如果thread > 0,默认为0
    • debug (bool) – 是否开启debug模式,默认为False
    • fetch_list (Variable List) – 返回变量列表,每个变量都会在训练过程中被打印出来,默认为None
    • fetch_info (String List) – 每个变量的打印信息,默认为None
    • print_period (int) – 每两次打印之间间隔的mini-batches的数量,默认为100

返回:None

示例代码

  1. import paddle.fluid as fluid
  2. place = fluid.CPUPlace() # 使用GPU时可设置place = fluid.CUDAPlace(0)
  3. exe = fluid.Executor(place)
  4. x = fluid.layers.data(name="x", shape=[10, 10], dtype="int64")
  5. y = fluid.layers.data(name="y", shape=[1], dtype="int64", lod_level=1)
  6. dataset = fluid.DatasetFactory().create_dataset()
  7. dataset.set_use_var([x, y])
  8. dataset.set_thread(1)
  9. filelist = [] # 您可以设置您自己的filelist,如filelist = ["dataA.txt"]
  10. dataset.set_filelist(filelist)
  11. exe.run(fluid.default_startup_program())
  12. exe.infer_from_dataset(program=fluid.default_main_program(),dataset=dataset)