CompiledProgram_cn.rst 6.7 KB
Newer Older
H
Hao Wang 已提交
1 2 3 4 5
.. _cn_api_fluid_CompiledProgram:

CompiledProgram
-------------------------------

6 7
**注意:该API仅支持【静态图】模式**

C
chengduo 已提交
8
.. py:class:: paddle.fluid.CompiledProgram(program_or_graph, build_strategy=None)
H
Hao Wang 已提交
9

C
chengduo 已提交
10
CompiledProgram根据 `build_strategy` 的配置将输入的Program或Graph进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等,关于build_strategy更多信息。请参阅  ``fluid.BuildStrategy`` 。
H
Hao Wang 已提交
11

C
chengduo 已提交
12 13 14
参数:
  - **program_or_graph** (Graph|Program): 该参数为被执行的Program或Graph。
  - **build_strategy** (BuildStrategy): 通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多信息,请参阅  ``fluid.BuildStrategy`` 。 默认为None。
H
Hao Wang 已提交
15

C
chengduo 已提交
16
返回:初始化后的 ``CompiledProgram`` 对象
H
Hao Wang 已提交
17

C
chengduo 已提交
18
返回类型:CompiledProgram
H
Hao Wang 已提交
19 20 21 22 23

**代码示例**

.. code-block:: python
        
C
chengduo 已提交
24 25
    import paddle.fluid as fluid
    import numpy
26

C
chengduo 已提交
27 28
    place = fluid.CUDAPlace(0) # fluid.CPUPlace()
    exe = fluid.Executor(place)
29 30

    data = fluid.data(name='X', shape=[None, 1], dtype='float32')
C
chengduo 已提交
31 32 33 34 35
    hidden = fluid.layers.fc(input=data, size=10)
    loss = fluid.layers.mean(hidden)
    fluid.optimizer.SGD(learning_rate=0.01).minimize(loss)

    exe.run(fluid.default_startup_program())
36 37 38
    compiled_prog = fluid.CompiledProgram(
              fluid.default_main_program())

C
chengduo 已提交
39 40
    x = numpy.random.random(size=(10, 1)).astype('float32')
    loss_data, = exe.run(compiled_prog,
41 42
                          feed={"X": x},
                          fetch_list=[loss.name])
H
Hao Wang 已提交
43 44


C
chengduo 已提交
45
.. py:method:: with_data_parallel(loss_name=None, build_strategy=None, exec_strategy=None, share_vars_from=None, places=None)
H
Hao Wang 已提交
46

47
该接口用于将输入的Program或Graph进行转换,以便通过数据并行模式运行该模型。用户可以通过 `build_strategy` 和 `exec_strategy` 设置计算图构建和计算图执行过程中可以进行的一些优化,例如:将梯度聚合的AllReduce操作进行融合、指定计算图运行过程中使用的线程池大小等。**注意:如果在构建CompiledProgram和调用with_data_parallel时都指定了build_strategy,在CompiledProgram中的build_strategy会被复写,因此,如果是数据并行训练,建议在调用with_data_parallel接口时设置build_strategy**。
H
Hao Wang 已提交
48 49
     
参数:
C
chengduo 已提交
50 51 52 53 54
  - **loss_name** (str) - 该参数为模型最后得到的损失变量的名字,**注意:如果是模型训练,必须设置loss_name,否则计算结果可能会有问题。** 默认为:None。
  - **build_strategy** (BuildStrategy): 通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多的信息,请参阅  ``fluid.BuildStrategy`` 。 默认为:None。
  - **exec_strategy** (ExecutionStrategy) -  通过exec_strategy指定执行计算图过程可以调整的选项,例如线程池大小等。 关于exec_strategy更多信息,请参阅 ``fluid.ExecutionStrategy`` 。 默认为:None。
  - **share_vars_from** (CompiledProgram) - 如果设置了share_vars_from,当前的CompiledProgram将与share_vars_from指定的CompiledProgram共享参数值。需要设置该参数的情况:模型训练过程中需要进行模型测试,并且训练和测试都是采用数据并行模式,那么测试对应的CompiledProgram在调用with_data_parallel时,需要将share_vars_from设置为训练对应的CompiledProgram。由于CompiledProgram只有在第一次执行时才会将变量分发到其他设备上,因此share_vars_from指定的CompiledProgram必须在当前CompiledProgram之前运行。默认为:None。
  - **places** (list(CUDAPlace)|list(CPUPlace)) - 该参数指定模型运行所在的设备。如果希望在GPU0和GPU1上运行,places为[fluid.CUDAPlace(0), fluid.CUDAPlace(1)];如果希望使用2个CPU运行,places为[fluid.CPUPlace()] * 2。 如果没有设置该参数,即该参数为None,模型执行时,将从环境变量中获取可用的设备:如果使用GPU,模型执行时,从环境变量FLAGS_selected_gpus或CUDA_VISIBLE_DEVICES中获取当前可用的设备ID;如果使用CPU,模型执行时,从环境变量CPU_NUM中获取当前可利用的CPU个数。例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1。默认为:None。
H
Hao Wang 已提交
55

C
chengduo 已提交
56
返回:配置之后的 ``CompiledProgram`` 对象
H
Hao Wang 已提交
57

C
chengduo 已提交
58
返回类型:CompiledProgram
H
Hao Wang 已提交
59

C
chengduo 已提交
60 61 62
.. note::
     1. 如果只是进行多卡测试,不需要设置loss_name以及share_vars_from。
     2. 如果程序中既有模型训练又有模型测试,则构建模型测试所对应的CompiledProgram时必须设置share_vars_from,否则模型测试和模型训练所使用的参数是不一致。
H
Hao Wang 已提交
63 64


C
chengduo 已提交
65
**代码示例**
H
Hao Wang 已提交
66

C
chengduo 已提交
67
.. code-block:: python
68

C
chengduo 已提交
69 70 71
    import paddle.fluid as fluid
    import numpy
    import os
72

C
chengduo 已提交
73 74
    use_cuda = True
    place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace()
75 76
    parallel_places = [fluid.CUDAPlace(0), fluid.CUDAPlace(1)] if use_cuda else [fluid.CPUPlace()] * 2

C
chengduo 已提交
77 78 79 80 81 82
    # 注意:如果你使用CPU运行程序,需要具体设置CPU_NUM,
    # 否则fluid会把逻辑核的所有数目设为CPU_NUM,
    # 在这种情况下,输入的batch size应大于CPU_NUM,
    # 否则程序会异常中断。
    if not use_cuda:
        os.environ['CPU_NUM'] = str(2)
83

C
chengduo 已提交
84
    exe = fluid.Executor(place)
85 86

    data = fluid.data(name='X', shape=[None, 1], dtype='float32')
C
chengduo 已提交
87 88
    hidden = fluid.layers.fc(input=data, size=10)
    loss = fluid.layers.mean(hidden)
89

C
chengduo 已提交
90 91
    test_program = fluid.default_main_program().clone(for_test=True)
    fluid.optimizer.SGD(learning_rate=0.01).minimize(loss)
92

C
chengduo 已提交
93
    exe.run(fluid.default_startup_program())
94 95 96 97 98 99 100 101 102
    compiled_train_prog = fluid.CompiledProgram(
        fluid.default_main_program()).with_data_parallel(
                loss_name=loss.name, places=parallel_places)
    # 注意:如果此处不设置share_vars_from=compiled_train_prog,
    # 测试过程中用的参数与训练使用的参数是不一致
    compiled_test_prog = fluid.CompiledProgram(
        test_program).with_data_parallel(
                share_vars_from=compiled_train_prog,
                places=parallel_places)
C
chengduo 已提交
103 104 105

    train_data = numpy.random.random(size=(10, 1)).astype('float32')
    loss_data, = exe.run(compiled_train_prog,
106 107
                      feed={"X": train_data},
                      fetch_list=[loss.name])
C
chengduo 已提交
108 109
    test_data = numpy.random.random(size=(10, 1)).astype('float32')
    loss_data, = exe.run(compiled_test_prog,
110 111
                      feed={"X": test_data},
                      fetch_list=[loss.name])