test_while_training.rst 4.3 KB
Newer Older
C
chentianyu03 已提交
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121
.. _user_guide_test_while_training:

##################
训练过程中评测模型
##################

模型的测试评价与训练的 :code:`fluid.Program` 不同。在测试评价中:

1. 测试评价不进行反向传播,不优化更新参数。
2. 测试评价执行的操作可以不同。

   * 例如 BatchNorm 操作,在训练和测试时执行不同的算法。

   * 测试评价模型与训练模型可以是完全不同的模型。

生成测试 :code:`fluid.Program`
#################################

通过克隆训练 :code:`fluid.Program` 生成测试 :code:`fluid.Program`
=======================================================================

用 :code:`Program.clone()` 方法可以复制出新的 :code:`fluid.Program` 。 通过设置
:code:`Program.clone(for_test=True)` 复制含有用于测试的操作 :code:`fluid.Program` 。简单的使用方法如下:

.. code-block:: python

   import paddle.fluid as fluid

   image = fluid.data(name="image", shape=[None, 784], dtype='float32')
   label = fluid.data(name="label", shape=[None, 1], dtype="int64")

   prediction = fluid.layers.fc(
     input=fluid.layers.fc(input=image, size=100, act='relu'),
     size=10,
     act='softmax'
   )
   loss = fluid.layers.mean(fluid.layers.cross_entropy(input=prediction, label=label))
   acc = fluid.layers.accuracy(input=prediction, label=label)

   test_program = fluid.default_main_program().clone(for_test=True)

   adam = fluid.optimizer.Adam(learning_rate=0.001)
   adam.minimize(loss)

在使用 :code:`Optimizer` 之前,将 :code:`fluid.default_main_program()` 复制\
成一个 :code:`test_program` 。之后使用测试数据运行 :code:`test_program`,\
就可以做到运行测试程序,而不影响训练结果。

分别配置训练 :code:`fluid.Program` 和测试 :code:`fluid.Program`
=====================================================================

如果训练程序和测试程序相差较大时,用户也可以通过完全定义两个不同的
:code:`fluid.Program`,分别进行训练和测试。在PaddlePaddle Fluid中,\
所有的参数都有名字。如果两个不同的操作,甚至两个不同的网络使用了同样名字的参数,\
那么他们的值和内存空间都是共享的。

PaddlePaddle Fluid中使用 :code:`fluid.unique_name` 包来随机初始化用户未定义的\
参数名称。通过 :code:`fluid.unique_name.guard` 可以确保多次调用某函数\
参数初始化的名称一致。

例如:

.. code-block:: python

   import paddle.fluid as fluid

   def network(is_test):
       image = fluid.data(name="image", shape=[None, 784], dtype='float32')
       label = fluid.data(name="label", shape=[None, 1], dtype="int64")
       hidden = fluid.layers.fc(input=image, size=100, act="relu")
       hidden = fluid.layers.batch_norm(input=hidden, is_test=is_test)
       ...
       return loss

   with fluid.unique_name.guard():
       train_loss = network(is_test=False)
       sgd = fluid.optimizer.SGD(0.001)
       sgd.minimize(train_loss)

   test_program = fluid.Program()
   with fluid.unique_name.guard():
       with fluid.program_guard(test_program, fluid.Program()):
           test_loss = network(is_test=True)

   # fluid.default_main_program() is the train program
   # fluid.test_program is the test program

执行测试 :code:`fluid.Program`
#################################

使用 :code:`Executor` 执行测试 :code:`fluid.Program`
=======================================================

用户可以使用 :code:`Executor.run(program=...)` 来执行测试
:code:`fluid.Program`。

例如

.. code-block:: python

   exe = fluid.Executor(fluid.CPUPlace())
   test_acc = exe.run(program=test_program, feed=test_data_batch, fetch_list=[acc])
   print 'Test accuracy is ', test_acc

使用 :code:`ParallelExecutor` 执行测试 :code:`fluid.Program`
===============================================================

用户可以使用训练用的 :code:`ParallelExecutor` 与测试 :code:`fluid.Program`
一起,新建一个测试的 :code:`ParallelExecutor` ;再使用测试
:code:`ParallelExecutor.run` 来执行测试。

例如:

.. code-block:: python

   train_exec = fluid.ParallelExecutor(use_cuda=True, loss_name=loss.name)

   test_exec = fluid.ParallelExecutor(use_cuda=True, share_vars_from=train_exec,
                                      main_program=test_program)
   test_acc = test_exec.run(fetch_list=[acc], ...)