use_concepts.rst 9.4 KB
Newer Older
1 2 3 4
#########################
PaddlePaddle 基本使用概念
#########################

D
dangqingqing 已提交
5
PaddlePaddle是一个深度学习框架,支持单机模式和多机模式。
6

D
dangqingqing 已提交
7 8 9 10 11
单节模式用命令 ``paddle train`` 可以启动一个trainer进程,一个单机训练作业只包括一个trainer进程,单机的所有设备使用,均在单机进程内调度完成。

如果数据规模比较大,希望加速训练,可以启动分布式作业。一个分布式作业里包括若干trainer进程和若干Parameter Server(或称pserver)进程。用命令 ``paddle pserver`` 可以启动 pserver 进程,pserver进程用于协调多个trainer进程之间的通信。

本文首先介绍trainer进程中的一些使用概念,然后介绍pserver进程中概念。
12 13 14

..	contents::

D
dangqingqing 已提交
15
系统框图
D
dangqingqing 已提交
16
========
17

D
dangqingqing 已提交
18
下图描述了用户使用框图,PaddlePaddle里链接了Python解释器,trainer进程可以利用这个解释器执行Python脚本,Python脚本里定义了模型配置、训练算法、以及数据读取函数。其中,数据读取程序往往定义在一个单独Python脚本文件里,被称为DataProvider,通常是一个Python函数。模型配置、训练算法通常定义在另一单独Python文件中。下面将分别介绍这两部分。
19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

..	graphviz:: 

	digraph pp_process {
		rankdir=LR;
		config_file [label="用户神经网络配置"];
		subgraph cluster_pp {
			style=filled;
			color=lightgrey;
			node [style=filled, color=white, shape=box];
			label = "PaddlePaddle C++";
			py [label="Python解释器"];
		}
		data_provider [label="用户数据解析"];
		config_file -> py;
		py -> data_provider [dir="back"];
	}

DataProvider
============

D
dangqingqing 已提交
40
在不同的应用里,训练数据的格式往往各不相同。因此,为了用户能够灵活的处理数据,我们提供了Python处理数据的接口,称为 `PyDataProvider`_ 。
41

D
dangqingqing 已提交
42
trainer进程会调用DataProvider函数,将用户的原始数据转换成系统可以识别的数据类型。当所有数据读取完一轮后,DataProvider返回空数据,通知系统一轮数据读取结束,系统每一轮训练开始时会重置DataProvider。需要注意的是,DataProvider是被系统调用,而不是新数据驱动系统,一些随机化噪声添加都应该在DataProvider中完成。
43

D
dangqingqing 已提交
44
在 ``PyDataProvider`` 中,系统C++模块接管了shuffle、处理batch、GPU和CPU通信、双缓冲、异步读取等问题,一些情况下(如:``min_pool_size=0``)需要Python接口里处理shuffle,可以参考 `PyDataProvider`_ 的相关文档继续深入了解。
45 46


D
dangqingqing 已提交
47 48
模型配置文件
============
49

D
dangqingqing 已提交
50
模型配置主要包括数据传入接口定义(DataConfig)、优化算法(OptimizationConfig)、网络结构(ModelConfig)。 其中数据传入接口定义与DataProvider的关系是:DataProvider里定义数据读取函数,配置文件的DataConfig里指定DataProvider文件名字、生成数据函数接口,请不要混淆。
51

D
dangqingqing 已提交
52
一个简单的模型配置文件为:
53 54 55 56

..  literalinclude:: trainer_config.py
    :linenos:

D
dangqingqing 已提交
57
文件开头 ``from paddle.trainer_config_helpers import *`` ,是因为PaddlePaddle配置文件与C++模块通信的最基础协议是protobuf。为了避免用户直接写复杂的protobuf string,我们为用户定以Python接口来配置网络,该Python代码可以生成protobuf包,这就是的作用`trainer_config_helpers`_的作用。因此,在文件的开始,需要import这些函数。 这个包里面包含了模型配置需要的各个模块。
58

D
dangqingqing 已提交
59
下面分别介绍DataConfig、OptimizationConfig、ModelConfig这三部分该概念。
60

D
dangqingqing 已提交
61 62
DataConfig
----------
63

D
dangqingqing 已提交
64
使用函数 ``define_py_data_sources2`` 配置数据源,后缀 2 是Paddle历史遗留问题,因为Paddle之前使用的PyDataProvider性能问题,重构了一个新的 `PyDataProvider`_ 。
65

D
dangqingqing 已提交
66
``define_py_data_sources2`` 里通过train_list和test_list指定是训练文件列表和测试文件列表。 如果传入字符串的话,是指一个数据列表文件。这个数据列表文件中包含的是每一个训练或者测试文件的路径。如果传入一个list的话,则会默认生成一个list文件,再传入给train.list或者test.list。
67

D
dangqingqing 已提交
68
``module`` 和 ``obj`` 指定了DataProvider的文件名和返回数据的函数名。更详细的使用,请参考 `PyDataProvider`_ 。
69

D
dangqingqing 已提交
70 71
OptimizationConfig
------------------
72

D
dangqingqing 已提交
73
通过`settings`_ 接口设置神经网络所使用的训练参数和优化算法,包括学习率、batch_size、优化算法、正则方法等,具体的使用方法请参考 `settings`_ 文档。
74

D
dangqingqing 已提交
75 76
ModelConfig
-----------
77

D
dangqingqing 已提交
78
神经网络配置主要包括网络连接、激活函数、损失函数、评估器。
79

D
dangqingqing 已提交
80
- 网络连接: 主要由Layer组成,每个Layer返回的都是一个 ``LayerOutput`` 对象,Layer里面可以定义参数属性、激活类型等。
81

D
dangqingqing 已提交
82
  为了更灵活的配置,PaddlePaddle提供了基于 Projection 或者 Operator 的配置,这两个需要与 ``mixed_layer`` 配合使用。这里简单介绍Layer、Projection、Operator的概念:
83

D
dangqingqing 已提交
84 85 86
  - Layer: 神经网络的某一层,可以有可学习的参数,一般是封装了许多复杂操作的集合。
  - Projection:需要与 ``mixed_layer`` 配合使用,含可学习参数。
  - Operator: 需要与 ``mixed_layer`` 配合使用,不含可学习参数,输入全是其他Layer的输出。
87

D
dangqingqing 已提交
88 89
 
  这个配置文件网络由 ``data_layer`` 、 ``simple_img_conv_pool`` 、 ``fc_layer`` 组成。
90

D
dangqingqing 已提交
91 92 93
  - `data_layer`_  : 通常每个配置文件都会包括 ``data_layer`` ,定义输入数据大小。
  - `simple_img_conv_pool`_ :是一个组合层,包括了图像的卷积 (convolution)和池化(pooling)。
  - `fc_layer`_ :全连接层,激活函数为Softmax,这里也可叫分类层。
94

D
dangqingqing 已提交
95 96
  
- 损失函数和评估器:损失函数即为网络的优化目标,评估器可以评价模型结果。
97

D
dangqingqing 已提交
98 99 100
  PaddlePaddle包括很多损失函数和评估起,详细可以参考 `损失函数层`_ 和 `评估器`_ 。这里 ``classification_cost`` 默认使用多类交叉熵损失函数和分类错误率统计评估器。
  
- ``outputs``: 标记网络输出的函数为 ``outputs`` 。
101

D
dangqingqing 已提交
102
 训练阶段,网络的输出为神经网络的优化目标;预测阶段,网络的输出也可通过 ``outputs`` 标记。
103 104


D
dangqingqing 已提交
105
这里对 ``mixed_layer`` 稍做详细说明, 该Layer将多个输入(Projection 或 Operator)累加求和,具体计算是通过内部的 Projection 和 Operator 完成,然后加 Bias 和 activation 操作,
106

D
dangqingqing 已提交
107
例如,和 ``fc_layer`` 同样功能的 ``mixed_layer`` 是:
108 109

..	code-block:: python
D
dangqingqing 已提交
110 111 112 113
   
   	data = data_layer(name='data', size=200)
   	with mixed_layer(size=200) as out:
   		out += full_matrix_projection(input=data)
114

D
dangqingqing 已提交
115
PaddlePaddle 可以使用 ``mixed layer`` 配置出非常复杂的网络,甚至可以直接配置一个完整的LSTM。用户可以参考 `mixed_layer`_ 的相关文档进行配置。
116 117


D
dangqingqing 已提交
118 119
分布式训练
==========
120

D
dangqingqing 已提交
121
PaddlePaddle多机采用经典的 Parameter Server 架构对多个节点的 trainer 进行同步。多机训练的经典拓扑结构如下\:
122 123 124

..	graphviz:: pserver_topology.dot

D
dangqingqing 已提交
125
图中每个灰色方块是一台机器,在每个机器中,先使用命令 ``paddle pserver`` 启动一个pserver进程,并指定端口号,可能的参数是\:
126 127 128 129 130

..	code-block:: bash

	paddle pserver --port=5000 --num_gradient_servers=4 --nics='eth0'

D
dangqingqing 已提交
131 132 133 134 135
* 指定 pserver 进程端口是 5000 。
* 有四个训练进程(即 ``--gradient_servers=4`` ,PaddlePaddle同时将 trainer 称作 GradientServer 。因为其为负责提供Gradient) 。
* 指定以太网类型为TCP网络。

启动之后 pserver 进程之后,需要启动 trainer 训练进程,在各个机器上运行如下命令\:
136 137 138 139 140

..	code-block:: bash

	paddle train --port=5000 --pservers=192.168.100.101,192.168.100.102,192.168.100.103,192.168.100.104 --config=...

D
dangqingqing 已提交
141
对于简单的多机协同训练使用上述方式即可。另外,pserver/train 通常在高级情况下,还需要设置下面两个参数\:
142

D
dangqingqing 已提交
143
* --ports_num\: 一个 pserver 进程共绑定多少个端口用来做稠密更新。默认是1
144 145
* --ports_num_for_sparse\: 一个pserver进程共绑定多少端口用来做稀疏更新,默认是0

D
dangqingqing 已提交
146
使用手工指定端口数量,是因为Paddle的网络通信中,使用了 int32 作为消息长度,比较容易在大模型下溢出。所以,在 pserver 进程中可以启动多个子线程去接受 trainer 的数据,这样单个子线程的长度就不会溢出了。但是这个值不可以调的过大,因为增加这个值,对性能尤其是内存占用有一定的开销,另外稀疏更新的端口如果太大的话,很容易导致某一个参数服务器没有分配到任何参数。
147 148 149 150

详细的说明可以参考,使用 `集群训练Paddle`_ 。


T
Tao Luo 已提交
151
..  _PyDataProvider: ../ui/data_provider/pydataprovider2.html
D
dangqingqing 已提交
152 153 154 155 156 157 158 159 160 161
.. _settings: ../../doc/ui/api/trainer_config_helpers/optimizers.html#settings
.. _trainer_config_helper: ../../doc/ui/api/trainer_config_helpers/index.html
.. _data_layer: ../../doc/ui/api/trainer_config_helpers/layers.html#data-layer
.. _simple_img_conv_pool: ../../doc/ui/api/trainer_config_helpers/networks.html#simple-img-conv-pool
.. _fc_layer: ../../doc/ui/api/trainer_config_helpers/layers.html#fc-layer
.. _损失函数层: ../../doc/ui/api/trainer_config_helpers/layers.html#cost-layers
.. _评估器: ../../doc/ui/api/trainer_config_helpers/evaluators.html
.. _mixed_layer: ../../doc/ui/api/trainer_config_helpers/layers.html#mixed-layer
.. _masking-gpu: http://www.acceleware.com/blog/cudavisibledevices-masking-gpus

T
Tao Luo 已提交
162
..  _集群训练Paddle: ../cluster/index.html