cluster_train_cn.md 6.8 KB
Newer Older
L
Luo Tao 已提交
1 2 3 4
```eval_rst
.. _cluster_train:
```

L
livc 已提交
5 6
# 运行分布式训练

L
livc 已提交
7
在本文中,我们将阐释如何在集群上运行分布式 Paddle 训练作业。我们将以[推荐系统](https://github.com/baidu/Paddle/tree/develop/demo/recommendation)为例创建分布式的单进程训练。
L
livc 已提交
8

L
Luo Tao 已提交
9
在本文中使用的[脚本](https://github.com/baidu/Paddle/tree/develop/paddle/scripts/cluster_train)通过 SSH 运行分布式作业。 它们还可以供那些运行更复杂的集群管理系统(如 MPI 和 [Kubernetes](https://github.com/PaddlePaddle/Paddle/tree/develop/doc/howto/usage/k8s) )的用户参考。
L
livc 已提交
10 11 12 13 14 15 16 17 18 19 20

## 前提条件

1. 上述脚本使用 Python 库 [fabric](http://www.fabfile.org/) 来运行 SSH 命令。 我们使用 `pip` 来安装 fabric:

   ```bash
   pip install fabric
   ```

2. 我们需要在集群的所有节点上安装 PaddlePaddle。 如果要启用GPU,需要在 `/usr/local/cuda` 中安装 CUDA; 否则 Paddle 将在运行时报错。

L
livc 已提交
21
3. 在 [`cluster_train/conf.py`] 中设置 `ROOT_DIR`, 该 ROOT_DIR 要在所有节点上存在。为了方便起见,我们通常在所有节点上创建一个 Unix 用户 `paddle`,并设置 `ROOT_DIR=/home/paddle`。这样,我们可以将 SSH 公钥写入 `/home/paddle/.ssh/authorized_keys`,以便用户 `paddle` 可以 SSH 到所有节点而不用密码。
L
livc 已提交
22 23 24 25 26

## 准备工作空间

我们将放置依赖库、配置等文件的目录视为 *工作空间(workspace)*

L
livc 已提交
27
这些 `train/test` 数据应该在启动集群作业之前准备好。 为了满足训练/测试数据放置在工作空间中不同目录的要求,PADDLE 根据在模型配置文件中使用的名为 `train.list/test.list` 的索引文件引用训练/测试数据,所以训练/测试数据也包含 train.list/test.list 两个列表文件。所有本地训练 demo 已经提供了脚本来帮助您创建这两个文件,并且集群作业中的所有节点将在正常情况下处理具有相同逻辑代码的文件。
L
livc 已提交
28

L
livc 已提交
29
通常,你可以使用本地训练中的相同模型文件进行集群训练。请记住,在模型文件的 `setting`函数中设置的 `batch_size` 表示在集群作业**每个**节点中的 batch 大小,而不是使用同步 SGD 的总 batch 大小。
L
livc 已提交
30

L
livc 已提交
31
以下步骤基于 demo 目录中的 [demo/recommendation](https://github.com/PaddlePaddle/Paddle/tree/develop/demo/recommendation)
L
livc 已提交
32

L
livc 已提交
33
你只需完成 demo/recommendation 教程文档到 `Train` 的部分,之后你会得到训练/测试数据和模型配置文件。最后,只需使用 demo/recommendation 作为集群训练的工作空间。
L
livc 已提交
34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

最后,你的工作空间应如下所示:
```
.
|-- common_utils.py
|-- data
|   |-- config.json
|   |-- config_generator.py
|   |-- meta.bin
|   |-- meta_config.json
|   |-- meta_generator.py
|   |-- ml-1m
|   |-- ml_data.sh
|   |-- ratings.dat.test
|   |-- ratings.dat.train
|   |-- split.py
|   |-- test.list
|   `-- train.list
|-- dataprovider.py
|-- evaluate.sh
|-- prediction.py
|-- preprocess.sh
|-- requirements.txt
|-- run.sh
`-- trainer_config.py
```
虽然这些文件并非都需要集群训练,但是也没有必要删除无用的文件。

L
livc 已提交
62
`trainer_config.py`
L
livc 已提交
63 64
表示模型配置文件。

L
livc 已提交
65
`train.list``test.list`
L
livc 已提交
66 67
文件索引。它存储当前节点所有训练/测试数据的所有相对或绝对文件路径。

L
livc 已提交
68
`dataprovider.py`
L
livc 已提交
69 70
用于读取训练/测试样本。这与本地训练相同。

L
livc 已提交
71
`data`
L
livc 已提交
72 73 74 75 76 77 78
数据目录中的所有文件被 train.list/test.list 引用。


## 准备集群作业配置

以下选项必须在 cluster_train/conf.py 中认真设置

L
livc 已提交
79
`HOSTS`  所有节点运行集群作业的主机名或 IP 。你还可以将用户和 ssh 端口附加到主机名上,例如 root@192.168.100.17:9090。
L
livc 已提交
80

L
livc 已提交
81
`ROOT_DIR` 用于放置 JOB 工作空间目录的工作空间 ROOT 目录
L
livc 已提交
82

L
livc 已提交
83
`PADDLE_NIC` 集群通信通道的 NIC(Network Interface Card, 网络接口卡) 接口名称,例如以太网的 eth0,infiniband 的 ib0。
L
livc 已提交
84

L
livc 已提交
85
`PADDLE_PORT` 集群通信通道的端口号
L
livc 已提交
86

L
livc 已提交
87
`PADDLE_PORTS_NUM` 用于集群通信通道的端口数。 如果集群节点数量少(少于5〜6个节点),建议将其设置为较大,如2〜8,以获得更好的网络性能。
L
livc 已提交
88

L
livc 已提交
89
`PADDLE_PORTS_NUM_FOR_SPARSE` 用于 sparse remote updater 集群通信信道的端口数。如果使用 sparse remote update,则可以像 `PADDLE_PORTS_NUM` 一样设置。
L
livc 已提交
90

L
livc 已提交
91
`LD_LIBRARY_PATH` 为集群作业设置额外的 LD_LIBRARY_PATH。你可以使用它来设置 CUDA 库的路径。
L
livc 已提交
92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124

默认配置如下:

```python
HOSTS = [
        "root@192.168.100.17",
        "root@192.168.100.18",
        ]

'''
工作空间配置
'''

#工作空间根目录
ROOT_DIR = "/home/paddle"

'''
网络配置
'''
#pserver NIC
PADDLE_NIC = "eth0"
#pserver 端口
PADDLE_PORT = 7164
#pserver 端口数
PADDLE_PORTS_NUM = 2
#pserver sparse ports num
PADDLE_PORTS_NUM_FOR_SPARSE = 2

#集群作业中所有进程的环境设置
LD_LIBRARY_PATH="/usr/local/cuda/lib64:/usr/lib64"
```

### 启动集群作业
L
livc 已提交
125
`paddle.py` 提供了自动化脚本来启动不同节点中的所有 PaddlePaddle 集群进程。默认情况下,所有命令行选项可以设置为```paddle.py``` 命令选项并且 `paddle.py` 将透明、自动地将这些选项应用到 PaddlePaddle 底层进程。
L
livc 已提交
126

L
livc 已提交
127
`paddle.py` 为方便作业启动提供了两个独特的命令选项。
L
livc 已提交
128

L
livc 已提交
129
`job_dispatch_package`  设为本地 `workspace` 目录,它将被分发到 conf.py 中设置的所有节点。  它有助于帮助频繁修改和访问工作区文件的用户减少负担,否则频繁的多节点工作空间部署可能会很麻烦。
L
livc 已提交
130
`job_workspace`  设为已部署的工作空间目录,`paddle.py` 将跳过分发阶段直接启动所有节点的集群作业。它可以帮助减少分发延迟。
L
livc 已提交
131

L
livc 已提交
132
`cluster_train/run.sh` 提供了命令样例来运行 `demo/recommendation` 集群工作,只需用你定义的目录修改 `job_dispatch_package``job_workspace`,然后:
L
livc 已提交
133 134 135 136 137 138 139
```
sh run.sh
```

集群作业将会在几秒后启动。

### 终止集群作业
L
livc 已提交
140
`paddle.py`能获取`Ctrl + C` SIGINT 信号来自动终止它启动的所有进程。只需中断 `paddle.py` 任务来终止集群作业。如果程序崩溃你也可以手动终止。
L
livc 已提交
141 142 143 144

### 检查集群训练结果
详细信息请检查 $workspace/log 里的日志,每一个节点都有相同的日志结构。

L
livc 已提交
145
`paddle_trainer.INFO`
L
livc 已提交
146 147
提供几乎所有训练的内部输出日志,与本地训练相同。这里检验运行时间模型的收敛。

L
livc 已提交
148
`paddle_pserver2.INFO`
L
livc 已提交
149 150
提供 pserver 运行日志,有助于诊断分布式错误。

L
livc 已提交
151
`server.log`
L
livc 已提交
152 153
提供 pserver 进程的 stderr 和 stdout。训练失败时可以检查错误日志。

L
livc 已提交
154
`train.log`
L
livc 已提交
155 156 157
提供训练过程的 stderr 和 stdout。训练失败时可以检查错误日志。

### 检查模型输出
L
livc 已提交
158 159
运行完成后,模型文件将被写入节点 0 的 `output` 目录中。
工作空间中的 `nodefile` 表示当前集群作业的节点 ID。