Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Crayon鑫
Paddle
提交
03d14ac4
P
Paddle
项目概览
Crayon鑫
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
03d14ac4
编写于
12月 16, 2016
作者:
L
livc
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add cluster_train_cn.md
上级
638cf8d4
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
156 addition
and
0 deletion
+156
-0
doc/howto/usage/cluster/cluster_train_cn.md
doc/howto/usage/cluster/cluster_train_cn.md
+156
-0
未找到文件。
doc/howto/usage/cluster/cluster_train_cn.md
0 → 100644
浏览文件 @
03d14ac4
# 运行分布式训练
在本文中,我们将阐释如何在集群上运行分布式 Paddle 训练作业。我们将创建分布式的单进程训练示例,
[
推荐
](
https://github.com/baidu/Paddle/tree/develop/demo/recommendation
)
。
在本文中使用的
[
脚本
](
https://github.com/baidu/Paddle/tree/develop/paddle/scripts/cluster_train
)
通过 SSH 运行分布式作业。 它们还可以供那些运行更复杂的集群管理系统(如 MPI 和 Kubernetes )的用户参考。
## 前提条件
1.
上述脚本使用 Python 库
[
fabric
](
http://www.fabfile.org/
)
来运行 SSH 命令。 我们使用
`pip`
来安装 fabric:
```
bash
pip
install
fabric
```
2.
我们需要在集群的所有节点上安装 PaddlePaddle。 如果要启用GPU,需要在
`/usr/local/cuda`
中安装 CUDA; 否则 Paddle 将在运行时报错。
3.
在所有节点上的[
`cluster_train/conf.py`
]中设置
`ROOT_DIR`
变量。 为了方便起见,我们通常在所有节点上创建一个 Unix 用户
`paddle`
,并设置
`ROOT_DIR=/home/paddle`
。这样,我们可以将 SSH 公钥写入
`/home/paddle/.ssh/authorized_keys`
,以便用户
`paddle`
可以 SSH 到所有节点而不用密码。
## 准备工作空间
我们将放置依赖库、配置等文件的目录视为
*工作空间(workspace)*
。
这些
```train/test```
数据应该在启动集群作业之前准备好。 为了满足训练/测试数据放置在工作空间中不同目录的要求,PADDLE 根据在模型配置文件中使用的名为
```train.list/test.list```
的索引文件引用训练/测试数据。所以训练/测试数据也包含 train.list/test.list 两个列表文件。所有本地训练 demo 已经提供了脚本来帮助您创建这两个文件,并且集群作业中的所有节点将在正常情况下处理具有相同逻辑代码的文件。
通常,你可以使用本地训练中的相同模型文件进行集群训练。 你应该知道,在模型文件的
```setting```
函数中设置的
```batch_size```
表示在集群作业
**每个**
节点中的 batch 大小,而不是使用同步 SGD 的总 batch 大小。
以下步骤基于 demo 目录中的 demo/recommendation。
你只需完成 demo/recommendation 教程文档到
```Train```
的部分,之后你会得到训练/测试数据和模型配置文件。最后,只需使用 demo/recommendation 作为集群训练的工作空间。
最后,你的工作空间应如下所示:
```
.
|-- common_utils.py
|-- data
| |-- config.json
| |-- config_generator.py
| |-- meta.bin
| |-- meta_config.json
| |-- meta_generator.py
| |-- ml-1m
| |-- ml_data.sh
| |-- ratings.dat.test
| |-- ratings.dat.train
| |-- split.py
| |-- test.list
| `-- train.list
|-- dataprovider.py
|-- evaluate.sh
|-- prediction.py
|-- preprocess.sh
|-- requirements.txt
|-- run.sh
`-- trainer_config.py
```
虽然这些文件并非都需要集群训练,但是也没有必要删除无用的文件。
```
trainer_config.py```
表示模型配置文件。
```
train.list
``` 和 ```
test.list
```
文件索引。它存储当前节点所有训练/测试数据的所有相对或绝对文件路径。
```
dataprovider.py
```
用于读取训练/测试样本。这与本地训练相同。
```
data
```
数据目录中的所有文件被 train.list/test.list 引用。
## 准备集群作业配置
以下选项必须在 cluster_train/conf.py 中认真设置
```
HOSTS
``` 所有节点运行集群作业的主机名或 IP 。你还可以将用户和 ssh 端口附加到主机名上,例如 root@192.168.100.17:9090。
```
ROOT_DIR
``` 用于放置 JOB 工作空间目录的工作空间 ROOT 目录
```
PADDLE_NIC
``` 集群通信通道的 NIC(Network Interface Card, 网络接口卡) 接口名称,例如以太网的 eth0,infiniband 的 ib0。
```
PADDLE_PORT
``` 集群通信通道的端口号
```
PADDLE_PORTS_NUM
``` 用于集群通信通道的端口数。 如果集群节点数量少(少于5〜6个节点),建议将其设置为较大,如2〜8,以获得更好的网络性能。
```
PADDLE_PORTS_NUM_FOR_SPARSE
``` 用于稀疏更新器集群通信信道的端口数。如果使用稀疏远程更新,则可以像 ```
PADDLE_PORTS_NUM
``` 一样设置。
```
LD_LIBRARY_PATH
``` 为集群作业设置额外的 LD_LIBRARY_PATH。你可以使用它来设置 CUDA 库的路径。
默认配置如下:
```
python
HOSTS = [
"root@192.168.100.17",
"root@192.168.100.18",
]
'''
工作空间配置
'''
#工作空间根目录
ROOT_DIR = "/home/paddle"
'''
网络配置
'''
#pserver NIC
PADDLE_NIC = "eth0"
#pserver 端口
PADDLE_PORT = 7164
#pserver 端口数
PADDLE_PORTS_NUM = 2
#pserver sparse ports num
PADDLE_PORTS_NUM_FOR_SPARSE = 2
#集群作业中所有进程的环境设置
LD_LIBRARY_PATH="/usr/local/cuda/lib64:/usr/lib64"
```
### 启动集群作业
```
paddle.py
``` 提供了自动化脚本来启动不同节点中的所有 PaddlePaddle 集群进程。默认情况下,所有命令行选项可以设置为```
paddle.py
``` 命令选项并且 ```
paddle.py
``` 将透明、自动地将这些选项应用到 PaddlePaddle 低级进程。
```
paddle.py
``` 为方便作业启动提供了两个独特的命令选项。
```
job_dispatch_package
``` 设为本地 ```
workspace
``` 目录,它将被分发到 conf.py 中设置的所有节点。 这有助于频繁的修改、访问工作区文件,否则频繁的多节点工作空间部署可能会很麻烦。
```
job_workspace
``` 设为已部署的工作空间目录,```
paddle.py
``` 将跳过分发阶段直接启动所有节点的集群作业。它可以帮助减少分发延迟。
```
cluster_train/run.sh
``` 提供了命令样例来运行 ```
demo/recommendation
``` 集群工作,只需用你定义的目录修改 ```
job_dispatch_package
``` 和 ```
job_workspace
``` ,然后:
```
sh run.sh
```
集群作业将会在几秒后启动。
### 终止集群作业
```
paddle.py
``` 能获取 ```
Ctrl + C
``` SIGINT 信号来自动终止它启动的所有进程。只需中断 ```
paddle.py
``` 任务来终止集群作业。如果程序崩溃你也可以手动终止。
### 检查集群训练结果
详细信息请检查 $workspace/log 里的日志,每一个节点都有相同的日志结构。
```
paddle_trainer.INFO
```
提供几乎所有训练的内部输出日志,与本地训练相同。这里检验运行时间模型的收敛。
```
paddle_pserver2.INFO
```
提供 pserver 运行日志,有助于诊断分布式错误。
```
server.log
```
提供 pserver 进程的 stderr 和 stdout。训练失败时可以检查错误日志。
```
train.log
```
提供训练过程的 stderr 和 stdout。训练失败时可以检查错误日志。
### 检查模型输出
运行完成后,模型文件将被写入节点 0 的 ```
output
``` 目录中。
工作空间中的 ```
nodefile
```
表示当前集群作业的节点 ID。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录