未验证 提交 9795c7ec 编写于 作者: D Dong Daxiang 提交者: GitHub

Update cluster_quick_start.rst

上级 1b1dca97
......@@ -25,7 +25,9 @@ API进行分布式训练的配置方法,并利用单机环境模拟分布式
with
Fleet <https://github.com/PaddlePaddle/Fleet/tree/develop/examples/ctr>`__
为了方便学习,这里给出的示例是单机与多机混合的代码,用户可以通过不同的启动命令进行单机或多机任务的启动。
为了方便学习,这里给出的示例是单机与多机混合的代码,用户可以通过不同的启动命令进行单机或多机任务的启动。获取数据的部分,以及对数据预处理的逻辑可以参考\ `CTR
with
Fleet <https://github.com/PaddlePaddle/Fleet/tree/develop/examples/ctr>`__\ 的源码和说明,这里不做过多描述。
.. code:: python
......@@ -107,7 +109,9 @@ Fleet <https://github.com/PaddlePaddle/Fleet/tree/develop/examples/ctr>`__
- 说明:示例中使用的IO方法是dataset,想了解具体的文档和用法请参考\ `Dataset
API <hhttps://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/api_cn/dataset_cn.html>`__\ 。示例中使用的\ ``train_from_dataset``\ 接口,想了解具体的文档和使用方法请参考\ `Executor
API <https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/api_cn/executor_cn.html>`__
API <https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/api_cn/executor_cn.html>`__\ 。示例中的\ ``from paddle.fluid.incubate.fleet.parameter_server.distribute_transpiler import fleet``\ 表示引入参数服务器架构进行分布式训练,如果想更进一步了解Fleet
API的更多选项,请参考\ `Fleet
API <https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/user_guides/howto/training/fleet_api_howto_cn.html>`__
单机训练启动命令
^^^^^^^^^^^^^^^^
......@@ -128,8 +132,6 @@ Fleet <https://github.com/PaddlePaddle/Fleet/tree/develop/examples/ctr>`__
任务运行的日志在工作目录的logs目录下可以查看,当您能够使用单机模拟分布式训练,可以进行真正的多机分布式训练。我们建议用户直接参\ `百度云运行分布式任务的示例 <https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/user_guides/howto/training/deploy_ctr_on_baidu_cloud_cn.html>`__
分布式训练快速开始
==================
准备工作
--------
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册