diff --git a/doc/fluid/user_guides/howto/training/cluster_quick_start.rst b/doc/fluid/user_guides/howto/training/cluster_quick_start.rst index 395303ed0d46c37f1106c2a20bbb2f6d2df8a44c..d81acfaaaa033fe0692a832ce7fb1958cefcafff 100644 --- a/doc/fluid/user_guides/howto/training/cluster_quick_start.rst +++ b/doc/fluid/user_guides/howto/training/cluster_quick_start.rst @@ -110,7 +110,7 @@ Fleet `__\ 的 - 说明:示例中使用的IO方法是dataset,想了解具体的文档和用法请参考\ `Dataset API `__\ 。示例中使用的\ ``train_from_dataset``\ 接口,想了解具体的文档和使用方法请参考\ `Executor API `__\ 。示例中的\ ``from paddle.fluid.incubate.fleet.parameter_server.distribute_transpiler import fleet``\ 表示引入参数服务器架构进行分布式训练,如果想更进一步了解Fleet - API的更多选项,请参考\ `Fleet + API的更多选项和示例,请参考\ `Fleet API `__ 单机训练启动命令 @@ -131,6 +131,7 @@ Fleet `__\ 的 任务运行的日志在工作目录的logs目录下可以查看,当您能够使用单机模拟分布式训练,可以进行真正的多机分布式训练。我们建议用户直接参\ `百度云运行分布式任务的示例 `__ + Paddle Fluid 1.5.1以前的版本支持的分布式训练方式,我们仍然会继续兼容,快速上手使用文档如下: ---------------------------