diff --git a/source/user_guides/howto/training/cluster_howto.rst b/source/user_guides/howto/training/cluster_howto.rst index 00ec9e819c81fae3263b1f1e6bcedf524f2b3991..bbd60a1a7d0ea460ff0cea5a77d399f829f8b482 100644 --- a/source/user_guides/howto/training/cluster_howto.rst +++ b/source/user_guides/howto/training/cluster_howto.rst @@ -37,7 +37,7 @@ Fluid分布式训练使用手册 完整的模型,并使用一部分数据进行训练,然后向pserver发送梯度,最后从pserver拉取更新后的参数。 pserver进程可以在和trainer完全不同的计算节点上,也可以和trainer公用节点。一个分布式任务所需要的\ - pserver进程个数通常需要根据实际情况调整,已达到最佳的性能,然而通常来说pserver的进程不会比trainer\ + pserver进程个数通常需要根据实际情况调整,以达到最佳的性能,然而通常来说pserver的进程不会比trainer\ 更多。 在使用GPU训练时,pserver可以选择使用GPU或只使用CPU,如果pserver也使用GPU,则会增加一次从CPU拷贝\ @@ -54,7 +54,7 @@ Fluid分布式训练使用手册 使用parameter server方式的训练 ------------------------------ -使用 :code:`trainer` API,程序可以自动的通过识别环境变量决定是否已分布式方式执行。 +使用 :code:`trainer` API,程序可以自动的通过识别环境变量决定是否以分布式方式执行。 .. csv-table:: 需要在您的分布式环境中配置的环境变量包括: :header: "环境变量", "说明" diff --git a/source/user_guides/howto/training/src/parallelism.png b/source/user_guides/howto/training/src/parallelism.png index 6c078b5241559a05219447db67b5d8a35aeefd3f..c787907397acb78d5e8ce31481e44dac2f774a4e 100644 Binary files a/source/user_guides/howto/training/src/parallelism.png and b/source/user_guides/howto/training/src/parallelism.png differ