diff --git a/doc/fluid/advanced_usage/best_practice/dist_training_gpu.rst b/doc/fluid/advanced_usage/best_practice/dist_training_gpu.rst index 1878a49cdc0580c4f57d460a3b8be502c0154f2d..7f9ed763122d872fb9fa0ddc46cd6492f4b0b31a 100644 --- a/doc/fluid/advanced_usage/best_practice/dist_training_gpu.rst +++ b/doc/fluid/advanced_usage/best_practice/dist_training_gpu.rst @@ -1,7 +1,7 @@ .. _best_practice_dist_training_gpu: ##################### -分布式GPU训练最佳实践 +分布式GPU训练优秀实践 ##################### 开始优化您的GPU分布式训练任务 @@ -9,7 +9,7 @@ PaddlePaddle Fluid可以支持在现代GPU [#]_ 服务器集群上完成高性能分布式训练。 通常可以通过以下方法优化在多机多卡环境训练性能,建议在进行性能优化时, -检查每项优化点并验证对应提升,最终获得最优性能。 +检查每项优化点并验证对应提升,从而提升最终的性能。 一个简单的验证当前的训练程序是否需要进一步优化性能的方法, 是查看GPU的计算利用率 [#]_ ,通常用 :code:`nvidia-smi` 命令查看。