提交 e743682d 编写于 作者: G guru4elephant 提交者: xsrobin

Refine fleet doc (#983)

* Update fleet_api_howto_cn.rst

* Update fleet_api_howto_cn.rst

* Update fleet_api_howto_cn.rst
上级 0643aa0b
......@@ -9,7 +9,7 @@ Fleet是PaddlePaddle分布式训练的高级API。Fleet的命名出自于PaddleP
快速上手示例
------------------------------
用户可以使用Fleet API轻易实现GPU多卡训练(单机多卡/多机多卡)。多卡训练在现代AI模型中非常常见,例如[Resnet50][Bert]等都是非常常见的需要多机多卡训练的模型。下面的代码示例,以一个简单的例子入手展示如何使用Fleet API进行单机多卡训练。代码示例可以参考:[quick-start]
用户可以使用Fleet API轻易实现GPU多卡训练(单机多卡/多机多卡)。多卡训练在现代AI模型中非常常见,例如Resnet50、Bert等都是非常常见的需要多机多卡训练的模型。下面的代码示例,以一个简单的例子入手展示如何使用Fleet API进行单机多卡训练。代码示例可以参考:https://github.com/PaddlePaddle/Fleet
神经网络模型的定义如下:
......@@ -47,8 +47,7 @@ Fleet是PaddlePaddle分布式训练的高级API。Fleet的命名出自于PaddleP
exe.run(feed=gen_data())
If you want to use high performance chip to do distributed training, such as distributed GPU training, **Fleet API** will help you by adding less than 10 lines of code, source code of this example is in examples/quick-start/collective_trainer.py
如果用户想使用高性能芯片,例如GPU多卡进行训练,使用**Fleet API**可以在增加少量代码的情况下实现。
如果用户想使用高性能芯片,例如GPU多卡进行训练,使用Fleet API可以在增加少量代码的情况下实现。
.. code-block:: python
......@@ -82,6 +81,7 @@ If you want to use high performance chip to do distributed training, such as dis
.. code-block:: python
export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
python -m paddle.distributed.launch collective_trainer.py
......@@ -194,3 +194,4 @@ Fleet需要在用户定义的optimizer之上装饰 code:`fleet.distributed_optim
fleet.stop_worker()
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册