DistributeTranspilerConfig_cn.rst 1.3 KB
Newer Older
H
Hao Wang 已提交
1 2 3 4 5 6 7
.. _cn_api_fluid_transpiler_DistributeTranspilerConfig:

DistributeTranspilerConfig
-------------------------------

.. py:class:: paddle.fluid.transpiler.DistributeTranspilerConfig

8 9
单机任务切换为分布式任务的配置类,其中较为重要的几个配置参数如下所示:

H
Hao Wang 已提交
10 11
.. py:method:: slice_var_up (bool)

12
是否为Pserver将张量切片, 默认为True
H
Hao Wang 已提交
13 14 15

.. py:method:: split_method (PSDispatcher)

16
参数分发的方式,当前支持的方法包括 :ref:`cn_api_fluid_transpiler_RoundRobin` 和 :ref:`cn_api_fluid_transpiler_HashName` 两种, 默认为RoundRobin。
H
Hao Wang 已提交
17 18 19 20 21

注意: 尝试选择最佳方法来达到负载均衡。

.. py:attribute:: min_block_size (int)

22
参数切片时,最小数据块的大小,默认为8192。
H
Hao Wang 已提交
23

24
注意: 根据:https://github.com/PaddlePaddle/Paddle/issues/8638#issuecomment-369912156 , 当数据块大小超过2MB时,我们可以有效地使用带宽。如果你想更改它,请详细查看slice_variable函数。
H
Hao Wang 已提交
25 26 27 28 29

**代码示例**

.. code-block:: python

30 31 32
        from paddle.fluid.transpiler.ps_dispatcher import RoundRobin
        import paddle.fluid as fluid

H
Hao Wang 已提交
33 34
        config = fluid.DistributeTranspilerConfig()
        config.slice_var_up = True
35 36
        config.split_method = RoundRobin
        config.min_block_size = 81920
H
Hao Wang 已提交
37 38 39