未验证 提交 1bed5c0c 编写于 作者: D Dong Daxiang 提交者: GitHub

Merge branch 'develop' into develop

......@@ -11,6 +11,8 @@ API
average_cn.rst
backward_cn.rst
clip_cn.rst
data/data_reader_cn.rst
data/dataset_cn.rst
data_feeder_cn.rst
dataset_cn.rst
dygraph_cn.rst
......@@ -24,6 +26,6 @@ API
profiler_cn.rst
regularizer_cn.rst
transpiler_cn.rst
data/dataset_cn.rst
data/data_reader_cn.rst
unique_name_cn.rst
......@@ -8,106 +8,78 @@ fluid.layers
.. toctree::
:maxdepth: 1
layers_cn/array_length_cn.rst
layers_cn/array_read_cn.rst
layers_cn/array_write_cn.rst
layers_cn/create_array_cn.rst
layers_cn/DynamicRNN_cn.rst
layers_cn/equal_cn.rst
layers_cn/greater_equal_cn.rst
layers_cn/greater_than_cn.rst
layers_cn/IfElse_cn.rst
layers_cn/increment_cn.rst
layers_cn/is_empty_cn.rst
layers_cn/less_equal_cn.rst
layers_cn/less_than_cn.rst
layers_cn/not_equal_cn.rst
layers_cn/Print_cn.rst
layers_cn/reorder_lod_tensor_by_rank_cn.rst
layers_cn/StaticRNN_cn.rst
layers_cn/Switch_cn.rst
layers_cn/While_cn.rst
layers_cn/anchor_generator_cn.rst
layers_cn/bipartite_match_cn.rst
layers_cn/box_clip_cn.rst
layers_cn/box_coder_cn.rst
layers_cn/box_decoder_and_assign_cn.rst
layers_cn/collect_fpn_proposals_cn.rst
layers_cn/density_prior_box_cn.rst
layers_cn/detection_map_cn.rst
layers_cn/detection_output_cn.rst
layers_cn/distribute_fpn_proposals_cn.rst
layers_cn/generate_mask_labels_cn.rst
layers_cn/generate_proposal_labels_cn.rst
layers_cn/generate_proposals_cn.rst
layers_cn/iou_similarity_cn.rst
layers_cn/multi_box_head_cn.rst
layers_cn/multiclass_nms_cn.rst
layers_cn/polygon_box_transform_cn.rst
layers_cn/prior_box_cn.rst
layers_cn/retinanet_detection_output_cn.rst
layers_cn/retinanet_target_assign_cn.rst
layers_cn/roi_perspective_transform_cn.rst
layers_cn/rpn_target_assign_cn.rst
layers_cn/sigmoid_focal_loss_cn.rst
layers_cn/ssd_loss_cn.rst
layers_cn/target_assign_cn.rst
layers_cn/yolo_box_cn.rst
layers_cn/yolov3_loss_cn.rst
layers_cn/batch_cn.rst
layers_cn/create_py_reader_by_data_cn.rst
layers_cn/data_cn.rst
layers_cn/double_buffer_cn.rst
layers_cn/load_cn.rst
layers_cn/open_files_cn.rst
layers_cn/Preprocessor_cn.rst
layers_cn/py_reader_cn.rst
layers_cn/random_data_generator_cn.rst
layers_cn/read_file_cn.rst
layers_cn/shuffle_cn.rst
layers_cn/cosine_decay_cn.rst
layers_cn/exponential_decay_cn.rst
layers_cn/inverse_time_decay_cn.rst
layers_cn/linear_lr_warmup_cn.rst
layers_cn/natural_exp_decay_cn.rst
layers_cn/noam_decay_cn.rst
layers_cn/piecewise_decay_cn.rst
layers_cn/polynomial_decay_cn.rst
layers_cn/abs_cn.rst
layers_cn/accuracy_cn.rst
layers_cn/auc_cn.rst
layers_cn/acos_cn.rst
layers_cn/adaptive_pool2d_cn.rst
layers_cn/adaptive_pool3d_cn.rst
layers_cn/add_position_encoding_cn.rst
layers_cn/affine_channel_cn.rst
layers_cn/affine_grid_cn.rst
layers_cn/anchor_generator_cn.rst
layers_cn/argmax_cn.rst
layers_cn/argmin_cn.rst
layers_cn/argsort_cn.rst
layers_cn/array_length_cn.rst
layers_cn/array_read_cn.rst
layers_cn/array_write_cn.rst
layers_cn/asin_cn.rst
layers_cn/assign_cn.rst
layers_cn/atan_cn.rst
layers_cn/auc_cn.rst
layers_cn/autoincreased_step_counter_cn.rst
layers_cn/batch_cn.rst
layers_cn/batch_norm_cn.rst
layers_cn/beam_search_cn.rst
layers_cn/beam_search_decode_cn.rst
layers_cn/bilinear_tensor_product_cn.rst
layers_cn/bipartite_match_cn.rst
layers_cn/box_clip_cn.rst
layers_cn/box_coder_cn.rst
layers_cn/box_decoder_and_assign_cn.rst
layers_cn/bpr_loss_cn.rst
layers_cn/brelu_cn.rst
layers_cn/cast_cn.rst
layers_cn/ceil_cn.rst
layers_cn/chunk_eval_cn.rst
layers_cn/clip_cn.rst
layers_cn/clip_by_norm_cn.rst
layers_cn/clip_cn.rst
layers_cn/collect_fpn_proposals_cn.rst
layers_cn/concat_cn.rst
layers_cn/continuous_value_model_cn.rst
layers_cn/conv2d_cn.rst
layers_cn/conv2d_transpose_cn.rst
layers_cn/conv3d_cn.rst
layers_cn/conv3d_transpose_cn.rst
layers_cn/cos_cn.rst
layers_cn/cos_sim_cn.rst
layers_cn/cosine_decay_cn.rst
layers_cn/create_array_cn.rst
layers_cn/create_global_var_cn.rst
layers_cn/create_parameter_cn.rst
layers_cn/create_py_reader_by_data_cn.rst
layers_cn/create_tensor_cn.rst
layers_cn/crf_decoding_cn.rst
layers_cn/crop_cn.rst
layers_cn/cross_entropy_cn.rst
layers_cn/ctc_greedy_decoder_cn.rst
layers_cn/cumsum_cn.rst
layers_cn/data_cn.rst
layers_cn/data_norm_cn.rst
layers_cn/deformable_conv_cn.rst
layers_cn/deformable_roi_pooling_cn.rst
layers_cn/density_prior_box_cn.rst
layers_cn/detection_map_cn.rst
layers_cn/detection_output_cn.rst
layers_cn/diag_cn.rst
layers_cn/dice_loss_cn.rst
layers_cn/distribute_fpn_proposals_cn.rst
layers_cn/double_buffer_cn.rst
layers_cn/dropout_cn.rst
layers_cn/dynamic_gru_cn.rst
layers_cn/dynamic_lstm_cn.rst
layers_cn/dynamic_lstmp_cn.rst
layers_cn/DynamicRNN_cn.rst
layers_cn/edit_distance_cn.rst
layers_cn/elementwise_add_cn.rst
layers_cn/elementwise_div_cn.rst
......@@ -120,30 +92,55 @@ fluid.layers
layers_cn/elementwise_sub_cn.rst
layers_cn/elu_cn.rst
layers_cn/embedding_cn.rst
layers_cn/equal_cn.rst
layers_cn/exp_cn.rst
layers_cn/expand_cn.rst
layers_cn/exponential_decay_cn.rst
layers_cn/fc_cn.rst
layers_cn/fill_constant_batch_size_like_cn.rst
layers_cn/fill_constant_cn.rst
layers_cn/flatten_cn.rst
layers_cn/floor_cn.rst
layers_cn/fsp_matrix_cn.rst
layers_cn/gather_cn.rst
layers_cn/gaussian_random_cn.rst
layers_cn/gaussian_random_batch_size_like_cn.rst
layers_cn/gaussian_random_cn.rst
layers_cn/generate_mask_labels_cn.rst
layers_cn/generate_proposal_labels_cn.rst
layers_cn/generate_proposals_cn.rst
layers_cn/get_tensor_from_selected_rows_cn.rst
layers_cn/greater_equal_cn.rst
layers_cn/greater_than_cn.rst
layers_cn/grid_sampler_cn.rst
layers_cn/group_norm_cn.rst
layers_cn/gru_unit_cn.rst
layers_cn/hard_shrink_cn.rst
layers_cn/hard_sigmoid_cn.rst
layers_cn/has_inf_cn.rst
layers_cn/has_nan_cn.rst
layers_cn/hash_cn.rst
layers_cn/hsigmoid_cn.rst
layers_cn/huber_loss_cn.rst
layers_cn/IfElse_cn.rst
layers_cn/im2sequence_cn.rst
layers_cn/image_resize_cn.rst
layers_cn/image_resize_short_cn.rst
layers_cn/increment_cn.rst
layers_cn/inverse_time_decay_cn.rst
layers_cn/iou_similarity_cn.rst
layers_cn/is_empty_cn.rst
layers_cn/isfinite_cn.rst
layers_cn/kldiv_loss_cn.rst
layers_cn/l2_normalize_cn.rst
layers_cn/label_smooth_cn.rst
layers_cn/layer_norm_cn.rst
layers_cn/leaky_relu_cn.rst
layers_cn/less_equal_cn.rst
layers_cn/less_than_cn.rst
layers_cn/linear_chain_crf_cn.rst
layers_cn/linear_lr_warmup_cn.rst
layers_cn/linspace_cn.rst
layers_cn/load_cn.rst
layers_cn/lod_reset_cn.rst
layers_cn/log_cn.rst
layers_cn/log_loss_cn.rst
......@@ -151,6 +148,7 @@ fluid.layers
layers_cn/logical_not_cn.rst
layers_cn/logical_or_cn.rst
layers_cn/logical_xor_cn.rst
layers_cn/logsigmoid_cn.rst
layers_cn/lrn_cn.rst
layers_cn/lstm_cn.rst
layers_cn/lstm_unit_cn.rst
......@@ -161,23 +159,41 @@ fluid.layers
layers_cn/mean_iou_cn.rst
layers_cn/merge_selected_rows_cn.rst
layers_cn/mul_cn.rst
layers_cn/multi_box_head_cn.rst
layers_cn/multiclass_nms_cn.rst
layers_cn/multiplex_cn.rst
layers_cn/natural_exp_decay_cn.rst
layers_cn/nce_cn.rst
layers_cn/noam_decay_cn.rst
layers_cn/not_equal_cn.rst
layers_cn/npair_loss_cn.rst
layers_cn/one_hot_cn.rst
layers_cn/ones_cn.rst
layers_cn/open_files_cn.rst
layers_cn/pad_cn.rst
layers_cn/pad2d_cn.rst
layers_cn/pad_constant_like_cn.rst
layers_cn/pad2d_cn.rst
layers_cn/piecewise_decay_cn.rst
layers_cn/pixel_shuffle_cn.rst
layers_cn/polygon_box_transform_cn.rst
layers_cn/polynomial_decay_cn.rst
layers_cn/pool2d_cn.rst
layers_cn/pool3d_cn.rst
layers_cn/pow_cn.rst
layers_cn/prelu_cn.rst
layers_cn/Preprocessor_cn.rst
layers_cn/Print_cn.rst
layers_cn/prior_box_cn.rst
layers_cn/psroi_pool_cn.rst
layers_cn/py_func_cn.rst
layers_cn/py_reader_cn.rst
layers_cn/random_crop_cn.rst
layers_cn/random_data_generator_cn.rst
layers_cn/range_cn.rst
layers_cn/rank_cn.rst
layers_cn/rank_loss_cn.rst
layers_cn/read_file_cn.rst
layers_cn/reciprocal_cn.rst
layers_cn/reduce_all_cn.rst
layers_cn/reduce_any_cn.rst
layers_cn/reduce_max_cn.rst
......@@ -187,12 +203,20 @@ fluid.layers
layers_cn/reduce_sum_cn.rst
layers_cn/relu_cn.rst
layers_cn/relu6_cn.rst
layers_cn/reorder_lod_tensor_by_rank_cn.rst
layers_cn/reshape_cn.rst
layers_cn/resize_bilinear_cn.rst
layers_cn/resize_nearest_cn.rst
layers_cn/retinanet_detection_output_cn.rst
layers_cn/retinanet_target_assign_cn.rst
layers_cn/reverse_cn.rst
layers_cn/roi_align_cn.rst
layers_cn/roi_perspective_transform_cn.rst
layers_cn/roi_pool_cn.rst
layers_cn/round_cn.rst
layers_cn/row_conv_cn.rst
layers_cn/rpn_target_assign_cn.rst
layers_cn/rsqrt_cn.rst
layers_cn/sampled_softmax_with_cross_entropy_cn.rst
layers_cn/sampling_id_cn.rst
layers_cn/scale_cn.rst
......@@ -201,8 +225,8 @@ fluid.layers
layers_cn/sequence_concat_cn.rst
layers_cn/sequence_conv_cn.rst
layers_cn/sequence_enumerate_cn.rst
layers_cn/sequence_expand_cn.rst
layers_cn/sequence_expand_as_cn.rst
layers_cn/sequence_expand_cn.rst
layers_cn/sequence_first_step_cn.rst
layers_cn/sequence_last_step_cn.rst
layers_cn/sequence_mask_cn.rst
......@@ -216,78 +240,54 @@ fluid.layers
layers_cn/sequence_unpad_cn.rst
layers_cn/shape_cn.rst
layers_cn/shuffle_channel_cn.rst
layers_cn/shuffle_cn.rst
layers_cn/sigmoid_cn.rst
layers_cn/sigmoid_cross_entropy_with_logits_cn.rst
layers_cn/sigmoid_focal_loss_cn.rst
layers_cn/sign_cn.rst
layers_cn/similarity_focus_cn.rst
layers_cn/sin_cn.rst
layers_cn/slice_cn.rst
layers_cn/smooth_l1_cn.rst
layers_cn/soft_relu_cn.rst
layers_cn/softmax_cn.rst
layers_cn/softmax_with_cross_entropy_cn.rst
layers_cn/softplus_cn.rst
layers_cn/softshrink_cn.rst
layers_cn/softsign_cn.rst
layers_cn/space_to_depth_cn.rst
layers_cn/spectral_norm_cn.rst
layers_cn/split_cn.rst
layers_cn/sqrt_cn.rst
layers_cn/square_cn.rst
layers_cn/square_error_cost_cn.rst
layers_cn/squeeze_cn.rst
layers_cn/ssd_loss_cn.rst
layers_cn/stack_cn.rst
layers_cn/stanh_cn.rst
layers_cn/StaticRNN_cn.rst
layers_cn/sum_cn.rst
layers_cn/sums_cn.rst
layers_cn/swish_cn.rst
layers_cn/Switch_cn.rst
layers_cn/tanh_cn.rst
layers_cn/tanh_shrink_cn.rst
layers_cn/target_assign_cn.rst
layers_cn/teacher_student_sigmoid_loss_cn.rst
layers_cn/temporal_shift_cn.rst
layers_cn/tensor_array_to_tensor_cn.rst
layers_cn/thresholded_relu_cn.rst
layers_cn/topk_cn.rst
layers_cn/transpose_cn.rst
layers_cn/tree_conv_cn.rst
layers_cn/uniform_random_batch_size_like_cn.rst
layers_cn/uniform_random_cn.rst
layers_cn/unsqueeze_cn.rst
layers_cn/unstack_cn.rst
layers_cn/warpctc_cn.rst
layers_cn/where_cn.rst
layers_cn/abs_cn.rst
layers_cn/acos_cn.rst
layers_cn/asin_cn.rst
layers_cn/atan_cn.rst
layers_cn/ceil_cn.rst
layers_cn/cos_cn.rst
layers_cn/cumsum_cn.rst
layers_cn/exp_cn.rst
layers_cn/floor_cn.rst
layers_cn/hard_shrink_cn.rst
layers_cn/logsigmoid_cn.rst
layers_cn/reciprocal_cn.rst
layers_cn/round_cn.rst
layers_cn/rsqrt_cn.rst
layers_cn/sigmoid_cn.rst
layers_cn/sin_cn.rst
layers_cn/softplus_cn.rst
layers_cn/softshrink_cn.rst
layers_cn/softsign_cn.rst
layers_cn/sqrt_cn.rst
layers_cn/square_cn.rst
layers_cn/tanh_cn.rst
layers_cn/tanh_shrink_cn.rst
layers_cn/thresholded_relu_cn.rst
layers_cn/uniform_random_cn.rst
layers_cn/argmax_cn.rst
layers_cn/argmin_cn.rst
layers_cn/argsort_cn.rst
layers_cn/assign_cn.rst
layers_cn/cast_cn.rst
layers_cn/concat_cn.rst
layers_cn/create_global_var_cn.rst
layers_cn/create_parameter_cn.rst
layers_cn/create_tensor_cn.rst
layers_cn/diag_cn.rst
layers_cn/fill_constant_cn.rst
layers_cn/fill_constant_batch_size_like_cn.rst
layers_cn/has_inf_cn.rst
layers_cn/has_nan_cn.rst
layers_cn/isfinite_cn.rst
layers_cn/linspace_cn.rst
layers_cn/ones_cn.rst
layers_cn/range_cn.rst
layers_cn/reverse_cn.rst
layers_cn/sums_cn.rst
layers_cn/tensor_array_to_tensor_cn.rst
layers_cn/While_cn.rst
layers_cn/yolo_box_cn.rst
layers_cn/yolov3_loss_cn.rst
layers_cn/zeros_cn.rst
layers_cn/zeros_like_cn.rst
......@@ -47,9 +47,9 @@ conv3d
- **stride** (int|tuple) - 步长(stride)大小。如果步长(stride)为元组,则必须包含三个整型数, (stride_D, stride_H, stride_W)。否则,stride_D = stride_H = stride_W = stride。默认:stride = 1
- **padding** (int|tuple) - 填充(padding)大小。如果填充(padding)为元组,则必须包含三个整型数,(padding_D, padding_H, padding_W)。否则, padding_D = padding_H = padding_W = padding。默认:padding = 0
- **dilation** (int|tuple) - 膨胀(dilation)大小。如果膨胀(dialation)为元组,则必须包含两个整型数, (dilation_D, dilation_H, dilation_W)。否则,dilation_D = dilation_H = dilation_W = dilation。默认:dilation = 1
- **groups** (int) - 卷积二维层(Conv2D Layer)的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=2,滤波器的前一半仅和输入通道的前一半连接。滤波器的后一半仅和输入通道的后一半连接。默认:groups = 1
- **param_attr** (ParamAttr|None) - conv2d的可学习参数/权重的参数属性。如果设为None或者ParamAttr的一个属性,conv2d创建ParamAttr为param_attr。如果param_attr的初始化函数未设置,参数则初始化为 :math:`Normal(0.0,std)`,并且std为 :math:`\left ( \frac{2.0}{filter\_elem\_num} \right )^{0.5}` 。默认为None
- **bias_attr** (ParamAttr|bool|None) - conv2d bias的参数属性。如果设为False,则没有bias加到输出。如果设为None或者ParamAttr的一个属性,conv2d创建ParamAttr为bias_attr。如果bias_attr的初始化函数未设置,bias初始化为0.默认为None
- **groups** (int) - 卷积三维层(Conv3D Layer)的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=2,滤波器的前一半仅和输入通道的前一半连接。滤波器的后一半仅和输入通道的后一半连接。默认:groups = 1
- **param_attr** (ParamAttr|None) - Conv3D的可学习参数/权重的参数属性。如果设为None或者ParamAttr的一个属性,Conv3D创建ParamAttr为param_attr。如果param_attr的初始化函数未设置,参数则初始化为 :math:`Normal(0.0,std)`,并且std为 :math:`\left ( \frac{2.0}{filter\_elem\_num} \right )^{0.5}` 。默认为None
- **bias_attr** (ParamAttr|bool|None) - Conv3D bias的参数属性。如果设为False,则没有bias加到输出。如果设为None或者ParamAttr的一个属性,Conv3D创建ParamAttr为bias_attr。如果bias_attr的初始化函数未设置,bias初始化为0.默认为None
- **use_cudnn** (bool) - 是否用cudnn核,仅当下载cudnn库才有效。默认:True
- **act** (str) - 激活函数类型,如果设为None,则未添加激活函数。默认:None
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
......
......@@ -71,9 +71,9 @@ conv3d_transpose
- **padding** (int|tuple) - 填充大小。如果 ``padding`` 是一个元组,它必须包含两个整数(padding_H、padding_W)。否则,padding_H = padding_W = padding。默认:padding = 0。
- **stride** (int|tuple) - 步长大小。如果 ``stride`` 是一个元组,那么元组的形式为(stride_H、stride_W)。否则,stride_H = stride_W = stride。默认:stride = 1。
- **dilation** (int|元组) - 膨胀大小。如果 ``dilation`` 是一个元组,那么元组的形式为(dilation_H, dilation_W)。否则,dilation_H = dilation_W = dilation_W。默认:dilation= 1。
- **groups** (int) - Conv2d转置层的groups个数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,前半部分滤波器只连接到输入通道的前半部分,而后半部分滤波器只连接到输入通道的后半部分。默认值:group = 1。
- **param_attr** (ParamAttr|None) - conv2d_transfer中可学习参数/权重的属性。如果param_attr值为None或ParamAttr的一个属性,conv2d_transfer使用ParamAttrs作为param_attr的值。如果没有设置的param_attr初始化器,那么使用Xavier初始化。默认值:None。
- **bias_attr** (ParamAttr|bool|None) - conv2d_tran_bias中的bias属性。如果设置为False,则不会向输出单元添加偏置。如果param_attr值为None或ParamAttr的一个属性,将conv2d_transfer使用ParamAttrs作为,bias_attr。如果没有设置bias_attr的初始化器,bias将初始化为零。默认值:None。
- **groups** (int) - Conv3D转置层的groups个数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,前半部分滤波器只连接到输入通道的前半部分,而后半部分滤波器只连接到输入通道的后半部分。默认值:group = 1。
- **param_attr** (ParamAttr|None) - conv3d_transpose中可学习参数/权重的属性。如果param_attr值为None或ParamAttr的一个属性,conv3d_transpose使用ParamAttrs作为param_attr的值。如果没有设置的param_attr初始化器,那么使用Xavier初始化。默认值:None。
- **bias_attr** (ParamAttr|bool|None) - conv3d_transpose中的bias属性。如果设置为False,则不会向输出单元添加偏置。如果param_attr值为None或ParamAttr的一个属性,将conv3d_transpose使用ParamAttrs作为bias_attr。如果没有设置bias_attr的初始化器,bias将初始化为零。默认值:None。
- **use_cudnn** (bool) - 是否使用cudnn内核,只有已安装cudnn库时才有效。默认值:True。
- **act** (str) - 激活函数类型,如果设置为None,则不使用激活函数。默认值:None。
- **name** (str|None) - 该layer的名称(可选)。如果设置为None, 将自动命名该layer。默认值:True。
......
......@@ -7,7 +7,7 @@ slice
slice算子。
沿多个轴生成输入张量的切片。与numpy类似: https://docs.scipy.org/doc/numpy/reference/arrays.indexing.html Slice使用 ``axes`` 、 ``starts`` 和 ``ends`` 属性来指定轴列表中每个轴的起点和终点维度,它使用此信息来对输入数据张量切片。如果向 ``starts`` 或 ``ends`` 传递负值,则表示该维度结束之前的元素数目。如果传递给 ``starts`` 或 ``end`` 的值大于n(此维度中的元素数目),则表示n。当切片一个未知数量的唯独时,建议传入INT_MAX. ``axes`` 的大小必须和 ``starts`` 和 ``ends`` 的相等。以下示例将解释切片如何工作:
沿多个轴生成输入张量的切片。与numpy类似: https://docs.scipy.org/doc/numpy/reference/arrays.indexing.html Slice使用 ``axes`` 、 ``starts`` 和 ``ends`` 属性来指定轴列表中每个轴的起点和终点维度,它使用此信息来对输入数据张量切片。如果向 ``starts`` 或 ``ends`` 传递负值,则表示该维度结束之前的元素数目。如果传递给 ``starts`` 或 ``end`` 的值大于n(此维度中的元素数目),则表示n。当切片一个未知数量的维度时,建议传入INT_MAX. ``axes`` 的大小必须和 ``starts`` 和 ``ends`` 的相等。以下示例将解释切片如何工作:
::
......
......@@ -247,7 +247,7 @@ NCCL2模式必要参数说明
.. code-block:: bash
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch train.py --gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch --gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
NCCL2分布式训练注意事项
......
......@@ -226,7 +226,7 @@ Attention during usage:
.. code-block:: bash
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch train.py --gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch --gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
Important Notes on NCCL2 Distributed Training
++++++++++++++++++++++++++++++++++++++++++++++
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册