Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
1bed5c0c
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
1bed5c0c
编写于
7月 29, 2019
作者:
D
Dong Daxiang
提交者:
GitHub
7月 29, 2019
浏览文件
操作
浏览文件
下载
差异文件
Merge branch 'develop' into develop
上级
68e1e906
be5bdfff
变更
7
隐藏空白更改
内联
并排
Showing
7 changed file
with
129 addition
and
127 deletion
+129
-127
doc/fluid/api_cn/index_cn.rst
doc/fluid/api_cn/index_cn.rst
+4
-2
doc/fluid/api_cn/layers_cn.rst
doc/fluid/api_cn/layers_cn.rst
+116
-116
doc/fluid/api_cn/layers_cn/conv3d_cn.rst
doc/fluid/api_cn/layers_cn/conv3d_cn.rst
+3
-3
doc/fluid/api_cn/layers_cn/conv3d_transpose_cn.rst
doc/fluid/api_cn/layers_cn/conv3d_transpose_cn.rst
+3
-3
doc/fluid/api_cn/layers_cn/slice_cn.rst
doc/fluid/api_cn/layers_cn/slice_cn.rst
+1
-1
doc/fluid/user_guides/howto/training/cluster_howto.rst
doc/fluid/user_guides/howto/training/cluster_howto.rst
+1
-1
doc/fluid/user_guides/howto/training/cluster_howto_en.rst
doc/fluid/user_guides/howto/training/cluster_howto_en.rst
+1
-1
未找到文件。
doc/fluid/api_cn/index_cn.rst
浏览文件 @
1bed5c0c
...
@@ -11,6 +11,8 @@ API
...
@@ -11,6 +11,8 @@ API
average_cn.rst
average_cn.rst
backward_cn.rst
backward_cn.rst
clip_cn.rst
clip_cn.rst
data/data_reader_cn.rst
data/dataset_cn.rst
data_feeder_cn.rst
data_feeder_cn.rst
dataset_cn.rst
dataset_cn.rst
dygraph_cn.rst
dygraph_cn.rst
...
@@ -24,6 +26,6 @@ API
...
@@ -24,6 +26,6 @@ API
profiler_cn.rst
profiler_cn.rst
regularizer_cn.rst
regularizer_cn.rst
transpiler_cn.rst
transpiler_cn.rst
data/dataset
_cn.rst
unique_name
_cn.rst
data/data_reader_cn.rst
doc/fluid/api_cn/layers_cn.rst
浏览文件 @
1bed5c0c
...
@@ -8,106 +8,78 @@ fluid.layers
...
@@ -8,106 +8,78 @@ fluid.layers
.. toctree::
.. toctree::
:maxdepth: 1
:maxdepth: 1
layers_cn/array_length_cn.rst
layers_cn/abs_cn.rst
layers_cn/array_read_cn.rst
layers_cn/array_write_cn.rst
layers_cn/create_array_cn.rst
layers_cn/DynamicRNN_cn.rst
layers_cn/equal_cn.rst
layers_cn/greater_equal_cn.rst
layers_cn/greater_than_cn.rst
layers_cn/IfElse_cn.rst
layers_cn/increment_cn.rst
layers_cn/is_empty_cn.rst
layers_cn/less_equal_cn.rst
layers_cn/less_than_cn.rst
layers_cn/not_equal_cn.rst
layers_cn/Print_cn.rst
layers_cn/reorder_lod_tensor_by_rank_cn.rst
layers_cn/StaticRNN_cn.rst
layers_cn/Switch_cn.rst
layers_cn/While_cn.rst
layers_cn/anchor_generator_cn.rst
layers_cn/bipartite_match_cn.rst
layers_cn/box_clip_cn.rst
layers_cn/box_coder_cn.rst
layers_cn/box_decoder_and_assign_cn.rst
layers_cn/collect_fpn_proposals_cn.rst
layers_cn/density_prior_box_cn.rst
layers_cn/detection_map_cn.rst
layers_cn/detection_output_cn.rst
layers_cn/distribute_fpn_proposals_cn.rst
layers_cn/generate_mask_labels_cn.rst
layers_cn/generate_proposal_labels_cn.rst
layers_cn/generate_proposals_cn.rst
layers_cn/iou_similarity_cn.rst
layers_cn/multi_box_head_cn.rst
layers_cn/multiclass_nms_cn.rst
layers_cn/polygon_box_transform_cn.rst
layers_cn/prior_box_cn.rst
layers_cn/retinanet_detection_output_cn.rst
layers_cn/retinanet_target_assign_cn.rst
layers_cn/roi_perspective_transform_cn.rst
layers_cn/rpn_target_assign_cn.rst
layers_cn/sigmoid_focal_loss_cn.rst
layers_cn/ssd_loss_cn.rst
layers_cn/target_assign_cn.rst
layers_cn/yolo_box_cn.rst
layers_cn/yolov3_loss_cn.rst
layers_cn/batch_cn.rst
layers_cn/create_py_reader_by_data_cn.rst
layers_cn/data_cn.rst
layers_cn/double_buffer_cn.rst
layers_cn/load_cn.rst
layers_cn/open_files_cn.rst
layers_cn/Preprocessor_cn.rst
layers_cn/py_reader_cn.rst
layers_cn/random_data_generator_cn.rst
layers_cn/read_file_cn.rst
layers_cn/shuffle_cn.rst
layers_cn/cosine_decay_cn.rst
layers_cn/exponential_decay_cn.rst
layers_cn/inverse_time_decay_cn.rst
layers_cn/linear_lr_warmup_cn.rst
layers_cn/natural_exp_decay_cn.rst
layers_cn/noam_decay_cn.rst
layers_cn/piecewise_decay_cn.rst
layers_cn/polynomial_decay_cn.rst
layers_cn/accuracy_cn.rst
layers_cn/accuracy_cn.rst
layers_cn/a
uc
_cn.rst
layers_cn/a
cos
_cn.rst
layers_cn/adaptive_pool2d_cn.rst
layers_cn/adaptive_pool2d_cn.rst
layers_cn/adaptive_pool3d_cn.rst
layers_cn/adaptive_pool3d_cn.rst
layers_cn/add_position_encoding_cn.rst
layers_cn/add_position_encoding_cn.rst
layers_cn/affine_channel_cn.rst
layers_cn/affine_channel_cn.rst
layers_cn/affine_grid_cn.rst
layers_cn/affine_grid_cn.rst
layers_cn/anchor_generator_cn.rst
layers_cn/argmax_cn.rst
layers_cn/argmin_cn.rst
layers_cn/argsort_cn.rst
layers_cn/array_length_cn.rst
layers_cn/array_read_cn.rst
layers_cn/array_write_cn.rst
layers_cn/asin_cn.rst
layers_cn/assign_cn.rst
layers_cn/atan_cn.rst
layers_cn/auc_cn.rst
layers_cn/autoincreased_step_counter_cn.rst
layers_cn/autoincreased_step_counter_cn.rst
layers_cn/batch_cn.rst
layers_cn/batch_norm_cn.rst
layers_cn/batch_norm_cn.rst
layers_cn/beam_search_cn.rst
layers_cn/beam_search_cn.rst
layers_cn/beam_search_decode_cn.rst
layers_cn/beam_search_decode_cn.rst
layers_cn/bilinear_tensor_product_cn.rst
layers_cn/bilinear_tensor_product_cn.rst
layers_cn/bipartite_match_cn.rst
layers_cn/box_clip_cn.rst
layers_cn/box_coder_cn.rst
layers_cn/box_decoder_and_assign_cn.rst
layers_cn/bpr_loss_cn.rst
layers_cn/bpr_loss_cn.rst
layers_cn/brelu_cn.rst
layers_cn/brelu_cn.rst
layers_cn/cast_cn.rst
layers_cn/ceil_cn.rst
layers_cn/chunk_eval_cn.rst
layers_cn/chunk_eval_cn.rst
layers_cn/clip_cn.rst
layers_cn/clip_by_norm_cn.rst
layers_cn/clip_by_norm_cn.rst
layers_cn/clip_cn.rst
layers_cn/collect_fpn_proposals_cn.rst
layers_cn/concat_cn.rst
layers_cn/continuous_value_model_cn.rst
layers_cn/continuous_value_model_cn.rst
layers_cn/conv2d_cn.rst
layers_cn/conv2d_cn.rst
layers_cn/conv2d_transpose_cn.rst
layers_cn/conv2d_transpose_cn.rst
layers_cn/conv3d_cn.rst
layers_cn/conv3d_cn.rst
layers_cn/conv3d_transpose_cn.rst
layers_cn/conv3d_transpose_cn.rst
layers_cn/cos_cn.rst
layers_cn/cos_sim_cn.rst
layers_cn/cos_sim_cn.rst
layers_cn/cosine_decay_cn.rst
layers_cn/create_array_cn.rst
layers_cn/create_global_var_cn.rst
layers_cn/create_parameter_cn.rst
layers_cn/create_py_reader_by_data_cn.rst
layers_cn/create_tensor_cn.rst
layers_cn/crf_decoding_cn.rst
layers_cn/crf_decoding_cn.rst
layers_cn/crop_cn.rst
layers_cn/crop_cn.rst
layers_cn/cross_entropy_cn.rst
layers_cn/cross_entropy_cn.rst
layers_cn/ctc_greedy_decoder_cn.rst
layers_cn/ctc_greedy_decoder_cn.rst
layers_cn/cumsum_cn.rst
layers_cn/data_cn.rst
layers_cn/data_norm_cn.rst
layers_cn/data_norm_cn.rst
layers_cn/deformable_conv_cn.rst
layers_cn/deformable_conv_cn.rst
layers_cn/deformable_roi_pooling_cn.rst
layers_cn/deformable_roi_pooling_cn.rst
layers_cn/density_prior_box_cn.rst
layers_cn/detection_map_cn.rst
layers_cn/detection_output_cn.rst
layers_cn/diag_cn.rst
layers_cn/dice_loss_cn.rst
layers_cn/dice_loss_cn.rst
layers_cn/distribute_fpn_proposals_cn.rst
layers_cn/double_buffer_cn.rst
layers_cn/dropout_cn.rst
layers_cn/dropout_cn.rst
layers_cn/dynamic_gru_cn.rst
layers_cn/dynamic_gru_cn.rst
layers_cn/dynamic_lstm_cn.rst
layers_cn/dynamic_lstm_cn.rst
layers_cn/dynamic_lstmp_cn.rst
layers_cn/dynamic_lstmp_cn.rst
layers_cn/DynamicRNN_cn.rst
layers_cn/edit_distance_cn.rst
layers_cn/edit_distance_cn.rst
layers_cn/elementwise_add_cn.rst
layers_cn/elementwise_add_cn.rst
layers_cn/elementwise_div_cn.rst
layers_cn/elementwise_div_cn.rst
...
@@ -120,30 +92,55 @@ fluid.layers
...
@@ -120,30 +92,55 @@ fluid.layers
layers_cn/elementwise_sub_cn.rst
layers_cn/elementwise_sub_cn.rst
layers_cn/elu_cn.rst
layers_cn/elu_cn.rst
layers_cn/embedding_cn.rst
layers_cn/embedding_cn.rst
layers_cn/equal_cn.rst
layers_cn/exp_cn.rst
layers_cn/expand_cn.rst
layers_cn/expand_cn.rst
layers_cn/exponential_decay_cn.rst
layers_cn/fc_cn.rst
layers_cn/fc_cn.rst
layers_cn/fill_constant_batch_size_like_cn.rst
layers_cn/fill_constant_cn.rst
layers_cn/flatten_cn.rst
layers_cn/flatten_cn.rst
layers_cn/floor_cn.rst
layers_cn/fsp_matrix_cn.rst
layers_cn/fsp_matrix_cn.rst
layers_cn/gather_cn.rst
layers_cn/gather_cn.rst
layers_cn/gaussian_random_cn.rst
layers_cn/gaussian_random_batch_size_like_cn.rst
layers_cn/gaussian_random_batch_size_like_cn.rst
layers_cn/gaussian_random_cn.rst
layers_cn/generate_mask_labels_cn.rst
layers_cn/generate_proposal_labels_cn.rst
layers_cn/generate_proposals_cn.rst
layers_cn/get_tensor_from_selected_rows_cn.rst
layers_cn/get_tensor_from_selected_rows_cn.rst
layers_cn/greater_equal_cn.rst
layers_cn/greater_than_cn.rst
layers_cn/grid_sampler_cn.rst
layers_cn/grid_sampler_cn.rst
layers_cn/group_norm_cn.rst
layers_cn/group_norm_cn.rst
layers_cn/gru_unit_cn.rst
layers_cn/gru_unit_cn.rst
layers_cn/hard_shrink_cn.rst
layers_cn/hard_sigmoid_cn.rst
layers_cn/hard_sigmoid_cn.rst
layers_cn/has_inf_cn.rst
layers_cn/has_nan_cn.rst
layers_cn/hash_cn.rst
layers_cn/hash_cn.rst
layers_cn/hsigmoid_cn.rst
layers_cn/hsigmoid_cn.rst
layers_cn/huber_loss_cn.rst
layers_cn/huber_loss_cn.rst
layers_cn/IfElse_cn.rst
layers_cn/im2sequence_cn.rst
layers_cn/im2sequence_cn.rst
layers_cn/image_resize_cn.rst
layers_cn/image_resize_cn.rst
layers_cn/image_resize_short_cn.rst
layers_cn/image_resize_short_cn.rst
layers_cn/increment_cn.rst
layers_cn/inverse_time_decay_cn.rst
layers_cn/iou_similarity_cn.rst
layers_cn/is_empty_cn.rst
layers_cn/isfinite_cn.rst
layers_cn/kldiv_loss_cn.rst
layers_cn/kldiv_loss_cn.rst
layers_cn/l2_normalize_cn.rst
layers_cn/l2_normalize_cn.rst
layers_cn/label_smooth_cn.rst
layers_cn/label_smooth_cn.rst
layers_cn/layer_norm_cn.rst
layers_cn/layer_norm_cn.rst
layers_cn/leaky_relu_cn.rst
layers_cn/leaky_relu_cn.rst
layers_cn/less_equal_cn.rst
layers_cn/less_than_cn.rst
layers_cn/linear_chain_crf_cn.rst
layers_cn/linear_chain_crf_cn.rst
layers_cn/linear_lr_warmup_cn.rst
layers_cn/linspace_cn.rst
layers_cn/load_cn.rst
layers_cn/lod_reset_cn.rst
layers_cn/lod_reset_cn.rst
layers_cn/log_cn.rst
layers_cn/log_cn.rst
layers_cn/log_loss_cn.rst
layers_cn/log_loss_cn.rst
...
@@ -151,6 +148,7 @@ fluid.layers
...
@@ -151,6 +148,7 @@ fluid.layers
layers_cn/logical_not_cn.rst
layers_cn/logical_not_cn.rst
layers_cn/logical_or_cn.rst
layers_cn/logical_or_cn.rst
layers_cn/logical_xor_cn.rst
layers_cn/logical_xor_cn.rst
layers_cn/logsigmoid_cn.rst
layers_cn/lrn_cn.rst
layers_cn/lrn_cn.rst
layers_cn/lstm_cn.rst
layers_cn/lstm_cn.rst
layers_cn/lstm_unit_cn.rst
layers_cn/lstm_unit_cn.rst
...
@@ -161,23 +159,41 @@ fluid.layers
...
@@ -161,23 +159,41 @@ fluid.layers
layers_cn/mean_iou_cn.rst
layers_cn/mean_iou_cn.rst
layers_cn/merge_selected_rows_cn.rst
layers_cn/merge_selected_rows_cn.rst
layers_cn/mul_cn.rst
layers_cn/mul_cn.rst
layers_cn/multi_box_head_cn.rst
layers_cn/multiclass_nms_cn.rst
layers_cn/multiplex_cn.rst
layers_cn/multiplex_cn.rst
layers_cn/natural_exp_decay_cn.rst
layers_cn/nce_cn.rst
layers_cn/nce_cn.rst
layers_cn/noam_decay_cn.rst
layers_cn/not_equal_cn.rst
layers_cn/npair_loss_cn.rst
layers_cn/npair_loss_cn.rst
layers_cn/one_hot_cn.rst
layers_cn/one_hot_cn.rst
layers_cn/ones_cn.rst
layers_cn/open_files_cn.rst
layers_cn/pad_cn.rst
layers_cn/pad_cn.rst
layers_cn/pad2d_cn.rst
layers_cn/pad_constant_like_cn.rst
layers_cn/pad_constant_like_cn.rst
layers_cn/pad2d_cn.rst
layers_cn/piecewise_decay_cn.rst
layers_cn/pixel_shuffle_cn.rst
layers_cn/pixel_shuffle_cn.rst
layers_cn/polygon_box_transform_cn.rst
layers_cn/polynomial_decay_cn.rst
layers_cn/pool2d_cn.rst
layers_cn/pool2d_cn.rst
layers_cn/pool3d_cn.rst
layers_cn/pool3d_cn.rst
layers_cn/pow_cn.rst
layers_cn/pow_cn.rst
layers_cn/prelu_cn.rst
layers_cn/prelu_cn.rst
layers_cn/Preprocessor_cn.rst
layers_cn/Print_cn.rst
layers_cn/prior_box_cn.rst
layers_cn/psroi_pool_cn.rst
layers_cn/psroi_pool_cn.rst
layers_cn/py_func_cn.rst
layers_cn/py_func_cn.rst
layers_cn/py_reader_cn.rst
layers_cn/random_crop_cn.rst
layers_cn/random_crop_cn.rst
layers_cn/random_data_generator_cn.rst
layers_cn/range_cn.rst
layers_cn/rank_cn.rst
layers_cn/rank_cn.rst
layers_cn/rank_loss_cn.rst
layers_cn/rank_loss_cn.rst
layers_cn/read_file_cn.rst
layers_cn/reciprocal_cn.rst
layers_cn/reduce_all_cn.rst
layers_cn/reduce_all_cn.rst
layers_cn/reduce_any_cn.rst
layers_cn/reduce_any_cn.rst
layers_cn/reduce_max_cn.rst
layers_cn/reduce_max_cn.rst
...
@@ -187,12 +203,20 @@ fluid.layers
...
@@ -187,12 +203,20 @@ fluid.layers
layers_cn/reduce_sum_cn.rst
layers_cn/reduce_sum_cn.rst
layers_cn/relu_cn.rst
layers_cn/relu_cn.rst
layers_cn/relu6_cn.rst
layers_cn/relu6_cn.rst
layers_cn/reorder_lod_tensor_by_rank_cn.rst
layers_cn/reshape_cn.rst
layers_cn/reshape_cn.rst
layers_cn/resize_bilinear_cn.rst
layers_cn/resize_bilinear_cn.rst
layers_cn/resize_nearest_cn.rst
layers_cn/resize_nearest_cn.rst
layers_cn/retinanet_detection_output_cn.rst
layers_cn/retinanet_target_assign_cn.rst
layers_cn/reverse_cn.rst
layers_cn/roi_align_cn.rst
layers_cn/roi_align_cn.rst
layers_cn/roi_perspective_transform_cn.rst
layers_cn/roi_pool_cn.rst
layers_cn/roi_pool_cn.rst
layers_cn/round_cn.rst
layers_cn/row_conv_cn.rst
layers_cn/row_conv_cn.rst
layers_cn/rpn_target_assign_cn.rst
layers_cn/rsqrt_cn.rst
layers_cn/sampled_softmax_with_cross_entropy_cn.rst
layers_cn/sampled_softmax_with_cross_entropy_cn.rst
layers_cn/sampling_id_cn.rst
layers_cn/sampling_id_cn.rst
layers_cn/scale_cn.rst
layers_cn/scale_cn.rst
...
@@ -201,8 +225,8 @@ fluid.layers
...
@@ -201,8 +225,8 @@ fluid.layers
layers_cn/sequence_concat_cn.rst
layers_cn/sequence_concat_cn.rst
layers_cn/sequence_conv_cn.rst
layers_cn/sequence_conv_cn.rst
layers_cn/sequence_enumerate_cn.rst
layers_cn/sequence_enumerate_cn.rst
layers_cn/sequence_expand_cn.rst
layers_cn/sequence_expand_as_cn.rst
layers_cn/sequence_expand_as_cn.rst
layers_cn/sequence_expand_cn.rst
layers_cn/sequence_first_step_cn.rst
layers_cn/sequence_first_step_cn.rst
layers_cn/sequence_last_step_cn.rst
layers_cn/sequence_last_step_cn.rst
layers_cn/sequence_mask_cn.rst
layers_cn/sequence_mask_cn.rst
...
@@ -216,78 +240,54 @@ fluid.layers
...
@@ -216,78 +240,54 @@ fluid.layers
layers_cn/sequence_unpad_cn.rst
layers_cn/sequence_unpad_cn.rst
layers_cn/shape_cn.rst
layers_cn/shape_cn.rst
layers_cn/shuffle_channel_cn.rst
layers_cn/shuffle_channel_cn.rst
layers_cn/shuffle_cn.rst
layers_cn/sigmoid_cn.rst
layers_cn/sigmoid_cross_entropy_with_logits_cn.rst
layers_cn/sigmoid_cross_entropy_with_logits_cn.rst
layers_cn/sigmoid_focal_loss_cn.rst
layers_cn/sign_cn.rst
layers_cn/sign_cn.rst
layers_cn/similarity_focus_cn.rst
layers_cn/similarity_focus_cn.rst
layers_cn/sin_cn.rst
layers_cn/slice_cn.rst
layers_cn/slice_cn.rst
layers_cn/smooth_l1_cn.rst
layers_cn/smooth_l1_cn.rst
layers_cn/soft_relu_cn.rst
layers_cn/soft_relu_cn.rst
layers_cn/softmax_cn.rst
layers_cn/softmax_cn.rst
layers_cn/softmax_with_cross_entropy_cn.rst
layers_cn/softmax_with_cross_entropy_cn.rst
layers_cn/softplus_cn.rst
layers_cn/softshrink_cn.rst
layers_cn/softsign_cn.rst
layers_cn/space_to_depth_cn.rst
layers_cn/space_to_depth_cn.rst
layers_cn/spectral_norm_cn.rst
layers_cn/spectral_norm_cn.rst
layers_cn/split_cn.rst
layers_cn/split_cn.rst
layers_cn/sqrt_cn.rst
layers_cn/square_cn.rst
layers_cn/square_error_cost_cn.rst
layers_cn/square_error_cost_cn.rst
layers_cn/squeeze_cn.rst
layers_cn/squeeze_cn.rst
layers_cn/ssd_loss_cn.rst
layers_cn/stack_cn.rst
layers_cn/stack_cn.rst
layers_cn/stanh_cn.rst
layers_cn/stanh_cn.rst
layers_cn/StaticRNN_cn.rst
layers_cn/sum_cn.rst
layers_cn/sum_cn.rst
layers_cn/sums_cn.rst
layers_cn/swish_cn.rst
layers_cn/swish_cn.rst
layers_cn/Switch_cn.rst
layers_cn/tanh_cn.rst
layers_cn/tanh_shrink_cn.rst
layers_cn/target_assign_cn.rst
layers_cn/teacher_student_sigmoid_loss_cn.rst
layers_cn/teacher_student_sigmoid_loss_cn.rst
layers_cn/temporal_shift_cn.rst
layers_cn/temporal_shift_cn.rst
layers_cn/tensor_array_to_tensor_cn.rst
layers_cn/thresholded_relu_cn.rst
layers_cn/topk_cn.rst
layers_cn/topk_cn.rst
layers_cn/transpose_cn.rst
layers_cn/transpose_cn.rst
layers_cn/tree_conv_cn.rst
layers_cn/tree_conv_cn.rst
layers_cn/uniform_random_batch_size_like_cn.rst
layers_cn/uniform_random_batch_size_like_cn.rst
layers_cn/uniform_random_cn.rst
layers_cn/unsqueeze_cn.rst
layers_cn/unsqueeze_cn.rst
layers_cn/unstack_cn.rst
layers_cn/unstack_cn.rst
layers_cn/warpctc_cn.rst
layers_cn/warpctc_cn.rst
layers_cn/where_cn.rst
layers_cn/where_cn.rst
layers_cn/abs_cn.rst
layers_cn/While_cn.rst
layers_cn/acos_cn.rst
layers_cn/yolo_box_cn.rst
layers_cn/asin_cn.rst
layers_cn/yolov3_loss_cn.rst
layers_cn/atan_cn.rst
layers_cn/ceil_cn.rst
layers_cn/cos_cn.rst
layers_cn/cumsum_cn.rst
layers_cn/exp_cn.rst
layers_cn/floor_cn.rst
layers_cn/hard_shrink_cn.rst
layers_cn/logsigmoid_cn.rst
layers_cn/reciprocal_cn.rst
layers_cn/round_cn.rst
layers_cn/rsqrt_cn.rst
layers_cn/sigmoid_cn.rst
layers_cn/sin_cn.rst
layers_cn/softplus_cn.rst
layers_cn/softshrink_cn.rst
layers_cn/softsign_cn.rst
layers_cn/sqrt_cn.rst
layers_cn/square_cn.rst
layers_cn/tanh_cn.rst
layers_cn/tanh_shrink_cn.rst
layers_cn/thresholded_relu_cn.rst
layers_cn/uniform_random_cn.rst
layers_cn/argmax_cn.rst
layers_cn/argmin_cn.rst
layers_cn/argsort_cn.rst
layers_cn/assign_cn.rst
layers_cn/cast_cn.rst
layers_cn/concat_cn.rst
layers_cn/create_global_var_cn.rst
layers_cn/create_parameter_cn.rst
layers_cn/create_tensor_cn.rst
layers_cn/diag_cn.rst
layers_cn/fill_constant_cn.rst
layers_cn/fill_constant_batch_size_like_cn.rst
layers_cn/has_inf_cn.rst
layers_cn/has_nan_cn.rst
layers_cn/isfinite_cn.rst
layers_cn/linspace_cn.rst
layers_cn/ones_cn.rst
layers_cn/range_cn.rst
layers_cn/reverse_cn.rst
layers_cn/sums_cn.rst
layers_cn/tensor_array_to_tensor_cn.rst
layers_cn/zeros_cn.rst
layers_cn/zeros_cn.rst
layers_cn/zeros_like_cn.rst
layers_cn/zeros_like_cn.rst
doc/fluid/api_cn/layers_cn/conv3d_cn.rst
浏览文件 @
1bed5c0c
...
@@ -47,9 +47,9 @@ conv3d
...
@@ -47,9 +47,9 @@ conv3d
- **stride** (int|tuple) - 步长(stride)大小。如果步长(stride)为元组,则必须包含三个整型数, (stride_D, stride_H, stride_W)。否则,stride_D = stride_H = stride_W = stride。默认:stride = 1
- **stride** (int|tuple) - 步长(stride)大小。如果步长(stride)为元组,则必须包含三个整型数, (stride_D, stride_H, stride_W)。否则,stride_D = stride_H = stride_W = stride。默认:stride = 1
- **padding** (int|tuple) - 填充(padding)大小。如果填充(padding)为元组,则必须包含三个整型数,(padding_D, padding_H, padding_W)。否则, padding_D = padding_H = padding_W = padding。默认:padding = 0
- **padding** (int|tuple) - 填充(padding)大小。如果填充(padding)为元组,则必须包含三个整型数,(padding_D, padding_H, padding_W)。否则, padding_D = padding_H = padding_W = padding。默认:padding = 0
- **dilation** (int|tuple) - 膨胀(dilation)大小。如果膨胀(dialation)为元组,则必须包含两个整型数, (dilation_D, dilation_H, dilation_W)。否则,dilation_D = dilation_H = dilation_W = dilation。默认:dilation = 1
- **dilation** (int|tuple) - 膨胀(dilation)大小。如果膨胀(dialation)为元组,则必须包含两个整型数, (dilation_D, dilation_H, dilation_W)。否则,dilation_D = dilation_H = dilation_W = dilation。默认:dilation = 1
- **groups** (int) - 卷积
二维层(Conv2
D Layer)的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=2,滤波器的前一半仅和输入通道的前一半连接。滤波器的后一半仅和输入通道的后一半连接。默认:groups = 1
- **groups** (int) - 卷积
三维层(Conv3
D Layer)的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=2,滤波器的前一半仅和输入通道的前一半连接。滤波器的后一半仅和输入通道的后一半连接。默认:groups = 1
- **param_attr** (ParamAttr|None) -
conv2d的可学习参数/权重的参数属性。如果设为None或者ParamAttr的一个属性,conv2d
创建ParamAttr为param_attr。如果param_attr的初始化函数未设置,参数则初始化为 :math:`Normal(0.0,std)`,并且std为 :math:`\left ( \frac{2.0}{filter\_elem\_num} \right )^{0.5}` 。默认为None
- **param_attr** (ParamAttr|None) -
Conv3D的可学习参数/权重的参数属性。如果设为None或者ParamAttr的一个属性,Conv3D
创建ParamAttr为param_attr。如果param_attr的初始化函数未设置,参数则初始化为 :math:`Normal(0.0,std)`,并且std为 :math:`\left ( \frac{2.0}{filter\_elem\_num} \right )^{0.5}` 。默认为None
- **bias_attr** (ParamAttr|bool|None) -
conv2d bias的参数属性。如果设为False,则没有bias加到输出。如果设为None或者ParamAttr的一个属性,conv2d
创建ParamAttr为bias_attr。如果bias_attr的初始化函数未设置,bias初始化为0.默认为None
- **bias_attr** (ParamAttr|bool|None) -
Conv3D bias的参数属性。如果设为False,则没有bias加到输出。如果设为None或者ParamAttr的一个属性,Conv3D
创建ParamAttr为bias_attr。如果bias_attr的初始化函数未设置,bias初始化为0.默认为None
- **use_cudnn** (bool) - 是否用cudnn核,仅当下载cudnn库才有效。默认:True
- **use_cudnn** (bool) - 是否用cudnn核,仅当下载cudnn库才有效。默认:True
- **act** (str) - 激活函数类型,如果设为None,则未添加激活函数。默认:None
- **act** (str) - 激活函数类型,如果设为None,则未添加激活函数。默认:None
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
...
...
doc/fluid/api_cn/layers_cn/conv3d_transpose_cn.rst
浏览文件 @
1bed5c0c
...
@@ -71,9 +71,9 @@ conv3d_transpose
...
@@ -71,9 +71,9 @@ conv3d_transpose
- **padding** (int|tuple) - 填充大小。如果 ``padding`` 是一个元组,它必须包含两个整数(padding_H、padding_W)。否则,padding_H = padding_W = padding。默认:padding = 0。
- **padding** (int|tuple) - 填充大小。如果 ``padding`` 是一个元组,它必须包含两个整数(padding_H、padding_W)。否则,padding_H = padding_W = padding。默认:padding = 0。
- **stride** (int|tuple) - 步长大小。如果 ``stride`` 是一个元组,那么元组的形式为(stride_H、stride_W)。否则,stride_H = stride_W = stride。默认:stride = 1。
- **stride** (int|tuple) - 步长大小。如果 ``stride`` 是一个元组,那么元组的形式为(stride_H、stride_W)。否则,stride_H = stride_W = stride。默认:stride = 1。
- **dilation** (int|元组) - 膨胀大小。如果 ``dilation`` 是一个元组,那么元组的形式为(dilation_H, dilation_W)。否则,dilation_H = dilation_W = dilation_W。默认:dilation= 1。
- **dilation** (int|元组) - 膨胀大小。如果 ``dilation`` 是一个元组,那么元组的形式为(dilation_H, dilation_W)。否则,dilation_H = dilation_W = dilation_W。默认:dilation= 1。
- **groups** (int) - Conv
2d
转置层的groups个数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,前半部分滤波器只连接到输入通道的前半部分,而后半部分滤波器只连接到输入通道的后半部分。默认值:group = 1。
- **groups** (int) - Conv
3D
转置层的groups个数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,前半部分滤波器只连接到输入通道的前半部分,而后半部分滤波器只连接到输入通道的后半部分。默认值:group = 1。
- **param_attr** (ParamAttr|None) - conv
2d_transfer中可学习参数/权重的属性。如果param_attr值为None或ParamAttr的一个属性,conv2d_transfer
使用ParamAttrs作为param_attr的值。如果没有设置的param_attr初始化器,那么使用Xavier初始化。默认值:None。
- **param_attr** (ParamAttr|None) - conv
3d_transpose中可学习参数/权重的属性。如果param_attr值为None或ParamAttr的一个属性,conv3d_transpose
使用ParamAttrs作为param_attr的值。如果没有设置的param_attr初始化器,那么使用Xavier初始化。默认值:None。
- **bias_attr** (ParamAttr|bool|None) - conv
2d_tran_bias中的bias属性。如果设置为False,则不会向输出单元添加偏置。如果param_attr值为None或ParamAttr的一个属性,将conv2d_transfer使用ParamAttrs作为,
bias_attr。如果没有设置bias_attr的初始化器,bias将初始化为零。默认值:None。
- **bias_attr** (ParamAttr|bool|None) - conv
3d_transpose中的bias属性。如果设置为False,则不会向输出单元添加偏置。如果param_attr值为None或ParamAttr的一个属性,将conv3d_transpose使用ParamAttrs作为
bias_attr。如果没有设置bias_attr的初始化器,bias将初始化为零。默认值:None。
- **use_cudnn** (bool) - 是否使用cudnn内核,只有已安装cudnn库时才有效。默认值:True。
- **use_cudnn** (bool) - 是否使用cudnn内核,只有已安装cudnn库时才有效。默认值:True。
- **act** (str) - 激活函数类型,如果设置为None,则不使用激活函数。默认值:None。
- **act** (str) - 激活函数类型,如果设置为None,则不使用激活函数。默认值:None。
- **name** (str|None) - 该layer的名称(可选)。如果设置为None, 将自动命名该layer。默认值:True。
- **name** (str|None) - 该layer的名称(可选)。如果设置为None, 将自动命名该layer。默认值:True。
...
...
doc/fluid/api_cn/layers_cn/slice_cn.rst
浏览文件 @
1bed5c0c
...
@@ -7,7 +7,7 @@ slice
...
@@ -7,7 +7,7 @@ slice
slice算子。
slice算子。
沿多个轴生成输入张量的切片。与numpy类似: https://docs.scipy.org/doc/numpy/reference/arrays.indexing.html Slice使用 ``axes`` 、 ``starts`` 和 ``ends`` 属性来指定轴列表中每个轴的起点和终点维度,它使用此信息来对输入数据张量切片。如果向 ``starts`` 或 ``ends`` 传递负值,则表示该维度结束之前的元素数目。如果传递给 ``starts`` 或 ``end`` 的值大于n(此维度中的元素数目),则表示n。当切片一个未知数量的
唯独
时,建议传入INT_MAX. ``axes`` 的大小必须和 ``starts`` 和 ``ends`` 的相等。以下示例将解释切片如何工作:
沿多个轴生成输入张量的切片。与numpy类似: https://docs.scipy.org/doc/numpy/reference/arrays.indexing.html Slice使用 ``axes`` 、 ``starts`` 和 ``ends`` 属性来指定轴列表中每个轴的起点和终点维度,它使用此信息来对输入数据张量切片。如果向 ``starts`` 或 ``ends`` 传递负值,则表示该维度结束之前的元素数目。如果传递给 ``starts`` 或 ``end`` 的值大于n(此维度中的元素数目),则表示n。当切片一个未知数量的
维度
时,建议传入INT_MAX. ``axes`` 的大小必须和 ``starts`` 和 ``ends`` 的相等。以下示例将解释切片如何工作:
::
::
...
...
doc/fluid/user_guides/howto/training/cluster_howto.rst
浏览文件 @
1bed5c0c
...
@@ -247,7 +247,7 @@ NCCL2模式必要参数说明
...
@@ -247,7 +247,7 @@ NCCL2模式必要参数说明
.. code-block:: bash
.. code-block:: bash
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch
train.py
--gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch --gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
NCCL2分布式训练注意事项
NCCL2分布式训练注意事项
...
...
doc/fluid/user_guides/howto/training/cluster_howto_en.rst
浏览文件 @
1bed5c0c
...
@@ -226,7 +226,7 @@ Attention during usage:
...
@@ -226,7 +226,7 @@ Attention during usage:
.. code-block:: bash
.. code-block:: bash
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch
train.py
--gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
> PADDLE_NUM_TRAINERS=<TRAINER_COUNT> python -m paddle.distributed.launch --gpus <NUM_GPUS_ON_HOSTS> <ENTRYPOINT_SCRIPT> --arg1 --arg2 ...
Important Notes on NCCL2 Distributed Training
Important Notes on NCCL2 Distributed Training
++++++++++++++++++++++++++++++++++++++++++++++
++++++++++++++++++++++++++++++++++++++++++++++
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录