legacy_ops.yaml 75.8 KB
Newer Older
1
# The apis in this file are unstandardized that may caused by a variety of reasons,
C
Chen Weihang 已提交
2
# we are trying to fix these apis and will move standardized apis into ops.yaml.
3

4
- op : abs
Z
zyfncg 已提交
5 6 7 8 9 10 11 12
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : RealAndImagInferMeta
  kernel :
    func : abs
  backward : abs_grad

13
- op : accuracy
Z
zyfncg 已提交
14 15 16 17 18 19 20 21
  args : (Tensor x, Tensor indices, Tensor label)
  output : Tensor(accuracy), Tensor(correct), Tensor(total)
  infer_meta :
    func : AccuracyInferMeta
  kernel :
    func : accuracy
    dtype : x

22
- op : adadelta_
Z
zyfncg 已提交
23 24 25 26 27 28
  args : (Tensor param, Tensor grad, Tensor avg_squared_grad, Tensor avg_squared_update, float rho, float epsilon)
  output : Tensor(param_out), Tensor(moment_out), Tensor(inf_norm_out)
  infer_meta :
    func : AdadeltaInferMeta
  kernel :
    func : adadelta
29
  inplace : (param -> param_out), (avg_squared_grad -> moment_out), (avg_squared_update -> inf_norm_out)
Z
zyfncg 已提交
30

31
- op : adagrad_
C
caozhou 已提交
32 33 34 35 36 37 38 39 40 41
  args : (Tensor param, Tensor grad, Tensor moment, Tensor learning_rate, float epsilon)
  output : Tensor(param_out), Tensor(moment_out)
  infer_meta :
    func : AdagradInferMeta
  kernel :
    func : adagrad {dense, dense, dense, dense -> dense, dense}
           adagrad_dense_param_sparse_grad {dense, selected_rows, dense, dense -> dense, dense}
    data_type : param
  inplace : (param -> param_out), (moment -> moment_out)

42
- op : adam_
Z
zyfncg 已提交
43 44
  args : (Tensor param, Tensor grad, Tensor learning_rate, Tensor moment1, Tensor moment2, Tensor beta1_pow, Tensor beta2_pow, Tensor master_param, Tensor skip_update, Scalar beta1, Scalar beta2, Scalar epsilon, bool lazy_mode, int64_t min_row_size_to_use_multithread, bool multi_precision, bool use_global_beta_pow)
  output : Tensor(param_out), Tensor(moment1_out), Tensor(moment2_out), Tensor(beta1_pow_out), Tensor(beta2_pow_out), Tensor(master_param_outs)
45 46 47 48 49 50
  infer_meta :
    func : AdamInferMeta
  kernel :
    func : adam {dense, dense, dense, dense, dense, dense, dense, dense, dense -> dense, dense, dense, dense, dense, dense},
           adam_dense_param_sparse_grad {dense, selected_rows, dense, dense, dense, dense, dense, dense, dense -> dense, dense, dense, dense, dense, dense}
    data_type : param
Z
zyfncg 已提交
51
  optional : master_param, skip_update
52
  inplace : (param -> param_out), (moment1 -> moment1_out), (moment2 -> moment2_out), (beta1_pow -> beta1_pow_out), (beta2_pow -> beta2_pow_out), (master_param -> master_param_outs)
Z
zyfncg 已提交
53

54
- op : adamax_
Z
zyfncg 已提交
55 56 57 58 59 60
  args : (Tensor param, Tensor grad, Tensor learning_rate, Tensor moment, Tensor inf_norm, Tensor beta1_pow, float beta1, float beta2, float epsilon)
  output : Tensor(param_out), Tensor(avg_squared_grad_out), Tensor(avg_squared_update_out)
  infer_meta :
    func : AdamaxInferMeta
  kernel :
    func : adamax
61
  inplace : (param -> param_out), (moment -> avg_squared_grad_out), (inf_norm -> avg_squared_update_out)
Z
zyfncg 已提交
62

63
- op : adamw_
Z
zyfncg 已提交
64 65
  args : (Tensor param, Tensor grad, Tensor learning_rate, Tensor moment1, Tensor moment2, Tensor beta1_pow, Tensor beta2_pow, Tensor master_param, Tensor skip_update, Scalar beta1, Scalar beta2, Scalar epsilon, float lr_ratio, float coeff, bool with_decay, bool lazy_mode, int64_t min_row_size_to_use_multithread, bool multi_precision, bool use_global_beta_pow)
  output : Tensor(param_out), Tensor(moment1_out), Tensor(moment2_out), Tensor(beta1_pow_out), Tensor(beta2_pow_out), Tensor(master_param_outs)
C
Charles-hit 已提交
66 67 68 69 70
  infer_meta :
    func : AdamwInferMeta
  kernel :
    func : adamw
    data_type : param
Z
zyfncg 已提交
71
  optional : master_param, skip_update
C
Charles-hit 已提交
72
  inplace : (param -> param_out), (moment1 -> moment1_out), (moment2 -> moment2_out), (beta1_pow -> beta1_pow_out), (beta2_pow -> beta2_pow_out), (master_param -> master_param_outs)
Z
zyfncg 已提交
73

74
- op : add
Z
zyfncg 已提交
75
  args : (Tensor x, Tensor y)
76
  output : Tensor(out)
Z
zyfncg 已提交
77 78 79 80
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : add
81
  inplace : (x -> out)
Z
zyfncg 已提交
82 83
  backward : add_grad

84
- op : add_n
85
  args : (Tensor[] inputs)
Z
zyfncg 已提交
86
  output : Tensor
87
  invoke : add_n_impl(inputs)
Z
zyfncg 已提交
88 89
  backward : add_n_grad

90
- op : addmm
91
  args : (Tensor input, Tensor x, Tensor y, float beta, float alpha)
Z
zyfncg 已提交
92 93 94 95 96 97 98
  output : Tensor
  infer_meta :
    func : AddmmInferMeta
  kernel :
    func : addmm
  backward : addmm_grad

99
- op : affine_grid
100 101 102 103 104 105 106 107 108 109 110 111
  args : (Tensor input, IntArray outputShape, bool use_cudnn=true, bool align_corners=true)
  output : Tensor
  infer_meta :
    func : AffineGridInferMeta
    param : [input, outputShape, align_corners]
  kernel :
    func : affine_grid
    param : [input, outputShape, align_corners]
    data_type : input
    use_gpudnn: use_cudnn
  backward : affine_grid_grad

112
- op : all
113
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
Z
zyfncg 已提交
114 115 116 117 118 119
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : all

120
- op : allclose
Z
zyfncg 已提交
121 122 123 124 125 126 127 128
  args : (Tensor x, Tensor y, Scalar rtol, Scalar atol, bool equal_nan)
  output : Tensor(out)
  infer_meta :
    func : AllValueCompareInferMeta
    param: [x, y]
  kernel :
    func : allclose

129
- op : amax
130
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
131 132 133 134 135 136 137
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : amax
  backward : amax_grad

138
- op : amin
139
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
140 141 142 143 144 145 146
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : amin
  backward : amin_grad

147
- op : any
148
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
Z
zyfncg 已提交
149 150 151 152 153 154
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : any

155
- op : arange
Z
zyfncg 已提交
156
  args : (Tensor start, Tensor end, Tensor step, DataType dtype, Place place={})
157
  output : Tensor(out)
Z
zyfncg 已提交
158 159 160 161 162 163 164 165 166 167 168
  infer_meta :
    func : ArangeInferMeta
    param : [start, end, step]
  kernel :
    func : arange
    param : [start, end, step]
    data_type : dtype
    backend : place
  data_transform :
    support_trans_dtype : start, end, step

169
- op : argmax
170
  args : (Tensor x, Scalar axis, bool keepdims, bool flatten, int dtype)
171
  output : Tensor(out)
Z
zyfncg 已提交
172 173 174 175 176
  infer_meta :
    func : ArgMinMaxInferMeta
  kernel :
    func : arg_max

177
- op : argmin
178
  args : (Tensor x, Scalar axis, bool keepdims, bool flatten, int dtype)
179
  output : Tensor(out)
Z
zyfncg 已提交
180 181 182 183 184
  infer_meta :
    func : ArgMinMaxInferMeta
  kernel :
    func : arg_min

185
- op : as_complex
186 187 188 189 190 191 192 193
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : AsComplexInferMeta
  kernel :
    func : as_complex
  backward : as_complex_grad

194
- op : as_real
195 196 197 198 199 200
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : AsRealInferMeta
  kernel :
    func : as_real
201
  backward : as_real_grad
C
Chen Weihang 已提交
202

203
- op : assign
Z
zyfncg 已提交
204 205 206 207 208 209 210 211
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : assign
  backward : assign_grad

212
- op : assign_out_
Z
zyfncg 已提交
213 214 215 216 217 218 219 220 221 222 223
  args : (Tensor x, Tensor output)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : assign
    param : [x]
  inplace : (output -> out)
  backward : assign_out__grad

224
- op : assign_value_
225 226 227 228 229 230 231 232 233 234
  args : (Tensor output, int[] shape, DataType dtype, Scalar[] values, Place place = {})
  output : Tensor(out)
  inplace: (output -> out)
  infer_meta :
    func : AssignValueInferMeta
    param : [shape, dtype]
  kernel :
    func : assign_value
    param : [shape, dtype, values]
    data_type : dtype
235
    backend : place > output
236

237
- op : auc
238
  args : (Tensor x, Tensor label, Tensor stat_pos, Tensor stat_neg, Tensor ins_tag_weight, str curve, int num_thresholds, int slide_steps)
Z
zyfncg 已提交
239 240 241 242 243
  output : Tensor(auc), Tensor(stat_pos_out), Tensor(stat_neg_out)
  infer_meta :
    func : AucInferMeta
  kernel :
    func : auc
244
  optional : ins_tag_weight
Z
zyfncg 已提交
245

246
- op : average_accumulates_
247 248 249 250 251 252 253 254 255
  args : (Tensor param, Tensor in_sum_1, Tensor in_sum_2, Tensor in_sum_3, Tensor in_num_accumulates, Tensor in_old_num_accumulates, Tensor in_num_updates, float average_window, int64_t max_average_window, int64_t min_average_window)
  output : Tensor(out_sum_1), Tensor(out_sum_2), Tensor(out_sum_3), Tensor(out_num_accumulates), Tensor(out_old_num_accumulates), Tensor(out_num_updates)
  infer_meta:
    func : AverageAccumulatesInferMeta
  kernel :
    func : average_accumulates {dense, dense, dense, dense, dense ,dense, dense -> dense, dense, dense, dense, dense, dense}
    data_type : param
  inplace : (in_sum_1 -> out_sum_1), (in_sum_2 -> out_sum_2), (in_sum_3 -> out_sum_3), (in_num_accumulates -> out_num_accumulates), (in_old_num_accumulates -> out_old_num_accumulates), (in_num_updates -> out_num_updates)

256
- op : batch_norm
Z
zyfncg 已提交
257 258
  args : (Tensor x, Tensor scale, Tensor bias, Tensor mean, Tensor variance, float momentum, float epsilon, str data_layout, bool is_test, bool use_global_stats, bool trainable_statistics, bool fuse_with_relu)
  output : Tensor(out), Tensor(mean_out), Tensor(variance_out), Tensor(saved_mean), Tensor(saved_variance), Tensor(reserve_space)
259 260 261 262 263 264
  infer_meta:
    func : BatchNormInferMeta
  kernel :
    func : batch_norm
    data_type : x
  view : (mean -> mean_out), (variance -> variance_out)
Z
zyfncg 已提交
265 266
  backward : batch_norm_grad

267
- op : bce_loss
Z
zyfncg 已提交
268 269 270 271 272 273 274 275
  args : (Tensor input, Tensor label)
  output : Tensor
  infer_meta :
    func : BCELossInferMeta
  kernel :
    func : bce_loss
  backward : bce_loss_grad

276
- op : bicubic_interp
277 278 279 280 281 282 283 284 285 286
  args : (Tensor x, Tensor out_size, Tensor[] size_tensor, Tensor scale_tensor, str data_layout, int out_d, int out_h, int out_w, float[] scale, str interp_method, bool align_corners, int align_mode)
  output : Tensor(output)
  infer_meta :
    func : InterpolateInferMeta
  optional: out_size, size_tensor, scale_tensor
  kernel :
    func : bicubic_interp
    data_type : x
  backward : bicubic_interp_grad

287
- op : bilinear_interp
288 289 290 291 292 293 294 295 296 297
  args : (Tensor x, Tensor out_size, Tensor[] size_tensor, Tensor scale_tensor, str data_layout, int out_d, int out_h, int out_w, float[] scale, str interp_method, bool align_corners, int align_mode)
  output : Tensor(output)
  infer_meta :
    func : InterpolateInferMeta
  optional: out_size, size_tensor, scale_tensor
  kernel :
    func : bilinear_interp
    data_type : x
  backward : bilinear_interp_grad

298
- op : bilinear_tensor_product
299 300 301 302 303 304 305 306 307
  args : (Tensor x, Tensor y, Tensor weight, Tensor bias)
  output : Tensor
  infer_meta :
    func : BilinearTensorProductInferMeta
  kernel :
    func : bilinear_tensor_product
  optional : bias
  backward : bilinear_tensor_product_grad

308
- op : bitwise_and
Z
zyfncg 已提交
309
  args : (Tensor x, Tensor y)
310
  output : Tensor(out)
Z
zyfncg 已提交
311 312 313 314 315
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : bitwise_and

316
- op : bitwise_not
Z
zyfncg 已提交
317
  args : (Tensor x)
318
  output : Tensor(out)
Z
zyfncg 已提交
319 320 321 322 323
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : bitwise_not

324
- op : bitwise_or
Z
zyfncg 已提交
325
  args : (Tensor x, Tensor y)
326
  output : Tensor(out)
Z
zyfncg 已提交
327 328 329 330 331
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : bitwise_or

332
- op : bitwise_xor
Z
zyfncg 已提交
333
  args : (Tensor x, Tensor y)
334
  output : Tensor(out)
Z
zyfncg 已提交
335 336 337 338 339
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : bitwise_xor

340
- op : box_coder
L
lyq 已提交
341 342 343 344 345 346 347 348
  args : (Tensor prior_box, Tensor prior_box_var, Tensor target_box, str code_type, bool box_normalized, int axis, float[] variance)
  output : Tensor(output_box)
  infer_meta :
    func : BoxCoderInferMeta
  kernel :
    func : box_coder
  optional : prior_box_var

349
- op : cast
350
  args : (Tensor x, DataType dtype)
Z
zyfncg 已提交
351 352 353 354 355
  output : Tensor
  infer_meta :
    func : CastInferMeta
  kernel :
    func : cast
356
    param : [x, dtype]
Z
zyfncg 已提交
357 358 359
    data_type : x
  backward : cast_grad

360
- op : ceil
Z
zyfncg 已提交
361 362 363 364 365 366
  args : (Tensor x)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : ceil
367
  inplace : (x -> out)
Z
zyfncg 已提交
368 369
  backward : ceil_grad

370
- op : celu
Z
zyfncg 已提交
371 372 373 374 375 376 377 378 379
  args : (Tensor x, float alpha)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param: [x]
  kernel :
    func : celu
  backward : celu_grad

380 381 382 383 384 385 386 387 388 389 390 391
- op : check_finite_and_unscale_
  args : (Tensor[] x, Tensor scale, Tensor input_found_infinite)
  output : Tensor[](out){x.size()}, Tensor(output_found_infinite)
  infer_meta :
    func : CheckFiniteAndUnscaleInferMeta
    param : [x, scale]
  kernel :
    func : check_finite_and_unscale
    param : [x, scale]
    data_type : x
  inplace : (x -> out), (input_found_infinite -> output_found_infinite)

392
- op : class_center_sample
393 394 395
  args : (Tensor label, int num_classes, int num_samples, int ring_id, int rank, int nranks, bool fix_seed, int seed)
  output : Tensor(remapped_label), Tensor(sampled_local_class_center)
  infer_meta :
396
    func : ClassCenterSampleInferMeta
397
  kernel :
398
    func : class_center_sample
399

400
- op : clip
Z
zyfncg 已提交
401 402 403 404 405 406 407 408 409 410
  args : (Tensor x, Scalar(float) min, Scalar(float) max)
  output : Tensor(out)
  inplace : (x -> out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : clip
  backward : clip_grad

411
- op : clip_by_norm
L
lyq 已提交
412 413 414 415 416 417 418
  args : (Tensor x, float max_norm)
  output : Tensor(out)
  infer_meta :
    func : ClipByNormInferMeta
  kernel :
    func : clip_by_norm

419
- op : coalesce_tensor
420 421 422 423 424 425 426 427
  args : (Tensor[] input, DataType dtype, bool copy_data = false, bool set_constant = false, bool persist_output = false, float constant = 0.0, bool use_align = true, int align_size = -1, int size_of_dtype = -1, int64_t[] concated_shapes = {}, int64_t[] concated_ranks = {})
  output : Tensor[](output){input.size()}, Tensor(fused_output)
  infer_meta :
    func : CoalesceTensorInferMeta
  kernel :
    func : coalesce_tensor
    data_type : dtype

428
- op : complex
429
  args : (Tensor real, Tensor imag)
430 431 432 433 434 435 436
  output : Tensor
  infer_meta :
    func : ComplexInferMeta
  kernel :
    func : complex
  backward : complex_grad

437
- op : concat
Z
zyfncg 已提交
438 439 440 441 442 443 444 445 446
  args : (Tensor[] x, Scalar(int64_t) axis)
  output : Tensor
  infer_meta :
    func : ConcatInferMeta
    param : [x, axis]
  kernel :
    func : concat
  backward : concat_grad

447
- op : conj
Z
zyfncg 已提交
448 449 450 451 452 453 454 455
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : conj
  backward : conj_grad

456
- op : conv2d
457
  args : (Tensor input, Tensor filter, int[] strides, int[] paddings, str padding_algorithm, int groups, int[] dilations, str data_format, bool use_addto, int workspace_size_MB, bool exhaustive_search)
Z
zyfncg 已提交
458
  output : Tensor
Z
zyfncg 已提交
459 460 461 462 463
  infer_meta :
    func : ConvInferMeta
  kernel :
    func : conv2d
    use_gpudnn : true
Z
zyfncg 已提交
464 465
  backward : conv2d_grad

466
- op : conv2d_transpose
467
  args : (Tensor x, Tensor filter, int[] strides, int[] paddings, int[] output_padding, IntArray output_size, str padding_algorithm, int groups, int[] dilations, str data_format)
Z
zyfncg 已提交
468 469
  output : Tensor(out)
  infer_meta :
470
    func : Conv2dTransposeInferMeta
Z
zyfncg 已提交
471 472 473 474 475
  kernel :
    func : conv2d_transpose
    use_gpudnn : true
  backward : conv2d_transpose_grad

476
- op : conv3d
Z
zyfncg 已提交
477 478
  args : (Tensor input, Tensor filter, int[] strides, int[] paddings, str paddding_algorithm, int groups, int[] dilations, str data_format, bool use_addto, int workspace_size_MB, bool exhaustive_search)
  output : Tensor
Z
zyfncg 已提交
479 480 481 482 483
  infer_meta :
    func : ConvInferMeta
  kernel :
    func : conv3d
    use_gpudnn : true
Z
zyfncg 已提交
484 485
  backward : conv3d_grad

486
- op : conv3d_transpose
Z
zyfncg 已提交
487 488 489 490 491 492 493 494 495
  args : (Tensor x, Tensor filter, int[] strides, int[] paddings, int[] output_padding, int[] output_size, str padding_algorithm, int groups, int[] dilations, str data_format)
  output : Tensor(out)
  infer_meta :
    func : ConvTransposeInferMeta
  kernel :
    func : conv3d_transpose
    use_gpudnn : true
  backward : conv3d_transpose_grad

496
- op : copy_to
Z
zyfncg 已提交
497
  args : (Tensor x, Place place, bool blocking)
498
  output : Tensor(out)
Z
zyfncg 已提交
499 500
  invoke : copy_to_impl(x, place, blocking)

501
- op : crop
502 503 504
  args : (Tensor x, IntArray shape, IntArray offsets)
  output : Tensor(out)
  infer_meta :
505
    func : CropInferMeta
506
  kernel :
507
    func : crop
508
    data_type : x
509
  backward : crop_grad
510

Z
zyfncg 已提交
511
# Part of python API paddle.nn.functional.cross_entropy
512
- op : cross_entropy_with_softmax
Z
zyfncg 已提交
513 514 515 516 517 518 519 520 521
  args : (Tensor input, Tensor label, bool soft_label, bool use_softmax, bool numeric_stable_mode, int ignore_index, int axis)
  output : Tensor(softmax), Tensor(loss)
  infer_meta :
    func : CrossEntropyWithSoftmaxInferMeta
  kernel :
    func : cross_entropy_with_softmax
    data_type : input
  backward : cross_entropy_with_softmax_grad

522
- op : cumprod
Z
zyfncg 已提交
523 524 525 526 527 528 529 530 531
  args : (Tensor x,  int dim)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param: [x]
  kernel :
    func : cumprod
  backward : cumprod_grad

532
- op : cumsum
W
WangZhen 已提交
533
  args : (Tensor x, Scalar axis, bool flatten, bool exclusive, bool reverse)
Z
zyfncg 已提交
534 535
  output : Tensor(out)
  infer_meta :
W
WangZhen 已提交
536
    func : CumScalarAxisInferMeta
Z
zyfncg 已提交
537 538 539 540
  kernel :
    func : cumsum
  backward : cumsum_grad

541
- op : decode_jpeg
Y
YuanRisheng 已提交
542
  args : (Tensor x, str mode, Place place)
W
wuyefeilin 已提交
543 544 545
  output : Tensor(out)
  infer_meta :
    func : DecodeJpegInferMeta
Y
YuanRisheng 已提交
546
    param : [x, mode]
W
wuyefeilin 已提交
547 548
  kernel :
    func : decode_jpeg
Y
YuanRisheng 已提交
549 550
    param : [x, mode]
    backend : place
W
wuyefeilin 已提交
551

552
- op : deformable_conv
Z
zyfncg 已提交
553 554 555 556 557 558 559 560 561 562
  args : (Tensor x, Tensor offset, Tensor filter, Tensor mask, int[] strides, int[] paddings, int[] dilations, int deformable_groups, int groups, int im2col_step)
  output : Tensor(out)
  infer_meta :
    func : DeformableConvInferMeta
  kernel :
    func : deformable_conv
    data_type : x
  optional : mask
  backward : deformable_conv_grad

563
- op : depthwise_conv2d
Z
zyfncg 已提交
564 565 566 567 568 569 570 571 572 573 574
  args : (Tensor x, Tensor filter, int[] strides, int[] paddings, str padding_algorithm, int groups, int[] dilations, str data_format, bool use_addto, int workspace_size_MB, bool exhaustive_search, bool fuse_relu, bool use_gpudnn)
  output : Tensor(out)
  infer_meta :
    func : ConvInferMeta
    param : [x, filter, strides, paddings, padding_algorithm, groups, dilations, data_format, use_addto, workspace_size_MB, exhaustive_search]
  kernel :
    func : depthwise_conv2d
    param : [x, filter, strides, paddings, padding_algorithm, groups, dilations, data_format, use_addto, workspace_size_MB, exhaustive_search, fuse_relu]
    use_gpudnn : use_gpudnn
  backward : depthwise_conv2d_grad

575
- op : depthwise_conv2d_transpose
576
  args : (Tensor x, Tensor filter, int[] strides, int[] paddings, int[] output_padding, IntArray output_size, str padding_algorithm, int groups, int[] dilations, str data_format)
Z
zyfncg 已提交
577 578
  output : Tensor(out)
  infer_meta :
579
    func : Conv2dTransposeInferMeta
Z
zyfncg 已提交
580 581 582 583
  kernel :
    func : depthwise_conv2d_transpose
  backward : depthwise_conv2d_transpose_grad

584
- op : diag_embed
585
  args : (Tensor input, int offset, int dim1, int dim2)
586
  output : Tensor(out)
587 588 589 590 591
  infer_meta :
    func : DiagEmbedInferMeta
  kernel :
    func : diag_embed

592
- op : distribute_fpn_proposals
593 594 595 596 597 598 599 600 601
  args : (Tensor fpn_rois, Tensor rois_num, int min_level, int max_level, int refer_level, int refer_scale, bool pixel_offset)
  output : Tensor[](multi_fpn_rois){max_level - min_level + 1}, Tensor[](multi_level_rois_num){max_level - min_level + 1}, Tensor(restore_index)
  infer_meta :
    func : DistributeFpnProposalsInferMeta
  kernel :
    func : distribute_fpn_proposals
    data_type : fpn_rois
  optional : rois_num

602
- op : divide
Z
zyfncg 已提交
603 604 605 606 607 608 609 610
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : divide
  backward : divide_grad

611
- op : dropout
612
  args : (Tensor x, Tensor seed_tensor, Scalar p, bool is_test, str mode, int seed, bool fix_seed)
Z
zyfncg 已提交
613 614 615 616 617 618 619 620 621
  output : Tensor(out), Tensor(mask)
  infer_meta :
    func : DropoutInferMeta
  kernel :
    func : dropout
    data_type : x
  optional : seed_tensor
  backward : dropout_grad

622
- op : edit_distance
Z
zhiboniu 已提交
623 624 625 626 627 628 629 630 631
  args : (Tensor hyps, Tensor refs, Tensor hypslength, Tensor refslength, bool normalized = false)
  output : Tensor(sequencenum), Tensor(out)
  infer_meta :
    func : EditDistanceInferMeta
  kernel :
    func : edit_distance
    data_type: DataType::FLOAT32
  optional : hypslength, refslength

632
- op : eigh
633
  args : (Tensor x, str UPLO)
Z
zyfncg 已提交
634 635 636 637 638 639 640
  output : Tensor(out_w), Tensor(out_v)
  infer_meta :
    func : EighInferMeta
  kernel :
    func : eigh
  backward : eigh_grad

641
- op : eigvals
R
Ruibiao Chen 已提交
642
  args : (Tensor x)
643
  output : Tensor(out)
R
Ruibiao Chen 已提交
644 645 646 647 648
  infer_meta :
    func : EigvalsInferMeta
  kernel :
    func : eigvals

649
- op : eigvalsh
650 651 652 653 654 655 656 657
  args : (Tensor x, str uplo, bool is_test)
  output : Tensor(eigenvalues), Tensor(eigenvectors)
  infer_meta :
    func : EigvalshInferMeta
  kernel :
    func : eigvalsh
  backward : eigvalsh_grad

658
- op : einsum
Z
zyfncg 已提交
659 660 661
  args : (Tensor[] x, str equation)
  output : Tensor, Tensor[]{x.size()}, Tensor[]{x.size()}
  infer_meta :
662
    func : EinsumRawInferMeta
Z
zyfncg 已提交
663 664
    param : [x, equation]
  kernel :
665
    func : einsum_raw
Z
zyfncg 已提交
666 667
  backward : einsum_grad

668
- op : elementwise_pow
Z
zyfncg 已提交
669 670 671 672 673 674 675 676
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : elementwise_pow
  backward : elementwise_pow_grad

677
- op : elu
Z
zyfncg 已提交
678
  args : (Tensor x, float alpha)
679
  output : Tensor(out)
Z
zyfncg 已提交
680 681 682 683 684
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : elu
685
  inplace : (x -> out)
Z
zyfncg 已提交
686 687
  backward : elu_grad

688
- op : embedding
Z
zyfncg 已提交
689 690
  args : (Tensor x, Tensor weight, int64_t padding_idx=-1, bool sparse=false)
  output : Tensor
691 692 693 694 695 696 697 698
  infer_meta :
    func : EmbeddingInferMeta
    param : [x, weight, padding_idx]
  kernel :
    func : embedding {dense, dense -> dense}
           sparse_weight_embedding {dense, selected_rows -> dense}
    param : [x, weight, padding_idx]
    data_type : weight
Z
zyfncg 已提交
699 700
  backward : embedding_grad

701
- op : empty
Z
zyfncg 已提交
702
  args : (IntArray shape, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
703
  output: Tensor(out)
Z
zyfncg 已提交
704 705 706 707 708 709 710 711 712
  infer_meta :
    func : CreateInferMeta
    param : [shape, dtype]
  kernel :
    func : empty
    param : [shape, dtype]
    data_type : dtype
    backend : place

713
- op : empty_like
Z
zyfncg 已提交
714
  args : (Tensor x, DataType dtype = DataType::UNDEFINED, Place place = {})
715
  output: Tensor(out)
Z
zyfncg 已提交
716 717 718 719 720 721 722 723 724
  infer_meta :
    func : CreateLikeInferMeta
    param : [x, dtype]
  kernel :
    func : empty_like
    param : [x, dtype]
    data_type : dtype > x
    backend : place > x

725
- op : equal
Z
zyfncg 已提交
726
  args : (Tensor x, Tensor y, int axis = -1)
727
  output : Tensor(out)
Z
zyfncg 已提交
728 729 730 731 732
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : equal

733
- op : equal_all
Z
zyfncg 已提交
734
  args : (Tensor x, Tensor y)
735
  output : Tensor(out)
Z
zyfncg 已提交
736 737 738 739 740
  infer_meta :
    func : CompareAllInferMeta
  kernel :
    func : equal_all

741
- op : expand
Z
zyfncg 已提交
742 743 744 745 746 747 748 749
  args : (Tensor x, IntArray shape)
  output : Tensor
  infer_meta :
    func : ExpandInferMeta
  kernel :
    func : expand
  backward : expand_grad

750
- op : expand_as
Z
zyfncg 已提交
751 752 753 754 755 756 757 758 759
  args : (Tensor x, Tensor y, int[] target_shape)
  output : Tensor
  infer_meta :
    func : ExpandAsInferMeta
  kernel :
    func : expand_as
  optional : y
  backward : expand_as_grad

760
- op : expm1
Z
zyfncg 已提交
761 762 763 764 765 766 767 768 769
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : expm1
  backward : expm1_grad

770
- op : exponential_
771
  args : (Tensor x, float lam)
772 773 774 775 776 777 778 779 780
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : exponential
  inplace : (x -> out)
  backward : exponential__grad

781
- op : eye
782
  args : (Scalar num_rows, Scalar num_columns, DataType dtype=DataType::FLOAT32, Place place={})
Z
zyfncg 已提交
783 784 785 786 787 788 789 790 791 792
  output : Tensor(out)
  infer_meta :
    func : EyeInferMeta
    param : [num_rows, num_columns, dtype]
  kernel :
    func : eye
    param : [num_rows, num_columns, dtype]
    data_type : dtype
    backend : place

793
- op : fill
794 795 796 797 798 799 800 801 802 803
  args : (Tensor x, Scalar value)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : fill
  inplace : (x -> out)
  backward: fill_grad

804
- op : fill_diagonal
Z
zhiboniu 已提交
805 806 807 808 809 810 811 812 813
  args : (Tensor x, float value, int offset, bool wrap)
  output : Tensor(out)
  infer_meta :
    func : FillDiagonalInferMeta
  kernel :
    func : fill_diagonal
  inplace : (x -> out)
  backward : fill_diagonal_grad

814
- op : fill_diagonal_tensor
Z
zhiboniu 已提交
815 816 817 818 819 820 821 822 823
  args : (Tensor x, Tensor y, int64_t offset, int dim1, int dim2)
  output : Tensor(out)
  infer_meta :
    func : FillDiagonalTensorInferMeta
  kernel :
    func : fill_diagonal_tensor
  inplace : (x -> out)
  backward : fill_diagonal_tensor_grad

824
- op : flatten
Z
zyfncg 已提交
825 826 827 828 829 830 831 832 833 834 835 836
  args : (Tensor x, int start_axis, int stop_axis)
  output : Tensor(out), Tensor(xshape)
  infer_meta :
    func : FlattenWithXShapeInferMeta
  kernel :
    func : flatten_with_xshape
    backend : x
  inplace : (x -> out)
  view : (x -> out)
  intermediate : xshape
  backward : flatten_grad

837
- op : floor
Z
zyfncg 已提交
838 839 840 841 842 843
  args : (Tensor x)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : floor
844
  inplace : (x -> out)
Z
zyfncg 已提交
845 846
  backward : floor_grad

847
- op : floor_divide
Z
zyfncg 已提交
848 849 850 851 852 853 854
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : floor_divide

855
- op : fmax
Z
zyfncg 已提交
856 857 858 859 860 861 862 863 864
  args : (Tensor x, Tensor y,  int axis)
  output : Tensor(out)
  infer_meta :
    param: [x, y]
    func : ElementwiseInferMeta
  kernel :
    func : fmax
  backward : fmax_grad

865
- op : fmin
Z
zyfncg 已提交
866 867 868 869 870 871 872 873 874
  args : (Tensor x, Tensor y,  int axis)
  output : Tensor(out)
  infer_meta :
    param: [x, y]
    func : ElementwiseInferMeta
  kernel :
    func : fmin
  backward : fmin_grad

875
- op : frame
C
Charles-hit 已提交
876 877 878 879 880 881
  args : (Tensor x, int frame_length, int hop_length, int axis)
  output : Tensor(out)
  infer_meta :
    func : FrameInferMeta
  kernel :
    func : frame
882
  backward : frame_grad
C
Charles-hit 已提交
883

884
- op : frobenius_norm
Z
zyfncg 已提交
885 886 887 888 889 890 891 892
  args : (Tensor x, int64_t[] axis,  bool keep_dim,  bool reduce_all)
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMetaBase
  kernel :
    func : frobenius_norm
  backward : frobenius_norm_grad

893
- op : full
Z
zyfncg 已提交
894
  args : (IntArray shape, Scalar value, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
895
  output: Tensor(out)
Z
zyfncg 已提交
896 897 898 899 900 901 902 903 904
  infer_meta :
    func : CreateInferMeta
    param : [shape, dtype]
  kernel :
    func : full
    param : [shape, value, dtype]
    data_type : dtype
    backend : place

905
- op : full_
906 907 908 909 910 911 912 913 914 915 916 917
  args : (Tensor output, IntArray shape, Scalar value, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
  output : Tensor(out)
  inplace : (output -> out)
  infer_meta :
    func : CreateInferMeta
    param : [shape, dtype]
  kernel :
    func : full
    param : [shape, value, dtype]
    data_type : dtype
    backend : place

918
- op : full_batch_size_like
Z
zyfncg 已提交
919
  args : (Tensor input, int[] shape, DataType dtype, Scalar value, int input_dim_idx, int output_dim_idx, Place place=CPUPlace())
920
  output: Tensor(out)
Z
zyfncg 已提交
921 922 923 924 925 926 927 928 929
  infer_meta :
    func : FullBatchSizeLikeInferMeta
    param : [input, shape, value, dtype, input_dim_idx, output_dim_idx]
  kernel :
    func : full_batch_size_like
    param : [input, shape, value, dtype, input_dim_idx, output_dim_idx]
    data_type : dtype
    backend : place

930
- op : full_like
Z
zyfncg 已提交
931
  args : (Tensor x, Scalar value, DataType dtype = DataType::UNDEFINED, Place place = {})
932
  output: Tensor(out)
Z
zyfncg 已提交
933 934 935 936 937 938 939 940 941 942 943
  infer_meta :
    func : CreateLikeInferMeta
    param : [x, dtype]
  kernel :
    func : full_like
    param : [x, value, dtype]
    data_type : dtype > x
    backend : place > x
  data_transform :
    skip_transform : x

944
- op : gather
Z
zyfncg 已提交
945 946 947 948 949 950 951 952 953
  args : (Tensor x, Tensor index, Scalar(int) axis=0)
  output : Tensor(out)
  infer_meta :
    func : GatherInferMeta
  kernel :
    func : gather
    data_type: x
  backward : gather_grad

954
- op : gather_nd
Z
zyfncg 已提交
955 956 957 958 959 960 961 962 963
  args : (Tensor x, Tensor index)
  output : Tensor
  infer_meta :
    func : GatherNdInferMeta
  kernel :
    func : gather_nd
    data_type : x
  backward : gather_nd_grad

964
- op : gather_tree
Z
zyfncg 已提交
965
  args : (Tensor ids, Tensor parents)
966
  output : Tensor(out)
Z
zyfncg 已提交
967 968 969 970 971
  infer_meta :
    func : GatherTreeMeta
  kernel :
    func : gather_tree

972
- op : gaussian
Z
zyfncg 已提交
973
  args : (IntArray shape, float mean, float std, int seed, DataType dtype, Place place={})
974
  output: Tensor(out)
Z
zyfncg 已提交
975
  infer_meta :
976
    func : GaussianInferMeta
Z
zyfncg 已提交
977 978
    param : [shape, mean, std, seed, dtype]
  kernel :
979
    func : gaussian
Z
zyfncg 已提交
980 981 982 983
    param : [shape, mean, std, seed, dtype]
    data_type : dtype
    backend : place

984
- op : gelu
Z
zyfncg 已提交
985 986 987 988 989 990 991 992 993
  args : (Tensor x,  bool approximate)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param: [x]
  kernel :
    func : gelu
  backward : gelu_grad

994
- op : generate_proposals
Z
zhiboniu 已提交
995 996 997 998 999 1000 1001
  args : (Tensor scores, Tensor bbox_deltas, Tensor im_shape, Tensor anchors, Tensor variances, int pre_nms_top_n, int post_nms_top_n, float nms_thresh, float min_size, float eta, bool pixel_offset=true)
  output : Tensor(rpn_rois), Tensor(rpn_roi_probs), Tensor(rpn_rois_num)
  infer_meta :
    func : GenerateProposalsV2InferMeta
  kernel :
    func : generate_proposals_v2

1002
- op : greater_equal
Z
zyfncg 已提交
1003
  args : (Tensor x, Tensor y, int axis = -1)
1004
  output : Tensor(out)
Z
zyfncg 已提交
1005 1006 1007 1008 1009
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : greater_equal

1010
- op : greater_than
Z
zyfncg 已提交
1011
  args : (Tensor x, Tensor y, int axis = -1)
1012
  output : Tensor(out)
Z
zyfncg 已提交
1013 1014 1015 1016 1017
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : greater_than

1018
- op : grid_sample
W
Wang Bojun 已提交
1019 1020 1021 1022 1023 1024 1025 1026 1027 1028
  args : (Tensor x, Tensor grid, str mode, str padding_mode, bool align_corners)
  output : Tensor(out)
  infer_meta :
    func : GridSampleBaseInferMeta
    param : [x, grid]
  kernel:
    func : grid_sample
    data_type : x
  backward : grid_sample_grad

1029
- op : group_norm
Z
zyfncg 已提交
1030 1031 1032 1033 1034 1035 1036 1037 1038 1039
  args : (Tensor x, Tensor scale, Tensor bias, float epsilon, int groups, str data_layout)
  output : Tensor(y), Tensor(mean), Tensor(variance)
  infer_meta :
    func : GroupNormInferMeta
  kernel :
    func : group_norm
  optional : scale, bias
  intermediate : mean, variance
  backward : group_norm_grad

1040
- op : gumbel_softmax
Z
zyfncg 已提交
1041 1042 1043 1044 1045 1046 1047 1048
  args : (Tensor x, float temperature, bool hard, int axis)
  output : Tensor
  infer_meta :
    func : GumbelSoftmaxInferMeta
  kernel :
    func : gumbel_softmax
  backward : gumbel_softmax_grad

1049
- op : hardshrink
Z
zyfncg 已提交
1050 1051 1052 1053 1054 1055 1056
  args : (Tensor x, float threshold)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : hard_shrink
1057
  backward : hardshrink_grad
Z
zyfncg 已提交
1058

1059
- op : hardsigmoid
Z
zyfncg 已提交
1060 1061 1062 1063 1064 1065 1066
  args : (Tensor x, float slope, float offset)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : hard_sigmoid
1067
  backward : hardsigmoid_grad
Z
zyfncg 已提交
1068

1069
- op : hardswish
Z
zyfncg 已提交
1070 1071 1072 1073 1074 1075 1076
  args : (Tensor x, float threshold = 6.0, float scale = 6.0, float offset = 3.0)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : hard_swish
1077
  backward : hardswish_grad
Z
zyfncg 已提交
1078

1079 1080 1081 1082 1083 1084 1085 1086 1087 1088
- op : hardtanh
  args : (Tensor x, float t_min, float t_max)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : hard_tanh
  backward : hardtanh_grad

1089
- op : hierarchical_sigmoid
1090 1091 1092 1093 1094 1095 1096 1097 1098 1099
  args : (Tensor x, Tensor w, Tensor label, Tensor path, Tensor code, Tensor bias, int num_classes, bool remote_prefetch, int trainer_id, int64_t[] height_sections, str[] epmap, str[] table_names, bool is_sparse)
  output : Tensor(out), Tensor(pre_out), Tensor(w_out)
  infer_meta :
    func : HierarchicalSigmoidInferMeta
  optional: path, code, bias
  kernel :
    func : hierarchical_sigmoid
    data_type : x
  backward : hierarchical_sigmoid_grad

1100
- op : histogram
1101
  args : (Tensor input, int64_t bins, int min, int max)
1102
  output : Tensor(out)
Z
zyfncg 已提交
1103 1104 1105 1106 1107
  infer_meta :
    func : HistogramInferMeta
  kernel :
    func : histogram

1108
- op : huber_loss
Z
zyfncg 已提交
1109 1110 1111 1112 1113 1114 1115 1116
  args : (Tensor input, Tensor label, float delta)
  output : Tensor(out), Tensor(residual)
  infer_meta :
    func : HuberLossInferMeta
  kernel :
    func : huber_loss
  backward : huber_loss_grad

1117
- op : imag
Z
zyfncg 已提交
1118 1119 1120 1121 1122 1123 1124 1125
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : RealAndImagInferMeta
  kernel :
    func : imag
  backward : imag_grad

1126
- op : increment
Z
zyfncg 已提交
1127
  args : (Tensor x, float value)
1128
  output : Tensor(out)
Z
zyfncg 已提交
1129 1130 1131 1132
  infer_meta :
    func : IncrementInferMeta
  kernel :
    func : increment
H
hong 已提交
1133
  inplace : (x -> out)
Z
zyfncg 已提交
1134

1135
- op : index_add
L
Li Min 已提交
1136 1137 1138 1139 1140 1141 1142 1143 1144 1145
  args : (Tensor x, Tensor index,  Tensor add_value, int axis)
  output : Tensor(out)
  infer_meta :
    func : IndexAddInferMeta
  kernel :
    func : index_add
    data_type : x
  inplace : (x -> out)
  backward : index_add_grad

1146
- op : index_sample
Z
zyfncg 已提交
1147 1148 1149 1150 1151 1152 1153 1154 1155
  args : (Tensor x, Tensor index)
  output : Tensor
  infer_meta :
    func : IndexSampleInferMeta
  kernel :
    func : index_sample
    data_type : x
  backward : index_sample_grad

1156
- op : index_select
1157
  args : (Tensor x, Tensor index,  int axis)
Z
zyfncg 已提交
1158 1159 1160 1161 1162 1163 1164 1165
  output : Tensor(out)
  infer_meta :
    func : IndexSelectInferMeta
  kernel :
    func : index_select
    data_type : x
  backward : index_select_grad

1166
- op : instance_norm
Z
zyfncg 已提交
1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177
  args : (Tensor x, Tensor scale, Tensor bias, float epsilon)
  output : Tensor(y), Tensor(saved_mean), Tensor(saved_variance)
  infer_meta :
    func : InstanceNormInferMeta
  kernel :
    func : instance_norm
    data_type : x
  optional : scale, bias
  intermediate : saved_mean, saved_variance
  backward : instance_norm_grad

1178
- op : inverse
1179 1180 1181 1182 1183 1184 1185 1186
  args : (Tensor x)
  output : Tensor(out)
  infer_meta :
    func : InverseInferMeta
  kernel :
    func : inverse
  backward : inverse_grad

1187
- op : is_empty
Z
zyfncg 已提交
1188
  args : (Tensor x)
1189
  output : Tensor(out)
Z
zyfncg 已提交
1190 1191 1192 1193 1194
  infer_meta :
    func : IsEmptyInferMeta
  kernel :
    func : is_empty

1195
- op : isclose
Z
zyfncg 已提交
1196 1197 1198 1199 1200 1201 1202 1203
  args : (Tensor x, Tensor y, Scalar rtol, Scalar atol,  bool equal_nan)
  output : Tensor(out)
  infer_meta :
    func : ValueCompareInferMeta
    param: [x, y]
  kernel :
    func : isclose

1204
- op : isfinite
Z
zyfncg 已提交
1205
  args : (Tensor x)
1206
  output : Tensor(out)
Z
zyfncg 已提交
1207 1208 1209
  infer_meta :
    func : IsfiniteInferMeta
  kernel :
1210 1211
    func : isfinite {dense -> dense},
           infinite_sr {selected_rows -> selected_rows}
Z
zyfncg 已提交
1212

1213
- op : isinf
Z
zyfncg 已提交
1214
  args : (Tensor x)
1215
  output : Tensor(out)
Z
zyfncg 已提交
1216 1217 1218
  infer_meta :
    func : IsfiniteInferMeta
  kernel :
1219 1220
    func : isinf {dense -> dense},
           isinf_sr {selected_rows -> selected_rows}
Z
zyfncg 已提交
1221

1222
- op : isnan
Z
zyfncg 已提交
1223
  args : (Tensor x)
1224
  output : Tensor(out)
Z
zyfncg 已提交
1225 1226 1227
  infer_meta :
    func : IsfiniteInferMeta
  kernel :
1228 1229
    func : isnan {dense -> dense},
           isnan_sr {selected_rows -> selected_rows}
Z
zyfncg 已提交
1230

1231
- op : kldiv_loss
Z
zyfncg 已提交
1232 1233 1234 1235 1236 1237 1238 1239 1240
  args : (Tensor x, Tensor label, str reduction)
  output : Tensor(out)
  infer_meta :
    func : KLDivInferMeta
  kernel :
    func : kldiv_loss
    data_type : x
  backward : kldiv_loss_grad

1241
- op : kron
Z
zyfncg 已提交
1242 1243 1244 1245 1246 1247 1248 1249
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : KronInferMeta
  kernel :
    func : kron
  backward : kron_grad

1250
- op : kthvalue
Z
zyfncg 已提交
1251 1252 1253 1254 1255 1256 1257 1258
  args : (Tensor x, int k, int axis, bool keepdim)
  output : Tensor(out), Tensor(indices)
  infer_meta :
    func : KthvalueInferMeta
  kernel :
    func : kthvalue
  backward : kthvalue_grad

1259
- op : label_smooth
Z
zyfncg 已提交
1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270
  args : (Tensor label, Tensor prior_dist, float epsilon)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [label]
  kernel :
    func : label_smooth
    data_type : label
  optional : prior_dist
  backward : label_smooth_grad

1271
- op : lamb_
T
Thomas Young 已提交
1272 1273 1274 1275 1276 1277 1278 1279 1280 1281 1282
  args : (Tensor param, Tensor grad, Tensor learning_rate, Tensor moment1, Tensor moment2, Tensor beta1_pow, Tensor beta2_pow, Tensor master_param, Tensor skip_update, float weight_decay, float beta1, float beta2, float epsilon, bool multi_precision)
  output : Tensor(param_out), Tensor(moment1_out), Tensor(moment2_out), Tensor(beta1_pow_out), Tensor(beta2_pow_out), Tensor(master_param_outs)
  infer_meta :
    func : LambInferMeta
  kernel :
    func : lamb {dense, dense, dense, dense, dense, dense, dense, dense, dense -> dense, dense, dense, dense, dense, dense},
           lamb_sr {dense, selected_rows, dense, dense, dense, dense, dense, dense, dense -> dense, dense, dense, dense, dense, dense}
    data_type : param
  optional : master_param, skip_update
  inplace : (param -> param_out), (moment1 -> moment1_out), (moment2 -> moment2_out), (beta1_pow -> beta1_pow_out), (beta2_pow -> beta2_pow_out), (master_param -> master_param_outs)

1283
- op : layer_norm
Z
zyfncg 已提交
1284 1285 1286 1287 1288 1289 1290 1291 1292 1293
  args : (Tensor x, Tensor scale, Tensor bias, float epsilon, int begin_norm_axis, bool is_test)
  output : Tensor(out), Tensor(mean), Tensor(variance)
  infer_meta :
    func : LayerNormInferMeta
  kernel :
    func : layer_norm
    data_type : x
  backward : layer_norm_grad
  optional : scale, bias

1294
- op : leaky_relu
1295
  args : (Tensor x, float negative_slope)
Z
zyfncg 已提交
1296 1297 1298 1299 1300 1301 1302 1303
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : leaky_relu
  backward : leaky_relu_grad

1304
- op : lerp
Z
zyfncg 已提交
1305
  args : (Tensor x, Tensor y, Tensor weight)
1306
  output : Tensor(out)
Z
zyfncg 已提交
1307 1308 1309 1310
  infer_meta :
    func : LerpInferMeta
  kernel :
    func : lerp
1311
  inplace : (x -> out)
Z
zyfncg 已提交
1312 1313
  backward : lerp_grad

1314
- op : less_equal
Z
zyfncg 已提交
1315
  args : (Tensor x, Tensor y, int axis = -1)
1316
  output : Tensor(out)
Z
zyfncg 已提交
1317 1318 1319 1320 1321
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : less_equal

1322
- op : less_than
Z
zyfncg 已提交
1323
  args : (Tensor x, Tensor y, int axis = -1)
1324
  output : Tensor(out)
Z
zyfncg 已提交
1325 1326 1327 1328 1329
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : less_than

1330
- op : linear_interp
1331 1332 1333 1334 1335 1336
  args : (Tensor x, Tensor out_size, Tensor[] size_tensor, Tensor scale_tensor, str data_layout, int out_d, int out_h, int out_w, float[] scale, str interp_method, bool align_corners, int align_mode)
  output : Tensor(output)
  infer_meta :
    func : InterpolateInferMeta
  optional: out_size, size_tensor, scale_tensor
  kernel :
1337
    func : linear_interp
1338
    data_type : x
1339
  backward : linear_interp_grad
1340

1341
- op : linspace
1342
  args : (Tensor start, Tensor stop, Tensor number, DataType dtype, Place place)
1343
  output : Tensor(out)
Z
zyfncg 已提交
1344 1345
  infer_meta :
    func : LinspaceInferMeta
1346
    param: [start, stop, number, dtype]
Z
zyfncg 已提交
1347 1348
  kernel :
    func : linspace
1349
    param: [start, stop, number, dtype]
Z
zyfncg 已提交
1350
    data_type : dtype
1351
    backend : place
Z
zyfncg 已提交
1352

1353
- op : log
Z
zyfncg 已提交
1354 1355 1356 1357 1358 1359 1360 1361
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : log
  backward: log_grad

1362
- op : log10
Z
zyfncg 已提交
1363 1364 1365 1366 1367 1368 1369 1370
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : log10
  backward: log10_grad

1371
- op : log1p
Z
zyfncg 已提交
1372 1373 1374 1375 1376 1377 1378 1379
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : log1p
  backward: log1p_grad

1380
- op : log2
Z
zyfncg 已提交
1381 1382 1383 1384 1385 1386 1387 1388
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : log2
  backward: log2_grad

1389
- op : log_loss
Z
zyfncg 已提交
1390 1391 1392 1393 1394 1395 1396 1397
  args : (Tensor input, Tensor label, float epsilon)
  output : Tensor
  infer_meta :
    func : LogLossInferMeta
  kernel :
    func : log_loss
  backward : log_loss_grad

1398
- op : log_softmax
Z
zyfncg 已提交
1399 1400 1401 1402 1403 1404 1405 1406
  args : (Tensor x,  int axis)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMetaCheckAxis
  kernel :
    func : log_softmax
  backward : log_softmax_grad

1407
- op : logcumsumexp
Z
zyfncg 已提交
1408 1409 1410 1411 1412 1413 1414 1415
  args : (Tensor x, int axis, bool flatten, bool exclusive, bool reverse)
  output : Tensor(out)
  infer_meta :
    func : CumInferMeta
  kernel :
    func : logcumsumexp
  backward : logcumsumexp_grad

1416
- op : logical_and
Z
zyfncg 已提交
1417
  args : (Tensor x, Tensor y)
1418
  output : Tensor(out)
Z
zyfncg 已提交
1419 1420 1421 1422 1423
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : logical_and

1424
- op : logical_not
Z
zyfncg 已提交
1425
  args : (Tensor x)
1426
  output : Tensor(out)
Z
zyfncg 已提交
1427 1428 1429 1430 1431
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : logical_not

1432
- op : logical_or
Z
zyfncg 已提交
1433
  args : (Tensor x, Tensor y)
1434
  output : Tensor(out)
Z
zyfncg 已提交
1435 1436 1437 1438 1439
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : logical_or

1440
- op : logical_xor
Z
zyfncg 已提交
1441
  args : (Tensor x, Tensor y)
1442
  output : Tensor(out)
Z
zyfncg 已提交
1443 1444 1445 1446 1447
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : logical_xor

1448
- op : logit
Z
zyfncg 已提交
1449 1450 1451 1452 1453 1454 1455 1456 1457
  args : (Tensor x, float eps = 1e-6f)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : logit
  backward : logit_grad

1458
- op : logsigmoid
Z
zyfncg 已提交
1459 1460 1461 1462 1463 1464 1465 1466
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : logsigmoid
  backward : logsigmoid_grad

1467
- op : logsumexp
Z
zyfncg 已提交
1468 1469 1470 1471 1472 1473 1474 1475
  args : (Tensor x, int64_t[] axis,  bool keepdim,  bool reduce_all)
  output : Tensor(out)
  infer_meta :
    func : LogsumexpInferMeta
  kernel :
    func : logsumexp
  backward : logsumexp_grad

1476
- op : lstsq
1477 1478 1479 1480 1481 1482 1483 1484
  args : (Tensor x, Tensor y, Scalar rcond, str driver)
  output : Tensor(solution), Tensor(residuals), Tensor(rank), Tensor(singular_values)
  infer_meta :
    func : LstsqInferMeta
    dtype : x
  kernel :
    func : lstsq

1485
- op : lu
L
Lin Manhui 已提交
1486 1487 1488 1489 1490 1491 1492 1493
  args : (Tensor x, bool pivot)
  output : Tensor(out), Tensor(pivots), Tensor(infos)
  infer_meta :
    func : LUInferMeta
  kernel :
    func : lu
  backward : lu_grad

1494
- op : lu_unpack
1495
  args : (Tensor x, Tensor y, bool unpack_ludata, bool unpack_pivots)
1496 1497 1498 1499 1500 1501 1502 1503
  output : Tensor(pmat), Tensor(l), Tensor(u)
  infer_meta :
    func : LUUnpackInferMeta
  kernel :
    func : lu_unpack
    data_type : x
  backward : lu_unpack_grad

1504
- op : margin_cross_entropy
1505 1506 1507 1508 1509 1510 1511 1512 1513
  args : (Tensor logits, Tensor label, bool return_softmax, int ring_id, int rank, int nranks, float margin1, float margin2, float margin3, float scale)
  output : Tensor(softmax), Tensor(loss)
  infer_meta :
    func : MarginCrossEntropyInferMeta
  kernel :
    func : margin_cross_entropy
    data_type : logits
  backward : margin_cross_entropy_grad

1514
- op : masked_select
Z
zyfncg 已提交
1515 1516 1517 1518 1519 1520 1521 1522 1523
  args : (Tensor x, Tensor mask)
  output : Tensor
  infer_meta :
    func : MaskedSelectInferMeta
  kernel :
    func : masked_select
    data_type : x
  backward : masked_select_grad

1524
- op : matmul
Z
zyfncg 已提交
1525 1526 1527 1528 1529 1530 1531 1532
  args : (Tensor x, Tensor y, bool transpose_x = false, bool transpose_y = false)
  output : Tensor
  infer_meta :
    func : MatmulInferMeta
  kernel :
    func : matmul
  backward : matmul_grad

1533
- op : matrix_nms
Z
zhiboniu 已提交
1534 1535 1536 1537 1538 1539 1540
  args : (Tensor bboxes, Tensor scores, float score_threshold, int nms_top_k, int keep_top_k, float post_threshold=0., bool use_gaussian = false, float gaussian_sigma = 2.0, int background_label = 0, bool normalized = true)
  output : Tensor(out), Tensor(index), Tensor(roisnum)
  infer_meta :
    func : MatrixNMSInferMeta
  kernel :
    func : matrix_nms

1541
- op : matrix_power
Z
zyfncg 已提交
1542 1543 1544 1545 1546 1547 1548 1549 1550
  args : (Tensor x, int n)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : matrix_power
  backward : matrix_power_grad

1551
- op : matrix_rank
Z
zyfncg 已提交
1552 1553 1554 1555 1556 1557 1558 1559
  args : (Tensor x, float tol, bool use_default_tol=true, bool hermitian=false)
  output : Tensor(out)
  infer_meta :
    func : MatrixRankInferMeta
    param : [x, use_default_tol, hermitian]
  kernel :
    func : matrix_rank

1560
- op : matrix_rank_tol
Z
zyfncg 已提交
1561 1562 1563 1564 1565 1566 1567
  args : (Tensor x, Tensor atol_tensor, bool use_default_tol=true, bool hermitian=false)
  output : Tensor(out)
  infer_meta :
    func : MatrixRankTolInferMeta
  kernel :
    func : matrix_rank_tol

1568
- op : max
1569
  args : (Tensor x, IntArray axis={}, bool keepdim=false)
Z
zyfncg 已提交
1570 1571
  output : Tensor(out)
  infer_meta :
1572
    func : ReduceIntArrayAxisInferMeta
Z
zyfncg 已提交
1573 1574 1575 1576
  kernel :
    func : max
  backward : max_grad

1577
- op : max_pool2d_with_index
Z
zyfncg 已提交
1578 1579 1580 1581 1582 1583 1584 1585
  args : (Tensor x, int[] kernel_size, int[] strides, int[] paddings, bool global_pooling, bool adaptive)
  output : Tensor(out), Tensor(mask)
  infer_meta :
    func : MaxPoolWithIndexInferMeta
  kernel :
    func : max_pool2d_with_index
  backward : max_pool2d_with_index_grad

1586
- op : max_pool3d_with_index
Z
zyfncg 已提交
1587 1588 1589 1590 1591 1592 1593 1594
  args : (Tensor x, int[] kernel_size, int[] strides, int[] paddings, bool global_pooling, bool adaptive)
  output : Tensor(out), Tensor(mask)
  infer_meta :
    func : MaxPoolWithIndexInferMeta
  kernel :
    func : max_pool3d_with_index
  backward : max_pool3d_with_index_grad

1595
- op : maximum
Z
zyfncg 已提交
1596 1597 1598 1599 1600 1601 1602 1603
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : maximum
  backward : maximum_grad

1604
- op : maxout
Z
zyfncg 已提交
1605 1606 1607 1608 1609 1610 1611 1612
  args : (Tensor x, int groups, int axis)
  output : Tensor(out)
  infer_meta :
    func : MaxOutInferMeta
  kernel :
    func : maxout
  backward : maxout_grad

1613
- op : mean
1614
  args : (Tensor x, IntArray axis={}, bool keepdim=false)
Z
zyfncg 已提交
1615 1616
  output : Tensor(out)
  infer_meta :
1617
    func : ReduceIntArrayAxisInferMeta
Z
zyfncg 已提交
1618 1619 1620 1621
  kernel :
    func : mean
  backward : mean_grad

1622
- op : mean_all
Z
zyfncg 已提交
1623 1624 1625 1626 1627 1628 1629 1630
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : MeanAllInferMeta
  kernel :
    func : mean_all
  backward : mean_all_grad

1631 1632 1633 1634 1635 1636 1637 1638
- op : merge_selected_rows
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : merge_selected_rows {selected_rows -> selected_rows}

1639
- op : merged_adam_
1640 1641 1642 1643 1644 1645 1646 1647 1648 1649
  args : (Tensor[] param, Tensor[] grad, Tensor[] learning_rate, Tensor[] moment1, Tensor[] moment2, Tensor[] beta1_pow, Tensor[] beta2_pow, Tensor[] master_param, Scalar beta1, Scalar beta2, Scalar epsilon, bool multi_precision, bool use_global_beta_pow)
  output : Tensor[](param_out){param.size()}, Tensor[](moment1_out){param.size()}, Tensor[](moment2_out){param.size()}, Tensor[](beta1_pow_out){param.size()}, Tensor[](beta2_pow_out){param.size()}, Tensor[](master_param_out){param.size()}
  infer_meta :
    func : MergedAdamInferMeta
  optional: master_param
  kernel :
    func : merged_adam
    data_type : param
  inplace : (param -> param_out), (moment1 -> moment1_out), (moment2 -> moment2_out), (beta1_pow -> beta1_pow_out), (beta2_pow -> beta2_pow_out), (master_param -> master_param_out)

1650
- op : merged_momentum_
1651 1652 1653 1654 1655 1656 1657 1658 1659 1660
  args : (Tensor[] param, Tensor[] grad, Tensor[] velocity, Tensor[] learning_rate, Tensor[] master_param, float mu, bool use_nesterov = false, str[] regularization_method = {}, float[] regularization_coeff = {}, bool multi_precision = false, float rescale_grad = 1.0f)
  output : Tensor[](param_out){param.size()}, Tensor[](velocity_out){param.size()}, Tensor[](master_param_out){param.size()}
  infer_meta :
    func : MergedMomentumInferMeta
  optional: master_param
  kernel :
    func : merged_momentum
    data_type : param
  inplace : (param -> param_out), (velocity -> velocity_out), (master_param -> master_param_out)

1661
- op : meshgrid
Z
zyfncg 已提交
1662 1663 1664 1665 1666 1667 1668 1669
  args : (Tensor[] inputs)
  output : Tensor[]{inputs.size()}
  infer_meta :
    func : MeshgridInferMeta
  kernel :
    func : meshgrid
  backward : meshgrid_grad

1670
- op : min
1671
  args : (Tensor x, IntArray axis={}, bool keepdim=false)
Z
zyfncg 已提交
1672 1673
  output : Tensor(out)
  infer_meta :
1674
    func : ReduceIntArrayAxisInferMeta
Z
zyfncg 已提交
1675 1676 1677 1678
  kernel :
    func : min
  backward : min_grad

1679
- op : minimum
Z
zyfncg 已提交
1680 1681 1682 1683 1684 1685 1686 1687
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : minimum
  backward : minimum_grad

1688
- op : mish
Z
zyfncg 已提交
1689 1690 1691 1692 1693 1694 1695 1696 1697
  args : (Tensor x, float lambda)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : mish
  backward : mish_grad

1698
- op : mode
Z
zyfncg 已提交
1699 1700 1701 1702 1703 1704 1705 1706
  args : (Tensor x,  int axis,  bool keepdim)
  output : Tensor(out), Tensor(indices)
  infer_meta :
    func : ModeInferMeta
  kernel :
    func : mode
  backward : mode_grad

1707
- op : momentum_
Z
zyfncg 已提交
1708 1709
  args : (Tensor param, Tensor grad, Tensor velocity, Tensor learning_rate, Tensor master_param, float mu, bool use_nesterov = false, str regularization_method = "", float regularization_coeff = 0.0, bool multi_precision = false, float rescale_grad = 1.0f)
  output : Tensor(param_out), Tensor(velocity_out), Tensor(master_param_out)
1710 1711 1712 1713 1714
  infer_meta:
    func : MomentumInferMeta
  kernel :
    func : momentum
    data_type : param
Z
zyfncg 已提交
1715
  optional : master_param
1716
  inplace : (param -> param_out), (velocity -> velocity_out), (master_param -> master_param_out)
Z
zyfncg 已提交
1717

1718
- op : multi_dot
Z
zyfncg 已提交
1719 1720 1721 1722 1723 1724 1725 1726
  args : (Tensor[] x)
  output : Tensor
  infer_meta :
    func : MultiDotInferMeta
  kernel :
    func : multi_dot
  backward : multi_dot_grad

1727
- op : multiclass_nms3
1728 1729 1730 1731 1732 1733 1734 1735
  args : (Tensor bboxes, Tensor scores, Tensor rois_num, float score_threshold, int nms_top_k, int keep_top_k, float nms_threshold=0.3, bool normalized=true, float nms_eta=1.0, int background_label=0)
  output : Tensor(out), Tensor(index), Tensor(nms_rois_num)
  infer_meta :
    func : MultiClassNMSInferMeta
  kernel :
    func : multiclass_nms3
  optional : rois_num

1736
- op : multinomial
1737
  args : (Tensor x, Scalar num_samples, bool replacement)
1738
  output : Tensor(out)
Z
zyfncg 已提交
1739 1740 1741 1742 1743
  infer_meta :
    func : MultinomialInferMeta
  kernel :
    func : multinomial

1744
- op : multiplex
1745
  args : (Tensor[] inputs, Tensor index)
Z
zyfncg 已提交
1746 1747 1748 1749 1750
  output : Tensor
  infer_meta :
    func : MultiplexInferMeta
  kernel :
    func : multiplex
1751
    data_type : inputs
Z
zyfncg 已提交
1752 1753
  backward : multiplex_grad

1754
- op : multiply
Z
zyfncg 已提交
1755 1756 1757 1758 1759
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
1760 1761
    func : multiply {dense, dense -> dense},
           multiply_sr {selected_rows, dense -> selected_rows}
Z
zyfncg 已提交
1762 1763
  backward : multiply_grad

1764
- op : nearest_interp
1765 1766 1767 1768 1769 1770 1771 1772 1773 1774
  args : (Tensor x, Tensor out_size, Tensor[] size_tensor, Tensor scale_tensor, str data_layout, int out_d, int out_h, int out_w, float[] scale, str interp_method, bool align_corners, int align_mode)
  output : Tensor(output)
  infer_meta :
    func : InterpolateInferMeta
  optional: out_size, size_tensor, scale_tensor
  kernel :
    func : nearest_interp
    data_type : x
  backward : nearest_interp_grad

1775
- op : nll_loss
Z
zyfncg 已提交
1776 1777 1778 1779 1780 1781 1782 1783 1784 1785
  args : (Tensor input, Tensor label, Tensor weight, int64_t ignore_index, str reduction)
  output : Tensor(out), Tensor(total_weight)
  infer_meta :
    func : NllLossRawInferMeta
  kernel :
    func : nll_loss
    data_type : input
  optional : weight
  backward : nll_loss_grad

1786
- op : nms
1787 1788 1789 1790 1791 1792 1793 1794
  args : (Tensor x, float threshold)
  output : Tensor(out)
  infer_meta :
    func : NMSInferMeta
  kernel :
    func : nms
    data_type : x

1795
- op : norm
Z
zyfncg 已提交
1796 1797 1798 1799 1800 1801 1802 1803
  args : (Tensor x, int axis, float epsilon, bool is_test)
  output : Tensor(out), Tensor(norm)
  infer_meta :
    func : NormInferMeta
  kernel :
    func : norm
  backward : norm_grad

1804
- op : not_equal
Z
zyfncg 已提交
1805
  args : (Tensor x, Tensor y, int axis = -1)
1806
  output : Tensor(out)
Z
zyfncg 已提交
1807 1808 1809 1810 1811
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : not_equal

1812 1813 1814 1815 1816 1817 1818 1819 1820 1821
- op : numel
  args : (Tensor x)
  output : Tensor(size)
  infer_meta :
    func : SizeInferMeta
  kernel :
    func : size
  data_transform:
    skip_transform : x

1822
- op : one_hot
Z
zyfncg 已提交
1823
  args : (Tensor x, Scalar(int) num_classes)
1824
  output : Tensor(out)
Z
zyfncg 已提交
1825 1826 1827 1828 1829
  infer_meta :
    func : OneHotInferMeta
  kernel :
    func : one_hot

1830
- op : ones
1831
  args : (IntArray shape, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
1832
  output : Tensor(out)
1833 1834
  invoke : full(shape, 1, dtype, place)

1835
- op : ones_like
Z
zyfncg 已提交
1836
  args : (Tensor x, DataType dtype=DataType::UNDEFINED, Place place={})
1837
  output : Tensor(out)
Z
zyfncg 已提交
1838 1839
  invoke : full_like(x, 1, dtype, place)

1840
- op : p_norm
Z
zyfncg 已提交
1841 1842 1843 1844 1845 1846 1847 1848
  args : (Tensor x,  float porder,  int axis,  float epsilon,  bool keepdim,  bool asvector=false)
  output : Tensor(out)
  infer_meta :
    func : PNormInferMeta
  kernel :
    func : p_norm
  backward : p_norm_grad

1849
- op : pad
1850
  args : (Tensor x, int[] paddings, Scalar pad_value)
Z
zyfncg 已提交
1851 1852 1853 1854 1855 1856 1857
  output : Tensor
  infer_meta :
    func : PadInferMeta
  kernel :
    func : pad
  backward : pad_grad

1858
- op : pad3d
Z
zyfncg 已提交
1859 1860 1861 1862 1863 1864 1865 1866
  args : (Tensor x, IntArray paddings, str mode,  float pad_value, str data_format)
  output : Tensor(out)
  infer_meta :
    func : Pad3dInferMeta
  kernel :
    func : pad3d
  backward : pad3d_grad

1867
- op : pixel_shuffle
Z
zyfncg 已提交
1868 1869 1870 1871 1872 1873 1874 1875
  args : (Tensor x, int upscale_factor, str data_format)
  output : Tensor
  infer_meta :
    func : PixelShuffleInferMeta
  kernel :
    func : pixel_shuffle
  backward : pixel_shuffle_grad

1876
- op : pool2d
1877
  args : (Tensor x, IntArray kernel_size, int[] strides, int[] paddings, bool ceil_mode, bool exclusive, str data_format, str pooling_type, bool global_pooling, bool adaptive, str padding_algorithm, bool use_gpudnn)
Z
zyfncg 已提交
1878 1879
  output : Tensor(out)
  infer_meta :
1880
    func : Pool2DInferMeta
1881
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
Z
zyfncg 已提交
1882 1883
  kernel :
    func : pool2d
1884 1885
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
    use_gpudnn : use_gpudnn
Z
zyfncg 已提交
1886 1887
  backward : pool2d_grad

1888
- op : pool3d
1889
  args : (Tensor x, int[] kernel_size, int[] strides, int[] paddings, bool ceil_mode, bool exclusive, str data_format, str pooling_type, bool global_pooling, bool adaptive, str padding_algorithm, bool use_gpudnn)
Z
zyfncg 已提交
1890 1891 1892
  output : Tensor(out)
  infer_meta :
    func : PoolInferMeta
1893
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
Z
zyfncg 已提交
1894 1895
  kernel :
    func : pool3d
1896 1897
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
    use_gpudnn : use_gpudnn
Z
zyfncg 已提交
1898 1899
  backward : pool3d_grad

1900
- op : pow
1901
  args : (Tensor x, Scalar y)
Z
zyfncg 已提交
1902 1903 1904 1905 1906 1907 1908 1909
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param: [x]
  kernel :
    func : pow
  backward : pow_grad

1910
- op : prelu
Z
zyfncg 已提交
1911 1912 1913 1914 1915 1916 1917 1918
  args : (Tensor x, Tensor alpha, str data_format, str mode)
  output : Tensor(out)
  infer_meta :
    func : PReluInferMeta
  kernel :
    func : prelu
  backward : prelu_grad

1919
- op : prior_box
Z
zhiboniu 已提交
1920 1921 1922 1923 1924 1925 1926
  args : (Tensor input, Tensor image, float[] min_sizes, float[] aspect_ratios, float[] variances, float[] max_sizes = {}, bool flip=true, bool clip=true, float step_w=0.0, float step_h=0.0, float offset=0.5, bool min_max_aspect_ratios_order=false)
  output : Tensor(out), Tensor(var)
  infer_meta :
    func : PriorBoxInferMeta
  kernel :
    func : prior_box

1927
- op : psroi_pool
Z
zyfncg 已提交
1928 1929 1930 1931 1932 1933 1934 1935 1936 1937
  args : (Tensor x, Tensor boxes, Tensor boxes_num, int pooled_height, int pooled_width, int output_channels, float spatial_scale)
  output : Tensor
  infer_meta :
    func : PsroiPoolInferMeta
  kernel :
    func : psroi_pool
    data_type : x
  optional : boxes_num
  backward : psroi_pool_grad

1938
- op : put_along_axis
1939
  args : (Tensor arr, Tensor indices, Tensor values, int axis, str reduce)
1940
  output : Tensor(out)
Z
zyfncg 已提交
1941 1942
  infer_meta :
    func : UnchangedInferMeta
1943
    param : [arr]
Z
zyfncg 已提交
1944 1945
  kernel :
    func : put_along_axis
1946 1947
    data_type : arr
  inplace : (arr -> out)
Z
zyfncg 已提交
1948 1949
  backward : put_along_axis_grad

1950
- op : qr
Z
zyfncg 已提交
1951 1952 1953 1954 1955 1956
  args : (Tensor x, str mode)
  output : Tensor(q), Tensor(r)
  infer_meta :
    func : QrInferMeta
  kernel :
    func : qr
Y
Yulong Ao 已提交
1957
  backward : qr_grad
Z
zyfncg 已提交
1958

1959
- op : randint
Z
zyfncg 已提交
1960 1961 1962 1963 1964 1965 1966 1967 1968 1969 1970
  args : (int low, int high, IntArray shape, DataType dtype=DataType::INT64, Place place={})
  output : Tensor(out)
  infer_meta :
    func : RandintInferMeta
    param : [low, high, shape, dtype]
  kernel :
    func : randint
    param : [low, high, shape, dtype]
    data_type : dtype
    backend : place

1971
- op : randperm
Z
zyfncg 已提交
1972
  args : (int n, DataType dtype, Place place={})
1973
  output : Tensor(out)
Z
zyfncg 已提交
1974 1975 1976 1977 1978 1979 1980 1981 1982
  infer_meta :
    func : RandpermInferMeta
    param : [n, dtype]
  kernel :
    func : randperm
    param : [n, dtype]
    data_type : dtype
    backend : place

1983
- op : real
Z
zyfncg 已提交
1984 1985 1986 1987 1988 1989 1990 1991
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : RealAndImagInferMeta
  kernel :
    func : real
  backward : real_grad

1992
- op : reciprocal
Z
zyfncg 已提交
1993
  args : (Tensor x)
1994
  output : Tensor(out)
Z
zyfncg 已提交
1995 1996 1997 1998
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : reciprocal
1999
  inplace : (x -> out)
Z
zyfncg 已提交
2000 2001
  backward : reciprocal_grad

2002
- op : reduce_prod
2003
  args : (Tensor x, IntArray dims, bool keep_dim, bool reduce_all)
Z
zyfncg 已提交
2004 2005
  output : Tensor
  infer_meta :
2006
    func : ReduceIntArrayAxisInferMetaBase
Z
zyfncg 已提交
2007 2008 2009 2010
  kernel :
    func : prod_raw
  backward : reduce_prod_grad

2011
- op : relu
Z
zyfncg 已提交
2012
  args : (Tensor x)
2013
  output : Tensor(out)
Z
zyfncg 已提交
2014 2015 2016 2017 2018 2019 2020
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : relu
  inplace : (x -> out)
  backward : relu_grad

2021
- op : relu6
2022 2023 2024 2025 2026 2027 2028 2029 2030
  args : (Tensor x, float threshold)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : relu6
  backward : relu6_grad

2031
- op : remainder
C
Chen Weihang 已提交
2032 2033 2034 2035 2036 2037 2038 2039
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : remainder
  inplace : (x -> out)

2040
- op : renorm
S
seemingwang 已提交
2041 2042 2043 2044 2045 2046 2047 2048 2049
  args : (Tensor x, float p, int axis, float max_norm)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : renorm
  backward : renorm_grad

2050
- op : repeat_interleave
2051
  args : (Tensor x, int repeats, int axis)
S
seemingwang 已提交
2052 2053 2054 2055 2056 2057 2058
  output : Tensor(out)
  infer_meta :
    func : RepeatInterleaveInferMeta
  kernel :
    func : repeat_interleave
  backward: repeat_interleave_grad

2059
- op : repeat_interleave_with_tensor_index
2060
  args : (Tensor x, Tensor repeats, int axis)
S
seemingwang 已提交
2061 2062 2063 2064 2065 2066 2067 2068
  output : Tensor(out)
  infer_meta :
    func : RepeatInterleaveWithTensorIndexInferMeta
  kernel :
    func : repeat_interleave_with_tensor_index
    data_type : x
  backward: repeat_interleave_with_tensor_index_grad

2069
- op : reshape
Z
zyfncg 已提交
2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080
  args : (Tensor x, IntArray shape)
  output : Tensor(out), Tensor(xshape)
  infer_meta :
    func : ReshapeWithXShapeInferMeta
  kernel :
    func : reshape_with_xshape
  inplace : (x -> out)
  view: (x -> out)
  intermediate : xshape
  backward: reshape_grad

2081
- op : reverse
2082
  args : (Tensor x, IntArray axis)
W
wanghuancoder 已提交
2083 2084 2085 2086 2087 2088 2089
  output : Tensor
  infer_meta :
    func : ReverseInferMeta
  kernel :
    func : reverse
  backward : reverse_grad

2090
- op : rmsprop_
C
caozhou 已提交
2091 2092 2093 2094 2095 2096 2097 2098 2099 2100
  args : (Tensor param, Tensor mean_square, Tensor grad, Tensor moment, Tensor learning_rate, Tensor mean_grad, float epsilon, float decay, float momentum, bool centered)
  output : Tensor(param_out), Tensor(moment_out), Tensor(mean_square_out), Tensor(mean_grad_out)
  infer_meta :
    func : RmspropInferMeta
  kernel :
    func : rmsprop {dense, dense, dense, dense, dense, dense -> dense, dense, dense, dense}
           rmsprop_dense_param_sparse_grad {dense, dense, selected_rows, dense, dense, dense -> dense, dense, dense, dense}
    optional : mean_grad
  inplace : (param -> param_out), (moment -> moment_out), (mean_square -> mean_square_out), (mean_grad -> mean_grad_out)

2101
- op : roi_align
Z
zyfncg 已提交
2102 2103 2104 2105 2106 2107 2108 2109 2110 2111
  args : (Tensor x, Tensor boxes, Tensor boxes_num, int pooled_height, int pooled_width, float spatial_scale, int sampling_ratio, bool aligned)
  output : Tensor
  infer_meta :
    func : RoiAlignInferMeta
  kernel :
    func : roi_align
    data_type : x
  optional : boxes_num
  backward : roi_align_grad

2112
- op : roi_pool
Z
zyfncg 已提交
2113 2114 2115 2116 2117 2118 2119 2120 2121 2122 2123
  args : (Tensor x, Tensor boxes, Tensor boxes_num, int pooled_height, int pooled_width, float spatial_scale)
  output : Tensor(out), Tensor(arg_max)
  infer_meta :
    func : RoiPoolInferMeta
  kernel :
    func : roi_pool
    data_type : x
  optional : boxes_num
  intermediate : arg_max
  backward : roi_pool_grad

2124
- op : roll
Z
zyfncg 已提交
2125 2126 2127 2128 2129 2130 2131 2132
  args : (Tensor x, IntArray shifts, int64_t[] axis)
  output : Tensor(out)
  infer_meta :
    func : RollInferMeta
  kernel :
    func : roll
  backward : roll_grad

2133
- op : round
Z
zyfncg 已提交
2134 2135 2136 2137 2138 2139
  args : (Tensor x)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : round
2140
  inplace : (x -> out)
Z
zyfncg 已提交
2141 2142
  backward : round_grad

2143
- op : rsqrt
Z
zyfncg 已提交
2144 2145 2146 2147 2148 2149 2150 2151 2152
  args : (Tensor x)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : rsqrt
  inplace : (x -> out)
  backward : rsqrt_grad

2153
- op : scale
Z
zyfncg 已提交
2154
  args : (Tensor x, Scalar scale, float bias, bool bias_after_scale)
2155
  output : Tensor(out)
Z
zyfncg 已提交
2156 2157 2158 2159
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
2160 2161
    func : scale {dense -> dense},
           scale_sr {selected_rows -> selected_rows}
Z
zyfncg 已提交
2162 2163 2164
  inplace : (x -> out)
  backward : scale_grad

2165
- op : scatter
Z
zyfncg 已提交
2166
  args : (Tensor x, Tensor index, Tensor updates, bool overwrite)
2167
  output : Tensor(out)
Z
zyfncg 已提交
2168 2169 2170 2171 2172
  infer_meta :
    func : ScatterInferMeta
    dtype : x
  kernel :
    func : scatter
2173
  inplace : (x -> out)
Z
zyfncg 已提交
2174 2175
  backward : scatter_grad

2176
- op : scatter_nd_add
Z
zyfncg 已提交
2177 2178 2179 2180 2181 2182 2183 2184 2185
  args : (Tensor x, Tensor index, Tensor updates)
  output : Tensor
  infer_meta :
    func : ScatterNdAddInferMeta
    dtype : x
  kernel :
    func : scatter_nd_add
  backward : scatter_nd_add_grad

2186
- op : searchsorted
2187
  args : (Tensor sorted_sequence, Tensor values, bool out_int32, bool right)
Z
zyfncg 已提交
2188 2189 2190 2191 2192 2193 2194
  output : Tensor(out)
  infer_meta :
    func : SearchsortedInferMeta
  kernel :
    func : searchsorted
    data_type : sorted_sequence

2195
- op : segment_pool
Z
zyfncg 已提交
2196 2197 2198 2199 2200 2201 2202 2203 2204
  args : (Tensor x, Tensor segment_ids, str pooltype)
  output : Tensor(out), Tensor(summed_ids)
  infer_meta :
    func : SegmentPoolInferMeta
  kernel :
    func : segment_pool
    data_type : x
  backward : segment_pool_grad

2205
- op : selu
Z
zyfncg 已提交
2206 2207 2208 2209 2210 2211 2212 2213 2214
  args : (Tensor x, float scale, float alpha)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : selu
  backward : selu_grad

2215 2216 2217 2218 2219 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236
- op : send_u_recv
  args : (Tensor x, Tensor src_index, Tensor dst_index, str reduce_op = "SUM", IntArray out_size = {0})
  output : Tensor(out), Tensor(dst_count)
  infer_meta :
    func : SendURecvInferMeta
  kernel :
    func : send_u_recv
    data_type : x
  intermediate : dst_count
  backward : send_u_recv_grad

- op : send_ue_recv
  args : (Tensor x, Tensor y, Tensor src_index, Tensor dst_index, str message_op, str reduce_op, IntArray out_size)
  output : Tensor(out), Tensor(dst_count)
  infer_meta :
    func : SendUERecvInferMeta
  kernel :
    func : send_ue_recv
    data_type : x
  intermediate : dst_count
  backward : send_ue_recv_grad

2237
- op : sgd_
Z
zyfncg 已提交
2238 2239
  args : (Tensor param, Tensor learning_rate, Tensor grad, Tensor master_param, bool multi_precision)
  output : Tensor(param_out), Tensor(master_param_out)
2240 2241 2242 2243 2244 2245 2246 2247 2248
  infer_meta :
    func : SgdInferMeta
  kernel :
    func : sgd {dense, dense, dense, dense -> dense, dense},
           sgd_dense_param_sparse_grad {dense, dense, selected_rows, dense -> dense, dense},
           sgd_sparse_param_sparse_grad {selected_rows, dense, selected_rows, selected_rows -> selected_rows, selected_rows}
    data_type : param
  data_transform :
    support_trans_dtype : learning_rate
Z
zyfncg 已提交
2249
  optional : master_param
2250
  inplace : (param -> param_out), (master_param -> master_param_out)
Z
zyfncg 已提交
2251

2252
- op : shape
Z
zyfncg 已提交
2253
  args : (Tensor input)
2254
  output : Tensor(out)
Z
zyfncg 已提交
2255 2256 2257
  infer_meta :
    func : ShapeInferMeta
  kernel :
2258 2259
    func : shape {dense -> dense},
           shape_sr {selected_rows -> selected_rows}
Z
zyfncg 已提交
2260 2261 2262
  data_transform:
    skip_transform : input

2263
- op : shard_index
2264
  args : (Tensor input, int index_num, int nshards, int shard_id, int ignore_value)
2265
  output : Tensor(out)
Z
zyfncg 已提交
2266 2267 2268 2269 2270
  infer_meta :
    func : ShardIndexInferMeta
  kernel :
    func : shard_index

2271
- op : sigmoid
Z
zyfncg 已提交
2272 2273 2274 2275 2276 2277 2278 2279
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : sigmoid
  backward : sigmoid_grad

2280
- op : sigmoid_cross_entropy_with_logits
Z
zyfncg 已提交
2281 2282 2283 2284 2285 2286 2287 2288
  args : (Tensor x, Tensor label, bool normalize, int ignore_index)
  output : Tensor
  infer_meta :
    func : SigmoidCrossEntropyWithLogitsInferMeta
  kernel :
    func : sigmoid_cross_entropy_with_logits
  backward : sigmoid_cross_entropy_with_logits_grad

2289
- op : sign
Z
zyfncg 已提交
2290
  args : (Tensor x)
2291
  output : Tensor(out)
Z
zyfncg 已提交
2292 2293 2294 2295
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : sign
2296
  backward : sign_grad
Z
zyfncg 已提交
2297

2298
- op : silu
Z
zyfncg 已提交
2299 2300 2301 2302 2303 2304 2305 2306
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : silu
  backward : silu_grad

2307
- op : slice
Z
zyfncg 已提交
2308 2309 2310 2311 2312 2313 2314 2315
  args : (Tensor input, int64_t[] axes, IntArray starts, IntArray ends, int64_t[] infer_flags, int64_t[] decrease_axis)
  output : Tensor
  infer_meta :
    func : SliceRawInferMeta
  kernel :
    func : slice
  backward : slice_grad

2316
- op : slogdet
2317 2318 2319 2320 2321 2322 2323 2324
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : slogdeterminant
  backward : slogdet_grad

2325
- op : softmax
Z
zyfncg 已提交
2326
  args : (Tensor x, int axis)
2327
  output : Tensor(out)
Z
zyfncg 已提交
2328 2329 2330 2331 2332
  infer_meta :
    func : SoftmaxInferMeta
  kernel :
    func : softmax
    use_gpudnn : true
2333
  inplace : (x -> out)
Z
zyfncg 已提交
2334 2335
  backward : softmax_grad

2336
- op : softplus
W
Wang Bojun 已提交
2337 2338 2339 2340 2341 2342 2343 2344 2345
  args : (Tensor x, float beta, float threshold)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : softplus
  backward : softplus_grad

2346 2347 2348 2349 2350 2351 2352 2353 2354 2355
- op : softshrink
  args : (Tensor x, float threshold)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : soft_shrink
  backward : softshrink_grad

2356
- op : softsign
2357 2358 2359 2360 2361 2362 2363 2364 2365
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : softsign
  backward : softsign_grad

2366
- op : spectral_norm
2367 2368 2369 2370 2371
  args : (Tensor weight, Tensor u, Tensor v, int dim, int power_iters, float eps)
  output : Tensor
  infer_meta :
    func : SpectralNormInferMeta
  kernel :
2372
    func : spectral_norm
2373
    data_type : weight
2374
  backward : spectral_norm_grad
2375

2376
- op : split
C
Charles-hit 已提交
2377 2378 2379 2380 2381 2382
  args : (Tensor x, IntArray sections, Scalar(int) axis)
  output : Tensor[]{sections.size()}
  infer_meta :
    func : SplitInferMeta
  kernel :
    func : split
Z
zyfncg 已提交
2383 2384
  backward : split_grad

2385
- op : split_with_num
C
Charles-hit 已提交
2386 2387 2388 2389 2390 2391 2392 2393
  args : (Tensor x, int num, Scalar(int) axis)
  output : Tensor[]{num}
  infer_meta :
    func : SplitWithNumInferMeta
  kernel :
    func : split_with_num
  backward : split_with_num_grad

2394
- op : sqrt
Z
zyfncg 已提交
2395
  args : (Tensor x)
2396
  output : Tensor(out)
Z
zyfncg 已提交
2397 2398 2399 2400
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : sqrt
2401
  inplace : (x -> out)
Z
zyfncg 已提交
2402 2403
  backward : sqrt_grad

2404
- op : square
Z
zyfncg 已提交
2405 2406 2407 2408 2409 2410 2411 2412
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : square
  backward : square_grad

2413
- op : squared_l2_norm
2414 2415 2416 2417 2418 2419 2420 2421
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : SquaredL2NormInferMeta
  kernel :
    func : squared_l2_norm
  backward : squared_l2_norm_grad

2422
- op : squeeze
2423
  args : (Tensor x, IntArray axis)
Z
zyfncg 已提交
2424 2425
  output : Tensor(out), Tensor(xshape)
  infer_meta :
2426
    func : SqueezeWithXShapeInferMeta
Z
zyfncg 已提交
2427
  kernel :
2428
    func : squeeze_with_xshape
2429
  inplace : (x -> out)
Z
zyfncg 已提交
2430 2431 2432 2433
  view: (x -> out)
  intermediate : xshape
  backward : squeeze_grad

2434
- op : stack
Z
zyfncg 已提交
2435 2436 2437 2438 2439 2440 2441 2442
  args : (Tensor[] x, int axis)
  output : Tensor
  infer_meta :
    func : StackInferMeta
  kernel :
    func : stack
  backward : stack_grad

2443
- op : strided_slice
Z
zyfncg 已提交
2444 2445 2446 2447 2448 2449 2450 2451
  args : (Tensor x, int[] axes, IntArray starts, IntArray ends, IntArray strides)
  output : Tensor
  infer_meta :
    func : StridedSliceInferMeta
  kernel :
    func : strided_slice
  backward : strided_slice_grad

2452
- op : subtract
Z
zyfncg 已提交
2453
  args : (Tensor x, Tensor y)
2454
  output : Tensor(out)
Z
zyfncg 已提交
2455 2456 2457 2458
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : subtract
2459
  inplace : (x -> out)
Z
zyfncg 已提交
2460 2461
  backward : subtract_grad

2462
- op : sum
2463
  args : (Tensor x, IntArray axis={}, DataType dtype=DataType::UNDEFINED, bool keepdim=false)
Z
zyfncg 已提交
2464 2465 2466 2467 2468 2469 2470 2471
  output : Tensor(out)
  infer_meta :
    func : SumInferMeta
  kernel :
    func : sum
    data_type : x
  backward : sum_grad

2472
- op : svd
2473
  args : (Tensor x, bool full_matrices)
2474 2475 2476 2477 2478 2479 2480
  output : Tensor(u), Tensor(s), Tensor(vh)
  infer_meta :
    func : SvdInferMeta
  kernel :
    func : svd
  backward : svd_grad

Z
zyfncg 已提交
2481
# The python API paddle.nn.functional.swish has no `bete` argument, it may be removed later
2482
- op : swish
Z
zyfncg 已提交
2483 2484 2485 2486 2487 2488 2489 2490 2491
  args : (Tensor x, float beta=1.0)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : swish
  backward : swish_grad

2492
- op : sync_batch_norm_
2493 2494 2495 2496 2497 2498
  args : (Tensor x, Tensor scale, Tensor bias, Tensor mean, Tensor variance, float momentum, float epsilon, str data_layout, bool is_test, bool use_global_stats, bool trainable_statistics, bool fuse_with_relu)
  output : Tensor(out), Tensor(mean_out), Tensor(variance_out), Tensor(saved_mean), Tensor(saved_variance), Tensor(reserve_space)
  infer_meta :
    func : BatchNormInferMeta
  kernel :
    func : sync_batch_norm
2499
    data_type : x
2500
  backward : sync_batch_norm_grad
2501
  inplace : (mean -> mean_out), (variance -> variance_out)
2502

2503
- op : take_along_axis
2504
  args : (Tensor arr, Tensor indices, int axis)
Z
zyfncg 已提交
2505 2506 2507
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
2508
    param : [indices]
Z
zyfncg 已提交
2509 2510
  kernel :
    func : take_along_axis
2511
    data_type : arr
Z
zyfncg 已提交
2512 2513
  backward : take_along_axis_grad

2514
- op : tanh
Z
zyfncg 已提交
2515
  args : (Tensor x)
2516
  output : Tensor(out)
Z
zyfncg 已提交
2517 2518 2519 2520
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : tanh
2521
  inplace : (x -> out)
Z
zyfncg 已提交
2522 2523
  backward : tanh_grad

2524
- op : tanh_shrink
Z
zyfncg 已提交
2525 2526 2527 2528 2529 2530 2531 2532
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : tanh_shrink
  backward : tanh_shrink_grad

2533
- op : temporal_shift
C
ccrrong 已提交
2534 2535 2536 2537 2538 2539 2540 2541
  args : (Tensor x, int seg_num, float shift_ratio, str data_format_str)
  output : Tensor
  infer_meta :
    func : TemporalShiftInferMeta
  kernel :
    func : temporal_shift
  backward : temporal_shift_grad

2542
- op : thresholded_relu
Z
zyfncg 已提交
2543 2544 2545 2546 2547 2548 2549 2550 2551
  args : (Tensor x, float threshold)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : thresholded_relu
  backward : thresholded_relu_grad

2552
- op : tile
Z
zyfncg 已提交
2553 2554 2555 2556 2557 2558 2559 2560
  args : (Tensor x, IntArray repeat_times)
  output : Tensor
  infer_meta :
    func : TileInferMeta
  kernel :
    func : tile
  backward : tile_grad

2561
- op : topk
Z
zyfncg 已提交
2562 2563 2564 2565 2566 2567
  args : (Tensor x, Scalar k, int axis = -1, bool largest = true, bool sorted = true)
  output : Tensor(out), Tensor(indices)
  infer_meta :
    func : TopKInferMeta
  kernel :
    func : top_k
2568
  backward : topk_grad
Z
zyfncg 已提交
2569

2570
- op : transpose
2571
  args : (Tensor x, int[] perm)
Z
zyfncg 已提交
2572 2573 2574 2575 2576 2577 2578
  output : Tensor
  infer_meta :
    func : TransposeInferMeta
  kernel :
    func : transpose
  backward : transpose_grad

2579
- op : triangular_solve
Z
zyfncg 已提交
2580 2581 2582 2583 2584 2585 2586 2587
  args : (Tensor x, Tensor y, bool upper, bool transpose, bool unitriangular)
  output : Tensor
  infer_meta :
    func : TriangularSolveInferMeta
  kernel :
    func : triangular_solve
  backward : triangular_solve_grad

2588
- op : tril_indices
Z
zyfncg 已提交
2589 2590 2591 2592 2593 2594 2595 2596 2597 2598 2599
  args : (int rows, int cols, int offset, DataType dtype, Place place={})
  output : Tensor(out)
  infer_meta :
    func : TrilIndicesInferMeta
    param : [rows, cols, offset, dtype]
  kernel :
    func : tril_indices
    param : [rows, cols, offset, dtype]
    data_type : dtype
    backend : place

2600
- op : tril_triu
Z
zyfncg 已提交
2601 2602 2603 2604 2605 2606 2607 2608
  args : (Tensor x,  int diagonal,  bool lower)
  output : Tensor(out)
  infer_meta :
    func : TrilTriuInferMeta
  kernel :
    func : tril_triu
  backward : tril_triu_grad

2609
- op : trilinear_interp
2610 2611 2612 2613 2614 2615 2616 2617 2618 2619
  args : (Tensor x, Tensor out_size, Tensor[] size_tensor, Tensor scale_tensor, str data_layout, int out_d, int out_h, int out_w, float[] scale, str interp_method, bool align_corners, int align_mode)
  output : Tensor(output)
  infer_meta :
    func : InterpolateInferMeta
  optional: out_size, size_tensor, scale_tensor
  kernel :
    func : trilinear_interp
    data_type : x
  backward : trilinear_interp_grad

2620
- op : triu_indices
2621 2622 2623 2624 2625 2626 2627 2628 2629 2630 2631
  args : (int row, int col, int offset, DataType dtype, Place place={})
  output : Tensor(out)
  infer_meta :
    func : TriuIndicesInferMeta
    param : [row, col, offset, dtype]
  kernel :
    func : triu_indices
    param : [row, col, offset, dtype]
    data_type : dtype
    backend : place

Z
zyfncg 已提交
2632
# python API: paddle.nn.initializer.TruncatedNormal
2633
- op : truncated_gaussian_random
Z
zyfncg 已提交
2634
  args : (int[] shape, float mean, float std, int seed, DataType dtype=DataType::FLOAT32, Place place={})
2635
  output : Tensor(out)
Z
zyfncg 已提交
2636 2637 2638 2639 2640 2641 2642 2643 2644
  infer_meta :
    func : TruncatedGaussianRandomInferMeta
    param : [shape, mean, std, seed, dtype]
  kernel :
    func : truncated_gaussian_random
    param : [shape, mean, std, seed, dtype]
    backend : place
    data_type : dtype

2645
- op : unbind
Z
zyfncg 已提交
2646 2647 2648 2649 2650 2651 2652 2653
  args : (Tensor input, int axis)
  output : Tensor[] {axis<0 ? input.dims()[input.dims().size()+axis]:input.dims()[axis]}
  infer_meta :
    func : UnbindInferMeta
  kernel :
    func : unbind
  backward : unbind_grad

2654
- op : unfold
Z
zyfncg 已提交
2655 2656 2657 2658 2659 2660 2661 2662
  args : (Tensor x, int[] kernel_sizes, int[] strides, int[] paddings, int[] dilations)
  output : Tensor
  infer_meta :
    func : UnfoldInferMeta
  kernel :
    func : unfold
  backward : unfold_grad

2663
- op : uniform_random
2664
  args : (IntArray shape,  DataType dtype,  Scalar min,  Scalar max,  int seed, Place place={})
Z
zyfncg 已提交
2665 2666 2667
  output : Tensor(out)
  infer_meta :
    func : UniformRandomInferMeta
2668
    param: [shape, dtype]
Z
zyfncg 已提交
2669 2670 2671 2672 2673 2674 2675
  kernel :
    func : uniform_random
    param: [shape, dtype, min, max, seed]
    data_type : dtype
    backend : place

# The `axis` argument of Python API paddle.unique is not vector
2676
- op : unique
Z
zyfncg 已提交
2677 2678 2679 2680 2681 2682 2683 2684
  args : (Tensor x, bool return_index, bool return_inverse, bool return_counts, int[] axis, DataType dtype=DataType::INT64)
  output : Tensor(out), Tensor(indices), Tensor(inverse), Tensor(counts)
  infer_meta :
    func : UniqueInferMeta
  kernel :
    func : unique
    data_type : x

2685
- op : unique_consecutive
2686 2687 2688 2689 2690 2691 2692 2693
  args : (Tensor x, bool return_inverse, bool return_counts, int[] axis, int dtype)
  output : Tensor(out), Tensor(index), Tensor(counts)
  infer_meta :
      func : UniqueConsecutiveInferMeta
  kernel :
    func : unique_consecutive
    data_type : x

2694
- op : unsqueeze
Z
zyfncg 已提交
2695 2696 2697
  args : (Tensor x, IntArray axis)
  output : Tensor(out), Tensor(xshape)
  infer_meta :
2698
    func : UnsqueezeWithXShapeInferMeta
Z
zyfncg 已提交
2699
  kernel :
2700
    func : unsqueeze_with_xshape
2701
  inplace : (x -> out)
Z
zyfncg 已提交
2702 2703 2704 2705
  view: (x -> out)
  intermediate : xshape
  backward : unsqueeze_grad

2706
- op : unstack
2707 2708 2709 2710 2711 2712 2713 2714
  args : (Tensor x, int axis, int num)
  output : Tensor[]{num}
  infer_meta :
    func : UnStackInferMeta
  kernel :
    func : unstack
  backward : unstack_grad

2715 2716 2717 2718 2719 2720 2721 2722 2723 2724 2725
- op : update_loss_scaling_
  args : (Tensor[] x, Tensor found_infinite, Tensor prev_loss_scaling, Tensor in_good_steps, Tensor in_bad_steps, int incr_every_n_steps, int decr_every_n_nan_or_inf, float incr_ratio, float decr_ratio, Scalar stop_update)
  output : Tensor[](out){x.size()}, Tensor(loss_scaling), Tensor(out_good_steps), Tensor(out_bad_steps)
  infer_meta :
    func : UpdateLossScalingInferMeta
    param : [x, found_infinite, prev_loss_scaling, in_good_steps, in_bad_steps]
  kernel :
    func : update_loss_scaling
    data_type : x
  inplace : (x -> out), (prev_loss_scaling -> loss_scaling), (in_good_steps -> out_good_steps), (in_bad_steps -> out_bad_steps)

2726
- op : viterbi_decode
2727
  args : (Tensor potentials, Tensor transition_params, Tensor lengths, bool include_bos_eos_tag)
Z
zyfncg 已提交
2728 2729 2730 2731 2732
  output : Tensor(scores), Tensor(path)
  infer_meta :
    func : ViterbiDecodeInferMeta
  kernel :
    func : viterbi_decode
2733
    data_type : potentials
Z
zyfncg 已提交
2734

2735
- op : warpctc
Z
Zhong Hui 已提交
2736 2737 2738 2739 2740 2741 2742 2743 2744 2745 2746
  args : (Tensor logits, Tensor label, Tensor logits_length, Tensor labels_length, int blank, bool norm_by_times)
  output :  Tensor(loss), Tensor(warpctcgrad)
  infer_meta :
    func : WarpctcInferMeta
  kernel :
    func : warpctc
    data_type: logits
  optional: logits_length, labels_length
  intermediate: warpctcgrad
  backward : warpctc_grad

2747
- op : where
Z
zyfncg 已提交
2748 2749 2750 2751 2752 2753 2754 2755
  args : (Tensor condition, Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : WhereInferMeta
  kernel :
    func : where
  backward : where_grad

2756
- op : where_index
Z
zyfncg 已提交
2757
  args : (Tensor condition)
2758
  output : Tensor(out)
Z
zyfncg 已提交
2759 2760 2761 2762 2763
  infer_meta :
    func : WhereIndexInferMeta
  kernel :
    func : where_index

2764
- op : yolo_box
Z
zyfncg 已提交
2765 2766 2767 2768 2769 2770 2771 2772
  args : (Tensor x, Tensor img_size, int[] anchors, int class_num, float conf_thresh, int downsample_ratio, bool clip_bbox, float scale_x_y=1.0, bool iou_aware=false, float iou_aware_factor=0.5)
  output : Tensor(boxes), Tensor(scores)
  infer_meta :
    func : YoloBoxInferMeta
  kernel :
    func : yolo_box
    data_type : x

2773
- op : yolov3_loss
2774 2775 2776 2777 2778 2779 2780 2781 2782 2783
  args : (Tensor x, Tensor gt_box, Tensor gt_label, Tensor gt_score, int[] anchors, int[] anchor_mask, int class_num, float ignore_thresh, int downsample_ratio, bool use_label_smooth=true, float scale_x_y=1.0)
  output : Tensor(loss), Tensor(objectness_mask), Tensor(gt_match_mask)
  infer_meta :
    func : Yolov3LossInferMeta
  kernel :
    func : yolov3_loss
    data_type : x
  optional : gt_score
  backward : yolov3_loss_grad

2784
- op : zeros
2785
  args : (IntArray shape, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
2786
  output : Tensor(out)
2787 2788
  invoke : full(shape, 0, dtype, place)

2789
- op : zeros_like
Z
zyfncg 已提交
2790
  args : (Tensor x, DataType dtype=DataType::UNDEFINED, Place place = {})
2791
  output : Tensor(out)
Z
zyfncg 已提交
2792
  invoke : full_like(x, 0, dtype, place)
2793

2794 2795 2796 2797 2798 2799 2800 2801 2802
- op: bincount
  args: (Tensor x, Tensor weights, Scalar minlength)
  output: Tensor(out)
  infer_meta:
    func: BincountInferMeta
  kernel:
    func: bincount
  optional: weights

2803
- op: broadcast_tensors
2804 2805
  args: (Tensor[] input)
  output: Tensor[]{input.size()}
2806 2807 2808 2809 2810
  infer_meta:
    func: BroadcastTensorsInferMeta
  kernel:
    func: broadcast_tensors
  backward: broadcast_tensors_grad
2811

2812
- op: dirichlet
2813
  args: (Tensor alpha)
2814
  output: Tensor(out)
2815 2816 2817 2818
  infer_meta:
    func: DirichletInferMeta
  kernel:
    func: dirichlet
2819

2820
- op: eig
2821 2822 2823 2824 2825 2826 2827
  args: (Tensor x)
  output: Tensor(out_w), Tensor(out_v)
  infer_meta:
    func: EigInferMeta
  kernel:
    func: eig
  backward: eig_grad
2828

2829
- op: fold
X
xiaoting 已提交
2830 2831 2832 2833 2834 2835 2836 2837
  args: (Tensor x, int[] output_sizes, int[] kernel_sizes,  int[] strides, int[] paddings, int[] dilations)
  output: Tensor(out)
  infer_meta:
    func: FoldInferMeta
  kernel:
    func: fold
  backward: fold_grad

2838
- op: overlap_add
2839 2840 2841 2842 2843 2844 2845
  args: (Tensor x, int hop_length, int axis)
  output: Tensor
  infer_meta:
    func: OverlapAddInferMeta
  kernel:
    func: overlap_add
  backward: overlap_add_grad
2846

Y
YuanRisheng 已提交
2847 2848 2849 2850 2851 2852 2853 2854 2855 2856 2857 2858 2859 2860 2861
- op: rnn
  args: (Tensor x, Tensor[] pre_state, Tensor[] weight_list, Tensor sequence_length, Tensor dropout_state_in, float dropout_prob=0.0, bool is_bidirec=false, int input_size=10, int hidden_size=100, int num_layers=1, str mode="RNN_TANH", int seed=0, bool is_test=false)
  output: Tensor(out), Tensor(dropout_state_out), Tensor[](state){pre_state.size()}, Tensor(reserve)
  infer_meta:
    func: RnnInferMeta
    param : [x, pre_state, weight_list, sequence_length, dropout_prob, is_bidirec, input_size, hidden_size, num_layers, mode, seed, is_test]
  kernel:
    func: rnn
    param : [x, pre_state, weight_list, sequence_length, dropout_prob, is_bidirec, input_size, hidden_size, num_layers, mode, seed, is_test]
    data_type: x
  backward: rnn_grad
  optional : sequence_length
  intermediate : reserve
  view : (dropout_state_in -> dropout_state_out)

2862
- op: uniform_random_inplace
2863 2864 2865 2866 2867 2868 2869 2870 2871
  args: (Tensor x, float min, float max, int seed, int diag_num, int diag_step, float diag_val)
  output: Tensor(out)
  infer_meta:
    func: UniformRandomInplaceInferMeta
  kernel:
    func: uniform_random_inplace
    data_type: x
  inplace: (x -> out)
  backward: uniform_random_inplace_grad
X
xiaoting 已提交
2872

2873
- op: unpool
2874
  args: (Tensor x, Tensor indices, int[] ksize, int[] strides, int[] padding, IntArray output_size, str data_format)
X
xiaoting 已提交
2875 2876 2877 2878 2879 2880 2881 2882
  output: Tensor(out)
  infer_meta:
    func: UnpoolInferMeta
  kernel:
    func: unpool
    data_type: x
  backward: unpool_grad

2883
- op: unpool3d
X
xiaoting 已提交
2884 2885 2886 2887 2888 2889 2890 2891
  args: (Tensor x, Tensor indices, int[] ksize, int[] strides, int[] padding, int[] output_size, str data_format)
  output: Tensor(out)
  infer_meta:
    func: Unpool3dInferMeta
  kernel:
    func: unpool3d
    data_type: x
  backward: unpool3d_grad