legacy_ops.yaml 27.7 KB
Newer Older
1
# The apis in this file are unstandardized that may caused by a variety of reasons,
C
Chen Weihang 已提交
2
# we are trying to fix these apis and will move standardized apis into ops.yaml.
3

4
- op : adadelta_
5
  args : (Tensor param, Tensor grad, Tensor avg_squared_grad, Tensor avg_squared_update, Tensor learning_rate, Tensor master_param, float rho, float epsilon, bool multi_precision)
6
  output : Tensor(param_out), Tensor(moment_out), Tensor(inf_norm_out), Tensor(master_param_out)
Z
zyfncg 已提交
7 8 9 10
  infer_meta :
    func : AdadeltaInferMeta
  kernel :
    func : adadelta
11 12 13
    data_type : param
  optional : master_param
  inplace : (param -> param_out), (avg_squared_grad -> moment_out), (avg_squared_update -> inf_norm_out), (master_param -> master_param_out)
Z
zyfncg 已提交
14

15
- op : add
Z
zyfncg 已提交
16
  args : (Tensor x, Tensor y)
17
  output : Tensor(out)
Z
zyfncg 已提交
18 19 20 21
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : add
22
  inplace : (x -> out)
Z
zyfncg 已提交
23 24
  backward : add_grad

25
- op : add_n
26
  args : (Tensor[] inputs)
Z
zyfncg 已提交
27
  output : Tensor
28
  invoke : add_n_impl(inputs)
Z
zyfncg 已提交
29 30
  backward : add_n_grad

31
- op : all
32
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
Z
zyfncg 已提交
33 34 35 36 37 38
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : all

39
- op : amax
40
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
41 42 43 44 45 46 47
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : amax
  backward : amax_grad

48
- op : amin
49
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
50 51 52 53 54 55 56
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : amin
  backward : amin_grad

57
- op : any
58
  args : (Tensor x, int64_t[] axis={}, bool keepdim=false)
Z
zyfncg 已提交
59 60 61 62 63 64
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMeta
  kernel :
    func : any

65
- op : arange
Z
zyfncg 已提交
66
  args : (Tensor start, Tensor end, Tensor step, DataType dtype, Place place={})
67
  output : Tensor(out)
Z
zyfncg 已提交
68 69 70 71 72 73 74 75 76 77 78
  infer_meta :
    func : ArangeInferMeta
    param : [start, end, step]
  kernel :
    func : arange
    param : [start, end, step]
    data_type : dtype
    backend : place
  data_transform :
    support_trans_dtype : start, end, step

79
- op : assign
Z
zyfncg 已提交
80 81 82 83 84 85 86 87
  args : (Tensor x)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
  kernel :
    func : assign
  backward : assign_grad

88
- op : assign_out_
Z
zyfncg 已提交
89 90 91 92 93 94 95 96 97 98 99
  args : (Tensor x, Tensor output)
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : assign
    param : [x]
  inplace : (output -> out)
  backward : assign_out__grad

100
- op : assign_value_
101 102 103 104 105 106 107 108 109 110
  args : (Tensor output, int[] shape, DataType dtype, Scalar[] values, Place place = {})
  output : Tensor(out)
  inplace: (output -> out)
  infer_meta :
    func : AssignValueInferMeta
    param : [shape, dtype]
  kernel :
    func : assign_value
    param : [shape, dtype, values]
    data_type : dtype
111
    backend : place > output
112

113
- op : batch_norm
114
  args : (Tensor x, Tensor mean, Tensor variance, Tensor scale, Tensor bias, bool is_test, float momentum, float epsilon, str data_layout, bool use_global_stats, bool trainable_statistics)
Z
zyfncg 已提交
115
  output : Tensor(out), Tensor(mean_out), Tensor(variance_out), Tensor(saved_mean), Tensor(saved_variance), Tensor(reserve_space)
116 117 118 119 120 121
  infer_meta:
    func : BatchNormInferMeta
  kernel :
    func : batch_norm
    data_type : x
  view : (mean -> mean_out), (variance -> variance_out)
Z
zyfncg 已提交
122 123
  backward : batch_norm_grad

124
- op : cast
125
  args : (Tensor x, DataType dtype)
Z
zyfncg 已提交
126 127 128 129 130
  output : Tensor
  infer_meta :
    func : CastInferMeta
  kernel :
    func : cast
131
    param : [x, dtype]
Z
zyfncg 已提交
132 133 134
    data_type : x
  backward : cast_grad

135 136 137 138 139 140 141 142 143
- op : channel_shuffle
  args : (Tensor x, int groups, str data_format="NCHW")
  output : Tensor(out)
  infer_meta :
    func : ChannelShuffleInferMeta
  kernel :
    func : channel_shuffle
  backward : channel_shuffle_grad

144
- op : concat
Z
zyfncg 已提交
145 146 147 148 149 150 151 152 153
  args : (Tensor[] x, Scalar(int64_t) axis)
  output : Tensor
  infer_meta :
    func : ConcatInferMeta
    param : [x, axis]
  kernel :
    func : concat
  backward : concat_grad

154
- op : conv2d_transpose
155
  args : (Tensor x, Tensor filter, int[] strides={1, 1}, int[] paddings={0, 0}, int[] output_padding={}, IntArray output_size={}, str padding_algorithm="EXPLICIT", int groups=1, int[] dilations={1, 1}, str data_format="NCHW")
Z
zyfncg 已提交
156 157
  output : Tensor(out)
  infer_meta :
158
    func : Conv2dTransposeInferMeta
Z
zyfncg 已提交
159 160
  kernel :
    func : conv2d_transpose
161
    data_type : x
Z
zyfncg 已提交
162 163
  backward : conv2d_transpose_grad

164
- op : copy_to
Z
zyfncg 已提交
165
  args : (Tensor x, Place place, bool blocking)
166
  output : Tensor(out)
Z
zyfncg 已提交
167 168
  invoke : copy_to_impl(x, place, blocking)

169
- op : cumsum
W
WangZhen 已提交
170
  args : (Tensor x, Scalar axis, bool flatten, bool exclusive, bool reverse)
Z
zyfncg 已提交
171 172
  output : Tensor(out)
  infer_meta :
W
WangZhen 已提交
173
    func : CumScalarAxisInferMeta
Z
zyfncg 已提交
174 175 176 177
  kernel :
    func : cumsum
  backward : cumsum_grad

178
- op : decode_jpeg
Y
YuanRisheng 已提交
179
  args : (Tensor x, str mode, Place place)
W
wuyefeilin 已提交
180 181 182
  output : Tensor(out)
  infer_meta :
    func : DecodeJpegInferMeta
Y
YuanRisheng 已提交
183
    param : [x, mode]
W
wuyefeilin 已提交
184 185
  kernel :
    func : decode_jpeg
Y
YuanRisheng 已提交
186 187
    param : [x, mode]
    backend : place
W
wuyefeilin 已提交
188

189
- op : deformable_conv
Z
zyfncg 已提交
190 191 192 193 194 195 196 197 198 199
  args : (Tensor x, Tensor offset, Tensor filter, Tensor mask, int[] strides, int[] paddings, int[] dilations, int deformable_groups, int groups, int im2col_step)
  output : Tensor(out)
  infer_meta :
    func : DeformableConvInferMeta
  kernel :
    func : deformable_conv
    data_type : x
  optional : mask
  backward : deformable_conv_grad

200
- op : depthwise_conv2d_transpose
201
  args : (Tensor x, Tensor filter, int[] strides={1, 1}, int[] paddings={0, 0}, int[] output_padding={}, IntArray output_size={}, str padding_algorithm="EXPLICIT", int groups=1, int[] dilations={1, 1}, str data_format="NCHW")
Z
zyfncg 已提交
202 203
  output : Tensor(out)
  infer_meta :
204
    func : Conv2dTransposeInferMeta
Z
zyfncg 已提交
205 206
  kernel :
    func : depthwise_conv2d_transpose
207
    data_type : x
Z
zyfncg 已提交
208 209
  backward : depthwise_conv2d_transpose_grad

210
- op : distribute_fpn_proposals
211 212 213 214 215 216 217 218 219
  args : (Tensor fpn_rois, Tensor rois_num, int min_level, int max_level, int refer_level, int refer_scale, bool pixel_offset)
  output : Tensor[](multi_fpn_rois){max_level - min_level + 1}, Tensor[](multi_level_rois_num){max_level - min_level + 1}, Tensor(restore_index)
  infer_meta :
    func : DistributeFpnProposalsInferMeta
  kernel :
    func : distribute_fpn_proposals
    data_type : fpn_rois
  optional : rois_num

220
- op : divide
Z
zyfncg 已提交
221 222 223 224 225 226 227 228
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : divide
  backward : divide_grad

229
- op : dropout
230
  args : (Tensor x, Tensor seed_tensor, Scalar p, bool is_test, str mode, int seed, bool fix_seed)
Z
zyfncg 已提交
231 232 233 234 235 236 237 238 239
  output : Tensor(out), Tensor(mask)
  infer_meta :
    func : DropoutInferMeta
  kernel :
    func : dropout
    data_type : x
  optional : seed_tensor
  backward : dropout_grad

240
- op : einsum
Z
zyfncg 已提交
241
  args : (Tensor[] x, str equation)
242
  output : Tensor(out), Tensor[](inner_cache){x.size()}, Tensor[](xshape){x.size()}
Z
zyfncg 已提交
243
  infer_meta :
244
    func : EinsumRawInferMeta
Z
zyfncg 已提交
245 246
    param : [x, equation]
  kernel :
247
    func : einsum
Z
zyfncg 已提交
248 249
  backward : einsum_grad

250
- op : elementwise_pow
Z
zyfncg 已提交
251 252 253 254 255 256 257 258
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : elementwise_pow
  backward : elementwise_pow_grad

259
- op : embedding
Z
zyfncg 已提交
260 261
  args : (Tensor x, Tensor weight, int64_t padding_idx=-1, bool sparse=false)
  output : Tensor
262 263 264 265 266 267 268 269
  infer_meta :
    func : EmbeddingInferMeta
    param : [x, weight, padding_idx]
  kernel :
    func : embedding {dense, dense -> dense}
           sparse_weight_embedding {dense, selected_rows -> dense}
    param : [x, weight, padding_idx]
    data_type : weight
Z
zyfncg 已提交
270 271
  backward : embedding_grad

272
- op : empty
Z
zyfncg 已提交
273
  args : (IntArray shape, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
274
  output: Tensor(out)
Z
zyfncg 已提交
275 276 277 278 279 280 281 282 283
  infer_meta :
    func : CreateInferMeta
    param : [shape, dtype]
  kernel :
    func : empty
    param : [shape, dtype]
    data_type : dtype
    backend : place

284
- op : empty_like
Z
zyfncg 已提交
285
  args : (Tensor x, DataType dtype = DataType::UNDEFINED, Place place = {})
286
  output: Tensor(out)
Z
zyfncg 已提交
287 288 289 290 291 292 293 294 295
  infer_meta :
    func : CreateLikeInferMeta
    param : [x, dtype]
  kernel :
    func : empty_like
    param : [x, dtype]
    data_type : dtype > x
    backend : place > x

296
- op : equal
297
  args : (Tensor x, Tensor y)
298
  output : Tensor(out)
Z
zyfncg 已提交
299 300 301 302 303
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : equal

304
- op : expand
Z
zyfncg 已提交
305 306 307 308 309 310 311 312
  args : (Tensor x, IntArray shape)
  output : Tensor
  infer_meta :
    func : ExpandInferMeta
  kernel :
    func : expand
  backward : expand_grad

313
- op : exponential_
314
  args : (Tensor x, float lam)
315 316 317 318 319 320 321 322 323
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : exponential
  inplace : (x -> out)
  backward : exponential__grad

324
- op : eye
325
  args : (Scalar num_rows, Scalar num_columns, DataType dtype=DataType::FLOAT32, Place place={})
Z
zyfncg 已提交
326 327 328 329 330 331 332 333 334 335
  output : Tensor(out)
  infer_meta :
    func : EyeInferMeta
    param : [num_rows, num_columns, dtype]
  kernel :
    func : eye
    param : [num_rows, num_columns, dtype]
    data_type : dtype
    backend : place

336
- op : floor_divide
Z
zyfncg 已提交
337 338 339 340 341 342 343
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : floor_divide

344
- op : fmin
345
  args : (Tensor x, Tensor y)
Z
zyfncg 已提交
346 347 348 349 350 351 352 353
  output : Tensor(out)
  infer_meta :
    param: [x, y]
    func : ElementwiseInferMeta
  kernel :
    func : fmin
  backward : fmin_grad

354
- op : frobenius_norm
Z
zyfncg 已提交
355 356 357 358 359 360 361 362
  args : (Tensor x, int64_t[] axis,  bool keep_dim,  bool reduce_all)
  output : Tensor(out)
  infer_meta :
    func : ReduceInferMetaBase
  kernel :
    func : frobenius_norm
  backward : frobenius_norm_grad

363
- op : full
Z
zyfncg 已提交
364
  args : (IntArray shape, Scalar value, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
365
  output: Tensor(out)
Z
zyfncg 已提交
366 367 368 369 370 371 372 373 374
  infer_meta :
    func : CreateInferMeta
    param : [shape, dtype]
  kernel :
    func : full
    param : [shape, value, dtype]
    data_type : dtype
    backend : place

375
- op : full_
376 377 378 379 380 381 382 383 384 385 386 387
  args : (Tensor output, IntArray shape, Scalar value, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
  output : Tensor(out)
  inplace : (output -> out)
  infer_meta :
    func : CreateInferMeta
    param : [shape, dtype]
  kernel :
    func : full
    param : [shape, value, dtype]
    data_type : dtype
    backend : place

388
- op : full_batch_size_like
Z
zyfncg 已提交
389
  args : (Tensor input, int[] shape, DataType dtype, Scalar value, int input_dim_idx, int output_dim_idx, Place place=CPUPlace())
390
  output: Tensor(out)
Z
zyfncg 已提交
391 392 393 394 395 396 397 398 399
  infer_meta :
    func : FullBatchSizeLikeInferMeta
    param : [input, shape, value, dtype, input_dim_idx, output_dim_idx]
  kernel :
    func : full_batch_size_like
    param : [input, shape, value, dtype, input_dim_idx, output_dim_idx]
    data_type : dtype
    backend : place

400
- op : full_like
Z
zyfncg 已提交
401
  args : (Tensor x, Scalar value, DataType dtype = DataType::UNDEFINED, Place place = {})
402
  output: Tensor(out)
Z
zyfncg 已提交
403 404 405 406 407 408 409 410 411 412 413
  infer_meta :
    func : CreateLikeInferMeta
    param : [x, dtype]
  kernel :
    func : full_like
    param : [x, value, dtype]
    data_type : dtype > x
    backend : place > x
  data_transform :
    skip_transform : x

414 415 416 417 418 419 420 421 422 423 424
- op : fused_adam_
  args : (Tensor[] params, Tensor[] grads, Tensor learning_rate, Tensor[] moments1, Tensor[] moments2, Tensor[] beta1_pows, Tensor[] beta2_pows, Tensor[] master_params, Tensor skip_update, Scalar beta1, Scalar beta2, Scalar epsilon, int chunk_size, float weight_decay, bool use_adamw, bool multi_precision, bool use_global_beta_pow)
  output : Tensor[](params_out){params.size()}, Tensor[](moments1_out){params.size()}, Tensor[](moments2_out){params.size()}, Tensor[](beta1_pows_out){params.size()}, Tensor[](beta2_pows_out){params.size()}, Tensor[](master_params_out){params.size()}
  infer_meta :
    func : FusedAdamInferMeta
  kernel :
    func : fused_adam
    data_type : params
  optional : skip_update, master_params
  inplace : (params -> params_out), (moments1 -> moments1_out), (moments2 -> moments2_out), (beta1_pows -> beta1_pows_out), (beta2_pows -> beta2_pows_out), (master_params -> master_params_out)

425
- op : gaussian
Z
zyfncg 已提交
426
  args : (IntArray shape, float mean, float std, int seed, DataType dtype, Place place={})
427
  output: Tensor(out)
Z
zyfncg 已提交
428
  infer_meta :
429
    func : GaussianInferMeta
Z
zyfncg 已提交
430 431
    param : [shape, mean, std, seed, dtype]
  kernel :
432
    func : gaussian
Z
zyfncg 已提交
433 434 435 436
    param : [shape, mean, std, seed, dtype]
    data_type : dtype
    backend : place

437
- op : greater_equal
438
  args : (Tensor x, Tensor y)
439
  output : Tensor(out)
Z
zyfncg 已提交
440 441 442 443 444
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : greater_equal

445
- op : greater_than
446
  args : (Tensor x, Tensor y)
447
  output : Tensor(out)
Z
zyfncg 已提交
448 449 450 451 452
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : greater_than

453
- op : hardswish
454
  args : (Tensor x)
C
cyber-pioneer 已提交
455
  output : Tensor(out)
Z
zyfncg 已提交
456 457 458 459
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
Z
zyfncg 已提交
460
    func : hardswish
461
  backward : hardswish_grad
Z
zyfncg 已提交
462

463 464 465 466 467 468 469 470 471
- op : heaviside
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : heaviside
  backward : heaviside_grad

472
- op : hsigmoid_loss
Z
zhangyuqin1998 已提交
473
  args : (Tensor x, Tensor label, Tensor w, Tensor bias, Tensor path, Tensor code, int num_classes, bool is_sparse)
474 475 476 477 478 479 480 481 482
  output : Tensor(out), Tensor(pre_out), Tensor(w_out)
  infer_meta :
    func : HSigmoidLossInferMeta
  optional: path, code, bias
  kernel :
    func : hsigmoid_loss
    data_type : x
  backward : hsigmoid_loss_grad

483
- op : increment
484
  args : (Tensor x, float value = 1.0)
485
  output : Tensor(out)
Z
zyfncg 已提交
486 487 488 489
  infer_meta :
    func : IncrementInferMeta
  kernel :
    func : increment
H
hong 已提交
490
  inplace : (x -> out)
Z
zyfncg 已提交
491

492
- op : less_equal
493
  args : (Tensor x, Tensor y)
494
  output : Tensor(out)
Z
zyfncg 已提交
495 496 497 498 499
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : less_equal

500
- op : less_than
501
  args : (Tensor x, Tensor y)
502
  output : Tensor(out)
Z
zyfncg 已提交
503 504 505 506 507
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : less_than

508
- op : linspace
509
  args : (Tensor start, Tensor stop, Tensor number, DataType dtype, Place place)
510
  output : Tensor(out)
Z
zyfncg 已提交
511 512
  infer_meta :
    func : LinspaceInferMeta
513
    param: [start, stop, number, dtype]
Z
zyfncg 已提交
514 515
  kernel :
    func : linspace
516
    param: [start, stop, number, dtype]
Z
zyfncg 已提交
517
    data_type : dtype
518
    backend : place
Z
zyfncg 已提交
519

C
Chen Weihang 已提交
520 521 522 523 524 525 526 527 528 529 530 531
- op : logspace
  args : (Tensor start, Tensor stop, Tensor num, Tensor base, DataType dtype, Place place={})
  output : Tensor(out)
  infer_meta:
    func : LogspaceInferMeta
    param : [start, stop, num, base, dtype]
  kernel :
    func : logspace
    param : [start, stop, num, base, dtype]
    data_type : dtype
    backend : place

532
- op : logsumexp
Z
zyfncg 已提交
533 534 535 536 537 538 539 540
  args : (Tensor x, int64_t[] axis,  bool keepdim,  bool reduce_all)
  output : Tensor(out)
  infer_meta :
    func : LogsumexpInferMeta
  kernel :
    func : logsumexp
  backward : logsumexp_grad

541
- op : matmul
Z
zyfncg 已提交
542 543 544 545 546 547 548 549
  args : (Tensor x, Tensor y, bool transpose_x = false, bool transpose_y = false)
  output : Tensor
  infer_meta :
    func : MatmulInferMeta
  kernel :
    func : matmul
  backward : matmul_grad

550
- op : matrix_rank
Z
zhangyuqin1998 已提交
551
  args : (Tensor x, float tol, bool use_default_tol=true, bool hermitian=false)
Z
zyfncg 已提交
552 553 554
  output : Tensor(out)
  infer_meta :
    func : MatrixRankInferMeta
Z
zhangyuqin1998 已提交
555
    param : [x, use_default_tol, hermitian]
Z
zyfncg 已提交
556 557 558
  kernel :
    func : matrix_rank

559
- op : matrix_rank_tol
Z
zyfncg 已提交
560 561 562 563 564 565 566
  args : (Tensor x, Tensor atol_tensor, bool use_default_tol=true, bool hermitian=false)
  output : Tensor(out)
  infer_meta :
    func : MatrixRankTolInferMeta
  kernel :
    func : matrix_rank_tol

567
- op : max
568
  args : (Tensor x, IntArray axis={}, bool keepdim=false)
Z
zyfncg 已提交
569 570
  output : Tensor(out)
  infer_meta :
571
    func : ReduceIntArrayAxisInferMeta
Z
zyfncg 已提交
572 573 574 575
  kernel :
    func : max
  backward : max_grad

576
- op : maximum
Z
zyfncg 已提交
577 578 579 580 581 582 583 584
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : maximum
  backward : maximum_grad

585
- op : mean
586
  args : (Tensor x, IntArray axis={}, bool keepdim=false)
Z
zyfncg 已提交
587 588
  output : Tensor(out)
  infer_meta :
589
    func : ReduceIntArrayAxisInferMeta
Z
zyfncg 已提交
590 591 592 593
  kernel :
    func : mean
  backward : mean_grad

594
- op : min
595
  args : (Tensor x, IntArray axis={}, bool keepdim=false)
Z
zyfncg 已提交
596 597
  output : Tensor(out)
  infer_meta :
598
    func : ReduceIntArrayAxisInferMeta
Z
zyfncg 已提交
599 600 601 602
  kernel :
    func : min
  backward : min_grad

603
- op : minimum
Z
zyfncg 已提交
604 605 606 607 608 609 610 611
  args : (Tensor x, Tensor y)
  output : Tensor(out)
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : minimum
  backward : minimum_grad

612
- op : mish
Z
zyfncg 已提交
613 614 615 616 617 618 619 620 621
  args : (Tensor x, float lambda)
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : mish
  backward : mish_grad

622
- op : multiply
Z
zyfncg 已提交
623 624 625 626 627
  args : (Tensor x, Tensor y)
  output : Tensor
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
628 629
    func : multiply {dense, dense -> dense},
           multiply_sr {selected_rows, dense -> selected_rows}
630
  inplace : (x -> out)
Z
zyfncg 已提交
631 632
  backward : multiply_grad

633
- op : norm
Z
zyfncg 已提交
634 635 636 637 638 639 640 641
  args : (Tensor x, int axis, float epsilon, bool is_test)
  output : Tensor(out), Tensor(norm)
  infer_meta :
    func : NormInferMeta
  kernel :
    func : norm
  backward : norm_grad

642
- op : not_equal
643
  args : (Tensor x, Tensor y)
644
  output : Tensor(out)
Z
zyfncg 已提交
645 646 647 648 649
  infer_meta :
    func : CompareInferMeta
  kernel :
    func : not_equal

650
- op : one_hot
Z
zyfncg 已提交
651
  args : (Tensor x, Scalar(int) num_classes)
652
  output : Tensor(out)
Z
zyfncg 已提交
653 654 655 656 657
  infer_meta :
    func : OneHotInferMeta
  kernel :
    func : one_hot

658
- op : ones
659
  args : (IntArray shape, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
660
  output : Tensor(out)
661 662
  invoke : full(shape, 1, dtype, place)

663
- op : ones_like
Z
zyfncg 已提交
664
  args : (Tensor x, DataType dtype=DataType::UNDEFINED, Place place={})
665
  output : Tensor(out)
Z
zyfncg 已提交
666 667
  invoke : full_like(x, 1, dtype, place)

668
- op : pad
669
  args : (Tensor x, int[] paddings, Scalar pad_value)
Z
zyfncg 已提交
670 671 672 673 674 675 676
  output : Tensor
  infer_meta :
    func : PadInferMeta
  kernel :
    func : pad
  backward : pad_grad

677
- op : pool2d
678
  args : (Tensor x, IntArray kernel_size, int[] strides, int[] paddings, bool ceil_mode, bool exclusive, str data_format, str pooling_type, bool global_pooling, bool adaptive, str padding_algorithm)
Z
zyfncg 已提交
679 680
  output : Tensor(out)
  infer_meta :
681
    func : Pool2DInferMeta
682
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
Z
zyfncg 已提交
683 684
  kernel :
    func : pool2d
685
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
Z
zyfncg 已提交
686 687
  backward : pool2d_grad

688
- op : pool3d
689
  args : (Tensor x, int[] kernel_size, int[] strides, int[] paddings, bool ceil_mode, bool exclusive, str data_format, str pooling_type, bool global_pooling, bool adaptive, str padding_algorithm)
Z
zyfncg 已提交
690 691 692
  output : Tensor(out)
  infer_meta :
    func : PoolInferMeta
693
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
Z
zyfncg 已提交
694 695
  kernel :
    func : pool3d
696
    param : [x, kernel_size, strides, paddings, ceil_mode, exclusive, data_format, pooling_type, global_pooling, adaptive, padding_algorithm]
Z
zyfncg 已提交
697 698
  backward : pool3d_grad

699 700 701 702 703 704
- op : prod
  args : (Tensor x, IntArray dims, bool keep_dim, bool reduce_all)
  output : Tensor
  infer_meta :
    func : ReduceIntArrayAxisInferMetaBase
  kernel :
705
    func : prod
706 707
  backward : prod_grad

708
- op : psroi_pool
Z
zyfncg 已提交
709 710 711 712 713 714 715 716 717 718
  args : (Tensor x, Tensor boxes, Tensor boxes_num, int pooled_height, int pooled_width, int output_channels, float spatial_scale)
  output : Tensor
  infer_meta :
    func : PsroiPoolInferMeta
  kernel :
    func : psroi_pool
    data_type : x
  optional : boxes_num
  backward : psroi_pool_grad

719
- op : randint
Z
zyfncg 已提交
720 721 722 723 724 725 726 727 728 729 730
  args : (int low, int high, IntArray shape, DataType dtype=DataType::INT64, Place place={})
  output : Tensor(out)
  infer_meta :
    func : RandintInferMeta
    param : [low, high, shape, dtype]
  kernel :
    func : randint
    param : [low, high, shape, dtype]
    data_type : dtype
    backend : place

731
- op : randperm
Z
zyfncg 已提交
732
  args : (int n, DataType dtype, Place place={})
733
  output : Tensor(out)
Z
zyfncg 已提交
734 735 736 737 738 739 740 741 742
  infer_meta :
    func : RandpermInferMeta
    param : [n, dtype]
  kernel :
    func : randperm
    param : [n, dtype]
    data_type : dtype
    backend : place

743
- op : relu6
744
  args : (Tensor x)
745 746 747 748 749 750 751 752
  output : Tensor
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : relu6
  backward : relu6_grad

753
- op : remainder
C
Chen Weihang 已提交
754
  args : (Tensor x, Tensor y)
755
  output : Tensor (out)
C
Chen Weihang 已提交
756 757 758 759 760 761
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : remainder
  inplace : (x -> out)

762
- op : repeat_interleave
763
  args : (Tensor x, int repeats, int axis)
S
seemingwang 已提交
764 765 766 767 768 769 770
  output : Tensor(out)
  infer_meta :
    func : RepeatInterleaveInferMeta
  kernel :
    func : repeat_interleave
  backward: repeat_interleave_grad

771
- op : repeat_interleave_with_tensor_index
772
  args : (Tensor x, Tensor repeats, int axis)
S
seemingwang 已提交
773 774 775 776 777 778 779 780
  output : Tensor(out)
  infer_meta :
    func : RepeatInterleaveWithTensorIndexInferMeta
  kernel :
    func : repeat_interleave_with_tensor_index
    data_type : x
  backward: repeat_interleave_with_tensor_index_grad

781
- op : reshape
Z
zyfncg 已提交
782 783 784 785 786
  args : (Tensor x, IntArray shape)
  output : Tensor(out), Tensor(xshape)
  infer_meta :
    func : ReshapeWithXShapeInferMeta
  kernel :
787
    func : reshape
Z
zyfncg 已提交
788 789 790 791 792
  inplace : (x -> out)
  view: (x -> out)
  intermediate : xshape
  backward: reshape_grad

793 794 795 796 797 798 799 800 801 802 803 804 805 806 807
- op : rnn
  args: (Tensor x, Tensor[] pre_state, Tensor[] weight_list, Tensor sequence_length, Tensor dropout_state_in, float dropout_prob=0.0, bool is_bidirec=false, int input_size=10, int hidden_size=100, int num_layers=1, str mode="RNN_TANH", int seed=0, bool is_test=false)
  output: Tensor(out), Tensor(dropout_state_out), Tensor[](state){pre_state.size()}, Tensor(reserve)
  infer_meta:
    func: RnnInferMeta
    param : [x, pre_state, weight_list, sequence_length, dropout_prob, is_bidirec, input_size, hidden_size, num_layers, mode, seed, is_test]
  kernel:
    func: rnn
    param : [x, pre_state, weight_list, sequence_length, dropout_prob, is_bidirec, input_size, hidden_size, num_layers, mode, seed, is_test]
    data_type: x
  backward: rnn_grad
  optional : sequence_length
  intermediate : reserve
  view : (dropout_state_in -> dropout_state_out)

808
- op : roi_align
Z
zyfncg 已提交
809 810 811 812 813 814 815 816 817 818
  args : (Tensor x, Tensor boxes, Tensor boxes_num, int pooled_height, int pooled_width, float spatial_scale, int sampling_ratio, bool aligned)
  output : Tensor
  infer_meta :
    func : RoiAlignInferMeta
  kernel :
    func : roi_align
    data_type : x
  optional : boxes_num
  backward : roi_align_grad

819
- op : roi_pool
Z
zyfncg 已提交
820 821 822 823 824 825 826 827 828 829 830
  args : (Tensor x, Tensor boxes, Tensor boxes_num, int pooled_height, int pooled_width, float spatial_scale)
  output : Tensor(out), Tensor(arg_max)
  infer_meta :
    func : RoiPoolInferMeta
  kernel :
    func : roi_pool
    data_type : x
  optional : boxes_num
  intermediate : arg_max
  backward : roi_pool_grad

W
Weilong Wu 已提交
831 832 833 834 835 836 837 838 839 840 841
- op : rrelu
  args : (Tensor x, float lower, float upper, bool is_test)
  output : Tensor(out), Tensor(noise)
  infer_meta :
    func : RReluInferMeta
  kernel :
    func : rrelu
    data_type : x
  intermediate : noise
  backward : rrelu_grad

842
- op : slice
Z
zyfncg 已提交
843 844 845 846 847 848 849 850
  args : (Tensor input, int64_t[] axes, IntArray starts, IntArray ends, int64_t[] infer_flags, int64_t[] decrease_axis)
  output : Tensor
  infer_meta :
    func : SliceRawInferMeta
  kernel :
    func : slice
  backward : slice_grad

851
- op : softmax
Z
zyfncg 已提交
852
  args : (Tensor x, int axis)
853
  output : Tensor(out)
Z
zyfncg 已提交
854 855 856 857
  infer_meta :
    func : SoftmaxInferMeta
  kernel :
    func : softmax
858
  inplace : (x -> out)
Z
zyfncg 已提交
859 860
  backward : softmax_grad

861
- op : split
C
Charles-hit 已提交
862 863 864 865 866 867
  args : (Tensor x, IntArray sections, Scalar(int) axis)
  output : Tensor[]{sections.size()}
  infer_meta :
    func : SplitInferMeta
  kernel :
    func : split
Z
zyfncg 已提交
868 869
  backward : split_grad

870
- op : split_with_num
C
Charles-hit 已提交
871 872 873 874 875 876 877 878
  args : (Tensor x, int num, Scalar(int) axis)
  output : Tensor[]{num}
  infer_meta :
    func : SplitWithNumInferMeta
  kernel :
    func : split_with_num
  backward : split_with_num_grad

879
- op : strided_slice
Z
zyfncg 已提交
880 881 882 883 884 885 886 887
  args : (Tensor x, int[] axes, IntArray starts, IntArray ends, IntArray strides)
  output : Tensor
  infer_meta :
    func : StridedSliceInferMeta
  kernel :
    func : strided_slice
  backward : strided_slice_grad

888
- op : subtract
Z
zyfncg 已提交
889
  args : (Tensor x, Tensor y)
890
  output : Tensor(out)
Z
zyfncg 已提交
891 892 893 894
  infer_meta :
    func : ElementwiseInferMeta
  kernel :
    func : subtract
895
  inplace : (x -> out)
Z
zyfncg 已提交
896 897
  backward : subtract_grad

898
- op : sum
899
  args : (Tensor x, IntArray axis={}, DataType dtype=DataType::UNDEFINED, bool keepdim=false)
Z
zyfncg 已提交
900 901 902 903 904 905 906 907
  output : Tensor(out)
  infer_meta :
    func : SumInferMeta
  kernel :
    func : sum
    data_type : x
  backward : sum_grad

908
- op : swish
909
  args : (Tensor x)
Z
zyfncg 已提交
910 911 912 913 914 915 916 917
  output : Tensor(out)
  infer_meta :
    func : UnchangedInferMeta
    param : [x]
  kernel :
    func : swish
  backward : swish_grad

918
- op : sync_batch_norm_
919
  args : (Tensor x, Tensor mean, Tensor variance, Tensor scale, Tensor bias, bool is_test, float momentum, float epsilon, str data_layout, bool use_global_stats, bool trainable_statistics)
920 921 922 923 924
  output : Tensor(out), Tensor(mean_out), Tensor(variance_out), Tensor(saved_mean), Tensor(saved_variance), Tensor(reserve_space)
  infer_meta :
    func : BatchNormInferMeta
  kernel :
    func : sync_batch_norm
925
    data_type : x
926
  backward : sync_batch_norm_grad
927
  inplace : (mean -> mean_out), (variance -> variance_out)
928

929
- op : tile
930 931
  args : (Tensor x, IntArray repeat_times = {})
  output : Tensor(out)
Z
zyfncg 已提交
932 933 934 935 936 937
  infer_meta :
    func : TileInferMeta
  kernel :
    func : tile
  backward : tile_grad

N
niuliling123 已提交
938 939 940 941 942 943 944 945 946
- op : trans_layout
  args : (Tensor x, int[] perm)
  output : Tensor
  infer_meta :
    func : TransposeInferMeta
  kernel :
    func : transpose
  backward : trans_layout_grad

947
- op : transpose
948
  args : (Tensor x, int[] perm)
Z
zyfncg 已提交
949 950 951 952 953 954 955
  output : Tensor
  infer_meta :
    func : TransposeInferMeta
  kernel :
    func : transpose
  backward : transpose_grad

956
- op : tril
Z
zyfncg 已提交
957
  args : (Tensor x, int diagonal)
958 959 960 961 962 963 964
  output : Tensor(out)
  infer_meta :
    func : TrilInferMeta
  kernel :
    func : tril
  backward : tril_grad

965
- op : tril_indices
Z
zyfncg 已提交
966 967 968 969 970 971 972 973 974 975 976
  args : (int rows, int cols, int offset, DataType dtype, Place place={})
  output : Tensor(out)
  infer_meta :
    func : TrilIndicesInferMeta
    param : [rows, cols, offset, dtype]
  kernel :
    func : tril_indices
    param : [rows, cols, offset, dtype]
    data_type : dtype
    backend : place

977
- op : triu
Z
zyfncg 已提交
978
  args : (Tensor x, int diagonal)
979 980 981 982 983 984 985
  output : Tensor(out)
  infer_meta :
    func : TriuInferMeta
  kernel :
    func : triu
  backward : triu_grad

986
- op : triu_indices
987 988 989 990 991 992 993 994 995 996 997
  args : (int row, int col, int offset, DataType dtype, Place place={})
  output : Tensor(out)
  infer_meta :
    func : TriuIndicesInferMeta
    param : [row, col, offset, dtype]
  kernel :
    func : triu_indices
    param : [row, col, offset, dtype]
    data_type : dtype
    backend : place

Z
zyfncg 已提交
998
# python API: paddle.nn.initializer.TruncatedNormal
999
- op : truncated_gaussian_random
Z
zyfncg 已提交
1000
  args : (int[] shape, float mean, float std, int seed, DataType dtype=DataType::FLOAT32, Place place={})
1001
  output : Tensor(out)
Z
zyfncg 已提交
1002 1003 1004 1005 1006 1007 1008 1009 1010
  infer_meta :
    func : TruncatedGaussianRandomInferMeta
    param : [shape, mean, std, seed, dtype]
  kernel :
    func : truncated_gaussian_random
    param : [shape, mean, std, seed, dtype]
    backend : place
    data_type : dtype

1011
- op : uniform
1012
  args : (IntArray shape,  DataType dtype,  Scalar min,  Scalar max,  int seed, Place place={})
Z
zyfncg 已提交
1013 1014 1015
  output : Tensor(out)
  infer_meta :
    func : UniformRandomInferMeta
1016
    param: [shape, dtype]
Z
zyfncg 已提交
1017
  kernel :
1018
    func : uniform
Z
zyfncg 已提交
1019 1020 1021 1022 1023
    param: [shape, dtype, min, max, seed]
    data_type : dtype
    backend : place

# The `axis` argument of Python API paddle.unique is not vector
1024
- op : unique
Z
zyfncg 已提交
1025 1026 1027 1028 1029 1030 1031 1032
  args : (Tensor x, bool return_index, bool return_inverse, bool return_counts, int[] axis, DataType dtype=DataType::INT64)
  output : Tensor(out), Tensor(indices), Tensor(inverse), Tensor(counts)
  infer_meta :
    func : UniqueInferMeta
  kernel :
    func : unique
    data_type : x

1033 1034 1035 1036 1037 1038 1039 1040 1041 1042
- op : unpool
  args: (Tensor x, Tensor indices, int[] ksize, int[] strides, int[] padding, IntArray output_size, str data_format)
  output: Tensor(out)
  infer_meta:
    func: UnpoolInferMeta
  kernel:
    func: unpool
    data_type: x
  backward: unpool_grad

1043
- op : zeros
1044
  args : (IntArray shape, DataType dtype=DataType::FLOAT32, Place place=CPUPlace())
1045
  output : Tensor(out)
1046 1047
  invoke : full(shape, 0, dtype, place)

1048
- op : zeros_like
Z
zyfncg 已提交
1049
  args : (Tensor x, DataType dtype=DataType::UNDEFINED, Place place = {})
1050
  output : Tensor(out)
Z
zyfncg 已提交
1051
  invoke : full_like(x, 0, dtype, place)