op_compat.yaml 28.0 KB
Newer Older
1 2 3 4 5 6 7 8 9 10 11
# All the configuration in this file are only for existing operators,
# which cannot be modified in principle. There's no need to configure
# this file for new operator.
#
# This file is used for two purposes:
# 1. Configure the mapping relationship of parameter names of operator
#    between the operators in ops.yaml and the old operators defined
#    in fluid.
# 2. Save the extra parameters in the OpMaker of operators temporarily,
#    which will be removed in the future.

12 13 14 15 16
# - op : rnn
#   backward : rnn_grad
#   extra :
#     attrs : [bool is_test = false]

17
- op : abs
18
  backward : abs_grad
19 20 21 22
  inputs :
    x : X
  outputs :
    out : Out
23
  extra :
H
HongyuJia 已提交
24
    attrs : [bool use_mkldnn = false]
25

26 27 28 29 30 31
- op : acos
  inputs :
    x : X
  outputs :
    out : Out

32
- op : acosh
33 34 35 36
  inputs :
    x : X
  outputs :
    out : Out
37 38 39 40
  backward : acosh_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

41 42 43 44 45 46
- op : add (elementwise_add)
  backward : add_grad (elementwise_add_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

47
- op : addmm
48 49 50 51
  backward : addmm_grad
  extra :
    attrs : [bool use_mkldnn = false]

52
- op : affine_grid
53 54 55 56
  backward : affine_grid_grad
  extra :
    attrs : [bool use_cudnn = true]

57
- op : angle
58
  backward : angle_grad
59 60 61 62
  inputs :
    x : X
  outputs :
    out : Out
63
  extra :
H
HongyuJia 已提交
64
    attrs : [bool use_mkldnn = false]
65

66 67 68 69 70 71 72
- op : argsort
  inputs :
    x : X
  outputs :
    out : Out
    indices : Indices

73 74 75 76 77 78 79 80 81 82 83 84
- op : as_complex
  inputs :
    x : X
  outputs :
    out : Out

- op : as_real
  inputs :
    x : X
  outputs :
    out : Out

85 86 87 88 89 90
- op : asin
  inputs :
    x : X
  outputs :
    out : Out

91
- op : asinh
92
  backward : asinh_grad
93 94 95 96
  inputs :
    x : X
  outputs :
    out : Out
97 98 99
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

100 101 102 103 104 105
- op : atan
  inputs :
    x : X
  outputs :
    out : Out

106
- op : atan2
107
  inputs :
108
    {x : X1, y : X2}
109 110 111
  outputs :
    out : Out

112
- op : atanh
113
  backward : atanh_grad
114 115 116 117
  inputs :
    x : X
  outputs :
    out : Out
118 119 120
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

121
- op : batch_norm
122 123 124 125
  backward : batch_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

126
- op : bernoulli
127 128 129 130 131
  inputs :
    x : X
  outputs :
    out : Out

132
- op : bicubic_interp (bicubic_interp_v2)
133 134 135 136
  backward : bicubic_interp_grad (bicubic_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

137
- op : bilinear_interp (bilinear_interp_v2)
138 139 140 141
  backward : bilinear_interp_grad (bilinear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

142 143 144 145 146 147
- op : bmm
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

148
- op : ceil
149
  backward : ceil_grad
150 151 152 153
  inputs :
    x : X
  outputs :
    out : Out
154 155 156
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

157 158 159 160 161 162 163
- op : celu
  backward : celu_grad, celu_double_grad(celu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out

164
- op : cholesky
165 166 167 168 169
  inputs :
    x : X
  outputs :
    out : Out

170
- op : cholesky_solve
171 172 173 174 175
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

176
- op : clip
177 178 179 180
  backward : clip_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

181
- op : concat
182 183 184 185
  backward : concat_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_quantizer = false, str mkldnn_data_type = "float32"]

186 187 188 189 190
- op : conditional_block
  backward : conditional_block_grad
  extra :
    attrs : ['str[] skip_eager_deletion_vars = {}']

191 192 193 194 195 196
- op : conj
  inputs :
    x : X
  outputs :
    out : Out

197
- op : conv2d
198
  backward : conv2d_grad
199
  extra :
200
    attrs : [bool is_test = false, bool use_cudnn = true, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
201
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
202
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
203 204
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
205
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
206

207
- op : conv2d_fusion
F
Feiyu Chan 已提交
208
  extra :
209
    attrs : [bool is_test = false, bool use_cudnn = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
F
Feiyu Chan 已提交
210
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
211
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
F
Feiyu Chan 已提交
212 213
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
214
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
215

216
- op : conv2d_transpose
217 218 219 220 221
  backward : conv2d_transpose_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, bool force_fp32_output = false,
             str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
222
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB()]
223

224
- op : conv3d
225 226 227 228 229
  backward : conv3d_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
             bool use_addto = false, bool fuse_residual_connection = false, bool force_fp32_output = false,
230
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
231

232
- op : conv3d_transpose
233 234
  backward : conv3d_transpose_grad
  extra :
235
    attrs : [bool use_cudnn = true, bool use_mkldnn = false, int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB()]
F
Feiyu Chan 已提交
236

237
- op : cos
238
  backward : cos_grad, cos_double_grad, cos_triple_grad
239 240 241 242
  inputs :
    x : X
  outputs :
    out : Out
243 244 245
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

246
- op : cosh
247
  backward : cosh_grad
248 249 250 251
  inputs :
    x : X
  outputs :
    out : Out
252 253 254
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270
- op : crop (crop_tensor)
  backward : crop_grad (crop_tensor_grad)
  inputs :
    x : X
  outputs :
    out : Out
  int_array:
    shape :
      data_type : int
      tensor_name : Shape
      tensors_name : ShapeTensor
    offsets :
      data_type : int
      tensor_name : Offsets
      tensors_name : OffsetsTensor

271
- op : cross
272 273
  inputs :
    {x : X, y : Y}
274 275 276 277 278
  attrs :
    axis : dim
  outputs :
    out : Out

279
- op : data_norm
280 281 282 283
  backward : data_norm_grad
  extra :
    attrs : [bool use_mkldnn = false]

284
- op : depthwise_conv2d
285 286
  backward : depthwise_conv2d_grad
  extra :
287
    attrs : [bool is_test = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
288 289 290 291
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
292
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
293

294
- op : depthwise_conv2d_transpose
295 296 297 298 299
  backward : depthwise_conv2d_transpose_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = false, bool use_mkldnn = false, bool force_fp32_output = false,
             str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
300
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB()]
301

302 303 304 305
- op : dequantize_linear
  extra :
    attrs : [float moving_rate = 0.9]

306 307 308 309 310 311 312
- op : det (determinant)
  backward : det_grad (determinant_grad)
  inputs :
    x : Input
  outputs :
    out : Out

313
- op : diag (diag_v2)
314
  backward : diag_grad (diag_v2_grad)
315 316 317 318 319
  inputs :
    x : X
  outputs :
    out : Out

320 321 322 323 324 325
- op : diag_embed
  inputs :
    input : Input
  outputs :
    out : Out

326
- op : diagonal
327 328 329 330 331
  inputs :
    x : Input
  outputs :
    out : Out

332
- op : digamma
333 334 335 336 337
  inputs :
    x : X
  outputs :
    out : Out

338
- op : dist
339 340 341 342 343
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

344 345 346 347
- op : distributed_push_sparse
  extra :
    attrs : ['int[] slots = {}']

348 349 350 351 352 353
- op : divide (elementwise_div)
  backward : divide_grad (elementwise_div)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

354
- op : dot
355 356 357 358 359
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

360
- op : dropout
361 362 363 364
  backward : dropout_grad
  extra :
    attrs : [bool fix_seed = false, int seed = 0]

365
- op : dropout_nd
366 367 368 369
  backward : dropout_nd_grad
  extra :
    attrs : [bool fix_seed = false, int seed = 0]

370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389
- op : eig
  inputs :
    x : X
  outputs :
    out_w : Eigenvalues
    out_v : Eigenvectors

- op : eigh
  inputs :
    x : X
  outputs :
    out_w : Eigenvalues
    out_v : Eigenvectors

- op : eigvals
  inputs :
    x : X
  outputs :
    out : Out

390 391 392 393 394 395
- op : elementwise_pow
  backward : elementwise_pow_grad
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

396
- op : elu
397 398 399 400 401
  backward : elu_grad, elu_double_grad (elu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
402 403 404
  extra :
    attrs : [bool use_mkldnn = false]

405 406 407 408 409 410 411
- op : embedding (lookup_table_v2)
  backward : embedding_grad (lookup_table_v2_grad)
  extra :
    attrs : [bool is_sparse = false, bool is_distributed = false, bool remote_prefetch = false,
             int trainer_id = 0, int slot = 0, 'int64_t[] height_sections = {}', 'str[] epmap = {}',
             'str[] table_names = {}']

412 413 414 415 416 417
- op : equal_all
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

418
- op : erf
419 420 421 422 423
  inputs :
    x : X
  outputs :
    out : Out

424
- op : erfinv
425 426 427 428 429
  inputs :
    x : X
  outputs :
    out : Out

430
- op : exp
431
  backward : exp_grad
432 433 434 435
  inputs :
    x : X
  outputs :
    out : Out
436 437
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
438

439 440 441 442 443
- op : expand (expand_v2)
  backward : expand_grad (expand_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

444
- op : expm1
445
  backward : expm1_grad
446 447 448 449
  inputs :
    x : X
  outputs :
    out : Out
450 451 452
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480
- op : fake_channel_wise_quantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_channel_wise_quantize_dequantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_dequantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_dequantize_moving_average_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_moving_average_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_range_abs_max
  extra :
    attrs : [int round_type = 1]

481
- op : fft_c2c
482 483 484
  inputs: {x: X}
  outputs: {out: Out}

485
- op : fft_c2r
486 487 488
  inputs: {x: X}
  outputs: {out: Out}

489
- op : fft_r2c
490 491 492
  inputs: {x: X}
  outputs: {out: Out}

493 494 495 496 497 498
- op : fill_diagonal_tensor
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

499 500 501 502 503 504
- op : flip
  inputs :
    x : X
  outputs :
    out : Out

505 506
- op : floor
  backward : floor_grad
507 508 509 510
  inputs :
    x : X
  outputs :
    out : Out
511 512 513
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530
- op : floor_divide (elementwise_floordiv)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : fmax (elementwise_fmax)
  backward : fmax_grad (elementwise_fmax_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : fmin (elementwise_fmin)
  backward : fmin_grad (elementwise_fmin_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

531 532 533 534 535 536
- op : fold
  inputs :
    x : X
  outputs :
    out : Y

537
- op : frobenius_norm
538 539 540 541
  backward : frobenius_norm_grad
  extra :
    attrs : [bool use_mkldnn = false]

542 543 544 545 546 547 548 549 550
- op : full (fill_constant)
  extra :
    attrs : [bool use_mkldnn = false]

- op : gather
  backward : gather_grad
  extra :
    attrs : [bool overwrite = true]

551 552 553 554 555 556
- op : gather_tree
  inputs :
    {ids : Ids, parents : Parents}
  outputs :
    out : Out

557
- op : gelu
558
  backward : gelu_grad
559 560 561 562
  inputs :
    x : X
  outputs :
    out : Out
563
  extra :
H
HongyuJia 已提交
564
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
565

566 567 568 569 570
- op : grad_add
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

571 572 573 574 575 576
- op : grid_sample(grid_sampler)
  backward : grid_sample_grad (grid_sampler_grad)
  inputs :
    {x : X, grid : Grid}
  outputs :
    out : Output
577 578 579
  extra :
    attrs : [bool use_cudnn = true]

580
- op : gru
581 582 583 584
  backward : gru_grad
  extra :
    attrs : [bool is_test = false]

585 586 587 588 589 590
- op : gumbel_softmax
  inputs :
    x : X
  outputs :
    out : Out

591 592 593 594 595
- op : hard_swish
  backward : hard_swish_grad
  extra :
    attrs : [bool use_mkldnn = false]

596 597 598 599 600 601 602 603 604 605 606 607 608 609
- op : hardshrink (hard_shrink)
  backward : hardshrink_grad (hard_shrink_grad)
  inputs :
    x : X
  outputs :
    out : Out

- op : hardsigmoid (hard_sigmoid)
  backward : hardsigmoid_grad (hard_sigmoid_grad)
  inputs :
    x : X
  outputs :
    out : Out

610 611 612 613 614 615
- op : heaviside (elementwise_heaviside)
  backward : heaviside_grad (elementwise_heaviside_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635
- op : histogram
  inputs :
    input : X
  outputs :
    out : Out

- op : index_sample
  inputs :
    {x : X, index : Index}
  outputs :
    out : Out

- op : index_select
  inputs :
    {x : X, index : Index}
  outputs :
    out : Out
  attrs :
    axis : dim

636
- op : inplace_abn
637 638 639 640
  backward : inplace_abn_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

641 642 643 644 645 646
- op : inverse
  inputs :
    x : Input
  outputs :
    out : Output

647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682
- op : is_empty
  inputs :
    x : X
  outputs :
    out : Out

- op : isfinite (isfinite_v2)
  inputs :
    x : X
  outputs :
    out : Out

- op : isinf (isinf_v2)
  inputs :
    x : X
  outputs :
    out : Out

- op : isnan (isnan_v2)
  inputs :
    x : X
  outputs :
    out : Out

- op : kthvalue
  inputs :
    x : X
  outputs :
    {out : Out, indices : Indices}

- op : label_smooth
  inputs :
    {label : X, prior_dist : PriorDist}
  outputs :
    out : Out

683
- op : layer_norm
684 685 686 687
  backward : layer_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]

688
- op : leaky_relu
689 690 691 692 693 694 695
  backward : leaky_relu_grad, leaky_relu_double_grad (leaky_relu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
  attrs:
    negative_slope : alpha
696 697 698
  extra :
    attrs : [bool use_mkldnn = false]

699 700 701 702 703 704 705
- op : lerp
  backward : lerp_grad
  inputs :
    {x : X, y : Y, weight : Weight}
  outputs :
    out : Out

706
- op : lgamma
707 708 709 710 711
  inputs :
    x : X
  outputs :
    out : Out

712
- op : linear_interp (linear_interp_v2)
713 714 715 716
  backward : linear_interp_grad (linear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

717
- op : log
718 719 720 721 722
  backward : log_grad, log_double_grad (log_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
723 724 725
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

726
- op : log10
727
  backward : log10_grad
728 729 730 731
  inputs :
    x : X
  outputs :
    out : Out
732 733 734
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

735
- op : log1p
736
  backward : log1p_grad
737 738 739 740
  inputs :
    x : X
  outputs :
    out : Out
741 742 743
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

744
- op : log2
745
  backward : log2_grad
746 747 748 749
  inputs :
    x : X
  outputs :
    out : Out
750 751 752
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

753
- op : log_softmax
754 755 756 757
  backward : log_softmax_grad
  extra :
    attrs : [bool use_mkldnn = false]

758 759 760 761 762 763 764 765 766 767 768 769
- op : logit
  inputs :
    x : X
  outputs :
    out : Out

- op : logsigmoid
  inputs :
    x : X
  outputs :
    out : Out

770
- op : logsigmoid
771 772 773 774
  backward : logsigmoid_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

775
- op : lrn
776 777 778 779
  backward : lrn_grad
  extra :
    attrs : [bool use_mkldnn = false, bool is_test = false]

780 781 782 783 784 785 786
- op : lu_unpack
  backward : lu_unpack_grad
  inputs :
    {x : X, y : Pivots}
  outputs :
    {pmat : Pmat, l : L, u : U}

787 788 789 790 791 792
- op : masked_select
  inputs :
    {x : X, mask : Mask}
  outputs :
    out : Y

793
- op : matmul (matmul_v2)
794 795 796 797
  backward : matmul_grad (matmul_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false, 'int[] fused_reshape_Out = {}', 'int[] fused_transpose_Out = {}',
             str mkldnn_data_type = "float32", 'int[] fused_reshape_X = {}', 'int[] fused_reshape_Y = {}',
798
             'int[] fused_transpose_X = {}', 'int[] fused_transpose_Y = {}']
799

800 801 802 803 804 805
- op : matmul_with_flatten (mul)
  backward : matmul_with_flatten_grad (mul_grad)
  extra :
    attrs : [bool use_mkldnn = false, float scale_x = 1.0f, 'float[] scale_y = {1.0f}',
             float scale_out = 1.0f, bool force_fp32_output = false]

806 807 808 809 810 811
- op : matrix_power
  inputs :
    x : X
  outputs :
    out : Out

812 813 814 815 816 817 818 819 820 821 822 823
- op : maximum (elementwise_max)
  backward : maximum_grad (elementwise_max_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : maximum (elementwise_min)
  backward : maximum_grad (elementwise_min_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

824 825 826 827 828 829
- op : maxout
  inputs :
    x : X
  outputs :
    out : Out

830 831 832 833 834
- op : mish
  backward : mish_grad
  extra :
    attrs : [bool use_mkldnn = false]

835 836 837 838 839 840 841
- op : mode
  backward : mode_grad
  inputs :
    x : X
  outputs :
    {out : Out, indices : Indices}

842 843 844 845 846 847 848 849 850 851
- op : multinomial
  inputs :
    {x : X}
  outputs :
    out : Out
  scalar :
    num_samples :
      data_type : int
      support_tensor : true

852 853 854 855 856 857
- op : multiply (elementwise_mul)
  backward : multiply_grad (elementwise_mul_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

858
- op : mv
859 860 861 862 863
  inputs :
    {x : X, vec : Vec}
  outputs :
    out : Out

864 865 866 867 868 869
- op : nce
  backward : nce_grad
  extra :
    attrs : [int trainer_id = 0, 'int64_t[] height_sections = {}', 'str[] epmap = {}',
             'str[] table_names = {}', 'int[] custom_neg_classes = {}']

870
- op : nearest_interp (nearest_interp_v2)
871 872 873 874
  backward : nearest_interp_grad (nearest_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

875 876 877 878 879 880 881
- op : nll_loss
  backward : nll_loss_grad
  inputs :
    {input : X, label : Label, weight : Weight}
  outputs :
    {out : Out, total_weight : Total_weight}

882
- op : pad2d
883 884 885 886
  backward : pad2d_grad
  extra :
    attrs : [bool use_mkldnn = false]

887
- op : pad3d
888 889 890 891
  backward : pad3d_grad
  extra :
    attrs : [bool use_mkldnn = false]

892
- op : partial_sum
893 894 895 896
  backward : partial_sum_grad
  extra :
    attrs : [bool use_mkldnn = false]

897
- op : poisson
898 899 900 901 902
  inputs :
    x : X
  outputs :
    out : Out

903 904 905 906 907 908 909 910 911 912 913
- op : pool2d
  backward : pool2d_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_quantizer = false,
              str mkldnn_data_type = "float32", bool is_test = false]

- op : pool3d
  backward : pool3d_grad
  extra :
    attrs : [bool use_mkldnn = false]

914
- op : prelu
915 916 917 918
  backward : prelu_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]

919 920 921 922 923 924 925
- op : qr
  backward : qr_grad
  inputs :
    x : X
  outputs :
    {q : Q, r : R}

926 927 928 929
- op : quantize_linear
  extra :
    attrs : [float moving_rate = 0.9]

930
- op : reciprocal
931
  backward : reciprocal_grad
932 933 934 935
  inputs :
    x : X
  outputs :
    out : Out
936 937 938
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

939
- op : reduce_all
940 941 942
  extra :
    attrs : [bool use_mkldnn = false]

943
- op : reduce_amax
944 945 946 947
  backward : reduce_amax_grad
  extra :
    attrs : [bool use_mkldnn = false]

948
- op : reduce_amin
949 950 951 952
  backward : reduce_amin_grad
  extra :
    attrs : [bool use_mkldnn = false]

953
- op : reduce_any
954 955 956
  extra :
    attrs : [bool use_mkldnn = false]

957
- op : reduce_max
958 959 960 961
  backward : reduce_max_grad
  extra :
    attrs : [bool use_mkldnn = false]

962
- op : reduce_mean
963 964 965 966
  backward : reduce_mean_grad
  extra :
    attrs : [bool use_mkldnn = false]

967
- op : reduce_min
968 969 970 971
  backward : reduce_min_grad
  extra :
    attrs : [bool use_mkldnn = false]

972
- op : reduce_prod
973 974 975 976
  backward : reduce_prod_grad
  extra :
    attrs : [bool use_mkldnn = false]

977
- op : reduce_sum
978 979 980 981
  backward : reduce_sum_grad
  extra :
    attrs : [bool use_mkldnn = false]

982
- op : relu
983 984 985 986 987
  backward : relu_grad, relu_double_grad (relu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
988 989 990
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

991
- op : relu6
992 993 994 995
  backward : relu6_grad
  extra :
    attrs : [bool use_mkldnn = false]

996 997 998 999 1000
- op : remainder (elementwise_mod)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

1001
- op : renorm
1002
  backward : renorm_grad
1003 1004 1005 1006
  inputs :
    x : X
  outputs :
    out : Out
1007 1008 1009
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1010
- op : round
1011
  backward : round_grad
1012 1013 1014 1015
  inputs :
    x : X
  outputs :
    out : Out
1016
  extra :
1017 1018
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1019
- op : rsqrt
1020 1021 1022 1023 1024
  backward : rsqrt_grad, rsqrt_double_grad (rsqrt_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1025 1026
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
1027

1028 1029 1030 1031
- op : scale
  extra :
    attrs : [bool use_mkldnn = false]

1032
- op : seed
1033 1034 1035
  extra :
    attrs : [bool deterministic = false, str rng_name = "", bool force_cpu = false]

1036 1037 1038
- op : send_uv (graph_send_uv)
  backward : send_uv_grad (graph_send_uv_grad)

1039 1040 1041 1042 1043
- op : sequence_softmax
  backward : sequence_softmax_grad
  extra :
    attrs : [str data_format = "AnyLayout"]

1044
- op : shape
1045 1046 1047
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

1048 1049 1050 1051 1052 1053 1054
- op : share_buffer
  inputs :
    x : X
  outputs :
    out : Out
    xout : XOut

1055
- op : shuffle_channel
1056 1057 1058 1059
  backward : shuffle_channel_grad
  extra :
    attrs : [bool use_mkldnn = false]

1060
- op : sigmoid
1061 1062 1063 1064 1065
  backward : sigmoid_grad, sigmoid_double_grad (sigmoid_grad_grad), sigmoid_triple_grad
  inputs :
    x : X
  outputs :
    out : Out
1066 1067 1068
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1069
- op : silu
1070
  backward : silu_grad
1071 1072 1073 1074
  inputs :
    x : X
  outputs :
    out : Out
1075 1076 1077
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1078
- op : sin
1079
  backward : sin_grad, sin_double_grad, sin_triple_grad
1080 1081 1082 1083
  inputs :
    x : X
  outputs :
    out : Out
1084 1085 1086
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1087
- op : sinh
1088
  backward : sinh_grad
1089 1090 1091 1092
  inputs :
    x : X
  outputs :
    out : Out
1093 1094 1095
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1096
- op : slice
1097 1098 1099 1100
  backward : slice_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

1101
- op : softmax
1102 1103
  backward : softmax_grad
  extra :
1104
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
1105

1106
- op : softplus
1107
  backward : softplus_grad
1108 1109 1110 1111
  inputs :
    x : X
  outputs :
    out : Out
1112
  extra :
1113 1114 1115
    attrs : [bool use_mkldnn = false, bool use_cudnn = false, str fuse_activation_type = "", float fuse_activation_alpha = 0.0f,
             float fuse_activation_beta = 0.0f, float fuse_activation_scale = 1.0f]

1116 1117 1118 1119 1120 1121 1122 1123 1124
- op : softshrink
  backward : softshrink_grad
  inputs :
    x : X
  outputs :
    out : Out
  attrs :
    threshold : lambda

1125
- op : softsign
1126
  backward : softsign_grad
1127 1128 1129 1130
  inputs :
    x : X
  outputs :
    out : Out
1131 1132
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
1133

1134
- op : solve
1135 1136 1137 1138 1139
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

1140
- op : sqrt
1141 1142 1143 1144 1145
  backward : sqrt_grad, sqrt_double_grad (sqrt_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1146 1147 1148
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1149
- op : square
1150 1151 1152 1153 1154
  backward : square_grad, square_double_grad (square_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1155 1156 1157
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1158
- op : squeeze (squeeze2)
1159 1160 1161 1162
  backward : squeeze_grad (squeeze2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

1163
- op : stack
1164 1165 1166 1167
  backward : stack_grad
  extra :
    attrs : [bool use_mkldnn = false]

1168 1169 1170 1171 1172
- op : stack
  backward : stack_grad
  extra :
    attrs : [bool use_mkldnn = false]

1173 1174 1175 1176 1177 1178
- op : subtract (elementwise_sub)
  backward : subtract_grad (elementwise_sub_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

1179
- op : swish
1180 1181 1182 1183
  backward : swish_grad
  extra :
    attrs : [bool use_mkldnn = false]

1184
- op : sync_batch_norm
1185 1186 1187 1188
  backward : sync_batch_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

1189
- op : tan
1190
  backward : tan_grad
1191 1192 1193 1194
  inputs :
    x : X
  outputs :
    out : Out
1195 1196 1197
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1198
- op : tanh
1199 1200 1201 1202 1203
  backward : tanh_grad, tanh_double_grad (tanh_grad_grad), tanh_triple_grad
  inputs :
    x : X
  outputs :
    out : Out
1204 1205 1206
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1207
- op : tanh_shrink
1208
  backward : tanh_shrink_grad
1209 1210 1211 1212
  inputs :
    x : X
  outputs :
    out : Out
1213 1214 1215
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1216 1217 1218 1219 1220 1221
- op : thresholded_relu
  inputs :
    x : X
  outputs :
    out : Out

1222 1223 1224 1225 1226 1227 1228 1229 1230 1231 1232
- op : topk (top_k_v2)
  backward : topk_grad (top_k_v2_grad)
  inputs :
    x : X
  outputs :
    {out : Out, indices : Indices}
  scalar :
    k :
      data_type : int
      tensor_name : K

1233
- op : trace
1234 1235 1236 1237
  inputs :
    x : Input
  outputs :
    out : Out
1238

1239 1240 1241 1242 1243 1244
- op : transpose (transpose2)
  backward : transpose_grad (transpose2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str data_format = "AnyLayout", bool use_quantizer = false,
              str mkldnn_data_type = "float32"]

1245
- op : trilinear_interp (trilinear_interp_v2)
1246 1247 1248 1249
  backward : trilinear_interp_grad (trilinear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

1250
- op : trunc
1251
  inputs :
1252
    input : X
1253 1254
  outputs :
    out : Out
1255

1256 1257 1258 1259 1260 1261
- op : unfold
  inputs :
    x : X
  outputs :
    out : Y

1262 1263
- op : while
  backward : while_grad
1264
  extra :
1265
    attrs : ['str[] skip_eager_deletion_vars = {}']