op_compat.yaml 29.4 KB
Newer Older
1 2 3 4 5 6 7 8 9 10 11
# All the configuration in this file are only for existing operators,
# which cannot be modified in principle. There's no need to configure
# this file for new operator.
#
# This file is used for two purposes:
# 1. Configure the mapping relationship of parameter names of operator
#    between the operators in ops.yaml and the old operators defined
#    in fluid.
# 2. Save the extra parameters in the OpMaker of operators temporarily,
#    which will be removed in the future.

12 13 14 15 16
# - op : rnn
#   backward : rnn_grad
#   extra :
#     attrs : [bool is_test = false]

17
- op : abs
18
  backward : abs_grad
19 20 21 22
  inputs :
    x : X
  outputs :
    out : Out
23
  extra :
H
HongyuJia 已提交
24
    attrs : [bool use_mkldnn = false]
25

26 27 28 29 30 31
- op : acos
  inputs :
    x : X
  outputs :
    out : Out

32
- op : acosh
33 34 35 36
  inputs :
    x : X
  outputs :
    out : Out
37 38 39 40
  backward : acosh_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

41 42 43 44 45 46
- op : add (elementwise_add)
  backward : add_grad (elementwise_add_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

47
- op : addmm
48 49 50 51
  backward : addmm_grad
  extra :
    attrs : [bool use_mkldnn = false]

52
- op : affine_grid
53 54 55 56
  backward : affine_grid_grad
  extra :
    attrs : [bool use_cudnn = true]

57
- op : angle
58
  backward : angle_grad
59 60 61 62
  inputs :
    x : X
  outputs :
    out : Out
63
  extra :
H
HongyuJia 已提交
64
    attrs : [bool use_mkldnn = false]
65

66 67 68 69 70 71 72
- op : argsort
  inputs :
    x : X
  outputs :
    out : Out
    indices : Indices

73 74 75 76 77 78 79 80 81 82 83 84
- op : as_complex
  inputs :
    x : X
  outputs :
    out : Out

- op : as_real
  inputs :
    x : X
  outputs :
    out : Out

85 86 87 88 89 90
- op : asin
  inputs :
    x : X
  outputs :
    out : Out

91
- op : asinh
92
  backward : asinh_grad
93 94 95 96
  inputs :
    x : X
  outputs :
    out : Out
97 98 99
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

100 101 102 103 104 105
- op : atan
  inputs :
    x : X
  outputs :
    out : Out

106
- op : atan2
107
  inputs :
108
    {x : X1, y : X2}
109 110 111
  outputs :
    out : Out

112
- op : atanh
113
  backward : atanh_grad
114 115 116 117
  inputs :
    x : X
  outputs :
    out : Out
118 119 120
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

121
- op : batch_norm
122 123 124 125
  backward : batch_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

126
- op : bernoulli
127 128 129 130 131
  inputs :
    x : X
  outputs :
    out : Out

132
- op : bicubic_interp (bicubic_interp_v2)
133 134 135 136
  backward : bicubic_interp_grad (bicubic_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

137
- op : bilinear_interp (bilinear_interp_v2)
138 139 140 141
  backward : bilinear_interp_grad (bilinear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

142 143 144 145 146 147
- op : bmm
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

148
- op : ceil
149
  backward : ceil_grad
150 151 152 153
  inputs :
    x : X
  outputs :
    out : Out
154 155 156
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

157 158 159 160 161 162 163
- op : celu
  backward : celu_grad, celu_double_grad(celu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out

164
- op : cholesky
165 166 167 168 169
  inputs :
    x : X
  outputs :
    out : Out

170
- op : cholesky_solve
171 172 173 174 175
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

176
- op : clip
177 178 179 180
  backward : clip_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

181
- op : concat
182 183 184 185
  backward : concat_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_quantizer = false, str mkldnn_data_type = "float32"]

186 187 188 189 190
- op : conditional_block
  backward : conditional_block_grad
  extra :
    attrs : ['str[] skip_eager_deletion_vars = {}']

191 192 193 194 195 196
- op : conj
  inputs :
    x : X
  outputs :
    out : Out

197
- op : conv2d
198
  backward : conv2d_grad
199
  extra :
200
    attrs : [bool is_test = false, bool use_cudnn = true, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
201
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
202
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
203 204
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
205
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
206

207
- op : conv2d_fusion
F
Feiyu Chan 已提交
208
  extra :
209
    attrs : [bool is_test = false, bool use_cudnn = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
F
Feiyu Chan 已提交
210
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
211
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
F
Feiyu Chan 已提交
212 213
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
214
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
215

216
- op : conv2d_transpose
217 218 219 220 221
  backward : conv2d_transpose_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, bool force_fp32_output = false,
             str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
222
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB()]
223

224
- op : conv3d
225 226 227 228 229
  backward : conv3d_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
             bool use_addto = false, bool fuse_residual_connection = false, bool force_fp32_output = false,
230
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
231

232
- op : conv3d_transpose
233 234
  backward : conv3d_transpose_grad
  extra :
235
    attrs : [bool use_cudnn = true, bool use_mkldnn = false, int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB()]
F
Feiyu Chan 已提交
236

237
- op : cos
238
  backward : cos_grad, cos_double_grad, cos_triple_grad
239 240 241 242
  inputs :
    x : X
  outputs :
    out : Out
243 244 245
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

246
- op : cosh
247
  backward : cosh_grad
248 249 250 251
  inputs :
    x : X
  outputs :
    out : Out
252 253 254
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270
- op : crop (crop_tensor)
  backward : crop_grad (crop_tensor_grad)
  inputs :
    x : X
  outputs :
    out : Out
  int_array:
    shape :
      data_type : int
      tensor_name : Shape
      tensors_name : ShapeTensor
    offsets :
      data_type : int
      tensor_name : Offsets
      tensors_name : OffsetsTensor

271
- op : cross
272 273
  inputs :
    {x : X, y : Y}
274 275 276 277 278
  attrs :
    axis : dim
  outputs :
    out : Out

279
- op : data_norm
280 281 282 283
  backward : data_norm_grad
  extra :
    attrs : [bool use_mkldnn = false]

284
- op : depthwise_conv2d
285 286
  backward : depthwise_conv2d_grad
  extra :
287
    attrs : [bool is_test = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
288 289 290 291
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
292
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
293

294
- op : depthwise_conv2d_transpose
295 296 297 298 299
  backward : depthwise_conv2d_transpose_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = false, bool use_mkldnn = false, bool force_fp32_output = false,
             str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
300
             int workspace_size_MB = phi::backends::gpu::GetDefaultConvWorkspaceSizeLimitMB()]
301

302 303 304 305
- op : dequantize_linear
  extra :
    attrs : [float moving_rate = 0.9]

306 307 308 309 310 311 312
- op : det (determinant)
  backward : det_grad (determinant_grad)
  inputs :
    x : Input
  outputs :
    out : Out

313
- op : diag (diag_v2)
314
  backward : diag_grad (diag_v2_grad)
315 316 317 318 319
  inputs :
    x : X
  outputs :
    out : Out

320 321 322 323 324 325
- op : diag_embed
  inputs :
    input : Input
  outputs :
    out : Out

326
- op : diagonal
327 328 329 330 331
  inputs :
    x : Input
  outputs :
    out : Out

332
- op : digamma
333 334 335 336 337
  inputs :
    x : X
  outputs :
    out : Out

338
- op : dist
339 340 341 342 343
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

344 345 346 347
- op : distributed_push_sparse
  extra :
    attrs : ['int[] slots = {}']

348 349 350 351 352 353
- op : divide (elementwise_div)
  backward : divide_grad (elementwise_div)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

354
- op : dot
355 356 357 358 359
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

360
- op : dropout
361 362 363 364
  backward : dropout_grad
  extra :
    attrs : [bool fix_seed = false, int seed = 0]

365
- op : dropout_nd
366 367 368 369
  backward : dropout_nd_grad
  extra :
    attrs : [bool fix_seed = false, int seed = 0]

370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389
- op : eig
  inputs :
    x : X
  outputs :
    out_w : Eigenvalues
    out_v : Eigenvectors

- op : eigh
  inputs :
    x : X
  outputs :
    out_w : Eigenvalues
    out_v : Eigenvectors

- op : eigvals
  inputs :
    x : X
  outputs :
    out : Out

390 391 392 393 394 395
- op : elementwise_pow
  backward : elementwise_pow_grad
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

396
- op : elu
397 398 399 400 401
  backward : elu_grad, elu_double_grad (elu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
402 403 404
  extra :
    attrs : [bool use_mkldnn = false]

405 406 407 408 409 410 411
- op : embedding (lookup_table_v2)
  backward : embedding_grad (lookup_table_v2_grad)
  extra :
    attrs : [bool is_sparse = false, bool is_distributed = false, bool remote_prefetch = false,
             int trainer_id = 0, int slot = 0, 'int64_t[] height_sections = {}', 'str[] epmap = {}',
             'str[] table_names = {}']

412 413 414 415 416 417
- op : equal_all
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

418
- op : erf
419 420 421 422 423
  inputs :
    x : X
  outputs :
    out : Out

424
- op : erfinv
425 426 427 428 429
  inputs :
    x : X
  outputs :
    out : Out

430
- op : exp
431
  backward : exp_grad
432 433 434 435
  inputs :
    x : X
  outputs :
    out : Out
436 437
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
438

439 440 441 442 443
- op : expand (expand_v2)
  backward : expand_grad (expand_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

444
- op : expm1
445
  backward : expm1_grad
446 447 448 449
  inputs :
    x : X
  outputs :
    out : Out
450 451 452
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480
- op : fake_channel_wise_quantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_channel_wise_quantize_dequantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_dequantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_dequantize_moving_average_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_moving_average_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_range_abs_max
  extra :
    attrs : [int round_type = 1]

481
- op : fft_c2c
482 483 484
  inputs: {x: X}
  outputs: {out: Out}

485
- op : fft_c2r
486 487 488
  inputs: {x: X}
  outputs: {out: Out}

489
- op : fft_r2c
490 491 492
  inputs: {x: X}
  outputs: {out: Out}

493 494 495 496 497 498
- op : fill_diagonal_tensor
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

499 500 501 502 503 504
- op : flip
  inputs :
    x : X
  outputs :
    out : Out

505 506
- op : floor
  backward : floor_grad
507 508 509 510
  inputs :
    x : X
  outputs :
    out : Out
511 512 513
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530
- op : floor_divide (elementwise_floordiv)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : fmax (elementwise_fmax)
  backward : fmax_grad (elementwise_fmax_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : fmin (elementwise_fmin)
  backward : fmin_grad (elementwise_fmin_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

531 532 533 534 535 536
- op : fold
  inputs :
    x : X
  outputs :
    out : Y

537
- op : frobenius_norm
538 539 540 541
  backward : frobenius_norm_grad
  extra :
    attrs : [bool use_mkldnn = false]

542 543 544 545 546 547 548 549 550
- op : full (fill_constant)
  extra :
    attrs : [bool use_mkldnn = false]

- op : gather
  backward : gather_grad
  extra :
    attrs : [bool overwrite = true]

551 552 553 554 555 556
- op : gather_tree
  inputs :
    {ids : Ids, parents : Parents}
  outputs :
    out : Out

557
- op : gelu
558
  backward : gelu_grad
559 560 561 562
  inputs :
    x : X
  outputs :
    out : Out
563
  extra :
H
HongyuJia 已提交
564
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
565

566 567 568 569 570
- op : grad_add
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

571 572 573 574 575 576
- op : grid_sample(grid_sampler)
  backward : grid_sample_grad (grid_sampler_grad)
  inputs :
    {x : X, grid : Grid}
  outputs :
    out : Output
577 578 579
  extra :
    attrs : [bool use_cudnn = true]

580
- op : gru
581 582 583 584
  backward : gru_grad
  extra :
    attrs : [bool is_test = false]

585 586 587 588 589 590
- op : gumbel_softmax
  inputs :
    x : X
  outputs :
    out : Out

591 592 593 594 595
- op : hard_swish
  backward : hard_swish_grad
  extra :
    attrs : [bool use_mkldnn = false]

596 597 598 599 600 601 602 603 604 605 606 607 608 609
- op : hardshrink (hard_shrink)
  backward : hardshrink_grad (hard_shrink_grad)
  inputs :
    x : X
  outputs :
    out : Out

- op : hardsigmoid (hard_sigmoid)
  backward : hardsigmoid_grad (hard_sigmoid_grad)
  inputs :
    x : X
  outputs :
    out : Out

610 611 612 613 614 615
- op : heaviside (elementwise_heaviside)
  backward : heaviside_grad (elementwise_heaviside_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635
- op : histogram
  inputs :
    input : X
  outputs :
    out : Out

- op : index_sample
  inputs :
    {x : X, index : Index}
  outputs :
    out : Out

- op : index_select
  inputs :
    {x : X, index : Index}
  outputs :
    out : Out
  attrs :
    axis : dim

636
- op : inplace_abn
637 638 639 640
  backward : inplace_abn_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

641 642 643 644 645 646
- op : inverse
  inputs :
    x : Input
  outputs :
    out : Output

647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682
- op : is_empty
  inputs :
    x : X
  outputs :
    out : Out

- op : isfinite (isfinite_v2)
  inputs :
    x : X
  outputs :
    out : Out

- op : isinf (isinf_v2)
  inputs :
    x : X
  outputs :
    out : Out

- op : isnan (isnan_v2)
  inputs :
    x : X
  outputs :
    out : Out

- op : kthvalue
  inputs :
    x : X
  outputs :
    {out : Out, indices : Indices}

- op : label_smooth
  inputs :
    {label : X, prior_dist : PriorDist}
  outputs :
    out : Out

683
- op : layer_norm
684 685 686 687
  backward : layer_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]

688
- op : leaky_relu
689 690 691 692 693 694 695
  backward : leaky_relu_grad, leaky_relu_double_grad (leaky_relu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
  attrs:
    negative_slope : alpha
696 697 698
  extra :
    attrs : [bool use_mkldnn = false]

699 700 701 702 703 704 705
- op : lerp
  backward : lerp_grad
  inputs :
    {x : X, y : Y, weight : Weight}
  outputs :
    out : Out

706
- op : lgamma
707 708 709 710 711
  inputs :
    x : X
  outputs :
    out : Out

712
- op : linear_interp (linear_interp_v2)
713 714 715 716
  backward : linear_interp_grad (linear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

717
- op : log
718 719 720 721 722
  backward : log_grad, log_double_grad (log_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
723 724 725
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

726
- op : log10
727
  backward : log10_grad
728 729 730 731
  inputs :
    x : X
  outputs :
    out : Out
732 733 734
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

735
- op : log1p
736
  backward : log1p_grad
737 738 739 740
  inputs :
    x : X
  outputs :
    out : Out
741 742 743
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

744
- op : log2
745
  backward : log2_grad
746 747 748 749
  inputs :
    x : X
  outputs :
    out : Out
750 751 752
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

753 754 755 756 757 758 759
- op : log_loss
  backward : log_loss_grad
  inputs :
    {input : Predicted, label : Labels}
  outputs :
    out : Loss

760
- op : log_softmax
761 762 763 764
  backward : log_softmax_grad
  extra :
    attrs : [bool use_mkldnn = false]

765 766 767 768 769 770 771 772 773 774 775 776
- op : logit
  inputs :
    x : X
  outputs :
    out : Out

- op : logsigmoid
  inputs :
    x : X
  outputs :
    out : Out

777
- op : logsigmoid
778 779 780 781
  backward : logsigmoid_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

782
- op : lrn
783 784 785 786
  backward : lrn_grad
  extra :
    attrs : [bool use_mkldnn = false, bool is_test = false]

787 788 789 790 791 792 793
- op : lu_unpack
  backward : lu_unpack_grad
  inputs :
    {x : X, y : Pivots}
  outputs :
    {pmat : Pmat, l : L, u : U}

794 795 796 797 798 799
- op : masked_select
  inputs :
    {x : X, mask : Mask}
  outputs :
    out : Y

800
- op : matmul (matmul_v2)
801 802 803 804
  backward : matmul_grad (matmul_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false, 'int[] fused_reshape_Out = {}', 'int[] fused_transpose_Out = {}',
             str mkldnn_data_type = "float32", 'int[] fused_reshape_X = {}', 'int[] fused_reshape_Y = {}',
805
             'int[] fused_transpose_X = {}', 'int[] fused_transpose_Y = {}']
806

807 808 809 810 811 812
- op : matmul_with_flatten (mul)
  backward : matmul_with_flatten_grad (mul_grad)
  extra :
    attrs : [bool use_mkldnn = false, float scale_x = 1.0f, 'float[] scale_y = {1.0f}',
             float scale_out = 1.0f, bool force_fp32_output = false]

813 814 815 816 817 818
- op : matrix_power
  inputs :
    x : X
  outputs :
    out : Out

819 820 821 822 823 824 825 826 827 828 829 830
- op : maximum (elementwise_max)
  backward : maximum_grad (elementwise_max_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : maximum (elementwise_min)
  backward : maximum_grad (elementwise_min_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

831 832 833 834 835 836
- op : maxout
  inputs :
    x : X
  outputs :
    out : Out

837 838 839 840 841
- op : mish
  backward : mish_grad
  extra :
    attrs : [bool use_mkldnn = false]

842 843 844 845 846 847 848
- op : mode
  backward : mode_grad
  inputs :
    x : X
  outputs :
    {out : Out, indices : Indices}

849 850 851 852 853 854 855 856 857 858
- op : multinomial
  inputs :
    {x : X}
  outputs :
    out : Out
  scalar :
    num_samples :
      data_type : int
      support_tensor : true

859 860 861 862 863 864
- op : multiply (elementwise_mul)
  backward : multiply_grad (elementwise_mul_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

865
- op : mv
866 867 868 869 870
  inputs :
    {x : X, vec : Vec}
  outputs :
    out : Out

871 872 873 874 875 876
- op : nce
  backward : nce_grad
  extra :
    attrs : [int trainer_id = 0, 'int64_t[] height_sections = {}', 'str[] epmap = {}',
             'str[] table_names = {}', 'int[] custom_neg_classes = {}']

877
- op : nearest_interp (nearest_interp_v2)
878 879 880 881
  backward : nearest_interp_grad (nearest_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

882 883 884 885 886 887 888
- op : nll_loss
  backward : nll_loss_grad
  inputs :
    {input : X, label : Label, weight : Weight}
  outputs :
    {out : Out, total_weight : Total_weight}

889
- op : pad2d
890 891 892 893
  backward : pad2d_grad
  extra :
    attrs : [bool use_mkldnn = false]

894
- op : pad3d
895 896 897 898
  backward : pad3d_grad
  extra :
    attrs : [bool use_mkldnn = false]

899
- op : partial_sum
900 901 902 903
  backward : partial_sum_grad
  extra :
    attrs : [bool use_mkldnn = false]

904
- op : poisson
905 906 907 908 909
  inputs :
    x : X
  outputs :
    out : Out

910 911 912 913 914 915 916 917 918 919 920
- op : pool2d
  backward : pool2d_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_quantizer = false,
              str mkldnn_data_type = "float32", bool is_test = false]

- op : pool3d
  backward : pool3d_grad
  extra :
    attrs : [bool use_mkldnn = false]

921
- op : prelu
922 923 924 925
  backward : prelu_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]

926 927 928 929 930 931 932 933 934
- op : put_along_axis
  backward : put_along_axis_grad
  inputs :
    {arr : Input, indices : Index, values : Value}
  outputs :
    out : Result
  attrs :
    {axis : Axis, reduce : Reduce}

935 936 937 938 939 940 941
- op : qr
  backward : qr_grad
  inputs :
    x : X
  outputs :
    {q : Q, r : R}

942 943 944 945
- op : quantize_linear
  extra :
    attrs : [float moving_rate = 0.9]

946
- op : reciprocal
947
  backward : reciprocal_grad
948 949 950 951
  inputs :
    x : X
  outputs :
    out : Out
952 953 954
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

955
- op : reduce_all
956 957 958
  extra :
    attrs : [bool use_mkldnn = false]

959
- op : reduce_amax
960 961 962 963
  backward : reduce_amax_grad
  extra :
    attrs : [bool use_mkldnn = false]

964
- op : reduce_amin
965 966 967 968
  backward : reduce_amin_grad
  extra :
    attrs : [bool use_mkldnn = false]

969
- op : reduce_any
970 971 972
  extra :
    attrs : [bool use_mkldnn = false]

973
- op : reduce_max
974 975 976 977
  backward : reduce_max_grad
  extra :
    attrs : [bool use_mkldnn = false]

978
- op : reduce_mean
979 980 981 982
  backward : reduce_mean_grad
  extra :
    attrs : [bool use_mkldnn = false]

983
- op : reduce_min
984 985 986 987
  backward : reduce_min_grad
  extra :
    attrs : [bool use_mkldnn = false]

988
- op : reduce_prod
989 990 991 992
  backward : reduce_prod_grad
  extra :
    attrs : [bool use_mkldnn = false]

993
- op : reduce_sum
994 995 996 997
  backward : reduce_sum_grad
  extra :
    attrs : [bool use_mkldnn = false]

998
- op : relu
999 1000 1001 1002 1003
  backward : relu_grad, relu_double_grad (relu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1004 1005 1006
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1007
- op : relu6
1008 1009 1010 1011
  backward : relu6_grad
  extra :
    attrs : [bool use_mkldnn = false]

1012 1013 1014 1015 1016
- op : remainder (elementwise_mod)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

1017
- op : renorm
1018
  backward : renorm_grad
1019 1020 1021 1022
  inputs :
    x : X
  outputs :
    out : Out
1023 1024 1025
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1026
- op : round
1027
  backward : round_grad
1028 1029 1030 1031
  inputs :
    x : X
  outputs :
    out : Out
1032
  extra :
1033 1034
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1035
- op : rsqrt
1036 1037 1038 1039 1040
  backward : rsqrt_grad, rsqrt_double_grad (rsqrt_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1041 1042
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
1043

1044 1045 1046 1047
- op : scale
  extra :
    attrs : [bool use_mkldnn = false]

1048 1049 1050 1051 1052 1053 1054 1055 1056 1057 1058 1059 1060 1061
- op : scatter
  backward : scatter_grad
  inputs :
    {x : X, index : Ids, updates : Updates}
  outputs :
    out : Out

- op : scatter_nd_add
  backward : scatter_nd_add_grad
  inputs :
    {x : X, index : Index, updates : Updates}
  outputs :
    out : Out

1062 1063 1064 1065 1066 1067
- op : searchsorted
  inputs :
    {sorted_sequence : SortedSequence, values : Values}
  outputs :
    out : Out

1068
- op : seed
1069 1070 1071
  extra :
    attrs : [bool deterministic = false, str rng_name = "", bool force_cpu = false]

1072 1073 1074 1075 1076 1077 1078
- op : selu
  backward : selu_grad
  inputs :
    x : X
  outputs :
    out : Out

1079 1080 1081
- op : send_uv (graph_send_uv)
  backward : send_uv_grad (graph_send_uv_grad)

1082 1083 1084 1085 1086
- op : sequence_softmax
  backward : sequence_softmax_grad
  extra :
    attrs : [str data_format = "AnyLayout"]

1087
- op : shape
1088 1089 1090
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

1091 1092 1093 1094 1095 1096
- op : shard_index
  inputs :
    input : X
  outputs :
    out : Out

1097 1098 1099 1100 1101 1102 1103
- op : share_buffer
  inputs :
    x : X
  outputs :
    out : Out
    xout : XOut

1104
- op : shuffle_channel
1105 1106 1107 1108
  backward : shuffle_channel_grad
  extra :
    attrs : [bool use_mkldnn = false]

1109
- op : sigmoid
1110 1111 1112 1113 1114
  backward : sigmoid_grad, sigmoid_double_grad (sigmoid_grad_grad), sigmoid_triple_grad
  inputs :
    x : X
  outputs :
    out : Out
1115 1116 1117
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1118
- op : silu
1119
  backward : silu_grad
1120 1121 1122 1123
  inputs :
    x : X
  outputs :
    out : Out
1124 1125 1126
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1127
- op : sin
1128
  backward : sin_grad, sin_double_grad, sin_triple_grad
1129 1130 1131 1132
  inputs :
    x : X
  outputs :
    out : Out
1133 1134 1135
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1136
- op : sinh
1137
  backward : sinh_grad
1138 1139 1140 1141
  inputs :
    x : X
  outputs :
    out : Out
1142 1143 1144
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1145
- op : slice
1146 1147 1148 1149
  backward : slice_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

1150
- op : softmax
1151 1152
  backward : softmax_grad
  extra :
1153
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
1154

1155
- op : softplus
1156
  backward : softplus_grad
1157 1158 1159 1160
  inputs :
    x : X
  outputs :
    out : Out
1161
  extra :
1162 1163 1164
    attrs : [bool use_mkldnn = false, bool use_cudnn = false, str fuse_activation_type = "", float fuse_activation_alpha = 0.0f,
             float fuse_activation_beta = 0.0f, float fuse_activation_scale = 1.0f]

1165 1166 1167 1168 1169 1170 1171 1172 1173
- op : softshrink
  backward : softshrink_grad
  inputs :
    x : X
  outputs :
    out : Out
  attrs :
    threshold : lambda

1174
- op : softsign
1175
  backward : softsign_grad
1176 1177 1178 1179
  inputs :
    x : X
  outputs :
    out : Out
1180 1181
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
1182

1183
- op : solve
1184 1185 1186 1187 1188
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

1189
- op : sqrt
1190 1191 1192 1193 1194
  backward : sqrt_grad, sqrt_double_grad (sqrt_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1195 1196 1197
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1198
- op : square
1199 1200 1201 1202 1203
  backward : square_grad, square_double_grad (square_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
1204 1205 1206
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1207
- op : squeeze (squeeze2)
1208 1209 1210 1211
  backward : squeeze_grad (squeeze2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

1212
- op : stack
1213 1214 1215 1216
  backward : stack_grad
  extra :
    attrs : [bool use_mkldnn = false]

1217 1218 1219 1220 1221
- op : stack
  backward : stack_grad
  extra :
    attrs : [bool use_mkldnn = false]

1222 1223 1224 1225 1226 1227
- op : subtract (elementwise_sub)
  backward : subtract_grad (elementwise_sub_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

1228 1229 1230 1231 1232 1233 1234
- op : svd
  backward : svd_grad
  inputs :
    x : X
  outputs :
    {u : U, s : S, vh : VH}

1235
- op : swish
1236 1237 1238 1239
  backward : swish_grad
  extra :
    attrs : [bool use_mkldnn = false]

1240
- op : sync_batch_norm
1241 1242 1243 1244
  backward : sync_batch_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

1245 1246 1247 1248 1249 1250 1251 1252 1253
- op : take_along_axis
  backward : take_along_axis_grad
  inputs :
    {arr : Input, indices : Index}
  outputs :
    out : Result
  attrs :
    axis : Axis

1254
- op : tan
1255
  backward : tan_grad
1256 1257 1258 1259
  inputs :
    x : X
  outputs :
    out : Out
1260 1261 1262
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1263
- op : tanh
1264 1265 1266 1267 1268
  backward : tanh_grad, tanh_double_grad (tanh_grad_grad), tanh_triple_grad
  inputs :
    x : X
  outputs :
    out : Out
1269 1270 1271
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1272
- op : tanh_shrink
1273
  backward : tanh_shrink_grad
1274 1275 1276 1277
  inputs :
    x : X
  outputs :
    out : Out
1278 1279 1280
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

1281 1282 1283 1284 1285 1286
- op : thresholded_relu
  inputs :
    x : X
  outputs :
    out : Out

1287 1288 1289 1290 1291 1292 1293 1294 1295 1296 1297
- op : topk (top_k_v2)
  backward : topk_grad (top_k_v2_grad)
  inputs :
    x : X
  outputs :
    {out : Out, indices : Indices}
  scalar :
    k :
      data_type : int
      tensor_name : K

1298
- op : trace
1299 1300 1301 1302
  inputs :
    x : Input
  outputs :
    out : Out
1303

1304 1305 1306 1307 1308 1309
- op : transpose (transpose2)
  backward : transpose_grad (transpose2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str data_format = "AnyLayout", bool use_quantizer = false,
              str mkldnn_data_type = "float32"]

1310
- op : trilinear_interp (trilinear_interp_v2)
1311 1312 1313 1314
  backward : trilinear_interp_grad (trilinear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

1315
- op : trunc
1316
  inputs :
1317
    input : X
1318 1319
  outputs :
    out : Out
1320

1321 1322 1323 1324 1325 1326
- op : unfold
  inputs :
    x : X
  outputs :
    out : Y

1327 1328 1329 1330 1331 1332 1333 1334 1335 1336 1337 1338 1339
- op : viterbi_decode
  inputs :
    {potentials : Input, transition_params : Transition, lengths : Length}
  outputs :
    {scores : Scores, path : Path}

- op : where
  backward : where_grad
  inputs :
    {condition : Condition, x : X, y : Y}
  outputs :
    out : Out

1340 1341
- op : while
  backward : while_grad
1342
  extra :
1343
    attrs : ['str[] skip_eager_deletion_vars = {}']