op_compat.yaml 24.0 KB
Newer Older
1 2 3 4 5
# - op : rnn
#   backward : rnn_grad
#   extra :
#     attrs : [bool is_test = false]

6
- op : abs
7
  backward : abs_grad
8 9 10 11
  inputs :
    x : X
  outputs :
    out : Out
12
  extra :
H
HongyuJia 已提交
13
    attrs : [bool use_mkldnn = false]
14

15 16 17 18 19 20
- op : acos
  inputs :
    x : X
  outputs :
    out : Out

21
- op : acosh
22 23 24 25
  inputs :
    x : X
  outputs :
    out : Out
26 27 28 29
  backward : acosh_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

30 31 32 33 34 35
- op : add (elementwise_add)
  backward : add_grad (elementwise_add_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

36
- op : addmm
37 38 39 40
  backward : addmm_grad
  extra :
    attrs : [bool use_mkldnn = false]

41
- op : affine_grid
42 43 44 45
  backward : affine_grid_grad
  extra :
    attrs : [bool use_cudnn = true]

46
- op : angle
47
  backward : angle_grad
48 49 50 51
  inputs :
    x : X
  outputs :
    out : Out
52
  extra :
H
HongyuJia 已提交
53
    attrs : [bool use_mkldnn = false]
54

55 56 57 58 59 60 61
- op : argsort
  inputs :
    x : X
  outputs :
    out : Out
    indices : Indices

62 63 64 65 66 67
- op : asin
  inputs :
    x : X
  outputs :
    out : Out

68
- op : asinh
69
  backward : asinh_grad
70 71 72 73
  inputs :
    x : X
  outputs :
    out : Out
74 75 76
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

77 78 79 80 81 82
- op : atan
  inputs :
    x : X
  outputs :
    out : Out

83
- op : atan2
84
  inputs :
85
    {x : X1, y : X2}
86 87 88
  outputs :
    out : Out

89
- op : atanh
90
  backward : atanh_grad
91 92 93 94
  inputs :
    x : X
  outputs :
    out : Out
95 96 97
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

98
- op : batch_norm
99 100 101 102
  backward : batch_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

103
- op : bernoulli
104 105 106 107 108
  inputs :
    x : X
  outputs :
    out : Out

109
- op : bicubic_interp (bicubic_interp_v2)
110 111 112 113
  backward : bicubic_interp_grad (bicubic_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

114
- op : bilinear_interp (bilinear_interp_v2)
115 116 117 118
  backward : bilinear_interp_grad (bilinear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

119 120 121 122 123 124
- op : bmm
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

125
- op : ceil
126
  backward : ceil_grad
127 128 129 130
  inputs :
    x : X
  outputs :
    out : Out
131 132 133
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

134 135 136 137 138 139 140
- op : celu
  backward : celu_grad, celu_double_grad(celu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out

141
- op : cholesky
142 143 144 145 146
  inputs :
    x : X
  outputs :
    out : Out

147
- op : cholesky_solve
148 149 150 151 152
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

153
- op : clip
154 155 156 157
  backward : clip_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

158
- op : concat
159 160 161 162
  backward : concat_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_quantizer = false, str mkldnn_data_type = "float32"]

163 164 165 166 167
- op : conditional_block
  backward : conditional_block_grad
  extra :
    attrs : ['str[] skip_eager_deletion_vars = {}']

168
- op : conv2d
169
  backward : conv2d_grad
170
  extra :
171
    attrs : [bool is_test = false, bool use_cudnn = true, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
172
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
173
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
174 175
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
176
             int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
177

178
- op : conv2d_fusion
F
Feiyu Chan 已提交
179
  extra :
180
    attrs : [bool is_test = false, bool use_cudnn = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
F
Feiyu Chan 已提交
181
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
182
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
F
Feiyu Chan 已提交
183 184
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
185 186
             int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]

187
- op : conv2d_transpose
188 189 190 191 192 193 194
  backward : conv2d_transpose_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, bool force_fp32_output = false,
             str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
             int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB()]

195
- op : conv3d
196 197 198 199 200 201 202
  backward : conv3d_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
             bool use_addto = false, bool fuse_residual_connection = false, bool force_fp32_output = false,
             int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]

203
- op : conv3d_transpose
204 205 206
  backward : conv3d_transpose_grad
  extra :
    attrs : [bool use_cudnn = true, bool use_mkldnn = false, int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB()]
F
Feiyu Chan 已提交
207

208
- op : cos
209
  backward : cos_grad
210 211 212 213
  inputs :
    x : X
  outputs :
    out : Out
214 215 216
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

217
- op : cosh
218
  backward : cosh_grad
219 220 221 222
  inputs :
    x : X
  outputs :
    out : Out
223 224 225
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

226
- op : cross
227 228
  inputs :
    {x : X, y : Y}
229 230 231 232 233
  attrs :
    axis : dim
  outputs :
    out : Out

234
- op : data_norm
235 236 237 238
  backward : data_norm_grad
  extra :
    attrs : [bool use_mkldnn = false]

239
- op : depthwise_conv2d
240 241
  backward : depthwise_conv2d_grad
  extra :
242
    attrs : [bool is_test = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
243 244 245 246
             bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f, bool use_addto = false,
             bool fuse_residual_connection = false, float Scale_in = 1.0f, float Scale_out = 1.0f,
             float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
247 248
             int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]

249
- op : depthwise_conv2d_transpose
250 251 252 253 254 255
  backward : depthwise_conv2d_transpose_grad
  extra :
    attrs : [bool is_test = false, bool use_cudnn = false, bool use_mkldnn = false, bool force_fp32_output = false,
             str mkldnn_data_type = "float32", bool fuse_relu = false,
             str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
             int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB()]
256

257 258 259 260
- op : dequantize_linear
  extra :
    attrs : [float moving_rate = 0.9]

261 262 263 264 265 266 267
- op : det (determinant)
  backward : det_grad (determinant_grad)
  inputs :
    x : Input
  outputs :
    out : Out

268
- op : diag (diag_v2)
269
  backward : diag_grad (diag_v2_grad)
270 271 272 273 274
  inputs :
    x : X
  outputs :
    out : Out

275
- op : diagonal
276 277 278 279 280
  inputs :
    x : Input
  outputs :
    out : Out

281
- op : digamma
282 283 284 285 286
  inputs :
    x : X
  outputs :
    out : Out

287
- op : dist
288 289 290 291 292
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

293 294 295 296
- op : distributed_push_sparse
  extra :
    attrs : ['int[] slots = {}']

297 298 299 300 301 302
- op : divide (elementwise_div)
  backward : divide_grad (elementwise_div)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

303
- op : dot
304 305 306 307 308
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

309
- op : dropout
310 311 312 313
  backward : dropout_grad
  extra :
    attrs : [bool fix_seed = false, int seed = 0]

314
- op : dropout_nd
315 316 317 318
  backward : dropout_nd_grad
  extra :
    attrs : [bool fix_seed = false, int seed = 0]

319 320 321 322 323 324
- op : elementwise_pow
  backward : elementwise_pow_grad
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

325
- op : elu
326 327 328 329 330
  backward : elu_grad, elu_double_grad (elu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
331 332 333
  extra :
    attrs : [bool use_mkldnn = false]

334 335 336 337 338 339 340
- op : embedding (lookup_table_v2)
  backward : embedding_grad (lookup_table_v2_grad)
  extra :
    attrs : [bool is_sparse = false, bool is_distributed = false, bool remote_prefetch = false,
             int trainer_id = 0, int slot = 0, 'int64_t[] height_sections = {}', 'str[] epmap = {}',
             'str[] table_names = {}']

341
- op : erf
342 343 344 345 346
  inputs :
    x : X
  outputs :
    out : Out

347
- op : erfinv
348 349 350 351 352
  inputs :
    x : X
  outputs :
    out : Out

353
- op : exp
354
  backward : exp_grad
355 356 357 358
  inputs :
    x : X
  outputs :
    out : Out
359 360
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
361

362 363 364 365 366
- op : expand (expand_v2)
  backward : expand_grad (expand_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

367
- op : expm1
368
  backward : expm1_grad
369 370 371 372
  inputs :
    x : X
  outputs :
    out : Out
373 374 375
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403
- op : fake_channel_wise_quantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_channel_wise_quantize_dequantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_dequantize_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_dequantize_moving_average_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_moving_average_abs_max
  extra :
    attrs : [int round_type = 1]

- op : fake_quantize_range_abs_max
  extra :
    attrs : [int round_type = 1]

404
- op : fft_c2c
405 406 407
  inputs: {x: X}
  outputs: {out: Out}

408
- op : fft_c2r
409 410 411
  inputs: {x: X}
  outputs: {out: Out}

412
- op : fft_r2c
413 414 415
  inputs: {x: X}
  outputs: {out: Out}

416 417 418 419 420 421
- op : flip
  inputs :
    x : X
  outputs :
    out : Out

422 423
- op : floor
  backward : floor_grad
424 425 426 427
  inputs :
    x : X
  outputs :
    out : Out
428 429 430
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447
- op : floor_divide (elementwise_floordiv)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : fmax (elementwise_fmax)
  backward : fmax_grad (elementwise_fmax_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : fmin (elementwise_fmin)
  backward : fmin_grad (elementwise_fmin_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

448
- op : frobenius_norm
449 450 451 452
  backward : frobenius_norm_grad
  extra :
    attrs : [bool use_mkldnn = false]

453 454 455 456 457 458 459 460 461
- op : full (fill_constant)
  extra :
    attrs : [bool use_mkldnn = false]

- op : gather
  backward : gather_grad
  extra :
    attrs : [bool overwrite = true]

462
- op : gelu
463 464
  backward : gelu_grad
  extra :
H
HongyuJia 已提交
465
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
466

467 468 469 470 471
- op : grad_add
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

472
- op : grid_sampler
473 474 475 476
  backward : grid_sampler_grad
  extra :
    attrs : [bool use_cudnn = true]

477
- op : gru
478 479 480 481
  backward : gru_grad
  extra :
    attrs : [bool is_test = false]

482 483 484 485 486
- op : hard_swish
  backward : hard_swish_grad
  extra :
    attrs : [bool use_mkldnn = false]

487 488 489 490 491 492 493 494 495 496 497 498 499 500
- op : hardshrink (hard_shrink)
  backward : hardshrink_grad (hard_shrink_grad)
  inputs :
    x : X
  outputs :
    out : Out

- op : hardsigmoid (hard_sigmoid)
  backward : hardsigmoid_grad (hard_sigmoid_grad)
  inputs :
    x : X
  outputs :
    out : Out

501 502 503 504 505 506
- op : heaviside (elementwise_heaviside)
  backward : heaviside_grad (elementwise_heaviside_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

507
- op : inplace_abn
508 509 510 511
  backward : inplace_abn_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

512
- op : layer_norm
513 514 515 516
  backward : layer_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]

517
- op : leaky_relu
518 519 520 521 522 523 524
  backward : leaky_relu_grad, leaky_relu_double_grad (leaky_relu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
  attrs:
    negative_slope : alpha
525 526 527
  extra :
    attrs : [bool use_mkldnn = false]

528
- op : lgamma
529 530 531 532 533
  inputs :
    x : X
  outputs :
    out : Out

534
- op : linear_interp (linear_interp_v2)
535 536 537 538
  backward : linear_interp_grad (linear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

539
- op : log
540 541 542 543 544
  backward : log_grad, log_double_grad (log_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
545 546 547
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

548
- op : log10
549
  backward : log10_grad
550 551 552 553
  inputs :
    x : X
  outputs :
    out : Out
554 555 556
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

557
- op : log1p
558
  backward : log1p_grad
559 560 561 562
  inputs :
    x : X
  outputs :
    out : Out
563 564 565
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

566
- op : log2
567
  backward : log2_grad
568 569 570 571
  inputs :
    x : X
  outputs :
    out : Out
572 573 574
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

575
- op : log_softmax
576 577 578 579
  backward : log_softmax_grad
  extra :
    attrs : [bool use_mkldnn = false]

580 581 582 583 584 585 586 587 588 589 590 591
- op : logit
  inputs :
    x : X
  outputs :
    out : Out

- op : logsigmoid
  inputs :
    x : X
  outputs :
    out : Out

592
- op : logsigmoid
593 594 595 596
  backward : logsigmoid_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

597
- op : lrn
598 599 600 601
  backward : lrn_grad
  extra :
    attrs : [bool use_mkldnn = false, bool is_test = false]

602
- op : matmul (matmul_v2)
603 604 605 606
  backward : matmul_grad (matmul_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false, 'int[] fused_reshape_Out = {}', 'int[] fused_transpose_Out = {}',
             str mkldnn_data_type = "float32", 'int[] fused_reshape_X = {}', 'int[] fused_reshape_Y = {}',
607
             'int[] fused_transpose_X = {}', 'int[] fused_transpose_Y = {}']
608

609 610 611 612 613 614
- op : matmul_with_flatten (mul)
  backward : matmul_with_flatten_grad (mul_grad)
  extra :
    attrs : [bool use_mkldnn = false, float scale_x = 1.0f, 'float[] scale_y = {1.0f}',
             float scale_out = 1.0f, bool force_fp32_output = false]

615 616 617 618 619 620 621 622 623 624 625 626
- op : maximum (elementwise_max)
  backward : maximum_grad (elementwise_max_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

- op : maximum (elementwise_min)
  backward : maximum_grad (elementwise_min_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

627 628 629 630 631
- op : mish
  backward : mish_grad
  extra :
    attrs : [bool use_mkldnn = false]

632 633 634 635 636 637
- op : multiply (elementwise_mul)
  backward : multiply_grad (elementwise_mul_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

638
- op : mv
639 640 641 642 643
  inputs :
    {x : X, vec : Vec}
  outputs :
    out : Out

644 645 646 647 648 649
- op : nce
  backward : nce_grad
  extra :
    attrs : [int trainer_id = 0, 'int64_t[] height_sections = {}', 'str[] epmap = {}',
             'str[] table_names = {}', 'int[] custom_neg_classes = {}']

650
- op : nearest_interp (nearest_interp_v2)
651 652 653 654
  backward : nearest_interp_grad (nearest_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

655
- op : pad2d
656 657 658 659
  backward : pad2d_grad
  extra :
    attrs : [bool use_mkldnn = false]

660
- op : pad3d
661 662 663 664
  backward : pad3d_grad
  extra :
    attrs : [bool use_mkldnn = false]

665
- op : partial_sum
666 667 668 669
  backward : partial_sum_grad
  extra :
    attrs : [bool use_mkldnn = false]

670
- op : poisson
671 672 673 674 675
  inputs :
    x : X
  outputs :
    out : Out

676 677 678 679 680 681 682 683 684 685 686
- op : pool2d
  backward : pool2d_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_quantizer = false,
              str mkldnn_data_type = "float32", bool is_test = false]

- op : pool3d
  backward : pool3d_grad
  extra :
    attrs : [bool use_mkldnn = false]

687
- op : prelu
688 689 690 691
  backward : prelu_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]

692 693 694 695
- op : quantize_linear
  extra :
    attrs : [float moving_rate = 0.9]

696
- op : reciprocal
697
  backward : reciprocal_grad
698 699 700 701
  inputs :
    x : X
  outputs :
    out : Out
702 703 704
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

705
- op : reduce_all
706 707 708
  extra :
    attrs : [bool use_mkldnn = false]

709
- op : reduce_amax
710 711 712 713
  backward : reduce_amax_grad
  extra :
    attrs : [bool use_mkldnn = false]

714
- op : reduce_amin
715 716 717 718
  backward : reduce_amin_grad
  extra :
    attrs : [bool use_mkldnn = false]

719
- op : reduce_any
720 721 722
  extra :
    attrs : [bool use_mkldnn = false]

723
- op : reduce_max
724 725 726 727
  backward : reduce_max_grad
  extra :
    attrs : [bool use_mkldnn = false]

728
- op : reduce_mean
729 730 731 732
  backward : reduce_mean_grad
  extra :
    attrs : [bool use_mkldnn = false]

733
- op : reduce_min
734 735 736 737
  backward : reduce_min_grad
  extra :
    attrs : [bool use_mkldnn = false]

738
- op : reduce_prod
739 740 741 742
  backward : reduce_prod_grad
  extra :
    attrs : [bool use_mkldnn = false]

743
- op : reduce_sum
744 745 746 747
  backward : reduce_sum_grad
  extra :
    attrs : [bool use_mkldnn = false]

748
- op : relu
749 750 751 752 753
  backward : relu_grad, relu_double_grad (relu_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
754 755 756
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

757
- op : relu6
758 759 760 761
  backward : relu6_grad
  extra :
    attrs : [bool use_mkldnn = false]

762 763 764 765 766
- op : remainder (elementwise_mod)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

767
- op : renorm
768 769 770 771
  backward : renorm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

772
- op : round
773
  backward : round_grad
774 775 776 777
  inputs :
    x : X
  outputs :
    out : Out
778
  extra :
779 780
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

781
- op : rsqrt
782 783 784 785 786
  backward : rsqrt_grad, rsqrt_double_grad (rsqrt_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
787 788
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
789

790 791 792 793
- op : scale
  extra :
    attrs : [bool use_mkldnn = false]

794
- op : seed
795 796 797
  extra :
    attrs : [bool deterministic = false, str rng_name = "", bool force_cpu = false]

798 799 800
- op : send_uv (graph_send_uv)
  backward : send_uv_grad (graph_send_uv_grad)

801 802 803 804 805
- op : sequence_softmax
  backward : sequence_softmax_grad
  extra :
    attrs : [str data_format = "AnyLayout"]

806
- op : shape
807 808 809
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

810
- op : shuffle_channel
811 812 813 814
  backward : shuffle_channel_grad
  extra :
    attrs : [bool use_mkldnn = false]

815
- op : sigmoid
816 817 818 819 820
  backward : sigmoid_grad, sigmoid_double_grad (sigmoid_grad_grad), sigmoid_triple_grad
  inputs :
    x : X
  outputs :
    out : Out
821 822 823
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

824
- op : silu
825
  backward : silu_grad
826 827 828 829
  inputs :
    x : X
  outputs :
    out : Out
830 831 832
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

833
- op : sin
834
  backward : sin_grad, sin_double_grad, sin_triple_grad
835 836 837 838
  inputs :
    x : X
  outputs :
    out : Out
839 840 841
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

842
- op : sinh
843
  backward : sinh_grad
844 845 846 847
  inputs :
    x : X
  outputs :
    out : Out
848 849 850
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

851
- op : slice
852 853 854 855
  backward : slice_grad
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

856
- op : softmax
857 858
  backward : softmax_grad
  extra :
859
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
860

861
- op : softplus
862
  backward : softplus_grad
863 864 865 866
  inputs :
    x : X
  outputs :
    out : Out
867
  extra :
868 869 870
    attrs : [bool use_mkldnn = false, bool use_cudnn = false, str fuse_activation_type = "", float fuse_activation_alpha = 0.0f,
             float fuse_activation_beta = 0.0f, float fuse_activation_scale = 1.0f]

871 872 873 874 875 876 877 878 879
- op : softshrink
  backward : softshrink_grad
  inputs :
    x : X
  outputs :
    out : Out
  attrs :
    threshold : lambda

880
- op : softsign
881
  backward : softsign_grad
882 883 884 885
  inputs :
    x : X
  outputs :
    out : Out
886 887
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]
888

889
- op : solve
890 891 892 893 894
  inputs :
    {x : X, y : Y}
  outputs :
    out : Out

895
- op : sqrt
896 897 898 899 900
  backward : sqrt_grad, sqrt_double_grad (sqrt_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
901 902 903
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

904
- op : square
905 906 907 908 909
  backward : square_grad, square_double_grad (square_grad_grad)
  inputs :
    x : X
  outputs :
    out : Out
910 911 912
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

913
- op : squeeze (squeeze2)
914 915 916 917
  backward : squeeze_grad (squeeze2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]

918
- op : stack
919 920 921 922
  backward : stack_grad
  extra :
    attrs : [bool use_mkldnn = false]

923 924 925 926 927
- op : stack
  backward : stack_grad
  extra :
    attrs : [bool use_mkldnn = false]

928 929 930 931 932 933
- op : subtract (elementwise_sub)
  backward : subtract_grad (elementwise_sub_grad)
  extra :
    attrs : [bool use_mkldnn = false, str x_data_format = "", str y_data_format = "", str mkldnn_data_type = "float32",
             bool use_quantizer = false, float Scale_x = 1.0f, float Scale_y = 1.0f, float Scale_out = 1.0f]

934
- op : swish
935 936 937 938
  backward : swish_grad
  extra :
    attrs : [bool use_mkldnn = false]

939
- op : sync_batch_norm
940 941 942 943
  backward : sync_batch_norm_grad
  extra :
    attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]

944
- op : tan
945
  backward : tan_grad
946 947 948 949
  inputs :
    x : X
  outputs :
    out : Out
950 951 952
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

953
- op : tanh
954 955 956 957 958
  backward : tanh_grad, tanh_double_grad (tanh_grad_grad), tanh_triple_grad
  inputs :
    x : X
  outputs :
    out : Out
959 960 961
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

962
- op : tanh_shrink
963
  backward : tanh_shrink_grad
964 965 966 967
  inputs :
    x : X
  outputs :
    out : Out
968 969 970
  extra :
    attrs : [bool use_mkldnn = false, bool use_cudnn = false]

971 972 973 974 975 976
- op : thresholded_relu
  inputs :
    x : X
  outputs :
    out : Out

977
- op : trace
978 979 980 981
  inputs :
    x : Input
  outputs :
    out : Out
982

983 984 985 986 987 988
- op : transpose (transpose2)
  backward : transpose_grad (transpose2_grad)
  extra :
    attrs : [bool use_mkldnn = false, str data_format = "AnyLayout", bool use_quantizer = false,
              str mkldnn_data_type = "float32"]

989
- op : trilinear_interp (trilinear_interp_v2)
990 991 992 993
  backward : trilinear_interp_grad (trilinear_interp_v2_grad)
  extra :
    attrs : [bool use_mkldnn = false]

994
- op : trunc
995
  inputs :
996
    input : X
997 998
  outputs :
    out : Out
999

1000 1001
- op : while
  backward : while_grad
1002
  extra :
1003
    attrs : ['str[] skip_eager_deletion_vars = {}']