未验证 提交 e43e4825 编写于 作者: C Chen Weihang 提交者: GitHub

[PHI] Normalize yaml op label (#45976)

* normalize yaml op label

* revert op_compat yaml change

* fix prelu and rnn compat problem

* replace api by op
上级 bf6ec262
......@@ -418,12 +418,12 @@ class FunctionGeneratorBase:
def CollectOriginalForwardInfo(self):
forward_api_contents = self.forward_api_contents
self.forward_api_name = forward_api_contents['api']
self.forward_api_name = forward_api_contents['op']
forward_args_str = forward_api_contents['args']
forward_returns_str = forward_api_contents['output']
assert 'api' in forward_api_contents.keys(
), "Unable to find \"api\" in forward_api_contents keys"
assert 'op' in forward_api_contents.keys(
), "Unable to find \"op\" in forward_api_contents keys"
assert 'args' in forward_api_contents.keys(
), "Unable to find \"args\" in forward_api_contents keys"
assert 'output' in forward_api_contents.keys(
......
......@@ -569,8 +569,8 @@ class DygraphFunctionGeneratorBase(FunctionGeneratorBase):
forward_api_contents = self.forward_api_contents
grad_api_contents = self.grad_api_contents
assert 'api' in forward_api_contents.keys(
), "Unable to find \"api\" in ops.yaml"
assert 'op' in forward_api_contents.keys(
), "Unable to find \"op\" in ops.yaml"
assert 'args' in forward_api_contents.keys(
), "Unable to find \"args\" in ops.yaml"
assert 'output' in forward_api_contents.keys(
......@@ -1485,7 +1485,7 @@ class DygraphNodeGenerator(DygraphFunctionGeneratorBase):
if next_grad_api_contents:
# Fake forward_api_contents and backward_api_contents
forward_api_contents = grad_api_contents
forward_api_contents['api'] = forward_api_contents['backward_api']
forward_api_contents['op'] = forward_api_contents['backward_api']
backward_api_contents = next_grad_api_contents
next_node_generator = DygraphFunctionGeneratorBase(
......@@ -1914,11 +1914,11 @@ class DygraphForwardAndNodesGenerator(GeneratorBase):
grad_api_dict = self.grad_api_dict
forward_apis_dict = {}
for api_item in forward_api_list:
forward_apis_dict[api_item['api']] = api_item
forward_apis_dict[api_item['op']] = api_item
namespace = self.namespace
for forward_api_contents in forward_api_list:
if forward_api_contents['api'] in black_ops_list: continue
if forward_api_contents['op'] in black_ops_list: continue
self.CollectIsForwardOnly(forward_api_contents)
......@@ -1959,7 +1959,7 @@ class DygraphForwardAndNodesGenerator(GeneratorBase):
forward_api_contents = backward_api_contents
# Fake forward_api_content
forward_api_contents['api'] = forward_api_contents[
forward_api_contents['op'] = forward_api_contents[
'backward_api']
backward_api_contents = next_grad_api_contents
......
......@@ -50,7 +50,7 @@ class BaseAPI(object):
self.inplace_map, self.view_map = {}, {}
def get_api_name(self, api_item_yaml):
return api_item_yaml['api']
return api_item_yaml['op']
def get_api_func_name(self):
return self.api
......
......@@ -33,9 +33,9 @@ class BackwardAPI(BaseAPI):
def parse_forward_config(self, forward_config):
# api_name (const Tensor& input, ... , int attr, ...) -> Tensor(out)
result = re.search(
r"(?P<api>[a-z][a-z0-9_]+)\s*(?P<args>\([^\)]+\))\s*->\s*(?P<outputs>.+)",
r"(?P<op>[a-z][a-z0-9_]+)\s*(?P<args>\([^\)]+\))\s*->\s*(?P<outputs>.+)",
forward_config)
api = result.group('api')
api = result.group('op')
_, outputs, _, = self.parse_output(self.api, result.group('outputs'))
outputs = [item.split('@')[0] for item in outputs]
fw_inputs, fw_attrs = self.parse_input_and_attr(api,
......
......@@ -65,7 +65,7 @@ def replace_compat_name(api_op_map, forward_api_dict, backward_api_dict):
return names[0].strip(), names[1].split(')')[0].strip()
for api_args in api_op_map:
api_name, op_name = get_api_and_op_name(api_args['api'])
api_name, op_name = get_api_and_op_name(api_args['op'])
if api_name not in forward_api_dict:
continue
forward_api_item = forward_api_dict[api_name]
......@@ -191,7 +191,7 @@ def main(api_yaml_path, backward_yaml_path, op_compat_yaml_path,
api_versions = yaml.safe_load(f)
# add api version info into api
for api_version in api_versions:
forward_api_dict[api_version['api']]['version'] = api_version['version']
forward_api_dict[api_version['op']]['version'] = api_version['version']
with open(op_compat_yaml_path, "rt") as f:
api_op_map = yaml.safe_load(f)
......
......@@ -103,10 +103,10 @@ def generate_extra_info(op_compat_yaml_path, ops_extra_info_path):
api_extra_attr_checkers = ",\n ".join(
attr_checker_func_list)
extra_map_str_list.append(
f"{{\"{get_op_name(op_compat_args['api'])}\", {{ {api_extra_attr_map} }}}}"
f"{{\"{get_op_name(op_compat_args['op'])}\", {{ {api_extra_attr_map} }}}}"
)
extra_checker_str_list.append(
f"{{\"{get_op_name(op_compat_args['api'])}\", {{ {api_extra_attr_checkers} }}}}"
f"{{\"{get_op_name(op_compat_args['op'])}\", {{ {api_extra_attr_checkers} }}}}"
)
if 'backward' in op_compat_args:
for bw_item in op_compat_args['backward'].split(','):
......
......@@ -27,7 +27,7 @@ def main(api_yaml_path, output_path, backward):
apis = []
else:
apis = [
parse_api_entry(api, "backward_api" if backward else "api")
parse_api_entry(api, "backward_api" if backward else "op")
for api in apis
]
......
......@@ -210,9 +210,9 @@ def extract_type_and_name(records: List[Dict]) -> List[Dict]:
def parse_forward(api_name: str, forward_config: str) -> Dict[str, Any]:
# api_name (const Tensor& input, ... , int attr, ...) -> Tensor(out)
result = re.search(
r"(?P<api>[a-z][a-z0-9_]+)\s*(?P<args>\([^\)]+\))\s*->\s*(?P<outputs>.+)",
r"(?P<op>[a-z][a-z0-9_]+)\s*(?P<args>\([^\)]+\))\s*->\s*(?P<outputs>.+)",
forward_config)
api = result.group("api")
api = result.group("op")
outputs = parse_outputs(api_name, result.group("outputs"))
outputs = extract_type_and_name(outputs)
......@@ -228,7 +228,7 @@ def parse_forward(api_name: str, forward_config: str) -> Dict[str, Any]:
return forward_cfg
def parse_api_entry(api_entry: Dict[str, Any], name_field="api"):
def parse_api_entry(api_entry: Dict[str, Any], name_field="op"):
api_name = api_entry[name_field]
inputs, attrs = parse_input_and_attr(api_name, api_entry["args"])
outputs = parse_outputs(api_name, api_entry["output"])
......
此差异已折叠。
- api : abs
- op : abs
backward : abs_grad
extra :
attrs : [bool use_cudnn = false, bool use_mkldnn = false]
- api : acosh
- op : acosh
backward : acosh_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : addmm
- op : addmm
backward : addmm_grad
extra :
attrs : [bool use_mkldnn = false]
- api : affine_grid
- op : affine_grid
backward : affine_grid_grad
extra :
attrs : [bool use_cudnn = true]
- api : angle
- op : angle
backward : angle_grad
extra :
attrs : [bool use_cudnn = false, bool use_mkldnn = false]
- api : asinh
- op : asinh
backward : asinh_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : atan2
- op : atan2
inputs :
{x : X1, y : X2}
outputs :
out : Out
- api : atanh
- op : atanh
backward : atanh_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : batch_norm
- op : batch_norm
backward : batch_norm_grad
extra :
attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]
- api : bernoulli
- op : bernoulli
inputs :
x : X
outputs :
out : Out
- api : bicubic_interp (bicubic_interp_v2)
- op : bicubic_interp (bicubic_interp_v2)
backward : bicubic_interp_grad (bicubic_interp_v2_grad)
extra :
attrs : [bool use_mkldnn = false]
- api : bilinear_interp (bilinear_interp_v2)
- op : bilinear_interp (bilinear_interp_v2)
backward : bilinear_interp_grad (bilinear_interp_v2_grad)
extra :
attrs : [bool use_mkldnn = false]
- api : ceil
- op : ceil
backward : ceil_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : cholesky
- op : cholesky
inputs :
x : X
outputs :
out : Out
- api : cholesky_solve
- op : cholesky_solve
inputs :
{x : X, y : Y}
outputs :
out : Out
- api : clip
- op : clip
backward : clip_grad
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
- api : concat
- op : concat
backward : concat_grad
extra :
attrs : [bool use_mkldnn = false, bool use_quantizer = false, str mkldnn_data_type = "float32"]
- api : conv2d
- op : conv2d
backward : conv2d_grad
extra :
attrs : [bool is_test = false, bool use_cudnn = true, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
......@@ -97,7 +97,7 @@
float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
- api : conv2d_fusion
- op : conv2d_fusion
extra :
attrs : [bool is_test = false, bool use_cudnn = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
bool use_quantizer = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
......@@ -106,7 +106,7 @@
float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
- api : conv2d_transpose
- op : conv2d_transpose
backward : conv2d_transpose_grad
extra :
attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, bool force_fp32_output = false,
......@@ -114,7 +114,7 @@
str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB()]
- api : conv3d
- op : conv3d
backward : conv3d_grad
extra :
attrs : [bool is_test = false, bool use_cudnn = true, bool use_mkldnn = false, str mkldnn_data_type = "float32", bool fuse_relu = false,
......@@ -122,22 +122,22 @@
bool use_addto = false, bool fuse_residual_connection = false, bool force_fp32_output = false,
int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
- api : conv3d_transpose
- op : conv3d_transpose
backward : conv3d_transpose_grad
extra :
attrs : [bool use_cudnn = true, bool use_mkldnn = false, int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB()]
- api : cos
- op : cos
backward : cos_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : cosh
- op : cosh
backward : cosh_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : cross
- op : cross
inputs :
{x : X, y : Y}
attrs :
......@@ -145,12 +145,12 @@
outputs :
out : Out
- api : data_norm
- op : data_norm
backward : data_norm_grad
extra :
attrs : [bool use_mkldnn = false]
- api : depthwise_conv2d
- op : depthwise_conv2d
backward : depthwise_conv2d_grad
extra :
attrs : [bool is_test = false, bool fuse_relu_before_depthwise_conv = false, bool use_mkldnn = false,
......@@ -160,7 +160,7 @@
float Scale_in_eltwise = 1.0f, 'float[] Scale_weights = {1.0f}', bool force_fp32_output = false,
int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB(), bool exhaustive_search = false]
- api : depthwise_conv2d_transpose
- op : depthwise_conv2d_transpose
backward : depthwise_conv2d_transpose_grad
extra :
attrs : [bool is_test = false, bool use_cudnn = false, bool use_mkldnn = false, bool force_fp32_output = false,
......@@ -168,425 +168,421 @@
str fuse_activation = "", float fuse_alpha = 0.0f, float fuse_beta = 0.0f,
int workspace_size_MB = platform::GetDefaultConvWorkspaceSizeLimitMB()]
- api : diag (diag_v2)
- op : diag (diag_v2)
backward : diag_grad (diag_v2_grad)
inputs :
x : X
outputs :
out : Out
- api : diagonal
- op : diagonal
inputs :
x : Input
outputs :
out : Out
- api : digamma
- op : digamma
inputs :
x : X
outputs :
out : Out
- api : dist
- op : dist
inputs :
{x : X, y : Y}
outputs :
out : Out
- api : dot
- op : dot
inputs :
{x : X, y : Y}
outputs :
out : Out
- api : dropout
- op : dropout
backward : dropout_grad
extra :
attrs : [bool fix_seed = false, int seed = 0]
- api : dropout_nd
- op : dropout_nd
backward : dropout_nd_grad
extra :
attrs : [bool fix_seed = false, int seed = 0]
- api : elu
- op : elu
backward : elu_grad
extra :
attrs : [bool use_mkldnn = false]
- api : erf
- op : erf
inputs :
x : X
outputs :
out : Out
- api : erfinv
- op : erfinv
inputs :
x : X
outputs :
out : Out
- api : exp
- op : exp
backward : exp_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : expm1
- op : expm1
backward : expm1_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : fft_c2c
- op : fft_c2c
inputs: {x: X}
outputs: {out: Out}
- api : fft_c2r
- op : fft_c2r
inputs: {x: X}
outputs: {out: Out}
- api : fft_r2c
- op : fft_r2c
inputs: {x: X}
outputs: {out: Out}
- api : floor
- op : floor
backward : floor_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : frobenius_norm
- op : frobenius_norm
backward : frobenius_norm_grad
extra :
attrs : [bool use_mkldnn = false]
- api : gelu
- op : gelu
backward : gelu_grad
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool use_cudnn = false]
- api : grid_sampler
- op : grid_sampler
backward : grid_sampler_grad
extra :
attrs : [bool use_cudnn = true]
- api : gru
- op : gru
backward : gru_grad
extra :
attrs : [bool is_test = false]
- api : hard_swish
- op : hard_swish
backward : hard_swish_grad
extra :
attrs : [bool use_mkldnn = false]
- api : inplace_abn
- op : inplace_abn
backward : inplace_abn_grad
extra :
attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]
- api : layer_norm
- op : layer_norm
backward : layer_norm_grad
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
- api : leaky_relu
- op : leaky_relu
backward : leaky_relu_grad
extra :
attrs : [bool use_mkldnn = false]
- api : lgamma
- op : lgamma
inputs :
x : X
outputs :
out : Out
- api : linear_interp (linear_interp_v2)
- op : linear_interp (linear_interp_v2)
backward : linear_interp_grad (linear_interp_v2_grad)
extra :
attrs : [bool use_mkldnn = false]
- api : log
- op : log
backward : log_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : log10
- op : log10
backward : log10_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : log1p
- op : log1p
backward : log1p_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : log2
- op : log2
backward : log2_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : log_softmax
- op : log_softmax
backward : log_softmax_grad
extra :
attrs : [bool use_mkldnn = false]
- api : logsigmoid
- op : logsigmoid
backward : logsigmoid_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : lrn
- op : lrn
backward : lrn_grad
extra :
attrs : [bool use_mkldnn = false, bool is_test = false]
- api : matmul (matmul_v2)
- op : matmul (matmul_v2)
backward : matmul_grad (matmul_v2_grad)
extra :
attrs : [bool use_mkldnn = false, 'int[] fused_reshape_Out = {}', 'int[] fused_transpose_Out = {}',
str mkldnn_data_type = "float32", 'int[] fused_reshape_X = {}', 'int[] fused_reshape_Y = {}',
'int[] fused_transpose_X = {}', 'int[] fused_transpose_Y = {}',]
- api : mish
- op : mish
backward : mish_grad
extra :
attrs : [bool use_mkldnn = false]
- api : mv
- op : mv
inputs :
{x : X, vec : Vec}
outputs :
out : Out
- api : nearest_interp (nearest_interp_v2)
- op : nearest_interp (nearest_interp_v2)
backward : nearest_interp_grad (nearest_interp_v2_grad)
extra :
attrs : [bool use_mkldnn = false]
- api : pad2d
- op : pad2d
backward : pad2d_grad
extra :
attrs : [bool use_mkldnn = false]
- api : pad3d
- op : pad3d
backward : pad3d_grad
extra :
attrs : [bool use_mkldnn = false]
- api : partial_sum
- op : partial_sum
backward : partial_sum_grad
extra :
attrs : [bool use_mkldnn = false]
- api : poisson
- op : poisson
inputs :
x : X
outputs :
out : Out
- api : prelu
- op : prelu
backward : prelu_grad
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
- api : prelu
backward : prelu_grad
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
- api : reciprocal
- op : reciprocal
backward : reciprocal_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : reduce_all
- op : reduce_all
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_amax
- op : reduce_amax
backward : reduce_amax_grad
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_amin
- op : reduce_amin
backward : reduce_amin_grad
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_any
- op : reduce_any
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_max
- op : reduce_max
backward : reduce_max_grad
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_mean
- op : reduce_mean
backward : reduce_mean_grad
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_min
- op : reduce_min
backward : reduce_min_grad
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_prod
- op : reduce_prod
backward : reduce_prod_grad
extra :
attrs : [bool use_mkldnn = false]
- api : reduce_sum
- op : reduce_sum
backward : reduce_sum_grad
extra :
attrs : [bool use_mkldnn = false]
- api : relu
- op : relu
backward : relu_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : relu6
- op : relu6
backward : relu6_grad
extra :
attrs : [bool use_mkldnn = false]
- api : renorm
- op : renorm
backward : renorm_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : round
- op : rnn
backward : rnn_grad
extra :
attrs : [bool is_test = false]
- op : round
backward : round_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : rsqrt
- op : rsqrt
backward : rsqrt_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : seed
- op : seed
extra :
attrs : [bool deterministic = false, str rng_name = "", bool force_cpu = false]
- api : shape
- op : shape
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
- api : shuffle_channel
- op : shuffle_channel
backward : shuffle_channel_grad
extra :
attrs : [bool use_mkldnn = false]
- api : sigmoid
- op : sigmoid
backward : sigmoid_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : silu
- op : silu
backward : silu_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : sin
- op : sin
backward : sin_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : sinh
- op : sinh
backward : sinh_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : slice
- op : slice
backward : slice_grad
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
- api : softmax
- op : softmax
backward : softmax_grad
extra :
attrs : [bool use_cudnn = false, bool use_mkldnn = false, str mkldnn_data_type = "float32", bool is_test = false]
- api : softplus
- op : softplus
backward : softplus_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false, str fuse_activation_type = "", float fuse_activation_alpha = 0.0f,
float fuse_activation_beta = 0.0f, float fuse_activation_scale = 1.0f]
- api : softsign
- op : softsign
backward : softsign_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : rnn
backward : rnn_grad
extra :
attrs : [bool is_test = false]
- api : solve
- op : solve
inputs :
{x : X, y : Y}
outputs :
out : Out
- api : sqrt
- op : sqrt
backward : sqrt_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : square
- op : square
backward : square_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : squeeze (squeeze2)
- op : squeeze (squeeze2)
backward : squeeze_grad (squeeze2_grad)
extra :
attrs : [bool use_mkldnn = false, str mkldnn_data_type = "float32"]
- api : stack
- op : stack
backward : stack_grad
extra :
attrs : [bool use_mkldnn = false]
- api : swish
- op : swish
backward : swish_grad
extra :
attrs : [bool use_mkldnn = false]
- api : sync_batch_norm
- op : sync_batch_norm
backward : sync_batch_norm_grad
extra :
attrs : [bool use_mkldnn = false, bool fuse_with_relu = false]
- api : tan
- op : tan
backward : tan_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : tanh
- op : tanh
backward : tanh_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : tanh_shrink
- op : tanh_shrink
backward : tanh_shrink_grad
extra :
attrs : [bool use_mkldnn = false, bool use_cudnn = false]
- api : trace
- op : trace
inputs :
x : Input
outputs :
out : Out
- api : trilinear_interp (trilinear_interp_v2)
- op : trilinear_interp (trilinear_interp_v2)
backward : trilinear_interp_grad (trilinear_interp_v2_grad)
extra :
attrs : [bool use_mkldnn = false]
- api : trunc
- op : trunc
inputs :
x : X
outputs :
......
- api : trace
- op : trace
version :
- checkpoint : Upgrade trace add a new attribute [axis2]
action :
......
- api : atan2
- op : atan2
args : (Tensor x, Tensor y)
output : Tensor
infer_meta :
......@@ -7,7 +7,7 @@
func : atan2
backward : atan2_grad
- api : bernoulli
- op : bernoulli
args : (Tensor x)
output : Tensor(out)
infer_meta :
......@@ -15,7 +15,7 @@
kernel :
func : bernoulli
- api : cholesky
- op : cholesky
args : (Tensor x, bool upper=false)
output : Tensor
infer_meta :
......@@ -24,7 +24,7 @@
func : cholesky
backward : cholesky_grad
- api : cholesky_solve
- op : cholesky_solve
args : (Tensor x, Tensor y, bool upper=false)
output : Tensor
infer_meta :
......@@ -33,7 +33,7 @@
func : cholesky_solve
backward : cholesky_solve_grad
- api : cross
- op : cross
args : (Tensor x, Tensor y, int axis = 9)
output : Tensor
infer_meta :
......@@ -43,7 +43,7 @@
data_type : x
backward : cross_grad
- api : diag
- op : diag
args : (Tensor x, int offset = 0, float padding_value = 0.0)
output : Tensor
infer_meta :
......@@ -52,7 +52,7 @@
func : diag
backward : diag_grad
- api : diagonal
- op : diagonal
args : (Tensor x, int offset = 0, int axis1 = 0, int axis2 = 1)
output : Tensor
infer_meta :
......@@ -61,7 +61,7 @@
func : diagonal
backward : diagonal_grad
- api : digamma
- op : digamma
args : (Tensor x)
output : Tensor
infer_meta :
......@@ -70,7 +70,7 @@
func : digamma
backward : digamma_grad
- api : dist
- op : dist
args : (Tensor x, Tensor y, float p = 2.0)
output : Tensor
infer_meta :
......@@ -79,7 +79,7 @@
func : dist
backward : dist_grad
- api : dot
- op : dot
args : (Tensor x, Tensor y)
output : Tensor
infer_meta :
......@@ -89,7 +89,7 @@
data_type : x
backward : dot_grad
- api : erf
- op : erf
args : (Tensor x)
output : Tensor
infer_meta :
......@@ -98,7 +98,7 @@
func : erf
backward : erf_grad
- api : erfinv
- op : erfinv
args : (Tensor x)
output : Tensor(out)
infer_meta :
......@@ -108,7 +108,7 @@
inplace : (x -> out)
backward : erfinv_grad
- api : fft_c2c
- op : fft_c2c
args : (Tensor x, int64_t[] axes, str normalization, bool forward)
output : Tensor
infer_meta :
......@@ -117,7 +117,7 @@
func : fft_c2c
backward : fft_c2c_grad
- api : fft_c2r
- op : fft_c2r
args : (Tensor x, int64_t[] axes, str normalization, bool forward, int64_t last_dim_size=0L)
output : Tensor
infer_meta :
......@@ -126,7 +126,7 @@
func : fft_c2r
backward : fft_c2r_grad
- api : fft_r2c
- op : fft_r2c
args : (Tensor x, int64_t[] axes, str normalization, bool forward, bool onesided)
output : Tensor
infer_meta :
......@@ -135,7 +135,7 @@
func : fft_r2c
backward : fft_r2c_grad
- api : graph_send_uv
- op : graph_send_uv
args : (Tensor x, Tensor y, Tensor src_index, Tensor dst_index, str message_op = "ADD")
output : Tensor(out)
infer_meta :
......@@ -145,7 +145,7 @@
data_type : x
backward : graph_send_uv_grad
- api : lgamma
- op : lgamma
args : (Tensor x)
output : Tensor(out)
infer_meta :
......@@ -154,7 +154,7 @@
func : lgamma
backward : lgamma_grad
- api : mv
- op : mv
args : (Tensor x, Tensor vec)
output : Tensor
infer_meta :
......@@ -163,7 +163,7 @@
func : mv
backward : mv_grad
- api : poisson
- op : poisson
args : (Tensor x)
output : Tensor
infer_meta :
......@@ -172,7 +172,7 @@
func : poisson
backward : poisson_grad
- api : solve
- op : solve
args : (Tensor x, Tensor y)
output : Tensor
infer_meta :
......@@ -182,7 +182,7 @@
data_type : x
backward : solve_grad
- api : trace
- op : trace
args : (Tensor x, int offset = 0, int axis1 = 0, int axis2 = 1)
output : Tensor
infer_meta :
......@@ -191,7 +191,7 @@
func : trace
backward : trace_grad
- api : trunc
- op : trunc
args : (Tensor x)
output : Tensor
infer_meta :
......
- api : abs
- op : abs
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -7,7 +7,7 @@
layout : x
backward : abs_grad
- api : acos
- op : acos
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -16,7 +16,7 @@
layout : x
backward : acos_grad
- api : acosh
- op : acosh
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -25,7 +25,7 @@
layout : x
backward : acosh_grad
- api : add
- op : add
args : (Tensor x, Tensor y)
output : Tensor(out)
kernel :
......@@ -34,7 +34,7 @@
layout : x
backward : add_grad
- api : asin
- op : asin
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -43,7 +43,7 @@
layout : x
backward : asin_grad
- api : asinh
- op : asinh
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -52,7 +52,7 @@
layout : x
backward : asinh_grad
- api : atan
- op : atan
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -61,7 +61,7 @@
layout : x
backward : atan_grad
- api : atanh
- op : atanh
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -70,7 +70,7 @@
layout : x
backward : atanh_grad
- api : cast
- op : cast
args : (Tensor x, DataType index_dtype=DataType::UNDEFINED, DataType value_dtype=DataType::UNDEFINED)
output : Tensor(out)
kernel :
......@@ -80,7 +80,7 @@
data_type : x
backward : cast_grad
- api : conv3d
- op : conv3d
args : (Tensor x, Tensor kernel, int[] paddings, int[] dilations, int[] strides, int groups, bool subm, str key)
output : Tensor(out), Tensor(rulebook), Tensor(counter)
kernel :
......@@ -89,7 +89,7 @@
intermediate: rulebook, counter
backward : conv3d_coo_grad
- api : divide
- op : divide
args : (Tensor x, Tensor y)
output : Tensor(out)
kernel :
......@@ -98,7 +98,7 @@
layout : x
backward : divide_grad
- api : divide_scalar
- op : divide_scalar
args : (Tensor x, float scalar)
output : Tensor(out)
kernel :
......@@ -106,7 +106,7 @@
divide_csr_scalar{sparse_csr -> sparse_csr}
backward : divide_scalar_grad
- api : expm1
- op : expm1
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -115,7 +115,7 @@
layout : x
backward : expm1_grad
- api : leaky_relu
- op : leaky_relu
args : (Tensor x, float alpha)
output : Tensor(out)
kernel :
......@@ -124,7 +124,7 @@
layout : x
backward : leaky_relu_grad
- api : log1p
- op : log1p
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -133,7 +133,7 @@
layout : x
backward : log1p_grad
- api : multiply
- op : multiply
args : (Tensor x, Tensor y)
output : Tensor(out)
kernel :
......@@ -142,7 +142,7 @@
layout : x
backward : multiply_grad
- api : pow
- op : pow
args : (Tensor x, float factor)
output : Tensor(out)
kernel :
......@@ -151,7 +151,7 @@
layout : x
backward : pow_grad
- api : relu
- op : relu
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -160,7 +160,7 @@
layout : x
backward : relu_grad
- api : relu6
- op : relu6
args : (Tensor x, float threshold)
output : Tensor(out)
kernel :
......@@ -169,7 +169,7 @@
layout : x
backward : relu6_grad
- api : scale
- op : scale
args : (Tensor x, float scale, float bias, bool bias_after_scale)
output : Tensor(out)
kernel :
......@@ -177,7 +177,7 @@
scale_csr{sparse_csr -> sparse_csr}
backward : scale_grad
- api : sin
- op : sin
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -186,7 +186,7 @@
layout : x
backward : sin_grad
- api : sinh
- op : sinh
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -195,7 +195,7 @@
layout : x
backward : sinh_grad
- api : softmax
- op : softmax
args : (Tensor x, int axis=-1)
output : Tensor(out)
kernel :
......@@ -203,7 +203,7 @@
layout : x
backward : softmax_grad
- api : sparse_coo_tensor
- op : sparse_coo_tensor
args : (Tensor values, Tensor indices, IntArray dense_shape)
output : Tensor(out)
kernel :
......@@ -212,7 +212,7 @@
data_type : values
backward : sparse_coo_tensor_grad
- api : sqrt
- op : sqrt
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -221,7 +221,7 @@
layout : x
backward : sqrt_grad
- api : square
- op : square
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -230,7 +230,7 @@
layout : x
backward : square_grad
- api : subtract
- op : subtract
args : (Tensor x, Tensor y)
output : Tensor(out)
kernel :
......@@ -239,7 +239,7 @@
layout : x
backward : subtract_grad
- api : tan
- op : tan
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -248,7 +248,7 @@
layout : x
backward : tan_grad
- api : tanh
- op : tanh
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -257,7 +257,7 @@
layout : x
backward : tanh_grad
- api : to_dense
- op : to_dense
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -265,7 +265,7 @@
csr_to_dense {sparse_csr -> dense}
backward : to_dense_grad
- api : to_sparse_coo
- op : to_sparse_coo
args : (Tensor x, int64_t sparse_dim)
output : Tensor(out)
kernel :
......@@ -273,14 +273,14 @@
csr_to_coo { sparse_csr -> sparse_coo}
backward : to_sparse_coo_grad
- api : to_sparse_csr
- op : to_sparse_csr
args : (Tensor x)
output : Tensor(out)
kernel :
func : dense_to_csr {dense -> sparse_csr},
coo_to_csr {sparse_coo -> sparse_csr}
- api : values
- op : values
args : (Tensor x)
output : Tensor(out)
kernel :
......@@ -289,7 +289,7 @@
layout : x
backward : values_grad
- api: addmm
- op: addmm
args : (Tensor input, Tensor x, Tensor y, float alpha=1.0, float beta=1.0)
output : Tensor(out)
kernel :
......@@ -300,14 +300,14 @@
layout : x
backward: addmm_grad
- api: coalesce
- op: coalesce
args : (Tensor x)
output : Tensor(out)
kernel :
func: coalesce{sparse_coo -> sparse_coo}
layout : x
- api: full_like
- op: full_like
args : (Tensor x, Scalar value, DataType dtype=DataType::UNDEFINED)
output : Tensor(out)
kernel :
......@@ -316,7 +316,7 @@
layout : x
data_type : dtype
- api: fused_attention
- op: fused_attention
args : (Tensor query, Tensor key, Tensor value, Tensor sparse_mask, Tensor key_padding_mask, Tensor attn_mask)
output : Tensor(out), Tensor(softmax)
kernel :
......@@ -327,7 +327,7 @@
intermediate : softmax
backward: fused_attention_grad
- api: masked_matmul
- op: masked_matmul
args : (Tensor x, Tensor y, Tensor mask)
output : Tensor(out)
kernel :
......@@ -335,7 +335,7 @@
layout : x
backward: masked_matmul_grad
- api: matmul
- op: matmul
args : (Tensor x, Tensor y)
output : Tensor(out)
kernel :
......@@ -346,7 +346,7 @@
layout : x
backward: matmul_grad
- api: maxpool
- op: maxpool
args : (Tensor x, int[] kernel_sizes, int[] paddings, int[] dilations, int[] strides)
output : Tensor(out), Tensor(rulebook), Tensor(counter)
kernel :
......@@ -355,7 +355,7 @@
intermediate : rulebook, counter
backward : maxpool_grad
- api: mv
- op: mv
args : (Tensor x, Tensor vec)
output : Tensor(out)
kernel :
......
- api : empty
- op : empty
args : (IntArray shape, Place place=CPUPlace())
output : Tensor(out@StringTensor)
infer_meta :
......@@ -9,7 +9,7 @@
param : [shape]
backend : place
- api : empty_like
- op : empty_like
args : (Tensor x, Place place = {})
output : Tensor(out@StringTensor)
infer_meta :
......@@ -20,7 +20,7 @@
param : [x]
backend : place > x
- api : lower
- op : lower
args : (Tensor x, bool use_utf8_encoding)
output : Tensor(out@StringTensor)
infer_meta :
......@@ -29,7 +29,7 @@
kernel :
func : strings_lower
- api : upper
- op : upper
args : (Tensor x, bool use_utf8_encoding)
output : Tensor(out@StringTensor)
infer_meta :
......
......@@ -64,7 +64,7 @@ def get_skipped_kernel_list():
for api in infer_meta_data:
if "kernel" not in api or "infer_meta" not in api:
continue
if api["api"] in skiped_api_list["phi_apis"]:
if api["op"] in skiped_api_list["phi_apis"]:
skiped_kernel_list.append(api["kernel"]["func"])
skiped_kernel_list += skiped_api_list["phi_kernels"]
return skiped_kernel_list
......
......@@ -39,7 +39,7 @@ def get_skipped_kernel_list():
for api in infer_meta_data:
if "kernel" not in api or "infer_meta" not in api:
continue
if api["api"] in skiped_api_list["phi_apis"]:
if api["op"] in skiped_api_list["phi_apis"]:
skiped_kernel_list.append(api["kernel"]["func"])
skiped_kernel_list += skiped_api_list["phi_kernels"]
return skiped_kernel_list
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册