Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Paddle
提交
1694bcc8
P
Paddle
项目概览
PaddlePaddle
/
Paddle
大约 2 年 前同步成功
通知
2325
Star
20933
Fork
5424
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1423
列表
看板
标记
里程碑
合并请求
543
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1,423
Issue
1,423
列表
看板
标记
里程碑
合并请求
543
合并请求
543
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
“29b500e79aad6c9ddc859aa14156ddd4e156b90c”上不存在“develop/doc/design/graph.html”
提交
1694bcc8
编写于
3月 13, 2022
作者:
P
phlrain
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add yaml
上级
2ae8cdaa
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
445 addition
and
18 deletion
+445
-18
python/paddle/utils/code_gen/api.yaml
python/paddle/utils/code_gen/api.yaml
+283
-18
python/paddle/utils/code_gen/backward.yaml
python/paddle/utils/code_gen/backward.yaml
+162
-0
未找到文件。
python/paddle/utils/code_gen/api.yaml
浏览文件 @
1694bcc8
...
...
@@ -745,49 +745,314 @@
kernel
:
func
:
isfinite
# label_smooth ?? optional
-
api
:
label_smooth
args
:
(Tensor label, Tensor prior_dist, float epsilon)
output
:
Tensor
infer_meta
:
func
:
LabelSmoothInferMeta
kernel
:
func
:
label_smooth
backward
:
label_smooth_grad
# linspace
-
api
:
linspace
args
:
(Tensor start, Tensor stop, Tensor number, DataType dtype)
output
:
Tensor
infer_meta
:
func
:
LinspaceInferMeta
kernel
:
func
:
linspace
# log_loss
-
api
:
log_loss
args
:
(Tensor input, Tensor label, float epsilon)
output
:
Tensor
infer_meta
:
func
:
LogLossInferMeta
kernel
:
func
:
log_loss
backward
:
log_loss
# logical_and
-
api
:
logical_and
args
:
(Tensor x, Tensor y)
output
:
Tensor
infer_meta
:
func
:
LogicalInferMeta
kernel
:
func
:
logical_and
# logical_or
-
api
:
logical_or
args
:
(Tensor x, Tensor y)
output
:
Tensor
infer_meta
:
func
:
LogicalInferMeta
kernel
:
func
:
logical_or
# logical_xor
-
api
:
logical_xor
args
:
(Tensor x, Tensor y)
output
:
Tensor
infer_meta
:
func
:
LogicalInferMeta
kernel
:
func
:
logical_xor
# logical_not
-
api
:
logical_not
args
:
(Tensor x)
output
:
Tensor
infer_meta
:
func
:
UnchangedInferMeta
kernel
:
func
:
logical_not
# label_smooth
# linspace
# log_loss
# logical_and
# masked_select
-
api
:
masked_select
args
:
(Tensor x, Tensor mask)
output
:
Tensor
infer_meta
:
func
:
MaksedSelectInferMeta
kernel
:
func
:
masked_select
backward
:
masked_select_grad
# multi_dot
-
api
:
multi_dot
args
:
(Tensor[] x)
output
:
Tensor
infer_meta
:
func
:
MultiDotInferMeta
kernel
:
func
:
multi_dot
backward
:
multi_dot_grad
# multinomial
# nll_loss
-
api
:
multinomial
args
:
(Tensor x, int num_samples, bool replacement)
output
:
Tensor
infer_meta
:
func
:
MultinomialInferMeta
kernel
:
func
:
multinomial
# nll_loss ?? optional
-
api
:
nll_loss
args
:
(Tensor input, Tensor label, Tensor weight, int64_t ignore_index, string reduction)
output
:
Tensor(out), Tensor(total_weight)
infer_meta
:
func
:
NllLossInferMeta
kernel
:
func
:
nll_loss
backward
:
nll_loss_grad
# pad
-
api
:
pad
args
:
(Tensor x, int[] paddings, float pad_value)
output
:
Tensor
infer_meta
:
func
:
PadInferMeta
kernel
:
func
:
pad
backward
:
pad_grad
# pixel_shuffle
-
api
:
pixel_shuffle
args
:
(Tensor x, int upscale_factor, string data_format)
output
:
Tensor
infer_meta
:
func
:
PixelShuffleInferMeta
kernel
:
func
:
pixel_shuffle
backward
:
pixel_shuffle_grad
# poisson
# psroi_pool
-
api
:
poisson
args
:
(Tensor x)
output
:
Tensor
infer_meta
:
func
:
PoissonInferMeta
kernel
:
func
:
poisson
backward
:
poisson_grad
# psroi_pool ?? optional
-
api
:
psroi_pool
args
:
(Tensor x, Tensor rois, Tensor rois_num, int pooled_weight, int pooled_width, int output_channels, float spatial_scale )
output
:
Tensor
infer_meta
:
func
:
PsroiPoolInferMeta
kernel
:
func
:
psroi_pool
backward
:
psroi_pool_grad
# randint_raw
-
api
:
randint
args
:
(int low, int high, ScalarArray shape, DataType dtype)
output
:
Tensor
infer_meta
:
func
:
RandintInferMeta
kernel
:
func
:
randint
# randperm_raw
-
api
:
randperm
args
:
(int n, DataType dtype)
output
:
Tensor
infer_meta
:
func
:
RandpermInferMeta
kernel
:
func
:
randperm
# max
# max_raw
-
api
:
max
args
:
(Tensor x, int64_t[] dims, bool keep_dim)
output
:
Tensor
infer_meta
:
func
:
MaxInferMeta
kernel
:
func
:
max
# reduce_prod
# scale_sr
-
api
:
reduce_prod
args
:
(Tensor x, int64_t[] dims, bool keep_dim, bool reduce_all)
output
:
Tensor
infer_meta
:
func
:
ReduceProdInferMeta
kernel
:
func
:
reduce_prod
# selu
# set_value
# sgd
# shape
# shape_sr
-
api
:
selu
args
:
(Tensor x, float scale, float alpha)
output
:
Tensor
infer_meta
:
func
:
SeluInferMeta
kernel
:
func
:
selu
backward
:
selu_grad
# set_value None api
# sgd # need invoke
# shape ??? selcted rows
# shard_index
-
api
:
shard_index
args
:
(Tensor in, int index_num, int nshards, int shard_id, int ignore_value)
output
:
Tensor
infer_meta
:
func
:
ShardIndexInferMeta
kernel
:
func
:
shard_index
# sigmoid_cross_entropy_with_logits
-
api
:
sigmoid_cross_entropy_with_logits
args
:
(Tensor x, Tensor label, bool normalize, int ignore_index)
output
:
Tensor
infer_meta
:
func
:
SigmoidCrossEntropyWithoLgitsInferMeta
kernel
:
func
:
sigmoid_cross_entropy_with_logits
# size
# sparse_weight_embedding
-
api
:
size
args
:
(Tensor x)
output
:
Tensor
infer_meta
:
func
:
SizeInferMeta
kernel
:
func
:
size
# tile
-
api
:
tile
args
:
(Tensor x, ScalarArray repeat_times)
output
:
Tensor
infer_meta
:
func
:
TileInferMeta
kernel
:
func
:
tile
backward
:
tile_grad
# top_k
-
api
:
top_k
args
:
(Tensor x, Scalar k, int axis, bool largest, bool sorted)
output
:
Tensor(out), Tensor(indices)
infer_meta
:
func
:
TopkInferMeta
kernel
:
func
:
top_k
backward
:
top_k_grad
# trace
# phi_transfer_layout
-
api
:
trace
args
:
(Tensor x, int offset, int axis1, int axis2)
output
:
Tensor
infer_meta
:
func
:
TraceInferMeta
kernel
:
func
:
trace
backward
:
trace_grad
# phi_transfer_layout | not have python api
# truncated_gaussian_random
-
api
:
truncated_gaussian_random
args
:
(int[] shape, float mean, float std, int seed, DataType dtype)
output
:
Tensor
infer_meta
:
func
:
TruncatedGaussianRandomInferMeta
kernel
:
func
:
truncated_gaussian_random
# unbind
-
api
:
unbind
args
:
(Tensor x, int axis)
output
:
Tensor[]
infer_meta
:
func
:
UnbindInferMeta
kernel
:
func
:
unbind
# unfold
# uniform_random_raw
# uniform_random_raw_sr
-
api
:
unfold
args
:
(Tensor x, int[] kernel_sizes, int[] strides, int[] paddings, int[] dilations)
output
:
Tensor
infer_meta
:
func
:
UnfoldInferMeta
kernel
:
func
:
unfold
backward
:
unfold_grad
# uniform_random_raw selected rows ??
# viterbi_decode
-
api
:
viterbi_decode
args
:
(Tensor input, Tensor transition, Tensor length, bool include_bos_eos_tag)
output
:
Tensor(scores), Tensor(path)
infer_meta
:
func
:
ViterbiDecodeInferMeta
kernel
:
func
:
viterbi_decode
# where_index
-
api
:
where_index
args
:
(Tensor condition)
output
:
Tensor
infer_meta
:
func
:
WhereIndexInferMeta
kernel
:
func
:
where_index
# yolo_box
# sparse_conv3d
# dense_to_sparse_coo
-
api
:
yolo_box
args
:
(Tensor x, Tensor img_size, int[] anchors, int class_num, float conf_thresh, int downsample_ratio, bool clip_bbox, float scale_x_y, bool iou_aware, float iou_aware_factor)
output
:
Tensor(boxes), Tensor(scores)
infer_meta
:
func
:
YoloBoxInferMeta
kernel
:
func
:
yolo_box
python/paddle/utils/code_gen/backward.yaml
浏览文件 @
1694bcc8
...
...
@@ -403,3 +403,165 @@
param
:
[
x
]
kernel
:
func
:
graph_send_recv_grad
-
backward_api
:
label_smooth_grad
forward
:
label_smooth (Tensor label, Tensor prior_dist, float epsilon) -> Tensor(out)
args
:
(Tensor out_grad, float epsilon)
output
:
Tensor(x_grad)
infer_meta
:
func
:
XXXXInferMeta
param
:
[
x
]
kernel
:
func
:
label_smooth_grad
-
backward_api
:
log_loss_grad
forward
:
log_loss (Tensor input, Tensor label, float epsilon) -> Tensor(out)
args
:
(Tensor input, Tensor label, Tensor out_grad, float epsilon)
output
:
Tensor(input_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
log_loss_grad
-
backward_api
:
masked_selecte_grad
forward
:
masked_select (Tensor x, Tensor mask) -> Tensor(out)
args
:
(Tensor out_grad, Tensor x, Tensor mask)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
masked_selecte_grad
-
backward_api
:
multi_dot_grad
forward
:
multi_dot (Tensor[] x) -> Tensor(out)
args
:
(Tensor out_grad, Tensor[] x)
output
:
Tensor[] (x_grad)
infer_meta
:
func
:
XXXXInferMeta
param
:
[
x
]
kernel
:
func
:
multi_dot_grad
-
backward_api
:
nll_loss_grad
forward
:
nll_loss (Tensor input, Tensor label, Tensor weight, int64_t ignore_index, string reduction) -> Tensor(out), Tensor(total_weight)
args
:
(Tensor x, Tensor label, Tensor total_weight, Tensor weight, Tensor out_grad, int64_t ignore_index, string reduction)
output
:
Tensor[] (x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
nll_loss_grad
-
backward_api
:
pad_grad
forward
:
pad (Tensor x, int[] paddings, float pad_value) -> Tensor(out)
args
:
(Tensor out_grad, int[] paddings, float pad_value)
output
:
Tensor(x_grad)
infer_meta
:
func
:
XXXXXInferMeta
param
:
[
x
]
kernel
:
func
:
pad_grad
-
backward_api
:
pixel_shuffle_grad
forward
:
pixel_shuffle (Tensor x, int upscale_factor, string data_format) -> Tensor(out)
args
:
(Tensor out_grad, int upscale_factor, string data_format)
output
:
Tensor(x_grad)
infer_meta
:
func
:
XXXXXInferMeta
param
:
[
x
]
kernel
:
func
:
pixel_shuffle_grad
-
backward_api
:
poisson_grad
forward
:
poisson (Tensor x) -> Tensor(out)
args
:
()
output
:
Tensor(x_grad)
infer_meta
:
func
:
XXXXXInferMeta
param
:
[
x
]
kernel
:
func
:
poisson_grad
-
backward_api
:
psroi_pool_grad
forward
:
psroi_pool (Tensor x, Tensor rois, Tensor rois_num, int pooled_weight, int pooled_width, int output_channels, float spatial_scale ) -> Tensor(out)
args
:
(Tensor x, Tensor rois, Tensor rois_num, Tensor out_grad, int pooled_weight, int pooled_width, int output_channels, float spatial_scale)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
psroi_pool_grad
-
backward_api
:
selu_grad
forward
:
selu (Tensor x, float scale, float alpha) -> Tensor(out)
args
:
(Tensor out, Tensor out_grad, float scale, float alpha)
output
:
Tensor(x_grad)
infer_meta
:
func
:
XXXXXInferMeta
param
:
[
x
]
kernel
:
func
:
selu_grad
-
backward_api
:
sigmoid_cross_entropy_with_logits_grad
forward
:
sigmoid_cross_entropy_with_logits (Tensor x, Tensor label, bool normalize, int ignore_index) -> Tensor(out)
args
:
(Tensor x, Tensor label, Tensor out_grad, bool normalize, int ingore_index)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
sigmoid_cross_entropy_with_logits_grad
-
backward_api
:
tile_grad
forward
:
tile (Tensor x, ScalarArray repeat_times) -> Tensor(out)
args
:
(Tensor x, Tensor out_grad, ScalarArray repeat_times)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
tile_grad
# forward backward type not match
-
backward_api
:
top_k_grad
forward
:
top_k (Tensor x, Scalar k, int axis, bool largest, bool sorted) -> Tensor(out), Tensor(indices)
args
:
(Tensor out_grad, Tensor x, Tensor indices, int k, index axis, bool largest, bool sorted)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
top_k_grad
-
backward_api
:
trace_grad
forward
:
trace (Tensor x, int offset, int axis1, int axis2) -> Tensor(out)
args
:
(Tensor out_grad, Tensor x, int offset, int axis1, int axis2)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
trace_grad
-
backward_api
:
unfold_grad
forward
:
unfold (Tensor x, int[] kernel_sizes, int[] strides, int[] paddings, int[] dilations) -> Tensor(out)
args
:
(Tensor x, Tensor out_grad, int[] kernel_sizes, int[] strides, int[] paddings, int[] dilations)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
unfold_grad
-
backward_api
:
where_index_grad
forward
:
where_index (Tensor condition) -> Tensor(out)
args
:
(Tensor out_grad, Tensor x, int offset, int axis1, int axis2)
output
:
Tensor(x_grad)
infer_meta
:
func
:
UnchangedInferMeta
param
:
[
x
]
kernel
:
func
:
trace_grad
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录