Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
X2Paddle
提交
be22eaa2
X
X2Paddle
项目概览
PaddlePaddle
/
X2Paddle
大约 1 年 前同步成功
通知
328
Star
698
Fork
167
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
26
列表
看板
标记
里程碑
合并请求
4
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
X
X2Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
26
Issue
26
列表
看板
标记
里程碑
合并请求
4
合并请求
4
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
be22eaa2
编写于
5月 09, 2022
作者:
W
wjj19950828
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Support Wav2vec2
上级
620666e8
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
54 addition
and
1 deletion
+54
-1
docs/inference_model_convertor/op_list.md
docs/inference_model_convertor/op_list.md
+1
-1
x2paddle/op_mapper/pytorch2paddle/aten.py
x2paddle/op_mapper/pytorch2paddle/aten.py
+53
-0
未找到文件。
docs/inference_model_convertor/op_list.md
浏览文件 @
be22eaa2
...
@@ -115,7 +115,7 @@ Aten:
...
@@ -115,7 +115,7 @@ Aten:
| 121 | aten::repeat
\_
interleave | 122 | aten::maxpool1d | 123 | aten::frobenius
\_
norm | 124 | aten::format |
| 121 | aten::repeat
\_
interleave | 122 | aten::maxpool1d | 123 | aten::frobenius
\_
norm | 124 | aten::format |
| 125 | aten::complex | 126 | aten::real | 127 | aten::imag | 128 | aten::fft
\_
rfftn |
| 125 | aten::complex | 126 | aten::real | 127 | aten::imag | 128 | aten::fft
\_
rfftn |
| 129 | aten::fft
\_
irfftn | 130 | aten::hardsigmoid | 131 | aten::hardswish | 132 | aten::linear |
| 129 | aten::fft
\_
irfftn | 130 | aten::hardsigmoid | 131 | aten::hardswish | 132 | aten::linear |
| 133 | aten::rsqrt | 134 | aten::replication
\_
pad1d | 135 | aten::full |
|
|
| 133 | aten::rsqrt | 134 | aten::replication
\_
pad1d | 135 | aten::full |
136 | aten::group
\_
norm
|
Prim:
Prim:
| 序号 | OP | 序号 | OP | 序号 | OP | 序号 | OP |
| 序号 | OP | 序号 | OP | 序号 | OP | 序号 | OP |
...
...
x2paddle/op_mapper/pytorch2paddle/aten.py
浏览文件 @
be22eaa2
...
@@ -2654,6 +2654,59 @@ def aten_gt(mapper, graph, node):
...
@@ -2654,6 +2654,59 @@ def aten_gt(mapper, graph, node):
return
current_inputs
,
current_outputs
return
current_inputs
,
current_outputs
def
aten_group_norm
(
mapper
,
graph
,
node
):
"""
TorchScript Code:
%input.81 : Tensor = aten::group_norm(%input.2, %25, %60, %59, %26, %30)
Parameter meaning:
%input.81 (Tensor): Output Tensor
%input.2 (Tensor): Input Tensor
%25 (Tensor): num_groups
%60 (Tensor): weight
%59 (Tensor): bias
%26 (Tensor): eps
%30 (bool): enabled cudnn
"""
scope_name
=
mapper
.
normalize_scope_name
(
node
)
op_name
=
name_generator
(
"groupnorm"
,
mapper
.
nn_name2id
)
output_name
=
mapper
.
_get_outputs_name
(
node
)[
0
]
layer_outputs
=
[
op_name
,
output_name
]
layer_inputs
=
{}
layer_attrs
=
{}
inputs_name
,
inputs_node
=
mapper
.
_get_inputs_name
(
node
)
# output list
current_outputs
=
[
output_name
]
# process Input Tensor
mapper
.
_check_input
(
graph
,
inputs_node
[
0
],
inputs_name
[
0
],
current_outputs
,
scope_name
)
layer_inputs
[
"input"
]
=
inputs_name
[
0
]
# input list
current_inputs
=
list
(
layer_inputs
.
values
())
# process num_groups
layer_attrs
[
'num_groups'
]
=
mapper
.
attrs
[
inputs_name
[
1
]]
# process weight
weights
=
mapper
.
pytorch_params
[
inputs_name
[
2
]]
mapper
.
paddle_params
[
op_name
+
".weight"
]
=
weights
layer_attrs
[
'num_channels'
]
=
weights
.
shape
[
0
]
# process bias
if
inputs_name
[
2
]
in
mapper
.
pytorch_params
:
bias
=
mapper
.
pytorch_params
[
inputs_name
[
3
]]
if
bias
is
not
None
:
mapper
.
paddle_params
[
op_name
+
".bias"
]
=
bias
else
:
mapper
.
paddle_params
[
op_name
+
".bias"
]
=
False
# process eps
layer_attrs
[
"epsilon"
]
=
mapper
.
attrs
[
inputs_name
[
4
]]
graph
.
add_layer
(
"paddle.nn.GroupNorm"
,
inputs
=
layer_inputs
,
outputs
=
layer_outputs
,
scope_name
=
scope_name
,
**
layer_attrs
)
return
current_inputs
,
current_outputs
def
aten_gru
(
mapper
,
graph
,
node
):
def
aten_gru
(
mapper
,
graph
,
node
):
""" 构造门控循环单元网络(GRU)的PaddleLayer。
""" 构造门控循环单元网络(GRU)的PaddleLayer。
TorchScript示例:
TorchScript示例:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录