Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
8f44d6ea
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
403
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
8f44d6ea
编写于
9月 16, 2020
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(mgb): fix optpass fail at transform NCHW to NCHW4 when input dtype is float
GitOrigin-RevId: 3c2c68b11cbf2dd28ae61745c26cc276e74c0761
上级
95eb6ae3
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
31 addition
and
2 deletion
+31
-2
src/gopt/impl/tensor_reformat.cpp
src/gopt/impl/tensor_reformat.cpp
+30
-1
src/gopt/test/inference.cpp
src/gopt/test/inference.cpp
+1
-1
未找到文件。
src/gopt/impl/tensor_reformat.cpp
浏览文件 @
8f44d6ea
...
...
@@ -1415,6 +1415,7 @@ VarNode* EnableNCHW4Pass::on_graph_endpoint_var(VarNode* new_var,
return
new_var
;
}
//! FIXME: All float oprs do not support NCHW4. Supports it in the future plz.
std
::
unique_ptr
<
EnableNCHW4Pass
>
EnableNCHW4Pass
::
make_nchw4_converter
()
{
MIDOUT_B
(
"EnableNCHW4Pass::make"
)
auto
ret
=
std
::
make_unique
<
EnableNCHW4Pass
>
();
...
...
@@ -1467,6 +1468,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
auto
replace_conv_opr
=
[
trans_nchw4
,
conv_format
](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
auto
&
conv_opr
=
opr
->
cast_final_safe
<
opr
::
ConvolutionForward
>
();
if
(
conv_opr
.
param
().
format
!=
...
...
@@ -1503,6 +1508,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
src_to_nchw4_mode
](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
auto
&
batch_conv_bias_opr
=
opr
->
cast_final_safe
<
opr
::
BatchConvBiasForward
>
();
...
...
@@ -1580,6 +1589,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
src_to_nchw4_mode
](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
auto
&
conv_bias_opr
=
opr
->
cast_final_safe
<
opr
::
ConvBiasForward
>
();
if
(
conv_bias_opr
.
param
().
format
!=
...
...
@@ -1647,6 +1660,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
};
auto
replace_elemwise_opr
=
[
=
](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
bool
has_inp_changed
=
false
;
for
(
size_t
i
=
0
;
i
<
opr
->
input
().
size
();
i
++
)
{
...
...
@@ -1691,6 +1708,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
};
auto
replace_pooling_opr
=
[](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
using
Param
=
opr
::
PoolingForward
::
Param
;
using
Format
=
Param
::
Format
;
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
...
...
@@ -1716,6 +1737,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
};
auto
replace_resize_opr
=
[](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
using
Param
=
opr
::
ResizeForward
::
Param
;
using
Format
=
Param
::
Format
;
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
...
...
@@ -1738,6 +1763,10 @@ std::unique_ptr<EnableNCHW4Pass> EnableNCHW4Pass::make_nchw4_converter() {
};
auto
replace_warp_perspective_opr
=
[](
OperatorNodeBase
*
opr
,
const
VarNodeArray
&
new_inp
)
{
if
(
new_inp
[
0
]
->
dtype
().
enumv
()
==
DTypeEnum
::
Float32
)
{
return
serialization
::
copy_opr_shallow
(
*
opr
,
new_inp
,
opr
->
config
());
}
using
Param
=
opr
::
WarpPerspective
::
Param
;
using
Format
=
Param
::
Format
;
mgb_assert
(
opr
->
input
().
size
()
==
new_inp
.
size
());
...
...
@@ -3127,4 +3156,4 @@ void ShuffleShuffleRemovePass::apply(OptState& opt) const {
MIDOUT_E
}
// vim: syntax=cpp.doxygen foldmethod=marker foldmarker=f{{{,f}}}
\ No newline at end of file
// vim: syntax=cpp.doxygen foldmethod=marker foldmarker=f{{{,f}}}
src/gopt/test/inference.cpp
浏览文件 @
8f44d6ea
...
...
@@ -2816,7 +2816,7 @@ TEST(TestGoptInference, ConvertFormatNCHW4) {
unpack_vector
(
gopt
::
optimize_for_inference
({
y
},
options
),
y_opt
);
}
ASSERT_EQ
(
opr
::
ConvBias
::
Param
::
Format
::
NCHW
4
,
ASSERT_EQ
(
opr
::
ConvBias
::
Param
::
Format
::
NCHW
,
find_opr
<
opr
::
ConvBias
>
(
y_opt
).
param
().
format
);
graph
->
compile
({{
y_opt
,
{}}})
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录