Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
fa9d719f
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
403
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
fa9d719f
编写于
10月 15, 2022
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(gopt): fix global layout transform fold conv typecvt
GitOrigin-RevId: 66a23a927e1b2355262b78366c690d5bff84da11
上级
767fa474
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
31 addition
and
12 deletion
+31
-12
dnn/src/cuda/conv_bias/conv_nchwqs8.cpp
dnn/src/cuda/conv_bias/conv_nchwqs8.cpp
+1
-1
src/gopt/impl/folding_conv_typecvt.cpp
src/gopt/impl/folding_conv_typecvt.cpp
+27
-11
src/gopt/impl/framework.cpp
src/gopt/impl/framework.cpp
+3
-0
未找到文件。
dnn/src/cuda/conv_bias/conv_nchwqs8.cpp
浏览文件 @
fa9d719f
...
...
@@ -110,7 +110,7 @@ bool ConvBiasForwardImpl::AlgoFallbackNCHWQS8::is_available(
bool
is_version_ok
=
CUDNN_VERSION
>=
7500
;
bool
is_dtype_ok
=
(
args
.
src_layout
->
dtype
.
enumv
()
==
DTypeEnum
::
QuantizedS8
&&
(
args
.
dst_layout
->
dtype
.
enumv
()
!=
DTypeEnum
::
QuantizedS4
||
(
args
.
dst_layout
->
dtype
.
enumv
()
!=
DTypeEnum
::
QuantizedS4
&&
args
.
dst_layout
->
dtype
.
enumv
()
!=
DTypeEnum
::
Quantized4Asymm
));
bool
is_bias_ok
=
args
.
bias_layout
->
ndim
==
0
||
...
...
src/gopt/impl/folding_conv_typecvt.cpp
浏览文件 @
fa9d719f
...
...
@@ -76,7 +76,7 @@ void FoldingConvBiasTypecvtPass::apply(OptState& opt) const {
if
(
conv_bias
==
nullptr
)
return
false
;
auto
inp_dtype_conv
=
conv_bias
->
input
(
0
)
->
dtype
(),
out_dtype_conv
=
conv_bias
->
in
put
(
0
)
->
dtype
();
out_dtype_conv
=
conv_bias
->
out
put
(
0
)
->
dtype
();
bool
is_s8nhwc
=
inp_dtype_conv
.
enumv
()
==
DTypeEnum
::
QuantizedS8
&&
out_dtype_conv
.
enumv
()
==
inp_dtype_conv
.
enumv
()
&&
...
...
@@ -86,7 +86,11 @@ void FoldingConvBiasTypecvtPass::apply(OptState& opt) const {
inp_dtype_conv
.
enumv
()
==
DTypeEnum
::
Quantized4Asymm
)
&&
out_dtype_conv
.
enumv
()
==
inp_dtype_conv
.
enumv
()
&&
conv_bias
->
param
().
format
==
megdnn
::
param
::
ConvBias
::
Format
::
NHWC
;
if
(
!
(
is_s8nhwc
||
is_s4nhwc
))
bool
is_s8nchw
=
inp_dtype_conv
.
enumv
()
==
DTypeEnum
::
QuantizedS8
&&
out_dtype_conv
.
enumv
()
==
inp_dtype_conv
.
enumv
()
&&
conv_bias
->
param
().
format
==
megdnn
::
param
::
ConvBias
::
Format
::
NCHW
;
if
(
!
(
is_s8nhwc
||
is_s4nhwc
||
is_s8nchw
))
return
false
;
if
(
conv_bias
->
input
().
size
()
!=
3
)
return
false
;
...
...
@@ -107,15 +111,27 @@ void FoldingConvBiasTypecvtPass::apply(OptState& opt) const {
auto
new_bias
=
(
out_dtype_typecvt
.
enumv
()
==
DTypeEnum
::
Float32
)
?
opr
::
TypeCvt
::
make
(
bias
,
dtype
::
Float32
()).
node
()
:
bias
;
auto
new_param
=
conv_bias
->
param
();
new_param
.
format
=
megdnn
::
param
::
ConvBias
::
Format
::
NHWC
;
auto
conv_bias_typecvt
=
opr
::
ConvBias
::
make
(
src
,
filter
,
new_bias
,
new_param
,
conv_bias
->
execution_policy
(),
OperatorNodeConfig
{
out_dtype_typecvt
});
rewriter
.
replace_var
(
opr
->
output
(
0
),
conv_bias_typecvt
.
node
(),
mgb_cstr_log
(
"replace conv_bias(NHWC) + typecvt "
"to conv_bias(NHWC)"
));
if
(
is_s8nchw
&&
is_s82s4
)
{
auto
new_param
=
conv_bias
->
param
();
new_param
.
format
=
megdnn
::
param
::
ConvBias
::
Format
::
NCHW
;
auto
conv_bias_typecvt
=
opr
::
ConvBias
::
make
(
src
,
filter
,
new_bias
,
new_param
,
conv_bias
->
execution_policy
(),
OperatorNodeConfig
{
out_dtype_typecvt
});
rewriter
.
replace_var
(
opr
->
output
(
0
),
conv_bias_typecvt
.
node
(),
mgb_cstr_log
(
"replace conv_bias(NCHW) + typecvt "
"to conv_bias(NCHW)"
));
}
else
{
auto
new_param
=
conv_bias
->
param
();
new_param
.
format
=
megdnn
::
param
::
ConvBias
::
Format
::
NHWC
;
auto
conv_bias_typecvt
=
opr
::
ConvBias
::
make
(
src
,
filter
,
new_bias
,
new_param
,
conv_bias
->
execution_policy
(),
OperatorNodeConfig
{
out_dtype_typecvt
});
rewriter
.
replace_var
(
opr
->
output
(
0
),
conv_bias_typecvt
.
node
(),
mgb_cstr_log
(
"replace conv_bias(NHWC) + typecvt "
"to conv_bias(NHWC)"
));
}
return
true
;
};
...
...
src/gopt/impl/framework.cpp
浏览文件 @
fa9d719f
...
...
@@ -823,6 +823,9 @@ const GraphOptimizer& GraphOptimizer::add_passes_for_graph_tuning_options(
add_pass
<
FuseConvBiasNonlinPass
>
();
if
(
options
.
target
==
Target
::
CUDA
)
add_pass
<
FuseConvBiasZPass
>
();
#if CUDA_VERSION >= 10020
add_pass
<
FoldingConvBiasTypecvtPass
>
();
#endif
add_pass
(
LayoutTransformPass
::
make
(
options
.
target
));
add_pass
<
ShuffleShuffleRemovePass
>
();
if
(
options
.
target
==
Target
::
CUDA
)
{
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录