Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
34773ba3
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
404
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
34773ba3
编写于
11月 05, 2021
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(mgb/gopt): tensorcore pass replace BatchConvBias inputs to nchw4
GitOrigin-RevId: 3ff3c422fb81a1a40735ce612f29a9547886c547
上级
efe3cfe7
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
62 addition
and
0 deletion
+62
-0
src/gopt/impl/tensor_reformat.cpp
src/gopt/impl/tensor_reformat.cpp
+1
-0
src/gopt/test/inference.cpp
src/gopt/test/inference.cpp
+61
-0
未找到文件。
src/gopt/impl/tensor_reformat.cpp
浏览文件 @
34773ba3
...
...
@@ -555,6 +555,7 @@ std::unique_ptr<EnableTensorCorePass> EnableTensorCorePass::
replace_func
[
opr
::
Reshape
::
typeinfo
()]
=
replace_inps_to_nchw4
;
replace_func
[
opr
::
GetVarShape
::
typeinfo
()]
=
replace_inps_to_nchw4
;
replace_func
[
opr
::
Dimshuffle
::
typeinfo
()]
=
replace_inps_to_nchw4
;
replace_func
[
opr
::
BatchConvBias
::
typeinfo
()]
=
replace_inps_to_nchw4
;
return
ret
;
MIDOUT_E
}
...
...
src/gopt/test/inference.cpp
浏览文件 @
34773ba3
...
...
@@ -2244,6 +2244,67 @@ TEST(TestEnableTensorCore, Pooling) {
MGB_ASSERT_TENSOR_EQ
(
host_y
,
host_y_opt
);
}
TEST
(
TestEnableTensorCore
,
BatchConvBias
)
{
REQUIRE_GPU
(
1
);
auto
cn
=
CompNode
::
load
(
"gpu0"
);
cn
.
activate
();
auto
&&
prop
=
CompNodeEnv
::
from_comp_node
(
cn
).
cuda_env
().
device_prop
;
auto
sm_ver
=
prop
.
major
*
10
+
prop
.
minor
;
if
(
sm_ver
<
75
)
{
printf
(
"This testcast ignored due to insufficient cuda cap(got: %d, "
"expected: %d)
\n
"
,
sm_ver
,
75
);
return
;
}
HostTensorGenerator
<
dtype
::
Int8
>
gen
;
auto
graph
=
ComputingGraph
::
make
();
graph
->
options
().
graph_opt_level
=
0
;
auto
mkvar
=
[
&
](
const
char
*
name
,
const
TensorShape
&
shp
,
const
DType
&
dtype
)
{
return
opr
::
TypeCvt
::
make
(
opr
::
Host2DeviceCopy
::
make
(
*
graph
,
gen
(
shp
,
cn
)).
rename
(
name
),
dtype
);
};
auto
mkcvar
=
[
&
](
const
char
*
name
,
const
TensorShape
&
shp
,
const
DType
&
dtype
)
{
return
opr
::
TypeCvt
::
make
(
opr
::
SharedDeviceTensor
::
make
(
*
graph
,
*
gen
(
shp
,
cn
)).
rename
(
name
),
dtype
);
};
auto
inp
=
mkvar
(
"inp"
,
{
32
,
24
,
24
,
24
,
4
},
dtype
::
QuantizedS8
(
1.1
f
)),
flt
=
mkcvar
(
"flt"
,
{
32
,
96
,
24
,
1
,
1
,
4
},
dtype
::
QuantizedS8
(
1.2
f
)),
bias
=
mkcvar
(
"bias"
,
{
1
,
24
,
1
,
1
,
4
},
dtype
::
QuantizedS32
{
1.1
f
*
1.2
f
});
opr
::
BatchConvBias
::
Param
param
;
param
.
format
=
opr
::
BatchConvBias
::
Param
::
Format
::
NCHW4
;
param
.
stride_h
=
param
.
stride_w
=
1
;
param
.
pad_h
=
param
.
pad_w
=
0
;
auto
y
=
opr
::
BatchConvBias
::
make
(
inp
,
flt
,
bias
,
param
,
{},
OperatorNodeConfig
{
dtype
::
QuantizedS8
{
1.3
f
}});
y
=
opr
::
TypeCvt
::
make
(
y
,
dtype
::
Float32
());
SymbolVar
y_opt
;
SymbolVar
y_no_tc
;
{
auto
options
=
gopt
::
OptimizeForInferenceOptions
{};
options
.
enable_fuse_conv_bias_nonlinearity
().
enable_nchw32
();
unpack_vector
(
gopt
::
optimize_for_inference
({
y
},
options
),
y_opt
);
}
ASSERT_EQ
(
opr
::
BatchConvBias
::
Param
::
Format
::
NCHW4
,
find_opr
<
opr
::
BatchConvBias
>
(
y_opt
).
param
().
format
);
{
auto
options
=
gopt
::
OptimizeForInferenceOptions
{};
options
.
enable_fuse_conv_bias_nonlinearity
();
unpack_vector
(
gopt
::
optimize_for_inference
({
y
},
options
),
y_no_tc
);
}
HostTensorND
host_y
,
host_y_opt
;
auto
func
=
graph
->
compile
(
{
make_callback_copy
(
y_no_tc
,
host_y
),
make_callback_copy
(
y_opt
,
host_y_opt
)});
func
->
execute
();
MGB_ASSERT_TENSOR_EQ
(
host_y
,
host_y_opt
);
}
TEST
(
TestGoptInference
,
EnableTensorCore
)
{
REQUIRE_GPU
(
1
);
auto
cn
=
CompNode
::
load
(
"gpu0"
);
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录