Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
9b4cd92b
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
403
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
9b4cd92b
编写于
9月 30, 2021
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(mgb/dnn): fix cudnnConvBiasActivation crash on nchw32 int8 with oc > 256
GitOrigin-RevId: 20c0b90575ece88da0d1aafd2ec1751b575137ea
上级
34773ba3
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
31 addition
and
4 deletion
+31
-4
dnn/src/cuda/conv_bias/cudnn_conv_bias_activation.cpp
dnn/src/cuda/conv_bias/cudnn_conv_bias_activation.cpp
+5
-1
dnn/src/cuda/cudnn_wrapper.cpp
dnn/src/cuda/cudnn_wrapper.cpp
+1
-1
dnn/test/cuda/conv_bias.cpp
dnn/test/cuda/conv_bias.cpp
+25
-2
未找到文件。
dnn/src/cuda/conv_bias/cudnn_conv_bias_activation.cpp
浏览文件 @
9b4cd92b
...
...
@@ -50,7 +50,11 @@ bool ConvBiasForwardImpl::AlgoCUDNNConvBiasActivation::is_available(
#if (CUDNN_MAJOR == 8 && CUDNN_MINOR < 2)
if
(
m_cudnn_enum
==
CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_PRECOMP_GEMM
&&
param
.
format
==
param
::
ConvBias
::
Format
::
NCHW4
&&
(
param
.
format
==
param
::
ConvBias
::
Format
::
NCHW4
#if (CUDNN_VERSION == 8004)
||
param
.
format
==
param
::
ConvBias
::
Format
::
NCHW32
#endif
)
&&
args
.
filter_meta
.
group
*
args
.
filter_meta
.
ocpg
>
256
&&
args
.
src_layout
->
dtype
.
enumv
()
==
DTypeEnum
::
QuantizedS8
&&
args
.
filter_layout
->
dtype
.
enumv
()
==
DTypeEnum
::
QuantizedS8
)
{
...
...
dnn/src/cuda/cudnn_wrapper.cpp
浏览文件 @
9b4cd92b
...
...
@@ -498,7 +498,7 @@ const std::unordered_map<cudnnConvolutionFwdAlgo_t, CudnnAlgoPack::Attr> CudnnAl
static
const
std
::
unordered_map
<
cudnnConvolutionFwdAlgo_t
,
CudnnAlgoPack
::
Attr
>
algos
=
{
DEF_ALGO
(
CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_GEMM
,
true
,
false
),
#if
CUDNN_VERSION == 8004
#if
(CUDNN_VERSION >= 8000 && CUDNN_VERSION <= 8201)
DEF_ALGO
(
CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_PRECOMP_GEMM
,
true
,
true
),
#else
DEF_ALGO
(
CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_PRECOMP_GEMM
,
true
,
false
),
...
...
dnn/test/cuda/conv_bias.cpp
浏览文件 @
9b4cd92b
...
...
@@ -1223,8 +1223,8 @@ TEST_F(CUDA, CONV_BIAS_FORWARD_TENSORCORE_INT8) {
for
(
size_t
fh
:
{
3
,
5
,
7
})
{
for
(
int
ph
:
{
static_cast
<
int
>
(
fh
/
2
),
0
})
{
for
(
int
sh
:
{
1
,
2
})
{
for
(
size_t
ih
:
{
9
,
11
,
12
,
13
,
16
})
{
for
(
size_t
iw
:
{
8
,
27
,
32
,
40
})
{
for
(
size_t
ih
:
{
9
,
11
,
12
})
{
for
(
size_t
iw
:
{
8
,
27
,
32
})
{
param
.
nonlineMode
=
mode
;
param
.
stride_h
=
param
.
stride_w
=
sh
;
param
.
pad_h
=
param
.
pad_w
=
ph
;
...
...
@@ -1268,6 +1268,29 @@ TEST_F(CUDA, CONV_BIAS_FORWARD_TENSORCORE_INT8) {
}
}
}
{
//! convbiasactivation algo crash when oc > 256 && cudnn v8.0.4
param
.
nonlineMode
=
NonlineMode
::
RELU
;
param
.
stride_h
=
param
.
stride_w
=
1
;
param
.
pad_h
=
param
.
pad_w
=
0
;
checker
.
set_dtype
(
0
,
dtype
::
QuantizedS8
(
1.3
f
))
.
set_dtype
(
1
,
dtype
::
QuantizedS8
(
1.3
f
))
.
set_dtype
(
2
,
dtype
::
QuantizedS32
(
1.3
f
*
1.3
f
))
.
set_dtype
(
3
,
dtype
::
QuantizedS8
(
1.7
f
))
.
set_dtype
(
4
,
dtype
::
QuantizedS8
(
1.2
f
*
1.2
f
))
.
set_rng
(
0
,
&
int_rng
)
.
set_rng
(
1
,
&
int_rng
)
.
set_rng
(
2
,
&
int_rng
)
.
set_rng
(
3
,
&
int_rng
)
.
set_epsilon
(
1
+
1e-3
)
.
set_param
(
param
)
.
execs
({{
2
,
8
,
12
,
12
,
32
},
{
512
,
8
,
1
,
1
,
32
},
{
1
,
16
,
1
,
1
,
32
},
{},
{}});
}
}
#if MEGDNN_WITH_BENCHMARK
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录