Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
56e863b7
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
404
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
56e863b7
编写于
4月 19, 2021
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(dnn/cuda): fix int4 epilogue stg bug
GitOrigin-RevId: e86da9a8a8d3d55931d55b12673c99f940a390d0
上级
cff61a53
变更
7
隐藏空白更改
内联
并排
Showing
7 changed file
with
44 addition
and
8 deletion
+44
-8
dnn/test/common/checker.cpp
dnn/test/common/checker.cpp
+14
-3
dnn/test/common/checker.h
dnn/test/common/checker.h
+13
-1
dnn/test/common/conv_bias.cpp
dnn/test/common/conv_bias.cpp
+7
-2
dnn/test/common/conv_bias.h
dnn/test/common/conv_bias.h
+1
-1
dnn/test/common/warp_perspective.h
dnn/test/common/warp_perspective.h
+1
-1
dnn/test/cuda/utils.cpp
dnn/test/cuda/utils.cpp
+7
-0
dnn/test/cuda/utils.h
dnn/test/cuda/utils.h
+1
-0
未找到文件。
dnn/test/common/checker.cpp
浏览文件 @
56e863b7
...
...
@@ -182,10 +182,10 @@ CheckerHelper::CheckerHelper(Handle *handle, bool check_dispatch):
const
char
*
env_p
=
std
::
getenv
(
"MGB_NO_NAIVE_CHECK"
);
if
(
env_p
)
{
int
no_naive_flag
=
atoi
(
env_p
);
no_naive_and_check
=
no_naive_flag
>
0
?
true
:
false
;
m_
no_naive_and_check
=
no_naive_flag
>
0
?
true
:
false
;
check_dispatch
=
false
;
}
else
{
no_naive_and_check
=
false
;
m_
no_naive_and_check
=
false
;
}
auto
tmp_handle
=
create_cpu_handle
(
2
,
check_dispatch
);
m_handle_naive
=
std
::
move
(
tmp_handle
);
...
...
@@ -282,7 +282,18 @@ void CheckerHelper::do_exec(const TensorLayoutArray &user_layouts,
m_expect_exec_fail
=
{};
return
;
}
if
(
no_naive_and_check
){
if
(
m_stable_check
)
{
auto
tensors_bak_host_storage
=
alloc_tensors
(
m_handle_naive
.
get
(),
layouts
,
m_offset
);
auto
&&
tensors_bak_host
=
*
tensors_bak_host_storage
;
copy_tensors_from_device
(
tensors_bak_host
,
tensors_cur
);
for
(
int
i
=
0
;
i
<
10
;
i
++
)
{
exec_opr
(
tensors_cur
);
copy_tensors_from_device
(
tensors_cur_host
,
tensors_cur
);
check_tensors
(
tensors_bak_host
,
tensors_cur_host
);
}
}
if
(
m_no_naive_and_check
)
{
m_prev_succ
=
!::
testing
::
Test
::
HasFailure
();
return
;
}
...
...
dnn/test/common/checker.h
浏览文件 @
56e863b7
...
...
@@ -76,7 +76,8 @@ protected:
ExtraOprImpl
m_extra_opr_impl
;
OutputCanonizer
m_output_canonizer
;
TensorsConstriant
m_tensor_constraint
;
bool
no_naive_and_check
=
false
;
bool
m_no_naive_and_check
=
false
;
bool
m_stable_check
=
false
;
/**
* the offset from the start of malloc memory
*
...
...
@@ -230,6 +231,17 @@ public:
return
*
this
;
}
//! stable check will run many iter and compare result with first iter
Checker
&
set_stable_check
(
bool
stable_check
)
{
m_stable_check
=
stable_check
;
return
*
this
;
}
Checker
&
set_no_naive_check
(
bool
no_naive_and_check
)
{
m_no_naive_and_check
=
no_naive_and_check
;
return
*
this
;
}
//! load input tensors from file for next run
Checker
&
load_input_tensors
(
const
char
*
fpath
)
{
m_input_tensors_fpath
=
fpath
;
...
...
dnn/test/common/conv_bias.cpp
浏览文件 @
56e863b7
...
...
@@ -731,9 +731,10 @@ std::vector<TestArg> get_int8_chwn4_tensorcore_args(size_t kernel_size) {
void
check_conv_bias
(
DType
src_dtype
,
DType
filter_dtype
,
DType
bias_dtype
,
DType
dst_dtype
,
Handle
*
handle
,
const
char
*
algo
,
param
::
ConvBias
::
Format
format
,
const
std
::
vector
<
TestArg
>&
args
,
bool
fuse_z
)
{
const
std
::
vector
<
TestArg
>&
args
,
bool
fuse_z
,
bool
stable_test
)
{
megdnn_assert
(
src_dtype
.
enumv
()
==
filter_dtype
.
enumv
());
Checker
<
ConvBiasForward
>
checker
(
handle
);
Checker
<
ConvBiasForward
>
checker
(
handle
,
!
stable_test
);
if
(
algo
)
{
checker
.
set_before_exec_callback
(
ConvBiasAlgoChecker
<
ConvBiasForward
>
(
algo
));
...
...
@@ -823,6 +824,10 @@ void check_conv_bias(DType src_dtype, DType filter_dtype, DType bias_dtype,
.
set_rng
(
1
,
rng
.
get
())
.
set_rng
(
2
,
bias_rng
.
get
())
.
set_rng
(
3
,
rng
.
get
());
if
(
stable_test
)
{
checker
.
set_stable_check
(
true
);
checker
.
set_no_naive_check
(
true
);
}
if
(
args
.
empty
())
{
std
::
vector
<
TestArg
>
default_args
;
if
(
format
==
Format
::
NCHW4
)
{
...
...
dnn/test/common/conv_bias.h
浏览文件 @
56e863b7
...
...
@@ -69,7 +69,7 @@ void check_conv_bias(
DType
src_dtype
,
DType
filter_dtype
,
DType
bias_dtype
,
DType
dst_dtype
,
Handle
*
handle
,
const
char
*
algo
=
nullptr
,
param
::
ConvBias
::
Format
format
=
param
::
ConvBias
::
Format
::
NCHW4
,
const
std
::
vector
<
TestArg
>&
args
=
{},
bool
fuse_z
=
false
);
const
std
::
vector
<
TestArg
>&
args
=
{},
bool
fuse_z
=
false
,
bool
stable_test
=
false
);
#if MEGDNN_WITH_BENCHMARK
std
::
vector
<
conv_bias
::
TestArg
>
get_winograd_benchmark_args
(
...
...
dnn/test/common/warp_perspective.h
浏览文件 @
56e863b7
...
...
@@ -71,7 +71,7 @@ public:
auto
rand_real2
=
[
&
](
double
range
)
{
return
rand_real
(
-
range
,
range
);
};
dt_float32
res
;
dt_float32
res
=
0
;
switch
(
idx
)
{
case
0
:
rot
=
rand_real
(
0
,
M_PI
*
2
);
...
...
dnn/test/cuda/utils.cpp
浏览文件 @
56e863b7
...
...
@@ -28,6 +28,13 @@ bool check_compute_capability_eq(int major, int minor) {
cuda_check
(
cudaGetDeviceProperties
(
&
prop
,
dev
));
return
(
prop
.
major
==
major
&&
prop
.
minor
==
minor
);
}
const
cudaDeviceProp
current_cuda_device_prop
()
{
int
dev
;
cuda_check
(
cudaGetDevice
(
&
dev
));
cudaDeviceProp
prop
;
cuda_check
(
cudaGetDeviceProperties
(
&
prop
,
dev
));
return
prop
;
}
}
// namespace test
}
// namespace megdnn
...
...
dnn/test/cuda/utils.h
浏览文件 @
56e863b7
...
...
@@ -27,6 +27,7 @@ namespace megdnn {
namespace
test
{
bool
check_compute_capability
(
int
major
,
int
minor
);
bool
check_compute_capability_eq
(
int
major
,
int
minor
);
const
cudaDeviceProp
current_cuda_device_prop
();
}
// namespace test
}
// namespace megdnn
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录