Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
5f0e7ffb
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
403
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
5f0e7ffb
编写于
5月 19, 2022
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
feat(fallback): add FB_GI_F32_4x12 benchmark
GitOrigin-RevId: cfacf31b2801df7e15df3f8bb9ab34f85ae531b7
上级
f249d387
变更
5
隐藏空白更改
内联
并排
Showing
5 changed file
with
91 addition
and
9 deletion
+91
-9
dnn/src/fallback/matrix_mul/gi/fp32/strategy_4x12.cpp
dnn/src/fallback/matrix_mul/gi/fp32/strategy_4x12.cpp
+9
-9
dnn/test/armv7/matrix_mul.cpp
dnn/test/armv7/matrix_mul.cpp
+6
-0
dnn/test/common/matrix_mul.cpp
dnn/test/common/matrix_mul.cpp
+62
-0
dnn/test/common/matrix_mul.h
dnn/test/common/matrix_mul.h
+4
-0
dnn/test/fallback/matrix_mul.cpp
dnn/test/fallback/matrix_mul.cpp
+10
-0
未找到文件。
dnn/src/fallback/matrix_mul/gi/fp32/strategy_4x12.cpp
浏览文件 @
5f0e7ffb
#include "src/fallback/matrix_mul/generic_strategy.h"
#include "src/fallback/matrix_mul/gi/fp32/common.h"
using
namespace
megdnn
;
using
namespace
matmul
::
fallback
;
namespace
{
#pragma GCC diagnostic push
#pragma GCC diagnostic ignored "-Wuninitialized"
...
...
@@ -18,6 +10,15 @@ namespace {
#endif
#endif
#endif
#include "src/fallback/matrix_mul/generic_strategy.h"
#include "src/fallback/matrix_mul/gi/fp32/common.h"
using
namespace
megdnn
;
using
namespace
matmul
::
fallback
;
namespace
{
void
kern_4x12
(
const
float
*
packA
,
const
float
*
packB
,
int
K
,
float
*
output
,
int
LDC
,
bool
is_first_k
,
int
m_remain
)
{
...
...
@@ -615,7 +616,6 @@ void kern_4x4(
}
}
}
#pragma GCC diagnostic pop
void
gi_sgemm_4x12_pack_A_n
(
float
*
outptr
,
const
float
*
inptr
,
int
ldin
,
int
y0
,
int
ymax
,
int
k0
,
...
...
dnn/test/armv7/matrix_mul.cpp
浏览文件 @
5f0e7ffb
...
...
@@ -571,6 +571,12 @@ TEST_F(ARMV7, BENCHMARK_MATRIX_MUL_INT32_MK_4X2X16) {
}
}
TEST_F
(
ARMV7
,
BENCHMARK_MATRIX_MUL_ARMV7_F32
)
{
auto
args
=
matrix_mul
::
get_benchmark_matmul_args
();
matrix_mul
::
benchmark_single_algo
(
handle
(),
args
,
dtype
::
Float32
{},
dtype
::
Float32
{},
dtype
::
Float32
{},
"ARMV7_F32"
,
param
::
MatrixMul
::
Format
::
DEFAULT
);
}
#endif
// vim: syntax=cpp.doxygen
dnn/test/common/matrix_mul.cpp
浏览文件 @
5f0e7ffb
...
...
@@ -429,6 +429,68 @@ void matrix_mul::benchmark_with_contrast(
}
}
void
matrix_mul
::
benchmark_single_algo
(
Handle
*
handle
,
const
std
::
vector
<
TestArg
>&
args
,
DType
A_dtype
,
DType
B_dtype
,
DType
C_dtype
,
const
char
*
algo
,
param
::
MatrixMul
::
Format
format
)
{
using
Param
=
MatrixMul
::
Param
;
megdnn_assert
(
A_dtype
.
enumv
()
==
B_dtype
.
enumv
());
Benchmarker
<
MatrixMul
>
benchmark
(
handle
);
constexpr
size_t
RUNS
=
50
;
if
(
algo
)
{
benchmark
.
set_before_exec_callback
(
AlgoChecker
<
MatrixMul
>
(
algo
));
}
benchmark
.
set_dtype
(
0
,
A_dtype
).
set_dtype
(
1
,
B_dtype
).
set_dtype
(
2
,
C_dtype
);
benchmark
.
set_times
(
RUNS
);
auto
bench
=
[](
Benchmarker
<
MatrixMul
>&
benchmark
,
Param
param
,
param
::
MatrixMul
::
Format
format
,
size_t
m
,
size_t
n
,
size_t
k
,
size_t
pack_size
)
->
float
{
param
.
format
=
format
;
benchmark
.
set_param
(
param
);
float
used_algo
=
1.0
;
if
(
format
==
param
::
MatrixMul
::
Format
::
DEFAULT
)
{
size_t
A0
=
m
*
pack_size
,
A1
=
k
*
pack_size
,
B0
=
k
*
pack_size
,
B1
=
n
;
TensorShape
A
,
B
;
if
(
param
.
transposeA
)
{
std
::
swap
(
A0
,
A1
);
}
if
(
param
.
transposeB
)
{
std
::
swap
(
B0
,
B1
);
}
used_algo
=
benchmark
.
execs
({{
A0
,
A1
},
{
B0
,
B1
},
{}})
/
RUNS
;
}
else
{
size_t
A0
=
m
,
A1
=
k
,
B0
=
k
,
B1
=
n
;
if
(
param
.
transposeA
)
{
std
::
swap
(
A0
,
A1
);
}
if
(
param
.
transposeB
)
{
std
::
swap
(
B0
,
B1
);
}
used_algo
=
benchmark
.
execs
(
{{
A0
,
A1
,
pack_size
,
pack_size
},
{
B0
,
B1
,
pack_size
},
{}})
/
RUNS
;
}
return
used_algo
;
};
size_t
pack_size
=
MatrixMulForward
::
pack_size
(
format
);
for
(
auto
&
arg
:
args
)
{
Param
param
;
param
.
transposeA
=
arg
.
mask
&
0x1
;
param
.
transposeB
=
arg
.
mask
&
0x2
;
auto
used_algo
=
bench
(
benchmark
,
param
,
format
,
arg
.
m
,
arg
.
n
,
arg
.
k
,
pack_size
);
float
computations
=
2.
f
*
arg
.
m
*
pack_size
*
arg
.
k
*
pack_size
*
arg
.
n
*
1e-6
;
printf
(
"run: {(%zu, %zu) x (%zu, %zu)} %f ms %f Gflops
\n
"
,
arg
.
m
*
pack_size
,
arg
.
k
*
pack_size
,
arg
.
k
*
pack_size
,
arg
.
n
,
used_algo
,
computations
/
used_algo
);
}
}
#endif
// vim: syntax=cpp.doxygen
dnn/test/common/matrix_mul.h
浏览文件 @
5f0e7ffb
...
...
@@ -85,6 +85,10 @@ void benchmark_with_contrast(
DType
contrast_B_dtype
=
dtype
::
Float32
{},
DType
contrast_C_dtype
=
dtype
::
Float32
{},
const
char
*
contrast_algo
=
nullptr
,
param
::
MatrixMul
::
Format
contrast_format
=
param
::
MatrixMul
::
Format
::
DEFAULT
);
void
benchmark_single_algo
(
Handle
*
handle
,
const
std
::
vector
<
TestArg
>&
args
,
DType
A_dtype
,
DType
B_dtype
,
DType
C_dtype
,
const
char
*
algo
=
nullptr
,
param
::
MatrixMul
::
Format
format
=
param
::
MatrixMul
::
Format
::
DEFAULT
);
#endif
}
// namespace matrix_mul
...
...
dnn/test/fallback/matrix_mul.cpp
浏览文件 @
5f0e7ffb
...
...
@@ -154,6 +154,16 @@ TEST_F(FALLBACK, BATCHED_MATRIX_MUL) {
checker
.
execs
({
AL
,
BL
,
{}});
}
}
#if MEGDNN_WITH_BENCHMARK
TEST_F
(
FALLBACK
,
BENCHMARK_MATRIX_MUL_FB_GI_F32_4x12
)
{
auto
args
=
matrix_mul
::
get_benchmark_matmul_args
();
matrix_mul
::
benchmark_single_algo
(
handle
(),
args
,
dtype
::
Float32
{},
dtype
::
Float32
{},
dtype
::
Float32
{},
"FB_GI_F32_4x12"
,
param
::
MatrixMul
::
Format
::
DEFAULT
);
}
#endif
}
// namespace test
}
// namespace megdnn
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录