Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Paddle-Lite
提交
5f84ccc8
P
Paddle-Lite
项目概览
PaddlePaddle
/
Paddle-Lite
通知
331
Star
4
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
271
列表
看板
标记
里程碑
合并请求
78
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle-Lite
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
271
Issue
271
列表
看板
标记
里程碑
合并请求
78
合并请求
78
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
5f84ccc8
编写于
6月 27, 2018
作者:
W
WangLiu
提交者:
GitHub
6月 27, 2018
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #465 from smilejames/develop
optimize gemm performance
上级
27819153
ee195a8a
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
53 addition
and
53 deletion
+53
-53
src/operators/math/gemm.cpp
src/operators/math/gemm.cpp
+49
-49
src/operators/math/gemm.h
src/operators/math/gemm.h
+4
-4
未找到文件。
src/operators/math/gemm.cpp
浏览文件 @
5f84ccc8
...
@@ -26,10 +26,10 @@ alignas(64) float packedA[MC * KC];
...
@@ -26,10 +26,10 @@ alignas(64) float packedA[MC * KC];
alignas
(
64
)
float
packedB
[
KC
*
NC
];
alignas
(
64
)
float
packedB
[
KC
*
NC
];
alignas
(
64
)
float
ab
[
MR
*
NR
];
alignas
(
64
)
float
ab
[
MR
*
NR
];
// 将A矩阵分块复制到连续内存(ColMajor)
// 将A矩阵分块复制到连续内存(ColMajor)
void
PackMatrixA
(
int
m
,
int
k
,
const
float
*
A
,
int
lda
,
float
*
buffer
)
{
void
PackMatrixA
(
int
m
,
int
k
,
int
m_tail
,
const
float
*
A
,
int
lda
,
int
i
,
j
,
m_tail
;
float
*
buffer
)
{
int
i
,
j
;
const
float
*
Aij
;
const
float
*
Aij
;
m_tail
=
m
%
NR
;
for
(
i
=
0
;
i
<
m
-
m_tail
;
i
+=
MR
)
{
for
(
i
=
0
;
i
<
m
-
m_tail
;
i
+=
MR
)
{
for
(
j
=
0
;
j
<
k
;
++
j
)
{
for
(
j
=
0
;
j
<
k
;
++
j
)
{
Aij
=
&
A
(
i
,
j
);
Aij
=
&
A
(
i
,
j
);
...
@@ -53,10 +53,10 @@ void PackMatrixA(int m, int k, const float *A, int lda, float *buffer) {
...
@@ -53,10 +53,10 @@ void PackMatrixA(int m, int k, const float *A, int lda, float *buffer) {
}
}
// 将A矩阵分块复制到连续内存(RowMajor)
// 将A矩阵分块复制到连续内存(RowMajor)
void
PackMatrixA_
(
int
m
,
int
k
,
const
float
*
A
,
int
lda
,
float
*
buffer
)
{
void
PackMatrixA_
(
int
m
,
int
k
,
int
m_tail
,
const
float
*
A
,
int
lda
,
int
i
,
j
,
m_tail
;
float
*
buffer
)
{
int
i
,
j
;
const
float
*
Ai
,
*
Ai1
,
*
Ai2
,
*
Ai3
;
const
float
*
Ai
,
*
Ai1
,
*
Ai2
,
*
Ai3
;
m_tail
=
m
%
NR
;
for
(
i
=
0
;
i
<
m
-
m_tail
;
i
+=
MR
)
{
for
(
i
=
0
;
i
<
m
-
m_tail
;
i
+=
MR
)
{
Ai
=
&
A
(
i
,
0
);
Ai
=
&
A
(
i
,
0
);
Ai1
=
&
A
(
i
+
1
,
0
);
Ai1
=
&
A
(
i
+
1
,
0
);
...
@@ -82,10 +82,10 @@ void PackMatrixA_(int m, int k, const float *A, int lda, float *buffer) {
...
@@ -82,10 +82,10 @@ void PackMatrixA_(int m, int k, const float *A, int lda, float *buffer) {
}
}
// 将B矩阵分块复制到连续内存(ColMajor)
// 将B矩阵分块复制到连续内存(ColMajor)
void
PackMatrixB
(
int
k
,
int
n
,
const
float
*
B
,
int
ldb
,
float
*
buffer
)
{
void
PackMatrixB
(
int
k
,
int
n
,
int
n_tail
,
const
float
*
B
,
int
ldb
,
int
i
,
j
,
n_tail
;
float
*
buffer
)
{
int
i
,
j
;
const
float
*
Bj
,
*
Bj1
,
*
Bj2
,
*
Bj3
;
const
float
*
Bj
,
*
Bj1
,
*
Bj2
,
*
Bj3
;
n_tail
=
n
%
NR
;
for
(
j
=
0
;
j
<
n
-
n_tail
;
j
+=
NR
)
{
for
(
j
=
0
;
j
<
n
-
n_tail
;
j
+=
NR
)
{
Bj
=
&
B
(
0
,
j
);
Bj
=
&
B
(
0
,
j
);
Bj1
=
&
B
(
0
,
j
+
1
);
Bj1
=
&
B
(
0
,
j
+
1
);
...
@@ -111,10 +111,10 @@ void PackMatrixB(int k, int n, const float *B, int ldb, float *buffer) {
...
@@ -111,10 +111,10 @@ void PackMatrixB(int k, int n, const float *B, int ldb, float *buffer) {
}
}
// 将B矩阵分块复制到连续内存(RowMajor)
// 将B矩阵分块复制到连续内存(RowMajor)
void
PackMatrixB_
(
int
k
,
int
n
,
const
float
*
B
,
int
ldb
,
float
*
buffer
)
{
void
PackMatrixB_
(
int
k
,
int
n
,
int
n_tail
,
const
float
*
B
,
int
ldb
,
int
i
,
j
,
n_tail
;
float
*
buffer
)
{
int
i
,
j
;
const
float
*
Bij
;
const
float
*
Bij
;
n_tail
=
n
%
NR
;
for
(
j
=
0
;
j
<
n
-
n_tail
;
j
+=
NR
)
{
for
(
j
=
0
;
j
<
n
-
n_tail
;
j
+=
NR
)
{
for
(
i
=
0
;
i
<
k
;
++
i
)
{
for
(
i
=
0
;
i
<
k
;
++
i
)
{
Bij
=
&
B
(
i
,
j
);
Bij
=
&
B
(
i
,
j
);
...
@@ -150,9 +150,9 @@ void InnerKernel(int m, int n, int k, float alpha, const float *A, int lda,
...
@@ -150,9 +150,9 @@ void InnerKernel(int m, int n, int k, float alpha, const float *A, int lda,
int
n_tail
=
n
%
NR
;
int
n_tail
=
n
%
NR
;
if
(
first_time
)
{
if
(
first_time
)
{
PackMatrixB_
(
k
,
n
,
B
,
ldb
,
packedB
);
PackMatrixB_
(
k
,
n
,
n_tail
,
B
,
ldb
,
packedB
);
}
}
PackMatrixA_
(
m
,
k
,
A
,
lda
,
packedA
);
PackMatrixA_
(
m
,
k
,
m_tail
,
A
,
lda
,
packedA
);
int
i
,
j
,
mc
,
nc
;
int
i
,
j
,
mc
,
nc
;
...
@@ -179,9 +179,9 @@ void InnerKernel_relu(int m, int n, int k, float alpha, const float *A, int lda,
...
@@ -179,9 +179,9 @@ void InnerKernel_relu(int m, int n, int k, float alpha, const float *A, int lda,
int
n_tail
=
n
%
NR
;
int
n_tail
=
n
%
NR
;
if
(
first_time
)
{
if
(
first_time
)
{
PackMatrixB_
(
k
,
n
,
B
,
ldb
,
packedB
);
PackMatrixB_
(
k
,
n
,
n_tail
,
B
,
ldb
,
packedB
);
}
}
PackMatrixA_
(
m
,
k
,
A
,
lda
,
packedA
);
PackMatrixA_
(
m
,
k
,
m_tail
,
A
,
lda
,
packedA
);
int
i
,
j
,
mc
,
nc
;
int
i
,
j
,
mc
,
nc
;
...
@@ -340,16 +340,16 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -340,16 +340,16 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
"vmla.f32 q11, q3, d2[1]
\n\t
"
"vmla.f32 q11, q3, d2[1]
\n\t
"
"vmla.f32 q12, q3, d3[0]
\n\t
"
"vmla.f32 q12, q3, d3[0]
\n\t
"
"vmla.f32 q13, q3, d3[1]
\n\t
"
"vmla.f32 q13, q3, d3[1]
\n\t
"
"vld1.32 {q
4, q5
}, [%[a]]!
\n\t
"
"vld1.32 {q
0, q1
}, [%[a]]!
\n\t
"
"vld1.32 {q
6, q7
}, [%[b]]!
\n\t
"
"vld1.32 {q
2, q3
}, [%[b]]!
\n\t
"
"vmla.f32 q10, q
6, d8
[0]
\n\t
"
"vmla.f32 q10, q
2, d0
[0]
\n\t
"
"vmla.f32 q11, q
6, d8
[1]
\n\t
"
"vmla.f32 q11, q
2, d0
[1]
\n\t
"
"vmla.f32 q12, q
6, d9
[0]
\n\t
"
"vmla.f32 q12, q
2, d1
[0]
\n\t
"
"vmla.f32 q13, q
6, d9
[1]
\n\t
"
"vmla.f32 q13, q
2, d1
[1]
\n\t
"
"vmla.f32 q10, q
7, d10[0]
\n\t
"
"vmla.f32 q10, q
3, d2[0]
\n\t
"
"vmla.f32 q11, q
7, d10[1]
\n\t
"
"vmla.f32 q11, q
3, d2[1]
\n\t
"
"vmla.f32 q12, q
7, d11[0]
\n\t
"
"vmla.f32 q12, q
3, d3[0]
\n\t
"
"vmla.f32 q13, q
7, d11[1]
\n\t
"
"vmla.f32 q13, q
3, d3[1]
\n\t
"
"subs %[kc1], %[kc1], #1
\n\t
"
"subs %[kc1], %[kc1], #1
\n\t
"
"bge loop_kc1_%=
\n\t
"
"bge loop_kc1_%=
\n\t
"
"end_kc1_%=:
\n\t
"
"end_kc1_%=:
\n\t
"
...
@@ -372,11 +372,13 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -372,11 +372,13 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
"cmp %[nc], #4
\n\t
"
"cmp %[nc], #4
\n\t
"
"bne temp_%=
\n\t
"
"bne temp_%=
\n\t
"
"vmov.f32 d8[0], %[alpha]
\n\t
"
"vmov.f32 d8[1], %[beta]
\n\t
"
"cmp %[flag_alpha], #1
\n\t
"
"cmp %[flag_alpha], #1
\n\t
"
"bne alpha_%=
\n\t
"
"bne alpha_%=
\n\t
"
"alpha_%=:
\n\t
"
"alpha_%=:
\n\t
"
"vmov.f32 d8[0], %[alpha]
\n\t
"
"vmul.f32 q10, q10, d8[0]
\n\t
"
"vmul.f32 q10, q10, d8[0]
\n\t
"
"vmul.f32 q11, q11, d8[0]
\n\t
"
"vmul.f32 q11, q11, d8[0]
\n\t
"
"vmul.f32 q12, q12, d8[0]
\n\t
"
"vmul.f32 q12, q12, d8[0]
\n\t
"
...
@@ -404,7 +406,6 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -404,7 +406,6 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
"b memory_%=
\n\t
"
"b memory_%=
\n\t
"
"beta_ne1_%=:
\n\t
"
"beta_ne1_%=:
\n\t
"
"vmov.f32 d8[1], %[beta]
\n\t
"
"vmla.f32 q10, q0, d8[1]
\n\t
"
"vmla.f32 q10, q0, d8[1]
\n\t
"
"vmla.f32 q11, q1, d8[1]
\n\t
"
"vmla.f32 q11, q1, d8[1]
\n\t
"
"vmla.f32 q12, q2, d8[1]
\n\t
"
"vmla.f32 q12, q2, d8[1]
\n\t
"
...
@@ -428,8 +429,7 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -428,8 +429,7 @@ void AddDot4x4(int k, float alpha, const float *a, int lda, const float *b,
[
kc2
]
"r"
(
kc2
),
[
mc
]
"r"
(
mc
),
[
nc
]
"r"
(
nc
),
[
alpha
]
"r"
(
alpha
),
[
kc2
]
"r"
(
kc2
),
[
mc
]
"r"
(
mc
),
[
nc
]
"r"
(
nc
),
[
alpha
]
"r"
(
alpha
),
[
beta
]
"r"
(
beta
),
[
bytes_ldc
]
"r"
(
bytes_ldc
),
[
beta
]
"r"
(
beta
),
[
bytes_ldc
]
"r"
(
bytes_ldc
),
[
flag_alpha
]
"r"
(
flag_alpha
),
[
flag_beta
]
"r"
(
flag_beta
)
[
flag_alpha
]
"r"
(
flag_alpha
),
[
flag_beta
]
"r"
(
flag_beta
)
:
"memory"
,
"q0"
,
"q1"
,
"q2"
,
"q3"
,
"q4"
,
"q5"
,
"q6"
,
"q7"
,
"q10"
,
"q11"
,
:
"memory"
,
"q0"
,
"q1"
,
"q2"
,
"q3"
,
"q4"
,
"q10"
,
"q11"
,
"q12"
,
"q13"
);
"q12"
,
"q13"
);
if
(
mc
!=
MR
||
nc
!=
NR
)
{
if
(
mc
!=
MR
||
nc
!=
NR
)
{
int
i
,
j
;
int
i
,
j
;
...
@@ -493,16 +493,16 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -493,16 +493,16 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
"vmla.f32 q11, q3, d2[1]
\n\t
"
"vmla.f32 q11, q3, d2[1]
\n\t
"
"vmla.f32 q12, q3, d3[0]
\n\t
"
"vmla.f32 q12, q3, d3[0]
\n\t
"
"vmla.f32 q13, q3, d3[1]
\n\t
"
"vmla.f32 q13, q3, d3[1]
\n\t
"
"vld1.32 {q
4, q5
}, [%[a]]!
\n\t
"
"vld1.32 {q
0, q1
}, [%[a]]!
\n\t
"
"vld1.32 {q
6, q7
}, [%[b]]!
\n\t
"
"vld1.32 {q
2, q3
}, [%[b]]!
\n\t
"
"vmla.f32 q10, q
6, d8
[0]
\n\t
"
"vmla.f32 q10, q
2, d0
[0]
\n\t
"
"vmla.f32 q11, q
6, d8
[1]
\n\t
"
"vmla.f32 q11, q
2, d0
[1]
\n\t
"
"vmla.f32 q12, q
6, d9
[0]
\n\t
"
"vmla.f32 q12, q
2, d1
[0]
\n\t
"
"vmla.f32 q13, q
6, d9
[1]
\n\t
"
"vmla.f32 q13, q
2, d1
[1]
\n\t
"
"vmla.f32 q10, q
7, d10[0]
\n\t
"
"vmla.f32 q10, q
3, d2[0]
\n\t
"
"vmla.f32 q11, q
7, d10[1]
\n\t
"
"vmla.f32 q11, q
3, d2[1]
\n\t
"
"vmla.f32 q12, q
7, d11[0]
\n\t
"
"vmla.f32 q12, q
3, d3[0]
\n\t
"
"vmla.f32 q13, q
7, d11[1]
\n\t
"
"vmla.f32 q13, q
3, d3[1]
\n\t
"
"subs %[kc1], %[kc1], #1
\n\t
"
"subs %[kc1], %[kc1], #1
\n\t
"
"bge loop_kc1_%=
\n\t
"
"bge loop_kc1_%=
\n\t
"
"end_kc1_%=:
\n\t
"
"end_kc1_%=:
\n\t
"
...
@@ -525,11 +525,13 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -525,11 +525,13 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
"cmp %[nc], #4
\n\t
"
"cmp %[nc], #4
\n\t
"
"bne temp_%=
\n\t
"
"bne temp_%=
\n\t
"
"vmov.f32 d8[0], %[alpha]
\n\t
"
"vmov.f32 d8[1], %[beta]
\n\t
"
"cmp %[flag_alpha], #1
\n\t
"
"cmp %[flag_alpha], #1
\n\t
"
"bne alpha_%=
\n\t
"
"bne alpha_%=
\n\t
"
"alpha_%=:
\n\t
"
"alpha_%=:
\n\t
"
"vmov.f32 d8[0], %[alpha]
\n\t
"
"vmul.f32 q10, q10, d8[0]
\n\t
"
"vmul.f32 q10, q10, d8[0]
\n\t
"
"vmul.f32 q11, q11, d8[0]
\n\t
"
"vmul.f32 q11, q11, d8[0]
\n\t
"
"vmul.f32 q12, q12, d8[0]
\n\t
"
"vmul.f32 q12, q12, d8[0]
\n\t
"
...
@@ -557,14 +559,12 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -557,14 +559,12 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
"b memory_%=
\n\t
"
"b memory_%=
\n\t
"
"beta_ne1_%=:
\n\t
"
"beta_ne1_%=:
\n\t
"
"vmov.f32 d8[1], %[beta]
\n\t
"
"vmla.f32 q10, q0, d8[1]
\n\t
"
"vmla.f32 q10, q0, d8[1]
\n\t
"
"vmla.f32 q11, q1, d8[1]
\n\t
"
"vmla.f32 q11, q1, d8[1]
\n\t
"
"vmla.f32 q12, q2, d8[1]
\n\t
"
"vmla.f32 q12, q2, d8[1]
\n\t
"
"vmla.f32 q13, q3, d8[1]
\n\t
"
"vmla.f32 q13, q3, d8[1]
\n\t
"
"memory_%=:
\n\t
"
"memory_%=:
\n\t
"
"vmov.f32 q14, #0.0
\n\t
"
"vmax.f32 q10, q10, q14
\n\t
"
"vmax.f32 q10, q10, q14
\n\t
"
"vmax.f32 q11, q11, q14
\n\t
"
"vmax.f32 q11, q11, q14
\n\t
"
"vmax.f32 q12, q12, q14
\n\t
"
"vmax.f32 q12, q12, q14
\n\t
"
...
@@ -586,8 +586,8 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
...
@@ -586,8 +586,8 @@ void AddDot4x4_relu(int k, float alpha, const float *a, int lda, const float *b,
[
kc2
]
"r"
(
kc2
),
[
mc
]
"r"
(
mc
),
[
nc
]
"r"
(
nc
),
[
alpha
]
"r"
(
alpha
),
[
kc2
]
"r"
(
kc2
),
[
mc
]
"r"
(
mc
),
[
nc
]
"r"
(
nc
),
[
alpha
]
"r"
(
alpha
),
[
beta
]
"r"
(
beta
),
[
bytes_ldc
]
"r"
(
bytes_ldc
),
[
beta
]
"r"
(
beta
),
[
bytes_ldc
]
"r"
(
bytes_ldc
),
[
flag_alpha
]
"r"
(
flag_alpha
),
[
flag_beta
]
"r"
(
flag_beta
)
[
flag_alpha
]
"r"
(
flag_alpha
),
[
flag_beta
]
"r"
(
flag_beta
)
:
"memory"
,
"q0"
,
"q1"
,
"q2"
,
"q3"
,
"q4"
,
"q
5"
,
"q6"
,
"q7"
,
"q10"
,
"q11
"
,
:
"memory"
,
"q0"
,
"q1"
,
"q2"
,
"q3"
,
"q4"
,
"q
10"
,
"q11"
,
"q12"
,
"q13
"
,
"q1
2"
,
"q13"
,
"q1
4"
);
"q14"
);
if
(
mc
!=
MR
||
nc
!=
NR
)
{
if
(
mc
!=
MR
||
nc
!=
NR
)
{
int
i
,
j
;
int
i
,
j
;
...
...
src/operators/math/gemm.h
浏览文件 @
5f84ccc8
...
@@ -33,19 +33,19 @@ namespace operators {
...
@@ -33,19 +33,19 @@ namespace operators {
namespace
math
{
namespace
math
{
// 将 A 矩阵分块复制到连续内存(ColMajor)
// 将 A 矩阵分块复制到连续内存(ColMajor)
void
PackMatrixA
(
int
m
,
int
k
,
int
paddingM
,
const
float
*
A
,
int
lda
,
void
PackMatrixA
(
int
m
,
int
k
,
int
m_tail
,
const
float
*
A
,
int
lda
,
float
*
buffer
);
float
*
buffer
);
// 将 B 矩阵分块复制到连续内存(ColMajor)
// 将 B 矩阵分块复制到连续内存(ColMajor)
void
PackMatrixB
(
int
k
,
int
n
,
int
paddingN
,
const
float
*
B
,
int
ldb
,
void
PackMatrixB
(
int
k
,
int
n
,
int
n_tail
,
const
float
*
B
,
int
ldb
,
float
*
buffer
);
float
*
buffer
);
// 将 A 矩阵分块复制到连续内存(RowMajor)
// 将 A 矩阵分块复制到连续内存(RowMajor)
void
PackMatrixA_
(
int
m
,
int
k
,
int
paddingM
,
const
float
*
A
,
int
lda
,
void
PackMatrixA_
(
int
m
,
int
k
,
int
m_tail
,
const
float
*
A
,
int
lda
,
float
*
buffer
);
float
*
buffer
);
// 将 B 矩阵分块复制到连续内存(RowMajor)
// 将 B 矩阵分块复制到连续内存(RowMajor)
void
PackMatrixB_
(
int
k
,
int
n
,
int
paddingN
,
const
float
*
B
,
int
ldb
,
void
PackMatrixB_
(
int
k
,
int
n
,
int
n_tail
,
const
float
*
B
,
int
ldb
,
float
*
buffer
);
float
*
buffer
);
// 分块矩阵乘法
// 分块矩阵乘法
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录