Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
b6260f38
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
b6260f38
编写于
10月 31, 2019
作者:
Y
Yihua Xu
提交者:
Tao Luo
10月 31, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Optimize the kernel implementation of layernorm with openmp (#20895)
上级
8c4573a3
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
114 addition
and
104 deletion
+114
-104
paddle/fluid/operators/jit/more/intrinsic/layer_norm.cc
paddle/fluid/operators/jit/more/intrinsic/layer_norm.cc
+114
-104
未找到文件。
paddle/fluid/operators/jit/more/intrinsic/layer_norm.cc
浏览文件 @
b6260f38
...
...
@@ -26,16 +26,19 @@ namespace intrinsic {
void
LayerNorm
(
float
*
x
,
float
*
out
,
float
*
mean
,
float
*
var
,
const
float
*
scale
,
const
float
*
bias
,
int
height
,
const
float
epsilon
,
int
right
)
{
int
block
=
YMM_FLOAT_BLOCK
;
const
int
rest
=
right
%
block
;
const
int
end
=
right
-
rest
;
#ifdef PADDLE_WITH_MKLML
#pragma omp parallel
{
#endif
__m256
sum
;
__m256
mean_vec
,
var_vec
;
__m128
hi
,
lo
;
__m256
tmp
;
size_t
offset
;
size_t
j
;
int
block
=
YMM_FLOAT_BLOCK
;
const
int
rest
=
right
%
block
;
const
int
end
=
right
-
rest
;
__m256
reverse_num_vec
=
_mm256_div_ps
(
_mm256_set1_ps
(
1.0
),
_mm256_set1_ps
(
right
));
__m256
epsilon_vec
=
_mm256_set1_ps
(
epsilon
);
...
...
@@ -47,6 +50,9 @@ void LayerNorm(float* x, float* out, float* mean, float* var,
rest_mask
&
0x8
?
0xffffffff
:
0
,
rest_mask
&
0x4
?
0xffffffff
:
0
,
rest_mask
&
0x2
?
0xffffffff
:
0
,
rest_mask
&
0x1
?
0xffffffff
:
0
);
#ifdef PADDLE_WITH_MKLML
#pragma omp for
#endif
for
(
int
i
=
0
;
i
<
height
;
++
i
)
{
offset
=
i
*
right
;
...
...
@@ -100,15 +106,15 @@ void LayerNorm(float* x, float* out, float* mean, float* var,
/* get x_norm and calculate output*/
for
(
j
=
offset
;
j
<
end
+
offset
;
j
+=
block
)
{
tmp
=
_mm256_sub_ps
(
_mm256_loadu_ps
((
const
float
*
)
x
+
j
),
mean_vec
);
tmp
=
_mm256_div_ps
(
tmp
,
_mm256_sqrt_ps
(
_mm256_add_ps
(
var_vec
,
epsilon_vec
)));
tmp
=
_mm256_div_ps
(
tmp
,
_mm256_sqrt_ps
(
_mm256_add_ps
(
var_vec
,
epsilon_vec
)));
_mm256_storeu_ps
(
reinterpret_cast
<
float
*>
(
out
)
+
j
,
tmp
);
}
if
(
rest
!=
0
)
{
j
=
offset
+
right
-
block
;
tmp
=
_mm256_sub_ps
(
_mm256_loadu_ps
((
const
float
*
)
x
+
j
),
mean_vec
);
tmp
=
_mm256_div_ps
(
tmp
,
_mm256_sqrt_ps
(
_mm256_add_ps
(
var_vec
,
epsilon_vec
)));
tmp
=
_mm256_div_ps
(
tmp
,
_mm256_sqrt_ps
(
_mm256_add_ps
(
var_vec
,
epsilon_vec
)));
_mm256_storeu_ps
(
reinterpret_cast
<
float
*>
(
out
)
+
j
,
tmp
);
}
...
...
@@ -145,12 +151,16 @@ void LayerNorm(float* x, float* out, float* mean, float* var,
}
if
(
rest
!=
0
)
{
j
=
offset
+
right
-
block
;
_mm256_storeu_ps
(
reinterpret_cast
<
float
*>
(
out
)
+
j
,
_mm256_add_ps
(
tmp
,
_mm256_loadu_ps
((
const
float
*
)
bias
+
j
-
offset
)));
_mm256_storeu_ps
(
reinterpret_cast
<
float
*>
(
out
)
+
j
,
_mm256_add_ps
(
tmp
,
_mm256_loadu_ps
((
const
float
*
)
bias
+
j
-
offset
)));
}
}
}
#ifdef PADDLE_WITH_MKLML
}
#endif
}
bool
LayerNormKernel
::
CanBeUsed
(
const
int
&
d
)
const
{
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录