Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
68f51239
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
68f51239
编写于
7月 19, 2021
作者:
J
jakpiase
提交者:
GitHub
7月 19, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
enabled bf16 tests in prelu (#34196)
上级
d8839292
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
13 addition
and
29 deletion
+13
-29
python/paddle/fluid/tests/unittests/mkldnn/test_prelu_mkldnn_op.py
...ddle/fluid/tests/unittests/mkldnn/test_prelu_mkldnn_op.py
+13
-29
未找到文件。
python/paddle/fluid/tests/unittests/mkldnn/test_prelu_mkldnn_op.py
浏览文件 @
68f51239
...
...
@@ -18,7 +18,7 @@ import unittest
import
numpy
as
np
import
paddle
import
paddle.fluid.core
as
core
from
paddle.fluid.tests.unittests.op_test
import
OpTest
,
convert_float_to_uint16
from
paddle.fluid.tests.unittests.op_test
import
OpTest
,
OpTestTool
,
convert_float_to_uint16
def
ref_prelu
(
x
,
weight
,
mode
):
...
...
@@ -109,6 +109,7 @@ class TestPReluModeAllAlpha1DOneDNNOp(TestPReluModeAllOneDNNOp):
# BF16 TESTS
def
create_bf16_test_class
(
parent
):
@
OpTestTool
.
skip_if_not_cpu_bf16
()
class
TestPReluBF16OneDNNOp
(
parent
):
def
set_inputs
(
self
,
):
self
.
inputs
=
{
...
...
@@ -143,42 +144,25 @@ def create_bf16_test_class(parent):
self
.
dout
=
dout
def
test_check_output
(
self
):
if
core
.
is_compiled_with_cuda
():
self
.
skipTest
(
"OneDNN doesn't support bf16 with CUDA, skipping UT"
+
self
.
__class__
.
__name__
)
elif
not
core
.
supports_bfloat16
():
self
.
skipTest
(
"Core doesn't support bf16, skipping UT"
+
self
.
__class__
.
__name__
)
else
:
self
.
check_output_with_place
(
core
.
CPUPlace
())
self
.
check_output_with_place
(
core
.
CPUPlace
())
def
test_check_grad
(
self
):
if
core
.
is_compiled_with_cuda
()
or
not
core
.
supports_bfloat16
():
self
.
skipTest
(
"Core is compiled with cuda or doesn't support bf16, kipping UT"
+
self
.
__class__
.
__name__
)
else
:
self
.
calculate_grads
()
self
.
check_grad_with_place
(
core
.
CPUPlace
(),
[
"X"
,
"Alpha"
],
"Out"
,
user_defined_grads
=
[
self
.
dx
,
self
.
dalpha
],
user_defined_grad_outputs
=
[
convert_float_to_uint16
(
self
.
dout
)
])
self
.
calculate_grads
()
self
.
check_grad_with_place
(
core
.
CPUPlace
(),
[
"X"
,
"Alpha"
],
"Out"
,
user_defined_grads
=
[
self
.
dx
,
self
.
dalpha
],
user_defined_grad_outputs
=
[
convert_float_to_uint16
(
self
.
dout
)])
cls_name
=
"{0}_{1}"
.
format
(
parent
.
__name__
,
"BF16"
)
TestPReluBF16OneDNNOp
.
__name__
=
cls_name
globals
()[
cls_name
]
=
TestPReluBF16OneDNNOp
#TODO jakpiase
#enable bf16 tests back when oneDNN bf16 class will be ready
#create_bf16_test_class(TestPReluModeChannelOneDNNOp)
#create_bf16_test_class(TestPReluModeElementOneDNNOp)
#create_bf16_test_class(TestPReluModeChannel3DOneDNNOp)
#create_bf16_test_class(TestPReluModeChannelAlpha1DOneDNNOp)
create_bf16_test_class
(
TestPReluModeChannelOneDNNOp
)
create_bf16_test_class
(
TestPReluModeElementOneDNNOp
)
create_bf16_test_class
(
TestPReluModeChannel3DOneDNNOp
)
create_bf16_test_class
(
TestPReluModeChannelAlpha1DOneDNNOp
)
if
__name__
==
"__main__"
:
paddle
.
enable_static
()
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录