Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
27f553b3
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
27f553b3
编写于
4月 04, 2018
作者:
L
Liu Yiqun
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Add the check of CPU results and GPU results in multi-thread unittest.
上级
9cba0622
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
7 addition
and
7 deletion
+7
-7
paddle/fluid/inference/tests/book/test_inference_fit_a_line.cc
...e/fluid/inference/tests/book/test_inference_fit_a_line.cc
+5
-6
paddle/fluid/inference/tests/test_helper.h
paddle/fluid/inference/tests/test_helper.h
+2
-1
未找到文件。
paddle/fluid/inference/tests/book/test_inference_fit_a_line.cc
浏览文件 @
27f553b3
...
...
@@ -32,7 +32,7 @@ TEST(inference, fit_a_line) {
// The input data should be >= 0
int64_t
batch_size
=
10
;
SetupTensor
<
float
>
(
input
,
{
batch_size
,
13
},
static_cast
<
float
>
(
0
),
static_cast
<
float
>
(
10
));
&
input
,
{
batch_size
,
13
},
static_cast
<
float
>
(
0
),
static_cast
<
float
>
(
10
));
std
::
vector
<
paddle
::
framework
::
LoDTensor
*>
cpu_feeds
;
cpu_feeds
.
push_back
(
&
input
);
...
...
@@ -51,7 +51,7 @@ TEST(inference, fit_a_line) {
cpu_fetchs2
.
push_back
(
&
output2
);
// Run inference on CUDA GPU
LOG
(
INFO
)
<<
"---
C
PU Runs: ---"
;
LOG
(
INFO
)
<<
"---
G
PU Runs: ---"
;
TestInference
<
paddle
::
platform
::
CUDAPlace
>
(
dirname
,
cpu_feeds
,
cpu_fetchs2
);
LOG
(
INFO
)
<<
output2
.
dims
();
...
...
@@ -79,10 +79,8 @@ TEST(multi_thread_inference, fit_a_line) {
// The second dim of the input tensor should be 13
// The input data should be >= 0
int64_t
batch_size
=
10
;
SetupTensor
<
float
>
(
*
input
,
{
batch_size
,
13
},
static_cast
<
float
>
(
0
),
static_cast
<
float
>
(
10
));
SetupTensor
<
float
>
(
input
,
{
batch_size
,
13
},
static_cast
<
float
>
(
0
),
static_cast
<
float
>
(
10
));
cpu_feeds
[
i
].
push_back
(
input
);
}
...
...
@@ -112,6 +110,7 @@ TEST(multi_thread_inference, fit_a_line) {
dirname
,
cpu_feeds
,
cpu_fetchs2
,
num_threads
);
for
(
int
i
=
0
;
i
<
num_threads
;
++
i
)
{
CheckError
<
float
>
(
*
cpu_fetchs1
[
i
][
0
],
*
cpu_fetchs2
[
i
][
0
]);
delete
cpu_fetchs2
[
i
][
0
];
}
#endif
...
...
paddle/fluid/inference/tests/test_helper.h
浏览文件 @
27f553b3
...
...
@@ -15,6 +15,7 @@ limitations under the License. */
#pragma once
#include <time.h>
#include <cstdint>
#include <map>
#include <string>
#include <vector>
...
...
@@ -28,7 +29,7 @@ void SetupTensor(paddle::framework::LoDTensor* input,
const
T
lower
,
const
T
upper
)
{
T
*
input_ptr
=
input
->
mutable_data
<
T
>
(
dims
,
paddle
::
platform
::
CPUPlace
());
unsigned
int
seed
=
time
(
NULL
);
unsigned
int
seed
=
reinterpret_cast
<
std
::
uintptr_t
>
(
input
);
for
(
int
i
=
0
;
i
<
input
->
numel
();
++
i
)
{
input_ptr
[
i
]
=
(
static_cast
<
T
>
(
rand_r
(
&
seed
))
/
static_cast
<
T
>
(
RAND_MAX
))
*
(
upper
-
lower
)
+
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录