Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
245b1f05
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
245b1f05
编写于
1月 29, 2019
作者:
T
Tao Luo
提交者:
GitHub
1月 29, 2019
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #15570 from luotao1/bert
fix compiler error, use len20 dataset for bert
上级
075df09f
5504425e
变更
3
显示空白变更内容
内联
并排
Showing
3 changed file
with
15 addition
and
22 deletion
+15
-22
paddle/fluid/inference/tests/api/CMakeLists.txt
paddle/fluid/inference/tests/api/CMakeLists.txt
+4
-4
paddle/fluid/inference/tests/api/analyzer_bert_tester.cc
paddle/fluid/inference/tests/api/analyzer_bert_tester.cc
+11
-17
paddle/fluid/inference/tests/api/analyzer_rnn1_tester.cc
paddle/fluid/inference/tests/api/analyzer_rnn1_tester.cc
+0
-1
未找到文件。
paddle/fluid/inference/tests/api/CMakeLists.txt
浏览文件 @
245b1f05
...
@@ -128,10 +128,10 @@ inference_analysis_api_test_with_fake_data(test_analyzer_resnet50
...
@@ -128,10 +128,10 @@ inference_analysis_api_test_with_fake_data(test_analyzer_resnet50
inference_analysis_api_test_with_fake_data
(
test_analyzer_mobilenet_depthwise_conv
inference_analysis_api_test_with_fake_data
(
test_analyzer_mobilenet_depthwise_conv
"
${
INFERENCE_DEMO_INSTALL_DIR
}
/mobilenet_depthwise_conv"
analyzer_resnet50_tester.cc
"mobilenet_model.tar.gz"
SERIAL
)
"
${
INFERENCE_DEMO_INSTALL_DIR
}
/mobilenet_depthwise_conv"
analyzer_resnet50_tester.cc
"mobilenet_model.tar.gz"
SERIAL
)
# bert
# bert
, max_len=20
set
(
BERT_INSTALL_DIR
"
${
INFERENCE_DEMO_INSTALL_DIR
}
/bert"
)
set
(
BERT_INSTALL_DIR
"
${
INFERENCE_DEMO_INSTALL_DIR
}
/bert
20
"
)
download_model_and_data
(
${
BERT_INSTALL_DIR
}
"bert_model.tar.gz"
"bert_data.txt.tar.gz"
)
download_model_and_data
(
${
BERT_INSTALL_DIR
}
"bert_model.tar.gz"
"bert_data
_len20
.txt.tar.gz"
)
inference_analysis_api_test
(
test_analyzer_bert
${
BERT_INSTALL_DIR
}
analyzer_bert_tester.cc
)
inference_analysis_api_test
(
test_analyzer_bert
${
BERT_INSTALL_DIR
}
analyzer_bert_tester.cc
SERIAL
)
# anakin
# anakin
if
(
WITH_ANAKIN AND WITH_MKL
)
# only needed in CI
if
(
WITH_ANAKIN AND WITH_MKL
)
# only needed in CI
...
...
paddle/fluid/inference/tests/api/analyzer_bert_tester.cc
浏览文件 @
245b1f05
...
@@ -18,7 +18,6 @@ namespace paddle {
...
@@ -18,7 +18,6 @@ namespace paddle {
namespace
inference
{
namespace
inference
{
using
paddle
::
PaddleTensor
;
using
paddle
::
PaddleTensor
;
using
paddle
::
contrib
::
AnalysisConfig
;
template
<
typename
T
>
template
<
typename
T
>
void
GetValueFromStream
(
std
::
stringstream
*
ss
,
T
*
t
)
{
void
GetValueFromStream
(
std
::
stringstream
*
ss
,
T
*
t
)
{
...
@@ -158,12 +157,10 @@ bool LoadInputData(std::vector<std::vector<paddle::PaddleTensor>> *inputs) {
...
@@ -158,12 +157,10 @@ bool LoadInputData(std::vector<std::vector<paddle::PaddleTensor>> *inputs) {
return
true
;
return
true
;
}
}
void
SetConfig
(
contrib
::
AnalysisConfig
*
config
)
{
void
SetConfig
(
AnalysisConfig
*
config
)
{
config
->
SetModel
(
FLAGS_infer_model
);
}
config
->
SetModel
(
FLAGS_infer_model
);
}
void
profile
(
bool
use_mkldnn
=
false
)
{
void
profile
(
bool
use_mkldnn
=
false
)
{
contrib
::
AnalysisConfig
config
;
AnalysisConfig
config
;
SetConfig
(
&
config
);
SetConfig
(
&
config
);
if
(
use_mkldnn
)
{
if
(
use_mkldnn
)
{
...
@@ -213,17 +210,14 @@ TEST(Analyzer_bert, compare_mkldnn) { compare(true /* use_mkldnn */); }
...
@@ -213,17 +210,14 @@ TEST(Analyzer_bert, compare_mkldnn) { compare(true /* use_mkldnn */); }
#endif
#endif
// Compare Deterministic result
// Compare Deterministic result
// TODO(luotao): Since each unit-test on CI only have 10 minutes, cancel this to
TEST
(
Analyzer_bert
,
compare_determine
)
{
// decrease the CI time.
AnalysisConfig
cfg
;
// TEST(Analyzer_bert, compare_determine) {
SetConfig
(
&
cfg
);
// AnalysisConfig cfg;
// SetConfig(&cfg);
std
::
vector
<
std
::
vector
<
PaddleTensor
>>
inputs
;
//
LoadInputData
(
&
inputs
);
// std::vector<std::vector<PaddleTensor>> inputs;
CompareDeterministic
(
reinterpret_cast
<
const
PaddlePredictor
::
Config
*>
(
&
cfg
),
// LoadInputData(&inputs);
inputs
);
// CompareDeterministic(reinterpret_cast<const PaddlePredictor::Config
}
// *>(&cfg),
// inputs);
// }
}
// namespace inference
}
// namespace inference
}
// namespace paddle
}
// namespace paddle
paddle/fluid/inference/tests/api/analyzer_rnn1_tester.cc
浏览文件 @
245b1f05
...
@@ -20,7 +20,6 @@ namespace paddle {
...
@@ -20,7 +20,6 @@ namespace paddle {
namespace
inference
{
namespace
inference
{
using
namespace
framework
;
// NOLINT
using
namespace
framework
;
// NOLINT
using
namespace
contrib
;
// NOLINT
struct
DataRecord
{
struct
DataRecord
{
std
::
vector
<
std
::
vector
<
std
::
vector
<
float
>>>
link_step_data_all
;
std
::
vector
<
std
::
vector
<
std
::
vector
<
float
>>>
link_step_data_all
;
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录