Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
01f0f168
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
01f0f168
编写于
9月 12, 2018
作者:
T
tensor-tang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
enable mkldnn in infer api
上级
33c21291
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
15 addition
and
3 deletion
+15
-3
paddle/fluid/inference/api/analysis_predictor.cc
paddle/fluid/inference/api/analysis_predictor.cc
+3
-0
paddle/fluid/inference/api/api_impl.cc
paddle/fluid/inference/api/api_impl.cc
+3
-0
paddle/fluid/inference/api/paddle_inference_api.h
paddle/fluid/inference/api/paddle_inference_api.h
+3
-1
paddle/fluid/inference/tests/api/analyzer_vis_tester.cc
paddle/fluid/inference/tests/api/analyzer_vis_tester.cc
+6
-2
未找到文件。
paddle/fluid/inference/api/analysis_predictor.cc
浏览文件 @
01f0f168
...
@@ -77,6 +77,9 @@ bool AnalysisPredictor::Init(
...
@@ -77,6 +77,9 @@ bool AnalysisPredictor::Init(
OptimizeInferenceProgram
();
OptimizeInferenceProgram
();
ctx_
=
executor_
->
Prepare
(
*
inference_program_
,
0
);
ctx_
=
executor_
->
Prepare
(
*
inference_program_
,
0
);
if
(
config_
.
use_mkldnn
)
{
executor_
->
EnableMKLDNN
(
*
inference_program_
);
}
VLOG
(
5
)
<<
"to create variables"
;
VLOG
(
5
)
<<
"to create variables"
;
PADDLE_ENFORCE
(
scope_
.
get
());
PADDLE_ENFORCE
(
scope_
.
get
());
...
...
paddle/fluid/inference/api/api_impl.cc
浏览文件 @
01f0f168
...
@@ -106,6 +106,9 @@ bool NativePaddlePredictor::Init(
...
@@ -106,6 +106,9 @@ bool NativePaddlePredictor::Init(
}
}
ctx_
=
executor_
->
Prepare
(
*
inference_program_
,
0
);
ctx_
=
executor_
->
Prepare
(
*
inference_program_
,
0
);
if
(
config_
.
use_mkldnn
)
{
executor_
->
EnableMKLDNN
(
*
inference_program_
);
}
executor_
->
CreateVariables
(
*
inference_program_
,
executor_
->
CreateVariables
(
*
inference_program_
,
sub_scope_
?
sub_scope_
:
scope_
.
get
(),
0
);
sub_scope_
?
sub_scope_
:
scope_
.
get
(),
0
);
...
...
paddle/fluid/inference/api/paddle_inference_api.h
浏览文件 @
01f0f168
...
@@ -45,7 +45,7 @@ class PaddleBuf {
...
@@ -45,7 +45,7 @@ class PaddleBuf {
PaddleBuf
(
void
*
data
,
size_t
length
)
PaddleBuf
(
void
*
data
,
size_t
length
)
:
data_
(
data
),
length_
(
length
),
memory_owned_
{
false
}
{}
:
data_
(
data
),
length_
(
length
),
memory_owned_
{
false
}
{}
// Own memory.
// Own memory.
PaddleBuf
(
size_t
length
)
explicit
PaddleBuf
(
size_t
length
)
:
data_
(
new
char
[
length
]),
length_
(
length
),
memory_owned_
(
true
)
{}
:
data_
(
new
char
[
length
]),
length_
(
length
),
memory_owned_
(
true
)
{}
// Resize to `length` bytes.
// Resize to `length` bytes.
void
Resize
(
size_t
length
);
void
Resize
(
size_t
length
);
...
@@ -121,6 +121,8 @@ struct NativeConfig : public PaddlePredictor::Config {
...
@@ -121,6 +121,8 @@ struct NativeConfig : public PaddlePredictor::Config {
bool
use_gpu
{
false
};
bool
use_gpu
{
false
};
int
device
{
0
};
int
device
{
0
};
float
fraction_of_gpu_memory
{
-
1.
f
};
// Negative to notify initialization.
float
fraction_of_gpu_memory
{
-
1.
f
};
// Negative to notify initialization.
// MKLDNN related fields.
bool
use_mkldnn
{
false
};
// Specify the variable's name of each input.
// Specify the variable's name of each input.
bool
specify_input_name
{
false
};
bool
specify_input_name
{
false
};
...
...
paddle/fluid/inference/tests/api/analyzer_vis_tester.cc
浏览文件 @
01f0f168
...
@@ -66,12 +66,13 @@ Record ProcessALine(const std::string &line) {
...
@@ -66,12 +66,13 @@ Record ProcessALine(const std::string &line) {
* Use the native and analysis fluid engine to inference the demo.
* Use the native and analysis fluid engine to inference the demo.
* ocr, mobilenet and se_resnext50
* ocr, mobilenet and se_resnext50
*/
*/
void
TestVisualPrediction
()
{
void
TestVisualPrediction
(
bool
use_mkldnn
)
{
std
::
unique_ptr
<
PaddlePredictor
>
predictor
;
std
::
unique_ptr
<
PaddlePredictor
>
predictor
;
AnalysisConfig
cfg
;
AnalysisConfig
cfg
;
cfg
.
param_file
=
FLAGS_infer_model
+
"/__params__"
;
cfg
.
param_file
=
FLAGS_infer_model
+
"/__params__"
;
cfg
.
prog_file
=
FLAGS_infer_model
+
"/__model__"
;
cfg
.
prog_file
=
FLAGS_infer_model
+
"/__model__"
;
cfg
.
use_gpu
=
false
;
cfg
.
use_gpu
=
false
;
cfg
.
use_mkldnn
=
use_mkldnn
;
cfg
.
device
=
0
;
cfg
.
device
=
0
;
cfg
.
enable_ir_optim
=
true
;
cfg
.
enable_ir_optim
=
true
;
cfg
.
ir_passes
.
push_back
(
"fc_gru_fuse_pass"
);
cfg
.
ir_passes
.
push_back
(
"fc_gru_fuse_pass"
);
...
@@ -163,7 +164,10 @@ void TestVisualPrediction() {
...
@@ -163,7 +164,10 @@ void TestVisualPrediction() {
}
}
}
}
TEST
(
Analyzer_vis
,
analysis
)
{
TestVisualPrediction
();
}
TEST
(
Analyzer_vis
,
analysis
)
{
TestVisualPrediction
(
/*use_mkldnn*/
false
);
}
TEST
(
Analyzer_vis
,
analysis_mkldnn
)
{
TestVisualPrediction
(
/*use_mkldnn*/
true
);
}
}
// namespace analysis
}
// namespace analysis
}
// namespace inference
}
// namespace inference
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录