Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
707d838b
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
707d838b
编写于
9月 19, 2022
作者:
W
Wilber
提交者:
GitHub
9月 19, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
cherry-pick 46152 (#46183)
上级
adab3c59
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
38 addition
and
4 deletion
+38
-4
paddle/fluid/pybind/inference_api.cc
paddle/fluid/pybind/inference_api.cc
+38
-4
未找到文件。
paddle/fluid/pybind/inference_api.cc
100755 → 100644
浏览文件 @
707d838b
...
...
@@ -36,6 +36,10 @@
#include "paddle/fluid/inference/api/paddle_pass_builder.h"
#include "paddle/fluid/inference/utils/io_utils.h"
#if defined(PADDLE_WITH_CUDA) || defined(PADDLE_WITH_HIP)
#include "paddle/phi/core/cuda_stream.h"
#endif
#ifdef PADDLE_WITH_ONNXRUNTIME
#include "paddle/fluid/inference/api/onnxruntime_predictor.h"
#endif
...
...
@@ -542,7 +546,13 @@ void BindPaddlePredictor(py::module *m) {
.
def
(
"get_input_names"
,
&
PaddlePredictor
::
GetInputNames
)
.
def
(
"get_output_names"
,
&
PaddlePredictor
::
GetOutputNames
)
.
def
(
"zero_copy_run"
,
&
PaddlePredictor
::
ZeroCopyRun
)
.
def
(
"clone"
,
&
PaddlePredictor
::
Clone
)
.
def
(
"clone"
,
[](
PaddlePredictor
&
self
)
{
self
.
Clone
(
nullptr
);
})
#if defined(PADDLE_WITH_CUDA) || defined(PADDLE_WITH_HIP)
.
def
(
"clone"
,
[](
PaddlePredictor
&
self
,
phi
::
CUDAStream
&
stream
)
{
self
.
Clone
(
stream
.
raw_stream
());
})
#endif
.
def
(
"get_serialized_program"
,
&
PaddlePredictor
::
GetSerializedProgram
);
auto
config
=
py
::
class_
<
PaddlePredictor
::
Config
>
(
paddle_predictor
,
"Config"
);
...
...
@@ -583,7 +593,13 @@ void BindNativePredictor(py::module *m) {
.
def
(
"get_input_tensor"
,
&
NativePaddlePredictor
::
GetInputTensor
)
.
def
(
"get_output_tensor"
,
&
NativePaddlePredictor
::
GetOutputTensor
)
.
def
(
"zero_copy_run"
,
&
NativePaddlePredictor
::
ZeroCopyRun
)
.
def
(
"clone"
,
&
NativePaddlePredictor
::
Clone
)
.
def
(
"clone"
,
[](
NativePaddlePredictor
&
self
)
{
self
.
Clone
(
nullptr
);
})
#if defined(PADDLE_WITH_CUDA) || defined(PADDLE_WITH_HIP)
.
def
(
"clone"
,
[](
NativePaddlePredictor
&
self
,
phi
::
CUDAStream
&
stream
)
{
self
.
Clone
(
stream
.
raw_stream
());
})
#endif
.
def
(
"scope"
,
&
NativePaddlePredictor
::
scope
,
py
::
return_value_policy
::
reference
);
...
...
@@ -626,6 +642,12 @@ void BindAnalysisConfig(py::module *m) {
&
AnalysisConfig
::
EnableUseGpu
,
py
::
arg
(
"memory_pool_init_size_mb"
),
py
::
arg
(
"device_id"
)
=
0
)
#if defined(PADDLE_WITH_CUDA) || defined(PADDLE_WITH_HIP)
.
def
(
"set_exec_stream"
,
[](
AnalysisConfig
&
self
,
phi
::
CUDAStream
&
stream
)
{
self
.
SetExecStream
(
stream
.
raw_stream
());
})
#endif
.
def
(
"enable_xpu"
,
&
AnalysisConfig
::
EnableXpu
,
py
::
arg
(
"l3_workspace_size"
)
=
16
*
1024
*
1024
,
...
...
@@ -874,7 +896,13 @@ void BindAnalysisPredictor(py::module *m) {
.
def
(
"analysis_argument"
,
&
AnalysisPredictor
::
analysis_argument
,
py
::
return_value_policy
::
reference
)
.
def
(
"clone"
,
&
AnalysisPredictor
::
Clone
)
.
def
(
"clone"
,
[](
AnalysisPredictor
&
self
)
{
self
.
Clone
(
nullptr
);
})
#if defined(PADDLE_WITH_CUDA) || defined(PADDLE_WITH_HIP)
.
def
(
"clone"
,
[](
AnalysisPredictor
&
self
,
phi
::
CUDAStream
&
stream
)
{
self
.
Clone
(
stream
.
raw_stream
());
})
#endif
.
def
(
"scope"
,
&
AnalysisPredictor
::
scope
,
py
::
return_value_policy
::
reference
)
...
...
@@ -901,7 +929,13 @@ void BindPaddleInferPredictor(py::module *m) {
#endif
self
.
Run
();
})
.
def
(
"clone"
,
&
paddle_infer
::
Predictor
::
Clone
)
.
def
(
"clone"
,
[](
paddle_infer
::
Predictor
&
self
)
{
self
.
Clone
(
nullptr
);
})
#if defined(PADDLE_WITH_CUDA) || defined(PADDLE_WITH_HIP)
.
def
(
"clone"
,
[](
paddle_infer
::
Predictor
&
self
,
phi
::
CUDAStream
&
stream
)
{
self
.
Clone
(
stream
.
raw_stream
());
})
#endif
.
def
(
"try_shrink_memory"
,
&
paddle_infer
::
Predictor
::
TryShrinkMemory
)
.
def
(
"clear_intermediate_tensor"
,
&
paddle_infer
::
Predictor
::
ClearIntermediateTensor
);
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录