Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
451a2764
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
451a2764
编写于
9月 22, 2020
作者:
W
Wilber
提交者:
GitHub
9月 22, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Add 2.0 inference api (#2558)
上级
a42ac2cc
变更
2
展开全部
隐藏空白更改
内联
并排
Showing
2 changed file
with
1459 addition
and
289 deletion
+1459
-289
doc/paddle/advanced_guide/inference_deployment/inference/native_infer.md
...nced_guide/inference_deployment/inference/native_infer.md
+1306
-68
doc/paddle/advanced_guide/inference_deployment/inference/python_infer_cn.md
...d_guide/inference_deployment/inference/python_infer_cn.md
+153
-221
未找到文件。
doc/paddle/advanced_guide/inference_deployment/inference/native_infer.md
浏览文件 @
451a2764
此差异已折叠。
点击以展开。
doc/paddle/advanced_guide/inference_deployment/inference/python_infer_cn.md
浏览文件 @
451a2764
# Python 预测 API介绍
# Python 预测 API介绍
Fluid提供了高度优化的
[
C++预测库
](
./native_infer.html
)
,为了方便使用,我们也提供了C++预测库对应的Python接口,下面是详细的使用说明。
Paddle提供了高度优化的
[
C++预测库
](
./native_infer.html
)
,为了方便使用,我们也提供了C++预测库对应的Python接口,下面是详细的使用说明。
如果您在使用2.0之前的Paddle,请参考
[
旧版API
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.8/advanced_guide/inference_deployment/inference/python_infer_cn.html
)
文档。
## Python预测相关数据结构
## Python预测相关数据结构
使用Python预测API与C++预测API相似,主要包括
`
PaddleTensor`
,
`PaddleDType`
,
`AnalysisConfig`
和
`Paddle
Predictor`
,分别对应于C++ API中同名的类型。
使用Python预测API与C++预测API相似,主要包括
`
Tensor`
,
`DataType`
,
`Config`
和
`
Predictor`
,分别对应于C++ API中同名的类型。
###
PaddleTensor
###
DataType
class paddle.
fluid.core.PaddleTensor
class paddle.
inference.DataType
`
PaddleTensor`
是预测库输入和输出的数据结构,包括以下字段
`
DataType`
定义了
`Tensor`
的数据类型,由传入
`Tensor`
的numpy数组类型确定,包括以下成员
*
`name`
(str): 指定输入的名称
*
`INT64`
: 64位整型
*
`shape`
(tuple|list): Tensor的shape
*
`INT32`
: 32位整型
*
`data`
(numpy.ndarray): Tensor的数据,可在PaddleTensor构造的时候用
`numpy.ndarray`
直接传入
*
`FLOAT32`
: 32位浮点型
*
`dtype`
(PaddleDType): Tensor的类型
*
`lod`
(List
[
List[int]]): [LoD
](
../../../user_guides/howto/basic_concept/lod_tensor.html
)
信息
`PaddleTensor`
包括以下方法
### PrecisionType
*
`as_ndarray`
: 返回
`data`
对应的numpy数组
class paddle.3.inference.PrecisionType
#### 代码示例
`PrecisionType`
定义了
`Predictor`
运行的精度模式,包括一下成员
```
python
tensor
=
PaddleTensor
(
name
=
"tensor"
,
data
=
numpy
.
array
([
1
,
2
,
3
],
dtype
=
"int32"
))
```
调用
`PaddleTensor`
的成员字段和方法输出如下:
```
python
>>>
tensor
.
name
'tensor'
>>>
tensor
.
shape
[
3
]
>>>
tensor
.
dtype
PaddleDType
.
INT32
>>>
tensor
.
lod
[]
>>>
tensor
.
as_ndarray
()
array
([
1
,
2
,
3
],
dtype
=
int32
)
```
*
`Float32`
: fp32模式运行
*
`Half`
: fp16模式运行
*
`Int8`
: int8模式运行
###
PaddleDType
###
Tensor
class paddle.
fluid.core.Paddle
Tensor
class paddle.
inference.
Tensor
`
PaddleDType`
定义了
`PaddleTensor`
的数据类型,由传入
`PaddleTensor`
的numpy数组类型确定,包括以下成员
`
Tensor`
是
`Predictor`
的一种输入/输出数据结构,通过
`predictor`
获取输入/输出handle得到,主要提供以下方法
*
`INT64`
: 64位整型
*
`copy_from_cpu`
: 从cpu获取模型运行所需输入数据
*
`INT32`
: 32位整型
*
`copy_to_cpu`
: 获取模型运行输出结果
*
`FLOAT32`
: 32位浮点型
*
`lod`
: 获取lod信息
*
`set_lod`
: 设置lod信息
*
`shape`
: 获取shape信息
*
`reshape`
: 设置shape信息
*
`type`
: 获取DataType信息
### AnalysisConfig
```
python
# 创建predictor
predictor
=
create_predictor
(
config
)
class paddle.fluid.core.AnalysisConfig
# 获取输入的名称
input_names
=
predictor
.
get_input_names
()
input_tensor
=
predictor
.
get_input_handle
(
input_names
[
0
])
`AnalysisConfig`
是创建预测引擎的配置,提供了模型路径设置、预测引擎运行设备选择以及多种优化预测流程的选项,主要包括以下方法
# 设置输入
fake_input
=
numpy
.
random
.
randn
(
1
,
3
,
318
,
318
).
astype
(
"float32"
)
input_tensor
.
copy_from_cpu
(
fake_input
)
# 运行predictor
predictor
.
run
()
# 获取输出
output_names
=
predictor
.
get_output_names
()
output_tensor
=
predictor
.
get_output_handle
(
output_names
[
0
])
output_data
=
output_tensor
.
copy_to_cpu
()
# numpy.ndarray类型
```
### Config
class paddle.inference.Config
`Config`
是创建预测引擎的配置,提供了模型路径设置、预测引擎运行设备选择以及多种优化预测流程的选项,主要包括以下方法
*
`set_model`
: 设置模型的路径
*
`set_model`
: 设置模型的路径
*
`model_dir`
: 返回模型文件夹路径
*
`model_dir`
: 返回模型文件夹路径
...
@@ -71,15 +81,16 @@ class paddle.fluid.core.AnalysisConfig
...
@@ -71,15 +81,16 @@ class paddle.fluid.core.AnalysisConfig
*
`enable_mkldnn`
: 开启MKLDNN
*
`enable_mkldnn`
: 开启MKLDNN
*
`disable_glog_info`
: 禁用预测中的glog日志
*
`disable_glog_info`
: 禁用预测中的glog日志
*
`delete_pass`
: 预测的时候删除指定的pass
*
`delete_pass`
: 预测的时候删除指定的pass
#### 代码示例
#### 代码示例
设置模型和参数路径有两种形式:
设置模型和参数路径有两种形式:
*
当模型文件夹下存在一个模型文件和多个参数文件时,传入模型文件夹路径,模型文件名默认为
`__model__`
*
当模型文件夹下存在一个模型文件和多个参数文件时,传入模型文件夹路径,模型文件名默认为
`__model__`
```
python
```
python
config
=
Analysis
Config
(
"./model"
)
config
=
Config
(
"./model"
)
```
```
*
当模型文件夹下只有一个模型文件和一个参数文件时,传入模型文件和参数文件路径
*
当模型文件夹下只有一个模型文件和一个参数文件时,传入模型文件和参数文件路径
```
python
```
python
config
=
Analysis
Config
(
"./model/model"
,
"./model/params"
)
config
=
Config
(
"./model/model"
,
"./model/params"
)
```
```
使用
`set_model`
方法设置模型和参数路径方式同上
使用
`set_model`
方法设置模型和参数路径方式同上
...
@@ -87,147 +98,53 @@ config = AnalysisConfig("./model/model", "./model/params")
...
@@ -87,147 +98,53 @@ config = AnalysisConfig("./model/model", "./model/params")
```
python
```
python
config
.
enable_use_gpu
(
100
,
0
)
# 初始化100M显存,使用gpu id为0
config
.
enable_use_gpu
(
100
,
0
)
# 初始化100M显存,使用gpu id为0
config
.
gpu_device_id
()
# 返回正在使用的gpu id
config
.
gpu_device_id
()
# 返回正在使用的gpu id
config
.
disable_gpu
()
# 禁用gpu
config
.
disable_gpu
()
# 禁用gpu
config
.
switch_ir_optim
(
True
)
# 开启IR优化
config
.
switch_ir_optim
(
True
)
# 开启IR优化
config
.
enable_tensorrt_engine
(
precision_mode
=
AnalysisConfig
.
Precision
.
Float32
,
config
.
enable_tensorrt_engine
(
precision_mode
=
PrecisionType
.
Float32
,
use_calib_mode
=
True
)
# 开启TensorRT预测,精度为fp32,开启int8离线量化
use_calib_mode
=
True
)
# 开启TensorRT预测,精度为fp32,开启int8离线量化
config
.
enable_mkldnn
()
# 开启MKLDNN
config
.
enable_mkldnn
()
# 开启MKLDNN
```
### PaddlePredictor
class paddle.fluid.core.PaddlePredictor
`PaddlePredictor`
是运行预测的引擎,由
`paddle.fluid.core.create_paddle_predictor(config)`
创建,主要提供以下方法
*
`run`
: 输入和返回值均为
`PaddleTensor`
列表类型,功能为运行预测引擎,返回预测结果
#### 代码示例
```
python
# 设置完AnalysisConfig后创建预测引擎PaddlePredictor
predictor
=
create_paddle_predictor
(
config
)
# 设置输入
x
=
numpy
.
array
([
1
,
2
,
3
],
dtype
=
"int64"
)
x_t
=
fluid
.
core
.
PaddleTensor
(
x
)
y
=
numpy
.
array
([
4
],
dtype
=
"int64"
)
y_t
=
fluid
.
core
.
PaddleTensor
(
y
)
# 运行预测引擎得到结果,返回值是一个PaddleTensor的列表
results
=
predictor
.
run
([
x_t
,
y_t
])
# 获得预测结果,并应用到自己的应用中
```
```
###
使用ZeroCopyTensor管理输入/输出
###
Predictor
`ZeroCopyTensor`
是
`AnalysisPredictor`
的一种输入/输出数据结构,与
`PaddleTensor`
等同。
`ZeroCopyTensor`
相比于
`PaddleTensor`
,可以避免预测时候准备输入以及获取输出时多余的数据拷贝,提高预测性能。
class paddle.inference.Predictor
注意: 需要注意的是,使用
`ZeroCopyTensor`
,务必在创建
`config`
时设置
`config.switch_use_feed_fetch_ops(False)`
用于显式地在模型运行的时候删去
`feed`
和
`fetch`
ops,不会影响模型的效果,但是能提升性能。
`Predictor`
是运行预测的引擎,由
`paddle.inference.create_predictor(config)`
创建,主要提供以下方法
```
python
# 创建predictor
predictor
=
create_paddle_predictor
(
config
)
# 获取输入的名称
input_names
=
predictor
.
get_input_names
()
input_tensor
=
predictor
.
get_input_tensor
(
input_names
[
0
])
# 设置输入
*
`run()`
: 运行预测引擎,返回预测结果
fake_input
=
numpy
.
random
.
randn
(
1
,
3
,
318
,
318
).
astype
(
"float32"
)
input_tensor
.
copy_from_cpu
(
fake_input
)
# 运行predictor
predictor
.
zero_copy_run
()
# 获取输出
output_names
=
predictor
.
get_output_names
()
output_tensor
=
predictor
.
get_output_tensor
(
output_names
[
0
])
output_data
=
output_tensor
.
copy_to_cpu
()
# numpy.ndarray类型
```
### AnalysisPredictor
class paddle.fluid.core.AnalysisPredictor
`AnalysisPredictor`
是运行预测的引擎,继承于
`PaddlePredictor`
,同样是由
`paddle.fluid.core.create_paddle_predictor(config)`
创建,主要提供以下方法
*
`zero_copy_run()`
: 运行预测引擎,返回预测结果
*
`get_input_names()`
: 获取输入的名称
*
`get_input_names()`
: 获取输入的名称
*
`get_input_
tensor(input_name: str)`
: 根据输入的名称获取对应的
`ZeroCopy
Tensor`
*
`get_input_
handle(input_name: str)`
: 根据输入的名称获取对应的
`
Tensor`
*
`get_output_names()`
: 获取输出的名称
*
`get_output_names()`
: 获取输出的名称
*
`get_output_
tensor(output_name: str)`
: 根据输出的名称获取对应的
`ZeroCopy
Tensor`
*
`get_output_
handle(output_name: str)`
: 根据输出的名称获取对应的
`
Tensor`
#### 代码示例
#### 代码示例
```
python
```
python
# 设置完AnalysisConfig后创建预测引擎PaddlePredictor
# 设置完AnalysisConfig后创建预测引擎PaddlePredictor
predictor
=
create_p
addle_p
redictor
(
config
)
predictor
=
create_predictor
(
config
)
# 获取输入的名称
# 获取输入的名称
input_names
=
predictor
.
get_input_names
()
input_names
=
predictor
.
get_input_names
()
input_
tensor
=
predictor
.
get_input_tensor
(
input_names
[
0
])
input_
handle
=
predictor
.
get_input_handle
(
input_names
[
0
])
# 设置输入
# 设置输入
fake_input
=
numpy
.
random
.
randn
(
1
,
3
,
318
,
318
).
astype
(
"float32"
)
fake_input
=
numpy
.
random
.
randn
(
1
,
3
,
318
,
318
).
astype
(
"float32"
)
input_
tensor
.
reshape
([
1
,
3
,
318
,
318
])
input_
handle
.
reshape
([
1
,
3
,
318
,
318
])
input_
tensor
.
copy_from_cpu
(
fake_input
)
input_
handle
.
copy_from_cpu
(
fake_input
)
# 运行predictor
# 运行predictor
predictor
.
zero_copy_
run
()
predictor
.
run
()
# 获取输出
# 获取输出
output_names
=
predictor
.
get_output_names
()
output_names
=
predictor
.
get_output_names
()
output_
tensor
=
predictor
.
get_output_tensor
(
output_names
[
0
])
output_
handle
=
predictor
.
get_output_handle
(
output_names
[
0
])
```
```
## 支持方法列表
*
PaddleTensor
*
`as_ndarray() -> numpy.ndarray`
*
ZeroCopyTensor
*
`copy_from_cpu(input: numpy.ndarray) -> None`
*
`copy_to_cpu() -> numpy.ndarray`
*
`reshape(input: numpy.ndarray|List[int]) -> None`
*
`shape() -> List[int]`
*
`set_lod(input: numpy.ndarray|List[List[int]]) -> None`
*
`lod() -> List[List[int]]`
*
`type() -> PaddleDType`
*
AnalysisConfig
*
`set_model(model_dir: str) -> None`
*
`set_model(prog_file: str, params_file: str) -> None`
*
`model_dir() -> str`
*
`prog_file() -> str`
*
`params_file() -> str`
*
`enable_use_gpu(memory_pool_init_size_mb: int, device_id: int) -> None`
*
`gpu_device_id() -> int`
*
`switch_ir_optim(x: bool = True) -> None`
*
`enable_tensorrt_engine(workspace_size: int = 1 << 20,
max_batch_size: int,
min_subgraph_size: int,
precision_mode: AnalysisConfig.precision,
use_static: bool,
use_calib_mode: bool) -> None`
*
`enable_mkldnn() -> None`
*
`disable_glog_info() -> None`
*
`delete_pass(pass_name: str) -> None`
*
PaddlePredictor
*
`run(input: List[PaddleTensor]) -> List[PaddleTensor]`
*
AnalysisPredictor
*
`zero_copy_run() -> None`
*
`get_input_names() -> List[str]`
*
`get_input_tensor(input_name: str) -> ZeroCopyTensor`
*
`get_output_names() -> List[str]`
*
`get_output_tensor(output_name: str) -> ZeroCopyTensor`
可参考对应的
[
C++预测接口
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/fluid/pybind/inference_api.cc
)
,其中定义了每个接口的参数和返回值
## 完整使用示例
## 完整使用示例
下面是使用
Fluid
Python API进行预测的一个完整示例,使用resnet50模型
下面是使用
Paddle Inference
Python API进行预测的一个完整示例,使用resnet50模型
下载
[
resnet50模型
](
http://paddle-inference-dist.bj.bcebos.com/resnet50_model.tar.gz
)
并解压,运行如下命令将会调用预测引擎
下载
[
resnet50模型
](
http://paddle-inference-dist.bj.bcebos.com/resnet50_model.tar.gz
)
并解压,运行如下命令将会调用预测引擎
...
@@ -237,70 +154,11 @@ python resnet50_infer.py --model_file ./model/model --params_file ./model/params
...
@@ -237,70 +154,11 @@ python resnet50_infer.py --model_file ./model/model --params_file ./model/params
`resnet50_infer.py`
的内容是
`resnet50_infer.py`
的内容是
### PaddleTensor的完整使用示例
```
python
```
python
import
argparse
import
argparse
import
numpy
as
np
import
numpy
as
np
from
paddle.inference
import
Config
from
paddle.fluid.core
import
PaddleTensor
from
paddle.inference
import
create_predictor
from
paddle.fluid.core
import
AnalysisConfig
from
paddle.fluid.core
import
create_paddle_predictor
def
main
():
args
=
parse_args
()
# 设置AnalysisConfig
config
=
AnalysisConfig
(
args
.
model_file
,
args
.
params_file
)
config
.
disable_gpu
()
# 创建PaddlePredictor
predictor
=
create_paddle_predictor
(
config
)
# 设置输入,此处以随机输入为例,用户可自行输入真实数据
inputs
=
fake_input
(
args
.
batch_size
)
# 运行预测引擎
outputs
=
predictor
.
run
(
inputs
)
output_num
=
512
# 获得输出并解析
output
=
outputs
[
0
]
print
(
output
.
name
)
output_data
=
output
.
as_ndarray
()
#return numpy.ndarray
assert
list
(
output_data
.
shape
)
==
[
args
.
batch_size
,
output_num
]
for
i
in
range
(
args
.
batch_size
):
print
(
np
.
argmax
(
output_data
[
i
]))
def
fake_input
(
batch_size
):
shape
=
[
batch_size
,
3
,
318
,
318
]
data
=
np
.
random
.
randn
(
*
shape
).
astype
(
"float32"
)
image
=
PaddleTensor
(
data
)
return
[
image
]
def
parse_args
():
parser
=
argparse
.
ArgumentParser
()
parser
.
add_argument
(
"--model_file"
,
type
=
str
,
help
=
"model filename"
)
parser
.
add_argument
(
"--params_file"
,
type
=
str
,
help
=
"parameter filename"
)
parser
.
add_argument
(
"--batch_size"
,
type
=
int
,
default
=
1
,
help
=
"batch size"
)
return
parser
.
parse_args
()
if
__name__
==
"__main__"
:
main
()
```
### ZeroCopyTensor的完整使用示例
```
python
import
argparse
import
numpy
as
np
from
paddle.fluid.core
import
AnalysisConfig
from
paddle.fluid.core
import
create_paddle_predictor
def
main
():
def
main
():
...
@@ -310,24 +168,24 @@ def main():
...
@@ -310,24 +168,24 @@ def main():
config
=
set_config
(
args
)
config
=
set_config
(
args
)
# 创建PaddlePredictor
# 创建PaddlePredictor
predictor
=
create_p
addle_p
redictor
(
config
)
predictor
=
create_predictor
(
config
)
# 获取输入的名称
# 获取输入的名称
input_names
=
predictor
.
get_input_names
()
input_names
=
predictor
.
get_input_names
()
input_
tensor
=
predictor
.
get_input_tensor
(
input_names
[
0
])
input_
handle
=
predictor
.
get_input_handle
(
input_names
[
0
])
# 设置输入
# 设置输入
fake_input
=
np
.
random
.
randn
(
1
,
3
,
318
,
318
).
astype
(
"float32"
)
fake_input
=
np
.
random
.
randn
(
1
,
3
,
318
,
318
).
astype
(
"float32"
)
input_
tensor
.
reshape
([
1
,
3
,
318
,
318
])
input_
handle
.
reshape
([
1
,
3
,
318
,
318
])
input_
tensor
.
copy_from_cpu
(
fake_input
)
input_
handle
.
copy_from_cpu
(
fake_input
)
# 运行predictor
# 运行predictor
predictor
.
zero_copy_
run
()
predictor
.
run
()
# 获取输出
# 获取输出
output_names
=
predictor
.
get_output_names
()
output_names
=
predictor
.
get_output_names
()
output_
tensor
=
predictor
.
get_output_tensor
(
output_names
[
0
])
output_
handle
=
predictor
.
get_output_handle
(
output_names
[
0
])
output_data
=
output_
tensor
.
copy_to_cpu
()
# numpy.ndarray类型
output_data
=
output_
handle
.
copy_to_cpu
()
# numpy.ndarray类型
def
parse_args
():
def
parse_args
():
...
@@ -340,7 +198,7 @@ def parse_args():
...
@@ -340,7 +198,7 @@ def parse_args():
def
set_config
(
args
):
def
set_config
(
args
):
config
=
Analysis
Config
(
args
.
model_file
,
args
.
params_file
)
config
=
Config
(
args
.
model_file
,
args
.
params_file
)
config
.
disable_gpu
()
config
.
disable_gpu
()
config
.
switch_use_feed_fetch_ops
(
False
)
config
.
switch_use_feed_fetch_ops
(
False
)
config
.
switch_specify_input_names
(
True
)
config
.
switch_specify_input_names
(
True
)
...
@@ -348,5 +206,79 @@ def set_config(args):
...
@@ -348,5 +206,79 @@ def set_config(args):
if
__name__
==
"__main__"
:
if
__name__
==
"__main__"
:
main
()
main
()
```
```
## 支持方法列表
*
Tensor
*
`copy_from_cpu(input: numpy.ndarray) -> None`
*
`copy_to_cpu() -> numpy.ndarray`
*
`reshape(input: numpy.ndarray|List[int]) -> None`
*
`shape() -> List[int]`
*
`set_lod(input: numpy.ndarray|List[List[int]]) -> None`
*
`lod() -> List[List[int]]`
*
`type() -> PaddleDType`
*
Config
*
`set_model(model_dir: str) -> None`
*
`set_model(prog_file: str, params_file: str) -> None`
*
`set_model_buffer(model: str, model_size: int, param: str, param_size: int) -> None`
*
`model_dir() -> str`
*
`prog_file() -> str`
*
`params_file() -> str`
*
`model_from_memory() -> bool`
*
`set_cpu_math_library_num_threads(num: int) -> None`
*
`enable_use_gpu(memory_pool_init_size_mb: int, device_id: int) -> None`
*
`use_gpu() -> bool`
*
`gpu_device_id() -> int`
*
`switch_ir_optim(x: bool = True) -> None`
*
`switch_ir_debug(x: int=True) -> None`
*
`ir_optim() -> bool`
*
`enable_tensorrt_engine(workspace_size: int = 1 << 20,
max_batch_size: int,
min_subgraph_size: int,
precision_mode: AnalysisConfig.precision,
use_static: bool,
use_calib_mode: bool) -> None`
*
`set_trt_dynamic_shape_info(min_input_shape: Dict[str, List[int]]={}, max_input_shape: Dict[str, List[int]]={}, optim_input_shape: Dict[str, List[int]]={}, disable_trt_plugin_fp16: bool=False) -> None`
*
`tensorrt_engine_enabled() -> bool`
*
`enable_mkldnn() -> None`
*
`enable_mkldnn_bfloat16() -> None`
*
`mkldnn_enabled() -> bool`
*
`set_mkldnn_cache_capacity(capacity: int=0) -> None`
*
`set_mkldnn_op(ops: Set[str]) -> None`
*
`set_optim_cache_dir(dir: str) -> None`
*
`disable_glog_info() -> None`
*
`pass_builder() -> paddle::PassStrategy`
*
`delete_pass(pass_name: str) -> None`
*
`cpu_math_library_num_threads() -> int`
*
`disable_gpu() -> None`
*
`enable_lite_engine(precision: PrecisionType, zero_copy: bool, passes_filter: List[str]=[], ops_filter: List[str]=[]) -> None`
*
`lite_engine_enabled() -> bool`
*
`enable_memory_optim() -> None`
*
`enable_profile() -> None`
*
`enable_quantizer() -> None`
*
`quantizer_config() -> paddle::MkldnnQuantizerConfig`
*
`fraction_of_gpu_memory_for_pool() -> float`
*
`memory_pool_init_size_mb() -> int`
*
`glog_info_disabled() -> bool`
*
`gpu_device_id() -> int`
*
`specify_input_name() -> bool`
*
`switch_specify_input_names(x: bool=True) -> None`
*
`specify_input_name(q) -> bool`
*
`switch_use_feed_fetch_ops(x: int=True) -> None`
*
`use_feed_fetch_ops_enabled() -> bool`
*
`to_native_config() -> paddle.fluid.core_avx.NativeConfig`
*
`create_predictor(config: Config) -> Predictor`
*
Predictor
*
`run() -> None`
*
`get_input_names() -> List[str]`
*
`get_input_handle(input_name: str) -> Tensor`
*
`get_output_names() -> List[str]`
*
`get_output_handle(output_name: str) -> Tensor`
*
`clear_intermediate_tensor() -> None`
*
`clone() -> Predictor`
*
PredictorPool
*
`retrive(idx: int) -> Predictor`
可参考对应的
[
C++预测接口
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/fluid/pybind/inference_api.cc
)
,其中定义了每个接口的参数和返回值
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录