Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
35aa2eaa
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
7
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
35aa2eaa
编写于
8月 30, 2019
作者:
P
Pei Yang
提交者:
GitHub
8月 30, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
adapt doc to new python api (#1087)
Python Inference API Documentation refining and updating based on PR #19353
上级
97ae986f
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
123 addition
and
70 deletion
+123
-70
doc/fluid/advanced_usage/deploy/inference/python_infer_cn.md
doc/fluid/advanced_usage/deploy/inference/python_infer_cn.md
+123
-70
未找到文件。
doc/fluid/advanced_usage/deploy/inference/python_infer_cn.md
浏览文件 @
35aa2eaa
# Python 预测 API介绍
Fluid提供了高度优化的
[
C++预测库
](
./native_infer.html
)
,为了方便使用,我们也提供了C++预测库对应的Python接口,
两者含义完全相同,下面是详细的使用说明
Fluid提供了高度优化的
[
C++预测库
](
./native_infer.html
)
,为了方便使用,我们也提供了C++预测库对应的Python接口,
下面是详细的使用说明。
## PaddleTensor
## Python预测相关数据结构
使用Python预测API与C++预测API相似,主要包括
`PaddleTensor`
,
`PaddleDType`
,
`AnalysisConfig`
和
`PaddlePredictor`
,分别对应于C++ API中同名的类型。
### PaddleTensor
class paddle.fluid.core.PaddleTensor
`PaddleTensor`
是预测库输入和输出的数据结构,包括以下字段
*
`name`
(str): 指定输入的名称
*
`shape`
(tuple|list): Tensor的shape
*
`data`
(
PaddleBuf): Tensor的数据,存储在
`PaddleBuf`
中,
*
`data`
(
numpy.ndarray): Tensor的数据,可在PaddleTensor构造的时候用
`numpy.ndarray`
直接传入
*
`dtype`
(PaddleDType): Tensor的类型
*
`lod`
(List
[
List[int]]): [LoD
](
../../../user_guides/howto/basic_concept/lod_tensor.html
)
信息
## PaddleBuf
`PaddleTensor`
包括以下方法
`PaddleBuf`
定义了
`PaddleTensor`
的存储结构,创建
`PaddleBuf`
:
*
`as_ndarray`
: 返回
`data`
对应的numpy数组
#### 代码示例
```
python
tensor
=
PaddleTensor
(
name
=
"tensor"
,
data
=
numpy
.
array
([
1
,
2
,
3
],
dtype
=
"int32"
))
```
调用
`PaddleTensor`
的成员字段和方法输出如下:
```
python
int64_buf
=
PaddleBuf
([
1
,
2
,
3
,
4
])
float_buf
=
PaddleBuf
([
1.
,
2.
,
3.
,
4.
])
>>>
tensor
.
name
'tensor'
>>>
tensor
.
shape
[
3
]
>>>
tensor
.
dtype
PaddleDType
.
INT32
>>>
tensor
.
lod
[]
>>>
tensor
.
as_ndarray
()
array
([
1
,
2
,
3
],
dtype
=
int32
)
```
`PadleBuf`
包括以下方法
*
`resize`
: 重新分配内存,单位为byte
*
`reset`
: 重新设置数据
*
`empty`
: buffer是否为空
*
`float_data`
: 将数据转为float型的list返回
*
`int64_data`
: 将数据转为int64型的list返回
*
`length`
: 内存大小,单位为byte
### PaddleDType
## PaddleDType
class paddle.fluid.core.PaddleTensor
`PaddleDType`
定义了
`PaddleTensor`
的
类型,包括
`PaddleDType`
定义了
`PaddleTensor`
的
数据类型,由传入
`PaddleTensor`
的numpy数组类型确定,包括以下成员
*
`PaddleDType.INT64`
: 64位整型
*
`PaddleDType.FLOAT32`
: 32位浮点型
*
`INT64`
: 64位整型
*
`INT32`
: 32位整型
*
`FLOAT32`
: 32位浮点型
## AnalysisConfig
##
#
AnalysisConfig
`AnalysisConfig`
是创建预测引擎的配置,主要包括以下方法
class paddle.fluid.core.AnalysisConfig
`AnalysisConfig`
是创建预测引擎的配置,提供了模型路径设置、预测引擎运行设备选择以及多种优化预测流程的选项,主要包括以下方法
*
`set_model`
: 设置模型的路径
*
`model_dir`
: 返回模型路径
*
`enable_use_gpu`
: 设置GPU显存(单位M)和ID
*
`model_dir`
: 返回模型文件夹路径
*
`prog_file`
: 返回模型文件路径
*
`params_file`
: 返回参数文件路径
*
`enable_use_gpu`
: 设置GPU显存(单位M)和Device ID
*
`disable_gpu`
: 禁用GPU
*
`gpu_device_id`
: 返回使用的GPU ID
*
`switch_ir_optim`
: IR优化(默认开启)
*
`enable_tensorrt_engine`
: 启用TensorRT
*
`enable_mkldnn`
: 启用MKLDNN
*
`enable_tensorrt_engine`
: 开启TensorRT
*
`enable_mkldnn`
: 开启MKLDNN
#### 代码示例
设置模型和参数路径有两种形式:
*
当模型文件夹下存在一个模型文件和多个参数文件时,传入模型文件夹路径,模型文件名默认为
`__model__`
```
python
config
=
AnalysisConfig
(
"./model"
)
```
*
当模型文件夹下只有一个模型文件和一个参数文件时,传入模型文件和参数文件路径
```
python
config
=
AnalysisConfig
(
"./model/model"
,
"./model/params"
)
```
使用
`set_model`
方法设置模型和参数路径方式同上
其他预测引擎配置选项示例如下
```
python
config
.
enable_use_gpu
(
100
,
0
)
# 初始化200M显存,使用gpu id为0
config
.
gpu_device_id
()
# 返回正在使用的gpu id
config
.
disable_gpu
()
# 禁用gpu
config
.
switch_ir_optim
(
True
)
# 开启IR优化
config
.
enable_tensorrt_engine
(
precision
=
AnalysisConfig
.
Precision
.
kFloat32
,
use_calib_mode
=
True
)
# 开启TensorRT预测,精度为fp32,开启int8离线量化
config
.
enable_mkldnn
()
# 开启MKLDNN
```
## PaddlePredictor
`PaddlePredictor`
是运行预测的引擎,下面是创建和使用的说明
```
python
# 创建预测引擎
c
onfig
=
AnalysisConfig
(
model_dir
)
config
.
enable_use_gpu
(
200
,
0
)
# 200M显存, 设备id为0
config
.
enable_tensorrt_engine
()
# 打开TensorRT
### PaddlePredictor
c
lass paddle.fluid.core.PaddlePredictor
`PaddlePredictor`
是运行预测的引擎,由
`paddle.fluid.core.create_paddle_predictor(config)`
创建,主要提供以下方法
*
`run`
: 输入和返回值均为
`PaddleTensor`
列表类型,功能为运行预测引擎,返回预测结果
#### 代码示例
```
python
# 设置完AnalysisConfig后创建预测引擎PaddlePredictor
predictor
=
create_paddle_predictor
(
config
)
# 设置输入
x
=
fluid
.
core
.
PaddleTensor
()
# x.name = ...
# x.shape = ...
# x.data = ...
# x.dtype = ...
x
=
numpy
.
array
([
1
,
2
,
3
],
dtype
=
"int64"
)
x_t
=
fluid
.
core
.
PaddleTensor
(
x
)
y
=
fluid
.
core
.
PaddleTensor
()
# y.name = ...
# y.shape = ...
# y.data = ...
# y.dtype = ...
y
=
numpy
.
array
([
4
],
dtype
=
"int64"
)
y_t
=
fluid
.
core
.
PaddleTensor
(
y
)
# 运行预测引擎得到结果,返回值是一个PaddleTensor的列表
results
=
predictor
.
run
([
x_t
,
y_t
])
# 运行预测引擎得到结果,返回值是一个PaddleTensor的list
results
=
predictor
.
run
([
x
,
y
])
# 获得 results,并应用到自己的应用中
# 获得预测结果,并应用到自己的应用中
```
**Python API 相关接口与 C++ API 完全对应,可以对照查阅**
## 支持方法列表
*
PaddleTensor
*
`as_ndarray() -> numpy.ndarray`
*
AnalysisConfig
*
`set_model(model_dir: str) -> None`
*
`set_model(prog_file: str, params_file: str) -> None`
*
`model_dir() -> str`
*
`prog_file() -> str`
*
`params_file() -> str`
*
`enable_use_gpu(memory_pool_init_size_mb: int, device_id: int) -> None`
*
`gpu_device_id() -> int`
*
`switch_ir_optim(x: bool = True) -> None`
*
`enable_tensorrt_engine(workspace_size: int = 1 << 20,
max_batch_size: int,
min_subgraph_size: int,
precision: AnalysisConfig.precision, use_static: bool,
use_calib_mode: bool) -> None`
*
`enable_mkldnn() -> None`
*
PaddlePredictor
*
`run(input: List[PaddleTensor]) -> List[PaddleTensor]`
可参考对应的
[
C++预测接口
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/fluid/pybind/inference_api.cc
)
,其中定义了每个接口的参数和返回值
## 完整使用示例
下面是
一个完整的resnet50预测示例
下面是
使用Fluid Python API进行预测的一个完整示例,使用resnet50模型
下载
[
resnet50模型
](
http://paddle-inference-dist.bj.bcebos.com/resnet50_model.tar.gz
)
并解压,运行如下命令将会调用预测引擎
```
bash
python resnet50_infer.py
--model_
dir
model
--prog_file
model
--params_file
params
--batch_size
2
python resnet50_infer.py
--model_
file
./model/model
--params_file
./model/
params
--batch_size
2
```
`resnet50_infer.py`
的内容是
...
...
@@ -101,8 +159,6 @@ python resnet50_infer.py --model_dir model --prog_file model --params_file param
import
argparse
import
numpy
as
np
from
paddle.fluid.core
import
PaddleBuf
from
paddle.fluid.core
import
PaddleDType
from
paddle.fluid.core
import
PaddleTensor
from
paddle.fluid.core
import
AnalysisConfig
from
paddle.fluid.core
import
create_paddle_predictor
...
...
@@ -111,42 +167,39 @@ from paddle.fluid.core import create_paddle_predictor
def
main
():
args
=
parse_args
()
#
Set c
onfig
config
=
AnalysisConfig
(
args
.
model_
dir
)
#
设置AnalysisC
onfig
config
=
AnalysisConfig
(
args
.
model_
file
,
args
.
params_file
)
config
.
disable_gpu
()
#
Create
PaddlePredictor
#
创建
PaddlePredictor
predictor
=
create_paddle_predictor
(
config
)
#
Set inputs
#
设置输入,此处以随机输入为例,用户可自行输入真实数据
inputs
=
fake_input
(
args
.
batch_size
)
#
Infer
#
运行预测引擎
outputs
=
predictor
.
run
(
inputs
)
output_num
=
512
#
parse outputs
#
获得输出并解析
output
=
outputs
[
0
]
print
(
output
.
name
)
output_data
=
output
.
data
.
float_data
()
assert
l
en
(
output_data
)
==
512
*
args
.
batch_size
output_data
=
output
.
as_ndarray
()
#return numpy.ndarray
assert
l
ist
(
output_data
.
shape
)
==
[
args
.
batch_size
,
output_num
]
for
i
in
range
(
args
.
batch_size
):
print
(
np
.
argmax
(
output_data
[
i
*
512
:(
i
+
1
)
*
512
]))
print
(
np
.
argmax
(
output_data
[
i
]))
def
fake_input
(
batch_size
):
image
=
PaddleTensor
()
image
.
name
=
"data"
image
.
shape
=
[
batch_size
,
3
,
318
,
318
]
image
.
dtype
=
PaddleDType
.
FLOAT32
image
.
data
=
PaddleBuf
(
np
.
random
.
randn
(
*
image
.
shape
).
flatten
().
astype
(
"float32"
).
tolist
())
shape
=
[
batch_size
,
3
,
318
,
318
]
data
=
np
.
random
.
randn
(
*
shape
).
astype
(
"float32"
)
image
=
PaddleTensor
(
data
)
return
[
image
]
def
parse_args
():
parser
=
argparse
.
ArgumentParser
()
parser
.
add_argument
(
"--model_dir"
,
type
=
str
,
help
=
"model dir"
)
parser
.
add_argument
(
"--prog_file"
,
type
=
str
,
help
=
"program filename"
)
parser
.
add_argument
(
"--model_file"
,
type
=
str
,
help
=
"model filename"
)
parser
.
add_argument
(
"--params_file"
,
type
=
str
,
help
=
"parameter filename"
)
parser
.
add_argument
(
"--batch_size"
,
type
=
int
,
default
=
1
,
help
=
"batch size"
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录