Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleSeg
提交
4f4e6cec
P
PaddleSeg
项目概览
PaddlePaddle
/
PaddleSeg
通知
285
Star
8
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
53
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleSeg
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
53
Issue
53
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
4f4e6cec
编写于
11月 28, 2019
作者:
B
Bin Long
提交者:
GitHub
11月 28, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update Python Inference Readme
上级
4e794c67
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
30 addition
and
22 deletion
+30
-22
deploy/python/README.md
deploy/python/README.md
+30
-22
未找到文件。
deploy/python/README.md
浏览文件 @
4f4e6cec
# PaddleSeg Python 预测部署方案
本文档旨在提供一个
`PaddlePaddle`
跨平台图像分割模型的
`Python`
预测部署方案,用户通过一定的配置,加上少量的代码,即可把模型集成到自己的服务中,完成图像分割的任务。
## 1. 说明
本方案旨在提供一个
`PaddlePaddle`
跨平台图像分割模型的
`Python`
预测部署方案作为参考,用户通过一定的配置,加上少量的代码,即可把模型集成到自己的服务中,完成图像分割的任务。
## 前置条件
如果
**硬件支持**
(如
`Tesla V100 GPU`
等),本程序支持使用
`Nvidia TensorRT`
进行
`FP32`
和
`FP16`
两种精度进行推理性能加速。
*
Python2.7+,Python3+
*
pip,pip3
## 主要目录和文件
## 2. 依赖前置条件
*
Python2.7/Python3
## 3. 目录结构和文件说明
```
├── infer.py # 核心代码,完成分割模型的预测以及结果可视化
├── requirements.txt # 依赖的Python包
└── README.md # 说明文档
```
### Step1:安装PaddlePaddle
## 4. 环境安装和准备
### 4.1 安装 PaddlePaddle
如何选择合适版本的
`PaddlePaddle`
版本进行安装,可参考:
[
PaddlePaddle安装教程
](
https://www.paddlepaddle.org.cn/install/doc/
)
### Step2:安装Python依赖包
**注意**
: 如硬件支持且需要使用
`TensorRT`
支持
`FP16`
半精度优化等, 则
**本步骤**
需要自行安装
`TensorRT`
并编译
`PaddlePaddle`
, 点击查看
[
编译安装参考文档
](
docs/tensorrt.md
)
2.
1 在
**当前**
目录下, 使用
`pip`
安装
`Python`
依赖包
### 4.2:安装Python依赖包
在
**当前**
目录下, 使用
`pip`
安装
`Python`
依赖包
```
bash
pip
install
-r
requirements.txt
```
2.
2 安装
`OpenCV`
相关依赖库
### 4.3 安装`OpenCV` 相关依赖库
预测代码中需要使用
`OpenCV`
,所以还需要
`OpenCV`
安装相关的动态链接库。
以
`Ubuntu`
和
`CentOS`
为例,命令如下:
`Ubuntu`
下安装相关链接库:
```
bash
...
...
@@ -39,10 +39,18 @@ CentOS 下安装相关链接库:
```
bash
yum
install
-y
libXext libSM libXrender
```
### Step3:预测
进行预测前, 请使用
[
模型导出工具
](
../../docs/model_export.md
)
导出您的模型(或点击下载我们的
[
人像分割样例模型
](
https://bj.bcebos.com/paddleseg/inference/human_freeze_model.zip
)
用于测试)。
导出的模型目录通常包括三个文件,除了模型文件
`models`
和参数文件
`params`
,还会生成对应的配置文件
`deploy.yaml`
用于
`C++`
和
`Python`
预测, 主要字段及其含义如下:
## 5. 开始预测
### 5.1 准备模型
请使用
[
模型导出工具
](
../../docs/model_export.md
)
导出您的模型, 或点击下载我们的
[
人像分割样例模型
](
https://bj.bcebos.com/paddleseg/inference/human_freeze_model.zip
)
用于测试。
模型导出的目录通常包括三个文件:
```
├── model # 模型文件
├── params # 参数文件
└── deploy.yaml # 配置文件,用于C++或Python预测
```
配置文件的主要字段及其含义如下:
```
yaml
DEPLOY
:
# 是否使用GPU预测
...
...
@@ -68,23 +76,23 @@ DEPLOY:
# 每次预测的 batch_size
BATCH_SIZE
:
3
```
模型文件就绪后,
在终端输入以下命令进行预测:
```
### 5.2 执行预测程序
在终端输入以下命令进行预测:
```
bash
python infer.py
--conf
=
/path/to/deploy.yaml
--input_dir
/path/to/images_directory
--use_pr
=
False
```
参数说明如下:
| 参数 | 是否必须|含义 |
|-------|-------|----------|
| conf | Y
ES
|模型配置的Yaml文件路径 |
| input_dir |Y
ES
| 需要预测的图片目录 |
| use_pr |N
O
|是否使用优化模型,默认为False|
| conf | Y
es
|模型配置的Yaml文件路径 |
| input_dir |Y
es
| 需要预测的图片目录 |
| use_pr |N
o
|是否使用优化模型,默认为False|
*
优化模型:使用
`PaddleSeg 0.3.0`
版导出的为优化模型, 此前版本导出的模型即为未优化版本。优化模型把图像的预处理以及后处理部分融入到模型网络中使用
`GPU`
完成,相比原来
`CPU`
中的处理提升了计算性能。
运行后程序会扫描
`input_dir`
目录下所有指定格式图片,并生成
`预测mask`
和
`可视化的结果`
。
运行后会扫描
`input_dir`
目录下所有指定格式图片,生成
`预测mask`
和
`可视化的结果`
。
对于图片
`a.jpeg`
,
`预测mask`
存在
`a_jpeg.png`
中,而可视化结果则在
`a_jpeg_result.png`
中。
输入样例:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录