Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
9a703419
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
9a703419
编写于
9月 07, 2020
作者:
F
FlyingQianMM
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
change fluid_inference version
上级
48cdc239
变更
6
隐藏空白更改
内联
并排
Showing
6 changed file
with
43 addition
and
23 deletion
+43
-23
deploy/cpp/src/paddlex.cpp
deploy/cpp/src/paddlex.cpp
+3
-3
docs/change_log.md
docs/change_log.md
+21
-2
docs/deploy/index.rst
docs/deploy/index.rst
+2
-0
docs/deploy/raspberry/index.rst
docs/deploy/raspberry/index.rst
+1
-1
docs/deploy/server/cpp/linux.md
docs/deploy/server/cpp/linux.md
+9
-10
docs/deploy/server/cpp/windows.md
docs/deploy/server/cpp/windows.md
+7
-7
未找到文件。
deploy/cpp/src/paddlex.cpp
浏览文件 @
9a703419
...
@@ -85,7 +85,7 @@ void Model::create_predictor(const std::string& model_dir,
...
@@ -85,7 +85,7 @@ void Model::create_predictor(const std::string& model_dir,
#endif
#endif
// enable Memory Optim
// enable Memory Optim
config
.
EnableMemoryOptim
();
config
.
EnableMemoryOptim
();
if
(
use_trt
)
{
if
(
use_trt
&&
use_gpu
)
{
config
.
EnableTensorRtEngine
(
config
.
EnableTensorRtEngine
(
1
<<
20
/* workspace_size*/
,
1
<<
20
/* workspace_size*/
,
32
/* max_batch_size*/
,
32
/* max_batch_size*/
,
...
@@ -283,7 +283,7 @@ bool Model::predict(const cv::Mat& im, DetResult* result) {
...
@@ -283,7 +283,7 @@ bool Model::predict(const cv::Mat& im, DetResult* result) {
im_tensor
->
Reshape
({
1
,
3
,
h
,
w
});
im_tensor
->
Reshape
({
1
,
3
,
h
,
w
});
im_tensor
->
copy_from_cpu
(
inputs_
.
im_data_
.
data
());
im_tensor
->
copy_from_cpu
(
inputs_
.
im_data_
.
data
());
if
(
name
==
"YOLOv3"
)
{
if
(
name
==
"YOLOv3"
||
name
==
"PPYOLO"
)
{
auto
im_size_tensor
=
predictor_
->
GetInputTensor
(
"im_size"
);
auto
im_size_tensor
=
predictor_
->
GetInputTensor
(
"im_size"
);
im_size_tensor
->
Reshape
({
1
,
2
});
im_size_tensor
->
Reshape
({
1
,
2
});
im_size_tensor
->
copy_from_cpu
(
inputs_
.
ori_im_size_
.
data
());
im_size_tensor
->
copy_from_cpu
(
inputs_
.
ori_im_size_
.
data
());
...
@@ -442,7 +442,7 @@ bool Model::predict(const std::vector<cv::Mat>& im_batch,
...
@@ -442,7 +442,7 @@ bool Model::predict(const std::vector<cv::Mat>& im_batch,
inputs_data
.
begin
()
+
i
*
3
*
h
*
w
);
inputs_data
.
begin
()
+
i
*
3
*
h
*
w
);
}
}
im_tensor
->
copy_from_cpu
(
inputs_data
.
data
());
im_tensor
->
copy_from_cpu
(
inputs_data
.
data
());
if
(
name
==
"YOLOv3"
)
{
if
(
name
==
"YOLOv3"
||
name
==
"PPYOLO"
)
{
auto
im_size_tensor
=
predictor_
->
GetInputTensor
(
"im_size"
);
auto
im_size_tensor
=
predictor_
->
GetInputTensor
(
"im_size"
);
im_size_tensor
->
Reshape
({
batch_size
,
2
});
im_size_tensor
->
Reshape
({
batch_size
,
2
});
std
::
vector
<
int
>
inputs_data_size
(
batch_size
*
2
);
std
::
vector
<
int
>
inputs_data_size
(
batch_size
*
2
);
...
...
docs/change_log.md
浏览文件 @
9a703419
# 更新日志
# 更新日志
**v1.2.0**
2020.09.07
-
模型更新
> - 新增目标检测模型PPYOLO[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#paddlex-det-ppyolo)
> - FasterRCNN、MaskRCNN、YOLOv3、DeepLabv3p等模型新增内置COCO数据集预训练模型
> - 目标检测模型FasterRCNN和MaskRCNN新增backbone HRNet_W18[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#paddlex-det-fasterrcnn)
> - 语义分割模型DeepLabv3p新增backbone MobileNetV3_large_ssld[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/apis/models/semantic_segmentation.html#paddlex-seg-deeplabv3p)
-
模型部署更新
> - 新增模型通过OpenVINO的部署方案[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/deploy/openvino/index.html)
> - 新增模型在树莓派上的部署方案[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/deploy/raspberry/index.html)
> - 优化PaddleLite Android部署的数据预处理和后处理代码性能
> - 优化Paddle服务端C++代码部署代码,增加use_mkl等参数,通过mkldnn显著提升模型在CPU上的预测性能
-
产业案例更新
> - 新增RGB图像遥感分割案例[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/examples/remote_sensing.html)
> - 新增多通道遥感分割案例[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/examples/multi-channel_remote_sensing/README.html)
-
其它
> - 新增数据集切分功能,支持通过命令行切分ImageNet、PascalVOC、MSCOCO和语义分割数据集[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/data/format/classification.html#id2)
**v1.1.0**
2020.07.12
**v1.1.0**
2020.07.12
...
@@ -13,8 +32,8 @@
...
@@ -13,8 +32,8 @@
> - 新增Jetson、Paddle Lite模型部署预测方案
> - 新增Jetson、Paddle Lite模型部署预测方案
> - C++部署代码新增batch批预测,并采用OpenMP对预处理进行并行加速
> - C++部署代码新增batch批预测,并采用OpenMP对预处理进行并行加速
-
新增2个PaddleX产业案例
-
新增2个PaddleX产业案例
> - [人像分割案例]()
> - [人像分割案例](
https://paddlex.readthedocs.io/zh_CN/develop/examples/human_segmentation.html
)
> - [工业表计读数案例]()
> - [工业表计读数案例](
https://paddlex.readthedocs.io/zh_CN/develop/examples/meter_reader.html
)
-
新增数据格式转换功能,LabelMe、精灵标注助手和EasyData平台标注的数据转为PaddleX支持加载的数据格式
-
新增数据格式转换功能,LabelMe、精灵标注助手和EasyData平台标注的数据转为PaddleX支持加载的数据格式
-
PaddleX文档更新,优化文档结构
-
PaddleX文档更新,优化文档结构
...
...
docs/deploy/index.rst
浏览文件 @
9a703419
...
@@ -11,3 +11,5 @@
...
@@ -11,3 +11,5 @@
server/index
server/index
nvidia-jetson.md
nvidia-jetson.md
paddlelite/index
paddlelite/index
openvino/index
raspberry/index
docs/deploy/raspberry/index.rst
浏览文件 @
9a703419
...
@@ -8,4 +8,4 @@
...
@@ -8,4 +8,4 @@
Raspberry.md
Raspberry.md
python.md
python.md
export_nb_model.md
export_nb_model.md
\ No newline at end of file
docs/deploy/server/cpp/linux.md
浏览文件 @
9a703419
...
@@ -19,16 +19,15 @@
...
@@ -19,16 +19,15 @@
### Step2: 下载PaddlePaddle C++ 预测库 paddle_inference
### Step2: 下载PaddlePaddle C++ 预测库 paddle_inference
PaddlePaddle C++ 预测库针对不同的
`CPU`
,
`CUDA`
,以及是否支持TensorRT,提供了不同的预编译版本,目前PaddleX依赖于Paddle1.8版本,以下提供了多个不同版本的Paddle预测库:
PaddlePaddle C++ 预测库针对不同的
`CPU`
,
`CUDA`
,以及是否支持TensorRT,提供了不同的预编译版本,目前PaddleX依赖于Paddle1.8
.4
版本,以下提供了多个不同版本的Paddle预测库:
| 版本说明 | 预测库(1.8.
2
版本) |
| 版本说明 | 预测库(1.8.
4
版本) |
| ---- | ---- |
| ---- | ---- |
| ubuntu14.04_cpu_avx_mkl |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/1.8.2-cpu-avx-mkl/fluid_inference.tgz
)
|
| ubuntu14.04_cpu_avx_mkl |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/latest-cpu-avx-mkl/fluid_inference.tgz
)
|
| ubuntu14.04_cpu_avx_openblas |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/1.8.2-cpu-avx-openblas/fluid_inference.tgz
)
|
| ubuntu14.04_cpu_avx_openblas |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/latest-cpu-avx-openblas/fluid_inference.tgz
)
|
| ubuntu14.04_cpu_noavx_openblas |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/1.8.2-cpu-noavx-openblas/fluid_inference.tgz
)
|
| ubuntu14.04_cpu_noavx_openblas |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/latest-cpu-noavx-openblas/fluid_inference.tgz
)
|
| ubuntu14.04_cuda9.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/1.8.2-gpu-cuda9-cudnn7-avx-mkl/fluid_inference.tgz
)
|
| ubuntu14.04_cuda9.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/latest-gpu-cuda9-cudnn7-avx-mkl/fluid_inference.tgz
)
|
| ubuntu14.04_cuda10.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/1.8.2-gpu-cuda10-cudnn7-avx-mkl/fluid_inference.tgz
)
|
| ubuntu14.04_cuda10.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/latest-gpu-cuda10-cudnn7-avx-mkl/fluid_inference.tgz
)
|
| ubuntu14.04_cuda10.1_cudnn7.6_avx_mkl_trt6 |
[
paddle_inference
](
https://paddle-inference-lib.bj.bcebos.com/1.8.2-gpu-cuda10.1-cudnn7.6-avx-mkl-trt6%2Ffluid_inference.tgz
)
|
更多和更新的版本,请根据实际情况下载:
[
C++预测库下载列表
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html
)
更多和更新的版本,请根据实际情况下载:
[
C++预测库下载列表
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html
)
...
@@ -42,7 +41,7 @@ fluid_inference
...
@@ -42,7 +41,7 @@ fluid_inference
└── version.txt # 版本和编译信息
└── version.txt # 版本和编译信息
```
```
**注意:**
预编译版本除
`nv-jetson-cuda10-cudnn7.5-trt5`
以外其它包都是基于
`GCC 4.8.5`
编译,使用高版本
`GCC`
可能存在
`ABI`
兼容性问题,建议降级或
[
自行编译预测库
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html#id12
)
。
**注意:**
预编译版本除
nv-jetson-cuda10-cudnn7.5-trt5
以外其它包都是基于
`GCC 4.8.5`
编译,使用高版本
`GCC`
可能存在
`ABI`
兼容性问题,建议降级或
[
自行编译预测库
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html#id12
)
。
### Step3: 编译
### Step3: 编译
...
@@ -97,7 +96,7 @@ make
...
@@ -97,7 +96,7 @@ make
```
```
**注意:**
linux环境下编译会自动下载OPENCV, PaddleX-Encryption和YAML,如果编译环境无法访问外网,可手动下载:
**注意:**
linux环境下编译会自动下载OPENCV, PaddleX-Encryption和YAML,如果编译环境无法访问外网,可手动下载:
-
[
opencv3
gcc4.8.tar.bz2
](
https://paddleseg.bj.bcebos.com/deploy/docker/opencv3gcc4.8.tar.b
z2
)
-
[
opencv3
.4.6gcc4.8ffmpeg.tar.gz2
](
https://bj.bcebos.com/paddleseg/deploy/opencv3.4.6gcc4.8ffmpeg.tar.g
z2
)
-
[
paddlex-encryption.zip
](
https://bj.bcebos.com/paddlex/tools/paddlex-encryption.zip
)
-
[
paddlex-encryption.zip
](
https://bj.bcebos.com/paddlex/tools/paddlex-encryption.zip
)
-
[
yaml-cpp.zip
](
https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
)
-
[
yaml-cpp.zip
](
https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
)
...
...
docs/deploy/server/cpp/windows.md
浏览文件 @
9a703419
...
@@ -26,15 +26,15 @@ git clone https://github.com/PaddlePaddle/PaddleX.git
...
@@ -26,15 +26,15 @@ git clone https://github.com/PaddlePaddle/PaddleX.git
### Step2: 下载PaddlePaddle C++ 预测库 paddle_inference
### Step2: 下载PaddlePaddle C++ 预测库 paddle_inference
PaddlePaddle C++ 预测库针对是否使用GPU、是否支持TensorRT、以及不同的CUDA版本提供了已经编译好的预测库,目前PaddleX依赖于Paddle 1.8
,基于Paddle 1.8
的Paddle预测库下载链接如下所示:
PaddlePaddle C++ 预测库针对是否使用GPU、是否支持TensorRT、以及不同的CUDA版本提供了已经编译好的预测库,目前PaddleX依赖于Paddle 1.8
.4,基于Paddle 1.8.4
的Paddle预测库下载链接如下所示:
| 版本说明 | 预测库(1.8.
2
版本) | 编译器 | 构建工具| cuDNN | CUDA |
| 版本说明 | 预测库(1.8.
4
版本) | 编译器 | 构建工具| cuDNN | CUDA |
| ---- | ---- | ---- | ---- | ---- | ---- |
| ---- | ---- | ---- | ---- | ---- | ---- |
| cpu_avx_mkl |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
2
/win-infer/mkl/cpu/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 |
| cpu_avx_mkl |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
4
/win-infer/mkl/cpu/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 |
| cpu_avx_openblas |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
2
/win-infer/open/cpu/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 |
| cpu_avx_openblas |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
4
/win-infer/open/cpu/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 |
| cuda9.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
2
/win-infer/mkl/post97/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.4.1 | 9.0 |
| cuda9.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
4
/win-infer/mkl/post97/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.4.1 | 9.0 |
| cuda9.0_cudnn7_avx_openblas |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
2
/win-infer/open/post97/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.4.1 | 9.0 |
| cuda9.0_cudnn7_avx_openblas |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
4
/win-infer/open/post97/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.4.1 | 9.0 |
| cuda10.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
2
/win-infer/mkl/post107/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.5.0 | 10.0 |
| cuda10.0_cudnn7_avx_mkl |
[
paddle_inference
](
https://paddle-wheel.bj.bcebos.com/1.8.
4
/win-infer/mkl/post107/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.5.0 | 10.0 |
请根据实际情况选择下载,如若以上版本不满足您的需求,请至
[
C++预测库下载列表
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/windows_cpp_inference.html
)
选择符合的版本。
请根据实际情况选择下载,如若以上版本不满足您的需求,请至
[
C++预测库下载列表
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/windows_cpp_inference.html
)
选择符合的版本。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录