提交 05558313 编写于 作者: Z Zeyu Chen

update benchark

上级 a702b65e
# PaddleSeg 分割模型预测性能测试 # PaddleSeg 分割模型预测Benchmark
## 测试软件环境 ## 测试软件环境
- CUDA 9.0 - CUDA 9.0
...@@ -10,12 +10,11 @@ ...@@ -10,12 +10,11 @@
- CPU:Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz - CPU:Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz
## 测试方法 ## 测试方法
- 输入采用 1000张RGB图片,batch_size 统一为 1。 - 输入采用1000张RGB图片,batch_size为1。
- 重复跑多轮,去掉第一轮预热时间,计后续几轮的平均时间:包括数据拷贝到GPU,预测引擎计算时间,预测结果拷贝回CPU 时间。 - 重复跑多轮,去掉第一轮预热时间,计后续几轮的平均时间:包括数据拷贝到GPU,预测引擎计算时间,预测结果拷贝回CPU 时间。
- 采用Fluid C++预测引擎 - 采用Paddle C++预测引擎
- 测试时开启了 FLAGS_cudnn_exhaustive_search=True,使用exhaustive方式搜索卷积计算算法。 - 测试时开启了 FLAGS_cudnn_exhaustive_search=True,使用exhaustive方式搜索卷积计算算法。
- 对于每个模型,同事测试了`OP`优化模型和原生模型的推理速度, 并分别就是否开启`FP16``FP32`的进行了测试 - 对于每个模型,测试了`OP`优化模型和原生模型的推理速度, 并分别就是否开启`FP16``FP32`的进行了测试
## 推理速度测试数据 ## 推理速度测试数据
...@@ -501,7 +500,7 @@ ...@@ -501,7 +500,7 @@
### 3. 不同的EVAL_CROP_SIZE对图片能的影响 ### 3. 不同的EVAL_CROP_SIZE对图片能的影响
`deeplabv3p_xception`上的数据对比图: `deeplabv3p_xception`上的数据对比图:
![xception](https://paddleseg.bj.bcebos.com/inference/benchmark/xception.png) ![xception](https://paddleseg.bj.bcebos.com/inference/benchmark/xception.png)
......
...@@ -11,11 +11,11 @@ ...@@ -11,11 +11,11 @@
## 2. 安装 TensorRT 5.1 ## 2. 安装 TensorRT 5.1
请参考`Nvidia`[官方安装教程](https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html) 请参考Nvidia[官方安装教程](https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html)
## 3. 编译 PaddlePaddle ## 3. 编译 PaddlePaddle
这里假设`Python`版本为`3.7`以及`cuda` `cudnn` `tensorRT`安装路径如下: 这里假设`Python`版本为`3.7`以及`CUDA` `cuDNN` `TensorRT`安装路径如下:
```bash ```bash
# 假设 cuda 安装路径 # 假设 cuda 安装路径
/usr/local/cuda-9.0/ /usr/local/cuda-9.0/
......
# PaddleSeg 性能Benchmark
## 训练性能
### 多GPU加速比
### 显存开销对比
## 预测性能对比
### Windows
### Linux
#### Naive
#### Analysis
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册