From 366aae78814b5a0ba3eb3e9c686c215e85b2b61e Mon Sep 17 00:00:00 2001 From: Zeyu Chen Date: Thu, 26 Dec 2019 00:18:54 +0800 Subject: [PATCH] Update PaddleSeg_Infer_Benchmark.md --- deploy/python/docs/PaddleSeg_Infer_Benchmark.md | 8 -------- 1 file changed, 8 deletions(-) diff --git a/deploy/python/docs/PaddleSeg_Infer_Benchmark.md b/deploy/python/docs/PaddleSeg_Infer_Benchmark.md index 9d0b692f..196e3c30 100644 --- a/deploy/python/docs/PaddleSeg_Infer_Benchmark.md +++ b/deploy/python/docs/PaddleSeg_Infer_Benchmark.md @@ -9,14 +9,6 @@ - GPU: Tesla V100 - CPU:Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz -## 测试方法 -- 输入采用1000张RGB图片,batch_size为1。 -- 重复跑多轮,去掉第一轮预热时间,计后续几轮的平均时间:包括数据拷贝到GPU,预测引擎计算时间,预测结果拷贝回CPU 时间。 -- 采用Paddle C++预测引擎 -- 测试时开启了 FLAGS_cudnn_exhaustive_search=True,使用exhaustive方式搜索卷积计算算法。 -- 对于每个模型,测试了`OP`优化模型和原生模型的推理速度, 并分别就是否开启`FP16`和`FP32`的进行了测试 - - ## 推理速度测试数据 **说明**: `OP优化模型`指的是`PaddleSeg 0.3.0`版以后导出的新版模型,把图像的预处理和后处理部分放入 GPU 中进行加速,提高性能。每个模型包含了三种`eval_crop_size`:`192x192`/`512x512`/`768x768`。 -- GitLab