From 8889acae25987de45554a6eb501d27c46c8e574e Mon Sep 17 00:00:00 2001 From: yzl19940819 <48433081+yzl19940819@users.noreply.github.com> Date: Mon, 10 May 2021 11:08:18 +0800 Subject: [PATCH] Update README_cn.md (#2903) remove doubled words --- configs/ppyolo/README_cn.md | 1 - 1 file changed, 1 deletion(-) diff --git a/configs/ppyolo/README_cn.md b/configs/ppyolo/README_cn.md index 4988a8d86..bf4bf8977 100644 --- a/configs/ppyolo/README_cn.md +++ b/configs/ppyolo/README_cn.md @@ -59,7 +59,6 @@ PP-YOLO从如下方面优化和提升YOLOv3模型的精度和速度: - PP-YOLO模型推理速度测试采用单卡V100,batch size=1进行测试,使用CUDA 10.2, CUDNN 7.5.1,TensorRT推理速度测试使用TensorRT 5.1.2.2。 - PP-YOLO模型FP32的推理速度测试数据为使用`tools/export_model.py`脚本导出模型后,使用`deploy/python/infer.py`脚本中的`--run_benchnark`参数使用Paddle预测库进行推理速度benchmark测试结果, 且测试的均为不包含数据预处理和模型输出后处理(NMS)的数据(与[YOLOv4(AlexyAB)](https://github.com/AlexeyAB/darknet)测试方法一致)。 - TensorRT FP16的速度测试相比于FP32去除了`yolo_box`(bbox解码)部分耗时,即不包含数据预处理,bbox解码和NMS(与[YOLOv4(AlexyAB)](https://github.com/AlexeyAB/darknet)测试方法一致)。 -- PP-YOLO模型推理速度测试采用单卡V100,batch size=1进行测试,使用CUDA 10.2, CUDNN 7.5.1,TensorRT推理速度测试使用TensorRT 5.1.2.2。 ### PP-YOLO 轻量级模型 -- GitLab