diff --git a/test_tipc/docs/test_inference_cpp.md b/test_tipc/docs/test_inference_cpp.md index 3c9599a32cd473a31670d3ee028a36bcf621df87..e662f4bacc0b69bd605a79dac0e36c99daac87d5 100644 --- a/test_tipc/docs/test_inference_cpp.md +++ b/test_tipc/docs/test_inference_cpp.md @@ -20,12 +20,12 @@ C++预测功能测试的主程序为`test_inference_cpp.sh`,可以测试基于 先运行`prepare.sh`准备数据和模型,然后运行`test_inference_cpp.sh`进行测试,最终在```test_tipc/output```目录下生成`cpp_infer_*.log`后缀的日志文件。 ```shell -bash test_tipc/prepare.sh ./test_tipc/configs/ppocr_det_mobile/model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt "cpp_infer" +bash test_tipc/prepare.sh ./test_tipc/configs/ch_ppocr_mobile_v2.0_det/model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt "cpp_infer" # 用法1: -bash test_tipc/test_inference_cpp.sh test_tipc/configs/ppocr_det_mobile/model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt +bash test_tipc/test_inference_cpp.sh test_tipc/configs/ch_ppocr_mobile_v2.0_det/model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt # 用法2: 指定GPU卡预测,第三个传入参数为GPU卡号 -bash test_tipc/test_inference_cpp.sh test_tipc/configs/ppocr_det_mobile/model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt '1' +bash test_tipc/test_inference_cpp.sh test_tipc/configs/ch_ppocr_mobile_v2.0_det/model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt '1' ``` 运行预测指令后,在`test_tipc/output`文件夹下自动会保存运行日志,包括以下文件: diff --git a/test_tipc/readme.md b/test_tipc/readme.md index 11ec82fd150f345a87be5f215c5f0bac0117c9f5..31635bc2a56f8c7b6ee6e05b2d9e061ea3585e00 100644 --- a/test_tipc/readme.md +++ b/test_tipc/readme.md @@ -57,7 +57,7 @@ -## 3. 一键测试工具使用 +## 3. 测试工具简介 ### 目录介绍 ```shell @@ -77,10 +77,10 @@ test_tipc/ ├── ... ├── ... ├── results/ # 预先保存的预测结果,用于和实际预测结果进行精读比对 - ├── python_ch_ppocr_mobile_v2.0_det_results_fp32.txt # 预存的mobile版ppocr检测模型python预测fp32精度的结果 - ├── python_ch_ppocr_mobile_v2.0_det_results_fp16.txt # 预存的mobile版ppocr检测模型python预测fp16精度的结果 - ├── cpp_ch_ppocr_mobile_v2.0_det_results_fp32.txt # 预存的mobile版ppocr检测模型c++预测的fp32精度的结果 - ├── cpp_ch_ppocr_mobile_v2.0_det_results_fp16.txt # 预存的mobile版ppocr检测模型c++预测的fp16精度的结果 + ├── python_ppocr_det_mobile_results_fp32.txt # 预存的mobile版ppocr检测模型python预测fp32精度的结果 + ├── python_ppocr_det_mobile_results_fp16.txt # 预存的mobile版ppocr检测模型python预测fp16精度的结果 + ├── cpp_ppocr_det_mobile_results_fp32.txt # 预存的mobile版ppocr检测模型c++预测的fp32精度的结果 + ├── cpp_ppocr_det_mobile_results_fp16.txt # 预存的mobile版ppocr检测模型c++预测的fp16精度的结果 ├── ... ├── prepare.sh # 完成test_*.sh运行所需要的数据和模型下载 ├── test_train_inference_python.sh # 测试python训练预测的主程序 @@ -92,7 +92,7 @@ test_tipc/ ``` ### 配置文件命名规范 -在`configs`目录下,按模型名称划分为子目录,子目录中存放所有该模型测试需要用到的配置文件,配置文件的命名遵循如下规范: +在`configs`目录下,**按模型名称划分为子目录**,子目录中存放所有该模型测试需要用到的配置文件,配置文件的命名遵循如下规范: 1. 基础训练预测配置简单命名为:`train_infer_python.txt`,表示**Linux环境下单机、不使用混合精度训练+python预测**,其完整命名对应`train_linux_gpu_normal_normal_infer_python_linux_gpu_cpu.txt`,由于本配置文件使用频率较高,这里进行了名称简化。 @@ -100,10 +100,10 @@ test_tipc/ 3. 仅预测的配置(如serving、lite等)命名格式:`model_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt`,即,与2相比,仅第一个字段从train换为model,测试时模型直接下载获取,这里的“训练硬件环境”表示所测试的模型是在哪种环境下训练得到的。 -根据上述命名规范,可以直接从配置文件名看出对应的测试场景和功能。 +根据上述命名规范,可以直接从子目录名称和配置文件名找到需要测试的场景和功能对应的配置文件。 -### 测试流程 -使用本工具,可以测试不同功能的支持情况,以及预测结果是否对齐,测试流程如下: +### 测试流程概述 +使用本工具,可以测试不同功能的支持情况,以及预测结果是否对齐,测试流程概括如下:
@@ -120,7 +120,7 @@ test_tipc/ - `test_paddle2onnx.sh`:测试Paddle2ONNX的模型转化功能,并验证正确性。 -#### 更多教程 +### 更多教程 各功能测试中涉及混合精度、裁剪、量化等训练相关,及mkldnn、Tensorrt等多种预测相关参数配置,请点击下方相应链接了解更多细节和使用教程: [test_train_inference_python 使用](docs/test_train_inference_python.md) [test_inference_cpp 使用](docs/test_inference_cpp.md)