diff --git a/test_tipc/readme.md b/test_tipc/readme.md index 2cc5ab407093d527e180aaf9470759d3be279d5c..3059809e56e952bbcd4ae8f271980a90cc256454 100644 --- a/test_tipc/readme.md +++ b/test_tipc/readme.md @@ -60,16 +60,20 @@ ```shell test_tipc/ ├── configs/ # 配置文件目录 - ├── det_mv3_db.yml # 测试mobile版ppocr检测模型训练的yml文件 - ├── det_r50_vd_db.yml # 测试server版ppocr检测模型训练的yml文件 - ├── rec_icdar15_r34_train.yml # 测试server版ppocr识别模型训练的yml文件 - ├── ppocr_sys_mobile_params.txt # 测试mobile版ppocr检测+识别模型串联的参数配置文件 - ├── ppocr_det_mobile_params.txt # 测试mobile版ppocr检测模型的参数配置文件 - ├── ppocr_rec_mobile_params.txt # 测试mobile版ppocr识别模型的参数配置文件 - ├── ppocr_sys_server_params.txt # 测试server版ppocr检测+识别模型串联的参数配置文件 - ├── ppocr_det_server_params.txt # 测试server版ppocr检测模型的参数配置文件 - ├── ppocr_rec_server_params.txt # 测试server版ppocr识别模型的参数配置文件 - ├── ... + ├── ppocr_det_mobile # ppocr_det_mobile模型的测试配置文件目录 + ├── det_mv3_db.yml # 测试mobile版ppocr检测模型训练的yml文件 + ├── train_infer_python.txt.txt # 测试Linux上python训练预测(基础训练预测)的配置文件 + ├── model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt # 测试Linux上c++预测的配置文件 + ├── model_linux_gpu_normal_normal_infer_python_jetson.txt # 测试Jetson上python预测的配置文件 + ├── train_linux_gpu_fleet_amp_infer_python_linux_gpu_cpu.txt # 测试Linux上多机多卡、混合精度训练和python预测的配置文件 + ├── ... + ├── ppocr_det_server # ppocr_det_server模型的测试配置文件目录 + ├── ... + ├── ppocr_rec_mobile # ppocr_rec_mobile模型的测试配置文件目录 + ├── ... + ├── ppocr_rec_server # ppocr_rec_server模型的测试配置文件目录 + ├── ... + ├── ... ├── results/ # 预先保存的预测结果,用于和实际预测结果进行精读比对 ├── python_ppocr_det_mobile_results_fp32.txt # 预存的mobile版ppocr检测模型python预测fp32精度的结果 ├── python_ppocr_det_mobile_results_fp16.txt # 预存的mobile版ppocr检测模型python预测fp16精度的结果 @@ -85,6 +89,17 @@ test_tipc/ └── readme.md # 使用文档 ``` +### 配置文件命名规范 +在`configs`目录下,按模型名称划分为子目录,子目录中存放所有该模型测试需要用到的配置文件,配置文件的命名遵循如下规范: + +1. 基础训练预测配置简单命名为:`train_infer_python.txt`,表示**Linux环境下单机、不使用混合精度训练+python预测**,其完整命名对应`train_linux_gpu_fleet_amp_infer_python_linux_gpu_cpu.txt`,由于本配置文件使用频率较高,这里进行了名称简化。 + +2. 其他带训练配置命名格式为:`train_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_预测模式(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt`。如,linux gpu下多机多卡+混合精度链条测试对应配置 `train_linux_gpu_fleet_amp_infer_python_linux_gpu_cpu.txt`,linux dcu下基础训练预测对应配置 `train_linux_dcu_normal_normal_infer_python_dcu.txt`。 + +3. 仅预测的配置(如serving、lite等)命名格式:model_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt,即,与2相比,仅第一个字段从train换为model,测试时模型直接下载获取,这里的“训练硬件环境”表示所测试的模型是在哪种环境下训练得到的。 + +根据上述命名规范,可以直接从配置文件名看出对应的测试场景和功能。 + ### 测试流程 使用本工具,可以测试不同功能的支持情况,以及预测结果是否对齐,测试流程如下:
@@ -99,7 +114,7 @@ test_tipc/ - `test_train_inference_python.sh`:测试基于Python的模型训练、评估、推理等基本功能,包括裁剪、量化、蒸馏。 - `test_inference_cpp.sh`:测试基于C++的模型推理。 - `test_serving.sh`:测试基于Paddle Serving的服务化部署功能。 -- `test_lite.sh`:测试基于Paddle-Lite的端侧预测部署功能。 +- `test_lite_arm_cpu_cpp.sh`:测试基于Paddle-Lite的ARM CPU端c++预测部署功能。 #### 更多教程