diff --git a/deploy/lite_shitu/README.md b/deploy/lite_shitu/README.md index 5d6dde45d737150d6462df4df74ddaf7b8ecbc9d..3ac276b9ea6f52e4f6ebe4b4e1fae235b2211f66 100644 --- a/deploy/lite_shitu/README.md +++ b/deploy/lite_shitu/README.md @@ -75,113 +75,24 @@ inference_lite_lib.android.armv8/ ## 2 开始运行 -### 2.1 模型优化 +### 2.1 模型准备 -Paddle-Lite 提供了多种策略来自动优化原始的模型,其中包括量化、子图融合、混合调度、Kernel优选等方法,使用Paddle-Lite的`opt`工具可以自动对inference模型进行优化,目前支持两种优化方式,优化后的模型更轻量,模型运行速度更快。 -**注意**:如果已经准备好了 `.nb` 结尾的模型文件,可以跳过此步骤。 - -#### 2.1.1 安装paddle_lite_opt工具 -安装`paddle_lite_opt`工具有如下两种方法: -1. [**建议**]pip安装paddlelite并进行转换 - ```shell - pip install paddlelite==2.10rc - ``` - -2. 源码编译Paddle-Lite生成`paddle_lite_opt`工具 - - 模型优化需要Paddle-Lite的`opt`可执行文件,可以通过编译Paddle-Lite源码获得,编译步骤如下: - ```shell - # 如果准备环境时已经clone了Paddle-Lite,则不用重新clone Paddle-Lite - git clone https://github.com/PaddlePaddle/Paddle-Lite.git - cd Paddle-Lite - git checkout develop - # 启动编译 - ./lite/tools/build.sh build_optimize_tool - ``` - - 编译完成后,`opt`文件位于`build.opt/lite/api/`下,可通过如下方式查看`opt`的运行选项和使用方式; - ```shell - cd build.opt/lite/api/ - ./opt - ``` - - `opt`的使用方式与参数与上面的`paddle_lite_opt`完全一致。 - -之后使用`paddle_lite_opt`工具可以进行inference模型的转换。`paddle_lite_opt`的部分参数如下: - -|选项|说明| -|-|-| -|--model_file|待优化的PaddlePaddle模型(combined形式)的网络结构文件路径| -|--param_file|待优化的PaddlePaddle模型(combined形式)的权重文件路径| -|--optimize_out_type|输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现,默认为naive_buffer| -|--optimize_out|优化模型的输出路径| -|--valid_targets|指定模型可执行的backend,默认为arm。目前可支持x86、arm、opencl、npu、xpu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为npu, arm| - -更详细的`paddle_lite_opt`工具使用说明请参考[使用opt转化模型文档](https://paddle-lite.readthedocs.io/zh/latest/user_guides/opt/opt_bin.html) - -`--model_file`表示inference模型的model文件地址,`--param_file`表示inference模型的param文件地址;`optimize_out`用于指定输出文件的名称(不需要添加`.nb`的后缀)。直接在命令行中运行`paddle_lite_opt`,也可以查看所有参数及其说明。 - - -#### 2.1.3 转换示例 - -下面介绍使用`paddle_lite_opt`完成主体检测模型和识别模型的预训练模型,转成inference模型,最终转换成Paddle-Lite的优化模型的过程。 - -##### 2.1.3.1 转换主体检测模型 +#### 2.1.1 模型准备 ```shell -# 当前目录为 $PaddleClas/deploy/lite_shitu -# $code_path需替换成相应的运行目录,可以根据需要,将$code_path设置成需要的目录 -export $code_path=~ -cd $code_path -git clone https://github.com/PaddlePaddle/PaddleDetection.git -# 进入PaddleDetection根目录 -cd PaddleDetection - -# 将预训练模型导出为inference模型 -python tools/export_model.py -c configs/picodet/application/mainbody_detection/picodet_lcnet_x2_5_640_mainbody.yml -o weights=https://paddledet.bj.bcebos.com/models/picodet_lcnet_x2_5_640_mainbody.pdparams --output_dir=inference - -# 将inference模型转化为Paddle-Lite优化模型 -paddle_lite_opt --model_file=inference/picodet_lcnet_x2_5_640_mainbody/model.pdmodel --param_file=inference/picodet_lcnet_x2_5_640_mainbody/model.pdiparams --optimize_out=inference/picodet_lcnet_x2_5_640_mainbody/mainbody_det - -# 将转好的模型复制到lite_shitu目录下 +# 进入lite_ppshitu目录 cd $PaddleClas/deploy/lite_shitu -mkdir models -cp $code_path/PaddleDetection/inference/picodet_lcnet_x2_5_640_mainbody/mainbody_det.nb $PaddleClas/deploy/lite_shitu/models -``` - -##### 2.1.3.2 转换识别模型 - -```shell -# 转换inference model -待补充,生成的inference model存储在PaddleClas/inference下,同时生成label.txt,也存在此文件夹下 - -# 转换为Paddle-Lite模型 -paddle_lite_opt --model_file=inference/inference.pdmodel --param_file=inference/inference.pdiparams --optimize_out=inference/rec - -# 将模型、label文件拷贝到lite_shitu下 -cp inference/rec.nb deploy/lite_shitu/models/ -cp inference/label.txt deploy/lite_shitu/models/ -cd deploy/lite_shitu +wget https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/lite/ppshitu_lite_models_v1.0.tar +tar -xf ppshitu_lite_models_v1.0.tar +rm -f ppshitu_lite_models_v1.0.tar ``` -**注意**:`--optimize_out` 参数为优化后模型的保存路径,无需加后缀`.nb`;`--model_file` 参数为模型结构信息文件的路径,`--param_file` 参数为模型权重信息文件的路径,请注意文件名。 - -##### 2.1.3.3 准备测试图像 - -```shell -mkdir images -# 根据需要准备测试图像,可以在images文件夹中存放多张图像 -cp ../images/wangzai.jpg images/ -``` - - - -##### 2.1.3.4 将yaml文件转换成json文件 +#### 2.1.2将yaml文件转换成json文件 ```shell # 如果测试单张图像 -python generate_json_config.py --det_model_path models/mainbody_det.nb --rec_model_path models/rec.nb --rec_label_path models/label.txt --img_path images/wangzai.jpg +python generate_json_config.py --det_model_path ppshitu_lite_models_v1.0/mainbody_PPLCNet_x2_5_640_v1.0_lite.nb --rec_model_path ppshitu_lite_models_v1.0/general_PPLCNet_x2_5_quant_v1.0_lite.nb --rec_label_path ppshitu_lite_models_v1.0/label.txt --img_path images/demo.jpg # or # 如果测试多张图像 python generate_json_config.py --det_model_path models/mainbody_det.nb --rec_model_path models/rec.nb --rec_label_path models/label.txt --img_dir images @@ -225,12 +136,11 @@ List of devices attached ```shell cd $PaddleClas/deploy/lite_shitu - -inference_lite_path=/{lite prediction library path}/inference_lite_lib.android.armv8.gcc.c++_static.with_extra.with_cv/ +# ${lite prediction library path}下载的Paddle-Lite库路径 +inference_lite_path=${lite prediction library path}/inference_lite_lib.android.armv8.gcc.c++_static.with_extra.with_cv/ mkdir $inference_lite_path/demo/cxx/ppshitu_lite -cp -r Makefile src/ include/ *.json models/ images/ $inference_lite_path/demo/cxx/ppshitu_lite - +cp -r * $inference_lite_path/demo/cxx/ppshitu_lite cd $inference_lite_path/demo/cxx/ppshitu_lite # 执行编译,等待完成后得到可执行文件main @@ -242,28 +152,29 @@ make ARM_ABI=arm8 ```shell mkdir deploy -mv models deploy/ +mv ppshitu_lite_models_v1.0 deploy/ mv images deploy/ +mv shitu_config.json deploy/ cp pp_shitu deploy/ -cd deploy # 将C++预测动态库so文件复制到deploy文件夹中 -cp ../../../cxx/lib/libpaddle_light_api_shared.so ./ +cp ../../../cxx/lib/libpaddle_light_api_shared.so deploy/ ``` 执行完成后,deploy文件夹下将有如下文件格式: -``` +```shell deploy/ -|-- models/ -| |--mainbody_det.nb 优化后的主体检测模型文件 -| |--rec.nb 优化后的识别模型文件 -| |--label.txt 识别模型的label文件 +|-- ppshitu_lite_models_v1.0/ +| |--mainbody_PPLCNet_x2_5_640_v1.0_lite.nb 优化后的主体检测模型文件 +| |--general_PPLCNet_x2_5_quant_v1.0_lite.nb 优化后的识别模型文件 +| |--label.txt 识别模型的label文件 |-- images/ -| ... 图片文件 -|-- pp_shitu 生成的移动端执行文件 -|-- shitu_config.json 执行时参数配置文件 -|-- libpaddle_light_api_shared.so Paddle-Lite库文件 +| |--demo.jpg 图片文件 +| ... 图片文件 +|-- pp_shitu 生成的移动端执行文件 +|-- shitu_config.json 执行时参数配置文件 +|-- libpaddle_light_api_shared.so Paddle-Lite库文件 ``` **注意:** diff --git a/deploy/lite_shitu/images/demo.jpg b/deploy/lite_shitu/images/demo.jpg new file mode 100644 index 0000000000000000000000000000000000000000..075dc31d4e6b407b792cc8abca82dcd541be8d11 Binary files /dev/null and b/deploy/lite_shitu/images/demo.jpg differ diff --git a/deploy/lite_shitu/src/main.cc b/deploy/lite_shitu/src/main.cc index e9c05c72a0f15600e2c9acf0d6358222bcc3199b..690162a4939434270a2d8d7d6c23e02cf35478a4 100644 --- a/deploy/lite_shitu/src/main.cc +++ b/deploy/lite_shitu/src/main.cc @@ -141,6 +141,11 @@ int main(int argc, char **argv) { std::cout << "Please set [det_model_path] in " << config_path << std::endl; return -1; } + + if (!RT_Config["Global"]["infer_imgs_dir"].as().empty() && + img_dir.empty()) { + img_dir = RT_Config["Global"]["infer_imgs_dir"].as(); + } if (RT_Config["Global"]["infer_imgs"].as().empty() && img_dir.empty()) { std::cout << "Please set [infer_imgs] in " << config_path @@ -148,12 +153,6 @@ int main(int argc, char **argv) { << " [image_dir]>" << std::endl; return -1; } - if (!img_dir.empty()) { - std::cout << "Use image_dir in command line overide the path in config file" - << std::endl; - RT_Config["Global"]["infer_imgs_dir"] = img_dir; - RT_Config["Global"]["infer_imgs"] = ""; - } // Load model and create a object detector PPShiTu::ObjectDetector det( RT_Config, RT_Config["Global"]["det_model_path"].as(), @@ -167,7 +166,7 @@ int main(int argc, char **argv) { std::vector batch_imgs; double rec_time; if (!RT_Config["Global"]["infer_imgs"].as().empty() || - !RT_Config["Global"]["infer_imgs_dir"].as().empty()) { + !img_dir.empty()) { std::vector all_img_paths; std::vector cv_all_img_paths; if (!RT_Config["Global"]["infer_imgs"].as().empty()) { @@ -179,7 +178,7 @@ int main(int argc, char **argv) { return -1; } } else { - cv::glob(RT_Config["Global"]["infer_imgs_dir"].as(), + cv::glob(img_dir, cv_all_img_paths); for (const auto &img_path : cv_all_img_paths) { all_img_paths.push_back(img_path); diff --git a/docs/images/ppshitu_lite_demo.png b/docs/images/ppshitu_lite_demo.png index a9b48293d9f7da512c71d0458881476d1c9cc780..68dff02308e7d17ec6d93a437c1a54ca2b6beed7 100644 Binary files a/docs/images/ppshitu_lite_demo.png and b/docs/images/ppshitu_lite_demo.png differ