# 使用预测模型进行量化训练示例 预测模型保存接口: 动态图使用``paddle.jit.save``保存; 静态图使用``paddle.static.save_inference_model``保存。 本示例将介绍如何使用预测模型进行蒸馏量化训练, 首先使用接口``paddleslim.quant.quant_aware_with_infermodel``训练量化模型, 训练完成后,使用接口``paddleslim.quant.export_quant_infermodel``将训好的量化模型导出为预测模型。 ## 分类模型量化训练流程 ### 1. 准备数据 在``demo``文件夹下创建``data``文件夹,将``ImageNet``数据集解压在``data``文件夹下,解压后``data/ILSVRC2012``文件夹下应包含以下文件: - ``'train'``文件夹,训练图片 - ``'train_list.txt'``文件 - ``'val'``文件夹,验证图片 - ``'val_list.txt'``文件 ### 2. 准备需要量化的模型 飞桨图像识别套件PaddleClas是飞桨为工业界和学术界所准备的一个图像识别任务的工具集,本示例使用该套件产出imagenet分类模型。 #### 2.1 下载PaddleClas release/2.3分支代码 解压后,进入PaddleClas目录 ``` cd PaddleClas-release-2.3 ``` #### 2.2 下载MobileNetV2预训练模型 在PaddleClas根目录创建``pretrained``文件夹: ``` mkdir pretrained ``` 下载预训练模型 分类预训练模型库地址 MobileNetV2预训练模型地址 执行下载命令: ``` wget https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/MobileNetV2_pretrained.pdparams -O ./pretrained/MobileNetV2_pretrained.pdparams ``` #### 2.3 导出预测模型 PaddleClas代码库根目录执行如下命令,导出预测模型 ``` python tools/export_model.py \ -c ppcls/configs/ImageNet/MobileNetV2/MobileNetV2.yaml \ -o Global.pretrained_model=pretrained/MobileNetV2_pretrained \ -o Global.save_inference_dir=infermodel_mobilenetv2 ``` #### 2.4 测试模型精度 拷贝``infermodel_mobilenetv2``文件夹到``PaddleSlim/demo/auto-compression/``文件夹。 ``` cd PaddleSlim/demo/auto-compression/ ``` 使用[eval.py](../quant/quant_post/eval.py)脚本得到模型的分类精度: ``` python ../quant/quant_post/eval.py --model_path infermodel_mobilenetv2 --model_name inference.pdmodel --params_name inference.pdiparams ``` 精度输出为: ``` top1_acc/top5_acc= [0.71918 0.90568] ``` ### 3. 进行多策略融合压缩 每一个小章节代表一种多策略融合压缩,不代表需要串行执行。 ### 3.1 进行量化蒸馏压缩 蒸馏量化训练示例脚本为[demo_imagenet.py](./demo_imagenet.py),使用接口``paddleslim.auto_compression.AutoCompression``对模型进行量化训练。运行命令为: ``` python demo_imagenet.py \ --model_dir='infermodel_mobilenetv2' \ --model_filename='inference.pdmodel' \ --params_filename='./inference.pdiparams' \ --save_dir='./save_qat_mbv2/' \ --devices='gpu' \ --batch_size=64 \ --config_path='./configs/CV/mbv2_qat_dis.yaml' ``` ### 3.2 进行离线量化超参搜索压缩 离线量化超参搜索压缩示例脚本为[demo_imagenet.py](./demo_imagenet.py),使用接口``paddleslim.auto_compression.AutoCompression``对模型进行压缩。运行命令为: ``` python demo_imagenet.py \ --model_dir='infermodel_mobilenetv2' \ --model_filename='inference.pdmodel' \ --params_filename='./inference.pdiparams' \ --save_dir='./save_qat_mbv2/' \ --devices='gpu' \ --batch_size=64 \ --config_path='./configs/CV/mbv2_ptq_hpo.yaml' ``` ### 3.3 进行剪枝蒸馏策略融合压缩 注意:本示例为对BERT模型进行ASP稀疏。 首先参考[脚本](https://github.com/PaddlePaddle/PaddleNLP/tree/develop/examples/language_model/bert#%E9%A2%84%E6%B5%8B)得到可部署的模型。 剪枝蒸馏压缩示例脚本为[demo_glue.py](./demo_glue.py),使用接口``paddleslim.auto_compression.AutoCompression``对模型进行压缩。运行命令为: ``` python demo_glue.py \ --model_dir='./static_bert_models/' \ --model_filename='bert.pdmodel' \ --params_filename='bert.pdiparams' \ --save_dir='./save_asp_bert/' \ --devices='gpu' \ --batch_size=32 \ --task='sst-2' \ --config_path='./configs/NLP/bert_asp_dis.yaml' ``` ### 3.4 进行非结构化稀疏蒸馏策略融合压缩 非结构化稀疏蒸馏压缩示例脚本为[demo_imagenet.py](./demo_imagenet.py),使用接口``paddleslim.auto_compression.AutoCompression``对模型进行压缩。运行命令为: ``` python demo_imagenet.py \ --model_dir='infermodel_mobilenetv2' \ --model_filename='inference.pdmodel' \ --params_filename='./inference.pdiparams' \ --save_dir='./save_qat_mbv2/' \ --devices='gpu' \ --batch_size=64 \ --config_path='./configs/CV/xxx.yaml' ```