post_quant_no_data.md 6.0 KB
Newer Older
1 2
# 模型量化-无校准数据训练后量化

3
本文首先简单介绍无校准数据训练后量化,然后说明产出量化模型,最后阐述量化模型预测。
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

## 1 简介

无校准数据训练后量化,将模型中特定OP的权重从FP32类型量化成INT8/16类型,可以减小预测模型的大小。使用该量化模型预测,首先将INT8/16类型的权重反量化成FP32类型,然后再进行预测。

使用条件:
* 有训练好的预测模型

使用步骤:
* 产出量化模型:使用PaddlePaddle调用无校准数据训练后量化接口,产出量化模型
* 量化模型预测:使用PaddleLite加载量化模型进行预测推理

优点:
* 权重量化成INT16类型,模型精度不受影响,模型大小为原始的1/2
* 权重量化成INT8类型,模型精度会受到影响,模型大小为原始的1/4

缺点:
21
* 只可以减小模型大小,不能加快模型推理
22 23 24

## 2 产出量化模型

25
因为目前该方法还没有在PaddleSlim中集成,大家可以使用PaddlePaddle调用无校准数据训练后量化接口,得到量化模型。
26 27 28 29 30 31 32 33 34 35 36 37 38 39

### 2.1 安装PaddlePaddle

参考PaddlePaddle[官网](https://www.paddlepaddle.org.cn/install/quick),安装PaddlePaddle CPU/GPU 1.7版本。

### 2.2 准备模型

准备已经训练好的FP32预测模型,即 `save_inference_model()` 保存的模型。

### 2.3 调用无校准数据训练后量化

对于调用无校准数据训练后量化,首先给出一个例子。

```python
40 41
from paddle.fluid.contrib.slim.quantization import WeightQuantization

42 43 44 45
model_dir = path/to/fp32_model_params
save_model_dir = path/to/save_model_path
weight_quant = WeightQuantization(model_dir=model_dir)
weight_quant.quantize_weight_to_int(save_model_dir=save_model_dir,
46 47 48 49
                                    weight_bits=8,
                                    quantizable_op_type=['conv2d', 'mul'],
                                    weight_quantize_type="channel_wise_abs_max",
                                    generate_test_model=False)
50 51
```

52 53 54
执行完成后,可以在 `save_model_dir/quantized_model` 目录下得到量化模型。


55 56 57 58 59 60 61 62 63 64 65
对于调用无校准数据训练后量化,以下对api接口进行详细介绍。

```python
class WeightQuantization(model_dir, model_filename=None, params_filename=None)
```
参数说明如下:
* model_dir(str):待量化模型的路径,其中保存模型文件和权重文件。
* model_filename(str, optional):待量化模型的模型文件名,如果模型文件名不是`__model__`,则需要使用model_filename设置模型文件名。
* params_filename(str, optional):待量化模型的权重文件名,如果所有权重保存成一个文件,则需要使用params_filename设置权重文件名。

```python
66 67 68 69 70 71 72 73 74
WeightQuantization.quantize_weight_to_int(self,
                               save_model_dir,
                               save_model_filename=None,
                               save_params_filename=None,
                               quantizable_op_type=["conv2d", "mul"],
                               weight_bits=8,
                               weight_quantize_type="channel_wise_abs_max",
                               generate_test_model=False,
                               threshold_rate=0.0)
75 76 77 78 79
```
参数说明如下:
* save_model_dir(str):保存量化模型的路径。
* save_model_filename(str, optional):如果save_model_filename等于None,则模型的网络结构保存到__model__文件,如果save_model_filename不等于None,则模型的网络结构保存到特定的文件。默认为None。
* save_params_filename(str, optional):如果save_params_filename等于None,则模型的参数分别保存到一系列文件中,如果save_params_filename不等于None,则模型的参数会保存到一个文件中,文件名为设置的save_params_filename。默认为None。
80 81 82 83
* quantizable_op_type(list[str]): 需要量化的op类型,默认是`['conv2d', 'mul']`,列表中的值可以是任意支持量化的op类型 `['conv2d', 'depthwise_conv2d', 'mul']`。一般不对 `depthwise_conv2d` 量化,因为对减小模型大小收益不大,同时可能影响模型精度。
* weight_bits(int, optional):权重量化保存的比特数,可以是8~16,一般设置为8/16,默认为8。量化为8bit,模型体积最多可以减小4倍,可能存在微小的精度损失。量化成16bit,模型大小最多可以减小2倍,基本没有精度损失。
* weight_quantize_type(str, optional): 权重量化的方式,支持 `channel_wise_abs_max``abs_max`,一般都是 `channel_wise_abs_max`,量化模型精度损失小。
* generate_test_model(bool, optional): 是否产出测试模型,用于测试量化模型部署时的精度。测试模型保存在 `save_model_dir/test_model` 目录下,可以和FP32模型一样使用Fluid加载测试,但是该模型不能用于预测端部署。
84 85 86 87


## 3 量化模型预测

88
目前,对于无校准数据训练后量化产出的量化模型,只能使用PaddleLite进行预测部署。
89 90 91 92

很简单,首先使用PaddleLite提供的模型转换工具(opt)将量化模型转换成移动端预测的模型,然后加载转换后的模型进行预测部署。

注意,PaddleLite 2.3版本才支持无校准数据训练后量化产出的量化,所以转换工具和预测库必须是2.3及之后的版本。
93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108

### 3.1 模型转换

参考[模型转换](../user_guides/model_optimize_tool)准备模型转换工具,建议从Release页面下载。

参考[模型转换](../user_guides/model_optimize_tool)使用模型转换工具。
比如在安卓手机ARM端进行预测,模型转换的命令为:
```bash
./opt --model_dir=./mobilenet_v1_quant \
      --optimize_out_type=naive_buffer \
      --optimize_out=mobilenet_v1_quant_opt \
      --valid_targets=arm
```

### 3.2 量化模型预测

109
和FP32模型一样,转换后的量化模型可以在Android/IOS APP中加载预测,建议参考[C++ Demo](../demo_guides/cpp_demo)[Java Demo](../demo_guides/java_demo)[Android/IOS Demo](../demo_guides/android_app_demo)