Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Paddle-Lite
提交
086b67aa
P
Paddle-Lite
项目概览
PaddlePaddle
/
Paddle-Lite
通知
331
Star
4
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
271
列表
看板
标记
里程碑
合并请求
78
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle-Lite
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
271
Issue
271
列表
看板
标记
里程碑
合并请求
78
合并请求
78
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
086b67aa
编写于
9月 22, 2019
作者:
J
juncaipeng
提交者:
GitHub
9月 22, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update model_quantization (#2116)
* fix error in index * update model_quantization.md
上级
8a18a14b
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
61 addition
and
68 deletion
+61
-68
_all_pages/develop/model_quantization.md
_all_pages/develop/model_quantization.md
+61
-68
未找到文件。
_all_pages/develop/model_quantization.md
浏览文件 @
086b67aa
...
...
@@ -5,14 +5,29 @@ title: 模型量化
*
TOC
{:toc}
Paddle-Lite支持加载运行
[
PaddlePaddle框架
](
https://github.com/PaddlePaddle/Paddle
)
量化训练产出的模型。本文主要介绍如何基于PaddlePaddle和Paddle-Lite对模型进行端到端的量化训练和推理执行。PaddlePaddle框架中所使用的量化训练原理请猛戳
[
此处
](
https://github.com/PaddlePaddle/models/blob/develop/PaddleSlim/docs/tutorial.md#1-quantization-aware-training%E9%87%8F%E5%8C%96%E4%BB%8B%E7%BB%8D
)
。如果您是初次接触PaddlePaddle框架,建议首先学习
[
新人入门
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/beginners_guide/index_cn.html
)
和
[
使用指南
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/user_guides/index_cn.html
)
。
> 备注:本文中所使用的模型量化示例均为MobileNetV1。
本文主要介绍使用PaddlePaddle和Paddle-Lite对模型进行端到端的量化训练和推理执行,模型示例为MobileNetV1。
### 一、使用PaddleSlim模型压缩工具获取量化模型
**用户须知**
: 现阶段的量化训练主要针对卷积层(包括二维卷积和Depthwise卷积)以及全连接层进行量化。卷积层和全连接层在PaddlePaddle框架中对应算子包括conv2d、depthwise_conv2d和mul等。量化训练会对conv2d、depthwise_conv2d和mul进行量化操作,且要求它们的输入中必须包括激活和参数两部分。
目前,PaddlePaddle框架的量化训练主要针对卷积层(包括二维卷积和Depthwise卷积)、全连接层和Pool2D(Max类型),对应算子是conv2d、depthwise_conv2d、mul和Pool2D,更多量化训练的原理请参考
[
文档
](
https://github.com/PaddlePaddle/models/blob/develop/PaddleSlim/docs/tutorial.md#1-quantization-aware-training%E9%87%8F%E5%8C%96%E4%BB%8B%E7%BB%8D
)
。Paddle-Lite支持运行PaddlePaddle框架量化训练产出的模型,可以进一步加快模型在移动端的执行速度。
#### 1. 安装PaddlePaddle
根据操作系统、安装方式、Python版本和CUDA版本,按照
[
官方说明
](
https://paddlepaddle.org.cn/start
)
安装PaddlePaddle1.5.1版本。例如:
温馨提示:如果您是初次接触PaddlePaddle框架,建议首先学习
[
新人入门
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/beginners_guide/index_cn.html
)
和
[
使用指南
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/user_guides/index_cn.html
)
。
## 准备量化模型
您可以选择下载训练好的量化模型,或者使用PaddleSlim模型压缩工具训练得到量化模型。
### 下载量化模型
官方发布了
[
MobileNetV1量化模型
](
https://paddle-inference-dist.bj.bcebos.com/int8%2Fpretrain%2Fmobilenet_v1_quant%2Ffloat.zip
)
,直接下载到本地。
```
bash
wget https://paddle-inference-dist.bj.bcebos.com/int8%2Fpretrain%2Fmobilenet_v1_quant%2Ffloat.zip
```
### 使用PaddleSlim模型压缩工具训练量化模型
#### 安装PaddlePaddle
根据操作系统、安装方式、Python版本和CUDA版本,按照
[
官方说明
](
https://paddlepaddle.org.cn/start
)
安装1.5.1版本的PaddlePaddle。例如:
Ubuntu 16.04.4 LTS操作系统,CUDA9,cuDNN7,GPU版本安装:
```
bash
...
...
@@ -24,20 +39,23 @@ Ubuntu 16.04.4 LTS操作系统,CPU版本安装:
pip
install
paddlepaddle
==
1.5.1
-i
https://mirrors.aliyun.com/pypi/simple/
```
#### 2. 克隆量化训练所需的代码库
克隆
[
PaddlePaddle/models
](
https://github.com/PaddlePaddle/models
)
到本地,并进入models/PaddleSlim路径。执行如下命令:
#### 克隆量化训练所需的代码库
克隆
[
PaddlePaddle/models
](
https://github.com/PaddlePaddle/models
)
到本地,并进入models/PaddleSlim路径。
```
bash
git clone https://github.com/PaddlePaddle/models.git
cd
models/PaddleSlim
```
#### 3. 数据准备
##### 3.1 训练数据准备
参考
[
models/PaddleCV/image_classification
](
https://github.com/PaddlePaddle/models/tree/develop/PaddleCV/image_classification#data-preparation
)
下的数据准备教程准备训练数据,并放入PaddleSlim/data路径下。
#### 数据准备
##### 训练数据准备
##### 3.2 预训练模型准备
参考
[
models/PaddleCV/image_classification
](
https://github.com/PaddlePaddle/models/tree/develop/PaddleCV/image_classification#data-preparation
)
中的数据准备教程,下载训练数据,并且保存到PaddleSlim/data路径下。
脚本run.sh会自动从
[
models/PaddleCV/image_classification
](
https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/image_classification#supported-models-and-performances
)
下载MobileNetV1的预训练模型,并放入PaddleSlim/pretrain路径下。
##### 预训练模型准备
参考/models/PaddleSlim/run.sh脚本, 从
[
models/PaddleCV/image_classification
](
https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/image_classification#supported-models-and-performances
)
下载MobileNetV1的预训练模型,并保存到PaddleSlim/pretrain路径下。
经过以上三步,PaddleSlim目录下的文件结构如下所示:
...
...
@@ -62,10 +80,11 @@ cd models/PaddleSlim
└── utility.py
# 定义了常用的工具方法
```
#### 4. 压缩脚本介绍
#### 压缩脚本介绍
在
`compress.py`
中定义了执行压缩任务需要的所有模型相关的信息,这里对几个关键的步骤进行简要介绍:
#####
4.1
目标网络的定义
##### 目标网络的定义
compress.py的以下代码片段定义了train program, 这里train program只有前向计算操作。
```
python
...
...
@@ -84,7 +103,7 @@ val_program = fluid.default_main_program().clone()
定义完目标网络结构,需要对其初始化,并根据需要加载预训练模型。
#####
4.2
定义feed_list和fetch_list
##### 定义feed_list和fetch_list
对于train program, 定义train_feed_list用于指定从train data reader中取的数据feed给哪些variable。定义train_fetch_list用于指定在训练时,需要在log中展示的结果。如果需要在训练过程中在log中打印accuracy信心,则将('acc_top1', acc_top1.name)添加到train_fetch_list中即可。
```
python
train_feed_list
=
[(
'image'
,
image
.
name
),
(
'label'
,
label
.
name
)]
...
...
@@ -100,8 +119,8 @@ val_feed_list = [('image', image.name), ('label', label.name)]
val_fetch_list
=
[(
'acc_top1'
,
acc_top1
.
name
),
(
'acc_top5'
,
acc_top5
.
name
)]
```
#####
4.3
Compressor和量化配置文件
I.
`compress.py`
主要使用Compressor和yaml文件完成对模型的量化训练工作。Compressor类的定义如下:
##### Compressor和量化配置文件
`compress.py`
主要使用Compressor和yaml文件完成对模型的量化训练工作。Compressor类的定义如下:
```
python
class
Compressor
(
object
):
def
__init__
(
self
,
...
...
@@ -127,7 +146,7 @@ class Compressor(object):
*
最终保存的量化模型是在eval_program网络基础上进行剪枝保存的。所以,如果用户希望最终保存的模型可以用于inference, 则eval program需要包含推理阶段需要的各种operators.
*
checkpoint保存的是float数据类型的模型。
II.
`configs/quantization.yaml`
量化配置文件示例如下:
`configs/quantization.yaml`
量化配置文件示例如下:
```
python
version
:
1.0
...
...
@@ -173,7 +192,7 @@ compressor:
>
> 3)**目前,Paddle-Lite仅支持运行weight量化方式使用`abs_max`且activation量化方式使用`moving_average_abs_max`或`range_abs_max`产出的量化模型**。
####
5.
执行int8量化训练
#### 执行int8量化训练
修改run.sh,即注释掉
`# enable GC strategy`
与
`# for sensitivity filter pruning`
之间的内容并打开
`#for quantization`
相关的脚本命令(所需打开注释的命令如下所示)。
...
...
@@ -190,73 +209,47 @@ python compress.py \
```
最后,运行
`sh run.sh`
命令开始int8量化训练。
### 二、使用Paddle-Lite运行量化模型推理
上述量化训练过程完成后,若用户按照本文中所述
`configs/quantization.yaml`
文件内容配置的模型输出路径,则可在models/PaddleSlim/output目录下看到
`float`
、
`int8`
和
`mobile`
三个目录,其中:
上述量化训练过程完成后,若按照本文中所述
`configs/quantization.yaml`
文件内容配置的模型输出路径,则可在models/PaddleSlim/output目录下看到
`float`
、
`int8`
和
`mobile`
三个目录,其中:
*
float目录: 参数范围为int8范围但参数数据类型为float32的量化模型。Paddle-Lite即使用该目录下的模型文件及参数进行量化模型的部署。
*
int8目录: 参数范围为int8范围且参数数据类型为int8的量化模型。
*
mobile目录:参数特点与int8目录相同且兼容paddle-mobile的量化模型(目前paddle-mobile已升级为Paddle-Lite)。
#### 1. 在手机端准备量化模型文件
这里我们主要使用float目录下的模型文件(用户亦可以选择使用官方已经预训练好的MobileNetV1量化模型,
[
点击此处
](
https://paddle-inference-dist.bj.bcebos.com/int8%2Fpretrain%2Fmobilenet_v1_quant%2Ffloat.zip
)
进行下载)。
使用如下命令将float目录下的量化模型文件导入到手机端:
## 使用Paddle-Lite运行量化模型推理
```
bash
adb shell
mkdir
-p
/data/local/tmp/mobilenet_v1_quant
adb push float/
*
/data/local/tmp/mobilenet_v1_quant
```
### 使用模型优化工具对量化模型进行优化
#### 2. 使用模型优化工具对量化模型进行优化
克隆
[
PaddlePaddle/Paddle-Lite
](
https://github.com/PaddlePaddle/Paddle-Lite
)
到本地(注意执行以下所有命令时均默认Paddle-Lite源码文件夹在当前目录下)。根据
[
Docker开发环境的配置说明文档
](
https://github.com/PaddlePaddle/Paddle-Lite/wiki/source_compile#1-docker%E5%BC%80%E5%8F%91%E7%8E%AF%E5%A2%83
)
准备Paddle-Lite编译环境。若用户按照文档配置docker编译环境,则进入docker容器可看到宿主机端的Paddle-Lite源码文件夹被映射挂载到容器的/Paddle-Lite目录下。在docker容器中执行以下编译命令:
接下来,使用float目录下的模型文件,生成适合在移动端直接部署的量化模型。
参考
[
源码编译
](
../source_compile
)
配置编译环境,确保可以编译成功。参考
[
模型转化方法
](
../model_optimize_tool
)
,首先编译model_optimize_tool工具,然后执行下面命令对量化训练的模型进行优化(注意,需要自行修改model_file、param_file和optimize_out)。
```
bash
cd
/Paddle-Lite
./lite/tools/build.sh
\
--arm_os
=
android
\
--arm_abi
=
armv8
\
--arm_lang
=
gcc
\
--android_stl
=
c++_static
\
full_publish
./model_optimize_tool
\
--model_file
=
mobilenet_v1_quant/float/model
\
--param_file
=
mobilenet_v1_quant/float/weights
\
--optimize_out_type
=
naive_buffer
\
--optimize_out
=
mobilenet_v1_quant_opt
\
--valid_targets
=
arm
\
--prefer_int8_kernel
=
true
```
*
编译完成后退出docker容器,模型优化工具model
\_
optimize
\_
tool在宿主机的存放位置为
`Paddle-Lite/build.lite.android.armv8.gcc/lite/api/model_optimize_tool`
。此时,目录结构如下所示:
```
bash
Paddle-Lite/
|-- build.lite.android.armv8.gcc
| |-- lite
| | |-- api
| | | |-- model_optimize_tool
```
*
在宿主机执行如下命令将
`model_optimize_tool`
文件导入到手机端。
如前所述,量化训练后,float目录下的模型参数范围为int8,但参数数据类型仍为float32类型,这样确实没有起到模型参数压缩的效果。但是,经过model
\_
optimize
\_
tool工具优化后对应的量化参数均会以int8类型重新存储达到参数压缩的效果,且模型结构也被优化(如进行了各种operator fuse操作)。
```
bash
adb push Paddle-Lite/build.lite.android.armv8.gcc/lite/api/model_optimize_tool /data/local/tmp
```
### 在手机端准备量化模型文件
使用如下命令将mobilenet_v1_quant_opt目录下的量化模型文件导入到手机端:
*
在宿主机执行如下命令,完成对量化训练模型的优化,产生适合在移动端直接部署的量化模型。
```
bash
adb shell
rm
-rf
/data/local/tmp/mobilenet_v1_quant_opt
adb shell
chmod
+x /data/local/tmp/model_optimize_tool
adb shell /data/local/tmp/model_optimize_tool
\
--model_file
=
/data/local/tmp/mobilenet_v1_quant/model
\
--param_file
=
/data/local/tmp/mobilenet_v1_quant/weights
\
--optimize_out_type
=
naive_buffer
\
--optimize_out
=
/data/local/tmp/mobilenet_v1_quant_opt
\
--valid_targets
=
arm
\
--prefer_int8_kernel
=
true
adb push mobilenet_v1_quant_opt /data/local/tmp
```
model
\_
optimize
\_
tool的详细使用方法请猛戳
[
此处
](
https://github.com/PaddlePaddle/Paddle-Lite/wiki/model_optimize_tool#%E4%BD%BF%E7%94%A8%E6%96%B9%E6%B3%95
)
。
> 备注:如前所述,量化训练后,float目录下的模型参数范围为int8,但参数数据类型仍为float32类型,仅这样确实没有起到模型参数压缩的效果。但是,经过model\_optimize\_tool工具优化后对应的量化参数均会以int8类型重新存储达到参数压缩的效果,且模型结构也被优化(如进行了各种operator fuse操作)。
###
# 3.
使用mobilenetv1\_light\_api运行优化后的量化模型
### 使用mobilenetv1\_light\_api运行优化后的量化模型
在docker容器中执行如下命令获取Paddle-Lite
轻量级API的demo:
参考
[
源码编译
](
../source_compile
)
配置编译环境后,在Paddle-Lite执行如下命令获取
轻量级API的demo:
```
bash
cd
/Paddle-Lite/build.lite.android.armv8.gcc/inference_lite_lib.android.armv8/demo/cxx/mobile_light
make clean
&&
make
-j
```
执行完上述命令后
退出docker容器,并可在宿主机
`Paddle-Lite/build.lite.android.armv8.gcc/inference_lite_lib.android.armv8/demo/cxx/mobile_light/`
路径下看到
`mobilenetv1_light_api`
可执行文件。将
`mobilenetv1_light_api`
导入到手机端并运行量化模型推理。执行命令如下:
执行完上述命令后
,可在
`Paddle-Lite/build.lite.android.armv8.gcc/inference_lite_lib.android.armv8/demo/cxx/mobile_light/`
路径下看到
`mobilenetv1_light_api`
可执行文件。将
`mobilenetv1_light_api`
导入到手机端并运行量化模型推理。执行命令如下:
```
bash
adb push Paddle-Lite/build.lite.android.armv8.gcc/inference_lite_lib.android.armv8/demo/cxx/mobile_light/mobilenetv1_light_api /data/local/tmp
...
...
@@ -278,9 +271,9 @@ Output[700]: 0.002509
Output[800]: 0.000538
Output[900]: 0.000969
```
在C++中使用Paddle-Lite API的方法请猛戳
[
此处
](
https://github.com/PaddlePaddle/Paddle-Lite/wiki/demos#如何在代码中使用-api
)
,用户也可参考
[
mobilenetv1_light_api.cc
](
https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/demo/cxx/mobile_light/mobilenetv1_light_api.cc
)
的代码示例。
在C++中使用Paddle-Lite API的方法请猛戳
[
此处
](
../cpp_demo
)
,用户也可参考
[
mobilenetv1_light_api.cc
](
https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/demo/cxx/mobile_light/mobilenetv1_light_api.cc
)
的代码示例。
##
# 三、
FAQ
##
FAQ
**问题**
:Compiled with WITH_GPU, but no GPU found in runtime
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录