Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
c29a78df
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
136
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
c29a78df
编写于
7月 10, 2020
作者:
C
Channingss
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
updata docs
上级
7760e32d
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
20 addition
and
19 deletion
+20
-19
docs/deploy/paddlelite/slim/compress.md
docs/deploy/paddlelite/slim/compress.md
+19
-7
docs/deploy/paddlelite/slim/index.rst
docs/deploy/paddlelite/slim/index.rst
+1
-2
docs/deploy/paddlelite/slim/quant.md
docs/deploy/paddlelite/slim/quant.md
+0
-10
未找到文件。
docs/deploy/paddlelite/slim/
prune
.md
→
docs/deploy/paddlelite/slim/
compress
.md
浏览文件 @
c29a78df
# 模型裁剪
## 原理介绍
## 模型量化
### 原理介绍
为了满足低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,定点量化被提出。为此我们提供了训练后量化,该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。
### 使用PaddleX量化模型
PaddleX提供了
`export_quant_model`
接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看
[
量化接口使用文档
](
../apis/slim.md
)
。
### 量化性能对比
模型量化后的性能对比指标请查阅
[
PaddleSlim模型库
](
https://paddlepaddle.github.io/PaddleSlim/model_zoo.html
)
## 模型裁剪
### 原理介绍
模型裁剪用于减小模型的计算量和体积,可以加快模型部署后的预测速度,是一种减小模型大小和降低模型计算复杂度的常用方式,通过裁剪卷积层中Kernel输出通道的大小及其关联层参数大小来实现,其关联裁剪的原理可参见
[
PaddleSlim相关文档
](
https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id16
)
。
**一般而言,在同等模型精度前提下,数据复杂度越低,模型可以被裁剪的比例就越高**
。
## 裁剪方法
##
#
裁剪方法
PaddleX提供了两种方式:
**1.用户自行计算裁剪配置(推荐),整体流程包含三个步骤,**
...
...
@@ -21,10 +33,10 @@ PaddleX提供了两种方式:
> 注:各模型内置的裁剪方案分别依据的数据集为: 图像分类——ImageNet数据集、目标检测——PascalVOC数据集、语义分割——CityScape数据集
## 裁剪实验
##
#
裁剪实验
基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示,
### 图像分类
###
#
图像分类
实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据,见
[
使用教程-模型压缩-图像分类
](
../../../../tutorials/compress/classification.md
)
| 模型 | 裁剪情况 | 模型大小 | Top1准确率(%) |GPU预测速度 | CPU预测速度 |
...
...
@@ -33,7 +45,7 @@ PaddleX提供了两种方式:
|MobileNetV2 | 方案一(eval_metric_loss=0.10) | 2.1M | 99.58 |5.03ms |20.22ms |
|MobileNetV2 | 方案二(eval_metric_loss=0.10) | 6.0M | 99.58 |5.42ms |29.06ms |
### 目标检测
###
#
目标检测
实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据,见
[
使用教程-模型压缩-目标检测
](
../../../../tutorials/compress/detection.md
)
...
...
@@ -43,7 +55,7 @@ PaddleX提供了两种方式:
|YOLOv3-MobileNetV1 | 方案一(eval_metric_loss=0.10) | 34M | 75.49 |10.60ms |558.49ms |
|YOLOv3-MobileNetV1 | 方案二(eval_metric_loss=0.05) | 29M | 50.27| 9.43ms |360.46ms |
### 语义分割
###
#
语义分割
实验背景:使用UNet模型,数据集为视盘分割示例数据, 见
[
使用教程-模型压缩-语义分割
](
../../../../tutorials/compress/segmentation.md
)
| 模型 | 裁剪情况 | 模型大小 | mIOU(%) |GPU预测速度 | CPU预测速度 |
...
...
docs/deploy/paddlelite/slim/index.rst
浏览文件 @
c29a78df
...
...
@@ -6,5 +6,4 @@
:maxdepth: 2
:caption: 文档目录:
prune.md
quant.md
compress.md
docs/deploy/paddlelite/slim/quant.md
已删除
100644 → 0
浏览文件 @
7760e32d
# 模型量化
## 原理介绍
为了满足低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,定点量化被提出。为此我们提供了训练后量化,该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。
## 使用PaddleX量化模型
PaddleX提供了
`export_quant_model`
接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看
[
量化接口使用文档
](
../apis/slim.md
)
。
## 量化性能对比
模型量化后的性能对比指标请查阅
[
PaddleSlim模型库
](
https://paddlepaddle.github.io/PaddleSlim/model_zoo.html
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录