历史更新
@@ -50,7 +53,7 @@ PaddleSlim是一个专注于深度学习模型压缩的工具库,提供**低
- 发布`X2Paddle`模型自动化压缩方案:[YOLOv5](example/auto_compression/pytorch_yolo_series)、[YOLOv6](example/auto_compression/pytorch_yolo_series)、[YOLOv7](example/auto_compression/pytorch_yolo_series)、[HuggingFace](example/auto_compression/pytorch_huggingface)、[MobileNet](example/auto_compression/tensorflow_mobilenet)。
- 升级量化功能
- 统一量化模型格式;离线量化支持while op;修复BERT大模型量化训练过慢的问题。
- - 新增7种[离线量化方法](docs/zh_cn/tutorials/quant/post_training_quantization.md), 包括HIST, AVG, EMD, Bias Correction, AdaRound等。
+ - 新增7种[离线量化方法](docs/zh_cn/tutorials/quant/Quantization_intro.md), 包括HIST, AVG, EMD, Bias Correction, AdaRound等。
- 支持半结构化稀疏训练
- 新增延时预估工具
- 支持对稀疏化模型、低比特量化模型的性能预估;支持预估指定模型在特定部署环境下 (ARM CPU + Paddle Lite) 的推理性能;提供 SD625、SD710、RK3288 芯片 + Paddle Lite 的预估接口。
@@ -126,8 +129,6 @@ PaddleSlim支持以下功能,也支持自定义量化、裁剪等功能。
- *表示仅支持静态图,**表示仅支持动态图
- 敏感度裁剪指的是通过各个层的敏感度分析来确定各个卷积层的剪裁率,需要和其他裁剪方法配合使用。
-### 多场景效果展示
-
PaddleSlim在典型视觉和自然语言处理任务上做了模型压缩,并且测试了Nvidia GPU、ARM等设备上的加速情况,这里展示部分模型的压缩效果,详细方案可以参考下面CV和NLP模型压缩方案:
@@ -135,51 +136,40 @@ PaddleSlim在典型视觉和自然语言处理任务上做了模型压缩,并
表1: 部分场景模型压缩加速情况
-注:
+
+注意事项
+
- YOLOv3: 在移动端SD855上加速3.55倍。
- PP-OCR: 体积由8.9M减少到2.9M, 在SD855上加速1.27倍。
- BERT: 模型参数由110M减少到80M,精度提升的情况下,Tesla T4 GPU FP16计算加速1.47倍。
+
-### 自动压缩效果展示
+### 不同压缩方法效果
+
+自动压缩效果
表3: 自动压缩效果
-### 离线量化效果对比
+
+
+
+离线量化效果对比
表2: 多种离线量化方法效果对比
-## 文档教程
-
-## 版本对齐
-
-| PaddleSlim | PaddlePaddle | PaddleLite |
-| :-----------: | :------------: | :------------:|
-| 1.0.1 | <=1.7 | 2.7 |
-| 1.1.1 | 1.8 | 2.7 |
-| 1.2.0 | 2.0Beta/RC | 2.8 |
-| 2.0.0 | 2.0 | 2.8 |
-| 2.1.0 | 2.1.0 | 2.8 |
-| 2.1.1 | 2.1.1 | >=2.8 |
-| 2.3.0 | 2.3.0 | >=2.11 |
-
-
+
## 安装
-安装最新版本:
+安装发布版本:
```bash
-pip install paddleslim -i https://pypi.tuna.tsinghua.edu.cn/simple
-```
-
-安装指定版本:
-```bash
-pip install paddleslim==2.3.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
+pip install paddleslim
```
安装develop版本:
@@ -188,13 +178,23 @@ git clone https://github.com/PaddlePaddle/PaddleSlim.git & cd PaddleSlim
python setup.py install
```
-### 验证安装
+- 验证安装:安装完成后您可以使用 python 或 python3 进入 python 解释器,输入import paddleslim, 没有报错则说明安装成功。
+- 版本对齐:
-安装完成后您可以使用 python 或 python3 进入 python 解释器,输入import paddleslim, 没有报错则说明安装成功。
+| PaddleSlim | PaddlePaddle | PaddleLite |
+| :-----------: | :------------: | :------------:|
+| 2.0.0 | 2.0 | 2.8 |
+| 2.1.0 | 2.1.0 | 2.8 |
+| 2.1.1 | 2.1.1 | >=2.8 |
+| 2.3.0 | 2.3.0 | >=2.11 |
+| 2.4.0 | 2.4.0 | >=2.11 |
-### 快速开始
+## 文档教程
+
+### 模型压缩技术
+- [模型量化技术](docs/zh_cn/tutorials/quant/Quantization_intro.md)
-快速开始教程是能基于CIFAR10数据集快速运行起来的简单示例,若您是Paddle官方模型套件用户,请直接使用下方的CV模型压缩或者NLP模型压缩中教程。
+### 快速开始
- 🔥 [自动压缩](example/auto_compression)
- [量化训练](docs/zh_cn/quick_start/static/quant_aware_tutorial.md)
@@ -232,13 +232,16 @@ python setup.py install
- [知识蒸馏示例](demo/distillation)
-#### 推理部署
+### 推理部署
+- [Benchmark](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/zh_cn/QUANT_BENCHMARK.md)
+- 量化部署支持的预测库:
+ - Paddle Inference:[GPU量化部署](demo/quant/deploy/TensorRT/README.md)、Intel CPU量化部署。
+ - Paddle Lite:[量化部署](docs/zh_cn/deploy/deploy_cls_model_on_mobile_device.md)
+ - ONNX
-- [Intel CPU量化部署](demo/mkldnn_quant/README.md)
-- [Nvidia GPU量化部署](demo/quant/deploy/TensorRT/README.md)
-- [PaddleLite量化部署](docs/zh_cn/deploy/deploy_cls_model_on_mobile_device.md)
+## CV模型压缩
+### 多场景效果展示
-### CV模型压缩
本系列教程均基于Paddle官方的模型套件中模型进行压缩,若您不是模型套件用户,更推荐使用快速教程和进阶教程。
- 检测模型压缩
--
GitLab