Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
a64283b2
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
大约 1 年 前同步成功
通知
115
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
a64283b2
编写于
6月 13, 2022
作者:
C
cuicheng01
提交者:
GitHub
6月 13, 2022
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #2028 from cuicheng01/update_PULC_train
Update pulc train
上级
e9309fbe
030debdc
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
204 addition
and
59 deletion
+204
-59
docs/zh_CN/PULC/PULC_train.md
docs/zh_CN/PULC/PULC_train.md
+204
-59
未找到文件。
docs/zh_CN/PULC/PULC_train.md
浏览文件 @
a64283b2
## 超轻量图像分类方案PULC
### 0. PULC方案简介
图像分类是计算机视觉的基础算法之一,是企业应用中最常见的算法,也是许多CV应用的重要组成部分。
近年来,骨干网络模型发展迅速,Imagenet的精度纪录被不断刷新。然而,这些模型在实用场景的表现有时却不尽如人意。
一方面,精度高的模型往往体积大,运算慢,常常难以满足实际部署需求;另一方面,选择了合适的模型之后,往往还需要经验丰富的工程师进行调参,
费时费力。PaddleClas为了解决企业应用难题,让分类模型的训练和调参更加容易,总结推出了实用轻量图像分类解决方案PULC。
PULC融合了骨干网络、数据增广、蒸馏等多种前沿算法,可以自动训练得到轻量且高精度的图像分类模型。
方案在人、车、OCR等方向的多个场景中均验证有效,用超轻量模型就可实现与SwinTransformer模型接近的精度,预测速度提高50倍。
------
## 目录
-
[
1. PULC方案简介
](
#1
)
-
[
2. 数据准备
](
#2
)
-
[
2.1 数据集格式说明
](
#2.1
)
-
[
2.2 标注文件生成
](
#2.2
)
-
[
3. 使用标准分类配置进行训练
](
#3
)
-
[
3.1 骨干网络PP-LCNet
](
#3.1
)
-
[
3.2 SSLD预训练权重
](
#3.2
)
-
[
3.3 EDA数据增强策略
](
#3.3
)
-
[
3.4 SKL-UGI模型蒸馏
](
#3.4
)
-
[
3.5 总结
](
#3.5
)
-
[
4. 超参搜索
](
#4
)
-
[
4.1 基于默认配置搜索
](
#4.1
)
-
[
4.2 自定义搜索配置
](
#4.2
)
<a
name=
"1"
></a>
### 1. PULC方案简介
图像分类是计算机视觉的基础算法之一,是企业应用中最常见的算法,也是许多 CV 应用的重要组成部分。近年来,骨干网络模型发展迅速,ImageNet 的精度纪录被不断刷新。然而,这些模型在实用场景的表现有时却不尽如人意。一方面,精度高的模型往往体积大,运算慢,常常难以满足实际部署需求;另一方面,选择了合适的模型之后,往往还需要经验丰富的工程师进行调参,费时费力。PaddleClas 为了解决企业应用难题,让分类模型的训练和调参更加容易,总结推出了实用轻量图像分类解决方案(PULC, Practical Ultra Lightweight Classification)。PULC融合了骨干网络、数据增广、蒸馏等多种前沿算法,可以自动训练得到轻量且高精度的图像分类模型。
PULC 方案在人、车、OCR等方向的多个场景中均验证有效,用超轻量模型就可实现与SwinTransformer模型接近的精度,预测速度提高 40+ 倍。
<div
align=
"center"
>
<img
src=
"https://user-images.githubusercontent.com/19523330/17
2054976-e12d2c9b-439f-469d-b520-56bb5c3e6215.png"
/>
<img
src=
"https://user-images.githubusercontent.com/19523330/17
3011854-b10fcd7a-b799-4dfd-a1cf-9504952a3c44.png"
width =
"800"
/>
</div>
方案主要包括4部分,分别是:PP-LCNet轻量级骨干网络、SSLD预训练权重、数据增强策略集成和SKL-UGI知识蒸馏算法。此外,我们还采用了超参搜索的方法,高效优化训练中的超参数。
下面,我们以有人/无人场景为例,对方案进行说明。
方案主要包括 4 部分,分别是:PP-LCNet轻量级骨干网络、SSLD预训练权重、数据增强策略集成(EDA)和 SKL-UGI 知识蒸馏算法。此外,我们还采用了超参搜索的方法,高效优化训练中的超参数。下面,我们以有人/无人场景为例,对方案进行说明。
**注**
:针对一些特定场景,我们提供了基础的训练文档供参考,例如
[
有人/无人分类模型
](
PULC_person_exists.md
)
等,您可以在
[
这里
](
)找到这些文档。
如果这些文档中的方法不能满足您的需求,或者您需要自定义训练任务,您可以参考本文档。
**备注**
:针对一些特定场景,我们提供了基础的训练文档供参考,例如
[
有人/无人分类模型
](
PULC_person_exists.md
)
等,您可以在
[
这里
](
./PULC_model_list.md
)
找到这些文档。如果这些文档中的方法不能满足您的需求,或者您需要自定义训练任务,您可以参考本文档。
### 1. 数据准备
#### 1.1 数据集格式说明
<a
name=
"2"
></a>
PaddleClas 使用
`txt`
格式文件指定训练集和测试集,以有人无人场景为例,其中
`train_list.txt`
和
`val_list.txt`
的格式形如:
### 2. 数据准备
```
shell
<a
name=
"2.1"
></a>
#### 2.1 数据集格式说明
PaddleClas 使用
`txt`
格式文件指定训练集和测试集,以有人/无人场景为例,其中需要指定
`train_list.txt`
和
`val_list.txt`
当作训练集和验证集的数据标签,格式形如:
```
# 每一行采用"空格"分隔图像路径与标注
train/1.jpg 0
train/10.jpg 1
...
```
如果您想获取更多常用分类数据集的信息,可以参考文档
[
常见分类说明
](
../data_preparation/classification_dataset.md
)
。
// todo@cuicheng v2.4.1 1.2有人无人场景数据获取代码。整理obj365数据提取的数据并说明
。
如果您想获取更多常用分类数据集的信息,可以参考文档可以参考
[
PaddleClas 分类数据集格式说明
](
../data_preparation/classification_dataset.md#1-数据集格式说明
)
。
<a
name=
"2.2"
></a>
#### 2.2 标注文件生成
#### 1.2 标注文件生成
如果您已经有实际场景中的数据,那么按照上节的格式进行标注即可。这里,我们提供了一个快速生成数据的脚本,您只需要将不同类别的数据分别放在文件夹中,运行脚本即可生成标注文件。
// todo 数据脚本。
### 2. 使用标准分类配置进行训练
#### 2.1 骨干网络PP-LCNet
PULC采用了轻量骨干网络PP-LCNet,相比同精度竞品速度快50%,您可以在
[
这里
](
../models/PP-LCNet.md
)
找到详细介绍。
首先,假设您存放数据的路径为
`./train`
,
`train/`
中包含了每个类别的数据,类别号从 0 开始,每个类别的文件夹中有具体的图像数据。
```
shell
train
├── 0
│ ├── 0.jpg
│ ├── 1.jpg
│ └── ...
└── 1
├── 0.jpg
├── 1.jpg
└── ...
└── ...
```
```
shell
tree
-r
-i
-f
train |
grep
-E
"jpg|JPG|jpeg|JPEG|png|PNG"
|
awk
-F
"/"
'{print $0" "$2}'
>
train_list.txt
```
其中,如果需要传入更多的数据类型,可以增加
`grep -E`
后的内容,
`$2`
中的
`2`
为类别号文件夹的层级。
**备注:**
以上为数据集获取和生成的方法介绍,这里您可以直接下载有人/无人场景数据快速开始体验。
进入 PaddleClas 目录。
```
cd path_to_PaddleClas
```
进入
`dataset/`
目录,下载并解压有人/无人场景的数据。
```
shell
cd
dataset
wget https://paddleclas.bj.bcebos.com/data/PULC/person_exists.tar
tar
-xf
person_exists.tar
cd
../
```
<a
name=
"3"
></a>
### 3. 使用标准分类配置进行训练
<a
name=
"3.1"
></a>
#### 3.1 骨干网络PP-LCNet
PULC采用了轻量骨干网络PP-LCNet,相比同精度竞品速度快50%,您可以在
[
PP-LCNet介绍
](
../models/PP-LCNet.md
)
查阅该骨干网络的详细介绍。
直接使用PP-LCNet训练的命令为:
**todo**
```
shell
export
CUDA_VISIBLE_DEVICES
=
0,1,2,3
python3
-m
paddle.distributed.launch
\
--gpus
=
"0,1,2,3"
\
tools/train.py
\
-c
./ppcls/configs/PULC/person_exists/PPLCNet_x1_0.yaml
```
为了方便性能对比,我们也提供了大模型 SwinTransformer 和轻量模型 MobileNetV3 的配置文件,您可以使用命令训练:
SwinTransformer:
```
shell
export
CUDA_VISIBLE_DEVICES
=
0,1,2,3
python3
-m
paddle.distributed.launch
\
--gpus
=
"0,1,2,3"
\
tools/train.py
\
-c
./ppcls/configs/PULC/person_exists/SwinTransformer_tiny_patch4_window7_224.yaml
```
MobileNetV3:
```
shell
export
CUDA_VISIBLE_DEVICES
=
0,1,2,3
python3
-m
paddle.distributed.launch
\
--gpus
=
"0,1,2,3"
\
tools/train.py
\
-c
./ppcls/configs/PULC/person_exists/MobileNetV3_small_x0_35.yaml
```
训练得到的模型精度对比如下表。
| 模型 | Tpr(%) | 延时(ms) | 存储(M) | 策略 |
|-------|-----------|----------|---------------|---------------|
| SwinTranformer_tiny | 95.69 | 95.30 | 107 | 使用 ImageNet 预训练模型 |
| MobileNetV3_small_x0_35 | 68.25 | 2.85 | 1.6 | 使用 ImageNet 预训练模型 |
| PPLCNet_x1_0 | 89.57 | 2.12 | 6.5 | 使用 ImageNet 预训练模型 |
从中可以看出,PP-LCNet 的速度比 SwinTransformer 快很多,但是精度也略低。下面我们通过一系列优化来提高 PP-LCNet 模型的精度。
为了方便性能对比,我们也提供了大模型SwinTransformer和轻量模型MobileNet的配置文件,您可以使用命令训练:
<a
name=
"3.2"
></a>
**todo**
#### 3.2 SSLD预训练权重
训练得到的模型精度对比如下表。从中可以看出,LCNet的速度比SwinTransformer快很多,但是精度也略低
。
下面我们通过一系列优化来提高PP-LCNet模型的精度
。
SSLD 是百度自研的半监督蒸馏算法,在 ImageNet 数据集上,模型精度可以提升 3-7 个点,您可以在
[
SSLD 介绍
](
../advanced_tutorials/ssld.md
)
找到详细介绍。我们发现,使用SSLD预训练权重,可以有效提升应用分类模型的精度。此外,在训练中使用更小的分辨率,可以有效提升模型精度。同时,我们也对学习率进行了优化
。
基于以上三点改进,我们训练得到模型精度为 92.1%,提升 2.6%
。
#### 2.2 SSLD预训练权重
SSLD是百度自研的半监督蒸馏算法,在ImageNet数据集上,模型精度可以提升3-7个点,您可以在
[
这里
](
../algorithm_introduction/#2
)
找到详细介绍。
我们发现,使用SSLD预训练权重,可以提升应用分类模型的精度。此外,使用SSLD预训练权重也有助于其他策略精度提升。
此外,根据
**todo**
,在训练中使用略低一点的分辨率,可以有效提升模型精度。同时,我们也对学习率进行了优化。
基于以上三点改进,我们训练得到模型精度为
**todo**
,提升
**todo**
。
<a
name=
"3.3"
></a>
#### 2.3 EDA数据增广策略
数据增广是视觉算法中常用的优化策略,可以对模型精度有明显提升。除了传统的RandomCrop,RandomFlip等方法之外,我们还应用了RandomAugment和RandomErasing。
您可以在
[
这里
](
../advanced_tutorials/DataAugmentation.md
)
找到详细介绍。
由于这两种数据增强对图片的修改较大,使任务变难,在一些小数据集上可能会导致模型欠拟合,我们将这两种方法启用的概率设为10%。
基于以上改进,我们训练得到模型精度为
**todo**
,提升
**todo**
。
#### 3.3 EDA数据增强策略
#### 2.4 SKL-UGI模型蒸馏
模型蒸馏是一种可以有效提升小模型精度的方法,您可以在
[
这里
](
todo@ruoyu
)
找到详细介绍。
我们选择ResNet101作为教师模型进行蒸馏。
**todo @cuicheng,对lr_mult进行说明**
基于以上改进,我们训练得到模型精度为
**todo**
,提升:
**
todo。
#### 2.5 总结
经过以上方法优化,PP-LCNet最终精度达到
**todo**
,达到了大模型的精度水平。我们将实验结果总结如下表:
**todo**
我们在其他9个场景中也使用了同样的优化策略,得到如下结果:
**todo**
数据增强是视觉算法中常用的优化策略,可以对模型精度有明显提升。除了传统的 RandomCrop,RandomFlip 等方法之外,我们还应用了 RandomAugment 和 RandomErasing。您可以在
[
数据增强介绍
](
../advanced_tutorials/DataAugmentation.md
)
找到详细介绍。
由于这两种数据增强对图片的修改较大,使分类任务变难,在一些小数据集上可能会导致模型欠拟合,我们将提前设置好这两种方法启用的概率。
基于以上改进,我们训练得到模型精度为 93.43%,提升 1.3%。
从结果可以看出,PULC优化方法在多个应用场景中均可提升模型精度。虽然并非每种方法都有正向收益,但是使用PULC可以大大减少模型优化的工作量,快速得到精度较高的模型。
<a
name=
"3.4"
></a>
#### 3.4 SKL-UGI模型蒸馏
模型蒸馏是一种可以有效提升小模型精度的方法,您可以在
[
知识蒸馏介绍
](
../advanced_tutorials/knowledge_distillation.md
)
找到详细介绍。我们选择 ResNet101_vd 作为教师模型进行蒸馏。为了适应蒸馏过程,我们在此也对网络不同 stage 的学习率进行了调整。基于以上改进,我们训练得到模型精度为 95.6%,提升 1.4%。
<a
name=
"3.5"
></a>
#### 3.5 总结
经过以上方法优化,PP-LCNet最终精度达到 95.6%,达到了大模型的精度水平。我们将实验结果总结如下表:
| 模型 | Tpr(%) | 延时(ms) | 存储(M) | 策略 |
|-------|-----------|----------|---------------|---------------|
| SwinTranformer_tiny | 95.69 | 95.30 | 107 | 使用 ImageNet 预训练模型 |
| MobileNetV3_small_x0_35 | 68.25 | 2.85 | 1.6 | 使用 ImageNet 预训练模型 |
| PPLCNet_x1_0 | 89.57 | 2.12 | 6.5 | 使用 ImageNet 预训练模型 |
| PPLCNet_x1_0 | 92.10 | 2.12 | 6.5 | 使用 SSLD 预训练模型 |
| PPLCNet_x1_0 | 93.43 | 2.12 | 6.5 | 使用 SSLD 预训练模型+EDA 策略|
|
<b>
PPLCNet_x1_0
<b>
|
<b>
95.60
<b>
|
<b>
2.12
<b>
|
<b>
6.5
<b>
| 使用 SSLD 预训练模型+EDA 策略+SKL-UGI 知识蒸馏策略|
我们在其他 8 个场景中也使用了同样的优化策略,得到如下结果:
| 场景 | 大模型 | 大模型精度(%) | 小模型 | 小模型精度(%) |
|----------|----------|----------|----------|----------|
| 人体属性识别 | Res2Net200_vd | 81.25 | PPLCNet_x1_0 | 78.59 |
| 佩戴安全帽分类 | Res2Net200_vd| 98.92 | PPLCNet_x1_0 |99.38 |
| 交通标志分类 | SwinTransformer_tiny | 98.11 | PPLCNet_x1_0 | 98.35 |
| 车辆属性识别 | Res2Net200_vd_26w_4s | 91.36 | PPLCNet_x1_0 | 90.81 |
| 有车/无车分类 | SwinTransformer_tiny | 97.71 | PPLCNet_x1_0 | 90.81 |
| 含文字图像方向分类 | SwinTransformer_tiny |99.12 | PPLCNet_x1_0 | 99.06 |
| 文本行方向分类 | SwinTransformer_tiny | 93.61 | PPLCNet_x1_0 | 96.01 |
| 语种分类 | SwinTransformer_tiny | 98.12 | PPLCNet_x1_0 | 99.26 |
从结果可以看出,PULC 方案在多个应用场景中均可提升模型精度。使用 PULC 方案可以大大减少模型优化的工作量,快速得到精度较高的模型。
<a
name=
"4"
></a>
### 4. 超参搜索
### 3. 超参搜索
在上述训练过程中,我们调节了学习率、数据增广方法开启概率、分阶段学习率倍数等参数。
这些参数在不同场景中最优值可能并不相同。我们提供了一个快速超参搜索的脚本,将超参调优的过程自动化。
这个脚本会遍历搜索值列表中的参数来替代默认配置中的参数,依次训练,最终选择精度最高的模型所对应的参数作为搜索结果。
#### 3.1 基于默认配置搜索
配置文件
[
search.yaml
](
todo
)
定义了有人/无人场景超参搜索的配置,使用命令
**todo**
,可以使用默认的超参数搜索配置进行训练,最终可得训练结果为:
**todo**
#### 3.2 自定义搜索配置
<a
name=
"4.1"
></a>
#### 4.1 基于默认配置搜索
配置文件
[
search.yaml
](
../../ppcls/configs/PULC/person_exists/search.yaml
)
定义了有人/无人场景超参搜索的配置,使用如下命令即可完成超参数的搜索。
```
bash
python3 tools/search_strategy.py
-c
ppcls/configs/PULC/person_exists/search.yaml
```
**备注**
:关于搜索部分,我们也在不断优化,敬请期待。
<a
name=
"4.2"
></a>
#### 4.2 自定义搜索配置
您也可以根据训练结果或调参经验,修改超参搜索的配置。
修改
**todo**
字段,可以修改学习率搜索值列表;
修改
`lrs`
中的
`search_values`
字段,可以修改学习率搜索值列表;
修改
`resolutions`
中的
`search_values`
字段,可以修改分辨率的搜索值列表;
修改
**todo**
字段,可以修改RandAugment开启概率的搜索值列表;
修改
`ra_probs`
中的
`search_values`
字段,可以修改 RandAugment 开启概率的搜索值列表;
修改
`re_probs`
中的
`search_values`
字段,可以修改 RnadomErasing 开启概率的搜索值列表;
修改
**todo**
字段,可以修改RnadomErasing开启概率的
搜索值列表;
修改
`lr_mult_list`
中的
`search_values`
字段,可以修改 lr_mult
搜索值列表;
修改
**todo**
字段,可以修改lr_mult搜索值列表;
修改
`teacher`
中的
`search_values`
字段,可以修改教师模型的搜索列表。
修改
**todo**
字段,可以修改教师模型的搜索列表
。
搜索完成后,会在
`output/search_person_exists`
中生成最终的结果,其中,除
`search_res`
外
`output/search_person_exists`
中目录为对应的每个搜索的超参数的结果的权重和训练日志文件,
`search_res`
对应的是蒸馏后的结果,也就是最终的模型,该模型的权重保存在
`output/output_dir/search_person_exists/DistillationModel/best_model_student.pdparams`
。
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录