Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
6fa5ac61
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
大约 1 年 前同步成功
通知
115
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
6fa5ac61
编写于
4月 15, 2020
作者:
D
dyning
提交者:
GitHub
4月 15, 2020
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #34 from littletomatodonkey/add_application_doc
fix aug doc
上级
201ca253
ec88e0b3
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
43 addition
and
21 deletion
+43
-21
docs/zh_CN/advanced_tutorials/distillation/distillation.md
docs/zh_CN/advanced_tutorials/distillation/distillation.md
+15
-5
docs/zh_CN/advanced_tutorials/image_augmentation/ImageAugment.md
..._CN/advanced_tutorials/image_augmentation/ImageAugment.md
+28
-16
未找到文件。
docs/zh_CN/advanced_tutorials/distillation/distillation.md
浏览文件 @
6fa5ac61
...
...
@@ -133,9 +133,9 @@ cd model_final # enter model dir
for
var
in
./
*
_student
;
do
cp
"
$var
"
"../student_model/
${
var
%_student
}
"
;
done
# batch copy and rename
```
#
#
四、蒸馏模型的应用
# 四、蒸馏模型的应用
##
#
4.1 使用方法
## 4.1 使用方法
*
中间层学习率调整。蒸馏得到的模型的中间层特征图更加精细化,因此将蒸馏模型预训练应用到其他任务中时,如果采取和之前相同的学习率,容易破坏中间层特征。而如果降低整体模型训练的学习率,则会带来训练收敛速度慢的问题。因此我们使用了中间层学习率调整的策略。具体地:
*
针对ResNet50_vd,我们设置一个学习率倍数列表,res block之前的3个conv2d卷积参数具有统一的学习率倍数,4个res block的conv2d分别有一个学习率参数,共需设置5个学习率倍数的超参。在实验中发现。用于迁移学习finetune分类模型时,
`[0.1,0.1,0.2,0.2,0.3]`
的中间层学习率倍数设置在绝大多数的任务中都性能更好;而在目标检测任务中,
`[0.05,0.05,0.05,0.1,0.15]`
的中间层学习率倍数设置能够带来更大的精度收益。
...
...
@@ -145,7 +145,7 @@ for var in ./*_student; do cp "$var" "../student_model/${var%_student}"; done #
*
适当的l2 decay。不同分类模型在训练的时候一般都会根据模型设置不同的l2 decay,大模型为了防止过拟合,往往会设置更大的l2 decay,如ResNet50等模型,一般设置为
`1e-4`
;而如MobileNet系列模型,在训练时往往都会设置为
`1e-5~4e-5`
,防止模型过度欠拟合,在蒸馏时亦是如此。在将蒸馏模型应用到目标检测任务中时,我们发现也需要调节backbone甚至特定任务模型模型的l2 decay,和预训练蒸馏时的l2 decay尽可能保持一致。以Faster RCNN MobiletNetV3 FPN为例,我们发现仅修改该参数,在COCO2017数据集上就可以带来最多0.5%左右的精度(mAP)提升(默认Faster RCNN l2 decay为1e-4,我们修改为1e-5~4e-5均有0.3%~0.5%的提升)。
##
##
4.2 迁移学习finetune
## 4.2 迁移学习finetune
*
为验证迁移学习的效果,我们在10个小的数据集上验证其效果。在这里为了保证实验的可对比性,我们均使用ImageNet1k数据集训练的标准预处理过程,对于蒸馏模型我们也添加了蒸馏模型中间层学习率的搜索。
*
对于ResNet50_vd,baseline为Top1 Acc 79.12%的预训练模型基于grid search搜索得到的最佳精度,对比实验则为基于该精度对预训练和中间层学习率进一步搜索得到的最佳精度。下面给出10个数据集上所有baseline和蒸馏模型的精度对比。
...
...
@@ -166,7 +166,7 @@ for var in ./*_student; do cp "$var" "../student_model/${var%_student}"; done #
*
可以看出在上面10个数据集上,结合适当的中间层学习率倍数设置,蒸馏模型平均能够带来1%以上的精度提升。
##
#
4.3 目标检测
## 4.3 目标检测
我们基于两阶段目标检测Faster/Cascade RCNN模型验证蒸馏得到的预训练模型的效果。
...
...
@@ -183,7 +183,17 @@ for var in ./*_student; do cp "$var" "../student_model/${var%_student}"; done #
在这里可以看出,对于未蒸馏模型,过度调整中间层学习率反而降低最终检测模型的性能指标。基于该蒸馏模型,我们也提供了领先的服务端实用目标检测方案,详细的配置与训练代码均已开源,可以参考
[
PaddleDetection
](
https://github.com/PaddlePaddle/PaddleDetection/tree/master/configs/rcnn_server_side_det
)
。
### 参考文献
# 五、SSLD实战
*
该部分内容正在持续更新中,敬请期待。
**此处插播一条硬广~**
> 如果您觉得此文档对您有帮助,欢迎star、watch、fork,三连我们的项目:[https://github.com/PaddlePaddle/PaddleClas](https://github.com/PaddlePaddle/PaddleClas)
# 参考文献
[1] Hinton G, Vinyals O, Dean J. Distilling the knowledge in a neural network[J]. arXiv preprint arXiv:1503.02531, 2015.
...
...
docs/zh_CN/advanced_tutorials/image_augmentation/ImageAugment.md
浏览文件 @
6fa5ac61
# 一、数据增广
在图像分类任务中,图像数据的增广是一种常用的正则化方法,尤其对于数据量不足或者模型参数较多的场景。在本章节中,我们将对除 ImageNet 分类任务标准数据增广外的8种数据增广方式进行简单的介绍和对比,用户也可以将这些增广方法应用到自己的任务中,以获得模型精度的提升。
在图像分类任务中,图像数据的增广是一种常用的正则化方法,常用于数据量不足或者模型参数较多的场景。在本章节中,我们将对除 ImageNet 分类任务标准数据增广外的8种数据增广方式进行简单的介绍和对比,用户也可以将这些增广方法应用到自己的任务中,以获得模型精度的提升。这8种数据增广方式在ImageNet上的精度指标如下所示。
![](
../../../images/image_aug/main_image_aug.png
)
# 二、常用数据增广方法
...
...
@@ -18,9 +20,9 @@
相比于上述标准的图像增广方法,研究者也提出了很多改进的图像增广策略,这些策略均是在标准增广方法的不同阶段插入一定的操作,基于这些策略操作所处的不同阶段,我们将其分为了三类:
1.
对
`RandCrop`
后的 224 的图像进行一些变换
:
AutoAugment,RandAugment
2.
对
`Transpose`
后的 224 的图像进行一些裁剪:CutOut,RandErasing,HideAndSeek,GridMask
3.
对
`Batch`
后的数据进行混合
:
Mixup,Cutmix
1.
对
`RandCrop`
后的 224 的图像进行一些变换
:
AutoAugment,RandAugment
2.
对
`Transpose`
后的 224 的图像进行一些裁剪:
CutOut,RandErasing,HideAndSeek,GridMask
3.
对
`Batch`
后的数据进行混合
:
Mixup,Cutmix
具体如下表所示:
...
...
@@ -39,9 +41,9 @@
|
**Process**
| (N, 3, 224, 224)
<br>
float32 | (N, 3, 224, 224)
<br>
float32 |
\-
|
\-
|
\-
|
\-
|
\-
|
\-
| Y | Y |
PaddleClas中集成了上述所有的数据增广策略
,
下文将介绍这些策略的原理与使用方法,并以下图为例,对变换后的效果进行可视化。为了说明问题,本章节中将
`RandCrop`
替换为
`Resize`
。
PaddleClas中集成了上述所有的数据增广策略
。
下文将介绍这些策略的原理与使用方法,并以下图为例,对变换后的效果进行可视化。为了说明问题,本章节中将
`RandCrop`
替换为
`Resize`
。
![
test_baseline
][
test_baseline
]
![][
test_baseline
]
# 三、图像变换类
...
...
@@ -83,7 +85,7 @@ for f in fnames:
结果如下图所示。
![
test_autoaugment
][
test_autoaugment
]
![][
test_autoaugment
]
## 3.2 RandAugment
...
...
@@ -122,7 +124,7 @@ for f in fnames:
结果如下图所示。
![
test_randaugment
][
test_randaugment
]
![][
test_randaugment
]
# 四、图像裁剪类
...
...
@@ -172,7 +174,7 @@ for f in fnames:
结果如下图所示。
![
test_cutout
][
test_cutout
]
![][
test_cutout
]
## 4.2 RandomErasing
...
...
@@ -210,7 +212,7 @@ for f in fnames:
结果如下图所示。
![
test_randomerassing
][
test_randomerassing
]
![][
test_randomerassing
]
## 4.3 HideAndSeek
...
...
@@ -223,7 +225,7 @@ for f in fnames:
`HideAndSeek`
论文将图像分为若干块区域(patch),对于每块区域,都以一定的概率生成掩码,不同区域的掩码含义如下图所示。
![
hide_and_seek_mask_expanation
][
hide_and_seek_mask_expanation
]
![][
hide_and_seek_mask_expanation
]
PaddleClas中
`HideAndSeek`
的使用方法如下所示。
...
...
@@ -253,7 +255,7 @@ for f in fnames:
结果如下图所示。
![
test_hideandseek
][
test_hideandseek
]
![][
test_hideandseek
]
## 4.4 GridMask
...
...
@@ -267,7 +269,7 @@ for f in fnames:
1.
过度删除区域可能造成目标主体大部分甚至全部被删除,或者导致上下文信息的丢失,导致增广后的数据成为噪声数据;
2.
保留过多的区域,对目标主体及上下文基本产生不了什么影响,失去增广的意义。
![
gridmask-0
][
gridmask-0
]
![][
gridmask-0
]
因此如果避免过度删除或过度保留成为需要解决的核心问题。
...
...
@@ -312,7 +314,7 @@ for f in fnames:
结果如下图所示。
![
test_gridmask
][
test_gridmask
]
![][
test_gridmask
]
# 五、图像混叠
...
...
@@ -368,7 +370,7 @@ new_batch = mixup_op(batch)
结果如下图所示。
![
test_mixup
][
test_mixup
]
![][
test_mixup
]
## 5.2 Cutmix
...
...
@@ -409,7 +411,7 @@ new_batch = cutmix_op(batch)
结果如下图所示。
![
test_cutmix
][
test_cutmix
]
![][
test_cutmix
]
...
...
@@ -434,6 +436,16 @@ new_batch = cutmix_op(batch)
*
我们目前尚未对不同策略进行组合并验证效果,这一块后续我们会开展更多的对比实验,敬请期待。
# 七、数据增广分类实战
*
该部分内容正在持续更新中,敬请期待。
**此处插播一条硬广~**
> 如果您觉得此文档对您有帮助,欢迎star、watch、fork,三连我们的项目:[https://github.com/PaddlePaddle/PaddleClas](https://github.com/PaddlePaddle/PaddleClas)
# 参考文献
[1] Cubuk E D, Zoph B, Mane D, et al. Autoaugment: Learning augmentation strategies from data[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2019: 113-123.
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录