README.md 32.6 KB
Newer Older
D
dangqingqing 已提交
1 2 3
图像分类
=======

L
Luo Tao 已提交
4 5
本教程源代码目录在[book/image_classification](https://github.com/PaddlePaddle/book/tree/develop/image_classification), 初次使用请参考PaddlePaddle[安装教程](http://www.paddlepaddle.org/doc_cn/build_and_install/index.html)

D
dangqingqing 已提交
6 7
## 背景介绍 

D
dangqingqing 已提交
8
图像相比文字能够提供更加生动、容易理解及更具艺术感的信息,是人们转递与交换信息的重要来源。在本教程中,我们专注于图像识别领域的一个重要问题,即图像分类。
D
dangqingqing 已提交
9

D
dangqingqing 已提交
10
图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。图像分类在很多领域有广泛应用,包括安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索和相册自动归类,医学领域的图像识别等。
D
dangqingqing 已提交
11 12


D
dangqingqing 已提交
13
一般来说,图像分类通过手工特征或特征学习方法对整个图像进行全部描述,然后使用分类器判别物体类别,因此如何提取图像的特征至关重要。在深度学习算法之前使用较多的是基于词袋(Bag of Words)模型的物体分类方法。词袋方法从自然语言处理中引入,即一句话可以用一个装了词的袋子表示其特征,袋子中的词为句子中的单词、短语或字。对于图像而言,词袋方法需要构建字典。最简单的词袋模型框架可以设计为**底层特征抽取****特征编码****分类器设计**三个过程。
D
dangqingqing 已提交
14

D
dangqingqing 已提交
15
而基于深度学习的图像分类方法,可以通过有监督或无监督的方式**学习**层次化的特征描述,从而取代了手工设计或选择图像特征的工作。深度学习模型中的卷积神经网络(Convolution Neural Network, CNN)近年来在图像领域取得了惊人的成绩,CNN直接利用图像像素信息作为输入,最大程度上保留了输入图像的所有信息,通过卷积操作进行特征的提取和高层抽象,模型输出直接是图像识别的结果。这种基于"输入-输出"直接端到端的学习方法取得了非常好的效果,得到了广泛的应用。
D
dangqingqing 已提交
16

D
dangqingqing 已提交
17
本教程主要介绍图像分类的深度学习模型,以及如何使用PaddlePaddle训练CNN模型。
D
dangqingqing 已提交
18 19 20

## 效果展示

D
dangqingqing 已提交
21
图像分类包括通用图像分类、细粒度图像分类等。图1展示了通用图像分类效果,即模型可以正确识别图像上的主要物体。
D
dangqingqing 已提交
22 23

<p align="center">
D
dangqingqing 已提交
24 25
<img src="image/dog_cat.png "  width="350" ><br/>
图1. 通用图像分类展示
D
dangqingqing 已提交
26 27 28
</p>


D
dangqingqing 已提交
29
图2展示了细粒度图像分类-花卉识别的效果,要求模型可以正确识别花的类别。
D
dangqingqing 已提交
30 31 32


<p align="center">
D
dangqingqing 已提交
33
<img src="image/flowers.png" width="400" ><br/>
D
dangqingqing 已提交
34 35 36 37
图2. 细粒度图像分类展示
</p>


D
dangqingqing 已提交
38
一个好的模型既要对不同类别识别正确,同时也应该能够对不同视角、光照、背景、变形或部分遮挡的图像正确识别(这里我们统一称作图像扰动)。图3展示了一些图像的扰动,较好的模型会像聪明的人类一样能够正确识别。
D
dangqingqing 已提交
39 40

<p align="center">
D
dangqingqing 已提交
41
<img src="image/variations.png" width="550" ><br/>
D
dangqingqing 已提交
42
图3. 扰动图片展示[22]
D
dangqingqing 已提交
43 44 45 46
</p>

## 模型概览

D
dangqingqing 已提交
47
图像识别领域大量的研究成果都是建立在[PASCAL VOC](http://host.robots.ox.ac.uk/pascal/VOC/)[ImageNet](http://image-net.org/)等公开的数据集上,很多图像识别算法通常在这些数据集上进行测试和比较。PASCAL VOC是2005年发起的一个视觉挑战赛,ImageNet是2010年发起的大规模视觉识别竞赛(ILSVRC)的数据集,在本章中我们基于这些竞赛的一些论文介绍图像分类模型。
D
dangqingqing 已提交
48

D
dangqingqing 已提交
49
在2012年之前的传统图像分类方法可以用背景描述中提到的三步完成,但通常完整建立图像识别模型一般包括底层特征学习、特征编码、空间约束、分类器设计、模型融合等几个阶段。
D
dangqingqing 已提交
50 51 52 53
  1). **底层特征提取**: 通常从图像中按照固定步长、尺度提取大量局部特征描述。常用的局部特征包括SIFT(Scale-Invariant Feature Transform, 尺度不变特征转换) \[[1](#参考文献)\]、HOG(Histogram of Oriented Gradient, 方向梯度直方图) \[[2](#参考文献)\]、LBP(Local Bianray Pattern, 局部二值模式) \[[3](#参考文献)\] 等,一般也采用多种特征描述子,防止丢失过多的有用信息。
  2). **特征编码**: 底层特征中包含了大量冗余与噪声,为了提高特征表达的鲁棒性,需要使用一种特征变换算法对底层特征进行编码,称作特征编码。常用的特征编码包括向量量化编码 \[[4](#参考文献)\]、稀疏编码 \[[5](#参考文献)\]、局部线性约束编码 \[[6](#参考文献)\]、Fisher向量编码 \[[7](#参考文献)\] 等。
  3). **空间特征约束**: 特征编码之后一般会经过空间特征约束,也称作**特征汇聚**。特征汇聚是指在一个空间范围内,对每一维特征取最大值或者平均值,可以获得一定特征不变形的特征表达。金字塔特征匹配是一种常用的特征聚会方法,这种方法提出将图像均匀分块,在分块内做特征汇聚。
  4). **通过分类器分类**: 经过前面步骤之后一张图像可以用一个固定维度的向量进行描述,接下来就是经过分类器对图像进行分类。通常使用的分类器包括SVM(Support Vector Machine, 支持向量机)、随机森林等。而使用核方法的SVM是最为广泛的分类器,在传统图像分类任务上性能很好。
D
dangqingqing 已提交
54
 
D
dangqingqing 已提交
55
这种方法在PASCAL VOC竞赛中的图像分类算法中被广泛使用 \[[18](#参考文献)\][NEC实验室](http://www.nec-labs.com/)在ILSVRC2010中采用SIFT和LBP特征,两个非线性编码器以及SVM分类器获得图像分类的冠军 \[[8](#参考文献)\]
D
dangqingqing 已提交
56

D
dangqingqing 已提交
57
Alex Krizhevsky在2012年ILSVRC提出的CNN模型 \[[9](#参考文献)\] 取得了历史性的突破,效果大幅度超越传统方法,获得了ILSVRC2012冠军,该模型被称作AlexNet。这也是首次将深度学习用于大规模图像分类中。从AlexNet之后,涌现了一系列CNN模型,不断地在ImageNet上刷新成绩,如图4展示。随着模型变得越来越深以及精妙的结构设计,Top-5的错误率也越来越低,降到了3.5%附近。而在同样的ImageNet数据集上,人眼的辨识错误率大概在5.1%,也就是目前的深度学习模型的识别能力已经超过了人眼。
D
dangqingqing 已提交
58 59

<p align="center">
T
Tao Luo 已提交
60
<img src="image/ilsvrc.png" width="500" ><br/>
D
dangqingqing 已提交
61 62 63
图4. ILSVRC图像分类Top-5错误率
</p>

D
dangqingqing 已提交
64 65
### CNN

D
dangqingqing 已提交
66
传统CNN包含卷积层、全连接层等组件,并采用softmax多类别分类器和多类交叉熵损失函数,一个典型的卷积神经网络如图5所示,我们先介绍用来构造CNN的常见组件。
D
dangqingqing 已提交
67 68 69

<p align="center">
<img src="image/lenet.png"><br/>
D
dangqingqing 已提交
70
图5. CNN网络示例[20] 
D
dangqingqing 已提交
71
</p> 
D
dangqingqing 已提交
72

D
dangqingqing 已提交
73 74 75
- 卷积层(convolution layer): 执行卷积操作提取底层到高层的特征,发掘出图片局部关联性质和空间不变性质。
- 池化层(pooling layer): 执行降采样操作。通过取卷积输出特征图中局部区块的最大值(max-pooling)或者均值(avg-pooling)。降采样也是图像处理中常见的一种操作,可以过滤掉一些不重要的高频信息。
- 全连接层(fully-connected layer,或者fc layer): 输入层到隐藏层的神经元是全部连接的。
D
dangqingqing 已提交
76 77
- 非线性变化: 卷积层、全连接层后面一般都会接非线性变化层,例如Sigmoid、Tanh、ReLu等来增强网络的表达能力,在CNN里最常使用的为ReLu激活函数。
- Dropout \[[10](#参考文献)\] : 在模型训练阶段随机让一些隐层节点权重不工作,提高网络的泛化能力,一定程度上防止过拟合。
D
dangqingqing 已提交
78

D
dangqingqing 已提交
79
另外,在训练过程中由于每层参数不断更新,会导致下一次输入分布发生变化,这样导致训练过程需要精心设计超参数。如2015年Sergey Ioffe和Christian Szegedy提出了Batch Normalization (BN)算法 \[[14](#参考文献)\] 中,每个batch对网络中的每一层特征都做归一化,使得每层分布相对稳定。BN算法不仅起到一定的正则作用,而且弱化了一些超参数的设计。经过实验证明,BN算法加速了模型收敛过程,在后来较深的模型中被广泛使用。
D
dangqingqing 已提交
80

D
dangqingqing 已提交
81
接下来我们主要介绍VGG,GoogleNet和ResNet网络结构。
D
dangqingqing 已提交
82

D
dangqingqing 已提交
83 84
### VGG

D
dangqingqing 已提交
85
牛津大学VGG(Visual Geometry Group)组在2014年ILSVRC提出的模型被称作VGG模型 \[[11](#参考文献)\] 。该模型相比以往模型进一步加宽和加深了网络结构,它的核心是五组卷积操作,每两组之间做Max-Pooling空间降维。同一组内采用多次连续的3X3卷积,卷积核的数目由较浅组的64增多到最深组的512,同一组内的卷积核数目是一样的。卷积之后接两层全连接层,之后是分类层。由于每组内卷积层的不同,有11、13、16、19层这几种模型,下图展示一个16层的网络结构。VGG模型结构相对简洁,提出之后也有很多文章基于此模型进行研究,如在ImageNet上首次公开超过人眼识别的模型\[[19](#参考文献)\]就是借鉴VGG模型的结构。
D
dangqingqing 已提交
86 87

<p align="center">
D
dangqingqing 已提交
88
<img src="image/vgg16.png" width="750" ><br/>
D
dangqingqing 已提交
89
图6. 基于ImageNet的VGG16模型
D
dangqingqing 已提交
90
</p>
D
dangqingqing 已提交
91

D
dangqingqing 已提交
92 93
### GoogleNet

D
dangqingqing 已提交
94
GoogleNet \[[12](#参考文献)\] 在2014年ILSVRC的获得了冠军,在介绍该模型之前我们先来了解NIN(Network in Network)模型 \[[13](#参考文献)\] 和Inception模块,因为GoogleNet模型由多组Inception模块组成,模型设计借鉴了NIN的一些思想。
D
dangqingqing 已提交
95

D
dangqingqing 已提交
96
NIN模型主要有两个特点:1) 引入了多层感知卷积网络(Multi-Layer Perceptron Convolution, MLPconv)代替一层线性卷积网络。MLPconv是一个微小的多层卷积网络,即在线性卷积后面增加若干层1x1的卷积,这样可以提取出高度非线性特征。2) 传统的CNN最后几层一般都是全连接层,参数较多。而NIN模型设计最后一层卷积层包含类别维度大小的特征图,然后采用全局均值池化(Avg-Pooling)替代全连接层,得到类别维度大小的向量,再进行分类。这种替代全连接层的方式有利于减少参数。
D
dangqingqing 已提交
97

D
dangqingqing 已提交
98
Inception模块如下图7所示,图(a)是最简单的设计,输出是3个卷积层和一个池化层的特征拼接。这种设计的缺点是池化层不会改变特征通道数,拼接后会导致特征的通道数较大,经过几层这样的模块堆积后,通道数会越来越大,导致参数和计算量也随之增大。为了改善这个缺点,图(b)引入3个1x1卷积层进行降维,所谓的降维就是减少通道数,同时如NIN模型中提到的1x1卷积也可以修正线性特征。
D
dangqingqing 已提交
99 100

<p align="center">
T
Tao Luo 已提交
101
<img src="image/inception.png" width="800" ><br/>
D
dangqingqing 已提交
102
图7. Inception模块
D
dangqingqing 已提交
103 104
</p>

D
dangqingqing 已提交
105
GoogleNet由多组Inception模块堆积而成。另外,在网络最后也没有采用传统的多层全连接层,而是像NIN网络一样采用了均值池化层;但与NIN不同的是,池化层后面接了一层到类别数映射的全连接层。除了这两个特点之外,由于网络中间层特征也很有判别性,GoogleNet在中间层添加了两个辅助分类器,在后向传播中增强梯度并且增强正则化,而整个网络的损失函数是这个三个分类器的损失加权求和。
D
dangqingqing 已提交
106

D
dangqingqing 已提交
107
GoogleNet整体网络结构如图8所示,总共22层网络:开始由3层普通的卷积组成;接下来由三组子网络组成,第一组子网络包含2个Inception模块,第二组包含5个Inception模块,第三组包含2个Inception模块;然后接均值池化层、全连接层。
D
dangqingqing 已提交
108 109

<p align="center">
D
dangqingqing 已提交
110
<img src="image/googlenet.jpeg" ><br/>
D
dangqingqing 已提交
111
图8. GoogleNet[12] 
D
dangqingqing 已提交
112 113
</p>

D
dangqingqing 已提交
114

D
dangqingqing 已提交
115
上面介绍的是GoogleNet第一版模型(称作GoogleNet-v1)。GoogleNet-v2 \[[14](#参考文献)\] 引入BN层;GoogleNet-v3 \[[16](#参考文献)\] 对一些卷积层做了分解,进一步提高网络非线性能力和加深网络;GoogleNet-v4 \[[17](#参考文献)\] 引入下面要讲的ResNet设计思路。从v1到v4每一版的改进都会带来准确度的提升,介于篇幅,这里不再详细介绍v2到v4的结构。
D
dangqingqing 已提交
116 117


D
dangqingqing 已提交
118 119
### ResNet

D
dangqingqing 已提交
120 121
ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类、图像物体定位和图像物体检测比赛的冠军。针对训练卷积神经网络时加深网络导致准确度下降的问题,ResNet提出了采用残差学习。在已有设计思路(BN, 小卷积核,全卷积网络)的基础上,引入了残差模块。每个残差模块包含两条路径,其中一条路径是输入特征的直连通路,另一条路径对该特征做两到三次卷积操作得到该特征的残差,最后再将两条路径上的特征相加。

D
dangqingqing 已提交
122
残差模块如图9所示,左边是基本模块连接方式,由两个输出通道数相同的3x3卷积组成。右边是瓶颈模块(Bottleneck)连接方式,之所以称为瓶颈,是因为上面的1x1卷积用来降维(图示例即256->64),下面的1x1卷积用来升维(图示例即64->256),这样中间3x3卷积的输入和输出通道数都较小(图示例即64->64)。
D
dangqingqing 已提交
123 124

<p align="center">
T
Tao Luo 已提交
125
<img src="image/resnet_block.jpg" width="400"><br/>
D
dangqingqing 已提交
126
图9. 残差模块
D
dangqingqing 已提交
127 128
</p>

D
dangqingqing 已提交
129 130
图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。

D
dangqingqing 已提交
131 132
<p align="center">
<img src="image/resnet.png"><br/>
D
dangqingqing 已提交
133
图10. 基于ImageNet的ResNet模型
D
dangqingqing 已提交
134
</p>
D
dangqingqing 已提交
135 136 137 138 139 140


## 数据准备

### 数据介绍与下载

141
通用图像分类公开的标准数据集常用的有[CIFAR](https://www.cs.toronto.edu/~kriz/cifar.html)[ImageNet](http://image-net.org/)[COCO](http://mscoco.org/)等,常用的细粒度图像分类数据集包括[CUB-200-2011](http://www.vision.caltech.edu/visipedia/CUB-200-2011.html)[Stanford Dog](http://vision.stanford.edu/aditya86/ImageNetDogs/)[Oxford-flowers](http://www.robots.ox.ac.uk/~vgg/data/flowers/)等。其中ImageNet数据集规模相对较大,如[模型概览](#模型概览)一章所讲,大量研究成果基于ImageNet。ImageNet数据从2010年来稍有变化,常用的是ImageNet-2012数据集,该数据集包含1000个类别:训练集包含1,281,167张图片,每个类别数据732至1300张不等,验证集包含50,000张图片,平均每个类别50张图片。
D
dangqingqing 已提交
142

143
由于ImageNet数据集较大,下载和训练较慢,为了方便大家学习,我们使用[CIFAR10](https://www.cs.toronto.edu/~kriz/cifar.html)数据集。CIFAR10数据集包含60,000张32x32的彩色图片,10个类别,每个类包含6,000张。其中50,000张图片作为训练集,10000张作为测试集。图11从每个类别中随机抽取了10张图片,展示了所有的类别。
D
dangqingqing 已提交
144 145

<p align="center">
D
dangqingqing 已提交
146
<img src="image/cifar.png" width="350"><br/>
D
dangqingqing 已提交
147
图11. CIFAR10数据集[21]
D
dangqingqing 已提交
148 149
</p>

D
dangqingqing 已提交
150
下面命令用于下载数据和基于训练集计算图像均值,在网络输入前,基于该均值对输入数据做预处理。
D
dangqingqing 已提交
151 152 153 154 155

```bash
./data/get_data.sh
```

D
dangqingqing 已提交
156
### 数据提供给PaddlePaddle
D
dangqingqing 已提交
157

D
dangqingqing 已提交
158
我们使用Python接口传递数据给系统,下面 `dataprovider.py` 针对CIFAR10数据给出了完整示例。
D
dangqingqing 已提交
159

D
dangqingqing 已提交
160
- `initializer` 函数进行dataprovider的初始化,这里加载图像的均值,定义了输入image和label两个字段的类型。
D
dangqingqing 已提交
161

D
dangqingqing 已提交
162
- `process` 函数将数据逐条传输给系统,在图像分类任务里,可以在该函数中完成数据扰动操作,再传输给PaddlePaddle。这里对训练集做随机左右翻转,并将原始图片减去均值后传输给系统。
D
dangqingqing 已提交
163 164 165


```python
D
dangqingqing 已提交
166 167 168 169
import numpy as np
import cPickle
from paddle.trainer.PyDataProvider2 import *

D
dangqingqing 已提交
170 171 172 173 174 175 176 177 178 179
def initializer(settings, mean_path, is_train, **kwargs):
    settings.is_train = is_train
    settings.input_size = 3 * 32 * 32
    settings.mean = np.load(mean_path)['mean']
    settings.input_types = {
        'image': dense_vector(settings.input_size),
        'label': integer_value(10)
    }


D
dangqingqing 已提交
180
@provider(init_hook=initializer, pool_size=50000)
D
dangqingqing 已提交
181 182 183 184 185 186 187 188 189
def process(settings, file_list):
    with open(file_list, 'r') as fdata:
        for fname in fdata:
            fo = open(fname.strip(), 'rb')
            batch = cPickle.load(fo)
            fo.close()
            images = batch['data']
            labels = batch['labels']
            for im, lab in zip(images, labels):
D
dangqingqing 已提交
190
                if settings.is_train and np.random.randint(2):
D
dangqingqing 已提交
191
                    im = im.reshape(3, 32, 32)
D
dangqingqing 已提交
192
                    im = im[:,:,::-1]
D
dangqingqing 已提交
193
                    im = im.flatten()
D
dangqingqing 已提交
194 195 196 197 198 199 200 201 202 203 204
                im = im - settings.mean
                yield {
                    'image': im.astype('float32'),
                    'label': int(lab)
                }
```

## 模型配置说明

### 数据定义

D
dangqingqing 已提交
205
在模型配置中,定义通过 `define_py_data_sources2` 函数从 dataprovider 中读入数据, 其中 args 指定均值文件的路径。如果该配置文件用于预测,则不需要数据定义部分。
D
dangqingqing 已提交
206 207

```python
D
dangqingqing 已提交
208 209 210 211 212 213 214 215 216 217
from paddle.trainer_config_helpers import *

is_predict = get_config_arg("is_predict", bool, False)
if not is_predict:
    define_py_data_sources2(
        train_list='data/train.list',
        test_list='data/test.list',
        module='dataprovider',
        obj='process',
        args={'mean_path': 'data/mean.meta'})
D
dangqingqing 已提交
218 219 220 221
```

### 算法配置

D
dangqingqing 已提交
222
在模型配置中,通过 `settings` 设置训练使用的优化算法,并指定batch size 、初始学习率、momentum以及L2正则。
D
dangqingqing 已提交
223 224 225 226 227

```python
settings(
    batch_size=128,
    learning_rate=0.1 / 128.0,
D
dangqingqing 已提交
228 229 230
    learning_rate_decay_a=0.1,
    learning_rate_decay_b=50000 * 100,
    learning_rate_schedule='discexp',
D
dangqingqing 已提交
231
    learning_method=MomentumOptimizer(0.9),
D
dangqingqing 已提交
232
    regularization=L2Regularization(0.0005 * 128),)
D
dangqingqing 已提交
233 234
```

D
dangqingqing 已提交
235
通过 `learning_rate_decay_a` (简写$a$) 、`learning_rate_decay_b` (简写$b$) 和 `learning_rate_schedule` 指定学习率调整策略,这里采用离散指数的方式调节学习率,计算公式如下, $n$ 代表已经处理过的累计总样本数,$lr_{0}$ 即为 `settings` 里设置的 `learning_rate`
D
dangqingqing 已提交
236

D
dangqingqing 已提交
237
$$  lr = lr_{0} * a^ {\lfloor \frac{n}{ b}\rfloor} $$
D
dangqingqing 已提交
238

D
dangqingqing 已提交
239 240
### 模型结构

D
dangqingqing 已提交
241
本教程中我们提供了VGG和ResNet两个模型的配置。
D
dangqingqing 已提交
242

D
dangqingqing 已提交
243
#### VGG
D
dangqingqing 已提交
244

D
dangqingqing 已提交
245
首先介绍VGG模型结构,由于CIFAR10图片大小和数量相比ImageNet数据小很多,因此这里的模型针对CIFAR10数据做了一定的适配。卷积部分引入了BN和Dropout操作。
D
dangqingqing 已提交
246

D
dangqingqing 已提交
247
1. 定义数据输入及其维度
D
dangqingqing 已提交
248

D
dangqingqing 已提交
249 250 251 252 253 254 255
	网络输入定义为 `data_layer` (数据层),在图像分类中即为图像像素信息。CIFRAR10是RGB 3通道32x32大小的彩色图,因此输入数据大小为3072(3x32x32),类别大小为10,即10分类。
	
	```python
	datadim = 3 * 32 * 32
	classdim = 10
	data = data_layer(name='image', size=datadim)
	```
D
dangqingqing 已提交
256 257 258

2. 定义VGG网络核心模块

D
dangqingqing 已提交
259 260 261
	```python
	net = vgg_bn_drop(data)
	```
D
dangqingqing 已提交
262
	VGG核心模块的输入是数据层,`vgg_bn_drop` 定义了16层VGG结构,每层卷积后面引入BN层和Dropout层,详细的定义如下:
D
dangqingqing 已提交
263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293
	
	```python
	def vgg_bn_drop(input, num_channels):
	    def conv_block(ipt, num_filter, groups, dropouts, num_channels_=None):
	        return img_conv_group(
	            input=ipt,
	            num_channels=num_channels_,
	            pool_size=2,
	            pool_stride=2,
	            conv_num_filter=[num_filter] * groups,
	            conv_filter_size=3,
	            conv_act=ReluActivation(),
	            conv_with_batchnorm=True,
	            conv_batchnorm_drop_rate=dropouts,
	            pool_type=MaxPooling())
	
	    conv1 = conv_block(input, 64, 2, [0.3, 0], 3)
	    conv2 = conv_block(conv1, 128, 2, [0.4, 0])
	    conv3 = conv_block(conv2, 256, 3, [0.4, 0.4, 0])
	    conv4 = conv_block(conv3, 512, 3, [0.4, 0.4, 0])
	    conv5 = conv_block(conv4, 512, 3, [0.4, 0.4, 0])
	
	    drop = dropout_layer(input=conv5, dropout_rate=0.5)
	    fc1 = fc_layer(input=drop, size=512, act=LinearActivation())
	    bn = batch_norm_layer(
	        input=fc1, act=ReluActivation(), layer_attr=ExtraAttr(drop_rate=0.5))
	    fc2 = fc_layer(input=bn, size=512, act=LinearActivation())
	    return fc2
	
	```
	
D
dangqingqing 已提交
294
	2.1. 首先定义了一组卷积网络,即conv_block。卷积核大小为3x3,池化窗口大小为2x2,窗口滑动大小为2,groups决定每组VGG模块是几次连续的卷积操作,dropouts指定Dropout操作的概率。所使用的`img_conv_group`是在`paddle.trainer_config_helpers`中预定义的模块,由若干组 `Conv->BN->ReLu->Dropout` 和 一组 `Pooling` 组成,
D
dangqingqing 已提交
295 296 297 298
	
	2.2. 五组卷积操作,即 5个conv_block。 第一、二组采用两次连续的卷积操作。第三、四、五组采用三次连续的卷积操作。每组最后一个卷积后面Dropout概率为0,即不使用Dropout操作。
	
	2.3. 最后接两层512维的全连接。
D
dangqingqing 已提交
299 300 301

3. 定义分类器

D
dangqingqing 已提交
302
	通过上面VGG网络提取高层特征,然后经过全连接层映射到类别维度大小的向量,再通过Softmax归一化得到每个类别的概率,也可称作分类器。
Y
Yu Yang 已提交
303

D
dangqingqing 已提交
304 305 306
	```python
	out = fc_layer(input=net, size=class_num, act=SoftmaxActivation())
	```
D
dangqingqing 已提交
307 308 309

4. 定义损失函数和网络输出

D
dangqingqing 已提交
310
	在有监督训练中需要输入图像对应的类别信息,同样通过`data_layer`来定义。训练中采用多类交叉熵作为损失函数,并作为网络的输出,预测阶段定义网络的输出为分类器得到的概率信息。
D
dangqingqing 已提交
311 312 313 314 315 316 317 318 319
	
	```python
	if not is_predict:
	    lbl = data_layer(name="label", size=class_num)
	    cost = classification_cost(input=out, label=lbl)
	    outputs(cost)
	else:
	    outputs(out)
	```
D
dangqingqing 已提交
320 321 322

### ResNet

D
dangqingqing 已提交
323
ResNet模型的第1、3、4步和VGG模型相同,这里不再介绍。主要介绍第2步即CIFAR10数据集上ResNet核心模块。
D
dangqingqing 已提交
324 325 326 327 328

```python
net = resnet_cifar10(data, depth=56)
```

D
dangqingqing 已提交
329
先介绍`resnet_cifar10`中的一些基本函数,再介绍网络连接过程。
D
dangqingqing 已提交
330

D
dangqingqing 已提交
331 332 333 334 335
  - `conv_bn_layer` : 带BN的卷积层。
  - `shortcut` : 残差模块的"直连"路径,"直连"实际分两种形式:残差模块输入和输出特征通道数不等时,采用1x1卷积的升维操作;残差模块输入和输出通道相等时,采用直连操作。
  - `basicblock` : 一个基础残差模块,即图9左边所示,由两组3x3卷积组成的路径和一条"直连"路径组成。
  - `bottleneck` : 一个瓶颈残差模块,即图9右边所示,由上下1x1卷积和中间3x3卷积组成的路径和一条"直连"路径组成。
  - `layer_warp` : 一组残差模块,由若干个残差模块堆积而成。每组中第一个残差模块滑动窗口大小与其他可以不同,以用来减少特征图在垂直和水平方向的大小。
D
dangqingqing 已提交
336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383

```python
def conv_bn_layer(input,
                  ch_out,
                  filter_size,
                  stride,
                  padding,
                  active_type=ReluActivation(),
                  ch_in=None):
    tmp = img_conv_layer(
        input=input,
        filter_size=filter_size,
        num_channels=ch_in,
        num_filters=ch_out,
        stride=stride,
        padding=padding,
        act=LinearActivation(),
        bias_attr=False)
    return batch_norm_layer(input=tmp, act=active_type)


def shortcut(ipt, n_in, n_out, stride):
    if n_in != n_out:
        return conv_bn_layer(ipt, n_out, 1, stride, 0, LinearActivation())
    else:
        return ipt

def basicblock(ipt, ch_out, stride):
    ch_in = ipt.num_filters
    tmp = conv_bn_layer(ipt, ch_out, 3, stride, 1)
    tmp = conv_bn_layer(tmp, ch_out, 3, 1, 1, LinearActivation())
    short = shortcut(ipt, ch_in, ch_out, stride)
    return addto_layer(input=[ipt, short], act=ReluActivation())

def bottleneck(ipt, ch_out, stride):
    ch_in = ipt.num_filter
    tmp = conv_bn_layer(ipt, ch_out, 1, stride, 0)
    tmp = conv_bn_layer(tmp, ch_out, 3, 1, 1)
    tmp = conv_bn_layer(tmp, ch_out * 4, 1, 1, 0, LinearActivation())
    short = shortcut(ipt, ch_in, ch_out, stride)
    return addto_layer(input=[ipt, short], act=ReluActivation())

def layer_warp(block_func, ipt, features, count, stride):
    tmp = block_func(ipt, features, stride)
    for i in range(1, count):
        tmp = block_func(tmp, features, 1)
    return tmp

D
dangqingqing 已提交
384 385
```

D
dangqingqing 已提交
386
`resnet_cifar10` 的连接结构主要有以下几个过程。
D
dangqingqing 已提交
387 388 389 390 391 392 393 394

1. 底层输入连接一层 `conv_bn_layer`,即带BN的卷积层。 
2. 然后连接3组残差模块即下面配置3组 `layer_warp` ,每组采用图 10 左边残差模块组成。
3. 最后对网络做均值池化并返回该层。 

注意:除过第一层卷积层和最后一层全连接层之外,要求三组 `layer_warp` 总的含参层数能够被6整除,即 `resnet_cifar10` 的 depth 要满足 $(depth - 2) % 6 == 0$ 。

```python
D
dangqingqing 已提交
395
def resnet_cifar10(ipt, depth=56):
D
dangqingqing 已提交
396 397
    # depth should be one of 20, 32, 44, 56, 110, 1202
    assert (depth - 2) % 6 == 0
D
dangqingqing 已提交
398 399
    n = (depth - 2) / 6
    nStages = {16, 64, 128}
D
dangqingqing 已提交
400
    conv1 = conv_bn_layer(ipt,
D
dangqingqing 已提交
401 402 403 404 405
        ch_in=3,
        ch_out=16,
        filter_size=3,
        stride=1,
        padding=1)
D
dangqingqing 已提交
406 407 408 409
    res1 = layer_warp(basicblock, conv1, 16, n, 1)
    res2 = layer_warp(basicblock, res1, 32, n, 2)
    res3 = layer_warp(basicblock, res2, 64, n, 2)
    pool = img_pool_layer(input=res3,
D
dangqingqing 已提交
410 411 412
                         pool_size=8,
                         stride=1,
                         pool_type=AvgPooling())
D
dangqingqing 已提交
413
    return pool
D
dangqingqing 已提交
414 415
```

D
dangqingqing 已提交
416 417
## 模型训练

D
dangqingqing 已提交
418 419
执行脚本 train.sh 进行模型训练, 其中指定配置文件、设备类型、线程个数、总共训练的轮数、模型存储路径等。

D
dangqingqing 已提交
420 421 422 423
``` bash
sh train.sh
```

D
dangqingqing 已提交
424
脚本 `train.sh` 如下:
D
dangqingqing 已提交
425 426 427 428

```bash
#cfg=models/resnet.py
cfg=models/vgg.py
D
dangqingqing 已提交
429
output=output
D
dangqingqing 已提交
430 431 432 433 434 435 436
log=train.log

paddle train \
    --config=$cfg \
    --use_gpu=true \
    --trainer_count=1 \
    --log_period=100 \
D
dangqingqing 已提交
437
    --num_passes=300 \
D
dangqingqing 已提交
438 439 440 441 442 443 444 445 446 447
    --save_dir=$output \
    2>&1 | tee $log
```

- `--config=$cfg` : 指定配置文件,默认是 `models/vgg.py`
- `--use_gpu=true` : 指定使用GPU训练,若使用CPU,设置为false。
- `--trainer_count=1` : 指定线程个数或GPU个数。
- `--log_period=100` : 指定日志打印的batch间隔。
- `--save_dir=$output` : 指定模型存储路径。

D
dangqingqing 已提交
448
一轮训练log示例如下所示,经过1个pass, 训练集上平均error为0.79958 ,测试集上平均error为0.7858 。
D
dangqingqing 已提交
449 450

```text
D
dangqingqing 已提交
451 452 453
TrainerInternal.cpp:165]  Batch=300 samples=38400 AvgCost=2.07708 CurrentCost=1.96158 Eval: classification_error_evaluator=0.81151  CurrentEval: classification_error_evaluator=0.789297
TrainerInternal.cpp:181]  Pass=0 Batch=391 samples=50000 AvgCost=2.03348 Eval: classification_error_evaluator=0.79958
Tester.cpp:115]  Test samples=10000 cost=1.99246 Eval: classification_error_evaluator=0.7858
D
dangqingqing 已提交
454 455
```

D
dangqingqing 已提交
456
图12是训练的分类错误率曲线图,运行到第200个pass后基本收敛,最终得到测试集上分类错误率为8.54%。
D
dangqingqing 已提交
457

D
dangqingqing 已提交
458 459
<p align="center">
<img src="image/plot.png" width="400" ><br/>
D
dangqingqing 已提交
460
图12. CIFAR10数据集上VGG模型的分类错误率
D
dangqingqing 已提交
461
</p>
D
dangqingqing 已提交
462 463 464

## 模型应用

D
dangqingqing 已提交
465
在训练完成后,模型会保存在路径 `output/pass-%05d` 下,例如第300个pass的模型会保存在路径 `output/pass-00299`。 可以使用脚本 `classify.py` 对图片进行预测或提取特征,注意该脚本默认使用模型配置为 `models/vgg.py`
D
dangqingqing 已提交
466 467


D
dangqingqing 已提交
468 469 470 471
### 预测

可以按照下面方式预测图片的类别,默认使用GPU预测,如果使用CPU预测,在后面加参数 `-c`即可。

D
dangqingqing 已提交
472
```bash
D
dangqingqing 已提交
473
python classify.py --job=predict --model=output/pass-00299 --data=image/dog.png # -c
D
dangqingqing 已提交
474 475
```

D
dangqingqing 已提交
476 477 478 479
预测结果为:

```text
Label of image/dog.png is: 5
D
dangqingqing 已提交
480
```
D
dangqingqing 已提交
481 482 483

### 特征提取

D
dangqingqing 已提交
484
可以按照下面方式对图片提取特征,和预测使用方式不同的是指定job类型为extract,并需要指定提取的层。`classify.py` 默认以第一层卷积特征为例提取特征,并画出了类似图13的可视化图。VGG模型的第一层卷积有64个通道,图13展示了每个通道的灰度图。
D
dangqingqing 已提交
485

D
dangqingqing 已提交
486
```bash
D
dangqingqing 已提交
487
python classify.py --job=extract --model=output/pass-00299 --data=image/dog.png # -c
D
dangqingqing 已提交
488 489
```

D
dangqingqing 已提交
490
<p align="center">
D
dangqingqing 已提交
491
<img src="image/fea_conv0.png" width="500"><br/>
D
dangqingqing 已提交
492
图13. 卷积特征可视化图 
D
dangqingqing 已提交
493 494 495 496
</p>

## 总结

D
dangqingqing 已提交
497
传统图像分类方法由多个阶段构成,框架较为复杂,而端到端的CNN模型结构可一步到位,而且大幅度提升了分类准确率。本文我们首先介绍VGG、GoogleNet、ResNet三个经典的模型;然后基于CIFAR10数据集,介绍如何使用PaddlePaddle配置和训练CNN模型,尤其是VGG和ResNet模型;最后介绍如何使用PaddlePaddle的API接口对图片进行预测和特征提取。对于其他数据集比如ImageNet,配置和训练流程是同样的,大家可以自行进行实验。
D
dangqingqing 已提交
498

D
dangqingqing 已提交
499 500 501

## 参考文献

D
dangqingqing 已提交
502 503 504 505 506
[1] D. G. Lowe, [Distinctive image features from scale-invariant keypoints](http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf). IJCV, 60(2):91-110, 2004.

[2] N. Dalal, B. Triggs, [Histograms of Oriented Gradients for Human Detection](http://vision.stanford.edu/teaching/cs231b_spring1213/papers/CVPR05_DalalTriggs.pdf), Proc. IEEE Conf. Computer Vision and Pattern Recognition, 2005.

[3] Ahonen, T., Hadid, A., and Pietikinen, M. (2006). [Face description with local binary patterns: Application to face recognition](http://ieeexplore.ieee.org/document/1717463/). PAMI, 28. 
D
dangqingqing 已提交
507

D
dangqingqing 已提交
508
[4] J. Sivic, A. Zisserman, [Video Google: A Text Retrieval Approach to Object Matching in Videos](http://www.robots.ox.ac.uk/~vgg/publications/papers/sivic03.pdf), Proc. Ninth Int'l Conf. Computer Vision, pp. 1470-1478, 2003.
D
dangqingqing 已提交
509

D
dangqingqing 已提交
510
[5] B. Olshausen, D. Field, [Sparse Coding with an Overcomplete Basis Set: A Strategy Employed by V1?](http://redwood.psych.cornell.edu/papers/olshausen_field_1997.pdf), Vision Research, vol. 37, pp. 3311-3325, 1997.
D
dangqingqing 已提交
511

D
dangqingqing 已提交
512
[6] Wang, J., Yang, J., Yu, K., Lv, F., Huang, T., and Gong, Y. (2010). [Locality-constrained Linear Coding for image classification](http://ieeexplore.ieee.org/abstract/document/5540018/). In CVPR.
D
dangqingqing 已提交
513

D
dangqingqing 已提交
514
[7] Perronnin, F., Sánchez, J., & Mensink, T. (2010). [Improving the fisher kernel for large-scale image classification](http://dl.acm.org/citation.cfm?id=1888101). In ECCV (4).
D
dangqingqing 已提交
515

D
dangqingqing 已提交
516
[8] Lin, Y., Lv, F., Cao, L., Zhu, S., Yang, M., Cour, T., Yu, K., and Huang, T. (2011). [Large-scale image clas- sification: Fast feature extraction and SVM training](http://ieeexplore.ieee.org/document/5995477/). In CVPR.
D
dangqingqing 已提交
517

D
dangqingqing 已提交
518
[9] Krizhevsky, A., Sutskever, I., and Hinton, G. (2012). [ImageNet classification with deep convolutional neu- ral networks](http://www.cs.toronto.edu/~kriz/imagenet_classification_with_deep_convolutional.pdf). In NIPS.
D
dangqingqing 已提交
519

D
dangqingqing 已提交
520
[10] G.E. Hinton, N. Srivastava, A. Krizhevsky, I. Sutskever, and R.R. Salakhutdinov. [Improving neural networks by preventing co-adaptation of feature detectors](https://arxiv.org/abs/1207.0580). arXiv preprint arXiv:1207.0580, 2012.
D
dangqingqing 已提交
521

D
dangqingqing 已提交
522
[11] K. Chatfield, K. Simonyan, A. Vedaldi, A. Zisserman. [Return of the Devil in the Details: Delving Deep into Convolutional Nets](https://arxiv.org/abs/1405.3531). BMVC, 2014。
D
dangqingqing 已提交
523

D
dangqingqing 已提交
524
[12] Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., Rabinovich, A., [Going deeper with convolutions](https://arxiv.org/abs/1409.4842). In: CVPR. (2015)
D
dangqingqing 已提交
525

D
dangqingqing 已提交
526
[13] Lin, M., Chen, Q., and Yan, S. [Network in network](https://arxiv.org/abs/1312.4400). In Proc. ICLR, 2014.
D
dangqingqing 已提交
527

D
dangqingqing 已提交
528
[14] S. Ioffe and C. Szegedy. [Batch normalization: Accelerating deep network training by reducing internal covariate shift](https://arxiv.org/abs/1502.03167). In ICML, 2015.
D
dangqingqing 已提交
529

D
dangqingqing 已提交
530
[15] K. He, X. Zhang, S. Ren, J. Sun. [Deep Residual Learning for Image Recognition](https://arxiv.org/abs/1512.03385). CVPR 2016.
D
dangqingqing 已提交
531

D
dangqingqing 已提交
532
[16] Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., Wojna, Z. [Rethinking the incep-tion architecture for computer vision](https://arxiv.org/abs/1512.00567). In: CVPR. (2016).
D
dangqingqing 已提交
533

D
dangqingqing 已提交
534
[17] Szegedy, C., Ioffe, S., Vanhoucke, V. [Inception-v4, inception-resnet and the impact of residual connections on learning](https://arxiv.org/abs/1602.07261). arXiv:1602.07261 (2016).
D
dangqingqing 已提交
535

D
dangqingqing 已提交
536
[18] Everingham, M., Eslami, S. M. A., Van Gool, L., Williams, C. K. I., Winn, J. and Zisserman, A. [The Pascal Visual Object Classes Challenge: A Retrospective]((http://link.springer.com/article/10.1007/s11263-014-0733-5)). International Journal of Computer Vision, 111(1), 98-136, 2015.
D
dangqingqing 已提交
537

D
dangqingqing 已提交
538
[19] He, K., Zhang, X., Ren, S., and Sun, J. [Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification](https://arxiv.org/abs/1502.01852). ArXiv e-prints, February 2015.
D
dangqingqing 已提交
539 540 541 542 543 544

[20] http://deeplearning.net/tutorial/lenet.html

[21] https://www.cs.toronto.edu/~kriz/cifar.html

[22] http://cs231n.github.io/classification/
L
Luo Tao 已提交
545 546 547

<br/>
<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/"><img alt="知识共享许可协议" style="border-width:0" src="https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png" /></a><br /><span xmlns:dct="http://purl.org/dc/terms/" href="http://purl.org/dc/dcmitype/Text" property="dct:title" rel="dct:type">本教程</span><a xmlns:cc="http://creativecommons.org/ns#" href="http://book.paddlepaddle.org" property="cc:attributionName" rel="cc:attributionURL">PaddlePaddle</a> 创作,采用 <a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">知识共享 署名-非商业性使用-相同方式共享 4.0 国际 许可协议</a>进行许可。