finetune_deeplabv3plus.md 6.5 KB
Newer Older
L
LutaoChu 已提交
1
# DeepLabv3+模型使用教程
W
wuzewu 已提交
2

L
LutaoChu 已提交
3
本教程旨在介绍如何使用`DeepLabv3+`预训练模型在自定义数据集上进行训练、评估和可视化。我们以`DeeplabV3+/Xception65/BatchNorm`预训练模型为例。
W
wuzewu 已提交
4

L
LutaoChu 已提交
5
* 在阅读本教程前,请确保您已经了解过PaddleSeg的[快速入门](../README.md#快速入门)[基础功能](../README.md#基础功能)等章节,以便对PaddleSeg有一定的了解。
W
wuzewu 已提交
6

L
LutaoChu 已提交
7
* 本教程的所有命令都基于PaddleSeg主目录进行执行。
W
wuzewu 已提交
8 9 10

## 一. 准备待训练数据

L
LutaoChu 已提交
11 12 13
![](./imgs/optic.png)

我们提前准备好了一份眼底医疗分割数据集,包含267张训练图片、76张验证图片、38张测试图片。通过以下命令进行下载:
W
wuzewu 已提交
14 15

```shell
L
LutaoChu 已提交
16
python dataset/download_optic.py
W
wuzewu 已提交
17 18 19 20 21 22 23
```

## 二. 下载预训练模型

接着下载对应的预训练模型

```shell
W
wuyefeilin 已提交
24
python pretrained_model/download_model.py deeplabv3p_xception65_bn_coco
W
wuzewu 已提交
25 26
```

L
LutaoChu 已提交
27 28 29
关于已有的DeepLabv3+预训练模型的列表,请参见[模型组合](#模型组合)。如果需要使用其他预训练模型,下载该模型并将配置中的BACKBONE、NORM_TYPE等进行替换即可。


W
wuzewu 已提交
30 31
## 三. 准备配置

W
wuzewu 已提交
32
接着我们需要确定相关配置,从本教程的角度,配置分为三部分:
W
wuzewu 已提交
33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

* 数据集
  * 训练集主目录
  * 训练集文件列表
  * 测试集文件列表
  * 评估集文件列表
* 预训练模型
  * 预训练模型名称
  * 预训练模型的backbone网络
  * 预训练模型的Normalization类型
  * 预训练模型路径
* 其他
  * 学习率
  * Batch大小
  * ...

在三者中,预训练模型的配置尤为重要,如果模型或者BACKBONE配置错误,会导致预训练的参数没有加载,进而影响收敛速度。预训练模型相关的配置如第二步所展示。

L
LutaoChu 已提交
51
数据集的配置和数据路径有关,在本教程中,数据存放在`dataset/optic_disc_seg`中。
W
wuzewu 已提交
52

L
LutaoChu 已提交
53
其他配置则根据数据集和机器环境的情况进行调节,最终我们保存一个如下内容的yaml配置文件,存放路径为**configs/deeplabv3p_xception65_optic.yaml**
W
wuzewu 已提交
54 55 56 57

```yaml
# 数据集配置
DATASET:
L
LutaoChu 已提交
58 59 60 61 62 63
    DATA_DIR: "./dataset/optic_disc_seg/"
    NUM_CLASSES: 2
    TEST_FILE_LIST: "./dataset/optic_disc_seg/test_list.txt"
    TRAIN_FILE_LIST: "./dataset/optic_disc_seg/train_list.txt"
    VAL_FILE_LIST: "./dataset/optic_disc_seg/val_list.txt"
    VIS_FILE_LIST: "./dataset/optic_disc_seg/test_list.txt"
W
wuzewu 已提交
64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79

# 预训练模型配置
MODEL:
    MODEL_NAME: "deeplabv3p"
    DEFAULT_NORM_TYPE: "bn"
    DEEPLAB:
        BACKBONE: "xception_65"

# 其他配置
TRAIN_CROP_SIZE: (512, 512)
EVAL_CROP_SIZE: (512, 512)
AUG:
    AUG_METHOD: "unpadding"
    FIX_RESIZE_SIZE: (512, 512)
BATCH_SIZE: 4
TRAIN:
W
wuzewu 已提交
80
    PRETRAINED_MODEL_DIR: "./pretrained_model/deeplabv3p_xception65_bn_coco/"
L
LutaoChu 已提交
81 82
    MODEL_SAVE_DIR: "./saved_model/deeplabv3p_xception65_bn_optic/"
    SNAPSHOT_EPOCH: 5
W
wuzewu 已提交
83
TEST:
L
LutaoChu 已提交
84
    TEST_MODEL: "./saved_model/deeplabv3p_xception65_bn_optic/final"
W
wuzewu 已提交
85
SOLVER:
L
LutaoChu 已提交
86 87
    NUM_EPOCHS: 10
    LR: 0.001
W
wuzewu 已提交
88
    LR_POLICY: "poly"
L
LutaoChu 已提交
89
    OPTIMIZER: "adam"
W
wuzewu 已提交
90 91
```

W
wuzewu 已提交
92
## 四. 配置/数据校验
W
wuzewu 已提交
93

W
wuzewu 已提交
94 95 96
在开始训练和评估之前,我们还需要对配置和数据进行一次校验,确保数据和配置是正确的。使用下述命令启动校验流程

```shell
L
LutaoChu 已提交
97
python pdseg/check.py --cfg ./configs/deeplabv3p_xception65_optic.yaml
W
wuzewu 已提交
98 99 100 101 102 103
```


## 五. 开始训练

校验通过后,使用下述命令启动训练
W
wuzewu 已提交
104 105

```shell
L
LutaoChu 已提交
106 107 108 109
# 指定GPU卡号(以0号卡为例)
export CUDA_VISIBLE_DEVICES=0
# 训练
python pdseg/train.py --use_gpu --cfg ./configs/deeplabv3p_xception65_optic.yaml
W
wuzewu 已提交
110 111
```

W
wuzewu 已提交
112
## 六. 进行评估
W
wuzewu 已提交
113

W
wuzewu 已提交
114
模型训练完成,使用下述命令启动评估
W
wuzewu 已提交
115 116

```shell
L
LutaoChu 已提交
117 118 119 120 121 122 123 124 125
python pdseg/eval.py --use_gpu --cfg ./configs/deeplabv3p_xception65_optic.yaml
```

## 七. 进行可视化

使用下述命令启动预测和可视化

```shell
python pdseg/vis.py --use_gpu --cfg ./configs/deeplabv3p_xception65_optic.yaml
W
wuzewu 已提交
126
```
L
LutaoChu 已提交
127 128 129 130 131

预测结果将保存在`visual`目录下,以下展示其中1张图片的预测效果:

![](imgs/optic_deeplab.png)

L
LutaoChu 已提交
132 133
## 在线体验

L
LutaoChu 已提交
134
PaddleSeg在AI Studio平台上提供了在线体验的DeepLabv3+图像分割教程,欢迎[点击体验](https://aistudio.baidu.com/aistudio/projectDetail/226703)
L
LutaoChu 已提交
135

W
wuzewu 已提交
136 137 138

## 模型组合

139
|预训练模型名称|Backbone|Norm Type|数据集|配置|
W
wuzewu 已提交
140
|-|-|-|-|-|
141 142 143 144 145 146 147 148 149 150 151 152
|mobilenetv2-2-0_bn_imagenet|MobileNetV2|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 2.0 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|mobilenetv2-1-5_bn_imagenet|MobileNetV2|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 1.5 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|mobilenetv2-1-0_bn_imagenet|MobileNetV2|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 1.0 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|mobilenetv2-0-5_bn_imagenet|MobileNetV2|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 0.5 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|mobilenetv2-0-25_bn_imagenet|MobileNetV2|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 0.25 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|xception41_imagenet|Xception41|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: xception_41 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|xception65_imagenet|Xception65|bn|ImageNet|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: xception_65 <br> MODEL.DEFAULT_NORM_TYPE: bn|
|deeplabv3p_mobilenetv2-1-0_bn_coco|MobileNetV2|bn|COCO|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 1.0 <br> MODEL.DEEPLAB.ENCODER_WITH_ASPP: False <br> MODEL.DEEPLAB.ENABLE_DECODER: False <br> MODEL.DEFAULT_NORM_TYPE: bn|
|**deeplabv3p_xception65_bn_coco**|Xception65|bn|COCO|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: xception_65 <br> MODEL.DEFAULT_NORM_TYPE: bn |
|deeplabv3p_mobilenetv2-1-0_bn_cityscapes|MobileNetV2|bn|Cityscapes|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: mobilenetv2 <br> MODEL.DEEPLAB.DEPTH_MULTIPLIER: 1.0 <br> MODEL.DEEPLAB.ENCODER_WITH_ASPP: False <br> MODEL.DEEPLAB.ENABLE_DECODER: False <br> MODEL.DEFAULT_NORM_TYPE: bn|
|deeplabv3p_xception65_gn_cityscapes|Xception65|gn|Cityscapes|MODEL.MODEL_NAME: deeplabv3p <br>  MODEL.DEEPLAB.BACKBONE: xception_65 <br> MODEL.DEFAULT_NORM_TYPE: gn|
|deeplabv3p_xception65_bn_cityscapes|Xception65|bn|Cityscapes|MODEL.MODEL_NAME: deeplabv3p <br> MODEL.DEEPLAB.BACKBONE: xception_65 <br> MODEL.DEFAULT_NORM_TYPE: bn|