README.md 5.2 KB
Newer Older
Z
Zeyu Chen 已提交
1
# ERNIE Classification
Z
Zeyu Chen 已提交
2

Z
Zeyu Chen 已提交
3 4 5 6 7
本示例将展示如何使用PaddleHub Finetune API利用ERNIE完成分类任务。

其中分类任务可以分为两大类

* 单句分类
Z
Zeyu Chen 已提交
8
  - 中文情感分析任务 ChnSentiCorp
Z
Zeyu Chen 已提交
9 10 11


* 句对分类
Z
Zeyu Chen 已提交
12 13
  - 语义相似度 LCQMC
  - 检索式问答任务 NLPCC-DBQA
Z
Zeyu Chen 已提交
14 15 16 17 18 19 20 21 22 23 24 25

## 如何开始Finetune

在完成安装PaddlePaddle与PaddleHub后,通过执行脚本`sh run_sentiment_cls.sh`即可开始使用ERNIE对ChnSentiCorp数据集进行Finetune。

其中脚本参数说明如下:

```bash
--batch_size: 批处理大小,请结合显存情况进行调整,若出现显存不足错误,请调低这一参数值
--weight_decay:
--checkpoint_dir: 模型保存路径,PaddleHub会自动保存验证集上表现最好的模型
--num_epoch: Finetune迭代的轮数
Z
Zeyu Chen 已提交
26
--max_seq_len: ERNIE模型使用的最大序列长度,最大不能超过512, 若出现显存不足错误,请调低这一参数
Z
Zeyu Chen 已提交
27 28 29 30
```

## 代码步骤

Z
Zeyu Chen 已提交
31
使用PaddleHub Finetune API进行Finetune可以分为4个步骤
Z
Zeyu Chen 已提交
32 33 34 35

### Step1: 加载预训练模型

```python
Z
Zeyu Chen 已提交
36 37
module = hub.Module(name="ernie")
inputs, outputs, program = module.context(trainable=True, max_seq_len=128)
Z
Zeyu Chen 已提交
38 39 40
```
其中最大序列长度`max_seq_len`是可以调整的参数,建议值128,根据任务文本长度不同可以调整该值,但最大不超过512。

Z
Zeyu Chen 已提交
41 42
如果想尝试BERT模型,只需要更换Module中的`name`参数即可.
PaddleHub还提供以下BERT模型, 对应的加载示例如下表:
Z
Zeyu Chen 已提交
43

Z
Zeyu Chen 已提交
44
BERT模型名                         | PaddleHub Module
Z
Zeyu Chen 已提交
45
---------------------------------- | :------:
Z
Zeyu Chen 已提交
46 47 48 49 50 51
BERT-Base, Uncased                 | `hub.Module(name='bert_uncased_L-12_H-768_A-12')`
BERT-Large, Uncased                | `hub.Module(name='bert_uncased_L-24_H-1024_A-16')`
BERT-Base, Cased                   | `hub.Module(name='bert_cased_L-12_H-768_A-12')`
BERT-Large, Cased                  | `hub.Module(name='bert_cased_L-24_H-1024_A-16')`
BERT-Base, Multilingual Cased      | `hub.Module(nane='bert_multi_cased_L-12_H-768_A-12')`
BERT-Base, Chinese                 | `hub.Module(name='bert_chinese_L-12_H-768_A-12')`
Z
Zeyu Chen 已提交
52 53 54


```python
Z
Zeyu Chen 已提交
55 56 57 58 59 60
# 更换name参数即可无缝切换BERT中文模型
module = hub.Module(name="bert_chinese_L-12_H-768_A-12")
```

### Step2: 准备数据集并使用ClassifyReader读取数据
```python
Z
Zeyu Chen 已提交
61 62 63 64 65
reader = hub.reader.ClassifyReader(
    dataset=hub.dataset.ChnSentiCorp(),
    vocab_path=module.get_vocab_path(),
    max_seq_len=128)
```
Z
Zeyu Chen 已提交
66
`hub.dataset.ChnSentiCorp()` 会自动从网络下载数据集并解压到用户目录下`$HOME/.paddlehub/dataset`目录
Z
Zeyu Chen 已提交
67

Z
Zeyu Chen 已提交
68
`module.get_vaocab_path()` 会返回ERNIE/BERT模型对应的词表
Z
Zeyu Chen 已提交
69

Z
Zeyu Chen 已提交
70 71 72
`max_seq_len`需要与Step1中context接口传入的序列长度保持一致

ClassifyReader中的`data_generator`会自动按照模型对应词表对数据进行切词,以迭代器的方式返回ERNIE/BERT所需要的Tensor格式,包括`input_ids``position_ids``segment_id`与序列对应的mask `input_mask`.
Z
Zeyu Chen 已提交
73 74 75 76


### Step3: 构建网络并创建分类迁移任务
```python
Z
Zeyu Chen 已提交
77
with fluid.program_guard(program): # NOTE: 必须使用fluid.program_guard接口传入Module返回的预训练模型program
Z
Zeyu Chen 已提交
78 79 80 81 82 83 84 85 86 87
    label = fluid.layers.data(name="label", shape=[1], dtype='int64')

    pooled_output = outputs["pooled_output"]

    feed_list = [
        inputs["input_ids"].name, inputs["position_ids"].name,
        inputs["segment_ids"].name, inputs["input_mask"].name, label.name
    ]

    cls_task = hub.create_text_classification_task(
Z
Zeyu Chen 已提交
88
        feature=pooled_output, label=label, num_classes=reader.get_num_labels())
Z
Zeyu Chen 已提交
89
```
Z
Zeyu Chen 已提交
90 91
**NOTE:** 基于预训练模型的迁移学习网络搭建,必须在`with fluid.program_gurad()`作用域内组件网络
1. `outputs["pooled_output"]`返回了ERNIE/BERT模型对应的[CLS]向量,可以用于句子或句对的特征表达。
Z
Zeyu Chen 已提交
92
2. `feed_list`中的inputs参数指名了ERNIE/BERT中的输入tensor,以及labels顺序,与ClassifyReader返回的结果一致。
Z
Zeyu Chen 已提交
93 94
3. `create_text_classification_task`通过输入特征,label与迁移的类别数,可以生成适用于文本分类的迁移任务`cls_task`

Z
Zeyu Chen 已提交
95 96 97
### Step4:选择优化策略并开始Finetune

```python
98
strategy = hub.AdamWeightDecayStrategy(
Z
Zeyu Chen 已提交
99 100 101 102 103 104 105 106
    weight_decay=0.01,
    learning_rate=5e-5,
    warmup_strategy="linear_warmup_decay",
)

config = hub.RunConfig(use_cuda=True, num_epoch=3, batch_size=32, strategy=strategy)

hub.finetune_and_eval(task=cls_task, data_reader=reader, feed_list=feed_list, config=config)
Z
Zeyu Chen 已提交
107
```
Z
Zeyu Chen 已提交
108
针对ERNIE与BERT类任务,PaddleHub封装了适合这一任务的迁移学习优化策略。用户可以通过配置学习率,权重
Z
Zeyu Chen 已提交
109 110 111 112 113 114 115 116 117 118 119 120 121 122

## 模型预测

通过Finetune完成模型训练后,在对应的ckpt目录下,会自动保存验证集上效果最好的模型。
配置脚本参数
```
CKPT_DIR="./ckpt_sentiment_cls/best_model"
python -u cls_predict.py --checkpoint_dir $CKPT_DIR --max_seq_len 128
```
其中CKPT_DIR为Finetune API保存最佳模型的路径, max_seq_len是ERNIE模型的最大序列长度,*请与训练时配置的参数保持一致*

参数配置正确后,请执行脚本`sh run_predict.sh`,即可看到以下文本分类预测结果。如需了解更多预测步骤,请参考`cls_predict.py`

```
Z
Zeyu Chen 已提交
123
text=风扇确实够响的,尤其是到晚上周围安静下来。风扇频频开启,发热量有些惊人	label=0	predict=[0.99244046 0.00755955]
Z
Zeyu Chen 已提交
124
```