提交 d0717eac 编写于 作者: S Steffy-zxf 提交者: wuzewu

update autodl finetuner (#196)

* update autodl

* fix reader that drops dataset in predicting phase

* update the directory of tmp.txt
上级 bcc2dfe0
...@@ -4,7 +4,7 @@ ...@@ -4,7 +4,7 @@
[![License](https://img.shields.io/badge/license-Apache%202-blue.svg)](LICENSE) [![License](https://img.shields.io/badge/license-Apache%202-blue.svg)](LICENSE)
[![Version](https://img.shields.io/github/release/PaddlePaddle/PaddleHub.svg)](https://github.com/PaddlePaddle/PaddleHub/releases) [![Version](https://img.shields.io/github/release/PaddlePaddle/PaddleHub.svg)](https://github.com/PaddlePaddle/PaddleHub/releases)
PaddleHub是基于PaddlePaddle生态下的预训练模型管理和迁移学习工具,可以结合预训练模型更便捷地开展迁移学习工作。通过PaddleHub,您可以 PaddleHub是基于PaddlePaddle生态下的预训练模型管理和迁移学习工具,可以结合预训练模型更便捷地开展迁移学习工作。PaddleHub特性
* 便捷地获取PaddlePaddle生态下的所有预训练模型,涵盖了图像分类、目标检测、词法分析、语义模型、情感分析、语言模型、视频分类、图像生成、图像分割等主流模型。 * 便捷地获取PaddlePaddle生态下的所有预训练模型,涵盖了图像分类、目标检测、词法分析、语义模型、情感分析、语言模型、视频分类、图像生成、图像分割等主流模型。
* 更多详情可查看官网:https://www.paddlepaddle.org.cn/hub * 更多详情可查看官网:https://www.paddlepaddle.org.cn/hub
...@@ -17,9 +17,9 @@ PaddleHub是基于PaddlePaddle生态下的预训练模型管理和迁移学习 ...@@ -17,9 +17,9 @@ PaddleHub是基于PaddlePaddle生态下的预训练模型管理和迁移学习
* [回归任务](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/sentence_similarity) * [回归任务](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/sentence_similarity)
* [句子语义相似度计算](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/sentence_similarity) * [句子语义相似度计算](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/sentence_similarity)
* [阅读理解任务](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/reading-comprehension) * [阅读理解任务](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/reading-comprehension)
* PaddleHub支持超参优化(Auto Fine-tune),给定Fine-tune任务运行脚本以及超参搜索范围,Auto Fine-tune即可给出对于当前任务的较佳超参数组合。 * 支持超参优化(AutoDL Finetuner),自动调整超参数,给出效果较佳的超参数组合。
* [PaddleHub超参优化功能autofinetune使用教程](https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.2/tutorial/autofinetune.md) * [PaddleHub超参优化功能AutoDL Finetuner使用示例](https://github.com/PaddlePaddle/PaddleHub/tree/release/v1.2/demo/autofinetune)
* PaddleHub引入『**模型即软件**』的设计理念,支持通过Python API或者命令行工具,一键完成预训练模型地预测,更方便的应用PaddlePaddle模型库。 * 引入『**模型即软件**』的设计理念,通过Python API或者命令行实现一键预测,更方便地应用PaddlePaddle模型库。
* [PaddleHub命令行工具介绍](https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub%E5%91%BD%E4%BB%A4%E8%A1%8C%E5%B7%A5%E5%85%B7) * [PaddleHub命令行工具介绍](https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub%E5%91%BD%E4%BB%A4%E8%A1%8C%E5%B7%A5%E5%85%B7)
...@@ -105,9 +105,9 @@ PaddleHub如何完成迁移学习,详情参考[wiki教程](https://github.com/ ...@@ -105,9 +105,9 @@ PaddleHub如何完成迁移学习,详情参考[wiki教程](https://github.com/
PaddleHub如何自定义迁移任务,详情参考[wiki教程](https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub:-%E8%87%AA%E5%AE%9A%E4%B9%89Task) PaddleHub如何自定义迁移任务,详情参考[wiki教程](https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub:-%E8%87%AA%E5%AE%9A%E4%B9%89Task)
如何使用PaddleHub超参优化功能,详情参考[autofinetune使用教程](https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.2/tutorial/autofinetune.md) PaddleHub如何自动优化超参数,详情参考[AutoDL Finetuner使用教程](https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.2/tutorial/autofinetune.md)
如何使用ULMFiT策略微调PaddleHub预训练模型,详情参考[PaddleHub 迁移学习与ULMFiT微调策略](https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.2/tutorial/strategy_exp.md) PaddleHub如何使用ULMFiT策略微调预训练模型,详情参考[PaddleHub 迁移学习与ULMFiT微调策略](https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.2/tutorial/strategy_exp.md)
## FAQ ## FAQ
...@@ -115,8 +115,6 @@ PaddleHub如何自定义迁移任务,详情参考[wiki教程](https://github.c ...@@ -115,8 +115,6 @@ PaddleHub如何自定义迁移任务,详情参考[wiki教程](https://github.c
**A:** 因为ernie/bert module的创建时和此时运行环境中PaddlePaddle版本不对应。可以将PaddlePaddle和PaddleHub升级至最新版本,同时将ernie卸载。 **A:** 因为ernie/bert module的创建时和此时运行环境中PaddlePaddle版本不对应。可以将PaddlePaddle和PaddleHub升级至最新版本,同时将ernie卸载。
```shell ```shell
# 若是CPU环境,则 pip install --upgrade paddlepaddle
$ pip install --upgrade paddlepaddle-gpu
$ pip install --upgrade paddlehub $ pip install --upgrade paddlehub
$ hub uninstall ernie $ hub uninstall ernie
``` ```
...@@ -149,7 +147,7 @@ print(res) ...@@ -149,7 +147,7 @@ print(res)
## 用户交流群 ## 用户交流群
* 飞桨PaddlePaddle 交流群:432676488(QQ群) * 飞桨PaddlePaddle 交流群:796771754(QQ群)
* 飞桨 ERNIE交流群:760439550(QQ群) * 飞桨 ERNIE交流群:760439550(QQ群)
......
# `v1.2.0` # `v1.2.1`
* 新增**超参优化Auto Fine-tune**,实现给定超参搜索空间,PaddleHub自动给出较佳的超参组合 * 新增**超参优化Auto Fine-tune**,实现给定超参搜索空间,PaddleHub自动给出较佳的超参组合
* 支持两种优化策略:HAZero和PSHE2 * 支持两种超参优化算法:HAZero和PSHE2
* 支持两种评估方式:FullTrail和ModelBased * 支持两种评估方式:FullTrail和PopulationBased
* 新增Fine-tune**优化策略ULMFiT**,包括以下三种设置 * 新增Fine-tune**优化策略ULMFiT**,包括以下三种设置
* Slanted triangular learning rates:学习率先线性增加后缓慢降低 * Slanted triangular learning rates:学习率先线性增加后缓慢降低
* Discriminative fine-tuning:将计算图划分为n段,不同的段设置不同学习率 * Discriminative fine-tuning:将计算图划分为n段,不同的段设置不同学习率
......
# PaddleHub超参优化——图像分类
**确认安装PaddleHub版本在1.2.1以上, 同时PaddleHub AutoDL Finetuner功能要求至少有一张GPU显卡可用。**
本示例展示如何利用PaddleHub超参优化AutoDL Finetuner,得到一个效果较佳的超参数组合
使用PaddleHub AutoDL Finetuner需要准备两个指定格式的文件:待优化的超参数信息yaml文件hparam.yaml和需要Fine-tune的python脚本train.py
以Fine-tune图像分类任务为例, 其中:
## hparam.yaml
hparam给出待搜索的超参名字、类型(int或者float)、搜索范围等信息。
通过这些信息构建了一个超参空间,PaddleHub将在这个空间内进行超参数的搜索,将搜索到的超参传入train.py获得评估效果,根据评估效果自动调整超参搜索方向,直到满足搜索次数。
本示例中待优化超参数为learning_rate和batch_size。
## img_cls.py
以mobilenet为预训练模型,在flowers数据集上进行Fine-tune。
## 如何开始超参优化
在完成安装PaddlePaddle与PaddleHub后,通过执行脚本`sh run_autofinetune.sh`即可开始使用超参优化功能。
`NOTE`: 关于PaddleHub超参优化详情参考[教程](https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.2/tutorial/autofinetune.md)
param_list:
- name : learning_rate
init_value : 0.001
type : float
lower_than : 0.05
greater_than : 0.00005
- name : batch_size
init_value : 12
type : int
lower_than : 20
greater_than : 10
# coding:utf-8
import argparse
import os
import ast
import shutil
import paddle.fluid as fluid
import paddlehub as hub
from paddlehub.common.logger import logger
parser = argparse.ArgumentParser(__doc__)
parser.add_argument(
"--epochs", type=int, default=5, help="Number of epoches for fine-tuning.")
parser.add_argument(
"--checkpoint_dir", type=str, default=None, help="Path to save log data.")
parser.add_argument(
"--module",
type=str,
default="mobilenet",
help="Module used as feature extractor.")
# the name of hyperparameters to be searched should keep with hparam.py
parser.add_argument(
"--batch_size",
type=int,
default=16,
help="Total examples' number in batch for training.")
parser.add_argument(
"--learning_rate", type=float, default=1e-4, help="learning_rate.")
# saved_params_dir and model_path are needed by auto finetune
parser.add_argument(
"--saved_params_dir",
type=str,
default="",
help="Directory for saving model")
parser.add_argument(
"--model_path", type=str, default="", help="load model path")
module_map = {
"resnet50": "resnet_v2_50_imagenet",
"resnet101": "resnet_v2_101_imagenet",
"resnet152": "resnet_v2_152_imagenet",
"mobilenet": "mobilenet_v2_imagenet",
"nasnet": "nasnet_imagenet",
"pnasnet": "pnasnet_imagenet"
}
def is_path_valid(path):
if path == "":
return False
path = os.path.abspath(path)
dirname = os.path.dirname(path)
if not os.path.exists(dirname):
os.mkdir(dirname)
return True
def finetune(args):
# Load Paddlehub pretrained model, default as mobilenet
module = hub.Module(name=args.module)
input_dict, output_dict, program = module.context(trainable=True)
# Download dataset and use ImageClassificationReader to read dataset
dataset = hub.dataset.Flowers()
data_reader = hub.reader.ImageClassificationReader(
image_width=module.get_expected_image_width(),
image_height=module.get_expected_image_height(),
images_mean=module.get_pretrained_images_mean(),
images_std=module.get_pretrained_images_std(),
dataset=dataset)
# The last 2 layer of resnet_v2_101_imagenet network
feature_map = output_dict["feature_map"]
img = input_dict["image"]
feed_list = [img.name]
# Select finetune strategy, setup config and finetune
strategy = hub.DefaultFinetuneStrategy(learning_rate=args.learning_rate)
config = hub.RunConfig(
use_cuda=True,
num_epoch=args.epochs,
batch_size=args.batch_size,
checkpoint_dir=args.checkpoint_dir,
strategy=strategy)
# Construct transfer learning network
task = hub.ImageClassifierTask(
data_reader=data_reader,
feed_list=feed_list,
feature=feature_map,
num_classes=dataset.num_labels,
config=config)
# Load model from the defined model path or not
if args.model_path != "":
with task.phase_guard(phase="train"):
task.init_if_necessary()
task.load_parameters(args.model_path)
logger.info("PaddleHub has loaded model from %s" % args.model_path)
# Finetune by PaddleHub's API
task.finetune()
# Evaluate by PaddleHub's API
run_states = task.eval()
# Get acc score on dev
eval_avg_score, eval_avg_loss, eval_run_speed = task._calculate_metrics(
run_states)
# Move ckpt/best_model to the defined saved parameters directory
best_model_dir = os.path.join(config.checkpoint_dir, "best_model")
if is_path_valid(args.saved_params_dir) and os.path.exists(best_model_dir):
shutil.copytree(best_model_dir, args.saved_params_dir)
shutil.rmtree(config.checkpoint_dir)
# acc on dev will be used by auto finetune
hub.report_final_result(eval_avg_score["acc"])
if __name__ == "__main__":
args = parser.parse_args()
if not args.module in module_map:
hub.logger.error("module should in %s" % module_map.keys())
exit(1)
args.module = module_map[args.module]
finetune(args)
OUTPUT=result
hub autofinetune img_cls.py \
--param_file=hparam.yaml \
--gpu=0 \
--popsize=15 \
--round=10 \
--output_dir=${OUTPUT} \
--evaluator=fulltrail \
--tuning_strategy=pshe2
...@@ -119,7 +119,8 @@ seq_label_task = hub.SequenceLabelTask( ...@@ -119,7 +119,8 @@ seq_label_task = hub.SequenceLabelTask(
feed_list=feed_list, feed_list=feed_list,
max_seq_len=args.max_seq_len, max_seq_len=args.max_seq_len,
num_classes=dataset.num_labels, num_classes=dataset.num_labels,
config=config) config=config,
add_crf=False)
seq_label_task.finetune_and_eval() seq_label_task.finetune_and_eval()
``` ```
...@@ -128,6 +129,7 @@ seq_label_task.finetune_and_eval() ...@@ -128,6 +129,7 @@ seq_label_task.finetune_and_eval()
1. `outputs["sequence_output"]`返回了ERNIE/BERT模型输入单词的对应输出,可以用于单词的特征表达。 1. `outputs["sequence_output"]`返回了ERNIE/BERT模型输入单词的对应输出,可以用于单词的特征表达。
2. `feed_list`中的inputs参数指名了ERNIE/BERT中的输入tensor的顺序,与SequenceLabelReader返回的结果一致。 2. `feed_list`中的inputs参数指名了ERNIE/BERT中的输入tensor的顺序,与SequenceLabelReader返回的结果一致。
3. `hub.SequenceLabelTask`通过输入特征,迁移的类别数,可以生成适用于序列标注的迁移任务`SequenceLabelTask` 3. `hub.SequenceLabelTask`通过输入特征,迁移的类别数,可以生成适用于序列标注的迁移任务`SequenceLabelTask`
4. `hub.SequenceLabelTask`通过add_crf, 选择是否加入crf作为decoder。如果add_crf=True, 则在预训练模型计算图加入fc+crf层,否则只在在预训练模型计算图加入fc层。
## 可视化 ## 可视化
......
...@@ -79,13 +79,15 @@ if __name__ == '__main__': ...@@ -79,13 +79,15 @@ if __name__ == '__main__':
strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) strategy=hub.finetune.strategy.DefaultFinetuneStrategy())
# Define a sequence labeling finetune task by PaddleHub's API # Define a sequence labeling finetune task by PaddleHub's API
# if add crf, the network use crf as decoder
seq_label_task = hub.SequenceLabelTask( seq_label_task = hub.SequenceLabelTask(
data_reader=reader, data_reader=reader,
feature=sequence_output, feature=sequence_output,
feed_list=feed_list, feed_list=feed_list,
max_seq_len=args.max_seq_len, max_seq_len=args.max_seq_len,
num_classes=dataset.num_labels, num_classes=dataset.num_labels,
config=config) config=config,
add_crf=True)
# test data # test data
data = [ data = [
......
...@@ -78,13 +78,15 @@ if __name__ == '__main__': ...@@ -78,13 +78,15 @@ if __name__ == '__main__':
strategy=strategy) strategy=strategy)
# Define a sequence labeling finetune task by PaddleHub's API # Define a sequence labeling finetune task by PaddleHub's API
# if add crf, the network use crf as decoder
seq_label_task = hub.SequenceLabelTask( seq_label_task = hub.SequenceLabelTask(
data_reader=reader, data_reader=reader,
feature=sequence_output, feature=sequence_output,
feed_list=feed_list, feed_list=feed_list,
max_seq_len=args.max_seq_len, max_seq_len=args.max_seq_len,
num_classes=dataset.num_labels, num_classes=dataset.num_labels,
config=config) config=config,
add_crf=True)
# Finetune and evaluate model by PaddleHub's API # Finetune and evaluate model by PaddleHub's API
# will finish training, evaluation, testing, save model automatically # will finish training, evaluation, testing, save model automatically
......
...@@ -9,6 +9,7 @@ CKPT_DIR="./ckpt_${DATASET}" ...@@ -9,6 +9,7 @@ CKPT_DIR="./ckpt_${DATASET}"
# ChnSentiCorp: batch_size=24, weight_decay=0.01, num_epoch=3, max_seq_len=128, lr=5e-5 # ChnSentiCorp: batch_size=24, weight_decay=0.01, num_epoch=3, max_seq_len=128, lr=5e-5
# NLPCC_DBQA: batch_size=8, weight_decay=0.01, num_epoch=3, max_seq_len=512, lr=2e-5 # NLPCC_DBQA: batch_size=8, weight_decay=0.01, num_epoch=3, max_seq_len=512, lr=2e-5
# LCQMC: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=2e-5 # LCQMC: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=2e-5
# TNews: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5
# QQP: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5 # QQP: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5
# QNLI: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5 # QNLI: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5
# SST-2: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5 # SST-2: batch_size=32, weight_decay=0, num_epoch=3, max_seq_len=128, lr=5e-5
......
...@@ -45,6 +45,10 @@ if __name__ == '__main__': ...@@ -45,6 +45,10 @@ if __name__ == '__main__':
dataset = hub.dataset.ChnSentiCorp() dataset = hub.dataset.ChnSentiCorp()
module = hub.Module(name="ernie") module = hub.Module(name="ernie")
metrics_choices = ["acc"] metrics_choices = ["acc"]
elif args.dataset.lower() == "tnews":
dataset = hub.dataset.TNews()
module = hub.Module(name="ernie")
metrics_choices = ["acc", "f1"]
elif args.dataset.lower() == "nlpcc_dbqa": elif args.dataset.lower() == "nlpcc_dbqa":
dataset = hub.dataset.NLPCC_DBQA() dataset = hub.dataset.NLPCC_DBQA()
module = hub.Module(name="ernie") module = hub.Module(name="ernie")
......
...@@ -59,3 +59,5 @@ from .finetune.strategy import DefaultFinetuneStrategy ...@@ -59,3 +59,5 @@ from .finetune.strategy import DefaultFinetuneStrategy
from .finetune.strategy import L2SPFinetuneStrategy from .finetune.strategy import L2SPFinetuneStrategy
from .finetune.strategy import ULMFiTStrategy from .finetune.strategy import ULMFiTStrategy
from .finetune.strategy import CombinedStrategy from .finetune.strategy import CombinedStrategy
from .autofinetune.evaluator import report_final_result
...@@ -18,13 +18,14 @@ import copy ...@@ -18,13 +18,14 @@ import copy
import json import json
import math import math
import numpy as np import numpy as np
import os
import six import six
import time import time
from tb_paddle import SummaryWriter from tb_paddle import SummaryWriter
from paddlehub.common.logger import logger from paddlehub.common.logger import logger
from paddlehub.common.utils import mkdir from paddlehub.common.utils import mkdir
from paddlehub.autofinetune.evaluator import REWARD_SUM from paddlehub.autofinetune.evaluator import REWARD_SUM, TMP_HOME
if six.PY3: if six.PY3:
INF = math.inf INF = math.inf
...@@ -63,8 +64,17 @@ class BaseTuningStrategy(object): ...@@ -63,8 +64,17 @@ class BaseTuningStrategy(object):
self._output_dir = "output_" + time_str self._output_dir = "output_" + time_str
else: else:
self._output_dir = output_dir self._output_dir = output_dir
# record the information for the whole auto finetune
self.writer = SummaryWriter(logdir=self._output_dir + '/visualization') self.writer = SummaryWriter(logdir=self._output_dir + '/visualization')
# record the information for per population in all round
self.writer_pop_trails = []
for i in range(self.popsize):
writer_pop_trail = SummaryWriter(
logdir=self._output_dir + '/visualization/pop_{}'.format(i))
self.writer_pop_trails.append(writer_pop_trail)
@property @property
def thread(self): def thread(self):
return self._num_thread return self._num_thread
...@@ -150,7 +160,7 @@ class BaseTuningStrategy(object): ...@@ -150,7 +160,7 @@ class BaseTuningStrategy(object):
return self.current_hparams return self.current_hparams
def feedback(self, params_list, reward_list): def feedback(self, params_list, reward_list):
return NotImplementedError raise NotImplementedError
def get_best_hparams(self): def get_best_hparams(self):
return self.best_hparams_all_pop return self.best_hparams_all_pop
...@@ -189,6 +199,9 @@ class BaseTuningStrategy(object): ...@@ -189,6 +199,9 @@ class BaseTuningStrategy(object):
params_cudas_dirs = [] params_cudas_dirs = []
self.feedback(solutions, solution_results) self.feedback(solutions, solution_results)
# remove the tmp.txt which records the eval results for trials
tmp_file = os.path.join(TMP_HOME, "tmp.txt")
os.remove(tmp_file)
return solutions_modeldirs return solutions_modeldirs
...@@ -238,10 +251,9 @@ class HAZero(BaseTuningStrategy): ...@@ -238,10 +251,9 @@ class HAZero(BaseTuningStrategy):
for index, hparam_name in enumerate(self.hparams_name_list): for index, hparam_name in enumerate(self.hparams_name_list):
print("%s=%s" % (hparam_name, local_hparams[index])) print("%s=%s" % (hparam_name, local_hparams[index]))
for i in range(self.popsize): if local_min_reward <= self.best_reward_all_pop:
if reward_list[i] < self.best_reward_all_pop: self.best_reward_all_pop = local_min_reward
self.best_hparams_all_pop = self.current_hparams[i] self.best_hparams_all_pop = params_list[local_min_reward_index]
self.best_reward_all_pop = reward_list[i]
best_hparams = self.evaluator.convert_params(self.best_hparams_all_pop) best_hparams = self.evaluator.convert_params(self.best_hparams_all_pop)
for index, name in enumerate(self.hparams_name_list): for index, name in enumerate(self.hparams_name_list):
...@@ -253,6 +265,17 @@ class HAZero(BaseTuningStrategy): ...@@ -253,6 +265,17 @@ class HAZero(BaseTuningStrategy):
tag="hyperparameter_tuning/best_eval_value", tag="hyperparameter_tuning/best_eval_value",
scalar_value=self.get_best_eval_value(), scalar_value=self.get_best_eval_value(),
global_step=self.round) global_step=self.round)
for pop_num in range(self.popsize):
params = self.evaluator.convert_params(params_list[pop_num])
for index, name in enumerate(self.hparams_name_list):
self.writer_pop_trails[pop_num].add_scalar(
tag="population_transformation/" + name,
scalar_value=params[index],
global_step=self.round)
self.writer_pop_trails[pop_num].add_scalar(
tag="population_transformation/eval_value",
scalar_value=(REWARD_SUM - reward_list[pop_num]),
global_step=self.round)
self.evolution_stratefy.tell(params_list, reward_list) self.evolution_stratefy.tell(params_list, reward_list)
self.evolution_stratefy.disp() self.evolution_stratefy.disp()
...@@ -349,6 +372,7 @@ class PSHE2(BaseTuningStrategy): ...@@ -349,6 +372,7 @@ class PSHE2(BaseTuningStrategy):
local_min_reward = min(reward_list) local_min_reward = min(reward_list)
local_min_reward_index = reward_list.index(local_min_reward) local_min_reward_index = reward_list.index(local_min_reward)
local_hparams = self.evaluator.convert_params( local_hparams = self.evaluator.convert_params(
params_list[local_min_reward_index]) params_list[local_min_reward_index])
print("The local best eval value in the %s-th round is %s." % print("The local best eval value in the %s-th round is %s." %
...@@ -358,13 +382,15 @@ class PSHE2(BaseTuningStrategy): ...@@ -358,13 +382,15 @@ class PSHE2(BaseTuningStrategy):
print("%s=%s" % (hparam_name, local_hparams[index])) print("%s=%s" % (hparam_name, local_hparams[index]))
for i in range(self.popsize): for i in range(self.popsize):
if reward_list[i] < self.best_reward_per_pop[i]: if reward_list[i] <= self.best_reward_per_pop[i]:
self.best_hparams_per_pop[i] = copy.deepcopy( self.best_hparams_per_pop[i] = copy.deepcopy(
self.current_hparams[i]) self.current_hparams[i])
self.best_reward_per_pop[i] = reward_list[i] self.best_reward_per_pop[i] = copy.deepcopy(reward_list[i])
if reward_list[i] < self.best_reward_all_pop:
self.best_hparams_all_pop = self.current_hparams[i] if local_min_reward <= self.best_reward_all_pop:
self.best_reward_all_pop = reward_list[i] self.best_reward_all_pop = local_min_reward
self.best_hparams_all_pop = copy.deepcopy(
params_list[local_min_reward_index])
best_hparams = self.evaluator.convert_params(self.best_hparams_all_pop) best_hparams = self.evaluator.convert_params(self.best_hparams_all_pop)
for index, name in enumerate(self.hparams_name_list): for index, name in enumerate(self.hparams_name_list):
...@@ -376,6 +402,17 @@ class PSHE2(BaseTuningStrategy): ...@@ -376,6 +402,17 @@ class PSHE2(BaseTuningStrategy):
tag="hyperparameter_tuning/best_eval_value", tag="hyperparameter_tuning/best_eval_value",
scalar_value=self.get_best_eval_value(), scalar_value=self.get_best_eval_value(),
global_step=self.round) global_step=self.round)
for pop_num in range(self.popsize):
params = self.evaluator.convert_params(params_list[pop_num])
for index, name in enumerate(self.hparams_name_list):
self.writer_pop_trails[pop_num].add_scalar(
tag="population_transformation/" + name,
scalar_value=params[index],
global_step=self.round)
self.writer_pop_trails[pop_num].add_scalar(
tag="population_transformation/eval_value",
scalar_value=(REWARD_SUM - reward_list[pop_num]),
global_step=self.round)
self.estimate_momemtum() self.estimate_momemtum()
for i in range(self.popsize): for i in range(self.popsize):
......
...@@ -24,10 +24,12 @@ import random ...@@ -24,10 +24,12 @@ import random
import six import six
import yaml import yaml
from paddlehub.common.dir import HUB_HOME
from paddlehub.common.logger import logger from paddlehub.common.logger import logger
from paddlehub.common.utils import is_windows from paddlehub.common.utils import is_windows, mkdir
REWARD_SUM = 10000 REWARD_SUM = 1
TMP_HOME = os.path.join(HUB_HOME, "tmp")
if six.PY3: if six.PY3:
INF = math.inf INF = math.inf
...@@ -35,6 +37,24 @@ else: ...@@ -35,6 +37,24 @@ else:
INF = float("inf") INF = float("inf")
def report_final_result(result):
trial_id = os.environ.get("PaddleHub_AutoDL_Trial_ID")
# tmp.txt is to record the eval results for trials
mkdir(TMP_HOME)
tmp_file = os.path.join(TMP_HOME, "tmp.txt")
with open(tmp_file, 'a') as file:
file.write(trial_id + "\t" + str(float(result)) + "\n")
def unique_name():
seed = "1234567890abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!@#$%^&*()_+=-"
x = []
for idx in range(4):
x.append(random.choice(seed))
rand_str = "".join(x)
return rand_str
class BaseEvaluator(object): class BaseEvaluator(object):
def __init__(self, params_file, finetunee_script, options_str=""): def __init__(self, params_file, finetunee_script, options_str=""):
with io.open(params_file, 'r', encoding='utf8') as f: with io.open(params_file, 'r', encoding='utf8') as f:
...@@ -132,34 +152,40 @@ class FullTrailEvaluator(BaseEvaluator): ...@@ -132,34 +152,40 @@ class FullTrailEvaluator(BaseEvaluator):
else: else:
run_cmd = "export FLAGS_eager_delete_tensor_gb=0.0; export CUDA_VISIBLE_DEVICES=%s; python -u %s --saved_params_dir=%s %s %s >%s 2>&1" % \ run_cmd = "export FLAGS_eager_delete_tensor_gb=0.0; export CUDA_VISIBLE_DEVICES=%s; python -u %s --saved_params_dir=%s %s %s >%s 2>&1" % \
(num_cuda, self.finetunee_script, saved_params_dir, param_str, self.options_str, log_file) (num_cuda, self.finetunee_script, saved_params_dir, param_str, self.options_str, log_file)
try: try:
# set temp environment variable to record the eval results for trials
rand_str = unique_name()
os.environ['PaddleHub_AutoDL_Trial_ID'] = rand_str
os.system(run_cmd) os.system(run_cmd)
with open(log_file, "r") as f:
lines = f.readlines() eval_result = []
eval_result = [] tmp_file = os.path.join(TMP_HOME, 'tmp.txt')
for line in lines: with open(tmp_file, 'r') as file:
line = line.strip() for line in file:
if line.startswith("AutoFinetuneEval"): data = line.strip().split("\t")
data = line.split("\t") if rand_str == data[0]:
eval_result = float(data[-1]) eval_result = float(data[1])
if eval_result == []: if eval_result == []:
print( print(
"WARNING: Program which was ran with hyperparameters as %s was crashed!" "WARNING: Program which was ran with hyperparameters as %s was crashed!"
% param_str.replace("--", "")) % param_str.replace("--", ""))
eval_result = 0.0 eval_result = 0.0
except: except:
print( print(
"WARNING: Program which was ran with hyperparameters as %s was crashed!" "WARNING: Program which was ran with hyperparameters as %s was crashed!"
% param_str.replace("--", "")) % param_str.replace("--", ""))
eval_result = 0.0 eval_result = 0.0
reward = self.get_reward(eval_result) reward = self.get_reward(eval_result)
self.model_rewards[saved_params_dir] = reward self.model_rewards[saved_params_dir] = reward
return reward return reward
class ModelBasedEvaluator(BaseEvaluator): class PopulationBasedEvaluator(BaseEvaluator):
def __init__(self, params_file, finetunee_script, options_str=""): def __init__(self, params_file, finetunee_script, options_str=""):
super(ModelBasedEvaluator, self).__init__( super(PopulationBasedEvaluator, self).__init__(
params_file, finetunee_script, options_str=options_str) params_file, finetunee_script, options_str=options_str)
self.half_best_model_path = [] self.half_best_model_path = []
self.run_count = 0 self.run_count = 0
...@@ -196,26 +222,32 @@ class ModelBasedEvaluator(BaseEvaluator): ...@@ -196,26 +222,32 @@ class ModelBasedEvaluator(BaseEvaluator):
(num_cuda, self.finetunee_script, saved_params_dir, param_str, self.options_str, log_file) (num_cuda, self.finetunee_script, saved_params_dir, param_str, self.options_str, log_file)
self.run_count += 1 self.run_count += 1
try: try:
# set temp environment variable to record the eval results for trials
rand_str = unique_name()
os.environ['PaddleHub_AutoDL_Trial_ID'] = rand_str
os.system(run_cmd) os.system(run_cmd)
with open(log_file, "r") as f:
lines = f.readlines() eval_result = []
eval_result = [] tmp_file = os.join.path(TMP_HOME, 'tmp.txt')
for line in lines: with open(tmp_file, 'r') as file:
line = line.strip() for line in file:
if line.startswith("AutoFinetuneEval"): data = line.strip().split("\t")
data = line.split("\t") if rand_str == data[0]:
eval_result = float(data[-1]) eval_result = float(data[1])
if eval_result == []: if eval_result == []:
print( print(
"WARNING: Program which was ran with hyperparameters as %s was crashed!" "WARNING: Program which was ran with hyperparameters as %s was crashed!"
% param_str.replace("--", "")) % param_str.replace("--", ""))
eval_result = 0.0 eval_result = 0.0
except: except:
print( print(
"WARNING: Program which was ran with hyperparameters as %s was crashed!" "WARNING: Program which was ran with hyperparameters as %s was crashed!"
% param_str.replace("--", "")) % param_str.replace("--", ""))
eval_result = 0.0 eval_result = 0.0
reward = self.get_reward(eval_result) reward = self.get_reward(eval_result)
self.model_rewards[saved_params_dir] = reward self.model_rewards[saved_params_dir] = reward
return reward return reward
......
...@@ -25,6 +25,7 @@ import sys ...@@ -25,6 +25,7 @@ import sys
import ast import ast
import six import six
import shutil
import pandas import pandas
import numpy as np import numpy as np
...@@ -33,7 +34,7 @@ from paddlehub.common.arg_helper import add_argument, print_arguments ...@@ -33,7 +34,7 @@ from paddlehub.common.arg_helper import add_argument, print_arguments
from paddlehub.autofinetune.autoft import PSHE2 from paddlehub.autofinetune.autoft import PSHE2
from paddlehub.autofinetune.autoft import HAZero from paddlehub.autofinetune.autoft import HAZero
from paddlehub.autofinetune.evaluator import FullTrailEvaluator from paddlehub.autofinetune.evaluator import FullTrailEvaluator
from paddlehub.autofinetune.evaluator import ModelBasedEvaluator from paddlehub.autofinetune.evaluator import PopulationBasedEvaluator
from paddlehub.common.logger import logger from paddlehub.common.logger import logger
import paddlehub as hub import paddlehub as hub
...@@ -46,7 +47,7 @@ class AutoFineTuneCommand(BaseCommand): ...@@ -46,7 +47,7 @@ class AutoFineTuneCommand(BaseCommand):
super(AutoFineTuneCommand, self).__init__(name) super(AutoFineTuneCommand, self).__init__(name)
self.show_in_help = True self.show_in_help = True
self.name = name self.name = name
self.description = "Paddlehub helps to finetune a task by searching hyperparameters automatically." self.description = "PaddleHub helps to finetune a task by searching hyperparameters automatically."
self.parser = argparse.ArgumentParser( self.parser = argparse.ArgumentParser(
description=self.__class__.__doc__, description=self.__class__.__doc__,
prog='%s %s <task to be fintuned in python script>' % (ENTRY, prog='%s %s <task to be fintuned in python script>' % (ENTRY,
...@@ -69,9 +70,9 @@ class AutoFineTuneCommand(BaseCommand): ...@@ -69,9 +70,9 @@ class AutoFineTuneCommand(BaseCommand):
self.arg_config_group.add_argument( self.arg_config_group.add_argument(
"--popsize", type=int, default=5, help="Population size") "--popsize", type=int, default=5, help="Population size")
self.arg_config_group.add_argument( self.arg_config_group.add_argument(
"--cuda", "--gpu",
type=ast.literal_eval, type=str,
default=['0'], default="0",
required=True, required=True,
help="The list of gpu devices to be used") help="The list of gpu devices to be used")
self.arg_config_group.add_argument( self.arg_config_group.add_argument(
...@@ -82,10 +83,10 @@ class AutoFineTuneCommand(BaseCommand): ...@@ -82,10 +83,10 @@ class AutoFineTuneCommand(BaseCommand):
default=None, default=None,
help="Directory to model checkpoint") help="Directory to model checkpoint")
self.arg_config_group.add_argument( self.arg_config_group.add_argument(
"--evaluate_choice", "--evaluator",
type=str, type=str,
default="modelbased", default="populationbased",
help="Choices: fulltrail or modelbased.") help="Choices: fulltrail or populationbased.")
self.arg_config_group.add_argument( self.arg_config_group.add_argument(
"--tuning_strategy", "--tuning_strategy",
type=str, type=str,
...@@ -142,30 +143,33 @@ class AutoFineTuneCommand(BaseCommand): ...@@ -142,30 +143,33 @@ class AutoFineTuneCommand(BaseCommand):
if self.args.opts is not None: if self.args.opts is not None:
options_str = self.convert_to_other_options(self.args.opts) options_str = self.convert_to_other_options(self.args.opts)
if self.args.evaluate_choice.lower() == "fulltrail": device_ids = self.args.gpu.strip().split(",")
device_ids = [int(device_id) for device_id in device_ids]
if self.args.evaluator.lower() == "fulltrail":
evaluator = FullTrailEvaluator( evaluator = FullTrailEvaluator(
self.args.param_file, self.args.param_file,
self.fintunee_script, self.fintunee_script,
options_str=options_str) options_str=options_str)
elif self.args.evaluate_choice.lower() == "modelbased": elif self.args.evaluator.lower() == "populationbased":
evaluator = ModelBasedEvaluator( evaluator = PopulationBasedEvaluator(
self.args.param_file, self.args.param_file,
self.fintunee_script, self.fintunee_script,
options_str=options_str) options_str=options_str)
else: else:
raise ValueError( raise ValueError(
"The evaluate %s is not defined!" % self.args.evaluate_choice) "The evaluate %s is not defined!" % self.args.evaluator)
if self.args.tuning_strategy.lower() == "hazero": if self.args.tuning_strategy.lower() == "hazero":
autoft = HAZero( autoft = HAZero(
evaluator, evaluator,
cudas=self.args.cuda, cudas=device_ids,
popsize=self.args.popsize, popsize=self.args.popsize,
output_dir=self.args.output_dir) output_dir=self.args.output_dir)
elif self.args.tuning_strategy.lower() == "pshe2": elif self.args.tuning_strategy.lower() == "pshe2":
autoft = PSHE2( autoft = PSHE2(
evaluator, evaluator,
cudas=self.args.cuda, cudas=device_ids,
popsize=self.args.popsize, popsize=self.args.popsize,
output_dir=self.args.output_dir) output_dir=self.args.output_dir)
else: else:
...@@ -191,16 +195,30 @@ class AutoFineTuneCommand(BaseCommand): ...@@ -191,16 +195,30 @@ class AutoFineTuneCommand(BaseCommand):
for index, hparam_name in enumerate(autoft.hparams_name_list): for index, hparam_name in enumerate(autoft.hparams_name_list):
print("%s=%s" % (hparam_name, best_hparams[index])) print("%s=%s" % (hparam_name, best_hparams[index]))
f.write(hparam_name + "\t:\t" + str(best_hparams[index]) + "\n") f.write(hparam_name + "\t:\t" + str(best_hparams[index]) + "\n")
f.write("\n\n\n")
print("The final best eval score is %s." %
autoft.get_best_eval_value())
print("The final best model parameters are saved as " +
autoft._output_dir + "/best_model .")
f.write("The final best eval score is %s.\n" %
autoft.get_best_eval_value())
f.write(
"The final best model parameters are saved as ./best_model .")
best_model_dir = autoft._output_dir + "/best_model"
shutil.copytree(
solutions_modeldirs[tuple(autoft.get_best_hparams())],
best_model_dir)
f.write("\t".join(autoft.hparams_name_list) + f.write("\t".join(autoft.hparams_name_list) +
"\tsaved_params_dir\n\n") "\tsaved_params_dir\n")
print( print(
"The related infomation about hyperparamemters searched are saved as %s/log_file.txt ." "The related infomation about hyperparamemters searched are saved as %s/log_file.txt ."
% autoft._output_dir) % autoft._output_dir)
for solution, modeldir in solutions_modeldirs.items(): for solution, modeldir in solutions_modeldirs.items():
param = evaluator.convert_params(solution) param = evaluator.convert_params(solution)
param = [str(p) for p in param] param = [str(p) for p in param]
f.write("\t".join(param) + "\t" + modeldir + "\n\n") f.write("\t".join(param) + "\t" + modeldir + "\n")
return True return True
......
...@@ -23,6 +23,7 @@ from .toxic import Toxic ...@@ -23,6 +23,7 @@ from .toxic import Toxic
from .squad import SQUAD from .squad import SQUAD
from .xnli import XNLI from .xnli import XNLI
from .glue import GLUE from .glue import GLUE
from .tnews import TNews
# CV Dataset # CV Dataset
from .dogcat import DogCatDataset as DogCat from .dogcat import DogCatDataset as DogCat
......
# coding:utf-8
# Copyright (c) 2019 PaddlePaddle Authors. All Rights Reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License"
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
from collections import namedtuple
import io
import os
import csv
from paddlehub.dataset import InputExample, HubDataset
from paddlehub.common.downloader import default_downloader
from paddlehub.common.dir import DATA_HOME
from paddlehub.common.logger import logger
_DATA_URL = "https://bj.bcebos.com/paddlehub-dataset/tnews.tar.gz"
class TNews(HubDataset):
"""
TNews is the chinese news classification dataset on JinRiTouDiao App.
"""
def __init__(self):
self.dataset_dir = os.path.join(DATA_HOME, "tnews")
if not os.path.exists(self.dataset_dir):
ret, tips, self.dataset_dir = default_downloader.download_file_and_uncompress(
url=_DATA_URL, save_path=DATA_HOME, print_progress=True)
else:
logger.info("Dataset {} already cached.".format(self.dataset_dir))
self._load_train_examples()
self._load_test_examples()
self._load_dev_examples()
def _load_train_examples(self):
self.train_file = os.path.join(self.dataset_dir,
"toutiao_category_train.txt")
self.train_examples = self._read_file(self.train_file)
def _load_dev_examples(self):
self.dev_file = os.path.join(self.dataset_dir,
"toutiao_category_dev.txt")
self.dev_examples = self._read_file(self.dev_file)
def _load_test_examples(self):
self.test_file = os.path.join(self.dataset_dir,
"toutiao_category_test.txt")
self.test_examples = self._read_file(self.test_file)
def get_train_examples(self):
return self.train_examples
def get_dev_examples(self):
return self.dev_examples
def get_test_examples(self):
return self.test_examples
def get_labels(self):
return [
'news_game', 'news_sports', 'news_finance', 'news_entertainment',
'news_tech', 'news_house', 'news_car', 'news_culture', 'news_world',
'news_travel', 'news_agriculture', 'news_military', 'news_edu',
'news_story', 'stock'
]
@property
def num_labels(self):
"""
Return the number of labels in the dataset.
"""
return len(self.get_labels())
def _read_file(self, input_file):
"""Reads a tab separated value file."""
with io.open(input_file, "r", encoding="UTF-8") as file:
examples = []
for line in file:
data = line.strip().split("_!_")
example = InputExample(
guid=data[0], label=data[2], text_a=data[3])
examples.append(example)
return examples
if __name__ == "__main__":
ds = TNews()
for e in ds.get_train_examples()[:10]:
print("{}\t{}\t{}\t{}".format(e.guid, e.text_a, e.text_b, e.label))
...@@ -33,8 +33,8 @@ _DATA_URL = "https://bj.bcebos.com/paddlehub-dataset/toxic.tar.gz" ...@@ -33,8 +33,8 @@ _DATA_URL = "https://bj.bcebos.com/paddlehub-dataset/toxic.tar.gz"
class Toxic(HubDataset): class Toxic(HubDataset):
""" """
ChnSentiCorp (by Tan Songbo at ICT of Chinese Academy of Sciences, and for The kaggle Toxic dataset:
opinion mining) https://www.kaggle.com/c/jigsaw-toxic-comment-classification-challenge
""" """
def __init__(self): def __init__(self):
......
...@@ -22,6 +22,7 @@ import contextlib ...@@ -22,6 +22,7 @@ import contextlib
import time import time
import copy import copy
import logging import logging
import numpy as np
import paddle.fluid as fluid import paddle.fluid as fluid
from tb_paddle import SummaryWriter from tb_paddle import SummaryWriter
...@@ -305,6 +306,10 @@ class BasicTask(object): ...@@ -305,6 +306,10 @@ class BasicTask(object):
return [_places[0]] return [_places[0]]
return _places return _places
@property
def return_numpy(self):
return True
@property @property
def is_train_phase(self): def is_train_phase(self):
return self.phase in ["train"] return self.phase in ["train"]
...@@ -653,10 +658,18 @@ class BasicTask(object): ...@@ -653,10 +658,18 @@ class BasicTask(object):
step_run_state.run_step = 1 step_run_state.run_step = 1
num_batch_examples = len(batch) num_batch_examples = len(batch)
fetch_result = self.exe.run( if self.return_numpy:
self.main_program_to_be_run, fetch_result = self.exe.run(
feed=data_feeder.feed(batch), self.main_program_to_be_run,
fetch_list=self.fetch_list) feed=data_feeder.feed(batch),
fetch_list=self.fetch_list)
else:
fetch_result = self.exe.run(
self.main_program_to_be_run,
feed=data_feeder.feed(batch),
fetch_list=self.fetch_list,
return_numpy=False)
fetch_result = [np.array(x) for x in fetch_result]
for index, result in enumerate(fetch_result): for index, result in enumerate(fetch_result):
step_run_state.run_results[index] = result step_run_state.run_results[index] = result
...@@ -694,8 +707,17 @@ class BasicTask(object): ...@@ -694,8 +707,17 @@ class BasicTask(object):
num_batch_examples = self.config.batch_size * self.device_count num_batch_examples = self.config.batch_size * self.device_count
step_run_state = RunState(len(self.fetch_list)) step_run_state = RunState(len(self.fetch_list))
step_run_state.run_step = 1 step_run_state.run_step = 1
fetch_result = self.exe.run(
self.main_program_to_be_run, fetch_list=self.fetch_list) if self.return_numpy:
fetch_result = self.exe.run(
self.main_program_to_be_run,
fetch_list=self.fetch_list)
else:
fetch_result = self.exe.run(
self.main_program_to_be_run,
fetch_list=self.fetch_list,
return_numpy=False)
fetch_result = [np.array(x) for x in fetch_result]
for index, result in enumerate(fetch_result): for index, result in enumerate(fetch_result):
step_run_state.run_results[index] = result step_run_state.run_results[index] = result
......
...@@ -34,10 +34,13 @@ class SequenceLabelTask(BasicTask): ...@@ -34,10 +34,13 @@ class SequenceLabelTask(BasicTask):
data_reader, data_reader,
startup_program=None, startup_program=None,
config=None, config=None,
metrics_choices="default"): metrics_choices="default",
add_crf=False):
if metrics_choices == "default": if metrics_choices == "default":
metrics_choices = ["f1", "precision", "recall"] metrics_choices = ["f1", "precision", "recall"]
self.add_crf = add_crf
main_program = feature.block.program main_program = feature.block.program
super(SequenceLabelTask, self).__init__( super(SequenceLabelTask, self).__init__(
data_reader=data_reader, data_reader=data_reader,
...@@ -50,31 +53,56 @@ class SequenceLabelTask(BasicTask): ...@@ -50,31 +53,56 @@ class SequenceLabelTask(BasicTask):
self.max_seq_len = max_seq_len self.max_seq_len = max_seq_len
self.num_classes = num_classes self.num_classes = num_classes
def _build_net(self): @property
self.logits = fluid.layers.fc( def return_numpy(self):
input=self.feature, if self.add_crf:
size=self.num_classes, return False
num_flatten_dims=2, else:
param_attr=fluid.ParamAttr( return True
name="cls_seq_label_out_w",
initializer=fluid.initializer.TruncatedNormal(scale=0.02)),
bias_attr=fluid.ParamAttr(
name="cls_seq_label_out_b",
initializer=fluid.initializer.Constant(0.)))
self.ret_infers = fluid.layers.reshape(
x=fluid.layers.argmax(self.logits, axis=2), shape=[-1, 1])
ret_infers = fluid.layers.assign(self.ret_infers)
def _build_net(self):
self.seq_len = fluid.layers.data( self.seq_len = fluid.layers.data(
name="seq_len", shape=[1], dtype='int64') name="seq_len", shape=[1], dtype='int64')
seq_len = fluid.layers.assign(self.seq_len) seq_len = fluid.layers.assign(self.seq_len)
logits = self.logits if self.add_crf:
logits = fluid.layers.flatten(logits, axis=2) unpad_feature = fluid.layers.sequence_unpad(
logits = fluid.layers.softmax(logits) self.feature, length=self.seq_len)
self.num_labels = logits.shape[1] self.emission = fluid.layers.fc(
return [logits] size=self.num_classes,
input=unpad_feature,
param_attr=fluid.ParamAttr(
initializer=fluid.initializer.Uniform(low=-0.1, high=0.1),
regularizer=fluid.regularizer.L2DecayRegularizer(
regularization_coeff=1e-4)))
size = self.emission.shape[1]
fluid.layers.create_parameter(
shape=[size + 2, size], dtype=self.emission.dtype, name='crfw')
self.ret_infers = fluid.layers.crf_decoding(
input=self.emission, param_attr=fluid.ParamAttr(name='crfw'))
ret_infers = fluid.layers.assign(self.ret_infers)
return [ret_infers]
else:
self.logits = fluid.layers.fc(
input=self.feature,
size=self.num_classes,
num_flatten_dims=2,
param_attr=fluid.ParamAttr(
name="cls_seq_label_out_w",
initializer=fluid.initializer.TruncatedNormal(scale=0.02)),
bias_attr=fluid.ParamAttr(
name="cls_seq_label_out_b",
initializer=fluid.initializer.Constant(0.)))
self.ret_infers = fluid.layers.reshape(
x=fluid.layers.argmax(self.logits, axis=2), shape=[-1, 1])
ret_infers = fluid.layers.assign(self.ret_infers)
logits = self.logits
logits = fluid.layers.flatten(logits, axis=2)
logits = fluid.layers.softmax(logits)
self.num_labels = logits.shape[1]
return [logits]
def _add_label(self): def _add_label(self):
label = fluid.layers.data( label = fluid.layers.data(
...@@ -82,30 +110,60 @@ class SequenceLabelTask(BasicTask): ...@@ -82,30 +110,60 @@ class SequenceLabelTask(BasicTask):
return [label] return [label]
def _add_loss(self): def _add_loss(self):
labels = fluid.layers.flatten(self.labels[0], axis=2) if self.add_crf:
ce_loss = fluid.layers.cross_entropy( labels = fluid.layers.sequence_unpad(self.labels[0], self.seq_len)
input=self.outputs[0], label=labels) crf_cost = fluid.layers.linear_chain_crf(
loss = fluid.layers.mean(x=ce_loss) input=self.emission,
label=labels,
param_attr=fluid.ParamAttr(name='crfw'))
loss = fluid.layers.mean(x=crf_cost)
else:
labels = fluid.layers.flatten(self.labels[0], axis=2)
ce_loss = fluid.layers.cross_entropy(
input=self.outputs[0], label=labels)
loss = fluid.layers.mean(x=ce_loss)
return loss return loss
def _add_metrics(self): def _add_metrics(self):
self.ret_labels = fluid.layers.reshape(x=self.labels[0], shape=[-1, 1]) if self.add_crf:
return [self.ret_labels, self.ret_infers, self.seq_len] labels = fluid.layers.sequence_unpad(self.labels[0], self.seq_len)
(precision, recall, f1_score, num_infer_chunks, num_label_chunks,
num_correct_chunks) = fluid.layers.chunk_eval(
input=self.outputs[0],
label=labels,
chunk_scheme="IOB",
num_chunk_types=int(np.ceil((self.num_classes - 1) / 2.0)))
chunk_evaluator = fluid.metrics.ChunkEvaluator()
chunk_evaluator.reset()
return [precision, recall, f1_score]
else:
self.ret_labels = fluid.layers.reshape(
x=self.labels[0], shape=[-1, 1])
return [self.ret_labels, self.ret_infers, self.seq_len]
def _calculate_metrics(self, run_states): def _calculate_metrics(self, run_states):
total_infer = total_label = total_correct = loss_sum = 0 total_infer = total_label = total_correct = loss_sum = 0
run_step = run_time_used = run_examples = 0 run_step = run_time_used = run_examples = 0
precision_sum = recall_sum = f1_score_sum = 0
for run_state in run_states: for run_state in run_states:
loss_sum += np.mean(run_state.run_results[-1]) loss_sum += np.mean(run_state.run_results[-1])
np_labels = run_state.run_results[0] if self.add_crf:
np_infers = run_state.run_results[1] precision_sum += np.mean(
np_lens = run_state.run_results[2] run_state.run_results[0]) * run_state.run_examples
label_num, infer_num, correct_num = chunk_eval( recall_sum += np.mean(
np_labels, np_infers, np_lens, self.num_labels, run_state.run_results[1]) * run_state.run_examples
self.device_count) f1_score_sum += np.mean(
total_infer += infer_num run_state.run_results[2]) * run_state.run_examples
total_label += label_num else:
total_correct += correct_num np_labels = run_state.run_results[0]
np_infers = run_state.run_results[1]
np_lens = run_state.run_results[2]
label_num, infer_num, correct_num = chunk_eval(
np_labels, np_infers, np_lens, self.num_labels,
self.device_count)
total_infer += infer_num
total_label += label_num
total_correct += correct_num
run_examples += run_state.run_examples run_examples += run_state.run_examples
run_step += run_state.run_step run_step += run_state.run_step
...@@ -113,8 +171,13 @@ class SequenceLabelTask(BasicTask): ...@@ -113,8 +171,13 @@ class SequenceLabelTask(BasicTask):
run_speed = run_step / run_time_used run_speed = run_step / run_time_used
avg_loss = loss_sum / run_examples avg_loss = loss_sum / run_examples
precision, recall, f1 = calculate_f1(total_label, total_infer, if self.add_crf:
total_correct) precision = precision_sum / run_examples
recall = recall_sum / run_examples
f1 = f1_score_sum / run_examples
else:
precision, recall, f1 = calculate_f1(total_label, total_infer,
total_correct)
# The first key will be used as main metrics to update the best model # The first key will be used as main metrics to update the best model
scores = OrderedDict() scores = OrderedDict()
......
...@@ -37,7 +37,7 @@ class ImageClassificationReader(object): ...@@ -37,7 +37,7 @@ class ImageClassificationReader(object):
def __init__(self, def __init__(self,
image_width, image_width,
image_height, image_height,
dataset, dataset=None,
channel_order="RGB", channel_order="RGB",
images_mean=None, images_mean=None,
images_std=None, images_std=None,
...@@ -76,6 +76,8 @@ class ImageClassificationReader(object): ...@@ -76,6 +76,8 @@ class ImageClassificationReader(object):
phase="train", phase="train",
shuffle=False, shuffle=False,
data=None): data=None):
if phase != 'predict' and not self.dataset:
raise ValueError("The dataset is none and it's not allowed!")
if phase == "train": if phase == "train":
data = self.dataset.train_data(shuffle) data = self.dataset.train_data(shuffle)
elif phase == "test": elif phase == "test":
......
...@@ -37,8 +37,8 @@ import paddlehub as hub ...@@ -37,8 +37,8 @@ import paddlehub as hub
class BaseReader(object): class BaseReader(object):
def __init__(self, def __init__(self,
dataset,
vocab_path, vocab_path,
dataset=None,
label_map_config=None, label_map_config=None,
max_seq_len=512, max_seq_len=512,
do_lower_case=True, do_lower_case=True,
...@@ -63,9 +63,13 @@ class BaseReader(object): ...@@ -63,9 +63,13 @@ class BaseReader(object):
# generate label map # generate label map
self.label_map = {} self.label_map = {}
for index, label in enumerate(self.dataset.get_labels()): if self.dataset:
self.label_map[label] = index for index, label in enumerate(self.dataset.get_labels()):
logger.info("Dataset label map = {}".format(self.label_map)) self.label_map[label] = index
logger.info("Dataset label map = {}".format(self.label_map))
else:
logger.info("Dataset is None! label map = {}".format(
self.label_map))
self.current_example = 0 self.current_example = 0
self.current_epoch = 0 self.current_epoch = 0
...@@ -241,6 +245,8 @@ class BaseReader(object): ...@@ -241,6 +245,8 @@ class BaseReader(object):
phase='train', phase='train',
shuffle=True, shuffle=True,
data=None): data=None):
if phase != 'predict' and not self.dataset:
raise ValueError("The dataset is None ! It isn't allowed.")
if phase == 'train': if phase == 'train':
shuffle = True shuffle = True
examples = self.get_train_examples() examples = self.get_train_examples()
...@@ -260,7 +266,10 @@ class BaseReader(object): ...@@ -260,7 +266,10 @@ class BaseReader(object):
for item in data: for item in data:
# set label in order to run the program # set label in order to run the program
label = list(self.label_map.keys())[0] if self.dataset:
label = list(self.label_map.keys())[0]
else:
label = 0
if len(item) == 1: if len(item) == 1:
item_i = InputExample( item_i = InputExample(
guid=seq_id, text_a=item[0], label=label) guid=seq_id, text_a=item[0], label=label)
...@@ -498,7 +507,7 @@ class SequenceLabelReader(BaseReader): ...@@ -498,7 +507,7 @@ class SequenceLabelReader(BaseReader):
class LACClassifyReader(object): class LACClassifyReader(object):
def __init__(self, dataset, vocab_path, in_tokens=False): def __init__(self, vocab_path, dataset=None, in_tokens=False):
self.dataset = dataset self.dataset = dataset
self.lac = hub.Module(name="lac") self.lac = hub.Module(name="lac")
self.tokenizer = tokenization.FullTokenizer( self.tokenizer = tokenization.FullTokenizer(
...@@ -544,6 +553,8 @@ class LACClassifyReader(object): ...@@ -544,6 +553,8 @@ class LACClassifyReader(object):
phase="train", phase="train",
shuffle=False, shuffle=False,
data=None): data=None):
if phase != "predict" and not self.dataset:
raise ValueError("The dataset is None and it isn't allowed.")
if phase == "train": if phase == "train":
shuffle = True shuffle = True
data = self.dataset.get_train_examples() data = self.dataset.get_train_examples()
...@@ -756,8 +767,8 @@ class SquadInputFeatures(object): ...@@ -756,8 +767,8 @@ class SquadInputFeatures(object):
class RegressionReader(BaseReader): class RegressionReader(BaseReader):
def __init__(self, def __init__(self,
dataset,
vocab_path, vocab_path,
dataset=None,
label_map_config=None, label_map_config=None,
max_seq_len=128, max_seq_len=128,
do_lower_case=True, do_lower_case=True,
...@@ -845,6 +856,8 @@ class RegressionReader(BaseReader): ...@@ -845,6 +856,8 @@ class RegressionReader(BaseReader):
phase='train', phase='train',
shuffle=True, shuffle=True,
data=None): data=None):
if phase != 'predict' and not self.dataset:
raise ValueError("The dataset is none and it's not allowed.")
if phase == 'train': if phase == 'train':
shuffle = True shuffle = True
examples = self.get_train_examples() examples = self.get_train_examples()
......
...@@ -13,5 +13,5 @@ ...@@ -13,5 +13,5 @@
# See the License for the specific language governing permissions and # See the License for the specific language governing permissions and
# limitations under the License. # limitations under the License.
""" PaddleHub version string """ """ PaddleHub version string """
hub_version = "1.2.0" hub_version = "1.2.1"
module_proto_version = "1.0.0" module_proto_version = "1.0.0"
#for python2, you should use requirements_py2.txt #for python2, you should use requirements_py2.txt
pre-commit pre-commit
protobuf >= 3.1.0 protobuf >= 3.6.0
yapf == 0.26.0 yapf == 0.26.0
pyyaml pyyaml
numpy numpy
......
...@@ -31,7 +31,7 @@ def python_version(): ...@@ -31,7 +31,7 @@ def python_version():
max_version, mid_version, min_version = python_version() max_version, mid_version, min_version = python_version()
REQUIRED_PACKAGES = [ REQUIRED_PACKAGES = [
'six >= 1.10.0', 'protobuf >= 3.1.0', 'pyyaml', 'Pillow', 'requests', 'six >= 1.10.0', 'protobuf >= 3.6.0', 'pyyaml', 'Pillow', 'requests',
'tb-paddle', 'tb-nightly', 'cma == 2.7.0', 'flask >= 1.1.0' 'tb-paddle', 'tb-nightly', 'cma == 2.7.0', 'flask >= 1.1.0'
] ]
......
# PaddleHub 超参优化(Auto Fine-tune)——CV图像分类任务 # PaddleHub AutoDL Finetuner——图像分类任务
使用PaddleHub Auto Fine-tune必须准备两个文件,并且这两个文件需要按照指定的格式书写。这两个文件分别是需要Fine-tune的python脚本finetuee.py和需要优化的超参数信息yaml文件hparam.yaml。 使用PaddleHub AutoDL Finetuner需要准备两个指定格式的文件:待优化的超参数信息yaml文件hparam.yaml和需要Fine-tune的python脚本train.py
以Fine-tune图像分类任务为例,我们展示如何利用PaddleHub Auto Finetune进行超参优化。 以Fine-tune图像分类任务为例,展示如何利用PaddleHub AutoDL Finetuner进行超参优化。
以下是待优化超参数的yaml文件hparam.yaml,包含需要搜素的超参名字、类型、范围等信息。其中类型只支持float和int类型 以下是待优化超参数的yaml文件hparam.yaml,包含需要搜素的超参名字、类型、范围等信息。目前参数搜索类型只支持float和int类型
``` ```
param_list: param_list:
- name : learning_rate - name : learning_rate
...@@ -20,7 +20,7 @@ param_list: ...@@ -20,7 +20,7 @@ param_list:
greater_than : 10 greater_than : 10
``` ```
以下是图像分类的finetunee.py 以下是图像分类的`train.py`
```python ```python
# coding:utf-8 # coding:utf-8
...@@ -31,18 +31,20 @@ import shutil ...@@ -31,18 +31,20 @@ import shutil
import paddle.fluid as fluid import paddle.fluid as fluid
import paddlehub as hub import paddlehub as hub
import numpy as np from paddlehub.common.logger import logger
# yapf: disable
parser = argparse.ArgumentParser(__doc__) parser = argparse.ArgumentParser(__doc__)
parser.add_argument("--num_epoch", type=int, default=1, help="Number of epoches for fine-tuning.") parser.add_argument("--epochs", type=int, default=1, help="Number of epoches for fine-tuning.")
parser.add_argument("--use_gpu", type=ast.literal_eval, default=True, help="Whether use GPU for fine-tuning.") parser.add_argument("--use_gpu", type=ast.literal_eval, default=True, help="Whether use GPU for fine-tuning.")
parser.add_argument("--checkpoint_dir", type=str, default=None, help="Path to save log data.") parser.add_argument("--checkpoint_dir", type=str, default=None, help="Path to save log data.")
# the name of hyperparameters to be searched should keep with hparam.py
parser.add_argument("--batch_size", type=int, default=16, help="Total examples' number in batch for training.") parser.add_argument("--batch_size", type=int, default=16, help="Total examples' number in batch for training.")
parser.add_argument("--saved_params_dir", type=str, default="", help="Directory for saving model")
parser.add_argument("--learning_rate", type=float, default=1e-4, help="learning_rate.") parser.add_argument("--learning_rate", type=float, default=1e-4, help="learning_rate.")
# saved_params_dir and model_path are needed by auto finetune
parser.add_argument("--saved_params_dir", type=str, default="", help="Directory for saving model")
parser.add_argument("--model_path", type=str, default="", help="load model path") parser.add_argument("--model_path", type=str, default="", help="load model path")
# yapf: enable.
def is_path_valid(path): def is_path_valid(path):
...@@ -55,11 +57,12 @@ def is_path_valid(path): ...@@ -55,11 +57,12 @@ def is_path_valid(path):
return True return True
def finetune(args): def finetune(args):
# Load Paddlehub resnet50 pretrained model
module = hub.Module(name="resnet_v2_50_imagenet") module = hub.Module(name="resnet_v2_50_imagenet")
input_dict, output_dict, program = module.context(trainable=True) input_dict, output_dict, program = module.context(trainable=True)
# Download dataset and use ImageClassificationReader to read dataset
dataset = hub.dataset.Flowers() dataset = hub.dataset.Flowers()
data_reader = hub.reader.ImageClassificationReader( data_reader = hub.reader.ImageClassificationReader(
image_width=module.get_expected_image_width(), image_width=module.get_expected_image_width(),
image_height=module.get_expected_image_height(), image_height=module.get_expected_image_height(),
...@@ -78,11 +81,12 @@ def finetune(args): ...@@ -78,11 +81,12 @@ def finetune(args):
config = hub.RunConfig( config = hub.RunConfig(
use_cuda=True, use_cuda=True,
num_epoch=args.num_epoch, num_epoch=args.epochs,
batch_size=args.batch_size, batch_size=args.batch_size,
checkpoint_dir=args.checkpoint_dir, checkpoint_dir=args.checkpoint_dir,
strategy=strategy) strategy=strategy)
# Construct transfer learning network
task = hub.ImageClassifierTask( task = hub.ImageClassifierTask(
data_reader=data_reader, data_reader=data_reader,
feed_list=feed_list, feed_list=feed_list,
...@@ -108,6 +112,7 @@ def finetune(args): ...@@ -108,6 +112,7 @@ def finetune(args):
shutil.copytree(best_model_dir, args.saved_params_dir) shutil.copytree(best_model_dir, args.saved_params_dir)
shutil.rmtree(config.checkpoint_dir) shutil.rmtree(config.checkpoint_dir)
# acc on dev will be used by auto finetune
print("AutoFinetuneEval"+"\t"+str(float(eval_avg_score["acc"]))) print("AutoFinetuneEval"+"\t"+str(float(eval_avg_score["acc"])))
......
# PaddleHub 超参优化(Auto Fine-tune)——NLP情感分类任务 # PaddleHub 超参优化(AutoDL Finetuner)——NLP情感分类任务
使用PaddleHub Auto Fine-tune必须准备两个文件,并且这两个文件需要按照指定的格式书写。这两个文件分别是需要Fine-tune的python脚本finetuee.py和需要优化的超参数信息yaml文件hparam.yaml。 使用PaddleHub AutoDL Finetuner需要准备两个指定格式的文件:待优化的超参数信息yaml文件hparam.yaml和需要Fine-tune的python脚本train.py
以Fine-tune中文情感分类任务为例,我们展示如何利用PaddleHub Auto Finetune进行超参优化。 以Fine-tune中文情感分类任务为例,展示如何利用PaddleHub AutoDL Finetuner进行超参优化。
以下是待优化超参数的yaml文件hparam.yaml,包含需要搜素的超参名字、类型、范围等信息。其中类型只支持float和int类型 以下是待优化超参数的yaml文件hparam.yaml,包含需要搜索的超参名字、类型、范围等信息。其中类型只支持float和int
``` ```
param_list: param_list:
- name : learning_rate - name : learning_rate
...@@ -29,7 +29,7 @@ param_list: ...@@ -29,7 +29,7 @@ param_list:
greater_than : 0.0 greater_than : 0.0
``` ```
以下是中文情感分类的finetunee.py 以下是中文情感分类的`train.py`
```python ```python
from __future__ import absolute_import from __future__ import absolute_import
...@@ -44,19 +44,22 @@ import paddlehub as hub ...@@ -44,19 +44,22 @@ import paddlehub as hub
import os import os
from paddlehub.common.logger import logger from paddlehub.common.logger import logger
# yapf: disable
parser = argparse.ArgumentParser(__doc__) parser = argparse.ArgumentParser(__doc__)
parser.add_argument("--epochs", type=int, default=3, help="epochs.") parser.add_argument("--epochs", type=int, default=3, help="epochs.")
# the name of hyperparameters to be searched should keep with hparam.py
parser.add_argument("--batch_size", type=int, default=32, help="batch_size.") parser.add_argument("--batch_size", type=int, default=32, help="batch_size.")
parser.add_argument("--learning_rate", type=float, default=5e-5, help="learning_rate.") parser.add_argument("--learning_rate", type=float, default=5e-5, help="learning_rate.")
parser.add_argument("--warmup_prop", type=float, default=0.1, help="warmup_prop.") parser.add_argument("--warmup_prop", type=float, default=0.1, help="warmup_prop.")
parser.add_argument("--weight_decay", type=float, default=0.01, help="weight_decay.") parser.add_argument("--weight_decay", type=float, default=0.01, help="weight_decay.")
parser.add_argument("--max_seq_len", type=int, default=128, help="Number of words of the longest seqence.") parser.add_argument("--max_seq_len", type=int, default=128, help="Number of words of the longest seqence.")
parser.add_argument("--checkpoint_dir", type=str, default=None, help="Directory to model checkpoint") parser.add_argument("--checkpoint_dir", type=str, default=None, help="Directory to model checkpoint")
# saved_params_dir and model_path are needed by auto finetune
parser.add_argument("--saved_params_dir", type=str, default="", help="Directory for saving model during ") parser.add_argument("--saved_params_dir", type=str, default="", help="Directory for saving model during ")
parser.add_argument("--model_path", type=str, default="", help="load model path") parser.add_argument("--model_path", type=str, default="", help="load model path")
args = parser.parse_args() args = parser.parse_args()
# yapf: enable.
def is_path_valid(path): def is_path_valid(path):
...@@ -137,6 +140,7 @@ if __name__ == '__main__': ...@@ -137,6 +140,7 @@ if __name__ == '__main__':
if is_path_valid(args.saved_params_dir) and os.path.exists(best_model_dir): if is_path_valid(args.saved_params_dir) and os.path.exists(best_model_dir):
shutil.copytree(best_model_dir, args.saved_params_dir) shutil.copytree(best_model_dir, args.saved_params_dir)
shutil.rmtree(config.checkpoint_dir) shutil.rmtree(config.checkpoint_dir)
# acc on dev will be used by auto finetune
print("AutoFinetuneEval"+"\t"+str(float(eval_avg_score["acc"]))) print("AutoFinetuneEval"+"\t"+str(float(eval_avg_score["acc"])))
``` ```
# PaddleHub 超参优化(Auto Fine-tune # PaddleHub 超参优化(AutoDL Finetuner
## 一、简介 ## 一、简介
机器学习训练模型的过程中自然少不了调参。模型的参数可分成两类:参数与超参数,前者是模型通过自身的训练学习得到的参数数据;后者则需要通过人工经验设置(如学习率、dropout_rate、batch_size等),以提高模型训练的效果。当前模型往往参数空间大,手动调参十分耗时,尝试成本高。PaddleHub Auto Fine-tune可以实现自动调整超参数。 目前深度学习模型参数可分类两类:*模型参数 (Model Parameters)**超参数 (Hyper Parameters)*,前者是模型通过大量的样本数据进行训练学习得到的参数数据;后者则需要通过人工经验或者不断尝试找到最佳设置(如学习率、dropout_rate、batch_size等),以提高模型训练的效果。如果想得到一个效果好的深度学习神经网络模型,超参的设置非常关键。因为模型参数空间大,目前超参调整都是通过手动,依赖人工经验或者不断尝试,且不同模型、样本数据和场景下不尽相同,所以需要大量尝试,时间成本和资源成本非常浪费。PaddleHub AutoDL Finetuner可以实现自动调整超参数。
PaddleHub Auto Fine-tune提供两种超参优化策略 PaddleHub AutoDL Finetuner提供两种超参优化算法
* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正态分布参数。调整参数的基本思路为,调整参数使得产生更优解的概率逐渐增大。优化过程如下图: * **HAZero**: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步:
1. 采样产生新解
2. 计算目标函数值
3. 更新正态分布参数。
调整参数的基本思路为,调整参数使得产生更优解的概率逐渐增大。优化过程如下图:
<p align="center"> <p align="center">
<img src="https://raw.githubusercontent.com/PaddlePaddle/PaddleHub/release/v1.2/docs/imgs/bayesian_optimization.gif" hspace='10'/> <br /> <img src="https://raw.githubusercontent.com/PaddlePaddle/PaddleHub/release/v1.2/docs/imgs/bayesian_optimization.gif" hspace='10'/> <br />
</p> </p>
*图片来源于https://www.kaggle.com/clair14/tutorial-bayesian-optimization* *图片来源于https://www.kaggle.com/clair14/tutorial-bayesian-optimization*
* PSHE2: 采用粒子群算法,最优超参数组合就是所求问题的解。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSHE2算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。 * PSHE2: 采用哈密尔顿动力系统搜索参数空间中“势能”最低的点。而最优超参数组合就是势能低点。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSHE2算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。
<p align="center"> <p align="center">
<img src="https://raw.githubusercontent.com/PaddlePaddle/PaddleHub/release/v1.2/docs/imgs/thermodynamics.gif" hspace='10'/> <br /> <img src="https://raw.githubusercontent.com/PaddlePaddle/PaddleHub/release/v1.2/docs/imgs/thermodynamics.gif" hspace='10'/> <br />
</p> </p>
PaddleHub Auto Fine-tune提供两种超参评估策略: PaddleHub AutoDL Finetuner为了评估搜索的超参对于任务的效果,提供两种超参评估策略:
* FullTrail: 给定一组超参,利用这组超参从头开始Finetune一个新模型,之后在数据集dev部分评估这个模型 * **Full-Trail**: 给定一组超参,利用这组超参从头开始Fine-tune一个新模型,之后在验证集评估这个模型
* ModelBased: 给定一组超参,若这组超参来自第一轮优化的超参,则从头开始Finetune一个新模型;若这组超参数不是来自第一轮优化的超参数,则程序会加载前几轮已经Fine-tune完毕后保存的较好模型,基于这个模型,在当前的超参数组合下继续Finetune。这个Fine-tune完毕后保存的较好模型,评估方式是这个模型在数据集dev部分的效果 * **Population-Based**: 给定一组超参,若这组超参是第一轮尝试的超参组合,则从头开始Fine-tune一个新模型;否则基于前几轮已保存的较好模型,在当前的超参数组合下继续Fine-tune并评估
## 二、准备工作 ## 二、准备工作
使用PaddleHub Auto Fine-tune必须准备两个文件,并且这两个文件需要按照指定的格式书写。这两个文件分别是需要Fine-tune的python脚本finetunee.py和需要优化的超参数信息yaml文件hparam.yaml 使用PaddleHub AutoDL Finetuner需要准备两个指定格式的文件:待优化的超参数信息yaml文件hparam.yaml和需要Fine-tune的python脚本train.py
### 关于hparam.yaml ### 1. hparam.yaml
hparam给出了需要搜索的超参名字、类型(int或者float,代表了离线型和连续型的两种超参)、搜索范围等信息,通过这些信息构建了一个超参空间,PaddleHub将在这个空间内进行超参数的搜索,将搜索到的超参传入finetunee.py获得评估效果,根据评估效果引导下一步的超参搜索方向,直到满足搜索次数 hparam给出待搜索的超参名字、类型(int或者float)、搜索范围等信息,通过这些信息构建了一个超参空间,PaddleHub将在这个空间内进行超参数的搜索,将搜索到的超参传入train.py获得评估效果,根据评估效果自动调整超参搜索方向,直到满足搜索次数。
`Note`: **Note**:
* yaml文件的最外层级的key必须是param_list * yaml文件的最外层级的key必须是param_list
``` ```
param_list: param_list:
...@@ -44,64 +50,71 @@ hparam给出了需要搜索的超参名字、类型(int或者float,代表了 ...@@ -44,64 +50,71 @@ hparam给出了需要搜索的超参名字、类型(int或者float,代表了
greater_than : 0.00005 greater_than : 0.00005
... ...
``` ```
* 超参名字可以随意指定,PaddleHub会将搜索到的值以指定名称传递给finetunee.py进行使用 * 超参名字可以任意指定,PaddleHub会将搜索到的值以指定名称传递给train.py使用
* 优化超参策略选择HAZero时,需要提供两个以上的待优化超参。
* PaddleHub Auto Fine-tune优化超参策略选择HAZero时,必须提供两个以上的待优化超参。 ### 2. train.py
### 关于finetunee.py train.py用于接受PaddleHub搜索到的超参进行一次优化过程,将优化后的效果返回
finetunee.py用于接受PaddleHub搜索到的超参进行一次优化过程,将优化后的效果返回 <p align="center">
<img src="https://raw.githubusercontent.com/PaddlePaddle/PaddleHub/release/v1.2/docs/imgs/demo.png" hspace='10'/> <br />
</p>
`Note` **NOTE**:
* finetunee.py必须可以接收待优化超参数选项参数, 并且待搜索超参数选项名字和yaml文件中的超参数名字保持一致。 * train.py的选项参数须包含待优化超参数,需要将超参以argparser的方式写在其中,待搜索超参数选项名字和yaml文件中的超参数名字保持一致。
* finetunee.py必须有saved_params_dir这个选项。并且在完成优化后,将参数保存到该路径下。 * train.py须包含选项参数saved_params_dir,优化后的参数将会保存到该路径下。
* 如果PaddleHub Auto Fine-tune超参评估策略选择为ModelBased,则finetunee.py必须有model_path选项,并且从该选项指定的参数路径中恢复模型 * 超参评估策略选择PopulationBased时,train.py须包含选项参数model_path,自动从model_path指定的路径恢复模型
* finetunee.py必须输出模型的评价效果(建议使用dev或者test数据集),同时以“AutoFinetuneEval"开始,和评价效果之间以“\t”分开,如 * train.py须输出模型的评价效果(建议使用验证集或者测试集上的评价效果),输出以“AutoFinetuneEval"开始,与评价效果之间以“\t”分开,如
```python ```python
print("AutoFinetuneEval"+"\t" + str(eval_acc)) print("AutoFinetuneEval"+"\t" + str(eval_acc))
``` ```
* 输出的评价效果取值范围应`(-∞, 1]`,取值越高,表示效果越好。 * 输出的评价效果取值范围应为`(-∞, 1]`,取值越高,表示效果越好。
### 示例 ### 示例
[PaddleHub Auto Fine-tune超参优化--NLP情感分类任务](./autofinetune-nlp.md) [PaddleHub AutoDL Finetuner超参优化--NLP情感分类任务](./autofinetune-nlp.md)
[PaddleHub Auto Fine-tune超参优化--CV图像分类任务](./autofinetune-cv.md) [PaddleHub AutoDL Finetuner超参优化--CV图像分类任务](./autofinetune-cv.md)
## 三、启动方式 ## 三、启动方式
**确认安装PaddleHub版本在1.2.0以上, 同时PaddleHub Auto Fine-tune功能要求至少有一张GPU显卡可用。** **确认安装PaddleHub版本在1.2.1以上, 同时PaddleHub AutoDL Finetuner功能要求至少有一张GPU显卡可用。**
通过以下命令方式: 通过以下命令方式:
```shell ```shell
$ OUTPUT=result/ $ OUTPUT=result/
$ hub autofinetune finetunee.py --param_file=hparam.yaml --cuda=['1','2'] --popsize=5 --round=10 $ hub autofinetune train.py --param_file=hparam.yaml --cuda=['1','2'] --popsize=5 --round=10
--output_dir=${OUTPUT} --evaluate_choice=fulltrail --tuning_strategy=pshe2 --output_dir=${OUTPUT} --evaluate_choice=fulltrail --tuning_strategy=pshe2
``` ```
其中,选项 其中,选项
> `--param_file`: 需要优化的超参数信息yaml文件,即上述[hparam.yaml](#hparam.yaml)。 > `--param_file`: 必填,待优化的超参数信息yaml文件,即上述[hparam.yaml](#hparam.yaml)。
> `--cuda`: 设置运行程序的可用GPU卡号,list类型,中间以逗号隔开,不能有空格,默认为[‘0’] > `--cuda`: 必填,设置运行程序的可用GPU卡号,list类型,中间以逗号隔开,不能有空格,默认为[‘0’]
> `--popsize`: 设置程序运行每轮产生的超参组合数,默认为5 > `--popsize`: 可选,设置程序运行每轮产生的超参组合数,默认为5
> `--round`: 设置程序运行的轮数,默认是10 > `--round`: 可选,设置程序运行的轮数,默认为10
> `--output_dir`: 设置程序运行输出结果存放目录,可选,不指定该选项参数时,在当前运行路径下生成存放程序运行输出信息的文件夹 > `--output_dir`: 可选,设置程序运行输出结果存放目录,不指定该选项参数时,在当前运行路径下生成存放程序运行输出信息的文件夹
> `--evaluate_choice`: 设置自动优化超参的评价效果方式,可选fulltrail和modelbased, 默认为modelbased > `--evaluate_choice`: 可选,设置自动优化超参的评价效果方式,可选fulltrail和populationbased, 默认为populationbased
> `--tuning_strategy`: 设置自动优化超参策略,可选hazero和pshe2,默认为pshe2 > `--tuning_strategy`: 可选,设置自动优化超参算法,可选hazero和pshe2,默认为pshe2
`NOTE` **NOTE**:
* 进行超参搜索时,一共会进行n轮(--round指定),每轮产生m组超参(--popsize指定)进行搜索。每一轮的超参会根据上一轮的优化结果决定,当指定GPU数量不足以同时跑一轮时,Auto Fine-tune功能自动实现排队,为了提高GPU利用率,建议卡数为刚好可以被popsize整除。如popsize=6,cuda=['0','1','2','3'],则每搜索一轮,Auto Fine-tune自动起四个进程训练,所以第5/6组超参组合需要排队一次,在搜索第5/6两组超参时,会存在两张卡出现空闲等待的情况,如果设置为3张可用的卡,则可以避免这种情况的出现。
* 进行超参搜索时,一共会进行n轮(--round指定),每轮产生m组超参(--popsize指定)进行搜索。上一轮的优化结果决定下一轮超参数调整方向
* 当指定GPU数量不足以同时跑一轮时,AutoDL Finetuner功能自动实现排队为了提高GPU利用率,建议卡数为刚好可以被popsize整除。如popsize=6,cuda=['0','1','2','3'],则每搜索一轮,AutoDL Finetuner自动起四个进程训练,所以第5/6组超参组合需要排队一次,在搜索第5/6两组超参时,会存在两张卡出现空闲等待的情况,如果设置为3张可用的卡,则可以避免这种情况的出现。
## 四、目录结构 ## 四、目录结构
...@@ -125,42 +138,43 @@ $ hub autofinetune finetunee.py --param_file=hparam.yaml --cuda=['1','2'] --pops ...@@ -125,42 +138,43 @@ $ hub autofinetune finetunee.py --param_file=hparam.yaml --cuda=['1','2'] --pops
``` ```
其中output_dir为启动autofinetune命令时指定的根目录,目录下: 其中output_dir为启动autofinetune命令时指定的根目录,目录下:
* log_file.txt记录每一轮搜索所有的超参以及整个过程中所搜索到的最优超参 * log_file.txt记录每一轮搜索所有的超参以及整个过程中所搜索到的最优超参
* visualization记录可视化过程的日志文件 * visualization记录可视化过程的日志文件
* round0 ~ roundn记录每一轮的数据,在每个round目录下,还存在以下文件: * round0 ~ roundn记录每一轮的数据,在每个round目录下,还存在以下文件:
* log-0.info ~ log-m.info记录每个搜索方向的日志 * log-0.info ~ log-m.info记录每个搜索方向的日志
* model-0 ~ model-m记录对应搜索的参数 * model-0 ~ model-m记录对应搜索的参数
## 五、可视化 ## 五、可视化
Auto Finetune API在优化超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令 AutoDL Finetuner API在优化超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令
```shell ```shell
$ tensorboard --logdir ${OUTPUT}/visualization --host ${HOST_IP} --port ${PORT_NUM} $ tensorboard --logdir ${OUTPUT}/visualization --host ${HOST_IP} --port ${PORT_NUM}
``` ```
其中${OUTPUT}为AutoDL根目录,${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040, 其中${OUTPUT}为AutoDL Finetuner输出目录,${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040,
用浏览器打开192.168.0.1:8040,即可看到搜索过程中各超参以及指标的变化情况 用浏览器打开192.168.0.1:8040,即可看到搜索过程中各超参以及指标的变化情况。
## 六、其他
1. 如在使用Auto Fine-tune功能时,输出信息中包含如下字样:
**WARNING:Program which was ran with hyperparameters as ... was crashed!** ## 六、args参数传递
首先根据终端上的输出信息,确定这个输出信息是在第几个round(如round 3),之后查看${OUTPUT}/round3/下的日志文件信息log.info, 查看具体出错原因。
2. PaddleHub AutoFinetune 命令行支持从启动命令hub autofinetune传入finetunee.py中不需要搜索的选项参数,如 PaddleHub AutoDL Finetuner 支持将train.py中的args其余不需要搜索的参数通过autofinetune remainder方式传入。这个不需要搜索的选项参数名称应该和通过hub autofinetune的传入选项参数名称保持一致。如[PaddleHub AutoDL Finetuner超参优化--NLP情感分类任务](./autofinetune-nlp.md)示例中的max_seq_len选项,可以参照以下方式传入。
[PaddleHub Auto Fine-tune超参优化--NLP情感分类任务](./autofinetune-nlp.md)示例中的max_seq_len选项,可以参照以下方式传入。
```shell ```shell
$ OUTPUT=result/ $ OUTPUT=result/
$ hub autofinetune finetunee.py --param_file=hparam.yaml --cuda=['1','2'] --popsize=5 --round=10 $ hub autofinetune train.py --param_file=hparam.yaml --cuda=['1','2'] --popsize=5 --round=10
--output_dir=${OUTPUT} --evaluate_choice=fulltrail --tuning_strategy=pshe2 max_seq_len 128 --output_dir=${OUTPUT} --evaluate_choice=fulltrail --tuning_strategy=pshe2 max_seq_len 128
``` ```
3. PaddleHub Auto Fine-tune功能使用过程中确认使用的GPU卡仅供PaddleHub使用,无其他任务使用。 ## 七、其他
1. 如在使用AutoDL Finetuner功能时,输出信息中包含如下字样:
**WARNING:Program which was ran with hyperparameters as ... was crashed!**
首先根据终端上的输出信息,确定这个输出信息是在第几个round(如round 3),之后查看${OUTPUT}/round3/下的日志文件信息log.info, 查看具体出错原因。
2. PaddleHub AutoDL Finetuner功能使用过程中建议使用的GPU卡仅供PaddleHub使用,无其他任务使用。
...@@ -2,11 +2,11 @@ ...@@ -2,11 +2,11 @@
## 一、简介 ## 一、简介
迁移学习(Transfer Learning)顾名思义就是将模型在其它领域学到的知识迁移至目标领域的学习过程中,帮助模型取得更好的学习效果,讲究的是“他山之石,可以攻玉”。通过迁移学习,模型能够在短时间内取得更好的学习效果。 迁移学习(Transfer Learning)顾名思义就是将模型在其它领域学到的知识迁移至目标领域的学习过程中,帮助模型取得更好的学习效果。通过迁移学习,模型能够在短时间内取得更好的学习效果。
迁移学习通常由预训练阶段、微调阶段两部分组成。预训练阶段通常在超大规模数据集中进行,例如CV任务中的ImageNet包含千万张标注图片,NLP任务中的English Wikipedia包含25亿个单词,这样训练得到的预训练模型能够很好地学习到不同领域中的通用知识,具有很好的泛化能力。但预训练阶段使用的数据集往往与我们想要完成的任务的数据集存在差异,例如如果你只是想简单地判断一副图像是否是玫瑰花,ImageNet就没有提供相关的标注,因此为了更好的学习目标领域的知识,通常还需要对预训练模型参数进行微调。微调过程中,我们应该同时兼顾模型的拟合能力与泛化能力,控制好学习率,既不能太小使模型学习不充分,也不能太大丢失了过多的预训练通用知识 迁移学习通常由预训练阶段、微调阶段两部分组成。预训练阶段通常在大规模数据集中进行,例如CV任务中的ImageNet包含千万张标注图片,NLP任务中的English Wikipedia包含25亿个单词,这样训练得到的预训练模型能够很好地学习到不同领域中的通用知识。但预训练阶段使用的数据集往往与我们想要完成的任务的数据集存在差异,例如如果你只是想简单地判断一副图像是否是玫瑰花,ImageNet就没有提供相关的标注,因此为了更好的学习目标领域的知识,通常还需要对预训练模型参数进行微调
PaddleHub中实现了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://www.paddlepaddle.org.cn/hub),ResNet、GoogLeNet、MobileNet等[CV预训练模型](https://www.paddlepaddle.org.cn/hub);以及Adam + Weight Decay、L2SP、ULMFiT等微调策略。本文主要介绍ULMFiT微调策略在PaddleHub中的实验结果及其思考分析 PaddleHub中集成了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://www.paddlepaddle.org.cn/hub),ResNet、GoogLeNet、MobileNet等[CV预训练模型](https://www.paddlepaddle.org.cn/hub);以及Adam + Weight Decay、L2SP、ULMFiT等微调策略。本文主要介绍ULMFiT微调策略在PaddleHub中的使用
## 二、 ULMFiT ## 二、 ULMFiT
...@@ -22,221 +22,154 @@ PaddleHub中实现了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://ww ...@@ -22,221 +22,154 @@ PaddleHub中实现了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://ww
![image-20190917170707549](https://user-images.githubusercontent.com/11913168/65138349-6bec0180-da3d-11e9-821d-98bc7f2d6f1e.png) ![image-20190917170707549](https://user-images.githubusercontent.com/11913168/65138349-6bec0180-da3d-11e9-821d-98bc7f2d6f1e.png)
其中T表示训练的迭代次数,PaddleHub会自动计算训练总step数;cut_frac是学习率上升在整个训练过程占用的比例;cut表示学习率转折处的step;t表示当前的step;p表示当前step学习率的缩放比例;ratio表示LR最低下降至最大学习率η<sub>max</sub>的几分之一;η<sub>t</sub>表示当前step的学习率。论文中,作者采用的超参设置为:cut_frac=0.1, ratio=32, η<sub>max</sub>=0.01。本文实验部分保持ratio=32, η<sub>max</sub>=0.01不变,仅调整cut_frac。 其中T表示训练的迭代次数,PaddleHub会自动计算训练总step数;cut_frac是学习率上升在整个训练过程占用的比例;cut表示学习率转折处的step;t表示当前的step;p表示当前step学习率的缩放比例;ratio表示LR最低下降至最大学习率η<sub>max</sub>的几分之一;η<sub>t</sub>表示当前step的学习率。论文中,作者采用的超参设置为:cut_frac=0.1, ratio=32, η<sub>max</sub>=0.01。本次策略实验过程中,保持ratio=32, η<sub>max</sub>=0.01不变,仅调整cut_frac。
2. Discriminative fine-tuning 2. Discriminative fine-tuning
Discriminative fine-tuning 是一种学习率逐层递减的策略,通过该策略可以减缓底层的更新速度。其计算公式为: Discriminative fine-tuning 是一种学习率逐层递减的策略,通过该策略可以减缓底层的更新速度。其计算公式为:
<div align=center>η<sup>l-1</sup><sup>l</sup>/factor</div> <div align=center>η<sup>l-1</sup><sup>l</sup>/factor</div>
其中η<sup>l</sup>表示第l层的学习率;η<sup>l-1</sup>表示第l-1层的学习率;factor表示逐层衰减率,论文中作者根据经验设置为2.6。这个策略能够让模型微调过程中不断减缓底层的更新速度,尽可能的保留预训练模型中习得的底层通用知识。在PaddleHub中,我们针对这个策略还提供了另外一个超参:dis_blocks。由于预训练模型中没有记录op的层数,Paddlehub通过op的前后关系推测op所在的层次,这会导致诸如LSTM这类计算单元的op会被当作是不同层的op。为了不使层次划分太细,我们将层次进行了分块,用块的概念代替原论文中层的概念,通过设置dis_blocks即可设置块的个数。默认为3,如果设置为0,则不采用Discriminative fine-tuning。 其中η<sup>l</sup>表示第l层的学习率;η<sup>l-1</sup>表示第l-1层的学习率;factor表示逐层衰减率,论文中作者根据经验设置为2.6。这个策略能够让模型微调过程中不断减缓底层的更新速度,尽可能的保留预训练模型中习得的底层通用知识。PaddleHub通过op的拓扑关系自动计算模型的层次,因此针对这一策略,PaddleHub提供了一个额外的超参:dis_blocks,用于设置划分的层数,默认为3,如果设置为0,则不采用Discriminative fine-tuning。
3. Gradual unfreezing 3. Gradual unfreezing
Gradual unfreezing是一种逐层解冻的策略,通过该策略可以优先更新上层,再慢慢解冻下层参与更新。在PaddleHub中,我们仍然引入了一个额外的超参:frz_blocks,其概念与上一小节提到的dis_blocks一致,在微调过程中,每经过一个epoch,模型解冻一个block,所有未被冻结的block都会参与到模型的参数更新中。 Gradual unfreezing是一种逐层解冻的策略,通过该策略可以优先更新上层,再慢慢解冻下层参与更新。PaddleHub在Gradual unfreezing策略中引入了一个额外的超参:frz_blocks,其作用与默认值与第2点提到的dis_blocks一致。在微调过程中,每经过一个epoch,模型解冻一个block,所有未被冻结的block都会参与到模型的参数更新中。
本文接下来将对ULMFiT策略在NLP以及CV任务中的使用进行实验说明,由于slanted triangular learning rates与warmup + linear decay在原理上高度相似,本文也将对比slanted triangular learning rates与warmup + linear decay的实验效果。 本文接下来将对ULMFiT策略在NLP以及CV任务中的使用进行实验说明,由于slanted triangular learning rates与warmup + linear decay在原理上相似,本文也将对比slanted triangular learning rates与warmup + linear decay的实验效果。
## 三、 NLP实验与分析 ## 三、 在NLP迁移学习中使用ULMFiT策略
本章将介绍ULMFiT策略在NLP任务中的使用。
1. 数据集与预训练模型的选择 1. 数据集与预训练模型的选择
章对数据集按数据规模进行划分,选择了一个大规模数据集Chnsenticorp,以及一个小规模数据集CoLA。针对中文数据集Chnsenticorp,为了凸现实验效果对比,本章没有选择ERNIE,而是选择Elmo作为其预训练模型。针对英文数据集CoLA,本章选择“bert_uncased_L-12_H-768_A-12”作为其预训练模型。 次实验选取两个数据集,一个为中文数据集Chnsenticorp,另一个为英文数据集CoLA,两个数据集的训练集数据规模相似,前者包含9601个句子,后者包含8551个句子。针对中文数据集Chnsenticorp与英文数据集CoLA,本次实验分别使用ELMo与“bert_uncased_L-12_H-768_A-12”作为其预训练模型。
2. Baseline与实验设置 2. Baseline与实验设置
Baseline不采用任何策略,学习率在微调过程中保持恒定。Chnsenticorp与CoLA任务均在单卡运行(只使用1张显卡),Batch size均设置为32,总共迭代3个epoch。Chnsenticorp设置学习率为1e-4,由于采用ELMO预训练模型,无需设置句子最大长度;CoLA设置学习率为5e-5,句子最大长度设置为128。实验效果如下表所示: Baseline不采用任何策略,学习率在微调过程中保持恒定。Chnsenticorp与CoLA任务均只使用1张显卡,Batch size均设置为32,总共迭代3个epoch。Chnsenticorp设置学习率为1e-4,由于采用ELMo预训练模型,无需设置句子最大长度;CoLA设置学习率为5e-5,句子最大长度设置为128。实验效果如下表所示:
| - | Chnsenticorp | CoLA | | - | Chnsenticorp | CoLA |
| :------------ | :----------- | :---------------- | | :------------ | :----------- | :---------------- |
| Module | Elmo | Bert | | Module | ELMo | Bert |
| Batch size | 32 | 32 | | Batch size | 32 | 32 |
| Num epoch | 3 | 3 | | Num epoch | 3 | 3 |
| Learning rate | 1e-4 | 5e-5 | | Learning rate | 1e-4 | 5e-5 |
| Max length | - | 128 | | Max length | - | 128 |
| Dev | acc = 0.8766 | matthews = 0.5680 | | Dev | acc = 0.8766 | matthews = 0.5680 |
| Test | acc = 0.8733 | - |
其中Chnsenticorp汇报准确率(accuracy)得分,CoLA汇报马修斯相关系数(matthews correlation coefficient)得分。由于CoLA未公开测试集,且其在线测评每日仅限提交3次,本章只汇报其验证集上的得分。
在下文中,如果没有特别说明,实验设置(例如Batch size、Num epoch等)均与Baseline一致。
3. warmup + linear decay策略实验与分析
为了与slanted triangular learning rates进行结果对比,本小节对warmup + linear decay策略进行了实验。在本实验中,warm up proportion为学习率上升在总步数中的比重,linear decay则在warmup结束的时刻开始,学习率在训练结束时下降至0。实验结果如下表所示,其中warm up proportion=0为baseline:
| warm up proportion | 0(baseline) | 0.1 | 0.2 | 其中Chnsenticorp采用准确率(accuracy)得分,CoLA采用马修斯相关系数(matthews correlation coefficient)得分。
| :----------------- | :------------ | :----- | :--------- |
| Chnsenticorp dev | **0.8766** | 0.8725 | 0.8758 |
| Chnsenticorp test | **0.8733** | 0.8700 | 0.8691 |
| CoLA dev | 0.5680 | 0.5780 | **0.5786** |
从实验结果可以看到该策略影响模型的拟合能力,在大规模数据集(Chnsenticorp)中该策略可能产生很小的副作用,而在小规模数据集(CoLA)中该策略能够减缓预训练模型参数的更新速度,抑制过拟合,提升模型性能 在后续调优过程中,如无特别说明,实验设置(例如Batch size、Num epoch等)均与Baseline一致
4. slanted triangular learning rates(STLR)策略实验与分析 3. slanted triangular learning rates(STLR)策略实验与分析
在本小节中,我们将进一步设置warmup + linear decay的超参数以更好地与STLR策略比较。从第二章的理论介绍中,我们可以看到STLR在原理上与warmup + linear decay十分相似,较为明显的区别在于STLR的最终速度为1/ratio,在本文中ratio一概为32。因此本小节进一步设置了linear decay最终速度为learning rate/32的实验组。STLR的超参数仅调整cut_fraction为0.1、0.2,其它超参与论文设置一致。实验结果如下表所示: 理论上,STLR与warmup + linear decay相似,因此本次实验同时对warmup + linear decay策略进行了实验。实验中STLR的超参仅调整cut_fraction,其它超参与论文设置一致;warm up proportion为学习率上升在总步数中的比重,linear decay则在warmup结束的时刻开始,linear decay的终止学习率设置了2组,1组为0,另一组与STLR的终止学习率一致,为learning rate/32。实验结果如下表所示:
| warm up proportion | 0(Baseline) | 0.1 | 0.2 | 0.1 | 0.2 | 0 | 0 | | slanted triangular cut_fraction | 0(Baseline) | 0 | 0 | 0 | 0 | 0.1 | 0.2 |
| :---------------------------------- | :------------ | :----- | :----- | :--------- | :----- | :------ | :------ | | :---------------------------------- | :------------ | :----- | :----- | :--------- | :----- | :------ | :------ |
| warm up proportion | 0 | 0.1 | 0.2 | 0.1 | 0.2 | 0 | 0 |
| linear decay end | - Unused | 0 | 0 | lr/32 | lr/32 | - | - | | linear decay end | - Unused | 0 | 0 | lr/32 | lr/32 | - | - |
| **slanted triangular cut_fraction** | **0** | **0** | **0** | **0** | **0** | **0.1** | **0.2** | | Chnsenticorp | 0.8766 | 0.8725 | 0.8758 | **0.8825** | 0.8733 | 0.8791 | 0.8791 |
| Chnsenticorp dev | 0.8766 | 0.8725 | 0.8758 | **0.8825** | 0.8733 | 0.8791 | 0.8791 | | CoLA | 0.5680 | 0.5780 | 0.5786 | **0.5887** | 0.5826 | 0.5880 | 0.5827 |
| Chnsenticorp test | **0.8733** | 0.8700 | 0.8691 | 0.8666 | 0.8616 | 0.8691 | 0.8716 |
| CoLA dev | 0.5680 | 0.5780 | 0.5786 | **0.5887** | 0.5826 | 0.5880 | 0.5827 |
由实验结果可以看到STLR无论是原理上还是实验效果上都与warmup + linear decay (end learning rate = lr/32) 相差无几,在小规模数据集中均有增益效果,而在大规模数据集中效果不明确,可能产生副作用。而对比warmup + linear decay (end learning rate = lr/32) 与warmup + linear decay (end learning rate = 0) 可以看到对于小规模数据集微调接近结束时,保持较小的学习率仍有帮助,但这会引入新的超参数end_learning_rate 从实验结果可以看到,STLR实验效果上与warmup + linear decay (end learning rate = lr/32)接近,并且在两个任务中模型的性能都得到了提升。建议用户在尝试slanted triangular或warmup+linear decay策略时尝试更多的超参设置,在使用warmup+linear decay策略时考虑设置linear decay end
基于此实验结果,我们建议用户可以在小规模NLP数据集中尝试slanted triangular或者warmup+linear decay的策略。 4. Discriminative fine-tuning策略实验与分析
5. Discriminative fine-tuning策略实验与分析
本小节对Discriminative fine-tuning策略进行实验分析。固定训练总epoch=3,实验结果如下表所示: 本小节对Discriminative fine-tuning策略进行实验分析。固定训练总epoch=3,实验结果如下表所示:
| dis_blocks | -<br />(Baseline) | 3 | 5 | | dis_blocks | -<br />(Baseline) | 3 | 5 |
| ----------------- | ------------------- | ---------- | ------ | | ----------------- | ------------------- | ---------- | ------ |
| epoch | 3 | 3 | 3 | | epoch | 3 | 3 | 3 |
| Chnsenticorp dev | **0.8766** | 0.8641 | 0.6766 | | Chnsenticorp | **0.8766** | 0.8641 | 0.6766 |
| Chnsenticorp test | **0.8733** | 0.8683 | 0.7175 | | CoLA | 0.5680 | **0.5996** | 0.5749 |
| CoLA dev | 0.5680 | **0.5996** | 0.5749 |
对于大规模数据集Chnsenticorp,采用该策略会抑制拟合能力,dis_blocks设置越大,模型的拟合能力越弱;而对于小规模数据集CoLAA,采用该策略则能够缓解小规模数据集中的过拟合问题,模型性能获得了提升 由于Discriminative fine-tuning策略会降低模型底层的更新速度,影响模型的拟合能力。实验结果表明,dis_blocks设置过大会导致模型性能明显下降。为了提升模型拟合能力,本小节继续增大epoch大小至5、8
由于Discriminative fine-tuning会降低底层的更新速度,为了提升模型的拟合能力,本小节继续增大epoch大小至5、8。对于大规模数据集Chnsenticorp,实验结果如下表所示: 对于Chnsenticorp,实验结果如下表所示:
| dis_blocks | -<br />(Baseline) | - | 5 | - | 5 | | dis_blocks | -<br />(Baseline) | - | 5 | - | 5 |
| ----------------- | ------------------- | ---------- | ------ | ---------- | ---------- | | ----------------- | ------------------- | ---------- | ------ | ---------- | ---------- |
| epoch | 3 | 5 | 5 | 8 | 8 | | epoch | 3 | 5 | 5 | 8 | 8 |
| Chnsenticorp dev | 0.8766 | 0.8775 | 0.8566 | 0.8775 | **0.8792** | | Chnsenticorp | 0.8766 | 0.8775 | 0.8566 | 0.8775 | **0.8792** |
| Chnsenticorp test | 0.8733 | **0.8841** | 0.8400 | **0.8841** | 0.8625 |
可以看到当dis_blocks=5时,epoch=8时,模型在dev上的得分才略微超越Baseline(epoch=3),而test中的得分则始终低于相同epoch、不采用Discriminative fine-tuning策略的实验结果 可以看到当dis_blocks=5时,epoch=8时,模型性能超越Baseline
由于CoLA在dis_block=3,epoch=3时的成绩已经超越了Baseline,因为我们可以进一步增大dis_blocks,观察其实验效果,其结果如下表所示: 在CoLA任务中,dis_block=3,epoch=3时的模型得分已经超越了Baseline,因为可以进一步增大dis_blocks,观察其实验效果,结果如下表所示:
| dis_blocks | -<br />(Baseline) | 3 | - | 7 | - | 7 | | dis_blocks | -<br />(Baseline) | 3 | - | 7 | - | 7 |
| ---------- | ------------------- | ---------- | ------ | ------ | ------ | ------ | | ---------- | ------------------- | ---------- | ------ | ------ | ------ | ------ |
| epoch | 3 | 3 | 5 | 5 | 8 | 8 | | epoch | 3 | 3 | 5 | 5 | 8 | 8 |
| CoLA dev | 0.5680 | **0.5996** | 0.5680 | 0.5605 | 0.5720 | 0.5788 | | CoLA | 0.5680 | **0.5996** | 0.5680 | 0.5605 | 0.5720 | 0.5788 |
实验结果表明,dis_blocks过大同样会导致模型在小规模数据集欠拟合的问题,当dis_blocks=7时,模型在epoch=5性能低于Baseline (epoch=3),直至epoch=8才略微超过Baseline (epoch=8),但仍显著低于dis_blocks=3,epoch=3的模型表现。
因此我们建议用户在小规模训练集中采用discriminative fine-tuning,并设置较小的dis_blocks,同时我们不建议在大规模数据集中采用,否则需要大幅提升epoch。 实验结果表明,dis_blocks过大同样会导致性能下降的问题,当dis_blocks=7时,模型在epoch=5性能低于Baseline (epoch=3),直至epoch=8才略微超过Baseline (epoch=8),但仍显著低于dis_blocks=3,epoch=3的模型表现。建议用户采用discriminative fine-tuning时,应当设置较小的dis_blocks,如果设置过大的dis_blocks,则需提升训练的epoch。
6. Gradual unfreezing策略实验与分析 5. Gradual unfreezing策略实验与分析
本小节对Gradual unfreezing策略进行实验分析,frz_blocks设置为3,第一个epoch只更新最顶层的block,此后每一个epoch解冻一个block参与更新,实验结果如下表所示: 本小节对Gradual unfreezing策略进行实验分析,frz_blocks设置为3,第一个epoch只更新最顶层的block,此后每一个epoch解冻一个block参与更新,实验结果如下表所示:
| gradual unfreezing | -(baseline) | 3 | | gradual unfreezing | -(baseline) | 3 |
| :----------------- | :------------ | :----- | | :----------------- | :------------ | :----- |
| Chnsenticorp dev | 0.8766 | 0.8850 | | Chnsenticorp | 0.8766 | **0.8850** |
| Chnsenticorp test | 0.8733 | 0.8816 | | CoLA | 0.5680 | **0.5704** |
| CoLA dev | 0.5680 | 0.5704 |
实验结果表明通过延后更新预训练模型中的底层参数,该策略不论是对大规模数据集还是对小规模数据集均有效,在大规模数据集中的效果更佳。我们建议用户采用这种策略,尤其是在大规模数据集中进行微调时 实验结果表明通过延后更新预训练模型中的底层参数,该策略不论是对Chnsenticorp数据集还是对CoLA数据集均有效
## 四、CV实验与分析 ## 四、在CV迁移学习中使用ULMFiT策略
1. 数据集与预训练模型的选择 1. 数据集与预训练模型的选择
本小节采用resnet50作为预训练模型。在NLP任务中,我们仅对数据集进行了数据规模划分,这是因为NLP任务的预训练数据集通常是无标签数据集,它的训练过程是无监督学习,与微调过程的有监督学习差异较大,不好衡量微调数据集与预训练数据集的相似性。而resnet50预训练数据集ImageNet是带标签数据集,它的预训练过程是有监督学习,因此我们除了可以划分数据规模,还可以划分数据集与预训练数据集的相似度。基于此,我们选择了四个数据集用于实验 本小节采用resnet50作为预训练模型。基于数据规模、任务数据集与预训练数据集的相似度,本次实验选择了以下四个数据集
- **indoor67**(相似度小,规模小):该数据集包含1.5万个样例,标签包含concert_hall, locker_room等67个室内物体,由于ImageNet中没有这些室内物品标签,我们认为它与预训练数据集相似度较小。理论上,相似度小规模小的数据集在微调时既不能更新得太快导致过拟合,也不能太小导致欠拟合,是最难调整的一类数据集。 - **indoor67**(相似度小,规模小):该数据集包含1.5万个样例,标签包含concert_hall, locker_room等67个室内物体,这些标签未出现在预训练数据集ImageNet中。理论上,相似度小规模小的数据集在微调时既不能更新得太快导致过拟合,也不能太小导致欠拟合,是最难调整的一类数据集。
- **food101**(相似度小,规模大):该数据集标签包含Apple pie, Baby back ribs等101个食品,这些标签同样几乎没有出现在ImageNet中,因此它与预训练数据集的相似度也较小。同时该数据集训练集包含10万个样例,远远大于indoor67的1.5万个样例,因此我们将indoor67归类为规模小,food101归类为规模大。理论上,相似度小规模大的数据集可以较快更新,是模型充分拟合。 - **food101**(相似度小,规模大):该数据集包含10万个样例,标签包含Apple pie, Baby back ribs等101个食品,这些标签同样几乎没有出现在ImageNet中。理论上,相似度小规模大的数据集可以较快更新,是模型充分拟合。
- **dogcat**(相似度大,规模大):该数据集包含2.2万个样例,数据量没有比indoor67大很多,但标签只有dog和cat两类,数据规模会比indoor67充裕很多。猫狗标签在ImageNet中频繁出现且在ImageNet中划分的品种更加细致,因此它可以被认为是与预训练数据集相似度大的数据集。理论上,相似度大规模大的数据集不论采用怎样的策略均能获得非常良好的模型性能,通过细致地调整策略可以略微提升模型性能。 - **dogcat**(相似度大,规模大):该数据集包含2.2万个样例,标签只有dog和cat两类,单类数据规模较大,且均出现在ImageNet中。理论上,相似度大规模大的数据集不论采用怎样的策略均能获得非常良好的模型性能,通过细致地调整策略可以略微提升模型性能。
- **dogcat 1/10**(相似度大,规模小):为了构建相似度大,规模小的数据集,我们在dogcat数据集的基础上随机抽取了1/10个样例组成新的数据集,该数据集包含0.22万个样例,”dog”/”cat”两类标签。理论上,相似度大规模小的数据集由于与预训练数据集相似度大,模型在微调过程中可以保留更多的预训练参数。 - **dogcat 1/10**(相似度大,规模小):该数据集由dogcat数据集中随机抽取1/10个样例组成,包含0.22万个样例,”dog”/”cat”两类标签。理论上,相似度大规模小的数据集由于与预训练数据集相似度大,模型在微调过程中可以保留更多的预训练参数。
2. Baseline与实验设置 2. Baseline与实验设置
Baseline不采用任何策略,学习率在微调过程中保持恒定。所有任务均采用双卡运行(使用两张显卡),Batch size设置为40,总Batch size即为80,训练迭代一个epoch,学习率均设置为1e-4,评估指标为准确率(accuracy)。实验效果如下表所示: Baseline未采用任何策略,学习率在微调过程中保持恒定。所有任务均使用两张显卡,Batch size设置为40,训练迭代一个epoch,学习率均设置为1e-4,评估指标为准确率(accuracy)。实验效果如下表所示:
| - | **indoor67** | **food101** | **dogcat** | **dogcat 1/10** | | - | **indoor67** | **food101** | **dogcat** | **dogcat 1/10** |
| :--------------- | :------------- | :------------- | -------------- | --------------- | | :--------------- | :------------- | :------------- | -------------- | --------------- |
| Type | 相似度小规模小 | 相似度小规模大 | 相似度大规模大 | 相似度大规模小 | | Batch size | 40 | 40 | 40 | 40 |
| Module | resnet50 | resnet50 | resnet50 | resnet50 |
| Total Batch size | 80 | 80 | 80 | 80 |
| Num epoch | 1 | 1 | 1 | 1 | | Num epoch | 1 | 1 | 1 | 1 |
| Learning rate | 1e-4 | 1e-4 | 1e-4 | 1e-4 | | Learning rate | 1e-4 | 1e-4 | 1e-4 | 1e-4 |
| Dev | 0.6907 | 0.7272 | 0.9893 | 1.0 | | Dev | 0.6907 | 0.7272 | 0.9893 | 1.0 |
| Test | 0.6741 | 0.7338 | 0.9830 | 0.9719 | | Test | 0.6741 | 0.7338 | 0.9830 | 0.9719 |
在下文中,如果没有特别说明,实验设置(例如Batch size、Num epoch等)均与Baseline一致。 在后续调优过程中,如无特别说明,实验设置(例如Batch size、Num epoch等)均与Baseline一致。
3. warmup + linear decay策略实验与分析
在本实验中,wup(warm up proportion)为学习率上升在总步数中的比重,linear decay则在warmup结束的时刻开始,学习率在训练结束时下降至0。实验结果如下表所示,其中warm up proportion=0为Baseline,它不采用linear decay:
| wup | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat<br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 |
| ---- | ------------------------------------- | ------------------------------------ | --------------------------------- | ---------------------------------- |
| 0 | dev: **0.6907**<br />test:**0.6741** | dev: 0.7272<br />test:0.7338 | dev:0.9893<br />test:0.9830 | <br />dev:**1.0**<br />test:0.9719 |
| 0.1 | dev: 0.6506 <br />test:0.6324 | dev:**0.7573** <br />test:**0.7497** | dev: **0.9964**<br />test:0.9924 | dev:0.9958 <br />test:0.9802 |
| 0.2 | dev:0.6282 <br />test:0.6372 | dev: 0.7486 <br />test:0.7446 | dev: 0.9937 <br />test:**0.9937** | dev:0.9916 <br />test:**0.9813** |
从实验结果可以看到该策略在相似度小规模小的数据集不适合采用warm up + linear decay策略,由于数据集相似度小,设置warm up + linear decay策略会导致模型严重欠拟合。而在相似度大规模小的数据集中抑制拟合能力能够提升模型的泛化能力,提升test得分。在规模大的数据集中,相似度小的数据集提升尤其明显;而相似度大的数据集也有略微提升。 3. slanted triangular learning rates(STLR)策略实验与分析
上面的实验表明,设置合理的warm up proportion在Bias-Variance Tradeoff中找到平衡是有利于各类数据集中模型性能提升的。为此,我们进一步探索了更细致的warm up proportion设置。实验结果如下表所示: 本小节采用STLR微调策略进行实验,实验结果如下表所示,其中cut_fraction=0为Baseline,不采用任何策略:
| wup | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat<br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 |
| ---- | ------------------------------------- | ------------------------------------ | --------------------------------- | ---------------------------------- |
| 0 | dev: **0.6907**<br />test:**0.6741** | dev: 0.7272<br />test:0.7338 | dev:0.9893<br />test:0.9830 | <br />dev:**1.0**<br />test:0.9719 |
| 0.01 | dev:0.6526<br />test:0.6611 | dev: **0.7564**<br />test:**0.7584** | dev:0.9955<br />test:0.9915 | <br />dev:0.9958<br />test:0.9730 |
| 0.05 | dev:0.6493 <br />test:0.6397 | dev: 0.7544 <br />test:0.7573 | dev: 0.9950 <br />test:**0.9946** | dev:0.9958 <br />test:**0.9844** |
| 0.1 | dev: 0.6506 <br />test:0.6324 | dev:0.7573 <br />test:0.7497 | dev: **0.9964**<br />test:0.9924 | dev:0.9958 <br />test:0.9802 |
| 0.2 | dev:0.6282 <br />test:0.6372 | dev: 0.7486 <br />test:0.7446 | dev: 0.9937 <br />test:0.9937 | dev:0.9916 <br />test:0.9813 |
从以上实验分析,food101、dogcat、dogcat 1/10设置更小的warm up proportion (<0.1)均在测试集上取得了更好的成绩,对于dogcat 1/10,它的训练集大小为1803,在总batch size=80的时候,总迭代步数为22,当设置wup=0.01时,实际上并没有warm up阶段,只有linear decay阶段。我们建议用户尝试设置较小的warm up proportion或者仅采用linear decay,观察模型的性能变化。
对于相似度小规模小的数据集,我们进一步探究它的warm up proportion设置,由于indoor67训练集大小为12502,在总batch size=80时,总的迭代步数为156,在warm up proportion=0.01时,warmup阶段实际只有1步,我们无法再缩小warm up proportion了,因此我们尝试设置更小的batch size。在此次实验中,我们设置batch size为16,并只使用单张卡,实验结果如下表所示:
| wup | 0 | 0.01 | 0.05 |
| ---- | ------ | ---------- | ---------- |
| dev | 0.6868 | **0.7448** | 0.7371 |
| test | 0.6751 | 0.7237 | **0.7316** |
在这里,wup=0的实验组为baseline,未采用linear decay,其结果与总batch size=80的结果相差不大。从这组实验我们发现在设置batch size=16,wup=0.05时,在相似度小规模小数据集中采用warm up + linear decay策略的效果终于超越了Baseline。对于小规模数据集,我们建议设置较小的batch size,再通过尝试设置较小的warm up proportion寻找Bias-Variance Tradeoff中的平衡点。
4. slanted triangular learning rates(STLR)策略实验与分析
在本小节中,我们对STLR的效果进行实验,实验结果如下表所示,cut_fraction=0为Baseline,不采用任何策略:
| cut_fraction | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 | | cut_fraction | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 |
| :----------- | :-------------------------------- | :----------------------------------- | :------------------------------- | :-------------------------------- | | :----------- | :-------------------------------- | :----------------------------------- | :------------------------------- | :-------------------------------- |
| 0 | dev: 0.6907<br />test:0.6741 | dev: 0.7272<br />test:0.7338 | dev:0.9893<br />test:0.9830 | dev:**1.0**<br />test:0.9719 | | 0 (baseline) | dev: 0.6907<br />test:0.6741 | dev: 0.7272<br />test:0.7338 | dev:0.9893<br />test:0.9830 | dev:**1.0**<br />test:0.9719 |
| 0.01 | dev: 0.7148<br /> test:0.7053 | dev:**0.7637**<br /> test:**0.7656** | dev: **0.9946**<br />test:0.9924 | dev: *0.4481* <br />test:*0.5346* | | 0.01 | dev: 0.7148<br /> test:0.7053 | dev:**0.7637**<br /> test:**0.7656** | dev: **0.9946**<br />test:0.9924 | dev: *0.4481* <br />test:*0.5346* |
| 0.05 | dev: **0.7226**<br /> test:0.7130 | dev:0.7605<br /> test:0.7612 | dev: 0.9901<br />test:0.9919 | dev: **1.0**<br />test:0.9844 | | 0.05 | dev: **0.7226**<br /> test:0.7130 | dev:0.7605<br /> test:0.7612 | dev: 0.9901<br />test:0.9919 | dev: **1.0**<br />test:0.9844 |
| 0.1 | dev: 0.7128<br /> test:**0.7155** | dev: 0.7606<br /> test:0.7582 | dev: 0.9924<br />test:**0.9928** | dev: 0.9958<br />test:0.9688 | | 0.1 | dev: 0.7128<br /> test:**0.7155** | dev: 0.7606<br /> test:0.7582 | dev: 0.9924<br />test:**0.9928** | dev: 0.9958<br />test:0.9688 |
| 0.2 | dev: 0.6361<br /> test:0.6151 | dev: 0.7581<br /> test:0.7575 | dev: 0.9941<br />test:0.9897 | dev: 0.9916<br /> test:**0.9916** | | 0.2 | dev: 0.6361<br /> test:0.6151 | dev: 0.7581<br /> test:0.7575 | dev: 0.9941<br />test:0.9897 | dev: 0.9916<br /> test:**0.9916** |
除了indoor67,其余数据集中的实验结果与第3小节中的实验结果差异不大。在第二章NLP部分,我们已经讨论过STLR与第3小节的实验设置的明显差别仅在于最终速度为1/ratio,保留一定终速度有利于缓解相似度小规模小数据集的欠拟合问题。我们建议用户采用较小的cut_fraction,该策略在相似度小规模大的数据集终有较为显著的效果 从实验结果可以看到,采用该策略后,模型在各个数据集中的性能都获得了提升,尤其在相似度小规模大的数据集中,模型在验证集上的结果从0.7272提升至0.7637
值得注意的是dogcat 1/10在cut_fraction=0.01时会出现异常结果,这是由于dogcat 1/10的训练集大小为1803,在总batch size=80的时候,总迭代步数为22,当设置cut_fraction=0.01时,由第二章STLR计算公式可得,cut=0,这会导致后续计算p时会出现除数为0的问题,导致无法微调,最终汇报的成绩为未经微调的模型直接进行测试的结果 值得注意的是dogcat 1/10在cut_fraction=0.01时会出现异常结果,这是由于dogcat 1/10的训练集大小为1803,在总batch size=80的时候,总迭代步数为22,当设置cut_fraction=0.01时,由第二章STLR计算公式可得,cut=0,这会导致后续计算p时会出现除数为0的问题,导致实验结果异常。因此对于小规模数据集,建议设置较小的batch size
5. Discriminative fine-tuning策略实验与分析 4. Discriminative fine-tuning策略实验与分析
本小节对Discriminative fine-tuning策略进行实验分析。理论上,预训练得到的模型的底层学到的是图像当中的通用特征,那么对于相似度大的数据集,我们可以保留更多的预训练参数;而对于相似度小的数据集,我们则应该保留更少的预训练参数,让模型在任务数据集中得到更多训练。我们通过设置不同的dis_blocks来控制底层的学习率衰减次数,dis_blocks越大则底层的学习率衰减越多,预训练参数保留得越多。实验结果如下表所示: 本小节对Discriminative fine-tuning策略进行实验分析。理论上,预训练得到的模型的底层学到的是图像当中的通用特征,那么对于相似度大的数据集,可以保留更多的预训练参数;而对于相似度小的数据集,则应保留更少的预训练参数,让模型在任务数据集中得到更多训练。本实验通过设置不同的dis_blocks来控制底层的学习率衰减次数,dis_blocks越大则底层的学习率衰减越多,预训练参数保留得越多。实验结果如下表所示:
| cut_fraction | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 | | dis_blocks | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 |
| :----------- | :---------------------------------- | :---------------------------------- | :-------------------------------- | :-------------------------------- | | :----------- | :---------------------------------- | :---------------------------------- | :-------------------------------- | :-------------------------------- |
| 0 | dev: 0.6907<br />test:0.6741 | dev: 0.7272<br />test:0.7338 | dev:0.9893<br />test:0.9830 | dev:**1.0**<br />test:0.9719 | | 0 (baseline) | dev: 0.6907<br />test:0.6741 | dev: 0.7272<br />test:0.7338 | dev:0.9893<br />test:0.9830 | dev:**1.0**<br />test:0.9719 |
| 3 | dev:**0.7842**<br />test:**0.7575** | dev:**0.7581**<br />test:**0.7527** | dev:**0.9933**<br /> test:0.9897 | dev:0.9958<br /> test:**0.9802** | | 3 | dev:**0.7842**<br />test:**0.7575** | dev:**0.7581**<br />test:**0.7527** | dev:**0.9933**<br /> test:0.9897 | dev:0.9958<br /> test:**0.9802** |
| 5 | dev: 0.7092<br />test:0.6961 | dev:0.7336<br /> test:0.7390 | dev: 0.9928<br /> test:**0.9910** | dev: 0.9958<br /> test:**0.9802** | | 5 | dev: 0.7092<br />test:0.6961 | dev:0.7336<br /> test:0.7390 | dev: 0.9928<br /> test:**0.9910** | dev: 0.9958<br /> test:**0.9802** |
观察实验结果,可以发现相似度小规模小的数据集当dis_blocks设置为3时,实验效果大幅度提升,但设置为5的时候,test成绩反而如Baseline,对于相似度小规模小的数据集我们仍应注意寻找合适的超参数。对于相似度小规模大的数据集,模型可以在任务训练集中得到充分的学习,设置较小的dis_blocks适当减缓底层参数的更新有助于模型性能提升。对于相似度大规模大的数据集无论是否采用该策略均有优良的表现,采用该策略可以小幅提升模型性能。而对于相似度大规模小的数据集可以设置更大的dis_blocks,保留更多的底层参数,提升它的泛化能力。 观察实验结果,可以发现该策略在四类数据集中均有良好的效果。在相似度小规模小的数据集中,当dis_blocks设置为3时,实验效果提升明显,但设置为5的时候,test成绩反而不如Baseline,对于相似度小规模小的数据集,调优过程应当注意寻找合适的超参数设置。对于相似度大规模大的数据集无论是否采用该策略均有优良的表现,采用该策略可以略微提升模型性能。
6. Gradual unfreezing策略实验与分析
本小节验证Gradual unfreezing策略的实验效果。理论上,该策略与Discriminative fine-tuning策略相似,对于相似度大的数据集可以更慢的解冻底层,而相似度小的数据集可以早点解冻底层使它们拟合任务数据集。我们设置了不同的frz_blocks控制底层的解冻速度,每个epoch模型解冻一个block。实验结果如下表所示: 5. Gradual unfreezing策略实验与分析
| frz_blocks | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 | 本小节验证Gradual unfreezing策略的实验效果。理论上,该策略与Discriminative fine-tuning策略相似,对于相似度大的数据集可以更慢的解冻底层,而相似度小的数据集可以早点解冻底层使它们拟合任务数据集。本次实验设置了不同的frz_blocks控制底层的解冻速度,每个epoch模型解冻一个block。实验结果如下表所示:
| :--------- | :-------------------------------- | :-------------------------------- | :-------------------------------- | :-------------------------------- |
| 0 | dev: 0.6907<br />test:0.6741 | dev: **0.7272**<br />test:0.7338 | dev:0.9893<br />test:0.9830 | dev:**1.0**<br />test:0.9719 |
| 3 | dev:0.7210<br />test:**0.7018** | dev: 0.7251<br /> test:**0.7270** | dev:**0.9924**<br /> test:0.9857 | dev:**1.0**<br />test:0.9719 |
| 5 | dev: **0.7236**<br /> test:0.6961 | dev: 0.7168<br /> test:0.7204 | dev: 0.9892<br /> test:**0.9861** | dev: **1.0**<br />test:**0.9802** |
实验结果可得,相似度小规模小依然要注意超参数的设置,frz_blocks=3时模型性能提升,设置为5时模型性能下降;与Discriminative fine-tuning结论一致,相似度小规模大的数据集可以设置较小的frz_blocks,相似度大的数据集可以设置较大的frz_blocks。
由于上述实验num epoch=1,实际上模型只更新了最顶层的block,在这里我们提高num epoch,使逐层解冻策略真正运用起来,实验结果如下表所示:
| frz_blocks | epoch | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 | | frz_blocks | epoch | indoor67<br />相似度小规模小 | food101<br />相似度小规模大 | dogcat <br />相似度大规模大 | dogcat 1/10<br />相似度大规模小 |
| :--------- | ----- | :---------------------------------- | :------------------------------- | :------------------------------- | :-------------------------------- | | :--------- | ----- | :---------------------------------- | :------------------------------- | :------------------------------- | :-------------------------------- |
...@@ -247,15 +180,17 @@ PaddleHub中实现了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://ww ...@@ -247,15 +180,17 @@ PaddleHub中实现了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://ww
| 5 | 1 | dev: 0.7236<br /> test:0.6961 | dev: 0.7168<br /> test:0.7204 | dev: 0.9892<br /> test:0.9861 | dev: **1.0**<br />test:**0.9802** | | 5 | 1 | dev: 0.7236<br /> test:0.6961 | dev: 0.7168<br /> test:0.7204 | dev: 0.9892<br /> test:0.9861 | dev: **1.0**<br />test:**0.9802** |
| 5 | 3 | dev:**0.7802**<br />test:**0.7689** | dev:**0.7461<br />** test:0.7389 | dev:**0.9924**<br /> test:0.9892 | dev:**1.0**<br /> test:**0.9802** | | 5 | 3 | dev:**0.7802**<br />test:**0.7689** | dev:**0.7461<br />** test:0.7389 | dev:**0.9924**<br /> test:0.9892 | dev:**1.0**<br /> test:**0.9802** |
从表中结果可得,提升epoch,进行逐层解冻后,frz_blocks=5的实验组在epoch=3时超越了frz_blocks=3的实验结果,设置较大的frz_blocks会降低模型的拟合能力,但提升epoch,使模型得到充分的训练后,模型能够取得比不采用该策略更好的效果。我们建议用户采用Gradual unfreezing策略并设置合适的frz_blocks和足够的epoch。 从表中结果可得,frz_blocks=5的实验组在epoch=3时超越了frz_blocks=3的实验结果,设置较大的frz_blocks会降低模型的拟合能力,但提升epoch,使模型得到充分的训练后,模型能够取得更好的效果。建议用户采用Gradual unfreezing策略时设置足够大的epoch。
## 五、总结 ## 五、总结
本文详细描述了使用ULMFiT策略微调PaddleHub预训练模型的来龙去脉。对于NLP任务,我们划分了大规模数据集与小规模数据集;对于CV任务,我们划分了相似度小规模小、相似度小规模大、相似度大规模大、相似度大规模小四类数据集。我们实验了warm up + linear decay, slanted triangular learning rate, Discriminative fine-tuning, Gradual unfreezing四种策略。 本文描述了在NLP、CV任务中使用ULMFiT策略微调PaddleHub预训练模型的过程,尝试了warm up + linear decay, slanted triangular learning rate, Discriminative fine-tuning, Gradual unfreezing四种微调策略。
slanted triangular learning rate和warm up + linear decay在原理上和实验结果上都是相似的,Discriminative fine-tuning和Gradual unfreezing微调策略在使用中,应当注意它们会降低模型的拟合能力,可以适当提高训练的轮数。
warm up + linear decay和slanted triangular learning rate在原理上和实验结果上都是相似的,用户可以任选其中一种策略并寻找它的Bias-Variance Tradeoff平衡点。我们建议采用Discriminative fine-tuning和Gradual unfreezing策略,它们均有良好的实验效果,在相似度大的数据集中可以设置较大的超参而在相似度小的数据集中应该设置较小的超参,采用该策略后,为了提升模型的拟合能力可以适当提高训练的轮数。欢迎您使用上述策略调试您的PaddleHub预训练模型,同时我们欢迎您使用[PaddleHub Auto Fine-tune](https://github.com/PaddlePaddle/PaddleHub/blob/develop/tutorial/autofinetune.md)自动搜索超参设置,如有任何疑问请在issues中向我们提出! PaddleHub 1.2已发布AutoDL Finetuner,可以自动搜索超参设置,详情请参考[PaddleHub AutoDL Finetuner](./autofinetune.md)。如有任何疑问欢迎您在issues中向我们提出!
## 六、参考文献 ## 六、参考文献
1. Howard J, Ruder S. Universal language model fine-tuning for text classification[J]. arXiv preprint arXiv:1801.06146, 2018.MLA 1. Howard J, Ruder S. Universal Language Model Fine-tuning for Text Classification[C]//Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2018: 328-339.
2. website: [Transfer learning from pre-trained models](https://towardsdatascience.com/transfer-learning-from-pre-trained-models-f2393f124751) 2. website: [Transfer learning from pre-trained models](https://towardsdatascience.com/transfer-learning-from-pre-trained-models-f2393f124751)
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册