Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleHub
提交
88f19413
P
PaddleHub
项目概览
PaddlePaddle
/
PaddleHub
大约 1 年 前同步成功
通知
282
Star
12117
Fork
2091
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
200
列表
看板
标记
里程碑
合并请求
4
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleHub
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
200
Issue
200
列表
看板
标记
里程碑
合并请求
4
合并请求
4
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
88f19413
编写于
12月 24, 2019
作者:
S
Steffy-zxf
提交者:
GitHub
12月 24, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README.md
上级
2db4d1f8
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
133 addition
and
0 deletion
+133
-0
demo/senta/README.md
demo/senta/README.md
+133
-0
未找到文件。
demo/senta/README.md
浏览文件 @
88f19413
...
@@ -35,6 +35,137 @@ python senta_demo.py
...
@@ -35,6 +35,137 @@ python senta_demo.py
$
sh run_finetune.sh
$
sh run_finetune.sh
```
```
其中脚本参数说明如下:
```
bash
--batch_size
: 批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数
--checkpoint_dir
: 模型保存路径,PaddleHub会自动保存验证集上表现最好的模型
--num_epoch
: Finetune迭代的轮数
--use_gpu
: 是否使用GPU进行训练,如果机器支持GPU且安装了GPU版本的PaddlePaddle,我们建议您打开这个开关
```
使用PaddleHub Finetune API进行Finetune可以分为4个步骤
### Step1: 加载预训练模型
```
python
module
=
hub
.
Module
(
name
=
"senta_bilstm"
)
inputs
,
outputs
,
program
=
module
.
context
(
trainable
=
True
)
```
PaddleHub提供Senta一列模型可供选择, 模型对应的加载示例如下:
模型名 | PaddleHub Module
---------------------------------- | :------:
senta_bilstm |
`hub.Module(name='senta_bilstm')`
senta_bow |
`hub.Module(name='senta_bow')`
senta_gru |
`hub.Module(name='senta_gru')`
senta_lstm |
`hub.Module(name='senta_lstm')`
senta_cnn |
`hub.Module(name='senta_cnn')`
更多模型请参考
[
PaddleHub官网
](
https://www.paddlepaddle.org.cn/hub?filter=hot&value=1
)
。
如果想尝GRU模型,只需要更换Module中的
`name`
参数即可.
```
python
# 更换name参数即可无缝切换GRU模型, 代码示例如下
module
=
hub
.
Module
(
name
=
"senta_gru"
)
```
### Step2: 准备数据集并使用LACClassifyReader读取数据
```
python
dataset
=
hub
.
dataset
.
ChnSentiCorp
()
reader
=
hub
.
reader
.
LACClassifyReader
(
dataset
=
dataset
,
vocab_path
=
module
.
get_vocab_path
())
```
`hub.dataset.ChnSentiCorp()`
会自动从网络下载数据集并解压到用户目录下
`$HOME/.paddlehub/dataset`
目录
`module.get_vocab_path()`
会返回预训练模型对应的词表
LACClassifyReader中的
`data_generator`
会自动按照模型对应词表对数据进行切词,以迭代器的方式返回Senta所需要的word id。
更多数据集信息参考
[
Dataset
](
https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub-API:-Dataset
)
#### 自定义数据集
如果想加载自定义数据集完成迁移学习,详细参见
[
自定义数据集
](
https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub%E9%80%82%E9%85%8D%E8%87%AA%E5%AE%9A%E4%B9%89%E6%95%B0%E6%8D%AE%E5%AE%8C%E6%88%90FineTune
)
### Step3:选择优化策略和运行配置
```
python
strategy
=
hub
.
AdamWeightDecayStrategy
(
learning_rate
=
1e-5
,
weight_decay
=
0.01
,
warmup_proportion
=
0.1
,
lr_scheduler
=
"linear_decay"
,
)
config
=
hub
.
RunConfig
(
use_cuda
=
True
,
num_epoch
=
3
,
batch_size
=
32
,
strategy
=
strategy
)
```
#### 优化策略
PaddleHub提供了许多优化策略,如
`AdamWeightDecayStrategy`
、
`ULMFiTStrategy`
、
`DefaultFinetuneStrategy`
等,详细信息参见
[
策略
](
https://github.com/PaddlePaddle/PaddleHub/wiki/PaddleHub-API:-Strategy
)
其中
`AdamWeightDecayStrategy`
:
*
`learning_rate`
: Finetune过程中的最大学习率;
*
`weight_decay`
: 模型的正则项参数,默认0.01,如果模型有过拟合倾向,可适当调高这一参数;
*
`warmup_proportion`
: 如果warmup_proportion>0, 例如0.1, 则学习率会在前10%的steps中线性增长至最高值learning_rate;
*
`lr_scheduler`
: 有两种策略可选(1)
`linear_decay`
策略学习率会在最高点后以线性方式衰减;
`noam_decay`
策略学习率会在最高点以多项式形式衰减;
#### 运行配置
`RunConfig`
主要控制Finetune的训练,包含以下可控制的参数:
*
`use_cuda`
: 是否使用GPU训练,默认为False
*
`checkpoint_dir`
: 模型checkpoint保存路径, 若用户没有指定,程序会自动生成
*
`num_epoch`
: finetune的轮数
*
`batch_size`
: 训练的批大小,如果使用GPU,请根据实际情况调整batch_size
*
`strategy`
: Finetune优化策略
### Step4: 构建网络并创建分类迁移任务进行Finetune
```
python
sent_feature
=
outputs
[
"sentence_feature"
]
feed_list
=
[
inputs
[
"words"
].
name
]
cls_task
=
hub
.
TextClassifierTask
(
data_reader
=
reader
,
feature
=
sent_feature
,
feed_list
=
feed_list
,
num_classes
=
dataset
.
num_labels
,
config
=
config
)
cls_task
.
finetune_and_eval
()
```
**NOTE:**
1.
`outputs["sentence_feature"]`
返回了senta模型对应的句子特征,可以用于句子的特征表达。
2.
`feed_list`
中的inputs参数指名了senta中的输入tensor的顺序,与LACClassifyReader返回的结果一致。
3.
`hub.TextClassifierTask`
通过输入特征,label与迁移的类别数,可以生成适用于文本分类的迁移任务
`TextClassifierTask`
## 可视化
Finetune API训练过程中会自动对关键训练指标进行打点,启动程序后执行下面命令
```
bash
$
tensorboard
--logdir
$CKPT_DIR
/visualization
--host
${
HOST_IP
}
--port
${
PORT_NUM
}
```
其中${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040,用浏览器打开192.168.0.1:8040,即可看到训练过程中指标的变化情况
## 模型预测
通过Finetune完成模型训练后,在对应的ckpt目录下,会自动保存验证集上效果最好的模型。
配置脚本参数
```
CKPT_DIR="ckpt_chnsentiment/"
python predict.py --checkpoint_dir $CKPT_DIR
```
其中CKPT_DIR为Finetune API保存最佳模型的路径
参数配置正确后,请执行脚本
`sh run_predict.sh`
,即可看到以下文本分类预测结果, 以及最终准确率。
如需了解更多预测步骤,请参考
`predict.py`
同时,我们在AI Studio上提供了IPython NoteBook形式的demo,您可以直接在平台上在线体验,链接如下:
同时,我们在AI Studio上提供了IPython NoteBook形式的demo,您可以直接在平台上在线体验,链接如下:
|预训练模型|任务类型|数据集|AIStudio链接|备注|
|预训练模型|任务类型|数据集|AIStudio链接|备注|
...
@@ -44,3 +175,5 @@ $ sh run_finetune.sh
...
@@ -44,3 +175,5 @@ $ sh run_finetune.sh
|ERNIE|序列标注|中文序列标注数据集MSRA_NER|
[
点击体验
](
https://aistudio.baidu.com/aistudio/projectdetail/216787
)
||
|ERNIE|序列标注|中文序列标注数据集MSRA_NER|
[
点击体验
](
https://aistudio.baidu.com/aistudio/projectdetail/216787
)
||
|ERNIE|序列标注|中文快递单数据集Express|
[
点击体验
](
https://aistudio.baidu.com/aistudio/projectdetail/216683
)
|本教程讲述了如何将自定义数据集加载,并利用Finetune API完成序列标注迁移学习。|
|ERNIE|序列标注|中文快递单数据集Express|
[
点击体验
](
https://aistudio.baidu.com/aistudio/projectdetail/216683
)
|本教程讲述了如何将自定义数据集加载,并利用Finetune API完成序列标注迁移学习。|
|ERNIE Tiny|文本分类|中文情感分类数据集ChnSentiCorp|
[
点击体验
](
https://aistudio.baidu.com/aistudio/projectdetail/215599
)
||
|ERNIE Tiny|文本分类|中文情感分类数据集ChnSentiCorp|
[
点击体验
](
https://aistudio.baidu.com/aistudio/projectdetail/215599
)
||
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录