Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
hapi
提交
ecb6d64c
H
hapi
项目概览
PaddlePaddle
/
hapi
通知
11
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
4
列表
看板
标记
里程碑
合并请求
7
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
H
hapi
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
4
Issue
4
列表
看板
标记
里程碑
合并请求
7
合并请求
7
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
ecb6d64c
编写于
4月 22, 2020
作者:
G
guosheng
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update metric of seq2seq to adapt to latest code.
上级
79066ac6
变更
5
显示空白变更内容
内联
并排
Showing
5 changed file
with
18 addition
and
52 deletion
+18
-52
examples/seq2seq/README.md
examples/seq2seq/README.md
+11
-26
examples/seq2seq/predict.py
examples/seq2seq/predict.py
+1
-1
examples/seq2seq/run.sh
examples/seq2seq/run.sh
+0
-19
examples/seq2seq/train.py
examples/seq2seq/train.py
+1
-1
examples/seq2seq/utility.py
examples/seq2seq/utility.py
+5
-5
未找到文件。
examples/seq2seq/README.md
浏览文件 @
ecb6d64c
...
...
@@ -11,11 +11,9 @@
├── reader.py # 数据读入程序
├── download.py # 数据下载程序
├── train.py # 训练主程序
├── infer.py # 预测主程序
├── run.sh # 默认配置的启动脚本
├── infer.sh # 默认配置的解码脚本
├── attention_model.py # 带注意力机制的翻译模型程序
└── base_model.py # 无注意力机制的翻译模型程序
├── predict.py # 预测主程序
├── seq2seq_attn.py # 带注意力机制的翻译模型程序
└── seq2seq_base.py # 无注意力机制的翻译模型程序
```
## 简介
...
...
@@ -40,13 +38,7 @@ python download.py
## 模型训练
`run.sh`
包含训练程序的主函数,要使用默认参数开始训练,只需要简单地执行:
```
sh run.sh
```
默认使用带有注意力机制的RNN模型,可以通过修改
`attention`
参数为False来训练不带注意力机制的RNN模型。
执行以下命令即可训练带有注意力机制的Seq2Seq机器翻译模型:
```
sh
export
CUDA_VISIBLE_DEVICES
=
0
...
...
@@ -70,8 +62,7 @@ python train.py \
--model_path
./attention_models
```
训练程序会在每个epoch训练结束之后,save一次模型。
可以通过修改
`attention`
参数为False来训练不带注意力机制的Seq2Seq模型,各参数的具体说明请参阅
`args.py`
。训练程序会在每个epoch训练结束之后,save一次模型。
默认使用动态图模式进行训练,可以通过设置
`eager_run`
参数为False来以静态图模式进行训练,如下:
...
...
@@ -100,13 +91,7 @@ python train.py \
## 模型预测
当模型训练完成之后, 可以利用infer.sh的脚本进行预测,默认使用beam search的方法进行预测,加载第10个epoch的模型进行预测,对test的数据集进行解码
```
sh infer.sh
```
如果想预测别的数据文件,只需要将 --infer_file参数进行修改。
训练完成之后,可以使用保存的模型(由
`--reload_model`
指定)对test的数据集(由
`--infer_file`
指定)进行beam search解码,命令如下:
```
sh
export
CUDA_VISIBLE_DEVICES
=
0
...
...
@@ -124,13 +109,13 @@ python infer.py \
--max_grad_norm
5.0
\
--vocab_prefix
data/en-vi/vocab
\
--infer_file
data/en-vi/tst2013.en
\
--reload_model
attention_models/
epoch_
10
\
--infer_output_file
attention_infer_output/
infer_output.txt
\
--reload_model
attention_models/10
\
--infer_output_file
infer_output.txt
\
--beam_size
10
\
--use_gpu
True
```
和训练类似,预测时同样可以以静态图模式进行,如下:
各参数的具体说明请参阅
`args.py`
,注意预测时所用模型超参数需和训练时一致。
和训练类似,预测时同样可以以静态图模式进行,如下:
```
sh
export
CUDA_VISIBLE_DEVICES
=
0
...
...
@@ -148,8 +133,8 @@ python infer.py \
--max_grad_norm
5.0
\
--vocab_prefix
data/en-vi/vocab
\
--infer_file
data/en-vi/tst2013.en
\
--reload_model
attention_models/
epoch_
10
\
--infer_output_file
attention_infer_output/
infer_output.txt
\
--reload_model
attention_models/10
\
--infer_output_file
infer_output.txt
\
--beam_size
10
\
--use_gpu
True
\
--eager_run
False
...
...
examples/seq2seq/predict.py
浏览文件 @
ecb6d64c
...
...
@@ -108,7 +108,7 @@ def do_predict(args):
# TODO(guosheng): use model.predict when support variant length
with
io
.
open
(
args
.
infer_output_file
,
'w'
,
encoding
=
'utf-8'
)
as
f
:
for
data
in
data_loader
():
finished_seq
=
model
.
test
(
inputs
=
flatten
(
data
))[
0
]
finished_seq
=
model
.
test
_batch
(
inputs
=
flatten
(
data
))[
0
]
finished_seq
=
finished_seq
[:,
:,
np
.
newaxis
]
if
len
(
finished_seq
.
shape
)
==
2
else
finished_seq
finished_seq
=
np
.
transpose
(
finished_seq
,
[
0
,
2
,
1
])
...
...
examples/seq2seq/run.sh
已删除
100644 → 0
浏览文件 @
79066ac6
export
CUDA_VISIBLE_DEVICES
=
0
python train.py
\
--src_lang
en
--tar_lang
vi
\
--attention
True
\
--num_layers
2
\
--hidden_size
512
\
--src_vocab_size
17191
\
--tar_vocab_size
7709
\
--batch_size
128
\
--dropout
0.2
\
--init_scale
0.1
\
--max_grad_norm
5.0
\
--train_data_prefix
data/en-vi/train
\
--eval_data_prefix
data/en-vi/tst2012
\
--test_data_prefix
data/en-vi/tst2013
\
--vocab_prefix
data/en-vi/vocab
\
--use_gpu
True
\
--model_path
attention_models
\ No newline at end of file
examples/seq2seq/train.py
浏览文件 @
ecb6d64c
...
...
@@ -67,7 +67,7 @@ def do_train(args):
parameter_list
=
model
.
parameters
(),
grad_clip
=
grad_clip
)
ppl_metric
=
PPL
(
)
ppl_metric
=
PPL
(
reset_freq
=
100
)
# ppl for every 100 batches
model
.
prepare
(
optimizer
,
CrossEntropyCriterion
(),
...
...
examples/seq2seq/utility.py
浏览文件 @
ecb6d64c
...
...
@@ -12,7 +12,8 @@
# See the License for the specific language governing permissions and
# limitations under the License.
import
numpy
as
np
import
math
import
paddle.fluid
as
fluid
from
hapi.metrics
import
Metric
...
...
@@ -55,13 +56,12 @@ class PPL(Metric):
self
.
reset_freq
=
reset_freq
self
.
reset
()
def
add_metric_op
(
self
,
pred
,
label
):
seq_length
=
label
[
0
]
def
add_metric_op
(
self
,
pred
,
seq_length
,
label
):
word_num
=
fluid
.
layers
.
reduce_sum
(
seq_length
)
return
word_num
def
update
(
self
,
word_num
):
self
.
word_count
+=
word_num
[
0
]
self
.
word_count
+=
word_num
return
word_num
def
reset
(
self
):
...
...
@@ -76,5 +76,5 @@ class PPL(Metric):
def
cal_acc_ppl
(
self
,
batch_loss
,
batch_size
):
self
.
total_loss
+=
batch_loss
*
batch_size
ppl
=
np
.
exp
(
self
.
total_loss
/
self
.
word_count
)
ppl
=
math
.
exp
(
self
.
total_loss
/
self
.
word_count
)
return
ppl
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录