Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
吃玉米的猫
models
提交
0952a2de
M
models
项目概览
吃玉米的猫
/
models
与 Fork 源项目一致
Fork自
PaddlePaddle / models
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
models
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
0952a2de
编写于
5月 14, 2020
作者:
H
hysunflower
提交者:
GitHub
5月 14, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add_maxiter_for_ptb (#4605)
上级
1bff563e
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
16 addition
and
2 deletion
+16
-2
dygraph/ptb_lm/args.py
dygraph/ptb_lm/args.py
+6
-0
dygraph/ptb_lm/ptb_dy.py
dygraph/ptb_lm/ptb_dy.py
+10
-2
未找到文件。
dygraph/ptb_lm/args.py
浏览文件 @
0952a2de
...
...
@@ -57,6 +57,12 @@ def parse_args():
type
=
str
,
default
=
None
,
help
=
'dir to init model.'
)
# NOTE: used for benchmark
parser
.
add_argument
(
'--max_iter'
,
type
=
int
,
default
=
0
,
help
=
'the max iters for train, used for benchmark.'
)
parser
.
add_argument
(
'--ce'
,
action
=
'store_true'
,
help
=
"run ce"
)
args
=
parser
.
parse_args
()
return
args
dygraph/ptb_lm/ptb_dy.py
浏览文件 @
0952a2de
...
...
@@ -374,6 +374,8 @@ def train_ptb_lm():
ce_time
=
[]
ce_ppl
=
[]
total_batch_num
=
0
#this is for benchmark
for
epoch_id
in
range
(
max_epoch
):
ptb_model
.
train
()
total_loss
=
0.0
...
...
@@ -389,6 +391,9 @@ def train_ptb_lm():
init_cell
=
to_variable
(
init_cell_data
)
start_time
=
time
.
time
()
for
batch_id
,
batch
in
enumerate
(
train_data_iter
):
if
args
.
max_iter
and
total_batch_num
==
args
.
max_iter
:
return
batch_start
=
time
.
time
()
x_data
,
y_data
=
batch
x_data
=
x_data
.
reshape
((
-
1
,
num_steps
,
1
))
...
...
@@ -408,13 +413,16 @@ def train_ptb_lm():
ptb_model
.
clear_gradients
()
total_loss
+=
out_loss
batch_end
=
time
.
time
()
train_batch_cost
=
batch_end
-
batch_start
iters
+=
num_steps
total_batch_num
=
total_batch_num
+
1
#this is for benchmark
if
batch_id
>
0
and
batch_id
%
log_interval
==
0
:
ppl
=
np
.
exp
(
total_loss
/
iters
)
print
(
"-- Epoch:[%d]; Batch:[%d]; ppl: %.5f, lr: %.5f, loss: %.5f"
%
print
(
"-- Epoch:[%d]; Batch:[%d]; ppl: %.5f, lr: %.5f, loss: %.5f
, batch cost: %.5f
"
%
(
epoch_id
,
batch_id
,
ppl
[
0
],
sgd
.
_global_learning_rate
().
numpy
(),
out_loss
))
sgd
.
_global_learning_rate
().
numpy
(),
out_loss
,
train_batch_cost
))
print
(
"one epoch finished"
,
epoch_id
)
print
(
"time cost "
,
time
.
time
()
-
start_time
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录