Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
06a3e311
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
06a3e311
编写于
1月 25, 2021
作者:
1
123malin
提交者:
GitHub
1月 25, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
test=develop, fix test_lookahead (#30677)
* test=develop, fix test_lookahead
上级
846ce406
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
5 addition
and
1 deletion
+5
-1
python/paddle/incubate/optimizer/lookahead.py
python/paddle/incubate/optimizer/lookahead.py
+5
-1
未找到文件。
python/paddle/incubate/optimizer/lookahead.py
浏览文件 @
06a3e311
...
@@ -171,6 +171,7 @@ class LookAhead(Optimizer):
...
@@ -171,6 +171,7 @@ class LookAhead(Optimizer):
"""
"""
self
.
inner_optimizer
.
step
()
self
.
inner_optimizer
.
step
()
self
.
_increment_global_var
()
params_grads
=
[]
params_grads
=
[]
for
param
in
self
.
_parameter_list
:
for
param
in
self
.
_parameter_list
:
if
not
param
.
trainable
:
if
not
param
.
trainable
:
...
@@ -188,7 +189,7 @@ class LookAhead(Optimizer):
...
@@ -188,7 +189,7 @@ class LookAhead(Optimizer):
for
p
in
parameters
:
for
p
in
parameters
:
self
.
_add_accumulator
(
self
.
_slow_str
,
p
)
self
.
_add_accumulator
(
self
.
_slow_str
,
p
)
def
_
append_optimize_op
(
self
,
block
,
param_and_grad
):
def
_
increment_global_var
(
self
):
if
self
.
_global_step_var
is
None
:
if
self
.
_global_step_var
is
None
:
self
.
_global_step_var
=
layers
.
create_global_var
(
self
.
_global_step_var
=
layers
.
create_global_var
(
name
=
unique_name
.
generate
(
"lookahead_step"
),
name
=
unique_name
.
generate
(
"lookahead_step"
),
...
@@ -203,6 +204,7 @@ class LookAhead(Optimizer):
...
@@ -203,6 +204,7 @@ class LookAhead(Optimizer):
outputs
=
{
'Out'
:
[
self
.
_global_step_var
]},
outputs
=
{
'Out'
:
[
self
.
_global_step_var
]},
attrs
=
{
'step'
:
1.0
})
attrs
=
{
'step'
:
1.0
})
def
_append_optimize_op
(
self
,
block
,
param_and_grad
):
one_var
=
paddle
.
ones
(
shape
=
[
1
],
dtype
=
'int32'
,
name
=
'lookahead_ones'
)
one_var
=
paddle
.
ones
(
shape
=
[
1
],
dtype
=
'int32'
,
name
=
'lookahead_ones'
)
zero_var
=
paddle
.
zeros
(
zero_var
=
paddle
.
zeros
(
shape
=
[
1
],
dtype
=
'int32'
,
name
=
'lookahead_zeros'
)
shape
=
[
1
],
dtype
=
'int32'
,
name
=
'lookahead_zeros'
)
...
@@ -290,6 +292,8 @@ class LookAhead(Optimizer):
...
@@ -290,6 +292,8 @@ class LookAhead(Optimizer):
parameters
=
parameters
,
parameters
=
parameters
,
no_grad_set
=
no_grad_set
)
no_grad_set
=
no_grad_set
)
self
.
_increment_global_var
()
_
=
self
.
_apply_optimize
(
_
=
self
.
_apply_optimize
(
loss
,
startup_program
=
startup_program
,
params_grads
=
params_grads
)
loss
,
startup_program
=
startup_program
,
params_grads
=
params_grads
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录