Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
30416052
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
30416052
编写于
7月 30, 2021
作者:
W
wangguanzhong
提交者:
GitHub
7月 30, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix lr in param group (#34468)
* fix lr in param group * add unittest for adamw
上级
423ea978
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
33 addition
and
6 deletion
+33
-6
python/paddle/fluid/tests/unittests/test_adamw_op.py
python/paddle/fluid/tests/unittests/test_adamw_op.py
+28
-0
python/paddle/optimizer/adamw.py
python/paddle/optimizer/adamw.py
+3
-4
python/paddle/optimizer/optimizer.py
python/paddle/optimizer/optimizer.py
+2
-2
未找到文件。
python/paddle/fluid/tests/unittests/test_adamw_op.py
浏览文件 @
30416052
...
...
@@ -147,5 +147,33 @@ class TestAdamWOpGroup(TestAdamWOp):
adam
.
clear_gradients
()
class
TestAdamWOpGroupWithLR
(
TestAdamWOp
):
def
test_adamw_op_dygraph
(
self
):
paddle
.
disable_static
()
value
=
np
.
arange
(
26
).
reshape
(
2
,
13
).
astype
(
"float32"
)
a
=
paddle
.
to_tensor
(
value
)
linear_1
=
paddle
.
nn
.
Linear
(
13
,
5
)
linear_2
=
paddle
.
nn
.
Linear
(
5
,
3
)
adam
=
paddle
.
optimizer
.
AdamW
(
learning_rate
=
paddle
.
optimizer
.
lr
.
PiecewiseDecay
(
boundaries
=
[
3
,
6
],
values
=
[
0.1
,
0.2
,
0.3
]),
parameters
=
[{
'params'
:
linear_1
.
parameters
(),
'learning_rate'
:
0.1
,
},
{
'params'
:
linear_2
.
parameters
(),
'weight_decay'
:
0.001
,
}],
apply_decay_param_fun
=
lambda
name
:
True
,
weight_decay
=
0.01
)
for
_
in
range
(
2
):
out
=
linear_1
(
a
)
out
=
linear_2
(
out
)
out
.
backward
()
adam
.
step
()
adam
.
clear_gradients
()
if
__name__
==
"__main__"
:
unittest
.
main
()
python/paddle/optimizer/adamw.py
浏览文件 @
30416052
...
...
@@ -185,10 +185,9 @@ class AdamW(Adam):
Raises:
Exception: The type of coeff and parameter is not consistent.
"""
if
not
isinstance
(
param_and_grad
,
dict
):
param
,
grad
=
param_and_grad
else
:
param
,
grad
=
self
.
_update_param_group
(
param_and_grad
)
if
isinstance
(
param_and_grad
,
dict
):
param_and_grad
=
self
.
_update_param_group
(
param_and_grad
)
param
,
grad
=
param_and_grad
if
self
.
_apply_decay_param_fun
is
not
None
\
and
not
self
.
_apply_decay_param_fun
(
param
.
name
):
...
...
python/paddle/optimizer/optimizer.py
浏览文件 @
30416052
...
...
@@ -206,7 +206,6 @@ class Optimizer(object):
self
.
_param_device_map
=
dict
()
self
.
clear_gradients
=
self
.
clear_grad
self
.
_default_dict
=
{
'learning_rate'
:
self
.
_learning_rate
,
'weight_decay'
:
self
.
regularization
,
'grad_clip'
:
self
.
_grad_clip
}
...
...
@@ -1190,7 +1189,8 @@ class Optimizer(object):
else
:
regularization
=
weight_decay
param
.
regularizer
=
regularization
param
.
optimize_attr
[
'learning_rate'
]
=
param_group
[
'learning_rate'
]
param
.
optimize_attr
[
'learning_rate'
]
=
param_group
.
get
(
'learning_rate'
,
1.
)
self
.
_param_groups
.
append
(
param_group
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录