Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
cc12db09
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
接近 2 年 前同步成功
通知
116
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
cc12db09
编写于
9月 20, 2022
作者:
H
HydrogenSulfate
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix Constant learning rate bug
上级
9e30739c
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
20 addition
and
9 deletion
+20
-9
ppcls/optimizer/learning_rate.py
ppcls/optimizer/learning_rate.py
+20
-9
未找到文件。
ppcls/optimizer/learning_rate.py
浏览文件 @
cc12db09
...
@@ -93,6 +93,25 @@ class LRBase(object):
...
@@ -93,6 +93,25 @@ class LRBase(object):
return
warmup_lr
return
warmup_lr
class
ConstantImpl
(
lr
.
LRScheduler
):
"""Constant learning rate Class implementation
Args:
learning_rate (float): The initial learning rate
last_epoch (int, optional): The index of last epoch. Default: -1.
"""
def
__init__
(
self
,
learning_rate
,
last_epoch
=-
1
,
**
kwargs
):
self
.
learning_rate
=
learning_rate
self
.
last_epoch
=
last_epoch
super
(
ConstantImpl
,
self
).
__init__
()
def
get_lr
(
self
)
->
float
:
"""always return the same learning rate
"""
return
self
.
learning_rate
class
Constant
(
LRBase
):
class
Constant
(
LRBase
):
"""Constant learning rate
"""Constant learning rate
...
@@ -120,17 +139,9 @@ class Constant(LRBase):
...
@@ -120,17 +139,9 @@ class Constant(LRBase):
last_epoch
,
by_epoch
)
last_epoch
,
by_epoch
)
def
__call__
(
self
):
def
__call__
(
self
):
learning_rate
=
lr
.
LRScheduler
(
learning_rate
=
ConstantImpl
(
learning_rate
=
self
.
learning_rate
,
last_epoch
=
self
.
last_epoch
)
learning_rate
=
self
.
learning_rate
,
last_epoch
=
self
.
last_epoch
)
def
make_get_lr
():
def
get_lr
(
self
):
return
self
.
learning_rate
return
get_lr
setattr
(
learning_rate
,
"get_lr"
,
make_get_lr
())
if
self
.
warmup_steps
>
0
:
if
self
.
warmup_steps
>
0
:
learning_rate
=
self
.
linear_warmup
(
learning_rate
)
learning_rate
=
self
.
linear_warmup
(
learning_rate
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录