Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
934121ad
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
1 年多 前同步成功
通知
116
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
934121ad
编写于
9月 20, 2022
作者:
H
HydrogenSulfate
提交者:
GitHub
9月 20, 2022
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #2322 from HydrogenSulfate/fix_constlr
fix Constant learning rate bug
上级
74545c04
6125fa94
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
25 addition
and
14 deletion
+25
-14
ppcls/configs/reid/strong_baseline/softmax_triplet_with_center.yaml
...igs/reid/strong_baseline/softmax_triplet_with_center.yaml
+1
-1
ppcls/optimizer/learning_rate.py
ppcls/optimizer/learning_rate.py
+24
-13
未找到文件。
ppcls/configs/reid/strong_baseline/softmax_triplet_with_center.yaml
浏览文件 @
934121ad
...
...
@@ -87,7 +87,7 @@ Optimizer:
-
SGD
:
scope
:
CenterLoss
lr
:
name
:
Const
ant
name
:
Const
LR
learning_rate
:
1000.0
# NOTE: set to ori_lr*(1/centerloss_weight) to avoid manually scaling centers' gradidents.
# data loader for train and eval
...
...
ppcls/optimizer/learning_rate.py
浏览文件 @
934121ad
...
...
@@ -93,7 +93,26 @@ class LRBase(object):
return
warmup_lr
class
Constant
(
LRBase
):
class
Constant
(
lr
.
LRScheduler
):
"""Constant learning rate Class implementation
Args:
learning_rate (float): The initial learning rate
last_epoch (int, optional): The index of last epoch. Default: -1.
"""
def
__init__
(
self
,
learning_rate
,
last_epoch
=-
1
,
**
kwargs
):
self
.
learning_rate
=
learning_rate
self
.
last_epoch
=
last_epoch
super
(
Constant
,
self
).
__init__
()
def
get_lr
(
self
)
->
float
:
"""always return the same learning rate
"""
return
self
.
learning_rate
class
ConstLR
(
LRBase
):
"""Constant learning rate
Args:
...
...
@@ -115,22 +134,14 @@ class Constant(LRBase):
last_epoch
=-
1
,
by_epoch
=
False
,
**
kwargs
):
super
(
Const
ant
,
self
).
__init__
(
epochs
,
step_each_epoch
,
learning_rate
,
warmup_epoch
,
warmup_start_lr
,
last_epoch
,
by_epoch
)
super
(
Const
LR
,
self
).
__init__
(
epochs
,
step_each_epoch
,
learning_rate
,
warmup_epoch
,
warmup_start_lr
,
last_epoch
,
by_epoch
)
def
__call__
(
self
):
learning_rate
=
lr
.
LRScheduler
(
learning_rate
=
Constant
(
learning_rate
=
self
.
learning_rate
,
last_epoch
=
self
.
last_epoch
)
def
make_get_lr
():
def
get_lr
(
self
):
return
self
.
learning_rate
return
get_lr
setattr
(
learning_rate
,
"get_lr"
,
make_get_lr
())
if
self
.
warmup_steps
>
0
:
learning_rate
=
self
.
linear_warmup
(
learning_rate
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录