Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
6125fa94
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
大约 2 年 前同步成功
通知
118
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
6125fa94
编写于
9月 20, 2022
作者:
H
HydrogenSulfate
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
change Constant to ConstLR
上级
cc12db09
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
8 addition
and
8 deletion
+8
-8
ppcls/configs/reid/strong_baseline/softmax_triplet_with_center.yaml
...igs/reid/strong_baseline/softmax_triplet_with_center.yaml
+1
-1
ppcls/optimizer/learning_rate.py
ppcls/optimizer/learning_rate.py
+7
-7
未找到文件。
ppcls/configs/reid/strong_baseline/softmax_triplet_with_center.yaml
浏览文件 @
6125fa94
...
@@ -87,7 +87,7 @@ Optimizer:
...
@@ -87,7 +87,7 @@ Optimizer:
-
SGD
:
-
SGD
:
scope
:
CenterLoss
scope
:
CenterLoss
lr
:
lr
:
name
:
Const
ant
name
:
Const
LR
learning_rate
:
1000.0
# NOTE: set to ori_lr*(1/centerloss_weight) to avoid manually scaling centers' gradidents.
learning_rate
:
1000.0
# NOTE: set to ori_lr*(1/centerloss_weight) to avoid manually scaling centers' gradidents.
# data loader for train and eval
# data loader for train and eval
...
...
ppcls/optimizer/learning_rate.py
浏览文件 @
6125fa94
...
@@ -93,7 +93,7 @@ class LRBase(object):
...
@@ -93,7 +93,7 @@ class LRBase(object):
return
warmup_lr
return
warmup_lr
class
Constant
Impl
(
lr
.
LRScheduler
):
class
Constant
(
lr
.
LRScheduler
):
"""Constant learning rate Class implementation
"""Constant learning rate Class implementation
Args:
Args:
...
@@ -104,7 +104,7 @@ class ConstantImpl(lr.LRScheduler):
...
@@ -104,7 +104,7 @@ class ConstantImpl(lr.LRScheduler):
def
__init__
(
self
,
learning_rate
,
last_epoch
=-
1
,
**
kwargs
):
def
__init__
(
self
,
learning_rate
,
last_epoch
=-
1
,
**
kwargs
):
self
.
learning_rate
=
learning_rate
self
.
learning_rate
=
learning_rate
self
.
last_epoch
=
last_epoch
self
.
last_epoch
=
last_epoch
super
(
Constant
Impl
,
self
).
__init__
()
super
(
Constant
,
self
).
__init__
()
def
get_lr
(
self
)
->
float
:
def
get_lr
(
self
)
->
float
:
"""always return the same learning rate
"""always return the same learning rate
...
@@ -112,7 +112,7 @@ class ConstantImpl(lr.LRScheduler):
...
@@ -112,7 +112,7 @@ class ConstantImpl(lr.LRScheduler):
return
self
.
learning_rate
return
self
.
learning_rate
class
Const
ant
(
LRBase
):
class
Const
LR
(
LRBase
):
"""Constant learning rate
"""Constant learning rate
Args:
Args:
...
@@ -134,12 +134,12 @@ class Constant(LRBase):
...
@@ -134,12 +134,12 @@ class Constant(LRBase):
last_epoch
=-
1
,
last_epoch
=-
1
,
by_epoch
=
False
,
by_epoch
=
False
,
**
kwargs
):
**
kwargs
):
super
(
Const
ant
,
self
).
__init__
(
epochs
,
step_each_epoch
,
learning_rate
,
super
(
Const
LR
,
self
).
__init__
(
epochs
,
step_each_epoch
,
learning_rate
,
warmup_epoch
,
warmup_start_lr
,
warmup_epoch
,
warmup_start_lr
,
last_epoch
,
by_epoch
)
last_epoch
,
by_epoch
)
def
__call__
(
self
):
def
__call__
(
self
):
learning_rate
=
Constant
Impl
(
learning_rate
=
Constant
(
learning_rate
=
self
.
learning_rate
,
last_epoch
=
self
.
last_epoch
)
learning_rate
=
self
.
learning_rate
,
last_epoch
=
self
.
last_epoch
)
if
self
.
warmup_steps
>
0
:
if
self
.
warmup_steps
>
0
:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录