Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
magicwindyyd
mindspore
提交
0a261aba
M
mindspore
项目概览
magicwindyyd
/
mindspore
与 Fork 源项目一致
Fork自
MindSpore / mindspore
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
mindspore
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
0a261aba
编写于
6月 24, 2020
作者:
C
caojian05
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix accurancy lower then 92
上级
6ef1a731
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
19 addition
and
11 deletion
+19
-11
model_zoo/vgg16/src/config.py
model_zoo/vgg16/src/config.py
+3
-1
model_zoo/vgg16/train.py
model_zoo/vgg16/train.py
+16
-10
未找到文件。
model_zoo/vgg16/src/config.py
浏览文件 @
0a261aba
...
...
@@ -19,7 +19,9 @@ from easydict import EasyDict as edict
cifar_cfg
=
edict
({
'num_classes'
:
10
,
'lr_init'
:
0.05
,
'lr_init'
:
0.01
,
'lr_max'
:
0.1
,
'warmup_epochs'
:
5
,
'batch_size'
:
64
,
'epoch_size'
:
70
,
'momentum'
:
0.9
,
...
...
model_zoo/vgg16/train.py
浏览文件 @
0a261aba
...
...
@@ -38,20 +38,25 @@ random.seed(1)
np
.
random
.
seed
(
1
)
def
lr_steps
(
global_step
,
lr_
max
=
None
,
total_epochs
=
None
,
steps_per_epoch
=
None
):
def
lr_steps
(
global_step
,
lr_
init
,
lr_max
,
warmup_epochs
,
total_epochs
,
steps_per_epoch
):
"""Set learning rate."""
lr_each_step
=
[]
total_steps
=
steps_per_epoch
*
total_epochs
decay_epoch_index
=
[
0.3
*
total_steps
,
0.6
*
total_steps
,
0.8
*
total_steps
]
warmup_steps
=
steps_per_epoch
*
warmup_epochs
if
warmup_steps
!=
0
:
inc_each_step
=
(
float
(
lr_max
)
-
float
(
lr_init
))
/
float
(
warmup_steps
)
else
:
inc_each_step
=
0
for
i
in
range
(
total_steps
):
if
i
<
decay_epoch_index
[
0
]:
lr_each_step
.
append
(
lr_max
)
elif
i
<
decay_epoch_index
[
1
]:
lr_each_step
.
append
(
lr_max
*
0.1
)
elif
i
<
decay_epoch_index
[
2
]:
lr_each_step
.
append
(
lr_max
*
0.01
)
if
i
<
warmup_steps
:
lr_value
=
float
(
lr_init
)
+
inc_each_step
*
float
(
i
)
else
:
lr_each_step
.
append
(
lr_max
*
0.001
)
base
=
(
1.0
-
(
float
(
i
)
-
float
(
warmup_steps
))
/
(
float
(
total_steps
)
-
float
(
warmup_steps
)))
lr_value
=
float
(
lr_max
)
*
base
*
base
if
lr_value
<
0.0
:
lr_value
=
0.0
lr_each_step
.
append
(
lr_value
)
current_step
=
global_step
lr_each_step
=
np
.
array
(
lr_each_step
).
astype
(
np
.
float32
)
learning_rate
=
lr_each_step
[
current_step
:]
...
...
@@ -86,7 +91,8 @@ if __name__ == '__main__':
if
args_opt
.
pre_trained
:
load_param_into_net
(
net
,
load_checkpoint
(
args_opt
.
pre_trained
))
lr
=
lr_steps
(
0
,
lr_max
=
cfg
.
lr_init
,
total_epochs
=
cfg
.
epoch_size
,
steps_per_epoch
=
batch_num
)
lr
=
lr_steps
(
0
,
lr_init
=
cfg
.
lr_init
,
lr_max
=
cfg
.
lr_max
,
warmup_epochs
=
cfg
.
warmup_epochs
,
total_epochs
=
cfg
.
epoch_size
,
steps_per_epoch
=
batch_num
)
opt
=
Momentum
(
filter
(
lambda
x
:
x
.
requires_grad
,
net
.
get_parameters
()),
Tensor
(
lr
),
cfg
.
momentum
,
weight_decay
=
cfg
.
weight_decay
)
loss
=
nn
.
SoftmaxCrossEntropyWithLogits
(
sparse
=
True
,
reduction
=
'mean'
,
is_grad
=
False
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录