Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
s920243400
PaddleDetection
提交
2dc058ad
P
PaddleDetection
项目概览
s920243400
/
PaddleDetection
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleDetection
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
2dc058ad
编写于
5月 25, 2022
作者:
S
shangliang Xu
提交者:
GitHub
5月 25, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
[dev] update amp, add amp_level (#6054)
上级
84faecbc
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
15 addition
and
14 deletion
+15
-14
ppdet/engine/trainer.py
ppdet/engine/trainer.py
+15
-14
未找到文件。
ppdet/engine/trainer.py
浏览文件 @
2dc058ad
...
...
@@ -32,7 +32,6 @@ import paddle
import
paddle.nn
as
nn
import
paddle.distributed
as
dist
from
paddle.distributed
import
fleet
from
paddle
import
amp
from
paddle.static
import
InputSpec
from
ppdet.optimizer
import
ModelEMA
...
...
@@ -380,13 +379,21 @@ class Trainer(object):
self
.
cfg
[
'EvalDataset'
]
=
self
.
cfg
.
EvalDataset
=
create
(
"EvalDataset"
)()
model
=
self
.
model
sync_bn
=
(
getattr
(
self
.
cfg
,
'norm_type'
,
None
)
==
'sync_bn'
and
self
.
cfg
.
use_gpu
and
self
.
_nranks
>
1
)
if
sync_bn
:
self
.
model
=
paddle
.
nn
.
SyncBatchNorm
.
convert_sync_batchnorm
(
self
.
model
)
model
=
paddle
.
nn
.
SyncBatchNorm
.
convert_sync_batchnorm
(
model
)
model
=
self
.
model
# enabel auto mixed precision mode
use_amp
=
self
.
cfg
.
get
(
'amp'
,
False
)
amp_level
=
self
.
cfg
.
get
(
'amp_level'
,
'O1'
)
if
use_amp
:
scaler
=
paddle
.
amp
.
GradScaler
(
enable
=
self
.
cfg
.
use_gpu
or
self
.
cfg
.
use_npu
,
init_loss_scaling
=
self
.
cfg
.
get
(
'init_loss_scaling'
,
1024
))
model
=
paddle
.
amp
.
decorate
(
models
=
model
,
level
=
amp_level
)
# get distributed model
if
self
.
cfg
.
get
(
'fleet'
,
False
):
model
=
fleet
.
distributed_model
(
model
)
self
.
optimizer
=
fleet
.
distributed_optimizer
(
self
.
optimizer
)
...
...
@@ -394,13 +401,7 @@ class Trainer(object):
find_unused_parameters
=
self
.
cfg
[
'find_unused_parameters'
]
if
'find_unused_parameters'
in
self
.
cfg
else
False
model
=
paddle
.
DataParallel
(
self
.
model
,
find_unused_parameters
=
find_unused_parameters
)
# enabel auto mixed precision mode
if
self
.
cfg
.
get
(
'amp'
,
False
):
scaler
=
amp
.
GradScaler
(
enable
=
self
.
cfg
.
use_gpu
or
self
.
cfg
.
use_npu
,
init_loss_scaling
=
1024
)
model
,
find_unused_parameters
=
find_unused_parameters
)
self
.
status
.
update
({
'epoch_id'
:
self
.
start_epoch
,
...
...
@@ -436,12 +437,12 @@ class Trainer(object):
self
.
_compose_callback
.
on_step_begin
(
self
.
status
)
data
[
'epoch_id'
]
=
epoch_id
if
self
.
cfg
.
get
(
'amp'
,
False
):
with
amp
.
auto_cast
(
enable
=
self
.
cfg
.
use_gpu
):
if
use_amp
:
with
paddle
.
amp
.
auto_cast
(
enable
=
self
.
cfg
.
use_gpu
,
level
=
amp_level
):
# model forward
outputs
=
model
(
data
)
loss
=
outputs
[
'loss'
]
# model backward
scaled_loss
=
scaler
.
scale
(
loss
)
scaled_loss
.
backward
()
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录