Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Crayon鑫
Paddle
提交
74824fdd
P
Paddle
项目概览
Crayon鑫
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
74824fdd
编写于
4月 25, 2021
作者:
L
Leo Chen
提交者:
GitHub
4月 25, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add clearGradient for amp sample code (#32517)
上级
4e460d7b
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
4 addition
and
0 deletion
+4
-0
paddle/fluid/imperative/layer.cc
paddle/fluid/imperative/layer.cc
+1
-0
python/paddle/amp/grad_scaler.py
python/paddle/amp/grad_scaler.py
+3
-0
未找到文件。
paddle/fluid/imperative/layer.cc
浏览文件 @
74824fdd
...
...
@@ -187,6 +187,7 @@ size_t VarBase::GradOpNum() const {
}
void
VarBase
::
ClearGradient
()
{
VLOG
(
4
)
<<
"ClearGradient "
<<
Name
();
if
(
grad_var_
)
{
if
(
grad_var_
->
Var
().
IsType
<
framework
::
SelectedRows
>
())
{
auto
*
grad_t
=
...
...
python/paddle/amp/grad_scaler.py
浏览文件 @
74824fdd
...
...
@@ -62,6 +62,7 @@ class GradScaler(AmpScaler):
scaled = scaler.scale(loss) # scale the loss
scaled.backward() # do backward
scaler.minimize(optimizer, scaled) # update parameters
optimizer.clear_grad()
"""
def
__init__
(
self
,
...
...
@@ -105,6 +106,7 @@ class GradScaler(AmpScaler):
scaled = scaler.scale(loss) # scale the loss
scaled.backward() # do backward
scaler.minimize(optimizer, scaled) # update parameters
optimizer.clear_grad()
"""
return
super
(
GradScaler
,
self
).
scale
(
var
)
...
...
@@ -140,5 +142,6 @@ class GradScaler(AmpScaler):
scaled = scaler.scale(loss) # scale the loss
scaled.backward() # do backward
scaler.minimize(optimizer, scaled) # update parameters
optimizer.clear_grad()
"""
return
super
(
GradScaler
,
self
).
minimize
(
optimizer
,
*
args
,
**
kwargs
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录