Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MindSpore
docs
提交
6600a49a
D
docs
项目概览
MindSpore
/
docs
通知
4
Star
2
Fork
2
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
docs
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
6600a49a
编写于
8月 26, 2020
作者:
M
mindspore-ci-bot
提交者:
Gitee
8月 26, 2020
浏览文件
操作
浏览文件
下载
差异文件
!751 modify code support pynative mode
Merge pull request !751 from jinyaohui/master
上级
30b8fceb
aced0c70
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
2 addition
and
12 deletion
+2
-12
tutorials/source_zh_cn/advanced_use/gradient_accumulation.md
tutorials/source_zh_cn/advanced_use/gradient_accumulation.md
+1
-0
tutorials/tutorial_code/gradient_accumulation/train.py
tutorials/tutorial_code/gradient_accumulation/train.py
+1
-12
未找到文件。
tutorials/source_zh_cn/advanced_use/gradient_accumulation.md
浏览文件 @
6600a49a
...
...
@@ -95,6 +95,7 @@ class TrainForwardBackward(Cell):
def
__init__
(
self
,
network
,
optimizer
,
grad_sum
,
sens
=
1.0
):
super
(
TrainForwardBackward
,
self
).
__init__
(
auto_prefix
=
False
)
self
.
network
=
network
self
.
network
.
set_grad
()
self
.
network
.
add_flags
(
defer_inline
=
True
)
self
.
weights
=
ParameterTuple
(
network
.
trainable_params
())
self
.
optimizer
=
optimizer
...
...
tutorials/tutorial_code/gradient_accumulation/train.py
浏览文件 @
6600a49a
import
argparse
import
os
from
collections.abc
import
Iterable
import
mindspore.nn
as
nn
from
mindspore
import
ParameterTuple
...
...
@@ -37,6 +36,7 @@ class TrainForwardBackward(Cell):
def
__init__
(
self
,
network
,
optimizer
,
grad_sum
,
sens
=
1.0
):
super
(
TrainForwardBackward
,
self
).
__init__
(
auto_prefix
=
False
)
self
.
network
=
network
self
.
network
.
set_grad
()
self
.
network
.
add_flags
(
defer_inline
=
True
)
self
.
weights
=
ParameterTuple
(
network
.
trainable_params
())
self
.
optimizer
=
optimizer
...
...
@@ -88,17 +88,6 @@ class GradientAccumulation:
self
.
_train_optim
=
self
.
_build_train_optim
()
self
.
_train_clear
=
self
.
_build_train_clear
()
@
staticmethod
def
_transform_callbacks
(
callbacks
):
"""Transform callback to a list."""
if
callbacks
is
None
:
return
[]
if
isinstance
(
callbacks
,
Iterable
):
return
list
(
callbacks
)
return
[
callbacks
]
def
_build_train_forward_backward_network
(
self
):
"""Build forward and backward network"""
network
=
self
.
_network
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录