Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
e9737d60
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
e9737d60
编写于
5月 03, 2018
作者:
Y
Yancey1989
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add a private function to find adam opt pass
上级
da960ada
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
16 addition
and
12 deletion
+16
-12
python/paddle/fluid/distribute_transpiler.py
python/paddle/fluid/distribute_transpiler.py
+16
-12
未找到文件。
python/paddle/fluid/distribute_transpiler.py
浏览文件 @
e9737d60
...
@@ -401,11 +401,8 @@ class DistributeTranspiler:
...
@@ -401,11 +401,8 @@ class DistributeTranspiler:
# HACK: optimization global ops only used to scale beta1 and beta2
# HACK: optimization global ops only used to scale beta1 and beta2
# replace it with dependency engine.
# replace it with dependency engine.
for
op
in
self
.
optimize_ops
:
for
op
in
self
.
optimize_ops
:
if
op
.
type
==
"scale"
:
if
self
.
_is_adam_connected_op
(
op
):
for
in_name
in
op
.
input_arg_names
:
global_ops
.
append
(
op
)
if
in_name
.
startswith
(
"beta1_pow_acc"
)
or
\
in_name
.
startswith
(
"beta2_pow_acc"
):
global_ops
.
append
(
op
)
def
__append_optimize_op__
(
op
,
block
,
grad_to_block_id
):
def
__append_optimize_op__
(
op
,
block
,
grad_to_block_id
):
if
self
.
_is_opt_op
(
op
):
if
self
.
_is_opt_op
(
op
):
...
@@ -1152,13 +1149,20 @@ class DistributeTranspiler:
...
@@ -1152,13 +1149,20 @@ class DistributeTranspiler:
op
.
input
(
"Param"
)[
0
]),
op
.
input
(
"Param"
)[
0
]),
self
.
origin_program
.
global_block
().
var
(
self
.
origin_program
.
global_block
().
var
(
op
.
input
(
"Grad"
)[
0
])))
op
.
input
(
"Grad"
)[
0
])))
elif
op
.
type
==
"scale"
:
elif
self
.
_is_adam_connected_op
(
op
):
# for adam optimize op
opt_ops
.
append
(
op
)
for
in_name
in
op
.
input_arg_names
:
if
in_name
.
startswith
(
"beta1_pow_acc"
)
or
\
in_name
.
startswith
(
"beta2_pow_acc"
):
opt_ops
.
append
(
op
)
break
else
:
else
:
pass
pass
return
opt_ops
,
params_grads
return
opt_ops
,
params_grads
def
_is_adam_connected_op
(
self
,
op
):
"""
A hack function to determinate whether the input operator
is connected to optimize operator.
"""
if
op
.
type
==
"scale"
:
for
in_name
in
op
.
input_arg_names
:
if
in_name
.
startswith
(
"beta1_pow_acc"
)
or
\
in_name
.
startswith
(
"beta2_pow_acc"
):
return
True
return
False
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录