Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
magicwindyyd
mindspore
提交
86a4abad
M
mindspore
项目概览
magicwindyyd
/
mindspore
与 Fork 源项目一致
Fork自
MindSpore / mindspore
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
mindspore
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
86a4abad
编写于
7月 06, 2020
作者:
H
Hoai Linh Tran
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Change node collections into flag for calling Renormalize
上级
9991df86
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
15 addition
and
19 deletion
+15
-19
mindspore/ccsrc/optimizer/opt.cc
mindspore/ccsrc/optimizer/opt.cc
+2
-7
mindspore/ccsrc/optimizer/optimizer.h
mindspore/ccsrc/optimizer/optimizer.h
+13
-12
未找到文件。
mindspore/ccsrc/optimizer/opt.cc
浏览文件 @
86a4abad
...
@@ -84,13 +84,8 @@ AnfNodePtr Substitution::operator()(const OptimizerPtr &optimizer, const AnfNode
...
@@ -84,13 +84,8 @@ AnfNodePtr Substitution::operator()(const OptimizerPtr &optimizer, const AnfNode
}
}
#endif
#endif
if
(
optimizer
!=
nullptr
&&
optimizer
->
is_watch_renormalize
()
&&
result
!=
nullptr
)
{
if
(
optimizer
!=
nullptr
&&
optimizer
->
is_watch_renormalize
()
&&
result
!=
nullptr
)
{
if
(
renorm_action_
==
FORCE_RENORM
)
{
if
((
renorm_action_
==
FORCE_RENORM
)
||
(
result
->
abstract
()
==
nullptr
))
{
optimizer
->
add_node_to_renormalize
(
result
);
optimizer
->
set_is_untyped_generated
();
}
else
{
// renorm_action_ is CHECK_RENORM
if
(
result
->
abstract
()
==
nullptr
)
{
optimizer
->
add_node_to_renormalize
(
result
);
}
}
}
}
}
...
...
mindspore/ccsrc/optimizer/optimizer.h
浏览文件 @
86a4abad
...
@@ -89,12 +89,18 @@ using OptPassGroupMap = std::vector<std::pair<std::string, OptPassConfig>>;
...
@@ -89,12 +89,18 @@ using OptPassGroupMap = std::vector<std::pair<std::string, OptPassConfig>>;
class
Optimizer
:
public
std
::
enable_shared_from_this
<
Optimizer
>
{
class
Optimizer
:
public
std
::
enable_shared_from_this
<
Optimizer
>
{
public:
public:
Optimizer
(
const
std
::
string
&
name
,
const
pipeline
::
ResourceBasePtr
&
resource_ptr
)
Optimizer
(
const
std
::
string
&
name
,
const
pipeline
::
ResourceBasePtr
&
resource_ptr
)
:
name_
(
name
),
resource_
(
resource_ptr
),
run_only_once_
(
false
),
is_watch_renormalize_
(
false
),
is_enable_
(
true
)
{}
:
name_
(
name
),
resource_
(
resource_ptr
),
run_only_once_
(
false
),
is_watch_renormalize_
(
false
),
is_enable_
(
true
),
is_untyped_generated_
(
false
)
{}
virtual
~
Optimizer
()
=
default
;
virtual
~
Optimizer
()
=
default
;
void
Init
(
const
OptPassGroupMap
&
passes
,
bool
run_only_once
)
{
void
Init
(
const
OptPassGroupMap
&
passes
,
bool
run_only_once
)
{
run_only_once_
=
run_only_once
;
run_only_once_
=
run_only_once
;
is_watch_renormalize_
=
false
;
is_watch_renormalize_
=
false
;
is_untyped_generated_
=
false
;
is_on_debug_
=
IS_OUTPUT_ON
(
mindspore
::
DEBUG
);
is_on_debug_
=
IS_OUTPUT_ON
(
mindspore
::
DEBUG
);
for
(
auto
&
iter
:
passes
)
{
for
(
auto
&
iter
:
passes
)
{
...
@@ -154,14 +160,14 @@ class Optimizer : public std::enable_shared_from_this<Optimizer> {
...
@@ -154,14 +160,14 @@ class Optimizer : public std::enable_shared_from_this<Optimizer> {
// So generate the args_spec from parameters.
// So generate the args_spec from parameters.
abstract
::
AbstractBasePtrList
maybe_new_args_spec
;
abstract
::
AbstractBasePtrList
maybe_new_args_spec
;
if
(
is_watch_renormalize_
)
{
if
(
is_watch_renormalize_
)
{
if
(
untyped_nodes_
.
size
()
>
0
)
{
if
(
is_untyped_generated_
)
{
std
::
transform
(
func_graph
->
parameters
().
begin
(),
func_graph
->
parameters
().
end
(),
std
::
transform
(
func_graph
->
parameters
().
begin
(),
func_graph
->
parameters
().
end
(),
std
::
back_inserter
(
maybe_new_args_spec
),
std
::
back_inserter
(
maybe_new_args_spec
),
[](
AnfNodePtr
param
)
->
AbstractBasePtr
{
return
param
->
abstract
();
});
[](
AnfNodePtr
param
)
->
AbstractBasePtr
{
return
param
->
abstract
();
});
func_graph
=
pipeline
::
Renormalize
(
resource_ptr
,
func_graph
,
maybe_new_args_spec
);
func_graph
=
pipeline
::
Renormalize
(
resource_ptr
,
func_graph
,
maybe_new_args_spec
);
clear_
untyped_nodes
();
clear_
is_untyped_generated
();
}
else
{
}
else
{
MS_LOG
(
INFO
)
<<
"Optimizer::step: Skipping Renormalize because
untyped_nodes_ is empty
."
;
MS_LOG
(
INFO
)
<<
"Optimizer::step: Skipping Renormalize because
is_untyped_generated_ is False
."
;
}
}
}
else
{
}
else
{
std
::
transform
(
func_graph
->
parameters
().
begin
(),
func_graph
->
parameters
().
end
(),
std
::
transform
(
func_graph
->
parameters
().
begin
(),
func_graph
->
parameters
().
end
(),
...
@@ -206,13 +212,8 @@ class Optimizer : public std::enable_shared_from_this<Optimizer> {
...
@@ -206,13 +212,8 @@ class Optimizer : public std::enable_shared_from_this<Optimizer> {
const
std
::
string
name
()
const
{
return
name_
;
}
const
std
::
string
name
()
const
{
return
name_
;
}
void
add_node_to_renormalize
(
AnfNodePtr
anode
)
{
void
set_is_untyped_generated
()
{
is_untyped_generated_
=
true
;
}
if
(
std
::
find
(
untyped_nodes_
.
begin
(),
untyped_nodes_
.
end
(),
anode
)
==
untyped_nodes_
.
end
())
{
void
clear_is_untyped_generated
()
{
is_untyped_generated_
=
false
;
}
untyped_nodes_
.
push_back
(
anode
);
}
}
void
clear_untyped_nodes
()
{
untyped_nodes_
.
clear
();
}
void
enable_watch_renormalize
()
{
is_watch_renormalize_
=
true
;
}
void
enable_watch_renormalize
()
{
is_watch_renormalize_
=
true
;
}
void
disable_watch_renormalize
()
{
is_watch_renormalize_
=
false
;
}
void
disable_watch_renormalize
()
{
is_watch_renormalize_
=
false
;
}
...
@@ -232,9 +233,9 @@ class Optimizer : public std::enable_shared_from_this<Optimizer> {
...
@@ -232,9 +233,9 @@ class Optimizer : public std::enable_shared_from_this<Optimizer> {
std
::
vector
<
OptPass
>
passes_
;
std
::
vector
<
OptPass
>
passes_
;
std
::
vector
<
std
::
string
>
pass_names_
;
std
::
vector
<
std
::
string
>
pass_names_
;
bool
run_only_once_
;
bool
run_only_once_
;
std
::
vector
<
AnfNodePtr
>
untyped_nodes_
;
bool
is_watch_renormalize_
;
bool
is_watch_renormalize_
;
bool
is_enable_
;
bool
is_enable_
;
bool
is_untyped_generated_
;
};
};
}
// namespace opt
}
// namespace opt
}
// namespace mindspore
}
// namespace mindspore
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录