Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
magicwindyyd
mindspore
提交
475f62f6
M
mindspore
项目概览
magicwindyyd
/
mindspore
与 Fork 源项目一致
Fork自
MindSpore / mindspore
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
mindspore
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
475f62f6
编写于
4月 21, 2020
作者:
M
mindspore-ci-bot
提交者:
Gitee
4月 21, 2020
浏览文件
操作
浏览文件
下载
差异文件
!499 pynative support topk and print op
Merge pull request !499 from JoyLvliang/pynative-support-topk-and-print
上级
d99dfbd8
0e4824cd
变更
5
显示空白变更内容
内联
并排
Showing
5 changed file
with
9 addition
and
3 deletion
+9
-3
mindspore/ccsrc/device/kernel_runtime.cc
mindspore/ccsrc/device/kernel_runtime.cc
+2
-1
mindspore/ccsrc/device/kernel_runtime.h
mindspore/ccsrc/device/kernel_runtime.h
+1
-1
mindspore/ccsrc/pre_activate/ascend/ascend_backend_optimization.cc
.../ccsrc/pre_activate/ascend/ascend_backend_optimization.cc
+1
-0
mindspore/ops/_op_impl/tbe/assign_add.py
mindspore/ops/_op_impl/tbe/assign_add.py
+1
-1
mindspore/ops/operations/debug_ops.py
mindspore/ops/operations/debug_ops.py
+4
-0
未找到文件。
mindspore/ccsrc/device/kernel_runtime.cc
浏览文件 @
475f62f6
...
...
@@ -135,10 +135,11 @@ void KernelRuntime::AssignMemory(session::KernelGraph *graph) {
}
void
KernelRuntime
::
RunOpAssignMemory
(
const
std
::
vector
<
tensor
::
TensorPtr
>
&
input_tensors
,
const
session
::
KernelGraph
*
graph
)
{
session
::
KernelGraph
*
graph
)
{
MS_EXCEPTION_IF_NULL
(
graph
);
// assign memory for input nodes
RunOpAssignInputMemory
(
input_tensors
,
graph
);
AssignStaticMemoryValueNode
(
graph
);
for
(
const
auto
&
cnode
:
graph
->
execution_order
())
{
// assign memory for output nodes
RunOpAssignOutputMemory
(
cnode
);
...
...
mindspore/ccsrc/device/kernel_runtime.h
浏览文件 @
475f62f6
...
...
@@ -46,7 +46,7 @@ class KernelRuntime {
virtual
~
KernelRuntime
();
virtual
bool
Init
()
=
0
;
virtual
void
AssignMemory
(
session
::
KernelGraph
*
graph
);
void
RunOpAssignMemory
(
const
std
::
vector
<
tensor
::
TensorPtr
>
&
input_tensors
,
const
session
::
KernelGraph
*
graph
);
void
RunOpAssignMemory
(
const
std
::
vector
<
tensor
::
TensorPtr
>
&
input_tensors
,
session
::
KernelGraph
*
graph
);
virtual
bool
Run
(
session
::
KernelGraph
*
graph
);
virtual
bool
DumpData
(
session
::
KernelGraph
*
graph
);
virtual
bool
RunTask
(
const
session
::
KernelGraph
*
graph
);
...
...
mindspore/ccsrc/pre_activate/ascend/ascend_backend_optimization.cc
浏览文件 @
475f62f6
...
...
@@ -222,6 +222,7 @@ void RunOpAscendBackendIRFusionOptimization(const std::shared_ptr<session::Kerne
auto
optimizer
=
std
::
make_shared
<
GraphOptimizer
>
();
auto
ir_fusion_pm
=
std
::
make_shared
<
PassManager
>
(
"ir_fusion_pm"
);
ir_fusion_pm
->
AddPass
(
std
::
make_shared
<
BnSplit
>
());
ir_fusion_pm
->
AddPass
(
std
::
make_shared
<
TopKSplit
>
());
optimizer
->
AddPassManager
(
ir_fusion_pm
);
(
void
)
optimizer
->
Optimize
(
kernel_graph
);
...
...
mindspore/ops/_op_impl/tbe/assign_add.py
浏览文件 @
475f62f6
...
...
@@ -25,7 +25,7 @@ assign_add_op_info = TBERegOp("AssignAdd") \
.
partial_flag
(
True
)
\
.
input
(
0
,
"ref"
,
False
,
"required"
,
"all"
)
\
.
input
(
1
,
"value"
,
False
,
"required"
,
"all"
)
\
.
output
(
0
,
"
output_
ref"
,
False
,
"required"
,
"all"
)
\
.
output
(
0
,
"ref"
,
False
,
"required"
,
"all"
)
\
.
dtype_format
(
DataType
.
I8_Default
,
DataType
.
I8_Default
,
DataType
.
I8_Default
)
\
.
dtype_format
(
DataType
.
I8_5HD
,
DataType
.
I8_5HD
,
DataType
.
I8_5HD
)
\
.
dtype_format
(
DataType
.
U8_Default
,
DataType
.
U8_Default
,
DataType
.
U8_Default
)
\
...
...
mindspore/ops/operations/debug_ops.py
浏览文件 @
475f62f6
...
...
@@ -210,6 +210,10 @@ class Print(PrimitiveWithInfer):
def
__init__
(
self
):
pass
def
__call__
(
self
,
*
args
):
for
arg
in
args
:
print
(
arg
)
def
infer_shape
(
self
,
*
inputs
):
return
[
1
]
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录