Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
2ac3c9dc
MegEngine
项目概览
MegEngine 天元
/
MegEngine
大约 1 年 前同步成功
通知
399
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
2ac3c9dc
编写于
6月 15, 2021
作者:
M
Megvii Engine Team
提交者:
huangxinda
7月 19, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(trace): constants in backward graph treat as ImmutableTensor corectlly
GitOrigin-RevId: 5fd6a5e00c5b5ddeb19cedde62f2739e76c7bf41
上级
7eea1fc6
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
25 addition
and
5 deletion
+25
-5
imperative/python/src/tensor.cpp
imperative/python/src/tensor.cpp
+21
-0
imperative/python/src/tensor.h
imperative/python/src/tensor.h
+4
-5
未找到文件。
imperative/python/src/tensor.cpp
浏览文件 @
2ac3c9dc
...
@@ -13,6 +13,7 @@
...
@@ -13,6 +13,7 @@
#include "megbrain/common.h"
#include "megbrain/common.h"
#include "megbrain/imperative/ops/utility.h"
#include "megbrain/imperative/ops/utility.h"
#include "megbrain/imperative/ops/backward_graph.h"
#include "megbrain/imperative/ops/backward_graph.h"
#include "megbrain/opr/io.h"
#include "./tensor.h"
#include "./tensor.h"
#include "./grad.h"
#include "./grad.h"
...
@@ -39,6 +40,26 @@ interpreter::Interpreter::Channel* interpreter_for_py;
...
@@ -39,6 +40,26 @@ interpreter::Interpreter::Channel* interpreter_for_py;
PyObject
*
cpp_apply_with_tracing
,
*
cpp_apply_const_with_tracing
;
PyObject
*
cpp_apply_with_tracing
,
*
cpp_apply_const_with_tracing
;
PyObject
*
cpp_apply_backward_varnode
;
PyObject
*
cpp_apply_backward_varnode
;
std
::
shared_ptr
<
Tensor
>
make_const
(
imperative
::
TensorPtr
value
)
{
if
(
!
(
ApplyContext
::
global_enable
&
Tensor
::
Flags
::
TRACE
))
{
return
std
::
make_shared
<
Tensor
>
(
interpreter_for_py
->
put
(
value
->
dev_tensor
()));
}
py
::
tuple
tup
(
6
);
auto
data
=
value
->
get_value
();
tup
[
0
]
=
py
::
reinterpret_steal
<
py
::
array
>
(
ndarray_from_tensor
(
data
,
npy
::
ShareType
::
MUST_SHARE
));
tup
[
1
]
=
value
->
dtype
();
tup
[
2
]
=
value
->
comp_node
();
tup
[
3
]
=
true
;
tup
[
4
]
=
false
;
tup
[
5
]
=
py
::
none
{};
auto
py_ret
=
PyObject_Call
(
cpp_apply_const_with_tracing
,
tup
.
ptr
(),
nullptr
);
if
(
!
py_ret
)
throw
py
::
error_already_set
();
auto
py_list
=
py
::
reinterpret_steal
<
py
::
list
>
(
py_ret
);
auto
*
tensor_wrapper
=
TensorWrapper
::
try_cast
(
py_list
[
0
].
ptr
());
auto
tensor
=
tensor_wrapper
->
m_tensor
;
return
tensor_wrapper
->
m_tensor
;
}
#define REGISTE_APPLY_FUNC(mode) \
#define REGISTE_APPLY_FUNC(mode) \
void set_##mode(py::object pyf) { \
void set_##mode(py::object pyf) { \
mode = pyf.ptr(); \
mode = pyf.ptr(); \
...
...
imperative/python/src/tensor.h
浏览文件 @
2ac3c9dc
...
@@ -271,18 +271,17 @@ auto apply(std::shared_ptr<OpDef> op, T&& tensors)
...
@@ -271,18 +271,17 @@ auto apply(std::shared_ptr<OpDef> op, T&& tensors)
return
apply
(
op
,
args
,
nargs
);
return
apply
(
op
,
args
,
nargs
);
}
}
std
::
shared_ptr
<
Tensor
>
make_const
(
imperative
::
TensorPtr
value
);
inline
auto
apply
(
Subgraph
graph
,
Tensor
*
const
*
args
,
size_t
nargs
)
{
inline
auto
apply
(
Subgraph
graph
,
Tensor
*
const
*
args
,
size_t
nargs
)
{
SmallVector
<
std
::
shared_ptr
<
Tensor
>>
inputs
;
SmallVector
<
std
::
shared_ptr
<
Tensor
>>
inputs
;
for
(
size_t
i
=
0
;
i
<
nargs
;
++
i
)
{
for
(
size_t
i
=
0
;
i
<
nargs
;
++
i
)
{
inputs
.
push_back
(
args
[
i
]
->
shared_from_this
());
inputs
.
push_back
(
args
[
i
]
->
shared_from_this
());
}
}
auto
apply_functor
=
[](
std
::
shared_ptr
<
OpDef
>
op
,
SmallVector
<
std
::
shared_ptr
<
Tensor
>>
inputs
)
{
auto
apply_functor
=
[](
std
::
shared_ptr
<
OpDef
>
op
,
SmallVector
<
std
::
shared_ptr
<
Tensor
>>
inputs
)
{
return
apply
(
op
,
inputs
);
return
apply
(
op
,
std
::
move
(
inputs
));
};
auto
const_functor
=
[](
imperative
::
TensorPtr
value
)
{
return
std
::
make_shared
<
Tensor
>
(
interpreter_for_py
->
put
(
value
->
dev_tensor
()));
};
};
return
graph
.
apply
(
inputs
,
apply_functor
,
const_functor
);
return
graph
.
apply
(
inputs
,
apply_functor
,
&
make_const
);
}
}
template
<
typename
T
>
template
<
typename
T
>
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录