Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
8abc3ab8
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
403
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
8abc3ab8
编写于
7月 27, 2022
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(imperative): fix convolution in rocm
GitOrigin-RevId: 9e97099fd5ccccf13dbdda393efd5cd004dd1be4
上级
3b1101b5
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
28 addition
and
0 deletion
+28
-0
dnn/include/megdnn/oprs/nn.h
dnn/include/megdnn/oprs/nn.h
+6
-0
imperative/src/impl/ops/convolution.cpp
imperative/src/impl/ops/convolution.cpp
+22
-0
未找到文件。
dnn/include/megdnn/oprs/nn.h
浏览文件 @
8abc3ab8
...
...
@@ -214,6 +214,12 @@ public:
_megdnn_tensor_in
src
,
_megdnn_tensor_in
filter
,
_megdnn_tensor_out
dst
,
const
PreprocessedFilter
*
preprocessed_filter
,
_megdnn_workspace
workspace
)
=
0
;
MGE_WIN_DECLSPEC_FUC
void
exec
(
_megdnn_tensor_in
src
,
_megdnn_tensor_in
filter
,
_megdnn_tensor_out
dst
,
_megdnn_workspace
workspace
)
{
exec
(
src
,
filter
,
dst
,
nullptr
,
workspace
);
}
/**
* \brief execute weight preprocessing, read weights form filter and write
* to preprocessed_filter after preprocessed.
...
...
imperative/src/impl/ops/convolution.cpp
浏览文件 @
8abc3ab8
...
...
@@ -57,6 +57,28 @@ SmallVector<TensorPtr> apply_on_physical_tensor(
// create megdnn opr
auto
&&
conv
=
def
.
cast_final_safe
<
Convolution
>
();
CompNode
cn
=
inputs
[
0
]
->
comp_node
();
// calling dnn ConvolutionForward when device is rocm
// because there is no dnn ConvBiasForward on rocm
if
(
cn
.
device_type
()
==
CompNode
::
DeviceType
::
ROCM
)
{
DnnOprCaller
<
megdnn
::
ConvolutionForward
>
dnn_opr
(
cn
,
conv
.
param
(),
conv
.
policy
());
auto
out_layout
=
[
&
]
{
if
(
validated
)
{
return
output_descs
[
0
].
layout
;
}
else
{
return
dnn_opr
.
deduce_layout
(
inputs
[
0
]
->
layout
(),
inputs
[
1
]
->
layout
());
}
}();
// alloc memory
auto
out
=
Tensor
::
make
(
out_layout
,
cn
);
dnn_opr
.
exec_fastrun
(
inputs
[
0
],
inputs
[
1
],
out
);
return
{
out
};
}
// calling dnn ConvBiasForward on cuda because it's faster then ConvolutionForward
// ConvolutionForward internally uses ConvBiasForward to calculate the result
auto
&&
param
=
conv_bias_param_from_convolution
(
conv
);
DnnOprCaller
<
megdnn
::
ConvBiasForward
>
dnn_opr
(
cn
,
param
,
conv
.
policy
());
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录