Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
20719502
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
410
Star
4707
Fork
583
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
20719502
编写于
11月 02, 2022
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(imperative): fix matmul deduce dtype
GitOrigin-RevId: 24f4e1f9fc1fb58b3443d04c13e95e7493d119d1
上级
d733f429
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
20 addition
and
4 deletion
+20
-4
imperative/python/test/unit/quantization/test_op.py
imperative/python/test/unit/quantization/test_op.py
+16
-0
imperative/src/impl/ops/matmul.cpp
imperative/src/impl/ops/matmul.cpp
+4
-4
未找到文件。
imperative/python/test/unit/quantization/test_op.py
浏览文件 @
20719502
...
...
@@ -340,3 +340,19 @@ def test_conv_transpose2d():
test_func
(
2
,
4
,
3
,
1
,
8
,
1
,
1
,
1
,
1
,
0
,
0
,
1
,
1
,
1
,
False
)
test_func
(
4
,
4
,
16
,
16
,
8
,
3
,
3
,
1
,
1
,
1
,
1
,
1
,
1
,
1
,
False
)
test_func
(
32
,
64
,
36
,
28
,
16
,
3
,
2
,
1
,
3
,
1
,
0
,
1
,
1
,
1
,
False
)
def
test_matmul
():
inp_scale
=
np
.
float32
(
np
.
random
.
rand
())
weight_scale
=
np
.
float32
(
np
.
random
.
rand
())
inp_dtype
=
dtype
.
qint8
(
inp_scale
)
weight_dtype
=
dtype
.
qint8
(
weight_scale
)
inp_data
=
np
.
random
.
random
((
3
,
12
))
weight_data
=
np
.
random
.
random
((
5
,
12
))
inp_int8
=
mge
.
tensor
(
dtype
.
convert_to_qint8
(
inp_data
,
inp_dtype
))
weight_int8
=
mge
.
tensor
(
dtype
.
convert_to_qint8
(
weight_data
,
weight_dtype
))
res
=
F
.
matmul
(
inp_int8
,
weight_int8
,
transpose_b
=
True
)
res_scale
=
dtype
.
get_scale
(
res
.
dtype
)
np
.
testing
.
assert_allclose
(
inp_scale
*
weight_scale
,
res_scale
)
imperative/src/impl/ops/matmul.cpp
浏览文件 @
20719502
...
...
@@ -104,7 +104,7 @@ std::tuple<SmallVector<LogicalTensorDesc>, bool> infer_output_attrs_fallible(
}
DnnOprHelper
<
megdnn
::
MatrixMul
>
dnn_opr
(
matmul
.
param
());
dnn_opr
.
opr
().
deduce_dtype
(
layout1
.
dtype
,
layout
1
.
dtype
,
dst_dtype
);
dnn_opr
.
opr
().
deduce_dtype
(
layout1
.
dtype
,
layout
2
.
dtype
,
dst_dtype
);
if
(
dim1
==
0
||
dim2
==
0
)
{
return
{{{
TensorLayout
(
dst_dtype
),
inputs
[
0
].
comp_node
}},
false
};
...
...
@@ -157,7 +157,7 @@ SmallVector<TensorPtr> apply_on_physical_tensor(
}
DType
dst_dtype
;
dnn_opr
.
op
()
->
deduce_dtype
(
layout1
.
dtype
,
layout
1
.
dtype
,
dst_dtype
);
dnn_opr
.
op
()
->
deduce_dtype
(
layout1
.
dtype
,
layout
2
.
dtype
,
dst_dtype
);
// only matters when layout1 has dim 2
if
(
matmul
.
transposeA
)
...
...
@@ -335,7 +335,7 @@ std::tuple<SmallVector<LogicalTensorDesc>, bool> infer_output_attrs_fallible(
DType
dst_dtype
;
DnnOprHelper
<
megdnn
::
MatrixMul
>
dnn_opr
(
matmul
.
param
());
dnn_opr
.
opr
().
deduce_dtype
(
layout1
.
dtype
,
layout
1
.
dtype
,
dst_dtype
);
dnn_opr
.
opr
().
deduce_dtype
(
layout1
.
dtype
,
layout
2
.
dtype
,
dst_dtype
);
if
(
dim1
==
0
||
dim2
==
0
)
{
return
{{{
TensorLayout
(
dst_dtype
),
inputs
[
0
].
comp_node
}},
false
};
...
...
@@ -378,7 +378,7 @@ SmallVector<TensorPtr> apply_on_physical_tensor(
DnnOprCaller
<
megdnn
::
BatchedMatrixMul
>
dnn_opr
(
cn
,
matmul
.
param
(),
matmul
.
policy
());
DType
dst_dtype
;
dnn_opr
.
op
()
->
deduce_dtype
(
layout1
.
dtype
,
layout
1
.
dtype
,
dst_dtype
);
dnn_opr
.
op
()
->
deduce_dtype
(
layout1
.
dtype
,
layout
2
.
dtype
,
dst_dtype
);
TensorShape
tshp
,
batch_shp
;
size_t
j
=
0
;
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录