Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MegEngine 天元
MegEngine
提交
b245e4ed
MegEngine
项目概览
MegEngine 天元
/
MegEngine
1 年多 前同步成功
通知
403
Star
4705
Fork
582
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
MegEngine
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
b245e4ed
编写于
12月 08, 2022
作者:
M
Megvii Engine Team
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix(mge/quantization): remove assert in fake_quant_bias to support more QAT mode
GitOrigin-RevId: 8c7f268480e703c896fbb93ca19516aa970a4901
上级
5aecef5d
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
22 addition
and
16 deletion
+22
-16
imperative/python/megengine/quantization/utils.py
imperative/python/megengine/quantization/utils.py
+22
-16
未找到文件。
imperative/python/megengine/quantization/utils.py
浏览文件 @
b245e4ed
...
...
@@ -206,20 +206,26 @@ def fake_quant_bias(bias: Tensor, inp: Tensor, w_qat: Tensor) -> Tensor:
):
inp_params
=
inp
.
qparams
w_params
=
w_qat
.
qparams
if
inp_params
.
scale
is
not
None
and
w_params
.
scale
is
not
None
:
assert
inp_params
.
mode
==
w_params
.
mode
,
"incompatible QuantMode"
# TODO: support quint8 dtype.
assert
(
inp_params
.
dtype_meta
.
np_dtype_str
==
"int8"
and
w_params
.
dtype_meta
.
np_dtype_str
==
"int8"
),
"fake_quant_bias only support int8 like dtype now"
# use the same mode with weight.
# TODO: avoid hardcode
b_dtype
=
_builtin_quant_dtypes
[
"qint32"
]
b_param
=
create_qparams
(
w_params
.
mode
,
b_dtype
,
scale
=
inp_params
.
scale
*
w_params
.
scale
)
b_qat
=
fake_quant_tensor
(
bias
,
b_param
)
b_qat
.
qparams
.
update
(
b_param
)
if
inp_params
.
scale
is
None
or
w_params
.
scale
is
None
:
return
b_qat
# TODO: support different mode
if
inp_params
.
mode
!=
w_params
.
mode
:
return
b_qat
# TODO: support quint8 dtype.
if
inp_params
.
dtype_meta
.
np_dtype_str
!=
"int8"
:
return
b_qat
if
w_params
.
dtype_meta
.
np_dtype_str
!=
"int8"
:
return
b_qat
# use the same mode with weight.
# TODO: avoid hardcode
b_dtype
=
_builtin_quant_dtypes
[
"qint32"
]
b_param
=
create_qparams
(
w_params
.
mode
,
b_dtype
,
scale
=
inp_params
.
scale
*
w_params
.
scale
)
b_qat
=
fake_quant_tensor
(
bias
,
b_param
)
b_qat
.
qparams
.
update
(
b_param
)
return
b_qat
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录