未验证 提交 7b49bed0 编写于 作者: G Guanghua Yu 提交者: GitHub

fix qat docs (#971)

上级 fd13584e
...@@ -41,9 +41,9 @@ quant_config = { ...@@ -41,9 +41,9 @@ quant_config = {
- `'activation_preprocess_type'`:代表对量化模型激活值预处理的方法,目前支持PACT方法,如需使用可以改为'PACT';默认为None,代表不对激活值进行任何预处理。 - `'activation_preprocess_type'`:代表对量化模型激活值预处理的方法,目前支持PACT方法,如需使用可以改为'PACT';默认为None,代表不对激活值进行任何预处理。
- `weight_quantize_type`:代表模型权重的量化方式,可选的有['abs_max', 'moving_average_abs_max', 'channel_wise_abs_max'],默认为channel_wise_abs_max - `weight_quantize_type`:代表模型权重的量化方式,可选的有['abs_max', 'channel_wise_abs_max'],默认为channel_wise_abs_max
- `activation_quantize_type`:代表模型激活值的量化方式,可选的有['abs_max', 'moving_average_abs_max'],默认为moving_average_abs_max - `activation_quantize_type`:代表模型激活值的量化方式,可选的有['moving_average_abs_max'],默认为moving_average_abs_max
- `quantizable_layer_type`:代表量化OP的类型,目前支持Conv2D和Linear - `quantizable_layer_type`:代表量化OP的类型,目前支持Conv2D和Linear
......
...@@ -63,10 +63,10 @@ QAT ...@@ -63,10 +63,10 @@ QAT
# activation预处理方法,默认为None,代表不进行预处理` # activation预处理方法,默认为None,代表不进行预处理`
'activation_preprocess_type': None, 'activation_preprocess_type': None,
# weight量化方法, 默认为'channel_wise_abs_max', 此外还支持'channel_wise_abs_max' # weight量化方法, 默认为'channel_wise_abs_max', 此外还支持'abs_max'
'weight_quantize_type': 'channel_wise_abs_max', 'weight_quantize_type': 'channel_wise_abs_max',
# activation量化方法, 默认为'moving_average_abs_max', 此外还支持'abs_max' # activation量化方法, 默认为'moving_average_abs_max'
'activation_quantize_type': 'moving_average_abs_max', 'activation_quantize_type': 'moving_average_abs_max',
# weight量化比特数, 默认为 8 # weight量化比特数, 默认为 8
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册