- 10 8月, 2021 1 次提交
-
-
由 XGZhang 提交于
-
- 28 7月, 2021 1 次提交
-
-
由 cc 提交于
-
- 13 7月, 2021 1 次提交
-
-
由 Jiangxinz 提交于
* fix undef var * fix undef var
-
- 09 7月, 2021 2 次提交
- 05 7月, 2021 2 次提交
- 02 7月, 2021 1 次提交
-
-
由 cc 提交于
* refine the old code * support moving_average_abs_max and per_channel_abs_max * Add moving_average_abs_max_scale op * Convert the test program
-
- 25 6月, 2021 1 次提交
-
-
由 Wangzheee 提交于
-
- 24 6月, 2021 1 次提交
-
-
由 XGZhang 提交于
-
- 22 6月, 2021 1 次提交
-
-
由 cc 提交于
* dygraph post training quantization * refine the ptq config * refine ptq quantizer
-
- 18 6月, 2021 1 次提交
-
-
由 ceci3 提交于
-
- 09 6月, 2021 1 次提交
-
-
由 cc 提交于
* Add wrap for functional api * Refine the wraped api * Add unit test for quant functional layers * Update all unit tests for dygraph qat
-
- 12 5月, 2021 1 次提交
-
-
由 cc 提交于
-
- 16 4月, 2021 1 次提交
-
-
由 ceci3 提交于
* support ernie trt-int8 for inference * fix reshape
-
- 14 4月, 2021 1 次提交
-
-
由 XGZhang 提交于
-
- 08 4月, 2021 1 次提交
-
-
由 cc 提交于
* Support converting the model from fp32 to fp16
-
- 02 4月, 2021 1 次提交
-
-
由 cc 提交于
-
- 26 3月, 2021 1 次提交
-
-
由 cc 提交于
* Use layer to calculate output scale * add backward for moving_average_abs_max_scale and save output scales to op's attr
-
- 24 3月, 2021 1 次提交
-
-
由 cc 提交于
* Refine saving output scale to infer program
-
- 23 3月, 2021 1 次提交
-
-
由 Wojciech Uss 提交于
-
- 21 3月, 2021 1 次提交
-
-
由 guofei 提交于
* Fix skip_quant in QAT
-
- 19 3月, 2021 1 次提交
-
-
由 cc 提交于
* Refine calculating output scale of dygraph qat, test=develop
-
- 17 3月, 2021 1 次提交
-
-
由 cc 提交于
-
- 12 3月, 2021 1 次提交
-
-
由 guofei 提交于
* Support loading parameters from checkpoint to save quantized model * Fix the unittest test_moving_average_abs_max_scale_op * Add unittest of save_quantized_model from checkpoint * Add comments to explain the function
-
- 25 1月, 2021 1 次提交
-
-
由 yingshengBD 提交于
post quantize support insert fake_quantize_dequantize node before the OPs that will be used in VIS's faceid models (#30659) test=develop
-
- 20 1月, 2021 1 次提交
-
-
由 guofei 提交于
* Fix the error of save_quantized_model
-
- 18 1月, 2021 2 次提交
- 13 1月, 2021 3 次提交
-
-
由 cc 提交于
* skip quantizing ops in cpu inference, test=develop
-
由 Bai Yifan 提交于
-
由 huangxu96 提交于
* Implemented AddQuantDequantPass in imperative quantization. * Supported LeakyReLU Quantization * For meeting coverage rate. * Changed the file name of test of AddQuantDequant * Implemented more Quantized NoWeightLayers. * Fix the loss cannot align problem between static and dynamic model quantization, add swish as supported quantized layer in imperative quantization. * remove noweight_list * support 2.0 API such as Pool2D and ReLu
-
- 08 1月, 2021 1 次提交
-
-
由 guofei 提交于
* Quantization supports 2.0 APIs * Fix the error of save_quantized_model
-
- 07 1月, 2021 1 次提交
-
-
由 wangchaochaohu 提交于
-
- 05 1月, 2021 1 次提交
-
-
由 cc 提交于
* Avoid the scale to be infinity in quant2_int8_mkldnn_pass, test=develop * support quantized model for paddle2.0 dygraph, test=develop
-
- 30 12月, 2020 1 次提交
-
-
由 cc 提交于
* Support quantizing program_desc, test=develop
-
- 11 12月, 2020 1 次提交
-
-
由 Wojciech Uss 提交于
-
- 30 11月, 2020 1 次提交
-
-
由 Wojciech Uss 提交于
-
- 27 11月, 2020 1 次提交
-
-
由 guofei 提交于
* Optimiz the unittest test_imperative_out_scale test=develop
-
- 25 11月, 2020 1 次提交
-
-
由 huangxu96 提交于
* Impelement 2.0 API version Conv2d and Linear layer quantization in imperative mode. * use cudnn softmax in static Lenet * Modified ChannelwiseQAT Unittest for 2.0 API. * For CI python coverage.
-