- 25 8月, 2023 1 次提交
-
-
由 Yuanle Liu 提交于
* auto mixed precision inference support white list * update * update * update * move down identity_op_clean_pass * fix code style
-
- 23 8月, 2023 1 次提交
-
-
由 Leo Chen 提交于
* Integrate quantize/dequantize linear and add config for explicit quantization * Fix the build error * Add macro for TRT version < 8.0 * Remove qdq UT from windows * Fix UT failure * Check TRT version in qdq UT * Test tensorrt_explicit_enabled API * Disable QDQ UT if TRT version < 8.5 * Add quantization postfix into public APIs * Apply code formatter * Fix the UT failure for explicit quantization * Apply code formatter on modified files * Correct the year in copyright
-
- 17 8月, 2023 1 次提交
-
-
由 ming1753 提交于
* [paddle-TRT] support mark output * [fix bug] hook function only call one in different predictor * add api test
-
- 09 8月, 2023 1 次提交
-
-
由 Xinyu Chen 提交于
* onednn: rename macro to PADDLE_WITH_DNNL * onednn: rename macro to CINN_WITH_DNNL
-
- 19 6月, 2023 1 次提交
-
-
由 AlbertVan 提交于
-
- 14 6月, 2023 1 次提交
-
-
由 zhupengyang 提交于
-
- 09 6月, 2023 1 次提交
-
-
由 zhupengyang 提交于
-
- 22 5月, 2023 1 次提交
-
-
由 Yuanle Liu 提交于
[Inference] add config.enable_low_precision_io api and remove rely on AnalysisConfig::Precison in trt (#52485)
-
- 19 5月, 2023 1 次提交
-
-
由 shentanyue 提交于
-
- 18 5月, 2023 1 次提交
-
- 11 5月, 2023 2 次提交
- 09 5月, 2023 1 次提交
-
-
由 Wilber 提交于
-
- 27 4月, 2023 1 次提交
-
-
由 zhupengyang 提交于
-
- 24 4月, 2023 1 次提交
-
-
由 Galaxy1458 提交于
* test,test=develop * test,test=develop * test,test=develop * test,test=develop * test,test=develop * test,test=develop * test,test=develop * test ,test=develop
-
- 27 3月, 2023 1 次提交
-
-
由 engineer1109 提交于
fix bug remove useless fix bug add pybind remove log fix style fix style change api
-
- 03 1月, 2023 1 次提交
-
-
由 zhoutianzi666 提交于
* Implement conv2d_fusion NHWC format using CUTLASS * Add unit testing for CUTLASS Conv in inference * Add experimental API for CUTLASS.
-
- 14 12月, 2022 1 次提交
-
-
由 Yuanle Liu 提交于
-
- 13 12月, 2022 1 次提交
-
-
由 engineer1109 提交于
-
- 08 12月, 2022 1 次提交
-
-
由 Wilber 提交于
-
- 06 12月, 2022 1 次提交
-
-
由 Yuanle Liu 提交于
-
- 01 12月, 2022 1 次提交
-
-
由 Wilber 提交于
* update memory_optimize pass
-
- 30 11月, 2022 1 次提交
-
-
由 Yuanle Liu 提交于
-
- 16 11月, 2022 1 次提交
-
-
由 czr-gc 提交于
-
- 14 11月, 2022 1 次提交
-
-
由 engineer1109 提交于
-
- 01 11月, 2022 1 次提交
-
-
由 shentanyue 提交于
-
- 27 10月, 2022 1 次提交
-
-
由 Aurelius84 提交于
* add predictor_engine * add predictor_engine * fix zero shape * fix lodTensor * fix unittest * fix code style * update CmakeList
-
- 11 10月, 2022 1 次提交
-
-
由 Chen Weihang 提交于
* remove using lodtensor part1 * polish history code format
-
- 30 9月, 2022 1 次提交
-
-
由 Allen Guo 提交于
* paddle-inference support custom-ops Co-authored-by: NZhixin Yao <zhixiny@graphcore.ai> * fix tolower Co-authored-by: NZhixin Yao <zhixiny@graphcore.ai>
-
- 29 9月, 2022 1 次提交
-
-
由 yeliang2258 提交于
* remove calibration file path * remove useless code
-
- 22 9月, 2022 1 次提交
-
-
由 Yuanle Liu 提交于
-
- 05 9月, 2022 2 次提交
-
-
由 yeliang2258 提交于
* support onnx format quantized model * update code * add test * add test * fix * fix test * fix cmake * update code * change scale file path to calibration file path * update code * update code * fix build bug * fix build bugs * fix * fix
-
由 denglin-github 提交于
* add config param for enable_dlnne and support calibration mode * remove useless file * refine code and add annotation * refine code of Warnning tips
-
- 05 8月, 2022 1 次提交
-
-
由 Zhang Jun 提交于
* update trt workspace size param * update * update * update * use int64_t * use int64_t * upate * update
-
- 08 7月, 2022 1 次提交
-
-
由 Wilber 提交于
-
- 05 7月, 2022 1 次提交
-
-
由 Ruibiao Chen 提交于
-
- 29 6月, 2022 1 次提交
-
-
由 Wilber 提交于
* inference add convert to mixed model ability.
-
- 24 6月, 2022 1 次提交
-
-
由 Wilber 提交于
* revert 40531 * update
-
- 02 6月, 2022 1 次提交
-
-
由 Wangzheee 提交于
* new general transformer inference support
-
- 14 4月, 2022 1 次提交
-
-
由 baoachun 提交于
* add mkldnn int8 pass [step3] * Add test for compute_propagate_scales_mkldnn_pass * update pass * update api comment and python api Co-authored-by: Nwozna <joanna.wozna@intel.com>
-