1. 22 9月, 2022 1 次提交
  2. 05 9月, 2022 2 次提交
    • Y
      New format quant model support for MKLDNN (#45416) · 4e4f4586
      yeliang2258 提交于
      * support onnx format quantized model
      
      * update code
      
      * add test
      
      * add test
      
      * fix
      
      * fix test
      
      * fix cmake
      
      * update code
      
      * change scale file path to calibration file path
      
      * update code
      
      * update code
      
      * fix build bug
      
      * fix build bugs
      
      * fix
      
      * fix
      4e4f4586
    • D
      Update DlNNE engine (#45027) · 638965c5
      denglin-github 提交于
      * add config param for enable_dlnne and support calibration mode
      * remove useless file
      * refine code and add annotation
      * refine code of Warnning tips
      638965c5
  3. 05 8月, 2022 1 次提交
  4. 08 7月, 2022 1 次提交
  5. 29 6月, 2022 1 次提交
  6. 28 6月, 2022 1 次提交
    • T
      Enable Bert on bfloat16 datatype (#43455) · 6d31dc93
      Tomasz Socha 提交于
      * Remove output arguments from functions.
      Replace pointers with references
      
      * Name used bool flags
      
      * Reorder functions
      
      * Enable bfloat16 data type
      
      * Give declarations some space
      
      * Style
      
      * Style
      6d31dc93
  7. 24 6月, 2022 1 次提交
  8. 08 6月, 2022 1 次提交
  9. 05 6月, 2022 1 次提交
  10. 02 6月, 2022 1 次提交
  11. 12 5月, 2022 1 次提交
  12. 10 5月, 2022 1 次提交
  13. 19 4月, 2022 1 次提交
  14. 14 4月, 2022 1 次提交
  15. 17 3月, 2022 1 次提交
  16. 10 3月, 2022 1 次提交
    • H
      Inference add ONNXRuntime back-end (#39988) · 431afc39
      heliqi 提交于
      * add onnxruntime predictor
      
      * Add code comments
      
      * support link paddle2onnx onnxruntime
      
      * support onnxruntime with python
      
      * support onnxruntime with python
      
      * support onnxruntime with windows
      
      * paddle2onnx compile with windows
      
      * supoort windows compile
      
      * supoort windows compile with onnxruntime
      
      * supoort windows compile with paddle2onnx
      
      * supoort mac compile
      
      * compile with mac
      
      * compile with mac
      
      * add code comments
      
      * fix remind word
      
      * code optimization
      
      * add test case
      
      * add test case
      
      * add inference demo_ci test case
      
      * fix compile paddle2onnx with no python
      
      * add inference demo_ci test case
      
      * add inference demo_ci test case
      
      * add inference infer_ut test case
      
      * support c go api and test cases
      
      * add converage test case
      
      * add converage test case
      
      * add capi test case
      
      * add capi test case
      431afc39
  17. 02 3月, 2022 1 次提交
  18. 23 2月, 2022 1 次提交
  19. 11 2月, 2022 1 次提交
  20. 13 1月, 2022 1 次提交
  21. 15 12月, 2021 1 次提交
  22. 24 11月, 2021 1 次提交
  23. 22 9月, 2021 1 次提交
  24. 15 9月, 2021 1 次提交
  25. 14 9月, 2021 1 次提交
  26. 06 9月, 2021 1 次提交
  27. 04 9月, 2021 1 次提交
  28. 19 7月, 2021 1 次提交
  29. 14 7月, 2021 1 次提交
  30. 23 6月, 2021 1 次提交
  31. 21 6月, 2021 1 次提交
  32. 17 6月, 2021 1 次提交
  33. 25 4月, 2021 2 次提交
    • W
      update lite subgraph api. (#32513) · 92dc9b2b
      Wilber 提交于
      92dc9b2b
    • D
      Nne integration (#32255) · feb2e476
      denglin-github 提交于
      * Add dlnne engine runtime
      
      * Fix log
      
      * Remove <const_cast> and remove unrelated modify with dlnne, +clang-format
      
      * Fix CMakeList format error
      
      * Add copyright message
      
      * Fix dlnne CMakeList.txt
      
      * Add some paddlepaddle_pass to support more networks
      
      * Fix some format bug
      feb2e476
  34. 07 2月, 2021 1 次提交
  35. 03 2月, 2021 1 次提交
  36. 25 1月, 2021 1 次提交
  37. 06 1月, 2021 1 次提交
  38. 03 11月, 2020 1 次提交
    • S
      TensorRT中ernie模型推理性能优化,支持变长输入 (#28367) · ea851796
      Shang Zhizhou 提交于
      * fp16 result ok
      
      * change -DWITH_NVINFER_PLUGIN toconfig.EnableTensorRtOSS
      
      * auto detect special slice op converter for ernie with trt oss
      
      * ernie oss only support fp16
      
      * fix special_slice_plugin serialize bug
      
      * matmul in tensorrt ok
      
      * ernie unittest ok
      
      * add matmul tensorrt unittest
      
      * remove demo code
      ea851796