1. 01 6月, 2020 1 次提交
  2. 01 4月, 2020 1 次提交
  3. 25 3月, 2020 1 次提交
  4. 17 3月, 2020 1 次提交
  5. 20 2月, 2020 1 次提交
  6. 28 12月, 2019 1 次提交
  7. 23 12月, 2019 1 次提交
  8. 15 12月, 2019 1 次提交
  9. 04 12月, 2019 1 次提交
  10. 22 11月, 2019 1 次提交
  11. 21 11月, 2019 3 次提交
  12. 20 11月, 2019 2 次提交
  13. 19 11月, 2019 2 次提交
  14. 18 11月, 2019 3 次提交
  15. 17 11月, 2019 1 次提交
  16. 15 11月, 2019 1 次提交
    • J
      Add content-dnn ops (#2429) · 603b810f
      juncaipeng 提交于
      * add search_seq_depadding x86 and cuda
      * add match_matrix_tensor x86
      * add search_grnn x86, no test
      603b810f
  17. 13 11月, 2019 2 次提交
  18. 11 11月, 2019 1 次提交
  19. 23 10月, 2019 2 次提交
  20. 21 10月, 2019 2 次提交
  21. 17 10月, 2019 1 次提交
  22. 11 10月, 2019 1 次提交
    • Z
      CUDA: can run yolov3 int8 (#2172) · 7931104f
      Zhaolong Xing 提交于
      * add conv int8 support(in condition which the input or output channel not be the times of 4)
      add add_kernel for cuda.
      
      * can run yolov3 fp32
      test=develop
      
      * 1. fix bug with yolov3 run
      test=develop
      
      * can run yolov3 int8 test=develop
      7931104f
  23. 27 9月, 2019 1 次提交
    • Z
      can run yolov3 fp32 on cuda devices (#2092) · 3d6d744f
      Zhaolong Xing 提交于
      * add conv int8 support(in condition which the input or output channel not be the times of 4)
      add add_kernel for cuda.
      
      * can run yolov3 fp32
      test=develop
      
      * 1. fix bug with yolov3 run
      test=develop
      3d6d744f
  24. 12 9月, 2019 1 次提交
  25. 09 9月, 2019 2 次提交
  26. 06 9月, 2019 1 次提交
    • Z
      add cudnn conv fp32, int8 support (#1974) · f3124b30
      Zhaolong Xing 提交于
      * paddle lite cuda init
      can run model with leaky_relu
      
      * add the missing file.
      test=develop
      
      * add the load from memory interface.
      test=develop
      
      * refine this pr. fix comments
      fix ci error
      test=develop
      
      * conv impl
      fp32:
      conv, conv+bais, conv+bias+relu, conv+bias+leaky_relu
      
      int8:
      conv, conv+bais+relu(int8 or fp32 output), conv+bias+leaky_relu(int8 or fp32 output)
      
      can run conv+ bias+relu using cxx_api
      test=develop
      
      * move the lite/cuda/math to backends/cuda/math
      test=develop
      f3124b30
  27. 30 8月, 2019 1 次提交
  28. 29 8月, 2019 1 次提交
    • W
      Add yolo_box_cuda multiclass_nms_host kernel. (#1908) · de43e479
      Wilber 提交于
      * add yolo_box_compute cuda
      
      * move multiclass_nms(arm) to host
      
      * add lod in scale op
      
      * add yolo_box_cuda cmake config
      
      * modify shuffle_channel_fuse and transpose_softmax_transpose_fuse to support run ssd model. test=develop
      
      * reshape and transpose op don't have xshape output.
      
      * modify yolo_box_compute_cuda, use tensor to manage cuda memory test=develop
      
      * add yolo_box use kernel test=develop
      de43e479
  29. 27 8月, 2019 1 次提交
  30. 16 8月, 2019 1 次提交