1. 16 11月, 2017 1 次提交
  2. 15 11月, 2017 1 次提交
  3. 13 11月, 2017 3 次提交
  4. 11 11月, 2017 2 次提交
  5. 08 11月, 2017 2 次提交
  6. 31 10月, 2017 1 次提交
  7. 26 10月, 2017 1 次提交
    • Q
      Cudnn batch norm op (#5067) · 56b723c4
      Qiao Longfei 提交于
      * init cudnn batch norm op
      
      * rename batch_norm_cudnn_op.cc batch_norm_op.cu
      
      * correct name style
      
      * add ExtractNCWHD, simplify code
      
      * fix ExtractNCWHD
      
      * use CUDNN_ENFORCE instead of PADDLE_ENFORCE
      56b723c4
  8. 25 10月, 2017 1 次提交
  9. 24 10月, 2017 2 次提交
  10. 18 10月, 2017 1 次提交
    • M
      MatMul operator (#4856) · 16489827
      Markus Kliegl 提交于
      * initial matmul operator
      
      Similar to np.matmul, but also has transpose_X and transpose_Y flags,
      and only supports tensors from rank 1 to 3 inclusive.
      
      For GPU, uses cublas?gemmStridedBatched. For CPU, uses
      cblas_?gemm_batch if available via MKL; otherwise a simple serial
      implementation that loops over the batch dimension is employed for now.
      16489827
  11. 16 10月, 2017 1 次提交
  12. 15 10月, 2017 1 次提交
  13. 14 10月, 2017 1 次提交
  14. 12 10月, 2017 1 次提交
    • Cudnn conv op (#4195) · a3ccbdb3
      武毅 提交于
      * add cudnn_conv_op
      
      * WIP
      
      * update
      
      * update
      
      * fix grad check
      
      * use platform::memory
      
      * add support group for cudnn
      
      * update
      
      * follow comments
      
      * fix onlycpu build
      
      * update cuda define
      
      * follow comments
      
      * follow comments
      
      * merge with updates
      
      * fix compile error
      
      * follow comments
      
      * follow comments
      a3ccbdb3
  15. 10 10月, 2017 2 次提交
  16. 07 10月, 2017 1 次提交
  17. 05 10月, 2017 4 次提交
  18. 04 10月, 2017 2 次提交
  19. 03 10月, 2017 2 次提交
  20. 02 10月, 2017 1 次提交
  21. 01 10月, 2017 1 次提交
  22. 29 9月, 2017 3 次提交
  23. 28 9月, 2017 1 次提交
  24. 26 9月, 2017 2 次提交
  25. 23 9月, 2017 1 次提交
    • Y
      Sync computation when Python invoke `run` · ba1f5b5c
      Yu Yang 提交于
      * Since GPU is an async device by default. We should sync computation
        when Python invoke `run`. So Python can get the correct computation
        result
      ba1f5b5c
  26. 22 9月, 2017 1 次提交