1. 07 12月, 2022 1 次提交
  2. 22 11月, 2022 1 次提交
    • H
      [PHI decoupling] remove "gpu_device_function.h" in fluid. (#48117) · 4da1a0fe
      huangjiyi 提交于
      * move "paddle/phi/backends/gpu/gpu_device_function.h" to phi
      
      * update copyright years
      
      * rm "fluid/platform/device/gpu/gpu_device_function.h" in phi
      
      * rm dependence to "gpu_device_function.h" in fluid
      
      * rm gpu_device_function.h etc in fluid
      
      * fix rocm-complie bugs
      
      * fix cuda_helper_test.cu bugs
      4da1a0fe
  3. 07 11月, 2022 1 次提交
  4. 26 10月, 2022 1 次提交
  5. 09 10月, 2022 1 次提交
  6. 28 9月, 2022 1 次提交
    • C
      Remove the declaration of using Tensor in framework/tensor.h (#46432) · e12a905e
      Chen Weihang 提交于
      * remove needless using tensor
      
      * remove needless using tensor
      
      * resolve conflict
      
      * replace tensor using
      
      * fix format error
      
      * revert needless changing
      
      * fix rocm and npu compile error
      
      * fix cinn compile error
      
      * fix format error
      
      * fix mkldnn format error
      
      * fix mkldnn format error
      
      * fix cinn compile error
      
      * fix cinn compile error
      
      * fix cinn compile error
      
      * resolve conflict
      e12a905e
  7. 07 9月, 2022 1 次提交
  8. 01 8月, 2022 1 次提交
    • L
      unify gpu context (#44740) · 86763023
      Leo Chen 提交于
      * remove cudaDeviceContext
      
      * remove more template
      
      * fix rocm compile
      
      * remove alias name CUDADeviceContext
      
      * fix compile
      
      * fix tests
      
      * revert changes
      86763023
  9. 12 7月, 2022 1 次提交
  10. 26 6月, 2022 1 次提交
  11. 17 6月, 2022 1 次提交
  12. 05 6月, 2022 1 次提交
  13. 31 5月, 2022 1 次提交
  14. 24 5月, 2022 1 次提交
  15. 11 3月, 2022 1 次提交
  16. 20 2月, 2022 1 次提交
  17. 11 2月, 2022 1 次提交
  18. 18 1月, 2022 1 次提交
  19. 03 12月, 2021 1 次提交
  20. 23 11月, 2021 1 次提交
  21. 16 11月, 2021 1 次提交
    • L
      Fix attn_bias_add bug. (#37147) · a9e7a854
      Li Min 提交于
      fused_attention_op的实现中,使用了bias_add,且其实现是通过使用kernel primitive来实现的,之后kernel primitive的WriteData api接口及函数内部实现发生了更改,将判断越界的逻辑移到了template的参数中,使得调用的分支有错误,产生了越界赋值操作,污染了别的显存空间的内容。具体表现为:test_fused_attention_op_api.py 单次执行基本上不会报错,多次循环执行不同shape的输入,结果计算不对,具有偶发性,bug不易察觉。
      a9e7a854
  22. 10 11月, 2021 1 次提交
  23. 08 11月, 2021 1 次提交
  24. 28 10月, 2021 1 次提交
  25. 26 10月, 2021 1 次提交
    • L
      Add fused attention op backward and python layer. (#36498) · 5119428e
      Li Min 提交于
      功能:本PR的目标是提高attention模块的计算性能。
      为了减少框架层对op的调度开销,本PR通过在C++层手动实现attention模块,对外提供attention 大op;
      为了减少防存开销,本PR采取了两种优化方法:
      (1)在q,k,v计算时通过共享输入X,将该处的gemm,transpose和bias add从三次调用减少为一次;
      (2)使用kernel融合优化技术,在不同cuda kernel之间通过寄存器传输数据;
      5119428e
  26. 22 10月, 2021 1 次提交
    • L
      Fused attention op forward (#35905) · d4906214
      Li Min 提交于
      功能:本PR的目标是提高attention模块的计算性能。
      为了减少框架层对op的调度开销,本PR通过在C++层手动实现attention模块,对外提供attention 大op;
      为了减少防存开销,本PR采取了两种优化方法:
      (1)在q,k,v计算时通过共享输入X,将该处的gemm,transpose和bias add从三次调用减少为一次;
      (2)使用kernel融合优化技术,在不同cuda kernel之间通过寄存器传输数据;
      d4906214