1. 28 10月, 2021 16 次提交
  2. 27 10月, 2021 22 次提交
  3. 26 10月, 2021 2 次提交
    • J
      Remove additional warnning in layer.to (#36700) · 63f1e6bd
      Jiabin Yang 提交于
      * remove additional warnning in layer.to
      
      * remove additional warnning in layer.to
      
      * remove additional warnning in layer.to
      
      * remove additional warnning in layer.to
      
      * remove additional warnning in layer.to
      63f1e6bd
    • L
      Add fused attention op backward and python layer. (#36498) · 5119428e
      Li Min 提交于
      功能:本PR的目标是提高attention模块的计算性能。
      为了减少框架层对op的调度开销,本PR通过在C++层手动实现attention模块,对外提供attention 大op;
      为了减少防存开销,本PR采取了两种优化方法:
      (1)在q,k,v计算时通过共享输入X,将该处的gemm,transpose和bias add从三次调用减少为一次;
      (2)使用kernel融合优化技术,在不同cuda kernel之间通过寄存器传输数据;
      5119428e