- 08 9月, 2021 1 次提交
-
-
由 niuliling123 提交于
-
- 03 9月, 2021 1 次提交
-
-
由 Yiqun Liu 提交于
-
- 26 8月, 2021 1 次提交
-
-
由 Li Min 提交于
Describe Add feed_forward for fused attention op. (1) Encapsulate matmul impl (forward and backward) used in attention op. (2) Implement bias_add (forward and backward) used in attention op.
-