- 14 6月, 2022 10 次提交
-
-
由 cambriconhsq 提交于
-
由 zhaoying9105 提交于
* [MLU]: add elementwise_max mlu kernel * [MLU]: add int32 support for elementwise maxk MLU kernel
-
由 zhaoying9105 提交于
-
由 sneaxiy 提交于
-
由 Yuang Liu 提交于
-
由 Zhang Jun 提交于
-
由 xiongkun 提交于
* change logic for optimize * modifty * optimize the backward speed of EinsumOp * add cache optimizer for einsum op * EinsumOp: fix new dygraph mode error * fix bug * change Cache->InnerCache * fix code * fix * add nan inf utils for einsum op * add as_extra * memory optimizer for einsum * update code
-
由 Sing_chan 提交于
-
由 Wilber 提交于
* cmake-lint * update
-
由 zyfncg 提交于
-
- 13 6月, 2022 4 次提交
-
-
由 qipengh 提交于
-
由 Chenxiao Niu 提交于
-
由 piotrekobi 提交于
-
由 Ruibiao Chen 提交于
-
- 12 6月, 2022 1 次提交
-
-
由 Leo Guo 提交于
Fix the bug of slice op and optimize the code style of generate_proposals_v2 op for kunlun. *test=kunlun (#43380)
-
- 10 6月, 2022 9 次提交
-
-
由 limingshu 提交于
-
由 光明和真理 提交于
-
由 fuyou765 提交于
-
由 sneaxiy 提交于
-
由 Leo Chen 提交于
* make all phi kernels to 2(host/device) static libraries directly * fix calling kernel_declare * fix compile * fix cpu compile * fix rocm compile * fix xpu compile * fix xpu kp compile * fix inference compile
-
由 tiancaishaonvjituizi 提交于
-
由 cambriconhsq 提交于
-
由 enzodechine 提交于
* Re-implemented check_finite_and_unscale_op with newly added xdnn api *test=kunlun * Re-implemented check_finite_and_unscale_op with newly added xdnn api *test=kunlun
-
由 fwenguang 提交于
-
- 09 6月, 2022 6 次提交
-
-
由 fwenguang 提交于
-
由 fuyou765 提交于
-
由 cifar10 提交于
-
由 sneaxiy 提交于
* add nproc_per_node for DistributedFusedLamb * fix nproc_per_node communicator bug * fix ring_id = 1 init bug * fix ci * fix test_parallel_executor_mnist.py
-
由 cambriconhsq 提交于
-
由 crystal 提交于
Co-authored-by: NLiu Yiqun <liuyiqun01@baidu.com>
-
- 08 6月, 2022 4 次提交
-
-
由 Aganlengzi 提交于
-
由 YuanRisheng 提交于
* move_group_norm * move group norm backward * fix code format * modify code according comment
-
由 fwenguang 提交于
-
由 Yiqun Liu 提交于
* Polish codes and memory usage for fused_gate_attention. * Fix wrong reduce_dims in fused_gate_attention when computing gradient of nonbatched_bias.
-
- 07 6月, 2022 6 次提交
-
-
由 Sławomir Siwek 提交于
* add method for post ops * format code * change post-ops pattern * code style
-
由 shixingbo 提交于
-
由 sneaxiy 提交于
* add use_master_acc_grad * add ut
-
由 qipengh 提交于
* [MLU]support cast double type * [MLU]fix cast test
-
由 limingshu 提交于
Transpose optimization with assitant of Chengdu Supercomputing Center and auto_tune operation (#42704)
-
由 niuliling123 提交于
-