- 10 6月, 2022 14 次提交
-
-
由 limingshu 提交于
-
由 光明和真理 提交于
-
由 fuyou765 提交于
-
由 Wilber 提交于
-
由 YuanRisheng 提交于
* change tensor name * fix unittest bugs
-
由 sneaxiy 提交于
-
由 Leo Chen 提交于
* make all phi kernels to 2(host/device) static libraries directly * fix calling kernel_declare * fix compile * fix cpu compile * fix rocm compile * fix xpu compile * fix xpu kp compile * fix inference compile
-
由 tiancaishaonvjituizi 提交于
-
由 chenjian 提交于
* add new field for event node * fix * fix bug * fix bug * fix clang * fix clang format * fix code format
-
由 cambriconhsq 提交于
-
由 Allen Guo 提交于
* add unary ops * move to activation_ops
-
由 Ruibiao Chen 提交于
* Refactor DeviceContextPool * Adjust header file order
-
由 enzodechine 提交于
* Re-implemented check_finite_and_unscale_op with newly added xdnn api *test=kunlun * Re-implemented check_finite_and_unscale_op with newly added xdnn api *test=kunlun
-
由 fwenguang 提交于
-
- 09 6月, 2022 13 次提交
-
-
由 fwenguang 提交于
-
由 minghaoBD 提交于
-
由 fuyou765 提交于
-
由 cifar10 提交于
-
由 lidanqing 提交于
* fix some matmul that X and Y both other ops outputs, do not dequantize the Y. * fix CI format * fix according to review
-
由 sneaxiy 提交于
* add nproc_per_node for DistributedFusedLamb * fix nproc_per_node communicator bug * fix ring_id = 1 init bug * fix ci * fix test_parallel_executor_mnist.py
-
由 Ruibiao Chen 提交于
-
由 cambriconhsq 提交于
-
由 zhangchunle 提交于
* fix sign-compare warning * fix sign-compare 2
-
由 crystal 提交于
Co-authored-by: NLiu Yiqun <liuyiqun01@baidu.com>
-
由 zhupengyang 提交于
-
由 weishengying 提交于
-
由 wanghuancoder 提交于
* fix pylayer forward output code * refine
-
- 08 6月, 2022 13 次提交
-
-
由 Wilber 提交于
-
由 zhupengyang 提交于
-
由 Aganlengzi 提交于
-
由 zhangchunle 提交于
-
由 xiaoxiaohehe001 提交于
-
由 Wangzheee 提交于
-
由 zyfncg 提交于
-
由 YuanRisheng 提交于
* move_group_norm * move group norm backward * fix code format * modify code according comment
-
由 fwenguang 提交于
-
由 Wangzheee 提交于
* support matmulv2 in multihead
-
由 YuanRisheng 提交于
-
由 Yiqun Liu 提交于
* Polish codes and memory usage for fused_gate_attention. * Fix wrong reduce_dims in fused_gate_attention when computing gradient of nonbatched_bias.
-
由 zmxdream 提交于
* optimize dump_to_cpu for dymf * code clean. test=develop * fix func. test=develop * fix code style. test=develop * fix. test=develop
-