- 06 7月, 2023 1 次提交
-
-
由 Zhang Ting 提交于
-
- 12 6月, 2023 1 次提交
-
-
由 niuliling123 提交于
-
- 16 5月, 2023 1 次提交
-
-
由 niuliling123 提交于
-
- 11 5月, 2023 1 次提交
-
-
由 张春乔 提交于
-
- 10 5月, 2023 1 次提交
-
-
由 Yiqun Liu 提交于
-
- 08 5月, 2023 1 次提交
-
-
由 Zhang Ting 提交于
-
- 24 4月, 2023 1 次提交
-
-
由 Zhang Ting 提交于
* support promote dtype for static amp training * unify o1 and o2 * update for unittest * fix op_role * add use_promote arg * fix doc * add promote unittest * polish unittests * fix controflow and test
-
- 14 4月, 2023 1 次提交
-
-
由 Yiqun Liu 提交于
* Unify the static amp codes of fp16 and bf16. * Polish apis and add unittest. * Add operator stats collecting tools for program. * Add the check of number of bloat16 operators in unittest. * Add warning for operator not supported for amp. * Add testing of BF16 O1 and O2.
-
- 06 4月, 2023 1 次提交
-
-
由 Kim Yann 提交于
* rem is_compiled_with_npu * rem nup related code * make lint happy * rem test * remove some tests * Update grad_scaler.py * fix an error
-
- 03 4月, 2023 1 次提交
-
-
由 Kim Yann 提交于
* rem is_compiled_with_mlu * fix some mlu_place and mlu_device_coount * make lint happy
-
- 17 1月, 2023 1 次提交
-
-
由 zhangkaihuo 提交于
-
- 12 1月, 2023 1 次提交
-
-
由 zhangkaihuo 提交于
-
- 08 11月, 2022 1 次提交
-
-
由 Nyakku Shigure 提交于
* [CodeStyle][py2][U004] unecessary explicit `object` inheritance in class definition * fix an increment
-
- 23 10月, 2022 1 次提交
-
-
由 Nyakku Shigure 提交于
* update config * re-blacken python code * temporarily disable date and diff_py_file * skip a format
-
- 29 8月, 2022 1 次提交
-
-
由 Zhang Ting 提交于
-
- 26 4月, 2022 1 次提交
-
-
由 WangXi 提交于
-
- 16 3月, 2022 1 次提交
-
-
由 qipengh 提交于
-
- 28 12月, 2021 1 次提交
-
-
由 Li Min 提交于
* Fix scatter_op fp16 perf problem. * Add scatter into black list. * Add scatter into black list for dygraph.
-
- 20 12月, 2021 1 次提交
-
-
由 sneaxiy 提交于
* support FP16 for more ops * add amp list tests * refine reduce_mean_grad * fix OP benchmark ci * fix fp16 reduce_mean * updat ut, but still have some problems * remove mean/reduce_mean fp16 kernel
-
- 27 10月, 2021 1 次提交
-
-
由 zhangkaihuo 提交于
本PR是fused_transformer的layer层代码,包含FusedFeedForward的layer层代码和FusedTransformerEncoderLayer的代码。
-
- 10 9月, 2021 1 次提交
-
-
由 ShenLiang 提交于
-
- 05 8月, 2021 1 次提交
-
-
由 WangXi 提交于
-
- 22 7月, 2021 1 次提交
-
-
由 Leo Chen 提交于
-
- 05 7月, 2021 1 次提交
-
-
由 jiangcheng 提交于
* reduce sum op default fp32, add into amp black list * reduce_sum default fp32 can avoid return inf when the sum value large than 65504
-
- 01 7月, 2021 1 次提交
-
-
由 taixiurong 提交于
-
- 29 6月, 2021 1 次提交
-
-
由 taixiurong 提交于
-
- 21 6月, 2021 1 次提交
-
-
由 WangXi 提交于
-
- 26 5月, 2021 1 次提交
-
-
由 JZ-LIANG 提交于
-
- 08 4月, 2021 1 次提交
-
-
由 Zhen Wang 提交于
* Use the runtime to create the unsupported_fp16_list using in AMP. * Add more infos about supported ops. * Add some comments for the function of OpSupportedInfos. * Fix the unit test of test_multi_precision_fp16_train.
-
- 22 3月, 2021 1 次提交
-
-
由 arlesniak 提交于
-
- 20 1月, 2021 1 次提交
-
-
由 huangxu96 提交于
* add fleet amp.init() * add unittest for fleet_amp_init
-
- 13 1月, 2021 1 次提交
-
-
由 huangxu96 提交于
-
- 08 1月, 2021 1 次提交
-
-
由 Zhen Wang 提交于
* add cast ops before and after unsupported fp16 ops. * Keep partial net in FP32 pattern. * Support check_finite_and_unscale and update_loss_scaling for FP16 calculation mode. * Add fp16 support for adam op. * add multi precision attr for adam. * Fix the bug of test_multi_precision_fp16_train UT. * Code format for CI. * Fix the redefine error about MPTypeTrait on windows. * fix bugs of the _create_accumulators func in Momentum. * fix bug when inserting post cast op. * Add the update_loss_scaling op in allow_set of UnusedVarCheck. * Update for ci coverage. * Add some doc for OptimizerWithMixedPrecision. * Fix the code style. * Imporve the doc of `amp_init`. * Change for fp16 testing if users have the infer program defined in separate way.
-
- 02 12月, 2020 1 次提交
-
-
由 furnace 提交于
* add fp16 for layer_norm op * revert layernorm api * fix forward * fix forward * fix backward for layernorm with fp16 * fix unit test for layernorm with fp16 * fix with_mkldnn compile error for layernorm with fp16 * 1. revert to PADDLE_ENFORCE_NOT_NULL, 2. change static_cast<float> to static_cast<U> * fix with_mkldnn compile error for layernorm with fp16 * fix with_mkldnn compile error for layernorm with fp16 Co-authored-by: Nzhiqiu <chenqiuliang@baidu.com>
-
- 18 11月, 2020 1 次提交
-
-
由 Leo Chen 提交于
* add matmtl_v2 to amp list * support dygraph
-
- 23 9月, 2020 1 次提交
-
-
由 Zhang Ting 提交于
* add fused_bn_add_relu op
-
- 26 11月, 2019 1 次提交
-
-
由 Zhen Wang 提交于
* fix some typos in AMP. test=develop * delete useless codes. test=develop
-
- 30 10月, 2019 1 次提交
-
-
由 gongweibao 提交于
* add custom black varname test=develop * fix dtype test=develop * fix num test=develop * fix ut test=develop * fix coverage test=develop * fix blackvar names test=develop
-
- 19 9月, 2019 1 次提交
-
-
由 Jie Fang 提交于
Optimize amp for multi-gpu to enable FP16 gradients transfer across gpus
-
- 06 9月, 2019 1 次提交
-
-
由 Jie Fang 提交于
init new amp, optimize inserting cast op for batchnorm
-