- 19 5月, 2020 1 次提交
-
-
由 Arash Ashari 提交于
* adding BingSqaud e2e test * updating the draft test; bring final step under try section * finalizinf test for base deepspeed and deepspeed with ZeRO * applying the comment (thanks Jeff); fixed formatting
-
- 15 5月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 14 5月, 2020 1 次提交
-
-
由 Jeff Rasley 提交于
-
- 13 5月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 12 5月, 2020 1 次提交
-
-
由 Olatunji Ruwase 提交于
* Support dynamic loss scale args in fp16 optimizers * Update names
-
- 07 5月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 06 5月, 2020 2 次提交
-
-
由 Shaden Smith 提交于
-
由 Jeff Rasley 提交于
* add basic post-install test
-
- 05 5月, 2020 1 次提交
-
-
由 Jeff Rasley 提交于
-
- 01 5月, 2020 2 次提交
-
-
由 Jeff Rasley 提交于
* update apex version to feb 5th commit * use gradient clipping instead of max grad norm in tests * add warning when user provides max_grad_norm * update examples commit
-
由 Jeff Rasley 提交于
-
- 29 4月, 2020 1 次提交
-
-
由 Samyam Rajbhandari 提交于
1) CSR parameter names should end with .weight. 2) When using basic optimizer directly, DeepSpeed should handle zero_grad. Letting the basic optimizer do the zero_grad resulted in residual gradients in the embedding layer due to unknown reasons.
-
- 28 4月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 25 4月, 2020 2 次提交
-
-
由 Jeff Rasley 提交于
Remove explicit torch version requirement so that we can more easily support other versions
-
由 Olatunji Ruwase 提交于
-
- 23 4月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 22 4月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 21 4月, 2020 2 次提交
-
-
由 Olatunji Ruwase 提交于
Co-authored-by: NShaden Smith <Shaden.Smith@microsoft.com>
-
由 marload 提交于
-
- 16 4月, 2020 1 次提交
-
-
由 Jeff Rasley 提交于
-
- 12 4月, 2020 1 次提交
-
-
由 Samyam Rajbhandari 提交于
-
- 11 4月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 10 4月, 2020 1 次提交
-
-
由 Jeff Rasley 提交于
-
- 08 4月, 2020 1 次提交
-
-
由 marload 提交于
-
- 07 4月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 03 4月, 2020 1 次提交
-
-
由 kouml 提交于
-
- 28 3月, 2020 2 次提交
-
-
由 Shaden Smith 提交于
-
由 Olatunji Ruwase 提交于
* Push to remote * Correctly handle multi output models by doing loss scaling in backward() Unit tests for multi output models * Fix formatting issues * Formatting issues fix * Fix formatting * Update DeepSpeedExamples submodule Enable Megatron model tests
-
- 27 3月, 2020 2 次提交
-
-
由 Calogero Zarbo 提交于
* added zero_allow_untested_optimizer flag helpers * add zero_allow_untested_optimizer config constants * zero_allow_untested_optimizer logic with assertion * Added unit test and CustomOptimizer helper class
-
由 Shaden Smith 提交于
-
- 26 3月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
-
- 23 3月, 2020 3 次提交
-
-
由 Olatunji Ruwase 提交于
-
由 Calogero Zarbo 提交于
-
由 kouml 提交于
* remove session_params in deepspeed_constants.py * add constants info at README.md
-
- 19 3月, 2020 1 次提交
-
-
由 Shaden Smith 提交于
* Better config filename * Clean up configuration ToC
-
- 18 3月, 2020 5 次提交
-
-
由 Shaden Smith 提交于
* fix docs permalink * fix docs permalink
-
由 Shaden Smith 提交于
-
由 Shaden Smith 提交于
* Add coming soon to posts * Add what's new section to main page
-
由 Shaden Smith 提交于
-
由 Shaden Smith 提交于
-