1. 15 4月, 2021 1 次提交
    • T
      heterps support pscore (#32093) · 9f8c8f96
      Thunderbrook 提交于
      * pscore support heterps
      
      * fleet cmake
      
      * fleet wrapper
      
      * macro
      
      * solve conflict
      
      * solve conflict
      
      * add unitest
      
      * paddle enforce
      
      * unitest
      
      * unitest
      
      * unitest
      9f8c8f96
  2. 07 4月, 2021 1 次提交
  3. 02 4月, 2021 1 次提交
  4. 01 4月, 2021 1 次提交
  5. 22 3月, 2021 1 次提交
  6. 10 3月, 2021 1 次提交
  7. 24 2月, 2021 1 次提交
  8. 01 2月, 2021 1 次提交
  9. 26 1月, 2021 1 次提交
  10. 12 1月, 2021 1 次提交
  11. 08 1月, 2021 1 次提交
  12. 17 12月, 2020 1 次提交
  13. 11 12月, 2020 1 次提交
  14. 01 12月, 2020 1 次提交
  15. 26 10月, 2020 1 次提交
  16. 13 10月, 2020 1 次提交
    • C
      【paddle.fleet】Update fleetrun & ps-heter (#27472) · c5f2802d
      Chengmo 提交于
      * refine fleetrun.ps_launch
      
      * update fleet run for multi device support
      
      * ps_graph support ps-gpu
      
      * fix heter save
      
      * add heter save unittest
      
      * fix unittest & simple code
      
      * update fleetrun
      
      * fix fleetrun
      
      * fix launch barrier
      
      * fix role maker
      
      * add paddlecloud rolemaker unittest
      
      * rename heter_worker_device_guard
      c5f2802d
  17. 27 9月, 2020 1 次提交
  18. 25 9月, 2020 1 次提交
  19. 16 9月, 2020 1 次提交
  20. 14 9月, 2020 1 次提交
  21. 09 9月, 2020 1 次提交
  22. 25 8月, 2020 1 次提交
  23. 12 8月, 2020 1 次提交
  24. 10 8月, 2020 1 次提交
  25. 05 8月, 2020 1 次提交
  26. 03 8月, 2020 3 次提交
  27. 29 7月, 2020 1 次提交
  28. 28 7月, 2020 1 次提交
    • D
      add more settings for distributed strategy (#25685) · 920d998f
      Dong Daxiang 提交于
      * add more settings for distributed strategy
      Basically, DistributedStrategy has several parts of configurations:
      - BuildStrategy: the same as paddle.fluid.BuildStrategy, but the distributed arguments are moved out of BuildStrategy
      - ExecutionStrategy: the same as paddle.fluid.ExecutionStrategy
      - collective communication configs: nccl_comm_num, hierarchical allreduce and so on
      - distributed algorithms: async_update(mainly used in PS), lars, lamb and so on
      920d998f
  29. 20 7月, 2020 1 次提交
  30. 06 7月, 2020 1 次提交