提交 e4313fe4 编写于 作者: W wangxiao1021

update README_zh.md

上级 f80f3f8a
...@@ -240,7 +240,7 @@ CUDA_VISIBLE_DEVICES=2 python run.py ...@@ -240,7 +240,7 @@ CUDA_VISIBLE_DEVICES=2 python run.py
CUDA_VISIBLE_DEVICES=2,3 python run.py CUDA_VISIBLE_DEVICES=2,3 python run.py
``` ```
在多GPU模式下,PaddlePALM会自动将每个batch数据分配到可用的GPU上。例如,如果`batch_size`设置为64,并且有4个GPU可以用于PaddlePALM,那么每个GPU中的batch_size实际上是64/4=16。因此,**当使用多个GPU时,您需要确保设置batch_size可以整除GPU的数量** 在多GPU模式下,PaddlePALM会自动将每个batch数据分配到可用的GPU上。例如,如果`batch_size`设置为64,并且有4个GPU可以用于PaddlePALM,那么每个GPU中的batch_size实际上是64/4=16。因此,**当使用多个GPU时,您需要确保batch_size可以被暴露给PALM的GPU数量整除**
## 许可证书 ## 许可证书
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册