diff --git a/docs/zh_CN/models/ImageNet1k/MobileViTV2.md b/docs/zh_CN/models/ImageNet1k/MobileViTV2.md index 0ecdd9890b0164abaae24f3c022a4eb63346ca85..537516421d23c78151083c7c182f0f5c82b7a257 100644 --- a/docs/zh_CN/models/ImageNet1k/MobileViTV2.md +++ b/docs/zh_CN/models/ImageNet1k/MobileViTV2.md @@ -51,7 +51,7 @@ MobileViT 中的主要效率瓶颈是Transformer中的多头自注意力,影 此部分内容包括训练环境配置、ImageNet数据的准备、该模型在 ImageNet 上的训练、评估、预测等内容。在 `ppcls/configs/ImageNet/MobileViTV2/` 中提供了该模型的训练配置,启动训练方法可以参考:[ResNet50 模型训练、评估和预测](./ResNet.md#3-模型训练评估和预测)。 -**备注:** 由于 MobileViT 系列模型默认使用的 GPU 数量为 8 个,所以在训练时,需要指定8个GPU,如`python3 -m paddle.distributed.launch --gpus="0,1,2,3,4,5,6,7" tools/train.py -c xxx.yaml`, 如果使用 4 个 GPU 训练,默认学习率需要减小一半,精度可能有损。 +**备注:** 由于 MobileViTV2 系列模型默认使用的 GPU 数量为 8 个,所以在训练时,需要指定8个GPU,如`python3 -m paddle.distributed.launch --gpus="0,1,2,3,4,5,6,7" tools/train.py -c xxx.yaml`, 如果使用 4 个 GPU 训练,默认学习率需要减小一半,精度可能有损。