diff --git a/dygraph/bert/README.md b/dygraph/bert/README.md index 8ff43b5e432e271e1524c98fa4be371214fdee97..a273d682d14e48aec65e32f9b42009b3013204d0 100644 --- a/dygraph/bert/README.md +++ b/dygraph/bert/README.md @@ -50,7 +50,7 @@ ### 语句和句对分类任务 -对于 [GLUE 数据](https://gluebenchmark.com/tasks),请下载[文件](https://baidu-nlp.bj.bcebos.com/DYGRAPH_models%2FBERT%2Fdata.tar.gz),并解压到同一个目录。以 GLUE/MNLI 任务为例,启动 Fine-tuning 的方式如下(也可以直接运行run_classifier_single_gpu.sh): +对于 [GLUE 数据](https://gluebenchmark.com/tasks),请下载[文件](https://baidu-nlp.bj.bcebos.com/DYGRAPH_models/BERT/data.tar.gz),并解压到同一个目录。以 GLUE/MNLI 任务为例,启动 Fine-tuning 的方式如下(也可以直接运行run_classifier_single_gpu.sh): ```shell #!/bin/bash @@ -99,7 +99,7 @@ BERT_BASE_PATH="./data/pretrained_models/uncased_L-12_H-768_A-12/" TASK_NAME='MNLI' DATA_PATH="./data/glue_data/MNLI/" CKPT_PATH="./data/saved_model/mnli_models" -GPU_TO_USE="0,1,2,3" +GPU_TO_USE=0,1,2,3 export CUDA_VISIBLE_DEVICES=$GPU_TO_USE