diff --git a/PaddleNLP/PaddleDialogue/auto_dialogue_evaluation/README.md b/PaddleNLP/PaddleDialogue/auto_dialogue_evaluation/README.md index b668351b7cf69b803f4b12c2bead54843b86c9ed..3120c29a147acf1fb9d26439c40c7dcfc424cb8d 100644 --- a/PaddleNLP/PaddleDialogue/auto_dialogue_evaluation/README.md +++ b/PaddleNLP/PaddleDialogue/auto_dialogue_evaluation/README.md @@ -62,7 +62,7 @@ seq2seq_att:seq2seq attention model 对话系统; seq2seq_naive:naive seq2seq model对话系统; ``` -注意: 目前ade模块内提供的训练好的官方模型及效果, 均是在GPU单卡上面训练和预测得到的, 用户如需复线效果, 可使用单卡相同的配置. +注意: 目前ade模块内提供的训练好的官方模型及效果, 均是在GPU单卡上面训练和预测得到的, 用户如需复现效果, 可使用单卡相同的配置. ### 数据准备     数据集说明:本模块内只提供训练方法,真实涉及的匹配数据及4个对话系统的数据只开源测试集数据,仅提供样例,用户如有自动化评估对话系统的需求,可自行准备业务数据集按照文档提供流程进行训练; @@ -314,9 +314,9 @@ export CUDA_VISIBLE_DEVICES= 单卡预测: export CUDA_VISIBLE_DEVICES=0 #用户可自行指定空闲的卡 ``` -注:预测时,如采用方式一,用户可通过修改run.sh中init_from_params参数来指定自己需要预测的模型,目前代码中默认预测本模块提供的训练好的模型; +注:预测时,如采用方式一,用户可通过修改run.sh中init_from_params参数来指定自己需要预测的模型,目前代码中默认使用本模块中训练好的模型进行预测; -####     方式二: 执行预测相关的代码: +####     方式二: 执行预测相关的shell命令脚本: ``` export FLAGS_sync_nccl_allreduce=0 @@ -371,7 +371,7 @@ task_type: train、predict、evaluate、inference, 选择4个参数选项中任     指定CPU或者GPU方法同上模型预测1中所示; -####     方式二: 执行预测相关的代码: +####     方式二: 执行预测相关的shell命令脚本: ``` export FLAGS_sync_nccl_allreduce=0 @@ -454,7 +454,7 @@ bash run.sh matching evaluate 注:评估计算ground_truth和predict_label之间的打分,默认CPU计算即可; -####     方式二: 执行评估相关的代码: +####     方式二: 执行评估相关的shell命令脚本: ``` export CUDA_VISIBLE_DEVICES= #指默认CPU评估 @@ -486,7 +486,7 @@ task_type: train、predict、evaluate、inference, 选择4个参数选项中任 评估示例: bash run.sh human evaluate ``` -####     方式二: 执行评估相关的代码: +####     方式二: 执行评估相关的shell命令脚本: ``` export CUDA_VISIBLE_DEVICES= #指默认CPU评估 @@ -528,7 +528,7 @@ export CUDA_VISIBLE_DEVICES= export CUDA_VISIBLE_DEVICES=0 ``` -####     方式二: 执行inference model相关的代码: +####     方式二: 执行inference model相关的shell命令脚本: ``` export CUDA_VISIBLE_DEVICES=0 # 指GPU单卡推断 @@ -563,7 +563,7 @@ task_type: train、predict、evaluate、inference, 选择4个参数选项中任     CPU和GPU指定方式同模型推断1中所示; -####     方式二: 执行inference model相关的代码: +####     方式二: 执行inference model相关的shell命令脚本: ``` export CUDA_VISIBLE_DEVICES=0 # 指GPU单卡推断