# 对话自动评估模块ADE - [**1、模型简介**](#1、模型简介) - [**2、快速开始**](#2、快速开始) - [**3、进阶使用**](#3、进阶使用) - [**4、参考论文**](#4、参考论文) - [**5、版本更新**](#5、版本更新) ## 1、模型简介     对话自动评估(Auto Dialogue Evaluation)评估开放领域对话系统的回复质量,能够帮助企业或个人快速评估对话系统的回复质量,减少人工评估成本。     1. 在无标注数据的情况下,利用负采样训练匹配模型作为评估工具,实现对多个对话系统回复质量排序;     2. 利用少量标注数据(特定对话系统或场景的人工打分),在匹配模型基础上进行微调,可以显著提高该对话系统或场景的评估效果。 ## 2、快速开始 ### 安装说明 ####   a、环境依赖 - Python >= 2.7 - cuda >= 9.0 - cudnn >= 7.0 - pandas >= 0.20.1 - PaddlePaddle >= 1.3.1,请参考[安装指南](http://www.paddlepaddle.org/#quick-start)进行安装, 本模块使用bert作为pretrain model进行模型的finetuning训练,训练速度较慢,建议安装GPU版本的PaddlePaddle   注意:使用Windows GPU环境的用户,需要将示例代码中的[fluid.ParallelExecutor](http://paddlepaddle.org/documentation/docs/zh/1.4/api_cn/fluid_cn.html#parallelexecutor)替换为[fluid.Executor](http://paddlepaddle.org/documentation/docs/zh/1.4/api_cn/fluid_cn.html#executor)。 ####   b、下载代码     克隆数据集代码库到本地 ``` git clone https://github.com/PaddlePaddle/models.git cd models/PaddleNLP/dialogue_model_toolkit/auto_dialogue_evaluation ``` ### 任务简介     本模块内模型训练主要包括两个阶段:     1)第一阶段:训练一个匹配模型作为评估工具,可用于待评估对话系统内的回复内容进行排序;(matching任务)           模型结构: 输入为context和response, 对两个输入学习embedding表示, 学习到的表示经过lstm学习高阶表示, context和response的高阶表示计算双线性张量积logits, logits和label计算sigmoid_cross_entropy_with_logits loss;     2)第二阶段:利用少量的对话系统的标记数据,对第一阶段训练的匹配模型进行finetuning, 可以提高评估效果(包含human,keywords,seq2seq_att,seq2seq_naive,4个finetuning任务);           模型结构: finetuning阶段学习表示到计算logits部分和第一阶段模型结构相同,区别在于finetuning阶段计算square_error_cost loss;     用于第二阶段fine-tuning的对话系统包括下面四部分: ``` human: 人工模拟的对话系统; keywords:seq2seq keywords对话系统; seq2seq_att:seq2seq attention model 对话系统; seq2seq_naive:naive seq2seq model对话系统; ``` 注意: 目前ade模块内提供的训练好的官方模型及效果, 均是在GPU单卡上面训练和预测得到的, 用户如需复线效果, 可使用单卡相同的配置. ### 数据准备     数据集说明:本模块内只提供训练方法,真实涉及的匹配数据及4个对话系统的数据只开源测试集数据,仅提供样例,用户如有自动化评估对话系统的需求,可自行准备业务数据集按照文档提供流程进行训练; ``` unlabel_data(第一阶段训练匹配数据集) label_data(第二阶段finetuning数据集) 1、human: 人工对话系统产出的标注数据; 2、keywords:关键词对话系统产出的标注数据; 3、seq2seq_att:seq2seq attention model产出的标注对话数据; 4、seq2seq_naive:传统seq2seq model产出的标注对话数据; ```     数据集、相关模型下载: ``` cd ade && bash prepare_data_and_model.sh ```     数据路径:data/input/data/     模型路径:data/saved_models/trained_models/     下载经过预处理的数据,运行该脚本之后,data目录下会存在unlabel_data(train.ids/val.ids/test.ids),lable_data: human、keywords、seq2seq_att、seq2seq_naive(四个任务数据train.ids/val.ids/test.ids),以及word2ids. ### 单机训练 #### 1、第一阶段matching模型的训练: ####     方式一: 推荐直接使用模块内脚本训练 ``` bash run.sh matching train ```     如果为CPU训练: ``` 请将run.sh内参数设置为: 1、export CUDA_VISIBLE_DEVICES= ```     如果为GPU训练: ``` 请将run.sh内参数设置为: 1、如果为单卡训练(用户指定空闲的单卡): export CUDA_VISIBLE_DEVICES=0 2、如果为多卡训练(用户指定空闲的多张卡): export CUDA_VISIBLE_DEVICES=0,1,2,3 ``` ####     方式二: 执行训练相关的代码: ``` export FLAGS_sync_nccl_allreduce=0 export FLAGS_eager_delete_tensor_gb=1 #开启显存优化 export CUDA_VISIBLE_DEVICES=0 #GPU单卡训练 #export CUDA_VISIBLE_DEVICES=0,1,2,3 #GPU多卡训练 #export CUDA_VISIBLE_DEVICES= #CPU训练 #export CPU_NUM=1 #CPU训练时指定CPU number if [ ! "$CUDA_VISIBLE_DEVICES" ] then use_cuda=false else use_cuda=true fi pretrain_model_path="data/saved_models/matching_pretrained" if [ -f ${pretrain_model_path} ] then rm ${pretrain_model_path} fi if [ ! -d ${pretrain_model_path} ] then mkdir ${pretrain_model_path} fi python -u main.py \ --do_train=true \ --use_cuda=${use_cuda} \ --loss_type="CLS" \ --max_seq_len=50 \ --save_model_path="data/saved_models/matching_pretrained" \ --save_param="params" \ --training_file="data/input/data/unlabel_data/train.ids" \ --epoch=20 \ --print_step=1 \ --save_step=400 \ --batch_size=256 \ --hidden_size=256 \ --emb_size=256 \ --vocab_size=484016 \ --learning_rate=0.001 \ --sample_pro=0.1 ``` 注意: 用户进行模型训练、预测、评估等, 可通过修改data/config/ade.yaml配置文件或者从命令行传入来进行参数配置, 优先推荐命令行参数传入; #### 2、第二阶段finetuning模型的训练: ####     方式一: 推荐直接使用模块内脚本训练 ``` bash run.sh task_name task_type 参数说明: task_name: seq2seq_naive、seq2seq_att、keywords、human,选择4个任务中任意一项; task_type: train、predict、evaluate、inference, 选择4个参数选项中任意一项(train: 只执行训练,predict: 只执行预测,evaluate:只执行评估过程,依赖预测的结果,inference: 保存inference model; 训练示例: bash run.sh human train ```     CPU和GPU使用方式如单机训练1中所示; ####     方式二: 执行训练相关的代码: ``` export FLAGS_sync_nccl_allreduce=0 export FLAGS_eager_delete_tensor_gb=1 #开启显存优化 export CUDA_VISIBLE_DEVICES=0 #GPU单卡训练 #export CUDA_VISIBLE_DEVICES=0,1,2,3 #GPU多卡训练 #export CUDA_VISIBLE_DEVICES= #CPU训练 #export CPU_NUM=1 #CPU训练时指定CPU number if [ ! "$CUDA_VISIBLE_DEVICES" ] then use_cuda=false else use_cuda=true fi save_model_path="data/saved_models/human_finetuned" if [ -f ${save_model_path} ] then rm ${save_model_path} fi if [ ! -d ${save_model_path} ] then mkdir ${save_model_path} fi python -u main.py \ --do_train=true \ --use_cuda=${use_cuda} \ --loss_type="L2" \ --max_seq_len=50 \ --init_from_pretrain_model="data/saved_models/trained_models/matching_pretrained/params" \ --save_model_path="data/saved_models/human_finetuned" \ --save_param="params" \ --training_file="data/input/data/label_data/human/train.ids" \ --epoch=50 \ --print_step=1 \ --save_step=400 \ --batch_size=256 \ --hidden_size=256 \ --emb_size=256 \ --vocab_size=484016 \ --learning_rate=0.001 \ --sample_pro=0.1 ``` ### 模型预测 #### 1、第一阶段matching模型的预测: ####     方式一: 推荐直接使用模块内脚本预测 ``` bash run.sh matching predict ```     如果为CPU预测: ``` 请将run.sh内参数设置为: export CUDA_VISIBLE_DEVICES= ```     如果为GPU预测: ``` 请将run.sh内参数设置为: 单卡预测: export CUDA_VISIBLE_DEVICES=0 #用户可自行指定空闲的卡 ``` 注:预测时,如采用方式一,用户可通过修改run.sh中init_from_params参数来指定自己需要预测的模型,目前代码中默认预测本模块提供的训练好的模型; ####     方式二: 执行预测相关的代码: ``` export FLAGS_sync_nccl_allreduce=0 export FLAGS_eager_delete_tensor_gb=1 #开启显存优化 export CUDA_VISIBLE_DEVICES=0 #单卡预测 #export CUDA_VISIBLE_DEVICES= #CPU预测 #export CPU_NUM=1 #CPU训练时指定CPU number if [ ! "$CUDA_VISIBLE_DEVICES" ] then use_cuda=false else use_cuda=true fi python -u main.py \ --do_predict=true \ --use_cuda=${use_cuda} \ --predict_file="data/input/data/unlabel_data/test.ids" \ --init_from_params="data/saved_models/trained_models/matching_pretrained/params" \ --loss_type="CLS" \ --output_prediction_file="data/output/pretrain_matching_predict" \ --max_seq_len=50 \ --batch_size=256 \ --hidden_size=256 \ --emb_size=256 \ --vocab_size=484016 ``` 注:采用方式二时,模型预测过程可参考run.sh内具体任务的参数设置 #### 2、第二阶段finetuning模型的预测: ####     方式一: 推荐直接使用模块内脚本预测 ``` bash run.sh task_name task_type 参数说明: task_name: seq2seq_naive、seq2seq_att、keywords、human,选择4个任务中任意一项; task_type: train、predict、evaluate、inference, 选择4个参数选项中任意一项(train: 只执行训练,predict: 只执行预测,evaluate:只执行评估过程,依赖预测的结果,inference: 保存inference model; 预测示例: bash run.sh human predict ```     指定CPU或者GPU方法同上模型预测1中所示; ####     方式二: 执行预测相关的代码: ``` export FLAGS_sync_nccl_allreduce=0 export FLAGS_eager_delete_tensor_gb=1 #开启显存优化 export CUDA_VISIBLE_DEVICES=0 #单卡预测 #export CUDA_VISIBLE_DEVICES= #CPU预测 #export CPU_NUM=1 #CPU训练时指定CPU number if [ ! "$CUDA_VISIBLE_DEVICES" ] then use_cuda=false else use_cuda=true fi python -u main.py \ --do_predict=true \ --use_cuda=${use_cuda} \ --predict_file="data/input/data/label_data/human/test.ids" \ --init_from_params="data/saved_models/trained_models/human_finetuned/params" \ --loss_type="L2" \ --output_prediction_file="data/output/finetuning_human_predict" \ --max_seq_len=50 \ --batch_size=256 \ --hidden_size=256 \ --emb_size=256 \ --vocab_size=484016 ``` ### 模型评估     模块中5个任务,各任务支持计算的评估指标内容如下: ``` 第一阶段: matching: 使用R1@2, R1@10, R2@10, R5@10四个指标进行评估排序模型的效果; 第二阶段: human: 使用spearman相关系数来衡量评估模型对系统的打分与实际对话系统打分之间的关系; keywords:使用spearman相关系数来衡量评估模型对系统的打分与实际对话系统打分之间的关系; seq2seq_att:使用spearman相关系数来衡量评估模型对系统的打分与实际对话系统打分之间的关系; seq2seq_naive:使用spearman相关系数来衡量评估模型对系统的打分与实际对话系统打分之间的关系; ```     效果上,以四个不同的对话系统(seq2seq\_naive/seq2seq\_att/keywords/human)为例,使用对话自动评估工具进行自动评估。     1. 无标注数据情况下,直接使用预训练好的评估工具进行评估;         在四个对话系统上,自动评估打分和人工评估打分spearman相关系数,如下: ||seq2seq\_naive|seq2seq\_att|keywords|human| |--|:--:|--:|:--:|--:| |cor|0.361|0.343|0.324|0.288|         对四个系统平均得分排序: |人工评估|k(0.591)