# Multi-agent Learning for Neural Machine Translation(MAL) ## 简介 MAL是百度翻译团队近期提出的首个多智能体端到端联合学习框架,该框架显著提升了单智能体学习能力,在多个机器翻译测试集上刷新了当前最好结果。 该框架投稿并被EMNLP2019录用 [Multi-agent Learning for Neural Machine Translation](https://www.aclweb.org/anthology/D19-1079.pdf)。 具体结构如下:


MAL整体框架

这个repo包含了PaddlePaddle版本的MAL实现,框架在论文的基础上做了一些修改,在WMT英德2014测试集上BLEU达到30.04,超过了论文中的结果,在不改变模型结构的基础上,刷新了SOTA。 ### 实验结果 #### WMT 英德 | Models | En-De | | :------------- | :---------: | | [ConvS2S](https://pdfs.semanticscholar.org/bb3e/bc09b65728d6eced04929df72a006fb5210b.pdf) | 25.20 | | [Transformer](https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf) | 28.40 | | [Rel](https://www.aclweb.org/anthology/N18-2074.pdf) | 29.20 | | [DynamicConv](https://openreview.net/pdf?id=SkVhlh09tX) | 29.70 | | L2R | 28.88 | | MAL-L2R | **30.04** | ## 运行 ### 环境 运行环境需要满足如下要求: + python 2.7 + paddlepaddle-gpu (1.6.1) + CUDA, CuDNN and NCCL (CUDA 9.0, CuDNN v7 and NCCL 2.3.5) WMT英德的实验结果复现需要56张 32G V100, 运行30W步左右。 ### 数据准备 运行get_data.sh脚本拉取原始数据并做预处理,形成训练需要的文件格式 ``` sh get_data.sh ``` ### 模型运行 在运行前,需要配置CUDA, CuDNN, NCCL的路径,具体路径修改在env/env.sh 调用train.sh运行MAL,产出的模型在output下,模型会边训练,边预测,针对训练过程中解码出来的文件,可以调用evaluate.sh来测BLEU 在train.sh中有个参数是distributed_args,这里需要使用者根据自身机器的情况来改变,需要修改的有nproc_per_node和selected_gpus,nproc_per_node代表每台机器需要使用几张卡,selected_gpus为gpu的卡号,例如一台8卡的v100,使用8张卡跑训练,那么nproc_per_node设置为8,selected_gpus为0, 1, 2, 3, 4, 5, 6, 7 ``` sh train.sh ip1,ip2,ip3...(机器的ip地址,不要写127.0.0.1,填写hostname -i的结果) & sh evaluate.sh file_path(预测出的文件,在output路径下) ``` ### 复现论文中结果 我们提供了MAL在英德任务上训练出的模型,调用infer.sh可以观察到最终结果(因为测试集需要提前生成,所以在调用infer.sh前,请先调用get_data.sh,同时也需要设置好CUDA, CuDNN路径) ``` sh infer.sh ``` ### 代码结构 我们主要的代码均在src文件夹中 train.py 训练的入口文件 infer.py 模型预测入口 config.py 定义了该项目模型的相关配置,包括具体模型类别、以及模型的超参数 reader.py 定义了读入数据的功能 bleu_hook.py BLEU计算脚本