README.md 3.5 KB
Newer Older
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
## 概述

ERNIE-GEN 是面向生成任务的预训练-微调框架,首次在预训练阶段加入span-by-span 生成任务,让模型每次能够生成一个语义完整的片段。在预训练和微调中通过填充式生成机制和噪声感知机制来缓解曝光偏差问题。此外, ERNIE-GEN 采样多片段-多粒度目标文本采样策略, 增强源文本和目标文本的关联性,加强了编码器和解码器的交互。ernie_gen_acrostic_poetry采用开源诗歌数据集进行微调,可用于生成藏头诗。
<p align="center">
<img src="https://paddlehub.bj.bcebos.com/resources/multi-flow-attention.png" hspace='10'/> <br />
</p>

更多详情参考论文[ERNIE-GEN:An Enhanced Multi-Flow Pre-training and Fine-tuning Framework for Natural Language Generation](https://arxiv.org/abs/2001.11314)

## 命令行预测

```shell
$ hub run ernie_gen_acrostic_poetry --input_text="我喜欢你" --use_gpu True --beam_width 5
```

**NOTE:** 命令行预测的方式只支持七言绝句,如需输出五言绝句、五言律诗、七言律诗,请使用API。

**参数**

20
* input_text: 诗歌的藏头,长度不应超过4,否则将被截断;
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101
* use\_gpu: 是否使用 GPU;**若使用GPU,请先设置CUDA\_VISIBLE\_DEVICES环境变量**
* beam\_width: beam search宽度,决定每个藏头输出的下文数目。

## API

```python
def generate(texts, use_gpu=False, beam_width=5):
```

预测API,输入诗歌藏头,输出诗歌下文。

**参数**

* texts (list\[str\]): 诗歌的藏头;
* use\_gpu (bool): 是否使用 GPU;**若使用GPU,请先设置CUDA\_VISIBLE\_DEVICES环境变量**
* beam\_width: beam search宽度,决定每个藏头输出的下文数目。

**返回**

* results (list\[list\]\[str\]): 诗歌下文,每个诗歌藏头会生成beam_width个下文。

**代码示例**

```python
import paddlehub as hub

# 在模型定义时,可以通过设置line=4或8指定输出绝句或律诗,设置word=5或7指定输出五言或七言。
# 默认line=4, word=7 即输出七言绝句。
module = hub.Module(name="ernie_gen_acrostic_poetry", line=4, word=7)

test_texts = ['我喜欢你']
results = module.generate(texts=test_texts, use_gpu=True, beam_width=5)
for result in results:
    print(result)
```

## 服务部署

PaddleHub Serving 可以部署在线服务。

**NOTE:** 服务部署的方式只支持七言绝句,如需输出五言绝句、五言律诗、七言律诗,请使用API。

### 第一步:启动PaddleHub Serving

运行启动命令:
```shell
$ hub serving start -m ernie_gen_acrostic_poetry -p 8866
```

这样就完成了一个服务化API的部署,默认端口号为8866。

**NOTE:** 如使用GPU预测,则需要在启动服务之前,请设置CUDA\_VISIBLE\_DEVICES环境变量,否则不用设置。

### 第二步:发送预测请求

配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果

```python
import requests
import json

# 发送HTTP请求

data = {'texts':['我喜欢你'],
        'use_gpu':True, 'beam_width':5}
headers = {"Content-type": "application/json"}
url = "http://127.0.0.1:8866/predict/ernie_gen_acrostic_poetry"
r = requests.post(url=url, headers=headers, data=json.dumps(data))

# 保存结果
results = r.json()["results"]
for result in results:
    print(result)
```

## 查看代码

https://github.com/PaddlePaddle/ERNIE/blob/repro/ernie-gen/

### 依赖

K
kinghuin 已提交
102
paddlepaddle >= 2.0.0
103

K
kinghuin 已提交
104
paddlehub >= 2.0.0
105

K
kinghuin 已提交
106 107
paddlenlp >= 2.0.0

108 109 110 111 112 113

## 更新历史

* 1.0.0

  初始发布
114 115 116 117

* 1.0.1

  完善API的输入文本检查
K
kinghuin 已提交
118 119 120 121

* 1.1.0

  接入PaddleNLP