Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleHub
提交
c52c4ed8
P
PaddleHub
项目概览
PaddlePaddle
/
PaddleHub
大约 1 年 前同步成功
通知
282
Star
12117
Fork
2091
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
200
列表
看板
标记
里程碑
合并请求
4
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleHub
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
200
Issue
200
列表
看板
标记
里程碑
合并请求
4
合并请求
4
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
c52c4ed8
编写于
8月 19, 2022
作者:
jm_12138
提交者:
GitHub
8月 19, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Add ERNIE 3.0 Zeus
上级
aeebde75
变更
3
显示空白变更内容
内联
并排
Showing
3 changed file
with
749 addition
and
0 deletion
+749
-0
modules/text/text_generation/ernie_zeus/README.md
modules/text/text_generation/ernie_zeus/README.md
+297
-0
modules/text/text_generation/ernie_zeus/module.py
modules/text/text_generation/ernie_zeus/module.py
+451
-0
modules/text/text_generation/ernie_zeus/requirements.txt
modules/text/text_generation/ernie_zeus/requirements.txt
+1
-0
未找到文件。
modules/text/text_generation/ernie_zeus/README.md
0 → 100644
浏览文件 @
c52c4ed8
# ernie_zeus
|模型名称|ernie_zeus|
| :--- | :---: |
|类别|文本-文本生成|
|网络|-|
|数据集|-|
|是否支持Fine-tuning|否|
|模型大小|-|
|最新更新日期|2022-08-16|
|数据指标|-|
## 一、模型基本信息
### 应用效果展示
-
作文创作:
-
作文标题:诚以养德,信以修身
- 作文:翻开我的书橱,展现在眼前的就是《曾国藩家书》。每当读起这些充满哲理的内容时,心里总会不禁佩服他。他虽出生于官宦之家,但并没有因此而骄傲自大,从小养成了平淡做人、踏实肯干的好品质,最后更赢得了属下和朋友们对他的一致认同和赞赏。由此可见,只要平时注意锻炼自己,处事脚踏实地,定能收获一番丰硕的成果!记得有句话叫“以诚待人”。我觉得曾国藩就是始终把做到真诚与诚信作为修身立业的准则和美德。
-
文案创作:
-
产品描述:芍药香氛的沐浴乳
- 文案:使用多种纯天然草本植物精华,泡沫细腻绵密,丰富的维他命及矿物质滋养皮肤。成分温和安全,适合干性、中性肌肤或敏感性肌肤使用!
### 模型介绍
ERNIE 3.0 Zeus 是 ERNIE 3.0 系列模型的最新升级。其除了对无标注数据和知识图谱的学习之外,还通过持续学习对百余种不同形式的任务数据学习。实现了任务知识增强,显著提升了模型的零样本/小样本学习能力。
更多详情参考
[
文心大模型官网
](
https://wenxin.baidu.com/wenxin
)
及
[
ERNIE 3.0 Zeus 项目主页
](
https://wenxin.baidu.com/wenxin/modelbasedetail/ernie3_zeus
)
。
## 二、安装
-
### 1、环境依赖
-
paddlepaddle >= 2.0.0
-
paddlehub >= 2.2.0 |
[
如何安装PaddleHub
](
../../../../docs/docs_ch/get_start/installation.rst
)
-
### 2、安装
-
```shell
$ hub install ernie_zeus
```
-
如您安装时遇到问题,可参考:
[
零基础windows安装
](
../../../../docs/docs_ch/get_start/windows_quickstart.md
)
|
[
零基础Linux安装
](
../../../../docs/docs_ch/get_start/linux_quickstart.md
)
|
[
零基础MacOS安装
](
../../../../docs/docs_ch/get_start/mac_quickstart.md
)
-
### 3. 使用申请(可选)
-
请前往
[
文心旸谷社区
](
https://wenxin.baidu.com/moduleApi/key
)
申请使用本模型所需的 API key 和 Secret Key。
## 三、模型 API 预测
-
### 1. 命令行预测
-
```
bash
# 作文创作
$ hub run ernie_zeus
\
--task composition_generation
\
--text '诚以养德,信以修身'
```
-
**
参数
**
-
--
task
(
str
):
指定任务名称,与
API
名称保持一直
-
--
text
(
str
):
根据不同的任务输入所需的文本。
-
其他参数请参考后续
API
章节。
-
###
2.
预测代码示例
-
```
python
import
paddlehub
as
hub
#
加载模型
model
=
hub
.
Module
(
name
=
'ernie_zeus'
)
#
作文创作
result
=
model
.
composition_generation
(
text
=
'诚以养德,信以修身'
)
print
(
result
)
```
-
### 3. API
-
```python
def __init__(
api_key: str = '',
secret_key: str = ''
) -> None
```
-
初始化 API
- **参数**
- api_key(str): API Key。(可选)
- secret_key(str): Secret Key。(可选)
-
```python
def custom_generation(
text: str,
min_dec_len: int = 1,
seq_len: int = 128,
topp: float = 1.0,
penalty_score: float = 1.0,
stop_token: str = '',
task_prompt: str = '',
penalty_text: str = '',
choice_text: str = '',
is_unidirectional: bool = False,
min_dec_penalty_text: str = '',
logits_bias: int = -10000,
mask_type: str = 'word',
api_key: str = '',
secret_key: str = ''
) -> str
```
-
自定义文本生成 API
- **参数**
- text(srt): 模型的输入文本, 为 prompt 形式的输入。文本长度 [1, 1000]。注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- stop_token(str): 预测结果解析时使用的结束字符串, 碰到对应字符串则直接截断并返回。可以通过设置该值, 过滤掉 few-shot 等场景下模型重复的 cases。
- task_prompt(str): 指定预置的任务模板, 效果更好。
PARAGRAPH: 引导模型生成一段文章; SENT: 引导模型生成一句话; ENTITY: 引导模型生成词组;
Summarization: 摘要; MT: 翻译; Text2Annotation: 抽取; Correction: 纠错;
QA_MRC: 阅读理解; Dialogue: 对话; QA_Closed_book: 闭卷问答; QA_Multi_Choice: 多选问答;
QuestionGeneration: 问题生成; Paraphrasing: 复述; NLI: 文本蕴含识别; SemanticMatching: 匹配;
Text2SQL: 文本描述转SQL; TextClassification: 文本分类; SentimentClassification: 情感分析;
zuowen: 写作文; adtext: 写文案; couplet: 对对联; novel: 写小说; cloze: 文本补全; Misc: 其它任务。
- penalty_text(str): 模型会惩罚该字符串中的 token。通过设置该值, 可以减少某些冗余与异常字符的生成。
- choice_text(str): 模型只能生成该字符串中的 token 的组合。通过设置该值, 可以对某些抽取式任务进行定向调优。
- is_unidirectional(bool): False 表示模型为双向生成, True 表示模型为单向生成。建议续写与 few-shot 等通用场景建议采用单向生成方式, 而完型填空等任务相关场景建议采用双向生成方式。
- min_dec_penalty_text(str): 与最小生成长度搭配使用, 可以在 min_dec_len 步前不让模型生成该字符串中的 tokens。
- logits_bias(int): 配合 penalty_text 使用, 对给定的 penalty_text 中的 token 增加一个 logits_bias, 可以通过设置该值屏蔽某些 token 生成的概率。
- mask_type(str): 设置该值可以控制模型生成粒度。可选参数为 word, sentence, paragraph。
- **返回**
- text(str): 生成的文本。
-
```python
def text_cloze(
text: str,
min_dec_len: int = 1,
seq_len: int = 512,
topp: float = 0.9,
penalty_score: float = 1.0
) -> str
```
- 完形填空 API
- **参数**
- text(str): 文字段落。使用 [MASK] 标记待补全文字。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 补全词语
-
```python
def composition_generation(
text: str,
min_dec_len: int = 128,
seq_len: int = 512,
topp: float = 0.9,
penalty_score: float = 1.2
) -> str
```
-
作文创作 API
- **参数**
- text(str): 作文题目。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 作文内容。
-
```python
def answer_generation(
text: str,
min_dec_len: int = 2,
seq_len: int = 512,
topp: float = 0.9,
penalty_score: float = 1.2
) -> str
```
-
自由问答 API
- **参数**
- text(str): 问题内容。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 问题答案。
-
```python
def couplet_continuation(
text: str,
min_dec_len: int = 2,
seq_len: int = 512,
topp: float = 0.9,
penalty_score: float = 1.0
) -> str
```
-
对联续写 API
- **参数**
- text(str): 对联上联。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 对联下联。
-
```python
def copywriting_generation(
text: str,
min_dec_len: int = 32,
seq_len: int = 512,
topp: float = 0.9,
penalty_score: float = 1.2
) -> str
```
-
文案创作 API
- **参数**
- text(str): 产品描述。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 产品文案。
-
```python
def novel_continuation(
text: str,
min_dec_len: int = 2,
seq_len: int = 512,
topp: float = 0.9,
penalty_score: float = 1.2
) -> str
```
-
小说续写 API
- **参数**
- text(str): 小说上文。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 小说下文。
-
```python
def text_summarization(
text: str,
min_dec_len: int = 4,
seq_len: int = 512,
topp: float = 0.0,
penalty_score: float = 1.0
) -> str
```
-
文本摘要 API
- **参数**
- text(str): 文本段落。
- min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
- seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
- topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
- penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
- **返回**
- text(str): 段落摘要。
## 四、更新历史
*
1.0.0
初始发布
```
shell
$
hub
install
ernie_zeus
==
1.0.0
```
\ No newline at end of file
modules/text/text_generation/ernie_zeus/module.py
0 → 100644
浏览文件 @
c52c4ed8
import
json
import
argparse
import
requests
from
paddlehub.module.module
import
moduleinfo
,
runnable
def
get_access_token
(
ak
:
str
=
''
,
sk
:
str
=
''
)
->
str
:
'''
Get Access Token
Params:
ak(str): API Key
sk(str): Secret Key
Return:
access_token(str): Access Token
'''
url
=
'https://wenxin.baidu.com/younger/portal/api/oauth/token'
headers
=
{
'Content-Type'
:
'application/x-www-form-urlencoded'
}
datas
=
{
'grant_type'
:
'client_credentials'
,
'client_id'
:
ak
if
ak
!=
''
else
'G26BfAOLpGIRBN5XrOV2eyPA25CE01lE'
,
'client_secret'
:
sk
if
sk
!=
''
else
'txLZOWIjEqXYMU3lSm05ViW4p9DWGOWs'
}
responses
=
requests
.
post
(
url
,
datas
,
headers
=
headers
)
assert
responses
.
status_code
==
200
,
f
"Network Error
{
responses
.
status_code
}
."
results
=
json
.
loads
(
responses
.
text
)
assert
results
[
'msg'
]
==
'success'
,
f
"Error message: '
{
results
[
'msg'
]
}
'. Please check the ak and sk."
return
results
[
'data'
]
@
moduleinfo
(
name
=
'ernie_zeus'
,
type
=
'nlp/text_generation'
,
author
=
'paddlepaddle'
,
author_email
=
''
,
summary
=
'ernie_zeus'
,
version
=
'1.0.0'
)
class
ERNIEZeus
:
def
__init__
(
self
,
ak
:
str
=
''
,
sk
:
str
=
''
)
->
None
:
self
.
access_token
=
get_access_token
(
ak
,
sk
)
def
custom_generation
(
self
,
text
:
str
,
min_dec_len
:
int
=
1
,
seq_len
:
int
=
128
,
topp
:
float
=
1.0
,
penalty_score
:
float
=
1.0
,
stop_token
:
str
=
''
,
task_prompt
:
str
=
''
,
penalty_text
:
str
=
''
,
choice_text
:
str
=
''
,
is_unidirectional
:
bool
=
False
,
min_dec_penalty_text
:
str
=
''
,
logits_bias
:
int
=
-
10000
,
mask_type
:
str
=
'word'
)
->
str
:
'''
ERNIE 3.0 Zeus 自定义接口
Params:
text(srt): 模型的输入文本, 为 prompt 形式的输入。文本长度 [1, 1000]。注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512。
min_dec_len(int): 输出结果的最小长度, 避免因模型生成 END 或者遇到用户指定的 stop_token 而生成长度过短的情况,与 seq_len 结合使用来设置生成文本的长度范围 [1, seq_len]。
seq_len(int): 输出结果的最大长度, 因模型生成 END 或者遇到用户指定的 stop_token, 实际返回结果可能会小于这个长度, 与 min_dec_len 结合使用来控制生成文本的长度范围 [1, 1000]。(注: ERNIE 3.0-1.5B 模型取值范围 ≤ 512)
topp(float): 影响输出文本的多样性, 取值越大, 生成文本的多样性越强。取值范围 [0.0, 1.0]。
penalty_score(float): 通过对已生成的 token 增加惩罚, 减少重复生成的现象。值越大表示惩罚越大。取值范围 [1.0, 2.0]。
stop_token(str): 预测结果解析时使用的结束字符串, 碰到对应字符串则直接截断并返回。可以通过设置该值, 过滤掉 few-shot 等场景下模型重复的 cases。
task_prompt(str): 指定预置的任务模板, 效果更好。
PARAGRAPH: 引导模型生成一段文章; SENT: 引导模型生成一句话; ENTITY: 引导模型生成词组;
Summarization: 摘要; MT: 翻译; Text2Annotation: 抽取; Correction: 纠错;
QA_MRC: 阅读理解; Dialogue: 对话; QA_Closed_book: 闭卷问答; QA_Multi_Choice: 多选问答;
QuestionGeneration: 问题生成; Paraphrasing: 复述; NLI: 文本蕴含识别; SemanticMatching: 匹配;
Text2SQL: 文本描述转SQL; TextClassification: 文本分类; SentimentClassification: 情感分析;
zuowen: 写作文; adtext: 写文案; couplet: 对对联; novel: 写小说; cloze: 文本补全; Misc: 其它任务。
penalty_text(str): 模型会惩罚该字符串中的 token。通过设置该值, 可以减少某些冗余与异常字符的生成。
choice_text(str): 模型只能生成该字符串中的 token 的组合。通过设置该值, 可以对某些抽取式任务进行定向调优。
is_unidirectional(bool): False 表示模型为双向生成, True 表示模型为单向生成。建议续写与 few-shot 等通用场景建议采用单向生成方式, 而完型填空等任务相关场景建议采用双向生成方式。
min_dec_penalty_text(str): 与最小生成长度搭配使用, 可以在 min_dec_len 步前不让模型生成该字符串中的 tokens。
logits_bias(int): 配合 penalty_text 使用, 对给定的 penalty_text 中的 token 增加一个 logits_bias, 可以通过设置该值屏蔽某些 token 生成的概率。
mask_type(str): 设置该值可以控制模型生成粒度。可选参数为 word, sentence, paragraph。
Return:
text(str): 生成的文本
'''
url
=
'https://wenxin.baidu.com/moduleApi/portal/api/rest/1.0/ernie/3.0.28/zeus?from=paddlehub'
access_token
=
self
.
access_token
headers
=
{
'Content-Type'
:
'application/x-www-form-urlencoded'
}
datas
=
{
'access_token'
:
access_token
,
'text'
:
text
,
'min_dec_len'
:
min_dec_len
,
'seq_len'
:
seq_len
,
'topp'
:
topp
,
'penalty_score'
:
penalty_score
,
'stop_token'
:
stop_token
,
'task_prompt'
:
task_prompt
,
'penalty_text'
:
penalty_text
,
'choice_text'
:
choice_text
,
'is_unidirectional'
:
int
(
is_unidirectional
),
'min_dec_penalty_text'
:
min_dec_penalty_text
,
'logits_bias'
:
logits_bias
,
'mask_type'
:
mask_type
,
}
responses
=
requests
.
post
(
url
,
datas
,
headers
=
headers
)
assert
responses
.
status_code
==
200
,
f
"Network Error
{
responses
.
status_code
}
."
results
=
json
.
loads
(
responses
.
text
)
assert
results
[
'code'
]
==
0
,
f
"Error message: '
{
results
[
'msg'
]
}
'."
return
results
[
'data'
][
'result'
]
def
text_generation
(
self
,
text
:
str
,
min_dec_len
:
int
=
4
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.2
)
->
str
:
'''
文本生成
'''
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'PARAGRAPH'
,
penalty_text
=
'[{[gEND]'
,
choice_text
=
''
,
is_unidirectional
=
True
,
min_dec_penalty_text
=
'。?:![<S>]'
,
logits_bias
=-
10
,
mask_type
=
'paragraph'
)
def
text_summarization
(
self
,
text
:
str
,
min_dec_len
:
int
=
4
,
seq_len
:
int
=
512
,
topp
:
float
=
0.0
,
penalty_score
:
float
=
1.0
)
->
str
:
'''
摘要生成
'''
text
=
"文章:{} 摘要:"
.
format
(
text
)
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'Summarization'
,
penalty_text
=
''
,
choice_text
=
''
,
is_unidirectional
=
False
,
min_dec_penalty_text
=
''
,
logits_bias
=-
10000
,
mask_type
=
'word'
)
def
copywriting_generation
(
self
,
text
:
str
,
min_dec_len
:
int
=
32
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.2
)
->
str
:
'''
文案生成
'''
text
=
"标题:{} 文案:"
.
format
(
text
)
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'adtext'
,
penalty_text
=
''
,
choice_text
=
''
,
is_unidirectional
=
False
,
min_dec_penalty_text
=
''
,
logits_bias
=-
10000
,
mask_type
=
'word'
)
def
novel_continuation
(
self
,
text
:
str
,
min_dec_len
:
int
=
2
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.2
)
->
str
:
'''
小说续写
'''
text
=
"上文:{} 下文:"
.
format
(
text
)
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'gPARAGRAPH'
,
penalty_text
=
''
,
choice_text
=
''
,
is_unidirectional
=
True
,
min_dec_penalty_text
=
'。?:![<S>]'
,
logits_bias
=-
5
,
mask_type
=
'paragraph'
)
def
answer_generation
(
self
,
text
:
str
,
min_dec_len
:
int
=
2
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.2
)
->
str
:
'''
自由问答
'''
text
=
"问题:{} 回答:"
.
format
(
text
)
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'qa'
,
penalty_text
=
'[gEND]'
,
choice_text
=
''
,
is_unidirectional
=
True
,
min_dec_penalty_text
=
'。?:![<S>]'
,
logits_bias
=-
5
,
mask_type
=
'paragraph'
)
def
couplet_continuation
(
self
,
text
:
str
,
min_dec_len
:
int
=
2
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.0
)
->
str
:
'''
对联续写
'''
text
=
"上联:{} 下联:"
.
format
(
text
)
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'couplet'
,
penalty_text
=
''
,
choice_text
=
''
,
is_unidirectional
=
False
,
min_dec_penalty_text
=
''
,
logits_bias
=-
10000
,
mask_type
=
'word'
)
def
composition_generation
(
self
,
text
:
str
,
min_dec_len
:
int
=
128
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.2
)
->
str
:
'''
作文创作
'''
text
=
"作文题目:{} 正文:"
.
format
(
text
)
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'zuowen'
,
penalty_text
=
''
,
choice_text
=
''
,
is_unidirectional
=
False
,
min_dec_penalty_text
=
''
,
logits_bias
=-
10000
,
mask_type
=
'word'
)
def
text_cloze
(
self
,
text
:
str
,
min_dec_len
:
int
=
1
,
seq_len
:
int
=
512
,
topp
:
float
=
0.9
,
penalty_score
:
float
=
1.0
)
->
str
:
'''
完形填空
'''
return
self
.
custom_generation
(
text
,
min_dec_len
,
seq_len
,
topp
,
penalty_score
,
stop_token
=
''
,
task_prompt
=
'cloze'
,
penalty_text
=
''
,
choice_text
=
''
,
is_unidirectional
=
False
,
min_dec_penalty_text
=
''
,
logits_bias
=-
10000
,
mask_type
=
'word'
)
@
runnable
def
cmd
(
self
,
argvs
):
parser
=
argparse
.
ArgumentParser
(
description
=
"Run the {}"
.
format
(
self
.
name
),
prog
=
"hub run {}"
.
format
(
self
.
name
),
usage
=
'%(prog)s'
,
add_help
=
True
)
parser
.
add_argument
(
'--text'
,
type
=
str
,
required
=
True
)
parser
.
add_argument
(
'--min_dec_len'
,
type
=
int
,
default
=
1
)
parser
.
add_argument
(
'--seq_len'
,
type
=
int
,
default
=
128
)
parser
.
add_argument
(
'--topp'
,
type
=
float
,
default
=
1.0
)
parser
.
add_argument
(
'--penalty_score'
,
type
=
float
,
default
=
1.0
)
parser
.
add_argument
(
'--stop_token'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--task_prompt'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--penalty_text'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--choice_text'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--is_unidirectional'
,
type
=
bool
,
default
=
False
)
parser
.
add_argument
(
'--min_dec_penalty_text'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--logits_bias'
,
type
=
int
,
default
=-
10000
)
parser
.
add_argument
(
'--mask_type'
,
type
=
str
,
default
=
'word'
)
parser
.
add_argument
(
'--ak'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--sk'
,
type
=
str
,
default
=
''
)
parser
.
add_argument
(
'--task'
,
type
=
str
,
default
=
'custom_generation'
)
args
=
parser
.
parse_args
(
argvs
)
func
=
getattr
(
self
,
args
.
task
)
if
(
args
.
ak
!=
''
)
and
(
args
.
sk
!=
''
):
self
.
access_token
=
get_access_token
(
args
.
ak
,
args
.
sk
)
kwargs
=
vars
(
args
)
if
kwargs
[
'task'
]
not
in
[
'custom_generation'
]:
kwargs
.
pop
(
'stop_token'
)
kwargs
.
pop
(
'task_prompt'
)
kwargs
.
pop
(
'penalty_text'
)
kwargs
.
pop
(
'choice_text'
)
kwargs
.
pop
(
'is_unidirectional'
)
kwargs
.
pop
(
'min_dec_penalty_text'
)
kwargs
.
pop
(
'logits_bias'
)
kwargs
.
pop
(
'mask_type'
)
default_kwargs
=
{
'min_dec_len'
:
1
,
'seq_len'
:
128
,
'topp'
:
1.0
,
'penalty_score'
:
1.0
}
else
:
default_kwargs
=
{
'min_dec_len'
:
1
,
'seq_len'
:
128
,
'topp'
:
1.0
,
'penalty_score'
:
1.0
,
'stop_token'
:
''
,
'task_prompt'
:
''
,
'penalty_text'
:
''
,
'choice_text'
:
''
,
'is_unidirectional'
:
False
,
'min_dec_penalty_text'
:
''
,
'logits_bias'
:
-
10000
,
'mask_type'
:
'word'
}
kwargs
.
pop
(
'task'
)
kwargs
.
pop
(
'ak'
)
kwargs
.
pop
(
'sk'
)
for
k
in
default_kwargs
.
keys
():
if
kwargs
[
k
]
==
default_kwargs
[
k
]:
kwargs
.
pop
(
k
)
return
func
(
**
kwargs
)
if
__name__
==
'__main__'
:
ernie_zeus
=
ERNIEZeus
()
result
=
ernie_zeus
.
custom_generation
(
'你好,'
)
print
(
result
)
result
=
ernie_zeus
.
text_generation
(
'给宠物猫起一些可爱的名字。名字:'
)
print
(
result
)
result
=
ernie_zeus
.
text_summarization
(
'在芬兰、瑞典提交“入约”申请近一个月来,北约成员国内部尚未对此达成一致意见。与此同时,俄罗斯方面也多次对北约“第六轮扩张”发出警告。据北约官网显示,北约秘书长斯托尔滕贝格将于本月12日至13日出访瑞典和芬兰,并将分别与两国领导人进行会晤。'
)
print
(
result
)
result
=
ernie_zeus
.
copywriting_generation
(
'芍药香氛的沐浴乳'
)
print
(
result
)
result
=
ernie_zeus
.
novel_continuation
(
'昆仑山可以说是天下龙脉的根源,所有的山脉都可以看作是昆仑的分支。这些分出来的枝枝杈杈,都可以看作是一条条独立的龙脉。'
)
print
(
result
)
result
=
ernie_zeus
.
answer_generation
(
'交朋友的原则是什么?'
)
print
(
result
)
result
=
ernie_zeus
.
couplet_continuation
(
'五湖四海皆春色'
)
print
(
result
)
result
=
ernie_zeus
.
composition_generation
(
'诚以养德,信以修身'
)
print
(
result
)
result
=
ernie_zeus
.
text_cloze
(
'她有着一双[MASK]的眼眸。'
)
print
(
result
)
modules/text/text_generation/ernie_zeus/requirements.txt
0 → 100644
浏览文件 @
c52c4ed8
requests
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录