model_zoo.md 5.1 KB
Newer Older
Z
Zeyu Chen 已提交
1 2
# PaddleNLP Model Zoo

Z
Zeyu Chen 已提交
3
PaddleNLP提供了丰富的模型结构,包含经典的RNN类模型结构,与Transformer类模型及其预训练模型。
Z
Zeyu Chen 已提交
4

Z
Zeyu Chen 已提交
5
## RNN类模型
Z
Zeyu Chen 已提交
6

Z
Zeyu Chen 已提交
7
| 模型    |  简介   |
Z
Zeyu Chen 已提交
8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
| ------ | ------ |
| [BiGRU-CRF](../examples/lexical_analysis) | BiGRU-CRF是一个经典的词法分析模型,可用于中文分词、词性标注和命名实体识别等任务。    |
| [BoW](../examples/text_classification/rnn) | 最基础的序列特征提取模型,对序列内所有词向量进行线性求和或取平均的操作。    |
| [RNN/Bi-RNN](../examples/text_classification/rnn) | 单/双向RNN序列特征提取器,是变种的LSTM结构,计算量相比LSTM较少。    |
| [LSTM/Bi-LSTM](../examples/text_classification/rnn) | 单/双向LSTM序列特征提取器。  |
| [TextCNN](../examples/text_classification/rnn) | [Convolutional Neural Networks for Sentence Classification](https://arxiv.org/abs/1408.5882)  |
| [LSTM/Bi-LSTM with Attention](../examples/text_classification/rnn) | 带注意力机制的单/双向LSTM特征提取器。   |
| [GRU/Bi-GRU](../examples/text_classification/rnn) | 单/双向GRU序列特征提取器,是变种的LSTM结构,计算量相比LSTM较少。    |
| [TCN](../examples/time_series)|TCN(Temporal Convolutional Network)模型基于卷积的时间序列模型,通过因果卷积(Causal Convolution)和空洞卷积(Dilated Convolution) 特定的组合方式解决卷积不适合时间序列任务的问题,TCN具备并行度高,内存低等诸多优点,在某些时间序列任务上效果超过传统的RNN模型。|
| [RNNLM](../examples/language_model/rnnlm/) | [Recurrent neural network based language model](https://www.fit.vutbr.cz/research/groups/speech/publi/2010/mikolov_interspeech2010_IS100722.pdf),RNN/LSTM等结构的经典语言模型。   |
| [ELMo](../examples/language_model/elmo/) | Embedding from Language Model(ELMo), 发表于NAACL2018的动态词向量开山之作。 |
| [SimNet](../examples/text_matching/simnet) |  SimNet是百度自研的文本匹配计算的框架,主要包括 BOW、CNN、RNN、MMDNN 等核心网络结构形式,已在百度各产品上广泛应用。|
| [LSTM Seq2Seq with Attention](../examples/machine_translation/seq2seq) | 使用编码器-解码器(Encoder-Decoder) 结构, 同时使用了Attention机制来加强Decoder和Encoder之间的信息交互,Seq2Seq 广泛应用于机器翻译,自动对话机器人,文档摘要自动生成,图片描述自动生成等任务中。|

## Transformer类模型
Z
Zeyu Chen 已提交
23 24

| 模型    |  简介   |
Z
Zeyu Chen 已提交
25 26 27 28 29 30 31 32 33 34 35
| ------ | ------ |
| [Transformer](../examples/lexical_analysis) | BiGRU-CRF是一个经典的词法分析模型,可用于中文分词、词性标注和命名实体识别等任务。     |
| [Transformer-XL](../examples/language_model/transformer-xl/) | 最基础的序列特征提取模型,对序列内所有词向量进行线性求和或取平均的操作。     |
| [BERT](../examples/language_model/bert/) |[BERT(Bidirectional Encoder Representation from Transformers)](./examples/language_model/bert)      |
| [ERNIE](../examples/text_classification/rnn) | [ERNIE: Enhanced Representation through Knowledge Integration](https://arxiv.org/abs/1904.09223)   |
| [ERNIE-Tiny](../examples/language_model/gpt2) | 百度自研的小型化ERNIE网络结构,采用浅层Transformer,加宽隐层参数,中文subword粒度词表结合蒸馏的方法使模型相比SOTA Before BERT 提升8.35%, 速度提升4.3倍。 |
| [ERNIE-GEN](../examples/language_model/gpt2) | [ERNIE-GEN: An Enhanced Multi-Flow Pre-training and Fine-tuning Framework for Natural Language Generation](https://arxiv.org/abs/2001.11314) ERNIE-GEN是百度发布的生成式预训练模型,通过Global-Attention的方式解决训练和预测曝光偏差的问题,同时使用Multi-Flow Attention机制来分别进行Global和Context信息的交互,同时通过片段生成的方式来增加语义相关性。    |
| [ERNIESage](../examples/text_graph/erniesage)| ERNIESage(ERNIE SAmple aggreGatE) 通过Graph(图)来构建自身节点和邻居节点的连接关系,将自身节点和邻居节点的关系构建成一个关联样本输入到ERNIE中,ERNIE作为聚合函数 (Aggregators) 来表征自身节点和邻居节点的语义关系,最终强化图中节点的语义表示。|
| [GPT-2](../examples/language_model/gpt2) | 单/双向GRU序列特征提取器,是变种的LSTM结构,计算量相比LSTM较少。    |
| [ELECTRA](../examples/language_model/electra/) | [ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators](https://arxiv.org/abs/2003.10555)   |
| [RoBERTa](../examples/text_classification/rnn) | [RoBERTa: A Robustly Optimized BERT Pretraining Approach](https://arxiv.org/abs/1907.11692)   |
Z
Zeyu Chen 已提交
36
| [PLATO-2](../examples/dialogue/plato-2) | 百度自研领先的开放域对话预训练模型。[PLATO-2: Towards Building an Open-Domain Chatbot via Curriculum Learning](https://arxiv.org/abs/2006.16779) |
Z
Zeyu Chen 已提交
37
| [SentenceBERT](../examples/text_matching/sentence_transformers)| [Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks](https://arxiv.org/abs/1908.10084) |
Z
Zeyu Chen 已提交
38 39


Z
Zeyu Chen 已提交
40
更多模型应用场景介绍请参考[PaddleNLP Example](../examples/)