diff --git a/PaddleNLP/README.md b/PaddleNLP/README.md index dcf0457f16c9794fcffc23f2d3c16087cba90a14..c20ba06583891a34f7bca123899cd8d4bbf2414f 100644 --- a/PaddleNLP/README.md +++ b/PaddleNLP/README.md @@ -5,7 +5,7 @@

-PaddleNLP旨在帮助开发者提高文本建模的效率,通过丰富的模型库、简洁易用的API,提供飞桨2.0的最佳实践并加速NLP领域产业应用落地效率。 +PaddleNLP 2.0拥有丰富的模型库、简洁易用的API与高性能的分布式训练的能力,旨在为飞桨开发者提升文本建模效率,并提供基于PaddlePaddle 2.0的NLP领域最佳实践。 ![License](https://img.shields.io/badge/license-Apache%202-red.svg) ![python version](https://img.shields.io/badge/python-3.6+-orange.svg) @@ -16,7 +16,7 @@ PaddleNLP旨在帮助开发者提高文本建模的效率,通过丰富的模 - **丰富的模型库** - - 涵盖了NLP主流应用相关的前沿模型,包括中文词向量、预训练模型、词法分析、文本分类、文本匹配、文本生成、机器翻译、通用对话、问答系统等。 + - 涵盖了NLP主流应用相关的前沿模型,包括中文词向量、预训练模型、词法分析、文本分类、文本匹配、文本生成、机器翻译、通用对话、问答系统等。更多介绍请查看[PaddleNLP模型库](./exmaples/README.md) - **简洁易用的API** @@ -24,7 +24,7 @@ PaddleNLP旨在帮助开发者提高文本建模的效率,通过丰富的模 - **高性能分布式训练** - - 通过高度优化的Transformer网络实现,结合混合精度与Fleet分布式训练API,可充分利用GPU集群资源,高效完成大规模预训练模型的分布式训练。 + - 通过深度优化的Transformer网络实现,结合混合精度与Fleet分布式训练API,可充分利用GPU集群资源,高效完成大规模预训练模型的分布式训练。 # 安装 @@ -83,6 +83,19 @@ electra = ElectraModel.from_pretrained('chinese-electra-small') 请参考 [Pretrained-Models](./docs/transformers.md)查看目前支持的预训练模型。 +# 模型库及其应用 + +- [词向量](./examples/word_embedding/README.md) +- [词法分析](./examples/lexical_analysis/README.md) +- [语言模型](./examples/language_model) +- [文本分类](./examples/text_classification/README.md) +- [文本生成](./examples/text_generation/README.md) +- [语义匹配](./examples/text_matching/README.md) +- [命名实体识别](./examples/named_entity_recognition/README.md) +- [文本图学习](./examples/text_graph/README.md) +- [通用对话](./examples/dialogue) +- [机器翻译](./exmaples/machine_translation) +- [阅读理解](./exmaples/machine_reading_comprehension) # API 使用文档 @@ -98,7 +111,7 @@ electra = ElectraModel.from_pretrained('chinese-electra-small') - [Metrics API](./docs/metrics.md) -# 可交互式Notebook教程 +# 交互式Notebook教程 - [使用Seq2Vec模块进行句子情感分类](https://aistudio.baidu.com/aistudio/projectdetail/1283423) - [如何通过预训练模型Fine-tune下游任务](https://aistudio.baidu.com/aistudio/projectdetail/1294333) diff --git a/PaddleNLP/examples/machine_translation/seq2seq/README.md b/PaddleNLP/examples/machine_translation/seq2seq/README.md index ba9eaf709074798eb12dd6bf1889c19f953bd6ab..3de3c4d28b7408331228f01abfc0124d1d39e5a0 100644 --- a/PaddleNLP/examples/machine_translation/seq2seq/README.md +++ b/PaddleNLP/examples/machine_translation/seq2seq/README.md @@ -1,4 +1,4 @@ -# Seq2Seq with Attention +# Machine Translation using Seq2Seq with Attention 以下是本范例模型的简要目录结构及说明: @@ -17,7 +17,7 @@ Sequence to Sequence (Seq2Seq),使用编码器-解码器(Encoder-Decoder)结构,用编码器将源序列编码成vector,再用解码器将该vector解码为目标序列。Seq2Seq 广泛应用于机器翻译,自动对话机器人,文档摘要自动生成,图片描述自动生成等任务中。 -本目录包含Seq2Seq的一个经典样例:机器翻译,带attention机制的翻译模型。Seq2Seq翻译模型,模拟了人类在进行翻译类任务时的行为:先解析源语言,理解其含义,再根据该含义来写出目标语言的语句。更多关于机器翻译的具体原理和数学表达式,我们推荐参考飞桨官网[机器翻译案例](https://www.paddlepaddle.org.cn/documentation/docs/zh/user_guides/nlp_case/machine_translation/README.cn.html)。 +本目录包含Seq2Seq的一个经典样例:机器翻译,带Attention机制的翻译模型。Seq2Seq翻译模型,模拟了人类在进行翻译类任务时的行为:先解析源语言,理解其含义,再根据该含义来写出目标语言的语句。更多关于机器翻译的具体原理和数学表达式,我们推荐参考飞桨官网[机器翻译案例](https://www.paddlepaddle.org.cn/documentation/docs/zh/user_guides/nlp_case/machine_translation/README.cn.html)。 运行本目录下的范例模型需要安装PaddlePaddle 2.0-rc1及以上版本。如果您的 PaddlePaddle 安装版本低于此要求,请按照[安装文档](https://www.paddlepaddle.org.cn/#quick-start)中的说明更新 PaddlePaddle 安装版本。 diff --git a/PaddleNLP/examples/text_classification/README.md b/PaddleNLP/examples/text_classification/README.md index 9d76fff9842ba4e7abd08193f85cb97d6ab6e867..fc90e8a25805744c532322f4ed8ccaf45eada1a8 100644 --- a/PaddleNLP/examples/text_classification/README.md +++ b/PaddleNLP/examples/text_classification/README.md @@ -2,7 +2,7 @@ 该项目示例使用PaddleNLP如何完成文本分类任务。该项目展示了使用传统的[Recurrent Neural Networks](./rnn) 和 预训练模型[Pretrained Models](./pretrained_models)两种方法完成文本分类任务。 -## Conventional RNNs Models +## RNN Models [Recurrent Neural Networks](./rnn) 展示了如何使用传统序列模型RNN、LSTM、GRU等网络完成文本分类任务。