diff --git a/PaddleNLP/docs/transformers.md b/PaddleNLP/docs/transformers.md
index 02ba0ddc62d3590778df33a51a73d7a7e331ab6f..91f347540cd4afce20582a11f60ca3cc5d07721c 100644
--- a/PaddleNLP/docs/transformers.md
+++ b/PaddleNLP/docs/transformers.md
@@ -2,13 +2,59 @@
随着深度学习的发展,NLP领域涌现了一大批高质量的transformer类预训练模型,多次刷新各种NLP任务SOTA。PaddleNLP为用户提供了常用的BERT、ERNIE等预训练模型,让用户能够方便快捷的使用各种transformer类模型,完成自己所需的任务。
+
## Transformer 类模型汇总
+下表汇总了目前PaddleNLP支持的各类预训练模型。用户可以使用PaddleNLP提供的模型,完成问答、序列分类、token分类等任务。同时我们提供了22种预训练的参数权重供用户使用,其中包含了11种中文语言模型的预训练权重。
| Model | Tokenizer| Supported Task| Pretrained Weight|
|---|---|---|---|
| [BERT](https://arxiv.org/abs/1810.04805) | BertTokenizer|BertModel
BertForQuestionAnswering
BertForSequenceClassification
BertForTokenClassification| `bert-base-uncased`
`bert-large-uncased`
`bert-base-multilingual-uncased`
`bert-base-cased`
`bert-base-chinese`
`bert-base-multilingual-cased`
`bert-large-cased`
`bert-wwm-chinese`
`bert-wwm-ext-chinese` |
-|[ELECTRA](https://arxiv.org/abs/2003.10555) |ElectraTokenizer| ElectraModel
ElectraForSequenceClassification
ElectraForTokenClassification
|`electra-small`
`electra-base`
`electra-large`
`chinese-electra-small`
`chinese-electra-base`
|
|[ERNIE](https://arxiv.org/abs/1904.09223)|ErnieTokenizer
ErnieTinyTokenizer|ErnieModel
ErnieForQuestionAnswering
ErnieForSequenceClassification
ErnieForTokenClassification| `ernie-1.0`
`ernie-tiny`
`ernie-2.0-en`
`ernie-2.0-large-en`|
|[RoBERTa](https://arxiv.org/abs/1907.11692)|RobertaTokenizer| RobertaModel
RobertaForQuestionAnswering
RobertaForSequenceClassification
RobertaForTokenClassification| `roberta-wwm-ext`
`roberta-wwm-ext-large`
`rbt3`
`rbtl3`|
+|[ELECTRA](https://arxiv.org/abs/2003.10555) |ElectraTokenizer| ElectraModel
ElectraForSequenceClassification
ElectraForTokenClassification
|`electra-small`
`electra-base`
`electra-large`
`chinese-electra-small`
`chinese-electra-base`
|
|[Transformer](https://arxiv.org/abs/1706.03762) |- | TransformerModel | - |
+
+注:其中中文的预训练模型有 `bert-base-chinese, bert-wwm-chinese, bert-wwm-ext-chinese, ernie-1.0, ernie-tiny, roberta-wwm-ext, roberta-wwm-ext-large, rbt3, rbtl3, chinese-electra-base, chinese-electra-small`。
+
+## 预训练模型使用方法
+
+PaddleNLP在提丰富预训练模型的同时,也降低了用户的使用难度。只需轻松十几行代码,用户即可完成加载模型,fine-tune下游任务。
+
+```python
+import paddle
+from paddlenlp.datasets import ChnSentiCorp
+from paddlenlp.transformers import BertForSequenceClassification, BertTokenizer
+
+train_dataset, dev_dataset, test_dataset = ChnSentiCorp.get_datasets(
+ ['train', 'dev', 'test'])
+
+model = BertForSequenceClassification.from_pretrained(
+ "bert-wwm-chinese", num_classes=len(train_dataset.get_labels()))
+
+tokenizer = BertTokenizer.from_pretrained("bert-wwm-chinese")
+
+# please define your dataloader from dataset and tokenizer
+
+optimizer = paddle.optimizer.AdamW(learning_rate=0.001,
+ parameters=model.parameters())
+criterion = paddle.nn.loss.CrossEntropyLoss()
+
+for batch in train_data_loader:
+ input_ids, segment_ids, labels = batch
+ logits = model(input_ids, segment_ids)
+ loss = criterion(logits, labels)
+ probs = paddle.nn.functional.softmax(logits, axis=1)
+ loss.backward()
+ optimizer.step()
+ optimizer.clear_gradients()
+```
+
+上面的代码给出使用预训练模型的简要示例,更完整详细的示例代码,可以参考[使用预训练模型Fine-tune完成中文文本分类任务](https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/examples/text_classification/pretrained_models)。
+
+1. 加载数据集:PaddleNLP内置了多种数据集,用户可以一键导入所需的数据集。
+2. 加载预训练模型:PaddleNLP的预训练模型可以很容易地通过`from_pretrained`方法加载。第一个参数是汇总表中对应的 `Pretrained Weight`,可加载对应的预训练权重。`BertForSequenceClassification`初始化`__init__`所需的其他参数,如`num_classes`等,也是通过`from_pretrained`传入。`Tokenizer`使用同样的`from_pretrained`方法加载。
+3. 使用tokenier将dataset处理成模型的输入。此部分可以参考前述的详细示例代码。
+4. 定义训练所需的优化器,loss函数等,就可以开始进行模型fine-tune任务。
+
+更多详细使用方法,请参考[examples](https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/examples)。