diff --git a/ppstructure/README.md b/ppstructure/README.md
index 99ee283f4ab6548fa6af04716f7b4bfd526f7631..ed409c4dc16ea035158c1825eb0df719fbff5f3e 100644
--- a/ppstructure/README.md
+++ b/ppstructure/README.md
@@ -17,20 +17,14 @@ English | [简体中文](README_ch.md)
- [7.2 OCR and table recognition model](#72-ocr-and-table-recognition-model)
- [7.3 DOC-VQA model](#73-doc-vqa-model)
-
-
## 1. Introduction
PP-Structure is an OCR toolkit that can be used for document analysis and processing with complex structures, designed to help developers better complete document understanding tasks
-
-
## 2. Update log
* 2022.02.12 DOC-VQA add LayoutLMv2 model。
* 2021.12.07 add [DOC-VQA SER and RE tasks](vqa/README.md)。
-
-
## 3. Features
The main features of PP-Structure are as follows:
@@ -42,21 +36,14 @@ The main features of PP-Structure are as follows:
- Support custom training for layout analysis and table structure tasks
- Support Document Visual Question Answering (DOC-VQA) tasks: Semantic Entity Recognition (SER) and Relation Extraction (RE)
-
-
-
## 4. Results
-
-
### 4.1 Layout analysis and table recognition
The figure shows the pipeline of layout analysis + table recognition. The image is first divided into four areas of image, text, title and table by layout analysis, and then OCR detection and recognition is performed on the three areas of image, text and title, and the table is performed table recognition, where the image will also be stored for use.
-
-
### 4.2 DOC-VQA
* SER
@@ -81,19 +68,12 @@ The corresponding category and OCR recognition results are also marked at the to
In the figure, the red box represents the question, the blue box represents the answer, and the question and answer are connected by green lines. The corresponding category and OCR recognition results are also marked at the top left of the OCR detection box.
-
-
-
## 5. Quick start
Start from [Quick Installation](./docs/quickstart.md)
-
-
## 6. PP-Structure System
-
-
### 6.1 Layout analysis and table recognition
![pipeline](../doc/table/pipeline.jpg)
@@ -108,30 +88,20 @@ Layout analysis classifies image by region, including the use of Python scripts
Table recognition converts table images into excel documents, which include the detection and recognition of table text and the prediction of table structure and cell coordinates. For detailed instructions, please refer to [document](table/README.md)
-
-
### 6.2 DOC-VQA
Document Visual Question Answering (DOC-VQA) if a type of Visual Question Answering (VQA), which includes Semantic Entity Recognition (SER) and Relation Extraction (RE) tasks. Based on SER task, text recognition and classification in images can be completed. Based on THE RE task, we can extract the relation of the text content in the image, such as judge the problem pair. For details, please refer to [document](vqa/README.md)
-
-
-
## 7. Model List
PP-Structure Series Model List (Updating)
-
-
-
### 7.1 Layout analysis model
|model name|description|download|
| --- | --- | --- |
| ppyolov2_r50vd_dcn_365e_publaynet | The layout analysis model trained on the PubLayNet dataset can divide image into 5 types of areas **text, title, table, picture, and list** | [PubLayNet](https://paddle-model-ecology.bj.bcebos.com/model/layout-parser/ppyolov2_r50vd_dcn_365e_publaynet.tar) |
-
-
### 7.2 OCR and table recognition model
|model name|description|model size|download|
@@ -140,8 +110,6 @@ PP-Structure Series Model List (Updating)
|ch_PP-OCRv2_rec_slim|Slim qunatization with distillation lightweight model, supporting Chinese, English, multilingual text recognition| 9M |[inference model](https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_infer.tar) / [trained model](https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_train.tar) |
|en_ppocr_mobile_v2.0_table_structure|Table structure prediction of English table scene trained on PubLayNet dataset| 18.6M |[inference model](https://paddleocr.bj.bcebos.com/dygraph_v2.0/table/en_ppocr_mobile_v2.0_table_structure_infer.tar) / [trained model](https://paddleocr.bj.bcebos.com/dygraph_v2.1/table/en_ppocr_mobile_v2.0_table_structure_train.tar) |
-
-
### 7.3 DOC-VQA model
|model name|description|model size|download|
diff --git a/ppstructure/README_ch.md b/ppstructure/README_ch.md
index 901ced7f952820c2d50360447de380f10bacd3f7..2912b550ee55a168b56efe88de15c44ab1f7c301 100644
--- a/ppstructure/README_ch.md
+++ b/ppstructure/README_ch.md
@@ -37,17 +37,12 @@ PP-Structure的主要特性如下:
## 4. 效果展示
-
-
### 4.1 版面分析和表格识别
图中展示了版面分析+表格识别的整体流程,图片先有版面分析划分为图像、文本、标题和表格四种区域,然后对图像、文本和标题三种区域进行OCR的检测识别,对表格进行表格识别,其中图像还会被存储下来以便使用。
-
-
-
### 4.2 DOC-VQA
* SER
@@ -71,18 +66,12 @@ PP-Structure的主要特性如下:
图中红色框表示问题,蓝色框表示答案,问题和答案之间使用绿色线连接。在OCR检测框的左上方也标出了对应的类别和OCR识别结果。
-
-
## 5. 快速体验
请参考[快速安装](./docs/quickstart.md)教程。
-
-
## 6. PP-Structure 介绍
-
-
### 6.1 版面分析+表格识别
![pipeline](../doc/table/pipeline.jpg)
@@ -97,28 +86,20 @@ PP-Structure的主要特性如下:
表格识别将表格图片转换为excel文档,其中包含对于表格文本的检测和识别以及对于表格结构和单元格坐标的预测,详细说明参考[文档](table/README_ch.md)。
-
-
### 6.2 DOC-VQA
DOC-VQA指文档视觉问答,其中包括语义实体识别 (Semantic Entity Recognition, SER) 和关系抽取 (Relation Extraction, RE) 任务。基于 SER 任务,可以完成对图像中的文本识别与分类;基于 RE 任务,可以完成对图象中的文本内容的关系提取,如判断问题对(pair),详细说明参考[文档](vqa/README.md)。
-
-
## 7. 模型库
PP-Structure系列模型列表(更新中)
-
-
### 7.1 版面分析模型
|模型名称|模型简介|下载地址|
| --- | --- | --- |
| ppyolov2_r50vd_dcn_365e_publaynet | PubLayNet 数据集训练的版面分析模型,可以划分**文字、标题、表格、图片以及列表**5类区域 | [PubLayNet](https://paddle-model-ecology.bj.bcebos.com/model/layout-parser/ppyolov2_r50vd_dcn_365e_publaynet.tar) |
-
-
### 7.2 OCR和表格识别模型
|模型名称|模型简介|模型大小|下载地址|
@@ -127,8 +108,6 @@ PP-Structure系列模型列表(更新中)
|ch_PP-OCRv2_rec_slim|【最新】slim量化版超轻量模型,支持中英文、数字识别| 9M |[推理模型](https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_infer.tar) / [训练模型](https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_train.tar) |
|en_ppocr_mobile_v2.0_table_structure|PubLayNet数据集训练的英文表格场景的表格结构预测|18.6M|[推理模型](https://paddleocr.bj.bcebos.com/dygraph_v2.0/table/en_ppocr_mobile_v2.0_table_structure_infer.tar) / [训练模型](https://paddleocr.bj.bcebos.com/dygraph_v2.1/table/en_ppocr_mobile_v2.0_table_structure_train.tar) |
-
-
### 7.2 DOC-VQA 模型
|模型名称|模型简介|模型大小|下载地址|
diff --git a/ppstructure/docs/installation.md b/ppstructure/docs/installation.md
index 30c25d5dc92f6ccdb0d93dafe9707f30eca0c0a9..155baf29de5701b58c9342cf82897b23f4ab7e45 100644
--- a/ppstructure/docs/installation.md
+++ b/ppstructure/docs/installation.md
@@ -1,3 +1,9 @@
+- [快速安装](#快速安装)
+ - [1. PaddlePaddle 和 PaddleOCR](#1-paddlepaddle-和-paddleocr)
+ - [2. 安装其他依赖](#2-安装其他依赖)
+ - [2.1 版面分析所需 Layout-Parser](#21-版面分析所需--layout-parser)
+ - [2.2 VQA所需依赖](#22--vqa所需依赖)
+
# 快速安装
## 1. PaddlePaddle 和 PaddleOCR
diff --git a/ppstructure/docs/kie.md b/ppstructure/docs/kie.md
index 21854b0d24b0b2bbe6a4612b1112b201c5df255d..35498b33478d1010fd2548dfcb8586b4710723a1 100644
--- a/ppstructure/docs/kie.md
+++ b/ppstructure/docs/kie.md
@@ -1,4 +1,8 @@
-
+- [关键信息提取(Key Information Extraction)](#关键信息提取key-information-extraction)
+ - [1. 快速使用](#1-快速使用)
+ - [2. 执行训练](#2-执行训练)
+ - [3. 执行评估](#3-执行评估)
+ - [4. 参考文献](#4-参考文献)
# 关键信息提取(Key Information Extraction)
@@ -7,11 +11,6 @@
SDMGR是一个关键信息提取算法,将每个检测到的文本区域分类为预定义的类别,如订单ID、发票号码,金额等。
-* [1. 快速使用](#1-----)
-* [2. 执行训练](#2-----)
-* [3. 执行评估](#3-----)
-
-
## 1. 快速使用
训练和测试的数据采用wildreceipt数据集,通过如下指令下载数据集:
@@ -36,7 +35,6 @@ python3.7 tools/infer_kie.py -c configs/kie/kie_unet_sdmgr.yml -o Global.checkpo
-
## 2. 执行训练
创建数据集软链到PaddleOCR/train_data目录下:
@@ -50,7 +48,6 @@ ln -s ../../wildreceipt ./
```
python3.7 tools/train.py -c configs/kie/kie_unet_sdmgr.yml -o Global.save_model_dir=./output/kie/
```
-
## 3. 执行评估
```
@@ -58,7 +55,7 @@ python3.7 tools/eval.py -c configs/kie/kie_unet_sdmgr.yml -o Global.checkpoints=
```
-**参考文献:**
+## 4. 参考文献
diff --git a/ppstructure/docs/kie_en.md b/ppstructure/docs/kie_en.md
index a424968a9b5a33132afe52a4850cfe541919ae1c..1fe38b0b399e9290526dafa5409673dc87026db7 100644
--- a/ppstructure/docs/kie_en.md
+++ b/ppstructure/docs/kie_en.md
@@ -1,4 +1,8 @@
-
+- [Key Information Extraction(KIE)](#key-information-extractionkie)
+ - [1. Quick Use](#1-quick-use)
+ - [2. Model Training](#2-model-training)
+ - [3. Model Evaluation](#3-model-evaluation)
+ - [4. Reference](#4-reference)
# Key Information Extraction(KIE)
@@ -6,13 +10,6 @@ This section provides a tutorial example on how to quickly use, train, and evalu
[SDMGR(Spatial Dual-Modality Graph Reasoning)](https://arxiv.org/abs/2103.14470) is a KIE algorithm that classifies each detected text region into predefined categories, such as order ID, invoice number, amount, and etc.
-
-* [1. Quick Use](#1-----)
-* [2. Model Training](#2-----)
-* [3. Model Evaluation](#3-----)
-
-
-
## 1. Quick Use
[Wildreceipt dataset](https://paperswithcode.com/dataset/wildreceipt) is used for this tutorial. It contains 1765 photos, with 25 classes, and 50000 text boxes, which can be downloaded by wget:
@@ -37,7 +34,6 @@ The visualization results are shown in the figure below:
-
## 2. Model Training
Create a softlink to the folder, `PaddleOCR/train_data`:
@@ -51,7 +47,6 @@ The configuration file used for training is `configs/kie/kie_unet_sdmgr.yml`. Th
```shell
python3.7 tools/train.py -c configs/kie/kie_unet_sdmgr.yml -o Global.save_model_dir=./output/kie/
```
-
## 3. Model Evaluation
@@ -61,7 +56,7 @@ After training, you can execute the model evaluation with the following command:
python3.7 tools/eval.py -c configs/kie/kie_unet_sdmgr.yml -o Global.checkpoints=./output/kie/best_accuracy
```
-**Reference:**
+## 4. Reference
diff --git a/ppstructure/docs/models_list.md b/ppstructure/docs/models_list.md
index 4f6a4fffff15e137fcd9a2f7ff46b613815ce8bf..bedb3897d8571e54ff6892cd886188ff935b4f77 100644
--- a/ppstructure/docs/models_list.md
+++ b/ppstructure/docs/models_list.md
@@ -7,12 +7,8 @@
- [3. VQA模型](#3-vqa模型)
- [4. KIE模型](#4-kie模型)
-
-
# Model List
-
-
## 1. LayoutParser 模型
|模型名称|模型简介|下载地址|
@@ -21,12 +17,8 @@
| ppyolov2_r50vd_dcn_365e_tableBank_word | TableBank Word 数据集训练的版面分析模型,只能检测表格 | [TableBank Word](https://paddle-model-ecology.bj.bcebos.com/model/layout-parser/ppyolov2_r50vd_dcn_365e_tableBank_word.tar) |
| ppyolov2_r50vd_dcn_365e_tableBank_latex | TableBank Latex 数据集训练的版面分析模型,只能检测表格 | [TableBank Latex](https://paddle-model-ecology.bj.bcebos.com/model/layout-parser/ppyolov2_r50vd_dcn_365e_tableBank_latex.tar) |
-
-
## 2. OCR和表格识别模型
-
-
### 2.1 OCR
|模型名称|模型简介|推理模型大小|下载地址|
@@ -36,16 +28,12 @@
如需要使用其他OCR模型,可以在 [PP-OCR model_list](../../doc/doc_ch/models_list.md) 下载模型或者使用自己训练好的模型配置到 `det_model_dir`, `rec_model_dir`两个字段即可。
-
-
### 2.2 格识别模型
|模型名称|模型简介|推理模型大小|下载地址|
| --- | --- | --- | --- |
|en_ppocr_mobile_v2.0_table_structure|PubLayNet数据集训练的英文表格场景的表格结构预测|18.6M|[推理模型](https://paddleocr.bj.bcebos.com/dygraph_v2.0/table/en_ppocr_mobile_v2.0_table_structure_infer.tar) / [训练模型](https://paddleocr.bj.bcebos.com/dygraph_v2.1/table/en_ppocr_mobile_v2.0_table_structure_train.tar) |
-
-
## 3. VQA模型
|模型名称|模型简介|推理模型大小|下载地址|
@@ -56,8 +44,6 @@
|re_LayoutLMv2_xfun_zh|基于LayoutLMv2在xfun中文数据集上训练的RE模型|765M|[推理模型 coming soon]() / [训练模型](https://paddleocr.bj.bcebos.com/pplayout/re_LayoutLMv2_xfun_zh.tar) |
|ser_LayoutLM_xfun_zh|基于LayoutLM在xfun中文数据集上训练的SER模型|430M|[推理模型 coming soon]() / [训练模型](https://paddleocr.bj.bcebos.com/pplayout/ser_LayoutLM_xfun_zh.tar) |
-
-
## 4. KIE模型
|模型名称|模型简介|模型大小|下载地址|
diff --git a/ppstructure/docs/quickstart.md b/ppstructure/docs/quickstart.md
index 668775c6da2b06d973f69a9ce81a37396460cbdf..7016f0fcb6c10176cf6f9d30457a5ff98d2b06e1 100644
--- a/ppstructure/docs/quickstart.md
+++ b/ppstructure/docs/quickstart.md
@@ -1,15 +1,13 @@
# PP-Structure 快速开始
-* [1. 安装PaddleOCR whl包](#1)
-* [2. 便捷使用](#2)
- + [2.1 命令行使用](#21)
- + [2.2 Python脚本使用](#22)
- + [2.3 返回结果说明](#23)
- + [2.4 参数说明](#24)
-* [3. Python脚本使用](#3)
-
-
-
+- [PP-Structure 快速开始](#pp-structure-快速开始)
+ - [1. 安装依赖包](#1-安装依赖包)
+ - [2. 便捷使用](#2-便捷使用)
+ - [2.1 命令行使用](#21-命令行使用)
+ - [2.2 Python脚本使用](#22-python脚本使用)
+ - [2.3 返回结果说明](#23-返回结果说明)
+ - [2.4 参数说明](#24-参数说明)
+ - [3. Python脚本使用](#3-python脚本使用)
## 1. 安装依赖包
@@ -24,12 +22,8 @@ pip3 install -e .
```
-
-
## 2. 便捷使用
-
-
### 2.1 命令行使用
* 版面分析+表格识别
@@ -41,8 +35,6 @@ paddleocr --image_dir=../doc/table/1.png --type=structure
请参考:[文档视觉问答](../vqa/README.md)。
-
-
### 2.2 Python脚本使用
* 版面分析+表格识别
@@ -76,8 +68,6 @@ im_show.save('result.jpg')
请参考:[文档视觉问答](../vqa/README.md)。
-
-
### 2.3 返回结果说明
PP-Structure的返回结果为一个dict组成的list,示例如下
@@ -103,8 +93,6 @@ dict 里各个字段说明如下
请参考:[文档视觉问答](../vqa/README.md)。
-
-
### 2.4 参数说明
| 字段 | 说明 | 默认值 |
@@ -122,8 +110,6 @@ dict 里各个字段说明如下
运行完成后,每张图片会在`output`字段指定的目录下有一个同名目录,图片里的每个表格会存储为一个excel,图片区域会被裁剪之后保存下来,excel文件和图片名名为表格在图片里的坐标。
-
-
## 3. Python脚本使用
* 版面分析+表格识别
diff --git a/ppstructure/vqa/README.md b/ppstructure/vqa/README.md
index 4e804565822dd1823081d6daa4173d33ff6fff07..ea78a8d5e27d6cbde9ebb03b9842ef41b42513ea 100644
--- a/ppstructure/vqa/README.md
+++ b/ppstructure/vqa/README.md
@@ -16,8 +16,6 @@
# 文档视觉问答(DOC-VQA)
-
-
## 1. 简介
VQA指视觉问答,主要针对图像内容进行提问和回答,DOC-VQA是VQA任务中的一种,DOC-VQA主要针对文本图像的文字内容提出问题。
@@ -36,8 +34,6 @@ PP-Structure 里的 DOC-VQA算法基于PaddleNLP自然语言处理算法库进
本项目是 [LayoutXLM: Multimodal Pre-training for Multilingual Visually-rich Document Understanding](https://arxiv.org/pdf/2104.08836.pdf) 在 Paddle 2.2上的开源实现,
包含了在 [XFUND数据集](https://github.com/doc-analysis/XFUND) 上的微调代码。
-
-
## 2. 性能
我们在 [XFUN](https://github.com/doc-analysis/XFUND) 的中文数据集上对算法进行了评估,性能如下
@@ -50,14 +46,10 @@ PP-Structure 里的 DOC-VQA算法基于PaddleNLP自然语言处理算法库进
| LayoutLMv2 | RE | 0.6777 | [链接](https://paddleocr.bj.bcebos.com/pplayout/re_LayoutLMv2_xfun_zh.tar) |
| LayoutLM | SER | 0.7731 | [链接](https://paddleocr.bj.bcebos.com/pplayout/ser_LayoutLM_xfun_zh.tar) |
-
-
## 3. 效果演示
**注意:** 测试图片来源于XFUN数据集。
-
-
### 3.1 SER
![](../../doc/vqa/result_ser/zh_val_0_ser.jpg) | ![](../../doc/vqa/result_ser/zh_val_42_ser.jpg)
@@ -71,8 +63,6 @@ PP-Structure 里的 DOC-VQA算法基于PaddleNLP自然语言处理算法库进
在OCR检测框的左上方也标出了对应的类别和OCR识别结果。
-
-
### 3.2 RE
![](../../doc/vqa/result_re/zh_val_21_re.jpg) | ![](../../doc/vqa/result_re/zh_val_40_re.jpg)
@@ -81,12 +71,8 @@ PP-Structure 里的 DOC-VQA算法基于PaddleNLP自然语言处理算法库进
图中红色框表示问题,蓝色框表示答案,问题和答案之间使用绿色线连接。在OCR检测框的左上方也标出了对应的类别和OCR识别结果。
-
-
## 4. 安装
-
-
### 4.1 安装依赖
- **(1) 安装PaddlePaddle**
@@ -103,8 +89,6 @@ python3 -m pip install "paddlepaddle>=2.2" -i https://mirror.baidu.com/pypi/simp
```
更多需求,请参照[安装文档](https://www.paddlepaddle.org.cn/install/quick)中的说明进行操作。
-
-
### 4.2 安装PaddleOCR(包含 PP-OCR 和 VQA)
- **(1)pip快速安装PaddleOCR whl包(仅预测)**
@@ -129,12 +113,9 @@ git clone https://gitee.com/paddlepaddle/PaddleOCR
```bash
python3 -m pip install -r ppstructure/vqa/requirements.txt
```
-
## 5. 使用
-
-
### 5.1 数据和预训练模型准备
如果希望直接体验预测过程,可以下载我们提供的预训练模型,跳过训练过程,直接预测即可。
@@ -158,8 +139,6 @@ wget https://paddleocr.bj.bcebos.com/dataset/XFUND.tar
python3 ppstructure/vqa/helper/trans_xfun_data.py --ori_gt_path=path/to/json_path --output_path=path/to/save_path
```
-
-
### 5.2 SER
启动训练之前,需要修改下面的四个字段
@@ -213,8 +192,6 @@ export CUDA_VISIBLE_DEVICES=0
python3 helper/eval_with_label_end2end.py --gt_json_path XFUND/zh_val/xfun_normalize_val.json --pred_json_path output_res/infer_results.txt
```
-
-
### 5.3 RE
* 启动训练
@@ -260,8 +237,6 @@ python3 tools/infer_vqa_token_ser_re.py -c configs/vqa/re/layoutxlm.yml -o Archi
最终会在`config.Global.save_res_path`字段所配置的目录下保存预测结果可视化图像以及预测结果文本文件,预测结果文本文件名为`infer_results.txt`。
-
-
## 6. 参考链接
- LayoutXLM: Multimodal Pre-training for Multilingual Visually-rich Document Understanding, https://arxiv.org/pdf/2104.08836.pdf