From fc00119d91876862e6e4998e439fd67a29237bfb Mon Sep 17 00:00:00 2001 From: Jethong <1147925384@qq.com> Date: Mon, 12 Apr 2021 19:43:03 +0800 Subject: [PATCH] fix faq question --- doc/doc_ch/FAQ.md | 12 ++++++------ 1 file changed, 6 insertions(+), 6 deletions(-) diff --git a/doc/doc_ch/FAQ.md b/doc/doc_ch/FAQ.md index 19180e9f..a1dd9ce8 100755 --- a/doc/doc_ch/FAQ.md +++ b/doc/doc_ch/FAQ.md @@ -27,16 +27,16 @@ **A**: PGNet目前可以使用四点标注数据集,也可以使用多点标注数据集(十四点),多点标注训练的效果要比四点的好,一种可以尝试的策略是先在四点数据集上训练,之后用多点数据集在此基础上继续训练。 #### Q2.3.21: 端到端算法PGNet是否支持中文识别,速度会很慢嘛? -**A**:目前开源的PGNet算法模型主要是用于检测英文数字,对于中文的识别需要自己训练,大家可以使用开源的端到端中文数据集,而对于复杂文本(弯曲文本)的识别,也可以自己构造一批数据集针对进行训练,对于推理速度,可以将模型转换为inference,速度应该会是一个比较可观的结果。 +**A**:目前开源的PGNet算法模型主要是用于检测英文数字,对于中文的识别需要自己训练,大家可以使用开源的端到端中文数据集,而对于复杂文本(弯曲文本)的识别,也可以自己构造一批数据集针对进行训练,对于推理速度,可以先将模型转换为inference再进行预测,速度应该会相当可观。 #### Q3.1.57: 端到端算法PGNet提供了两种后处理方式,两者之间有什么区别呢? -**A**: 两种后处理的区别主要在于速度的推理,config中PostProcess有fast/slow两种模式,一种速度慢,精度相对较高,另外一种速度快,精度也在可接受的范围之内。建议使用速度快的后处理方式。 +**A**: 两种后处理的区别主要在于速度的推理,config中PostProcess有fast/slow两种模式,slow模式的后处理速度慢,精度相对较高,fast模式的后处理速度快,精度也在可接受的范围之内。建议使用速度快的后处理方式。 #### Q3.3.34: 表格识别中,如何提高单字的识别结果? **A**: 首先需要确认一下检测模型有没有有效的检测出单个字符,如果没有的话,需要在训练集当中添加相应的单字数据集。 #### Q3.4.41: PaddleOCR持tensorrt推理吗? -**A**: 支持的,需要在编译的时候将CMakeLists.txt文件当中,将相关代码`option(WITH_TENSORRT "Compile demo with TensorRT." OFF)`的OFF改成ON。 +**A**: 支持的,需要在编译的时候将CMakeLists.txt文件当中,将相关代码`option(WITH_TENSORRT "Compile demo with TensorRT." OFF)`的OFF改成ON。关于服务器端部署的更多设置,可以参考[飞桨官网](https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/05_inference_deployment/inference/native_infer.html) ## 【精选】OCR精选10个问题 @@ -317,7 +317,7 @@ **A**:在不同的硬件上,不同的backbone的速度优势不同,可以根据不同平台的速度-精度图来确定backbone,这里可以参考[PaddleClas模型速度-精度图](https://github.com/PaddlePaddle/PaddleClas/tree/release/2.0/docs/zh_CN/models)。 #### Q2.3.21: 端到端算法PGNet是否支持中文识别,速度会很慢嘛? -**A**:目前开源的PGNet算法模型主要是用于检测英文数字,对于中文的识别需要自己训练,大家可以使用开源的端到端中文数据集,而对于复杂文本(弯曲文本)的识别,也可以自己构造一批数据集针对进行训练,对于推理速度,可以将模型转换为inference,速度应该会是一个比较可观的结果。 +**A**:目前开源的PGNet算法模型主要是用于检测英文数字,对于中文的识别需要自己训练,大家可以使用开源的端到端中文数据集,而对于复杂文本(弯曲文本)的识别,也可以自己构造一批数据集针对进行训练,对于推理速度,可以先将模型转换为inference再进行预测,速度应该会相当可观。 ## 【实战篇】PaddleOCR实战问题 @@ -611,7 +611,7 @@ repo中config.yml文件的前后处理参数和inference预测默认的超参数 **A**: 如果矩形框标注后空白冗余较多,可以尝试PPOCRLabel提供的四点标注,可以标注各种倾斜角度的文本。 #### Q3.1.57: 端到端算法PGNet提供了两种后处理方式,两者之间有什么区别呢? -**A**: 两种后处理的区别主要在于速度的推理,config中PostProcess有fast/slow两种模式,一种速度慢,精度相对较高,另外一种速度快,精度也在可接受的范围之内。建议使用速度快的后处理方式。 +**A**: 两种后处理的区别主要在于速度的推理,config中PostProcess有fast/slow两种模式,slow模式的后处理速度慢,精度相对较高,fast模式的后处理速度快,精度也在可接受的范围之内。建议使用速度快的后处理方式。 @@ -1085,4 +1085,4 @@ nvidia-smi --lock-gpu-clocks=1590 -i 0 **A**: 首先,测试的时候第一张图延时较高,可以多测试几张然后观察后几张图的速度;其次,如果是在cpu端部署serving端模型(如backbone为ResNet34),耗时较慢,建议在cpu端部署mobile(如backbone为MobileNetV3)模型。 #### Q3.4.41: PaddleOCR支持tensorrt推理吗? -**A**: 支持的,需要在编译的时候将CMakeLists.txt文件当中,将相关代码`option(WITH_TENSORRT "Compile demo with TensorRT." OFF)`的OFF改成ON。 +**A**: 支持的,需要在编译的时候将CMakeLists.txt文件当中,将相关代码`option(WITH_TENSORRT "Compile demo with TensorRT." OFF)`的OFF改成ON。关于服务器端部署的更多设置,可以参考[飞桨官网](https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/05_inference_deployment/inference/native_infer.html) -- GitLab