diff --git a/deploy/README.md b/deploy/README.md index cdf95c42da37b209381470525e11ac0cab7e82f6..09654788f6b1037d708e7843ec14e426573ec4a6 100644 --- a/deploy/README.md +++ b/deploy/README.md @@ -5,7 +5,7 @@ ## 模型导出 训练得到一个满足要求的模型后,如果想要将该模型接入到C++服务器端预测库或移动端预测库,需要通过`tools/export_model.py`导出该模型。 -- [导出教程](../docs/advanced_tutorials/deploy/EXPORT_MODEL.md) +- [导出教程](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/advanced_tutorials/deploy/EXPORT_MODEL.md) 模型导出后, 目录结构如下(以`yolov3_darknet`为例): ``` @@ -18,6 +18,6 @@ yolov3_darknet # 模型目录 预测时,该目录所在的路径会作为程序的输入参数。 ## 预测部署 -- [1. Python预测(支持 Linux 和 Windows)](./python/) -- [2. C++预测(支持 Linux 和 Windows)](./cpp/) +- [1. Python预测(支持 Linux 和 Windows)](https://github.com/PaddlePaddle/PaddleDetection/blob/master/deploy/python) +- [2. C++预测(支持 Linux 和 Windows)](https://github.com/PaddlePaddle/PaddleDetection/blob/master/deploy/cpp) - [3. 移动端部署参考Paddle-Lite文档](https://paddle-lite.readthedocs.io/zh/latest/) diff --git a/deploy/cpp/README.md b/deploy/cpp/README.md index d7e55d1a7bf061f00a85255bde8de84b8e5dc66b..c7c5e50ff68c1ebe92b1fdcd5aef84309f101353 100644 --- a/deploy/cpp/README.md +++ b/deploy/cpp/README.md @@ -52,7 +52,7 @@ deploy/cpp ## 3.编译部署 ### 3.1 导出模型 -请确认您已经基于`PaddleDetection`的[export_model.py](../../tools/export_model.py)导出您的模型,并妥善保存到合适的位置。导出模型细节请参考 [导出模型教程](../../docs/advanced_tutorials/deploy/EXPORT_MODEL.md)。 +请确认您已经基于`PaddleDetection`的[export_model.py](https://github.com/PaddlePaddle/PaddleDetection/blob/master/tools/export_model.py)导出您的模型,并妥善保存到合适的位置。导出模型细节请参考 [导出模型教程](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/advanced_tutorials/deploy/EXPORT_MODEL.md)。 模型导出后, 目录结构如下(以`yolov3_darknet`为例): ``` @@ -67,5 +67,5 @@ yolov3_darknet # 模型目录 ### 3.2 编译 仅支持在`Windows`和`Linux`平台编译和使用 -- [Linux 编译指南](./docs/linux_build.md) -- [Windows编译指南(使用Visual Studio 2019)](./docs/windows_vs2019_build.md) +- [Linux 编译指南](https://github.com/PaddlePaddle/PaddleDetection/blob/master/deploy/cpp/docs/linux_build.md) +- [Windows编译指南(使用Visual Studio 2019)](https://github.com/PaddlePaddle/PaddleDetection/blob/master/deploy/cpp/docs/windows_vs2019_build.md) diff --git a/deploy/python/README.md b/deploy/python/README.md index 9c810ae1de2c21db787ec0a9055b455f886b496c..9de56f13bba1375872393fefa33328dc02049ce7 100644 --- a/deploy/python/README.md +++ b/deploy/python/README.md @@ -3,7 +3,7 @@ Python预测可以使用`tools/infer.py`,此种方式依赖PaddleDetection源码;也可以使用本篇教程预测方式,先将模型导出,使用一个独立的文件进行预测。 -本篇教程使用AnalysisPredictor对[导出模型](../../docs/advanced_tutorials/deploy/EXPORT_MODEL.md)进行高性能预测。 +本篇教程使用AnalysisPredictor对[导出模型](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/advanced_tutorials/deploy/EXPORT_MODEL.md)进行高性能预测。 在PaddlePaddle中预测引擎和训练引擎底层有着不同的优化方法, 下面列出了两种不同的预测方式。Executor同时支持训练和预测,AnalysisPredictor则专门针对推理进行了优化,是基于[C++预测库](https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/native_infer.html)的Python接口,该引擎可以对模型进行多项图优化,减少不必要的内存拷贝。如果用户在部署已训练模型的过程中对性能有较高的要求,我们提供了独立于PaddleDetection的预测脚本,方便用户直接集成部署。 @@ -18,7 +18,7 @@ Python预测可以使用`tools/infer.py`,此种方式依赖PaddleDetection源 ## 1. 导出预测模型 -PaddleDetection在训练过程包括网络的前向和优化器相关参数,而在部署过程中,我们只需要前向参数,具体参考:[导出模型](../../docs/advanced_tutorials/deploy/EXPORT_MODEL.md) +PaddleDetection在训练过程包括网络的前向和优化器相关参数,而在部署过程中,我们只需要前向参数,具体参考:[导出模型](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/advanced_tutorials/deploy/EXPORT_MODEL.md) 导出后目录下,包括`__model__`,`__params__`和`infer_cfg.yml`三个文件。 diff --git a/docs/advanced_tutorials/deploy/docs/windows_vs2015_build.md b/docs/advanced_tutorials/deploy/docs/windows_vs2015_build.md index c76bb0fb0d594d12f12963280ef39c8ad3e1420a..6182bf3114d73032340d7e25176ea85ed272245d 100644 --- a/docs/advanced_tutorials/deploy/docs/windows_vs2015_build.md +++ b/docs/advanced_tutorials/deploy/docs/windows_vs2015_build.md @@ -1,6 +1,6 @@ # Windows平台使用 Visual Studio 2015 编译指南 -本文档步骤,我们同时在`Visual Studio 2015` 和 `Visual Studio 2019 Community` 两个版本进行了测试,我们推荐使用[`Visual Studio 2019`直接编译`CMake`项目](./windows_vs2019_build.md)。 +本文档步骤,我们同时在`Visual Studio 2015` 和 `Visual Studio 2019 Community` 两个版本进行了测试,我们推荐使用[`Visual Studio 2019`直接编译`CMake`项目](https://github.com/PaddlePaddle/PaddleDetection/blob/master/deploy/cpp/docs/windows_vs2019_build.md)。 ## 前置条件 @@ -111,4 +111,4 @@ cd /d D:\projects\PaddleDetection\inference\build\release detection_demo.exe --conf=/path/to/your/conf --input_dir=/path/to/your/input/data/directory ``` -更详细说明请参考ReadMe文档: [预测和可视化部分](../README.md) +更详细说明请参考ReadMe文档: [预测和可视化部分](https://github.com/PaddlePaddle/PaddleDetection/blob/master/deploy/README.md) diff --git a/slim/distillation/README.md b/slim/distillation/README.md index a928b83917370b5cb130278037fb9e2bcd393b09..b984b4c724023d33b6d8848b567e9911f00ae88b 100644 --- a/slim/distillation/README.md +++ b/slim/distillation/README.md @@ -10,7 +10,7 @@ - [检测库的常规训练方法](https://github.com/PaddlePaddle/PaddleDetection) - [PaddleSlim蒸馏API文档](https://paddlepaddle.github.io/PaddleSlim/api/single_distiller_api/) -已发布蒸馏模型见[压缩模型库](../README.md) +已发布蒸馏模型见[压缩模型库](https://github.com/PaddlePaddle/PaddleDetection/blob/master/slim/README.md) ## 安装PaddleSlim 可按照[PaddleSlim使用文档](https://paddlepaddle.github.io/PaddleSlim/)中的步骤安装PaddleSlim diff --git a/slim/nas/README.md b/slim/nas/README.md index 59912dda1aff48c6ebc574111617e05ba9d2aef3..f571979f08cfaf2874d19fda856c9b4aa98d24fe 100644 --- a/slim/nas/README.md +++ b/slim/nas/README.md @@ -5,9 +5,9 @@ ## 概述 我们选取人脸检测的BlazeFace模型作为神经网络搜索示例,该示例使用[PaddleSlim](https://github.com/PaddlePaddle/PaddleSlim) -辅助完成神经网络搜索实验,具体技术细节,请您参考[神经网络搜索策略](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/tutorials/nas_demo.md)。
+辅助完成神经网络搜索实验,具体技术细节,请您参考[神经网络搜索策略](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/zh_cn/quick_start/nas_tutorial.md)。
基于PaddleSlim进行搜索实验过程中,搜索限制条件可以选择是浮点运算数(FLOPs)限制还是硬件延时(latency)限制,硬件延时限制需要提供延时表。本示例提供一份基于blazeface搜索空间的硬件延时表,名称是latency_855.txt(基于PaddleLite在骁龙855上测试的延时),可以直接用该表进行blazeface的硬件延时搜索实验。
-硬件延时表每个字段的含义可以参考:[硬件延时表说明](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/table_latency.md) +硬件延时表每个字段的含义可以参考:[硬件延时表说明](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/zh_cn/api_cn/table_latency.md) ## 定义搜索空间 @@ -48,7 +48,7 @@ blaze_filters与double_blaze_filters字段请参考[blazenet.py](https://github. ## 开始搜索 首先需要安装PaddleSlim,请参考[安装教程](https://paddlepaddle.github.io/PaddleSlim/#_2)。 -然后进入 `slim/nas`目录中,修改blazeface.yml配置,配置文件中搜索配置字段含义请参考[NAS-API文档](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/api/nas_api.md)
+然后进入 `slim/nas`目录中,修改blazeface.yml配置,配置文件中搜索配置字段含义请参考[NAS-API文档](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/zh_cn/api_cn/nas_api.rst)
配置文件blazeface.yml中的`Constraint`字段表示当前搜索实验的搜索限制条件实例:
- `ctype`:具体的限制条件,可以设置为flops或者latency,分别表示浮点运算数限制和硬件延时限制。 @@ -84,10 +84,10 @@ BlazeNet: - (2)训练、评估与预测: -启动完整的训练评估实验,可参考PaddleDetection的[训练、评估与预测流程](../../docs/tutorials/GETTING_STARTED_cn.md) +启动完整的训练评估实验,可参考PaddleDetection的[训练、评估与预测流程](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/tutorials/GETTING_STARTED_cn.md) ## 实验结果 -请参考[人脸检测模型库](../../configs/face_detection/README.md)中BlazeFace-NAS的实验结果。 +请参考[人脸检测模型库](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/featured_model/FACE_DETECTION.md)中BlazeFace-NAS的实验结果。 ## FAQ - 运行报错:`socket.error: [Errno 98] Address already in use`。 diff --git a/slim/prune/README.md b/slim/prune/README.md index 2b4eadc454b9a444a003d4df39e4f39600a70e14..f33954a99817d950547f381349cc77801f81c2bb 100644 --- a/slim/prune/README.md +++ b/slim/prune/README.md @@ -1,6 +1,6 @@ # 卷积层通道剪裁教程 -请确保已正确[安装PaddleDetection](../../docs/tutorials/INSTALL_cn.md)及其依赖。 +请确保已正确[安装PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/tutorials/INSTALL_cn.md)及其依赖。 该文档介绍如何使用[PaddleSlim](https://paddlepaddle.github.io/PaddleSlim)的卷积通道剪裁接口对检测库中的模型的卷积层的通道数进行剪裁。 @@ -8,15 +8,15 @@ 该教程中所示操作,如无特殊说明,均在`PaddleDetection/`路径下执行。 -已发布裁剪模型见[压缩模型库](../README.md) +已发布裁剪模型见[压缩模型库](https://github.com/PaddlePaddle/PaddleDetection/blob/master/slim/README.md) ## 1. 数据准备 -请参考检测库[数据下载](../../docs/tutorials/INSTALL_cn.md)文档准备数据。 +请参考检测库[数据下载](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/tutorials/INSTALL_cn.md)文档准备数据。 ## 2. 模型选择 -通过`-c`选项指定待裁剪模型的配置文件的相对路径,更多可选配置文件请参考: [检测库配置文件](https://github.com/PaddlePaddle/PaddleDetection/tree/release/0.1/configs) +通过`-c`选项指定待裁剪模型的配置文件的相对路径,更多可选配置文件请参考: [检测库配置文件](https://github.com/PaddlePaddle/PaddleDetection/tree/master/configs) 对于剪裁任务,原模型的权重不一定对剪裁后的模型训练的重训练有贡献,所以加载原模型的权重不是必需的步骤。 @@ -32,7 +32,7 @@ -o weights=output/yolov3_mobilenet_v1_voc/model_final ``` -官方已发布的模型请参考: [模型库](https://github.com/PaddlePaddle/PaddleDetection/blob/release/0.1/docs/README.md) +官方已发布的模型请参考: [模型库](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/MODEL_ZOO_cn.md) ## 3. 确定待分析参数 @@ -49,7 +49,7 @@ python slim/prune/prune.py \ ## 4. 分析待剪裁参数敏感度 -可通过敏感度分析脚本分析待剪裁参数敏感度得到合适的剪裁率,敏感度分析工具见[敏感度分析](../sensitive/README.md)。 +可通过敏感度分析脚本分析待剪裁参数敏感度得到合适的剪裁率,敏感度分析工具见[敏感度分析](https://github.com/PaddlePaddle/PaddleDetection/blob/master/slim/sensitive/README.md)。 ## 5. 启动剪裁任务 @@ -97,16 +97,16 @@ python slim/prune/export_model.py \ **当前PaddleSlim的剪裁功能不支持剪裁循环体或条件判断语句块内的卷积层,请避免剪裁循环和判断语句块前的一个卷积和语句块内部的卷积。** -对于[faster_rcnn_r50](../../configs/faster_rcnn_r50_1x.yml)或[mask_rcnn_r50](../../configs/mask_rcnn_r50_1x.yml)网络,请剪裁卷积`res4f_branch2c`之前的卷积。 +对于[faster_rcnn_r50](https://github.com/PaddlePaddle/PaddleDetection/blob/master/configs/faster_rcnn_r50_1x.yml)或[mask_rcnn_r50](https://github.com/PaddlePaddle/PaddleDetection/blob/master/configs/mask_rcnn_r50_1x.yml)网络,请剪裁卷积`res4f_branch2c`之前的卷积。 -对[faster_rcnn_r50](../../configs/faster_rcnn_r50_1x.yml)剪裁示例如下: +对[faster_rcnn_r50](https://github.com/PaddlePaddle/PaddleDetection/blob/master/configs/faster_rcnn_r50_1x.yml)剪裁示例如下: ``` # demo for faster_rcnn_r50 python slim/prune/prune.py -c ./configs/faster_rcnn_r50_1x.yml --pruned_params "res4f_branch2b_weights,res4f_branch2a_weights" --pruned_ratios="0.3,0.4" --eval ``` -对[mask_rcnn_r50](../../configs/mask_rcnn_r50_1x.yml)剪裁示例如下: +对[mask_rcnn_r50](https://github.com/PaddlePaddle/PaddleDetection/blob/master/configs/mask_rcnn_r50_1x.yml)剪裁示例如下: ``` # demo for mask_rcnn_r50 diff --git a/slim/sensitive/README.md b/slim/sensitive/README.md index cb7a5470b06a1a7ad811a855846754747c8fd2f1..e6a0795f37bd5dca9b2e33d9b5fdfb9b1dc930af 100644 --- a/slim/sensitive/README.md +++ b/slim/sensitive/README.md @@ -1,6 +1,6 @@ # 卷积层敏感度分析教程 -请确保已正确[安装PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection/blob/release/0.1/docs/INSTALL_cn.md)及其依赖。 +请确保已正确[安装PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/tutorials/INSTALL_cn.md)及其依赖。 该文档介绍如何使用[PaddleSlim](https://paddlepaddle.github.io/PaddleSlim)的敏感度分析接口对检测库中的模型的卷积层进行敏感度分析。 @@ -10,11 +10,11 @@ ## 数据准备 -请参考检测库[数据模块](../../docs/advanced_tutorials/READER.md)文档准备数据。 +请参考检测库[数据模块](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/tutorials/INSTALL_cn.md)文档准备数据。 ## 模型选择 -通过`-c`选项指定待分析模型的配置文件的相对路径,更多可选配置文件请参考: [检测库配置文件](https://github.com/PaddlePaddle/PaddleDetection/tree/release/0.1/configs) +通过`-c`选项指定待分析模型的配置文件的相对路径,更多可选配置文件请参考: [检测库配置文件](https://github.com/PaddlePaddle/PaddleDetection/blob/master/configs) 通过`-o weights`指定模型的权重,可以指定url或本地文件系统的路径。如下所示: @@ -28,7 +28,7 @@ -o weights=output/yolov3_mobilenet_v1_voc/model_final ``` -官方已发布的模型请参考: [模型库](../../docs/MODEL_ZOO_cn.md) +官方已发布的模型请参考: [模型库](https://github.com/PaddlePaddle/PaddleDetection/blob/master/docs/MODEL_ZOO_cn.md) ## 确定待分析参数