diff --git a/.DS_Store b/.DS_Store index 216e53985329642f30a6aef220573241b500e323..b547a86d193f20bfba6c640e10dff62cf15e07d1 100644 Binary files a/.DS_Store and b/.DS_Store differ diff --git a/_posts/2019-09-16-benchmark_tools.md b/_posts/2019-09-16-benchmark_tools.md index 234a0e7453949053d75a42b0a2c7ea7eff559ee5..7269263f8a39eed59663929c55a67345baf0acbf 100644 --- a/_posts/2019-09-16-benchmark_tools.md +++ b/_posts/2019-09-16-benchmark_tools.md @@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8 #### 方式二:由源码编译benchmark_bin文件 -根据[源码编译](/source_compile)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行: +根据[源码编译]({{ site.baseurl }}/source_compile)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行: ```shell ########################################### @@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz > 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。 -注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](/model_optimize_tool)。 +注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法]({{ site.baseurl }}/model_optimize_tool)。 ### 3. benchmark.sh脚本 diff --git a/_posts/2019-09-16-cxx_api.md b/_posts/2019-09-16-cxx_api.md index 81e5d606ff9fa01b629d0bcd042b2b00bb2a615a..3e233126009e72118a5ba64d36ce8ac8029dcb14 100644 --- a/_posts/2019-09-16-cxx_api.md +++ b/_posts/2019-09-16-cxx_api.md @@ -5,7 +5,7 @@ title: C++ API接口使用指南 # C++ API接口使用指南 -请参考[源码编译](/source_compile)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。 +请参考[源码编译]({{ site.baseurl }}/source_compile)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。 ## 准备模型 @@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三 - 直接下载训练好的[MobileNetV1模型](https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz) - 使用[PaddlePaddle](https://paddlepaddle.org.cn/)构建MobileNetV1网络并训练 -- 使用[X2Paddle](/x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到 +- 使用[X2Paddle]({{ site.baseurl }}/x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到 ## 模型优化 -使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考[文档](/model_optimize_tool)。 +使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考[文档]({{ site.baseurl }}/model_optimize_tool)。 - 准备model_optimize_tool - 使用model_optimize_tool优化模型 diff --git a/_posts/2019-09-16-fpga.md b/_posts/2019-09-16-fpga.md index f1d5de929ed4fb2d1465a15e6eca1797f44c0110..4acfc21cb1a212f95191ef2af0886f0be293aef8 100644 --- a/_posts/2019-09-16-fpga.md +++ b/_posts/2019-09-16-fpga.md @@ -24,7 +24,7 @@ CMAKE编译选项: - 设置`LITE_WITH_FPGA=ON`和`LITE_WITH_ARM=ON` -其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](/source_compile)。 +其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”]({{ site.baseurl }}/source_compile)。 示例如下: ```shell cmake .. \ diff --git a/_posts/2019-09-16-java_demo.md b/_posts/2019-09-16-java_demo.md index 2e56f527b4074fc0295c234ae62d426b3d86bf1f..453e8f9aef48ab6b9f2bfff39b633da290d2ceb0 100644 --- a/_posts/2019-09-16-java_demo.md +++ b/_posts/2019-09-16-java_demo.md @@ -26,7 +26,7 @@ title: Java Android Demo ## 编译 -首先在PaddleLite的开发 [Docker镜像](/source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库, +首先在PaddleLite的开发 [Docker镜像]({{ site.baseurl }}/source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库, 下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令: ```shell diff --git a/_posts/2019-09-16-model_optimize_tool.md b/_posts/2019-09-16-model_optimize_tool.md index 7b29e0ad2701ab3e1f00c35874b590dffd351fa6..d0e80b0e531505b957e992ac03e19d4e89bac1f9 100644 --- a/_posts/2019-09-16-model_optimize_tool.md +++ b/_posts/2019-09-16-model_optimize_tool.md @@ -18,7 +18,7 @@ chmod 777 model_optimize_tool ### 编译model_optimize_tool -1、参照 [编译安装](/source_compile) 进行环境配置和编译 +1、参照 [编译安装]({{ site.baseurl }}/source_compile) 进行环境配置和编译 2、进入docker中PaddleLite根目录,```git checkout develop```切换到develop分支 diff --git a/_posts/2019-09-16-npu.md b/_posts/2019-09-16-npu.md index a57e1a97c2eccd18cbb10fff766b0467d1ec785e..f752db5f433d2c8869bdf6c1834c1a97134f1946 100644 --- a/_posts/2019-09-16-npu.md +++ b/_posts/2019-09-16-npu.md @@ -26,7 +26,7 @@ CMAKE编译选项: - 设置`LITE_WITH_NPU=ON`和`LITE_WITH_ARM=ON` - 设置DDK根目录路径 `NPU_DDK_ROOT` -其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](/source_compile)。 +其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”]({{ site.baseurl }}/source_compile)。 示例如下: ```shell diff --git a/_posts/2019-09-16-tutorial.md b/_posts/2019-09-16-tutorial.md index 53707abfc3690af5a234a74cb0bdb355ff2e0e76..fcf7d7360d9f9b69a5ab72c539fd4c6a76530653 100644 --- a/_posts/2019-09-16-tutorial.md +++ b/_posts/2019-09-16-tutorial.md @@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle # 二. 模型优化 -Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](/model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 +Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool]({{ site.baseurl }}/model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 -Model Optimize Tool的详细介绍,请您参考 [模型优化方法](/model_optimize_tool) 。 +Model Optimize Tool的详细介绍,请您参考 [模型优化方法]({{ site.baseurl }}/model_optimize_tool) 。 使用Model Optimize Tool,您只需执行以下代码: ## 1. Android @@ -72,8 +72,8 @@ $ adb shell # 四. Lite API -为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](/demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`。 +为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例]({{ site.baseurl }}/demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`。 # 五. 测试工具 -为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](/debug_tools) 和 [Profile Monitor Tool](/debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](/debug_tools) 了解更多内容。 +为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool]({{ site.baseurl }}/debug_tools) 和 [Profile Monitor Tool]({{ site.baseurl }}/debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题]({{ site.baseurl }}/debug_tools) 了解更多内容。 diff --git a/index.md b/index.md index 7b1aaa5ef4fe591b5cf2f4c1c6818b6a78c5b1de..6e7693b984215cce0528dd8901e476c8d0ac7a73 100644 --- a/index.md +++ b/index.md @@ -1,10 +1,8 @@ --- layout: post -title: Paddle-Lite 文档 +title: Paddle-Lite文档 --- -## 总体概述 - Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点**高性能、多硬件、轻量级** 。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等>多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。