From 5108630fc938c1ae61bc28dbdf8e6d8061b2cf8f Mon Sep 17 00:00:00 2001 From: juncaipeng <13006307475@163.com> Date: Tue, 17 Sep 2019 17:12:30 +0800 Subject: [PATCH] up --- _posts/2019-09-16-README.markdown | 58 ---------------------------- _posts/2019-09-16-benchmark_tools.md | 2 +- _posts/2019-09-16-tutorial.md | 8 ++-- 3 files changed, 5 insertions(+), 63 deletions(-) delete mode 100644 _posts/2019-09-16-README.markdown diff --git a/_posts/2019-09-16-README.markdown b/_posts/2019-09-16-README.markdown deleted file mode 100644 index f6edf8d757..0000000000 --- a/_posts/2019-09-16-README.markdown +++ /dev/null @@ -1,58 +0,0 @@ ---- -layout: post -title: Paddle-Lite 文档 ---- - -## 总体概述 - -Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点**高性能、多硬件、轻量级** 。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。 - - -## 简介 - -- [技术特点](./tech_highlights) -- [架构设计](./architecture) -- [Road Map](./roadmap) - -## Benchmark - -- [最新性能](./benchmark) -- [测试方法](./benchmark_tools) - -## 安装 - -- [源码编译](./source_compile) - -## 使用 - -- [使用流程](./tutorial) -- [C++实例](./cpp_demo) -- [Java实例](./java_demo) -- [Android/IOS APP demo](https://github.com/PaddlePaddle/Paddle-Lite-Demo) -- [模型转化方法](./model_optimize_tool) - -## 进阶 - -- [通过 X2Paddle 支持 Caffe, TensorFlow 模型](x2paddle) -- [模型量化](./model_quantization) -- [支持Op列表](./support_operation_list) -- [新增Op方法](./add_new_operation) -- [测试工具](./debug_tools) -- [调试方法](./debug_tools) -- [使用华为NPU](./npu) -- [使用Android GPU](./opencl) -- [使用FPGA](./fpga) - -## 开发者文档 - -- [开发基础须知](./for-developer) -- [架构详解](./architecture-intro) - -## FAQ - -- 问题或建议可以[发Issue](https://github.com/PaddlePaddle/Paddle-Lite/issues),为加快问题解决效率,可先检索是否有类似问题,我们也会及时解答! -- 欢迎加入Paddle-Lite百度官方QQ群:696965088 - -## paddle-mobile - -- [paddle-mobile 编译](./mobile) diff --git a/_posts/2019-09-16-benchmark_tools.md b/_posts/2019-09-16-benchmark_tools.md index 33345d11f4..e2eff3352c 100644 --- a/_posts/2019-09-16-benchmark_tools.md +++ b/_posts/2019-09-16-benchmark_tools.md @@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz > 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。 -注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](./model_optimize_tool)。 +注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](model_optimize_tool.html)。 ### 3. benchmark.sh脚本 diff --git a/_posts/2019-09-16-tutorial.md b/_posts/2019-09-16-tutorial.md index 3700010db7..1a2b40ca1e 100644 --- a/_posts/2019-09-16-tutorial.md +++ b/_posts/2019-09-16-tutorial.md @@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle # 二. 模型优化 -Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](./model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 +Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](model_optimize_tool.html)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 -Model Optimize Tool的详细介绍,请您参考 [模型优化方法](./model_optimize_tool) 。 +Model Optimize Tool的详细介绍,请您参考 [模型优化方法](model_optimize_tool.html) 。 使用Model Optimize Tool,您只需执行以下代码: ## 1. Android @@ -72,8 +72,8 @@ $ adb shell # 四. Lite API -为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](./demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`。 +为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](demos.html),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`。 # 五. 测试工具 -为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](./debug_tools) 和 [Profile Monitor Tool](./debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](./debug_tools) 了解更多内容。 +为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](debug_tools.html) 和 [Profile Monitor Tool](debug_tools.html)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](debug_tools.html) 了解更多内容。 -- GitLab