提交 545ca96d 编写于 作者: J juncaipeng

up

上级 2a9a3477
...@@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8 ...@@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8
#### 方式二:由源码编译benchmark_bin文件 #### 方式二:由源码编译benchmark_bin文件
根据[源码编译](source_compile.html)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行: 根据[源码编译](/source_compile)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行:
```shell ```shell
########################################### ###########################################
...@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz ...@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。 > 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](model_optimize_tool.html) 注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](/model_optimize_tool)
### 3. benchmark.sh脚本 ### 3. benchmark.sh脚本
......
...@@ -5,7 +5,7 @@ title: C++ API接口使用指南 ...@@ -5,7 +5,7 @@ title: C++ API接口使用指南
# C++ API接口使用指南 # C++ API接口使用指南
请参考[源码编译](./source_compile.md)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。 请参考[源码编译](/source_compile)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。
## 准备模型 ## 准备模型
...@@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三 ...@@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三
- 直接下载训练好的[MobileNetV1模型](https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz) - 直接下载训练好的[MobileNetV1模型](https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz)
- 使用[PaddlePaddle](https://paddlepaddle.org.cn/)构建MobileNetV1网络并训练 - 使用[PaddlePaddle](https://paddlepaddle.org.cn/)构建MobileNetV1网络并训练
- 使用[X2Paddle](./x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到 - 使用[X2Paddle](/x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到
## 模型优化 ## 模型优化
使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考[文档](./model_optimize_tool) 使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考[文档](/model_optimize_tool)
- 准备model_optimize_tool - 准备model_optimize_tool
- 使用model_optimize_tool优化模型 - 使用model_optimize_tool优化模型
......
...@@ -24,7 +24,7 @@ CMAKE编译选项: ...@@ -24,7 +24,7 @@ CMAKE编译选项:
- 设置`LITE_WITH_FPGA=ON``LITE_WITH_ARM=ON` - 设置`LITE_WITH_FPGA=ON``LITE_WITH_ARM=ON`
其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](source_compile.html) 其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](/source_compile)
示例如下: 示例如下:
```shell ```shell
cmake .. \ cmake .. \
......
...@@ -26,7 +26,7 @@ title: Java Android Demo ...@@ -26,7 +26,7 @@ title: Java Android Demo
## 编译 ## 编译
首先在PaddleLite的开发 [Docker镜像](./source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库, 首先在PaddleLite的开发 [Docker镜像](/source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库,
下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令: 下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令:
```shell ```shell
......
...@@ -18,7 +18,7 @@ chmod 777 model_optimize_tool ...@@ -18,7 +18,7 @@ chmod 777 model_optimize_tool
### 编译model_optimize_tool ### 编译model_optimize_tool
1、参照 [编译安装](./source_compile) 进行环境配置和编译 1、参照 [编译安装](/source_compile) 进行环境配置和编译
2、进入docker中PaddleLite根目录,```git checkout develop```切换到develop分支 2、进入docker中PaddleLite根目录,```git checkout develop```切换到develop分支
...@@ -61,4 +61,4 @@ fluid模型有两种形式,combined形式(权重保存为一个param文件 ...@@ -61,4 +61,4 @@ fluid模型有两种形式,combined形式(权重保存为一个param文件
* 如果待优化的fluid模型是非combined形式,请设置`--model_dir`,忽略`--model_file``--param_file` * 如果待优化的fluid模型是非combined形式,请设置`--model_dir`,忽略`--model_file``--param_file`
* 如果待优化的fluid模型是combined形式,请设置`--model_file``--param_file`,忽略`--model_dir` * 如果待优化的fluid模型是combined形式,请设置`--model_file``--param_file`,忽略`--model_dir`
* 优化后的模型包括__model__.nb和param.nb文件。 * 优化后的模型包括__model__.nb和param.nb文件。
\ No newline at end of file
...@@ -26,7 +26,7 @@ CMAKE编译选项: ...@@ -26,7 +26,7 @@ CMAKE编译选项:
- 设置`LITE_WITH_NPU=ON``LITE_WITH_ARM=ON` - 设置`LITE_WITH_NPU=ON``LITE_WITH_ARM=ON`
- 设置DDK根目录路径 `NPU_DDK_ROOT` - 设置DDK根目录路径 `NPU_DDK_ROOT`
其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](./source_compile) 其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](/source_compile)
示例如下: 示例如下:
```shell ```shell
......
...@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle ...@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
# 二. 模型优化 # 二. 模型优化
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](model_optimize_tool.html)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](/model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Model Optimize Tool的详细介绍,请您参考 [模型优化方法](model_optimize_tool.html) Model Optimize Tool的详细介绍,请您参考 [模型优化方法](/model_optimize_tool)
使用Model Optimize Tool,您只需执行以下代码: 使用Model Optimize Tool,您只需执行以下代码:
## 1. Android ## 1. Android
...@@ -72,8 +72,8 @@ $ adb shell ...@@ -72,8 +72,8 @@ $ adb shell
# 四. Lite API # 四. Lite API
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](demos.html),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化` 为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](/demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`
# 五. 测试工具 # 五. 测试工具
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](debug_tools.html)[Profile Monitor Tool](debug_tools.html)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](debug_tools.html) 了解更多内容。 为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](/debug_tools)[Profile Monitor Tool](/debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](/debug_tools) 了解更多内容。
---
layout: post
title: "Welcome to Jekyll!"
date: 2019-09-17 14:21:07 +0800
categories: jekyll update
---
You’ll find this post in your `_posts` directory. Go ahead and edit it and re-build the site to see your changes. You can rebuild the site in many different ways, but the most common way is to run `jekyll serve`, which launches a web server and auto-regenerates your site when a file is updated.
To add new posts, simply add a file in the `_posts` directory that follows the convention `YYYY-MM-DD-name-of-post.ext` and includes the necessary front matter. Take a look at the source for this post to get an idea about how it works.
Jekyll also offers powerful support for code snippets:
{% highlight ruby %}
def print_hi(name)
puts "Hi, #{name}"
end
print_hi('Tom')
#=> prints 'Hi, Tom' to STDOUT.
{% endhighlight %}
Check out the [Jekyll docs][jekyll-docs] for more info on how to get the most out of Jekyll. File all bugs/feature requests at [Jekyll’s GitHub repo][jekyll-gh]. If you have questions, you can ask them on [Jekyll Talk][jekyll-talk].
[jekyll-docs]: https://jekyllrb.com/docs/home
[jekyll-gh]: https://github.com/jekyll/jekyll
[jekyll-talk]: https://talk.jekyllrb.com/
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册