提交 fd5a433f 编写于 作者: N nhzlx

Merge branch 'develop' of https://github.com/PaddlePaddle/FluidDoc into add_trt_doc

...@@ -49,7 +49,7 @@ ...@@ -49,7 +49,7 @@
## How to run those Benchmark models? ## How to run those Benchmark models?
1. 首先, 使用[External Converter](./convert_paddle_to_anakin.md)对caffe model 进行转换 1. 首先, 使用[External Converter](./convert_paddle_to_anakin.html)对caffe model 进行转换
2. 然后将转换后的Anakin model和编译好的benchmark_arm 二进制文件通过'adb push'命令上传至测试机 2. 然后将转换后的Anakin model和编译好的benchmark_arm 二进制文件通过'adb push'命令上传至测试机
3. 接着在测试机含有Anakin model的目录中运行'./benchmark_arm ./ anakin_model.anakin.bin 1 10 10 1' 命令 3. 接着在测试机含有Anakin model的目录中运行'./benchmark_arm ./ anakin_model.anakin.bin 1 10 10 1' 命令
4. 最后,终端显示器上将会打印该模型的运行时间 4. 最后,终端显示器上将会打印该模型的运行时间
......
...@@ -159,7 +159,7 @@ ...@@ -159,7 +159,7 @@
## How to run those Benchmark models ## How to run those Benchmark models
1. 首先, 使用[External Converter](./convert_paddle_to_anakin.md)对caffe model 进行转换 1. 首先, 使用[External Converter](./convert_paddle_to_anakin.html)对caffe model 进行转换
2. 然后跳转至 *source_root/benchmark/CNN* 目录下,使用 'mkdir ./models'创建存放模型的目录,并将转换好的Anakin模型放在该目录下 2. 然后跳转至 *source_root/benchmark/CNN* 目录下,使用 'mkdir ./models'创建存放模型的目录,并将转换好的Anakin模型放在该目录下
3. 运行脚本 `sh run.sh`,运行结束后,该模型的运行时间将会显示到终端上 3. 运行脚本 `sh run.sh`,运行结束后,该模型的运行时间将会显示到终端上
4. 如果你想获取每层OP的运行时间,你只用将 CMakeLists.txt 中的`ENABLE_OP_TIMER` 设置为 `YES` 即可 4. 如果你想获取每层OP的运行时间,你只用将 CMakeLists.txt 中的`ENABLE_OP_TIMER` 设置为 `YES` 即可
...@@ -14,8 +14,8 @@ ...@@ -14,8 +14,8 @@
用Anakin来进行前向计算主要分为三个步骤: 用Anakin来进行前向计算主要分为三个步骤:
- 将外部模型通过[Anakin Parser](Converter_ch.md)解析为Anakin模型 - 将外部模型通过[Anakin Parser](./convert_paddle_to_anakin.html)解析为Anakin模型
在使用Anakin之前,用户必须将所有其他模型转换成Anakin模型,我们提供了转换脚本,用户可通过[Anakin Parser](Converter_ch.md)进行模型转换。 在使用Anakin之前,用户必须将所有其他模型转换成Anakin模型,我们提供了转换脚本,用户可通过[Anakin Parser](./convert_paddle_to_anakin.html)进行模型转换。
- 生成Anakin计算图 - 生成Anakin计算图
加载Anakin模型生成原始计算图,然后需要对原始计算图进行优化。你只需要调用相应的API优化即可。 加载Anakin模型生成原始计算图,然后需要对原始计算图进行优化。你只需要调用相应的API优化即可。
- 执行计算图 - 执行计算图
...@@ -511,7 +511,7 @@ Anakin中数据类型与基本数据类型的对应如下: ...@@ -511,7 +511,7 @@ Anakin中数据类型与基本数据类型的对应如下:
#### 获取输入输出tensor #### 获取输入输出tensor
获取输入输出tensor,并填充输入tensor的buffer。如果想要获取输入和输出tensor,那么必须指定输入的名字,如"input_0", "input_1", "input_2", ..., 必须传入如上字符串才能够获得输入tensor。另外,如果想知道input_i对应哪个输入,你需要去dash board查看,如何使用dash board请看[Anakin Parser](Converter_ch.md)。请看如下示例代码 获取输入输出tensor,并填充输入tensor的buffer。如果想要获取输入和输出tensor,那么必须指定输入的名字,如"input_0", "input_1", "input_2", ..., 必须传入如上字符串才能够获得输入tensor。另外,如果想知道input_i对应哪个输入,你需要去dash board查看,如何使用dash board请看[Anakin Parser](./convert_paddle_to_anakin.html)。请看如下示例代码
```c++ ```c++
//some declaratinos //some declaratinos
...@@ -562,7 +562,7 @@ Anakin中数据类型与基本数据类型的对应如下: ...@@ -562,7 +562,7 @@ Anakin中数据类型与基本数据类型的对应如下:
// And then // And then
``` ```
类似的,我们可以利用成员函数get_out来获得输出tensor。但与获得输入tensor不同的是, 我们需要指定输入tensor结点的名字,这个可以从dash board中看到,请从[Anakin Parser](Converter_ch.md)中查看dash board的使用方法。假如有个输出结点叫pred_out, 那么我们可以通过如下代码获得相应的输出tensor: 类似的,我们可以利用成员函数get_out来获得输出tensor。但与获得输入tensor不同的是, 我们需要指定输入tensor结点的名字,这个可以从dash board中看到,请从[Anakin Parser](./convert_paddle_to_anakin.html)中查看dash board的使用方法。假如有个输出结点叫pred_out, 那么我们可以通过如下代码获得相应的输出tensor:
```c++ ```c++
//Note: this tensor are resident at GPU. //Note: this tensor are resident at GPU.
...@@ -581,7 +581,7 @@ Anakin中数据类型与基本数据类型的对应如下: ...@@ -581,7 +581,7 @@ Anakin中数据类型与基本数据类型的对应如下:
下面的例子展示了如何调用Anakin。 下面的例子展示了如何调用Anakin。
在这儿之前, 请确保你已经有了Anakin模型。如果还没有,那么请使用[Anakin Parser](Converter_ch.md)转换你的模型。 在这儿之前, 请确保你已经有了Anakin模型。如果还没有,那么请使用[Anakin Parser](./convert_paddle_to_anakin.html)转换你的模型。
### Single-thread ### Single-thread
......
...@@ -275,7 +275,7 @@ void Device<TNEW>::get_info() { ...@@ -275,7 +275,7 @@ void Device<TNEW>::get_info() {
### 在`saber/funcs`中实现设备相关的op ### 在`saber/funcs`中实现设备相关的op
参考[如何增加新的Operator](./how_to_add_anakin_op.md) 参考[如何增加新的Operator](./how_to_add_anakin_op.html)
## <span id = '0003'> 在`framework`中添加设备的具体化或实例化 </span> ## ## <span id = '0003'> 在`framework`中添加设备的具体化或实例化 </span> ##
......
...@@ -6,7 +6,7 @@ ...@@ -6,7 +6,7 @@
* [在CentOS上安装 Anakin]() * [在CentOS上安装 Anakin]()
* [在Ubuntu上安装 Anakin]() * [在Ubuntu上安装 Anakin]()
* [在ARM上安装 Anakin](./anakin_run_on_arm.md) * [在ARM上安装 Anakin](./anakin_run_on_arm.html)
* [验证安装]() * [验证安装]()
...@@ -17,7 +17,6 @@ ...@@ -17,7 +17,6 @@
* cmake 2.8.12+ * cmake 2.8.12+
* gcc 4.8.2+ * gcc 4.8.2+
* g++ 4.8.2+ * g++ 4.8.2+
* 其他需要补充的。。。
#### 2. 编译CPU版Anakin #### #### 2. 编译CPU版Anakin ####
...@@ -70,7 +69,7 @@ ...@@ -70,7 +69,7 @@
### 在ARM上安装 Anakin ### ### 在ARM上安装 Anakin ###
请参考[ARM安装文档](./anakin_run_on_arm.md) 请参考[ARM安装文档](./anakin_run_on_arm.html)
### 验证安装 ### ### 验证安装 ###
......
...@@ -115,7 +115,7 @@ PaddlePaddle.org工具可以配合Docker使用,需要在系统里先安装好D ...@@ -115,7 +115,7 @@ PaddlePaddle.org工具可以配合Docker使用,需要在系统里先安装好D
在浏览器中输入 http://localhost:8088 就可以看到编译生成的 ``v2`` 和 ``fluid`` 两种版本的中/英文的文档页面和英文的API页面。下图为生成的 ``v2`` 英文文档首页示例。注意,示例中由于使用了sphinx的原始主题,所以页面的风格与官网并不一致,但这并不影响开发者进行调试。 在浏览器中输入 http://localhost:8088 就可以看到编译生成的 ``v2`` 和 ``fluid`` 两种版本的中/英文的文档页面和英文的API页面。下图为生成的 ``v2`` 英文文档首页示例。注意,示例中由于使用了sphinx的原始主题,所以页面的风格与官网并不一致,但这并不影响开发者进行调试。
.. image:: src/doc_en.png .. image:: https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/v2/dev/src/doc_en.png
:align: center :align: center
:scale: 60 % :scale: 60 %
......
Subproject commit 1454fffa97aa852ec237dd431238f38dc14e3275 Subproject commit 0d602dbbd390b95554fe6794d46f4a0c6c121179
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册