diff --git a/doc/fluid/advanced_usage/deploy/anakin_arm_benchmark.md b/doc/fluid/advanced_usage/deploy/anakin_arm_benchmark.md index 748e8ea41121e59dfb3758fd6ce29e61d21b0323..e8701b2b54d96c104e6df13f28a0c028b1ca8d16 100644 --- a/doc/fluid/advanced_usage/deploy/anakin_arm_benchmark.md +++ b/doc/fluid/advanced_usage/deploy/anakin_arm_benchmark.md @@ -49,7 +49,7 @@ ## How to run those Benchmark models? - 1. 首先, 使用[External Converter](./convert_paddle_to_anakin.md)对caffe model 进行转换 + 1. 首先, 使用[External Converter](./convert_paddle_to_anakin.html)对caffe model 进行转换 2. 然后将转换后的Anakin model和编译好的benchmark_arm 二进制文件通过'adb push'命令上传至测试机 3. 接着在测试机含有Anakin model的目录中运行'./benchmark_arm ./ anakin_model.anakin.bin 1 10 10 1' 命令 4. 最后,终端显示器上将会打印该模型的运行时间 diff --git a/doc/fluid/advanced_usage/deploy/anakin_gpu_benchmark.md b/doc/fluid/advanced_usage/deploy/anakin_gpu_benchmark.md index 1effc52312739a687e9452dc12cb3a9b7d936bc0..72a5d50d99c982aa29ebb1fdbc55cd836aabce53 100644 --- a/doc/fluid/advanced_usage/deploy/anakin_gpu_benchmark.md +++ b/doc/fluid/advanced_usage/deploy/anakin_gpu_benchmark.md @@ -159,7 +159,7 @@ ## How to run those Benchmark models -1. 首先, 使用[External Converter](./convert_paddle_to_anakin.md)对caffe model 进行转换 +1. 首先, 使用[External Converter](./convert_paddle_to_anakin.html)对caffe model 进行转换 2. 然后跳转至 *source_root/benchmark/CNN* 目录下,使用 'mkdir ./models'创建存放模型的目录,并将转换好的Anakin模型放在该目录下 3. 运行脚本 `sh run.sh`,运行结束后,该模型的运行时间将会显示到终端上 4. 如果你想获取每层OP的运行时间,你只用将 CMakeLists.txt 中的`ENABLE_OP_TIMER` 设置为 `YES` 即可 diff --git a/doc/fluid/advanced_usage/deploy/anakin_tutorial.md b/doc/fluid/advanced_usage/deploy/anakin_tutorial.md index af2186146fc6ddad47ad82bd4da5b4ce95a49b5c..1658aae6387744743d557788d70ffc4e4c2a8639 100644 --- a/doc/fluid/advanced_usage/deploy/anakin_tutorial.md +++ b/doc/fluid/advanced_usage/deploy/anakin_tutorial.md @@ -14,8 +14,8 @@ 用Anakin来进行前向计算主要分为三个步骤: - - 将外部模型通过[Anakin Parser](Converter_ch.md)解析为Anakin模型 - 在使用Anakin之前,用户必须将所有其他模型转换成Anakin模型,我们提供了转换脚本,用户可通过[Anakin Parser](Converter_ch.md)进行模型转换。 + - 将外部模型通过[Anakin Parser](./convert_paddle_to_anakin.html)解析为Anakin模型 + 在使用Anakin之前,用户必须将所有其他模型转换成Anakin模型,我们提供了转换脚本,用户可通过[Anakin Parser](./convert_paddle_to_anakin.html)进行模型转换。 - 生成Anakin计算图 加载Anakin模型生成原始计算图,然后需要对原始计算图进行优化。你只需要调用相应的API优化即可。 - 执行计算图 @@ -511,7 +511,7 @@ Anakin中数据类型与基本数据类型的对应如下: #### 获取输入输出tensor -获取输入输出tensor,并填充输入tensor的buffer。如果想要获取输入和输出tensor,那么必须指定输入的名字,如"input_0", "input_1", "input_2", ..., 必须传入如上字符串才能够获得输入tensor。另外,如果想知道input_i对应哪个输入,你需要去dash board查看,如何使用dash board请看[Anakin Parser](Converter_ch.md)。请看如下示例代码 +获取输入输出tensor,并填充输入tensor的buffer。如果想要获取输入和输出tensor,那么必须指定输入的名字,如"input_0", "input_1", "input_2", ..., 必须传入如上字符串才能够获得输入tensor。另外,如果想知道input_i对应哪个输入,你需要去dash board查看,如何使用dash board请看[Anakin Parser](./convert_paddle_to_anakin.html)。请看如下示例代码 ```c++ //some declaratinos @@ -562,7 +562,7 @@ Anakin中数据类型与基本数据类型的对应如下: // And then ``` -类似的,我们可以利用成员函数get_out来获得输出tensor。但与获得输入tensor不同的是, 我们需要指定输入tensor结点的名字,这个可以从dash board中看到,请从[Anakin Parser](Converter_ch.md)中查看dash board的使用方法。假如有个输出结点叫pred_out, 那么我们可以通过如下代码获得相应的输出tensor: +类似的,我们可以利用成员函数get_out来获得输出tensor。但与获得输入tensor不同的是, 我们需要指定输入tensor结点的名字,这个可以从dash board中看到,请从[Anakin Parser](./convert_paddle_to_anakin.html)中查看dash board的使用方法。假如有个输出结点叫pred_out, 那么我们可以通过如下代码获得相应的输出tensor: ```c++ //Note: this tensor are resident at GPU. @@ -581,7 +581,7 @@ Anakin中数据类型与基本数据类型的对应如下: 下面的例子展示了如何调用Anakin。 -在这儿之前, 请确保你已经有了Anakin模型。如果还没有,那么请使用[Anakin Parser](Converter_ch.md)转换你的模型。 +在这儿之前, 请确保你已经有了Anakin模型。如果还没有,那么请使用[Anakin Parser](./convert_paddle_to_anakin.html)转换你的模型。 ### Single-thread diff --git a/doc/fluid/advanced_usage/deploy/how_to_support_new_device_in_anakin.md b/doc/fluid/advanced_usage/deploy/how_to_support_new_device_in_anakin.md index dc281ff6ac53ccc0a32d4c1ca30f02f5275ee83f..da2c64cf4d842b3136adc21872e66f6101a9fbc7 100644 --- a/doc/fluid/advanced_usage/deploy/how_to_support_new_device_in_anakin.md +++ b/doc/fluid/advanced_usage/deploy/how_to_support_new_device_in_anakin.md @@ -275,7 +275,7 @@ void Device::get_info() { ### 在`saber/funcs`中实现设备相关的op -参考[如何增加新的Operator](./how_to_add_anakin_op.md) +参考[如何增加新的Operator](./how_to_add_anakin_op.html) ## 在`framework`中添加设备的具体化或实例化 ## diff --git a/doc/fluid/advanced_usage/deploy/install_anakin.md b/doc/fluid/advanced_usage/deploy/install_anakin.md index 6a4ace107c1117825db497c6f77c179671b2e814..0b44a6be3baa51598fa8b2f2af863bed6c9c64e9 100644 --- a/doc/fluid/advanced_usage/deploy/install_anakin.md +++ b/doc/fluid/advanced_usage/deploy/install_anakin.md @@ -6,7 +6,7 @@ * [在CentOS上安装 Anakin]() * [在Ubuntu上安装 Anakin]() -* [在ARM上安装 Anakin](./anakin_run_on_arm.md) +* [在ARM上安装 Anakin](./anakin_run_on_arm.html) * [验证安装]() @@ -17,7 +17,6 @@ * cmake 2.8.12+ * gcc 4.8.2+ * g++ 4.8.2+ -* 其他需要补充的。。。 #### 2. 编译CPU版Anakin #### @@ -70,7 +69,7 @@ ### 在ARM上安装 Anakin ### -请参考[ARM安装文档](./anakin_run_on_arm.md) +请参考[ARM安装文档](./anakin_run_on_arm.html) ### 验证安装 ### diff --git a/doc/v2/dev/write_docs_cn.rst b/doc/v2/dev/write_docs_cn.rst index 4231f2bb5cd800c0cd86835b5d07e491fcde4989..70406b0f440aac51a045494a837aab5d7bd57e87 100644 --- a/doc/v2/dev/write_docs_cn.rst +++ b/doc/v2/dev/write_docs_cn.rst @@ -115,7 +115,7 @@ PaddlePaddle.org工具可以配合Docker使用,需要在系统里先安装好D 在浏览器中输入 http://localhost:8088 就可以看到编译生成的 ``v2`` 和 ``fluid`` 两种版本的中/英文的文档页面和英文的API页面。下图为生成的 ``v2`` 英文文档首页示例。注意,示例中由于使用了sphinx的原始主题,所以页面的风格与官网并不一致,但这并不影响开发者进行调试。 -.. image:: src/doc_en.png +.. image:: https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/v2/dev/src/doc_en.png :align: center :scale: 60 % diff --git a/external/book b/external/book index 1454fffa97aa852ec237dd431238f38dc14e3275..0d602dbbd390b95554fe6794d46f4a0c6c121179 160000 --- a/external/book +++ b/external/book @@ -1 +1 @@ -Subproject commit 1454fffa97aa852ec237dd431238f38dc14e3275 +Subproject commit 0d602dbbd390b95554fe6794d46f4a0c6c121179