From bec74123b7ce198afed5d47e3c3ba464c7f37214 Mon Sep 17 00:00:00 2001
From: wopeizl
Date: Wed, 24 Jul 2019 16:19:40 +0800
Subject: [PATCH] add 1.5.1 inference lib download path for windows (#1021)
* add 1.5.1 inference lib download path for windows
* re-organize the doc format
---
.../deploy/inference/windows_cpp_inference.md | 125 +++++++++++++++---
1 file changed, 109 insertions(+), 16 deletions(-)
diff --git a/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md b/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md
index 6340f330b..6e05647e9 100644
--- a/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md
+++ b/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md
@@ -1,8 +1,107 @@
-Windows环境模型预测
+.. _install_or_build_windows_inference_lib:
+
+安装与编译Windows预测库
===========================
-环境部署
---------
+直接下载安装
+-------------
+
+
+| 版本说明 | 预测库(1.5.1版本) |
+|:---------|:-------------------|
+| cpu_avx_mkl | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/cpu_mkl_avx/fluid_inference_install_dir.zip) |
+| cpu_avx_openblas | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/cpu_open_avx/fluid_inference_install_dir.zip) |
+| cuda8.0_cudnn7_avx_mkl | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_mkl_avx_8.0/fluid_inference_install_dir.zip) |
+| cuda8.0_cudnn7_avx_openblas | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_open_avx_8.0/fluid_inference_install_dir.zip)|
+| cuda9.0_cudnn7_avx_mkl | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_mkl_avx_9.0/fluid_inference_install_dir.zip) |
+| cuda9.0_cudnn7_avx_openblas | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_open_avx_9.0/fluid_inference_install_dir.zip) |
+
+
+从源码编译预测库
+--------------
+用户也可以从 PaddlePaddle 核心代码编译C++预测库,只需在编译时配制下面这些编译选项:
+
+|选项 | 值 |
+|:---------|:-------------------|
+|CMAKE_BUILD_TYPE | Release |
+|FLUID_INFERENCE_INSTALL_DIR | 安装路径 |
+|WITH_PYTHON | OFF(推荐)|
+|ON_INFER | ON(推荐) |
+|WITH_GPU | ON/OFF |
+|WITH_MKL | ON/OFF |
+
+
+建议按照推荐值设置,以避免链接不必要的库。其它可选编译选项按需进行设定。
+
+下面的代码片段从github拉取最新代码,配制编译选项(需要将PADDLE_ROOT替换为PaddlePaddle预测库的安装路径):
+
+ .. code-block::
+
+ PADDLE_ROOT=\path_to_paddle
+ git clone https://github.com/PaddlePaddle/Paddle.git
+ cd Paddle
+ mkdir build
+ cd build
+ cmake -DFLUID_INFERENCE_INSTALL_DIR=$PADDLE_ROOT \
+ -DCMAKE_BUILD_TYPE=Release \
+ -DWITH_PYTHON=OFF \
+ -DWITH_MKL=OFF \
+ -DWITH_GPU=OFF \
+ -DON_INFER=ON \
+ ..
+
+使用 vs2015 打开 paddle.sln 文件,选择 Release 编译即可。
+
+成功编译后,使用C++预测库所需的依赖(包括:(1)编译出的PaddlePaddle预测库和头文件;(2)第三方链接库和头文件;(3)版本信息与编译选项信息)
+均会存放于PADDLE_ROOT目录中。目录结构如下:
+
+ .. code-block:: text
+
+ PaddleRoot/
+ ├── CMakeCache.txt
+ ├── paddle
+ │ ├── include
+ │ │ ├── paddle_anakin_config.h
+ │ │ ├── paddle_analysis_config.h
+ │ │ ├── paddle_api.h
+ │ │ ├── paddle_inference_api.h
+ │ │ ├── paddle_mkldnn_quantizer_config.h
+ │ │ └── paddle_pass_builder.h
+ │ └── lib
+ │ ├── libpaddle_fluid.a
+ │ └── libpaddle_fluid.so
+ ├── third_party
+ │ ├── boost
+ │ │ └── boost
+ │ ├── eigen3
+ │ │ ├── Eigen
+ │ │ └── unsupported
+ │ └── install
+ │ ├── gflags
+ │ ├── glog
+ │ ├── mkldnn
+ │ ├── mklml
+ │ ├── protobuf
+ │ ├── snappy
+ │ ├── snappystream
+ │ ├── xxhash
+ │ └── zlib
+ └── version.txt
+
+version.txt 中记录了该预测库的版本信息,包括Git Commit ID、使用OpenBlas或MKL数学库、CUDA/CUDNN版本号,如:
+
+ .. code-block:: text
+
+ GIT COMMIT ID: cc9028b90ef50a825a722c55e5fda4b7cd26b0d6
+ WITH_MKL: ON
+ WITH_MKLDNN: ON
+ WITH_GPU: ON
+ CUDA version: 8.0
+ CUDNN version: v7
+
+
+编译预测demo
+-------------
### 硬件环境
@@ -16,7 +115,7 @@ Windows环境模型预测
测试环境操作系统使用 win10 家庭版本。
-### 环境配置步骤
+### 软件要求
**请您严格按照以下步骤进行安装,否则可能会导致安装失败!**
@@ -25,22 +124,21 @@ Windows环境模型预测
安装Visual Studio 2015,安装选项中选择安装内容时勾选自定义,选择安装全部关于c,c++,vc++的功能。
-预测demo使用
-------------
+### 编译demo
-解压Paddle,Release,fluid_install_dir压缩包。
+下载并解压 fluid_inference_install_dir.zip 压缩包。
-进入Paddle/paddle/fluid/inference/api/demo_ci目录,新建build目录并进入,然后使用cmake生成vs2015的solution文件。
+进入 Paddle/paddle/fluid/inference/api/demo_ci 目录,新建build目录并进入,然后使用cmake生成vs2015的solution文件。
指令为:
-`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_MKL=OFF -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=simple_on_word2vec -DPADDLE_LIB=path_to_the_patddle\paddle_fluid.lib`
+`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_MKL=ON -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=simple_on_word2vec -DPADDLE_LIB=path_to_the_paddle_lib`
注:
-DDEMO_NAME 是要编译的文件
--DPADDLE_LIB 是fluid_install_dir路径,例如
--DPADDLE_LIB=D:\fluid_install_dir
+-DPADDLE_LIB fluid_inference_install_dir,例如
+-DPADDLE_LIB=D:\fluid_inference_install_dir
Cmake可以在[官网进行下载](https://cmake.org/download/),并添加到环境变量中。
@@ -71,11 +169,6 @@ Cmake可以在[官网进行下载](https://cmake.org/download/),并添加到
-将提供的依赖包中,Release下的openblas和模型文件拷贝到编译生成的Release下。
-
-
-
-
通过cmd进到Release目录执行:
--
GitLab