From bec74123b7ce198afed5d47e3c3ba464c7f37214 Mon Sep 17 00:00:00 2001 From: wopeizl Date: Wed, 24 Jul 2019 16:19:40 +0800 Subject: [PATCH] add 1.5.1 inference lib download path for windows (#1021) * add 1.5.1 inference lib download path for windows * re-organize the doc format --- .../deploy/inference/windows_cpp_inference.md | 125 +++++++++++++++--- 1 file changed, 109 insertions(+), 16 deletions(-) diff --git a/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md b/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md index 6340f330b..6e05647e9 100644 --- a/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md +++ b/doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md @@ -1,8 +1,107 @@ -Windows环境模型预测 +.. _install_or_build_windows_inference_lib: + +安装与编译Windows预测库 =========================== -环境部署 --------- +直接下载安装 +------------- + + +| 版本说明 | 预测库(1.5.1版本) | +|:---------|:-------------------| +| cpu_avx_mkl | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/cpu_mkl_avx/fluid_inference_install_dir.zip) | +| cpu_avx_openblas | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/cpu_open_avx/fluid_inference_install_dir.zip) | +| cuda8.0_cudnn7_avx_mkl | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_mkl_avx_8.0/fluid_inference_install_dir.zip) | +| cuda8.0_cudnn7_avx_openblas | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_open_avx_8.0/fluid_inference_install_dir.zip)| +| cuda9.0_cudnn7_avx_mkl | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_mkl_avx_9.0/fluid_inference_install_dir.zip) | +| cuda9.0_cudnn7_avx_openblas | [fluid_inference.zip](https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_open_avx_9.0/fluid_inference_install_dir.zip) | + + +从源码编译预测库 +-------------- +用户也可以从 PaddlePaddle 核心代码编译C++预测库,只需在编译时配制下面这些编译选项: + +|选项 | 值 | +|:---------|:-------------------| +|CMAKE_BUILD_TYPE | Release | +|FLUID_INFERENCE_INSTALL_DIR | 安装路径 | +|WITH_PYTHON | OFF(推荐)| +|ON_INFER | ON(推荐) | +|WITH_GPU | ON/OFF | +|WITH_MKL | ON/OFF | + + +建议按照推荐值设置,以避免链接不必要的库。其它可选编译选项按需进行设定。 + +下面的代码片段从github拉取最新代码,配制编译选项(需要将PADDLE_ROOT替换为PaddlePaddle预测库的安装路径): + + .. code-block:: + + PADDLE_ROOT=\path_to_paddle + git clone https://github.com/PaddlePaddle/Paddle.git + cd Paddle + mkdir build + cd build + cmake -DFLUID_INFERENCE_INSTALL_DIR=$PADDLE_ROOT \ + -DCMAKE_BUILD_TYPE=Release \ + -DWITH_PYTHON=OFF \ + -DWITH_MKL=OFF \ + -DWITH_GPU=OFF \ + -DON_INFER=ON \ + .. + +使用 vs2015 打开 paddle.sln 文件,选择 Release 编译即可。 + +成功编译后,使用C++预测库所需的依赖(包括:(1)编译出的PaddlePaddle预测库和头文件;(2)第三方链接库和头文件;(3)版本信息与编译选项信息) +均会存放于PADDLE_ROOT目录中。目录结构如下: + + .. code-block:: text + + PaddleRoot/ + ├── CMakeCache.txt + ├── paddle + │   ├── include + │   │   ├── paddle_anakin_config.h + │   │   ├── paddle_analysis_config.h + │   │   ├── paddle_api.h + │   │   ├── paddle_inference_api.h + │   │   ├── paddle_mkldnn_quantizer_config.h + │   │   └── paddle_pass_builder.h + │   └── lib + │   ├── libpaddle_fluid.a + │   └── libpaddle_fluid.so + ├── third_party + │   ├── boost + │   │   └── boost + │   ├── eigen3 + │   │   ├── Eigen + │   │   └── unsupported + │   └── install + │   ├── gflags + │   ├── glog + │   ├── mkldnn + │   ├── mklml + │   ├── protobuf + │   ├── snappy + │   ├── snappystream + │   ├── xxhash + │   └── zlib + └── version.txt + +version.txt 中记录了该预测库的版本信息,包括Git Commit ID、使用OpenBlas或MKL数学库、CUDA/CUDNN版本号,如: + + .. code-block:: text + + GIT COMMIT ID: cc9028b90ef50a825a722c55e5fda4b7cd26b0d6 + WITH_MKL: ON + WITH_MKLDNN: ON + WITH_GPU: ON + CUDA version: 8.0 + CUDNN version: v7 + + +编译预测demo +------------- ### 硬件环境 @@ -16,7 +115,7 @@ Windows环境模型预测 测试环境操作系统使用 win10 家庭版本。 -### 环境配置步骤 +### 软件要求 **请您严格按照以下步骤进行安装,否则可能会导致安装失败!** @@ -25,22 +124,21 @@ Windows环境模型预测 安装Visual Studio 2015,安装选项中选择安装内容时勾选自定义,选择安装全部关于c,c++,vc++的功能。 -预测demo使用 ------------- +### 编译demo -解压Paddle,Release,fluid_install_dir压缩包。 +下载并解压 fluid_inference_install_dir.zip 压缩包。 -进入Paddle/paddle/fluid/inference/api/demo_ci目录,新建build目录并进入,然后使用cmake生成vs2015的solution文件。 +进入 Paddle/paddle/fluid/inference/api/demo_ci 目录,新建build目录并进入,然后使用cmake生成vs2015的solution文件。 指令为: -`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_MKL=OFF -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=simple_on_word2vec -DPADDLE_LIB=path_to_the_patddle\paddle_fluid.lib` +`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_MKL=ON -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=simple_on_word2vec -DPADDLE_LIB=path_to_the_paddle_lib` 注: -DDEMO_NAME 是要编译的文件 --DPADDLE_LIB 是fluid_install_dir路径,例如 --DPADDLE_LIB=D:\fluid_install_dir +-DPADDLE_LIB fluid_inference_install_dir,例如 +-DPADDLE_LIB=D:\fluid_inference_install_dir Cmake可以在[官网进行下载](https://cmake.org/download/),并添加到环境变量中。 @@ -71,11 +169,6 @@ Cmake可以在[官网进行下载](https://cmake.org/download/),并添加到

-将提供的依赖包中,Release下的openblas和模型文件拷贝到编译生成的Release下。 - -

- -

通过cmd进到Release目录执行: -- GitLab