Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
3ae49f52
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
3ae49f52
编写于
9月 10, 2019
作者:
Z
zhouwei25
提交者:
Dong Daxiang
9月 10, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix the installing and compiling doc of inference lib (#1146)
上级
b360036c
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
113 addition
and
16 deletion
+113
-16
doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md
.../advanced_usage/deploy/inference/windows_cpp_inference.md
+113
-16
未找到文件。
doc/fluid/advanced_usage/deploy/inference/windows_cpp_inference.md
浏览文件 @
3ae49f52
Windows环境模型预测
安装与编译Windows预测库
===========================
===========================
环境部署
直接下载安装
--------
-------------
| 版本说明 | 预测库(1.5.1版本) |
|:---------|:-------------------|
| cpu_avx_mkl |
[
fluid_inference.zip
](
https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/cpu_mkl_avx/fluid_inference_install_dir.zip
)
|
| cpu_avx_openblas |
[
fluid_inference.zip
](
https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/cpu_open_avx/fluid_inference_install_dir.zip
)
|
| cuda8.0_cudnn7_avx_mkl |
[
fluid_inference.zip
](
https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_mkl_avx_8.0/fluid_inference_install_dir.zip
)
|
| cuda8.0_cudnn7_avx_openblas |
[
fluid_inference.zip
](
https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_open_avx_8.0/fluid_inference_install_dir.zip
)
|
| cuda9.0_cudnn7_avx_mkl |
[
fluid_inference.zip
](
https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_mkl_avx_9.0/fluid_inference_install_dir.zip
)
|
| cuda9.0_cudnn7_avx_openblas |
[
fluid_inference.zip
](
https://paddle-inference-lib.bj.bcebos.com/1.5.1-win/gpu_open_avx_9.0/fluid_inference_install_dir.zip
)
|
从源码编译预测库
--------------
用户也可以从 PaddlePaddle 核心代码编译C++预测库,只需在编译时配制下面这些编译选项:
|选项 | 值 |
|:-------------|:-------------------|
|CMAKE_BUILD_TYPE | Release |
|FLUID_INFERENCE_INSTALL_DIR | 安装路径(可选) |
|ON_INFER | ON(推荐) |
|WITH_GPU | ON/OFF |
|WITH_MKL | ON/OFF |
请按照推荐值设置,以避免链接不必要的库。其它可选编译选项按需进行设定。
Windows下安装与编译预测库步骤:(在Windows命令提示符下执行以下指令)
1.
设置预测库的安装路径,将path_to_paddle替换为PaddlePaddle预测库的安装路径:
`PADDLE_ROOT=path_to_paddle`(不设置则使用默认路径)
2.
将PaddlePaddle的源码clone在当下目录的Paddle文件夹中,并进入Paddle目录:
- `git clone https://github.com/PaddlePaddle/Paddle.git`
- `cd Paddle`
3.
创建名为build的目录并进入:
- `mkdir build`
- `cd build`
4.
执行cmake:
- `cmake .. -G "Visual Studio 14 2015 Win 64" -DFLUID_INFERENCE_INSTALL_DIR=${PADDLE_ROOT} -DCMAKE_BUILD_TYPE=Release -DWITH_MKL=OFF -DWITH_GPU=OFF -DON_INFER=ON`
- `-DFLUID_INFERENCE_INSTALL_DIR=$PADDLE_ROOT`为可选配置选项,如未设置,则使用默认路径。
- `-DWITH_GPU`为是否使用GPU的配置选项,`-DWITH_MKL`为是否使用Intel MKL(数学核心库)的配置选项,请按需配置。
5.
从
`https://github.com/wopeizl/Paddle_deps`
下载预编译好的第三方依赖包(openblas, snappystream),将整个
`third_party`
文件夹复制到
`build`
目录下。
6.
使用Blend for Visual Studio 2015 打开
`paddle.sln`
文件,选择平台为
`x64`
,配置为
`Release`
,先编译third_party模块,再编译inference_lib_dist模块。
操作方法:在Visual Studio中选择相应模块,右键选择"生成"(或者"build")
编译成功后,使用C++预测库所需的依赖(包括:(1)编译出的PaddlePaddle预测库和头文件;(2)第三方链接库和头文件;(3)版本信息与编译选项信息)
均会存放于PADDLE_ROOT目录中。目录结构如下:
PaddleRoot/
├── CMakeCache.txt
├── paddle
│ ├── include
│ │ ├── paddle_anakin_config.h
│ │ ├── paddle_analysis_config.h
│ │ ├── paddle_api.h
│ │ ├── paddle_inference_api.h
│ │ ├── paddle_mkldnn_quantizer_config.h
│ │ └── paddle_pass_builder.h
│ └── lib
│ ├── libpaddle_fluid.a
│ └── libpaddle_fluid.so
├── third_party
│ ├── boost
│ │ └── boost
│ ├── eigen3
│ │ ├── Eigen
│ │ └── unsupported
│ └── install
│ ├── gflags
│ ├── glog
│ ├── mkldnn
│ ├── mklml
│ ├── protobuf
│ ├── snappy
│ ├── snappystream
│ ├── xxhash
│ └── zlib
└── version.txt
version.txt 中记录了该预测库的版本信息,包括Git Commit ID、使用OpenBlas或MKL数学库、CUDA/CUDNN版本号,如:
GIT COMMIT ID: cc9028b90ef50a825a722c55e5fda4b7cd26b0d6
WITH_MKL: ON
WITH_MKLDNN: ON
WITH_GPU: ON
CUDA version: 8.0
CUDNN version: v7
编译预测demo
-------------
### 硬件环境
### 硬件环境
...
@@ -16,7 +119,7 @@ Windows环境模型预测
...
@@ -16,7 +119,7 @@ Windows环境模型预测
测试环境操作系统使用 win10 家庭版本。
测试环境操作系统使用 win10 家庭版本。
###
环境配置步骤
###
软件要求
**请您严格按照以下步骤进行安装,否则可能会导致安装失败!**
**请您严格按照以下步骤进行安装,否则可能会导致安装失败!**
...
@@ -25,22 +128,21 @@ Windows环境模型预测
...
@@ -25,22 +128,21 @@ Windows环境模型预测
安装Visual Studio 2015,安装选项中选择安装内容时勾选自定义,选择安装全部关于c,c++,vc++的功能。
安装Visual Studio 2015,安装选项中选择安装内容时勾选自定义,选择安装全部关于c,c++,vc++的功能。
预测demo使用
### 编译demo
------------
解压Paddle,Release,fluid_install_dir
压缩包。
下载并解压 fluid_inference_install_dir.zip
压缩包。
进入
Paddle/paddle/fluid/inference/api/demo_ci
目录,新建build目录并进入,然后使用cmake生成vs2015的solution文件。
进入
Paddle/paddle/fluid/inference/api/demo_ci
目录,新建build目录并进入,然后使用cmake生成vs2015的solution文件。
指令为:
指令为:
`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_MKL=O
FF -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=simple_on_word2vec -DPADDLE_LIB=path_to_the_patddle\paddle_fluid.
lib`
`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_MKL=O
N -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=simple_on_word2vec -DPADDLE_LIB=path_to_the_paddle_
lib`
注:
注:
-DDEMO_NAME 是要编译的文件
-DDEMO_NAME 是要编译的文件
-DPADDLE_LIB
是fluid_install_dir路径
,例如
-DPADDLE_LIB
fluid_inference_install_dir
,例如
-DPADDLE_LIB=D:
\f
luid_install_dir
-DPADDLE_LIB=D:
\f
luid_in
ference_in
stall_dir
Cmake可以在
[
官网进行下载
](
https://cmake.org/download/
)
,并添加到环境变量中。
Cmake可以在
[
官网进行下载
](
https://cmake.org/download/
)
,并添加到环境变量中。
...
@@ -71,11 +173,6 @@ Cmake可以在[官网进行下载](https://cmake.org/download/),并添加到
...
@@ -71,11 +173,6 @@ Cmake可以在[官网进行下载](https://cmake.org/download/),并添加到
<img
src=
"https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/fluid/advanced_usage/deploy/inference/image/image7.png"
>
<img
src=
"https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/fluid/advanced_usage/deploy/inference/image/image7.png"
>
</p>
</p>
将提供的依赖包中,Release下的openblas和模型文件拷贝到编译生成的Release下。
<p
align=
"center"
>
<img
src=
"https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/fluid/advanced_usage/deploy/inference/image/image8.png"
>
</p>
通过cmd进到Release目录执行:
通过cmd进到Release目录执行:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录