# C++ 预测样例
**如果您看到这个目录,我们会假设您已经对Paddle Inference有了一定的了解。**
**如果您刚刚接触Paddle Inference不久,建议您[访问这里](https://paddle-inference.readthedocs.io/en/latest/#)对Paddle Inference做一个初步的认识。**
这个目录包含了图像中使用的分类,检测,以及NLP中Ernie/Bert模型测试样例,同时也包含了Paddle-TRT,多线程等测试样例。
为了能够顺利运行样例,请您在环境中准备Paddle Inference C++预编译库。
**一:获取编译库:**
- [官网下载](https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html)。
- 自行编译获取。
**二:预编译lib目录结构介绍:**
进入预编译库,目录结构为:
```
├── CMakeCache.txt
├── paddle
├── third_party
└── version.txt
```
其中`paddle`目录包含了预编译库的头文件以及lib文件。
`third_party`包含了第三方依赖库的头文件以及lib文件。
`version.txt`包含了lib的相关描述信息,包括:
```
GIT COMMIT ID: 06897f7c4ee41295e6e9a0af2a68800a27804f6c
WITH_MKL: ON # 是否带MKL
WITH_MKLDNN: OFF # 是否带MKLDNN
WITH_GPU: ON # 是否支持GPU
CUDA version: 10.1 # CUDA的版本
CUDNN version: v7。 # CUDNN版本
WITH_TENSORRT: ON # 是否带TRT
```
有了预编译库后我们开始进入各个目录进行样例测试吧~