# PointRCNN 3D目标检测模型
---
## 内容
- [简介](#简介)
- [快速开始](#快速开始)
- [参考文献](#参考文献)
- [版本更新](#版本更新)
## 简介
[PointRCNN](https://arxiv.org/abs/1812.04244) 是 Shaoshuai Shi, Xiaogang Wang, Hongsheng Li. 等人提出的,是第一个仅使用原始点云的2-stage(两阶段)3D目标检测器,第一阶段将 Pointnet++ with MSG(Multi-scale Grouping)作为backbone,直接将原始点云数据分割为前景点和背景点,并利用前景点生成bounding box。第二阶段在标准坐标系中对生成对bounding box进一步筛选和优化。该模型还提出了基于bin的方式,把回归问题转化为分类问题,验证了在三维边界框回归中的有效性。PointRCNN在KITTI数据集上进行评估,论文发布时在KITTI 3D目标检测排行榜上获得了最佳性能。
网络结构如下所示:
用于点云的目标检测器 PointNet++
**注意:** PointRCNN 模型构建依赖于自定义的 C++ 算子,目前仅支持GPU设备在Linux/Unix系统上进行编译,本模型**不能运行在Windows系统或CPU设备上**
## 快速开始
### 安装
**安装 [PaddlePaddle](https://github.com/PaddlePaddle/Paddle):**
在当前目录下运行样例代码需要 PaddelPaddle Fluid [develop每日版本](https://www.paddlepaddle.org.cn/install/doc/tables#多版本whl包列表-dev-11)或使用PaddlePaddle [develop分支](https://github.com/PaddlePaddle/Paddle/tree/develop)源码编译安装.
为了使自定义算子与paddle版本兼容,建议您**优先使用源码编译paddle**,源码编译方式请参考[编译安装](https://www.paddlepaddle.org.cn/install/doc/source/ubuntu)
**安装PointRCNN:**
1. 下载[PaddlePaddle/models](https://github.com/PaddlePaddle/models)模型库
通过如下命令下载Paddle models模型库:
```
git clone https://github.com/PaddlePaddle/models
```
2. 在`PaddleCV/Paddle3D/PointRCNN`目录下下载[pybind11](https://github.com/pybind/pybind11)
`pts_utils`依赖`pybind11`编译,须在`PaddleCV/Paddle3D/PointRCNN`目录下下载`pybind11`子库,可使用如下命令下载:
```
cd PaddleCV/Paddle3D/PointRCNN
git clone https://github.com/pybind/pybind11
```
3. 编译安装`pts_utils`, `kitti_utils`, `roipool3d_utils`, `iou_utils` 等模块
使用如下命令编译安装`pts_utils`, `kitti_utils`, `roipool3d_utils`, `iou_utils` 等模块:
```
sh build_and_install.sh
```
4. 安装python依赖库
使用如下命令安装python依赖库:
```
pip install -r requirement.txt
```
**注意:** KITTI mAP评估工具只能在python 3.6及以上版本中使用,且python3环境中需要安装`scikit-image`,`Numba`,`fire`等子库。
`requirement.txt`中的`scikit-image`,`Numba`,`fire`即为KITTI mAP评估工具所需依赖库。
### 编译自定义OP
请确认Paddle版本为PaddelPaddle Fluid develop每日版本或基于Paddle develop分支源码编译安装,**推荐使用源码编译安装的方式**。
自定义OP编译方式如下:
进入 `ext_op/src` 目录,执行编译脚本
```
cd ext_op/src
sh make.sh
```
成功编译后,`ext_op/src` 目录下将会生成 `pointnet_lib.so`
执行下列操作,确保自定义算子编译正确:
```
# 设置动态库的路径到 LD_LIBRARY_PATH 中
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:`python -c 'import paddle; print(paddle.sysconfig.get_lib())'`
# 回到 ext_op 目录,添加 PYTHONPATH
cd ..
export PYTHONPATH=$PYTHONPATH:`pwd`
# 运行单测
python tests/test_farthest_point_sampling_op.py
python tests/test_gather_point_op.py
python tests/test_group_points_op.py
python tests/test_query_ball_op.py
python tests/test_three_interp_op.py
python tests/test_three_nn_op.py
```
单测运行成功会输出提示信息,如下所示:
```
.
----------------------------------------------------------------------
Ran 1 test in 13.205s
OK
```
**说明:** 自定义OP编译与[PointNet++](../PointNet++)下一致,更多关于自定义OP的编译说明,请参考[自定义OP编译](../PointNet++/ext_op/README.md)
### 数据准备
**KITTI 3D object detection 数据集:**
PointRCNN使用数据集[KITTI 3D object detection](http://www.cvlibs.net/datasets/kitti/eval_object.php?obj_benchmark=3d)
上进行训练。
可通过如下方式下载数据集:
```
cd data/KITTI/object
sh download.sh
```
此处的images只用做可视化,训练过程中使用[road planes](https://drive.google.com/file/d/1d5mq0RXRnvHPVeKx6Q612z0YRO1t2wAp/view?usp=sharing)数据来做训练时的数据增强,
请下载并解压至`./data/KITTI/object/training`目录下。
数据目录结构如下所示:
```
PointRCNN
├── data
│ ├── KITTI
│ │ ├── ImageSets
│ │ ├── object
│ │ │ ├──training
│ │ │ │ ├──calib & velodyne & label_2 & image_2 & planes
│ │ │ ├──testing
│ │ │ │ ├──calib & velodyne & image_2
```
### 训练
**PointRCNN模型:**
可通过如下方式启动 PointRCNN模型的训练:
1. 指定单卡训练并设置动态库路径
```
# 指定单卡GPU训练
export CUDA_VISIBLE_DEVICES=0
# 设置动态库的路径到 LD_LIBRARY_PATH 中
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:`python -c 'import paddle; print(paddle.sysconfig.get_lib())'`
```
2. 生成Groud Truth采样数据,命令如下:
```
python tools/generate_gt_database.py --class_name 'Car' --split train
```
3. 训练 RPN 模型
```
python train.py --cfg=./cfgs/default.yml \
--train_mode=rpn \
--batch_size=16 \
--epoch=200 \
--save_dir=checkpoints
```
RPN训练checkpoints默认保存在`checkpoints/rpn`目录,也可以通过`--save_dir`来指定。
4. 生成增强离线场景数据并保存RPN模型的输出特征和ROI,用于离线训练 RCNN 模型
生成增强的离线场景数据命令如下:
```
python tools/generate_aug_scene.py --class_name 'Car' --split train --aug_times 4
```
保存RPN模型对离线增强数据的输出特征和ROI,可以通过参数`--ckpt_dir`来指定RPN训练最终权重保存路径,RPN权重默认保存在`checkpoints/rpn`目录。
保存输出特征和ROI时须指定`TEST.SPLIT`为`train_aug`,指定`TEST.RPN_POST_NMS_TOP_N`为`300`, `TEST.RPN_NMS_THRESH`为`0.85`。
通过`--output_dir`指定保存输出特征和ROI的路径,默认保存到`./output`目录。
```
python eval.py --cfg=cfgs/default.yml \
--eval_mode=rpn \
--ckpt_dir=./checkpoints/rpn/199 \
--save_rpn_feature \
--output_dir=output \
--set TEST.SPLIT train_aug TEST.RPN_POST_NMS_TOP_N 300 TEST.RPN_NMS_THRESH 0.85
```
`--output_dir`下保存的数据目录结构如下:
```
output
├── detections
│ ├── data # 保存ROI数据
│ │ ├── 000000.txt
│ │ ├── 000003.txt
│ │ ├── ...
├── features # 保存输出特征
│ ├── 000000_intensity.npy
│ ├── 000000.npy
│ ├── 000000_rawscore.npy
│ ├── 000000_seg.npy
│ ├── 000000_xyz.npy
│ ├── ...
├── seg_result # 保存语义分割结果
│ ├── 000000.npy
│ ├── 000003.npy
│ ├── ...
```
5. 离线训练RCNN,并且通过参数`--rcnn_training_roi_dir` and `--rcnn_training_feature_dir` 来指定 RPN 模型保存的输出特征和ROI路径。
```
python train.py --cfg=./cfgs/default.yml \
--train_mode=rcnn_offline \
--batch_size=4 \
--epoch=30 \
--save_dir=checkpoints \
--rcnn_training_roi_dir=output/detections/data \
--rcnn_training_feature_dir=output/features
```
RCNN模型训练权重默认保存在`checkpoints/rcnn`目录下,可通过`--save_dir`参数指定。
**注意**: 最好的模型是通过保存RPN模型输出特征和ROI并离线数据增强的方式训练RCNN模型得出的,目前默认仅支持这种方式。
### 模型评估
**PointRCNN模型:**
可通过如下方式启动 PointRCNN 模型的评估:
1. 指定单卡训练并设置动态库路径
```
# 指定单卡GPU训练
export CUDA_VISIBLE_DEVICES=0
# 设置动态库的路径到 LD_LIBRARY_PATH 中
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:`python -c 'import paddle; print(paddle.sysconfig.get_lib())'`
```
2. 保存RPN模型对评估数据的输出特征和ROI
保存RPN模型对评估数据的输出特征和ROI命令如下,可以通过参数`--ckpt_dir`来指定RPN训练最终权重保存路径,RPN权重默认保存在`checkpoints/rpn`目录。
通过`--output_dir`指定保存输出特征和ROI的路径,默认保存到`./output`目录。
```
python eval.py --cfg=cfgs/default.yml \
--eval_mode=rpn \
--ckpt_dir=./checkpoints/rpn/199 \
--save_rpn_feature \
--output_dir=output/val
```
保存RPN模型对评估数据的输出特征和ROI保存的目录结构与上述保存离线增强数据保存目录结构一致。
3. 评估离线RCNN模型
评估离线RCNN模型命令如下:
```
python eval.py --cfg=cfgs/default.yml \
--eval_mode=rcnn_offline \
--ckpt_dir=./checkpoints/rcnn_offline/29 \
--rcnn_eval_roi_dir=output/val/detections/data \
--rcnn_eval_feature_dir=output/val/features \
--save_result
```
最终目标检测结果文件保存在`./result_dir`目录下`final_result`文件夹下,同时可通过`--save_result`开启保存`roi_output`和`refine_output`结果文件。
`result_dir`目录结构如下:
```
result_dir
├── final_result
│ ├── data # 最终检测结果
│ │ ├── 000001.txt
│ │ ├── 000002.txt
│ │ ├── ...
├── roi_output
│ ├── data # RCNN模型输出检测ROI结果
│ │ ├── 000001.txt
│ │ ├── 000002.txt
│ │ ├── ...
├── refine_output
│ ├── data # 解码后的检测结果
│ │ ├── 000001.txt
│ │ ├── 000002.txt
│ │ ├── ...
```
4. 使用KITTI mAP工具获得评估结果
若在评估过程中使用的python版本为3.6及以上版本,则程序会自动运行KITTI mAP评估,若使用python版本低于3.6,
由于KITTI mAP仅支持python 3.6及以上版本,须使用对应python版本通过如下命令进行评估:
```
python3 kitti_map.py
```
使用训练最终权重[RPN模型](https://paddlemodels.bj.bcebos.com/Paddle3D/pointrcnn_rpn.tar)和[RCNN模型](https://paddlemodels.bj.bcebos.com/Paddle3D/pointrcnn_rcnn_offline.tar)评估结果如下所示:
| Car AP@ | 0.70(easy) | 0.70(moderate) | 0.70(hard) |
| :------- | :--------: | :------------: | :--------: |
| bbox AP: | 90.20 | 88.85 | 88.59 |
| bev AP: | 89.50 | 86.97 | 85.58 |
| 3d AP: | 86.66 | 76.65 | 75.90 |
| aos AP: | 90.10 | 88.64 | 88.26 |
## 参考文献
- [PointRCNN: 3D Object Proposal Generation and Detection From Point Cloud](https://arxiv.org/abs/1812.04244), Shaoshuai Shi, Xiaogang Wang, Hongsheng Li.
- [PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space](https://arxiv.org/abs/1706.02413), Charles R. Qi, Li Yi, Hao Su, Leonidas J. Guibas.
- [PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation](https://www.semanticscholar.org/paper/PointNet%3A-Deep-Learning-on-Point-Sets-for-3D-and-Qi-Su/d997beefc0922d97202789d2ac307c55c2c52fba), Charles Ruizhongtai Qi, Hao Su, Kaichun Mo, Leonidas J. Guibas.
## 版本更新
- 11/2019, 新增 PointRCNN模型。